999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于通道注意力與特征融合的水下目標(biāo)檢測算法

2022-05-11 07:51:34張艷李星汕孫葉美劉樹東
關(guān)鍵詞:特征融合檢測

張艷, 李星汕, 孫葉美, 劉樹東

(天津城建大學(xué) 計(jì)算機(jī)與信息工程學(xué)院, 天津 300384)

水下目標(biāo)檢測在海軍沿海防御任務(wù)以及漁業(yè)、水產(chǎn)養(yǎng)殖等海洋經(jīng)濟(jì)中發(fā)揮著重要作用。但由于水下環(huán)境復(fù)雜,水下光學(xué)圖像存在嚴(yán)重的退化問題,影響了算法的檢測精度與可靠性。所以如何有效地優(yōu)化水下目標(biāo)檢測算法,使其滿足水下環(huán)境的實(shí)際應(yīng)用場景,提高對(duì)水下目標(biāo)的檢測精度,需要進(jìn)一步研究。

基于傳統(tǒng)圖像處理的目標(biāo)檢測算法時(shí)間復(fù)雜度高、檢測精度較低,難以滿足檢測需求。隨著卷積神經(jīng)網(wǎng)絡(luò)的不斷迭代,國內(nèi)外研究人員提出了許多基于深度學(xué)習(xí)的目標(biāo)檢測算法,其具有時(shí)間復(fù)雜度低、檢測精度高和泛化性強(qiáng)的特點(diǎn)。基于深度學(xué)習(xí)的目標(biāo)檢測算法主要分為2類:①基于回歸思想的單階檢測算法;②基于生成候選區(qū)域的雙階檢測算法。雙階檢測算法首先從輸入圖像中提取候選區(qū)域,然后利用這些候選區(qū)域?qū)崿F(xiàn)目標(biāo)分類與位置修正,如R-CNN[1]、Fast R-CNN[2]、Faster R-CNN[3]、Mask R-CNN[4]等。單階檢測算法直接利用卷積神經(jīng)網(wǎng)絡(luò)從輸入圖像中進(jìn)行目標(biāo)分類和位置修正,如YOLO(you only look once)[5-7]系列算法和SSD(single shot multibox detector)[8]算法等。與雙階檢測算法相比,單階檢測算法由于在進(jìn)行目標(biāo)分類和位置修正前無需生成候選區(qū)域,極大降低了模型的計(jì)算成本,具有較高的實(shí)時(shí)性,更能滿足水下目標(biāo)快速檢測的需求,所以許多研究人員針對(duì)基于單階檢測的水下目標(biāo)檢測算法展開研究。趙德安等[9]基于YOLOv3算法結(jié)合圖像預(yù)處理提高了河蟹的檢測精度;高英杰[10]基于SSD算法利用深度分離可變形卷積模塊進(jìn)一步提高了水下目標(biāo)的檢測精度;劉萍等[11]基于YOLOv3算法利用GAN(generative adversarial networks)模型實(shí)現(xiàn)了海洋生物的識(shí)別。但該類算法沒有充分利用水下目標(biāo)的特征,而且當(dāng)不同尺寸目標(biāo)存在遮擋、重疊問題時(shí)檢測精度不佳,仍存在漏檢和誤檢的問題。

一般基于深度學(xué)習(xí)的目標(biāo)檢測算法在提取特征時(shí)采用相同的權(quán)重學(xué)習(xí)特征圖,導(dǎo)致模型不能反映圖像不同通道特征的重要性。文獻(xiàn)[12]提出的注意力機(jī)制為各通道特征賦予不同的權(quán)重,有選擇性地增強(qiáng)顯著性特征,使獲取的特征圖具有更多的有效信息。Woo等[13]提出的CBAM(convolutional block attention module)算法,利用空間信息與通道信息學(xué)習(xí)得到2個(gè)獨(dú)立維度的注意力特征圖,將其與輸入特征圖相乘自適應(yīng)地進(jìn)行特征細(xì)化,提高了模型的魯棒性。Hu等[14]提出的SE-Net (squeeze and excitation networks)算法,通過顯式建模通道維度的相關(guān)性,提高了模型的檢測精度。在復(fù)雜背景下的水下圖像目標(biāo)檢測任務(wù)中,特征提取模塊需要對(duì)檢測目標(biāo)邊緣特征有選擇性地突出,以進(jìn)一步提高模型的檢測精度,所以本文在特征提取模塊中引入了通道注意力機(jī)制。

針對(duì)上述水下目標(biāo)檢測中存在的問題,本文提出了一種基于通道注意力與特征融合的水下目標(biāo)檢測算法,該算法通過3個(gè)方面提高水下目標(biāo)的檢測精度:①設(shè)計(jì)了基于通道注意力的激勵(lì)殘差模塊,在提取特征時(shí)通過顯式建模卷積特征通道之間的相互依賴性,調(diào)節(jié)各通道的權(quán)重,使特征提取模塊有選擇地增強(qiáng)特征信息,提高了網(wǎng)絡(luò)對(duì)特征的可分辨性,有助于網(wǎng)絡(luò)的回歸預(yù)測與分類訓(xùn)練,提高網(wǎng)絡(luò)對(duì)水下圖像高頻信息的提取能力;②設(shè)計(jì)多尺度特征融合模塊,實(shí)現(xiàn)淺層特征與深層特征的深度融合,提高特征圖的利用率,融合后的特征具有豐富的細(xì)節(jié)信息與語義信息,提高網(wǎng)絡(luò)對(duì)水下不同尺寸目標(biāo)的檢測精度;③設(shè)計(jì)基于拼接和融合的數(shù)據(jù)增強(qiáng)方法,對(duì)同一批次內(nèi)的不同訓(xùn)練圖像進(jìn)行拼接和融合,模擬水下目標(biāo)的重疊、遮擋和模糊情況,提高模型對(duì)水下環(huán)境的泛化性能。

1 水下目標(biāo)檢測算法

本文提出的基于通道注意力與特征融合的水下目標(biāo)檢測算法包括特征提取模塊(feature extraction module)和多尺度特征融合模塊(multi-scale feature fusion module),整體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。首先通過特征提取模塊獲得特征圖,然后利用多尺度特征融合模塊獲得多個(gè)不同尺度的特征圖,最后對(duì)特征圖進(jìn)行解碼得到最終的檢測結(jié)果。

圖1 基于通道注意力與特征融合的水下目標(biāo)檢測算法

1.1 特征提取模塊

為進(jìn)一步提高水下目標(biāo)的特征利用率,本文對(duì)YOLOv3檢測算法中的特征提取模塊DarkNet-53進(jìn)行改進(jìn),設(shè)計(jì)基于通道注意力的激勵(lì)殘差模塊,替代特征提取模塊DarkNet-53中的部分殘差塊,提出基于通道注意力的特征提取模塊SE-DarkNet-53,如圖1中虛線框所示。SE-DarkNet-53模塊由卷積層、殘差塊和激勵(lì)殘差模塊組成,使用激勵(lì)殘差模塊作為第一層,并分別在4個(gè)殘差塊后添加激勵(lì)殘差模塊。通過激勵(lì)殘差模塊對(duì)通道間的相關(guān)性進(jìn)行建模,增強(qiáng)卷積層的特征提取能力,增強(qiáng)后的特征被后續(xù)卷積層有效利用,進(jìn)一步增加網(wǎng)絡(luò)對(duì)特征信息的敏感性,提高特征利用率。對(duì)于輸入的水下圖像,SE-DarkNet-53特征提取的具體過程如下:

首先通過卷積層對(duì)輸入的水下圖像x進(jìn)行特征提取,獲得特征圖fd,如(1)式所示

fd=Conv(Conv(x))

(1)

式中,Conv表示卷積操作。

然后將獲得的特征圖fd輸入基于通道注意力的激勵(lì)殘差模塊(如圖2所示),對(duì)獲得的特征圖的各通道分配權(quán)重,突出不同通道特征圖的顯著性,增強(qiáng)相關(guān)特征信息并抑制無關(guān)信息,提高網(wǎng)絡(luò)對(duì)特征的可分辨性。

圖2 基于通道注意力的激勵(lì)殘差模塊

在基于通道注意力的激勵(lì)殘差模塊中,輸入的特征圖fd通過卷積層進(jìn)行特征提取后獲得特征圖f,如(2)式所示。

f=Conv(Conv(Conv(fd)))

(2)

特征圖f將再經(jīng)過4個(gè)步驟完成特征通道的權(quán)重分配[14]:

1) 特征圖f通過Fsq(·)從空間維度壓縮特征信息,將各通道的特征信息轉(zhuǎn)化為一個(gè)實(shí)數(shù)。通過(3)式所示的特征壓縮過程可以得到統(tǒng)計(jì)量z∈RC,z的第c個(gè)元素計(jì)算方式如(3)式所示。

(3)

式中:fc表示特征圖f的第c個(gè)二維矩陣;下標(biāo)c表示通道;H、W表示該特征圖的高度和寬度;i,j表示在該特征圖橫縱坐標(biāo)分別為i和j的點(diǎn)。

2) 通過激勵(lì)操作Fex(·,W)為每個(gè)特征通道生成權(quán)重參數(shù)s,權(quán)重生成過程為

s=Fex(z,W)=Sigmoid(W2·ReLU(W1·z))

(4)

3) 通過特征加權(quán)操作Fscale(·,·)將各特征通道的權(quán)重s與特征圖f逐通道相乘,實(shí)現(xiàn)特征圖各通道的權(quán)重分配,獲得特征重標(biāo)定的特征圖,記為fe。特征加權(quán)操作過程為

fe=Fscale(f,s)=s·f

(5)

4) 將特征優(yōu)化后的特征圖fe與輸入特征圖fd進(jìn)行殘差連接,得到的特征圖記為fE0,殘差連接操作如(6)式所示。

fE0=Fres(fd)=fe?fd

(6)

式中:Fres(·)表示殘差連接函數(shù);?表示殘差連接。

激勵(lì)殘差模塊輸出的特征圖fE0將經(jīng)過4組殘差塊和激勵(lì)殘差模塊的組合,各組合的輸出結(jié)果為fE1,fE2,fE3,fE4,每個(gè)階段的輸出分別輸入到多尺度特征融合模塊。殘差塊結(jié)構(gòu)如圖3所示,用Fresblock表示。對(duì)于每一組殘差塊和激勵(lì)殘差模塊的組合,輸入特征圖fE(i)經(jīng)過殘差塊后得到特征圖fr(i+1),如(7)式所示。

fr(i+1)=Fresblock(fE(i))

(7)

圖3 殘差塊結(jié)構(gòu)示意圖

圖3中fE(i)為前一組激勵(lì)殘差模塊的輸出特征圖,首先fE(i)通過殘差塊,輸出特征圖fr(i+1),然后特征圖fr(i+1)通過該組合中的激勵(lì)殘差模塊進(jìn)行特征提取,并沿通道維度進(jìn)行特征圖的權(quán)重分配后獲得特征圖fE(i+1)。通過組合殘差塊和激勵(lì)殘差模塊,可以更好地?cái)M合通道間的相關(guān)性,使用全局信息來選擇性地增強(qiáng)特征并緩解增加模型深度引起的梯度消失現(xiàn)象,提高網(wǎng)絡(luò)對(duì)水下圖像細(xì)節(jié)信息的提取能力,進(jìn)而提高模型的檢測精度。

1.2 多尺度特征融合模塊

式中:Conv表示卷積操作;Up表示雙線性插值的上采樣操作;Cat表示級(jí)聯(lián)操作。

通過多尺度特征融合模塊,模型獲得4種不同感受野的特征圖,這些特征圖融合淺層特征的細(xì)節(jié)信息和深層特征的語義信息,能夠增強(qiáng)網(wǎng)絡(luò)對(duì)不同尺寸目標(biāo)的檢測性能,有效解決水下目標(biāo)漏檢、誤檢的問題。

1.3 數(shù)據(jù)增強(qiáng)

海洋生物在單一圖像中存在數(shù)量多且分布密集的現(xiàn)象,如圖4所示。圖中重疊是指相同類別的目標(biāo)相互覆蓋,遮擋則表示不同類別的目標(biāo)相互覆蓋,模糊是由于沉淀物與光照引起的。在分類任務(wù)中[15],圖像融合已被證明是有效的。自然圖像分類中融合的關(guān)鍵思想是通過在訓(xùn)練圖像之間進(jìn)行像素融合,增加訓(xùn)練樣本的多樣性,進(jìn)而提升網(wǎng)絡(luò)的學(xué)習(xí)效果。受自然圖像融合的啟發(fā),本文設(shè)計(jì)了數(shù)據(jù)增強(qiáng)方法,對(duì)訓(xùn)練樣本進(jìn)行像素融合的同時(shí)應(yīng)用了有效的空間變換,通過縮放和拼接圖像的方式,擴(kuò)展了訓(xùn)練樣本的分布。該數(shù)據(jù)增強(qiáng)方法使訓(xùn)練樣本具有更加豐富的目標(biāo)信息,利于網(wǎng)絡(luò)學(xué)習(xí)海洋生物在水下光學(xué)圖像中常見的重疊、遮擋和模糊的現(xiàn)象。如圖5所示,該方法通過拼接4張不同的圖像生成拼接訓(xùn)練樣本,然后進(jìn)行圖像融合生成融合訓(xùn)練樣本。

圖4 海洋生物遮擋、重疊和模糊的情況

圖5 數(shù)據(jù)增強(qiáng)示意圖

首先,將4張不同圖像進(jìn)行縮放操作,再將縮放后的圖像依次按左上、左下、右下、右上放入矩形區(qū)域中,以左上和右上的圖像為例,選取2張圖像中長度最大且長度小于矩形最長邊的圖像,將其固定,再將另一張圖像的長度裁剪為矩形最長邊減去固定圖像的長度,寬度同理。拼接后的圖像作為新的訓(xùn)練樣本;然后,將該樣本利用貝塔分布生成的融合系數(shù)進(jìn)行圖像融合[16-17],生成的融合訓(xùn)練樣本與原始訓(xùn)練樣本尺寸相同。考慮到在訓(xùn)練時(shí)若全部使用生成的融合訓(xùn)練樣本,將造成網(wǎng)絡(luò)無法學(xué)習(xí)正常水下環(huán)境中的目標(biāo),導(dǎo)致檢測效果較差,本文使用閾值對(duì)融合訓(xùn)練樣本進(jìn)行控制,生成訓(xùn)練樣本時(shí),通過隨機(jī)函數(shù)生成區(qū)間為[0,1)的實(shí)數(shù),本文閾值設(shè)置為0.5,當(dāng)生成的實(shí)數(shù)大于等于0.5時(shí)生成普通訓(xùn)練樣本,反之生成融合訓(xùn)練樣本。融合過程為

λ=Beta(α,β)

(12)

(13)

(14)

1.4 損失函數(shù)

YOLOv3中使用的損失函數(shù)解決了目標(biāo)分類與位置修正2個(gè)問題,實(shí)現(xiàn)了端到端的檢測,同時(shí)加快檢測速度,故本文使用該損失函數(shù),如(15)式所示。

2 實(shí)驗(yàn)及結(jié)果分析

2.1 實(shí)驗(yàn)數(shù)據(jù)集

實(shí)驗(yàn)數(shù)據(jù)集使用URPC官網(wǎng)提供的水下光學(xué)圖像數(shù)據(jù)集,該數(shù)據(jù)集包括海參、海膽、海星和扇貝的水下圖像以及對(duì)應(yīng)圖像的標(biāo)注。URPC數(shù)據(jù)集共有37 463個(gè)目標(biāo)標(biāo)簽,海參類別目標(biāo)5 246個(gè)、海膽類別目標(biāo)19 458個(gè)、海星類別目標(biāo)6 096個(gè)和扇貝類別目標(biāo)6 663個(gè)。

2.2 實(shí)驗(yàn)環(huán)境及評(píng)價(jià)指標(biāo)

模型訓(xùn)練時(shí)采用的硬件平臺(tái)是CPU為Intel(R)Xeon(R)Gold 5115 CPU @2.40 GHz,內(nèi)存為32 GB,GPU為NVIDIA TiTAN V 12 GB。軟件平臺(tái)為Windows7操作系統(tǒng),深度學(xué)習(xí)框架為Pytorch。模型訓(xùn)練時(shí),目標(biāo)類別數(shù)為4,輸入圖像尺寸為416×416,Batch-Size為8,Epochs為50,初始學(xué)習(xí)率為10-3,權(quán)重的衰減速率為5×10-4,動(dòng)量設(shè)置為0.9,學(xué)習(xí)率調(diào)整策略為固定步長衰減,迭代次數(shù)到達(dá)4×105與4.5×105時(shí),在前一個(gè)學(xué)習(xí)率的基礎(chǔ)上衰減10倍。本文使用召回率、平均精度、平均精度均值以及單張圖像推理時(shí)間來評(píng)估模型的有效性與實(shí)時(shí)性。

2.3 數(shù)據(jù)增強(qiáng)融合系數(shù)實(shí)驗(yàn)

為驗(yàn)證數(shù)據(jù)增強(qiáng)方法的有效性,測試不同Beta分布的融合系數(shù)在URPC數(shù)據(jù)集的性能,本文使用7組不同的Beta分布進(jìn)行實(shí)驗(yàn),使用URPC訓(xùn)練集與測試集進(jìn)行訓(xùn)練與測試,實(shí)驗(yàn)結(jié)果如表1所示。

表1 7組Beta分布的實(shí)驗(yàn)結(jié)果 %

根據(jù)表1結(jié)果可知,Beta(0.3,0.3)效果最差;Beta(0.6,0.6)的檢測精度高于其他6組Beta分布,相比Beta(0.2,0.2)、Beta(0.4,0.4)、Beta(0.5,0.5)和Beta(0.7,0.7)平均精度均值分別提高2.10%,0.27%,0.47%和1.57%;Beta(1.5,1.5)所有類別平均精度均略低于Beta(0.6,0.6),相較于Beta(0.6,0.6)平均精度均值下降0.95%。Zhang等[15]指出,增加α,β的強(qiáng)度可以在訓(xùn)練樣本的基礎(chǔ)上生成更多的融合訓(xùn)練樣本,但這也使網(wǎng)絡(luò)學(xué)習(xí)變得更加困難。隨著α,β的增大,真實(shí)數(shù)據(jù)上的訓(xùn)練誤差增大,泛化差距減小,這隱式地影響了網(wǎng)絡(luò)的學(xué)習(xí)效果。而且通過選擇性實(shí)驗(yàn)可以看出,當(dāng)α,β=0.6時(shí),融合訓(xùn)練樣本在網(wǎng)絡(luò)訓(xùn)練時(shí)的訓(xùn)練誤差與泛化差距保持相對(duì)平衡,所以本文后續(xù)實(shí)驗(yàn)中數(shù)據(jù)增強(qiáng)方法融合系數(shù)設(shè)置為Beta(0.6,0.6)。

2.4 實(shí)驗(yàn)結(jié)果分析

為研究本文所提模型自身的特征提取能力、小目標(biāo)檢測性能和水下環(huán)境中的泛化性能,首先針對(duì)不同模型進(jìn)行消融實(shí)驗(yàn),然后和主流目標(biāo)檢測網(wǎng)絡(luò)YOLOv4[18]與YOLOv5[19]進(jìn)行對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)選取的基準(zhǔn)模型為YOLOv3;模型1添加了激勵(lì)殘差模塊;模型2添加多尺度特征融合模塊;模型3添加激勵(lì)殘差模塊和多尺度特征融合模塊,訓(xùn)練時(shí)未采用基于拼接和融合的數(shù)據(jù)增強(qiáng)方法;模型4為本文模型,訓(xùn)練時(shí)采用基于拼接和融合的數(shù)據(jù)增強(qiáng)方法。所有消融實(shí)驗(yàn)與對(duì)比實(shí)驗(yàn)基于URPC數(shù)據(jù)集進(jìn)行測試,模型的訓(xùn)練參數(shù)均相同。5種模型的消融實(shí)驗(yàn)結(jié)果如表2所示。本文模型和網(wǎng)絡(luò)YOLOv3、YOLOv4、YOLOv5的對(duì)比實(shí)驗(yàn)結(jié)果如表3所示,檢測結(jié)果如圖6~7所示。

表2 5種模型的消融實(shí)驗(yàn)結(jié)果

表3 各算法精度對(duì)比

從表2可以看出,模型1相比YOLOv3,平均精度均值提高2.67%,說明本文設(shè)計(jì)的激勵(lì)殘差模塊突出了不同通道特征圖的顯著性,提高了特征信息的相關(guān)性。模型2相比YOLOv3,平均精度均值提高1.60%,海參類別平均精度提高3.2%,說明本文改進(jìn)的多尺度特征融合模塊能夠有效融合細(xì)節(jié)信息及語義信息,其包含的不同尺度特征圖使模型能夠準(zhǔn)確地檢測不同尺寸的水下目標(biāo)。模型3相比模型1和模型2平均精度均值分別提高0.65%和1.72%。在不增加推理成本的情況下,本文模型(模型4)相比未采用數(shù)據(jù)增強(qiáng)方法的模型3,平均精度均值提高2.10%,海參類別平均精度提高6.70%,證明了基于拼接和融合的數(shù)據(jù)增強(qiáng)方法可以有效提高模型對(duì)水下環(huán)境的泛化能力。

從表3可以看出,YOLOv4、YOLOv5相比YOLOv3,平均精度均值分別提高2.22%與4.52%,驗(yàn)證了其網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)勢(shì)性。本文模型相比YOLOv4與YOLOv5,平均精度均值分別提高3.2%與0.9%,在單類別平均精度中,海參、海膽和扇貝目標(biāo)的檢測精度均優(yōu)于YOLOv4和YOLOv5,證明了本文模型對(duì)復(fù)雜的水下環(huán)境下出現(xiàn)的海洋生物目標(biāo)具有較高的檢測精度。本文模型通過激勵(lì)殘差模塊,在增強(qiáng)網(wǎng)絡(luò)特征提取能力的同時(shí)緩解了網(wǎng)絡(luò)層數(shù)較深時(shí)的梯度消失問題。同時(shí),通過多尺度特征融合模塊與基于拼接和融合的數(shù)據(jù)增強(qiáng)方法,利用其大尺度特征圖具有較小感受野的特性與海洋生物頻繁出現(xiàn)重疊與遮擋的現(xiàn)象,使得網(wǎng)絡(luò)在檢測水下小尺寸目標(biāo)時(shí)減少易出現(xiàn)的誤檢、漏檢問題,進(jìn)一步提高了網(wǎng)絡(luò)對(duì)水下環(huán)境中重疊、遮擋的海洋生物目標(biāo)的泛化性能。

圖6a)和圖7a)標(biāo)出的邊界框均為真實(shí)標(biāo)簽框。圖6a)中共有40個(gè)目標(biāo)且存在重疊、遮擋和模糊的情況,進(jìn)一步增加了檢測難度。圖7a)中海膽尺寸較小,并且由于水下環(huán)境的光照條件導(dǎo)致部分海膽目標(biāo)較為模糊,增加了檢測難度。圖6和圖7的檢測結(jié)果分別如表4和表5所示。

圖6 目標(biāo)密集的水下圖像檢測結(jié)果圖

圖7 目標(biāo)較小的水下圖像檢測結(jié)果圖

表4 目標(biāo)密集的水下圖像檢測結(jié)果

表5 目標(biāo)較小的水下圖像檢測結(jié)果

從圖6和表4可以看出,在檢測數(shù)量較多且存在重疊和遮擋的目標(biāo)時(shí),本文模型在水下復(fù)雜環(huán)境中獲得了較準(zhǔn)確的檢測結(jié)果。對(duì)于海參目標(biāo),YOLOv3、YOLOv4與YOLOv5均檢測到7個(gè),而3種模型均出現(xiàn)誤檢的問題。相比之下,本文模型共檢測到6個(gè)海參目標(biāo),僅漏檢1個(gè)目標(biāo),無誤檢目標(biāo)。對(duì)于重疊的海膽目標(biāo),YOLOv4共檢測到17個(gè),但存在誤檢多個(gè)海膽目標(biāo)的情況,而本文模型僅誤檢1個(gè),優(yōu)于其他3種模型。對(duì)于扇貝目標(biāo),YOLOv4共檢測到17個(gè)扇貝目標(biāo),但將檢測結(jié)果和真實(shí)標(biāo)簽框?qū)φ眨l(fā)現(xiàn)仍存在誤檢扇貝的情況,且4種模型均存在不同程度的漏檢問題。而本文模型僅漏檢1個(gè)扇貝目標(biāo),證明了本文模型對(duì)重疊和遮擋目標(biāo)檢測的有效性。

從圖7和表5可以看出,在檢測較為模糊的目標(biāo)時(shí),YOLOv3與YOLOv4均存在漏檢海膽和誤檢海星的問題,YOLOv5漏檢2個(gè)海膽目標(biāo),而本文模型僅漏檢1個(gè)海膽目標(biāo),共檢測到8個(gè)海膽目標(biāo),未出現(xiàn)誤檢目標(biāo)的情況。綜上所述,本文方法通過校對(duì)特征通道間的相關(guān)性,提高了網(wǎng)絡(luò)生成特征的質(zhì)量;通過多尺度特征融合模塊與基于拼接和融合的數(shù)據(jù)增強(qiáng)方法,提高了網(wǎng)絡(luò)對(duì)水下復(fù)雜環(huán)境下不同尺寸目標(biāo)的檢測精度。

3 結(jié) 論

本文提出一種面向于水下復(fù)雜環(huán)境的基于通道注意力與特征融合的水下目標(biāo)檢測算法,設(shè)計(jì)基于通道注意力的激勵(lì)殘差模塊,改善通道之間的相關(guān)性,增強(qiáng)模型的表征能力;利用多尺度特征融合模塊,有效地解決水下環(huán)境中小尺寸目標(biāo)檢測難的問題;通過基于拼接和融合的數(shù)據(jù)增強(qiáng)方法,增加訓(xùn)練樣本的多樣性,增強(qiáng)模型對(duì)水下環(huán)境的適應(yīng)性。實(shí)驗(yàn)表明,本文算法與YOLOv3、YOLOv4和YOLOv5算法相比,平均精度均值分別提高了5.42%,3.20%和0.9%,單類別平均精度最高提升了12.00%。本文算法在保證實(shí)時(shí)性的前提下,提高了水下目標(biāo)的檢測精度,下一步工作將繼續(xù)研究高效的目標(biāo)檢測算法,使用輕量化注意力模塊提高網(wǎng)絡(luò)的特征提取能力,以應(yīng)用于未來水下機(jī)器人的自主檢測。

猜你喜歡
特征融合檢測
村企黨建聯(lián)建融合共贏
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
《融合》
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
主站蜘蛛池模板: 久久国产精品嫖妓| 91po国产在线精品免费观看| 综合久久五月天| 九色在线观看视频| 欧美色99| 免费Aⅴ片在线观看蜜芽Tⅴ| 亚洲国产一成久久精品国产成人综合| 这里只有精品在线| 极品av一区二区| 波多野结衣久久高清免费| 成人一级黄色毛片| 国产中文一区a级毛片视频| 人妻少妇乱子伦精品无码专区毛片| 国产精品污污在线观看网站| 国产精品免费福利久久播放 | 日日噜噜夜夜狠狠视频| 老司机久久99久久精品播放| 亚洲精品片911| 97成人在线视频| 欧美综合区自拍亚洲综合天堂| 秋霞国产在线| 色噜噜狠狠狠综合曰曰曰| 亚洲男人的天堂久久香蕉网| 91精品国产91久久久久久三级| AV不卡无码免费一区二区三区| 午夜不卡福利| 黄色三级毛片网站| 成人免费一区二区三区| 成人另类稀缺在线观看| 91久久偷偷做嫩草影院| 精品三级网站| 精品久久国产综合精麻豆| 精品国产成人国产在线| 亚洲AV无码久久精品色欲| 国产区免费精品视频| a毛片在线| 亚洲国产综合自在线另类| 欧美三级视频网站| 亚洲一区二区精品无码久久久| 色悠久久综合| 91毛片网| 91在线丝袜| 一级成人欧美一区在线观看 | 国内精品手机在线观看视频| 精品视频免费在线| 香蕉色综合| 久99久热只有精品国产15| 亚洲动漫h| 日韩不卡高清视频| 久久中文无码精品| 青草娱乐极品免费视频| 国产白浆在线观看| 91热爆在线| 日韩精品毛片| 精品福利视频导航| 亚洲综合片| 三级国产在线观看| 成人午夜网址| 国产一在线观看| 欧美成人第一页| 亚洲高清中文字幕在线看不卡| 国产a v无码专区亚洲av| 国产乱码精品一区二区三区中文| 国产精品成人久久| 国产一级视频久久| 国产玖玖玖精品视频| 伊人久久大线影院首页| 精品国产一二三区| 国产中文在线亚洲精品官网| 国产一区免费在线观看| 91九色最新地址| 丁香亚洲综合五月天婷婷| 凹凸国产熟女精品视频| 99精品伊人久久久大香线蕉| 在线观看国产精美视频| 欧美性天天| 国产精品黑色丝袜的老师| 国产又色又爽又黄| 成人噜噜噜视频在线观看| 国产99精品视频| 婷婷六月在线| 视频二区欧美|