999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進YOLOv5的合成孔徑雷達圖像艦船目標檢測方法

2023-12-04 05:07:50賀翥禎楊愛濤
系統(tǒng)工程與電子技術 2023年12期
關鍵詞:特征融合檢測

賀翥禎, 李 敏, 茍 瑤, 楊愛濤

(1. 火箭軍工程大學作戰(zhàn)保障學院, 陜西 西安 710025; 2. 國防科技大學信息與通信學院, 湖北 武漢 430010)

0 引 言

海洋權益涉及國家的根本利益,為維護軍事和領海安全,對艦船目標進行有效的檢測識別尤為重要。合成孔徑雷達(synthetic aperture radar, SAR)具有受復雜天氣因素影響小,在日間或夜間環(huán)境均可工作的特點[1],十分符合艦船目標監(jiān)測所需的環(huán)境適應性和適時性的要求,因此得到了廣泛使用。

受制于硬件算力制約,早期SAR圖像的艦船目標檢測技術主要依賴于預先定義的分布和人工設計特征,例如雙參數(shù)恒虛警率算法等[2-4]。這些傳統(tǒng)的艦船目標檢測算法大多針對特定場景,主要對海雜波進行建模與仿真以及恒虛警目標的檢測,但其算法魯棒性較低,泛化性差。

近年來,隨著硬件性能的不斷提升,卷積神經(jīng)網(wǎng)絡(convolutional neural network, CNN)的迅速崛起使得基于深度學習的目標檢測算法受到了廣泛關注,這類算法在實現(xiàn)特征自行提取方面具備極大優(yōu)勢,可以擺脫對人工設計特征和建模的依賴,達到較好的識別精度和泛化性能。在發(fā)展過程中,CNN根據(jù)處理流程又可分為兩類。第一類是以區(qū)域CNN(region CNN, R-CNN)[5]、Fast R-CNN[6]、Faster R-CNN[7]等為代表的二階段算法,此類算法的檢測準確率較高,但由于需要先提取候選區(qū)域,其網(wǎng)絡結構較大,執(zhí)行速率較慢。第二類是以單次多框檢測器(single-shot multi-box detecfor, SSD)[8]和YOLO(You Only Look Once)系列[9-12]等為代表的一階段算法,其主要思路是將分類和目標的定位均看作回歸問題,執(zhí)行一次處理。與二階段算法相比,其檢測不需要生成候選區(qū)域,大大提高了算法效率,但其檢測精度略低。

針對上述兩類算法的缺點,學者們不斷進行著改進優(yōu)化。如趙江洪等[13]和顧佼佼等[14]使用不同的網(wǎng)絡替代視覺幾何組(visual geometry group, VGG)作為其主干網(wǎng)絡,并調(diào)整錨框的尺寸和個數(shù)。馬嘯等[15]增加了判別模塊以及類別預測分支和語義分割分支。這些基于二階段算法的改進雖然在一定程度上減小了主干網(wǎng)絡的結構,提高了檢測精度均值,但保留了區(qū)域推薦模塊,網(wǎng)絡結構仍比一階段算法復雜。唐崇武等[16]通過微調(diào)分類網(wǎng)絡、增加訓練尺度、聚類目標邊框維度等方法優(yōu)化了YOLOv3檢測算法。胡欣等[17]基于YOLOv5增加了多分支注意力機制。錢坤等[18]改進了YOLOv5網(wǎng)絡的激活函數(shù)和網(wǎng)絡特征融合結構。以上改進不同程度地提高了一階段算法的檢測精度,但在原算法上增加了較高的計算量。

因此,使用深度CNN進行SAR圖像艦船目標檢測面臨的一個重要問題,就是兼顧網(wǎng)絡規(guī)模和目標檢測精度。就當前的改進算法性能而言,一階段算法更具優(yōu)勢,在盡量維持原有計算量的情況下進一步改進一階段算法的檢測精度,具有重要的研究價值和意義。

另外,SAR的斑點噪聲影響是目標檢測亟需解決的一個重要問題。由于獨特的成像技術,SAR圖像存在很多斑點噪聲,這些噪聲會影響目標檢測精度。處于港口沿岸的艦船圖像,成像時的斑點噪聲和檢測時遇到的干擾目標(如小島、陸地和海雜波)混雜在一起,將產(chǎn)生較多虛警。

除此以外,當前檢測算法對于SAR的艦船目標存在多尺度情況下泛化性弱的問題。SAR的艦船圖像由于存在多分辨率成像模式以及不同的船舶尺寸等情況,導致輸入圖像目標尺寸差異性大,這樣的多尺度輸入會使算法性能不穩(wěn)定。尤其是當小目標映射到最終特征圖時,用于位置細化和分類的信息很少,會降低檢測性能。

本文從上述問題出發(fā),提出了一種基于坐標注意力(coordinate attention, CA)機制及多尺度融合的目標檢測算法。算法以YOLOv5新的版本(V6.1版)為基礎,進行了深度優(yōu)化:一是結合CA改進主干網(wǎng)絡,側重目標坐標重要度信息以提高模型特征提取能力,抑制了噪聲和干擾的影響;二是改進了原網(wǎng)絡的特征融合結構,添加了具有跳躍連接的加權雙向特征金字塔網(wǎng)絡(bi-directional feature pyramid network, BiFPN)進行多尺度融合,提高多尺度下的泛化能力;三是設計了一種新的預測框損失函數(shù)——快速有效的交并比(rapid and efficient intersection over union, REIOU),以加快預測框收斂的速度和準確性。改進后網(wǎng)絡的權重文件僅增加了0.4 M,確保了網(wǎng)絡的輕量化。最后,將模型在SAR艦船檢測數(shù)據(jù)集(ship detection dataset, SSDD)上進行了實驗驗證,其平均精度均值(mean average precision, mAP)相比原算法提高了1.9%。

1 YOLOv5網(wǎng)絡結構

1.1 YOLOv5的網(wǎng)絡結構

YOLOv5的網(wǎng)絡結構主要包括主干段、頸部段和頭部段3部分。實現(xiàn)過程中,為增加預測的準確性和模型泛化能力,在數(shù)據(jù)進入預測網(wǎng)絡前,對YOLOv5進行了一系列的圖像增廣和自適應錨框計算等預處理操作,其網(wǎng)絡具體結構如圖1所示。

圖1 YOLOv5 (V6.1版)的模型結構Fig.1 Model structure of YOLOv5 (version6.1)

1.2 新版本重要改動

YOLOv5的V6.1版本在主干段部分,采用了新的CSPDarknet53網(wǎng)絡結構對圖像的特征進行提取。與早期版本有所區(qū)別,V6.1版本去掉了之前的Focus聚焦結構,并將此前的BottleneckCSP部分更新為C3,C3的具體結構如圖1左下角所示。主干段就是以一系列的C3將各尺度的特征圖分成兩部分進行前向計算,一路經(jīng)過頸部段處理,另一路與第一路直接進行特征融合。這樣做的優(yōu)勢是減少了梯度的重復計算,在保證速度和準確率的同時,減少了網(wǎng)絡參數(shù)和運算量。最后,將提取的特征圖直接輸入改進的快速空間金字塔池化(spatial pyramid pooling-fast, SPPF),對網(wǎng)絡不同尺度的特征進行融合。

在頸部段部分,YOLOv5使用了路徑聚合網(wǎng)絡(path aggregation network, PANet)[19]進行了特征融合,PANet是在特征金字塔網(wǎng)絡(feature pyramid network, FPN)[20]基礎上增加的一條自底向上的信息流通路,縮短了信息傳輸路徑,旨在使準確的底層定位信息能夠增強到整個特征提取網(wǎng)絡,其總體結構如圖2所示。

在頭部段部分,YOLOv5的V6.1版本采用了完全交并比(complete intersection over union, CIOU)損失[21]替代了早期版本中的廣義交并比(generalized intersection over union, GIOU)[22]損失,作為預測框損失函數(shù)。CIOU考慮了中心點距離和寬高比兩個參數(shù)。相比GIOU而言,其算法收斂速度更快。

圖2 PANet結構Fig.2 PANet structure

2 基于注意力機制及多尺度融合的YOLOv5改進網(wǎng)絡

2.1 算法框架

算法框架如圖3所示,其中紅色部分為本文的改進部分。輸入圖像具有靈活的尺寸,經(jīng)圖像預處理統(tǒng)一調(diào)整為640×640大小,之后經(jīng)過一系列CBL模塊和C3模塊的卷積處理得到深層特征,再將特征圖經(jīng)CA模塊為其各特征點重新賦予權重后輸入快速空間金字塔池化SPPF模塊。這一過程主要是從特征圖中抽取橫縱坐標因子,做批歸一化(batch normalization, BN)后得到坐標權重,增大了卷積核的局部感受野。隨后,圖像特征在移除了單輸入結點,增加了跳躍連接的BiFPN網(wǎng)絡后,進行多尺度融合,最后在頭部段將3個尺度下的預測信息進行處理,以得到置信度損失、類別損失和預測框損失,其中的預測框損失使用了設計的REIOU損失。

圖3 改進后的算法模型結構Fig.3 Model structure of the improved algorithm

2.2 CA機制

CA機制的思想是令網(wǎng)絡在提取某類物體特征時對于位置或通道的關注有明顯的側重,以此提高算法性能。但其會造成計算量的增加,這對于訓練時間和算力成本的控制以及移動端部署極為不利。相比其他注意力機制,CA[23]計算開銷小,并且在x坐標和y坐標方向上對位置進行池化和BN,以圖像中目標坐標灰度值分布特點對原特征圖中的每一處賦予坐標權重,可以有效抑制SAR圖像中的噪聲和干擾影響,因此引入CA機制對網(wǎng)絡進行改進。CA模塊的具體實現(xiàn)結構如圖4所示。

圖4 CA模塊的結構Fig.4 Structure of CA module

其具體工作流程如下:

對于輸入尺寸為C×H×W的特征圖,分別進行水平方向和垂直方向的平均池化,得到大小為C×1×W和C×H×1的兩組張量,其公式為

(1)

(2)

(3)

式中:C(·)表示連接操作;?表示卷積運算。

經(jīng)過BN層和Sigmoid的非線性變換后,重新按水平和垂直方向分割成大小為H和W的兩部分fh和fw,并同時恢復原通道數(shù)的大小,再將fh和fw經(jīng)過Sigmoid函數(shù)得到輸出gh和gw,公式如下:

gh=Sigmoid(Fh(fh))

(4)

gw=Sigmoid(Fw(fw))

(5)

gh和gw表示坐標水平和垂直方向的重要程度,以其為CA,對原特征圖進行權重賦值,得到CA的最終輸出公式如下:

yc(i,j)=xc(i,j)×gh×gw

(6)

CA即通過賦予特征圖各通道的各坐標權重,從而有效關注空間坐標位置信息。

本文在改進過程中進行了兩種方案的嘗試,兩方案分別如圖5(a)和圖5(b)所示。一是直接改進所有C3模塊,使之在提取特征時就已側重空間坐標位置信息;二是將該注意力機制嵌入到主干段中的SPPF模塊之前,對總特征圖進行CA機制處理,以提取感興趣的目標區(qū)域特征。經(jīng)實驗比較,發(fā)現(xiàn)后者性能更好,因此最終選擇了方案2。

圖5 兩種改進方案的主干網(wǎng)絡示意圖Fig.5 Backbone network schematic diagram of the two improved schemes

2.3 加權雙向特征金字塔多尺度特征融合

YOLOv5中的主干段部分經(jīng)過了多個C3模塊組的處理,且每經(jīng)過一個C3模塊組,特征圖的尺寸大小便會縮小為原來的50%,這主要是為了提取更高維的語義信息,但在獲取更高維特征的同時,會損失掉部分底層細節(jié)特征,因此YOLOv5在頸部段部分使用了PANet的基本結構,促進不同尺度特征信息的融合,以彌補此缺陷。PANet是基于FPN的改進,它在FPN自頂向下的融合路徑之后又添加了一條自底向上的路徑,利用準確的低層定位信號增強整個特征層次,從而縮短了低層與頂層特征之間的信息路徑。

圖6 PAN和BiFPN的網(wǎng)絡結構Fig.6 Network structure of PAN and BiFPN

BiFPN在PANet上的改進可總結為3個方面:一是減少了部分節(jié)點,BiFPN在融合處刪除了單輸入節(jié)點,因為這樣的節(jié)點相較于前一節(jié)點沒有額外信息,去掉節(jié)點后可減少冗余計算;二是增加了不相鄰節(jié)點間的跳躍鏈接,使輸出層不但能夠得到自下而上已經(jīng)參與特征融合的信息,還保留了原始節(jié)點未經(jīng)融合的信息;三是BiFPN在特征融合后,可繼續(xù)堆疊,做進一步融合,以改善效果。

考慮到算法網(wǎng)絡結構復雜度和改進后的計算量等實際情況,本文設計的BiFPN融合層數(shù)為3,堆疊數(shù)為1,結合原主干段網(wǎng)絡實際結構,添加了一次跳躍連接,并改變了原層次的連接關系,具體連接關系如圖7所示。

圖7 改進后的特征融合網(wǎng)絡Fig.7 Improved feature fusion network

對照圖7,以P6為例,羅列出輸入輸出關系式如下:

(7)

式中:Conv為卷積操作,由C3模塊執(zhí)行;Resize通常為上采樣或下采樣操作,以匹配各特征圖大小。在本算法中,左側兩黑色虛線框中的upsample執(zhí)行上采樣,而右側兩黑色虛線框中的CBL執(zhí)行下采樣。

2.4 損失函數(shù)

YOLOv5算法V6.1版本的預測框損失函數(shù)采用了CIOU損失,但在預測框回歸過程中,一旦CIOU與真實框的寬高縱橫比相同,預測框的寬和高無法同時增加或者減小,以致不能繼續(xù)優(yōu)化。為解決此問題,本文在參考EIOU[25]的基礎上,設計了一種新的損失函數(shù)——REIOU作為預測框損失函數(shù),在CIOU基礎上將預測框和真實框的縱橫比直接拆分為單獨預測長和寬,并結合其梯度下降趨勢對損失函數(shù)進行了改進。

原始的EIOU示意圖如圖8所示,其損失值如下:

(8)

式中:C為覆蓋預測框與真實框的最小外接框的對角線長度;Cw和Ch分別為其寬度和高度;ρ(b,bgt)為預測框與真實框中心點的距離;ρ(w,wgt)和ρ(h,hgt)分別為其橫向差值和縱向差值,具體如下:

ρ(w,wgt)=|w-wgt|

(9)

ρ(h,hgt)=|h-hgt|

(10)

圖8 EIOU示意圖Fig.8 EIOU schematic diagram

式(8)實際包含了IOU損失、中心點距離損失和預測框與真實框的縱橫比損失3方面內(nèi)容。將此3項內(nèi)容整合后,影響最終損失值的所有變量即為式中的EIOU。EIOU的值越接近于1,則預測框損失越小。為確保預測框損失能夠更快收斂,設計REIOU損失如下:

(11)

式(11)中的LREIOU與原始LEIOU均隨EIOU值的增大而減小,下限均為0。但兩者相比,LREIOU曲線梯度較LEIOU更大,收斂更快。且梯度隨EIOU值增大而逐漸降低。當EIOU的值趨向于1時LREIOU梯度趨近于-1,因此具有自適應調(diào)節(jié)的良好性能。兩者曲線比對如圖9所示。

圖9 REIOU與EIOU對比圖Fig.9 Comparison of REIOU and EIOU

3 實驗結果與分析

3.1 原始架構與實驗環(huán)境

本文算法以YOLOv5s為原始架構進行改進。YOLOv5系列共分為五種網(wǎng)絡架構,區(qū)別僅在于網(wǎng)絡規(guī)模和參數(shù)量的差異。通過調(diào)節(jié)深度因子和寬度因子,改變主干段部分中的C3模塊個數(shù)及其內(nèi)部卷積核個數(shù),最終形成不同的網(wǎng)絡深度和網(wǎng)絡寬度。其參數(shù)對比如表1所示,對比項目包括深度因子、寬度因子、總參數(shù)量、網(wǎng)絡層數(shù)和浮點運算數(shù)(floating point operations, FLOPs)。

表1 YOLOv5系列各網(wǎng)絡結構規(guī)模

事實上,本文的改進適用于YOLOv5系列所有的網(wǎng)絡架構,但綜合考慮到網(wǎng)絡規(guī)模、訓練時長以及識別率等因素,最終選擇了較為輕量的YOLOv5s進行改進實現(xiàn)。實驗的軟硬件環(huán)境搭建如表2所示。

表2 實驗的軟硬件環(huán)境

3.2 數(shù)據(jù)集與訓練策略

實驗使用的數(shù)據(jù)集為公開的SSDD數(shù)據(jù)集[26],該數(shù)據(jù)集共有1 160張SAR圖像,包含2 456個艦船目標,具有多種極化模式、多種分辨率,包括了海面及沿岸等多種艦船場景,能有效驗證模型的魯棒性。本文實驗將SSDD數(shù)據(jù)集按照7∶2∶1的比例隨機劃分為訓練集、驗證集、測試集。

實驗在數(shù)據(jù)集上從頭開始訓練權重,使用隨機梯度下降(stochastic gradient descent, SGD)優(yōu)化器對網(wǎng)絡參數(shù)進行迭代更新,動量參數(shù)設為0.937,批次大小設為32,訓練周期為100個輪次,訓練時使用了warm-up方法對學習率的調(diào)整進行預熱。其中,設置初始學習率lr0為0.01,在前3個輪次進行warm-up使學習率迭代更新直至0.1,之后使用余弦退火算法再次更新學習率,最終使學習率下降至0.001。

3.3 評價指標

本實驗對改進算法的評價從目標檢測性能、運算處理速度和模型大小3個方面展開。

目標檢測性能以mAP為主要指標進行評價。mAP是以召回率R和查準率P為橫、縱坐標形成的曲線與兩坐標軸構筑的面積大小,其作為衡量模型整體性能的最終評價指標,具體表示為

(12)

式中:TP表示目標正確檢測的個數(shù);FN表示目標漏檢的個數(shù);FP為錯檢的目標個數(shù)。

上述評價指標的確定與IOU檢測閾值緊密相關,本實驗設置IOU檢測閾值為0.5,即當檢測框與真實框的重疊區(qū)域超過50%時,判定檢測框預測位置正確。

運算處理速度以每秒處理幀數(shù)(frame per second, FPS)和FLOPs為指標進行評價。這兩個指標能夠分別表明模型的動態(tài)實時檢測能力以及模型所需的算力負載。

模型大小以參數(shù)量和模型權值文件大小為指標進行評判,這兩個指標能夠表明模型的輕量化程度,并為移動端移植的可行性提供參考。

3.4 結果與分析

3.4.1 消融實驗

本文算法從特征提取、特征融合和損失函數(shù)3方面對YOLOv5s進行了改進,為評估此3項改進對SAR艦船目標檢測的優(yōu)化程度,設計了單項及多項組合的消融實驗,實驗結果如表3所示。

表3 各改進算法的性能比較

其中,第一行為原YOLOv5算法,最后一行為本文提出的改進算法,中間幾行為消融實驗的對比算法,表格內(nèi)“√”表示使用了當前模塊,“—”表示未使用當前模塊。

從改進算法1~改進算法3可以看出,就單個模塊對算法檢測效果的改善而言,CA機制和BiFPN、REIOU相比帶來的性能改善相對較低,但通過改進算法4可以看出,CA一旦與BiFPN相結合,對算法檢測能力的改善則會有明顯提升,這是因為BiFPN存在跳躍連接,在此基礎上進行特征融合,可充分利用CA側重感受目標空間位置的優(yōu)勢,而原算法的特征融合沒有跳躍連接,因此CA帶來的優(yōu)勢并未被有效利用至后續(xù)的檢測過程中。在改進算法3、改進算法5、改進算法6中,可以看到采用REIOU作為損失函數(shù),也能較好改善算法的平均精度均值,這是因為REIOU解決了原算法中預測框的長寬比在達到真實框長寬比的情況下無法同時增大或縮小的問題,使預測框損失得到有效改善。對比本文算法可知,綜合3方面的改進可最大限度地提高原算法的目標檢測性能,在SSDD數(shù)據(jù)集上使mAP從原來的94.8%提升至96.7%,性能改善了1.9%。

3.4.2 性能曲線

本文算法與原YOLOv5s在迭代過程中mAP值以及l(fā)oss曲線的對比情況如圖10和圖11所示。

圖10 算法改進前后mAP值曲線Fig.10 mAP curve before and after algorithm improvement

圖11 算法改進前后的loss曲線Fig.11 Loss curve before and after algorithm improvement

圖10展示了本文算法與原YOLOv5s算法的mAP值曲線。由圖10可以看到,本文算法mAP值收斂更快,在約20個輪次時即可達到90%左右,而原YOLOv5s算法需要50個輪次后方能達到同樣水平。這是由于本文引入的CA機制給予側重的坐標位置特征更大的權重,使得算法在迭代時更具方向性,收斂更快,結合BiFPN結構可更有效地提取特征并進行融合,故本文算法收斂過程較原算法更為平穩(wěn),最終收斂值更高。

圖11展示了算法改進前后的loss曲線,其中紅色代表改進算法loss曲線,藍色代表原算法loss曲線。由圖11可知,改進算法的loss值下降更快,最終收斂值更低。這是因為REIOU對預測框的損失進行了重新定義,將預測框損失由預測框和真實框的長寬比改為了直接預測目標框長度和寬度兩個因子,并優(yōu)化了下降的梯度,使收斂性能得到有效改善。

3.4.3 檢測效果

為直觀展現(xiàn)本文算法的檢測效果,從測試集的檢測結果中選取了四張具有代表性的典型場景檢測結果,如圖12所示。其中,圖12(a)、圖12(b)展示了在遠海小目標時的艦船檢測結果。圖12(c)、圖12(d)展示了艦船入港時復雜背景情況下的艦船檢測結果。

圖12 實驗結果示例Fig.12 Examples of experimental results

從圖12可以看出,算法對于離港的艦船在無港口、島嶼等干擾的情況下,檢測效果良好,無論是對少數(shù)目標或是多個離散分布的目標都能實現(xiàn)準確的識別。對于艦船入港時具有復雜背景影響的情況,改進算法也具有良好的檢測效果,尤其是在圖12(d)中,算法對于復雜背景下,不同尺寸大小且分布密集的艦船目標均可實現(xiàn)準確定位和識別,漏警率和虛警率低。

3.4.4 算法比較

為驗證算法的有效性和先進性,將本文算法與其他常用目標檢測算法在SSDD數(shù)據(jù)集上進行了橫向?qū)Ρ葘嶒?結果如表4所示。

表4 SSDD數(shù)據(jù)集上各檢測算法對比

對于平均檢測精度而言,各算法的mAP值均可達到83%以上。對比兩階段算法中主干段采用ResNet50[27]+FPN結構的Faster-RCNN,本文算法的mAP提升了13%,性能改善明顯,對比單階段的RetinaNet[28]和SSD算法,本文算法的mAP也分別有4.7%、10.6%的提升,具有更加優(yōu)秀的檢測能力,同時也優(yōu)于同系列的YOLOv3和YOLOv5s算法。

在運算速度和計算量上,本文算法FPS達到了127,與除YOLOv5s的其他算法相比提高了3~7倍。FLOPs的大小為16.6 G,遠小于Faster-RCNN、RetinaNet、YOLOv3 3種算法。與SSD算法相比,雖然總計算量略高,但由于算法結構具有較高并行度,改進算法實際處理速率達到了SSD的3倍,具有明顯優(yōu)勢。與原算法YOLOv5s相比,由于增加了CA機制,改進算法總的計算量略有增加,運算速度亦有所下降,然而127 FPS的速率已經(jīng)可以滿足當前大多數(shù)的工程實際需求。在可接受的下降范圍內(nèi),新算法換來了檢測性能的明顯提升。

至于參數(shù)量和權重文件大小,本文算法的參數(shù)量僅為7.2 M,權重文件大小為14.1 MB,約為SSD算法的1/2,Faster-RCNN的1/7,RetinaNet的1/8,YOLOv3的1/9,顯著優(yōu)于其他算法。與原YOLOv5s算法相比,本文算法參數(shù)量和權重文件僅增加了0.2 M和0.4 MB,仍然保持了輕量化,便于在移動端上部署和執(zhí)行。

3.5 與其他改進算法的對比

在確定本文算法的過程中,進行了兩種CA嵌入方案的對比實驗,其具體實現(xiàn)見第2.2節(jié),實驗結果如表5所示。其中,方案1和方案2為第2.2節(jié)所述的方案1與方案2。兩種方案均采用了REIOU和BiFPN。

表5 兩種CA嵌入方案性能對比

從表5可知,方案1所需的計算量和參數(shù)量更小。這是因為方案1為控制參數(shù)規(guī)模,在為每一個C3模塊嵌入CA時,去掉了原先C3中的頸部段,相較頸部段而言嵌入的CA需要更新的參數(shù)量更少,具有更小的計算量,同時其FPS值也相應較高。但由于去掉了具有跨層連接的頸部段結構,其特征提取能力會有所下降,因而方案1的平均精度mAP值不及方案2。考慮到檢測性能的影響,本文算法最終選用了第二種嵌入方案。

為進一步驗證本文算法的先進性以及對原YOLOv5算法帶來的性能影響,將本文算法與一些其他改進算法進行了實驗比對,結果如表6所示。改進算法在原主干段融入了SE[29]、CBAM[30]和CA三種不同的注意力機制,改進算法1~改進算法3、改進算法4~改進算法6、改進算法7和改進算法8在各注意力機制基礎上分別使用SIOU[31]、EIOU和REIOU作為預測框損失函數(shù)。上述的8種改進算法均在BiFPN的結構中實現(xiàn)了特征融合,最后與本文改進算法進行了比對。

表6 YOLOv5s及改進算法的性能參數(shù)比對

實驗結果表明,以上9種改進算法均能提高檢測算法的性能。就mAP值而言,在損失函數(shù)相同的情況下,CA機制相對SE、CBAM能夠為原算法帶來更多提升,在SIOU、EIOU和REIOU下分別提高1.2%、1.7%和1.9%。就參數(shù)量而言,CA帶來的增長也是3種注意力機制中最少的。故而在三者中選擇CA機制為宜。在注意力機制確定的情況下,采用REIOU作為預測框損失相較SIOU而言,FPS值基本保持不變,mAP值在SE和CA下有0.3%~0.7%的提升;相較EIOU而言,采用REIOU時其mAP值在SE和CA上均有0.2%的提升,同時考慮其擁有更快的收斂速度,因而損失函數(shù)采用REIOU為宜。同時結合實驗結果,也可看出本文改進方案在表6所列所有方案中效果是最佳的。

為清晰直觀地展示原算法和幾種改進算法的性能差異,除原算法和本文改進算法,在其余的8種改進算法中選擇了性能最好的3種算法,并從測試集中挑選了5種典型場景的SAR圖像檢測結果進行橫向?qū)Ρ?如圖13所示。

由圖13可以看出,所展示的五種算法均可對SAR圖像的艦船目標做出有效檢測,但存在部分漏檢或錯檢的情況。在以第一幅圖為代表的深海區(qū)域多目標情形下,5種算法均可準確檢測出所有目標。第二、第三、第四幅圖分別為復雜背景大、中、小三種尺度下入港艦船檢測結果。第二幅圖中,原算法和改進6算法存在漏檢,改進3算法存在錯檢情況;第三幅圖中,原算法和改進6算法存在嚴重漏檢,改進7算法存在部分漏檢;第四幅圖中,原算法將部分背景錯檢為目標。而對于此三幅圖,本文算法均未出現(xiàn)漏檢及錯檢情況。第五幅圖展示了密集多目標位于圖像邊緣的情況,原算法和改進3算法、改進6算法存在漏檢,改進7算法和本文算法結果良好。

綜上可知,在多種尺度的SAR圖像中,本文算法無論是對深海區(qū)域的離港艦船或是對處于復雜背景下的入港艦船,相比原算法及其他對比改進算法都具有更高的檢測精度,更好的魯棒性和更低的漏檢/錯檢率。

雖然本文算法取得了性能上的提升,但通過實驗仍發(fā)現(xiàn)了一些不足,主要體現(xiàn)在復雜背景下有強干擾信號時存在的目標漏檢問題,如圖14所示。由于單通道SAR圖像本身缺乏紋理、色彩等細節(jié)信息,且圖像分辨率較低,網(wǎng)絡的學習能力不能充分發(fā)揮,再加之訓練集僅有812張圖片,缺乏足夠的學習樣本,含有強噪聲干擾的目標樣本則更少,使得網(wǎng)絡的泛化能力不足,而導致上述現(xiàn)象發(fā)生。

圖14 目標存在干擾時的漏檢Fig.14 Missed detection in the presence of target interference

4 結 論

針對當前基于深度學習的SAR圖像目標檢測算法易受噪聲和背景干擾影響,以及在多尺度條件下檢測性能下降的問題,本文在兼顧算法網(wǎng)絡規(guī)模和檢測精度的基礎上,提出了一種基于CA機制和多尺度融合而改進的YOLOv5目標檢測算法。該算法對于遠海簡單背景情況下以及具有陸地、港口等復雜背景情況下的艦船目標都具有良好的檢測效果。相比其他方法,本文所提算法具有更高的精度和檢測速率,模型更為簡單,權重文件更小。對比原YOLOv5模型,該算法在僅增加少量參數(shù)的情況下,改善了算法的平均檢測精度,同時能夠快速收斂,具備較高的檢測速率,滿足各種工程項目的實時性需求。其權重文件僅為14.1 M,對彈載、機載等移動端設備上的實時SAR圖像檢測具有一定現(xiàn)實意義。

本文方法雖然達到了良好的檢測效果,但在實驗中,由于使用的SSDD數(shù)據(jù)集訓練樣本較少,且缺乏有強噪聲干擾時的訓練樣本,使得在有較強干擾時存在個別目標漏檢的情況。計劃在未來工作中,進一步優(yōu)化損失函數(shù),以解決樣本不平衡的問題,并使用數(shù)量更大、分辨率更高的SAR艦船圖像數(shù)據(jù)集進行訓練,以優(yōu)化網(wǎng)絡結構和提高檢測精度。

猜你喜歡
特征融合檢測
村企黨建聯(lián)建融合共贏
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
《融合》
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 色亚洲成人| 国产jizz| 91免费观看视频| 国产亚洲欧美日本一二三本道| 亚洲天堂高清| 欲色天天综合网| 美女免费黄网站| 国产欧美日韩va| 在线不卡免费视频| 手机在线免费不卡一区二| 中文字幕日韩欧美| 精品午夜国产福利观看| 国产成人喷潮在线观看| 亚洲无码视频图片| 亚洲首页在线观看| 亚洲高清在线天堂精品| 免费看黄片一区二区三区| 波多野结衣二区| 成人在线亚洲| 在线观看国产黄色| 99这里精品| 强乱中文字幕在线播放不卡| 精品无码专区亚洲| 亚洲欧美极品| 毛片大全免费观看| 国产免费人成视频网| 亚洲色中色| a在线亚洲男人的天堂试看| 亚洲欧美不卡中文字幕| 国产拍在线| 欧美亚洲香蕉| 免费 国产 无码久久久| 亚洲天堂视频网站| 成人午夜免费观看| 午夜在线不卡| 亚洲欧美一区二区三区蜜芽| 黄色网在线| 亚洲天堂精品视频| 国产乱人伦AV在线A| 亚洲精品视频免费观看| 欧美69视频在线| 久久亚洲国产一区二区| 欧美成在线视频| 亚洲人成在线精品| 久操中文在线| 成人日韩精品| 九九九精品视频| 久久亚洲AⅤ无码精品午夜麻豆| 国内精自线i品一区202| 六月婷婷激情综合| 亚洲精品午夜无码电影网| 青青青国产视频| 国产69精品久久久久孕妇大杂乱 | 国产区免费精品视频| 午夜成人在线视频| 91免费观看视频| 99精品国产高清一区二区| 国产精品嫩草影院av| 五月天在线网站| 国产精品第页| 综合色区亚洲熟妇在线| 国产精品所毛片视频| 久夜色精品国产噜噜| 色天堂无毒不卡| 97成人在线视频| 国产精品吹潮在线观看中文| 性视频一区| 美女高潮全身流白浆福利区| 欧美激情福利| 国产精品福利尤物youwu| 亚洲色欲色欲www网| 国产精品一区在线观看你懂的| 91成人在线免费视频| 国产成人免费视频精品一区二区| 成人免费网站久久久| 在线观看亚洲天堂| 国产黑丝视频在线观看| 国产精品精品视频| jizz国产在线| 欧美午夜视频在线| 日韩成人在线视频| 久久特级毛片|