999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向合成孔徑雷達圖像任意方向艦船檢測的改進YOLOv3模型

2021-09-23 09:12:10徐英谷雨彭冬亮劉俊陳華杰
兵工學報 2021年8期
關鍵詞:檢測模型

徐英, 谷雨, 彭冬亮, 劉俊, 陳華杰

(杭州電子科技大學 自動化學院, 浙江 杭州 310018)

0 引言

海面艦船目標檢測對于維護我國海洋權益、促進海洋資源開發起到至關重要的作用。目前,用于艦船目標探測的主要數據來源包括雷達一維距離像、合成孔徑雷達(SAR)圖像、衛星或無人機拍攝的遙感圖像、近岸或海面艦船搭載的光電平臺拍攝的視頻圖像等[1]。

SAR是一種主動式微波成像傳感器,具有全天時、全天候工作能力,對土壤、植被和云霧等具有一定的穿透性,在軍事和民用領域具有廣泛的應用[2]。目前,國內外研究學者在SAR圖像艦船目標檢測與識別方面開展了大量的研究工作,建立了較為成熟的SAR圖像艦船目標監視系統[3]。

恒虛警(CFAR) 算法是一種經典的SAR圖像目標檢測算法,其利用待檢測像素的鄰域信息估計背景分布模型,然后基于恒虛警率計算分割閾值,基于貝葉斯理論實現目標和背景像素的分類[4-6]。根據雜波類型不同,可采用的背景像素分布模型包括對數正態分布、威布爾分布、K分布等。根據背景區域劃分策略不同,可分為單元CFAR、單元平均選小CFAR、單元平均選大CFAR、有序統計CFAR和可變窗口CFAR等。雖然CFAR算法在工程上應用已經相對成熟,但仍存在以下問題:1)算法計算量較大,需進行優化處理;2)背景模型選擇帶有一定的主觀性,且在復雜背景下檢測虛警率較高。

隨著深度學習理論和優化技術的發展,基于卷積神經網絡(CNN)的目標檢測識別模型取得了遠超傳統方法的性能[7]。用于目標檢測的深度模型可分為一階段檢測模型和兩階段檢測模型[8]。一階段檢測模型,如文獻[9]提出的一階段多框檢測(SSD)模型和文獻[10]提出的YOLOv3模型,直接根據輸出的特征圖進行回歸,輸出目標位置、置信度和類別等信息。兩階段檢測模型,如文獻[11]提出的Faster R-CNN,一般包含一個區域建議網絡(RPN)和一個基于區域的識別網絡(R-CNN)。RPN網絡用于篩選候選目標區域,R-CNN用于目標類別分類和位置精調。雖然一階段算法具有實時性好的優勢,但檢測精度相較兩階段算法略低。

目前研究學者已成功將深度CNN模型應用于SAR艦船目標檢測[6]。將深度模型應用于SAR圖像艦船目標檢測首要解決的是數據問題,我國學者在這方面做了大量基礎性工作。李健偉等[12]構建了星載SAR圖像艦船檢測數據集(SSDD),共包含不同分辨率、極化、海況等條件下的1 160幅SAR圖像。上海交通大學建立了OpenSAR云平臺,先公開了OpenSARShip艦船分類數據集[13],后又公開了一個包含10幅大范圍海域SAR圖像的艦船目標檢測數據集。文獻[14]發布的SAR圖像艦船目標檢測數據集包含102幅高分三號衛星和108幅哨兵一號衛星的 SAR圖像,共有43 819個艦船切片。最近,孫顯等[15]公開了一個面向高分辨率、大尺寸場景的SAR圖像艦船檢測數據集AIR-SARShip-1.0,該數據集包含31幅高分三號SAR圖像,場景類型包含港口、島礁、不同級別海況的海面等。上述數據集大部分采用視覺目標分類挑戰賽(PASCAL VOC)的標注格式,即采用目標包圍盒左上角和右下角像素坐標共4個參數描述目標的垂直框信息。在SSDD基礎上構建的SSDD+采用8參數傾斜框標注格式描述任意方向的艦船目標,這8個參數為描述目標傾斜框的4個頂點像素坐標。高分辨率SAR圖像數據集(HRSID)[16]采用微軟上下文中常見目標(MS COCO)標注格式,標注方式采用和SSDD+一致的傾斜框方式,總共包含5 604張高分辨率SAR圖像,共有艦船目標16 951個,可用于艦船目標檢測和實例分割等驗證。

目前研究學者致力于提高垂直框標注格式下的SAR圖像艦船目標檢測精度。文獻[17]采用基于閾值分割的感興趣區域(ROIs)提取方法實現目標初步定位,然后通過構建低復雜度的CNN模型實現目標的精確分類與定位,但該方法不是端到端結構,檢測結果很大程度上受ROIs提取方法的影響。為解決對數據集利用不充分的問題,文獻[18]采用Fast R-CNN框架,提出一種基于生成對抗網絡和線上難例挖掘的SAR圖像艦船目標檢測方法,在SSDD上將檢測精度提升了2.1%. 文獻[12]首次將Faster R-CNN應用于SAR圖像艦船目標檢測,實現了端到端的模型訓練與預測。通過實驗驗證了特征聚合、遷移學習和損失函數優化等對于提升艦船目標檢測準確率和速度的有效性,目標檢測平均精度均值(mAP)達到了78.8%. 文獻[19]也采用Faster R-CNN框架,選擇ResNet101作為特征提取網絡,采用密集連接結構融合了高分辨率特征圖的空間特征和低分辨率特征圖的語義特征,提高了對不同尺度、不同場景SAR圖像中艦船目標的檢測能力,對SSDD進行驗證mAP達到了89.6%. 文獻[20]提出一種層疊耦合CNN模型引導的視覺注意力方法實現SAR圖像艦船目標檢測。文獻[21]提出一種基于視覺注意力機制的深度CNN結構,采用類似YOLOv3的一階段檢測框架進行SAR圖像艦船目標檢測,對擴展SSDD進行驗證,實驗結果表明提出的方法檢測精度優于YOLOv3和SSD框架,但低于結合特征金字塔結構的Faster R-CNN檢測精度。文獻[22]采用SSD框架,提出了一種輕量級特征優化網絡,通過采用雙向特征融合模塊和注意力機制提高了艦船目標檢測精度。文獻[23]同樣采用SSD框架,基于SSDD驗證了融合上下文信息、遷移模型學習對于提高艦船目標檢測精度的有效性。文獻[24]提出一種新型金字塔結構用于多尺度特征提取,然后對傳統注意力模塊采用密集連接方法對提取的特征進行變換,并對這些特征進行融合,實現不同尺度艦船目標的檢測。

在一些應用場合,艦船目標的方位角信息具有重要的參考價值,因此學者開始研究能夠輸出目標方位角估計的深度檢測模型。文獻[25]采用一階段檢測框架,設計了一個多尺度自適應校正網絡來檢測任意方向的艦船目標。設計的模型采用目標中心點坐標、長寬和方位角共5個參數描述目標旋轉框信息,其中目標方位角定義為水平軸沿逆時針方向旋轉到與目標旋轉框相交的角度,范圍為(-90°,0°]。與傳統的一階段檢測模型不同,采用旋轉錨框以解決目標方位角估計問題,但錨框角度和長寬比需通過實驗進行優化設置,其對檢測結果影響較大。通過對旋轉非極大值抑制(RNMS)算法進行改進,以更好解決目標重疊問題。文獻[26]基于SSD框架,采用和文獻[25]一致的旋轉錨框策略實現目標方位角預測,但目標方位角范圍定義為[0°, 180°)或[0°, 330°),綜合利用線上難例挖掘、Focal損失等解決正負樣本不均衡問題。

考慮到檢測精度和實時性兩方面的需求,本文基于YOLOv3框架,提出了一種能夠同時輸出垂直框和旋轉框的SAR圖像艦船目標檢測模型,設計的檢測模型具有如下特點:1)定義了更加有利于模型參數訓練的目標方位角區間,檢測網絡能同時輸出垂直框和旋轉框的預測結果;2)基于垂直框和旋轉框預測結果設計了多任務損失函數;3)針對可能存在的目標方位角估計偏差,在采用RNMS剔除重疊目標的同時,基于垂直框和旋轉框預測判定方位角估計的準確性,并進行校正。最后,基于Tensorflow深度學習框架實現上述模型并進行參數訓練,采用SSDD+和HRSID SAR艦船目標檢測數據集、可見光高分辨率艦船目標識別數據集HRSC2016[27]分別進行了提出改進模型的性能、遷移性和適用性測試,驗證了提出模型的有效性。

1 YOLOv3基本原理

YOLOv3[10]目標檢測模型兼顧了檢測精度與實時性的需求,通過重新設計特征提取網絡(記作Darknet-53),采用特征金字塔網絡(FPN)[28]的設計理念構建多尺度檢測網絡,提高了對不同尺度尤其是小目標的檢測性能。

1.1 特征提取網絡

Darknet-53網絡結構共包含53個卷積層,它借鑒了殘差網絡的設計思想,在一些層之間設置了旁路連接,能夠保證網絡結構在很深的情況下仍能收斂,有利于提高特征表達的性能。

1.2 多尺度檢測網絡

YOLOv3目標檢測模型如圖1所示,圖中N為批大小。當輸入圖像分辨率為416×416時,經過32倍的下采樣后輸出的特征圖分辨率為13×13. 用于目標檢測時,分別從分辨率為13×13、26×26、52×52的最后一個特征圖引出分支,設計了多尺度檢測網絡。由于在每個尺度特征圖的網格均設置3個錨框,故YOLOv3模型總計輸出13×13×3+26×26×3+52×52×3 =10 647個預測。YOLOv3模型結構采用了不同尺度特征融合策略。如圖1所示,為實現細粒度檢測,將分辨率為13×13的特征圖經卷積后進行上采樣,然后與分辨率為26×26的特征圖進行融合。采用同樣操作得到分辨率為52×52的特征圖。由于融合了高層的語義特征,因而更有利于小目標的檢測。

圖1 YOLOv3模型結構Fig.1 Model architecture of YOLOv3

1.3 預測輸出及損失函數定義

定義網絡輸出參數為(xt,yt,wt,ht,pt,pc),其中:xt、yt分別為目標中心橫坐標、縱坐標偏移量的預測值,wt、ht分別為目標寬度、高度的預測值,d=(xt,yt,wt,ht)為變換后的目標坐標;pt為檢測目標置信度,理想情況下目標為1,背景為0;設目標類別總數為C,則pc為C維向量,pc為目標屬于某一類別的概率分布。分別采用邏輯回歸損失、二值交叉熵損失、均方誤差損失計算目標置信度估計誤差Lt、類別預測誤差Lc、位置估計誤差Ld.

設分辨率為S×S的特征圖中錨框的長、寬分別為ha、wa,則根據網絡預測輸出結果,利用(1)式計算得到距離特征圖左上角坐標為(xlt,ylt)的目標坐標預測值(xb,yb,wb,hb),進而能夠得到在歸一化圖像分辨率下的目標預測結果。

(1)

式中:σ(·)為sigmoid函數。

設用于每個特征圖的錨框個數為B,在分辨率為S×S的特征圖中計算目標置信度估計誤差Lt的具體公式為

(2)

類別預測誤差Lc的公式如(3)式所示:

(3)

采用均方誤差計算位置估計誤差Ld的公式為

(4)

2 同時輸出垂直框和旋轉框的改進YOLOv3模型

針對檢測過程中對目標方位角估計的需求,同時兼顧SAR圖像中不同尺度艦船目標的分布特性,對多尺度檢測網絡、損失函數等3個方面進行了改進。

2.1 旋轉框描述及目標方位角定義

在采用垂直框描述目標坐標的同時,采用文獻[25-26]的5參數形式定義旋轉框,具體為(rx,ry,rw,rh,rθ),其中,rx和ry為目標中心點的橫坐標和縱坐標,rh和rw為目標的長和寬,目標方位角rθ定義為x軸沿逆時針方向旋轉到與目標長邊重合的角度,如圖2所示。與文獻[25-26]不同,本文定義目標方位角范圍為(-180°, 0°],其充分考慮了艦船目標的特點,由于rh≥rw,因而更加有利于回歸訓練過程的收斂。文獻[25-26]由于選擇了旋轉錨框機制,但由于艦船目標角度、長和寬分布范圍廣,設置錨框時需考慮艦船目標不同角度和長寬比情況,以達到滿意的檢測結果。本文重新定義檢測網絡預測輸出為(xt,yt,wt,ht,rxt,ryt,rwt,rht,rθt,pt,pc),此時各尺度特征圖檢測分支的輸出維數由[S,S,B×(C+5)]增加為[S,S,B×(C+10)]。由于本文在訓練時仍采用YOLOv3模型的垂直錨框機制進行正負樣本采樣,僅在預測時同時輸出垂直框和旋轉框結果,故采用本文的目標方位角定義能夠提高檢測網絡中參數回歸學習的穩定性,從而提高預測的準確性。

圖2 旋轉框及目標方位角定義示意圖Fig.2 Schematic diagram of rotated bounding box and definition of target’s aspect angle

2.2 融合垂直框和旋轉框預測的多任務損失函數

對于旋轉框的預測損失計算,可采用均方誤差損失計算旋轉框位置坐標估計損失Lrd,rd=(rxt,ryt,rwt,rht)。 目標方位角估計損失La可采用余弦損失,也可采用均方誤差損失,本文選擇后者,具體定義為

(5)

一般情況下,目標旋轉框應位于垂直框內部,如圖3所示。故可將垂直框估計損失作為旋轉框估計損失的約束,設計的改進YOLOv3模型多任務損失函數共包含5部分,具體為

圖3 與旋轉框對應的垂直框示意圖Fig.3 Schematic diagram of vertical bounding box corresponding to rotated bounding box

L=Ld+Lrd+Lt+Lc+La,

(6)

式中:Lrd的計算參考(4)式Ld的計算公式。為解決正負樣本不平衡的問題,采用Focal損失計算類別預測損失Lc,以提高目標檢測的召回率。

2.3 基于旋轉框的非極大值抑制及目標方位角校正

訓練階段,對正負樣本進行采樣,采用的是基于垂直框的IOU判定準則,因此不會顯著降低訓練速度。測試階段,采用同文獻[25]一致的 RNMS. 因為需要輸出目標旋轉框估計結果,若采用垂直框估計結果剔除重疊目標,則當目標比較密集時,非極大值抑制(NMS)閾值難以確定,容易漏檢目標。

由于設定的目標方位角范圍為(-180°, 0°],當目標處于水平方向時,角度估計會出現較大偏差。為解決該問題,計算估計得到的旋轉框外接矩形,將其與基于檢測網絡輸出的垂直框計算IOU值,若IOU值小于某個閾值(本文設定為0.5),說明旋轉框中角度參數估計不準確,此時將目標方位角估計值設定為 0°.

3 實驗結果分析

基于Tensorflow深度學習框架實現提出的改進YOLOv3模型,硬件配置為:Intel i7 8700K CPU,GTX1080TI GPU,32 GB內存。采用SSDD+驗證提出模型的性能,并基于HRSID進行模型遷移測試。為進一步驗證提出模型的適用性,采用HRSC2016進行可見光圖像艦船目標檢測實驗。訓練時對輸入數據除進行常規增強,包括水平翻轉、隨機裁剪和mixup[29]等,還進行了旋轉增強,主要是因為對目標方位角進行回歸學習,應盡量使訓練集中目標方位角覆蓋(-180°, 0°],增強后訓練數據集數量變為原來的11倍。實驗過程中采用的其他訓練超參數如表1所示。

表1 訓練超參數Tab.1 Training hyperparameters

3.1 基于SSDD+的性能測試實驗

SSDD+描述如表2所示。由于對原始的SAR圖像人為進行了裁剪,故該數據集的圖像分辨率相對較低。相比于SSDD采用(xmin,ymin,xmax,ymax)4參數形式來描述垂直框,SSDD+采用(x1,y1,x2,y2,x3,y3,x4,y4)8參數形式描述任意角度的目標框。采用最小包圍盒估計算法能夠將上述參數轉換為本文描述目標旋轉框采用的5參數形式(rx,ry,rw,rh,rθ)。當采用文獻[25]定義的旋轉框描述時艦船目標長和寬分布如圖4所示。由于文獻[25]并沒有像本文一樣區分目標的長度和寬度,故從圖4中可以看出,目標長寬比集中分布在兩個主要方向上。

表2 SSDD+數據集描述Tab.2 Description of SSDD+dataset

圖4 基于文獻[25]定義旋轉框描述下SSDD+艦船目標長和寬分布圖Fig.4 Scatter diagram of ship target’s width and height in SSDD+dataset under the definition of rotated bounding box in Ref.[25]

參照文獻[25],將SSDD+按照7∶1∶2比例隨機劃分成訓練集、驗證集和測試集。完成模型參數訓練后,對測試集進行測試時,設定檢測閾值為0.45,設定NMS閾值為0.3. 艦船目標檢測結果如圖5所示。

圖5 SSDD+艦船目標檢測結果Fig.5 Ship detection results in SSDD+dataset

從圖5(a)和圖5(b)中可以看出,在純海洋背景下,即使目標尺寸很小,目標仍能夠被全部檢出,且目標方位角估計準確。圖5(c)中的靠岸艦船目標沒有被檢出,這是因為艦船與周圍具有較強后向散射系數的背景區域連在一起,此時很難分辨目標。圖5(d)中雖然為近岸情況,但是艦船目標周圍背景具有較強的對比度,故也能檢測出大部分目標,僅有一個虛警。

mAP是檢驗檢測器對于圖像中目標召回能力的一個指標,當設定IOU閾值為0.5,置信度閾值為0.05,NMS閾值為0.45時,采用本文改進模型對測試集進行測試可得,mAP0.5=0.819,mAP0.5為IOU閾值設定為0.5時的mAP值。F1分數指標綜合考慮召回率和精確率結果,故計算該指標時需設置一個合適的檢測閾值。設定IOU閾值為0.5,置信度閾值為0.45,NMS閾值為0.3時,召回率Recall=0.889,精確率Precision=0.868,則F1分數為2×Precision×Recall/(Precision+Recall)=0.879. 文獻[25]對SSDD+進行了適當擴充,當采用同樣數據集劃分比例的情況下,取得了mAP0.5=0.762 4的檢測性能。文獻[26]沒有采用驗證集,測試集數量與本文相同,mAP0.5能夠達到0.928 1. 由于數據集隨機劃分導致的純海洋背景和靠岸情況下艦船目標比例不同,故會導致不同模型之間精度存在一定差異。另外,本文提出改動模型在訓練和測試階段均能利用垂直框預測結果提高旋轉框的預測精度,因此在沒有對特征提取網絡做改動的情況下,mAP0.5值略高于文獻[25]結果。

為驗證本文提出改進模型中各模塊的有效性,進行了消融實驗,具體如表3所示。表3中實驗2未采用多任務損失函數,僅預測目標的旋轉框預測結果,因沒有垂直框預測結果,無需進行目標方位角校正,故此時算法耗時較少。比較表3中實驗2和實驗5結果可以看出,采用多任務損失顯著提高了mAP0.5和F1值,提高了目標檢測性能。比較表3實驗4和實驗5結果可以看出,采用本文定義的目標方位角范圍也能在一定程度上提高檢測性能。由于本文模型采用的是基于回歸思想的一階段模型,故進行旋轉增強以生成不同目標方位角下的訓練樣本,有利于提高訓練模型的泛化性能,提高目標檢測精度。由表3可以看出,本文算法處理一幀圖像耗時約為25 ms,采用現有硬件條件能夠滿足艦船目標檢測實時性的需求。

表3 消融實驗Tab.3 Ablation experiment

為驗證本文算法的艦船目標方位角估計精度,采用計算F1分數的參數計算目標預測結果。當預測結果和目標真值的IOU值大于閾值0.5時,計算方位角預測值與真值之間差的絕對值,在測試集上統計并計算其均值與標準差。當采用表3中實驗5結果時,目標方位角預測值與真值差絕對值的均值為9.35°,標準差為18.41°. 從圖5可以看出,本文算法在純海洋背景下目標方位角估計相對準確,而在近岸情況下性能有所下降,故該差值絕對值變化較大,導致目標方位角估計的標準差略大。

為進一步提高對小目標的檢測性能,如圖1右上虛線框所示,對原始YOLOv3的3個檢測分支進行擴充,采用分辨率為104×104的特征圖檢測更小的目標,同時對應錨框尺寸設定為(5, 6)、(8, 15)、(16, 10)。當進行圖像增強和不進行圖像增強的目標檢測性能如表4所示。對比表3和表4可以看出,當訓練數據有限時,采用3檢測分支由于需訓練模型參數少,因此檢測性能略優。當對訓練數據進行旋轉增強后,一定程度上增加了小樣本的比例,故采用4檢測分支的性能略優。檢測性能不僅與模型相關,而且受訓練超參數影響較大,故表4結果只能一定程度上說明采用4檢測分支的有效性。由于增加了1個檢測分支,推理耗時比3檢測分支高。當采用表4中實驗5結果時,目標方位角預測值與真值差絕對值的均值為6.22°,標準差為12.93°,這與表4中實驗5的mAP0.5結果高于表3中實驗5的結果相符合。

表4 采用4檢測分支的目標檢測性能Tab.4 Object detection performance using 4 detectionbranches

3.2 基于HRSID的模型遷移實驗

HRSID同樣采用8參數形式描述任意方向的SAR圖像艦船目標,圖像分辨率均為800×800. 當采用該數據集進行模型遷移測試實驗時,由于與SSDD+的圖像分辨率存在差異,故當采用3種不同模型輸入分辨率時,采用3檢測分支和4檢測分支在其他參數設置相同的情況下分別計算mAP0.5,具體如表5所示。從表5中可以看出,隨著模型輸出尺寸的增加,當SSDD+的圖像分辨率和HRSID中的圖像分辨率接近匹配時,目標檢測精度最優。采用3檢測分支略優于4檢測分支,這主要是增加一個檢測分支雖然能夠提高更小目標的召回率,但是同時虛警率也顯著增加,故mAP0.5值降低。綜合表3~表5結果,由于3檢測分支具有更好的遷移性能,故本文后續結果均采用3檢測分支模型計算得到。當模型輸入分辨率為832×832時,部分檢測結果如圖6所示。對于純海洋背景,雖然僅采用SSDD+訓練模型參數,但仍能得到較為滿意的檢測結果,如圖6(a)所示。對于靠岸情況,與SSDD+類似,艦船目標檢測結果不理想,圖6(b)中一個目標也沒有檢測到,僅有一個虛警。一方面是由于靠岸情況下艦船目標及其周圍背景的像素分布復雜,兩個數據集間目標分布差異大,會導致訓練模型泛化性能下降;另一方面是靠岸情況下HRSID中艦船目標更加密集,且目標相對于SSDD+小,更加難以區分,導致目標檢測率下降。

表5 HRSID艦船目標檢測精度mAP0.5Tab.5 Ship detection accuracy mAP0.5 using HRSID

圖6 HRSID艦船目標檢測結果Fig.6 Ship detection results using HRSID

3.3 基于HRSC2016的模型適用性實驗

HRSC2016提供了劃分好的訓練集和測試集,共包含3個不同水平的識別任務:第1級任務僅識別艦船;第2級任務識別航母、潛艇、商船和其他軍船4個類別;第3級任務對艦船目標類別進行了進一步細分。本文僅關注第1級任務,即檢測圖像中的艦船目標。采用同樣的訓練超參數基于增廣后的訓練集進行模型參數訓練,然后采用同樣的參數計算mAP0.5,結果為mAP0.5=0.888. 文獻[27]對于第一級任務給出的測試基準為0.797,文獻[30]中對該任務的檢測結果為mAP0.5=0.875,與本文大致相當。文獻[30]是在Faster R-CNN的基礎上引入了同文獻[26]一致的旋轉框描述方法,以解決遙感圖像中任意方位角下艦船目標檢測問題。這也說明本文提出的改進模型具有一定的通用性,相比于文獻[30],由于本文模型采用的是一階段的檢測結構,因此具有推理耗時少的優勢。對HRSC2016中部分圖像的檢測結果如圖7所示。從圖7(a)和圖7(b)可以看出,在不存在密集目標的情況下,對于場景中的不同尺度目標均具有較高的檢測精度,且艦船目標的方位角估計準確。從圖7(c)可以看出,提出的模型具有一定的泛化性能,對于場景中的未標注艦船目標仍能檢測到,且目標旋轉框預測準確。提出的改進模型對于密切目標情況檢測效果較差,尤其是目標方位角不是垂直和水平的情況,如圖7(d)所示。這主要是因為在目標外觀相近的情況下,影響了目標垂直框預測精度,且此時垂直框預測區域包含了更多的臨近目標像素,對目標方位角預測精度也產生了影響,即使融合垂直框和旋轉框進行目標方位角校正也很難處理目標密集情況。

圖7 HRSC2016艦船目標檢測結果Fig.7 Ship detection results using HRSC2016 dataset

4 結論

本文提出了一種能夠同時輸出垂直框和旋轉框的改進YOLOv3目標檢測模型,通過設計多任務損失函數,以及利用垂直框和旋轉框預測結果校正目標方位角估計偏差,提高了SAR圖像艦船目標檢測及方位角估計精度,同時保留了YOLOv3模型推理速度快的優點。實驗結果表明,對SSDD+的mAP0.5能夠達到0.841,當網絡輸入尺寸為416×416時處理一幅圖像耗時約為25 ms. 提出的改進模型對于純海洋背景具有較高的艦船目標檢測精度,且目標方位角估計準確。對于靠岸情況艦船目標檢測精度不高,可通過注意力機制、更加有效的多特征融合策略等進一步提高特征提取和利用能力,這也是目前SAR圖像艦船目標檢測研究的主要方向之一。

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 欧美成一级| 久久免费视频6| 国产欧美另类| 国产精品乱偷免费视频| 麻豆精品国产自产在线| 日本影院一区| 伊人色综合久久天天| 日韩精品无码免费专网站| 久久婷婷五月综合97色| 久久精品视频一| 国产高清在线精品一区二区三区| 国产经典免费播放视频| 亚洲全网成人资源在线观看| 青青青视频91在线 | 视频二区中文无码| 3344在线观看无码| 久久综合九色综合97网| 美女啪啪无遮挡| 一级毛片免费观看不卡视频| 欧美日韩激情在线| 欧美啪啪精品| 亚洲成AV人手机在线观看网站| 国产福利微拍精品一区二区| 国产91蝌蚪窝| 真人高潮娇喘嗯啊在线观看| 欧美精品成人| 国产欧美日韩综合在线第一| 日本三级精品| 久久亚洲国产一区二区| 黄色在线不卡| 久久精品aⅴ无码中文字幕 | 国产成人高清在线精品| 日本高清有码人妻| 久久久久中文字幕精品视频| 久久亚洲国产最新网站| 国产精品微拍| 国产高清在线观看91精品| 欧美天堂在线| 综合网天天| 高清无码一本到东京热| 久久国产热| 波多野结衣在线se| 成人夜夜嗨| 91久久偷偷做嫩草影院免费看| 91精品视频在线播放| 青青青视频91在线 | 亚洲成人免费看| 91免费在线看| 欧美成人综合视频| 毛片在线看网站| 亚洲高清国产拍精品26u| 久久国产亚洲欧美日韩精品| 国产精品亚欧美一区二区三区| 国产乱人视频免费观看| аⅴ资源中文在线天堂| 欧美曰批视频免费播放免费| 亚洲小视频网站| 日韩无码真实干出血视频| 精品乱码久久久久久久| 国产精品网址你懂的| 成人一区专区在线观看| 无码免费视频| 自拍亚洲欧美精品| 四虎影视库国产精品一区| 天堂成人av| 亚洲精品大秀视频| 呦女亚洲一区精品| 日韩二区三区无| 六月婷婷综合| 青青操视频免费观看| 青青久在线视频免费观看| 激情無極限的亚洲一区免费| 午夜精品久久久久久久无码软件| 欧美性猛交一区二区三区| 中文字幕天无码久久精品视频免费 | 99精品热视频这里只有精品7| 国产在线欧美| 乱人伦99久久| 国产导航在线| 丰满人妻一区二区三区视频| 91在线激情在线观看| 毛片免费在线|