999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進YOLOv8的SAR圖像船艦目標檢測算法

2025-09-28 00:00:00劉欣怡宋耀蓮

中圖分類號:TP391 文獻標識碼:A 文章編號:2096-3998(2025)04-0050-10

摘要:在合成孔徑雷達船艦檢測領域,深度學習方法已經成為提升檢測精度與速度的關鍵技術。為應對檢測精度與速度之間的雙重挑戰,提出了一種基于YOLOv8算法改進的 SARN-YOLO算法。首先,刪除特征提取能力差的特征層和預測頭,并引入重參化結構,從而有效減少模型參數量,增強對小目標的特征提取能力;其次,在頸部網絡中采用漸近特征金字塔網絡,以提升對多尺度目標的檢測能力;最后,設計NCIoU損失函數,進一步加快模型的收斂速度,提高檢測精度和速度。實驗結果表明,SARN-YOLO在HRSID數據集和SSDD艦船數據集上mAP@0.5 分別為 94.6% 和 98.2% ,較基準模型分別提高 4.4% 和 5.5% ,參數量減少 66.7% 。在檢測速度方面,SARN-YOLO分別達到135.2幀/秒和142.2幀/秒,較基準模型分別提高約16幀/秒和35幀/秒。驗證了SARN-YOLO在提高檢測精度和速度方面的有效性。

船艦檢測在港口管理、漁業開發監督、海上救援等民用和軍用領域都發揮著重要作用。合成孔徑雷達(Synthetic ApertureRadar,SAR)是使用雷達波照射地球表面,并收集反射回來的信號進行成像。SAR有全天時、全天候的對地觀測能力,能夠穿透云霧和雨雪等遮擋。由于其穿透能力,基于SAR圖像的船艦檢測在軍事和民用領域都具有廣泛的潛力[1。近年來,隨著遙感成像技術的蓬勃發展和 SAR衛星數量的不斷增加,SAR系統獲取數據的數量和質量得到顯著提升,促進了SAR在相關領域的發展。同時,深度學習的興起也促進了利用 SAR 進行船艦探測領域的發展[2]。

傳統的SAR目標檢測算法主要分為區域選擇、特征提取和分類3個過程。其中,基于區域選擇的特征提取是準確表達目標區域的核心任務。傳統的特征提取方法依賴手工特征設計,難以提取小目標特征,且容易受到噪聲影響。因此,傳統方法提取的特征對于SAR圖像檢測效果不佳。恒定誤報率[3]檢測算法是應用最廣泛的檢測方法,然而,由于恒定誤報率僅使用像素對比度信息,檢測復雜背景下的SAR圖像,會導致目標定位不夠精確,漏檢、誤檢概率較高。

機器學習方法通過分析圖像提取特征,并利用這些特征訓練分類器進行目標識別。然而,SAR圖像的復雜背景和特征之間的依賴性限制了檢測性能和泛化能力。復雜背景主要源于地表特性多樣性和成像噪聲,導致背景紋理不均勻和目標邊界模糊,進而影響特征提取和目標識別的效果。

近年來,深度學習技術在SAR圖像目標檢測任務中應用廣泛,卷積神經網絡在特征提取方面具有顯著優勢。它們能夠自動學習和提取SAR圖像中復雜的目標特征,避免了傳統方法中手工設計特征的繁瑣。基于深度學習的目標檢測算法分為單階段檢測算法和雙階段檢測算法。雙階段目標檢測算法生成候選區域后,再對候選區域進行分類和回歸任務,包括Faster RCNN[4]、Mask RCNN[5]等。而單階段目標檢測算法不需要產生預測框,直接提取特征預測目標和定位,包括YOLO[6] SSD[7] 等。

目前,將CNN應用于SAR艦船檢測的研究得到迅速發展。Li等[8]發布了第一個開放的 SAR 船艦檢測數據集(SSDD),該數據集包含各種環境下的船艦,提出一種基于改進FasterR-CNN的 SAR船艦檢測方法,盡管該方法在檢測精度上取得一定提升,但區域提取過程復雜,導致檢測速度較慢。Chen 等[9]設計了高階神經網絡模塊,支持特征信息跨緯度交互,但由于網絡結構復雜,其檢測速度同樣受到限制。Chen等[1]使用ResNet作為骨干網絡,盡管增加了感受野并在一定程度上提升了特征提取能力,但在目標檢測的整體性能上仍未達到令人滿意的平衡。

YOLO 系列算法在實時檢測方面應用廣泛,但追求速度的同時,通常會犧牲檢測精度。Pang 等[1]提出名為YOLO5-MNE 的輕量級模型,增加通道注意力模塊來補償精度損失,但仍存在精度不足的問題。Ge等[12]提出一種基于YOLOX框架的空間定向注意力模塊,與路徑聚合特征金字塔融合,捕獲不同方向的特征變換,以突出 SAR圖像目標的特征,但對速度提升有限。Liu等[13]將YOLOv5的特征增強模塊與空間金字塔結構相結合,從而提升特征提取的能力,但過度的特征提取網絡深度導致其信息的丟失,從而影響檢測精度。

一些學者通過注意力模塊來改善算法檢測性能。如Yang 等[14]提出一種基于坐標注意力和增強感受野的檢測模型,Zhang等[15]構建了跨尺度的自注意力模塊抑制背景干擾,Ren等[16]設計注意力模塊并嵌入骨干網絡。然而,這種方法通常會帶來很大的計算參數量。

此外,小目標檢測也是船艦檢測的瓶頸。不同船型不同來源的SAR圖像分辨率不同,導致船艦像素的面積差異較大。Tang等[17]設計一種多尺度感受野卷積塊的注意力機制,通過提取不同尺度和深度的特征信息來改進多尺度目標檢測。Wang等[18通過多尺度特征注意力和自適應加權分類器,增強不同尺度特征。盡管有其優點,但這種方法在檢測小目標方面的性能有所下降。

本文針對SAR圖像船艦目標檢測存在計算復雜度較高、目標尺度小等問題,提出一種改進YOLOv8的檢測算法。通過優化YOLOv8模型結構,引入重參化結構,增強特征提取能力,降低參數量并提高檢測精度。其次,使用漸近特征金字塔網絡(Asymptotic FeaturePyramidNetwork,AFPN)[19]來提高船艦的多尺度檢測能力,增強空間信息和語義信息的融合。最后,設計NCIoU損失函數,減少誤報和漏報,加快模型的收斂速度。

改進算法設計

YOLOv8結構主要分為主干網絡、頸部網絡和檢測頭三部分。在SAR船艦圖像中,艦船目標區域占圖像的很小一部分,且目標密度和比例較高。然而,YOLOv8并不適用于這種情況。因此,針對這個問題,本文設計了SARN-YOLO算法,其整體框架如圖1所示。該算法根據SAR圖像中艦船小目標的特性進行網絡結構、特征融合和損失函數的優化,以減少網絡參數,并使其更適用于SAR圖像艦船檢測。

1.1 簡化框架結構

在目標檢測中,特征圖的利用對模型性能至關重要。Lin等[20]指出,淺層網絡生成的高分辨率特征圖包含豐富的局部信息,如目標輪廓和紋理,而深層網絡生成的低分辨率特征圖包含語義信息,如類別和上下文信息,但缺乏細節,難以處理小目標。多次下采樣會導致關鍵特征信息丟失,降低小目標檢測準確性。

在YOLOv8模型中,通過多次下采樣來提取豐富的語義信息。然而,對于SAR圖像,過多的下采樣會導致低分辨率特征圖丟失關鍵信息,進而降低模型對小目標的檢測準確性。在多尺度特征融合過程中,由于下采樣是不可逆的,無法通過上采樣完全恢復丟失細節,進一步限制了模型在低分辨率特征層上的表現,影響檢測性能。

為應對這一挑戰,YOLOv8模型進行了結構優化。首先,移除分辨率為 40×40 和 20×20 的低分辨率預測頭。進一步去除下采樣倍數為32和16的特征提取層,以減少低分辨率特征丟失。此外,為避免

圖1 SARN-YOLO結構

Neck 部分中的低分辨率特征圖在融合過程中干擾模型并引起語義信息的損失,移除Neck部分的低分辨率卷積模塊和上采樣模塊。這些改進不僅減少由下采樣引起的目標特征信息損失,還顯著降低了模型參數量,提高了效率。然而,經過簡化后,模型主要依賴 80×80 分辨率的特征提取器,這限制了獲取詳細位置信息和語義信息的能力。為彌補這一不足,骨干網絡中加入了額外的4倍下采樣特征提取器和分辨率為 160×160 的預測頭。新增的特征提取器旨在保持高效計算的同時,增強了小目標檢測能力。這樣的設計使得模型在保持快速檢測的同時,提高對 SAR圖像中船舶檢測任務的準確性和魯棒性,并優化了復雜應用場景中的表現。

1.2 重參化結構

在優化模型結構后,通過精簡特征提取架構,顯著降低了模型的參數量并提升了計算效率。為彌補因特征提取結構簡化可能帶來的語義信息損失,尤其在復雜背景下的目標檢測任務中,引入了RCSOSA結構[21],以提高檢測精度,RCSOSA 結構見圖2。RCSOSA 模塊的關鍵組成部分包括 RCS(Reparameter-ized Convolution based on channel Shufle)和 OSA(One-time Spatial Aggregation)。RCS 結構見圖3。

圖2 RCSOSA結構 圖3 RCS結構

在訓練階段,RCS通過多分支結構學習豐富的特征信息,而在推理階段,為減少內存消耗,RCS簡化為單分支結構,以實現更快速的推理過程。具體而言,RCS借助通道分割和通道 Shuffle操作降低計算復雜性,同時確保通道間的信息交換,從而有效地增強網絡的特征提取能力。OSA通過一次性聚合多個特征級聯,降低網絡計算負擔并提高計算效率。通過聚合具有不同感受野的特征,OSA增加網絡對于不同尺度的敏感性,進而提升模型的目標檢測能力,只在網絡的最后部分進行特征聚合,從而減少了重復的特征計算和存儲需求,進一步提高網絡的計算與能源效率。

總體而言,RCSOSA模塊旨在減輕網絡計算負擔并降低內存占用。該方法對不同層次特征的有效聚合,從而顯著提高模型的語義信息提取能力。同時,避免過度復雜化網絡結構可能帶來的低效率和高資源消耗。這使得模型在實際應用中更具有優越性和可行性。

1.3 特征金字塔網絡

在目標檢測模型中,Neck部分對提高小目標檢測能力至關重要。為避免在特征傳輸過程中小自標信息丟失和降質,本研究引人漸進式特征金字塔網絡作為改進策略。該網絡通過融合不同層級的特征,傳遞更豐富的語義信息,從而顯著提升模型對小目標的檢測性能,網絡結構如圖4所示。

圖4 AFPN結構

首先,從改進后的主干網絡中獲得不同尺度的特征集 {C2,C3} ,其中 C2 包含豐富的細節信息, C3 則包含抽象的語義信息。然后,將這些特征輸入到特征金字塔網絡,通過精心設計的特征融合過程生成多尺度特征 {P2,P3} ,這過程既考慮不同特征層次間的信息補充,也彌補不同特征間可能存在的語義差異。

在自下而上的特征提取過程中,主干網絡存在不同層次特征的語義差異。為解決這一問題,AF-PN[19] 在多級特征融合過程中引人自適應空間融合(Adaptively Spatial Feature Fusion,ASFF),動態分配不同層級特征的空間權重,強化關鍵特征的重視。ASFF模塊包括水平連接、上采樣和下采樣操作,如圖4中虛線箭頭所示。通過AFPN融合結構,不僅增強了模型對小目標的捕捉能力,還改善了位置信息的傳遞,極大提升了SAR圖像中船艦的檢測性能。

1.4 優化損失函數

在目標檢測任務中,處理小目標具有挑戰性,特別是當預測框與真實框存在較大偏差時,可能導致預測框與真實框無重疊或預測框完全包圍真實框。這種偏差無法通過邊界框損失有效衡量,影響模型的訓練優化。YOLOv8采用邊界框回歸損失函數[22],在一定程度上解決這些問題,其表達式如下:

式中, ρ2(b,bgt) 代表預測框 b 和真實框 bgt 的中心點的歐氏距離, c 代表同時包含預測框和真實框的最小閉包區域的對角線距離, α 是權重系數, υ 是衡量預測框和真實框的長寬比之間的差異, w 和 h 分別代表預測框的寬度和高度, wgt 和 hgt 分別代表真實框的寬度和高度。

然而,CIoU損失對小物體的位置偏差非常敏感,微小的位置偏差可能導致IoU發生顯著變化,這使得基于IoU的損失函數在小目標檢測中受限。為解決這一問題,引人NWD(NormalizedWasserstein Dis-tance)[23]度量方式。NWD通過二維高斯分布模型衡量預測框和真實框的相似度,能有效處理預測框與真實框無重疊或完全包圍真實框的情況,對目標尺度的變化不敏感,提供更加穩定和準確的邊框損失度量,特別是在小目標檢測時。

基于NWD和CIoU的特性,設計了新的邊界框回歸損失函數——NCIoU。該損失函數結合了CIoU損失優化邊界框的能力,并通過NWD損失減少對邊框位置偏差和形狀不匹配的敏感性。NCIoU損失提供了更全面的評估指標,使模型在位置匹配、形狀和尺度回歸上更接近真實目標,從而減少誤檢和漏檢,提高目標檢測的整體精度。此外,該損失還提供了豐富的梯度信息,促進更快的收斂,特別是小目標的檢測中表現更佳,同時保持對較大目標的高檢測精度。NCIoU表達式如下:

式中, (cx,cy),w 和 h 分別代表邊界框的中心坐標、寬度和高度, Na 和 Nb 分別代表預測框和真實框建模的高斯分布, W22(Na,Nb) 是一個距離度量, NWD(Na,Nb) 是歸一化后的度量, c 是與數據集密切相關的常數,在一定范圍內是穩定的。ratio是權重因子,來控制 NWD 和 IoU 損失函數的占比。

2 實驗結果及分析

2.1 實驗環境配置

本研究使用AutoDLAI算力云作為訓練服務器,安裝配置為Cudal1和Python3.8,利用Pytorch作為深度學習平臺。CPU為12vCPUIntel(R)Xeon(R)Platinum8255CCPU ,顯卡GPU型號為RTX3080,內存容量為 40GB 。實驗訓練圖像統一尺寸為 640×640 ;epoch為160;batch_size設置為16;選用adam優化器,初始學習率為0.001。

2.2 數據集

為了驗證所提方法的有效性和優越性,在兩個SAR船艦數據集上進行實驗和分析,分別是 HR-SID[24] 和 SSDD[8]。HRSID 被廣泛應用于船艦檢測和實例分割任務,其涵蓋不同海況下的海域和沿海港口場景。該數據集的圖像來源包括Sentinel-1、TerraSAR-X和TanDEM-X衛星,總計包含5604張高分辨率SAR圖像和16590個船艦實例。其中,目標面積在圖像中占比小于 3% 的小目標數量為16805,在數據集中占 99.14% ;占比面積小于 1% 的超小目標數量為16411,在數據集中占 91.81% 。SSDD是第一個公開的面向船艦目標檢測的 SAR數據集,包含多尺度、多角度的船艦圖像,適用于多種場景下的船艦目標檢測。該數據集的圖像來源包括RadarSat-2、TerraSAR-X和Sentinel-1衛星。它由1160幅 SAR圖像組成,其分辨率大小在 1~15m 之間變化。目標面積在圖像中占比小于 3% 的小目標數量為22375,在數據集中占 96.82% ;占比面積小于 1% 的超小目標數量為1920,在數據集中占 74.22% 。

2.3 評價指標

實驗采用mAP@0.5、mAP@0.5:0.95、FPS、Params和F1作為評價指標。 mAP@0.5 表示 IoU 為0.5時所有類別的平均檢測精度; mAP@0.5:0.95 表示 IoU 從0.5到0.95,步長為0.05時的檢測精度的平均值;幀率FPS反映模型檢測速度;Params表示模型參數量; F1 能夠反映模型的綜合性能。公式如

其中: TP 表示正確地將正樣本預測為正樣本的數量, FP 表示錯誤地將負樣本預測為正樣本的數量, FN 表示錯誤地將正樣本預測為負樣本的數量, P 表示精確度, R 表示召回率, mAP 表示平均精度, n 表示類別數, N 表示測試集中的樣本數, T 是在測試集上測試模型所需的時間。

2.4 實驗結果及分析

2.4.1 NCIoU損失函數實驗

為了驗證NCIoU在模型中的最佳效果,通過調整不同權重參數來測試模型的魯棒性,分別選取 0.0.2,0.4 70.6、0.8、1.0 六個值進行對比實驗,結果見表1。實驗表明,當參數為1.0時,模型的 mAP@0.5 達到了 93.9% 。當參數為0.2時,模型的檢測精度最大, mAP@0.5 和mAP@0.5:0.95 分別為 94.2% 和 68.7% 。結果表明,NCIoU能夠更好地計算出預測框與真實框之間的相似度,從而提高了小目標對網絡學習的影響力。

表1不同權重參數結果

在YOLO模型中,損失值是評估模型預測和實際目標之間的差異,并通過反向傳播算法來更新模型參數。損失最小化有助于提高目標定位和分類精度。本研究在HRSID數據集上對比了SARN-YOLO模型和YOLOv8模型的位置損失,結果顯示,隨著訓練次數的增加,SARN-YOLO的損失值逐漸減小,并接近于0。此外,還比較了SARN-YOLO模型使用NCIoULoss和CIoULoss前后的定位損失,結果如圖5所示。

SARN-YOLO模型的小目標檢測層具有較大的重疊面積提高了預測準確度,NCIoULoss更有效地衡量預測框和真實框的相似度,從而降低小目標的定位損失。SARN-YOLO模型表現出更快的損失收斂速度和更小的最終損失值。

圖5改進前后的損失函數

2.4.2 消融實驗

由于HRSID數據集中小目標和超小目標的比例高于SSDD數據集,模型在處理這些目標時表現出更高的精度,消融實驗效果也更加顯著。因此,選擇在HRSID數據集上進行消融實驗,以突出方法在小目標檢測中的優勢,確保結果清晰性和可解釋。與YOLOv8相比較,實驗結果見表2,采用 mAP@0.5 和mAP@0.5:0.95 作為評價指標,“ √ ”表示在實驗中添加了相應的模塊。

表2消融實驗

實驗結果表明,SARN-YOLO 相較于YOLOv8在每個改進點都提升了性能。YOLOv8的 mAP(a) 0.5和 mAP@0.5:0.95 分別為 90.6% 和 62.0% 。通過減少主干部分的下采樣次數, mAP@0.5 和mAP 分別提高 1.3% 和 2.1% ,表明減少下采樣增強了對小目標細節特征的獲取能力。調整預測頭后, mAP@0.5 和 mAP@0.5:0.95 分別提高了 0.6% 和 1.7% ,更好地聚焦小目標檢測任務。通過下采樣次數減少和預測頭調整的協同優化,準確率提高最為顯著, mAP@0.5 和 mAP@0.5:0.95 分別提高了 2.2% 和 4.4% 。這表明簡化結構能夠有效避免細節特征丟失,提高了模型獲取位置信息和語義信息方面的能力,對于小目標特征的學習和小目標的檢測更加合理。采用AFPN結構進行特征融合后,mAP@0.5 和 mAP@0.5:0.95 分別提高了 0.6% 和 0.8% 。這表明融和結構能有效溝通不同層之間的特征信息。RCSOSA結構使得 mAP@0.5 和 mAP@0.5:0.95 都提升了 0.9% 。彌補了語義信息不足的缺點,使得小目標特征信息盡可能提取。NCIoU損失提供了更穩定的損失度量,能夠更精確地定位小目標,從而提高目標檢測性能。最終模型 mAP@0.5 和 mAP@0.5:0.95 分別為 94.6% 和 68.7% ,相比于YOLOv8原始模型,分別提高了 4% 和 6.7% ,顯著提高了檢測能力。

2.4.3 對比實驗

為驗證 SARN-YOLO 算法性能,在HRSID 和 SSDD 數據集上同主流算法 Faster RCNN[4] 、YOLOv5、YOLOx[25] 、YOLOv7[26]相比較。為保證比較分析的全面性,還比較了專門為SAR 圖像船艦檢測而設計的算法,包括FEPSNET[27]、MEA-Net[28]、LPEDet[29]和 SISNet[30] 。對比結果見表3。

由表3可知,SARN-YOLO算法在檢測能力上表現出色。與基準YOLOv8算法相比,SARN-YOLO 在HRSID數據集上的 mAP@0.5 從 90.6% 提升至 94.6% ,在SSDD 數據集上從 93.1% 提升至 98.2% 。與其他單階段算法相比,SARN-YOLO算法在HRSID 和SSDD 數據集上的性能提升分別超過了 2.7% 和1% 以上, mAP@0.5:0.95 也顯著改善。與其他SAR圖像船艦檢測算法相比,SARN-YOLO算法在兩個數據集上的表現最佳。SARN-YOLO相比YOLOv8,參數量減少 66.7% ,并且檢測速度在HRSID和SSDD數據集上分別達到了 135.2f/s 和 142.2f/s 。該算法在 F1 上的表現也優于其他方法。

表3基于HRSID和SSDD數據集的對比實驗

圖6展示了SARN-YOLO和YOLOv8在HRSID數據集上的 mAP@0.5 曲線。可知,SARN-YOLO的mAP值隨著訓練的進行超過YOLOv8,且增長趨勢趨于平穩。

綜上,SARN-YOLO模型檢測能力上具有較好性能,證明其能有效提取特征,提升小目標的檢測精度為了評估SARN-YOLO模型的性能,對SARN-YOLO和基準YOLOv8的特征進行提取和可視化。如圖7所示,第一行YOLOv8的特征可視化結果,第二行是SARN-YOLO的特征可視化結果,圖中接近紅色的區域表示算法在檢測過程中更為關注的區域。與YOLOv8相比,SARN-YOLO的關注范圍顯著減小,更為集中,同時對背景干擾的敏感性降低。這一結果表明,SARN-YOLO能夠有效區分目標和背景,有效提升對船艦目標的關注度,進而提升了其目標檢測性能。

圖7SARN-YOLO與YOLOv8模型特征可視化對比

圖6模型改進前后 mAP@0.5 精度對比

為了深入評估 SARN-YOLO模型在多樣化場景下的性能,選用近海、近岸、背景復雜、大型以及密集分布的小型船艦的SAR圖像。船艦檢測結果見圖8,其中第一列邊界框表示真實位置,第二列邊界框表示YOLOv8預測位置,第三列邊界框表示SARN-YOLO預測位置,圓圈表示漏檢,菱形表示誤檢。從圖8(a)、(b)可見,對于近海和近岸的船艦,SARN-YOLO 和基線YOLOv8均能夠準確識別和定位目標,然而,SARN-YOLO展現出更高的精度。從圖8(c)、(d)可見,SARN-YOLO表現出更高的準確性和定位精度,顯著降低漏檢和誤檢的概率,表明其在識別背景復雜船艦目標方面具有顯著優勢,這意味著 SARN-YOLO擁有更強大的特征表達能力。從圖8(e)、(f)可見,基線YOLOv8在不同尺度的船艦上產生漏檢和誤檢,而SARN-YOLO能夠有效且精準地定位不同尺度的船艦,其性能明顯優于基線模型,這表明SARN-YOLO能很好地捕獲不同尺度特征信息和有效的語義信息提取,從而提升了模型的泛化能力。

圖8 SARN-YOLO與YOLOv8船艦檢測結果比較

3 結束語

針對SAR圖像船艦目標檢測中的檢測精度、速度和計算復雜度問題,本文提出的SARN-YOLO算法顯著優化了模型結構,減少了參數量和計算負擔,同時增強了對小目標的特征提取能力。通過引人漸近特征金字塔網絡,提升了多尺度目標檢測能力,有效融合了空間信息和語義信息。此外,改進的損失函數加速了模型的收斂,提升了檢測精度與速度。實驗結果表明,SARN-YOLO在HRSID 數據集和 SS-DD艦船數據集上 mAP@0.5 分別為 94.6% 和 98.2% ,對兩個數據集的對比試驗表明,SARN-YOLO在提高檢測精度的同時,保持高檢測速度,優于其他現有算法,驗證了其在SAR圖像船艦目標檢測中的有效性和優越性。未來研究會考慮將檢測與跟蹤進行協同優化,結合多幀特征融合與目標跟蹤算法,增強檢測的連續性與準確性。

[參考文獻]

[1]LIJL,XUC G,SU H,etal.Dep learning for SAR shipdetection:Past,present and future[J].Remote Sensing,2022, 14(11) :2712.

[2]GUOQ,WANG H,XUF.Scattering enhanced attention pyramid network for aireraft detection in SAR images[J].IEEE Transactions on Geoscience and Remote Sensing,2021,59(9) :7570-7587.

[3]HOU B,CHEN X,JIAOL.Multilayer CFARdetectionof ship targets invery high resolution SAR images[J].IEE Geoscience and Remote Sensing Letters,2014,12:811-815.

[4]REN S,HE K,GIRSHICK R,et al.Faster R-CNN:Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis amp; Machine Intelligence,2017,39(6):1137-1149.

[5]HE K,GKIOXARI G,DOLLAR P,et al. Mask R-CNN[C]//Venice:2017 IEEE International Conference on Computer Vision,2017:2980-2988.

[6]REDMON J,DIVVALA S,GIRSHCK R,et al. You only look once:Unified,real-time object detection[C]//Las Vegas: IEEE Conference on Computer Vision and Pattern Recognition,2016:779-788.

[7]LIU W,ANGUELOV D,ERHAND,etal.SSD:Single shot multibox detector[C]//Amsterdam:Procedings of the European Conference on Computer Vision,2016:21-37.

[8]LI J,QU C,SHAO J. Ship Detection in SAR Images Based on an Improved Faster R-CNN[C]//2017 SAR in Big Data Era:Models,Methods and Applications,2017:1-6.

[9]CHEN C C,ZENG WM,ZHANG XL,etal.CSnNet:A remote sensing detection network breaking the second-order limitationoftransformers with recursiveconvolutions[J].IEEETransactionsonGeoscienceandRemote Sensing,2O3,6:1-15.

[10]CHENJ,YUANZY,PENG J,et al.DASNet:Dual AtentiveFully Convolutional Siamese Networks for Change Detection in High-Resolution Satelite Images[J]. IEEE Journalof Selected Topics inAplied Earth Observations and Remote Sensing,2021(14):194-1206.

[11]PANG Lei,LI Baoxuan,ZHANG Fengli,et al. A lightweight YOLOv5-MNE algorithm for SAR ship detection[J].Sensors, 2022,22(18) :7088.

[12]GE J,WANG C,ZHANG B,et al.Azimuth-sensitive object detection of high-resolution SAR images in complex scenes by using a spatial orientation attention enhancement network[J].Remote Sensing,2O22,14(9):2198.

[13]LIU Z,GAO X,WAN Y,et al.An improved YOLOv5 method for smallobject detection in UAVcapture scenes[J].IEEE Access,2023,11:14365-14374.

[14]YANG Xi,ZHANG Xin,WANG Nannan,et al.A Robust One-Stage Detector for Multiscale Ship Detection with Complex Background in Massive SAR Images[J].EEE Transactions on Geoscience and Remote Sensing,2O22,60:1-12.

[15]ZHANGL,LIUY,HUANG Y,et al.Regional Prediction-Aware Network with Cross-Scale Self-AttentionforShipDetection in SAR Images[J]. IEEE Geoscience and Remote Sensing Leters,2022,19:4514605.

[16]REN X,BAI Y,LIU G,et al.YOLO-Lite:An Eficient Lightweight Network for SAR Ship Detection[J].Remote Sensing, 2023,15(15) :3771.

[17]TANG H,SONG G,SONG L,et al.A Lightweight SAR Image Ship Detection Method Basedon Improved Convolution and YOLOv7[J].Remote Sensing,2024,16(3):286.

[18]WANG C,PEI J,LUO S,etal.SAR Ship Target Recognition via Multiscale Feature Atention and Adaptive-Weighed Classifier[J].IEEE Geoscience and Remote Sensing Letters,2O23,20:1-5.

[19]YANG G,LEIJ,ZHU Z,et al.Honolulu:Asymptotic Feature Pyramid Network for Object Detection[C]//IEEE InternationalConference on Systems:Manand Cybernetics,2023:2184-2189.

[20] LIN TY,DOLLAR P,GIRSHICK R,et al.Feature Pyramid Networks for Object Detection[C]//Honolulu:IEEE Conference on Computer Vision and Pattern Recognition,2O17:936-944.

[21] KANG M,TING C M,TING FF,etal.RCS-YOLO:A fastand high-accuracy object detector for brain tumor detection[C]//Greenspan,Medical Image Computing and Computer Assisted Intervention,2O23 :600-610.

[22] ZHENG Z,WANG P,REND,et al.Enhancing geometric factors in model learning and inference forobject detection and instance segmentation[J].IEEE Transactions on Cybernetics,2021,52(8) :8574-8586.

[23] WANG J,XU C,YANG W,etal.Anormalized Gaussian Wasserstein distance for tinyobject detection[J]. Journalof Photogrammetry and Remote Sensing,2022,190:79-93.

[24] WEI Shunjun,ZENG Xiangfeng,QU Qizhe,et al.HRSID:A high-resolution SAR images dataset forship detectionand instance segmentation[J].IEEE Access,2020,8:120234-120254.

[25] GE Z,LIU S,WANG F,et al. YOLOx:Exceeding YOLO Series in 2021[J/OL].(2021-8-6)[2024-8-5].https://doi. org/10.48550/arXiv.2107.08430.

[26] WANG C Y,BOCHKOVSKIYA,LIAO HYM.YOLOv7:Trainable Bag-of-Freebies Sets New sState-of-the-Art for RealTime Object Detectors[C]//Vancouver:IEEE/CVFConference on Computer VisionandPattrnRecognition,2023:7464- 7475.

[27]BAI Lin,YAOCheng,YE Zhen,etal.Featureenhancement pyramidand shallow feature reconstructionnetwork for SAR shipdetection[J].IEEEJournalofSelectedTopicsinAppliedEarthObservationsandRemoteSensing,2O23,16:104- 1056.

[28] GUO Y,ZHOU L.MEA-net:a lightweight SAR ship detection model for imbalanced datasets[J]. Remote Sensing,2022, 14(18) :4438.

[29] FENG Yun,CHEN Jie,HUANG Zhixiang,et al.A Lightweight Position-Enhanced Anchor-Free Algorithm for SAR Ship Detection[J].Remote Sensing,2022,14(8):1908.

[30] SHAO Zikang,ZHANG Xiaoling,WEI Shunjun,et al.Scale in Scale for SAR Ship Instance Segmentation[J]. Remote Sensing,2023,15(3):629.

[責任編輯:張存鳳]

Abstract:In the field of Synthetic Aperture Radar(SAR) ship detection,deep learning methods have become a key technology for improving detection accuracyand speed.To addressthe dual challenges of detection accuracy and speed,an improved SARN-YOLO algorithm based on the YOLOv8 model is proposed. First, feature layersand prediction heads with por feature extraction capabilities are removed,and areparameterization structure is introduced to effectivelyreduce themodel’sparametercountand enhanceitsabilityto extract features from small targets. Second,an Asymmetric Feature Pyramid Network is employed in the neck network to improve the detection capability for multi-scale targets.Finally,an NCIoU lossfunction is designed to further accelerate model convergence and improve both detection accuracy and speed.Experimental results show that SARN-YOLO achieves mAP@0.5 of 94.6% and 98.2% on the HRSID and SSDD ship datasets, respectively, outperforming the baseline model by 4.4% and 5.5% ,witha 66.7% reduction in model parameters.In terms of detection speed,SARN-YOLO reaches135.2 frames per second and 142.2 frames per second,surpassing the baseline model by approximately 16 frames per second and 35 frames per second,respectively. These results validate the effectiveness of SARN-YOLO in improving both detection accuracy and speed.

Keywords: SAR;ship detection;YOLOv8;NCIoU loss function

主站蜘蛛池模板: 一级做a爰片久久免费| 女人18毛片一级毛片在线 | 国产成人精品一区二区免费看京| 亚洲国产天堂在线观看| 欧美日韩国产成人在线观看| 国产无人区一区二区三区| 国产性生交xxxxx免费| 伊人色在线视频| 福利在线一区| 亚洲欧美不卡| 天天摸天天操免费播放小视频| 毛片大全免费观看| 日韩国产欧美精品在线| 在线视频精品一区| 色偷偷一区| 欧美亚洲欧美区| a级毛片在线免费观看| 久久久久久高潮白浆| 国产精品一区二区在线播放| 国产精品嫩草影院av| 丁香六月激情综合| 丁香婷婷久久| 久草青青在线视频| 一级福利视频| 亚洲色成人www在线观看| 91蝌蚪视频在线观看| 红杏AV在线无码| 美女扒开下面流白浆在线试听| 国产福利在线免费观看| 少妇精品在线| 真实国产乱子伦视频| 欧美综合区自拍亚洲综合天堂| 亚洲第一极品精品无码| 国产精品蜜臀| 91色在线观看| 国产精品自拍露脸视频| 亚洲一级毛片在线观播放| 亚洲美女操| 成人毛片免费在线观看| 国产在线精品香蕉麻豆| 亚洲精品成人福利在线电影| 青青青国产在线播放| 婷婷六月综合网| 先锋资源久久| 亚洲人成网址| 国产精品无码一二三视频| 欧美亚洲国产精品第一页| 国产在线欧美| 午夜精品久久久久久久无码软件 | 成人免费午夜视频| 婷婷六月激情综合一区| 911亚洲精品| 2020久久国产综合精品swag| 五月天香蕉视频国产亚| 亚洲天天更新| 亚洲免费黄色网| 91外围女在线观看| 玖玖精品视频在线观看| 亚洲第一黄色网址| 精品无码一区二区三区在线视频| 欧美一级在线播放| 国产v精品成人免费视频71pao| 91精品国产自产在线老师啪l| 国产免费好大好硬视频| 日韩国产高清无码| 一级在线毛片| 一级成人a做片免费| 伊人精品成人久久综合| 99一级毛片| 色爽网免费视频| 国产视频自拍一区| AV不卡在线永久免费观看| 无码'专区第一页| 一级一级一片免费| 亚洲成综合人影院在院播放| 国产在线专区| 欧洲熟妇精品视频| 在线视频亚洲色图| 国产伦精品一区二区三区视频优播 | 日韩福利在线观看| 真实国产乱子伦高清| 成人免费视频一区|