999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv3-Tiny的遙感艦船小目標檢測方法*

2023-03-21 02:22:10魏玉梅
計算機時代 2023年3期
關鍵詞:特征提取實驗檢測

王 欣,江 濤,馬 珍,魏玉梅

(云南民族大學數學與計算機科學學院,云南 昆明 650500)

0 引言

隨著遙感技術的飛速發展,遙感圖像在海洋、氣象、天文、軍事等領域得到了廣泛的應用[1]。艦船目標檢測無論是在軍用領域還是民用領域均具有廣泛的應用,已經成為遙感圖像目標檢測中一個極其重要的研究方向,引起了國內外學者的廣泛關注。遙感圖像艦船檢測是精確識別圖像中特定艦船目標的位置,并標注出目標的類別。

隨著卷積神經網絡的發展,基于深度學習的目標檢測方法克服了傳統檢測方法中目標難選取、檢測精度低、檢測速度慢、算法泛化能力低等問題。目前,較流行的基于深度學習的目標檢測[2]算法大致可以分為兩種:一種是兩階段方法,首先進行目標區域候選框的生成,再通過卷積神經網絡對候選框進行回歸與分類,如R-CNN[3]、FastR-CNN、FasterR-CNN等,這些算法雖然提高了檢測的精度,但計算量較大,導致檢測的速度變慢;另一種是單階段方法,采用單一回歸問題思想,如YOLO[4]、SSD[5]等算法,直接在原始圖像上完成輸入和輸出,經過卷積神經網絡,就能得到目標位置和所屬類別。單階段算法具有端到端的結構特點,較于兩階段算法,檢測速度明顯提高。

遙感圖像中艦船目標通常不超過幾十個像素,在圖片中的占比極小,難以精確地檢測。Li[6]等提出了一種改進的FasterR-CNN 方法,用于檢測不同尺度的艦船目標。Zhang[7]等提出了一種基于特征金字塔網絡的多尺度檢測,增強了密集目標的檢測能力。徐[8]等提出一種基于YOLOv4 的目標檢測算法,通過場景增強的擴充了訓練樣本,提高了檢測精度。以上基于深度學習的目標檢測算法雖然檢測的性能都有不同程度的提高,但是也有一些共同的問題:這些單階段方法的泛化能力較弱,不能適用于復雜的密集場景。兩階段方法網絡較大、訓練時間較長,難以實現實時檢測。因此,遙感圖像艦船小目標檢測的任務仍有進步空間。

為了更精確地檢測到遙感圖像艦船小目標,本文將選擇單階段算法YOLOv3-Tiny,在該算法的基礎上進行改進,在保證單階段算法檢測速度優勢的條件下,提出一些改進的方法。

1 YOLOv3-Tiny算法

YOLO系列算法在單階段檢測算法中具有較強的代表性,且存在較大的改進潛力,其中YOLOv3 和YOLOv3-Tiny 在檢測精度上均有很好的表現,但YOLOv3 的主干網絡使用了Darknet53,并引入了殘差網絡與特征金字塔,使得網絡過于復雜導致檢測速度緩慢,而YOLOv3-Tiny 是YOLO 系列中輕量級網絡,在YOLOv3 的基礎上減少了部分卷積層,提高了檢測速度。如圖1 所示,YOLOv3-Tiny 網絡由卷積層、池化層、上采樣層、連接層和YOLO層組成。

圖1 YOLOv3-Tiny網絡結構圖

2 YOLOv3-Tiny算法的改進

2.1 Mosaic數據增強

Mosaic 數據增強[9]借鑒了CutMix 數據增強方式,從訓練數據集中取出一個batch數據,隨機選取出四張圖片,分別對其進行翻轉、縮放、裁剪、色域變化等,然后按著方向拼接,組成一張新的圖片如圖2 所示。這種方法可有效防止訓練集背景相似,提高網絡泛化能力。同時,Mosaic 數據增強方法的應用,也能有效解決遙感圖像檢測樣本中小目標物體不足的問題,使得小尺度的大目標對象也能被精準的檢測到。

圖2 Mosaic數據增強

2.2 混合域注意力機制

注意力機制[10]來模仿人類視覺觀察模式。人類在觀察時,當對某個目標感興趣,其注意力就會集中到這個感興趣的目標上。而在深度學習中,這就相當于給整幅圖像加上了一個可視化權重,將注意力集中到檢測的目標上,以獲取目標更重要的特征信息,并抑制無效特征信息。注意力機制就是給每個特征圖乘以一個權重,表示特征的重要性。混合域注意力機制(CBAM)是一個輕量級的通用模塊,它可以無縫地插入任何CNN 網絡中,用于增強CNN 的表現能力。CBAM[11]結合了通道注意力和空間注意力兩個模塊,在保持較小的運算情況下實現可觀的性能提升。如圖3 所示,(a)CBAM 包含兩個部分:(b)Channel Attention Module 和(c)Spatial Attention Module。CBAM 可以用以下公式表示:給定一個輸入特征圖F∈RH*W*1。CBAM 依次得到一維通道注意矩陣MC∈R1*1*C和二維的空間注意矩陣MS∈RH*W*1。

圖3 CBAM結構圖

其中,F是特征圖,?表示逐元素相乘,F′和F′′分別表示進行了通道注意力和空間注意力后的輸出特征圖,MC(F)和MC(F′)分別表示通道注意力和空間注意力的權重系數矩陣。

為了緩解卷積神經網絡中特征提取的不足,本文對特征提取層進行改進,在主干網絡的conv5和conv8后分別加上CBAM 注意力機制,作為獨立的輸出層與之后的卷積層相連,以提升遙感艦船小目標的檢測能力。

2.3 改進的YOLOv3-Tiny網絡

本文以YOLOv3-Tiny 的特征提取網絡為主干網絡,提出了一些改進方法。①從輸入角度,改變輸入圖像尺度,通過輸入更大尺度圖像的進行訓練,減少小目標信息特征的丟失。②從數據集角度,通過Mosaic 數據增強,豐富遙感圖像小目標數據集,使網絡具有更好的泛化能力。③從特征提取角度,在特征提出網絡中引入混合域注意力機制CBAM,提高卷積網絡中特征提取的能力,使有效特征權重更大,無效特征權重更小,最終有效提高模型的小目標檢測能力。改進后的YOLOv3-Tiny 網絡結構,如圖4 所示,在特征提取中下采樣層后加入注意力機制模塊,并從第12層開始將低層的特征連接到高層,增加了高層特征圖的信息。從圖4 可以看出,輸入640×640 的遙感圖像后,經過特征提取得到了13×13 和26×26 兩種不同尺度的特征圖。

圖4 改進后的YOLOv3-Tiny網絡結構

3 實驗與結果分析

3.1 實驗數據及實驗環境

本實驗使用DSTD數據集[12],該數據集是從DIOR、DOTA、NWPU-VHR dataset和TGRS-HRRSD-Datasetmaster幾個數據集中采集的遙感艦船圖像,進行剪切、修改和篩選,并通過標注工具LabelImg 進行手動標注,得到由4854 張艦船遙感圖像和87076 個艦船目標實例組成的DSTD數據集。

本實驗采用16G內存的64位Windows10操作系統,CPU 為Intel(R)Core(TM)i5-10400FCPU@2.90GHz,顯卡為NVIDIA GeForce RTX 2080,顯存為8G。使用PyTorch深度學習框架,開發環境為torch1.7.1,cuda11.0,Python3.7。將數據集按6:2:2 的比例隨機劃分為訓練集、測試集和驗證集。實驗參數如表1所示。

表1 實驗參數

3.2 評價指標

本實驗采用召回率(Recall)、精確率(Precision)、平均精確率(mAP,meanAveragePrecision)和幀率(FPS)作為評價的相關指標。具體公式如下:

其中,TP表示預測正確的正樣本數量;FN表示預測錯誤的正樣本數量,FP表示預測錯誤的負樣本數量;TN表示預測正確的負樣本數量。幀率(FPS)表示每秒鐘能夠檢測的圖片數量。

3.3 實驗結果與分析

3.3.1 目標檢測算法對比實驗

為了驗證算法對遙感艦船小目標檢測的性能,將本文改進后的YOLOv3-Tiny 算法命名為Improved-YOLOv3-Tiny,與原始YOLOv3-Tiny 以及目前流行的單階段兩階段測算法YOLOv3、RetinaNet、SSD 等在相同的環境下分別進行訓練。實驗結果對比見表2,YOLOv3-Tiny 在對遙感艦船目標檢測時,效果明顯優于YOLOv3、RetinaNet、SSD,Improved-YOLOv3-Tiny精確率達到了91.4%,較改進前提升了5%;召回率達到了87%,較改進前提升了5%;平均精確率達到了85.1%,較改進前提升了3.9%,檢測速度比原始YOLOv3-Tiny每秒少傳輸2幀,但仍然快于YOLOv3、RetinaNet、SSD 等算法,因此,Improved-YOLOv3-Tiny 算法在各方面均明顯優于其他算法,驗證了本文改進方法的可行性。

表2 目標檢測算法實驗結果

3.3.2 訓練結果

本文基于DSTD 遙感數據集進行訓練,訓練300輪后,Improved-YOLOv3-Tiny 訓練過程中的總損失、mAP 和F1的變換曲線如圖5所示。橫軸為訓練輪數,縱軸為數值。前50 輪網絡迅速收斂,在150 輪之后趨于穩定,網絡的收斂過程非常穩定,沒有出現過擬合和欠擬合現象,因此Improved-YOLOv3-Tiny 網絡的訓練結果比較理想。

圖5 Improved-YOLOv3-Tiny的Losscure、mAP、F1變化曲線

3.3.3 消融實驗

我們來進行消融實驗以驗證本文加入的模塊對遙感艦船目標檢測性能的影響。如表3 所示以原始YOLOv3-Tiny 為基準。觀察可知,輸入圖像大小為640×640 的YOLOv3-Tiny 更適合檢測遙感圖像艦船目標,基本上每一處改進都會使檢測性能有一定的提升,當三處改進融合在一起時,改進的效果最佳,雖然精確率稍低于其他的改進方案,但綜合來看,改進后的算法(Improved-YOLOv3-Tiny)達到了所有方案中的最優,也驗證了本文提出的基于Improved-YOLOv3-Tiny對遙感艦船小目標檢測效果很好。

表3 消融實驗對比

4 結束語

本文面向遙感場景下的大規模水面艦船目標的檢測,針對在檢測過程中遙感圖像中的各類艦船小目標,檢測難度大的問題進行研究,提出了基于YOLOv3-Tiny 的改進算法。首先對訓練數據進行Mosaic 數據增強,豐富了遙感數據集,增加了背景的復雜度,提高了模型的泛化能力。其次在特征提取網絡中加上混合域注意力機制CBAM,引導模型聚焦于局部區域,加強對小目標的檢測能力。最后將輸入圖像的尺度由416×416調整到640×640,得到了更適合遙感圖像艦船小目標檢測的算法。實驗結果表明,Improved-YOLOv3-Tiny 算法在保證速度的條件下,檢測精確率、召回率、平均精確率和F1 值均較于原有YOLOv3-Tiny算法均有顯著提升,有效地改善了遙感圖像中艦船小目標檢測的效果。目前對遙感圖像中受云霧等氣象條件影響的目標不能精準地檢測,后續將優化遙感圖像中云霧覆蓋、遮擋艦船目標的檢測。

猜你喜歡
特征提取實驗檢測
記一次有趣的實驗
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
做個怪怪長實驗
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
一種基于LBP 特征提取和稀疏表示的肝病識別算法
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 久久这里只有精品66| 毛片视频网址| a毛片免费在线观看| 999精品色在线观看| 高h视频在线| 一级一毛片a级毛片| 欧美日韩91| 久久精品这里只有国产中文精品| 亚洲天堂网2014| 午夜视频免费一区二区在线看| 国产成人精品午夜视频'| 中日韩欧亚无码视频| 亚洲首页国产精品丝袜| 四虎亚洲国产成人久久精品| 无码国内精品人妻少妇蜜桃视频| 国产av色站网站| 久久激情影院| 国产精品成人啪精品视频| 欧美另类精品一区二区三区| 欧美日韩中文字幕二区三区| 国产在线一二三区| 亚洲精品日产精品乱码不卡| 色成人综合| 无码高潮喷水在线观看| 国产乱人伦偷精品视频AAA| 国产高清在线丝袜精品一区| 色婷婷久久| 国产无遮挡猛进猛出免费软件| 尤物国产在线| 久久公开视频| 国产真实自在自线免费精品| 久久久久无码精品| 午夜视频免费一区二区在线看| 中文成人无码国产亚洲| 操操操综合网| 香蕉在线视频网站| 91久久偷偷做嫩草影院| 99热国产在线精品99| 狠狠色丁婷婷综合久久| 亚洲天堂网在线播放| 国产成人成人一区二区| 日韩精品一区二区三区免费在线观看| 成人日韩视频| 亚洲福利网址| 色欲综合久久中文字幕网| 國產尤物AV尤物在線觀看| 日韩专区欧美| 97成人在线视频| 亚洲中文字幕av无码区| 亚洲欧美在线综合图区| 奇米影视狠狠精品7777| 伊人色婷婷| 999国内精品视频免费| 免费看黄片一区二区三区| 欧美国产精品拍自| 久久这里只有精品国产99| 囯产av无码片毛片一级| 久久人体视频| 67194亚洲无码| 亚洲福利一区二区三区| 夜色爽爽影院18禁妓女影院| 天天操天天噜| 青草视频网站在线观看| 亚洲精品爱草草视频在线| 久久精品中文字幕少妇| 亚洲av无码久久无遮挡| 极品尤物av美乳在线观看| 国产精品亚欧美一区二区三区| 国产精品大尺度尺度视频| 蜜臀av性久久久久蜜臀aⅴ麻豆| 欧美精品v欧洲精品| 国产精品 欧美激情 在线播放| 国产福利不卡视频| 免费在线观看av| 白浆免费视频国产精品视频 | 日本91视频| 国产乱论视频| 色综合天天综合中文网| 免费国产好深啊好涨好硬视频| 日本黄色a视频| 欧美成人一级| 天天做天天爱夜夜爽毛片毛片|