999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于加權策略的高分辨率遙感圖像目標檢測

2021-07-14 16:22:02宋忠浩聶圣東
計算機工程與應用 2021年13期
關鍵詞:特征融合檢測

宋忠浩,谷 雨,陳 旭,聶圣東

杭州電子科技大學 自動化學院,杭州310018

高分辨率遙感圖像的目標檢測是高分對地觀測系統中圖像解譯的重要內容。與自然場景圖像相比,遙感圖像擁有更加廣闊的視野和更豐富的信息,在偵查監視、資源勘探、災害監測、城市規劃、交通管制、武器制導等領域有著廣泛的應用[1-3]。傳統遙感圖像目標檢測算法的流程是先進行區域選擇,然后基于圖像的紋理、色彩、尺度等進行特征提取,最后通過傳統機器學習分類器(如支持向量機等)對滑動窗口進行分類來達到目標檢測的目的。這種傳統的做法存在算法適應性不高,提取特征魯棒性弱,檢測實時性差的缺陷[4]。

近年來,隨著深度學習技術的迅速發展,遙感圖像的目標檢測技術實現了重大突破[4]。目前,基于深度學習的目標檢測算法大致可以分為基于區域的和基于回歸的兩大類。基于區域的檢測算法以RCNN[5-7]系列為代表,將檢測問題劃分為兩個階段,該類算法精度高但檢測實時性較差。基于回歸的算法以統一實時目標檢測算法(You Only Look Once,YOLO)[8]、多尺度單發射擊檢測算法(Single Shot multibox Detector,SSD)[9]為代表,是一種端到端的單階段方法,該類算法檢測速度快但精度較低。在兩類算法的基礎之上,很多專家和研究學者針對遙感圖像的目標尺度多樣性、旋轉角度多樣性、小目標居多、背景復雜以及遮擋等特點進行了適應性的改進和優化[10-12]。并且在多個已公開的遙感圖像數據集上都取得了較好的實驗結果,如西北工業大學發布的大規模光學遙感圖像數據集(Object Detection in Optical Remote Sensing Images,DIOR)[13]和高分辨率遙感圖像數據集(Northwestern Polytechnical University Vary High Spatial Resolution Remote Sensing Images,NWPU VHR-10)[14]、中國科學院大學模式識別與智能系統開發實驗室標注的航空目標檢測數據集(University of Chinese Academy of Sciences Aerial Object Detection,UCAS-AOD)[15]、武漢大學研究團隊標注的遙感圖像目標檢測數據集(Remote Sensing Object Detection,RSOD)[16],以及武漢大學測繪遙感信息工程國家重點實驗室夏桂松教授等制作的大尺度航空目標檢測數據集(a Largescale Dataset for Object Detection in Aerial Images,DOTA)[17]等。王金傳等[18]采用基于區域建議網絡(Region Proposal Network,RPN)和牛津大學計算機視覺組提出的深度卷積神經識別網絡(Visual Geometry Group 16,VGG16)構建了面向遙感圖像目標識別的深度網絡檢測模型,實現了對遙感圖像目標快速、準確的識別。但由于采用數據類別較少,沒有解決面向多類別的檢測問題。史文旭等[19]針對復雜場景下多尺度遙感目標檢測精度較低的問題,提出基于多尺度單發射擊檢測的特征增強檢測算法,基于SSD框架設計了淺層特征和深層特征的增強模塊,提高了骨干網絡的提取能力,有效改善了多尺度遙感圖像的檢測精度。陳丁等[20]針對光學遙感圖像中小目標居多、相似性及背景復雜等問題,提出卷積神經網絡(Convolutional Neural Network,CNN)和混合玻爾茲曼機相結合的遙感圖像目標檢測方法,設計出細節-語義特征融合網絡來改善特征融合的效率,顯著提升了小目標的檢測精度。但該方法存在檢測耗時,上下文信息利用不足等問題。姚群力等[21]針對遙感圖像在復雜區域和密集區域下檢測精度較低的問題,提出多尺度特征融合目標檢測框架,設計了反卷積特征融合模塊,得到更加豐富的特征,有效改善了密集區域下的小尺度飛機目標檢測精度的問題。但由于需要手工設計不同縱橫比的候選框,該算法的遷移效果較差。魏瑋等[22]基于YOLOv3[23]進行改進,通過引入跳躍連接機制降低特征冗余,進一步提高了檢測準確率,降低了小目標的誤檢率和漏檢率。但是對于密集區域下的檢測存在一定的局限性。

受以上研究的啟發,本文提出具有加權策略的改進YOLOv3遙感圖像目標檢測模型。為滿足實時性需求,本文對YOLOv3目標檢測算法進行改進和優化,并將改進后的實驗結果與基于區域建議網絡的實時目標檢測算法(Towards Real-Time Object Detection with Region Proposal Networks,Faster-RCNN)、SSD 算法以及改進前的算法模型進行對比分析,驗證了該模型在改善小目標檢測能力,提高目標檢測精度上的有效性。本文主要創新點包括以下兩個方面:

(1)為了提高遙感圖像弱小目標的檢測能力,增加具有較小感受野的特征圖像的檢測輸出分支,提高了對不同尺度目標的檢測能力,并進一步探討了多尺度預測對于算法性能的影響。

(2)為了進一步提高算法模型的檢測準確率,設計了一種多尺度特征圖像自適應加權融合方法,將來自不同尺度的特征信息采用加權的策略進行融合,突出各層次特征表達的貢獻,綜合利用多尺度特征提高了目標檢測精度。

1 基于改進YOLOv3的遙感圖像目標檢測模型

1.1 YOLOv3目標檢測算法

YOLOv3目標檢測算法是由Redmon等[23]提出的基于回歸的端到端單階段目標檢測算法,優點是檢測速度快,因此被廣泛應用于工業領域的目標檢測、跟蹤等任務。與V1、V2版本相比,YOLOv3做出了如下改進:

(1)YOLOv3 采用Darknet-53 作為特征提取網絡,采用全卷積結構[24],借鑒了殘差網絡(Residual Network)的設計思想,在網絡中加入殘差模塊,有效的緩解了深層網絡在訓練過程中的梯度爆炸問題。整個網絡由53層卷積層組成,網絡結構如圖1所示。

圖1 Darknet-53網絡結構圖

(2)借鑒了兩階段目標檢測算法中的先驗框思想,在COCO數據集上進行聚類得到9種尺寸的先驗框,使得卷積神經網絡更容易預測目標位置。

(3)借鑒了特征金字塔網絡(Feature Pyramid Networks,FPN)[25]的多尺度融合策略和上采樣思想,采用多尺度進行預測輸出,提高了小目標的檢測能力。

(4)支持多標簽對象,預測類別時不使用softmax,改成使用logistic的輸出進行預測。

1.2 多尺度預測與先驗框

YOLOv3 對3 個尺度的提取特征進行預測輸出,不同尺度特征具有不同的感受野,用于檢測不同尺寸的目標。對于多尺度檢測來說,如果可以利用更多的高分辨率特征信息,則檢測模型會更有利于小目標的檢測。但遙感圖像與自然圖像相比背景信息更加復雜,利用高分辨率特征會引入過多的背景噪聲,容易造成模型收斂速度緩慢甚至難以收斂的后果。同時,增加模型檢測尺度也會增加模型復雜度、訓練時間以及帶來的參數冗余。因此,綜合考慮各方面的影響因素,本文最終采用了4個檢測尺度進行預測輸出,在原來的基礎之上,增加了104×104特征圖像的檢測輸出分支。

由于預測輸出的特征圖數量和尺度發生了變化,先驗框的尺寸也需要進行相應的調整。本文對數據集中的目標進行了自適應維度聚類,以獲得更高的先驗匹配率。由于采用了4個檢測尺度,因此將先驗框的數量增加到12 個,其中當輸入為416×416 時,下采樣得到的特征圖與先驗框的分布如表1所示。

表1 不同分辨率特征圖的先驗框分布

1.3 加權融合機制

對于多尺度檢測來說,特征融合策略已經被廣泛的應用,目的是為了更加充分地利用不同分辨率的特征信息。低分辨率特征具有較強的語義信息,能夠區分目標和背景,但細節信息較少,而高分辨率特征具有較豐富的細粒度信息,相應的其語義信息較弱。在YOLOv3中,采用的特征融合策略是先對不同尺度的特征圖進行resize 操作,然后將特征圖進行簡單的拼接達到特征融合的目的,如FPN[25]。這種做法將不同層次的特征信息等同對待,沒有區分不同特征重要性的差異。然而不同尺度的特征包含著不同的目標信息,它們對于最終的預測輸出應當具有不同的貢獻表達。因此,本文提出具有加權策略的自適應特征圖像融合方法,其核心設計思想是對特征融合模塊進行改進,進行特征融合的各尺度特征具有不同的權重,權重系數在訓練中學習得到。此外,改進后的算法模型融合了3 個尺度的特征信息,如圖2所示。

圖2 特征融合模塊結構圖

其中,本體特征代表該下采樣層的尺度特征圖,附加體特征代表其他尺度的特征圖,ω1、ω2、ω3代表不同尺度特征進行加權融合的權重系數,Conv、Deconv代表卷積和反卷積操作,以適應融合模塊的尺度要求。

1.4 改進模型網絡結構

本文基于精確度和速度的綜合考量,以4個檢測尺度為基準對模型進行了改進,并且優化了特征融合策略,提出了基于加權策略的改進YOLOv3遙感圖像目標檢測模型,改進后的模型稱為Weighted-YOLOv3。針對遙感圖像背景信息復雜、小目標數量多的特點,隨著特征提取網絡深度的增加,加權點的位置逐漸向左偏移,目的為防止丟失目標在深層網絡中的語義特征信息。

改進模型的網絡結構如圖3所示,其中,f1~f5代表不同下采樣倍數的提取特征圖;DBL 模塊代表卷積層(Darknet Convolution)、批量歸一化層(Batch Normalization,BN)、激活層(Leaky Relu),是網絡結構中的基本組成部分。C1、C2、C3是網絡中設置的3個加權點,來自本層的本體特征與來自其他層的附加特征在加權點以一定權重進行融合,代表了不同層次特征對最終預測輸出的不同貢獻;ω1~ω9代表不同的權重系數,在前向計算與反向誤差傳遞過程中不斷地迭代學習;y1、y2、y3、y4代表了不同尺度特征圖像輸出的預測信息,通道維度的計算方法如(1)所示;在本文自建的數據集中,預測類別為4類,預測通道深度為27;在上采樣層采用反卷積代替resize操作。

圖3 Weighted-YOLOv3模型網絡結構圖

其中,n表示每個尺度先驗框的個數,tx,ty,tw,th,to是訓練中要學習的參數,用來預測邊框的中心點坐標、寬高以及置信度得分,nclass代表預測的目標類別數量。

2 數據集

2.1 數據準備

本文選擇西北工業大學發布的光學遙感數據集DIOR[13]進行實驗。為了評估本文所提算法模型的有效性,本文采集了不同場景下的飛機(airplane)、車輛(vehicle)、油庫(storagetank)、艦船(ship)4 類軍事領域常見的感興趣目標組建新的數據集(以下簡稱AVSS數據集)。其中選取的目標類別尺度分布差異明顯,小目標數量多,給目標檢測任務帶來一定的挑戰性。同時選取了NWPU VHR-10[14]、UCAS-AOD[15]和RSOD[16]數據集中包含的相關類別進行拓展實驗。數據集的具體信息如表2中所示。

表2 數據集詳細信息

2.2 數據預處理

AVSS 數據集的目標實例數量及尺度分布信息,如圖4所示。

圖4 AVSS數據集目標實例數量分布圖

由圖5中的散點分布圖可以看出,目標尺寸集中分布在300×300 像素大小以內。為了更加具體地說明目標尺寸相對于圖像大小的情況,本文定義目標占有率的表示方法:

圖5 AVSS數據集目標尺度散點分布圖

其中Pobject是感興趣目標標注框的像素面積,Ppicture是圖像的像素總數(在DIOR 數據集中為800×800),η是二者的比值。本文對AVSS數據集進行統計分析,得到目標占有率的分布結果如圖6所示。

由圖6 可以看出,AVSS 數據集的目標占有率分布差異明顯,但集中分布在0.3以下,說明了自建數據集中小目標數量較多,這對檢測模型提出了更高的要求。另外,為了增加訓練數據的多樣性,提高模型的泛化能力,本文通過對比度增強、圖像模糊等方法對訓練數據集進行了數據增廣。

圖6 AVSS數據集目標占有率分布折線圖

3 實驗結果分析

3.1 實驗環境

實驗在載有一塊NVIDA GeForce GTX1080 Ti 的顯卡,Inter core?i7-8700K CPU @3.70 GHz、RAM:32 GB 的電腦上進行。本文所使用的算法模型基于TensorFlow 深度學習框架實現,采用平均精度均值(mean Average Precision,mAP)作為算法性能分析的主要評價指標。其中mAP 的計算方法為所有類別AP0.5的平均值,即當目標檢測框與目標標注框的面積交并比(Intersection-over-Union,IoU)大于或者等于0.5時,認為檢測結果正確,否則認為檢測錯誤。

3.2 訓練策略與參數更新

在訓練網絡時,學習率不再采用分段設置的方式,而是采用熱啟動(Warmup)策略,這種方法有利于加快模型的收斂速度,避免提前過擬合。輸入數據時,采用批訓練(mini-batch)方式輸入數據,迭代更新部分數據進行模型優化,從而有效地提高計算效率。其他的一些超參數設置如表3所示。

表3 訓練參數設置

3.3 多尺度預測實驗

為了進一步驗證細粒度信息和語義信息進行融合后對于目標檢測性能的影響,本節設置了3組對比實驗,在網絡中分別選定3、4、5 個YOLO 層,在AVSS 數據集上進行訓練和測試。評價標準主要包括mAP、檢測幀頻率(frame/s)、模型浮點運算量(Billion Float operations per second,BFLops)、模型大小以及模型訓練時間等指標。當測試集的輸入為800×800時,具體實驗結果如表4所示。從測試結果來看,隨著YOLO層數的增加,檢測網絡的性能得到不同程度的改善。這是因為遙感圖像的目標占有率普遍較低,利用淺層網絡融合了更多的細節信息,有利于小目標的檢測,例如vehicle類別的AP最多提高了5.15個百分點,storagetank最多提高了10.66個百分點。但隨之帶來的是模型復雜度的增加,推理速度的減慢以及訓練時間的延長,在實際應用中,應綜合考慮檢測精度、實時性等多項指標選擇相應的算法模型。在硬件資源不受限的情況下,可以為了追求檢測精確度選擇較為復雜的模型,相應地如果資源受限,可以選擇較為簡單的模型,以獲得比較高的模型推理速度。

表4 多尺度預測實驗結果

3.4 加權融合實驗

為了驗證本文所提自適應加權融合策略的有效性,本節設置了4 組對比實驗,以mAP 作為評價指標,在AVSS 數據集上進行訓練和測試。其中,以4 個YOLO層模型作為基準模型,然后依次在網絡中加入C1、C2、C3這3個不同的加權點,對不同實驗條件下訓練出的模型性能進行對比分析。當測試集的輸入為800×800時,具體實驗結果如表5所示。

表5 不同加權點下的加權融合實驗結果

實驗結果表明,在網絡結構中設置不同個數的自適應加權點,對模型的檢測性能影響不同。Weighted-YOLOv3算法模型在特征融合網絡中設置3個自適應加權點,取得了80.25%的mAP,與未設置加權點的模型相比,mAP 得到了2.5 個百分點的提高。在實時性方面,改進模型的平均檢測速度可以達到8.71 frame/s,說明設置加權點對模型檢測速度沒有太大的影響,實現了檢測精度和速度的平衡。其次,隨著加權點個數的增加,平均檢測準確率不斷提高,這驗證了自適應加權機制在多尺度特征融合方法中的有效性,說明自適應加權策略更加靈活的融合了不同采樣層的特征信息,提高了骨干網絡的特征提取能力。最后,改進后的算法模型對不同尺度目標的檢測能力都有一定程度的提高,說明加權策略可以有效地降低模型對目標尺度的敏感度。

為了進一步說明改進模型的表現情況,下面給出該模型在測試集上的PR 曲線,如圖7 所示,其中Precision是精確率,Recall 是召回率,計算公式如下所示,TP表示預測結果正確的樣本數,FP表示預測結果錯誤的樣本數,FN表示未檢測出的樣本數。

圖7 Weighted-YOLOv3模型在AVSS測試集上的PR曲線

如圖8 所示,給出測試集上的部分檢測實例,并將模型改進前后的檢測結果進行對比。可以看出改進后的Weighted-YOLOv3 模型有效降低了漏檢和誤檢,并且對不同尺度的目標取得了較好的檢測結果。

圖8 YOLOv3與Weighted-YOLOv3模型檢測結果對比

3.5 DIOR數據集檢測實驗

為了驗證本文所提Weighted-YOLOv3 模型對多類別場景的檢測能力,本節對DIOR數據集進行了全類別的訓練和測試實驗,并將實驗結果與其他算法模型結果[13]進行了比較。DIOR 數據集信息如表6 所示,其中c1~c20代表數據集的各個類別,各模型在測試集上的性能對比情況如表7 所示,加黑字體代表該類別的最好結果。

表6 DIOR數據集類別信息

表7 列出了本文所提Weighted-YOLOv3 算法模型與其他算法的對比結果。可以看出,改進后的模型在DIOR數據集上的平均精度均值有所提高,mAP達到了60.3%,相比改進前提高了3.2 個百分點,這說明了改進模型的有效性。兩階段檢測算法Faster R-CNN的mAP值并沒有超過SSD、YOLOv3 等單階段算法,這是因為遙感圖像具有成像視角特殊、背景復雜以及目標尺度差異大的特點,給設計候選框帶來了一定的挑戰。

表7 不同算法模型在DIOR測試集上的性能對比 %

文獻[26]為解決檢測器特征金字塔的不一致性問題,基于YOLOv3 進行改進,提出了一種自適應空間特征融合(Adaptively Spatial Feature Fusion,ASFF)方法。經過測試,該方法在DIOR 測試集上的mAP 達到57.4%,且對airplane、chimney等類別取得了較高的檢測精度,這說明了自適應特征融合方法在目標檢測任務中的有效性。同時,由于該方法對3個尺度特征進行預測輸出,因此對小目標的檢測能力不如本文的Weighted-YOLOv3 模型,例如vehicle 目標的mAP 為37.6%,相比YOLOv3 下降了10.7 個百分點,相比本文模型下降了15.0個百分點。綜上所述,本文所提改進模型更適合于遙感圖像的目標檢測任務。

3.6 對其他數據集的目標檢測實驗

在實際的應用場景中,由于高分辨率遙感圖像的獲取成本較高,經常會出現訓練樣本不足的問題,這使得目標檢測任務變得更加困難。因此,利用獲得的有限數據進行訓練,然后將訓練得到的模型用于檢測未知圖像是十分重要的。為了驗證本文所提Weighted-YOLOv3模型的適應性,本節在RSOD、UCAS-AOD 以及NWPU VHR-10 數據集中選取了相關類別圖片進行測試,其中測試圖像均未參與訓練,且圖像分辨率分布不均,背景復雜度也存在差異。具體結果如表8所示,測試結果說明,本文所提模型仍然可以對其進行有效的檢測,說明了改進后的模型對于類似的數據集可以實現較好的遷移效果。部分檢測實例如圖9所示。

圖9 Weighted-YOLOv3對其他數據集的部分測試結果實例

表8 Weighted-YOLOv3對其他數據集的測試結果

%

4 結論

本文以高分辨率光學遙感圖像的目標檢測為研究背景,針對遙感圖像目標檢測任務中存在的目標尺度差異大、檢測精度低等問題,提出了一種基于加權策略的改進YOLOv3遙感圖像目標檢測模型。首先,為了提高遙感圖像中小目標的檢測精度,增加具有較小感受野的特征圖像的檢測分支,更多地利用了提取特征圖像的細節信息,提高了對不同尺度目標的檢測能力。然后,設計了一種多尺度特征圖像自適應加權融合方法,通過挖掘特征提取網絡的表征能力,綜合利用了多尺度特征提高目標檢測精度。實驗結果表明,改進后的模型在自建數據集上可以明顯提高感興趣目標的平均精度均值,取得了80.25%的mAP 和8.71 frame/s 的檢測速度,在實時性和檢測精度之間實現了較好的平衡。同時在公開遙感數據集DIOR 上取得了60.3%的mAP,進一步驗證了改進模型的有效性。最后,本文對其他數據集進行了拓展測試實驗,驗證了模型具有較好的適應性。但是,本文的研究仍然存在很多的不足,未來的工作一方面從模型的輕量化方向展開研究,進一步壓縮和裁剪模型,提高檢測速度,另一方面針對遙感圖像角度多樣性的特點進行任意旋轉框的檢測。

猜你喜歡
特征融合檢測
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 亚洲成年人网| 午夜免费小视频| 福利一区在线| 亚洲黄色视频在线观看一区| 日本精品一在线观看视频| 乱色熟女综合一区二区| 免费一极毛片| 久久精品免费看一| 强乱中文字幕在线播放不卡| 无码人中文字幕| 国产真实乱子伦视频播放| 国产成人免费观看在线视频| 亚洲福利片无码最新在线播放| 91精品啪在线观看国产91| lhav亚洲精品| 亚洲码一区二区三区| 国产精品成人啪精品视频| 88国产经典欧美一区二区三区| 日韩午夜福利在线观看| Jizz国产色系免费| 国精品91人妻无码一区二区三区| 国产麻豆福利av在线播放| 日本一本正道综合久久dvd| 国产成人区在线观看视频| 久久久久人妻一区精品色奶水 | 女人一级毛片| 免费A级毛片无码免费视频| 国产产在线精品亚洲aavv| 欧美精品成人| 97国产精品视频自在拍| 国产成人精品2021欧美日韩 | 最近最新中文字幕在线第一页| 无码中文字幕加勒比高清| 波多野结衣无码AV在线| 亚洲无码日韩一区| 国产99视频精品免费视频7| 国产91九色在线播放| 国产精品3p视频| 干中文字幕| 亚洲综合狠狠| 久久精品人人做人人综合试看| 国产91熟女高潮一区二区| 色综合狠狠操| 久久国产精品国产自线拍| 亚洲成人免费在线| 99在线观看国产| 欧美激情一区二区三区成人| 国产成人综合日韩精品无码不卡| 国产午夜一级淫片| 57pao国产成视频免费播放| 国产精品成人免费视频99| 精品国产一二三区| 在线五月婷婷| 亚洲第一页在线观看| 亚洲码一区二区三区| 国内精自视频品线一二区| 亚洲精品麻豆| 亚欧成人无码AV在线播放| 亚洲一区二区三区香蕉| 国内自拍久第一页| 國產尤物AV尤物在線觀看| 国产乱人激情H在线观看| 四虎影视永久在线精品| 国产乱肥老妇精品视频| 国产成人盗摄精品| 凹凸精品免费精品视频| 久久国产精品无码hdav| 久久人人妻人人爽人人卡片av| 欧美精品1区2区| 国产精品午夜电影| 国产精品lululu在线观看| 一本大道香蕉久中文在线播放| 综合人妻久久一区二区精品| 欧美日本中文| 色综合色国产热无码一| 精品国产中文一级毛片在线看 | 美女国内精品自产拍在线播放 | 青青青伊人色综合久久| 午夜国产精品视频黄| 在线观看国产精品第一区免费 | 国产网站黄| 国产在线欧美|