999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度神經網絡的遙感圖像飛機目標檢測

2020-07-17 07:36:00李文斌
計算機工程 2020年7期
關鍵詞:飛機分類區(qū)域

李文斌,何 冉

(河北地質大學 信息工程學院,石家莊 050031)

0 概述

遙感圖像目標檢測的核心任務是判斷遙感圖像中是否存在目標并對其進行檢測、分割、特征提取與分類識別。傳統(tǒng)基于模板匹配或機器學習[1]的遙感圖像目標檢測方法多數采用人工設計的特征(如SIFTS[2]、HOG[3]),使用SVM[4]等分類器對目標物進行分類。此類方法對于背景復雜、環(huán)境多變的遙感圖像,模型泛化性能差、檢測效果不佳。近年來,借助GPU的高性能計算,基于深度學習的分類模型被廣泛應用于目標檢測領域,如卷積神經網絡(Convolutional Neural Network,CNN),其無需人工提前設置特征,通過大量標注數據自動提取圖像特征,達到了較好的分類效果。基于深度學習的分類模型被廣泛應用于遙感圖像領域[5],但此類模型由于本身多用于日常物體檢測,因此難以有效應對樣本缺乏、尺度變化大和背景復雜的遙感圖像。

為解決上述問題,本文提出基于深度神經網絡的遙感圖像飛機目標檢測模型DC-DNN,該模型能夠依靠少量圖像級標簽,完成遙感圖像的像素級目標分割與檢測。在全卷積神經網絡(Fully Convolutional Neural Network,FCN)中加入大量先驗信息,通過FCN與聚類的方式對飛機進行檢測框自適應選取,并且設計檢測框抑制算法剔除重疊框與誤檢框,得到最終檢測結果。

1 相關工作

基于深度學習分類模型的目標檢測主要步驟為候選區(qū)域選取、CNN模型特征提取與分類、檢測框抑制[6]。經典滑窗法基于固定窗口大小與步長提取候選區(qū)域,使用CNN模型進行分類。文獻[7]計算圖像二值化梯度特征,使用BING算法[8]提取候選區(qū)域,并通過5層CNN模型對特征進行自動提取與分類獲得最終檢測結果,避免了經典滑窗法的窮舉搜索及候選區(qū)域提取。文獻[9]基于RCNN模型[10]進行飛機檢測,計算紋理、顏色等特征,使用Selective search算法[11]提取候選區(qū)域,并采用深層CNN進行分類,從而提取出更符合圖像本質的特征。文獻[12-13]使用Faster R-CNN[14]模型進行飛機檢測,通過RPN網絡提取候選區(qū)域,利用全連接層進行分類與檢測框定位,提升了檢測精度與速度。文獻[15]結合FCN[16]與CNN,提出弱監(jiān)督深度神經網絡(Weakly Supervised Deep Neural Network,WS-DNN),使用弱監(jiān)督FCN融合滑窗法提取候選區(qū)域,通過預訓練方式獲取更深的CNN模型進行分類,提高了檢測精度。

目前,遙感圖像目標檢測方法存在以下問題:1)標簽樣本少,由于將用于目標檢測的大量數據都進行標注的難度較大[17],因此遙感圖像領域標簽樣本缺乏,容易造成過擬合或者欠擬合現象。基于目標級標簽的Faster R-CNN等目標檢測模型、基于像素級標簽的FCN等分割模型均難以完成模型訓練,檢測效果不佳。2)先驗信息少,難以適應檢測框大小,并且計算存在冗余。在使用圖像級標簽的模型中基于視覺機制的算法、Selective search算法依靠人工設計特征結合區(qū)域合并提取候選區(qū)域,缺乏足夠先驗信息,難以應對復雜環(huán)境。WS-DNN模型中引入FCN提供的先驗信息,但其基于弱監(jiān)督訓練的方式,導致大量錯誤先驗信息引入FCN模型,最終候選區(qū)域提取效果不佳。滑窗法、WS-DNN模型中的窗口大小與滑動步長使用經驗值,導致檢測框難以自適應,造成誤檢與漏檢。上述方法均提取出了大量不含目標的候選區(qū)域,增加了后續(xù)篩選難度與時間消耗,并且十萬量級的候選窗口增加了計算量[18]。3)后處理方式單一。傳統(tǒng)檢測框抑制算法NMS從重疊框中去除得分較小的框,無法對最終檢測框進行位置調整及剔除誤檢框,致使檢測效果無法達到更佳。

本文DC-DNN模型針對遙感圖像像素級樣本標簽缺乏,難以進行深度模型訓練的問題,通過數據增強方式擴充圖像級標簽樣本,并利用圖像特征對圖像進行像素級自動標注,獲取大量像素級標簽樣本。使用大量圖像級、像素級標簽樣本進行監(jiān)督訓練,并通過微調方式完成深度模型訓練。針對飛機尺度變化大、背景復雜等問題,利用基于FCN模型與DBSCAN算法[6]相結合的候選區(qū)域提取方法。該方法可以適應任意大小的圖像輸入,提供顯著性先驗信息,減少背景區(qū)域的提取,為每架飛機選取自適應大小的檢測框,提高選取精度,降低后續(xù)篩選的計算量。針對傳統(tǒng)檢測方法中后處理方式無法微調與剔除檢測框的問題,設計一種新的檢測框抑制算法對檢測框進行融合、微調和剔除。

2 DC-DNN模型檢測框架

DC-DNN模型檢測框架如圖1所示,主要包括基于FCN模型與DBSCAN算法的候選區(qū)域選取、候選區(qū)域偏移擴展、CNN模型、檢測框抑制等部分。FCN模型將待檢測圖像中的背景與飛機進行像素級預測,當預測為飛機和背景時像素分別設置為黑色和白色。FCN模型只能完成飛機與背景像素的語義分割,而不能實現單個飛機的實例分割。DBSCAN算法將預測為飛機像素點中屬于同一目標的點聚為一類,最終劃分為多類進行實例分割,并為每類選取一個合適的候選區(qū)域。為減少誤檢,將每類候選區(qū)域進行偏移擴展為9個候選區(qū)域。CNN對所有候選區(qū)域進行特征提取與分類,將分類為飛機的區(qū)域進行標注,得到檢測框。此時會出現部分目標誤檢及檢測框重疊的情況,使用本文提出的檢測框抑制算法對檢測框進行融合、微調和剔除,得到最終檢測結果。

圖1 DC-DNN模型檢測框架

2.1 數據獲取

由于在使用目標級標簽的檢測模型中,需在整幅圖像上標注出目標物位置及類別,因此在遙感圖像目標檢測中目標級樣本標注難度大、樣本稀缺難以獲取,而圖像級樣本則相對易于獲取,DC-DNN模型使用圖像級樣本完成深度模型訓練,降低了人工標注難度。本文使用包含訓練集、驗證集和測試集三部分的數據集進行模型訓練、驗證和測試。為完成深度模型訓練,在公開數據集UCAS_AOD[19]上,人工截取5 000個僅包含單個完整飛機的樣本與40 000個不含飛機的背景樣本,使用旋轉90°、180°、270°和水平翻轉的方式將5 000個樣本擴充至40 000個樣本,飛機圖像經過旋轉或水平翻轉后可認為是一個全新的樣本,利用此類數據增強方式可減少模型過擬合現象,增強模型泛化性能。將飛機與背景樣本全部歸一化為64×64后,按照7∶3的比例劃分為訓練集和驗證集,用于訓練與驗證深度模型,其中使用數據增強的方式將分類準確率提升了3.2%,最終在驗證集上分類準確率達到98.4%,能夠有效將背景與目標物進行區(qū)分。部分訓練集與驗證集如圖2(a)所示。測試集為128張包含687架飛機的機場圖,用于評測DC-DNN模型性能。測試集源于公開數據集NWPU VHR-10[1,20-21]、RSOD-Dataset[22-23]和UCAS_AOD數據集。部分測試集如圖2(b)所示。

圖2 數據集設置

2.2 深度神經網絡模型

DC-DNN模型中使用CNN和FCN兩種深度神經網絡模型進行目標檢測。DC-DNN模型中的CNN模型選擇為VGG-16[24]模型。VGG-16模型包括13層卷積層和3層全連接層,在卷積、池化層進行圖像特征提取,在全連接層進行分類。VGG-16模型具有網絡層數多、特征提取效果佳、分類效果好的特點,能夠較好地完成遙感圖像中的分類任務。經典VGG-16模型用于日常物體的分類,為適應遙感圖像目標檢測,在經典VGG-16模型上做出如下調整:由于VGG-16模型中原輸入為224×224×3,DC-DNN模型中訓練集樣本尺寸為64×64×3,但輸入尺寸不同會導致VGG-16模型無法訓練,傳統(tǒng)雙線性插值法將圖片從64×64×3擴大至224×224×3,會引入不存在的數據以影響分類結果,因此將VGG-16模型輸入改為64×64×3以適應訓練樣本尺寸。同理,將最后一層全連接層輸出改為2,即做二分類任務。調整后的VGG-16模型在ILSVAR-2012[25]數據集上進行訓練后,固定卷積層參數,使用訓練集進行微調訓練全連接層。

FCN模型由特征提取網絡層、反卷積層和Softmax層構成。FCN模型通過卷積層提取特征,反卷積層對最后一個卷積層的特征圖進行上采樣,Softmax層獲得二分類結果,達到圖像像素級分割。在傳統(tǒng)FCN模型訓練中,固定特征提取網絡中的卷積層參數,使用日常物體數據集PASCAL VOC 2011對反卷積層的參數進行微調訓練。由于直接使用遙感圖像訓練FCN模型容易導致網絡模型過擬合,因此本文在VGG-16模型基礎上進行調整獲得FCN模型。訓練集中圖像樣本大小均為64×64×3,訓練時輸入設定為64×64×3,由于沒有全連接層的限制,因此FCN模型可以適應任意大小的輸入,測試時將整張圖像輸入到FCN模型中即可獲得原圖大小的預測圖。首先固定VGG-16模型中所有卷積層(Conv1_1~Conv5_3),去掉VGG-16模型中的Softmax層,將全連接層變成相應的反卷積層(Conv6、Conv7、Conv8),并使用跳躍結構對最后一層卷積層進行逐級上采樣(Deconv1、Deconv2、Deconv3),在獲得Conv8的32倍上采樣結果Deconv3后加入Softmax層執(zhí)行二分類,獲得原圖對應的像素級預測,考慮到相鄰像素點之間的類別應相似,對Softmax分類結果進行膨脹、腐蝕操作,使最終結果更平滑、精確。在訓練時固定卷積層和全連接層參數,進行反卷積層的微調訓練。FCN模型的優(yōu)化目標為式(1),網絡結構如圖3所示。

(1)

其中,Yij為每個樣本Xij對應的像素級標簽,Tij為預測值。

圖3 FCN模型示意圖

CNN模型使用訓練集的圖像級標簽進行訓練,對訓練集圖像按照內容進行標注。FCN模型使用訓練集的像素級標簽進行訓練,傳統(tǒng)像素級標簽通過人工逐像素標注,標注困難、耗時長,無法大量獲取深度學習數據;弱監(jiān)督標注方式無需人工逐像素標注,但過于籠統(tǒng)的標注方式會導致標注準確性不高、預測結果欠佳。為解決像素級樣本缺乏的問題,DC-DNN模型引入CNN底層特征圖對訓練集進行像素級標注,大幅提升FCN訓練效率。標注過程具體如下:1)將圖像級飛機樣本輸入訓練好的VGG-16模型中,經過第二次卷積獲得64張原圖大小的特征圖;2)將64張?zhí)卣鲌D對應位置像素值累加,合并為一張新特征圖;3)計算新特征圖的平均像素值(設為P),將新特征圖中像素值大于P的像素點設置標簽為0,其他設置標簽為1。

經過訓練的CNN模型能夠提取圖像底層特征,底層特征對于原圖輪廓、邊緣等處能夠進行較好的刻畫。DC-DNN中FCN模型利用飛機較其周圍環(huán)境顏色不同這一特點,對CNN底層特征圖進行充分利用,獲得與人工標注方式近乎一致的像素級標注,在保證標簽質量的同時能自動進行像素級標注,更便捷地獲取FCN模型所需像素級標簽,解決了當前遙感領域像素級標簽缺乏的問題。圖4分別為人工標注、弱監(jiān)督標注、CNN底層特征圖標注3種標注方式對同一張飛機圖像的像素級標注圖,可以直觀看出CNN底層特征圖自動標注的像素級飛機樣本較弱監(jiān)督方式具有更多的準確標簽信息,與人工標注方式近乎一致。由于人工標注需要耗費大量時間,因此本文僅利用弱監(jiān)督標注與CNN底層特征圖標注兩種方式訓練的FCN預測圖進行對比。如圖5所示,可以看出CNN底層特征圖標注訓練的FCN預測結果更準確、目標物更突出、細節(jié)刻畫更佳。

圖4 3種標注方式對比

圖5 2種標注方式的預測結果

2.3 候選區(qū)域提取

候選區(qū)域提取旨在提取出可能存在目標物的區(qū)域,降低后續(xù)分類計算量。候選區(qū)域提取通常分為:1)將感興趣區(qū)域與背景進行分割;2)對感興趣區(qū)域進行矩形框框定;3)將所有被矩形框框定的區(qū)域選定為候選區(qū)域。

DC-DNN模型具體提取步驟如下:

1)FCN模型將待預測圖中飛機與背景像素點進行分割。將圖像尺寸大小為H×W×3的待檢測圖輸入至訓練好的有監(jiān)督FCN模型中,其中卷積層對圖像進行特征提取,反卷積層進行上采樣獲得H×W×2的特征圖,Softmax層對上采樣結果進行二分類,膨脹腐蝕層對二分類結果進行修正,最終輸出為H×W大小的二值預測圖。

2)DBSCAN算法將多個飛機進行分離。獲取二值預測圖中預測結果為飛機的像素點坐標集D={Xij|i∈[0,1,…,H],j∈[0,1,…,W]},使用DBSCAN算法對集合D進行聚類,獲得k類聚類結果集合Q={P1,P2,…,Pk|k∈[1,2,…,H×W]},其中,P={Xij|i∈[0,1,…,H],j∈[0,1,…,W]}。

3)聚類結果候選框自適應選取。為k類聚類結果選定自適應的k個候選框。在k類聚類結果集合Q中,找出每類坐標集Pi,i∈[0,k)中最大、最小的橫縱坐標,具體為Bi=[xi,x′i,yi,y′i],Bi共連通k個自適應大小的候選區(qū)域,所有候選區(qū)域集合為C={Bi|i∈[0,k)}。

4)候選區(qū)域偏移擴展。對候選區(qū)域集合C={Bi|i∈[0,k)}進行合理偏移擴展,依據式(2)~式(5)計算當前候選區(qū)域Bi中心點坐標L(x,y)i,橫縱坐標上偏移量為H′i、W′i。按照式(3)計算偏移擴展后9個候選框中最大、最小的橫縱坐標Ei。對候選框集合C中所有k個候選框按上述方式進行合理偏移,共獲得9k個候選框,9k個候選框對應的原圖區(qū)域即為最終候選區(qū)域。

L(x,y)i=[(x′i+xi)/2,(y′i+yi)/2]

(2)

H′i=1/4×(x′i-xi)

(3)

W′i=1/4×(y′i-yi)

(4)

Ei={[xi+pH′i,x′i+pH′i,yi+qW′i,y′i+qW′i]}

p,q∈{-1,0,1}

(5)

DC-DNN模型在像素點分割階段不再依靠人工設計特征,引入有監(jiān)督的FCN模型進行復雜背景與目標物分割。圖像底層特征圖制作的像素級標簽能夠使FCN模型提取到更深層次的特征,從而大幅減少背景區(qū)域干擾,實現飛機像素與背景像素的有效分割。

在高精度分割圖像上,使用聚類算法進行多個飛機的分割。大部分聚類算法需提前指定聚類個數k,即飛機數量,由于實際檢測過程中無法提前預知飛機數量,因此引入密度聚類中的經典DBSCAN算法。DBSCAN算法無需提前指定聚類個數,根據圖像聚類得出不同的目標物個數k,同時DBSCAN算法能夠減少噪聲點的影響。將高精度的分割圖像與DBSCAN算法相結合能夠獲取與原圖中輪廓、形狀幾乎一致的飛機聚類圖,從而得到與飛機大小一致的候選框。由于后續(xù)CNN分類器的誤差,若對聚類結果中的每類只選取一個矩形候選框,可能會導致該類被誤檢,因此DC-DNN模型將每類選取的候選框進行合理偏移擴展,能夠大幅降低誤檢情況的發(fā)生。

2.4 CNN分類及檢測框抑制

DC-DNN模型將提取的所有候選區(qū)域輸入VGG-16模型中進行圖像級分類,剔除非目標區(qū)域。由于獲取的候選區(qū)域大小不同,將候選區(qū)域大小歸一化為64×64×3后輸入VGG-16模型中,將候選區(qū)域分為飛機或背景,并將分類為飛機的區(qū)域進行標記。由于標記結果存在一個區(qū)域被多個檢測框標記,因此需要對檢測框進行抑制。傳統(tǒng)NMS算法對目標物預測得分進行降序排列,依據重疊度對得分低的檢測框進行剔除,但其本質上不改變檢測框位置。本文檢測框抑制算法將經過CNN分類的檢測區(qū)域進行檢測框抑制,重新計算重疊框位置,通過多次投票的形式剔除得分較高的誤檢框。相較于NMS算法,其可減少誤檢框數量,提升檢測精度。本文算法與NMS算法對比結果如圖6所示。圖7為本文算法對檢測框的最終融合結果。

圖6 本文算法與NMS算法的抑制結果對比

圖7 本文檢測框抑制算法的融合結果

算法1檢測框抑制算法

輸入提取的所有候選區(qū)域Ei,i∈[0,k-1],空隊列P,閾值β=2/3

輸出最終檢測框隊列P

1.for i in 0 to k-1 do:

2.將Ei中擴展的9個候選框輸入到CNN中,保留分類結果為飛機的所有區(qū)域為Qi

3.計算Qi中的元素長度L

4.if L ≥ β×L:

5.計算Qi對應的最大矩形區(qū)域,計算該矩形區(qū)域中心點坐標Ci,以該中心點坐標為中心,獲取與當前檢測框大小相同的區(qū)域T

6.將T輸入隊列P

7.返回最終檢測結果P

3 實驗結果與分析

為驗證DC-DNN模型有效性,設計多組實驗分階段進行對比評價,使用準確率(A)、召回率(R)及F1值(F)3個指標對DC-DNN模型的最終檢測結果進行評價。準確率、召回率及F1值的計算公式分別如式(6)、式(7)和式(8)所示。DC-DNN中深度模型CNN、FCN使用TensorFlow深度學習框架進行編碼,采用NVIDIA GeForce RTX 2070的GPU加速深度模型進行訓練。

(6)

(7)

(8)

3.1 FCN模型性能分析

3.1.1 DC-DNN中有監(jiān)督FCN模型性能分析

為評價DC-DNN中有監(jiān)督FCN模型性能,將DC-DNN中有監(jiān)督FCN模型與WS-DNN模型中弱監(jiān)督FCN模型進行對比,選用像素準確率(Pixel Accuracy,PA)[16]作為評價指標。如表1所示,DC-DNN模型中有監(jiān)督FCN深度模型在3個數據集上的平均像素準確率為81.47%,較WS-DNN模型中的弱監(jiān)督FCN模型有30.83%的性能提升。

表1 FCN模型的像素準確率對比

3.1.2 DBSCAN參數設置

DBSCAN基于樣本的緊密程度進行聚類,無需提前指定聚類個數,但需指定領域參數(,MinPts),依據經驗選取領域參數(,MinPts)。本文選取F1值作為評價指標,通過大量實驗選擇最優(yōu)領域參數,其中部分參數及對應F1值如表2所示,其中加粗部分為最佳參數及其F1值。實驗結果表明,當過小時,容易引入大量不存在目標的小尺寸候選區(qū)域,加大分類難度,從而導致誤檢;當過大時,容易導致飛機密集區(qū)域多架飛機被選為一個候選區(qū)域,無法做到單個飛機的分離;當MinPts過小時,容易出現與過大時相似的情況;當MinPts過大時,容易出現飛機機翼、機尾等部分被誤認為噪聲,從而導致漏檢。綜合大量實驗數據,本文最終選取(15,350)作為最佳領域參數。

表2 部分領域參數及其F1值

3.1.3 候選區(qū)域偏移有效性分析

在候選區(qū)域選取過程中,通過候選區(qū)域的合理偏移來提高檢測精度,采用準確率、召回率及F1值驗證偏移有效性。如表3所示,在候選框提取階段,加入合理偏移后模型3個指標均有所上升,其原因為未加入合理偏移的模型后續(xù)分類過程中只進行一次CNN分類,由于CNN模型本身存在誤差,會導致誤分類,因此加入合理偏移后可使模型減少誤檢。

表3 候選區(qū)域偏移結果對比

3.1.4 候選區(qū)域提取性能對比

DC-DNN模型基于有監(jiān)督FCN+DBSCAN進行候選區(qū)域提取,WS-DNN模型使用FCN+滑窗法進行候選區(qū)域提取。為評價DC-DNN候選區(qū)域提取性能,將其與滑窗法、Selective search算法、WS-DNN模型中候選區(qū)域提取方法進行對比。評價指標為假陽性率(False Positive Rate,FPR)、漏檢率(Missing Ratio,MR)。為統(tǒng)一參數設置,根據3個數據集中最大(134)、最小(34)、平均(70)飛機大小進行對比。實驗中的參數參照文獻[15]進行設定,WS-DNN模型候選區(qū)域提取方法、滑窗法使用的窗口大小與步長均相同,滑動窗口大小為數據集平均飛機大小、滑動步長為窗口大小的1/4。

IoU表示檢測框與標簽框之間的重疊程度,當IoU閾值大于0.5時,即認為該目標被檢出。滑窗法、Selective search算法、WS-DNN模型、DC-DNN模型在本文3個數據集中提取的候選區(qū)域個數如表4所示。為更好評價4種提取方式的性能優(yōu)劣,圖8給出了FPR、MR隨IoU閾值變化的對比曲線。如表4、圖8所示,DC-DNN模型較其他方式能夠提取更少的候選區(qū)域,減少后續(xù)分類計算量,當IoU閾值大于0.5時,DC-DNN模型的FPR與MR值較低,其原因為滑窗法和Selective search算法缺乏足夠的先驗知識,WS-DNN模型使用的弱監(jiān)督標簽不夠精確、固定窗口大小存在局限性等問題,這3種方式都將大量不含飛機的區(qū)域選為候選區(qū)域,而DC-DNN模型使用的像素級標簽準確性高、FCN預測結果更精確,并且FCN結合密度聚類的候選區(qū)域提取方式沒有固定窗口大小的限制,提取的候選區(qū)域更加符合實際情況。

表4 4種方法的候選區(qū)域提取性能對比

圖8 MR和FPR隨IoU的變化曲線對比

3.2 DC-DNN模型性能分析

為評價模型整體檢測性能,選取DC-DNN模型、WS-DNN模型以及當前主流Faster R-CNN模型、R-FCN模型進行對比,最終檢測結果如表5所示,其中IoU閾值取0.5。

表5 4種模型最終檢測結果對比

實驗結果表明,DC-DNN模型準確率、召回率、F1值均高于WS-DNN模型、Faster R-CNN模型和R-FCN模型,其原因為:1)WS-DNN模型使用弱監(jiān)督FCN模型進行圖像粗劃分,弱監(jiān)督方式錯誤標簽多,造成FCN檢測結果不佳,大量不含目標的區(qū)域被選取,同時其滑窗法選取的候選區(qū)域不適用于不同尺度的飛機,導致誤檢數增多,最終準確率下降。2)DC-DNN模型使用圖像底層特征圖制作的像素級標簽更加精確,使FCN預測圖誤分類數量大幅降低,并且在候選區(qū)域提取過程中,自適應大小的檢測框將目標物正好框定,偏移擴展對同一目標物區(qū)域進行多次分類后合并,每個目標物只采用一次標記,最終提高了準確率與召回率。并且,DC-DNN模型采用的檢測框抑制算法能夠微調檢測框,剔除重疊框與誤檢框,降低誤檢數,提升檢測準確率。3)Faster R-CNN模型候選區(qū)域的提取過程中設置的3種尺度錨點及下采樣操作對于小目標特征提取性能不佳,容易導致小目標丟失,最終導致漏檢且召回率過低。4)R-FCN模型中對特征化后的卷積圖作FCN輸出,創(chuàng)建一個相對位置的得分圖,容易使同一目標物獲取尺度不同的多個檢測結果,而且其使用的NMS檢測框抑制算法難以對IOU值較高的檢測框進行剔除,最終導致重復檢測,準確率下降。

圖9給出準確率、召回率、F1值隨IoU的變化曲線,可以看出DC-DNN模型較其他模型在IoU閾值大于0.5時對候選框依然有較好的提取結果,最終準確率較高。

圖9 準確率、召回率和F1值隨IoU的變化曲線

圖10給出了DC-DNN模型在測試集部分樣本上的檢測效果,可以看出對于飛機大小、顏色、型號和背景復雜度不同的機場圖,DC-DNN模型仍然能對飛機目標進行檢測,具有較好的魯棒性。DC-DNN模型與其他基于深度神經網絡的檢測模型相比,使用圖像級樣本完成目標檢測任務,檢測結果與真實結果更接近,并且具有更高的檢測精度。

圖10 DC-DNN模型最終檢測結果

4 結束語

本文提出一種基于深度神經網絡的遙感圖像飛機檢測模型DC-DNN,利用圖像級樣本自動制作像素級標簽訓練FCN模型,通過DBSCAN算法將FCN分割圖像進行聚類取得與飛機大小一致的候選框,應用VGG-16網絡對候選區(qū)域進行精確分類,并使用檢測框抑制算法降低誤檢率以獲得最終檢測結果。實驗結果表明,DC-DNN模型對于遙感圖像中飛機目標的檢測準確率為95.78%、召回率為98.98%、F1值為0.973 5。但由于DC-DNN模型需預先人工設定密度聚類參數,因此后續(xù)將對密度聚類參數進行自適應研究,進一步提升模型檢測精度。

猜你喜歡
飛機分類區(qū)域
飛機失蹤
分類算一算
“拼座飛機”迎風飛揚
當代陜西(2019年11期)2019-06-24 03:40:28
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
乘坐飛機
神奇飛機變變變
關于四色猜想
分區(qū)域
主站蜘蛛池模板: 国产黑人在线| 老司机午夜精品网站在线观看| 日本高清在线看免费观看| AV无码无在线观看免费| 国产大片喷水在线在线视频| 国产精品亚洲专区一区| 亚洲中文无码av永久伊人| 亚洲性一区| 日韩123欧美字幕| 国产白浆在线观看| 日韩123欧美字幕| 亚洲成人动漫在线| 91成人在线观看| 91青草视频| 中文字幕有乳无码| 免费一极毛片| 精品一区国产精品| 成年女人18毛片毛片免费| 天堂网国产| 中文字幕调教一区二区视频| 久久精品国产免费观看频道| 亚洲第一成年人网站| 一本色道久久88亚洲综合| 99九九成人免费视频精品| 免费 国产 无码久久久| h网站在线播放| 亚洲成人一区在线| 亚洲av成人无码网站在线观看| 国产精品所毛片视频| 精品91视频| 国内精品久久久久久久久久影视| 丁香五月亚洲综合在线| 91青青草视频| 亚洲欧美一区二区三区麻豆| 日本三区视频| 色综合久久综合网| 97视频免费看| 最新午夜男女福利片视频| 国产色婷婷| 青青操国产视频| 97综合久久| 国产欧美另类| 亚洲天堂福利视频| 国产精鲁鲁网在线视频| 人妻丰满熟妇αv无码| 久久a毛片| 2048国产精品原创综合在线| Aⅴ无码专区在线观看| 免费欧美一级| 色婷婷成人网| 中文字幕第1页在线播| 免费国产黄线在线观看| 91香蕉视频下载网站| 四虎永久免费在线| 国产精品短篇二区| 米奇精品一区二区三区| 成人午夜视频免费看欧美| 成年人久久黄色网站| 香蕉网久久| 欧美亚洲国产一区| 色欲综合久久中文字幕网| 国产精品亚洲五月天高清| 青青草a国产免费观看| 亚洲精品手机在线| 无码丝袜人妻| 精品亚洲国产成人AV| 亚洲国产中文在线二区三区免| 福利在线不卡| 亚洲精品视频免费| 精品少妇人妻无码久久| 亚洲国产精品人久久电影| 亚洲国模精品一区| 国产精品微拍| 国内精品视频在线| 亚洲天堂啪啪| 欧美97色| 999国内精品久久免费视频| 伊人查蕉在线观看国产精品| 国产91麻豆免费观看| 狠狠ⅴ日韩v欧美v天堂| 中国美女**毛片录像在线| 国产乱码精品一区二区三区中文|