999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度卷積神經(jīng)網(wǎng)絡(luò)支持下的遙感影像飛機(jī)檢測(cè)

2019-07-05 06:27:40楊夢(mèng)圓
測(cè)繪通報(bào) 2019年6期
關(guān)鍵詞:飛機(jī)深度檢測(cè)

謝 夢(mèng),劉 偉,2,楊夢(mèng)圓,柴 琪,吉 莉

(1. 江蘇師范大學(xué)地理測(cè)繪與城鄉(xiāng)規(guī)劃院,江蘇 徐州 221116; 2. 資源與環(huán)境信息系統(tǒng)國(guó)家重點(diǎn)實(shí)驗(yàn)室,北京 100101)

隨著遙感影像空間分辨率的提高,對(duì)高分遙感影像的處理和應(yīng)用正變得日益緊迫。飛機(jī)檢測(cè)在軍用和民用領(lǐng)域均具有相當(dāng)廣泛的應(yīng)用,近年來已經(jīng)成為高分遙感影像目標(biāo)檢測(cè)中一個(gè)極其重要的研究方向[1]。關(guān)于飛機(jī)檢測(cè)的研究方法,多數(shù)是利用飛機(jī)的基本特征來識(shí)別目標(biāo),通過獲取飛機(jī)的基本特征后送入分類器分類[2-4],這些方法對(duì)人工選擇目標(biāo)特征具有很強(qiáng)的依賴性。

深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域一個(gè)新的研究方向,其目的在于建立模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),模仿人腦的神經(jīng)機(jī)制來解釋數(shù)據(jù),如圖像、聲音和文本。近年來,深度學(xué)習(xí)算法在圖像分類[5]、自然語(yǔ)言處理[6]、人工智能[7-8]等領(lǐng)域取得前所未有的成果。通過低層濾波器來獲取圖像局部特征,利用高層濾波器將這些局部特征組合成全局特征。整個(gè)過程都是通過網(wǎng)絡(luò)訓(xùn)練大量樣本來自動(dòng)提取影像特征,有效地提高了執(zhí)行效率和檢測(cè)精度。因此,深度學(xué)習(xí)在遙感應(yīng)用中引起了廣泛關(guān)注,并在場(chǎng)景分類[9]、高光譜圖像分類[10-11]、目標(biāo)檢測(cè)[12-13]等方面取得了顯著成效。

基于深度學(xué)習(xí)的飛機(jī)檢測(cè)克服了傳統(tǒng)檢測(cè)方法中目標(biāo)特征難以選取、泛化能力差等問題,但也面臨巨大挑戰(zhàn),主要為訓(xùn)練樣本不足、網(wǎng)絡(luò)難以訓(xùn)練[14]。同時(shí),為了得到較高的識(shí)別率,網(wǎng)絡(luò)設(shè)計(jì)越來越復(fù)雜,網(wǎng)絡(luò)參數(shù)增大,飛機(jī)所處的遙感影像背景復(fù)雜且飛機(jī)形態(tài)存在差異[13],因此準(zhǔn)確而快速地檢測(cè)出遙感影像中飛機(jī)仍然十分困難[1]。

深度學(xué)習(xí)在目標(biāo)檢測(cè)方面主要分為兩類:一類是基于候選區(qū)域的分步式目標(biāo)檢測(cè)方法,代表性的有R-CNN[15]、SPP[16]、Fast R-CNN[17]、Faster R-CNN[18];另一類是基于回歸思想的直接目標(biāo)檢測(cè)方法,代表性的有YOLO[19]、SSD[20]。前者定位精度高,但檢測(cè)時(shí)間長(zhǎng),后者檢測(cè)速度快、正確率高。很多學(xué)者都青睞YOLO算法,通過對(duì)其網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn)來提高網(wǎng)絡(luò)性能。文獻(xiàn)[21]提出一種Dense-YOLO網(wǎng)絡(luò),通過特征復(fù)用提高對(duì)遙感影像中飛機(jī)的識(shí)別效果,但內(nèi)存占用較大,文獻(xiàn)[22]提出一種SENet結(jié)構(gòu)嵌入YOLOv3網(wǎng)絡(luò)中,融合YOLOv3(you look only once)與SENet的優(yōu)點(diǎn),增強(qiáng)了網(wǎng)絡(luò)感受野,但網(wǎng)絡(luò)訓(xùn)練參數(shù)較多。

由于YOLOv3算法對(duì)原圖做縮放處理,造成網(wǎng)絡(luò)高層的感受野減小,導(dǎo)致“相對(duì)尺寸小”的目標(biāo)檢測(cè)困難,其中相對(duì)尺寸小的目標(biāo)是相對(duì)原圖的長(zhǎng)寬。本文為擴(kuò)大網(wǎng)絡(luò)高層的感受野,提高特征圖的分辨率,將擴(kuò)張卷積[23-24]引入YOLOv3網(wǎng)絡(luò),為減少需要計(jì)算的可訓(xùn)練權(quán)重參數(shù),實(shí)現(xiàn)通道和區(qū)域的分離,再將深度可分離卷積[25]引入網(wǎng)絡(luò)。試驗(yàn)結(jié)果表明:相比于YOLOv3算法,優(yōu)化的YOLOv3算法能夠降低漏檢率,提高小目標(biāo)的檢測(cè)精度。

1 YOLOv3算法

YOLO是一種多目標(biāo)檢測(cè)算法,在訓(xùn)練和預(yù)測(cè)時(shí)將整張圖像輸入網(wǎng)絡(luò)模型,直接回歸出目標(biāo)中心位置、目標(biāo)長(zhǎng)寬和類別,以實(shí)現(xiàn)端到端的目標(biāo)檢測(cè)。

(1)

(2)

2 YOLOv3算法的優(yōu)化

本文首先使用K-means聚類算法計(jì)算出適用于數(shù)據(jù)集的錨框,然后用擴(kuò)張率為2的擴(kuò)張卷積取代YOLOv3網(wǎng)絡(luò)第76、78、80層卷積核為3×3的普通卷積,并用深度可分離卷積取代原網(wǎng)絡(luò)殘差模塊中的普通卷積,算法的優(yōu)化主要體現(xiàn)在以下3個(gè)方面。

2.1 錨框(anchorbox)

由于YOLOv3算法中的anchorbox是由VOC20和COCO80數(shù)據(jù)集聚類得到,而本文數(shù)據(jù)集中的飛機(jī)相對(duì)較小,不適合使用原定義的anchorbox[21],因此需要對(duì)本文數(shù)據(jù)集的目標(biāo)候選框進(jìn)行維度聚類分析,使用K-means聚類算法獲取適合本文數(shù)據(jù)集的anchorbox。

2.2 擴(kuò)張卷積(dilated convolutions)

擴(kuò)張卷積是向卷積層引入一個(gè)稱為擴(kuò)張率(dilation rate)的新參數(shù),該參數(shù)定義卷積核處理數(shù)據(jù)時(shí)各值的間距。傳統(tǒng)的骨干網(wǎng)絡(luò)基于大的下采樣因子可以生成更高的感受野,有利于圖像分類,但犧牲了空間分辨率,從而使網(wǎng)絡(luò)難以準(zhǔn)確地定位大型目標(biāo)和識(shí)別小型目標(biāo)[26]。YOLOv3算法對(duì)原圖做了縮放,造成網(wǎng)絡(luò)高層感受野減小,本文引入擴(kuò)張卷積層增加網(wǎng)絡(luò)高層感受野,以改善小目標(biāo)檢測(cè)效果。擴(kuò)張卷積的原理如圖1所示。

圖1中灰度點(diǎn)標(biāo)記位置同正常卷積核,其他位置為0,其中圖1(a)為3×3擴(kuò)張率為1的卷積,與普通卷積一樣,感受野為9;圖1(b)為擴(kuò)張率為2的卷積,感受野為49;圖1(c)為擴(kuò)張率為4的卷積,感受野為225,從圖中可以看出卷積核的參數(shù)個(gè)數(shù)保持不變,感受野的大小隨著擴(kuò)張率的增加呈指數(shù)增長(zhǎng)。

2.3 深度可分離卷積(depthwise separable convolutions)

深度可分卷積[25]是在輸入的每個(gè)通道獨(dú)立執(zhí)行空間卷積,然后進(jìn)行逐點(diǎn)卷積,即1×1卷積,將深度卷積的通道輸出映射到新的通道空間。深度可分離卷積比普通卷積減少訓(xùn)練參數(shù),而且它先只考慮區(qū)域,然后再考慮通道,以實(shí)現(xiàn)區(qū)域和通道的分離。深度可分離卷積的過程如圖2所示。

從圖2可以看出,每一個(gè)通道用一個(gè)卷積核卷積之后得到對(duì)應(yīng)一個(gè)通道的輸出,然后再進(jìn)行信息融合。假設(shè)輸入通道數(shù)為3,輸出通道數(shù)為32,用一個(gè)3×3卷積核進(jìn)行卷積,則普通卷積需要計(jì)算的參數(shù)為3×3×3×32=864,深度可分離卷積要計(jì)算的參數(shù)為: 3×3×3+3×1×1×32=123, 深度可分離卷積明顯降低了參數(shù)量。本文優(yōu)化的YOLOv3算法模型結(jié)構(gòu)如圖3所示。

3 試驗(yàn)與結(jié)果分析

本文試驗(yàn)環(huán)境為在Ubuntu16.04操作系統(tǒng)下,安裝配置Cuda9.1.85和Python3.6.5,并搭建Keras和Tensorflow深度學(xué)習(xí)平臺(tái),算法的訓(xùn)練和測(cè)試均在GPU加速下完成。

3.1 數(shù)據(jù)集制作

在遙感影像飛機(jī)目標(biāo)檢測(cè)的應(yīng)用研究方面,目前幾乎沒有公開的符合深度學(xué)習(xí)訓(xùn)練的數(shù)據(jù)集,這也是制約該方向應(yīng)用的主要問題之一。本文研究的影像來自DOTA(http:∥captain.whu.edu.cn/DOTAweb/)、UCAS-AOD(http:∥www.ucassdl.cn/resource.asp)、RSOD-Dataset(https:∥github.com/RSIA-LIESMARS-WHU/RSOD-Dataset)3個(gè)遙感影像數(shù)集,影像的尺寸一般是1044×944。在制作數(shù)據(jù)集的過程中,依據(jù)VOC2007的數(shù)據(jù)集格式,對(duì)影像進(jìn)行統(tǒng)一格式的命名,再利用labelImg(https:∥github.com/tzutalin/labelImg)圖片標(biāo)注工具對(duì)影像進(jìn)行標(biāo)注,生成包含有目標(biāo)類別位置信息的XML文件。試驗(yàn)共制作446張數(shù)據(jù)集,其中386張訓(xùn)練集,42張驗(yàn)證集,18張測(cè)試集,飛機(jī)樣本如圖4所示。

3.2 網(wǎng)絡(luò)訓(xùn)練

對(duì)YOLOv3算法和優(yōu)化的YOLOv3算法分別迭代200次進(jìn)行訓(xùn)練,飛機(jī)在影像中屬于小目標(biāo),經(jīng)過多次對(duì)比試驗(yàn),算法采用按步長(zhǎng)衰減學(xué)習(xí)率的策略,設(shè)置基礎(chǔ)學(xué)習(xí)率為0.001,在迭代120次、180次時(shí)學(xué)習(xí)率變成基礎(chǔ)學(xué)習(xí)率的0.1倍和0.01倍。選取Batch_size(每批數(shù)據(jù)量的大小)為10,沖量常數(shù)為0.9,權(quán)值衰減系數(shù)為0.000 5,從而避免出現(xiàn)過擬合現(xiàn)象。

3.3 結(jié)果分析

將YOLOv3算法和優(yōu)化的YOLOv3算法在本文測(cè)試集上進(jìn)行對(duì)比測(cè)試,分別計(jì)算準(zhǔn)確率、召回率和F1-score。精確率的公式為

(3)

召回率的公式為

(4)

F1-score的公式為

(5)

式中,TP為正確檢測(cè)出的飛機(jī)個(gè)數(shù);FP為誤檢的飛機(jī)個(gè)數(shù);FN為漏檢的飛機(jī)個(gè)數(shù)。

F1-score是使用調(diào)和平均結(jié)合召回率和精度的指標(biāo)。從表1可以看出,本文優(yōu)化YOLOv3算法的召回率比YOLOv3算法高出11.86%,精確率下降7.27%。此時(shí)需要F1-score來進(jìn)行總體衡量。試驗(yàn)結(jié)果表明本文在使用K-means聚類算法和擴(kuò)張卷積后,其F1-score比YOLOv3高出1.33%,網(wǎng)絡(luò)中再加入深度可分離卷積后,其F1-score比YOLOv3高出2.99%。由此可見,本文算法明顯優(yōu)于YOLOv3算法。圖5是YOLOv3算法和優(yōu)化YOLOv3算法對(duì)2張相同圖像的檢測(cè)結(jié)果。從圖5中可以看出YOLOv3算法不能準(zhǔn)確檢測(cè)出影像中的小目標(biāo),出現(xiàn)較多漏檢情況,框上沒字是漏檢,框上有字是算法檢測(cè)出的飛機(jī)。優(yōu)化的YOLOv3算法增強(qiáng)了網(wǎng)絡(luò)高層的感受野,能夠準(zhǔn)確檢測(cè)出影像中的小目標(biāo),有效地降低漏檢率,提高小目標(biāo)檢測(cè)的精度。

(%)

4 結(jié) 語(yǔ)

本文針對(duì)YOLOv3算法對(duì)小目標(biāo)檢測(cè)效果較差、出現(xiàn)較多漏檢的情況,使用K-means聚類算法計(jì)算出適合本文數(shù)據(jù)集的錨框,在YOLOv3算法的網(wǎng)絡(luò)結(jié)構(gòu)中引入擴(kuò)張卷積,用來增強(qiáng)網(wǎng)絡(luò)高層的感受野,改善對(duì)小目標(biāo)的檢測(cè)效果,并在網(wǎng)絡(luò)結(jié)構(gòu)中引入深度可分離卷積來減少計(jì)算參數(shù)和分別學(xué)習(xí)空間特征和通道特征。試驗(yàn)結(jié)果表明,優(yōu)化的YOLOv3算法比YOLOv3算法的召回率提高了11.86%,而且F1-score提高了2.99%,能準(zhǔn)確檢測(cè)到更多目標(biāo),提高小目標(biāo)的檢測(cè)精度。由于遙感影像目標(biāo)檢測(cè)作為圖像解譯的一個(gè)重要研究方向,其對(duì)于資源調(diào)查、災(zāi)害監(jiān)測(cè)、資源勘探及軍事目標(biāo)的識(shí)別判讀等都具有重要的意義。在今后的研究工作中,會(huì)增加訓(xùn)練集以提高樣本多樣性,而且在繼續(xù)提升召回率的同時(shí),提高精確率。

猜你喜歡
飛機(jī)深度檢測(cè)
飛機(jī)失蹤
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
深度理解一元一次方程
“拼座飛機(jī)”迎風(fēng)飛揚(yáng)
深度觀察
深度觀察
深度觀察
乘坐飛機(jī)
主站蜘蛛池模板: 国产成人免费手机在线观看视频| 国产成人久久综合一区| 91色国产在线| aaa国产一级毛片| 97国产精品视频人人做人人爱| 五月丁香伊人啪啪手机免费观看| 99re视频在线| 亚洲第一香蕉视频| 九九视频免费看| 岛国精品一区免费视频在线观看| 91亚洲精品第一| 日本成人精品视频| 尤物成AV人片在线观看| av在线手机播放| 亚洲性网站| 四虎成人在线视频| 99视频在线免费看| 亚洲综合精品第一页| 99精品高清在线播放| 国产成人乱码一区二区三区在线| 国产SUV精品一区二区| 成年A级毛片| 日韩大片免费观看视频播放| 天堂久久久久久中文字幕| 亚洲无码高清一区二区| 亚洲欧美精品一中文字幕| 狠狠做深爱婷婷久久一区| 亚洲午夜福利在线| 一级毛片在线免费视频| 成人免费黄色小视频| 婷婷色丁香综合激情| 激情在线网| 尤物在线观看乱码| 亚洲国产成人久久77| 色精品视频| 国产精品美女自慰喷水| 香蕉网久久| 亚洲成人高清无码| 国产肉感大码AV无码| 国产AV无码专区亚洲A∨毛片| 在线观看无码av免费不卡网站| 国产不卡一级毛片视频| 亚洲无限乱码| 午夜老司机永久免费看片| 欧美午夜在线视频| 免费国产好深啊好涨好硬视频| 亚洲人成人伊人成综合网无码| 国产精品开放后亚洲| 毛片在线播放a| 日韩精品无码一级毛片免费| 亚洲AV成人一区国产精品| 亚洲综合精品香蕉久久网| 婷婷亚洲视频| 精品久久人人爽人人玩人人妻| 青青青草国产| 青草免费在线观看| 久久精品一品道久久精品| 91综合色区亚洲熟妇p| 中文字幕精品一区二区三区视频| 国产美女人喷水在线观看| a级毛片在线免费| 日本成人一区| 免费一级大毛片a一观看不卡| 国产迷奸在线看| 亚洲国产中文欧美在线人成大黄瓜| 97超碰精品成人国产| 在线欧美日韩国产| 国产精品美女自慰喷水| 国产成人a在线观看视频| 国产成人AV男人的天堂| a级毛片一区二区免费视频| 91小视频在线观看| 国产AV无码专区亚洲A∨毛片| 女人毛片a级大学毛片免费| 国产精品无码制服丝袜| 亚洲欧美日韩中文字幕在线一区| 一级成人a做片免费| 日韩无码黄色| 亚洲日韩欧美在线观看| 欧美成一级| 97人人模人人爽人人喊小说| 九九九国产|