999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

區域提取網絡結合自適應池化網絡的機場檢測

2018-06-14 06:10:38許悅雷馬時平
西安電子科技大學學報 2018年3期
關鍵詞:區域檢測方法

辛 鵬, 許悅雷, 馬時平, 李 帥, 呂 超

(1. 空軍工程大學 航空航天工程學院,陜西 西安 710038;2. 中國人民解放軍95876部隊,甘肅 張掖 734100)

在軍事領域,機場具有能量補給、交通中轉、飛機停靠等戰略功能,是被敵方打擊的重要目標.在民事領域,機場作為運輸、能源配給的重要節點,對于促進經濟發展起到十分重要的作用.遙感圖像或光學圖像中機場的檢測與識別可以為整個圖像的理解與應用提供參考,是良好的信息提取切入點.因此,研究圖像中機場的搜索、檢測和識別提取具有重大的意義,其成果在軍事領域可用于戰場監測、定位導航、任務規劃等,在民事領域可用于地圖繪制、飛機降落引導等.

早期的機場圖像檢測方法大致分兩類[1]: 基于跑道直線特性的線段檢測法以及基于機場紋理特征的場景分割和區域分析法.第1類方法原理簡單,軟件實現容易,但容易被具有類直線特征的目標如河流、道路等干擾,造成檢測的虛警率較高; 第2類方法通常和滑動窗搜索等有關,得到的特征很復雜,計算量大,效率低,難以達到實時檢測的要求.有人將遷移學習方法應用到機場檢測中[2],取得了不錯的效果,但只把深度學習用作特征提取的工具,區域的定位仍采用傳統方法;也有人將卷積神經網絡與其他方法結合起來進行道路提取[3],同樣取得了良好的結果.最近,深度學習在區域提取領域也有了很大的突破,取得了優于傳統方法的效果.考慮將機場檢測的整個過程都用深度學習方法實現,筆者提出一種改進的區域提取網絡和自適應池化網絡結合的機場快速檢測方法.

加快檢測速度的方法大致分兩類: 第1類方法著眼于硬件加速,主要是使用圖形處理單元(Graphics Processing Unit,GPU)來進行大規模、并行運算及采用先進的中央處理器(Central Processing Unit, CPU)和更快的內存單元等來加速網絡的計算速度; 第2類方法致力于優化網絡結構,通過對卷積神經網絡模型進行任務特異的修改、優化,引入一些特殊策略以減少計算量.針對機場檢測任務,在圖形處理單元加速的基礎上,主要對網絡結構進行改進、優化以達到機場快速檢測的目的.

1 改進的區域提取網絡和自適應池化網絡

1.1 區域提取網絡

筆者通過復用區域提取網絡和檢測網絡的卷積層對機場圖像進行檢測.其中區域提取階段加入一個二分類分類器對候選區域進行優化,進一步提高網絡的性能.

區域提取網絡[4]通過復用檢測網絡的卷積層提取的特征進行區域提取,節約了計算量,加快了提取速度.

圖1 區域提取網絡結構示意圖

1.1.1 網絡結構和特點

區域提取網絡在最后一層卷積層提取的特征圖上,運行一個滑動窗口(尺寸自定,設為 3×3) 來生成候選區域.每個滑動窗口映射到一個低維向量上,該向量輸入兩個同級的全連接層——邊界框分類層(cls)和邊界框回歸層(reg),前者對候選區域是否含有目標進行預測,后者依據目標的人工標定邊界框對預測邊界框位置進行修正.網絡結構如圖1所示.

為適應不同大小、不同形狀的目標,每一個滑動窗口的位置同時預測多個不同大小和長寬比的候選邊界框.每個框以滑動窗口的中心為中心,由兩個點(框的左上角和右下角點)的坐標確定.命名每個框為一個錨,每個滑窗中心定義3種尺度和3種長寬比(共9類錨),因此網絡的回歸層有36個輸出,即9種錨的坐標編碼; 分類層輸出18個得分,即每個錨是否包含目標的概率(可用二類的softmax層或logistic回歸實現).由于卷積和池化的降維特性,特征圖層面上每個錨在原始圖像中對應的有效感受野很大.通過定義不同尺度的錨并經過位置修正,以達到預測圖像中不同尺寸的機場的目的.

圖2 邊界框回歸示意圖

1.1.2 邊界框回歸和多任務損失

滑動窗口處的預測的錨尺寸和形狀是固定的,但目標尺寸是多變的.為了能對不同尺寸目標的位置框定的更加準確,增加一個邊界框回歸層對候選區域的預測邊界框進行修正.如圖2所示,其中方框為人工標注的邊界框,方框為預測的邊界框,方框為經過修正后的邊界框.注意:只有當預測的邊界框和人工標定的邊界框比較接近時,才近似把兩者視為線性關系,能將其作為訓練樣本訓練線性回歸模型.具體細節參照文獻[5].

為訓練該網絡,給每個錨分配一個二進制的標簽.分配正標簽給兩類錨:與任意人工標定邊界框有大于0.7的交集并集之比(Intersection-over-Union,IoU)的錨;與某個人工標定的邊界框有最高的交集并集之比的錨(也許不到0.7).一個人工標定的邊界框可能給多個錨分配正標簽.給與所有人工標定的邊界框的交集并集之比都低于0.3的錨分配負標簽.其余的錨對訓練不起作用.

訓練目標有兩個:一是預測候選區域含有目標的概率,另一個是對目標的邊界框位置進行調整.遵循文獻[5]中的多任務損失,定義一個候選區域的損失函數為

(1)

分類損失Lcls定義為Lcls(p,u)=-logpu,(2)

其中,R是文獻[5]中定義的函數:

(4)

研究發現,多任務損失的聯合訓練可以使多個任務的信息互相補充,讓公用特征提取得更好,從而提高整體效果.為減少冗余區域的數量,在區域提取結束后用非極大值抑制的方法對區域進行篩選.

圖3 改進的區域提取網絡方法示意圖

1.2 改進的區域提取網絡

實驗中發現,區域提取網絡提取的候選區域中存在大量定位較差的區域和背景區域,有很大的優化空間.文獻[6]發現用卷積神經網絡可以減少用聚類方法生成的候選區域的數量,提高檢測性能;文獻[7]用一個4層的級聯卷積神經網絡對候選區域重新排序,提升候選區域的質量.受此啟發,借鑒分治策略[8],在區域提取網絡后加一個二類分類器,對定位較差的區域和背景區域進行篩除,提出一種改進的區域提取網絡.其中“二類”指目標和背景,該分類器參照自適應池化檢測網絡的結構(見1.3節)設計,以區域提取網絡提取的候選區域為輸入(正負樣本的設置參照區域提取網絡)進行訓練,網絡結構如圖3所示.

二分類網絡也包含邊界框回歸層,因為重復的邊界框回歸能進一步提高候選區域的定位精度.從網絡結構上分析,新增加的二分類網絡除了能篩除背景和一些定位較差的區域外,還能融合不同方法提取的候選區域,達到吸收不同區域提取方法的優勢的目的.

1.3 自適應池化的機場檢測網絡

傳統的卷積網絡只能輸入固定尺寸的圖像.為適應不同尺寸的輸入,早期大多采用拉伸、縮放等形變方法,雖然能得到不錯的準確率,但造成了目標及其特征的失真,對檢測結果有一定影響.筆者在文獻[9]提出的空間金字塔池化的基礎上,借鑒自適應池化窗口大小和滑動步長的方法,將不同大小的特征圖整合到同一尺度.為加快計算速度,將金字塔的層數減少至一層.

檢測任務中每張圖片產生數以千計的候選區域,許多區域重疊程度很高,它們均被送入同一網絡進行檢測,造成了相似特征的重復提取,大大增加了計算量.觀察來自同一圖像的多個候選區域,其特征都是整張圖像特征的一部分,且空間位置是一一對應的.受此啟發,考慮只提取整張圖像的特征,候選區域的特征通過空間的對應關系映射得到.事實證明這是可行的,且檢測速度得到了極大提升.

自適應池化層之后是幾個全連接層,最后再經過兩個同級的全連接層——分類層和回歸層,如圖4所示.網絡結構與區域提取網絡類似,區別是此時的分類為多目標分類.

圖4 檢測網絡結構示意圖

2 改進的區域提取網絡和自適應池化網絡結合的機場快速檢測

2.1 網絡模型的選擇和初始化

一個標準的神經網絡的訓練需要大量的標定數據,但筆者提供的數據量遠遠不夠,考慮使用在大型數據集ImageNet[10]上預訓練的網絡作為模型的初始值,用筆者擁有的數據集再訓練以微調網絡權值.這樣做是可行的,因為不同目標提取出的低級特征是相似的.有人采用類似的網絡初始化方法[2],取得了不錯的效果.具體到機場的檢測任務,為避免過擬合,選擇小型的預訓練網絡Zeiler and Fergus nets (ZF nets)[11]的最后一個卷積層及其之前的部分作為復用的卷積層,其余用均值為零、方差為 0.000 1 的高斯函數隨機初始化.

2.2 交叉優化訓練

筆者提出模型的訓練不能簡單地用反向傳播算法將兩部分視為整體聯合訓練,原因是檢測網絡的訓練依賴于區域提取網絡的提取區域.為了達到復用卷積層的目的,根據不同子網絡輸入輸出的差異,按邏輯順序采用一種交叉優化的訓練策略[4],將區域提取網絡和檢測網絡分開獨立訓練.具體分4步:

第1步 單獨訓練區域提取網絡,微調網絡權值并產生若干機場候選區域; 用產生的候選區域(也可以選擇加入其他方法提取的候選區域)作為輸入,訓練二分類網絡(網絡初始化方式與區域提取網絡相同),微調網絡權值并產生優化后的機場候選區域;

第2步 用第1步產生的優化候選區域訓練檢測網絡,微調網絡權值,注意此時檢測網絡的初始化卷積層并非第1步微調過的,而是采用原始的預訓練卷積層;

第3步 把第2步微調過的檢查網絡卷積層權重作為初始化的卷積層并固定不變,用和第1步相同的方法重新訓練區域提取網絡和二分類網絡,只微調兩個網絡獨有的層,同時產生新的機場候選區域;

第4步 保持第3步中的卷積層不變,用第3步產生的新機場候選區域微調檢測網絡,此時網絡訓練結束且達到了復用卷積層的目的.

3 仿真實驗和分析

3.1 仿真平臺和機場數據庫的準備

以Matlab 2014b作為仿真平臺,用Visual Studio 2013編譯的caffe作為神經網絡的框架,電腦配置的中央處理器為I7-7700 3.6 GHz,內存為 16 GB,顯卡為NVIDIA GTX 1060.選取600張不同分辨率和不同尺寸的機場圖像作為訓練數據集,使模型學習多樣的特征,同時在一定程度上防止過擬合.

圖像中機場邊界框的標注是用軟件Labelimg實現的,選擇8類場景作為訓練目標,包括1個感興趣場景(即機場)和7個背景場景(即山脈、建筑物、河流、森林、農場、道路和島嶼),每張圖像可以標注多個場景,也可以只標注一類場景.每張圖像都至少包含一個機場目標,因此機場類的訓練樣本比背景類的訓練樣本多,這也使得檢測模型對機場的檢測性能優于其他背景場景.

3.2 訓練和測試的實驗結果

為防止過擬合,以0.5的概率將訓練圖像水平翻轉來進行數據擴張,訓練和測試集的比例設為6∶4,區域提取過程使用改進的區域提取網絡并融合了選擇性搜索方法[12]提取的區域.經過4個步驟的交叉優化訓練,得到了實驗的結果和訓練好的機場檢測網絡模型.實驗結果如表1所示.為證明改進的區域提取網絡能提高檢測性能,用控制變量法做了一組對比實驗,結果如表2所示.

表1中的結果說明筆者提出的方法對機場這一目標有較好的檢測性能,而且能區分與機場相似的場景,如道路、河流等.道路、河流等的平均檢測率(Average Precision,AP)不夠高,是因為訓練樣本不足,只有少部分的圖像中存在這些場景.該結果是基于600張訓練圖像得到的.相信隨著訓練樣本數量的增加,每類場景都能得到理想的平均檢測率.

表1 網絡訓練和測試后每類的平均檢測率

表2 區域提取方法的對比實驗

表2中3個對比實驗用到了控制變量法.改進區域提取方法的目的是提高檢測性能,故選擇最終檢測網絡的平均準確率的均值(mean Average Precision,mAP)和在10幅尺寸為 800× 600的測試圖像上的平均檢測時間作為評價指標.表2的結果顯示,改進的區域提取網絡能在不增加檢測時間的前提下提高平均準確率的均值.在改進的區域提取網絡的基礎上增加選擇性搜索能進一步提高平均準確率的均值,但相應的檢測時間有明顯增加,這是因為選擇性搜索很耗時.以上實驗說明,改進的區域提取網絡能在提高候選區域質量的基礎上提高檢測網絡的性能,而且通過與其他區域提取方法的融合,能進一步提高檢測方法的性能.

圖5 筆者提出的方法對一些典型的機場檢測效果圖

圖6 兩個未檢測出的機場示例

圖5顯示了筆者提出方法的幾個成功的檢測結果,圖6顯示了兩個未能檢測出的機場圖像.比較發現,由于數據庫中大多是“常規”的機場圖像,因此對一些外形比較特別的機場(如圖6)無法檢測.為解決這一問題,可以考慮將檢測對象進一步細化到跑道這一層面,或嘗試增加相關的訓練數據集來讓網絡學習這些特征,這些思路將作為下一步的研究內容.

3.3 與其他方法的對比實驗

為檢驗筆者提出方法的性能,選取兩種典型的機場檢測方法作為對照,隨機選取200張機場圖像作為測試數據集,對機場的檢測率、虛警率和檢測時間進行統計.表3中“基于邊緣”指基于邊緣的機場檢測方法,如文獻[13]等;“基于SIFT(Scale Invariant Feature Transform)”指基于尺度不變特征轉換特征的機場檢測方法,如文獻[14]等.為復現這兩種方法,對網絡上下載的相關的公開代碼根據論文思路進行修改,每種方法取多次實驗的均值,結果如表3所示.

表3 筆者提出的方法與兩種經典方法的對比

在對比實驗中,筆者提出的方法選擇改進的區域提取網絡但不融合其他方法提取的區域以加快檢測速度.從表3看出,筆者提出的方法在測試數據集上的檢測率最高,虛警率最低,平均檢測時間也最短,各方面性能都有了很大的提升.這說明與這文獻[13-14]中的方法相比,筆者提出的方法提取的特征對機場的表達能力更強.

4 總 結

筆者提出一種改進的區域提取網絡和自適應池化網絡結合的機場快速檢測方法,提高了檢測識別率,降低了虛警率,縮短了檢測時間.改進的區域提取網絡通過一個二分類網絡篩除了提取較差的機場候選區域和背景區域;檢測網絡中通過復用來自同一圖片的候選區域的特征,大大減少了計算代價; 自適應池化使不同尺寸的候選區域能在特征圖層面上調整至同一尺度,打破了傳統網絡只能適應固定尺寸輸入的限制;復用區域提取和檢測網絡的卷積層,使得區域提取的時間幾乎忽略不計.筆者提出的方法為機場實時、精確檢測做了有效的探索,有較強的理論和實用價值.提取機場更加魯棒、高效的特征,創建更加完備的機場數據庫,將筆者提出方法應用到實時機場檢測中,是今后努力的方向.

[1] ZHU D, WANG B, ZHANG L M. Airport Detection Based on Near Parallelity of Line Segments and GBVS Saliency[J]. Journal of Infrared and Millimeter Waves, 2015, 34(3): 375-384.

[2] ZHANG P, NIU X, DOU Y, et al. Airport Detection from Remote Sensing Images Using Transferable Convolutional Neural Networks[C]//Proceedings of the 2016 International Joint Conference on Neural Networks. Piscataway: IEEE, 2016: 2590-2595.

[3] 劉如意, 宋建鋒, 權義寧, 等. 一種自動的高分辨率遙感影像道路提取方法[J]. 西安電子科技大學學報, 2017, 44(1): 100-105.

LIU Ruyi, SONG Jianfeng, QUAN Yining, et al. Automatic Road Extraction Method for High-resolution Remote Sensing Images[J]. Journal of Xidian University, 2017, 44(1): 100-105.

[4] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards Real-time Object Detection with Region Proposal Networks[C]//Proceedings of the Advances in Neural Information Processing Systems. Vancouver: Neural Information Processing Systems Foundation, 2015: 91-99.

[5] GIRSHICK R. Fast r-cnn[C]//Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2015: 1440-1448.

[6] YAN J, YU Y, ZHU X, et al. Object Detection by Labeling Superpixels[C]//Proceedings of the 2015 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2015: 5107-5116.

[7] KUO W, HARIHARAN B, MALIK J. Deepbox: Learning Objectness with Convolutional Networks[C]//Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2015: 2479-2487.

[8] YANG B, YAN J, LEI Z, et al. Craft Objects from Images[C]//Proceedings of the 2016 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 6043-6051.

[9] HE K, ZHANG X, REN S, et al. Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904-1916.

[10] DENG J, DONG W, SOCHER R, et al. Imagenet: a Large-scale Hierarchical Image Database[C]//Proceedings of the 2009 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2009: 248-255.

[11] ZEILER M D, FERGUS R. Visualizing and Understanding Convolutional Networks[C]//Lecture Notes in Computer Science: 8689. Heidelberg: Springer Verlag, 2014: 818-833.

[12] UIJLINGS J R R, van de SANDE K E A, GEVERS T, et al. Selective Search for Object Recognition[J]. International Journal of Computer Vision, 2013, 104(2): 154-171.

[13] QU Y, LI C, ZHENG N. Airport Detection Base on Support Vector Machine from a Single Image[C]//Proceedings of the 2005 Fifth International Conference on Information, Communications and Signal Processing. Piscataway: IEEE, 2005: 546-549.

[14] TAO C, TAN Y, CAI H, et al. Airport Detection from Large IKONOS Images Using Clustered SIFT Keypoints and Region Information[J]. IEEE Geoscience and Remote Sensing Letters, 2011, 8(1): 128-132.

猜你喜歡
區域檢測方法
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
小波變換在PCB缺陷檢測中的應用
關于四色猜想
分區域
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
主站蜘蛛池模板: a免费毛片在线播放| 2021精品国产自在现线看| 亚洲国产中文综合专区在| 白丝美女办公室高潮喷水视频 | 亚洲成A人V欧美综合| 99久久无色码中文字幕| 免费无码网站| 午夜视频www| 超清人妻系列无码专区| 精品无码日韩国产不卡av| 亚洲成AV人手机在线观看网站| 成人亚洲天堂| 国产成人精品18| av大片在线无码免费| 有专无码视频| 亚洲欧洲日产无码AV| 国产精欧美一区二区三区| 国产亚洲精品无码专| 欧美一级爱操视频| 久久96热在精品国产高清| 91在线精品麻豆欧美在线| 久久久国产精品免费视频| 亚洲综合18p| 超碰aⅴ人人做人人爽欧美| 亚洲中久无码永久在线观看软件| 99久久精品免费观看国产| 国产啪在线91| 亚洲精品黄| 亚洲精品午夜天堂网页| 中日韩欧亚无码视频| 波多野结衣无码视频在线观看| 又大又硬又爽免费视频| 内射人妻无码色AV天堂| 国产精品专区第1页| 91网在线| 国产本道久久一区二区三区| 男女男精品视频| 黄网站欧美内射| 久久视精品| 久久黄色免费电影| 亚洲一级无毛片无码在线免费视频 | 亚洲九九视频| 国产精品香蕉在线| 国产成人免费| 精品成人一区二区| 国产丝袜一区二区三区视频免下载| 国产精品蜜臀| 国产美女视频黄a视频全免费网站| 国产亚洲精品自在线| 制服无码网站| 97久久精品人人做人人爽| 韩日无码在线不卡| 亚洲欧洲美色一区二区三区| 中文字幕在线观| 欧美激情视频在线观看一区| 91色老久久精品偷偷蜜臀| 呦女精品网站| 国产无套粉嫩白浆| 久久毛片基地| av尤物免费在线观看| 亚洲第一成年人网站| 91无码人妻精品一区| 午夜在线不卡| 中国国产A一级毛片| 青青操视频在线| 在线日韩一区二区| 日韩精品高清自在线| 精品撒尿视频一区二区三区| 国产在线视频二区| 中文字幕在线欧美| 少妇精品在线| 91久久青青草原精品国产| 日韩欧美国产精品| 欧美激情视频一区二区三区免费| 鲁鲁鲁爽爽爽在线视频观看| 亚洲免费毛片| 国产99视频在线| 黄色在线不卡| 国产靠逼视频| 免费不卡视频| 91丨九色丨首页在线播放| 四虎国产精品永久在线网址|