999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種高精度航拍圖像目標檢測算法研究與實現

2019-11-12 07:32:59劉洋
中國管理信息化 2019年19期
關鍵詞:特征提取深度學習

劉洋

[摘 ? ?要] 航拍圖像目標形態受顏色變化、長寬比變化以及復雜背景的影響大,待檢測的目標相對于圖片背景來說屬于相對的小目標,特征提取不易。傳統的圖像處理方法檢測效果差,通過采用深度學習的方法可以實現對航拍圖像的準確檢測。文章采用RetinaNet (Resnet + FPN + FCN)的方法成功解決這一難題題,實現了對于航拍圖片的精準識別。RetinaNet中采用Focal loss損失函數,通過在原有的CE loss上乘以使易檢測目標對模型訓練貢獻削弱的指數式,從而成功地解決了在目標檢測時正負樣本區域極不平衡而目標檢測loss易被大批量負樣本所左右的問題。

[關鍵詞] 航拍圖像;目標檢測;深度學習;特征提取;損失函數

doi : 10 . 3969 / j . issn . 1673 - 0194 . 2019. 19. 064

[中圖分類號] TP311 ? ?[文獻標識碼] ?A ? ? ?[文章編號] ?1673 - 0194(2019)19- 0149- 03

1 ? ? ?國內外航拍目標檢測現狀

目前,航拍目標檢測所采用的方法與技術多繼承自經典目標檢測算法,object detection的算法主要可以分為兩大類:two-stage detector和one-stage detector。前者是指類似Faster RCNN、RFCN這樣需要region proposal的檢測算法,這類算法可以達到很高的準確率,但是速度較慢。雖然可以通過減少proposal的數量或降低輸入圖像的分辨率等方式達到提速,但是速度并沒有質的提升。后者是指類似YOLO、SSD這樣不需要region proposal,直接回歸的檢測算法,這類算法速度很快,但是它當前的檢測準確度已經落后于兩階段檢測器了。

對于two-stage的檢測器而言,通常分為兩個步驟,第一個步驟即產生合適的候選區域,而這些候選區域經過篩選,一般控制一個比例(比如正負樣本1∶3),另外還通過hard negative mining(OHEM),控制難分樣本占據的比例,以解決樣本類別不均衡的問題。但是對于one-stage的檢測器來說,盡管可以采用同樣的策略(OHEM)控制正負樣本,但是還是有缺陷。

2016年何愷明博士提出圖像識別中的深度殘差學習(Deep Residual Learning for Image Recognition),就是舉世聞名的152層深度殘差網絡 ResNet-152。2017他又提出Focal Loss for Dense Object Detection,利用焦點損失提升物體檢測效果,這使得one-stage 目標檢測器,首次達到了更復雜的 two-stage 檢測器所能實現的最高 COCO 平均精度。他們設計了一個one-stage目標檢測器RetinaNet,在COCO test-dev 上取得了 39.1 AP 的成績,超過目前公開的單一模型在 one-stage 和 two-stage 檢測器上取得的最好成績。

為解決two-stage detector檢測算法精度高但是速度慢,one-stage detector檢測速度高但是精度相對較差的問題,本文介紹使用改進的RetinaNet來實現快速精確的航拍目標檢測。

2 ? ? ?RetinaNet與航拍圖像檢測

2.1 ? RetinaNet概述

Retinanet的模型結構如圖1所示。該模型采用Resnet50/Resnet101作為基礎網絡提取特征。之后用FPN(特征空間金字塔)進行多尺寸地預測。共輸出三種尺寸的輸出,每種輸出為兩路進行分類和box框的回歸,輸出時采用9個anchor(yolo v3 每個輸出采用3個)。

首先多尺度上目標識別是計算機視覺領域的一個基本挑戰,解決這一挑戰的基本方法就是“基于圖像金字塔的特征金字塔(簡稱為特征圖像金字塔)”,這些金字塔具有尺度不變性,可以通過掃描位置和金字塔層來檢測大范圍上的尺度。將圖像金字塔各層提取特征的主要好處就在于產生了一個多尺度特征表示,這個表示的所有層語義很強,包括高精度的層。盡管這樣,然而對每層進行特征提取有很明顯的限制,Inference time將急劇上升,在圖像金字塔上進行end-to-end的訓練內存上也不可行,最多只能在測試的時候將就用一下。Fast and Faster R-CNN也盡量避免采用這種方法。

Retinanet的主網絡部分采用的是FPN結構,兩個不同任務的子網絡,一個是分類網絡,一個是位置回歸網絡,如圖1所示。

Retinanet的主網絡部分結構并不與FPN中提到的結構完全一致,Retinanet使用特征金字塔層P3,P4,P5,P6,P7,其中,P3,P4,P5與FPN中的產生方式一樣,通過上采樣和橫向連接從C3,C4,C5中產生,P6是在C5的基礎上通過3×3的卷積核,步長為2的卷積得到的,P7在P6的基礎上加了個RELU再通過3×3的卷積核,步長為2的卷積得到的。在P3-P7層上選用的anchors擁有的像素區域大小從32×32到512×512,每層之間的長度是兩倍的關系。每個金字塔層有三種長寬比例[1∶2 ,1∶1 ,2∶1],有三種尺寸大小[2^0,2^(1/3), 2^(2/3))。總共便是每層9個anchors。大小從32像素到813像素。其中32=(32x2^0)813=(512x2^(2/3))

分類子網絡和回歸子網絡的參數是分開的,但結構卻相似。都是用小型FCN網絡,將金字塔層作為輸入,接著連接4個3x3的卷積層,fliter為金字塔層的通道數(論文中是256),每個卷積層后都有RELU激活函數,這之后連接的是fliter為KA(K是目標種類數,A是每層的anchors數,論文中是9)的3×3的卷積層,激活函數是sigmoid。另外Retinanet的主要亮點是損失函數(loss = focal loss(分類) + smooth L1 loss),下面重點講一下Focal Loss。

2.2 ?Focal Loss分析

直接應用Retinanet引出一個問題:在目標檢測中,one stage效果較差于two stage的主要原因是one stage在訓練時樣本比例不均衡(比如yolo v3等,在訓練時要生成3×13×13 + 3×26×26 + 3×52×52 = 10 647個box,但這些box中真正有物體的也就幾個,其他都是背景,這樣導致背景太多物體太少嚴重失衡;而two stage的faster-cnn通過RPN可以過濾掉大量的box,保留2 000個,雖然也不均衡,但相對于one stage好的多)。目前常見的解決方法是:在訓練的時候用不同的采樣頻率;給予不同的權重。而提出的focal loss不需要這些步驟。

新的損失函數 Focal Loss主要思路是降低分類效果好(網絡預測的置信度confidence高)的樣本的loss值,讓模型聚焦在難學習的樣本中。這個損失函數在標準的交叉熵標準上添加了一個因子 (1- pt) γ 。設定 γ > 0 可以減小分類清晰的樣本的相對損失(pt >.5),使模型更加集中于困難的錯誤分類的樣本。

圖2顯示了交叉熵loss和focal loss的關系,橫軸表示網絡預測該類物體的置信度。當r=0時,cross entropy = focal loss,不同的r代表了不同的懲罰力度,作者使用r=2效果最好。在confidence高時,用cross entropy 時loss的值相對于focal loss大,如果使用cross entropy loss, 它使得模型傾向于這些樣本的訓練(由于預測的置信度已經很高了,無須再多關注這個樣本),使用focal減小了這種傾向,使模型不過于關注效果好的樣本。在confidenct很低時,很有可能預測錯誤,此時focal loss和交叉熵loss十分接近,二者但作用接近。

試驗證明,在存在大量簡單背景樣本(background example)的情況下Focal Loss 函數可以訓練出準確度很高的密集對象檢測器。

2.3 ? 殘差神經網絡ResNet

ResNet最初的靈感出自這個問題:在不斷增加神經網絡的深度時,會出現一個Degradation(退化)的問題,即準確率會先上升然后達到飽和,再持續增加深度則會導致準確率下降。這并不是過擬合的問題,因為不光在測試集上誤差增大,訓練集本身誤差也會增大。

假設有一個比較淺的網絡達到了飽和的準確率,那么后面再加上幾個y=x的全等映射層,起碼誤差不會增加,即更深的網絡不應該帶來訓練集上誤差上升。而這里提到的使用全等映射直接將前一層輸出傳到后面的思想,就是ResNet的基礎。假定某段神經網絡的輸入是x,期望輸出是H(x),如果直接把輸入x傳到輸出作為初始結果,那么此時需要學習的目標就是F(x)=H(x)-x。如圖3所示,這就是一個ResNet的殘差學習單元。

可以看到x是這一層殘差塊的輸入,也稱作F(x)為殘差,x為輸入值,F(X)是經過第一層線性變化并激活后的輸出,該圖表示在殘差網絡中,第二層進行線性變化之后激活之前,F(x)加入了這一層輸入值x,然后再進行激活后輸出。在第二層輸出值激活前加入x,這條路徑稱作shortcut連接。

假設該層是冗余的,在引入ResNet之前,想讓該層學習到的參數能夠滿足h(x)=x,即輸入是x,經過該冗余層后,輸出仍然為x。但是可以看見,要想學習h(x)=x恒等映射時的這層參數時比較困難的。ResNet想到避免去學習該層恒等映射的參數,使用了如上圖的結構,讓h(x)=F(x)+x;這里的F(x)稱作殘差項。要想讓該冗余層能夠恒等映射,只需要學習F(x)=0。學習F(x)=0比學習h(x)=x要簡單,因為一般每層網絡中的參數初始化偏向于0,這樣在相比于更新該網絡層的參數來學習h(x)=x,該冗余層學習F(x)=0的更新參數能夠更快收斂。

普通直連的卷積神經網絡和ResNet的最大區別在于,ResNet有很多旁路的支線將輸入直接連到后面的層,使得后面的層直接學習殘差,這種結構也被稱為shortcut或skip connections。

傳統的卷積層或全連接層在信息傳遞時,或多或少會存在信息丟失、損耗等問題。ResNet在某種程度上解決了這個問題,通過直接將輸入信息繞道傳到輸出,保護信息的完整性,整個網絡則只需要學習輸入、輸出差別的那一部分,簡化學習目標和難度。

3 ? ? ?基于RetinaNet的航拍影像目標檢測

處理好模型需要的數據集后,可以將數據集分為訓練集和測試集,使用訓練集去進行訓練,測試集驗證模型的錯誤率。

訓練開始前需要設置模型訓練參數,包括image-min-side,image-max-side模型圖片的輸入尺寸,batch-size每步訓練使用圖片數量,epochs訓練總共進行輪次,steps每個epoch訓練步數,設置完成后,可以開始進行訓練,在訓練完成后將得到多個模型權重文件。

通過前面的操作得到了相對來說較好的模型權重文件,但是這個模型文件是不能直接用于檢測的,需要進行轉化才可以使用。選取一個模型文件進行轉化,得到推斷預測模型,使用這個模型進行目標檢測。

圖4為實際使用推斷模型對航拍圖片進行目標檢測的結果展示。

4 ? ? ?結 ? ?語

航拍目標檢測作為目標檢測的子方向,是計算機視覺領域的重要研究內容。航拍目標檢測在軍事目標智能識別,遙感影像解析以及民用航空等領域具備廣闊的應用前景。但是,航拍圖像中的目標受顏色,長寬比變化以及復雜背景以及旋轉的影響很大。本文提出使用Resnet殘差網絡和損失函數Focal Loss來對航拍目標進行檢測。在保證檢測速度的前提下,提高了目標檢測精度,目標檢測準確度達到了90%以上。同時通過對數據集的增強處理,提高了模型預測的準確度。

在深度學習網絡方面,本文只采用了101層Resnet和50層的Resnet殘差網絡進行了測試學習,沒有進行更多種類的嘗試。本文只對航拍中比較清晰的高分辨率圖像進行了一定的嘗試,而對低分辨率的圖像有待驗證。在數據增強中,后面會考慮使用條件型生成對抗網絡,使用CycleGAN進行更多的數據增強擴張,這部分工作會繼續進行下去。

主要參考文獻

[1]Tsung-Yi Lin, Priya Goyal, Ross Girshick, et al.Focal Loss for Dense Object Detection[C]//IEEE Transactions on Pattern Analysis and Machine Intelligence,2017.

[2]Kaiming He,Xiangyu Zhang,Shaoqing Ren,et al.Deep Residual Learning for Image Recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition,2016.

[3]蔡強,劉亞東,曹建,等.圖像目標類別檢測綜述[J] .計算機科學與探索,2015(3):257-265.

[4]G Montufar,R Pascanu,K Cho,et al. On the Number of Linear Regions of Deep Neural Networks[C]//Proceedings of the 27th International Conference on Neural Information Proceeding Sytems-2,2014.

[5]高常鑫.基于深度學習的高分辨率遙感影像目標檢測[D] .武漢:華中科技大學,2014.

[6]豐曉霞.基于深度學習的圖像識別算法研究[D] .太原:太原理工大學,2015:29-32.

猜你喜歡
特征提取深度學習
特征提取和最小二乘支持向量機的水下目標識別
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
Bagging RCSP腦電特征提取算法
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
基于深度卷積網絡的人臉年齡分析算法與實現
軟件工程(2016年8期)2016-10-25 15:47:34
主站蜘蛛池模板: 亚洲国产第一区二区香蕉| 亚洲天堂777| 九色免费视频| 亚洲国产精品日韩av专区| 99er这里只有精品| 亚洲精品无码久久毛片波多野吉| 免费可以看的无遮挡av无码 | 欧美一区二区人人喊爽| 亚洲国产理论片在线播放| 高清码无在线看| 狠狠亚洲五月天| 97精品伊人久久大香线蕉| 亚洲日韩在线满18点击进入| 亚洲天堂视频在线免费观看| 亚洲天堂精品视频| 色成人综合| 久久黄色影院| 自偷自拍三级全三级视频| 麻豆a级片| YW尤物AV无码国产在线观看| 乱人伦视频中文字幕在线| 99精品国产自在现线观看| 亚洲欧美日韩高清综合678| 国产人碰人摸人爱免费视频| 黄色网在线免费观看| 久久公开视频| 久久综合五月| 谁有在线观看日韩亚洲最新视频| 久久久久久尹人网香蕉| 亚洲国产欧美自拍| 国产精品成| 日本国产在线| 国产乱子伦一区二区=| 久久精品波多野结衣| 午夜高清国产拍精品| 中文字幕在线日韩91| 成人在线不卡视频| 午夜福利免费视频| 久久大香香蕉国产免费网站| 国产jizzjizz视频| 狠狠综合久久| 日韩AV无码免费一二三区| 四虎永久免费在线| 国产一区二区视频在线| 午夜精品国产自在| 亚瑟天堂久久一区二区影院| 国产97视频在线| 国产欧美日本在线观看| 五月婷婷亚洲综合| 国产一区二区三区在线无码| 青草精品视频| 午夜性刺激在线观看免费| 国产精品极品美女自在线网站| 欧美在线黄| 午夜国产不卡在线观看视频| 91口爆吞精国产对白第三集| 高清亚洲欧美在线看| 欧美有码在线| 毛片基地视频| 人妻丰满熟妇av五码区| 国模视频一区二区| 国产午夜看片| 国产尤物jk自慰制服喷水| 国产免费精彩视频| 亚洲综合18p| 伦精品一区二区三区视频| 国产一级二级在线观看| 国产精品区视频中文字幕| 亚洲欧美另类中文字幕| 亚洲AV无码久久精品色欲| 色男人的天堂久久综合| 国产一级在线观看www色| 999在线免费视频| 女同国产精品一区二区| 精品国产www| 成人一级黄色毛片| 欧美日韩第三页| 亚洲免费福利视频| 国产亚洲现在一区二区中文| 日韩国产黄色网站| 国产精品专区第1页| 欧美激情,国产精品|