999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度卷積神經(jīng)網(wǎng)絡的航拍目標檢測

2021-06-04 03:09:10趙玉瑩
微型電腦應用 2021年5期
關鍵詞:特征檢測

趙玉瑩

(東北石油大學 計算機與信息技術學院, 大慶 163000)

0 引言

航拍圖像是指由無人機搭載高清攝像設備以俯拍的角度獲取地面的圖像信息。近些年,國家對于無人機的研究,已從簡單的飛行操作到實現(xiàn)偵查、勘探等功能。隨著人工智能技術的飛速發(fā)展,結合無人機等硬件設施已在交通監(jiān)管、農(nóng)林管理、智慧城市等領域得到廣泛應用。為了實現(xiàn)對地面信息的精準識別,航空影像的目標檢測技術已成為人們研究的重點。

在航拍圖像中存在背景龐雜,場景多樣,目標相對較小等情況[1],傳統(tǒng)的目標檢測方法無法滿足當前航拍圖像檢測的要求。自Hinton等人在2012年的ImageNet競賽中提出AlexNet網(wǎng)絡以來[2],依靠手工提取特征的傳統(tǒng)目標檢測方法已被基于卷積神經(jīng)網(wǎng)絡(CNN)的目標檢測方法所取締。目前基于CNN的目標檢測方法可歸納為兩種類型:一種是分兩個階段來完成目標檢測任務,該方法先將圖像中可能存在目標的區(qū)域都標記出來,即生成目標的候選框;然后采用基于CNN的模型將候選區(qū)域進行正確的分類。如R-CNN[3]、Faster R-CNN[4]、R-FCN[5]等都在公共數(shù)據(jù)集上實現(xiàn)了對目標的精準檢測和語義分割。但該類方法中會存在大量的候選框,使得對特征提取的計算量過大,導致檢測的速度過慢,無法滿足實時檢測的需求。針對這類方法存在的問題,研究學者們提出端到端的檢測方法。2016年,Redmon等人[6]提出了YOLO,其使用了回歸思想,將輸入的圖像分為大小一致的多個區(qū)域,直接在每個區(qū)域上預測相應的目標邊框與類別[7],相較于Faster R-CNN算法,檢測的速度提高許多,但是檢測的準確率略有遜色。同年,SSD方法結合了YOLO算法的回歸思想與Faster R-CNN中的多尺度特征提取方法[8],實現(xiàn)了檢測的精準性與實時性,然而對小目標的檢測結果依然不夠理想。航拍影像的獲取具有特殊性,存在目標尺度小、噪聲較多、背景龐雜等特性,因此無法將這些方法直接用于航拍目標檢測。

為解決以上問題,本文提出一種基于深度殘差網(wǎng)絡多特征融合的目標檢測模型。本文的主要工作是采用基于端到端的SSD網(wǎng)絡框架,引入深度殘差網(wǎng)絡(ResNet)為基礎網(wǎng)絡增強網(wǎng)絡的學習能力,緩解由網(wǎng)絡加深產(chǎn)生的梯度消失現(xiàn)象,并采用特征金字塔(FPN)結構實現(xiàn)底層特征與高層語義信息的融合;提高對航拍影像中小目標檢測的精準性與魯棒性。

1 基于深度卷積神經(jīng)網(wǎng)絡的航拍目標檢測算法

1.1 深度殘差網(wǎng)絡

ResNet是2015年何凱明等人提出的用于圖像分類識別的一種深度卷積神經(jīng)網(wǎng)絡[9],其網(wǎng)絡的核心是通過對前后卷積層之間添加了“跳躍連接”機制,如圖1所示。

圖1 殘差塊結構圖

x為殘差塊的輸入;H(x)為模塊的輸出。定義另一個殘差映射函數(shù)F(x)=H(x)-x,那么原始的映射函數(shù)為H(x)=F(x)+x,可以看作是主路徑上的F(x)與跳躍連接中的x之和,這種結構實現(xiàn)了恒等映射的學習,在網(wǎng)絡訓練中促進梯度的反向傳播,還可以訓練更深的CNN。

將殘差塊的輸入設為xl,網(wǎng)絡的輸出設為xl+1,得到結構的計算過程為式(1)、式(2)。

yl=h(xl)+F(xl,Wl)

(1)

xl+1=f(yl)

(2)

式(2)中,f為激活函數(shù),本文采用ReLU函數(shù)。如果h(xl)=xl和f(yl)=yl是恒等映射,那么表達可為式(3)。

xl+1=xl+F(xl,Wl)

(3)

通過網(wǎng)絡的層數(shù)增加,不斷增加殘差塊,最后得到的遞歸式為式(4)。

(4)

式中,L表示任意深的殘差塊。

而對于梯度的反向傳播,設損失函數(shù)為θ,那么可以得到式(5)。

(5)

1.2 特征融合

雖然深度殘差網(wǎng)絡加深了網(wǎng)絡對目標特征的學習,但是對底層特征圖的利用不充分,致使小目標的檢測結果不夠理想。本文將FPN的思想添加到檢測模型的網(wǎng)絡結構中,把低層特征的邊緣信息和高層特征的豐富語義信息通過橫向連接和top-down網(wǎng)絡融合起來,實現(xiàn)對各個尺度卷積層的特征信息的充分利用,提升航拍圖像中多尺度目標的檢測精度。

對ResNet網(wǎng)絡的conv2,conv3,conv4和conv5層中最后經(jīng)過激活函數(shù)的輸出用{C2,C3,C4,C5}表示,然后在C5上添加1×1的卷積生成特征圖P5,再將P5與經(jīng)過1×1卷積處理后的C4合并生成P4,同理依次生成P3,P2,最后對{P2,P3,P4}的特征圖附加3×3卷積生成最終的特征圖,如圖2所示。

圖2 特征融合網(wǎng)絡結構

采用特征圖金字塔網(wǎng)絡結構將淺層特征與深層特征進行融合,有效地解決了網(wǎng)絡較深時淺層小目標易丟失、無法獲取豐富的語義信息的問題。

1.3 本文目標檢測模型

本文提出的檢測模型的網(wǎng)絡結構,如圖3所示。

圖3 本文檢測模型的網(wǎng)絡結構圖

將原始的ResNet網(wǎng)絡去掉最后的全連接層和Softmax層后的網(wǎng)絡層作為本文檢測模型的基礎網(wǎng)絡,并將conv2,conv3,conv4特征融合后生成的特征圖與新增卷積層中conv6_2,conv7_2,conv8_2的特征圖一同進行預測。

對于每個特征層上的默認框本文采取不同的寬高比,由此提取多尺度的目標特征。每個默認框大小計算式為式(6)。

(6)

式中m表示特征圖的數(shù)量;Sk表示默認框的大小相對于整張圖片的比例;Smin和Smax表示比例的最小值和最大值,分別設為0.2和0.9,可計算得出每個默認框的尺寸,其寬高設置為式(7)。

(7)

式中,ar為長寬比,取值為ar∈{1,2,3,1/2,1/3},由此對每個特征圖設計5個不同尺寸的默認框用以提取目標。

生成特征圖后根據(jù)目標函數(shù)進行分類與定位,因此目標函數(shù)分成類別損失與位置損失兩部分,類別損失是計算生成的默認框與目標類別之間的誤差,為式(8)。

(8)

位置損失是計算預測框相對于真實物體邊界框的誤差,使用Smooth L1 loss進行計算,為式(9)。

(9)

式中,l代表預測框與默認框之間的變換關系;g代表真實物體邊界框與默認框之間的變換關系。最后的目標損失函數(shù)為置信損失Lconf(x,c)和位置損失Lloc(x,l,g)兩部分的加權和,其計算式為式(10)。

(10)

式中,N表示與真實物體邊界框對應的預測框的個數(shù);α表示用來決定類別損失和位置損失所占權重的參數(shù),一般取值為1[11]。最后使用非最大值抑制NMS過濾掉重疊度較大的預測框,最終剩余的預測框即為檢測結果。

2 實驗與結果分析

2.1 數(shù)據(jù)集制作與分析

本文實驗使用的圖像數(shù)據(jù)集是提取了DOTA[12]、UCAS_AOD、RSOD-Dataset等航拍數(shù)據(jù)集以及自己制作的航拍飛機檢測數(shù)據(jù)集,并通過鏡像、旋轉、添加噪聲、拼接等方式進行數(shù)據(jù)增廣,如圖4所示。

最終制作了6 525張航拍飛機圖像數(shù)據(jù)集,并對每張圖像中飛機標注的面積占整張圖像的比例進行了統(tǒng)計,如圖5所示。

圖4 數(shù)據(jù)增廣示例

圖5 目標面積占圖像面積的比例統(tǒng)計

本實驗的數(shù)據(jù)集中共計有29 914個飛機目標,其中占整張圖像面積小于5%的就有25 283個,說明該數(shù)據(jù)集中多數(shù)為小目標。

2.2 實驗環(huán)境與訓練

實驗環(huán)境及具體配置參數(shù),如表1所示。

在模型訓練的過程中,學習率初始設為0.03,采用隨機下降法進行優(yōu)化,處理批次為4,共迭代了3萬次,前15 000次中學習率為0.03,然后將學習率下調至0.000 1再訓練15 000次,最后模型在20 000次左右整體損失函數(shù)得到收斂的最佳效果,如圖6所示。

圖6 總體損失函數(shù)

2.3 實驗結果與對比

本實驗僅對飛機一類目標進行檢測,因此對模型檢測的結果使用平均準確率(mAP)與每秒處理圖像數(shù)量(FPS)作為評價標準,對基于VGG16網(wǎng)絡、ResNet50網(wǎng)絡的SSD算法和本文算法進行實驗對比,檢測結果如表2所示。

表2 三種檢測模型實驗結果對比

本文算法較基于VGG16的SSD算法對小目標檢測的準確率提升了6.7%。

不同算法對航拍視角下飛機檢測的結果如圖7所示。

由檢測結果圖可以看出,無論是在復雜背景還是密集區(qū)域中,本文算法都能較原始SSD算法檢測的效果更好。

(a) SSD算法

3 總結

本文針對傳統(tǒng)算法對航拍圖像中小目標檢測效果不理想的問題,通過引入深度殘差網(wǎng)絡加深網(wǎng)絡學習提升網(wǎng)絡訓練能力,并有效降低網(wǎng)絡冗余。同時本文針對基礎網(wǎng)絡中對底層邊緣信息利用不充分的問題,結合FPN網(wǎng)絡結構實現(xiàn)淺層特征圖與深層特征圖融合,充分利用多尺度卷積層的特征信息,增強了模型對小目標檢測的魯棒性。實驗結果表明,本文的航拍目標檢測算法可以愈加精確的檢測出圖像中的飛機目標,驗證了本算法的有效性。

猜你喜歡
特征檢測
抓住特征巧觀察
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 91年精品国产福利线观看久久| 91无码人妻精品一区| 欧美一级高清视频在线播放| 伊人久久大香线蕉成人综合网| 天天色天天综合网| 亚洲色无码专线精品观看| 国产亚洲高清在线精品99| 91精品国产福利| 国产欧美成人不卡视频| 国产麻豆精品久久一二三| 亚洲国产精品日韩欧美一区| 国产亚洲精品va在线| 福利一区在线| 蜜桃视频一区二区| 精品成人一区二区三区电影| 久久精品无码国产一区二区三区| 9966国产精品视频| 国内视频精品| 谁有在线观看日韩亚洲最新视频| 91午夜福利在线观看| 九色在线观看视频| 熟女日韩精品2区| 日韩亚洲综合在线| 国内精品伊人久久久久7777人| 福利在线一区| 91香蕉视频下载网站| 午夜电影在线观看国产1区| a天堂视频| 欧美激情一区二区三区成人| 亚洲无码熟妇人妻AV在线| 尤物午夜福利视频| 美女一级毛片无遮挡内谢| 国产精品无码AV中文| 亚洲人成影视在线观看| 三上悠亚精品二区在线观看| www精品久久| 亚洲国产综合精品中文第一| 中字无码av在线电影| 日本一本正道综合久久dvd| 久久国产乱子| 真实国产精品vr专区| 色妞www精品视频一级下载| 2021国产精品自产拍在线观看| 国产精品亚洲αv天堂无码| 2021国产精品自产拍在线观看| 国产成人做受免费视频| 欧美啪啪网| 日本亚洲成高清一区二区三区| 久久精品人人做人人综合试看| 六月婷婷激情综合| 99精品欧美一区| 亚洲日韩精品伊甸| 在线免费无码视频| 久久精品国产精品青草app| 91久久偷偷做嫩草影院电| 国产黄色片在线看| 精品国产美女福到在线不卡f| 中文字幕亚洲精品2页| 久热99这里只有精品视频6| 亚洲美女一区二区三区| 国产一级裸网站| 婷婷六月色| 九九热免费在线视频| 国产成人精品视频一区二区电影| 制服丝袜在线视频香蕉| 91区国产福利在线观看午夜 | 亚洲91在线精品| 凹凸精品免费精品视频| 广东一级毛片| 最新日本中文字幕| 久久精品无码国产一区二区三区| 青青草国产免费国产| 亚洲欧洲日韩国产综合在线二区| 国产靠逼视频| 成人毛片免费在线观看| 亚洲天堂在线视频| 99热这里只有精品国产99| 国产a网站| 麻豆国产原创视频在线播放| 婷婷色中文网| a毛片免费观看| 91小视频在线|