999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于目標感知增強的無人機航拍目標檢測

2022-07-21 04:12:18王鼎山賈世杰
計算機工程與設計 2022年7期
關鍵詞:特征檢測信息

王鼎山,賈世杰

(大連交通大學 電氣信息工程學院,遼寧 大連 116028)

0 引 言

智能無人機近幾年在能源巡檢[1]、海上救援[2]、交通監管[3]等領域內獲得了越來越廣泛的應用,而目標檢測是實現無人機智能感知的關鍵技術之一,憑借著深度學習的優勢,當前目標檢測發展日漸成熟,并建立了以Faster R-CNN[4]、R-FCN[5]、Cascade R-CNN[6]等為代表算法的兩階段檢測框架和以SSD[7,8]系列、YOLO[9-12]系列、RetinaNet[13]等算法為主的單階段檢測框架,在常規圖像數據集上,此類檢測算法取得了巨大的成功。然而,在航拍圖像中由于目標物體尺寸偏小、特征不明顯和分布不均勻的特性,使得這些通用目標檢測器無法充分發揮其潛能,導致航拍圖像中的目標檢測效果并不理想。

為了使目標檢測在無人機航拍圖像處理中獲得良好的性能,眾多研究者提出了不同的方法和策略來彌補檢測器的不足。Liang X等[14]提出的FS-SSD改進算法,從多類目標之間的相互作用考慮來進行空間上下文分析,充分利用了目標特征的鄰域信息,彌補了SSD在小目標檢測上存在的不足,但該方法依賴于相關權衡參數和距離閾值的設置,不利于模型的自適應學習。高楊等[15]運用多層特征融合的方式對Faster R-CNN進行了改進,提升了小目標的檢測精度,但是各層特征的融合并不總是有效,有時一些背景噪聲的干擾會影響特征圖的激活。Zhang X等[16]基于Cascade R-CNN級聯檢測的思想,提出一種多模型融合的航拍目標檢測器DSOD,有效提升了密集小目標的檢測性能。

上述檢測算法從不同的角度考慮,給出了針對航拍圖像目標檢測效果不佳的相應解決方案,但是很少通過優化預測階段的特征來進一步提高檢測器的性能。在特征預測階段,檢測頭部作為最終結果的輸出端,尤其對小目標特征的推理預測影響著整體模型的魯棒性。因此,本文以YOLOv4為基線模型提出了一種具有目標感知增強的航拍檢測算法。其中,YOLOv4對網絡的梯度信息和目標定位信息進行了優化,并探究了與多種實用檢測策略的最優組合,有效地實現了檢測器速度與精度之間的最佳平衡。鑒于此,本文首先對其主干網絡引入了注意力機制,以在基礎特征之上構建更有效的特征分量,從而提升目標在各層級的表征效果。其次借助上下文信息的優勢,將特征金字塔結構中的多尺度信息進行上下文匯總和篩選,從而細化中間特征。最后在特征預測階段,通過復用原始檢測信息和跨階段聚合主干網絡特征,重構了檢測頭子網絡,以增強模型對目標的定位感知能力。最終在相應數據集上的評估,驗證了本文所提方法在無人機航拍目標檢測任務上的有效性。

1 網絡結構與算法原理

如圖1所示為網絡模型的框架,主要包括3部分,第一部分為BCA-CSPDarknet53特征提取網絡,是在主干網絡的各中間層融合瓶頸連接注意力(bottleneck connection attention,BCA)來引導其特征輸出,以有效和自適應地處理每個階段之間特征區域的變化,形成分層映射的表征空間。第二部分是上下文細化模塊(context refinement module,CRM),通過聚合上下文信息并對其篩選細化,以充分利用有效的目標上下文來提高檢測小目標的性能。第三部分是針對預測端的目標感知增強檢測頭(object-aware enhancement head,OAE-Head),這一改進旨在突出主動響應目標位置特征,同時抑制背景信息。

圖1 網絡模型框架

1.1 BCA-CSPDarknet53特征提取網絡

BCA-CSPDarknet特征提取網絡的組成如圖2所示。本文在YOLOv4主干網絡中的每個CSPDarknet結構層添加了BCA模塊(如圖2右側所示),該模塊的設計結合了ECA[17]網絡,本文進而對該注意力網絡進行了級聯交互,以實現對中間特征的深度注意力編碼,通過短連接的方式來增強注意力特征之間的信息流通,充分利用注意力機制的優勢。

圖2 BCA-CSPDarknet結構

具體來說,假設輸入張量為X∈C×H×W, 經逐通道全局平均池化(global average pooling,GAP)操作可表示為

(1)

式中:H,W分別為特征圖X的高和寬,G表示1×1×C的全局信息表征圖。然后,采用一維卷積對G進行自適應通道映射變換,捕獲跨通道信息交互的相關性,以確定每個通道特征圖的權重,該操作可描述

V=σ(Fk(G))

(2)

式中: Fk(·) 表示卷積核大小k的一維卷積操作,σ為Sigmoid函數,V是生成的各通道權重激活值,其中k的取值由輸入特征圖的通道數自適應確定。公式如下

(3)

式中:γ和b是超參數,默認取值為2和1, |·|odd表示取最鄰近的奇數值。在得到各通道的權重分布后,與原始輸入特征進行信息交互,即

X′=V?X

(4)

式中:X′為第一注意力圖,?表示元素對應相乘。

在short skip的前饋過程中,將之前的注意力權重V和后一模塊中的全局信息表征G′合并,再經過一維卷積進行特征變換和激活映射,確保從先前的注意力信息中繼續學習,避免其特征在每一步學習中產生較大的變化。隨后,與第一注意力圖相乘融合。此過程可表示為

X″=σ(Fk(V⊕G′))?X′

(5)

式中:X″為第二注意力圖,⊕表示元素對應相加。

最終堆疊BCA-CSPDarknet作為特征提取網絡,對每個階段目標信息的選擇和表征過程進行分層注意力映射,形成不同感知層次上相對準確且有效的視覺空間表征,以挖掘不同大小目標最有用的信息。

1.2 上下文細化模塊

CRM由信息聚合塊(information aggregation block,IAB)和信息校準塊(information calibration block,ICB)組成,如圖3所示。

圖3 CRM結構

許多研究結果表明上下文信息對小目的推理識別具有積極作用,故IAB將不同尺度下隱含語義信息的特征圖,映射到共同的抽象空間進行合并,得到局部和全局上下文信息。將C3和C5特征圖分別進行平均池化下采樣和插值上采樣操作,使其與C4特征圖的尺度大小和空間維數相等,之后對統一映射的特征圖進行簡單的平均,即

(6)

式中:Ci表示第i層特征,L表示多尺度特征層數,fFA為聚合后的輸出特征。

由于上下文信息并不總是對網絡模型有用,需要對其進行篩選才能有效地利用[18]。因此,ICB負責對上下文信息進行細化處理,它能夠為每個空間位置的鄰域信息建立空間和通道間依賴關系,避免上下文當中無效信息的干擾,從而生成更具鑒別性的特征。該結構有兩個并行分支,其中一支路徑保留原始空間信息,另一支用于壓縮全局信息以形成潛在的低維空間,其過程可描述為

(7)

式中: F1(·) 表示在原始尺度空間下對特征的卷積操作,所對應特征映射與輸入共享相同的分辨率; D(·) 為平均池化操作,對fFA進行低維空間映射, F2(·) 為小尺度空間下的卷積操作,進而通過雙線性插值上采樣U(·) 將低維表征映射至原始特征空間。

最后以f2作為參考特征信息,來指導原始特征空間內的特征變換過程,即

fSC=F3(f2?f1)+(f2?f1)

(8)

式中: F3(·) 為過渡卷積操作,fSC為生成的校準特征。

1.3 目標感知增強模塊

航拍目標檢測中,小目標的感知識別往往很容易受到復雜背景的影響,而用于預測階段的特征圖可能仍存在背景干擾信息,而導致最終檢測結果是次優的。為此,本文設計了OAE-Head檢測頭子網路,如圖4所示。

圖4 OAE-Head結構

該結構基于原始檢測頭部的輸出信息和主干網絡各階段的特征信息,通過一組非對稱卷積核與共享權重的原始檢測頭部卷積核來進一步優化預測過程中的信息輸出。此過程復用了原始預測中的啟發式信息,對推理預測階段的開環特征計算更新為閉環特征優化,以此來增強正確激活的特征區域,同時抑制背景信息[19]。

原始輸出支路上的推理實現過程為

yi=Wi*xi

(9)

式中:xi和yi分別表示第i層原始輸出分支的特征映射和輸出,Wi為對應檢測頭部的卷積濾波器,*表示卷積操作。

引入非對稱卷積后的OEM因其包含不同形式的卷積操作,在一定程度上能夠產生差異化的梯度,得到更細粒度的特征表示。此過程可描述為

(10)

式中:Wkm表示非對稱卷積濾波器,m=1,2,3時分別對應3×3,1×3和3×1的卷積核大小, ReLU(·) 為Leaky ReLU激活函數,x′i為該過程輸出的特征映射,并將其與xj結合,由共享卷積核輸出最終的預測信息

y′i=Wi*(x′i+xj)

(11)

式中:xj為對應主干網絡的各階段特征,y′i為第i層預測分支的最終輸出。

通過應用這種反饋策略與聚合方式可以達到去噪和優化高級語義信息的目的,確保了對應尺度空間表征下目標相對位置的敏感性,加強了多尺度預測支路上的細節信息傳遞,提高了解的性能,從而獲得更準確的預測結果。

2 實驗及結果分析

本文使用公共的航拍圖像數據集VisDrone[20]進行實驗評估。此數據集由無人機從14個不同的城市拍攝采集,涵蓋了各類視角、多種尺度和不同密度下的目標對象,共有圖像10 209張,其中訓練集、驗證集和測試集分別有6471、548、3190張,標記的類別包括行人、車輛、自行車等10類常見目標。按照COCO數據集將面積小于32×32的物體定義為小目標的依據,VisDrone數據集中包含的小目標占比高達約60%[20],為有效實現檢測任務帶來極大的挑戰。

實驗平臺采用的操作系統是內存大小為16 GB的Ubuntu16.04,處理器為i7-7800X,GPU型號為NVIDIA RTX2060 8 GB顯卡,使用CUDA10.2加速庫及Pytorch-1.6.0深度學習框架。實驗設定訓練圖像的大小為608×608,采用Mosaic和CutMix數據增強方式,并進行了label smoothing標簽正則化操作。優化器選擇SGD和Adam進行參數更新,初始學習率為1×10-4,學習率衰減方式為余弦退火算法,衰減下限為1×10-6,訓練批次大小為16,迭代150個epoch。

2.1 對比實驗

在VisDrone數據集上,采用COCO數據集的評價指標對所提方法與其它主流目標檢測算法和相關航拍目標檢測算法進行了對比實驗。從表1可知,本文算法的檢測精度較其它算法有顯著提升,AP值達到了26.26%,比原始YOLOv4算法提升了4.24%的精度,其中小目標的精度漲點約2%,其主要原因是本文利用上下文信息和原始預測信息優化了深層特征,一方面將用于推理小目標特征的上下文信息進行聚合并細化,另一方面在多尺度預測端優化輸出信息,從而提高了小目標的檢測精度。

表1 VisDrone測試集上不同算法的檢測結果對比/%

表2為VisDrone數據集上每個目標類別的AP。從中可知,在10類目標對象中,原始YOLOv4在無人機航拍圖像上的總體檢測性能要優于其它算法,而且在眾多類別中,例如“tricycle”、“awning”等尺寸較小,且占比也較少的一些目標,其檢測精度相比DSOD都有一定的提升。而本文算法,對比原始YOLOv4則進一步提升了此類較難檢測目標的精度。

相對于“car”、“van”、“bus”這些占比較高且尺寸略大的目標,檢測精度則有約3%~5%的提升。這反映了本文基于YOLOv4的改進算法對增強各類目標對象的表征效果具有明顯的優勢,從而提高了無人機航拍目標檢測的精度。

圖5展示了YOLOv4與本文算法在不同航拍場景下的檢測效果對比圖。從中可以觀察到,YOLOv4對離視點較遠的物體檢測效果差,存在很多漏檢目標,相比本文算法則能較好地檢測出其中的特定物體類別,即使在暗夜場景下也能有效地檢測出混淆在背景中的大部分目標,但對于重疊遮擋較為嚴重或尺寸極小的物體,仍存在一定的檢測難度。總體而言,本文算法能夠顯著提升無人機航拍圖像中小目標的檢測效果,且對不同視點和場景變化的泛化能力較強。

表2 VisDrone測試集上各類別檢測結果對比/%

圖5 不同航拍場景下的檢測效果對比

2.2 消融實驗

該實驗是對本文網絡架構中新設計模塊的進一步分析,以驗證其有效性和評估在不同模塊組合下對算法性能的影響,見表3。從中可以觀察到,在原始網絡中添加BCA模塊后,相比YOLOv4算法,雖然AP75降低了0.33%,但整體的AP值提升了0.49%,且算法推理時間幾乎沒有增加,說明本文設計的注意力模塊輕量且對算法性能提升影響顯著。在只加入CRM后,AP值達到了22.65%,與添加BCA時相比又有0.14%的增長,但該模塊中的聚合操作增加了模型運算量,使得FPS有所下降。而引入OEM后,網絡的檢測精度提升最明顯,相比原始算法從22.02%提升到了24.63%,這也反映了OAE-Head檢測頭部對多層級特征信息的閉環優化,更有利于增強網絡模型對目標的感知效果。另外,將3個模塊同時集成到原始框架中,AP最終可以達到26.26%,檢測速度減少了6.6 FPS。總體來說,本文所提方法在無人機航拍圖像中的目標檢測性能具有明顯增益。

表3 不同模塊的消融對比結果

3 結束語

本文基于YOLOv4提出了一種改進方法來解決無人機航拍目標檢測中小目標識別差的問題。利用注意力機制的優點首先對特征提取網絡進行改進,以分層引導的方式來實現對階段級特征的精煉;設計CRM對特征金字塔輸出的多尺度特征進行聚合細化,從而平衡語義差異性并強化目標的特征表示;在預測層引入OAE重新利用了對更高階特征優化后的映射,可有效提升對小目標的定位感知能力。從實驗結果可以觀察到,所提方法針對不同場景的航拍圖像具有一定的魯棒性和顯著的檢測優勢。之后,本文將針對模型規模進行壓縮量化工作,以實現更高效準確的航拍目標檢測性能。

猜你喜歡
特征檢測信息
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
小波變換在PCB缺陷檢測中的應用
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 成年午夜精品久久精品| 青青青国产视频手机| 亚洲欧美极品| 在线高清亚洲精品二区| 中文国产成人久久精品小说| 波多野结衣中文字幕一区二区| 国产微拍一区| 国产内射一区亚洲| 热久久这里是精品6免费观看| 欧美a在线看| 狠狠亚洲五月天| 国产视频一二三区| 乱系列中文字幕在线视频 | 国产精品女在线观看| 亚洲国产av无码综合原创国产| 欧美一道本| V一区无码内射国产| 国产精品三级专区| 美女视频黄又黄又免费高清| 色一情一乱一伦一区二区三区小说| 91精品国产情侣高潮露脸| 亚洲午夜福利精品无码| 亚洲欧美日本国产专区一区| 欧美啪啪网| 福利国产微拍广场一区视频在线| 亚洲欧美在线精品一区二区| 欧洲欧美人成免费全部视频| 国产男女免费视频| 国产一区成人| 伊人久久精品亚洲午夜| 日本午夜三级| 国产成人亚洲无码淙合青草| 91精品专区国产盗摄| 黄色在线网| 国产色图在线观看| 国产丝袜啪啪| 欧美一区二区三区欧美日韩亚洲 | 久久综合成人| 亚洲视屏在线观看| 亚洲无码精彩视频在线观看| 中文字幕中文字字幕码一二区| 巨熟乳波霸若妻中文观看免费| 香蕉蕉亚亚洲aav综合| 女人毛片a级大学毛片免费| 国产极品美女在线观看| 国产免费观看av大片的网站| 国产精品毛片一区视频播| 91精品国产91久久久久久三级| 日韩精品欧美国产在线| 欧美在线视频不卡第一页| 麻豆AV网站免费进入| 国产女人18水真多毛片18精品| 一级爱做片免费观看久久| 国产精品19p| 日本高清视频在线www色| 日韩亚洲综合在线| 久久精品亚洲热综合一区二区| 狠狠做深爱婷婷综合一区| 亚洲欧美极品| 日韩福利视频导航| 亚洲精品视频免费看| 成人国产精品网站在线看| 69国产精品视频免费| 午夜不卡视频| 久久这里只精品国产99热8| 日韩视频免费| 日本三级欧美三级| 亚洲第一黄色网址| 久久国产乱子| 99热免费在线| 就去色综合| 久久久久久午夜精品| 国产高清在线丝袜精品一区| 重口调教一区二区视频| V一区无码内射国产| 视频二区欧美| 免费观看亚洲人成网站| 成人无码一区二区三区视频在线观看 | 亚洲男人天堂网址| 国产精品第| 亚洲欧美日韩另类| 一级爱做片免费观看久久|