999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

多層級特征融合的無人機航拍圖像目標檢測

2023-03-10 00:10:44徐光達毛國君
計算機與生活 2023年3期
關鍵詞:特征融合檢測

徐光達,毛國君,2+

1.福建工程學院 計算機科學與數學學院,福州350118

2.福建工程學院 福建省大數據挖掘與應用重點實驗室,福州350118

近年來無人機技術發展迅速,無人機航拍圖像目標檢測被應用在多個領域,如城市交通[1]、精確農業[2]、環境勘測[3]等諸多實際場景。由于航拍圖像的目標檢測應用豐富,研究者們圍繞其展開了大量工作。此前工作集中在滑動窗口搜索[4]和手動特征提取[5]上,這通常需要大量的先驗知識和公式推導。隨著計算機視覺技術的快速發展,基于深度學習算法的目標檢測表現出更優異的性能,成為了主流技術被廣泛使用。

基于深度學習方法的目標檢測算法主要可分為兩類:(1)以R-CNN(region-based convolutional neural networks)[6]、Faster R-CNN(faster region-based convolutional neural networks)[7]等算法為代表的二階段目標檢測算法,此類算法在生成候選框的基礎上再回歸出目標區域,具有較高的檢測精度。(2)以YOLO(you only look once)[8]、SSD(single shot multibox detector)[9]等為代表的一階段目標檢測算法,它們直接對目標的位置和類別進行預測,具有更快的檢測速度。基于深度學習的目標檢測方法廣泛應用于各種實際場景[10-12],但是無人機通常被部署在大型場景中,這意味著在一幅圖像中有很多小而分布密集的物體,同時復雜多樣的背景信息也容易對待檢目標產生混淆,通用的目標檢測算法很難取得理想檢測效果。

無人機航拍圖像中的小目標只占據圖像的一小部分,直接從細粒度局部區域獲得的信息非常有限。利用圖像中的上下文信息可以建立小目標與其他目標或者背景的聯系,幫助網絡檢測推斷。文獻[13]提出了一個上下文感知模塊,該模塊將原始的特征分別接一個1×1 卷積的支路和3×3 卷積的支路從而為特征圖帶來不同的感受野,達到豐富語義信息的目的,在小尺寸人臉檢測上表現優異。徐堅等人[14]將可變形卷積嵌入骨干網絡,在不同感受野下提取多尺度特征信息,利用網絡的上下文信息提高無人機航拍小目標檢測的精度。

多尺度特征是一種提高小目標檢測率的有效方法。Faster R-CNN 和YOLO 等方法僅采用了單一尺度的特征圖,限制了特征信息的表達。為了加強網絡多尺度信息的表達,結合不同層級特征圖之間的特點,Lin 等人[15]提出了經典的特征金字塔(feature pyramid network,FPN),采用自上而下的體系結構和橫向連接,交互不同層級的特征信息。進一步的,路徑聚合網絡(path aggregation network,PAN)[16]在FPN的基礎上添加了額外的自下而上的連接以更高效地傳遞淺層信息到高層,從而減少信息流通時的消耗。

雖然上述結構能夠提升網絡多尺度表達的能力,但是在融合不同層級特征圖時直接通過元素加法進行操作,忽略了不同層級特征圖對小目標的貢獻。對于小物體而言,更需要淺層特征中的細粒度特征信息來辨別,平等融合深層特征可能會削弱淺層特征對小目標的學習能力。并且不同特征圖之間的細膩度不同,直接采用相加或通道維度拼接的方式進行融合,容易產生冗余信息和噪聲信息,影響上下文信息的獲取,干擾物體之間的關系表達。

為了獲得更充分的特征圖表示,利用不同層級特征圖聚合上下文信息,更好地檢測無人機航拍小目標樣本。本文提出了一種多層級特征融合的無人機航拍圖像檢測方法(small target-you only look once version 5,ST-YOLOv5)。本文的主要工作包括以下三點:(1)增加高分辨率的特征圖與原先的三個尺度特征圖一同在頸部網絡進行特征融合,并且額外增加了對應高分辨率特征圖的檢測頭用以對航拍圖像小尺度目標進行檢測。(2)結合無人機航拍圖像的特點,設計多層級特征融合層。通過對四個層級的特征圖進行融合,豐富特征圖的上下文信息,并自適應地學習生成每個層級的權重比例,根據檢測樣本的尺度合理分配不同層級特征圖貢獻,聚合有利于小目標樣本的特征信息。(3)在預測網絡中,用解耦檢測頭替換YOLOv5 的耦合檢測頭,一定程度上減緩了目標檢測定位任務和分類任務的沖突,加強對目標的定位能力。

1 YOLOv5 架構

YOLO 系列算法兼并檢測精度和檢測速度,是最為流行的目標檢測算法之一,目前已經推出至YOLOv5。YOLOv5 規模由小至大分為S、M、L、X 四種規格,其網絡結構都是一致的,不同的是其網絡寬度與網絡深度。對于無人機航拍圖像目標檢測任務,由于背景復雜、小目標樣本居多,需要一定深度的網絡提取特征信息。綜合檢測速度與精度的需求,本文選擇了規格為L 的YOLOv5 算法作為基線方法。

如圖1 所示,YOLOv5 算法由三部分構成,分別是主干網絡(Backbone)、頸部網絡(Neck)、頭部網絡(Head)。Backbone 即在不同圖像細粒度上聚合并形成圖像特征的卷積神經網絡。在YOLOv5 中,Backbone 對輸入圖像進行特征提取,并通過下采樣操作生成5 個不同層級的特征圖{C1,C2,C3,C4,C5}。為了預測不同尺度的目標,選擇{C3,C4,C5} 3 個尺度的特征圖作為頸部網絡的輸入。

圖1 YOLOv5 結構圖Fig.1 YOLOv5 structure

頸部網絡則是對來自主干網絡的3 個尺度的特征信息進行卷積、池化等操作,從而獲得更魯棒的特征表示。頸部網絡中采用了FPN 和PAN 結合的方式進行特征融合,即通過自上向下和自下而上兩條路徑融合深層與淺層特征圖,將淺層網絡的細節信息和深層網絡的語義信息有效結合,加強網絡對目標的多尺度預測能力。

頭部網絡由3 個檢測頭組成,負責對特征圖上的特征點進行判斷,判斷特征點是否有物體與其對應。{P3,P4,P5}三層特征圖輸入檢測頭后,通過1×1卷積調整通道維數為Na×(4+1+Nc),實現目標的定位與分類。其中,Na是預定義的錨框(anchor)的數量,Nc表示類別數量,4 表示對每個錨框需要預測的四維坐標信息(x,y,w,h),1 表示類別的置信度。

2 多層級特征融合的無人機目標檢測方法

ST-YOLOv5 算法的框架結構如圖2 所示,輸入圖像經過4 倍下采樣后得到特征圖C2。為了提取更充足的特征信息,將C2特征圖與{C3,C4,C5}一并進行特征融合,由于高分辨率的特征圖C2保留了更多關于小目標的細節信息,更有利于圖像中小目標的檢測。頸部網絡的多層級特征融合層旨在對{P2,P3,P4,P5}4 個層級的特征圖進行融合,豐富上下文信息,使用可學習的權重系數自適應加權融合不同層級的特征圖,根據檢測任務的需求分配不同層級特征圖的比例,更好地識別無人機航拍圖像目標。最終,多層特征融合生成4 個尺度的新特征圖{L2,L3,L4,L5}輸入解耦檢測頭預測目標。采用上述改進措施后,有益于深入挖掘無人機圖像目標檢測的關鍵特征信息,可提升YOLOv5 在無人機航拍圖像目標檢測效果。

圖2 ST-YOLOv5 算法框架結構圖Fig.2 Architecture of ST-YOLOv5 algorithm

2.1 小目標檢測層

YOLOv5 算法采取8 倍、16 倍、32 倍下采樣的特征圖分別預測小、中、大三種尺度的目標樣本。而航拍圖像中目標尺度更小,存在許多微小目標,在經過多次下采樣后,目標的特征信息過于稀少,原本3 個尺度的特征圖難以檢測此類極小目標。為了提高小目標的特征信息提取量,將特征圖C2輸入頸部網絡與其余3 個尺度特征圖進行特征融合。

如圖2 所示,{C1,C2,C3,C4,C5}是5 個尺度大小的特征圖,分別對應著{2,4,8,16,32}倍的下采樣倍數。特征圖C2與C3、C4、C5通過特征金字塔進行特征融合,C2的分辨率更高,保留更多關于小目標的特征信息,在特征信息傳遞的融合過程中提供更充足的目標信息,從而加強了網絡的學習能力。COCO(common objects in context)[17]把圖像中小于32×32 個像素點的物體定義為小目標物體,若輸入圖像大小為640×640 像素,{C1,C2,C3,C4,C5} 的大小分別對應為{320×320,160×160,80×80,40×40,20×20}像素,那么小目標在深層的特征圖中可能只保留有1 到2 個像素。因此,本文額外添加了一個適配于C2尺度大小的檢測頭,它在4 倍下采樣的特征圖上進行目標預測,能夠實現對極小尺度目標的檢測,從而提高對小目標的檢測能力。

考慮小目標檢測層的添加會帶來額外的計算開銷,本文對其進行了消融實驗。在增加C2參與特征融合后,由于只是添加該特征層并沒有額外增加過多的卷積層,網絡只增加了極少的參數量。而額外的檢測頭由于需要在4 倍下采樣的特征圖上進行目標預測,這為算法帶來一些額外的計算量。綜合來看,小目標檢測層能夠在只消耗少許的計算開銷的情況下,提升算法對小目標檢測的精確率。

2.2 多層級特征融合層

特征提取網絡中,淺層網絡生成的淺層特征圖具有更多的目標紋理特征,因此含有豐富的細節信息;而深層網絡生成的深層特征圖則通過更大的感受野,提取更豐富的語義信息。FPN 和PAN 結構的目的是為了傳遞不同層級的特征圖的特征信息,融合多尺度特征,提高對不同尺寸目標的感知能力從而提升目標檢測的精度。然而FPN 和PANet 將不同層級特征信息以平等關系跨層融合,忽略了不同特征層之間的關系。深層網絡特征含有的豐富語義信息適合檢測大目標,淺層網絡特征含有的豐富細節信息則更適合檢測小目標,因此不同層級特征圖對任務目標的貢獻是不同的。在無人機航拍圖像目標檢測任務中,小目標樣本所占的比重更大,簡單地融合深層特征圖信息會削弱淺層特征圖對小目標位置信息的感知。

針對以上問題,本節設計了多層級特征融合層(multi-level feature fusion layer,MFFL),為各尺度特征層賦予不同比例權重,自適應地調節淺層特征和深層特征的貢獻度,強化不同尺寸目標檢測時所需要的特征信息,有效利用了4 個不同尺度特征層的淺層和深層特征,進而豐富特征信息以指導無人機航拍圖像目標檢測工作。

如圖3 所示,MFFL 對4 個層級的特征圖進行融合重新生成新的特征圖,這里以P3經過多層級特征融合生成新特征圖L3的過程(L2、L4、L5的生成過程與L3相同)進行詳細說明。為了加權融合4 個層級的特征圖,需要將它們都統一成相同大小和相同通道數。將P4和P5進行上采樣調整分辨率,利用3×3 的卷積層調整通道數;對P2則進行下采樣,通過1×1 的卷積層調整通道數。將調整后的特征圖R1、R2、R3、R4進行通道維度上的整合,得到融合的特征圖R:

圖3 多層級特征融合層結構Fig.3 Architecture of multi-level feature fusion layer

由于不同特征圖之間的細粒度不同,融合后的特征圖可能會引入沖突信息和冗余信息,降低特征圖的表達能力。為了過濾噪聲信息,通過壓縮與激勵(squeeze and excitation)模塊計算特征圖R的通道注意力,強調相關信息的表達,減弱不相關信息的干擾。首先對輸入R∈RH×W×C進行全局平均池化得到每個通道的全局特征:

其中,Fsq(·)表示壓縮映射,ZC表示為特征圖R的第C個通道的全局特征空間。

隨后通過兩個全連接層W1和W2學習各個通道間的非線性關系,并使用Sigmoid 激活函數生成各個通道的權重s:

其中,Fex(·)表示激勵映射;σ(·)表示Sigmoid 函數;δ(·)表示ReLU 函數。將權重s與特征圖R進行相乘得到特征圖U,放大重要信息的響應,抑制無關信息的響應。激勵與壓縮模塊通過捕獲通道之間的相關性,挖掘輸入與輸出特征通道之間的遠距離依賴關系,減少冗余信息和沖突信息的干擾。

為了進一步捕捉特征圖的空間特征,通過1×1 的卷積壓縮通道維數提取空間位置信息,然后利用Softmax 函數將特征圖在空間上的權重歸一化,得到權重矩陣W∈R4×H×W:

最后沿著通道維度把權重矩陣分割為α、β、γ、λ∈R1×H×W,得到各個層級特征圖的重要性權重參數,各個層級特征圖與權重參數相乘得到融合后的新特征圖L3:

權重參數的產生來自不同層級特征的輸入,在模型訓練的過程中,通過網絡的梯度反向傳播不斷學習,自適應地調整以適應當前的任務。權重參數由特征學習的更新過程不斷優化,當輸入數據信息包含小目標實例居多時,權重參數就會為淺層特征圖賦予更高的權值,而深層特征圖則根據檢測任務的需要賦予較低的權重以指導特征學習,經過淺層特征和深層特征的合理分配實現無人機航拍圖像目標更精確的識別。MFFL 對輸入的特征圖{P2,P3,P4,P5}進行融合,從不同感受野的特征層中聚合了更多的上下文信息,并自適應加權融合各層級特征圖得到{L2,L3,L4,L5},充分挖掘了不同深度特征層的多維特征,可以更好地監督網絡的特征融合過程,使融合后的特征兼顧強大的語義信息和豐富的紋理細節信息。

圖4 展示了不同層注意力熱力圖對比分析,直觀展示如何融合多層特征以適應不同尺度的目標。如圖4 所示,對于小目標樣本,淺層特征P2、P3聚焦于目標的細節紋理,而深層特征P4、P5則更籠統地關注目標與周圍背景的抽象信息,顯然淺層特征能更好幫助定位小目標,因此L3以P2、P3的特征信息為主導精確定位目標,保留少量P4、P5的特征幫助減少冗余信息??偟膩碚f,不同尺寸的目標會改變MFFL 對各級特征的分配,使得其向有利于當前訓練樣本的方向傾斜。并且MFFL 在融合各級特征的過程中,獲得了在不同感受野上得到的多尺度信息,能夠更優地挖掘目標像素與周圍像素之間的聯系,這種物體與物體之間的關系即上下文信息有利于小目標的檢測。

圖4 不同層注意力熱力圖Fig.4 Heatmap of attention on different layers

無人機航拍圖像中,小目標檢測任務占據了主要地位。為了更直觀地說明MFFL 的作用,圖5 可視化了檢測小目標時C3、P3、L3特征圖的注意力熱力圖。其中C3表示只經過主干網絡提取的特征,P3表示C3經過特征金字塔FPN 和PAN 融合后的特征,L3表示P3經過多層級特征融合層的特征輸出。由圖5可知,C3特征可大致定位目標位置,但是對目標的響應較弱。P3相比C3,對目標的學習更加充分,使得其對物體的關注程度得到提升,但是由于特征金字塔融合的深層語義信息,也使得P3增添了目標周圍信息的干擾。而L3則在強化目標特征的同時,一定程度上抑制了其他特征的干擾。由可視化分析可知,多層級特征融合層通過多級特征聯合加強小目標的細節信息,減少干擾信息,提高判別性,以此提高小目標的檢測率。

圖5 注意力圖可視化Fig.5 Visualization of attention map

2.3 解耦檢測頭

YOLO 檢測頭通過卷積改變輸入特征圖的通道維數,使其包含邊框坐標、邊框置信度和對象類別數信息,完成對目標的定位和分類的回歸。由于分類與定位任務共享一個特征圖,邊界框回歸和對象檢測任務耦合的檢測頭可以稱作耦合檢測頭(coupled head)。

然而在目標檢測的定位和分類任務中,兩個任務所聚焦的地方不同:分類更加關注所提取的特征與已有類別哪一類最為相近,而定位更加關注與真實框的位置坐標從而進行邊界框參數修正。因此如果采取用同一個特征圖進行分類和定位,效果會不好,即所謂的失調的問題[18]。例如,特征圖上的一些突出區域具有豐富的分類信息,而其邊界周圍的信息則對邊界框的回歸更具優勢。也就是說,如果一個檢測器試圖從一個相同的空間點判斷分類分數和回歸結果,那么它往往對兩個任務的適配程度不能達到最佳。文獻[19]對全連通頭(fully connected head)和卷積頭(convolution-head)分別輸出特征圖,發現全連通頭比卷積頭具有更高的空間敏感性,全連通頭具有更多的能力來區分一個完整的對象和一個對象的一部分,但不能穩健地回歸整個對象。因此全連通頭更適合于分類任務,而卷積頭更適合定位任務。這些研究說明分類和定位所關注的內容并不一致。

無人機航拍圖像中大面積的復雜背景和多種類別目標的干擾,使得小目標的識別任務更具有挑戰性?;ハ嗾趽醯哪繕诵枰_的定位信息來確定各自的位置。為了提高航拍圖像小目標對定位和分類的敏感性,提高定位和分類的精確度,本文用解耦檢測頭(decoupled head)對目標進行預測,為定位與分類任務解耦出單獨的特征通道,用于邊界框坐標回歸和對象分類。

如圖6 所示,解耦檢測頭先對輸入特征圖使用1×1 卷積降低通道維數,以減少參數量的產生。然后特征圖輸出分為兩條支路:一條支路負責分類任務,通過兩個3×3 的卷積提取特征信息后,再使用1×1 的卷積將特征圖的通道維數調整至預測目標的類別數量,在該特征圖上完成分類任務;另一條支路負責定位任務,依舊先使用3×3 卷積層提取特征,不同的是,提取特征后將特征圖分為兩個,一個預測邊界框的中心坐標以及框的高度和寬度{x,y,w,h},另一個則獲取目標的置信度分數判斷該點真實目標框與預測框的交并比。相比耦合檢測頭直接將多種信息集成在一個特征圖,解耦檢測頭能夠有效避免不同任務需求不同特征信息的沖突,加強定位和分類的能力。

圖6 耦合檢測頭與解耦檢測頭的比較Fig.6 Comparison of coupled head and decoupled head

3 實驗與分析

3.1 數據集與實驗設置

為了驗證算法的有效性,本文在公開數據集VisDrone[20]上進行實驗。VisDrone 數據集是由天津大學機器學習與數據挖掘實驗室的AISKYEYE 團隊收集的無人機航拍圖像數據集。圖片由裝載相機的無人機捕獲,收集有不同場景、天氣、光照條件等多種情況下的航拍圖像,范圍覆蓋廣泛。數據集標注了行人、人、汽車、面包車、公共汽車、卡車、貨車、自行車、遮陽三輪車和三輪車10 類樣本,其中包括6 471 幅訓練集圖像、548 幅驗證集圖像以及3 190 幅測試集圖像,共計260 萬個目標實例樣本。

實驗的訓練在顯存為80 GB 的TeslaA100 服務器上進行,測試在配置為AMD Ryzen 5 5600X CPU、GeForce GTX3060Ti GPU 的計算機上進行。實驗軟件環境采用Windows10 操作系統,Pytorch 深度學習框架,python 3.8、torch 1.7.1、tqdm 4.63.0 等相關工具包。訓練參數設置:訓練輪次設置為100,批處理尺寸大小設置為16,初始學習率為0.001,采用Adam 優化器。

3.2 評價指標

為了更準確地評估算法的性能,選取平均精度(average precision,AP)和均值平均精度(mean average precision,mAP)作為評價指標。AP 能夠反映單個目標類別的檢測性能,mAP 能夠反映所有類別的綜合檢測性能。AP 由精確率(Precision)和召回率(Recall)計算得到,精確率和召回率由式(6)和式(7)計算得到:

其中,TP表示被預測為正例的正樣本,FP表示被預測為正例的負樣本,FN表示被預測為負例的正樣本。

選定一個交并比(intersection over union,IOU)閾值,以該IOU 閾值下的Recall 為橫軸,Precision 為縱軸繪制PR 曲線,對PR 曲線上的精度求均值可得到該類別AP:

對所有類別的AP 求均值即可計算mAP 值:

3.3 實驗結果

為了驗證ST-YOLOv5 算法的性能,本文選取了多種先進的無人機航拍圖像目標檢測算法進行對比分析。表1 給出了各個算法在IOU 閾值為0.50 和0.50:0.95 時的mAP。

表1 不同算法在VisDrone數據集上的mAP 對比Table 1 mAP comparison of different algorithms on VisDrone dataset 單位:%

(1)當IOU 閾值為0.50 時,ST-YOLOv5 的mAP相比DMNet、YOLOv3、Cascade R-CNN分別高出9.00個百分點、20.35個百分點、6.67個百分點。與CLSAN、QueryDet、ClusDet等算法相比取得了相近的檢測精度。

(2)當IOU 閾值為0.50:0.95 時,ST-YOLOv5 的mAP 達到35.50%,在對比的算法中取得了最佳,相比CLSAN、QueryDet、ClusDet 分別高出4.80 個百分點、1.59 個百分點、3.10 個百分點。

從實驗結果來看,ST-YOLOv5 在兩個IOU 下的mAP 都高于對比算法,并且在IOU=0.50:0.95 時,較其他算法提升較為明顯,證明本文方法具有更強的定位能力。綜合來看,ST-YOLOv5 與其他的先進算法相比展現出一定的優勢,較通用的目標檢測算法YOLOv3 和Cascade R-CNN 有明顯的提升,適用于無人機航拍圖像目標檢測任務。

3.4 消融實驗

為探究添加小目標檢測層對YOLOv5 算法檢測能力(mAP)產生的影響,以及小目標檢測層所帶來的額外計算開銷,本文分別設置兩組模型對照,一組為YOLOv5,二組為添加了小目標檢測層P2的YOLOv5,其余設置均與YOLOv5 模型相同。

實驗結果如表2 所示,YOLOv5+P2的對照組相比一組mAP 提升了1.60 個百分點,算法的參數量和浮點運算次數分別增加了0.9 MB 和20.8 GFLOPs。實驗證明,小目標檢測層的添加有效地增強了模型的小目標特征提取能力,在不過多增加額外參數量和計算量的情況下,一定程度上提升了網絡對航拍目標檢測的平均精度均值。

表2 添加小目標檢測層的消融實驗結果Table 2 Ablation experiment results of adding small target detection layer

多層級特征融合層將不同特征層進行自適應融合,使其有利于識別小目標物體的檢測。為探究不同融合系數對檢測性能(mAP)的影響,本文設置了多組模型對照。其中,α=β=γ=λ=0 表示基線方法,即不采用多層級特征融合層。α=β=γ=λ=0.25、α=β=γ=λ=0.50,α=β=γ=λ=0.75,α=β=γ=λ=1.00 表示各級特征以不同的固定系數進行相加融合。Aaptiveα,β,γ,λ表示自適應的各級特征融合系數。實驗結果如表3 所示。

表3 不同融合系數的實驗結果Table 3 Experiment results of different fusion coefficients

α=β=γ=λ=0 時表示采用YOLOv5 原本的結構,各級特征不參與融合。而設定固定參數為0.25、0.50、0.75 和1.00 時,從表3 可知4 組固定參數都取得了低于基線方法的精度,這意味著不同特征沒有考慮訓練樣本的尺度大小,平等融合多層特征反而對已獲得的特征信息造成了沖突,減弱了對小目標樣本的學習能力。當采用自適應的α、β、γ、λ時,融合參數由訓練樣本中所需要的層級特征進行合理分配,從大量的多尺度信息中提取有利于當前任務的特征信息,從而提高了檢測精度。

最后,為驗證小目標檢測層、多層級特征融合層以及解耦檢測頭的有效性,本文設置了多組消融實驗進行探究。表4 給出各組實驗10 類目標的AP 值與mAP 值(IOU=0.50:0.95)。其中+P2表示在基線方法上添加小目標檢測層,+MFFL 表示添加多層級特征融合層,+DH 表示添加解耦檢測頭。

從表4 中的實驗結果可以看出,將小目標檢測層加入特征融合和預測后,各個類別的精度都有一定提升,這是因為小目標檢測層的高分辨率保留了更多的特征信息,一定程度上提升算法對每一類的檢測精度。MFFL 通過訓練的過程不斷優化各層級特征的融合權重,同時其獲取的多尺度特征信息也幫助定位和分類小目標,mAP 提高了1.6 個百分點。解耦檢測頭在一定程度上緩解了定位任務和分類任務的沖突,在有無添加小目標檢測層的情況下都提升了mAP。最后,集成三方面改進的ST-YOLOv5 方法較基線方法YOLOv5 的mAP 提升4.4 個百分點,達到最優的檢測精度。

表4 消融實驗結果Table 4 Ablation experiment results 單位:%

3.5 檢測效果分析

為了驗證ST-YOLOv5 算法在實際場景中的檢測效果,選取VisDrone 測試集中多個復雜場景下的無人機航拍圖像進行測試。檢測結果如圖7 所示,在白天與黑夜場景中,對于分布密集的小目標,例如汽車、行人等目標樣本,可以精確回歸每個目標的確切位置;在背景復雜的情況下,該方法能夠排除例如樹木、建筑等干擾物體的影響,正確地分類和定位目標。總的來說,本文方法在不同光照條件、背景、分布狀況的實際場景中均展現出較好的檢測效果,可以滿足無人機航拍圖像目標檢測任務的需求。

圖7 不同場景檢測效果Fig.7 Detection effects in different scenarios

為了進一步評估本文方法的性能,研究其特殊場景下的檢測能力,選取了分布密集、復雜背景、極小目標和黑暗背景情況下的無人機航拍圖像對YOLOv5 和本文方法進行測試,圖8 給出對比結果。

對比圖8(a),在分布密集的情況下,YOLOv5 錯將摩托車識別為自行車,且存在大量目標漏檢的情況,而ST-YOLOv5 則能精確地進行識別。對比圖8(b),在復雜背景下,ST-YOLOv5 依舊識別出邊緣的行人,而YOLOv5 則因為復雜的背景信息干擾了對目標的正確檢測。對比圖8(c),對于極小目標,STYOLOv5 特征學習更為充分,相比YOLOv5 沒有產生漏檢的情況。對比圖8(d),夜間低照度影響了YOLOv5 對檢測目標的判斷,誤將兩輛摩托車識別為汽車。

圖8 檢測效果對比Fig.8 Comparison of detection effects

從對比情況來看,ST-YOLOv5 通過多層級特征的融合獲取更充分的小目標特征信息,并從大量的多尺度信息中提取有利于目標定位分類的信息,相比YOLOv5 減少了漏檢、誤報的情況,對處于復雜背景的無人機圖像小目標具備更強的辨識能力。

4 結論

本文提出一種多層級特征融合的無人機航拍圖像目標檢測算法ST-YOLOv5,旨在充分利用不同層級特征的多尺度信息,使其適用于航拍圖像中小目標的檢測。改進的算法使用更高分辨率的特征圖參與特征融合,提取更充足的特征信息。針對無人機航拍圖像小目標實例多的特點,提出了多層級特征融合層MFFL,融合不同特征層級聚合上下文信息,并且通過自適應學習動態調節各輸入特征層的權重,合理分配檢測任務所需求的特征信息比例,有效改善對小目標的細節感知能力。為了在無人機圖像復雜背景中精準定位目標,使用解耦檢測頭代替耦合檢測頭緩和分類任務和定位任務的沖突。從實驗結果來看,ST-YOLOv5 對不同航拍場景下的不同類別目標均有較好的檢測效果,改進后的算法與多種先進算法相比取得了最優的檢測精度,顯著提升了基線方法YOLOv5對無人機航拍小目標的檢測能力。

猜你喜歡
特征融合檢測
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 欧美色视频在线| 国产女同自拍视频| 亚洲av无码人妻| 亚洲AV无码乱码在线观看代蜜桃 | 久久综合久久鬼| 国产美女丝袜高潮| 波多野结衣的av一区二区三区| 亚洲av无码成人专区| 国产成人调教在线视频| 永久免费AⅤ无码网站在线观看| 欧美亚洲国产精品久久蜜芽| 专干老肥熟女视频网站| 亚洲精品无码av中文字幕| 人妻丰满熟妇av五码区| 高潮毛片无遮挡高清视频播放| 91精品专区| 特级aaaaaaaaa毛片免费视频| 免费不卡视频| 人妻无码一区二区视频| 久久综合色88| 日韩国产亚洲一区二区在线观看| 色偷偷av男人的天堂不卡| 国产精品3p视频| 欧美成人午夜视频| 亚洲一区二区三区麻豆| 天堂久久久久久中文字幕| 麻豆精品在线视频| 永久免费av网站可以直接看的| 亚洲一区二区在线无码| 伊在人亚洲香蕉精品播放| 亚洲有无码中文网| 国产91熟女高潮一区二区| 综合社区亚洲熟妇p| 亚洲码一区二区三区| 91欧美在线| 久久激情影院| 国产va在线观看| 国产a在视频线精品视频下载| 手机精品视频在线观看免费| 国产成人精品高清在线| 久久精品中文字幕免费| 久久综合伊人 六十路| 精品乱码久久久久久久| 在线欧美日韩| 国产一区二区三区夜色| 制服丝袜一区| 亚洲人成网站日本片| 毛片免费在线视频| 一级黄色网站在线免费看| 特级欧美视频aaaaaa| 精品人妻无码区在线视频| vvvv98国产成人综合青青| 欧美激情福利| 欧美国产菊爆免费观看 | 九色视频线上播放| 在线永久免费观看的毛片| 在线观看亚洲国产| 亚洲男人的天堂在线观看| 超碰免费91| 91精品视频网站| 1769国产精品免费视频| www.亚洲色图.com| 青青国产视频| 婷婷六月综合网| 久久夜色撩人精品国产| 国产精品久久自在自线观看| 国产欧美精品一区二区| 亚洲黄色片免费看| 欧美日韩综合网| 国产精品免费p区| 国产精品免费露脸视频| 亚洲av片在线免费观看| 国产99在线观看| 成·人免费午夜无码视频在线观看 | 国产主播在线一区| 国精品91人妻无码一区二区三区| 亚洲成a人片在线观看88| 国产精品人成在线播放| 亚洲开心婷婷中文字幕| 国产精品无码一区二区桃花视频| 一级看片免费视频| 亚洲乱码视频|