999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多尺度深度學習的自適應航拍目標檢測

2022-07-04 07:19:22劉芳韓笑
航空學報 2022年5期
關鍵詞:特征檢測信息

劉芳,韓笑

北京工業大學 信息學部,北京 100124

近年來,無人駕駛飛行器(Unmanned Aerial Vehicles,UAV)逐漸由軍事應用轉變為工業應用,應用在目標跟蹤、搜索和救援、智能停車、航空攝影和基礎設施檢查等方面,受到廣泛關注。無人機具有視角寬、拍攝范圍廣、靈活性高等優點,可以從不同位置和角度采集數據信息。對無人機視頻圖像進行目標檢測是無人機應用中常見的任務,由于無人機拍攝視角和高度等原因,無人機圖像中的目標存在尺寸較小、尺度多變等問題,導致目前的檢測算法效果不理想。因此,研究快速準確的無人機圖像目標檢測方法是無人機視覺領域的熱點問題。

隨著人工智能和深度學習的興起與發展,許多研究人員將卷積神經網絡(Convolution Neural Network,CNNs)應用到目標檢測領域中,取得了顯著的成果。但是相比于其他自然場景圖像,無人機圖像包含的眾多密集小目標,不利于卷積神經網絡提取特征。文獻[3]將SSD(Single Shot MultiBox Detector)用于無人機圖像檢測行人和車輛,針對網絡模型過大、參數過多等問題,通過消減通道數、構建輕量感受野模塊,有效降低了參數量,但是對小目標的檢測效果不理想;文獻[4]提出了一種改進的Faster-RCNN網絡,提出ResNet-58作為骨干網,同時引入區域數目調節層,能在訓練中調整RPN (Region Proposal Networks)網絡中的候選區的數量,有效提升了檢測效果,但是候選區域生成網絡會產生較大開銷,降低了實時性;文獻[5]在Faster-RCNN的基礎上,添加了K-Means聚類方法,生成適應數據集的預設錨框,增強了網絡的魯棒性,但是該網絡主干網采用VGG-16,導致深層語義特征提取不明顯,不適用于多尺度目標檢測;文獻[6] 提出一種基于YOLOv2的多尺度目標檢測網絡,提取不同尺度的特征進行融合,解決了淺層語義特征不足的問題,但是對弱小目標和被遮擋目標檢測效果不佳。綜上所述,當前目標檢測算法往往無法準確高效完成無人機圖像的目標檢測。

針對上述問題,在不損失檢測實時性的情況下,為了提升無人機圖像中目標檢測準確率,提出一種基于多尺度深度學習的自適應航拍目標檢測算法。首先,為了提高對無人機圖像中多尺度特征的表征能力,采用多尺度卷積(Mutil-Scale Convolution,MSConv)對標準卷積進行優化,構建自適應特征提取網絡MSDarkNet-53,針對不同尺度的目標采用不同類型的卷積核提取特征。其次,在卷積模塊之間引入注意力卷積模塊(Convolutional Block Attention Module,CBAM),在空間和通道維度學習特征的權重分布,增強有效特征,抑制無效特征。最后,在預測網絡部分對不同尺度特征圖進行上采樣,融合成高分辨率特征圖,在單一尺度的高分辨率特征圖上預測目標位置和類別信息,增強對小目標的預測能力。

1 算法介紹

在保證檢測效率的情況下,針對航拍圖像中的目標尺寸小、尺度變化大的問題,提出一種基于多尺度深度學習的自適應無人機航拍目標檢測算法。算法的總體模型如圖1所示。所提算法主要分為2部分,第1部分為自適應特征提取網絡(MSDarkNet-53),用于提取無人機圖像中目標特征,該網絡將金字塔特征融合策略引入到卷積過程中,使用不同類型卷積核提取不同尺度目標特征,增強感受野,同時在卷積模塊中添加注意力模塊,自適應優化權重,提升網絡表征能力。第2部分為預測網絡部分,用于預測特征圖中目標的類別和位置,首先將特征提取網絡產生的多層特征映射通過1×1卷積固定到特定維度并進行上采樣,然后完成多尺度特征融合得到高分辨率特征圖,融合目標細節信息和語義信息,最后在單一尺度上進行目標檢測,提升對小目標的檢測能力。其中上采樣過程采用階梯插值方法,使融合后高分辨率特征圖更加平滑。

圖1 算法總體網絡結構圖Fig.1 Overall network structure of algorithm

1.1 自適應特征提取網絡

感受野是卷積神經網絡每一層輸出的特征圖上的像素點在輸入圖片上映射的區域大小,類似于人類的視覺系統。對于大尺寸目標,較大感受野能更完整地提取特征信息;對于小目標,較小感受野能獲取更多細節信息。標準卷積運算只通過一步操作,將輸入特征圖進行卷積得到輸出特征圖,如圖2所示。采用固定類型的卷積核對整幅特征圖進行運算,感受野映射區域有限,但是無人機圖像中往往包含多種尺度的目標,距離較近的目標尺寸較大,距離較遠的目標尺寸較小,固定尺寸的卷積核對于多尺度目標的特征表達能力有限,無法針對不同尺度目標進行有效的特征提取,導致提取的特征不夠完整或者提取到的特征包含過多的背景信息。

圖2 標準卷積Fig.2 Standard convolution

為了解決上述問題,本文參考了GoogLeNet中Incepetion模塊的思路,引入多尺度深度學習方式,采用多尺度卷積替換傳統卷積,在卷積過程中,對不同尺度的特征采用不同類型的卷積核進行特征提取,增強網絡的表征能力。如圖3所示,多尺度卷積(MSConv)是包含一個由層不同類型卷積核構成的多尺度卷積模型。MSConv的主要任務是在不增加計算復雜度參數量的前提下,采用多尺度卷積核對輸入特征進行處理。MSConv由多層不同尺度的卷積核分別進行卷積操作,每一層的卷積核尺寸和深度不同,一方面卷積核大小在增加,另一方面卷積核深度(連通性)在減少。因此,這種多尺度的卷積結構能針對輸入特征圖中不同目標的大小選擇不同類型的卷積核進行特征提取,增強網絡的特征提取能力,提取到更完整、更有效的特征信息。

圖3 多尺度卷積Fig.3 Multi-scale convolution

對于標準卷積,設輸入特征圖維度為××,卷積核尺寸為×,卷積核輸入特征通道數,則執行個相同尺寸與深度的卷積核得到個×的輸出特征圖,即輸出特征圖維度為××。所以,經過一次標準卷積的參數量和計算復雜度分別為

Parameters=××

(1)

FLOPs=×××(×)

(2)

(3)

需要注意的是,由于卷積神經網絡中卷積核尺寸一般為奇數且不會過大,如3×3或5×5等,為了便于計算和分組,對式(3)中分母部分計算值進行取整操作,若取整后為奇數,則對其減1化為偶數。

所以,在多尺度卷積過程中,卷積核尺寸隨著深度漸加深逐漸減小,對應的輸出特征維度為,,…,o。即經過多尺度卷積后的輸出特征圖維度為××。MSConv的參數量和計算復雜度為

FLOPs=Parameters×(×)

(5)

式中:++…+o=。

由式(4)和式(5)可以看出,當每一層級的輸出通道數相近,則每一層的參數量與計算復雜度的分布相對比較均勻,所以總的參數量和計算復雜度和標準卷積相近。同時在多尺度卷積使用分組卷積(Group Convolution)的方式,將輸入特征劃分為不同的組獨立進行卷積計算,每組特征圖的通道數是不相同的,通過分組卷積的方式實現卷積核深度改變,當組數增加時,卷積核深度相應減少,卷積的計算代價以一定的倍數(由組數決定)減少,減少全連接產生的參數量。

將普通卷積改進為多尺度卷積之后,雖然能在不增加計算量的基礎上,提升網絡對目標的表征能力,但是隨著網絡層數的不斷加深,依然會產生大量參數。因此,采用CSP(Cross Stage Partial)策略設計了新的卷積模塊,如圖4所示,該策略主要從網絡設計結構角度來解決在網絡推理過程中計算量大的問題,將輸入特征圖分為2部分,其中一部分通過多尺度卷積正常地進行網絡計算,提取特征;另一部分直接通過1×1卷積進行特征圖通道維度的固定,然后以shortcut連接方式連接到第1部分的輸出特征圖中,融合得到最終輸出特征。CSP策略能夠在實現輕量化學習的情況下保持特征提取的準確性,有效地控制網絡的計算量,同時shortcut連接方式能減少目標細節信息的損失,避免梯度消失、網絡退化等問題。

此外,在卷積模塊中引入注意力機制,能聚焦于局部信息,重點關注目標區域獲得更多細節信息,同時該機制中參數量少,減少計算資源的浪費。如圖4所示,由于多尺度卷積中卷積核尺寸和通道數并不是固定的,要使較大的目標獲得較大的感受野保證特征的完整性,較小的目標使用較小的感受野保證足夠的細節信息,需要對不同類型的卷積核進行權重學習,使重點關注的信息獲得更大的權重,因此將卷積后的特征圖通過卷積注意力模塊(CBAM)改變原有特征的權重分布,同時優化特征在空間和通道維度上的權重分布,進行特征權重的自適應學習。CBAM結合了空間注意力機制模塊和通道機制注意力模塊,空間注意力關注特征的位置信息,通道注意力關注目標的語義特征,分別在空間和通道2個維度,學習或提取特征中的權重分布,依次推斷得到注意力特征圖。將注意力特征圖與原特征圖相乘進行自適應特征優化,使網絡能更多地關注感興趣的目標區域,增強有效特征,抑制無效特征或噪聲,尤其是對于小目標區域,能獲取更多地小目標的細節信息,避免小目標因特征不明顯而被當成背景信息。

圖4 卷積模塊網絡結構Fig.4 Structure diagram of convolution module

綜上所述,構建了自適應特征提取網絡(MSDarkNet-53)用于提取無人機圖像的目標特征。該模型網絡參數結構如表1所示,其中Kernel表示卷積核類型,即卷積核尺寸和通道數,對于淺層特征采用較大卷積核,保證特征的完整性,通過分組卷積減少全連接產生的參數量。對于深層特征,細節信息較少,采用小尺寸卷積核學習語義信息,分組數相對減少。Output size表示輸出特征尺寸,Output channels表示輸出特征圖維度。

表1 MSDarkNet-53網絡模型Table 1 Network model of MSDarkNet-53

1.2 目標預測網絡

無人機圖像中的目標尺寸普遍較小,特征信息不明顯,容易被識別成背景信息而發生漏檢。文獻[12-13]通過對VGG-16提取的圖像特征進行可視化,發現淺層特征圖包含更多的小目標特征,所以淺層特征圖更適合作為小目標的檢測層。淺層特征圖的分辨率高,包含更多的小目標特征,但是卻缺少語義信息,不能充分地利用上下文信息來提高檢測效果。此外,主流單階段目標檢測器(如YOLO系列)存在一定程度的目標重寫現象,即2個目標中心距離太近,在特征圖上采樣時,導致其中一個目標被判定為負樣本而重寫,無法進行到訓練當中。尤其在目標越密集、尺寸接近的無人機圖像中,目標重寫現象更為明顯,嚴重影響對小目標的檢測效果。

為了解決上述問題,提出一種基于多尺度特征融合的目標預測網絡。如圖5所示,首先,選取骨干網絡MSDarkNet-53中多層級映射{C1,C2,C3,C4},分別來自卷積模塊{Conv_2,Conv_3,Conv_4,Conv_5},分別對低分辨率特征圖利用階梯插值方法進行上采樣,得到更加平滑的高分辨率特征圖,增強了小目標的語義特征。其次,為了充分利用上下文信息,將各層級上采樣后的特征圖進行加權融合,淺層特征具有較小的感受野,有助于目標定位;深層特征有較強的語義信息,有利于目標分類,融合不同層級的特征圖中小目標特征的細節信息和語義信息,得到包含更多小目標細節信息的高分辨率特征圖,增強網絡對小目標特征的識別能力。最后,在融合后的高分辨率特征圖中直接做目標的類別識別和位置回歸。此外,預測網絡中采用1×1卷積來固定特征圖的通道維度,保持前后特征圖維度一致。

圖5 預測網絡結構Fig.5 Prediction network structure

(6)

式中:(·)表示上采樣函數;Conv(·)表示1×1卷積操作;分別表示經過上采樣后特征映射;分別表示不同卷積模塊輸出的特征映射。、、、、和分別表示各層權重系數,為了避免特征融合過程中的信息冗余,設置層融合權重系數之和為1,取值分別為0.7、0.3、0.6、0.4、0.4、0.6,因為淺層特征圖中包含細節特征較多,相對權重占比較大,所以隨著特征層級的加深,包含細節信息減少,權重、、也相應減小。

卷積神經網絡中,通常對低分辨率圖像進行上采樣來恢復圖像的分辨率,得到高分辨率特征圖,使小目標更容易被檢測。由于無人機圖像中小目標特征細節信息較少,與背景信息差異不明顯,直接上采樣會丟失小目標的一部分細節信息,因此采用階梯插值方法,其關鍵思想是使用雙三次插值以較小的增量對低分辨率特征圖進行多次插值,該插值方法一次將特征圖分辨率增加不超過原圖的10%,直到達到所需大小為止。相比于直接上采樣,通過插值方法對圖像進行上采樣能在不損失小目標細節信息的前提下,以一種更加平滑的方式增大特征圖的分辨率,有利于不同層級特征圖的融合,得到包含更多特征細節和語義信息的高分辨率特征圖,有利于檢測小目標。

1.3 多任務損失

目標檢測的主要任務是準確輸出圖像中目標的類別及所在位置,因此需要進行位置回歸和分類的訓練。損失函數作為深度神經網絡對誤檢樣本評判的依據,在很大程度上影響神經網絡模型收斂的效果。同時為目標檢測網絡的訓練提供優化方向,該算法的損失函數主要包含2部分,

=+

(7)

式中:分類損失負責評估分類代價,定位損失負責評估回歸代價。

(8)

式中:前2項為傳統的IoU Loss;后2項為懲罰項,用于修正真實目標框與預測包圍框的寬高比;(·)表示目標真實中心坐標與預測包圍框中心坐標的歐氏距離;為真實坐標框和預測包圍框的對角線距離(最小閉包區域);用來衡量寬高比的相似性;為正權重系數。CIoU損失充分考慮了目標與預測包圍框的重疊面積、中心點距離以及包圍框的寬高比等因素,使預測包圍框和真實包圍框的寬高比盡量保持一致。

2 實驗結果與分析

根據實際應用需求,文中所采用的實驗數據主要由2部分組成,一部分來自VisDrone 2019無人機目標檢測數據集,共有10 209張,包含不同場景的無人機圖像,分別包含6 471張訓練集、3 190張測試集和5 48張驗證集圖像,另一部分來自實驗室無人機拍攝數據集共5 791張、3 791 張訓練集、1 500張測試集、500張驗證集。數據集主要以俯視圖和側視圖為主,總共標記了7類預定義的目標類別,包括行人、汽車、貨車、公共汽車、自行車(包括自行車和電動自行車)、摩托車和三輪車。由于無人機航拍過程中飛行高度和拍攝角度不斷變化,拍攝的數據集中包含大量多尺度目標和密集的小目標,并且目標占比小,包含較多背景信息,因此該數據集是一個多尺度、小目標豐富、場景復雜的無人機航拍目標檢測數據集。實驗平臺采用Ubuntu18.04操作系統、內存為32 G,處理器為i7-9800X,圖形處理器(GPU)為NVIDIA GeForce RTX2080Ti。

2.1 目標檢測算法有效性

為了驗證所提算法在實際場景中的目標檢測效果,選取無人機數據集中具有代表性并且實際檢測較為困難的圖像進行測試,評估算法檢測效果并進行可視化分析。部分檢測結果如圖6所示,圖6(a)為多尺度情況下目標檢測的效果圖,由于無人機拍攝高度及視角等原因,導致圖中既包含大尺度目標,又包含正常或產生形變的小尺度目標,所提算法可以很好地檢測到圖中不同尺度的目標,說明利用多尺度卷積對不同尺度的目標采用不同類型的卷積核提取目標特征,可以增強網絡對多尺度特征的表征能力,在多個尺度上捕獲目標的局部特征細節信息。圖6(b)和圖6(c) 分別為包含小目標和密集目標的檢測效果圖,圖中目標占比較小,分布較為集中,同時包含大量的背景信息,所提算法依然可以準確檢測目標,說明所提算法中的多尺度特征融合的預測網絡能有效地融合不同層級特征圖,得到包含特征細節信息和語義信息的高分辨率特征圖,既能增強網絡對小目標的預測能力,又能避免密集目標中心距離相近造成漏檢的問題。此外,考慮到影響無人機目標檢測的其他因素(如光照),圖6(d) 所示,所提算法受光照等外部條件影響較小,在強光或夜間等情況下仍有很好的檢測性能,說明所提算法受外部因素影響較小,具有很好的泛化能力,能滿足實際任務需求。

圖6 多場景檢測效果圖Fig.6 Multi scene detection rendering

2.2 算法模塊可行性

為了評估所提骨干網絡在特征提取過程中的有效性,在相同實驗條件下,將本文所提骨干網絡MSDarkNet-53分別與DarkNet-53、CSPDarkNet-53、MSDarkNet-53_Original進行對比試驗,其中DarkNet-53為YOLOv3的骨干網絡,CSPDarkNet-53為YOLOv4的骨干網絡,MSDarkNet-53_Original為所提骨干網絡中沒有引入注意力機制進行優化的原始網絡,該網絡中沒有采用CBAM模塊進行優化。MSDarkNet-53為經過CBAM優化后的骨干網絡,即為本文算法最終采用的骨干網絡。根據實驗數據進行網絡模型性能分析,選取MSCOCO數據集進行對比實驗,實驗結果如表2所示。

由表2可以看出,本文所提MSDarkNet-53框架在MSCOCO數據集上平均準確率達43.8%,分別比DarkNet-53、CSPDarkNet-53提升了10.8%和1.1%,同時MSDarkNet-53框架的模型比另外2種網絡模型分別減少了5%和7%,說明所提網絡性能較好。相比于MSDarkNet-53_Original網絡,使用CBAM對骨干網進行優化后,檢測精度和模型大小方面均有提升,尤其表現在優化模型大小方面,說明注意力卷積模塊能有效優化網絡模塊,提升模型性能。精度提升的主要原因是多尺度卷積使網絡可以從具有較低連通性的大感受野探索到具有較高連通性的較小感受野,具有較小感受野的卷積核捕獲相關較小目標或目標局部的信息,較大感受野的卷積核為大目標或上下文信息提供了更可靠的細節,不同類型的卷積核帶來了互補信息,增強了網絡的表征能力。而精度的提升沒有導致計算量的增大主要因為多尺度卷積方式與普通卷積參數量相近,不會產生較大計算量,此外注意力卷積模塊的引入使網絡模型能自適應地學習特征權重,優化特征權重分布,抑制無效信息,減少了不必要計算開銷。

表2 MSDarkNet-53性能分析Table 2 Performance analysis of MSDarkNet-53

為了驗證算法模塊的有效性,設計消融實驗對網絡模塊性能進行評估,消融實驗的目的是評估不同模塊或不同改進方法在相同條件下對目標檢測算法性能的影響。為了驗證預測網絡對密集小目標檢測的有效性,基于無人機數據集設計如下對比實驗,其中實驗1采用YOLOv3網絡,由骨干網DarkNet-53和原預測網絡Head組成,原預測網絡Head在3個尺度上對不同大小目標分類進行目標類別預測和邊界框回歸。實驗2將骨干網改進為本文所提的MSDarkNet-53,Head仍使用YOLOv3中的預測網絡。實驗3為本文所提網絡,采用MSDarkNet-53和改進Head進行目標檢測。在實驗中采用mAP、AP、AP、FPS等評價指標來評估算法性能,其中mAP表示平均檢測精度(Mean Average Precision),用于衡量算法在所有類別上平均檢測精度;AP和AP分別表示IoU閾值為0.5和0.75時的檢測精度;FPS(Frame Per Second)表示每秒幀率,用來評價檢測速度,值越大,實時性越好。如表3所示,通過比較實驗1和實驗2可以看出,實驗2在mAP、AP、AP指標均優于實驗1,說明MSDarkNet-53具有更好的特征表達能力;通過實驗2和實驗3對比,改進后的預測網絡明顯優于原預測網絡,改進后預測網絡主要針對圖像中的密集目標和小目標改進,說明多尺度特征融合和單尺度高分辨率特征圖進行回歸更有利于密集小目標的檢測,減少了漏檢率,有效提升了檢測精度。

表3 各實驗有效性分析Table 3 Effectiveness analysis of each module

本文目標檢測算法在無人機數據集中的每一類的檢測結果如表4所示,其中包含YOLOv3和YOLOv4在該數據集上各類的檢測結果作為實驗對比數據,部分可視化檢測結果如圖7所示,可以看出,YOLOv3和YOLOv4對小目標和距離相近的目標存在不同程度的漏檢。綜合來看,本文算法對于各類目標的平均檢測精度高于YOLOv3和YOLOv4,尤其是對于Pedestrian(行人)、Bicycle(自行車)、Motor(摩托車)等密集的小目標檢測效果明顯。主要原因是YOLOv3和YOLOv4更關注深層特征,忽略了小目標的細節信息,同時采用3種不同尺度的預測網絡進行邊界框回歸會導致相差不大的目標被強制分層預測,影響密集小目標的檢測效果。而在本文預測網絡中,為減少目標細節信息的損失,選取特征提取網絡中4個層級的特征映射進行特征融合,整合不同層級特征圖中的有效特征信息,映射到單一尺度的高分辨率特征圖中,使小目標的分類特征更加明顯,提升了檢測準確率,同時單一尺度特征圖中做邊界框回歸可以避免錨框尺度分配不均問題,在一定程度上減少了密集目標漏檢的概率,更適用于目標小、密集度高的無人機航拍圖像中。

表4 無人機數據集中各類檢測結果分析Table 4 Analysis of various results in UAV database

圖7 不同算法結果對比Fig.7 Comparison of results of different algorithms

2.3 主流無人機目標檢測算法對比結果

為了驗證所提算法的性能,將所提算法與當前主流算法進行對比實驗,在同一平臺下,對不同的主流目標檢測算法采用相同的實驗數據進行訓練并對所得模型進行性能評估,主要對比不同檢測網絡在無人機航拍過程中準確檢測地面目標的能力。進行對比實驗的主流目標檢測算法包括Faster-RCNN、RetinaNet、YOLOv3、ConnerNet、CenterNet、YOLOv4。

為了便于比較各主流算法性能指標,表5列出了主流目標檢測算法的具體結果。綜合來看,在無人機航拍數據集中,本文算法性能優于其他算法。從目標檢測精度方面來看,本文算法的AP值相比于其他算法有較大提升,平均檢測精度達到27.48%,整體檢測效果優于其他算法。AP可以反映出算法對于目標的分類能力, AP則是評價目標檢測算法的邊界框回歸能力的有效指標,可以看出本文算法在IoU=0.5的情況下與效果最優的YOLOv4、CenterNet等相近,即對目標的分類能力相近,而在IoU=0.75的情況下,本文算法的AP值優于其他算法,達到26.95%,說明本文算法在無人機航拍數據中具有更好的目標分類能力和較高的邊界框回歸精度。在分類方面,MSDarkNet-53中采用多尺度卷積方式,在多個尺度上解析輸入,在不增加成本的情況下擴大卷積核的感受野,考慮不同層級的空間上下文依賴關系,捕獲更詳細的信息,并且shortcut連接方式使特征信息可以不經過中間卷積變換直接傳到高層特征圖,極大程度地避免了由于空間分辨率損失導致細節信息丟失的問題,提取到更多有效特征,有利于目標分類。在回歸方面,預測網絡提取多層級特征映射進行多尺度特征融合,將包含小目標細節信息較多的底層特征和語義信息較為豐富的高層特征進行加權融合,得到包含更多局部特征細節和語義特征高分辨率特征圖,有利于檢測小目標;同時,在單一尺度特征圖上進行邊界框回歸既能有效避免密集目標之間的標簽重寫問題,又能防止不同尺度特征中錨框分配不均的問題,增強了網絡對密集目標的檢測能力。

表5 無人機數據集中主流目標檢測算法結果分析Table 5 Analysis of main object detection algorithms in UAV database

此外,本文算法具有良好的檢測實時性,實時性遠優于兩階段目標檢測器(如Faster-RCNN),檢測速度與YOLOv4接近,比YOLOv3提升了約18%,主要原因是多尺度卷積方式計算過程中產生參數量與標準卷積相近,不會產生過多的計算開銷,同時CSP策略將網絡推理過程中的梯度變換操作集成到特征圖中,避免了重復梯度信息導致計算量增加的問題,并且保持推理準確性。

3 結 論

1) 結合多尺度卷積方式和注意力機制,構建了自適應特征提取網絡MSDarkNet-53,在不增加計算開銷的基礎上,優化了網絡結構,提升了網絡的特征表達能力。

2) 提出了基于多尺度特征融合的目標預測網絡,融合不同層級特征映射,在單一尺度的高分辨率特征圖上進行分類和回歸,有效增強了不同網絡層之間的上下文信息,提升了目標預測的準確性,尤其對小目標的檢測效果提升明顯。

3) 實驗結果表明,與其他無人機檢測算法相比,該算法達到了較好的檢測性能,在保證檢測速度的前提下,顯著提高了檢測精度。但是該算法在遮擋過多的情況下,存在一定的漏檢現象,下一步將繼續優化網絡,進一步提升檢測的實時性和準確性。

猜你喜歡
特征檢測信息
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
小波變換在PCB缺陷檢測中的應用
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 亚洲一区波多野结衣二区三区| 国产97区一区二区三区无码| 99re视频在线| 天天躁狠狠躁| 国产亚洲欧美另类一区二区| 国产精品久久久久鬼色| 特级毛片免费视频| 58av国产精品| 亚洲第一成年网| 免费在线a视频| 国产一区在线视频观看| 欧美国产综合色视频| 国产地址二永久伊甸园| 亚洲a级毛片| 欧美一区精品| 亚洲三级色| 国产精品va免费视频| 国产精品深爱在线| www.99在线观看| 无码中文字幕加勒比高清| 国产毛片高清一级国语 | 日韩激情成人| 四虎精品国产AV二区| 九月婷婷亚洲综合在线| 九九久久精品免费观看| 在线国产综合一区二区三区| 就去吻亚洲精品国产欧美| 久久久久亚洲AV成人人电影软件 | 无码日韩人妻精品久久蜜桃| 日本a∨在线观看| 国产精品免费福利久久播放| 欧美a在线| 免费播放毛片| 亚洲精品无码日韩国产不卡| 欧美α片免费观看| 亚洲综合香蕉| 欧美成人aⅴ| P尤物久久99国产综合精品| 精品国产一区二区三区在线观看| 久久婷婷人人澡人人爱91| 亚洲系列中文字幕一区二区| 91视频区| 日韩欧美国产三级| 毛片一区二区在线看| 2020亚洲精品无码| 亚洲三级色| 人妻21p大胆| 日本久久免费| 欧美激情二区三区| 成人免费网站久久久| 欧美精品另类| 奇米精品一区二区三区在线观看| 精品夜恋影院亚洲欧洲| 一级片一区| 中国一级特黄大片在线观看| 超碰色了色| 麻豆AV网站免费进入| 久久精品国产精品一区二区| 亚洲日韩AV无码一区二区三区人| 91久久性奴调教国产免费| 五月婷婷综合在线视频| 人人艹人人爽| 精品国产成人a在线观看| 天天做天天爱天天爽综合区| 日韩成人在线一区二区| 国产成人午夜福利免费无码r| 东京热一区二区三区无码视频| 亚洲AⅤ永久无码精品毛片| 亚洲色图在线观看| A级毛片无码久久精品免费| 国产青榴视频| 91久久国产热精品免费| 成人午夜免费观看| 日韩人妻无码制服丝袜视频| 99久久精品久久久久久婷婷| 91年精品国产福利线观看久久 | 国产成人资源| 日日噜噜夜夜狠狠视频| 国产免费久久精品44| 狠狠色成人综合首页| 国产成人精品2021欧美日韩| 午夜国产小视频|