田 帥,李 盛,王露曼,邱博之
(西京學院,陜西 西安 710123)
近年來,無人機技術的廣泛應用和推廣為人們的生活帶來了諸多便利和變革。然而,其帶來的“黑飛”現象也越來越嚴重,給公共安全造成了巨大隱患。在舉辦大型活動期間,無人機的“濫飛”問題可能會干擾比賽或者活動的進行,甚至造成人員傷亡和財產損失。在機場、軍事禁飛區以及政府重要設施周邊等重要場所,無人機的侵入可能會導致機密信息泄露,甚至危及國家安全。因此,無人機的規范與監管變得格外關鍵。但由于無人機體積小、速度快、背景復雜等因素,傳統圖像處理技術在實際無人機技術應用中面臨著巨大的挑戰。
現如今,反無人機檢測中存在一個問題:由于無人機拍攝的圖像分辨率較低,目標檢測算法難以準確識別目標。為了解決這個問題,本文使用超分辨率重建技術提高圖像分辨率,從而增強目標檢測算法的準確性。
為了實現反無人機檢測的實時性要求,本文選擇了速度快、準確度高的YOLOv5s算法作為基礎。它采用先進的特征提取網絡、精細的錨框策略和數據增強技術,能夠有效檢測小目標和復雜環境下的目標。將超分辨率重建技術與YOLOv5s算法相結合,可以進一步提高反無人機檢測的性能。這種結合方法可以充分發揮超分辨率重建和YOLOv5s算法的優點,從而提高反無人機檢測的準確性和魯棒性。
Real-ESRGAN采用高階退化模型和Sinc濾波器創建了更出色的數據集來進行訓練[1]。訓練生成器用于不斷提高其對低分辨率圖像進行超分辨率重建的能力,而訓練判別器可用來鑒別輸入圖像的真實性。隨著訓練的不斷迭代,生成器的重建能力會逐漸增強[2],從而生成更加真實、高清的圖像。
Real-ESRGAN生成器結構如圖1所示。采用改進的超分辨率殘差網絡(Super Resolution Residual Network,SRRes Net)作為骨干網絡[3]。該方法對無人機圖像進行下采樣,以壓縮圖像尺寸并擴充通道數;將處理后的圖像輸入改進的SRResNet模型中,并去除所有的批量歸一化(Batch Normalization,BN)層,以提升網絡性能[4]。在改進的SRRes Net中,原有的殘差模塊被替換為RRDB模塊,融合了多級殘差網絡和密集連接的思想,進一步增強網絡的穩定性。相比原有的殘差模塊,RRDB模塊具有更強的非線性擬合能力和更好的特征提取能力,從而可以更好地實現圖像超分辨率重建任務。

圖1 Real-ESRGAN生成器結構
經過ReaI-ESRGAN超分辨率重建優化后的圖像如圖2所示。

圖2 Real-ESRGAN重建
YOLOv5s是一種高性能的目標檢測算法,其在YOLO系列中因具有快速、輕量、高效的特點,成為了實際應用時的優選模型。YOLOv5s算法主要由輸入端(Input)、主干網絡(Backbone)、頸部網絡(Neck)和預測端(Detect)4個模塊組成[5]。
輸入端分為自適應圖像填充、Mosaic數據增強和數據預處理。主要完成對輸入圖像的調整尺寸、圖像增強以及自適應錨框大小。
主干網絡(Backbone)是YOLOv5的特征提取部分,主要由Focus、Conv、C3以及SPP模塊組成。
頸部網絡(Neck)主要用于特征融合,采用特征金字塔網絡(Feature Pyramid Network,FPN)和路徑聚合網絡(Path Aggregation Network,PAN)進行下采樣和上采樣[6]。這樣設計的目的是使網絡能夠對同一物體的不同尺度和尺寸進行識別,從而提升檢測的準確性。通過使用3個不同尺寸的feature map,頸部網絡既包含細節信息,又包含語義信息。
預測端(Detect)由3個不同大小的檢測層組成,用于檢測不同大小的目標。最后,預測端將預測的邊界框和目標類別標注在圖像中,實現目標檢測的功能。
本文針對無人機尺度變化大造成的無人機小、目標檢測困難的問題,選擇目標檢測算法YOLOv5s作為基礎算法,并進行以下3點改進。
(1)更換SPP模塊為SPPF模塊可以幫助網絡更好地理解小目標所在的上下文信息和空間分布,從而提高對小目標的定位和分類準確性。
(2)引入SPD-Conv模塊,增強模型在低分辨率圖像中小物體的檢測性能。
(3)對損失函數進行優化,使用Alpha-CIoULoss替換CIoU Loss,提升模型在小目標數據集上的泛用性,從而更好地適應小目標的檢測任務。
最終優化后的YOLOv5s算法網絡結構如圖3所示。

圖3 優化后的YOLOv5s算法網絡結構
本文的實驗數據集由DUT-Anti-UAV數據集、visDrone2019數據集和自建數據集組成。由此數據集訓練Real-ESRgan的生成器和YOLOv5s目標檢測模型。
目標檢測評價指標主要采用平均精度mAP、檢測速度FPS和召回率R,計算公式如下:
(1)
(2)

(3)
(4)
其中,P為在所有識別結果中模型正確識別無人機的概率,R為模型在所有真實無人機中正確識別無人機的概率,AP表示準確率與召回率的積分,mAP表示對所有類別的AP取平均值,TP為模型正確識別無人機的個數,FP為模型將其他目標錯誤地識別為無人機的個數,FN為模型將無人機錯誤識別為其他物體的個數,pi為成功識別無人機的概率[7]。
為了驗證本文提出的算法相比于部分經典目標檢測算法有一定的先進性,本文進行算法對比試驗,將參數量、檢測速度和map@0.5作為性能的評價指標,對比結果如表1所示。綜合對比結果可知,本文提出的改進算法相較于經典算法具有較好的表現。

表1 對比實驗結果
通過分析傳統的反無人機檢測方法的特點,針對其對侵入無人機小目標錯檢、漏檢的情況,本文提出了一種結合超分辨率重建和YOLOv5s的無人機檢測辦法。該方法首先通過Real-ESRGAN超分辨率網絡將低分辨率圖像轉化為高分辨率圖像,再用改進后的YOLOv5s模型對無人機檢測。最后,經實驗對比結果可知,相較于傳統的檢測算法,本算法對無人機檢測的精度最高,mAP@0.5達到了90.3%,且檢測速度滿足實時檢測的要求,檢測效果優勢明顯。