

摘要:針對無人機航拍圖像目標檢測中存在精度不足和資源受限問題,文章提出一種基于改進YOLOv8n模型的目標檢測算法。首先,在現有模型中引入卷積塊注意力模塊(Convolutional Block Attention Module, CBAM),以增強模型對關鍵特征的關注并抑制非關鍵區域的干擾;其次,采用深度可分離卷積(Depthwise Separable Convolution, DW Conv)進行輕量化設計,在顯著降低模型參數量和計算復雜度的同時保持高效的特征提取能力。通過實驗對比,分析了單獨引入CBAM、DW Conv模塊以及兩者結合使用的效果。實驗結果表明,改進后的算法在無人機航拍圖像的檢測精度上提升了3%,計算復雜度降低了13.4%,模型參數量減少了4%,而且在準確性和實時性方面均取得了顯著提升。該算法為無人機航拍圖像的目標檢測提供了一種高效、準確的解決方案。
關鍵詞:無人機航拍圖像;YOLOv8模型;目標檢測;卷積塊注意力模塊;深度可分離卷積
中圖分類號:TP391.41 "文獻標志碼:A
0 引言
隨著無人機技術的迅猛發展,無人機航拍在許多領域的應用日益廣泛,包括農業監測、災害評估、環境保護、城市規劃等。無人機能夠提供高分辨率、大范圍的航拍圖像,為目標檢測技術進步帶來巨大的應用潛力[1]。然而,航拍圖像的復雜性,如動態變化的場景、高度變化的拍攝角度、物體尺度差異、低光照等問題,使得目標檢測任務變得更加困難。
目標檢測技術作為計算機視覺中的一項核心任務,在無人機航拍圖像中的應用尤為重要。現有的目標檢測算法,如基于卷積神經網絡(Convolutional Neural Networks,CNN)的YOLO系列、區域卷積神經網絡(Fast Region-based Convolutional Neural Networks,Fast R-CNN)等,已經取得了一定成功,但在無人機航拍圖像中,算法仍面臨著檢測精度不足、處理速度較慢和魯棒性差等問題[2],尤其是在復雜場景和小目標檢測方面,現有算法仍有待改進。
YOLO系列算法憑借其高效的檢測速度和較為優異的精度,成為實時目標檢測的常用方法[3]。YOLOv8n作為YOLO系列的輕量級版本,因其較小的模型尺寸和快速的推理速度,特別適合于邊緣計算和實時應用。然而,盡管YOLOv8n具有較好的檢測性能,但在無人機航拍圖像中,由于航拍圖像的特殊性,YOLOv8n仍然存在目標漏檢、誤檢和適應復雜場景能力不足的問題[4]。
為解決這些問題,本研究提出了一種基于改進YOLOv8n算法的無人機航拍圖像目標檢測方法,引入了改進的網絡架構和優化技術,進一步提高了檢測精度,同時保持其較高的處理速度。引入DW Conv模塊,通過輕量級卷積操作顯著減少計算量和參數量;引入CBAM,結合通道注意力機制和空間注意力機制,增強了網絡的特征表示能力。
通過上述改進,本研究期望為無人機航拍圖像的目標檢測任務提供一種更加高效、精確且適應性強的解決方案,從而推動無人機在各行業中的應用。
1 YOLOv8n算法
YOLOv8n算法是 YOLO系列中的輕量級版本,專為高效和低計算資源環境設計,具有YOLOv8的架構優勢,在精度和速度上進行了優化。YOLOv8n通過采用更高效的特征提取方法和改進的檢測頭,顯著提高了目標檢測的性能;還提供了多個不同的版本,以適應不同的應用場景和實時性要求。YOLOv8n適用于邊緣設備、嵌入式設備和移動端,能夠在保持高檢測精度的同時,降低模型的計算復雜度[5]。YOLOv8n采用輕量化的網絡架構,減少了參數量和計算資源的需求,同時依然保持了YOLO系列高效的檢測能力[6]。此外,YOLOv8n引入了更為先進的特征融合技術,通過精細化的模型設計提升了模型的計算效率和特征表達能力。在高分辨率和復雜背景的圖像中,依然能夠實現快速準確的目標檢測,特別適用于需要實時推理和低功耗的應用場景,如無人機航拍、智能安防、自動駕駛等領域[7]。
2 YOLOv8n目標檢測網絡改進
2.1 引入DW Conv
在實際應用場景中,神經網絡模型的計算能力和運算速度常常受到硬件環境以及設備空間布局設計的限制。為了應對這些挑戰,本文引入專門為移動設備或資源受限環境設計的網絡結構,如DW Conv[8]。其核心思想是通過將傳統卷積分解為逐通道的卷積操作,有效減少計算量和參數量,同時保持特征提取能力。通過這種方式,DW Conv不僅減少了冗余信息的產生,還降低了模型對硬件存儲空間的需求,顯著提升了運算速度,使得模型更加適合在資源受限的實際部署場景中運行。
與傳統的卷積操作相比,DW Conv通過將卷積操作分解為逐通道的卷積和點卷積,大幅度減少了冗余信息的生成,從而顯著降低了模型的參數量和計算量[9]。這種輕量化設計使得DW Conv能在計算資源有限的環境下,提供更高的效率和更快的實時性。
相比傳統卷積,DW Conv的優勢主要體現在以下2方面。
(1)計算效率高。
傳統卷積需要對輸入的所有通道和輸出的所有通道進行卷積,計算量較大。DW Conv通過分離通道間和通道內的操作,計算量大幅降低。
(2)參數量少。
DW Conv的參數量顯著減少,因為深度卷積僅使用K × K卷積核,逐點卷積僅使用1 × 1 卷積核,相對于傳統卷積,其參數量減少了Cout倍。
2.2 引入CBAM注意力機制
CBAM是一種強大的注意力模塊,通過結合通道注意力和空間注意力,為卷積神經網絡提供了更加全面和有效的特征提取能力。這種雙重注意力機制使得模型能夠自適應地關注輸入特征中的關鍵通道和空間位置,從而提高了模型性能。CBAM模塊設計簡潔、靈活,易于集成到各種現有的卷積神經網絡架構中,廣泛應用于多種視覺識別任務。通過引入額外的計算量,CBAM能夠在保持較低額外計算成本的同時帶來顯著的性能提升。
CBAM模塊的核心思想是對輸入特征圖進行2階段的精煉:首先通過通道注意力模塊關注于“哪些通道是重要的”,然后通過空間注意力模塊關注于“在哪里是一個有信息的部分”。這種雙重注意力機制使CBAM能夠全面捕獲特征中的關鍵信息。
2.2.1 通道注意力機制
在神經網絡中,每個特征圖通道可以視為一個特定的特征檢測器。在訓練過程中,賦予重要特征通道更高的權重,有助于提升模型的表達能力和測試性能。為了高效地計算通道注意力特征,通常結合平均池化和最大池化2種方法,將結果輸入多層感知機(Multilayer Perceptron,MLP),以提取最終的通道注意力特征圖。
2.2.2 空間注意力機制
空間注意力機制通過聚焦特征圖的空間重要區域來提升模型性能。它首先利用平均池化和最大池化在通道維度上對特征圖進行聚合,得到2個單通道特征圖,然后通過 7×7 卷積計算出一個空間權重圖,表示每個位置的重要性。最終,將輸入特征圖與權重圖逐元素相乘以突出關鍵區域。空間注意力機制計算高效,常與通道注意力機制結合使用,兼顧通道和空間維度的信息,從而增強模型的特征表達能力。
3 實驗及結果分析
3.1 構建無人機航拍數據集
為了全面評估無人機航拍圖像目標檢測算法的性能,本文從多種公開資源中搜集并整合了一個包含約7000張圖片的無人機航拍圖像數據集。數據集中涵蓋了汽車、卡車、公交車 3種車輛類別。按照7∶2∶1的比例分為訓練集、驗證集和測試集,分別用于模型的訓練、參數調優和性能評估。訓練集約4900張,驗證集約1400張,測試集約700張。這種劃分方式既保證了模型訓練的充分性,又增強了實驗結果的可靠性,為無人機航拍圖像車輛檢測算法的實際效果奠定基礎。
3.2 實驗環境
本實驗使用Pytorch深度學習框架,版本為1.9.1的GPU;編譯語言為Python3.9.20;CUDA版本為11.1;操作系統為Win11專業版;CPU為14th Gen Intel(R) Core(TM) i7-14700F 2.10" GHz;運行內存32 GB;GPU為NVIDIA GeForce RTX4060 8GB。
本研究中設置了一系列的超參數,訓練過程中圖片大小調整為640×640,每一次實驗訓練300輪,批量大小設置為32。初始學習率設置為0.01,用以控制訓練開始時權重的更新步長。這些超參數的調整有助于提升YOLOv8n在無人機航拍圖像目標檢測任務中的性能。
3.3 評價指標
在本研究中,為了全面評估YOLOv8n的檢測性能,采用平均精確率平均值(Mean Average Precision,mAP)作為主要評價指標。mAP是目標檢測領域廣泛應用的評價標準,它綜合考慮了模型的精度和召回率,提供了對目標檢測效果的全面評估。
3.4 消融實驗結果與分析
本研究以YOLOv8n為基準,依次組合添加改進措施,進行一系列消融實驗,實驗結果如表1所示。
實驗結果表明,本文在YOLOv8n模型中引入CBAM后,YOLOv8n模型的精確率(Precision,P)、召回率(Recall,R)和mAP50分別提高了2.0%、2.6%和2.6%,雖然參數量和計算量略有增加,但整體性能得到顯著提升。再引入DW Conv模塊,使得模型的P、R和mAP50分別提升了0.7%、0.7%和1.1%,同時減少了計算量。最后還結合了CBAM和DW Conv模塊,使得精度進一步提高,P、R和mAP50分別提升了3.3%、3.6%和3.2%,雖然參數和計算量有所增加,但整體性能在精度和效率上達到了最佳平衡。
3.5 對比實驗分析
將本文算法與Faster R-CNN、YOLOv3-tiny、YOLOV4s、YOLOv5s和YOLOv7-tiny進行比較,實驗結果如表2所示。
從表 2 的對比結果可以看出,本文提出的算法在精度和計算效率方面均明顯優于其他方法。在性能上,本文算法的精度、召回率和mAP50%分別達到了85.1%、79.1% 和 85.2%,相比主流算法如 Faster R-CNN、YOLOv5s 和YOLOv7-tiny,均有不同程度的提升,尤其是在mAP50%指標上表現尤為出色。在計算效率方面,本文算法的參數量僅為2.4 M,每秒浮點運算次數(Floating Point Operations Per Second,FLOPS)為7.1 G,顯著低于Faster R-CNN等復雜模型,同時相比較于輕量化模型YOLOv5s和YOLOv7-tiny,也展現了更高的效率優勢。綜上,本文算法在關鍵性能指標上實現了全面提升,以較低的計算成本達成了高精度和高效率的統一,這種優勢使其在資源受限場景中具有更強的適用性,展現了廣泛的實際應用潛力。
4 結語
無人機航拍圖像目標檢測對智能交通管理和城市規劃具有重要意義。為提高檢測的準確性和實時性,本文在現有算法基礎上進行了優化。通過引入注意力機制,使得模型在復雜背景下的目標檢測任務中表現更優。與此同時,本文還采用了輕量化設計,確保模型在保持高精度的同時具備較快的處理速度。實驗結果表明,改進后的算法在準確性和實時性上均有顯著提升,從而能夠滿足實際應用需求。然而,對于遮擋嚴重或低分辨率的場景,檢測精度仍有改進空間。未來將進一步優化模型,關注其在真實場景中的適用性和效果。
參考文獻
[1]趙志宏,郝子曄.改進YOLOv8的航拍小目標檢測方法:CRP-YOLO[J].計算機工程與應用,2024(13):209-218.
[2]岳明凱,權康男,張驄,等.基于改進YOLOv8的紅外小目標檢測算法研究[J].紅外技術,2024(11):1286-1292.
[3]潘瑋,韋超,錢春雨,等.面向無人機視角下小目標檢測的YOLOv8s改進模型[J].計算機工程與應用,2024(9):142-150.
[4]程換新,喬慶元,駱曉玲,等.基于改進YOLOv8的無人機航拍圖像目標檢測算法[J].無線電工程,2024(4):871-881.
[5]劉付剛,劉巾瑞,祝永濤.改進YOLOv8的無人機小目標檢測方法[J].黑龍江科技大學學報,2024(6):985-989.
[6]劉榮欣,盧勝男,劉曉天.基于改進YOLOv8的輕量型車輛目標檢測算法[J].信息技術與信息化,2024(6):89-92.
[7]李云文,馮宇平,安文志,等.基于改進YOLOv8的無人機圖像小目標檢測算法[J].高技術通訊,2024(7):765-775.
[8]劉寧,歐陽澤,馬文源,等.鋼鐵零件表面缺陷檢測的改進YOLOv5-FGC識別算法[J].制造業自動化,2024(12):24-33.
[9]劉濤,鞠事宏,高一萌.基于改進YOLOv8n的無人機視角下小目標檢測算法[J].計算機應用,2024(11):3603-3609.
(編輯 王永超編輯)
UAV aerial image target detection based on improved YOLOv8n
SHANG" Pan
(Xi’an Shiyou University, Xi’an 710065, China)
Abstract:" Aiming at the problems of insufficient accuracy and limited resources in object detection of UAV aerial images, the article proposes an object detection algorithm based on improved YOLOv8n model. Firstly, the Convolutional Block Attention Module (CBAM) is introduced into the existing model to enhance the model’s attention to key features and suppress the interference of non-key regions. Secondly, this study uses Depthwise Separable Convolution (DW Conv) for lightweight design, which significantly reduces the number of model parameters and computational complexity while maintaining efficient feature extraction ability. Through experimental comparison, the article analyzes the effect of introducing CBAM module, DW Conv module and the combination of them. The experimental results show that the improved algorithm improves the detection accuracy of UAV aerial images by 3%, reduces the computational complexity by 13.4%, and reduces the number of model parameters by 4%, and has achieved significant improvement in accuracy and real-time performance. The proposed algorithm provides an efficient and accurate solution for target detection in UAV aerial images.
Key words: UAV aerial images; YOLOv8 model; target detection; convolutional block attention module; depthwise seperatable convolution