999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進的YOLOv8s的無人機視角下行人檢測方法

2024-10-13 00:00:00陳振羽賈明賓周籮魚
現代電子技術 2024年19期
關鍵詞:無人機

摘" 要: 針對無人機視角下行人檢測中的挑戰,如目標尺寸小、分布密集,以及硬件平臺限制導致的模型準確率低等問題,提出一種多特征選擇機制融合的YOLOv8s改進模型。首先,在YOLOv8s主干網絡中結合多尺度上下文信息聚合機制(MSCA)的優點,設計增強型卷積金字塔瓶頸(ECPB)模塊,增強主干網絡的特征提取能力;其次,利用大型可分離卷積模塊(LSKA)的思想優化YOLOv8s空間金字塔池化層,提升不同特征層間的語義融合,捕獲更多目標信息;最后,將YOLOv8s的頭部替換為新設計的任務動態自適應檢測頭(TADH),豐富分類和定位信息的交互,加強特征融合能力,提升模型的檢測效率和檢測準確率。實驗結果表明,改進后的模型在自制數據集上mAP@0.5、mAP@0.5:0.95分別提升了1.9%、5.6%,模型參數量降低了10.5%,并且改進后的模型檢測速度達到了140 f/s,能有效實現對無人機視角下行人檢測任務快速、準確的檢測。同時,在公共數據集(VisDrone2019數據集和CARPK數據集)上的測試也證明了該模型能夠適應不同小目標的檢測,具有較好的泛化性能。

關鍵詞: 無人機; 小目標檢測; YOLOv8s; 多特征選擇; 特征融合; 任務動態對齊

中圖分類號: TN911.73?34; TP391.4" " " " " " " " "文獻標識碼: A" " " " nbsp; " " " " 文章編號: 1004?373X(2024)19?0067?08

Improved YOLOv8s based pedestrian detection method in the perspective of UAV

CHEN Zhenyu1, JIA Mingbin2, ZHOU Luoyu1

(1. School of Electronic Information and Electrical Engineering, Yangtze University, Jingzhou 434023, China;

2. China Petroleum Logging Company Limited, Xi’an 710000, China)

Abstract: In the pedestrian detection with the unmanned aerial vehicle (UAV), the accuracy of the detection models is low due to small object sizes, dense object distributions and hardware limitations, so an improved YOLOv8s model fused with a multiple feature selection mechanism is proposed. An enhanced convolutional pyramid bottleneck (ECPB) module, integrating the advantages of multi?scale context aggregation (MSCA) mechanism, is designed within the YOLOv8s backbone network, so as to enhance the feature extraction capabilities of the backbone network. The spatial pyramid pooling layer of YOLOv8s is optimized with the concept of large separable kernel attention (LSKA), so as to improve the semantic fusion among different feature layers and capture more object information. The detection head of YOLOv8s is replaced with a newly designed task?adaptive detection head (TADH), so as to enrich the interaction between classification and localization information, strengthen the feature fusion capabilities, and enhance the model′s detection efficiency and detection accuracy. The experimental results show that the improved YOLOv8s model has achieved a 1.9% increase in mAP@0.5 and a 5.6% increase in mAP@0.5:0.95 on the self?made dataset, with a 10.5% reduction in model parameter size. Moreover, the improved model achieves a detection speed of 140 f/s, effectively enabling rapid and accurate detection of pedestrian tasks in the perspective of UAV. In addition, the test on public datasets (VisDrone2019 and CARPK datasets) demonstrates that the model is capable of detecting small objects of various types and possesses good generalization performance.

Keywords: UAV; small object detection; YOLOv8s; multiple feature selection; feature fusion; task dynamic alignment

0" 引" 言

隨著無人機技術的發展,無人機在軍事、農業、交通等領域的應用越來越廣泛。在實際應用中,無人機需要對小目標快速準確的檢測,由于無人機在飛行過程中的高速運動、光照變化以及拍攝視角的不確定性,小目標檢測面臨諸多挑戰。

目前,YOLO系列模型由于性能較佳,已在其他領域的檢測任務中得到廣泛應用。然而,在無人機視角下利用YOLO進行目標檢測,既保證了檢測精度,又具有良好的實時性,仍是當前研究的重點和挑戰。文獻[1]在主干和頸部引入SPD?Conv,避免了跨步卷積和池化的信息丟失。文獻[2]在YOLOv5中使用K?Means++對先驗框的尺寸進行優化。文獻[3]通過在超分辨率方法中加入注意力機制以增強小目標信息提取。文獻[4]引入BiFPN增強特征融合。文獻[5]采用結構參數化和去除冗余信息的思想輕量化模型。文獻[6]提出了一種數據增強技術,該技術與拉普拉斯金字塔和伽馬校正性方法配合使用,以增強模糊性圖像。文獻[7]引入歸一化Wasserstein距離(NWD),以提高模型對小目標回歸框的精度。文獻[8]提出了SPDA?C3結構,用于減少信息丟失,同時側重于有用特征。文獻[9]提出了特征引導增強模塊,通過設計兩個非線性算子來引導訓練時更多的區分特征。

盡管研究者們提出了許多的方法,但由于目標遮擋、目標稠密和目標尺度變化,以及無人機硬件平臺的限制,難以做到高精度檢測與實時性的平衡。針對上述問題,本文提出了一種基于YOLOv8s改進的無人機行人檢測方法,以此來解決當前行人檢測存在的精度低和耗時長等問題。

1" 材料及模型

1.1" 實驗數據及處理

無人機航拍作業在湖北省荊州市開展,涵蓋了校園、公園、廣場、街道、城墻、江灘等各種取樣場所,如圖1所示。實驗數據共6 467張圖像,像素為2 048×1 536,圖像為JPG格式。為了消除圖像的相關性,使模型能夠更好的學習,將數據集的圖像順序隨機打亂,再進行數據集的劃分。本文數據集采用VOC2007格式進行制作,借助標注工具LabelImg對數據集進行人工分類標注。因為項目的關注性,只標注了person一類,按照8∶1∶1的比例拆分為訓練集、驗證集、測試集。

1.2" YOLOv8模型

YOLOv8模型可用于目標檢測、圖像分類和實例分割任務。基于模型網絡深度和寬度的縮放系數,提供了v8n、v8s、v8m、v8l、v8x五種尺度模型,用于滿足不同場景需求。目前,YOLOv8模型仍然在不斷更新中,綜合無人機設備的硬件條件、模型檢測精度、參數量和計算量的影響,本文選擇YOLOv8s作為基準模型(8.1.9版本)。

YOLOv8s模型主要由主干網絡(Backbone)、頸部(Neck)、檢測頭(Head)三部分組成。Backbone負責從輸入圖像中提取特征,然后將特征層輸入到Neck中;Neck是連接Backbone和Head的部分,負責特征融合和處理,為后續任務提供更多信息,以便提高檢測的準確性和效率;Head采用無錨解耦頭,不受固定大小和比例錨框的限制,比基于錨框的方法更為快速高效,泛化性更強,同時包含了三個不同尺寸的檢測頭,用來在較短時間內對不同大小的目標物體進行檢測。

2" 多特征選擇融合的YOLOv8s改進模型

針對小目標缺乏外觀信息和錯綜復雜的場景,對原始模型YOLOv8s做出以下改進。

1) 設計了通道并行多尺度(Channel?parallel Mixed?scale, CPMS)模塊,并嵌入到模型Backbone中的C2f(CSPLayer_2Conv),得到ECPB(Enhanced Convolutional Pyramid Bottleneck)模塊,由此增強主干網絡的特征提取能力。

2) 將LSKA(Large Separable Kernel Attention)融合到空間金字塔池化層(Spatial Pyramid Pooling Fast, SPPF)中,得到聚焦式空間金字塔池化融合(Attentive Spatial Pyramid Pooling Fusion, ASPPF)模塊,由此優化跨層次特征的語義融合,捕獲更多目標信息。

3) 設計了全新的TADH(Task?adaptive Detection Head)檢測頭,豐富分類和定位信息的交互,加強特征融合能力,提升模型的檢測效率和識別準確率。

改進后的YOLOv8s網絡結構如圖2所示。

2.1" 特征選擇型的ECPB模塊

CBAM[10]整合了通道和空間注意力,自動調整通道間和特征圖中不同位置的重要性,但它在輸出特征的通道上強制執行一致的空間注意力分布,造成信息丟失和不適應性,同時會增加模型的計算復雜度。針對CBAM的不足,引入多尺度上下文信息聚合機制[11](Multi?scale Context Aggregation, MSCA),設計了CPMS特征選擇模塊。MSCA使用了多個不同大小的卷積核,用于提取不同尺度的信息,捕獲更豐富的多尺度特征,如圖3所示。CPMS模塊通過MSCA通道注意力的并行,以及空間注意力(Spatial Attention)串行,將有用的信息權重賦大,沒用的信息權重賦小,最后顯式地對MSCA增強后的特征和空間注意力權重進行乘法融合,作用于最終輸出特征,提高模型對有用信息的關注程度,如圖4所示。

用CPMS改造主干中的C2f模塊,設計了ECPB。該模塊可以更好地提煉和增強輸入特征,提高下游任務的性能,如圖5、圖6所示。

ECPB模塊主要是將CPMS特征選擇模塊嵌入到C2f模塊中的Bottleneck,用于替換原模塊中的Bottleneck。在融合CPMS的瓶頸(CPMS?Bottleneck, CPMS?BN)中依然采用兩個卷積模塊,但在殘差連接前,使用CPMS模塊進行特征選擇。YOLOv8s模型的Backbone負責特征提取,將原始模型Backbone中的C2f替換為ECPB,在原提取機制上既增加了不同感受野關注到的空間特征,又增加了通道賦權,從空間和通道兩個維度增強模型Backbone的特征提取能力,有利于提高模型整體性能。同時,因為ECPB模塊大量使用了組卷積,在提升特征提取能力的同時,也能減小模型體積。

2.2" 特征融合型的ASPPF模塊

SPPF通過對特征圖進行不同尺寸的最大池化,提取和整合多尺度特征,生成固定長度的輸出。

由于無人機檢測的行人具有不同的尺度,而LSKA[12]使用大尺度的卷積核來擴展模型的感受野,特別強調對大尺度特征的捕捉。為了提高模型對行人關鍵特征的融合能力,引入LSKA模塊對SPPF進行優化,得到ASPPF,如圖7所示。首先將經過多個池化層拼接后的特征圖輸入到一個11×11的LSKA卷積模塊。這個LSKA卷積模塊利用大尺寸的可分離卷積來捕捉長距離的特征依賴關系,從而在更廣闊的感受野范圍內提取特征。隨后,通過普通卷積對特征進行整合,進而調整Backbone輸出的特征向量的維度。ASPPF相比SPPF,不僅參數量增加較少,還能夠提取多尺度和多方向的特征來增強模型的抗旋轉和尺度變化能力,從而促進模型在特征融合方面的性能。

2.3" 任務對齊動態檢測頭(TADH)模塊

YOLOv8s的Head使用相互獨立的分類和定位分支,樣本分配策略都是和任務無關的,從而造成分類和定位任務之間缺乏信息交互,導致得分高的預測位置不準,位置準的預測得分不高。同時分類和定位分離,模型計算相互獨立,會造成Head部分繁雜,計算量占用巨大。

基于上述不足,參照TOOD[13]和Dyhead[14]的思想,本文設計了一種全新的檢測頭TADH,如圖8所示。

TADH盡可能保證圖像特征在輸入到預測卷積之前,分類與定位兩個分支具有特征的交互。在TADH中先經過兩個GN[15]歸一化的共享卷積層,再進行通道連接,實現圖像特征的動態交互。之后分為三條支路,上支路生成可變形卷積(Deformable Convolutional Network v2, DCNv2)的掩膜(mask)和偏移量(offset),提高網絡對復雜場景的適應性和特征提取的準確性。下支路依次使用1×1的Conv層、ReLU激活函數、3×3的Conv層、Sigmoid激活函數,組成動態特征選擇模塊,用交互特征去生成動態特征選擇權重。中支路分為定位和分類,分別經過任務拆解(Task Decomposition)模塊。在此之后,定位分支使用DCNv2和交互特征生成的mask和offset,通過卷積邊界框(Convolutional Bounding Box, Conv_Bbox)進行目標定位,同時為了應對每個檢測頭所檢測的目標尺度不一致的問題,使用尺度層進行尺度的縮放。分類分支使用動態特征選擇權重與任務拆解后的特征進行相乘,增加它們交互的能力,再通過卷積分類器(Convolutional Classifier, Conv_Cls)進行目標的分類。通過使用TADH檢測頭,可以大幅減少參數量,使模型更加輕便,同時還利用了定位和分類的交互特征,提高了模型檢測的精度。

3" 改進模型實驗結果與分析

3.1" 數據集及實驗環境

為了驗證本文方法的有效性和泛化性,實驗使用數據集除自制數據集外,還使用了VisDrone2019[16]數據集和CARPK[17]數據集。VisDrone2019數據集由天津大學機器學習與數據挖掘實驗室收集并發布,由6 471張訓練集、548張驗證集、1 610張測試集組成,共包含10類航拍檢測目標,包括行人、人、自行車、汽車、面包車、卡車、三輪車、遮陽三輪車、公共汽車、摩托車。CARPK數據集由無人機低空拍攝,專注于單一類別的汽車檢測,涵蓋了多個停車場景下的近90 000輛汽車圖像,包含989張訓練集和459張測試集。

實驗中GPU為NVIDIA GeForce RTX 12 GB,CPU為Intel[?] CoreTM i5?12490F CPU@3 GHz,深度學習PyTorch框架采用1.13.1+CU117,Python版本為3.9.0。具體實驗環境參數設置如表1所示。

在本文的實驗中,所有模型均接受尺寸為640×640像素的輸入圖像。為了確保訓練的一致性,在相同的實驗條件下,所有模型在三個數據集上均使用表1中的訓練參數,并進行300個訓練周期。為了優化訓練效率,本文引入了早停機制:當模型在接近50個訓練周期內未能展現出性能上的提升時,該機制將被觸發,從而提前終止訓練過程。

3.2" 實驗評估標準

實驗選用[P](Precision,準確率)、[R](Recall,召回率)、AP(Average Precision,平均精度)、mAP(mean Average Precision,平均精度均值)來評估模型,并分別選取IoU為0.5和IoU為0.5~0.95區間時的mAP作為行人檢測的性能評價指標,數值越高表明模型的檢測效果越好,其中[P]、[R]、AP、mAP的計算如式(1)~式(4)所示。

[P=TPTP+FP] (1)

[R=TPTP+FN] (2)

[AP=01PRdR] (3)

[mAP=1Ni=1NAPi] (4)

式中:真陽性(True Positive, TP)為行人被模型正確預測的數量;假陽性(False Positive, FP)為非行人被模型預測為行人的數量;假陰性(False Negative, FN)為行人被模型預測為非行人的數量。由于本文的檢測任務中只有行人一個種類,所以AP和mAP相等。同時,選擇參數量(Parameters)、模型大?。∕odelsize)作為模型的量級評判標準,數值越小說明模型的復雜度越低。采用每秒幀數(Frames Per Second, FPS)作為模型的實時性評判標準,數值越大說明模型的實時性越強。

3.3" 改進方法效果對比

3.3.1" 主干網絡改進實驗

YOLOv8s模型的主干網絡中共包含4個C2f模塊,為確定主干使用ECPB效果最佳的位置及個數,現采用提出的ECPB模塊對主干的每個C2f模塊進行替換,并測試改進后模型的精度,結果如表2所示。由表2可知,引入ECPB模塊,模型mAP@0.5最高會提升1.3%,模型的體積也會得到優化。

但過度使用ECPB模塊會導致模型結構復雜,進而增加計算負擔,并造成模型體積的擴張。過度復雜的模型易于出現過擬合現象,會削弱模型在實際應用中的準確性和可靠性。如表2所示,本文將YOLOv8s主干網絡中第1個C2f模塊替換為ECPB模塊,在網絡的初步階段實現對特征圖的自適應調整,優化對小目標區域的關注度,從而在后續的特征提取和融合過程中,更加精準地聚焦于這些關鍵區域,提升模型對小目標的識別能力和準確性,進而增強整體的檢測性能。

3.3.2" 消融實驗

對YOLOv8s模型進行改進,并對每個改進的結果進行統計分析,結果如表3所示。在對YOLOv8s模型進行改進的過程中,分別采用了ECPB、ASPPF、TADH三種不同的優化策略,并將改進后的結果分別標記為A、B、C。實驗數據顯示,A、B、C方案顯著增強了模型在特征選擇和融合方面的能力,促成了[R]指標0.026%、0.024%、0.029%的提升,實現了mAP@0.5指標0.013%、0.014%、0.018%的提升,同時mAP@0.5:0.95指標也分別提升了0.043%、0.042%、0.06%。很明顯,C方案的提升效果最好,這說明頭部的特征融合(C方案)強于主干部分的特征融合(B方案)。但C方案的FPS相比于原模型下降了很多,不利于無人機的實時性檢測。而B方案雖然在性能提升上不如C方案,但FPS效果最好,這使得模型在無人機硬件上的應用部署更為高效。將這三種改進策略綜合應用于模型中,得到實驗結果D。與原始模型相比,D方案不僅在體積上減少了2.2 MB,而且[P]、[R]、mAP@0.5、mAP@0.5:0.95指標分別提升了0.007%、0.027%、0.019%、0.056%,其FPS也得到了提升,這表明D方案在無人機視角的目標檢測任務中具有更加出色的表現,更適合此類的目標檢測任務。

3.3.3" 不同目標檢測算法的性能比較

為了全面評估改進后的模型的檢測性能,本文將其與YOLOv3s[18]、YOLOv5s[19]、YOLOv6[20]等代表性模型進行對比實驗,結果如表4所示。由實驗結果可知,改進后模型的mAP@0.5能夠達到94.2%,對比YOLOv3s提升1.4%,對比YOLOv5s提升3.8%,對比YOLOv6提升3.3%,對比YOLOv7?tiny提升8%,對比YOLOv8s提升1.9%。改進后的模型在眾多指標上都能夠超越其他模型,模型參數量更低,模型大小也能夠滿足移植性的需要,mAP@0.5:0.95也更高,說明改進后的模型對于不同的目標尺寸、形狀和位置變化具有較好的適應性,能夠有效地檢測到小目標和邊界不明顯的目標。因此,本文提出的改進模型更適用于無人機視角的小目標檢測任務。

3.3.4" 通用性對比實驗

在VisDrone數據集上,用改進后的模型與YOLOv8s進行對比實驗,實驗結果如表5所示。

實驗結果證明,本文所改進后的模型不僅在自制數據集上表現出色,而且在其他無人機視角下的數據集上也展現出了顯著的效果。這一結果充分證明了改進后模型的普適性和有效性,表明其在無人機視角圖像處理領域的廣泛應用潛力。

在CARPK數據集上,用改進后的模型與YOLOv8s進行對比實驗,實驗結果如表6所示。

實驗結果證明,本文改進后的模型不僅適用于無人機視覺領域的行人檢測任務,而且對于小目標數據集,同樣能夠帶來顯著的性能提升。特別是在CARPK數據集上的應用,盡管原始的YOLOv8s模型已經展現出了較高的精度,但本文改進后的模型依然能夠在此基礎上進一步增強[P]、[R]、mAP@0.5和mAP@0.5:0.95等關鍵性能指標。

3.3.5" 檢測結果可視化

圖9、圖10分別展示了本文改進后的模型在無人機視角的行人檢測中對于稀疏和密集分布的行人、不同光照條件下的行人的檢測性能效果,以及改進后的模型熱力圖。圖9a)~圖9c)、圖10a)~圖10c)是改進后的模型檢測效果,圖9d)~圖9f)、圖10d)~圖10f)是改進后的模型熱力圖。

效果圖表明,在行人密集的檢測場景中,改進后的模型能夠以更高的準確度識別并定位更多的行人。同樣,在行人稀疏的環境中,該模型也展現出了其優越性,能夠有效地降低漏檢和誤檢的情況。

此外,改進后的模型也展現了出色的光照適應性。無論是在強光還是弱光環境下,本文模型都能夠有效地克服光照變化帶來的影響,確保行人檢測的穩定性和準確性。

熱力圖表明,無論是在行人密集還是稀疏的區域,模型可以清晰地區分和定位每一個獨立的行人,無論行人目標大小,模型都能夠捕捉到微弱或隱蔽的目標信號,并將這些信息有效地呈現出來,體現了模型對細節的高度敏感性和強大的行人檢測能力。

4" 結" 論

本文建立了無人機航拍圖像數據集,提出了一種無人機視角下高效檢測行人的方法。設計了ECPB特征選擇模塊,增強網絡的特征提取能力和自適應泛化能力,降低模型的計算復雜度。通過ASPPF特征融合模塊來提升不同特征層間的語義融合。采用全新檢測頭TADH充分利用分類與定位特征的交互,提升模型的檢測效果。與主流目標檢測模型和基準模型相比,對于無人機行人檢測,改進后的模型在檢測精度方面更有優勢,能夠更好地完成復雜自然環境下的檢測任務,更適應多樣化的實際行人檢測場景,而且改進后的模型參數量更少,以較小的計算成本實現了較高的性能。此外,該模型的檢測速度也達到了實時處理的要求,滿足快速響應的需求。接下來將繼續優化模型,進一步提升其在小目標檢測方面的精度。同時,對模型進行輕量化處理,以便能夠更好地嵌入到無人機設備中,促進無人機視角行人檢測工作的高效進行。

注:本文通訊作者為周籮魚。

參考文獻

[1] 譚亮,趙良軍,鄭莉萍,等.基于YOLOv5s?AntiUAV的反無人機目標檢測算法研究[J].電光與控制,2024,31(5):40?45.

[2] 關玉明,王肖霞,楊風暴,等.基于輕量級網絡的小目標檢測算法[J].現代電子技術,2024,47(1):44?50.

[3] 馬俊燕,常亞楠.MFE?YOLOX:無人機航拍下密集小目標檢測算法[J].重慶郵電大學學報(自然科學版),2024,36(1):128?135.

[4] 于泳波,袁棟梁,孫振,等.基于YOLOv8s的城市背景煙火檢測算法[J/OL].無線電工程:1?10[2024?03?12].http://kns.cnki.net/kcms/detail/13.1097.TN.20240312.1344.010.html.

[5] 張峻祎,丁冰,丁潔.基于弱光環境的車輛識別研究[J].現代電子技術,2024,47(7):17?24.

[6] GUPTA C, GILL N S, GULIA P. A novel finetuned YOLOv8 model for real?time underwater trash detection [J]. Journal of real?time image processing, 2024, 21(2): 48.

[7] QU J S, TANG Z B, ZHANG L, et al. Remote sensing small object detection network based on attention mechanism and multi?scale feature fusion [J]. Remote sensing, 2023, 15(11): 2728.

[8] SUN C Y, CHEN Y J, XIAO C, et al. YOLOv5s?DSD: An improved aerial image detection algorithm based on YOLOv5s [J]. Sensors, 2023, 23(15): 6905.

[9] HUANG S Q, REN S S, WU W, et al. Discriminative features enhancement for low?altitude UAV object detection [J]. Pattern recognition, 2024, 147: 110041.

[10] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional block attention module [C]// Proceedings of the European Conference on Computer Vision. Heidelberg, Germany: Springer, 2018: 3?19.

[11] GUO M H, LU C Z, HOU Q B, et al. SegNeXt: Rethinking convolutional attention design for semantic segmentation [C]// Advances in Neural Information Processing Systems 35: Annual Conference on Neural Information Processing Systems 2022. [S.l.: s.n.], 2022: 1140?1156.

[12] LAU K W, PO L M, REHMAN Y A U, et al. Large separable kernel attention: Rethinking the large kernel attention design in CNN [J]. Expert systems with applications, 2024, 236: 121352.

[13] FENG C J, ZHONG Y J, GAO Y, et al. TOOD: Task?aligned one?stage object detection [C]// 2021 IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 3490?3499.

[14] DAI X Y, CHEN Y P, XIAO B, et al. Dynamic head: Unifying object detection heads with attentions [C]// 2021 IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 7373?7382.

[15] TIAN Z, SHEN C H, CHEN H, et al. FCOS: Fully convolutional one?stage object detection [C]// 2019 IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2019: 9626?9635.

[16] DU D W, ZHANG Y, WANG Z X, et al. VisDrone?DET2019: The vision meets drone object detection in image challenge results [C]// 2019 IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2019: 213?226.

[17] HSIEH M R, LIN Y L, HSU W H, et al. Drone?based object counting by spatially regularized regional proposal network [C]// 2017 IEEE International Conference on Computer Vision. New York: IEEE, 2017: 4165?4173.

[18] REDMON J, FARHADI A. YOLOv3: An incremental improvement [EB/OL]. [2018?08?13]. http://arxiv.org/abs/1804.02767.

[19] JUNG H K, CHOI G S. Improved YOLOv5: Efficient object detection using drone images under various conditions [J]. Applied sciences, 2022, 12(14): 7255.

[20] LI C Y, LI L L, JIANG H L, et al. YOLOv6: A single?stage object detection framework for industrial applications [EB/OL]. [2024?03?19]. https://doi.org/10.48550/arXiv.2209.02976.

作者簡介:陳振羽(2000—),男,湖北襄陽人,碩士研究生,研究方向為深度學習與圖像處理、目標檢測。

賈明賓(1984—),男,陜西西安人,碩士研究生,高級工程師,研究方向為信號智能處理。

周籮魚(1985—),男,湖南邵陽人,博士研究生,副教授,碩士生導師,研究方向為計算機視覺以及人工智能。

收稿日期:2024?06?01" " " " " "修回日期:2024?06?25

基金項目:國家自然科學基金項目(61901059)

猜你喜歡
無人機
基于蟻群算法的一種無人機二維航跡規劃方法研究
無人機動態跟蹤展示系統設計
無人機配送的障礙性因素分析
無人機在海上人命救助中的應用
植保無人機操作規程及注意事項
高職院校新開設無人機專業的探討
人間(2016年26期)2016-11-03 17:52:40
利用無人機進行航測工作的方式方法
一種適用于輸電線路跨線牽引無人機的飛行方案設計
科技視界(2016年22期)2016-10-18 14:30:27
淺析無人機技術在我國的發展前景
企業導報(2016年9期)2016-05-26 20:58:26
主站蜘蛛池模板: 丁香婷婷激情综合激情| 九九九久久国产精品| 无套av在线| 亚洲国产欧美国产综合久久 | 国产女同自拍视频| 国产制服丝袜无码视频| 国产精品午夜福利麻豆| 99福利视频导航| 欧美亚洲国产精品久久蜜芽| 一级高清毛片免费a级高清毛片| 一本综合久久| 欧美色香蕉| 色综合久久88| 成人福利在线观看| www亚洲精品| 国产18在线播放| 亚洲第一成年免费网站| 直接黄91麻豆网站| 麻豆精品国产自产在线| 久久人体视频| 日韩不卡免费视频| 国产黄色免费看| 亚洲首页国产精品丝袜| 久久国产精品国产自线拍| 欧美精品v日韩精品v国产精品| 少妇露出福利视频| 最新无码专区超级碰碰碰| 91精品国产综合久久香蕉922| 99手机在线视频| 暴力调教一区二区三区| 久久这里只有精品66| 日本三区视频| 欧洲亚洲欧美国产日本高清| 亚洲婷婷丁香| 免费观看无遮挡www的小视频| 欧美日韩v| 一级毛片网| 国产成人a毛片在线| 欧美午夜久久| 亚洲综合日韩精品| 国产va欧美va在线观看| 国产91麻豆免费观看| 五月天丁香婷婷综合久久| 欧美精品影院| 尤物视频一区| 性69交片免费看| 一级毛片免费观看不卡视频| 国产精品妖精视频| 久久精品中文字幕免费| 91精品啪在线观看国产| 91精品人妻一区二区| 国产91线观看| 日韩免费视频播播| 97亚洲色综久久精品| 色悠久久久久久久综合网伊人| 刘亦菲一区二区在线观看| 亚洲欧美日韩天堂| 免费一级毛片完整版在线看| 亚洲色图另类| 免费女人18毛片a级毛片视频| 韩日无码在线不卡| 午夜a级毛片| 中文字幕免费播放| 欧美区国产区| 久久77777| 国产午夜福利在线小视频| 亚洲天堂网视频| 国产精品浪潮Av| 香蕉在线视频网站| 国产精品短篇二区| 99人体免费视频| 免费观看精品视频999| 欧美国产在线看| 超清无码一区二区三区| 亚洲国产欧洲精品路线久久| 无码电影在线观看| 色婷婷色丁香| swag国产精品| 国产91全国探花系列在线播放| 精品少妇人妻一区二区| 无码一区二区波多野结衣播放搜索 | AV不卡国产在线观看|