999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)YOLOv5的復(fù)雜場景電動車頭盔檢測方法

2025-01-06 00:00:00韓東辰張方暉王詩洋段克盼李寧星王凱
現(xiàn)代電子技術(shù) 2025年1期
關(guān)鍵詞:特征檢測信息

摘" 要: 佩戴電動車頭盔是安全騎行的重要保障,對電動車駕乘人員佩戴頭盔進(jìn)行有效檢測在保障駕乘人員安全方面具有重要意義。電動車頭盔檢測中存在目標(biāo)之間相互遮擋、復(fù)雜背景干擾、頭盔目標(biāo)小等問題,現(xiàn)有方法尚不能滿足復(fù)雜場景下電動車頭盔檢測的要求,因此,提出一種改進(jìn)YOLOv5的復(fù)雜場景電動車頭盔識別方法。首先,提出一種新的主干網(wǎng)絡(luò)結(jié)構(gòu)ML?CSPDarknet53,增強(qiáng)網(wǎng)絡(luò)的特征提取能力,引入輕量級上采樣算子CARAFE,利用特征圖語義信息擴(kuò)大感受野;其次,搭建坐標(biāo)卷積CoordConv模塊,增強(qiáng)網(wǎng)絡(luò)對空間信息的感知能力,并將WIoU v3作為邊界框損失函數(shù),降低低質(zhì)量樣本對模型性能的不利影響;最后,構(gòu)建了內(nèi)容豐富的頭盔檢測數(shù)據(jù)集對改進(jìn)算法進(jìn)行驗證。實驗結(jié)果表明,改進(jìn)后算法相較于原算法在精確度、召回率、mAP@0.5、mAP@0.5:0.95上分別提升了2.9%、3.0%、3.4%和2.2%,并且性能優(yōu)于其他主流檢測算法,滿足復(fù)雜道路交通場景下電動車駕乘人員頭盔檢測的任務(wù)要求。

關(guān)鍵詞: 頭盔檢測; 改進(jìn)YOLOv5; 復(fù)雜場景; 目標(biāo)遮擋; 特征提??; 上采樣; 坐標(biāo)卷積; 損失函數(shù)

中圖分類號: TN911.73?34; TP391.41" " " " " " " " "文獻(xiàn)標(biāo)識碼: A" " " " " " " " "文章編號: 1004?373X(2025)01?0123?07

Improved YOLOv5 based electric bicycle helmet detection method in complex scenes

HAN Dongchen, ZHANG Fanghui, WANG Shiyang, DUAN Kepan, LI Ningxing, WANG Kai

(School of Electronic Information and Artificial Intelligence, Shaanxi University of Science and Technology, Xi’an 710021, China)

Abstract: Wearing an electric bicycle helmet is an important guarantee for safe riding, and it is of great significance to ensure the personnel safety by effectively detecting the helmet wearing of drivers and passengers of electric bicycles. Due to the factors of mutual occlusion of objects, complex background interferences, and excessive small size of the helmets (the objects) in the detection, the existing methods fail to meet the requirements of helmet detection in complex scenes, so this paper proposes an improved YOLOv5 based electric bicycle helmet recognition method in complex scenes. A new backbone network structure ML?CSPDarknet53 is proposed to enhance the feature extraction capability of the network. The lightweight up?sampling operator CARAFE is introduced. The semantic information of the feature map is used to expand the receptive field. A coordinate convolution CoordConv module is built to enhance the network′s perception of spatial information, and the WIoU (wise?IoU) v3 is taken as the bounding box loss function to reduce the adverse impact of low?quality samples on model performance. A rich helmet detection dataset is constructed to verify the improved algorithm. The experimental results show that the accuracy, recall rate, mAP@0.5 and mAP@0.5:0.95 of the proposed algorithm is improved by 2.9%, 3.0%, 3.4% and 2.2%, respectively, in comparison with that of the original algorithm, and the performance of the proposed algorithm is better than that of the other mainstream detection algorithms. Therefore, the proposed algorithm can meet the requirements of helmet detection of drivers and passengers of electric bicycles in complex scenes of road traffic.

Keywords: helmet detection; improved YOLOv5; complex scene; object occlusion; feature extraction; up?sampling; CoordConv; loss function

0" 引" 言

隨著我國電動車社會保有量逐年增加,電動車交通事故的發(fā)生日漸頻繁。電動車事故中駕乘人員多是頭部首先受到撞擊,電動車頭盔是保護(hù)駕乘人員頭部安全的關(guān)鍵裝備。摩托車頭盔可以降低72%的頭部損傷風(fēng)險和39%的致死風(fēng)險[1]。佩戴頭盔可以有效提高生還幾率。2020年公安部和交通管理局聯(lián)合部署了“一盔一帶”安全守護(hù)行動[2],旨在全面整治電動車用戶不戴頭盔等違法行為。但采用人工臨檢方式費時費力,因此設(shè)計一種用于檢測駕乘人員是否佩戴頭盔的智能交通算法至關(guān)重要。

近些年來人工智能技術(shù)快速發(fā)展,基于深度學(xué)習(xí)的目標(biāo)檢測技術(shù)在道路交通和安全防護(hù)等領(lǐng)域取得了令人矚目的成就。目前已經(jīng)有學(xué)者開展了有關(guān)電動車駕乘人佩戴頭盔檢測的研究。文獻(xiàn)[3]在SSD網(wǎng)絡(luò)中引入了注意力機(jī)制和類似人類視覺偏心率機(jī)制的模塊。文獻(xiàn)[4]在YOLOv4網(wǎng)絡(luò)中用K?means算法進(jìn)行聚類,在主干網(wǎng)絡(luò)中引入卷積層和PANet網(wǎng)絡(luò),并添加SPP空間池化金字塔。文獻(xiàn)[5]在YOLOv5網(wǎng)絡(luò)中引入ECA?Net通道注意力機(jī)制、Bi?FPN加權(quán)雙向特征金字塔和[α]?CIoU損失函數(shù)。文獻(xiàn)[6]中結(jié)合ShuffleNetv2和GhostNet,對YOLOv5骨干網(wǎng)絡(luò)和Neck部分進(jìn)行輕量化,提出基于Add的特征融合方法,有效降低了模型參數(shù)量和運算量。文獻(xiàn)[7]基于SSD算法設(shè)計了一種駕乘人員所在區(qū)域的頭盔檢測分類網(wǎng)絡(luò)。文獻(xiàn)[8]提出一種通過車手檢測和頭肩檢測共同完成的檢測算法,具有較好的魯棒性。文獻(xiàn)[9]在YOLOv5網(wǎng)絡(luò)中融合了三重注意力,結(jié)合Soft?NMS提出了一種摩托車車手頭盔檢測方法。文獻(xiàn)[10]設(shè)計了一個可同時識別幀間相似性和完成頭盔分類的網(wǎng)絡(luò)模型,并且與采用Retinanet作為二輪車檢測器的網(wǎng)絡(luò)共同完成了二輪車檢測、跟蹤和頭盔佩戴分類的實現(xiàn)。

綜上所述,現(xiàn)有的網(wǎng)絡(luò)模型在電動車頭盔檢測問題上已取得了一定的進(jìn)展,但在交通繁忙路段下的檢測性能相對較差。具體表現(xiàn)為道路擁擠時會導(dǎo)致多目標(biāo)之間相互遮擋的情況出現(xiàn),這嚴(yán)重影響了網(wǎng)絡(luò)模型的特征提取過程。此外,目前公開的電動車頭盔檢測數(shù)據(jù)集較少,且場景內(nèi)容較為簡單,同樣會導(dǎo)致網(wǎng)絡(luò)模型在道路擁擠時檢測性能大幅降低。

為解決上述問題,本文提出一種基于改進(jìn)YOLOv5s的電動車駕乘人員頭盔佩戴檢測算法,主要創(chuàng)新點有:提出一種新的主干網(wǎng)絡(luò)結(jié)構(gòu)ML?CSPDarknet53;引入CARAFE上采樣算子;搭建坐標(biāo)卷積模塊;用WiseIoU Loss代替原損失函數(shù)。

1" 改進(jìn)算法

本文對原網(wǎng)絡(luò)進(jìn)行了如下改進(jìn):針對復(fù)雜背景中小目標(biāo)間相互遮擋的問題,提出一種新的主干網(wǎng)絡(luò)結(jié)構(gòu)ML?CSPDarknet53,在原主干網(wǎng)絡(luò)的基礎(chǔ)上添加MLCA注意力機(jī)制,可以同時關(guān)注通道信息、空間信息、局部信息和全局信息,增強(qiáng)特征提取能力;引入輕量級上采樣算子CARAFE,利用特征圖語義信息獲得更大感受野和較強(qiáng)的內(nèi)容感知;在FPN和Head部分設(shè)計添加坐標(biāo)卷積模塊,增強(qiáng)網(wǎng)絡(luò)對空間信息的感知能力。針對自制數(shù)據(jù)集中存在的低質(zhì)量樣本問題,將原網(wǎng)絡(luò)中的CIoU Loss損失函數(shù)更改為具有動態(tài)非單調(diào)聚焦機(jī)制的WiseIoU Loss,降低低質(zhì)量樣本對模型性能的不利影響。改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

1.1" ML?CSPDarknet53結(jié)構(gòu)

YOLOv5s網(wǎng)絡(luò)中采用CSPDarknet53結(jié)構(gòu),該結(jié)構(gòu)借鑒了CSPNet的思想[11]。但在面對真實道路交通場景時會受復(fù)雜背景影響從而影響主干網(wǎng)絡(luò)的特征提取能力。因此本文在原主干網(wǎng)絡(luò)的基礎(chǔ)上,提出一種新的主干網(wǎng)絡(luò)結(jié)構(gòu)ML?CSPDarknet53。具體方法為:在原結(jié)構(gòu)中加入混合局部通道注意力(MLCA)機(jī)制[12],結(jié)構(gòu)如圖2所示。

注意力機(jī)制可使得神經(jīng)網(wǎng)絡(luò)強(qiáng)調(diào)重要區(qū)域并且抑制不相關(guān)的區(qū)域,但大多數(shù)注意力方法通常都忽視了構(gòu)建空間注意力圖至關(guān)重要的空間特征信息。對于包含空間信息的注意力方法,由于計算和參數(shù)要求過大,在添加該方法時往往需要縮減其通道維度,極易導(dǎo)致精度下降。

為了引入更為細(xì)致的空間信息,將輸入分割成多個小塊,Local SE注意力相當(dāng)于多個局部SE的疊加,然而大量的小塊疊加會導(dǎo)致參數(shù)量過多的問題。MLCA注意力機(jī)制通過采取單維度卷積加速方法有效降低了計算復(fù)雜度和參數(shù)量。

MLCA對輸入的特征向量進(jìn)行兩次池化操作,先通過局部池化將輸入轉(zhuǎn)換為[1×C×ks×ks]的向量,以提取局部空間信息。在初始階段的基礎(chǔ)上,通過兩個分支將輸入轉(zhuǎn)換為一維向量,其中第一個分支包含全局信息,第二個分支包含局部空間信息。隨后,經(jīng)過一維卷積,利用反池化操作恢復(fù)兩個向量的原始分辨率,輔以信息融合實現(xiàn)混合注意力。MLCA結(jié)構(gòu)圖如圖3所示。

本文通過在原主干網(wǎng)絡(luò)基礎(chǔ)上添加MLCA結(jié)構(gòu),使網(wǎng)絡(luò)能夠在不犧牲計算效率的前提下同時融合通道信息、空間信息、局部信息以及全局信息,增強(qiáng)主干網(wǎng)絡(luò)在復(fù)雜道路場景下的特征提取能力。

1.2" 引入輕量級通用上采樣算子CARAFE

在目標(biāo)檢測任務(wù)中,為了能夠更好地定位和檢測更小的目標(biāo),通常使用上采樣操作將低分辨率的特征圖映射到高分辨率。YOLOv5s網(wǎng)絡(luò)中Neck部分負(fù)責(zé)融合不同層次的特征,使用的是最近鄰上采樣的方法,該方法操作簡單、速度較快,有助于特征信息在不同尺度的特征圖之間傳遞。但是最近鄰上采樣方法在決定上采樣核時沒有利用到特征圖的語義信息,并且感受野較小。

針對上述問題,本文引入了輕量級通用上采樣算子CARAFE[13]。該方法分為兩個部分,分別是上采樣核預(yù)測模塊和特征重組模塊。在上采樣核預(yù)測階段,對于形狀為[H×W×C]的輸入特征圖,首先用一個[1×1]卷積將通道數(shù)壓縮至[H×W×Cm]。假設(shè)上采樣核尺寸為[kup×kup],若希望對輸出特征圖的不同位置使用不同的上采樣核,那么需要預(yù)測的上采樣核形狀為[σH×σW×kup×kup]。對于壓縮后的輸入特征圖,利用一個[kencoder×kencoder]大小的卷積層預(yù)測上采樣核,輸入通道數(shù)為[Cm],輸出通道數(shù)為[σ2k2up],將其在空間維度展開,得到形狀為[σH×σW×k2up]的上采樣核。再將上采樣核利用softmax進(jìn)行歸一化,使得卷積核權(quán)重和為1。在特征重組模塊中,對于輸出特征圖中的不同位置,將其映射回輸入特征圖,取出其中心的[kup×kup]區(qū)域,與該位置上采樣核作點積,輸出為該位置的上采樣特征。通過特征重組,局部區(qū)域相關(guān)特征點的信息會獲得更多的關(guān)注,以提升特征圖語義信息的強(qiáng)度。CARAFE框架如圖4所示。

1.3" 坐標(biāo)卷積CoordConv模塊

傳統(tǒng)卷積在檢測、分類等任務(wù)中因其參數(shù)量少、計算高效并且具有平移不變性等優(yōu)勢得到了廣泛的應(yīng)用。但平移不變性的特點在需要考慮空間信息和位置關(guān)系的任務(wù)時,就是一個不利因素。在本文任務(wù)場景中,常常會遇到交通環(huán)境復(fù)雜、駕乘人之間互相遮擋的情況,傳統(tǒng)卷積因無法充分考慮像素具體位置坐標(biāo)信息而導(dǎo)致檢測性能下降。為解決這一問題,本文引入了CoordConv[14]坐標(biāo)卷積模塊。

CoordConv可以允許網(wǎng)絡(luò)保留或丟棄平移不變性的特性以適應(yīng)不同任務(wù)的需求,它是傳統(tǒng)卷積的擴(kuò)展,通過在輸入通道連接兩個額外的通道[i]和[j]后再進(jìn)行傳統(tǒng)卷積來完成。傳統(tǒng)卷積如圖5所示,形狀[h×w×c]卷積后映射為[h'×w'×c']。CoordConv示意圖將兩個額外的[i]和[j]通道連接到輸入通道來完成,將輸入數(shù)據(jù)的坐標(biāo)信息融入網(wǎng)絡(luò)的學(xué)習(xí)過程中。該設(shè)計可保障CoordConv更加敏感于不同位置的特征,有助于提高網(wǎng)絡(luò)對空間關(guān)系的理解能力。CoordConv示意圖如圖6所示。

由于CoordConv在傳統(tǒng)卷積中添加了兩個輸入通道,在一定程度上增加了參數(shù)量和計算量,為盡可能地降低影響,實現(xiàn)網(wǎng)絡(luò)結(jié)構(gòu)輕量化,本文在Neck部分替換FPN結(jié)構(gòu)中的傳統(tǒng)卷積,并且在每個Head頭部添加一層CoordConv,以此來更多地獲取坐標(biāo)信息,從而更好地應(yīng)對目標(biāo)整體或部分被遮擋的情況。

1.4" 邊界框損失函數(shù)改進(jìn)

YOLOv5中使用CIoU_Loss[15]計算邊界框損失,CIoU_Loss表達(dá)式為:

[LCIoU=1-IoU+ρ2(b,bgt)c2+αv] (1)

[α=v(1-IoU)+v] (2)

[v=4π2arctanwgthgt-arctanwh2] (3)

式中:IoU為交并比;[b]、[bgt]為預(yù)測框和真實框的中心點;[ρ2(b,bgt)]是兩個中心點之間的歐氏距離;[w]、[h]、[wgt]、[hgt]分別是預(yù)測框和真實框的寬高;[c]是包含預(yù)測框和真實框最小矩形的對角線長度。

CIoU考慮了預(yù)測框與真實框中心點距離長寬比的影響,但未考慮到優(yōu)劣樣本平衡的問題。目前有關(guān)電動車駕乘人員佩戴頭盔的數(shù)據(jù)集較少,本文實驗數(shù)據(jù)均為自主采集制作而成,故不可避免的有人為因素的影響而含有部分低質(zhì)量的標(biāo)注信息。此時使用CIoU_Loss便會因低質(zhì)量邊框信息而加強(qiáng)邊界回歸從而降低模型性能。因此本文引入Wise?IoU(WIoU)[16]作為邊界框損失函數(shù)。

WIoU具有v1、v2、v3三個版本。根據(jù)距離度量構(gòu)建距離注意力,最后得到了具有兩層注意力機(jī)制的WIoUv1。

[LWIoUv1=RWIoULIoU] (4)

[RWIoU=exp(x-xgt)2+(y-ygt)2(w2g+h2g)2] (5)

式中[RWIoU∈[1,e)],將顯著放大普通質(zhì)量預(yù)測框的[LIoU]。[LIoU∈[0,1]],將顯著降低高質(zhì)量預(yù)測框的[RWIoU],并在預(yù)測框與真實框重合較好的情況下顯著降低其對中心點距離的關(guān)注。

在WIoU v2中,構(gòu)造了[LWIoU v1]的單調(diào)聚焦系數(shù)[Lγ*IoU],有效降低了簡單樣本對損失值的貢獻(xiàn),使得模型能夠聚焦復(fù)雜樣本,分類性能獲得提升。

[LWIoU v2=Lγ*IoULWIoU v1," " γgt;0] (6)

為了解決后期收斂速度變慢的問題,引入[LIoU]的均值作為歸一化因子:

[LWIoU v2=L*IoULIoUγLWIoU v1] (7)

式中[LIoU]表示動量為[m]的滑動平均值,動態(tài)更新歸一化因子使得梯度增益[L*IoULIoUγ]保持較高水平。

在WIoUv3中,定義離群度[β]用以描述預(yù)測框質(zhì)量。

[β=L*IoULIoU∈[0,+∞)] (8)

式中,[β]較小表示預(yù)測框質(zhì)量高,為其分配小的梯度增益,以便于邊界框回歸聚焦到普通質(zhì)量的預(yù)測框上,[β]較大的預(yù)測框分配小的梯度增益將有效防止低質(zhì)量樣本產(chǎn)生較大的有害梯度。利用[β]構(gòu)造一個非單調(diào)聚焦系數(shù),將其應(yīng)用于WIoU v1。

[LWIoU v3=βδαβ-δLWIoU v1] (9)

因為[LIoU]是動態(tài)的,所以預(yù)測框質(zhì)量劃分標(biāo)準(zhǔn)也是動態(tài)的,所以WIoU v3可在任意時刻做出合理的梯度增益分配策略。

2" 實驗與結(jié)果分析

2.1" 實驗環(huán)境配置與參數(shù)設(shè)置

本文所有實驗環(huán)境基于PyTorch 2.1.1框架,Python版本為3.8,CUDA版本為12.2。所有模型均部署在CPU為Intel Xeon[?] Silver 4214R,GPU為NVIDIA GeForce RTX 3080 Ti(12 GB),操作系統(tǒng)為Ubuntu 18.04,內(nèi)存為90 GB的設(shè)備上進(jìn)行訓(xùn)練測試。本文在模型訓(xùn)練時采用余弦退火策略調(diào)整學(xué)習(xí)率,不加載COCO數(shù)據(jù)集的預(yù)訓(xùn)練權(quán)重,訓(xùn)練過程中的網(wǎng)絡(luò)參數(shù)設(shè)置如表1所示。

2.2" 數(shù)據(jù)集

為了制作數(shù)據(jù)類型豐富的電動車頭盔檢測數(shù)據(jù)集,本文在陜西省咸陽市、陜西省西安市、河南省鄭州市、北京市等不同路段不同時間采集非機(jī)動車道的實時交通影像數(shù)據(jù),將視頻文件每隔500 ms進(jìn)行截取。為了保證數(shù)據(jù)集質(zhì)量,對所有圖片進(jìn)行多次篩選,最終共篩選出3 390張可作為電動車頭盔檢測數(shù)據(jù)集的圖片,數(shù)據(jù)集部分樣本如圖7所示。

利用LabelImg工具對數(shù)據(jù)集進(jìn)行標(biāo)注。根據(jù)本文任務(wù)要求,設(shè)置三類標(biāo)簽:其中“helmet”指佩戴頭盔,“without_helmet”指未佩戴頭盔,“two_wheeler”指電動車。最后將標(biāo)記后的圖片按照8∶2的比例隨機(jī)劃分為訓(xùn)練集(2 712張)和測試集(678張)。

2.3" 評價指標(biāo)

在定量分析模型檢測效果方面,本文選擇檢測精確度(Precicion)、召回率(Reccall)和平均精確度(mAP)作為訓(xùn)練模型的性能評價指標(biāo)。精確度評價模型通過物體檢測的準(zhǔn)確性、召回率指標(biāo)評估模型對物體檢測的全面性。精確度和召回率的計算公式如下:

[P=TPFP+TP] (10)

[R=TPTP+FN] (11)

式中:TP為真正例;FP為假正例;FN為假反例。

mAP表示數(shù)據(jù)集中各類別的平均精度的均值,本文以IoU為0.5時取mAP。

[mAP=i=1nAPin] (12)

式中:[n]為目標(biāo)類別數(shù);AP為某一目標(biāo)類別平均精度。

2.4" 消融實驗

由表2可知,YOLOv5s模型分別使用CIoU、EIoU、SIoU作為損失函數(shù)時,mAP分別為85.9%、87.8%和87.5%,CIoU增加了預(yù)測框與真實框之間長寬比的一致性考量,EIoU在CIoU基礎(chǔ)上將寬高比拆開,分別計算寬高的差值,SIoU則考慮到了重疊面積、中心距離和長寬比等幾何參數(shù),以上三種損失函數(shù)都沒能考慮到數(shù)據(jù)集中低質(zhì)量樣本標(biāo)注信息的影響。將YOLOv5s模型的邊界框損失函數(shù)替換為WIoU時,mAP得到了明顯的增長,使用WIoU v1、WIoU v2、WIoU v3的mAP分別為87.4%、87.6%和88.1%。得益于動態(tài)非單調(diào)的聚焦機(jī)制,使用WIoU v3有效屏蔽了訓(xùn)練過程的負(fù)面影響,mAP相較于CIoU提升了2.2%。

表3研究了[kencoder]和[kup]的影響,[kup]越大往往對應(yīng)著較大的[kencoder]。因為內(nèi)容編碼器需要足夠大的感受野,才能預(yù)測更大的重組內(nèi)核。因此需要同時增加[kencoder]和[kup]的大小,但[kencoder]、[kup]增大將會導(dǎo)致計算復(fù)雜度的增加。由實驗數(shù)據(jù)可知,當(dāng)[kencoder=5]、[kup=7]時,模型獲得最佳的mAP,達(dá)到了88.4%。

為了驗證本文在YOLOv5s基礎(chǔ)上替換CARAFE輕量級上采樣算子、搭建坐標(biāo)卷積模塊、替換WIoU損失模塊分別對模型檢測性能的影響,設(shè)計消融實驗。記A為搭建新的ML?CSPDarknet53結(jié)構(gòu)、U為引入CARAFE上采樣算子、G為搭建CoordConv坐標(biāo)卷積結(jié)構(gòu)、W為替換CIoU為WIoU v3。本文將分別對YOLOv5s、YOLOv5s?A、YOLOv5s?U、YOLOv5s?G、YOLOv5s?W、YOLOv5s?AUGW六個模型進(jìn)行訓(xùn)練,實驗結(jié)果如表4所示。

由表4可知原YOLOv5s算法精確度和召回率分別為85%和80.0%,mAP@0.5和mAP@0.5:0.95分別為85.9%和56.7%。在更換主干網(wǎng)絡(luò)結(jié)構(gòu)為ML?CSPDarknet53后,在特征提取階段同時融合了通道信息、空間信息、局部信息和全局信息來提高網(wǎng)絡(luò)性能,mAP@0.5和mAP@0.5:0.95分別提升了2.2%和1.2%。引入輕量級上采樣算子CARAFE后,考慮到特征融合時特征圖的語義信息,并且增大了感受野,mAP@0.5和mAP@0.5:0.95分別提升了2.5%和1.8%。為了加強(qiáng)網(wǎng)絡(luò)模型對圖像空間關(guān)系的理解能力,改善目標(biāo)遮擋時的檢測效果,引入CoordConv坐標(biāo)卷積改善Neck和Head部分網(wǎng)絡(luò)結(jié)構(gòu)后,mAP@0.5和mAP@0.5:0.95分別提升了2.3%和2.1%。為了避免數(shù)據(jù)集中低質(zhì)量樣本對模型性能的影響,將損失函數(shù)替換為WIoU v3后,mAP@0.5和mAP@0.5:0.95分別提升了2.2%和1.2%。YOLOv5s?AUGW模型綜合了YOLOv5s?A、YOLOv5s?U、YOLOv5s?G、YOLOv5s?W模型的特點,相較于原模型精確度提升了2.9%,召回率提升了3.0%,mAP@0.5提升了3.4%,mAP@0.5:0.95提升了2.2%,證明了本文改進(jìn)方法的有效性。

為了直觀展示改進(jìn)后模型的優(yōu)異性能,采用本文算法與原YOLOv5s網(wǎng)絡(luò)模型進(jìn)行道路交通影像檢測結(jié)果對比,如圖8所示。

第一行是原YOLOv5s算法的檢測結(jié)果,第二行是改進(jìn)算法的檢測結(jié)果。第一張圖片駕駛員載有兩人,并且駕駛員對前排有遮擋情況,原算法檢測效果很不理想,改進(jìn)后算法能夠成功檢測三個目標(biāo)。第二張圖屬于上下班高峰期復(fù)雜道路環(huán)境,可以看出,改進(jìn)后的算法能夠更大程度地檢測所有目標(biāo)情況,而原算法則有較多漏檢錯檢情況。在夜晚場景中,改進(jìn)算法也能成功地進(jìn)行檢測。整體來看,由于改進(jìn)的檢測算法有著較強(qiáng)的特征提取能力,能夠關(guān)注到特征圖上下文語義信息,并且對空間信息有著較強(qiáng)的感知能力,所以能夠更好地在復(fù)雜且有遮擋的環(huán)境下進(jìn)行檢測任務(wù)。

為了驗證本文算法相對于其他算法的優(yōu)勢,進(jìn)行了與各種主流算法的比較,結(jié)果如表5所示。

本文將在相同數(shù)據(jù)集上,對包括YOLOv3?tiny、 YOLOv5n、YOLOv7?tiny等通用目標(biāo)檢測算法進(jìn)行了對比實驗。

可見,本文所提出算法相較于其他幾種算法在mAP@0.5上分別提高了12.0%、7.9%、0.7%,在mAP@0.5:0.95上分別提高了11.4%、7.7%、2.7%。實驗結(jié)果顯示,相比于其他通用目標(biāo)檢測算法,本文提出的算法模型在整體檢測性能方面取得了顯著優(yōu)勢,能夠滿足在復(fù)雜道路場景下對電動車騎乘人員佩戴頭盔的檢測任務(wù)需求。

3" 結(jié)" 論

針對現(xiàn)有算法不能滿足復(fù)雜背景干擾下電動車頭盔小目標(biāo)存在相互遮擋的情況,以及自制數(shù)據(jù)集中存在的低質(zhì)量樣本的影響,本文提出了一種多目標(biāo)遮擋背景下基于YOLOv5的電動車頭盔檢測算法。具體包括:提出一種新的主干網(wǎng)絡(luò)結(jié)構(gòu)ML?CSPDarknet53,增強(qiáng)主干網(wǎng)絡(luò)在復(fù)雜道路場景下的特征提取能力;引入輕量級上采樣算子CARAFE,利用特征圖語義信息擴(kuò)大感受野,檢測更小的目標(biāo);搭建坐標(biāo)卷積CoordConv模塊,更多地獲取坐標(biāo)信息,增強(qiáng)網(wǎng)絡(luò)對目標(biāo)整體或部分被遮擋情況下的感知能力;通過在國內(nèi)多個城市、不同時間采集真實道路交通場景影像制作了內(nèi)容豐富的電動車駕乘人員數(shù)據(jù)集;將WIoU v3作為邊界框損失函數(shù),降低數(shù)據(jù)集中低質(zhì)量樣本對模型性能的不利影響。

實驗結(jié)果表明,改進(jìn)后的檢測算法相較于原算法在精確度、召回率、mAP@0.5、mAP@0.5:0.95上分別提升了2.9%、3.0%、3.4%和2.2%,并且性能優(yōu)于其他主流檢測算法。實際測試結(jié)果表明,改進(jìn)后的網(wǎng)絡(luò)模型有效地解決了電動車頭盔檢測算法在車流量較大的環(huán)境下目標(biāo)之間相互遮擋、復(fù)雜背景干擾、頭盔目標(biāo)小等問題。后續(xù)工作的重點將放在模型的輕量化以及嵌入式設(shè)備的部署方面,推進(jìn)檢測算法的具體應(yīng)用。

注:本文通訊作者為韓東辰。

參考文獻(xiàn)

[1] 程前,邵毅明,董兆福.汽車與電動自行車正面碰撞事故重建研究[J].公路與汽運,2019(1):6?10.

[2] 覃朗,鄭婉姝,寧佩珊,等.中國公眾“一盔一帶”安全守護(hù)行動知曉情況及實施效果[J].中國公共衛(wèi)生,2023,39(9):1197?1200.

[3] 劉琛,王江濤,王明陽.引入視覺機(jī)制的SSD網(wǎng)絡(luò)在摩托車頭盔佩戴檢測中的應(yīng)用[J].電子測量與儀器學(xué)報,2021,35(3):144?151.

[4] 吳冬梅,尹以鵬,宋婉瑩,等.改進(jìn)YOLO v4算法的電動車駕駛員頭盔佩戴檢測[J].計算機(jī)仿真,2023,40(3):508?513.

[5] 謝溥軒,崔金榮,趙敏.基于改進(jìn)YOLOv5的電動車頭盔佩戴檢測算法[J].計算機(jī)科學(xué),2023,50(z1):420?425.

[6] WEI C Y, TAN Z, QING Q X, et al. Fast helmet and license plate detection based on lightweight YOLOv5 [J]. Sensors, 2023, 23(9): 4335.

[7] ALFONSO R, DAHER C, ARZAMENDIA M, et al. A motorcyclist helmet detection system through a two?stage CNN approach [C]// 2021 IEEE CHILEAN Conference on Electrical, Electronics Engineering, Information and Communication Technologies (CHILECON). New York: IEEE, 2021: 1?6.

[8] LI C H, HUANG D. Detecting helmets on motorcyclists by deep neural networks with a dual?detection scheme [C]// International Conference on Neural Information Processing. Heidelberg: Springer, 2021: 417?427.

[9] JIA W, XU S Q, LIANG Z, et al. Real?time automatic helmet detection of motorcyclists in urban traffic using improved YOLOv5 detector [J]. IET image processing, 2021, 15(14): 3623?3637.

[10] LIN H H, DENG J D, ALBERS D, et al. Helmet use detection of tracked motorcycles using CNN?based multitask learning [J]. IEEE access, 2020, 8: 162073?162084.

[11] 解宇敏,張浪文,余孝源,等.可見光?紅外特征交互與融合的YOLOv5目標(biāo)檢測算法[J].控制理論與應(yīng)用,2024,41(5):914?922.

[12] WAN D H, LU R S, SHEN S Y, et al. Mixed local channel attention for object detection [J]. Engineering applications of artificial intelligence, 2023, 123: 106442.

[13] WANG J Q, CHEN K, XU R, et al. CARAFE: Content?aware ReAssembly of FEatures [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV). New York: IEEE, 2019: 3007?3016.

[14] LIU R, LEHMAN J, MOLINO P, et al. An intriguing failing of convolutional neural networks and the CoordConv solution [C]// Advances in Neural Information Processing Systems 31: Annual Conference on Neural Information Processing Systems 2018. [S.l.: s.n.], 2018: 9628?9639.

[15] ZHENG Z H, WANG P, LIU W, et al. Distance?IoU loss: Faster and better learning for bounding box regression [C]// Proceedings of the AAAI Conference on Artificial Intelligence. [S.l.]: AAAI, 2020: 12993?13000.

[16] TONG Z J, CHEN Y H, XU Z W, et al. Wise?IoU: Bounding box regression loss with dynamic focusing mechanism [EB/OL]. [2023?01?26]. https://doi.org/10.48550/arXiv.2301.10051.

基金項目:陜西省重點研發(fā)計劃三項改革綜合試點(2023GXLH?076);咸陽市重大科技創(chuàng)新專項(L2023?ZDKJ?QCY?SXGG?GY?009)

作者簡介:韓東辰(2001—),男,陜西西安人,碩士研究生,研究方向為目標(biāo)檢測。

張方暉(1966—),男,山西臨汾人,博士研究生,三級教授,研究方向為微電子技術(shù)、智能電路與應(yīng)用系統(tǒng)。

段克盼(1998—),女,河北定州人,碩士研究生,研究方向為機(jī)器學(xué)習(xí)。

李寧星(2000—),女,陜西寶雞人,碩士研究生,研究方向為微電子技術(shù)。

猜你喜歡
特征檢測信息
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達(dá)“特征”
不忠誠的四個特征
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
小波變換在PCB缺陷檢測中的應(yīng)用
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 在线观看91精品国产剧情免费| 国产成人精品一区二区三区| 亚洲天堂首页| 国产青青操| 亚洲一级毛片在线播放| 日本不卡在线播放| 欧美中文字幕无线码视频| 国产乱子伦无码精品小说| 国产精品白浆在线播放| 91青青在线视频| 国产乱子伦视频在线播放 | 国产在线观看高清不卡| 国产精品无码翘臀在线看纯欲| 国产91视频免费观看| 国产手机在线ΑⅤ片无码观看| 欧洲av毛片| 无码AV高清毛片中国一级毛片| 成人精品午夜福利在线播放| 不卡无码h在线观看| 91午夜福利在线观看| 国产网站一区二区三区| 欧美成人二区| 亚洲成年人片| 国产欧美视频综合二区| 无码中文字幕乱码免费2| 在线国产欧美| 2019国产在线| 亚洲男人的天堂久久香蕉| 97在线公开视频| 久久毛片基地| 91无码人妻精品一区| 五月婷婷综合色| 亚洲欧洲免费视频| 日本人又色又爽的视频| 嫩草国产在线| a级毛片在线免费| 国产成人精品在线| 久久精品丝袜| 九九这里只有精品视频| 精品国产欧美精品v| 呦视频在线一区二区三区| 制服丝袜在线视频香蕉| 国产福利微拍精品一区二区| 欧美啪啪视频免码| 免费国产高清视频| 国产小视频免费| 乱人伦视频中文字幕在线| 色综合综合网| 久久精品最新免费国产成人| 成年人国产视频| 成人综合在线观看| 国产免费好大好硬视频| 婷五月综合| 国产成人91精品免费网址在线| 国产十八禁在线观看免费| 国产美女在线免费观看| 国产成人AV综合久久| 制服丝袜一区二区三区在线| 成人第一页| 99国产精品一区二区| 全免费a级毛片免费看不卡| 经典三级久久| 一级一级一片免费| 久久精品人人做人人综合试看| 91无码网站| 精品国产网站| 久久久久青草大香线综合精品| 中文字幕欧美日韩高清| 综合社区亚洲熟妇p| 国产精品久久久久无码网站| 午夜国产大片免费观看| 久久6免费视频| 亚洲视频黄| 欧美一级在线| 青青草原偷拍视频| 五月天天天色| 五月天在线网站| 精品午夜国产福利观看| 1769国产精品视频免费观看| 亚洲欧洲AV一区二区三区| 激情六月丁香婷婷四房播| 亚洲日本www|