999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進YOLOv5s的車輛目標檢測研究

2024-03-22 14:17:52李甜林貴敏余燁楷
時代汽車 2024年1期

李甜 林貴敏 余燁楷

摘 要:為改善在車輛目標檢測中實時性和精確度低的問題,提出一種改進的YOLOv5s算法。引入CBAM(Channel Attention Module)注意力模塊,以增強網(wǎng)絡對特征的關注度;將CIoU Loss替換為EIoU Loss提高目標邊界框的回歸速度和定位精度;新增一個小目標檢測頭,提高模型對小目標的檢測能力。實驗結(jié)果顯示:改進后的 YOLOv5s算法相較原始算法mAP0.5提高11.4%,mAP0.5:0.95提高了7.3%。在滿足實時性的同時,模型檢測精度大幅提升。

關鍵詞:YOLOv5s 目標檢測 車輛檢測 注意力機制 EIoU

1 引言

面對道路擁堵問題,交通管理部門需要有效緩解交通擁堵、提高交通系統(tǒng)的安全性和通行效率。其中,車輛目標檢測技術在交通管理中扮演著重要的角色。這一技術能夠?qū)崟r檢測交通場景中的車輛,為交通管理提供更準確和高效的數(shù)據(jù)支持。特別是,高精度和快速的車輛目標檢測具有關鍵意義。因此,設計實時性和魯棒性強的車輛目標檢測算法對于推動智慧交通、智能駕駛、行人檢測、數(shù)字化和網(wǎng)絡化建設具有重要價值。

目標檢測算法在計算機視覺領域扮演著關鍵角色,主要用于在圖像或視頻中識別和定位特定目標。隨著深度學習和GPU技術的發(fā)展,深度學習目標檢測方法日益流行,可以被劃分為兩種主要結(jié)構(gòu):一階段(One-Stage)和兩階段(Two-Stage)[1]。兩階段算法首先生成候選區(qū)域,然后對這些區(qū)域進行分類和校準,通常帶來更高的準確度。代表模型有 R-CNN 系列[2]。相反,一階段算法在檢測過程中無需生成候選區(qū)域。它們直接預測目標的類別和邊界框,因此具有更快的檢測速度。著名模型有 SSD [3]、RetinaNet[4]以及 YOLO 系列[5]。YOLOv5是YOLO系列中的一種模型,兼具快速推理速度和高準確率的優(yōu)勢。

深度學習車輛檢測表現(xiàn)出高速度和卓越的準確性,適用于多種環(huán)境和設備。一些研究已嘗試改進不同方面的車輛檢測和跟蹤方法,但存在一些限制。黃開啟等[6]改進了YOLOv3算法以增加在霧霾天氣下的車輛定位精度,盡管如此,仍需要借助傳統(tǒng)圖像處理方法,難以實現(xiàn)完全端到端的檢測。鞠默然等[7]專注于小目標檢測問題,對YOLOv3的輸出進行上采樣和特征融合,通過K-means聚類分析改進網(wǎng)絡以有效檢測小目標,但研究數(shù)據(jù)集的多樣性有限。李國進等[8]提出了改進的Inception模塊和特征融合結(jié)構(gòu),以提升車輛檢測的準確性和速度,然而,他們?nèi)晕唇鉀Q模型權(quán)重過大,無法在邊緣設備上部署的問題。在監(jiān)控視頻中進行車輛跟蹤時,面臨多目標跟蹤任務的挑戰(zhàn),包括遮擋、動態(tài)模糊和尺度變化等問題。李俊彥等[9]提出了將YOLOv3與KCF相結(jié)合的方法,但KCF算法對尺度變化和快速變形不夠適用。劉磊等[9]提出了結(jié)合YOLO識別和Mean shift跟蹤的方法來改善車流量統(tǒng)計問題,但Mean shift算法對相似顏色目標的干擾不夠魯棒。

在綜合前述研究的基礎上,本文使用輕量級目標檢測模型YOLOv5s 作為基礎,針對車輛識別率低問題進行改進,新增一個小目標檢測頭,使模型可以處理目標的多尺度變換,提高小目標的檢測精度;引入CBAM注意力機制增強了模型的特征提取能力,側(cè)重于被檢測目標;同時,使用EIoU Loss替代原始檢測框回歸損失函數(shù),以改善低定位精度和訓練速度慢的問題。對原算法進行改進并在VisDrone2019數(shù)據(jù)集上實驗。

2 改進YOLOv5s的車輛目標檢測

2.1 YOLOv5s算法

YOLOv5s的結(jié)構(gòu)包括四個關鍵組成部分:Input輸入端、Backbone主干網(wǎng)絡、Neck網(wǎng)絡以及Head輸出端。在Input輸入端,進行數(shù)據(jù)預處理,包括Mosaic數(shù)據(jù)增強和自適應圖像填充。此外,為了適應不同數(shù)據(jù)集,YOLOv5s還集成了自適應錨框計算,能夠根據(jù)數(shù)據(jù)集自動設定初始錨框大小。Backbone部分是主要的特征提取組件,包括Focus、CBS、CSP和SPP結(jié)構(gòu),用于提取目標特征。CSP(Cross Stage Partial Network)用于局部跨通道融合,以解決網(wǎng)絡梯度信息重復的問題。Neck將高層和底層信息融合,并輸出預測圖像,用于不同尺度物體的檢測。輸出端生成三種不同尺度的圖像,用于目標類別和置信度的預測。YOLOv5版本的優(yōu)勢在于使用自適應錨框和引入Focus結(jié)構(gòu),從而顯著提高了檢測精度和速度,相較于以前的版本有重大改進。因此本文選取輕量級YOLOv5s模型進行針對性改進。

2.2 改進YOLOv5s算法

2.2.1 CBAM注意力機制

為了強化模型對道路監(jiān)控視頻中的車輛目標特征的關注,我們采用了輕量級CBAM注意力機制。它能夠加強網(wǎng)絡對空間和通道信息的聚焦,提高目標特征的提取性能。尤其對于處理大區(qū)域圖像時,有助于精準地定位感興趣的區(qū)域。CBAM模塊的嵌入位置沒有一個固定的標準答案,因為最佳的嵌入方式需要依賴于具體的場景和任務。在我們的研究中,我們進行了一系列實驗和調(diào)整,結(jié)果表明只有將CBAM注意力層置于每個檢測頭之前,才能顯著提升檢測準確性。這一方法的關鍵在于,通過在每個檢測頭前面引入CBAM模塊,網(wǎng)絡能夠更好地關注和強化目標特征,從而提高了目標檢測的性能。這種策略是根據(jù)我們的實驗結(jié)果和任務需求得出的,以確保最佳性能。

2.2.2 損失函數(shù)的改進

損失函數(shù)在機器學習中起到了重要的作用,它用于度量模型的預測與實際數(shù)據(jù)之間的差距,以便評估模型的性能并指導訓練過程,選擇合適的損失函數(shù)可以加速模型的收斂。YOLOv5的損失函數(shù)包含三個要素:邊框回歸損失、置信度損失以及分類概率損失。在邊框回歸損失中,采用了完全交并比損失函數(shù),該損失函數(shù)的公式如下:

其中,b表示預測框的中心點,bgt表示真實框的中心點,ρ表示兩個中心點之間的歐式距離,c表示包含預測框和真實框的最小閉包區(qū)域的對角線距離,w和wgt分別代表預測框和真實框的寬度,h和hgt分別代表預測框和真實框的寬度,IOU是預測框和真實框之間的交集和并集之比。

CIoU loss是一種用于邊界框回歸的損失函數(shù),綜合了重疊面積、橫縱比以及中心點距離等因素,但它在考慮寬高與置信度之間的真實差異方面存在不足,可能對模型的優(yōu)化產(chǎn)生不利影響。EIoU Loss在CIoU Loss基礎上引入了Focal機制,專注于提高高質(zhì)量錨框的準確性。

EIoU Loss解決了邊界框回歸中的問題,特別是在處理不均衡的訓練樣本時,它有助于更好地區(qū)分高質(zhì)量和低質(zhì)量的錨框。以下是EIoU Loss的公式:

其中,γ表示控制異常值的抑制程度,Cw和Ch分別表示兩個框的最小外接框的寬度和高度,這個公式的關鍵思想是:當兩個邊界框的交并比(IoU)越高時,損失值越大。簡言之,引入了一種權(quán)重機制在損失計算中,使得對于擬合效果更好的回歸目標,損失值更為突出,從而有助于提高回歸精度。

2.2.3 新增檢測頭

為增強小目標檢測能力,我們在YOLOv5s模型中引入了小目標檢測頭。這模塊專注于處理尺寸較小的目標,如在車流量檢測中常見的小物體。小目標檢測頭采用更小的錨框設計,適配小目標的尺寸范圍,以確保高效檢測。其主要目的是提升小目標檢測性能,通過操作特定的特征圖來更好地捕獲小目標信息,通常包括選擇高分辨率的特征圖以精細定位小目標。改進后的模型結(jié)構(gòu)圖如圖1所示。

3 實驗結(jié)果與分析

3.1 實驗環(huán)境準備

本文的實驗是在一臺配置為Ubuntu 18.04操作系統(tǒng),搭載了Intel Xeon Gold 5218 CPU、512GB 內(nèi)存和Tesla V100 32G GPU顯卡的機器上進行。網(wǎng)絡框架基于 pytorch1.8.1, CUDA10.2。模型的訓練參數(shù)設置為100個迭代次數(shù)(epoch),批次大小為32,并采用Adam優(yōu)化器,其余參數(shù)均為默認值。

3.2 評價指標

本文評估改進模型的性能主要使用了精確度(precision)、召回率(recall)、平均準確率均值(mAP)、以及平均準確率(AP)這些指標。

我們使用了以下評估指標用于衡量目標檢測模型的性能,包括TP(True Positives,正確識別的正樣本目標數(shù))、FN(False Negatives,未正確識別的正樣本目標數(shù))和FP(False Positives,誤識別的非正樣本目標數(shù))。其中TP表示成功檢測的目標,F(xiàn)N表示被遺漏的目標,而FP則表示被錯誤地識別為目標的非目標。

平均準確率(AP,Average Precision)和平均準確率均值(mAP,mean Average Precision)是用來評估網(wǎng)絡模型性能的重要指標。它們的計算需要使用模型的精確度和召回率。

3.3 實驗及結(jié)果分析

為驗證P2小目標檢測層的添加、EIoU損失函數(shù)的改進以及CBAM卷積注意力機制的有效性,本文研究了以YOLOv5s為基準模型,進行了一系列消融實驗,評估不同模塊和方法組合對目標檢測性能的影響,均在相同的實驗條件下進行。消融實驗的結(jié)果詳見表1。

消融實驗結(jié)果表明,本文提出的模塊和方法明顯提高了小目標檢測的準確性。單獨添加某一模塊方面來看,B實驗將小目標檢測層與特征融合和預測結(jié)合,mAP0.5提高了10.5%,mAP0.5:0.95提高了6.7%。盡管增加了模型復雜性和參數(shù)量,但顯著提升了檢測準確性,因此添加小目標檢測頭是合理的選擇。C實驗表明,改進后的EIoU損失函數(shù)提高了mAP0.5和mAP0.5:0.95各1.3%和0.6%,平衡了不同目標尺度的損失,增強了小目標的位置預測。D實驗引入CBAM注意力機制,mAP0.5和mAP0.5:0.95分別提高了2.6%和1.2%,增強了網(wǎng)絡對小目標的全局感知,有助于更準確地檢測小目標。

不同模塊的組合方面來看,E、F、G實驗顯示,將三種模塊結(jié)合顯著提升了模型精度,盡管EIoU與CBAM模塊組合時mAP0.5相對于單獨添加EIoU模塊和CBAM模塊降低了0.5%和0.8%,但當三種模塊一起添加時,模型的檢測精度達到最高。最后,通過實驗H,將三個模塊組合形成的新算法表現(xiàn)最出色,mAP0.5和mAP0.5:0.95分別提高了11.4%和7.3%。盡管檢測速度相對原始算法略有下降,但在滿足實時性需求的情況下,該算法顯著提高了檢測精度,充分證明了其在車輛信息檢測方面的有效性。

另外,本文在VisDrone2019數(shù)據(jù)集上進行了可視化對比實驗,結(jié)果如圖2所示。黃色實線框表示改進后算法檢測到更多的小目標。從圖中可以看出本文改進后的算法能夠檢測到更多的小目標車輛信息,對車流量檢測任務提供了很好的改進依據(jù)。

4 結(jié)束語

為了解決實際道路中車輛準確精度低的問題,本文基于YOLOv5s算法,通過引入CBAM注意力機制,改進損失函數(shù)以及新增小目標檢測頭的方法,提出了一種適用于車輛目標檢測的改進YOLOv5s算法。與原始算法相比,改進后的算法性能得到了顯著的提升,在滿足實時性檢測要求的前提下,能夠更準確的檢測到車輛目標。

項目基金:福建省自然科學基金項目(2019J01761,2023J011401),福建省本科高校教育教學研究項目(FBJY20230095)。

參考文獻:

[1]ZOU Z,SHI Z,GUO Y,et al.Object detection in 20 years:a survey[J].arXiv:1905.05055,2019.

[2]REN S,HE K,GIRSHICK R,et al.Faster R-CNN:Towards real-time object detection with region proposal networks[C]// Advances in Neural Information Processing Systems,2015:91-99.

[3]LIU W,ANGUELOV D,ERHAN D,et al.SSD:Single shot multibox detector[C]//European Conference on Computer Vision,2016:21-37.

[4]LIN T Y,GOYAL P,GIRSHICK R,et al.Focal loss for dense object detection[C]//Proceedings of the IEEE International Conference on Computer Vision,2017:2980-2988.

[5]ZHU X,LYU S,WANG X,et al.TPH-YOLOv5:Improved YOLOv5 based on transformer prediction head for object detection on drone-captured scenarios[C]//2021 IEEE/CVF International Conference on Computer Vision Workshops (ICCVW),Montreal,BC,Canada,2021:2778-2788.

[6]黃開啟,劉小榮,錢艷群,等.霧霾天氣車輛檢測的改進 YOLOv3算法[J].重慶大學學報,2021,45(12):95-102.

[7]鞠默然,羅海波,王仲博,等.改進的 YOLOV3 算法及其在小目標檢測中的應用[J]. 光學學報,2019,39(7):253-260.

[8]李國進,胡潔,艾矯燕.基于改進SSD算法的車輛檢測[J].計算機工程,2022,48(1):266-274.

[9]李俊彥,宋煥生,張朝陽,等.基于視頻的多目標車輛跟蹤及軌跡優(yōu)化[J].計算機工程與應用,2020,56(5):194-199.

主站蜘蛛池模板: 欧美在线观看不卡| 伊人久久久大香线蕉综合直播| 色综合中文综合网| 激情综合网激情综合| 人妻丰满熟妇AV无码区| 国产午夜精品一区二区三区软件| 中文字幕av无码不卡免费| 国产传媒一区二区三区四区五区| 囯产av无码片毛片一级| lhav亚洲精品| 国产成人亚洲精品蜜芽影院| 久草视频一区| 天堂成人在线视频| 亚洲一区色| 国产成人综合日韩精品无码不卡 | 国产精品区网红主播在线观看| 99爱视频精品免视看| 亚洲人人视频| 免费人成视频在线观看网站| 香蕉综合在线视频91| 特级毛片免费视频| 一区二区三区在线不卡免费| 毛片基地视频| 午夜性爽视频男人的天堂| 国产99精品久久| 久久伊人操| 亚洲精品无码抽插日韩| 亚洲性一区| 精品国产乱码久久久久久一区二区| 熟女成人国产精品视频| 国产毛片基地| 成人福利免费在线观看| 谁有在线观看日韩亚洲最新视频| 青青青草国产| 国产不卡国语在线| 热这里只有精品国产热门精品| 国产美女免费| 日本免费a视频| 91久久精品国产| 伊人久久久久久久| 国产呦视频免费视频在线观看| 久久久久久久久18禁秘| 色综合久久88色综合天天提莫| 日本人妻丰满熟妇区| 色婷婷成人| 99手机在线视频| 亚洲欧洲AV一区二区三区| 亚洲首页在线观看| 久久久精品国产亚洲AV日韩| 久久人妻系列无码一区| 亚洲国产成熟视频在线多多| 在线观看亚洲精品福利片| 日本免费福利视频| 国产美女在线免费观看| 激情网址在线观看| 欧美日韩v| 亚洲欧美日韩成人高清在线一区| 亚洲伦理一区二区| 91成人免费观看| 夜精品a一区二区三区| 中文成人在线视频| 伊人色综合久久天天| 成人国产精品一级毛片天堂| 欧美国产日本高清不卡| 啪啪永久免费av| 久久精品国产免费观看频道| 欧美伊人色综合久久天天| 精品视频一区二区观看| 国产精选自拍| 久久久久久久久亚洲精品| 亚洲一区二区精品无码久久久| 丁香婷婷久久| 日本午夜精品一本在线观看| 无码电影在线观看| 538精品在线观看| 视频二区亚洲精品| 久久久久青草线综合超碰| 自拍欧美亚洲| 久久这里只有精品66| 国产欧美在线| 国产主播喷水| 刘亦菲一区二区在线观看|