999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv8的路口多目標識別優化方法

2024-12-31 00:00:00唐繼杰歐曉放
科技創新與應用 2024年35期
關鍵詞:深度學習

摘" 要:針對我國城市路口多目標識別效率不高,識別不夠精準的問題,該文提出一種基于改進YOLOv8s模型的檢測方法。對原始的YOLOv8s模型進行改進,增加了卷積分支,采用融合Diverse Branch Block模塊的特征提取方式。結合城市路口場景構建數據集,實驗結果表明,改進模型在精確度、召回率和平均準確度的指標上較原模型分別提升4.2%、3.1%和3.08%。改進模型表現出良好的性能,能夠滿足實際城市路口的多目標檢測需求。

關鍵詞:多目標檢測;深度學習;YOLOv8;交通安全;優化方法

中圖分類號:TP391.4" " " 文獻標志碼:A" " " " " "文章編號:2095-2945(2024)35-0059-06

Abstract: In view of the problem that the efficiency of multi-target recognition at urban intersections in China is not high and the recognition is not accurate enough. This paper proposes a detection method based on the improved YOLOv8s model. The original YOLOv8s model is improved, convolution branches are added, and feature extraction methods that incorporate the Diverse Branch Block module are adopted. Combining urban intersection scenarios to build a dataset, experimental results show that the improved model improves accuracy, recall rate and average accuracy by 4.2%, 3.1% and 3.08% respectively compared with the original model. The improved model shows good performance and can meet the multi-target detection needs of actual urban intersections.

Keywords: multi-target detection; deep learning; YOLOv8; traffic safety; optimization method

近年來,為了預防道路交通事故,公安部相關部門積極推進“減量控大”工作,強調“努力減少事故死亡總量,全力防控較大事故”[1]。在此背景下,交通安全研究的重點逐漸從事后分析轉向事前預防。為了有效降低事故發生率,預先識別潛在危險因素成為關鍵。目標檢測技術是智能交通領域的重要內容,通過高效、準確地識別交通環境中的各種潛在危險,可以為交通的研究和管理提供關鍵數據支持[2],從而實現事故“減量控大”的目標。

目標檢測技術為交通事故主動預防提供了技術支撐。在深度學習的目標檢測領域中,主流的方法分為兩類:雙階段方法和單階段方法。2016年,Ren等[3]引入了區域卷積神經網絡(Region Proposal Network, RPN),通過與目標檢測網絡共享卷積特征,實現了高效、快速的目標檢測。隨后,為了解決Faster R-CNN 中像素對齊的問題,He等[4]對Faster R-CNN進行擴展,提出了一個兼顧目標檢測實現和實例分割的Mask R-CNN。然而,不同于傳統的基于回歸的方法,Lu等[5]提出的Grid R-CNN模型通過網格點的定位來捕捉空間信息,與Faster R-CNN相比,Grid R-CNN設計了信息融合策略,將相鄰網格點的特征進行融合,增強了定位的準確性。與之前的基于區域的檢測器不同,Dai等[6]提出了基于區域的全卷積網絡,模型的大部分計算都在整個圖像上共享,從而降低了計算成本。除此之外,Singh等[7]通過將目標檢測和分類分離,提出了R-FCN-3000模型,利用共享特征和通用目標性來實現高效的目標檢測。與之相反,單階段的目標檢測算法在檢測流程和處理方式上追求一步到位和密集預測。由于省去了候選區域生成的步驟,直接在特征圖上進行密集預測,因此,單階段目標檢測方法具有更高的檢測速度,適合實時應用。Redmon[8]在2016年提出了第一個成功的單階段目標檢測器。它的核心理念是將目標檢測視為一個回歸問題,將整個圖像劃分為S×S網格,每個網格預測固定數量的邊界框以及它們的類別。同年,Liu等[9]提出了SSD(Single Shot MultiBox Detector)單階段算法,SSD 將目標檢測任務視為一個回歸問題,并通過一個單一的深度神經網絡直接對目標類別和邊界框進行預測。該方法不需要生成候選區域,也不需要重新采樣像素或特征圖,實現了更快的檢測速度。隨著YOLO系列的不斷發展,Liu等[10-11]在YOLOv5模型的基礎上,使用 K-means算法為數據集計算最合適的錨框(anchor boxes),以提高邊界框檢測的準確性。Wang等[12]提出了YOLOv7模型,通過引入一系列可訓練的優化模塊和方法,在不增加推理成本的情況下顯著提高了檢測精度。相比于YOLOv7,YOLOv8模型對錨框的尺寸和比例進行自適應優化,使得預測的邊界框能夠更好地適應目標的形狀和大小[13]。減少了邊界框與目標真實位置之間的偏差,提高了模型定位的準確性。同時,YOLOv8使用了更先進的IoU損失函數(如CIoU、DIoU)來優化邊界框的回歸[14]。

盡管YOLOv8模型在許多方面表現出色,但在處理復雜背景下的多目標檢測任務時,還存在一定的局限性。以上提到的研究大多只針對某一類目標進行檢測,對于城市路口復雜背景下的多目標檢測應用較少。因此,本文在YOLOv8s算法的基礎上,增加了額外的卷積分支,采用結合了Diverse Branch Block模塊的特征提取方式,以提高模型對路口監控視頻下多目標的檢測精度、速度與結果的可靠性。

1" YOLOv8s模型框架

YOLO系列算法自2016年被Redmon等[6]首次提出后,短短幾年時間便從YOLOv1發展到YOLOv8,由于其速度快、實時性好并且兼顧較高的準確率,在目標檢測領域占據了主導地位。

該模型由4個主要部分組成:輸入端、主干網絡、頸部網絡以及輸出端,圖1為YOLOv8s的網絡結構示意圖。

輸入端:這一部分的主要任務是對輸入圖像進行預處理。輸入端將圖像調整為固定尺寸(通常為 640×640或其他合適的尺寸)以適應網絡的輸入大小。圖像預處理還包括歸一化和數據增強操作,如縮放、翻轉、裁剪等,以提高模型的泛化能力。相比于YOLO系列的前幾代,YOLOv8使用了改進的Focus模塊,通過切片和拼接操作將輸入圖像的空間信息集中到更深的特征中,從而減少特征丟失。

主干網絡(Backbone):這一部分主要作用是特征提取。YOLOv8s主干網絡采用了改進的CSP結構。CSP通過分離特征圖劃分為兩部分并在后續階段進行融合,實現了跨階段連接,增強了網絡的特征表達能力并減少了計算成本。如圖2所示,在主干網絡中,卷積操作是特征提取的核心。通過一系列卷積操作,主干網絡可以將輸入圖像轉換為一組多尺度的特征圖,這些特征圖包含了豐富的信息,為后續的目標檢測過程提供了基礎。

頸部網絡(Neck):在YOLOv8s中,頸部網絡主要采用了FPN(Feature Pyramid Network)和PANet(Path Aggregation Network)結構來進行多尺度特征融合。通過自頂向下和自下向上的路徑,將不同尺度的特征圖進行融合和傳遞,使得每一層特征圖都包含來自其他層的上下文信息。這樣,模型在預測時可以利用更豐富的特征,提高檢測的魯棒性。

輸出端(Head):這個部分是目標檢測模型的最后一環,它將網絡提取的特征轉換為人類可解釋的輸出。輸出端利用頸部網絡提供的多尺度特征圖,執行具體的檢測任務,并生成檢測結果,包括目標的位置(邊界框)、類別(分類)以及置信度(目標存在的概率)。

2" YOLOv8s模型的改進與優化

2.1" 多目標檢測改進

在城市道路交叉口監控圖像中往往會出現大量的交通參與者,基于深度學習的檢測算法在處理多目標時檢測效果不太理想,因此針對YOLOv8s模型進行優化,提升模型在路口多目標檢測上的性能。

如圖3所示,本文加入了額外的卷積操作路徑(Extra)以豐富特征提取。通過多路徑處理、特征融合和額外路徑的使用,這個模塊可以更好地提取多尺度、多方向的特征,從而增強模型的表達能力和對復雜圖像的理解。

2.2" 融合Diverse Branch Block

DBB(Diverse Branch Block)是一種神經網絡模塊,通過復雜化特征提取方式來增強卷積神經網絡(CNN)的表達能力。DBB模塊引入多種不同的卷積和池化操作,提供了多樣化的特征提取路徑,并在網絡訓練和推理過程中靈活地融合這些特征。

如圖4所示,DBB模塊通過在一個模塊內整合多種特征提取方式,顯著增加了網絡的表達能力,使其可以適應更加復雜的模式和輸入數據。同時,多分支結構可以在訓練中提供更豐富的梯度流,從而加速模型的收斂。并且在推理階段,DBB 模塊可以被等效為單一卷積操作,從而提高推理效率。

3" 實驗結果與分析

3.1" 實驗數據集

為了使實驗結果能真實反映模型在實際道路交通場景下的表現,本文采用某城市道路監控視頻來構建數據集。如表1所示,本文從3個路口6段視頻中截取了共計13 884張圖像,并用人工標注的方式對數據集進行標注。其中,為了更好地提升模型對非機動車的檢測精度,在訓練過程中將非機動車分為電動自行車和電動三輪車兩類,單獨標注分開訓練。

3.2" 實驗環境

本文實驗環境配置見表2,改進的模型訓練過程中參數的設置情況如下:迭代次數設置為300 epochs,每輪batch為32張,輸入圖像的大小為640×640。

3.3" 評價指標

本文采用準確率(precision, P)、召回率(recall, R)、平均精度(average precision, AP)、平均精確度(mean average precision, mAP)、每秒處理幀數(frames per second, FPS)以及參數數量作為模型檢測性能的評估標準。這些計算公式如下

式中:P為所有被預測為正的樣本中,實際為正的比例;R為實際為正的樣本中,被正確預測為正的比例;AP為對于單個檢測類別的準確性;mAP為所有類別中AP的平均準確性;FPS為在道路目標測試集上的平均檢測速度;Fi為視頻總幀數;Tn為檢測時間。

3.4" 實驗結果

本文將Faster R-CNN、YOLOv5s、YOLOv7和YOL

Ov8s與本文改進的模型(Ours)進行對比實驗,準確率(P)、召回率(R)、平均精確度(mAP)、FPS及模型參數量(Params/M)均在表3中展示。

通過表3可知,本文改進模型在路口監控視頻中識別機動車、非機動車和行人方面表現良好,在準確率、平均精度、召回率方面都優于其他模型,并且具有較低的參數數量。平均精確度(mAP)高于Faster R-CNN、YOLOv7、YOLOv5s和YOLOv8s,分別提高了22.7%、10.1%、10.9%和3.08%。改進模型在預測框的準確性上也超過了其他模型,有效降低了漏檢和誤檢的發生。FPS方面比YOLOv5s快3.2倍,比YOLOv8s快1.2倍,滿足對路口多目標實時檢測需求。

圖5、圖6分別展示了本文模型與YOLOv5s、YOLOv8s的準確率曲線和召回率曲線的比較。從圖5中可以看到,改進模型準確率在較短的訓練周期內提升迅速,并在200輪訓練后仍有提升。從圖6召回率曲線來看,DBB模塊的特征優化使得模型能夠更快地學習到有關目標的有效信息,使得模型在訓練的初期階段,召回率的提升非常迅速。這表明模型對于各類目標有著較好的識別能力,特別是在處理復雜或變化的場景時,能夠有效地減少漏檢數量。

3.5" 消融實驗

為了驗證新增卷積操作路徑和DBB模塊特征融合的改進效果,本文設計了消融實驗以分析并驗證每個改進模塊如何影響P、mAP和FPS值。實驗結果見表4,其中“√”表示對應模塊的應用。

由表4可知,改進模型顯著提高了模型的檢測精度和平均精度,但會稍微降低處理速度。模型在引入額外卷積分支之后,P有所提高,但mAP提升幅度較小,FPS略有下降。而在繼續融合DBB模塊特征后,模型的P和mAP均有提高,相較于原模型提升了4.2%和3.08%,但FPS降低到64。

3.6" 實際檢測目標可視化驗證與對比

為了更直觀地進行展示模型的改進效果,本文將改進后的模型與YOLOv8s、YOLOv5s進行可視化對比,如圖7所示。

圖7展示了城市交叉路口場景中目標檢測的結果對比。從圖7中可以看出,本文改進的模型在多目標檢測方面表現優越。模型在檢測車輛、非機動車和行人方面表現出較高的置信度。相比于YOLOv8s和YOLOv5s,模型對非重合檢測對象的檢測準確性最好,且沒有存在漏檢和誤檢的情況。由圖7可知,本文改進的模型的表現更出色,證實了改進模型的有效性,對路口多目標識別起到了優化效果。

4" 結論

針對城市路口多目標識別效率低、精度不足的問題,本文運用YOLO8s改進模型對路口多目標交通參與者進行了研究。通過引入額外的卷積分支和融合DBB模塊的特征提取方式,優化了模型對多目標的檢測能力。此外,采用某城市道路監控視頻和自行采集的圖像來構建數據集,提高實驗結果的真實性。實驗結果表明:改進的模型的準確率、召回率和平均準確度分別提升了4.2%、3.1%和3.08%。相比原模型改進有效,為進一步研究路口事故預防提供了方法支撐。

參考文獻:

[1] 公安部部署2021年道路交通事故預防“減量控大”工作[J].道路交通管理,2021(3):6.

[2] 王永崗,李曉坤,宋杰,等.車輛軌跡數據驅動的急彎路段追尾沖突風險時空演化規律[J].哈爾濱工業大學學報,2024,56(3):38-45.

[3] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE transactions on pattern analysis and machine intelligence, 2016,39(6):1137-1149.

[4] HE K, GKIOXARI G, DOLLáR P, et al. Mask r-cnn[C]//Proceedings of the IEEE international conference on computer vision. 2017:2961-2969.

[5] LU X, LI B, YUE Y, et al. Grid r-cnn[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2019:7363-7372.

[6] DAI J, LI Y, HE K, et al. R-fcn: Object detection via region-based fully convolutional networks[J]. Advances in neural information processing systems, 2016,29.

[7] SINGH B, LI H, SHARMA A, et al. R-FCN-3000 at 30fps: Decoupling detection and classification[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2018:1081-1090.

[8] REDMON J. You only look once: Unified, real-time object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2016.

[9] LIU W, ANGUELOV D, ERHAN D, et al. Ssd: Single shot multibox detector[C]//Computer Vision-ECCV 2016: 14th European Conference, Amsterdam, The Netherlands, October 11-14, 2016, Proceedings, Part I 14. Springer International Publishing, 2016:21-37.

[10] LIU Y, LU B H, PENG J, et al. Research on the use of YOLOv5 object detection algorithm in mask wearing recognition[J]. World Sci. Res. J, 2020,6(11):276-284.

[11] ZHANG Y, GUO Z, WU J, et al. Real-time vehicle detection based on improved yolov5[J]. Sustainability, 2022,14(19):12274.

[12] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2023:7464-7475.

[13] WANG G, CHEN Y, AN P, et al. UAV-YOLOv8: A small-object-detection model based on improved YOLOv8 for UAV aerial photography scenarios[J]. Sensors, 2023,23(16):7190.

[14] LOU H, DUAN X, GUO J, et al. DC-YOLOv8: small-size object detection algorithm based on camera sensor[J]. Electronics, 2023,12(10):2323.

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 国产精品成人一区二区| 国产精品视频999| 91精品国产一区| 波多野结衣国产精品| 日韩国产黄色网站| 亚洲一区网站| 九九热这里只有国产精品| 5555国产在线观看| 丰满人妻中出白浆| 亚洲大尺度在线| 国产精品区网红主播在线观看| 99精品免费在线| 男女精品视频| 精品91自产拍在线| 日韩毛片在线视频| 久久这里只有精品23| 久久久久免费看成人影片| 国产精品永久久久久| yy6080理论大片一级久久| 毛片在线播放a| 国产91丝袜在线观看| 高h视频在线| 精品剧情v国产在线观看| 国产在线日本| 老司机精品一区在线视频| 日韩A级毛片一区二区三区| 毛片免费观看视频| 国产综合无码一区二区色蜜蜜| 婷婷伊人久久| 福利在线一区| 麻豆精品国产自产在线| 午夜电影在线观看国产1区| 性激烈欧美三级在线播放| 欧美福利在线播放| 伊人五月丁香综合AⅤ| 伊人国产无码高清视频| 日韩天堂视频| 亚洲AⅤ综合在线欧美一区| 狼友av永久网站免费观看| 日本成人一区| 欧美日韩免费在线视频| 粉嫩国产白浆在线观看| 久久福利片| 亚洲资源在线视频| 亚洲男女天堂| 亚瑟天堂久久一区二区影院| 亚洲日韩在线满18点击进入| 国产亚洲精品自在久久不卡| 欧美.成人.综合在线| 久久婷婷六月| 72种姿势欧美久久久久大黄蕉| 真实国产精品vr专区| 91探花国产综合在线精品| 国产欧美精品专区一区二区| 国产h视频免费观看| 国产97公开成人免费视频| 久热re国产手机在线观看| 2020最新国产精品视频| 国内丰满少妇猛烈精品播| 亚洲综合九九| 久久成人18免费| 日本欧美在线观看| 国产男人天堂| 久久女人网| 五月综合色婷婷| AV片亚洲国产男人的天堂| 色妺妺在线视频喷水| 日韩不卡高清视频| 都市激情亚洲综合久久| 国产精品天干天干在线观看| 一区二区日韩国产精久久| 一级毛片网| 婷五月综合| 亚洲大学生视频在线播放| 亚洲欧洲日韩综合| 国产免费a级片| 国产99视频免费精品是看6| 激情爆乳一区二区| 亚洲色欲色欲www在线观看| 四虎永久免费网站| 免费jizz在线播放| 爱爱影院18禁免费|