999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

智能車輛管理中的駕駛行為檢測

2023-04-29 00:00:00徐翔陳震
計算機(jī)時代 2023年12期

摘" 要: 在智能交通系統(tǒng)的背景下,車輛管理模式的創(chuàng)新對于提高交通安全和管理效率至關(guān)重要。針對駕駛中的不良行為,提出一種基于深度學(xué)習(xí)的檢測方法。通過引入并改進(jìn)YOLOV5算法,能夠?qū)崟r檢測駕駛員的不良行為,從而降低交通事故的風(fēng)險。實驗結(jié)果顯示,所提算法有效提高了不良駕駛行為的檢測精度。這種車輛管理模式創(chuàng)新可以為未來智能交通系統(tǒng)的發(fā)展提供參考與借鑒。

關(guān)鍵詞: 深度學(xué)習(xí); 駕駛行為; 車輛管理模式; 注意力機(jī)制

中圖分類號:TP399" " " " " 文獻(xiàn)標(biāo)識碼:A" " "文章編號:1006-8228(2023)12-77-04

Driving behavior detection in intelligent vehicle management

Xu Xiang1, Chen Zhen2

(1. China Three Gorges Renewables(Group) Co., LTD, Beijing 101100, China;

2. Construction Management Branch, China Three Gorges Renewables (Group) Co., LTD.)

Abstract: In the context of intelligent transportation system, the innovation of vehicle management mode is very important to improve traffic safety and management efficiency. A deep learning-based detection method is proposed for bad behaviors in driving. By introducing and improving the YOLOV5 algorithm, the bad behaviors of drivers can be detected in real time, thus reducing the risk of traffic accidents. The experimental results show that the proposed algorithm can effectively improve the detection accuracy of bad driving behavior. This vehicle management model innovation can provide reference for the future development of intelligent transportation system.

Key words: deep learning; driving behavior; vehicle management mode; attention mechanism

0 引言

我國城市中,車輛保有量持續(xù)增加,這增加了車輛管理的復(fù)雜性。與此同時,出現(xiàn)了一系列與車輛閑置和危險駕駛相關(guān)的問題。因此, 進(jìn)行企業(yè)車輛管理模式的創(chuàng)新探索有著非常重要的意義[1] 。傳統(tǒng)的車輛管理模式和駕駛行為監(jiān)測方法面臨著一系列挑戰(zhàn),如信息不透明、效率低下和安全隱患等。因此,創(chuàng)新的車輛管理模式和高效準(zhǔn)確的駕駛行為檢測成為了學(xué)術(shù)界和工程實踐中的研究熱點(diǎn)。

在過去的幾十年里,隨著信息技術(shù)和智能化技術(shù)的飛速發(fā)展,智能交通系統(tǒng)逐漸嶄露頭角。這為車輛管理模式的創(chuàng)新和駕駛行為的監(jiān)測提供了新的機(jī)遇和可能性。智能交通系統(tǒng)將傳感器、攝像頭、全球定位系統(tǒng)(GPS)等技術(shù)應(yīng)用于車輛管理和駕駛行為監(jiān)測,實現(xiàn)了對車輛位置、速度、行駛路線等數(shù)據(jù)的實時獲取和分析。

然而,僅僅依靠車輛管理模式的創(chuàng)新還不足以保障交通系統(tǒng)的安全性和效率。駕駛中的不良行為是造成交通事故和交通擁堵的主要原因之一。因此,及時、準(zhǔn)確地檢測和干預(yù)駕駛中的不良行為十分重要。

傳統(tǒng)的人工監(jiān)測方式無法滿足大規(guī)模交通環(huán)境下的實時監(jiān)測需求。而通過引入視覺監(jiān)測技術(shù)、語音識別技術(shù)和數(shù)據(jù)分析與機(jī)器學(xué)習(xí)等先進(jìn)技術(shù),我們能夠更好地識別駕駛員的不良行為,如疲勞駕駛、分神駕駛、違規(guī)變道等,為交通管理部門提供及時的干預(yù)手段,減少交通事故的發(fā)生。

因此,本論文旨在探討車輛管理模式的創(chuàng)新和駕駛行為的檢測,并將兩者緊密結(jié)合,為交通管理部門提供更高效、準(zhǔn)確的車輛管理和駕駛行為監(jiān)測方法。本系統(tǒng)結(jié)構(gòu)使用相對簡單的(You Only Look Once)系列[2],可以更加快速地識別出目標(biāo)類別和位置,但是準(zhǔn)確度稍低于兩階段檢測算法。對圖像進(jìn)行識別處理,及時發(fā)出語音警示,提醒司機(jī)安全駕駛,后臺也可以保存這些圖像和數(shù)據(jù)集。通過綜合應(yīng)用這些技術(shù),我們可以及時識別和預(yù)防駕駛中的不良行為,從而提高交通安全性。

1 模型設(shè)計

1.1 目標(biāo)檢測算法

目標(biāo)檢測算法主要可以分為兩階段檢測算法和一階段檢測算法。兩階段檢測算法主要有 RCNN[3]、Fast R-CNN[4]、Faster R-CNN[5]等,它主要由骨干網(wǎng)絡(luò)、區(qū)域建議模塊和檢測頭構(gòu)成。YOLO(You Only Look Once)系列和SSD(Single Shot MultiBox Detector)系列等一階段目標(biāo)檢測算法主要采用端到端的檢測方法。這意味著在單個前向傳遞中,同時進(jìn)行目標(biāo)的定位和分類,可以更加快速地識別出目標(biāo)類別和位置,但是準(zhǔn)確度稍低于兩階段檢測算法。

1.2 YOLOv5-S算法

YOLOv5-S算法是YOLOv5系列中的一個變體,著重于在輕量級模型中提供高效準(zhǔn)確的目標(biāo)檢測能力。該算法采用了一系列細(xì)致的設(shè)計和優(yōu)化模塊,以實現(xiàn)高性能的目標(biāo)檢測。

主干網(wǎng)絡(luò)(Backbone):YOLOv5-S使用了一種緊湊而高效的主干網(wǎng)絡(luò),通常基于輕量級的卷積神經(jīng)網(wǎng)絡(luò)(CNN)架構(gòu),如CSPDarknet53或EfficientNet。這些主干網(wǎng)絡(luò)模塊旨在提取輸入圖像的特征表示,并將其傳遞給檢測頭部進(jìn)行目標(biāo)檢測。

特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network,F(xiàn)PN):為了處理不同尺度的目標(biāo),YOLOv5-S引入了特征金字塔網(wǎng)絡(luò)。FPN模塊通過在不同層級的特征圖之間建立連接,實現(xiàn)了跨尺度的特征融合和上下文信息的傳遞,從而提高了目標(biāo)檢測的準(zhǔn)確性和召回率。

錨框生成(Anchor Box Generation):在目標(biāo)檢測中,YOLOv5-S通過在輸入圖像上生成一組預(yù)定義的錨框(Anchor Boxes),用于預(yù)測不同尺度和寬高比的目標(biāo)框。錨框生成模塊負(fù)責(zé)在不同特征圖上生成合適的錨框,并為每個錨框分配初始的類別置信度和邊界框坐標(biāo)。

檢測頭部(Detection Head):YOLOv5-S的檢測頭部模塊是該算法的關(guān)鍵部分。它負(fù)責(zé)將特征圖上的信息轉(zhuǎn)換為目標(biāo)檢測結(jié)果,包括類別預(yù)測和邊界框回歸。

1.3 數(shù)據(jù)集預(yù)處理

由于車輛在行駛過程中不可避免地受到震動和顛簸的影響,攝像頭采集的圖像可能出現(xiàn)模糊的情況。這種模糊可能導(dǎo)致圖像中的細(xì)節(jié)丟失和目標(biāo)物體不清晰,從而影響到后續(xù)的圖像處理和分析。因此,對于車輛行駛途中采集的模糊圖像,需要進(jìn)行去模糊處理。去模糊技術(shù)旨在通過算法和圖像處理方法來恢復(fù)模糊圖像的清晰度和細(xì)節(jié)。

在本研究中,我們采用了一種基于生成對抗網(wǎng)絡(luò)(GAN)[6]的圖像去模糊方法(圖1)。該方法由生成器和判別器兩個主要部分組成。生成器的主要任務(wù)是將模糊圖像轉(zhuǎn)換為清晰的去模糊圖像;判別器負(fù)責(zé)辨別輸入的圖像是否為真實的去模糊圖像。通過對抗性訓(xùn)練,生成器和判別器相互博弈,逐步提高去模糊的質(zhì)量。我們針對司機(jī)7種不同狀態(tài)下的運(yùn)動模糊圖像進(jìn)行了模型去運(yùn)動模糊訓(xùn)練,共60次訓(xùn)練,累計訓(xùn)練了420次。最后,我們對70張不同駕駛狀態(tài)的模糊圖像進(jìn)行驗證,結(jié)果顯示,有64張圖像成功還原為清晰圖像,成功還原率達(dá)到了約0.91左右。

1.4 構(gòu)建YOLOv5-SAFE網(wǎng)絡(luò)

1.4.1 CIoU預(yù)測框介紹[7]

在YOLOv5的原始版本中,分類預(yù)測、邊界框選擇和損失函數(shù)計算中使用了交并比(Intersection over Union,IoU)作為回歸的損失函數(shù)。

為了解決這個問題,考慮使用完整交并比(Complete-IoU,CIoU)代替IoU。CIoU考慮了目標(biāo)與真實邊界框之間的距離、重疊面積以及長寬比,使得目標(biāo)邊界框的回歸更穩(wěn)定。這樣,在訓(xùn)練過程中可以避免梯度發(fā)散。圖2展示了CIoU的示意圖。

通過使用CIoU作為損失函數(shù),YOLOv5可以更準(zhǔn)確地度量目標(biāo)邊界框的質(zhì)量,并在訓(xùn)練過程中實現(xiàn)更穩(wěn)定的優(yōu)化。這種改進(jìn)有助于提高目標(biāo)檢測的準(zhǔn)確性和魯棒性,使得模型更適應(yīng)各種目標(biāo)形狀和尺寸的檢測任務(wù)。

在圖2中,符號n表示兩個中心點(diǎn)之間的歐氏距離,而符號m表示能夠同時覆蓋先驗框和目標(biāo)框的最小矩形的對角線距離。該方法將面積比轉(zhuǎn)化為距離比,以更好地反映預(yù)測框與真實框之間的關(guān)系。這種轉(zhuǎn)化不僅減少了訓(xùn)練計算量,還加快了收斂速度,并使得預(yù)測框能夠快速移動到真實框的目標(biāo)位置。

CIOU方法利用符號v來評估預(yù)測框與真實框之間的相關(guān)性,同時利用符號α來控制預(yù)測框的尺度、移動方向和收斂樣式。CIOU的計算公式如下:

[CIoU=IoU-r2b,bgtc2-av]" ⑴

其中:

[a=v1-IoU+v]" ⑵

[v=4π2(arctanwgthgt-arctanwh)2]" ⑶

式⑴中,r2(b,bgt)表示預(yù)測框中心點(diǎn)與真實框中心點(diǎn)之間的歐氏距離,c表示能夠同時包含預(yù)測框和真實框的最小閉包區(qū)域的對角線距離。α是一個權(quán)重函數(shù),用于平衡預(yù)測框的尺度和位置的重要性。而v是一個參數(shù),用于衡量檢測框與真實框之間尺寸比例的一致性。

1.4.2 注意力機(jī)制的引入

針對當(dāng)前YOLOv5網(wǎng)絡(luò)訓(xùn)練過程中精度不夠的問題,下面添加了一種SENet注意力機(jī)制[8]的網(wǎng)絡(luò)模型,在YOLOv5的CSP結(jié)構(gòu)上加入SENet模塊。CSP結(jié)構(gòu)有兩種設(shè)計,分別為CSP1_X結(jié)構(gòu)和CSP2_X結(jié)構(gòu),一個應(yīng)用在主干網(wǎng)絡(luò)上,一個在 Neck 網(wǎng)絡(luò)上,將原輸入分成兩個分支,分別進(jìn)行卷積操作使得通道數(shù)減半,然后將兩個分支融合。改進(jìn)模塊如圖3所示。

使用全局平均池化對垃圾圖像的特征圖進(jìn)行壓縮操作,將特征維度降低,然后使用ReLU函數(shù)進(jìn)行激活,接著用全連接層回到原來的維度,這么做可以很好地擬合通道復(fù)雜性的關(guān)聯(lián),也大大降低了參數(shù)量和計算量。然后通過一個Sigmoid函數(shù)獲得歸一化的權(quán)重。最后,使用Scale運(yùn)算將歸一化后的權(quán)重按比例應(yīng)用到每個通道上,以生成與輸入特征相同數(shù)量的權(quán)重。

2 實驗結(jié)果與分析

2.1 性能評價指標(biāo)

本研究采用精確度和召回率兩個評價指標(biāo)來評價駕駛行為檢測網(wǎng)絡(luò)的性能。Precision和Recall計算公式如下:

[Precision=TPTP+FP]" ⑷

[Recall=TPTP+FN]" ⑸

[AP=01PRdR]" ⑹

[mAP=i=1kAPik]" ⑺

其中,TP、FP和 FN分別表示預(yù)測為正類的正樣本、預(yù)測為正類的負(fù)樣本和預(yù)測為負(fù)類的正樣本,AP 表示 Precision-Recall曲線下的面積,APi表示第i類別的AP值。

2.2 模型訓(xùn)練

實驗均在以下參數(shù)設(shè)置中進(jìn)行,輸入圖片為416×416;訓(xùn)練分為兩個階段,Epoch設(shè)置為200輪;前100輪凍結(jié)階段的batch_size設(shè)置為16,learning_rate 設(shè)置為0.001,此階段模型的主干被凍結(jié)。后100輪解凍階段的batch_size設(shè)置為8;learning_rate設(shè)置為0.0001,此階段模型的主干被解凍。

2.3 檢測結(jié)果

使用YOLOv5s算法、YOLOV5+SE算法和 YOLOv5+CIoU算法分別在上述數(shù)據(jù)集上進(jìn)行訓(xùn)練,預(yù)訓(xùn)練權(quán)重模型為YOLOv5s.pt,訓(xùn)練完成后,在測試集上所得到的性能指標(biāo)如表1所示。

從表1可以看出,YOLOv5-SAFE網(wǎng)絡(luò)的P、R、mAP三個值皆高于YOLOv5-S,且分別提高了1.5%、1.4%、1.9%,說明本文所提出的模型在檢測駕駛行為方面更優(yōu)于原始的YOLOv5-S。YOLOv5+SE網(wǎng)絡(luò)可以增強(qiáng)特征提取能力,大大提高了模型檢測精度。YOLOv5+CIoU改善了分類損失,邊界框預(yù)測和損失函數(shù)計算,也一定程度上提高了駕駛行為檢測模型的精度。綜上所述,改進(jìn)后的模型大大提高了司機(jī)不規(guī)范行為的檢測效果。

圖4為YOLOv5-SAFE在測試集中的一些圖片的檢測效果圖,可見所有的不規(guī)范駕駛行為圖片均可被正確檢測,檢測的置信度在0.9左右。由此可以看出,改進(jìn)后模型檢測效果很好。

3 結(jié)論

由于不規(guī)范駕駛造成的安全問題較為嚴(yán)重,且駕駛行為的檢測會存在誤差干擾。本研究對YOLOv5算法進(jìn)行優(yōu)化改進(jìn),首先對采集的圖片使用GAN運(yùn)動去模糊方法,得到較為清晰的圖片,其次在YOLOv5算法中引入CIoU和SENet,提高檢測精度和檢測能力,從而增強(qiáng)模型的魯棒性。實驗結(jié)果顯示,本文模型能有效檢測出不良駕駛行為,檢測精度達(dá)到了94.2%。綜上所述,本文提出了一套危險駕駛行為的檢測流程,對交通安全方面具有重要的實際應(yīng)用價值。

參考文獻(xiàn)(References):

[1] 樊素梅.節(jié)約型理念下企業(yè)車輛管理模式創(chuàng)新路徑研究[J].

現(xiàn)代營銷(下旬刊),2018(11):133.

[2] Redmon J, Divvala S, Girshick R, et al. You only look

once: Unified, real-time object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2016:779-788.

[3] Girshick R, Donahue J, Darrell T, et al. Rich feature

hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2014:580-587.

[4] Girshick R. Fast r-cnn[C]//Proceedings of the IEEE

international conference on computer vision,2015:1440-1448.

[5] Ren S, He K, Girshick R, et al. Faster r-cnn: Towards real-

time object detection with region proposal networks[J]. Advances in neural information processing systems,2015,28.

[6] Mirza M, Osindero S. Conditional generative adversarial

nets[J]. arXiv preprint arXiv:1411.1784,2014.

[7] Zheng Z, Wang P, Ren D, et al. Enhancing geometric

factors in model learning and inference for object detection and instance segmentation[J].IEEE Transactions on Cybernetics,2021,52(8):8574-8586.

[8] Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]//

Proceedings of the IEEE conference on computer vision and pattern recognition,2018:7132-7141.

主站蜘蛛池模板: 午夜欧美理论2019理论| 国产精品极品美女自在线看免费一区二区 | 青青草国产一区二区三区| 国产精品99r8在线观看| 国产精欧美一区二区三区| 成人午夜天| 四虎永久免费地址在线网站| 制服无码网站| 国产欧美日韩va另类在线播放| 麻豆AV网站免费进入| 99视频精品在线观看| 中文字幕天无码久久精品视频免费| 91极品美女高潮叫床在线观看| 日韩国产另类| 欧美19综合中文字幕| 一级片免费网站| 精品国产成人三级在线观看| 国产精品一区二区在线播放| 99久久精品国产麻豆婷婷| av无码一区二区三区在线| 99这里只有精品免费视频| 精品久久777| 亚洲人成亚洲精品| 久久精品人人做人人爽电影蜜月 | 又黄又湿又爽的视频| 国产原创第一页在线观看| 91福利免费视频| 国产91特黄特色A级毛片| 亚洲精品国产综合99| 亚洲欧美不卡视频| 国产精品xxx| 久久精品aⅴ无码中文字幕 | 中美日韩在线网免费毛片视频 | 精品人妻AV区| 日韩av电影一区二区三区四区| 麻豆精品在线视频| 成年A级毛片| 国产日本欧美在线观看| 精品国产成人a在线观看| 91亚瑟视频| 久久伊伊香蕉综合精品| 欧美日韩中文字幕在线| 国产特一级毛片| 一级爱做片免费观看久久 | 青青青视频91在线 | 亚洲成人免费看| 亚洲性影院| 91精品最新国内在线播放| 久久久久亚洲精品成人网| 黄色网址手机国内免费在线观看| 无码 在线 在线| 欧美日韩午夜视频在线观看| 日韩黄色大片免费看| h网址在线观看| 久久国产精品无码hdav| 毛片网站在线看| 日韩av在线直播| 亚洲综合极品香蕉久久网| 99久久99视频| 亚洲综合婷婷激情| 欧美有码在线观看| 在线视频一区二区三区不卡| yjizz视频最新网站在线| 日韩欧美中文在线| 国产女人爽到高潮的免费视频| 在线播放真实国产乱子伦| 一级毛片免费不卡在线| 最近最新中文字幕免费的一页| 欧美 国产 人人视频| 欧美区一区二区三| 色婷婷亚洲十月十月色天| 国产精品永久免费嫩草研究院 | 亚洲欧美天堂网| 中文字幕天无码久久精品视频免费 | 青青草综合网| 欧美日韩国产精品综合| 亚洲欧美综合另类图片小说区| jizz国产视频| 亚洲欧洲日韩综合色天使| 欧美视频在线播放观看免费福利资源| 亚洲人成亚洲精品| 久久国产精品波多野结衣|