999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)YOLO的礦卡駕駛員疲勞檢測(cè)算法

2025-04-05 00:00:00杜威寧武孟麗囡陳雨潼
現(xiàn)代電子技術(shù) 2025年7期
關(guān)鍵詞:特征提取檢測(cè)模型

摘" 要: 針對(duì)現(xiàn)有疲勞駕駛檢測(cè)報(bào)警不及時(shí)、檢測(cè)精度不高以及需要人為監(jiān)管的問題,提出一種改進(jìn)YOLOv5s的疲勞駕駛目標(biāo)檢測(cè)算法。該算法使用輕量的EfficientNet骨干網(wǎng)絡(luò)作為YOLOv5s的主干網(wǎng)絡(luò)來進(jìn)行特征提取,使模型參數(shù)大幅減少,降低模型的訓(xùn)練時(shí)間;同時(shí)選用SIoU作為模型的損失函數(shù),優(yōu)化模型損失計(jì)算方法,提升模型的檢測(cè)精度。結(jié)果表明,優(yōu)化后的YOLOv5s目標(biāo)檢測(cè)算法與原YOLOv5s相比,模型尺寸減少了2%,平均準(zhǔn)確率提升了0.9%,能夠有效提升礦用生產(chǎn)車疲勞駕駛目標(biāo)的檢測(cè)效果。

關(guān)鍵詞: 礦用生產(chǎn)車; 疲勞檢測(cè); YOLOv5s; EfficientNet; 損失函數(shù); 特征提取; 遷移學(xué)習(xí); 模型優(yōu)化

中圖分類號(hào): TN911.73?34; TP391.4" " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " 文章編號(hào): 1004?373X(2025)07?0126?06

Mining truck driver fatigue detection algorithm based on improved YOLO

DU Wei, NING Wu, MENG Linan, CHEN Yutong

(School of Electronics and Information Engineering, Liaoning University of Technology, Jinzhou 121001, China)

Abstract: The alarms of the existing fatigue driving detections are not timely, the detection accuracy is not high, and the detections are highly dependent on artificial supervision, so a fatigue driving object detection algorithm based on improved YOLOv5s is proposed. In the algorithm, the lightweight EfficientNet backbone network is used as that of YOLOv5s for feature extraction, which reduces the model parameters and the model training time greatly. The SIoU is selected as the loss function of the model to optimize the model loss calculation method and improve the detection accuracy of the model. The results show that the model size of the object detection algorithm based on the optimized YOLOv5s is reduced by 2% and its accuracy rate is improved by 0.9% in comparison with the object detection algorithm based on the original YOLOv5s, so the proposed algorithm can effectively improve the effect of the fatigue driving object detection of mining production vehicles.

Keywords: mine production vehicle; fatigue detection; YOLOv5s; EfficientNet; loss function; feature extraction; transfer learning; model optimization

0" 引" 言

礦山開采過程中,礦用生產(chǎn)車是關(guān)鍵的運(yùn)輸工具。然而,由于工作環(huán)境的艱苦和單一性,駕駛這些車輛的人員往往容易出現(xiàn)疲勞駕駛行為。盡管已有一些監(jiān)測(cè)方法,但常常存在報(bào)警不及時(shí)和依賴人為監(jiān)管的問題。因此,尋找一種智能、簡(jiǎn)化、準(zhǔn)確的疲勞駕駛檢測(cè)方式具有重要的實(shí)際意義[1]。

疲勞駕駛是交通事故的主要誘因之一,為確保交通安全,科研機(jī)構(gòu)和企業(yè)近年來對(duì)疲勞駕駛檢測(cè)方法進(jìn)行了大量研究。通過攝像頭獲取駕駛員信息[2],根據(jù)眼睛閉合時(shí)間[3]、眨眼頻率[4]、頭部?jī)A斜角度[5]等指標(biāo)判斷駕駛員是否處于疲勞狀態(tài)。

基于上述背景,本文提出一種基于YOLOv5s的礦用生產(chǎn)車駕駛員疲勞駕駛檢測(cè)方法,對(duì)其進(jìn)行優(yōu)化,將其主干網(wǎng)絡(luò)替換為EfficientNet[6],采用SIoU作為模型損失函數(shù),旨在提高模型的魯棒性和檢測(cè)精度,同時(shí)降低對(duì)負(fù)樣本的依賴。

1" 目標(biāo)識(shí)別算法

1.1" YOLOv5s

YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,其整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)分為主干特征提取網(wǎng)絡(luò)模塊、頸部加強(qiáng)特征提取網(wǎng)絡(luò)模塊、頭部預(yù)測(cè)網(wǎng)絡(luò)模塊三部分:主干特征提取網(wǎng)絡(luò)模塊用來獲得三個(gè)初步的有效特征層;頸部加強(qiáng)特征提取網(wǎng)絡(luò)模塊用來對(duì)三個(gè)初步的有效特征層進(jìn)行特征融合;頭部預(yù)測(cè)網(wǎng)絡(luò)模塊用來獲得預(yù)測(cè)結(jié)果。

1.2" EfficientNet

EfficientNet是一種深度學(xué)習(xí)模型架構(gòu),主要用于圖像分類任務(wù),其主要貢獻(xiàn)是系統(tǒng)性地研究了網(wǎng)絡(luò)的寬度、深度和分辨率。EfficientNet的研究者發(fā)現(xiàn)[7],相比單一地調(diào)整網(wǎng)絡(luò)的深度、寬度或分辨率,聯(lián)合調(diào)整這三個(gè)維度可以更加高效地利用模型參數(shù)。

EfficientNet共有8個(gè)不同的網(wǎng)絡(luò)結(jié)構(gòu)[8],EfficientNet?B0被稱為基線網(wǎng)絡(luò),通過基線網(wǎng)絡(luò)進(jìn)行復(fù)合縮放就可以得到EfficientNet?B1~EfficientNet?B7。復(fù)合縮放指的是對(duì)卷積神經(jīng)網(wǎng)絡(luò)的三維用一定的比例進(jìn)行擴(kuò)展,以達(dá)到尋求最優(yōu)參數(shù)的目的。模型復(fù)合縮放關(guān)系如式(1)所示:

[" " " " "maxd,w,r" AccuracyN(d,w,r)s.t." " N(d,w,r)=⊙i=1,2,…,sFd?Lii(Xr?Hi,r?Wi,w?Ci)" " " " "Memory(N)≤target_memory" " " " nbsp;FLOPs(N)≤target_flops] (1)

式中:[d]為網(wǎng)絡(luò)深度;[w]為網(wǎng)絡(luò)寬度;[r]為分辨率倍率;Memory為存儲(chǔ)程度;FLOPs為浮點(diǎn)運(yùn)算速率。

復(fù)合縮放使用了固定的規(guī)模參數(shù),并且引入?yún)?shù)[?]以確保深度、寬度和分辨率按照合適的比例進(jìn)行縮放。這三個(gè)維度的縮放公式如式(2)所示:

[" depth:" d=α?" width:" w=β?resolution:" r=γ?s.t." α?β2?γ2≈2" " " α≥1, β≥1,γ≥1]" (2)

式中:[α]為網(wǎng)絡(luò)深度分配系數(shù);[β]為網(wǎng)絡(luò)寬度分配系數(shù);[γ]為分辨率倍率分配系數(shù);[?]為自定義縮放系數(shù)。

EfficientNet?B0的核心結(jié)構(gòu)是和MNASNet以及MobileNet v2類似的倒置瓶頸卷積模塊(MBConv),MBConv主要由一個(gè)1×1的卷積進(jìn)行升維,一個(gè)[k×k]([k]主要有3×3和5×5兩種情況)的Depthwise Conv卷積、一個(gè)SE模塊,然后接一個(gè)1×1的普通卷積進(jìn)行降維,再加一個(gè)Droupout,最后進(jìn)行特征圖融合。

每個(gè)Conv層在卷積后都有BN層,選擇Swish函數(shù)作為激活函數(shù),其表達(dá)式如式(3)所示:

[f(x)=x?sigmoid(x)] (3)

式中[x]為輸入。Swish函數(shù)不會(huì)梯度飽和,因?yàn)闆]有上邊界,但是卻擁有下邊界,所以正則化效果更好,可以使訓(xùn)練模型變得更加簡(jiǎn)單[9]。

2" YOLOv5s算法改進(jìn)

為了提高YOLOv5s算法對(duì)于礦用生產(chǎn)車駕駛員疲勞駕駛的檢測(cè)精度,降低模型的權(quán)重,將YOLOv5s原有的CSPDarkNet53主干網(wǎng)絡(luò)替換為EfficientNet的主干網(wǎng)絡(luò)來達(dá)到對(duì)圖像特征提取的目的,并且將YOLOv5s原有的CIoU損失函數(shù)替換為SIoU損失函數(shù),SIoU加入了角度損失計(jì)算,以此來提高模型精度,加快模型收斂速度。

2.1" 網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn)

為了優(yōu)化YOLOv5s的算法性能,在權(quán)衡運(yùn)行環(huán)境及模型大小等原因后,通過比較實(shí)驗(yàn),最終確定選擇EfficientNet?B4的主干特征提取網(wǎng)絡(luò)來實(shí)現(xiàn)特征提取。

EfficientNet?B4擁有14個(gè)卷積層、2個(gè)池化層和4個(gè)全連接層[10]。EfficientNet?B4中共有32個(gè)MBConv模塊,取其10、22、32的輸出層作為有效特征層,使其與CSPDarkNet53的輸出尺寸相同,同時(shí)針對(duì)不同尺度的目標(biāo)繼續(xù)分別建立檢測(cè)層。

改進(jìn)的YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,輸入為640×640的圖像,通過Stem、Module 2、Module 3、Module 4以及Module 6的處理,圖像的長(zhǎng)和寬得以有效壓縮。而Module 1、Module 5和Module 7則專注于圖像的特征提取。在Module 3、Module 5和Module 7的階段,可以獲得三種不同尺度的特征層,它們分別對(duì)應(yīng)小、中、大的目標(biāo)檢測(cè)。通過卷積、上采樣等手段,將深層和淺層的網(wǎng)絡(luò)進(jìn)行融合,從而顯著提高網(wǎng)絡(luò)的目標(biāo)檢測(cè)能力。最終,能確保不同尺度的目標(biāo)都被精確地匹配到相應(yīng)的預(yù)測(cè)層上。

2.2" 損失函數(shù)優(yōu)化

YOLOv5s算法采用CIoU損失函數(shù)優(yōu)化檢測(cè)性能,CIoU在IoU的基礎(chǔ)上增加了預(yù)測(cè)框長(zhǎng)寬比和目標(biāo)框長(zhǎng)寬比之間的關(guān)系,提升了損失函數(shù)的抑制效果,加強(qiáng)了待測(cè)目標(biāo)的統(tǒng)一性。但CIoU損失函數(shù)計(jì)算量偏大,而且對(duì)邊界框回歸指標(biāo)的聚合依賴性太強(qiáng),忽略了預(yù)測(cè)框與真實(shí)框的不匹配,從而導(dǎo)致收斂速度慢。CIoU表達(dá)式[11]如式(4)所示:

[LCIoU=1-IoU+ρ2(b,bgt)c2+εv]" "(4)

式中:IoU為預(yù)測(cè)框與真實(shí)框交集與并集之比;[ε]為權(quán)重參數(shù);[v]為長(zhǎng)寬比的相似度;[c]為包含預(yù)測(cè)框與真實(shí)框最小區(qū)域?qū)蔷€距離;[b]為預(yù)測(cè)框中心坐標(biāo)值;[bgt]為真實(shí)框中心坐標(biāo)值;[ρ]為兩點(diǎn)之間的距離。

基于以上CIoU的不足,故引入SIoU損失函數(shù),SIoU進(jìn)一步考慮了真實(shí)框和預(yù)測(cè)框之間的向量角度,重新定義相關(guān)損失函數(shù),具體包含四個(gè)部分:角度成本(Angle cost)、距離成本(Distance cost)、形狀成本(Shape cost)、IoU成本(IoU cost)。SIoU在提高檢測(cè)準(zhǔn)確度的同時(shí)也減小了計(jì)算量,所以訓(xùn)練速度變得更快,效率變得更高。

角度損失函數(shù)表達(dá)式如式(5)所示:

[Λ=1-2×sin2arcsinchσ-4π] (5)

式中:[σ]為真實(shí)框與預(yù)測(cè)框中心點(diǎn)的距離;[ch]為真實(shí)框與預(yù)測(cè)框中心點(diǎn)的高度差。

距離損失函數(shù)表達(dá)式如式(6)、式(7)所示:

[Δ=t=x,y(1-e(Λ-2)ρt)" =2-e(Λ-2)ρx-e(Λ-2)ρy]" (6)

[ρx=bgtcx-bcxcw2," " ρy=bgtcy-bcych2]" " (7)

式中:[cw]為真實(shí)框與預(yù)測(cè)框最小外接矩形的寬;[ch]為真實(shí)框與預(yù)測(cè)框最小外接矩形的高;[bgtcx]為真實(shí)框中心點(diǎn)橫坐標(biāo);[bgtcy]為真實(shí)框中心點(diǎn)縱坐標(biāo);[bcx]為預(yù)測(cè)框中心點(diǎn)橫坐標(biāo);[bcy]為預(yù)測(cè)框中心點(diǎn)縱坐標(biāo)。

形狀損失函數(shù)表達(dá)式如式(8)、式(9)所示:

[Ω=t=w,h(1-e-wt)θ" "=(1-e-ww)θ+(1-e-wh)θ]" (8)

[ww=w-wgtmax(w,wgt)," " wh=h-hgtmax(h,hgt)]" (9)

式中:[w]為預(yù)測(cè)框?qū)挘籟h]為預(yù)測(cè)框高;[wgt]為真實(shí)框?qū)挘籟hgt]為真實(shí)框高;[θ]為對(duì)形狀損失的關(guān)注程度。

IoU損失函數(shù)表達(dá)式如式(10)所示:

[LIoU=1-IoU]" (10)

綜上,SIoU損失函數(shù)表達(dá)式如式(11)所示:

[LSIoU=1-IoU+Δ+Ω2]" " " (11)

3" 系統(tǒng)軟件設(shè)計(jì)

3.1" 對(duì)比模型

為了得到最適合的特征提取網(wǎng)絡(luò),將YOLOv5s的主干特征提取網(wǎng)絡(luò)CSPDarkNet53使用EfficientNet?B1~EfficientNet?B6分別替換進(jìn)行對(duì)比實(shí)驗(yàn)。

為了驗(yàn)證改進(jìn)的YOLOv5s模型的檢測(cè)速度,將原始YOLOv5s模型,CSPDarkNet53替換為EfficientNet?B4主干特征提取網(wǎng)絡(luò)的YOLOv5s模型以及CSPDarkNet53替換為EfficientNet?B4主干特征提取網(wǎng)絡(luò)、CIoU損失函數(shù)替換為SIoU損失函數(shù)的YOLOv5s模型三者進(jìn)行對(duì)比分析。另外,為了驗(yàn)證改進(jìn)后模型的整體性能,將MTCNN、YOLOv4和改進(jìn)的YOLOv5s模型進(jìn)行對(duì)比分析。

3.2" 疲勞判定

引入度量瞌睡程度的物理量——單位時(shí)間眼睛閉合的百分比[12](PERCLOS)進(jìn)行疲勞判定,PERCLOS由美國(guó)于1994年首次提出,定義為在一定時(shí)期內(nèi)眼睛的閉合程度,其表達(dá)式如式(12)所示:

[PERCLOS=眼睛閉合幀數(shù)檢測(cè)時(shí)間段總幀數(shù)×100%]" (12)

在疲勞駕駛的檢測(cè)過程中,實(shí)時(shí)性是至關(guān)重要的。由于駕駛員的安全與否可能在瞬間決定,無法給予1 min或更長(zhǎng)的時(shí)間進(jìn)行測(cè)試和分析。研究表明,人類眨眼的時(shí)間[13]通常為0.3~0.5 s。為了確保眨眼不會(huì)導(dǎo)致誤判,本研究選擇了0.6 s作為檢測(cè)時(shí)間,也就是說,當(dāng)閉眼時(shí)間超過0.6 s時(shí),系統(tǒng)會(huì)對(duì)眼睛進(jìn)行框架標(biāo)注。

3.3" 評(píng)價(jià)指標(biāo)

為了評(píng)估改進(jìn)的YOLOv5s模型在礦用生產(chǎn)車駕駛員疲勞檢測(cè)中的準(zhǔn)確性,本文采用平均準(zhǔn)確率(mAP)、精確率(Precision)、召回率(Recall)、權(quán)重大小(Model Size)以及參數(shù)量(Parameters)、計(jì)算量(Computation)對(duì)疲勞駕駛檢測(cè)算法進(jìn)行評(píng)價(jià)。精確率指的是預(yù)測(cè)正確的正樣本與所有正樣本之比,其函數(shù)表達(dá)式如式(13)所示:

[Precision=TPTP+FP]" "(13)

式中:[TP]是指預(yù)測(cè)與實(shí)際都是正樣本;[FP]表示負(fù)樣本被預(yù)測(cè)為正樣本。召回率指的是預(yù)測(cè)為正的樣本與所有正樣本的比值,其函數(shù)表達(dá)式如式(14)所示:

[Recall=TPTP+FN]" "(14)

式中[FN]表示正樣本被預(yù)測(cè)為負(fù)樣本。

4" 實(shí)驗(yàn)結(jié)果與分析

4.1" 訓(xùn)練過程

訓(xùn)練所用的數(shù)據(jù)集均來自于實(shí)際采集的圖片,共300張,圖片尺寸設(shè)置為640×640,使用LabelImg對(duì)圖片進(jìn)行標(biāo)注,并生成xml文件用于訓(xùn)練。由于采集的圖片數(shù)量有限,但本實(shí)驗(yàn)對(duì)圖片數(shù)量依賴性較大,所以選用遷移學(xué)習(xí)手段,先在ImageNet數(shù)據(jù)集上使用本文提出的方法進(jìn)行模型訓(xùn)練,然后在此基礎(chǔ)上,使用自建數(shù)據(jù)集對(duì)疲勞駕駛檢測(cè)進(jìn)行遷移學(xué)習(xí)。

遷移學(xué)習(xí)的流程可以大致劃分為如下兩個(gè)關(guān)鍵階段。

凍結(jié)訓(xùn)練階段:在此階段,保持模型的主體部分不變,即“凍結(jié)”它,即意味著在訓(xùn)練過程中,這部分的權(quán)重不會(huì)被更新,僅對(duì)模型的某些層進(jìn)行微調(diào),以便使其適應(yīng)新的任務(wù)。在這一階段,采用的學(xué)習(xí)率為0.001,batch_size設(shè)置為16,訓(xùn)練的epoch數(shù)為50。

解凍訓(xùn)練階段:經(jīng)過上述的初步訓(xùn)練后,進(jìn)入到第二階段,在這里模型的主體部分被“解凍”,允許其在訓(xùn)練過程中更新權(quán)重,這意味著整個(gè)網(wǎng)絡(luò),包括特征提取層,都會(huì)在這一階段進(jìn)行訓(xùn)練,對(duì)應(yīng)的學(xué)習(xí)率調(diào)整為0.000 1,batch_size減半,變?yōu)?,而epoch的數(shù)量保持為50不變。

4.2" 同系列算法對(duì)比

因?yàn)橐贓fficientNet系列網(wǎng)絡(luò)中選擇最適合的模型替代YOLOv5s的主要特征提取網(wǎng)絡(luò),所以設(shè)置一組對(duì)比實(shí)驗(yàn),用EfficientNet?B1~EfficientNet?B6分別替換YOLOv5s的主干網(wǎng)絡(luò)CSPDarkNet53,經(jīng)過訓(xùn)練測(cè)試后,獲得了各模型的mAP和Model Size,實(shí)驗(yàn)結(jié)果如表1所示。

通過觀察表1發(fā)現(xiàn),EfficientNet系列中,B1、B2、B3與B5的mAP@0.5均低于YOLOv5s;而B4與B6的mAP@0.5則與YOLOv5s相當(dāng),甚至略有超出。但考慮到模型大小,B4的大小只有B6的一半甚至更小,因此,本文選用EfficientNet?B4作為主干的特征提取網(wǎng)絡(luò)。

4.3" 消融實(shí)驗(yàn)結(jié)果分析

為了驗(yàn)證改進(jìn)YOLOv5s的有效性,對(duì)原始YOLOv5s(模型1),CSPDarkNet53替換為EfficientNet B4主干特征提取網(wǎng)絡(luò)的YOLOv5s模型(模型2)以及CSPDarkNet53替換為EfficientNet B4主干特征提取網(wǎng)絡(luò)、CIoU損失函數(shù)替換為SIoU損失函數(shù)的YOLOv5s模型(模型3)三者進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表2所示。

從表2中可以看出,三者參數(shù)量大致相同,但模型3計(jì)算量要遠(yuǎn)遠(yuǎn)優(yōu)于其他兩個(gè)模型,三者權(quán)重大小基本相似。模型3的精確率比模型1高1.2%,比模型2高0.7%;模型3召回率較模型1低0.4%,較模型2低2.1%;模型3平均準(zhǔn)確率較模型1高0.9%,較模型2高1.6%。由此可見,經(jīng)過優(yōu)化的主干特征提取網(wǎng)絡(luò)和損失函數(shù)的模型3,在保證目標(biāo)檢測(cè)速度的基礎(chǔ)上,能夠更為準(zhǔn)確地識(shí)別疲勞駕駛的目標(biāo)。在模型體積方面,改進(jìn)版算法(模型3)與YOLOv5s(模型1)相比,體積更小、參數(shù)量顯著減少。而出人意料的是,其平均準(zhǔn)確率實(shí)現(xiàn)了明顯的提升。這進(jìn)一步印證了使用EfficientNet作為目標(biāo)檢測(cè)模型的主干特征提取網(wǎng)絡(luò),相較于CSPDarkNet53,無疑是更為輕便和高效的選擇。綜合對(duì)比分析,本文提出的改進(jìn)版YOLOv5s目標(biāo)檢測(cè)算法在性能上明顯超越了原始的YOLOv5s算法,這也驗(yàn)證了優(yōu)化方案更加適用于疲勞駕駛目標(biāo)的檢測(cè)。

4.4" 對(duì)比實(shí)驗(yàn)結(jié)果分析

為了證明提出的改進(jìn)YOLOv5s算法對(duì)疲勞駕駛檢測(cè)的有效性,將Faster R?CNN算法、YOLOv4算法以及提出的改進(jìn)YOLOv5s算法進(jìn)行實(shí)驗(yàn)對(duì)比,結(jié)果如表3所示。從實(shí)驗(yàn)結(jié)果可以看出,F(xiàn)aster R?CNN作為二階段目標(biāo)檢測(cè)算法,模型結(jié)構(gòu)較大,檢測(cè)速度較慢,平均準(zhǔn)確率為90.6%,本文提出的改進(jìn)YOLOv5s算法檢測(cè)速度僅為Faster R?CNN的[175],雖然和YOLOv4相比,檢測(cè)速度稍微有所下降,但是本文提出的改進(jìn)YOLOv5s平均準(zhǔn)確率比YOLOv4高1.2%。實(shí)驗(yàn)結(jié)果表明,提出的改進(jìn)YOLOv5s目標(biāo)檢測(cè)算法不僅保證了檢測(cè)速度,而且提升了檢測(cè)精度,可以滿足對(duì)礦用生產(chǎn)車駕駛員疲勞駕駛檢測(cè)的需求。

4.5" 測(cè)試結(jié)果分析

采用經(jīng)過精細(xì)訓(xùn)練的模型進(jìn)行檢測(cè),使用攝像頭采集視頻。借助改進(jìn)的YOLOv5s目標(biāo)識(shí)別算法直接對(duì)這些視頻流進(jìn)行實(shí)時(shí)分析與識(shí)別。在視頻檢測(cè)過程中,維持30 f/s的采樣速率,確保捕捉到每一個(gè)細(xì)節(jié)。隨著測(cè)試者狀態(tài)的不斷變化,測(cè)試結(jié)果也會(huì)實(shí)時(shí)更新,以達(dá)到提供動(dòng)態(tài)、精確的反饋?zhàn)饔谩.?dāng)識(shí)別到閉眼或者打哈欠兩種疲勞特征的任意一種即判斷為疲勞。當(dāng)疲勞時(shí),畫框外部顯示drowsy,當(dāng)不疲勞時(shí)畫框外部顯示undrowsy,測(cè)試結(jié)果如圖3所示。

在模擬疲勞駕駛測(cè)試中,通過三種算法分別進(jìn)行實(shí)驗(yàn)對(duì)比。三名測(cè)試者在駕駛過程中做出兩種疲勞狀態(tài),對(duì)狀態(tài)進(jìn)行判別,F(xiàn)aster R?CNN檢測(cè)準(zhǔn)確率為90%,YOLOv4的疲勞檢測(cè)準(zhǔn)確率為85%,改進(jìn)的YOLOv5s的疲勞駕駛檢測(cè)準(zhǔn)確率為95%。本文提出的改進(jìn)YOLOv5s可以滿足對(duì)礦用生產(chǎn)車駕駛員疲勞駕駛檢測(cè)的需求。

5" 結(jié)" 論

礦用生產(chǎn)車駕駛員疲勞駕駛是導(dǎo)致礦山安全生產(chǎn)事故的重要原因之一,改進(jìn)的YOLOv5s目標(biāo)檢測(cè)算法使用EfficientNet替代CSPDarkNet53作為YOLOv5s算法的主干特征提取網(wǎng)絡(luò),大量減少了模型的參數(shù)量,降低了模型復(fù)雜程度并且提升了訓(xùn)練速度,使得模型更加的輕量化;使用SIoU作為網(wǎng)絡(luò)模型的損失函數(shù),在計(jì)算損失時(shí)考慮了角度損失、距離損失、形狀損失、IoU損失,提高檢測(cè)準(zhǔn)確度的同時(shí)減小計(jì)算量;之后對(duì)模型進(jìn)行遷移學(xué)習(xí),實(shí)驗(yàn)結(jié)果表明改進(jìn)YOLOv5s目標(biāo)檢測(cè)算法相較于原始的YOLOv5s算法,漏檢率更低、檢測(cè)精度更高,且在能滿足疲勞檢測(cè)準(zhǔn)確率和mAP@0.5的前提下,使得模型尺寸減小約2%,能夠進(jìn)一步滿足實(shí)時(shí)性的要求和在嵌入式設(shè)備上的部署應(yīng)用。

參考文獻(xiàn)

[1] 畢林,周超,姚鑫.基于視頻序列的礦卡司機(jī)不安全行為識(shí)別[J].黃金科學(xué)技術(shù),2021,29(1):14?24.

[2] 張楊,王曉原,劉士杰,等.基于遺傳優(yōu)化算法的疲勞駕駛狀態(tài)辨識(shí)方法[J].傳感器與微系統(tǒng),2023,42(9):157?161.

[3] 李小平,白超.基于深度學(xué)習(xí)的司機(jī)疲勞駕駛檢測(cè)方法研究[J].鐵道學(xué)報(bào),2021,43(6):78?87.

[4] 李昭慧,張瑋良.基于改進(jìn)YOLOv4算法的疲勞駕駛檢測(cè)[J].電子測(cè)量技術(shù),2021,44(13):73?78.

[5] 魯佳儒,胡文勛,肖運(yùn)虹.基于改進(jìn)YOLOv5的人臉疲勞檢測(cè)[J].信息與電腦(理論版),2023,35(7):111?114.

[6] 冉險(xiǎn)生,賀帥,蘇山杰,等.融合特征增強(qiáng)與DeepSort的疲勞駕駛檢測(cè)跟蹤算法[J].國(guó)外電子測(cè)量技術(shù),2023,42(8):54?62.

[7] 程澤,林富生,靳朝,等.基于輕量化卷積神經(jīng)網(wǎng)絡(luò)的疲勞駕駛檢測(cè)[J].重慶理工大學(xué)學(xué)報(bào)(自然科學(xué)),2022,36(2):142?150.

[8] 李彥鍇,許媛媛,劉子琪,等.基于改進(jìn)YOLOv3算法的空中紅外目標(biāo)檢測(cè)[J].紅外技術(shù),2023,45(4):386?393.

[9] 楊立潔,馮俊豪,王桂梅.基于EfficientNet?YOLOv3的多氧壓表識(shí)別方法[J].制造業(yè)自動(dòng)化,2023,45(8):43?48.

[10] 江躍龍,張銘智.基于PERCLOS的列車司機(jī)疲勞檢測(cè)設(shè)計(jì)與實(shí)現(xiàn)[J].計(jì)算機(jī)時(shí)代,2023(4):112?115.

[11] 梁勇,邱榮洲,李志鵬,等.基于YOLO v5和多源數(shù)據(jù)集的水稻主要害蟲識(shí)別方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2022,53(7):250?258.

[12] JAMAL S, ALESSANDRO G. Semi?supervised visual anomaly detection based on convolutional autoencoder and transfer learning [J]. Machine learning with applications, 2023, 11: 100451.

[13] 孫嘉,張建輝,卜佑軍,等.基于CNN?BiLSTM模型的日志異常檢測(cè)方法[J].計(jì)算機(jī)工程,2022,48(7):151?158.

作者簡(jiǎn)介:杜" 威(1999—),男,遼寧瓦房店人,碩士研究生,主要研究方向?yàn)槟繕?biāo)識(shí)別與檢測(cè)。

寧" 武(1980—),男,遼寧瓦房店人,碩士研究生,副教授,碩士生導(dǎo)師,主要研究方向?yàn)樾盘?hào)與信息智能處理。

孟麗囡(1967—),女,遼寧義縣人,碩士研究生,副教授,碩士生導(dǎo)師,主要研究方向?yàn)殡娏﹄娮蛹夹g(shù)應(yīng)用。

陳雨潼(2001—),女,遼寧鐵嶺人,碩士研究生,主要研究方向?yàn)殡娮釉O(shè)計(jì)自動(dòng)化與智能化控制。

收稿日期:2024?06?03" " " " " "修回日期:2024?06?25

基金項(xiàng)目:遼寧省教育廳基本科研項(xiàng)目(LJKFZ20220238)

猜你喜歡
特征提取檢測(cè)模型
一半模型
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測(cè)中的應(yīng)用
主站蜘蛛池模板: 午夜精品久久久久久久2023| 亚洲中久无码永久在线观看软件| 亚洲Av综合日韩精品久久久| 国产99在线观看| 欧美另类视频一区二区三区| 91精品日韩人妻无码久久| 亚洲性视频网站| 久久精品国产亚洲麻豆| 456亚洲人成高清在线| 亚洲欧洲日韩国产综合在线二区| 亚洲美女高潮久久久久久久| 精品黑人一区二区三区| 国产爽爽视频| 在线亚洲精品自拍| 熟女成人国产精品视频| 色综合日本| 久久精品国产国语对白| 欧美成人h精品网站| 少妇精品网站| 精品视频一区二区观看| 久久无码高潮喷水| 综合色在线| 2021国产乱人伦在线播放| 成年人久久黄色网站| 国产精品网址在线观看你懂的| 亚洲日韩精品无码专区| 成人午夜视频免费看欧美| 999精品视频在线| 东京热av无码电影一区二区| 凹凸国产熟女精品视频| 凹凸精品免费精品视频| 美女高潮全身流白浆福利区| 色综合综合网| 国产精品刺激对白在线| 国产精品成人第一区| 亚洲婷婷丁香| 国产成人91精品免费网址在线| 一级成人a做片免费| 97综合久久| 九九热在线视频| 日本国产精品一区久久久| 新SSS无码手机在线观看| 狠狠久久综合伊人不卡| 中文字幕第1页在线播| 色综合久久久久8天国| 亚洲综合天堂网| 国产极品嫩模在线观看91| 中国一级毛片免费观看| 97精品伊人久久大香线蕉| 老司机午夜精品视频你懂的| 亚洲一欧洲中文字幕在线| 色欲国产一区二区日韩欧美| 国产一区二区三区在线观看视频| 人妻少妇乱子伦精品无码专区毛片| 国产91线观看| 国产农村精品一级毛片视频| 国产精品亚洲欧美日韩久久| 亚洲无码高清免费视频亚洲| 日韩乱码免费一区二区三区| 国产精品亚洲片在线va| 在线精品视频成人网| 国产欧美网站| 国产成人久久综合777777麻豆| 最新亚洲人成网站在线观看| 国产网站免费看| 亚洲黄网在线| av性天堂网| 秋霞一区二区三区| 中文国产成人久久精品小说| 亚洲伊人久久精品影院| 99在线视频网站| 91人妻日韩人妻无码专区精品| 欧美a在线看| 欧美翘臀一区二区三区| 在线观看网站国产| 国产欧美亚洲精品第3页在线| 国产亚洲精品yxsp| 69国产精品视频免费| 国产精品网址在线观看你懂的| 国产91在线免费视频| 91视频青青草| 亚洲精品高清视频|