999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于對(duì)比學(xué)習(xí)的駕駛員異常駕駛行為檢測(cè)算法

2025-08-22 00:00:00李仲倫于光達(dá)楊帥鄒世野張鶴群汪春雨
汽車工程師 2025年8期

中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)志碼:A DOI: 10.20104/j.cnki.1674-6546.20240304

【Abstract】In the processof driving a vehicle,the complex and changing environment inside the vehicle,the change of lightingconditionsandthediversityofdrivers’behavioralposturesaffectthedetectionandrecognitionofabnormaldriver behavior.Toaddressthisisue,thispaper proposesadriverabnormaldriving behaviordetectionalgorithmbasedoncontrast learning.Thepaperfirstlyconsiders driver’sdriving behaviordetectionasabinaryclassficationtask,andutilizesacontrast learningapproach tocompare driver’snormaldriving withabnormal driving samplesandto improve the performanceof the modelbycontrastinglossfunctions.Secondlythedepthimagesrightaheadandabovethedriverservesasinputstosolvethe problemsofcomplex in-vehicleenvironmenttochangethelight intensityand blindspots inviewpointbyproviding thedepth informationofthedriver.Finaly3DconvolutionisintroducedinthelightweightnetworkMobileNetV2,andeoratioof channel blending isaddedtotheconvolutionlayerofeachbotleneck structuretoimprovetheauracyofrecognition.Test results show that accuracy of the proposed algorithm reaches 94.18% in the Driver’s Abnormality Detection (DAD) dataset and ROC AUC reaches O.962,which shows theefectivenessof the algorithm indriver’sabnormal behaviordetection.

Keywords:Abnormal driving behavior detection,Contrast learning,Second classification,3D Convolution Neural Networks(CNN)

【引用格式】李仲倫,于光達(dá),楊帥,等.基于對(duì)比學(xué)習(xí)的駕駛員異常駕駛行為檢測(cè)算法[J].汽車工程師,2025(8):29-36. LI ZL,YUGD,YANG S,etal.Driver Abnormal Driving Behavior Detection Algorithm Basedon Contrast Learning[J]. Automotive Engineer, 2025(8): 29-36.

1前言

HighwayTraffic SafetyAdministration,NHTSA)的數(shù)據(jù), 80% 的交通事故和 16% 的公路死亡是由駕駛員分心駕駛引起的。駕駛員異常駕駛行為(如疲勞、根據(jù)美國(guó)國(guó)家公路交通安全管理局(National注意力分散等)易導(dǎo)致道路事故的發(fā)生,造成生命及財(cái)產(chǎn)損失。因此,對(duì)駕駛員的駕駛行為進(jìn)行實(shí)時(shí)監(jiān)測(cè)及提醒,可有效減少交通事故的發(fā)生。

駕駛員異常駕駛行為檢測(cè)的傳統(tǒng)方法主要有3種:基于生理信號(hào)的檢測(cè)算法,駕駛員需佩戴生理信號(hào)采集裝置以便將生理信號(hào)與疲勞狀態(tài)相關(guān)聯(lián),該方法會(huì)令駕駛員產(chǎn)生不適;基于圖像處理的檢測(cè)算法,通過對(duì)圖像特征的提取和分析實(shí)現(xiàn)檢測(cè),該方法會(huì)受到圖像質(zhì)量、角度、遮擋等因素影響,導(dǎo)致檢測(cè)精度降低;基于駕駛操作行為的檢測(cè)算法,該方法可能受到駕駛員個(gè)人習(xí)慣和行為的影響,無法檢測(cè)某些類型的異常駕駛行為。

近年來,基于深度學(xué)習(xí)的行為檢測(cè)方法被提出。陳軍等設(shè)計(jì)了一種級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)檢測(cè)結(jié)構(gòu),并采用超分辨率測(cè)試序列模型對(duì)駕駛員分心駕駛行為進(jìn)行檢測(cè)。Tawari等提出了一種分布式相機(jī)框架,用于收集頭部姿勢(shì)的動(dòng)態(tài)信息以估計(jì)駕駛員的視線方向。上述檢測(cè)方法具有實(shí)時(shí)性強(qiáng)、準(zhǔn)確率高、無需接觸身體等優(yōu)點(diǎn),但仍有許多問題需要解決,如易受光照強(qiáng)度變化的影響、對(duì)新情況的適應(yīng)能力差等。

本文針對(duì)現(xiàn)有研究存在的問題,通過對(duì)比學(xué)習(xí)的方法區(qū)分駕駛員正常駕駛和異常駕駛行為,實(shí)現(xiàn)駕駛員異常駕駛行為檢測(cè)。

2基于對(duì)比學(xué)習(xí)的檢測(cè)算法

2.1 開集識(shí)別

深度神經(jīng)網(wǎng)絡(luò)在模型訓(xùn)練過程中需大量標(biāo)記樣本作為支撐,但真實(shí)駕駛場(chǎng)景復(fù)雜多變,獲得所有類別的標(biāo)記樣本并不現(xiàn)實(shí)。開集識(shí)別(OpenSetRecognition,OSR)將已知類的數(shù)據(jù)識(shí)別為具體類別,將不屬于已知類的數(shù)據(jù)識(shí)別為未知類別。開集識(shí)別與閉集識(shí)別的對(duì)比如圖1所示,在閉集識(shí)別中,算法根據(jù)訓(xùn)練集中已有的樣本,為每個(gè)類劃分相應(yīng)的空間,未知的類別會(huì)被錯(cuò)誤地分到一個(gè)類別;在開集識(shí)別中,算法為每個(gè)類確定一個(gè)與之關(guān)聯(lián)的有限區(qū)域,可以產(chǎn)生新的類,并檢測(cè)出異常。

圖1閉集識(shí)別與開集識(shí)別

圖2基于對(duì)比學(xué)習(xí)算法識(shí)別正常駕駛、異常駕駛行為

在傳統(tǒng)的分類任務(wù)中,模型只需對(duì)已知的類別進(jìn)行分類。在開集識(shí)別中,模型還需對(duì)未知類別進(jìn)行分類,這對(duì)模型的泛化能力提出了更高的要求。

對(duì)比學(xué)習(xí)是一種基于比較的算法,通過將相似的樣本歸為同一類別、將不相似的樣本歸為不同類別進(jìn)行分類,可應(yīng)用于開集識(shí)別。本文中所有與正常樣本不相似的樣本均被定義為異常樣本。

2.2 對(duì)比學(xué)習(xí)算法

2.2.1 算法結(jié)構(gòu)

對(duì)比學(xué)習(xí)屬于表征學(xué)習(xí),目的是學(xué)習(xí)一種數(shù)據(jù)變換方式,它通過比較數(shù)據(jù)的不同視圖或變化來學(xué)習(xí)數(shù)據(jù)的特征表示。對(duì)比學(xué)習(xí)的基礎(chǔ)是包含正樣本和負(fù)樣本的成對(duì)樣本,其中,正樣本屬于同一類別或具有相似特征,負(fù)樣本屬于不同類別或具有不同特征。本文的目的是在訓(xùn)練期間學(xué)習(xí)正常駕駛模板向量 vn ,測(cè)試時(shí),任何超過閾值γ的行為均被認(rèn)為是異常駕駛行為,如圖2所示。

27正常駕駛 N國(guó) 色

基于對(duì)比學(xué)習(xí)的模型,如SimCLR(SimpleframeworkforContrastiveLearningofvisualRepresentations)[8]、BYOL(BootstrapYourOwnLatent)9]、SwAV (Swapping Assignments betweenmultipleViews)[o等,在行為識(shí)別領(lǐng)域取得了不錯(cuò)的效果?;趯?duì)比學(xué)習(xí)的數(shù)據(jù)增強(qiáng)方法,如Mixup[、CutMix[2等,可以提高行為識(shí)別模型的性能。本文使用的對(duì)比學(xué)習(xí)框架[3如圖3所示。

框架主要由3個(gè)部分組成:

a.編碼器。神經(jīng)網(wǎng)絡(luò)編碼器f(將數(shù)據(jù)視圖映射到特征空間,得到特征向量,并且該特征向量能夠很好地表示輸入數(shù)據(jù)的語(yǔ)義信息。在訓(xùn)練過程中,使用對(duì)比損失函數(shù)訓(xùn)練編碼器,使同一輸入、不同增強(qiáng)版本的特征向量更加相似,不同輸入的特征向量區(qū)別更加明顯。因此,編碼器學(xué)習(xí)到的特征表示更具判別性,從而提高模型在分類任務(wù)中的性能。本文 fθ( )采用具有參數(shù) θ 的3D卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN)結(jié)構(gòu),通過3DCNN用 hi=fθ(xi) 將輸入 xi 轉(zhuǎn)化為

圖3駕駛員異常駕駛行為檢測(cè)的對(duì)比學(xué)習(xí)框架

b.投影頭。投影頭是具有一個(gè)由線性整流函數(shù)(RectifiedLinearUnit,ReLU)激活的隱藏層的多層感知機(jī)(MultilayerPerceptron,MLP),投影頭 gβ( )用于將 hi 映射到另一個(gè)潛在空間 vi ,并且具有參數(shù) β 以實(shí)現(xiàn) vi=gβ(hi) 的變換,其中 vi∈R128 。本文MLP由2個(gè)全連接(FullyConnected,F(xiàn)C)層組成,對(duì)輸入圖像的高維特征進(jìn)行非線性變換,將其映射到一個(gè)低維特征空間,從而提取圖像中的有用信息。然后對(duì)嵌人維度 vi 進(jìn)行歸一化,L2范數(shù)歸一化可使不同的特征維度具有同等重要性,以避免某些特征維度對(duì)損失函數(shù)的影響過大,使模型更加穩(wěn)定。

c.對(duì)比損失。對(duì)比損失強(qiáng)制要求來自正常駕駛類別的歸一化在嵌入彼此之間時(shí)比來自異常行為類別的嵌入更加接近。因此,對(duì)比損失中的正樣本對(duì)總是從正常驅(qū)動(dòng)剪輯中選擇,而異常驅(qū)動(dòng)剪輯僅用作負(fù)樣本。具體來說,對(duì)比損失函數(shù)將兩個(gè)樣本的特征表示作為輸入,計(jì)算它們的相似性得分,并與預(yù)先定義的閾值進(jìn)行比較。得分高于閾值,表示兩個(gè)樣本在特征空間中相似,低于閾值則表示不相似。

2.2.2 編碼器結(jié)構(gòu)

2D卷積雖然能夠提取圖像的空間特征,但由于缺少時(shí)序信息,很難用于視頻識(shí)別。3D卷積引入了時(shí)序的上下文信息,可以更好地提取時(shí)空特征,捕捉視頻的運(yùn)動(dòng)信息和場(chǎng)景變化。2D卷積與3D卷積的區(qū)別如圖4所示。

圖42D卷積與3D卷積的區(qū)別

在駕駛員行為識(shí)別任務(wù)中,為將算法更好地適配到資源有限的車載設(shè)備,需對(duì)網(wǎng)絡(luò)進(jìn)行輕量化處理。SqueezeNet4使用Fire卷積模塊減少參數(shù)量,從而實(shí)現(xiàn)輕量化。ShuffleNet[使用逐點(diǎn)卷積和通道混洗降低計(jì)算量、提高準(zhǔn)確率。EfficientNet通過同時(shí)對(duì)網(wǎng)絡(luò)深度、寬度和圖像分辨率進(jìn)行縮放,實(shí)現(xiàn)在降低模型體積和計(jì)算成本的同時(shí),提高模型的準(zhǔn)確性。此外,還有NASNet、FBNet8等輕量化網(wǎng)絡(luò)。

本文選用輕量化網(wǎng)絡(luò)MobileNetV2[9,它以MobileNetV1為基礎(chǔ),使用可分離卷積代替?zhèn)鹘y(tǒng)卷積,分別對(duì)空間特征、通道特征進(jìn)行卷積處理,大幅減少了參數(shù)數(shù)量和計(jì)算量,且在識(shí)別檢測(cè)中應(yīng)用廣泛[20]。本文對(duì)其進(jìn)行3D轉(zhuǎn)換,使其能夠利用3D卷積捕捉連續(xù)幀之間的運(yùn)動(dòng)狀態(tài),從而提高狀態(tài)預(yù)測(cè)能力。3D-MobileNetV2從卷積層1開始,然后通過7個(gè)MobileNetV2模塊及卷積層2,最后進(jìn)入池化層和全連接層。模型結(jié)構(gòu)如圖5所示,模塊1~模塊7的結(jié)構(gòu)如圖6所示,模型體系架構(gòu)如表1所示。其中, F,F(xiàn) 為圖像的通道數(shù), D,W,H 分別為圖像的深度、寬度、高度, Conv 表示卷積,DwConv表示深度可分離卷積,BN表示歸一化,ReLU6為激活函數(shù),是線性修正單元(RectifiedLinearUnit,ReLU)的變體,Add表示將多個(gè)特征圖或張量相加,Stride表示步幅。

圖53D-MobileNetV2模型結(jié)構(gòu)

圖6不同步長(zhǎng)的MobileNetV2模塊結(jié)構(gòu)

為提高預(yù)測(cè)的準(zhǔn)確性,本文對(duì)3D-MobileNetV2進(jìn)行改進(jìn),在原網(wǎng)絡(luò)基礎(chǔ)上,在每個(gè)瓶頸(Bottleneck)的中間卷積層加入通道混洗,以減少模型參數(shù)和計(jì)算量,同時(shí)提高模型的精度。通道混洗是一種新型的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),通過將輸入特征圖分組并對(duì)每個(gè)組內(nèi)的通道進(jìn)行混洗,實(shí)現(xiàn)通道之間的信息交流。該方法可在不增加計(jì)算量的前提下,提高模型的精度和泛化能力。同時(shí),在Bottleneck輸出后接入批量規(guī)范化(BatchNorm)層和

Mish激活函數(shù)。BatchNorm通過規(guī)范化的手段減少內(nèi)部協(xié)變量偏移,使激活函數(shù)的輸入值位于激活函數(shù)對(duì)輸入較為敏感的區(qū)域,從而使梯度變大,提高神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度和泛化能力,防止過擬合。Mish激活函數(shù)沒有上限和飽和區(qū)域,在訓(xùn)練過程中不會(huì)出現(xiàn)梯度消失的問題。3D-MobileNetV2的Bottleneck結(jié)構(gòu)如表2所示。

表13D-MobileNetV2體系架構(gòu)

表23D-MobileNetV2的Bottleneck結(jié)構(gòu)

2.2.3 對(duì)比損失函數(shù)

在訓(xùn)練的迭代中,每個(gè)批量包括 K 個(gè)正常視頻剪輯和 M 個(gè)異常視頻剪輯。編碼層和投影層創(chuàng)建的視覺序列為 vni 和 vai,i∈{1,…,K+M} ,分別來自正常和異常訓(xùn)練剪輯。每個(gè)批量包括 K(K-1) 個(gè)正常樣本對(duì)和 KM 個(gè)異常樣本對(duì),將其輸入到對(duì)比損失函數(shù)中。 Lij 通過計(jì)算由溫度參數(shù) τ 和指數(shù)函數(shù)縮放的潛在表示之間的點(diǎn)積來計(jì)算正常樣本對(duì)與異常樣本對(duì)之間的相似性:

每個(gè)批量的損失函數(shù)為:

其中:

式中: τ∈(0,∞) 為溫度參數(shù),可以影響模型的輸出概率分布,提高泛化能力和魯棒性。

數(shù)據(jù)本身、錯(cuò)誤標(biāo)注或噪聲導(dǎo)致異常樣本與正常樣本可能相似,以致負(fù)樣本對(duì)的求和較大,造成優(yōu)化困難。為解決該問題,對(duì)異常樣本對(duì)的總和進(jìn)行縮放,使聚合的異常樣本對(duì)的整體相似度保持較小,并增加正常樣本對(duì)的權(quán)重,以平衡公式中各項(xiàng)的影響力。

在使用對(duì)比損失訓(xùn)練后,投影層通常在測(cè)試階段被丟棄[12,17]。在自監(jiān)督對(duì)比學(xué)習(xí)的背景下,編碼階段學(xué)習(xí)的潛在表示 hi 將更加通用,并進(jìn)一步作為分類任務(wù)的預(yù)訓(xùn)練模型]。對(duì)于監(jiān)督學(xué)習(xí)任務(wù),投影層 (vi) 學(xué)習(xí)到的表示可能更有價(jià)值,因?yàn)樗鼈兝猛队皩由蠈W(xué)習(xí)到的對(duì)比損失與監(jiān)督學(xué)習(xí)任務(wù)保持正常和異常類的距離一致。通過計(jì)算式(2),在同一批量中,編碼器被更新,以最大化正常驅(qū)動(dòng)特征向量之間的相似性、最小化正常驅(qū)動(dòng)向量及所有其他異常驅(qū)動(dòng)向量之間的相似性。

3試驗(yàn)驗(yàn)證

3.1 數(shù)據(jù)集及試驗(yàn)環(huán)境

目前,大多數(shù)駕駛員行為檢測(cè)方法采用可見光攝像頭作為圖像采集的傳感器??梢姽鈧鞲衅饕资墉h(huán)境光照強(qiáng)度影響,光照條件較差可能會(huì)影響駕駛員行為檢測(cè)的準(zhǔn)確率,造成一定的安全隱患。為解決上述問題,本文在乘員艙的前方和正上方放置2個(gè)深度相機(jī),可以獲取場(chǎng)景的深度信息,并可在低光照環(huán)境下工作。深度圖像是將采集器采集到的場(chǎng)景中各點(diǎn)的距離作為像素值的圖像,直接反映景物可見表面的幾何形狀,可以更好地完成駕駛員行為檢測(cè)任務(wù)。前置攝像頭記錄駕駛員頭部、身體的動(dòng)作,頂部攝像頭記錄駕駛員雙手的動(dòng)作。2個(gè)相機(jī)能更好地反映駕駛員的駕駛狀態(tài),解決視野盲區(qū)的問題。

本文使用駕駛員異常檢測(cè)(DriverAnomalyDetection,DAD)數(shù)據(jù)集[17]。DAD數(shù)據(jù)集的分辨率為224像素 ×171 像素,幀率為45幀/s。該數(shù)據(jù)集包含550min 的正常駕駛記錄和 100min 的異常駕駛記錄,其中異常駕駛行為包括頭部和身體的運(yùn)動(dòng)(伸手到后面、與乘員交談)及手部交互(手機(jī)通話、發(fā)消息,喝水)等。

本文試驗(yàn)設(shè)置的批量大小是32,最大迭代次數(shù)為100。網(wǎng)絡(luò)使用隨機(jī)梯度下降(Stochastic

GradientDescent,SGD)優(yōu)化器進(jìn)行參數(shù)更新。初始學(xué)習(xí)率設(shè)置為0.01,以0.9的速率進(jìn)行指數(shù)衰減。試驗(yàn)使用的圖形處理器為NVIDIAGeForceRTX3060、中央處理器為 2.7GHz Intel Core i7-12700H。

3.2 評(píng)價(jià)指標(biāo)

本文采用準(zhǔn)確率(Accuracy)、受試者操作特征(ReceiverOperatingCharacteristic,ROC)曲線、ROC曲線下面積(AreaUnderCurve,AUC)作為模型分類性能的指標(biāo)。

準(zhǔn)確率能夠評(píng)價(jià)模型對(duì)全部樣本的判斷能力:

式中: NrpΩrN,Nrp,NFN 分別為真正例、真負(fù)例、假正例、假負(fù)例的數(shù)量。

ROC是一種二分類模型的性能度量,是以假正率(FalsePositiveRate,F(xiàn)PR)為橫坐標(biāo)、真正率(TruePositiveRate,TPR)為縱坐標(biāo)繪制的曲線。假正率RFP 真正率 RTP 的計(jì)算公式分別為:

AUC用于二分類模型的評(píng)價(jià),其取值范圍為0.5~1.0 ,越接近1.0,說明檢測(cè)方法真實(shí)性越強(qiáng),等于0.5時(shí)真實(shí)性最低、無應(yīng)用價(jià)值。

3.3試驗(yàn)結(jié)果及分析

CNN通常指用于圖像分類的二維CNN,3DCNN增加了時(shí)間維度,可以從時(shí)間和空間維度上提取特征。為驗(yàn)證三維卷積模型的有效性,本文分別進(jìn)行2D、3D卷積網(wǎng)絡(luò)試驗(yàn),試驗(yàn)結(jié)果如表3所示。

表3不同CNN的參數(shù)量、準(zhǔn)確率、AUC比較

3DCNN模型用于將每個(gè)正常駕駛訓(xùn)練剪輯 xi, i∈{1,…,N} 編碼為一組歸一化的512維特征表示。然后,可計(jì)算正常駕駛模板向量 vn

為對(duì)測(cè)試視頻片段 xi 進(jìn)行分類,再次將其編碼為歸一化的512維向量,并計(jì)算編碼片段與 vn 之間的余弦相似度 Ki

最后,將相似度得分低于閾值 γ 的片段歸類為異常駕駛行為。同時(shí), Ki 表征了異常行為的嚴(yán)重程度。

為更加直觀地分析本文方法的性能,部分測(cè)試可視化結(jié)果如圖7、圖8所示,表明本文方法能夠準(zhǔn)確檢測(cè)出駕駛員是否具有異常駕駛行為。

圖7正常駕駛的可視化結(jié)果

圖8異常駕駛的可視化結(jié)果

3.4消融試驗(yàn)結(jié)果及分析

為驗(yàn)證本文提出的雙視角和損失函數(shù)的有效性,保持試驗(yàn)原有的設(shè)置條件,對(duì)網(wǎng)絡(luò)進(jìn)行重新訓(xùn)練。

雙視角使用決策級(jí)融合的方法將兩個(gè)視角的信息融合在一起,通過特征提取、特征融合、決策模型、融合策略等多個(gè)環(huán)節(jié)實(shí)現(xiàn)信息的融合與決策:

式中: K(add)?K(top)?K(front) 分別為相加的融合相似度、頂部視角融合相似度、前部視角融合相似度。

雙視角有效性驗(yàn)證方面,本文對(duì)前置視角、頂部視角及前置和頂部雙視角3種不同視角的有效性進(jìn)行說明。3種視角的準(zhǔn)確率、AUC對(duì)比如表4所示,本文提出的雙視角方案的2項(xiàng)指標(biāo)明顯優(yōu)于另外2種視角方案。

損失函數(shù)有效性驗(yàn)證方面,分別使用交叉熵?fù)p失(Cross-EntropyLoss)函數(shù)、加權(quán)交叉熵?fù)p失函數(shù)及本文提出的對(duì)比損失函數(shù)對(duì)網(wǎng)絡(luò)進(jìn)行重新訓(xùn)練,并根據(jù)評(píng)價(jià)指標(biāo)進(jìn)行比較。

表4不同視角的試驗(yàn)結(jié)果

交叉熵?fù)p失通常用于解決分類問題,衡量模型的預(yù)測(cè)結(jié)果與真實(shí)標(biāo)簽之間的差距。在二分類的情況下,其計(jì)算公式為:

式中: LcEL 為交叉熵?fù)p失, N 為樣本總數(shù), yi 為樣本 i 的標(biāo)簽(正類為1,負(fù)類為0), pi 為樣本 i 預(yù)測(cè)為正類的概率。

加權(quán)交叉熵?fù)p失函數(shù)是對(duì)交叉熵?fù)p失函數(shù)的改進(jìn),在計(jì)算損失時(shí)對(duì)不同類別的樣本賦予不同的權(quán)重。在二分類問題中,其計(jì)算公式為:

式中 :L(w) 為加權(quán)交叉熵?fù)p失函數(shù)。

不同損失函數(shù)的試驗(yàn)結(jié)果如表5所示,本文提出的對(duì)比損失函數(shù)的2項(xiàng)指標(biāo)明顯優(yōu)于另外2種函數(shù)。

表5不同損失函數(shù)的試驗(yàn)結(jié)果

3.5 模型泛化性討論及分析

現(xiàn)有的深度學(xué)習(xí)模型均基于歷史數(shù)據(jù)進(jìn)行訓(xùn)練,對(duì)于新情況的適應(yīng)能力較差。在實(shí)際駕駛過程中,駕駛行為的多樣性給識(shí)別任務(wù)帶來了困難。為驗(yàn)證模型的泛化性,選用訓(xùn)練集中未出現(xiàn)的駕駛類別進(jìn)行驗(yàn)證。本文提出的算法對(duì)摘/戴眼鏡、調(diào)整后視鏡、吃東西等新出現(xiàn)的異常行為仍能夠準(zhǔn)確分類,部分可視化結(jié)果如圖9所示。

圖9新增異常駕駛行為的可視化結(jié)果

4結(jié)束語(yǔ)

本文針對(duì)駕駛員行為檢測(cè)中光照強(qiáng)度變化、視角盲區(qū)以及姿態(tài)多樣性的問題,提出了一種對(duì)比學(xué)習(xí)的檢測(cè)方法,通過學(xué)習(xí)正常駕駛行為的嵌入,檢測(cè)異常駕駛行為。本文方法在駕駛員異常檢測(cè)數(shù)據(jù)集上取得了優(yōu)異的效果,在后續(xù)研究中,可在網(wǎng)絡(luò)中加入注意力機(jī)制,使網(wǎng)絡(luò)更加關(guān)注駕駛員的頭部和手部,提升駕駛員異常行為識(shí)別的準(zhǔn)確率。

參考文獻(xiàn)

[1]YANG YB,ZHOULJ,LENG MJ, et al. Early Warning of Traffic Accident in Shanghai Based on Large Data Set Mining[C]// 2O16 International Conference on Intelligent Transportation,Big Data amp; Smart City (ICITBS). Changsha, China:IEEE,2016.

[2]DINGUS TA,GUO F,LEE S,et al.Driver Crash Risk Factors and Prevalence Evaluation Using Naturalistic Driving Data[J].Proceedings of the National Academy of Sciences of the United States of America,2016,113(10): 2636-2641.

[3] 陳軍,張黎,周博,等.基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的駕駛員 分心駕駛行為檢測(cè)[J].科學(xué)技術(shù)與工程,2020,20(14): 5702-5708. CHEN J,ZHANG L,ZHOU B,et al.Driver Distracted DrivingBehaviorDetectionBasedonCascaded Convolutional Neural Networks[J]. Science Technology and Engineering,2020,20(14): 5702-5708.

[4]TAWARI A,TRIVEDI M M. Robust and Continuous Estimation of Driver Gaze Zone by Dynamic Analysis of Multiple Face Videos[C]//2014 IEEE Intelligent Vehicles Symposium Proceedings.Dearborn, Michigan, USA: IEEE, 2014: 344-349.

[5]高菲,楊柳,李暉.開放集識(shí)別研究綜述[J].南京大學(xué)學(xué) 報(bào)(自然科學(xué)),2022,58(1):115-134. GAO F,YANG L,LI H.A Review of Open Set Identification Research[J]. Journal of Nanjing University (Natural Science),2022,58(1): 115-134.

[6]CHEN JM,WANG GJ,LU JC,et al.Open-Set Classification for Signal Diagnosis of Machinery Sensor in Industrial Environment[J]. IEEE Transactions on Industrial Informatics,2023,19(3): 2574-2584.

[7] 王一豐,郭淵博,陳慶禮,等.基于對(duì)比學(xué)習(xí)的細(xì)粒度未 知惡意流量分類方法[J].通信學(xué)報(bào),2022,43(10):12-25. WANGYF,GUOYB,CHENQL,et al.AFine-Grained Approach to Classify Unknown Malicious Traffic Based on Comparative Learning[J]. Journal on Communications,

[8] CHEN T, KORNBLITH S, NOROUZI M,et al.A Simple FrameworkforContrastiveLearningofVisual Representations[C]// Proceedings of the 37th International Conference on Machine Learning. Vienna, Austria: PMLR, 2020: 1597-1607.

[9] GRILL JB, STRUB F,ALTCHE F,et al. Bootstrap Your Own Latent: A New Approach to Self-Supervised Learning [C]// Conference on Neural Information Processing Systems (Neur IPS 2020). Online: Neur IPS,2020: 21271-21284.

[10] CARON M,MISRA I,MAIRAL J,et al. Unsupervised Learning ofVisual Features by Contrasting Cluster Asignments[Cl//ConferenceonNeural Information Processing Systems (Neur IPS 202O).Online: Neur IPS, 2020:9912-9924.

[11] ZHANG H Y,CISSE M, DAUPHIN Y N,et al. Mixup: BeyondEmpirical Risk Minimization[C]// International Conference on Learning Representations. Vancouver, Canada: ICLR, 2018.

[12]YUN S D, HAN D Y,CHUN S H,et al. CutMix: Regularization Strategy to Train Strong Classfiers with Localizable Features[C]// International Conferenceon Computer Vision (ICCV 2019). Seoul,Korea: IEEE/CVF, 2019:6022-6031.

[13] KOPUKLU O, ZHENG JP,XU H, et al. Driver Anomaly Detection:A Dataset and Contrastive Learning Approach [C]//2021 IEEE Winter Conference on Applications of Computer Vision.Waikoloa,HI, USA: IEEE,2021: 91-100.

[14] IANDOLA F N, HAN S, MOSKEWICZ M W, et al. SqueezeNet: AlexNet-Level Accuracywith 5Ox Fewer Parameters and

[15] ZHANG X Y, ZHOU X Y,LIN M X, et al. ShuffleNet: An Extremely Efficient Convolutional Neural Networkfor Mobile Devices[C]//2018 IEEE/CVF Conferenceon Computer Vision and Pattern Recognition (CVPR 2018). Salt Lake City, Utah,USA: IEEE/CVF,2018:6848-6856.

[16] TAN M X,LE Q V. EficientNet: Rethinking Model Scaling forConvolutionalNeuralNetworks[C]//International Conference on Machine Learning. Long Beach, California, USA: PMLR,2019: 6105-6114.

[17] ZOPH B, VASUDEVAN V, SHLENS J, et al. Learning Transferable Architectures for Scalable Image Recognition [C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR 2O18). Salt Lake City,Utah, USA: IEEE/CVF,2018: 8697-8710.

[18]WUBC,DAI XL,ZHANGPZ,etal.FBNet:HardwareAwareEfficientConvNet Designvia Differentiable Neural Architecture Search[C]// 2019 IEEE/CVP Conference on Computer Vision and Pattern Recognition(CVPR 2019). LongBeach,California,USA:IEEE/CVP,2019:10734- 10742.

[19]SANDLERM,HOWARDA,ZHUM,etal.MobileNetV2: Inverted ResidualsandLinearBottlenecks[C]//2O18IEEE/ CVF Conference on ComputerVisionand Pattern

Recognition (CVPR 2018).Salt Lake City,Utah,USA:IEEE/CVF,2018:4510-4520.[20]張東,高丙朋.基于改進(jìn)MobileNet網(wǎng)絡(luò)的人臉識(shí)別方法[J].山西大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,46(1):147-153.ZHANGD,GAOBP.FacialRecognitionMethodBasedonImprovedMobileNetNetwork[J].JournalofShanxiUniversity(Natural ScienceEdition),2023,46(1):147-153.(責(zé)任編輯斛畔)修改稿收到日期為2024年7月5日。

2025年《汽車技術(shù)》專項(xiàng)征稿啟事

尊敬的汽車及相關(guān)技術(shù)領(lǐng)域?qū)<覍W(xué)者、研發(fā)工程師、高校師生:

隨著汽車技術(shù)的飛速發(fā)展,2025年將見證多項(xiàng)關(guān)鍵技術(shù)的突破與應(yīng)用?!镀嚰夹g(shù)》雜志作為中國(guó)汽車行業(yè)的核心學(xué)術(shù)期刊,特此發(fā)布2025年專項(xiàng)征稿啟事,聚焦以下十大技術(shù)征稿方向,以期推動(dòng)汽車技術(shù)的創(chuàng)新與進(jìn)步。

1.多模態(tài)大模型在自動(dòng)駕駛感知決策中的應(yīng)用:研究多模態(tài)大模型技術(shù)推動(dòng)自動(dòng)駕駛感知決策能力的創(chuàng)新突破。2.跨域融合智能芯片技術(shù):研究跨域融合智能芯片在汽車智能化控制系統(tǒng)中的應(yīng)用,以及其對(duì)性能協(xié)同的影響。3.AI賦能的合成數(shù)據(jù)在自動(dòng)駕駛研發(fā)中的應(yīng)用:研究利用AI技術(shù)生成合成數(shù)據(jù),解決自動(dòng)駕駛數(shù)據(jù)短缺問題。4.AI大模型在智能座艙中的多模態(tài)交互技術(shù):研究AI大模型如何整合視覺、聽覺、觸覺等多種感官信息,實(shí)現(xiàn)更加自然和直觀的人機(jī)交互體驗(yàn)。5.C-V2X技術(shù)在車路云一體化中的應(yīng)用:研究C-V2X技術(shù)如何支持車路云一體化,包括車車通信(V2V)、車路通信(V2I)、車云通信(V2N)等關(guān)鍵技術(shù)的發(fā)展和應(yīng)用。6.智能底盤新構(gòu)型及集成控制技術(shù):研究智能底盤線控化、分布式驅(qū)動(dòng)、動(dòng)底融合控制、智能底盤與自動(dòng)駕駛?cè)诤峡刂频汝P(guān)鍵技術(shù)。7.新能源乘用車百公里行駛電耗降低技術(shù):研究如何通過硬件創(chuàng)新和軟件優(yōu)化降低電耗,提升整車?yán)m(xù)航里程。8.固態(tài)電池電解質(zhì)材料創(chuàng)新與界面工程優(yōu)化:研究氧化物、硫化物、聚合物等固態(tài)電解質(zhì)材料的最新研究進(jìn)展,以及固態(tài)電池中電極與電解質(zhì)之間的界面問題,提高電池的充放電效率和循環(huán)穩(wěn)定性。

9.電池系統(tǒng)安全技術(shù):研究主被動(dòng)一體化的熱安全防護(hù)、熱失控早期火災(zāi)探測(cè)預(yù)警、滅火裝置等

10.高效高密度電驅(qū)動(dòng)總成技術(shù):研究具有更高轉(zhuǎn)速、更高效率和更小型化的電驅(qū)動(dòng)系統(tǒng)技術(shù)。

征稿要求:

1.投稿請(qǐng)注明“*****\"技術(shù)方向?qū)m?xiàng)征稿字樣,本刊對(duì)符合征稿方向的稿件將優(yōu)先審核,一經(jīng)錄用優(yōu)先發(fā)表;2.文章字?jǐn)?shù)控制在6000~8000字范圍之內(nèi);3.請(qǐng)按科技論文要求撰寫文章摘要,摘要中文字?jǐn)?shù)控制在180字左右;4.文章必須附有公開發(fā)表的、體現(xiàn)本領(lǐng)域最新研究成果的參考文獻(xiàn),并在文中標(biāo)注文獻(xiàn)引用處;5.文章主要作者應(yīng)提供其簡(jiǎn)介,包括出生年、性別、職稱、學(xué)歷、研究方向及技術(shù)成果等;6.來稿的保密審查工作由作者單位負(fù)責(zé),確保署名無爭(zhēng)議,文責(zé)自負(fù);7.請(qǐng)勿一稿多投;8.本刊使用網(wǎng)站投稿,詳細(xì)投稿要求見本刊網(wǎng)站中\(zhòng)"下載中心\"欄的\"作者指南”,網(wǎng)址:http://cjs.cbpt.cnki.net。這些技術(shù)方向反映了汽車技術(shù)領(lǐng)域的最新研究熱點(diǎn),《汽車技術(shù)》雜志誠(chéng)邀廣大科研人員圍繞這些方向投稿,我們期待您的佳作,共同推動(dòng)汽車技術(shù)的發(fā)展與創(chuàng)新。感謝您對(duì)《汽車技術(shù)》雜志的支持與貢獻(xiàn)!《汽車技術(shù)》雜志是中國(guó)第一汽車集團(tuán)有限公司主辦的國(guó)內(nèi)外公開發(fā)行的汽車前瞻與應(yīng)用技術(shù)類月刊,為我國(guó)高質(zhì)量科技期刊分級(jí)目錄人選期刊、中國(guó)科學(xué)引文數(shù)據(jù)庫(kù)(CSCD)來源期刊、中文核心期刊、中國(guó)科技核心期刊、RCCSE中國(guó)核心學(xué)術(shù)期刊(A)、Scopus數(shù)據(jù)庫(kù)收錄期刊、俄羅斯《文摘雜志》(AJ)收錄期刊、日本科學(xué)技術(shù)振興機(jī)構(gòu)數(shù)據(jù)庫(kù)人選期刊、EBSCO學(xué)術(shù)數(shù)據(jù)庫(kù)收錄期刊、歐洲學(xué)術(shù)出版中心(EuroPub)數(shù)據(jù)庫(kù)收錄期刊。

主站蜘蛛池模板: 欧美日一级片| 91口爆吞精国产对白第三集| 亚洲a级毛片| 欧美一级高清片久久99| 亚洲性网站| 国产99免费视频| 国产成人综合网在线观看| 亚洲午夜18| 亚洲一区二区三区中文字幕5566| 91亚瑟视频| www.亚洲一区| 91视频精品| 欧美成人二区| 精品综合久久久久久97超人| 91精品啪在线观看国产60岁| 成人在线不卡视频| 一级毛片a女人刺激视频免费| 国产va免费精品观看| 精品国产91爱| 亚洲精品动漫| 97se综合| 亚洲天堂网在线播放| 久久久噜噜噜| 欧美日韩资源| 91蝌蚪视频在线观看| 国产三级精品三级在线观看| 国产性精品| 国产在线自在拍91精品黑人| 蜜芽一区二区国产精品| 91精品啪在线观看国产| 日韩AV手机在线观看蜜芽| 中文字幕在线不卡视频| 亚洲资源站av无码网址| 日本一区二区三区精品视频| 色哟哟国产精品一区二区| 999福利激情视频| 制服丝袜国产精品| 亚洲国产精品日韩专区AV| 久久综合色视频| 国产午夜小视频| 黄色成年视频| 区国产精品搜索视频| 国产成人免费观看在线视频| 伊人色综合久久天天| 亚洲精品动漫| 激情五月婷婷综合网| 婷婷六月激情综合一区| 欧美在线伊人| 亚洲一级无毛片无码在线免费视频| 22sihu国产精品视频影视资讯| 99热这里只有精品在线观看| 亚洲无限乱码一二三四区| 小说区 亚洲 自拍 另类| 女人18一级毛片免费观看| 欧美一区二区福利视频| 色AV色 综合网站| 日韩区欧美国产区在线观看| 亚洲精品卡2卡3卡4卡5卡区| 国产精品无码制服丝袜| 国产白浆在线观看| 精品人妻一区无码视频| 国产黑丝视频在线观看| 激情综合网激情综合| 91在线日韩在线播放| 欧美成人看片一区二区三区 | 色噜噜狠狠色综合网图区| 欧美日韩久久综合| 国产高清在线精品一区二区三区| 在线国产综合一区二区三区| 亚洲国产看片基地久久1024| 久久这里只精品热免费99| 国产精品嫩草影院av| 国产精品偷伦视频免费观看国产| 成人免费黄色小视频| 丁香五月激情图片| 久久五月视频| 久久久久人妻一区精品色奶水 | 高清视频一区| 无码粉嫩虎白一线天在线观看| 日韩欧美视频第一区在线观看| 香蕉蕉亚亚洲aav综合| 欧美有码在线|