主題詞:自動駕駛 駕駛意圖識別高斯混合模型隱馬爾可夫模型Frenet坐標系中圖分類號:U463.6 文獻標志碼:A DOI:10.19620/j.cnki.1000-3703.20231201
Driving Intention Recognition Based on Gaussian Mixture-Hidden MarkovModel
Shen Yu122,Liu Guanghui2,Ma Xuanpeng1,XuJiawen2,Yan Yuan2 (1.School of Information Engineering,Gansu Minzu Normal University,Hezuo 747ooo;2.Schoolof Electronicand Information Engineering,Lanzhou Jiaotong University,Lanzhou )
【Abstract】To achieve accurate recognition of vehicle driving intentions in highway scenarios,this paper proposes a drivingintentionrecognitionmodelthatcombinesdualreferencelinesintheFrenetcoordinatewith GausianMixture Models (GMMs)andHidden Markov Models (HMMs).Themodel selectsdrivingdata fromdiferentreference linesintheFrenet coordinatebasedonvehiclepositionasobservedvariables.By integratingtheobservationprobabilitiesoutputbytheGMMat previousand subsequent time steps withthe HMM,the model identifies the vehicles’driving intentionat thecurrentmoment. Theefectivenessof themodelisvalidatedusingtheUS-101datasetfrom NGSIM.Theresultsshow that thedual-referenceline GMM-HMM model achieves recognition accuracies of 93.33% for lane keeping and 92.24% for lane changing,indicating excellent recognition performance.
Key Words:Autonomous driving,Driving intention recognition,Gaussan Mixture Model (GMM),HiddenMarkovModel (HMM),Frenetcoordinate
【引用格式】沈瑜,劉廣輝,馬翱鵬,等.基于高斯混合-隱馬爾可夫模型的駕駛意圖識別[J].汽車技術,2025(5):22-28SHENY,LIUGH,MAXP,etal.Driving IntentionRecognitionBasedonGausian Mixture-HiddenMarkovModel[J].Automobile Technology,2025(5):22-28.
1前言
道路交通事故原因分析表明,約四分之一的安全事故源于駕駛意圖傳達不明確[1。因此,準確識別駕駛意圖,提高車輛行駛安全性,已成為當前自動駕駛技術領域關注的焦點。
目前,駕駛意圖識別方法主要分為基于規則(Rule-Based)和基于深度學習的方法。基于規則的識別方法將駕駛經驗轉化為知識,并將提取出相應規則,應用于駕駛意圖識別2]。Bouchard等3]基于雙層規則理論,根據設計規則和環境狀態感知識別駕駛意圖,模型在可解釋性和安全性方面表現良好,但受限于規則引擎的固有缺陷,泛化能力不足。Bhattacharyya等提出了基于規則與數據驅動協同識別駕駛意圖的方法,結合車輛行駛參數,通過規則確定基本駕駛意圖,同時優化參數以匹配真實駕駛行為。該方法提升了駕駛意圖識別的可解釋性和真實性,但在實時性和泛化性方面仍有改進空間。基于規則的方法適用于簡單交通場景,其效率和可靠性較高,但因面對復雜或未知場景的覆蓋率較低,識別的準確性與適應性存在一定局限性[5]。
基于深度學習的方法已成為主流的駕駛意圖識別方法,Zyner基于遞歸神經網絡(RecursiveNeuralNetwork,RNN)預測方法,從激光雷達的跟蹤系統中獲取數據,用于變道行為的駕駛意圖識別。Fang等[7]基于深度神經網絡(DeepNeuralNetworks,DNN)的駕駛意圖識別模型,融合自標車輛與周圍車輛的交互信息、道路信息和車輛狀態,識別混合交通流中的駕駛意圖,并通過NGSIM(NextGenerationSimulation)數據集驗證提出方法的有效性。張新鋒等提出了融合注意力機制和殘差卷積的雙向長短時記憶(Bi-directionalLongShort-TermMemory,Bi-LSTM)識別模型,該模型在特征自動提取和時序依賴建模中優勢顯著,但其魯棒性較低。Liu等提出基于隱馬爾可夫模型(HiddenMarkovModel,HMM)的車輛駕駛意圖識別方法,并使用自建天橋環境數據訓練和測試駕駛意圖識別模型。趙建東等結合卷積神經網絡(ConvolutionalNeuralNetworks,CNN)和門控循環單元(GatedRecurrentUnit,GRU),并利用注意力機制構建變道意圖識別模型,綜合考慮了車輛行駛中的時序特征和空間特征。基于深度學習方法能夠提升模型識別的準確率,但缺乏可解釋性和擴展性,對于數據波動無法及時處理,性能會有所下降。
因此,本文采用雙參考線高斯混合-隱馬爾可夫模型(GMM-HMM)模型,通過Frenet坐標系下兩條參考線的動態切換,更精確地捕捉車輛在不同車道位置下的駕駛意圖特征。利用高斯混合(GaussianMixtureModel,GMM)模型對駕駛行為空間分布的多模態特性,結合HMM的時間序列分析能力,提升變道意圖的早期識別率。同時,通過引入雙參考線機制,在保持強可解釋性的基礎上,增強模型對不同道路場景的泛化性。
2數據處理
2.1NGSIM數據集
本文基于NGSIM數據集的多維度駕駛行為特征,構建駕駛意圖識別數據集。該數據集由目標路段頂部的高性能攝像機拍攝,提取車輛水平坐標、垂直坐標、速度、加速度等特征,采樣頻率為 10Hz 。選擇高速公路場景下的US-101路段,道路拓撲結構如圖1所示。其中,1\~5號車道為道路主要車道,6號車道為集散車道,7號、8號車道分別為匝道的入口和出口。

2.2數據預處理
由于NGSIM數據集由多個攝像機拍攝視頻獲取車輛軌跡信息,在數據拼接、融合過程中容易出現較大誤差,因而需要對數據進行預處理。數據集中部分特征參數說明如表1所示。

駕駛意圖樣本數據提取與處理過程如下:
a.篩選數據:本文暫不考慮存在強制性變道的第6\~8號車道,僅考慮1\~5號車道的數據。在US-101場景中主要包括3種類型車輛,分別為摩托車、大型車輛和中小型汽車,其中,汽車占比為 96.1% 。鑒于不同車型的駕駛習慣差距較大,剔除大型車輛和摩托車數據,僅保留汽車類樣本數據,并進行平滑處理。
b.平滑數據:由于原始數據存在誤差和噪聲,需對訓練數據進行平滑處理,本文采用對稱指數移動平均(symmetricExponentialMovingAverage,sEMA)濾波算法對原始數據的橫向位置Y、速度 σv 進行處理。以數據集中一個車輛軌跡為例,平滑處理結果如圖2所示。


2.3Frenet坐標系下特征提取
Frenet坐標系以車道左、右邊緣線為參考線 r(s) 通過將車輛位置向參考線投影,定義投影距離和沿參考線累積弧長,將車輛笛卡爾坐標轉換為Frenet坐標。假設在笛卡爾坐標系中,車輛位置為 N(x,y) ,從點 N 向參考線 r(s) 投影,投影點為 M ,則投影點 M 到點 N 的距離為車輛相對于參考線的橫向位移l,從參考線的起始點 F 到投影點 M 的曲線距離為車輛相對于參考線的縱向位移d。在Frenet坐標系下,使用橫向位移和縱向位移描述車輛位置 (l,d) 。兩坐標系的映射關系為r(s),(x,y)(l,d)由于車輛的行駛軌跡無法與參考線完全重合,需要利用參考線描述車輛的運動狀態。本文以車道的左、右邊緣線為參考線,根據車輛位置選擇所需的參考線。當車輛位于車道左側時,選擇車道左邊緣線為參考線,車輛的運動狀態為 lLeft,vl,Left,dLeft,vd,Left] 其中,
分別為參考方向的縱向位移和垂直參考方向的橫向位移,(204號 vl,left?vd,Left 分別為車輛縱向和橫向速度。同理,當車輛位于車道右側時,選擇車道右邊緣線為參考線,如圖3所示,車輛運動狀態為 [lRight
車輛運動狀態可作為觀測變量計算駕駛意圖觀測概率。

將NGSIM數據集中車輛駕駛意圖分為車道保持、左變道和右變道3類。其中,車道保持為車輛在行駛過程中未跨越車道邊緣線,車輛變道為橫跨車道邊緣線兩側的連續過程。為了確定各類駕駛意圖的樣本數量,通過Vehicle_ID獲取車輛行駛數據,并根據行駛數據中Lane_ID的變化確定變道時刻。從變道時刻的Frame_ID向前回溯縱向位移 lLeft 和縱向速度 vl,Left ,如果連續3幀數據的 lLeft 遞減且 vl,Left≠0 ,則下一幀數據作為左變道的起始幀 Fstart ,從變道時刻Frame_ID向后回溯 lLeft 、vl,Left ;如果連續3幀數據的 lLeft 不變,則下一幀數據作為左變道終止幀 Fend 。位于 [Fstart,Fend] 的數據為左變道過程的樣本,同理可標注右變道樣本,剩余數據則標注為車道保持樣本。
結合駕駛意圖的提取情況,由于大多數車輛在行駛過程中未發生變道行為,所以車道保持樣本數量相對較多。篩除6\~8號車道數據后,結合道路行駛方向,右變道樣本數量較少。最終,本文樣本共6154組,其中,車道保持、左變道和右變道的樣本數量分別為5344組、559組和256組。
3高斯混合-隱馬爾可夫模型構建
高斯混合模型具有較好的計算特性,通過GMM擬合車輛橫向位置、橫向速度等連續觀測變量,計算駕駛意圖的概率分布,可作為HMM的輸入。而駕駛行為具有連續時序性,隱馬爾可夫模型通過狀態轉移概率與歷史觀測序列的動態關聯,可有效建模并識別駕駛意圖的概率分布[12]。因此,本文使用GMM-HMM駕駛意圖識別模型,其結構如圖4所示。

3.1高斯混合模型
當樣本數據
為多維數據時,多變量高斯分布的概率密度函數為:

式中:
為 D 維列向量 ,μ,Σ 分別為樣本的均值矩陣和協方差矩陣。
高斯混合模型是由多個單高斯模型組合而成的概率模型[13],各模型均符合單高斯分布,因此,高斯混合模型可表示為:

式中: K 為混合模型中單高斯模型的數量, αk 為第 k 個單高斯模型的權重,
為第 k 個單高斯分布
分別為第 k 個單高斯模型中觀測變量數據的均值和協方差矩陣。
3.2 隱馬爾可夫模型
隱馬爾可夫模型由狀態變量 s 和觀測變量 σo 構成。狀態序列
,狀態變量的值域為駕駛意圖的有限集合,即
為狀態變量的數量;觀測序列
,其中, T 為總時間幀數,取決于時間窗的長度;狀態轉移矩陣為
,其中, aij 為 χt 時刻車輛駕駛意圖 qi 在 (t+1) 時刻轉移至 qj 的概率;發射概率矩陣為
,其中,
為當駕駛意圖處于 qj 時,觀測到駕駛行為 vk 的概率;初始狀態概率矩陣為
,且滿足
。因此,HMM模型由矩陣 π,A 和 B 構成,即 λ=[π,A,B]
考慮到駕駛意圖無法通過直接觀測,本文將駕駛意圖作為HMM的隱藏狀態變量,通過觀測變量獲取的車輛運動狀態數據,反映駕駛員的駕駛行為特征,區分不同駕駛意圖。本文在Frenet坐標系下,將車道左、右邊緣線作為參考線,描述車輛運動狀態。以車道左邊緣線為參考線時,選取車輛的 lLeft 和 vl,Left 作為觀測變量;以車道右邊緣線為參考線時,選取(20 lRight 和 vl,Right 作為觀測變量。因此,觀測變量可表示為
各時刻車輛隱藏狀態變量為3種駕駛意圖的概率分布,不同時刻的隱藏狀態變量間可相互轉移。 aii 為任一狀態保持不變的概率, aij 為任兩個狀態相互轉移的概率,則車輛駕駛意圖狀態轉移矩陣為:

通過GMM擬合車輛位置、速度等連續變量的概率分布,作為駕駛意圖識別HMM的觀測概率。則高斯混合模型輸出觀測值的概率為:

式中:
為二維高斯分布概率密度函數, αjk 為第j個高斯分布的權重系數 ?,μjk.Σjk 分別為第j個高斯分布的數據均值矩陣和協方差矩陣。
3.3 GMM-HMM模型
3.3.1 參數學習
結合高斯混合模型,GMM-HMM模型可表示為λ=[π,A,α,μ,Σ] 已知駕駛行為序列
求解
使 P(O|λ) 最大。由于狀態變量序列未知,可采用
算法[3進行參數估計。
首先,定義 Q 函數為:

對 Q 函數展開可得:

以參數 π 為例,推導求解過程得到:

采用拉格朗日乘子法計算極值:

令
,將 γ 代人偏導公式,得到:

P(O|λ(t)) 和
可通過前向變量 αt(s) 表示,參數 A,B 求解過程同樣符合上述原理。
3.3.2 參數訓練
模型參數學習具體步驟如下:
a.初始化一組參數 λ=[π,A,α,μ,Σ], 狀態轉移矩陣 A 可根據經驗進行初始化, π,A,α,μ, Σ 根據數據分布特征進行初始化
b.確定模型訓練所需的樣本數據,即觀測變量序列o 。使用Holdout驗證方法,隨機選擇總樣本的 70% 作為訓練樣本。
c.編寫MATLAB程序,初始化參數后,根據Baum一Welch算法進行參數學習。
d.輸出訓練結果。
根據上述方法,得到模型的訓練結果為4個二維單高斯模型,GMM-HMM模型參數為:

式中:
/
分別為以車道左邊緣線為參考線,駕駛意圖為左變道特征的均值和協方差矩陣;μ(:,:,2) 和 Σ(:,:,1,2) 分別為以車道右邊緣線為參考線,駕駛意圖為右變道特征的均值和協方差矩陣: :μ(:,:,3) /
分別為以車道兩側(左側和右側)邊緣線為參考線,駕駛意圖為車道保持特征的均值和協方差矩陣。
GMM-HMM模型輸出觀測概率如圖5所示。其中,左側2個橢圓表示以車道左邊緣線為參考線的觀測變量分布特征;右側2個橢圓表示以車道右邊緣線為參考線的觀測變量分布特征;橢圓的長、短半軸表示對應方向觀測變量的標準差;橢圓的中心位置表示每個單高斯分布的觀測變量均值。

4駕駛意圖識別
單獨時刻駕駛車輛觀測值無法體現駕駛意圖,可通過連續駕駛動作進行推理,根據過去連續T時間段內的駕駛動作,識別當前時刻車輛的駕駛意圖。本文使用滑動時間窗,時間窗長度為T,如圖6所示。駕駛意圖識別問題可描述為:已知GMM-HMM參數 λ=[π,A,α,μ,Σ] 滑動時間窗內的駕駛動作序列為
求解 T 時段內最有可能的狀態序列
,使P(O,S*|λ) 最大。通過維特比(Viterbi)算法[4遞推求解最優的狀態序列 S* ,從而確定車輛的駕駛意圖。

使用總樣本的 30% 數據進行模型驗證,即車道保持樣本、左變道樣本和右變道樣本分別為1604組、168組和77組。以車道右邊緣線為Frenet坐標系的參考線,左、右變道識別過程分別如圖7、圖8所示。

以車道右邊緣線為Frenet坐標系的參考線為例,由圖7可知,第4s時車輛橫向位移發生改變,逐漸靠近左車道邊緣線,同時,車道保持意圖識別概率下降,左變道意圖概率上升,可通過比較意圖概率確定最終識別結果。當左變道概率大于車道保持概率時,識別結果將從車道保持轉換成左變道。當2.5s后完成左變道時,車輛距離車道右邊緣線的橫向位移為0。
本文將精確率 (Precision)P 、召回率 (Recall)R 、F1 分數和準確率(Accuracy) )A 作為模型性能評價指標。相關公式為:


式中: TP 為正確識別目標駕駛意圖的數量, FP 為將非目標意圖誤判為目標意圖的數量, TN 為正確識別非目標意圖的數量, FN 為未能識別目標駕駛意圖的數量。

為了進一步驗證本文模型的有效性,將本文模型與RuleBased、DNN等雙參考線模型及單參考線模型GMM-HMM*進行對比,結果如表2所示。
由表2可知,相比單參考線,雙參考線通過提供更全面的橫向位置信息,增強了GMM-HMM模型對車輛動態的感知,同時捕捉車輛與兩側車道的相對偏移量及變化趨勢:車道保持時,兩側偏移量穩定;變道時,一側偏移持續減小而另一側增大,形成明顯特征差異。多維觀測數據提高了模型對車輛橫向運動的敏感性。相較于使用單參考線的GMM-HMM*模型,本文模型由于使用雙參考線,車道保持準確率和變道準確率分別提高2.19百分點和3.07百分點,識別準確率均高于其他雙參考線模型,且在精確度、召回率和F1分數評價指標上優于其他模型。因此,所提出的雙參考線GMM-HMM模型在識別實際駕駛員的駕駛意圖中更具優勢。

5結束語
本文提出的雙參考線GMM-HMM模型充分考慮了車輛行駛過程中時間的連續性,能夠根據觀測變量準確識別駕駛意圖。該模型可應用于智能駕駛領域,通過識別危險換道行為,優化自主換道過程,提前預警可能的危險情況,對提高駕駛主動安全性、改善車輛的智能決策和交互能力有重要意義。
由于試驗樣本數量有限,且僅考慮車輛變道和車道保持的相關信息,后續將綜合考慮道路環境、周圍車輛等因素對意圖識別的影響。同時,探究復雜道路(如交叉路口、坡道等)條件下,超車、轉向等駕駛意圖識別。
參考文獻
[1]WANGZC,FENGQ,LUO M,etal.EfficientFSS-Based PrivateStatisticsforTrafficMonitoring[C]//2O24IEEE23rd International Conference on Trust,Security and Privacy in Computing and Communications (TrustCom). Sanya, China: IEEE,2024:1361-1370.
[2] KHELFA B,BAI, TORDEUX A. PredictingHighway LaneChanging Maneuvers:A Benchmark Analysis of Machine and Ensemble Learning Algorithms[J]. Physica A: Statistical Mechanics and its Applications,2023,612.
[3]BOUCHARDF,SEDWARDSS,CZARNECKI K.A RuleBased:Behaviour Planner for Autonomous Driving[C]// International Joint Conference on Rules and Reasoning. Berlin,Germany:Springer,2022:263-279.
[4]BHATTACHARYYA R,JUNGS,KRUSEL A,etal.A Hybrid Rule-Based and Data-Driven Approach to Driver Modeling Through Particle Filtering[J].IEEE Transactions on Intelligent Transportation Systems,2022, 23(8): 13055- 13068.
[5]方華珍,劉立,顧青,等.自動駕駛車輛換道意圖識別研究 現狀[J].工程科學學報,2024,46(10):1845-1855. FANGH Z,LIU L,GUQ,et al.Research Status of LaneChanging Intention Recognition for Autonomous Vehicles[J]. Chinese Journal of Engineering,2024,46(10):1845-1855.
[6]ZYNERA,WORRALLS,NEBOTE.ARecurrentNeural Network Solution for Predicting Driver Intentionat UnsignalizedIntersections[J].IEEERobotics and AutomationLetters,2018,3(3):1759-1764.
[7]FANG H Z,LIU L,GU Q,et al.Driving Intention Recognition of Human Drivers in Mixed Traffic Flow[C]// 2022 IEEE 25th International Conference on Intelligent Transportation Systems (ITSC). Macau, China:IEEE,2022: 153-157.
[8]張新鋒,王萬寶,柳歡,等.高速動態交通場景下自動駕駛 車輛換道意圖識別模型研究[J].汽車技術,2023(4):8-15. ZHANGXF,WANAGWB,LIUH,etal.ResearchonLane Change Intention Recognition Model of Automated Vehicle inHigh-Speed Dynamic Traffic Scenario[J]. Automobile Technology,2023(4): 8-15.
[9] LIU SW, ZHENG K, ZHAO L,et al.A Driving Intention Prediction Method Based on Hidden Markov Model for Autonomous Driving[J]. Computer Communications,2020, 157: 143-149.
[10]趙建東,趙志敏,屈云超,等.軌跡數據驅動的車輛換 道意圖識別研究[J].交通運輸系統工程與信息,2022, 22(4): 63-71. ZHAO JD,ZHAO Z M,QU YC,et al.Vehicle Lane Change Intention Recognition Driven by Trajectory Data[J]. Journal of Transportation Systems Engineeringand Information Technology,2022,22(4): 63-71.
[11] DO JY,HAN K,CHOI S B.Lane Change-Intention Inferenceand Trajectory Prediction of Surrounding Vehicles onHighways[J]. IEEE Transactions on Intelligent Vehicles, 2023,8(7):3813-3825.
[12]FANGJW,WANGF,XUEJR,etal.BehavioralIntention Prediction in Driving Scenes:A Survey[J].IEEE Transactions on Inteligent Transportation Systems,2024, 25(8): 8334-8355.
[13] LUO Y Q, ZHANG JY,WANG SF,et al.A Driving IntentionPredictionMethodforMixed Traffic Scenarios[C]// 2022 IEEE 7th International Conference on Intelligent Transportation Engineering (ICITE).Beijing, China: IEEE,2022.
[14]LV Y Z,WEI C. Multi-Objective Optimal Decision Making forAutonomous Driving Based on Multi-Modal Predicted Trajectories[Cl// International Conference on Mechatronic Engineering and Artificial Intelligence (MEAI 2023). Shenyang, China: AIP Publishing,2024.
(責任編輯瑞秋)
修改稿收到日期為2025年1月26日。