999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Attention機制的CNN-LSTM駕駛?cè)艘鈭D識別方法研究

2023-12-29 00:00:00莊皓李楊陶明坤
山東科學(xué) 2023年2期

摘要: "在自動駕駛系統(tǒng)中,系統(tǒng)需要準確識別駕駛?cè)说囊鈭D,來幫助駕駛?cè)嗽趶?fù)雜的交通場景中安全駕駛。針對目前駕駛?cè)艘鈭D識別準確率低,沒有考慮優(yōu)化特征對模型準確率影響的問題,運用深度學(xué)習(xí)知識,提出了一種基于時間序列模型的駕駛?cè)艘鈭D識別方法。該方法基于Attention機制融合了卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)和長短時記憶網(wǎng)絡(luò)(long short-term memory network ,LSTM),引入車輛自身信息和環(huán)境信息作為時空輸入來捕捉周圍車輛的空間交互和時間演化。該方法可同時預(yù)測目標車輛駕駛?cè)藱M向駕駛意圖和縱向駕駛意圖,并在實際道路數(shù)據(jù)集NGSIM(next generation simulation)上進行了訓(xùn)練和驗證。實驗結(jié)果表明,所提出的CNN-LSTM-Attention模型能夠準確預(yù)測高速公路環(huán)境下駕駛?cè)说鸟{駛意圖,與LSTM模型和CNN-LSTM模型相比具有明顯的優(yōu)勢,為自動駕駛系統(tǒng)的安全運行提供了有效保障。

關(guān)鍵詞: 自動駕駛;意圖識別;Attention機制;卷積神經(jīng)網(wǎng)絡(luò);長短時記憶網(wǎng)絡(luò)

中圖分類號: TP183;U463.6 文獻標志碼:A文章編號:1002-4026(2023)02-0103-09

開放科學(xué)(資源服務(wù))標志碼(OSID):

CNN-LSTM driver intention recognition method based on Attention mechanism

ZHUANG Hao, LI Yang*, TAO Mingkun

(Institute of Automation, Qilu University of Technology (Shandong Academy of Sciences), Jinan 250014, China)

Abstract∶ In an autonomous driving system, the system needs to accurately identify the driver′s intention to help them drive safely in complex traffic scenarios. Aiming at the issue of low accuracy of driver intent recognition and lacking consideration of the influence of optimized features on the accuracy of the model currently, a driver intention recognition method based on a time series model is proposed using deep learning knowledge. The method is based on Attention mechanism and incorporates Convolutional Neural Network (CNN) and Long Short-Term Memory Network (LSTM), introducing own and environmental information of the vehicle as spatiotemporal input to capture the spatial interaction and temporal evolution of surrounding vehicles. The method can simultaneously predict the driver intention in both lateral and longitudinal directions of the target vehicle and is trained and verified on the actual road dataset next generation simulation. The experimental results show that the proposed CNN-LSTM-Attention model can accurately predict the driver′s driving intention in the highway environment, which has obvious advantages over the LSTM and CNN-LSTM model and provides an effective guarantee for the safe operation of the automatic driving system.

Key words∶ automatic driving; intention identification; Attention mechanism; convolutional neural network; long short-term memory network

隨著人工智能技術(shù)的發(fā)展,自動駕駛成為交通領(lǐng)域中一個非常重要的研究方向。自動駕駛技術(shù)的發(fā)展對提高車輛行駛的安全性和交通智能化水平具有重要的意義,但是其中很多技術(shù)難點仍沒有得到很好的解決,比如在具有高度復(fù)雜性和交互性的真實交通場景下,自動駕駛的駕駛?cè)艘庾R識別問題。沒有優(yōu)秀的駕駛行為預(yù)測能力,自動駕駛車輛在公路上行駛的安全性和高效性將受到極大的挑戰(zhàn)。

一般來說,車輛碰撞是由于駕駛?cè)隋e誤識別其他車輛的駕駛意圖或駕駛?cè)巳狈ψ⒁庠斐傻模桓鶕?jù)轉(zhuǎn)向燈的開啟狀態(tài)來識別駕駛?cè)艘鈭D具有很大的局限性。帶有駕駛?cè)艘鈭D識別功能的自動駕駛系統(tǒng),可在早期識別出周圍車輛駕駛?cè)说囊鈭D,規(guī)劃出避免與其他車輛碰撞的路徑。因此,設(shè)計一種意圖識別模型,以便盡早準確地識別駕駛?cè)说囊鈭D,保障自動駕駛系統(tǒng)的準確運行是有必要的。

為了準確識別駕駛?cè)艘鈭D,需要使用車輛的歷史數(shù)據(jù),因此要求模型能夠處理時間序列數(shù)據(jù)。隱馬爾可夫模型作為一種基于時間序列累積概率的動態(tài)信息處理方法,得到了廣泛的應(yīng)用。Pentland等[1]建立了基于隱馬爾可夫模型的變道駕駛意圖識別模型,識別準確率達到95%。Geng等[2]使用隱馬爾可夫模型學(xué)習(xí)車輛的行為特征建立數(shù)據(jù)庫,根據(jù)場景存儲先驗概率特征來預(yù)測車輛未來行為。He等[3]提出了一種雙隱馬爾可夫模型來識別駕駛意圖,在該模型中,根據(jù)駕駛?cè)瞬倏v信號和車輛狀態(tài)信息等特征來識別駕駛意圖。實驗結(jié)果表明,該模型可以對車輛異常變道進行預(yù)警,降低了車輛碰撞的概率。Hou等[4]基于連續(xù)隱式馬爾科夫模型建立車道偏離預(yù)警系統(tǒng),系統(tǒng)對駕駛?cè)俗髠?cè)車道偏離與右側(cè)車道偏離意圖進行了識別。張雁雁[5]提出一種面向行人防碰撞的駕駛?cè)艘鈭D識別方法,通過實驗獲得制動踏板力、加速踏板行程、車速、檔位、節(jié)氣門開度、方向盤轉(zhuǎn)角和方向盤角速度等參數(shù),使用這些參數(shù)作為訓(xùn)練數(shù)據(jù),運用隱馬爾科夫模型的前向算法和Baum-Welch算法來識別駕駛員的加速、減速制動、轉(zhuǎn)彎避讓和急轉(zhuǎn)4種駕駛意圖,算法識別準確率可達92.1%,但這些參數(shù)數(shù)據(jù)的獲取具有局限性,因此該意圖識別方法的實際應(yīng)用還需要較長的時間。侯海晶[6]、冀秉魁[7]和田彥濤等[8]基于隱馬爾可夫模型,采集駕駛員的視覺特性、駕駛操作、駕駛習(xí)慣等駕駛特征對換道意圖進行識別,實驗結(jié)果表明方向盤轉(zhuǎn)角熵值、轉(zhuǎn)動方向盤角速度、駕駛員頭部水平轉(zhuǎn)角、平均掃視幅度等駕駛特征能夠很好地反映駕駛員的換道意圖。

上述研究中的隱馬爾可夫等模型只使用了當前時間參數(shù),忽略了前一時刻和后一時刻之間的聯(lián)系,雖然準確率高,但是識別的動態(tài)特性不明顯。近幾年,在換道意圖研究中涌現(xiàn)了大量的深度學(xué)習(xí)模型,而且在相應(yīng)的指標上都超越了傳統(tǒng)機器學(xué)習(xí)模型。長短期記憶網(wǎng)絡(luò)(long short-term memory network ,LSTM)在語音識別、機器翻譯等領(lǐng)域取得一系列重大突破,其在應(yīng)對時序問題時也展現(xiàn)出強大的信息挖掘能力和深度表征能力。季學(xué)武等[9]運用深度學(xué)習(xí)方法,設(shè)計了一種駕駛?cè)艘鈭D識別及車輛軌道預(yù)測的LSTM模型,將被預(yù)測車輛及其周圍車輛組成的整體視為研究對象,使模型能夠“理解”車-車間的交互式行為,響應(yīng)交通環(huán)境的變化,動態(tài)地預(yù)測車輛位置。Dai等[10]使用改進的LSTM網(wǎng)絡(luò)來處理多維時間序列數(shù)據(jù),進行車輛軌跡預(yù)測。Su等[11]使用LSTM網(wǎng)絡(luò)模型來預(yù)測高速公路場景中的車道變道意圖。研究中考慮了周圍車輛的影響,將目標車輛的信息與周圍車輛的信息連接成高維向量作為輸入。商艷等[12]認為駕駛員的變道意圖受外界環(huán)境影響,外界刺激會使駕駛員瞳孔大小發(fā)生變化,通過監(jiān)測駕駛員瞳孔變化情況能夠反映駕駛員的換道意圖,因此建立瞳孔變化情況與外界刺激強度的關(guān)系來識別駕駛?cè)藫Q道意圖。

國內(nèi)外研究者都選擇了隱馬爾可夫模型作為識別模型,且達到了理想的識別效果,但傳統(tǒng)模型與深度學(xué)習(xí)相比仍有一些差距,尤其在高維的時間序列上,沒有深度學(xué)習(xí)尤其是LSTM等序列模型的擬合能力強。LSTM網(wǎng)絡(luò)在應(yīng)對時序問題時強大的信息挖掘能力和深度表征能力,使其成為意圖識別研究中廣泛認可的模型。

綜上所述,駕駛?cè)艘鈭D識別仍然處于研究階段,隨著深度學(xué)習(xí)的發(fā)展,其研究方法也在不斷地創(chuàng)新。本文從宏觀角度分析了周圍車輛的影響,將周圍車輛視為一個整體,不同位置的車輛在空間中相互作用,整體呈現(xiàn)出時間依賴性,基于時間序列提出一種基于Attention機制融合卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)和LSTM駕駛?cè)艘鈭D識別的方法來深度提取空間環(huán)境信息,車輛自身的位置特征不再選用實時位置作為特征,而是采用當前時刻與上一時刻的位置差作為特征,同時識別橫向和縱向駕駛?cè)艘鈭D,并使用NGSIM(next generation simulation)數(shù)據(jù)集對網(wǎng)絡(luò)模型進行訓(xùn)練驗證。實驗結(jié)果表明該方法提高了駕駛?cè)艘鈭D識別的精度,使自動駕駛車輛能夠做出正確的決策,避免車輛之間碰撞,保障駕駛?cè)嗽趶?fù)雜的高速道路上安全平穩(wěn)地行駛。

1數(shù)據(jù)處理

1.1數(shù)據(jù)預(yù)處理

數(shù)據(jù)集本身存在噪聲,噪聲會影響意圖識別的準確率,因此采用指數(shù)加權(quán)移動平均法 [13]平滑位置信息,使用pandas庫中的ewm函數(shù)與mean函數(shù)進行指數(shù)加權(quán)。

v t =β·y t +(1-β)v(t-1),(1)

式中β為權(quán)重因子,根據(jù)數(shù)據(jù)的采樣頻率其值設(shè)為0.19。

NGSIM數(shù)據(jù)集中的原始數(shù)據(jù)是從道路周圍攝像機的視頻信息中提取出來的,雖然在提取過程中已經(jīng)通過一些算法被初步處理過,但仍存在一些與周圍值相差較大或者不合理的異常值。有效地檢測和消除原始數(shù)據(jù)中的異常值,可以提高意圖識別的準確性。經(jīng)典的異常值檢測方法有四分位(箱線圖)。箱線圖是一種非常簡單有效的可視化離群點的方法,其把上下觸須作為數(shù)據(jù)分布的邊界,任何高于上觸須或低于下觸須的數(shù)據(jù)點都可以認為是異常值。異常值的定義通常表示為:

x0∈ xgt;QU+1.5ΔQ

xlt;QL-1.5ΔQ ,(2)

式中x0是一個異常值;x是要檢查的值;QU是上四分位數(shù);QL是下四分位數(shù);ΔQ代表上四分位數(shù)與下四分位數(shù)之間的差,表明QL和QU之間的差異。

在NGSIM數(shù)據(jù)集中,小型車的數(shù)據(jù)占全部數(shù)據(jù)集的97.7%,在三種車輛類型中占比最大,而網(wǎng)絡(luò)模型訓(xùn)練需要大量的數(shù)據(jù),所以選取小型車為研究對象。

1.2車輛駕駛行為特征分析

1.2.1特征提取

本文旨在分析不同預(yù)測時間下網(wǎng)絡(luò)模型駕駛意圖識別的準確度,因此只從每輛車中提取一個樣本,而不是通過滑動窗口構(gòu)造多個樣本。提取的樣本分為橫向意圖和縱向意圖,橫向意圖指向左轉(zhuǎn)或者向右轉(zhuǎn)且越過車道線的車輛行為。縱向意圖如表1所示。

基于駕駛?cè)艘鈭D提取的數(shù)據(jù)來提取特征信息,本文提取的特征信息數(shù)據(jù)包含兩個部分:目標車輛的歷史運動信息和環(huán)境信息(周圍車輛的歷史運動信息)。目標車輛歷史信息包括目標車輛的速度、加速度、車輛轉(zhuǎn)向角(速度方向和車道方向之間的角度)、車輛橫向位移和縱向位移。環(huán)境信息包括目標車輛左前、正前、右前、左后、正后、右后鄰近車輛(分別用1、2、3、4、5、6表示,位置關(guān)系如圖1所示)與目標車輛的相對橫向位移、縱向位移和速度。

根據(jù)變道時間的不同進行數(shù)據(jù)提取,變道時間在1~2 s的數(shù)據(jù)為312條,變道時間在2~8 s的數(shù)據(jù)為15 732條,變道時間在8~15 s的數(shù)據(jù)為289條,在提取的變道數(shù)據(jù)中,存在部分車輛變道時間僅為1~2 s的數(shù)據(jù),小于駕駛?cè)朔磻?yīng)時間及車輛制動時間[14],不符合正常變道的標準。部分車輛變道時間達到 8~15 s,變道時間過慢或者連續(xù)變道也會增加變道碰撞事故概率。

為了驗證非正常變道時間是否會對駕駛?cè)艘鈭D識別的精度造成影響,本文建立兩個LSTM模型,T-LSTM的輸入為剔除非正常變道時間后的數(shù)據(jù),LSTM的輸入為使用全部變道時間的數(shù)據(jù),將兩個模型參數(shù)設(shè)置成同樣的參數(shù),對比兩個模型的準確率,結(jié)果如圖2所示。從圖中可觀察到T-LSTM相對于LSTM的準確率有著較為明顯的提升,從而證明非正常變道時間的數(shù)據(jù)會對駕駛?cè)艘鈭D識別的精度造成一定的影響,所以為了消除這兩部分數(shù)據(jù)對結(jié)果準確性的干擾,將剔除變道時間1~2 s和8~15 s的數(shù)據(jù)。

1.2.2輸入特征優(yōu)化過程

調(diào)研國內(nèi)外文獻可知,根據(jù)輸入特征的不同和參數(shù)的設(shè)置來劃定不同類型的LSTM網(wǎng)絡(luò)取得的效果各有差異。因此,為了找尋最符合預(yù)測需求的輸入特征,本文將定義3種類型LSTM網(wǎng)絡(luò)模型,并通過對比實驗,以準確率為評價指標,對各類型的LSTM網(wǎng)絡(luò)模型性能進行評估,最后選取效果最好的模型。本文將對X-LSTM、Y-LSTM、Z-LSTM模型進行訓(xùn)練驗證:

(1)X-LSTM模型:采用目標車輛歷史運動信息(目標車輛速度、加速度、車輛轉(zhuǎn)向角、橫向位置和縱向位置)訓(xùn)練LSTM網(wǎng)絡(luò)。

(2)Y-LSTM模型:在X-LSTM模型基礎(chǔ)上,引入目標車輛與周圍車輛的相對距離與速度特征。

(3)Z-LSTM模型:在Y-LSTM基礎(chǔ)上,將目標車輛的橫向位置和縱向位置改為當前時刻與上一時刻的位置差。

為了保證對比效果,對于X-LSTM、Y-LSTM、Z-LSTM模型中的所有實驗采取相同的參數(shù)設(shè)置。具體參數(shù)設(shè)置如下:迭代次數(shù)epoch設(shè)置為30,選定一次讀入的訓(xùn)練樣本batch_size設(shè)置為64,學(xué)習(xí)率α設(shè)置為0.001,LSTM神經(jīng)元數(shù)量設(shè)置為64,并使用Adam優(yōu)化算法更新模型參數(shù),采用分類問題中的交叉熵作為損失函數(shù)。在模型參數(shù)設(shè)置完成后,進行對照實驗并輸出結(jié)果和分析。

圖3中給出了X-LSTM、Y-LSTM、Z-LSTM模型的準確率對比。觀察可知,Z-LSTM、Y-LSTM和X-LSTM模型的準確率依次降低。這充分證明我們引入和修改模型特征優(yōu)化了模型結(jié)果,引入周圍信息特征和優(yōu)化被預(yù)測車輛自身特征后Z-LSTM相比于X-LSTM在準確率方面最大提升了8.8%,證明引入空間環(huán)境信息和改進自身位置特征優(yōu)化提高了意圖識別準確率。

2基于Attention機制的CNN-LSTM網(wǎng)絡(luò)模型

本文提出的基于Attention機制的CNN-LSTM駕駛?cè)艘鈭D識別方法網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,主要有卷積層、LSTM層、Attention層和全連接層組成。

將預(yù)處理完的數(shù)據(jù)特征向量 xt= xt,1,xt,2,…,xt,i,…,xt,K 通過Conv1D結(jié)構(gòu)來進行特征提取,挖掘輸入數(shù)據(jù)之間的內(nèi)在聯(lián)系并提取出數(shù)據(jù)特征信息。Conv1D進行特征提取之后的時間序列數(shù)據(jù)ct= ct,1,ct,2…,ct,i,…,ct,K 仍然具有時間序列特性,所以將經(jīng)Conv1D得到的輸出直接作為LSTM的輸入,LSTM利用自身的門控結(jié)構(gòu)控制信息傳遞路徑,輸入數(shù)據(jù)在LSTM單元中前向傳播,在每一時刻t,LSTM單元體讀取當前時刻的輸入 ct和上一時刻以前歷史運動信息的隱藏狀態(tài) h(t),以此更新當前時刻的隱藏狀態(tài) h t-1 ,即 h(t)=f( h t-1 , c(t)),LSTM通過這種方式學(xué)習(xí)歷史軌跡序列中的規(guī)律。考慮到目標車輛在不同的時間階段反應(yīng)時間會出現(xiàn)顯著的差異,Attention層可以全面獲取時間序列數(shù)據(jù)信息,學(xué)習(xí)不同時間節(jié)點的時間序列的重要程度,最終降低模型非重要時間序列的影響力,所以將經(jīng)過CNN-LSTM提取到的特征信息輸入到Attention層進行加權(quán)。首先通過一個打分函數(shù)SCORE ""ht,i, ht "=Ws hTt+bs計算隱藏狀態(tài)中每個時刻數(shù)據(jù)的特征向量 ht,i然后使用softmax函數(shù)獲取輸入樣本中每個時刻數(shù)據(jù)的Attention權(quán)重αi,并將對其 ht,i加權(quán)聚合得到Attention層的輸出h*t。將數(shù)據(jù)送入全連接層,全連接層使用softmax激活函數(shù)輸出橫向和縱向駕駛意圖 Ω=(ω1,ω2,ω3,ω4,ω5),5個輸出神經(jīng)元對應(yīng)于5個駕駛意圖的概率,最后將概率值最大的神經(jīng)元作為最終預(yù)測結(jié)果。

3基于CNN-LSTM-Attention網(wǎng)絡(luò)駕駛?cè)艘鈭D識別模型

3.1數(shù)據(jù)集

根據(jù)前文結(jié)論,采用Z-LSTM模型中的輸入特征目標車輛的歷史運動數(shù)據(jù)和周圍車輛的特征信息作為輸入,包括位置特征信息、速度特征信息等。記輸入的特征信息為 DT,可以表示為:

DT=[ Tt, Et],(3)

式中, Tt表示在t時刻下所研究目標車輛的歷史運動特征信息, Et表示在t時刻下周圍環(huán)境的特征信息。

3.2模型參數(shù)設(shè)置

本文中提出的CNN-LSTM-Attention對駕駛?cè)艘鈭D識別模型模型主要由輸入層、一層卷積層、一層LSTM層、Attention層和全連接層組成。因為自適應(yīng)矩估計(adaptive moment estimation ,Adam)具有收斂速度快和學(xué)習(xí)能力更好的優(yōu)點,所以本文預(yù)測模型使用Adam優(yōu)化算法對模型進行優(yōu)化訓(xùn)練。為了減少人為因素對預(yù)測模型的影響,將模型的參數(shù)進行多次訓(xùn)練試驗,最終得到CNN-LSTM-Attention模型的參數(shù)。

首先,使用Z-LSTM的輸入特征數(shù)據(jù)對傳統(tǒng)LSTM模型進行訓(xùn)練,結(jié)果見表2,當LSTM層的神經(jīng)元個數(shù)是16時,3個指標的值最大,此時LSTM模型的準確性和穩(wěn)定性最好。

然后,將卷積層接在LSTM模型的前面,經(jīng)過卷積層特征提取的數(shù)據(jù)直接作為LSTM的輸入,構(gòu)建CNN-LSTM-Attention駕駛?cè)艘鈭D識別模型。卷積核的個數(shù)經(jīng)過多次訓(xùn)練試驗的結(jié)果如表3所示。

結(jié)合表2和表3可知,當LSTM層的神經(jīng)元個數(shù)是16,卷積層的卷積核個數(shù)為16時,CNN-LSTM-Attention模型的預(yù)測性能最好。

3.3結(jié)果與分析

圖5是CNN-LSTM-Attention模型的損失函數(shù)變化曲線,從圖中可以看出,隨著訓(xùn)練過程中迭代次數(shù)的增加,訓(xùn)練集和測試集的損失變化曲線都逐漸減小并最終趨向0,當?shù)螖?shù)達到20次以上時,測試集的損失變化曲線不再下降,可得到最終的預(yù)測模型。

為了驗證本文的CNN-LSTM-Attention駕駛?cè)艘鈭D識別模型的優(yōu)勢,我們將該模型與LSTM模型和CNN-LSTM模型進行對比,圖6為3種模型不同時間窗口下準確率、精確率和召回率的對比圖。

相較于原始的LSTM預(yù)測模型,將經(jīng)過CNN特征提取的時序數(shù)據(jù)作為LSTM輸入的CNN-LSTM模型對駕駛?cè)艘鈭D識別的準確率、精確率以及召回率都有一定程度的提升,平均增長分別為1.54%、4.06%和3.52%,最大增長分別為2.55%、6.52%和5.24%。因此,CNN-LSTM模型的預(yù)測精度得到了提高。經(jīng)過Attention優(yōu)化后的CNN-LSTM-Attention模型的性能評價指標準確率、精確率以及召回率在3種模型中都是最高值,與CNN-LSTM模型相比,其準確率、精確率和召回率,平均增長分別為2.15%、4.42%和3.63%,最大增加分別為2.89%、7.06%和5.62%。證明了該模型的有效性和合理性,且在駕駛?cè)艘鈭D識別上能夠取得更好的結(jié)果。

此外,網(wǎng)絡(luò)模型還需要盡快識別出換道意圖,定義預(yù)測時間為車輛從當前位置走到換道點的時間間隔,從圖6(a)中可發(fā)現(xiàn),隨著被預(yù)測車輛駛向換道點,意圖識別準確率逐漸提升。車輛在換道前1 s,就能較為準確地識別出換道意圖,準確率達到80%以上,在車輛行駛至換道點準確率高達85%。

4結(jié)論

針對目前的駕駛意圖識別模型依舊存在準確率不高和預(yù)測誤差較大的問題,本文提出一種基于Attention機制融合CNN和LSTM駕駛?cè)艘鈭D識別的方法,來模擬周圍車輛的整體時間依賴性和空間相互作用,識別目標車輛的橫向駕駛意圖和縱向駕駛意圖。首先,結(jié)合考慮特征信息輸入的差異,構(gòu)建了X-LSTM、Y-LSTM和Z-LSTM模型,以準確率為評價指標,最終選出效果最好的模型為Z-LSTM,證明了環(huán)境信息和優(yōu)化自身特征信息對意圖識別精度的影響。其次,將本文提出的模型與LSTM與CNN-LSTM模型進行比較,相比LSTM模型,本文模型準確率、精確率和召回率平均增長分別為1.54%、4.06%和3.52%,相比CNN-LSTM模型,本文模型準確率、精確率和召回率平均增長分別為2.15%、4.42%和3.63%,證明了CNN-LSTM-Attention模型能夠取得更好的效果,驗證了模型的有效性。

但本文將模型中的轉(zhuǎn)向定義為高速路中的變道行為,然后真實的直行、換道和轉(zhuǎn)向操作更多地發(fā)生在城市道路場景中,且本文的研究對象只是小汽車,不包括對非機動車和行人的意圖預(yù)測,因此,未來將對不同的研究對象進行預(yù)測模型的構(gòu)建,這也是讓模型更符合真實道路環(huán)境的必經(jīng)途徑。

參考文獻:

[1] PENTLAND A, LIU A. Modeling and prediction of human behavior[J]. Neural Computation, 1999, 11(1): 229-242. DOI:10.1162/08997669930001689.

[2]GENG X L, LIANG H W, YU B, et al. A scenario-adaptive driving behavior prediction approach to urban autonomous driving[J]. Applied Sciences, 2017, 7(4): 426. DOI:10.3390/app7040426.

[3]HE L,ZONG C F,WANG C.Driving intention recognition andbehaviour prediction based on a double-layer hidden Markov model[J]. Journal of Zhejiang University SCIENCE C, 2012, 13(3): 208-217. DOI:10.1631/jzus.c11a0195.

[4]HOU H J, JIN L S, NIU Q N, et al. Driver intention recognition method using continuous hidden Markov model[J]. International Journal of Computational Intelligence Systems, 2011, 4(3): 386-393. DOI:10.1080/18756891.2011.9727797.

[5]張雁雁. 面向行人防碰撞預(yù)警的駕駛員駕駛意圖辨識方法研究[D]. 大連: 大連理工大學(xué), 2015.

[6]侯海晶. 高速公路駕駛?cè)藫Q道意圖識別方法研究[D]. 長春: 吉林大學(xué), 2013.

[7]冀秉魁. 基于駕駛員視覺特性的駕駛行為預(yù)測方法研究[D]. 長春: 吉林大學(xué), 2014.

[8]田彥濤, 趙鳳凱, 聶光明. 考慮駕駛習(xí)慣的駕駛員換道意圖識別[J]. 吉林大學(xué)學(xué)報(工學(xué)版), 2020, 50(6): 2266-2273. DOI:10.13229/j.cnki.jdxbgxb20190678.

[9]季學(xué)武, 費聰, 何祥坤, 等. 基于LSTM網(wǎng)絡(luò)的駕駛意圖識別及車輛軌跡預(yù)測[J]. 中國公路學(xué)報, 2019, 32(6): 34-42. DOI:10.19721/j.cnki.1001-7372.2019.06.003.

[10]DAI S Z, LI L, LI Z H. Modeling vehicle interactions via modified LSTM models for trajectory prediction[J]. IEEE Access, 7: 38287-38296. DOI:10.1109/ACCESS.2019.2907000.

[11]SU S, MUELLING K, DOLAN J, et al.Learning vehicle surrounding-aware lane-changing behavior from observed trajectories[C]//2018 IEEE Intelligent Vehicles Symposium. Changshu, China:IEEE, 2018: 1412-1417. DOI:10.1109/IVS.2018.8500445.

[12]商艷, 朱守林, 戚春華. 基于瞳孔變動視覺特征的駕駛?cè)藫Q道意圖識別[J]. 計算機仿真, 2020, 37(8): 77-81.

[13]胡雪龍,仲建蘭,吳姝,等.單邊指數(shù)加權(quán)移動平均t控制圖設(shè)計[J].數(shù)理統(tǒng)計與管理,2020,39(3):478-486.DOI:10.13860/j.cnki.sltj.20200122-010.

[14]張穎達, 邵春福, 李慧軒, 等. 基于 NGSIM 軌跡數(shù)據(jù)的換道行為微觀特性分析[J]. 交通信息與安全, 2015, 33(6): 19-24.DOI:10.3963/j.issn 1674-4861.2015.06.003.

主站蜘蛛池模板: 亚洲午夜片| 亚洲欧美极品| 国产在线自揄拍揄视频网站| a亚洲视频| 欧美成人怡春院在线激情| 中文字幕第1页在线播| 国产午夜一级毛片| 首页亚洲国产丝袜长腿综合| 在线亚洲小视频| 中文无码日韩精品| 特级毛片8级毛片免费观看| 欧美成人免费| 欧美日韩国产在线播放| 国产欧美亚洲精品第3页在线| 超清无码一区二区三区| 国产AV毛片| 亚洲国产精品无码AV| 97青草最新免费精品视频| 日韩黄色大片免费看| 亚洲人成网站日本片| 久久久久国产精品熟女影院| 日本久久网站| 久久亚洲日本不卡一区二区| 精品欧美日韩国产日漫一区不卡| 国产日韩精品欧美一区灰| 国产AV无码专区亚洲A∨毛片| 亚洲精品国产成人7777| 日本欧美在线观看| 亚洲欧美一区二区三区图片 | 日本免费一区视频| 强奷白丝美女在线观看| 国产91透明丝袜美腿在线| 亚卅精品无码久久毛片乌克兰| 在线无码av一区二区三区| 看av免费毛片手机播放| 精品一区二区无码av| 欧美中文字幕在线视频| 蜜桃视频一区| 国产成人欧美| 成人精品区| 又爽又大又黄a级毛片在线视频| 精品国产www| 亚洲欧洲日韩久久狠狠爱| 亚洲精品久综合蜜| 人人看人人鲁狠狠高清| 亚洲精品爱草草视频在线| 国产成人区在线观看视频| 久久国产亚洲欧美日韩精品| 911亚洲精品| 视频一本大道香蕉久在线播放 | 五月激情婷婷综合| 免费看一级毛片波多结衣| 又黄又湿又爽的视频| 国产av一码二码三码无码| 午夜国产不卡在线观看视频| 亚洲国产成人超福利久久精品| 国产嫩草在线观看| 国产一区二区三区精品久久呦| 久久永久免费人妻精品| 亚洲精品卡2卡3卡4卡5卡区| 欧美一区二区三区国产精品| 蜜桃视频一区二区| 四虎在线观看视频高清无码 | 九九免费观看全部免费视频| 亚洲AⅤ无码国产精品| 国产精鲁鲁网在线视频| 狠狠色丁香婷婷| 亚洲伦理一区二区| 亚洲床戏一区| 制服丝袜国产精品| 91成人精品视频| 久久精品一卡日本电影| 在线国产综合一区二区三区| 伊人色综合久久天天| 欧美激情综合| 国产制服丝袜91在线| 国产成人无码Av在线播放无广告| 特级精品毛片免费观看| 波多野结衣久久精品| 亚洲国产综合精品中文第一| 极品尤物av美乳在线观看| 久久国产拍爱|