















摘 要:為了準確預測全觸屏人機交互模式下駕駛人視覺分心時長,建立了考慮駕駛人分心風格的視覺分心時長預測模型。采用實車道路試驗所采集的多車速視覺分心數(shù)據(jù),基于擊鍵水平模型(KLM)建立一組適用于全觸屏車載設備的基本操作單元,以及以各基本操作單元數(shù)量與車速作為輸入特征的視覺分心時長預測隨機森林模型(RF),并采用自組織映射(SOM)算法將駕駛人聚類為謹慎型、正常型、激進型3類分心風格表征駕駛人視覺分心特性差異,將該參數(shù)作為輸入特征添加至原模型實現(xiàn)優(yōu)化。結果表明:優(yōu)化后模型具有最良好的預測精度,測試集的均方誤差、平均絕對誤差和決定系數(shù)R2分別為2.4148 s2、1.0371 s、0.9345,較原模型分別提升30.52%、11.8%、3.18%;模型性能顯著優(yōu)于線性回歸模型與XGBoost模型。研究結果可用于協(xié)助車載輔助駕駛系統(tǒng)適時警示或實施干預以降低分心所致的追尾風險,并為交互界面設計提供指導意見。
關鍵詞: 汽車主動安全;視覺分心;擊鍵水平模型(KLM);隨機森林模型(RF);分心風格
中圖分類號: U 467.91 文獻標識碼: A DOI: 10.3969/j.issn.1674-8484.2024.04.017
Prediction of driver visual distraction duration under a human-machine interaction mode with full-touch-screen
WANG Chang, NIU Jin, WANG Yifei, ZHANG Yali*, MA Wanliang
(Author Institute School of Automobile, Chang’an University, Xi’an 710064, China)
Abstract: A visual distraction duration prediction model considering the driver's distraction style was established to accurately predict the driver's visual distraction duration in the full touch-screen human-computer interaction mode. Based on the multi-speed visual distraction data collected from the real car road test, a set of basic operation units suitable for full touch screen vehicle-mounted devices was constructed based on the Keystroke Level Model (KLM), and a Random Forest Model (RF) for visual distraction duration prediction with the number of each basic operation units and vehicle speed as input features was established. The Self-Organizing Map (SOM) Algorithm was used to cluster drivers into three types of distraction styles: Cautious, normal and aggressive to characterize the differences in drivers' visual distraction characteristics, and the parameters were added to the original model as input features to realize optimization. The results show that the optimized model"has the best prediction accuracy. The mean square error, mean absolute error and determination coeffcient R2 of the test set are 2.414 8 s2, 1.037 1 s and 0.934 5, respectively, which are 30.52%, 11.8% and 3.18% higher than those of the original model. The model performance is signifcantly better than the linear regression model and XGBoost model. The results can be used to assist in-vehicle driver assistance systems in timely warning or implementing intervention to reduce the risk of rear-end collision caused by distraction, and provide guidance for the design of interactive interfaces.
Key words: vehicle active safety; visual distraction duration; Keystroke Level Model (KLM); Random Forest(RF);"distraction style
2012年特斯拉Model S推出17英寸全觸屏掀起了車輛中控大屏化的潮流,此后,全觸屏人機交互逐漸取代傳統(tǒng)物理按鍵成為主流。然而,已有研究[1-2]指出該模式在為駕駛人帶來更為豐富的信息交互的同時會引發(fā)更為頻繁的視覺分心,加劇駕駛人視覺負荷,進而為駕駛安全帶來極大風險。針對該類交互模式所帶來的高駕駛風險,若能準確預估其引發(fā)視覺分心所帶來的風險程度,則可以從多方面采取措施為駕駛安全帶來保障,包括協(xié)助駕駛人預知視覺分心的潛在風險以增強其警覺性,為交互界面的設計提供優(yōu)化策略以提高界面可用性與安全性,結合現(xiàn)有車載感知技術制定適時的風險應對策略并降低輔助預警系統(tǒng)對駕駛人的干擾等。因此,選擇合適參數(shù)對視覺分心程度進行度量至關重要。
早期研究[3-4]多采用次任務操作時長來衡量分心程度,并通過預測該參數(shù)實現(xiàn)風險評估,但相關研究數(shù)量較少且預測精度較低。隨著對駕駛分心的深入研究,有關學者與機構發(fā)現(xiàn)駕駛人視線脫離道路的時長與駕駛分心程度關系更為緊密,并將該參數(shù)定義為視覺分心時長廣泛應用于對駕駛風險的評估。G. S. Klauer等[5]基于100-car自然駕駛數(shù)據(jù)的研究發(fā)現(xiàn),單次視覺分心時長超過2 s將顯著增加碰撞風險;日本汽車制造商協(xié)會(Japan Automobile Manufacturers Association,JAMA) [6]開展實車試驗探討分心時長對車輛橫向偏離量的影響,得出車載界面交互時長不應超過8 s;美國國家交通安全管理局(National Highway Traffic Safety Administration, NHTSA) [7]使用駕駛模擬器和眼動儀等設備進行經(jīng)驗性測試,得出視覺分心總時長不應超過12 s,當單次視覺分心時長超過2 s時將大大增加車輛碰撞風險。以上研究均表明了視覺分心時長較于次任務操作時長更有利于量化視覺分心程度,并與追尾等碰撞風險密切相關,精準預測該參數(shù)可以較好地預估視覺分心所引發(fā)的風險程度。
考慮到實車試驗數(shù)據(jù)對于車企更具參考價值,并有研究[8]指出不同車速下的視覺分心時長存在顯著差異,本研究搭建實車道路試驗平臺獲取多車速下的視覺分心數(shù)據(jù)集,構建基于擊鍵水平—隨機森林模型(Keystroke level Model-Random Forest Model,KLM-RF)的全觸屏人機交互模式下駕駛人視覺分心時長預測模型;提出分心風格用于表征駕駛人視覺分心特征差異,利用自組織映射(self-organizing map,SOM)算法對被試進行聚類后將其作為特征參數(shù)添加至預測模型進行優(yōu)化。訓練所得模型可直接應用于對不同車速下由不同分心風格駕駛人基于該交互界面執(zhí)行次任務時視覺分心時長的預測。
1 試驗方案設計
1.1 試驗設備與試驗任務
試驗車輛選用配備12.8英寸全觸屏的比亞迪秦(2018款),數(shù)據(jù)采集設備選用2臺高清運動相機(MiVue875,像素1080 P、采樣頻率30 Hz),安裝位置見圖1所示。相機自帶全球定位系統(tǒng)(global position system,GPS)模塊,視頻記錄時間戳為標準GPS時間。經(jīng)后續(xù)驗證,設備間的時間戳誤差整體分布在30~60 ms以內,對多路數(shù)據(jù)同步分析造成的影響基本可以忽略。
經(jīng)前期調研與現(xiàn)有研究總結,發(fā)現(xiàn)目前全觸屏交互仍以點擊為主,并涉及少量滑動。為此選取日常駕駛中頻率最高且符合設備操作特性的6項次任務,具體操作流程見表1。
1.2 被試樣本
為保障試驗安全,試驗遵循自愿參與原則有償公開招募共22名(5名女性)被試。被試人員均持有C1駕照,平均年齡40歲,駕齡均在6年以上,平均駕齡16.4年,駕駛總里程均超5萬km。試驗前24 h被試未飲酒服藥,確保8 h以上充足睡眠以排除疲勞、醉酒駕駛和藥物的影響。此外,試驗設安全員與記錄員各1名,負責指令下達和設備調試。
1.3 試驗道路與試驗流程
為滿足數(shù)據(jù)集對多車速的需求,分別選取城市道路和高速公路作為試驗道路。試驗中的城市道路為西安市蘭池大道,其為雙向8車道限速70 km/h,中間綠化帶隔離,用于進行40 km/h和60 km/h的試驗任務。高速公路為西安S1機場專用高速,其為雙向8車道限速120 km/h,用于進行80、100 km/h的試驗任務。所選道路條件良好,基本為平直路段,整體車流量較小且無貨車流。此外,為保證每次試驗過程的環(huán)境條件一致并降低環(huán)境因素對于駕駛人的影響,試驗均選取在天氣晴朗、風速小于3級、道路無積水的環(huán)境下進行。
試驗前告知被試試驗內容及要求,簽署知情同意書并填寫駕駛人基本信息采集表。駕駛人進入車輛后調節(jié)座椅至舒適,靜態(tài)情況下充分熟悉各次任務操作流程后駕車前往試驗起點。試驗開始后,駕駛人按照規(guī)定車速勻速行駛,安全員在確保安全后下達次任務指令,駕駛人聽到指令后根據(jù)自身情況執(zhí)行次任務,以6項次任務一組,要求嚴格按照次任務操作步驟執(zhí)行,各車速下重復執(zhí)行5次試驗。
1.4 數(shù)據(jù)獲取與處理
儀表臺右上方與天窗上方高清運動相機分別記錄駕駛人面部與手部操作視頻,通過對照排除駕駛人未受次任務影響下的分心行為后,逐幀提取關鍵幀確定駕駛人視覺分心過程。以某次視覺分心過程為例,起始時刻為駕駛人視線離開道路前方瞬間,如圖2a所示,圖2b為視覺分心進行中,結束時刻為駕駛人視線回到道路前方瞬間,如圖2c所示,由此提取單次視覺分心時長,將其加和后得到執(zhí)行該項次任務的視覺分心時長。對所有被試,在4種車速下共采集到2 640組試驗數(shù)據(jù),剔除部分異常數(shù)據(jù)后共得到有效數(shù)據(jù)2 504組。
2 基于 KLM-RF的視覺分心時長預測模型
2.1 KLM模型
擊鍵水平模型(KLM)是由K. S. Card等[9]提出的一種用于預測完成計算機交互任務所需時長的數(shù)學模型,廣泛應用于人機交互領域。該模型將任務拆分為一系列基本操作單元,包括按鍵(K)、指向(P)和一般心理操作(M),并在一定規(guī)則下組成常見交互行為后,通過將各操作單元的時間參數(shù)進行線性相加,即可預測交互時間。它以簡單可計算的方式實現(xiàn)了對不同交互任務時間成本的估計,以協(xié)助產品開發(fā)人員節(jié)約開發(fā)階段的時間與金錢成本。然而KLM模型主要應用于傳統(tǒng)鍵盤和鼠標等按鍵式設備的交互,對于復雜的交互場景和觸控式設備的應用具有局限性。
2.2 隨機森林模型
隨機森林模型(RF) [10]是一種包含多個決策樹的分類器,具有準確率高、魯棒性好、訓練速度快以及能夠處理高維特征和大規(guī)模數(shù)據(jù)集的優(yōu)勢。算法結合使用Bagging集成算法和決策樹算法,使得RF模型抗過擬合能力更強、預測精度更高且結果穩(wěn)定,抗噪聲能力良好[11]。其核心思想是從原始數(shù)據(jù)集中有放回地隨機抽樣m個樣本數(shù)據(jù)集,構建與原始樣本容量相同的訓練集,并構建m棵決策樹。RF的回歸結果由這m棵決策樹的輸出結果取平均得到,算法示意圖[12]見圖3,模型計算如下:
其中: x為輸入模型的自變量與因變量,h(x,θ)表示決n策樹( θn為獨立同分布隨機向量)。
2.3 KLM-RF時間預測模型構建
KLM模型無法直接對視覺行為進行建模,但考慮到全觸屏人機交互模式在幾乎失去觸覺反饋的同時使得視覺行為與操作行為聯(lián)系更為緊密,因此,基于KLM模型的交互任務分解思路,排除掉不易觀察的心理操作單元后,構建適用于全觸屏式車載設備的一組基本操作單元:以點擊(C)為主、加入全觸屏設備特有的滑動(S)以及等待系統(tǒng)響應(R)作為備選操作單元應對不同車載系統(tǒng)間響應速度存在的差異。隨后結合各次任務具體操作步驟與采集視頻,將具體任務抽象為各基本操作單元的數(shù)量,以復雜電話次任務為例:可分解為3次點擊、3次滑動以及0次等待系統(tǒng)響應。
鑒于預測目標與視覺行為直接相關,利用統(tǒng)計得到各基本操作單元時長后,進行線性運算或采用多元線性回歸方法擬合進行預測往往存在較大誤差,因此選擇將構成次任務的各基本操作單元數(shù)量與車速作為RF模型的輸入特征參數(shù),以對應的視覺分心時長作為目標參數(shù)進行模型訓練,從而構建基于KLM-RF的時間預測模型,具體結構流程見圖4。
為避免多次劃分數(shù)據(jù)集使算法遍歷整個樣本數(shù)據(jù)后導致模型精度虛高,在模型訓練前將樣本數(shù)據(jù)集按4 : 1比例隨機劃分為訓練集與測試集輸入至模型,隨機生成器種子設置為42。同時為提高模型性能與泛化能力,采用十折交叉驗證在訓練集中搜索最優(yōu)的參數(shù)組合:設置共24種參數(shù)組合,均計算10次,以均方誤差(mean-square error, MSE)作為篩選標準。每種組合的最優(yōu)MSE結果見圖5,取最小值2.879 s2,據(jù)此確定最優(yōu)參數(shù)組合為:n_estimators = 400,bootstrap = True,max_features = None,其余參數(shù)均取默認值。
2.4 模型結果評價
選用預測任務中常用的3項性能指標(MSE)、平均絕對誤差(mean absolute error,MAE)和決定系數(shù)(R2)對測試集預測結果進行評價。其中,MSE、MAE指標值與模型性能呈負相關關系,R2取值范圍為[0,1],越趨于1,表示模型效果越好,各指標計算式如式(2)?式(4)所示。
其中: ?i為預測值; yi為真實值; ?i為真實值的均值; i = 1, 2, …, m。
評價結果顯示3個指標參數(shù)分別為3.4753 s2、1.1759 s、0.9057,模型整體擬合性能較好。
對測試集預測誤差進行統(tǒng)計,誤差均值為?0.074 s,分布情況見圖6所示。圖6表明:預測誤差整體符合正態(tài)分布特性,數(shù)據(jù)多集中分布于0附近,但誤差分布范圍較廣。針對駕駛人交互行為而言,每次操作所致的視覺分心時長本身存在一定偏差,即原始數(shù)據(jù)包含一定的正負波動,而誤差均值幾乎為0,可見模型具有較好的預測功能,且精度較高。
3 考慮分心風格的模型優(yōu)化
為有效提高模型預測精度,借鑒駕駛風格的研究思路提出分心風格的概念用于表征不同駕駛人視覺分心特性差異,并利用試驗數(shù)據(jù)對被試進行聚類,最終將分心風格這一分類特征作為輸入特征參數(shù)添加至原模型實現(xiàn)優(yōu)化。
3.1 基于 SOM的分心風格聚類
駕駛風格作為駕駛人長期駕駛行為方式的綜合評價指標,可表征駕駛人正常駕駛時的行為特征,多用于對汽車智能算法的個性化優(yōu)化,一般可分為謹慎型一般型和激進型等[13-14]。借鑒該研究思路,提出分心風格這一概念,定義為:分心風格是駕駛人駕駛過程中執(zhí)行次任務時的行為特征,由于駕駛人分心時對于行駛風險接受水平存在差異,進而具體表現(xiàn)為不同駕駛人可能傾向于采取多次少時或少次多時的視覺分心模式。因此可選用駕駛人視覺分心次數(shù)、視覺分心時長等參數(shù)差異進行標注。
關于分類方法的選取,采用自組織映射(SOM)算法實現(xiàn)對采集樣本進行分類。該算法可將輸入數(shù)據(jù)映射到低維網(wǎng)格,再將相似樣本映射到相鄰節(jié)點實現(xiàn)聚類,具有保持數(shù)據(jù)拓撲結構、自組織和自適應性、可降維等優(yōu)勢,適用于各種聚類分析問題[15],且無需提前設置聚類個數(shù),有助于從視覺數(shù)據(jù)中發(fā)掘潛在的行為模式和特征。
考慮到每個人的預期心理安全閾值并不受次任務的時間長短影響,是基本穩(wěn)定的。因此忽略速度與次任務類型,選用表征駕駛人分心時接受行駛風險的最高、最低與平均水平的多名被試者執(zhí)行不同次任務時的最長、最短以及平均單次視覺分心時長作為聚類模型的輸入特征參數(shù)進行聚類。
模型聚類流程如圖7所示。經(jīng)多次調整及結果驗證,使用輸出層結構為1×3、鄰域半徑為0.6、鄰域函數(shù)為Gaussian函數(shù)、學習率為0.6的SOM網(wǎng)絡進行聚類可取得最佳的分類結果。
3.2 聚類結果及有效性分析
聚類結果見圖8,分別有4、14、4名被試者被分為3簇,簇間區(qū)分度較高,輪廓系數(shù)為0.55,與1相近,可見聚類效果良好。
忽略次任務與速度的影響,基于3類駕駛者的視覺分心數(shù)據(jù)繪制其視覺分心時長(tL)與視覺分心次數(shù)(nN)的箱線圖見圖9。由圖9可知,3個類別間的2項參數(shù)分別呈現(xiàn)出逐級遞增與遞減的趨勢。對不同類別駕駛者的2項參數(shù)進行單因素方差分析,結果表明不同類別間存在顯著差異(FtL = 12.129,P<0.05;FnN = 13.330,P<0.05),可知聚類結果有效。
結合駕駛風格的標注思路,將3類駕駛者的分心風格依次命名為謹慎型、正常型及激進型。理由如下:謹慎型駕駛視覺分心時長最短,而視覺分心次數(shù)最多,可知該類駕駛者傾向于選擇多次短時的操作模式來執(zhí)行次任務,接受行車風險水平偏低;激進型駕駛者視覺分心時長最長,而視覺分心次數(shù)最少,可知該類駕駛者傾向于選擇少次長時的操作模式執(zhí)行次任務,接受行車風險水平最高。
3.3 模型優(yōu)化及結果評價
鑒于分心風格對駕駛者視覺分心時長的顯著影響,在原模型基礎上將分心風格作為分類特征參數(shù)添加至隨機森林模型實現(xiàn)優(yōu)化。使用獨熱編碼將分心風格特征擴展為3個二進制特征,分別為“謹慎型”“正常型”和“激進型”,如果某樣本屬于相應的分心風格類別,則對應特征值為1,其他特征值為0。
此外,為防止優(yōu)化后模型出現(xiàn)過擬合或欠擬合的現(xiàn)象,繪制學習曲線見圖10所示。由圖10可見:隨著訓練集數(shù)量的增加,訓練曲線的R2穩(wěn)定在接近0.95的水平;而測試集曲線的R2變化較大,在初始的25次迭代中,R2急劇上升到約0.8左右,接著逐漸趨向于訓練集結果,并最終穩(wěn)定在約0.9左右。因此,優(yōu)化后模型表現(xiàn)良好,并未出現(xiàn)過擬合或欠擬合的問題。
使用MSE、MAE及R2對模型測試集預測結果進行評價,得到3指標參數(shù)結果分別為2.414 8 s2、1.037 1 s、0.934 5,較于原模型各參數(shù)提升30.52%、11.8%、3.18%,整體擬合度顯著提高。使用絕對誤差(Δt)與相對誤差(ε)對優(yōu)化前后模型測試集的預測結果進行性能對比,對比結果如圖11所示。綜合來看兩模型相應參數(shù)的分布情況、中值以及均值均驗證了優(yōu)化后模型擁有較于原模型更為良好的預測效果。
從試驗數(shù)據(jù)中隨機提取50組樣本數(shù)據(jù)分別使用原模型與優(yōu)化后模型進行預測,對比結果見圖12所示。由圖12可知,優(yōu)化后模型較于原模型的預測值與實測值重合度更高,進一步表明將分心風格作為輸入特征參數(shù)添加至模型對其性能實現(xiàn)了有效優(yōu)化。
3.4 模型對比
為進一步評估模型性能,基于優(yōu)化后的特征輸入?yún)?shù),橫向對比RF回歸算法與已有研究中常用的多元線性回歸模型算法(multiple linear regression model,MLR) [16]及預測任務中常用的極限梯度提升算法(extreme gradient boosting,XGBoost)在時間預測方面的性能差異,3種模型在測試集上的預測結果如表2所示。
由表2可知,就模型整體性能而言,RF>XGBoost>MLR。相較于兩模型中表現(xiàn)最優(yōu)的XGBoost模型,RF模型各參數(shù)分別提升了52.33%、15.88%、6.73%,進一步表明考慮了分心風格的RF時間預測模型取得最佳性能。
4 結 論
本文基于實車道路試驗所得視覺分心數(shù)據(jù),從降低全觸屏人機交互模式所致的高駕駛風險以及保障駕駛安全的需求入手,提出KLM-RF模型以實現(xiàn)對駕駛人視覺分心時長的高精度預測,并從調整模型輸入特征參數(shù)的角度對模型進行優(yōu)化,得出結論如下:
1) 借鑒駕駛風格研究思路提出分心風格表征駕駛人視覺分心特性差異,使用自組織映射(SOM)算法將駕駛人有效聚類為謹慎型、正常型、激進型3類,輪廓系數(shù)0.55,樣本區(qū)分度高。對聚類結果進行驗證,結果顯示不同分心風格駕駛人視覺分心特性存在顯著差異,謹慎型與激進型駕駛人執(zhí)行次任務時分別傾向于多次短時與少次長時的操作模式。
2) 將分心風格作為輸入特征參數(shù)添加至原模型取得顯著的優(yōu)化效果,在測試集上的MSE、MAE與R2分別為2.414 8 s2、1.037 1 s、0.934 5,較于原模型分別取得30.52%、11.8%、3.18%的性能提升。
3) 優(yōu)化后的KLM-RF時間預測模型性能優(yōu)于MLR模型與XGBoost模型,相較兩模型中表現(xiàn)最優(yōu)的XGBoost模型,在均方誤差(MSE)取得最高52.33%的性能增長。
本研究提出的模型無需耗費大量時間與經(jīng)濟成本,通過簡單的次任務分解,便可較為準確地預測出不同車速及不同分心風格駕駛人執(zhí)行各類次任務時的視覺分心時長。預測結果能更有效地評估全觸屏人機交互界面的安全性,并結合評估結果,在產品開發(fā)階段對界面布局和操作步驟進行優(yōu)化,以降低駕駛人視覺分心時長確保駕駛安全;同時,還可協(xié)助車載輔助駕駛系統(tǒng)及時發(fā)出警示或進行干預,以降低追尾風險。
未來的研究,可細化并補充全觸屏人機交互模式下的基本操作單元,進一步提高模型算法的精確度;對市面上流行的多款全觸屏車型進行試驗,豐富試驗數(shù)據(jù)以驗證模型算法的有效性與適用范圍。
參考文獻(References)
[1] 鐘奇, 支錦亦, 郭鋼. 車載信息系統(tǒng)交互方式對駕駛行為的影響研究[J]. 安全與環(huán)境學報, 2022, 22(3): 1406-1411.ZHONG Qi, ZHI Jinyi, GUO Gang. In?uence of in-vehicle information system interaction modes on driving behavior [J]. J Safe Envi, 2022, 22(3): 1406-1411. (in Chinese)
[2] 王暢, 王一飛, 葛振振, 等. 全觸屏人機交互模式下駕駛人視覺負荷與操作特性[J]. 汽車安全與節(jié)能學報, 2023, 14(4): 431-438.WANG Chang, WANG Yifei, GE Zhenzhen, et al. Driver visual load and operating characteristics under a human-machine interface mode with full-touch-screen [J]. J Autom Safe Energ, 2023, 14(4): 431-438. (in Chinese)
[3] Safety and Human Factors Standards Steering Committee. SAE J2365_200205: Calculation of the time to complete in-vehicle navigation and route guidance tasks[S/OL]. (2002-05-10). https://doi.org /10.4271/J2365_200205.
[4] Green P, Kang T P, Lin B. Touch-screen task-element times for improving SAE recommended practice J2365: A ?rst proposal[R]. Center Advan Transport Leadership Safe (ATLAS Center), 2015.
[5] Klauer S G, Dingus T A, Neale V L, et al. The impact of driver inattention on near-crash/crash risk: An analysis using the 100-car naturalistic driving study data[R]. NHTSA, U.S. Department of Transportation, 2006: DOT HS 810 594.
[6] Nakamura Y. JAMA guideline for in-vehicle display systems[R]. SAE Tech Paper, 2008-21-0003.
[7] National Highway Traf?c Safety Administration. Visual-manual NHTSA driver distraction guidelines for in-vehicle electronic devices [J]. Federal Register, 2012, 78(81): 24819-24830.
[8] 王暢, 張巖, 趙晨, 等. 新型全觸屏人機交互模式對駕駛風險的影響特性[J]. 科學技術與工程, 2023, 23(22): 9673-9679.WANG Chang, ZHANG Yan, ZHAO Chen, et al. In?uence characteristics of new full touch screen human-machine interaction mode on driving risk [J]. Sci Tech Engi, 2023, 23(22): 9673-9679. (in Chinese)
[9] Card S K, Moran T P, Newell A. The keystroke-level model for user performance time with interactive systems [J]. Commun Assoc Comput Mach. 1980, 23(7): 396-410.
[10] Breiman L. Bagging predictors [J]. Mach Learn, 1996, 24: 123-140.
[11] 武煒杰. 隨機森林算法的應用與優(yōu)化方法研究[D]. 無錫:江南大學, 2021.WU Weijie. Research on application and optimization method of random forests algorithm[D]. Wuxin: Jiangnan University, 2021. (in Chinese)
[12] Montes C, Kapelan Z, Saldarriaga J. Predicting non-deposition sediment transport in sewer pipes using Random forest [J]. Water Research, 2021, 189: 116639.
[13] Ouali T, Shah N, Kim B, et al. Driving style identi?cation algorithm with real-world data based on statistical approach[R]. SAE Tech Paper, 2016-01-1422.
[14] 劉迪, 鄭建明, 覃斌, 等. 基于自然駕駛場景大數(shù)據(jù)的駕駛風格研究[J]. 汽車技術, 2022 (9): 36-42.LIU Di, ZHENG Jianming, QIN Bin, et al. Research on driving style based on big data of natural driving scene [J]. Autom Tech, 2022(9): 36-42. (in Chinese)
[15] Purbasari I Y, Puspaningrum E Y, Putra A B S. Using self-organizing map (SOM) for clustering and visualization of new students based on grades [J]. J Phys: Conf Seri, 2020, 1569(2): 022037.
[16] 劉奇. 視覺-操作型分心時長預測及駕駛績效研究[D]. 西安:長安大學, 2018.LIU Qi. Study on the relationship between the time of visual-manual disraction prediction and driving performance[D]. Shaanxi: Chang’an University, 2018. (in Chinese)