錢曉松,竇金花,杜芃
無人駕駛汽車行駛引導(dǎo)交互手勢設(shè)計研究
錢曉松,竇金花,杜芃*
(北京科技大學(xué) 機械工程學(xué)院,北京 100083)
旨在構(gòu)建符合用戶認(rèn)知的交互手勢設(shè)計方法,提升非方向盤操控情境下的無人駕駛汽車行駛引導(dǎo)的用戶體驗。首先采用用戶參與式設(shè)計的方法,提取出無人駕駛場景下車內(nèi)與車外的行駛引導(dǎo)交互手勢集合;其次,采用一致率比較方法確保手勢交互系統(tǒng)的一致性,并在此基礎(chǔ)上構(gòu)建一套適用于車內(nèi)外行駛引導(dǎo)的交互手勢集合;最后,通過卡片分類法和模擬測試對構(gòu)建的手勢集進行可用性評估。卡片分類法和模擬測試均顯示采用了用戶參與式設(shè)計和一致性計算相結(jié)合的設(shè)計方法所建立的無人駕駛汽車內(nèi)外行駛引導(dǎo)交互手勢集合達到了較好的用戶體驗預(yù)期,同時也驗證了在車內(nèi)外采用統(tǒng)一的行駛引導(dǎo)交互手勢的可行性。驗證了手勢交互在車內(nèi)外對無人駕駛汽車行駛進行引導(dǎo)可以達到較好的用戶體驗,為無人駕駛汽車的用戶體驗研究提供了新的方向。
無人駕駛汽車;行駛引導(dǎo);手勢設(shè)計;用戶參與設(shè)計
具備完全自動駕駛能力(5級)的汽車被定義為系統(tǒng)在任何可行駛條件下無需人為干預(yù)即可執(zhí)行全部駕駛?cè)蝿?wù)[1]。無人駕駛汽車在緩解交通壓力、減少交通風(fēng)險、降低能源消耗上有著自身的獨特優(yōu)勢[2]。無人駕駛汽車通過先進的技術(shù)實現(xiàn)更安全、高效、環(huán)保的交通系統(tǒng),從而為社會帶來巨大的經(jīng)濟和社會效益,有效地提升了人們的生活質(zhì)量,推動城市實現(xiàn)可持續(xù)發(fā)展。2022年1月,國務(wù)院在《“十四五”數(shù)字經(jīng)濟發(fā)展規(guī)劃》中明確提出“鼓勵發(fā)展智能經(jīng)濟,穩(wěn)步推進自動駕駛”。無人駕駛汽車將成為未來工業(yè)發(fā)展的重要助推力,也是各國科技實力比拼的新戰(zhàn)場。
隨著無人駕駛技術(shù)的落地,汽車將由單一的交通工具轉(zhuǎn)變?yōu)殪`活共享的數(shù)字體驗產(chǎn)品[3]。在Detjen等[2]提出的無人駕駛汽車設(shè)計框架中,用戶的需求體現(xiàn)在掌控感、關(guān)聯(lián)感、安全感等方面,具體表現(xiàn)為“最后一百米”的精準(zhǔn)運輸服務(wù),以及對用戶使用無人駕駛汽車的訓(xùn)練。無人駕駛場景下,用戶將不再被方向盤所束縛,因此引入其他交互模式對車輛進行控制已勢在必行。手勢交互作為用戶較為熟悉的自然交互之一,可以有效降低用戶的學(xué)習(xí)成本,并已廣泛應(yīng)用于車載座艙中。手勢交互為無人駕駛汽車的智能化操作提供了更多的自由度和舒適性,是未來提升無人駕駛汽車乘車體驗的關(guān)鍵因素之一。
無人駕駛汽車使用戶能夠輕松選擇符合個人需求的路線,極大增強了旅程的靈活性。Mamchenko等[4]通過研究發(fā)現(xiàn),道路地點的精準(zhǔn)定位對無人駕駛汽車的操作至關(guān)重要。Shu等[5]認(rèn)為照顧到“最后一百米”的無人駕駛交通服務(wù)可以提高交通的容量和靈活性。滿足“最后一百米”任務(wù)的無人駕駛汽車,使得用戶可以靈活地定義自己的旅程終點,如辦公室大樓、住宅區(qū)和商業(yè)街,不僅滿足了用戶在門戶間交通的需求,還大大提高了交通效率[6]。導(dǎo)致無人駕駛汽車精準(zhǔn)控制難以成功的原因在于用戶對目標(biāo)地點描述的模糊性和系統(tǒng)導(dǎo)航定位的精確性。錢曉松等[7]指出,數(shù)據(jù)地圖的精度缺陷和用戶不完整的信息輸入造成了目的地與實際目標(biāo)存在百米左右的誤差。此外,用戶已經(jīng)形成了先模糊定位,再逐漸調(diào)整到目的地的習(xí)慣。因此,通過解決無人駕駛汽車在非方向盤控制下的精準(zhǔn)導(dǎo)航需求可直接提升用戶體驗。
手勢交互為解決無人駕駛汽車的駕駛控制提供了新思路,而手勢識別技術(shù)和交互手勢設(shè)計則決定了最終的用戶體驗。手勢識別技術(shù)主要分為基于傳感器的方法和基于視覺的方法。其中,視覺識別方法包括單攝像頭、多攝像頭和光編碼的識別方式[8]。動態(tài)手勢的識別技術(shù)主要依靠深度學(xué)習(xí)方法,涉及多種時間建模技術(shù),如雙流網(wǎng)絡(luò)、3D卷積神經(jīng)網(wǎng)絡(luò)(CNN)和長短期記憶(LSTM)網(wǎng)絡(luò)[9]。交互手勢主要分為觸屏交互手勢和凌空交互手勢兩類。相較于觸屏交互手勢,凌空交互手勢更接近人們?nèi)粘=涣魉褂玫氖謩荩虼藢θ狈χ悄茉O(shè)備使用經(jīng)驗的老年群體更加友好[10]。目前,車載凌空交互手勢主要應(yīng)用于以導(dǎo)航、音樂為代表的車載交互界面操作中。現(xiàn)有對車外手勢交互的研究集中在行人與自動駕駛車輛在通行博弈場景下手勢的信息交流功能[11-12]。鑒于手勢可以提供運動軌跡、方向等信息,已經(jīng)有部分前沿探索性研究嘗試將手勢交互運用到運動導(dǎo)航領(lǐng)域。Zeng等[13]將手勢交互應(yīng)用于殘疾人輪椅的運動控制當(dāng)中,通過手勢交互對輪椅的運動進行全面操控。
手勢交互設(shè)計必須遵循以用戶為中心的設(shè)計原則,即符合用戶的心智模型[14]。手勢語義集合作為自然交互語義集合的子集[15],需要設(shè)計師在龐大的自然語義集合中抽取、規(guī)范,以及使用于目標(biāo)用戶群體的交互手勢集合中。許多對手勢交互設(shè)計的研究發(fā)現(xiàn),從用戶已有的經(jīng)驗出發(fā)過渡為新的交互方式可以保證交互的自然性和易學(xué)習(xí)性[13-15]。諸多現(xiàn)有研究采用了用戶協(xié)同設(shè)計的方式。Wobbrock等[16]提出了最大化猜想設(shè)計方法,通過展示手勢在任務(wù)中的作用,鼓勵用戶提出他們認(rèn)為合適的手勢交互方式,并形成交互手勢集合,可以為設(shè)計師提供后續(xù)交互手勢提取和設(shè)計的參考。Wu等[17]提出了由參與式觀察、頭腦風(fēng)暴、啟發(fā)式設(shè)計、基準(zhǔn)測試四個階段構(gòu)成的交互手勢設(shè)計框架。
隨著智能汽車的發(fā)展,車外交互作為用戶體驗中的一個環(huán)境逐漸受到重視,利用手勢在車外與智能汽車進行自然交互,可以帶來更加無縫式的智能汽車交互體驗。相較于車內(nèi)環(huán)境,車外環(huán)境具有較大的操作空間和較嘈雜的聲音環(huán)境,更適合手勢作為自然交互的方式。但如果車內(nèi)和車外采用不一樣的交互手勢,將加大用戶的學(xué)習(xí)成本和犯錯幾率。因此,本研究以無人駕駛汽車行駛引導(dǎo)任務(wù)的交互手勢為研究對象,采用用戶參與式設(shè)計與專家評估相結(jié)合的設(shè)計方法,以驗證車內(nèi)外采用統(tǒng)一交互手勢的可行性。
交互手勢收集和集合構(gòu)建階段的研究流程如圖1所示。筆者首先采集用戶生成的交互手勢,通過分析、歸納用戶認(rèn)知視角下的目標(biāo)任務(wù)和手勢動作之間的關(guān)聯(lián)性,以指導(dǎo)交互手勢的集合構(gòu)建。筆者通過計算不同任務(wù)下用戶生成手勢的一致率,判斷手勢的設(shè)計與目標(biāo)任務(wù)是否吻合,并結(jié)合用戶的語義分析,最終構(gòu)建行駛引導(dǎo)交互手勢集合。

圖1 收集和構(gòu)建階段研究流程
交互手勢采集階段共邀請15名被試參與測試,男性6人、女性9人,年齡均在21~25歲(=22.5,D=1.2)。其中10人具有駕駛能力,并有7人熟練掌握駕駛技巧。
每名被試使用16英寸(1英寸=2.54 cm)顯示器,在Unity虛擬場景下熟悉手勢交互場景。虛擬場景中包含一輛用于手勢控制的車輛和一棟代表目標(biāo)位置的房屋。測試人員在光照良好的環(huán)境下,坐姿處于電腦攝像頭1 m范圍內(nèi),通過Mediapipe進行手勢操作。
測試開始前,被試在工作人員指導(dǎo)下通過10 min學(xué)習(xí)并熟悉Unity模擬的手勢導(dǎo)航場景。正式測試開始后,要求15名被試按照5人一組,針對各目標(biāo)任務(wù)在車內(nèi)場景和車外場景分別設(shè)計3種手勢[17]。研究要求被試產(chǎn)出的手勢滿足四大要求:(1)手勢可由單手或雙手構(gòu)成;(2)雙手手勢的兩手之間可存在位置關(guān)系;(3)由于車外手勢交互操作距離較大且環(huán)境更為復(fù)雜,為了增強手勢可識別性,針對車外手勢,要求被試可以根據(jù)自身想法放大動作特征;(4)針對車外手勢,要求被試采用站立姿態(tài)完成手勢定義。實驗過程中,研究人員通過攝像機記錄被試生成手勢的過程,并要求被試在生成手勢時使用“出聲思維法”[18]回答產(chǎn)生該手勢的思路。
要求(1)和要求(2)主要是為幫助用戶避免遺留偏見問題,提高可收集到的手勢種類,且通過要求(2)的雙手位置關(guān)系,可以更好地發(fā)揮手勢的指向性特點。要求(3)和要求(4)幫助被試?yán)斫廛囃馐謩莸氖褂铆h(huán)境,使得收集到的手勢更適用于車外環(huán)境。
本研究在進行交互手勢采集結(jié)果統(tǒng)計時,根據(jù)手勢形態(tài)同時結(jié)合“出聲思維法”獲取的語音資料對手勢進行分類。例如,不同的被試?yán)檬持傅闹赶蚧蛲瑫r利用食指、中指的指向,如果語音材料中表示兩個被試的手勢描述思路相同,則被認(rèn)為是同一種手勢。用戶參與設(shè)計生成的交互手勢集合見圖2。
本研究通過計算同一任務(wù)下用戶設(shè)計手勢的一致率判斷各任務(wù)被試生成的手勢相似程度[16]。一致率(Agreement Rate)用表示,表示某一個任務(wù),則各項任務(wù)手勢一致率的計算見式(1)。

式中:是被試在進行任務(wù)時所涉及的所有手勢的集合;||為集合的大小;P是具有相同手勢姿態(tài)的手勢子集。
用戶生成的車內(nèi)場景下各項任務(wù)手勢的一致率如表1所示;車外場景下各項任務(wù)手勢的一致率,見表2。
研究發(fā)現(xiàn),無論是車內(nèi)還是車外,被試用戶在“前進”“后退”“左/右轉(zhuǎn)”任務(wù)下設(shè)計的手勢都具有較高的一致率,而“靠邊停車”的交互手勢的一致率較低。

圖2 車內(nèi)外手勢收集的集合
表1 車內(nèi)場景被試生成手勢一致率

Tab.1 Agreement scores of internal gestures generated by participants
表2 車外場景被試生成手勢一致率

Tab.2 Agreement scores of external gestures generated by participants
研究根據(jù)各手勢出現(xiàn)頻次,選取被試生成最多次數(shù)的手勢,并結(jié)合語音材料中用戶對手勢語義的理解方式,對用戶生成的交互手勢特征進行一致性優(yōu)化后構(gòu)建了最終的行駛引導(dǎo)交互手勢集合(如圖3所示)。例如,在“靠邊停車”手勢中,車內(nèi)場景下被試手指指向右側(cè)的手勢頻次較多,而車外場景下大部分被試傾向于采用表示“向右”后“停車”的語義。綜合考慮兩種場景下被試的表述方式和手勢動作,確定了“EP2”作為“靠邊停車”的交互手勢。

圖3 車內(nèi)外交互手勢構(gòu)建的集合
本研究采用卡片法和模擬測試法對構(gòu)建的行駛引導(dǎo)交互手勢集合進行驗證。卡片法用于驗證上一階段構(gòu)建的交互手勢集合與目標(biāo)任務(wù)的匹配程度,模擬測試用于驗證交互手勢集合在車內(nèi)與車外環(huán)境下的具體表現(xiàn)。
在卡片法驗證階段,邀請20名未參與第一階段的被試人員,男性8人、女性12人,年齡均為21~25歲(=22.6,D=1.2)。其中15人具有駕駛能力,且8人熟練掌握駕駛技巧。
在模擬器驗證階段,針對車內(nèi)場景和車外場景,分別邀請12名被試進行模擬實驗,由此驗證交互手勢的可用性。男性7人、女性5人,年齡均為21~25歲(=22.6,D=0.9)。其中,8人具有駕駛能力,且4人熟練掌握駕駛技巧。
每名被試使用16英寸(1英寸=2.54 cm)顯示器,在Unity的虛擬場景下熟悉手勢交互。在車內(nèi)場景測試中,虛擬環(huán)境包括了用于手勢控制的車內(nèi)座艙(第一人稱視角)、仿真街道和作為目的地的公交車站。在車內(nèi)場景中,測試人員在光照良好的室內(nèi)環(huán)境下,坐于距電腦攝像頭1 m范圍內(nèi),通過Mediapipe進行手勢操作。在車外場景測試中,虛擬環(huán)境包括用于手勢控制的車輛和仿真街道,以及作為用戶觀察位置的房屋。車外場景中,測試人員在光照良好的室內(nèi)環(huán)境下,站于距電腦攝像頭1 m范圍內(nèi),通過Mediapipe進行手勢操作。
在卡片分類驗證階段,20名被測根據(jù)車內(nèi)和車外場景隨機分為兩組,并統(tǒng)計手勢與目標(biāo)任務(wù)的正確分類頻次。
研究人員利用Unity搭建車內(nèi)和車外的手勢交互場景。被試需要利用上述構(gòu)建的交互手勢集合完成6次操作,指引模擬場景中的車輛行駛到指定位置。車外場景被試采用站姿完成實驗。在測試場景中被試需要完成6次操作任務(wù)。將“車輛進入任務(wù)可執(zhí)行區(qū)域”到“被試執(zhí)行正確任務(wù)操作”的時間記為每項任務(wù)的完成時間。實驗中研究人員記錄用戶使用手勢完成每一項任務(wù)的時間,任務(wù)完成時間按照幀數(shù)統(tǒng)計,視頻為24 fps。實驗人員在實驗結(jié)束后邀請被試使用7分里克特量表對使用手勢操控車輛的舒適度、易學(xué)性進行評分。
卡片法階段交互手勢與任務(wù)匹配頻次共收集到40份數(shù)據(jù),統(tǒng)計結(jié)果見表3。根據(jù)表3的結(jié)果顯示,本實驗構(gòu)建的交互手勢集合可以較好地表達出操作指令的語義,符合用戶認(rèn)知。
表3 手勢與任務(wù)匹配頻次

Tab.3 Frequency of gesture-to-task matching
任務(wù)完成時間采用Mann-Whitney U檢驗進行分析(如圖4所示)。根據(jù)圖4的結(jié)果顯示,被試用戶在“調(diào)頭”任務(wù)(=24,=3466,<0.01)和“靠邊停車”任務(wù)(=24,=1.964,<0.05)的完成時間出現(xiàn)顯著差異。研究還發(fā)現(xiàn),用戶在車內(nèi)場景的完成時間顯著低于車外場景(如圖4所示)。
由于用戶易學(xué)性評分與舒適度評分為計數(shù)數(shù)據(jù)且不符合正態(tài)分布,所以研究采用Fisher精確檢驗進行分析(如圖5~6所示)。在車內(nèi)場景和車外場景下,24名被試對交互手勢集合的舒適度評分和對交互手勢集合的易學(xué)性評分并未出現(xiàn)顯著差異。
對于無人駕駛汽車行駛引導(dǎo)任務(wù),被試的車內(nèi)手勢和車外手勢的生成過程都利用了手勢指向性的特點。例如,車內(nèi)手勢(“F1”和“IF2”)和車外手勢(“EF1”和“EF2”)均以向上方或向前方的手勢形態(tài)特征表達了“前進”的語義。盡管車內(nèi)手勢和車外手勢在形態(tài)上存在相似之處,二者之間仍有明顯的區(qū)別。
車內(nèi)手勢的形態(tài)特征表現(xiàn)為更明確的指向性。手勢向上或下的指向表示“前進”或“后退”,手勢向左或右的指向表示“左轉(zhuǎn)”或“右轉(zhuǎn)”。握拳(“IS3”)作為沒有方向指向的手勢則代表“停車”的語義。“調(diào)頭”任務(wù)則使用具有彎曲形態(tài)特征的手勢(“IT1”“IT3”)代表行駛方向的改變。“靠邊停車”任務(wù)則使用向右下方指向的手勢(“IP1”)代表向右靠近并減速的語義,或突出表達靠邊(“IP3”“IP4”)的語義。
車外手勢的形態(tài)特征在指向性的基礎(chǔ)上,通過拆解任務(wù)語義進行表述。例如,“調(diào)頭”任務(wù)被拆解成“向前”再“向后”的手勢語義。手勢“ET3”通過依次表述“向前”和“向后”的手勢來定義“調(diào)頭”任務(wù)的手勢。而對于手勢“EP2”,“靠邊停車”任務(wù)被拆解成“向右行駛”并“停車”的手勢語義。
出現(xiàn)這種差別的原因可能是由于車內(nèi)環(huán)境與車外環(huán)境之間用戶視角的變化。在車內(nèi)環(huán)境中,用戶與車輛視角一致,車輛行駛方向即為用戶目標(biāo)方向。手勢指向從自身位置出發(fā),可以進行行駛方向的直觀描述。在車外環(huán)境中,用戶與車輛視角不一致,用戶從旁觀者角度觀察和控制車輛運動。因此,拆解任務(wù)語義以表述車輛的運動過程更適合車外環(huán)境的用戶視角。

圖4 車內(nèi)外場景下交互手勢集合任務(wù)完成時間差異性

圖6 車內(nèi)外場景下交互手勢集合易學(xué)性差異情況
另外,車內(nèi)手勢中的“IS1”和“IP2”利用了其他符號含義進行語義表述。“IS1”利用已形成共識的暫停手勢表述“停車”;“IP2”利用食指和大拇指構(gòu)成“對勾”的形狀來表示行程結(jié)束,可以進行“靠邊停車”。
車內(nèi)環(huán)境下被試生成的手勢主要為靜態(tài)手勢(占比90.4%),而車外環(huán)境下被試生成的手勢主要為動態(tài)手勢(占比66.7%)。相比于靜態(tài)手勢,車外手勢中運動軌跡的加入增加了手勢信息的維度。以“右轉(zhuǎn)”任務(wù)的“EL1”和“EL2”為例,被試的運動軌跡或為向右水平甩動手臂(“EL1”),或為向右豎直甩動手臂(“EL2”)。通過對軌跡進行編碼,同為向右甩動的手勢可分別用于“右轉(zhuǎn)”(“EL2”)和“靠邊停車”(“EP1”)。
但是,由于車內(nèi)場景中的活動空間受限,運動幅度較大的動態(tài)手勢不適合車內(nèi)較狹小的環(huán)境。此外,上文提到了用戶可以利用車內(nèi)手勢從自身位置視角出發(fā)進行行駛方向的直觀描述,因此車內(nèi)手勢無需利用動態(tài)特征以增加額外的信息。車外環(huán)境下動態(tài)手勢數(shù)量增加,用戶認(rèn)為在復(fù)雜的車外環(huán)境中動態(tài)手勢(“EF1”“EB1”“EL1”“ES1”“ET1”)能使手勢更加容易被系統(tǒng)偵測識別。但是動態(tài)手勢中包含的軌跡信息和運動速度信息具有不確定性,因此技術(shù)層面上較難做到精準(zhǔn)識別[4]。此外,動態(tài)手勢需要用戶提前掌握手勢能被系統(tǒng)識別的最佳運動幅度和運動速度,這進一步加大了用戶的學(xué)習(xí)難度。
研究結(jié)果顯示,無論是車內(nèi)還是車外,靜態(tài)手勢均可以較清晰地表達行駛引導(dǎo)相關(guān)的任務(wù)語義,無需再利用動態(tài)手勢添加額外的信息,并且靜態(tài)手勢相較于動態(tài)手勢無需對用戶的動作幅度和速度作進一步要求,可以有效地降低學(xué)習(xí)成本,從而滿足無人駕駛汽車的行駛引導(dǎo)需求。
在手勢采集階段,19.0%的用戶在車內(nèi)采用了雙手手勢,而33.3%的用戶在車外使用了雙手手勢。車內(nèi)環(huán)境中,雙手手勢主要出現(xiàn)在停車(“IS1”)、調(diào)頭(“IT5”)和靠邊停車(“IP3”“IP4”)任務(wù)中。其中,“IS1”手勢源于生活中與“停止”相似的手勢,而“IT5”手勢則是被試?yán)檬终啤⑹中南喾吹碾p手代表車輛行駛方向的調(diào)換。“IP3”“IP4”則利用了手勢的指向性并拆解了任務(wù)語義。“IP3”的左手代表“向右”,而右手代表“路邊”。“IP4”的左手代表“停車”,而右手代表“路邊”。在車外環(huán)境中,每項任務(wù)都有少量被試采用了雙手手勢。該類被試用戶認(rèn)為單手手勢容易與日常生活手勢混淆,導(dǎo)致車外使用單手手勢時可能因被誤識別而引發(fā)危險,而雙手手勢更易于與日常生活中的手勢產(chǎn)生區(qū)分。
然而,單手手勢的包容性明顯優(yōu)于雙手手勢。單手手勢對手部殘障用戶或者拄拐的用戶更加友好。此外,單手手勢可以保證用戶在對車輛進行交互控制時,另一只手依然可以從事其他活動,例如操作手機或者攜帶旅行箱。不僅如此,單手手勢排除了左右手動作混淆的可能性,減少了誤操作的風(fēng)險。由于單手手勢減少了手部肢體運動軌跡,特別是在需要快速反應(yīng)的情況下,單手狀態(tài)下用戶可以更加快速、便利地變換手勢,從而改變交互指令。
如表1~2所示,通過計算Qian等[19]的研究中被試生成的交互手勢集合的一致率,發(fā)現(xiàn)本研究中車內(nèi)和車外環(huán)境下各項任務(wù)的手勢一致率與Qian等的研究相符。但是,本研究也發(fā)現(xiàn)車外環(huán)境下的手勢一致率低于車內(nèi)環(huán)境。本研究認(rèn)為車外環(huán)境下用戶的活動空間增大是導(dǎo)致被試自定義生成的手勢更為靈活多變的主要原因。盡管同一任務(wù)下車內(nèi)外交互手勢形態(tài)存在一定差異,但被試在生成手勢時采取了相似的思路和策略,即利用手勢的指向性特征進行表達。
模擬測試中車內(nèi)和車外場景下“調(diào)頭”任務(wù)和“靠邊停車”任務(wù)的完成時間出現(xiàn)了顯著差異性。本研究發(fā)現(xiàn)由于車外場景下被試的觀察視角與車輛的移動視角并不統(tǒng)一,因此在完成“調(diào)頭”“靠邊停車”等較復(fù)雜的指令時,被試需要對車輛的位置進行更仔細(xì)的判斷,從而導(dǎo)致了完成時間的增加。盡管模擬測試中部分任務(wù)的完成時間出現(xiàn)了顯著性差異,但由于并沒有超過用戶接受度的閾值,因此不會對用戶的交互體驗產(chǎn)生顯著的消極影響。而卡片測試與模擬測試后的用戶調(diào)研均顯示本實驗構(gòu)建的交互手勢集合在易學(xué)性和舒適度方面并無顯著差異,在車內(nèi)外均達到較好的用戶體驗預(yù)期。
在無人駕駛場景下,由于目標(biāo)地點描述的模糊性和系統(tǒng)導(dǎo)航定位的精確性之間的鴻溝,導(dǎo)致用戶在到達預(yù)設(shè)目的地后仍需對車輛位置進行調(diào)整。因此,對不具備駕駛能力的用戶更需要一種直觀、高效、安全的交互方式以實現(xiàn)對無人駕駛汽車的行駛引導(dǎo)。本研究通過采用用戶參與式設(shè)計和一致性計算相結(jié)合的交互手勢設(shè)計方法建立了一套適用于車內(nèi)外行駛引導(dǎo)的交互手勢,并通過卡片分類法和模擬測試驗證了車內(nèi)外采用統(tǒng)一的行駛引導(dǎo)交互手勢的高度可行性。本研究作為探索性研究,依然存在一些不足。本研究被試的數(shù)量和樣本豐富性不足,未能將其他年齡層用戶和殘障用戶納入考量。未來在針對無人駕駛車具體任務(wù)場景的手勢設(shè)計時,應(yīng)考慮涵蓋較多年齡層面的用戶群體。本研究拓展了未來無人駕駛汽車的用戶體驗研究方向,為手勢交互提供了新的應(yīng)用場景,也為中國汽車企業(yè)與自動駕駛行業(yè)的發(fā)展提供了有價值的參考。
[1] GB/T 40429—2021, 汽車駕駛自動化分級[S]. GB/T 40429-2021, Taxonomy of Driving Automation for Vehicles[S].
[2] DETJEN H, SCHNEEGASS S, GEISLER S, et al. An Emergent Design Framework for Accessible and Inclusive Future Mobility[C]// Proceedings of the 14th International Conference on Automotive User Interfaces and Interactive Vehicular Applications. Seoul: ACM, 2022: 1-12
[3] FR?HLICH P, MILLONIG A, FRISON A K, et al. User Interfaces for Public Transport Vehicles: Future Opportunities and Challenges[C]// Proceedings of the 10th International Conference on Automotive User Interfaces and Interactive Vehicular Applications. Toronto: ACM, 2018: 50-55.
[4] MAMCHENKO M V, ROMANOVA M A, TREFILOV P M. Defining the Critical Characteristics of Unmanned Vehicles in a Smart City[J]. IFAC, 2021, 54(13): 488- 492.
[5] SHU Y, SHIN K G, HE T, et al. Last-Mile Navigation Using Smartphones[C]// Proceedings of the 21st Annual International Conference on Mobile Computing and Networking. Paris: ACM, 2015: 512-524.
[6] WANG N, PEI Y, FU H. Public Acceptance of Last-mile Shuttle Bus Services with Automation and Electrification in Cold-Climate Environments[J]. Sustainability, 2022, 14(21): 14383.
[7] 錢曉松, 張帆, 楊新. 基于全自動駕駛情境下駕駛導(dǎo)航需求的手勢交互設(shè)計研究[J]. 裝飾, 2020(4): 104- 107. QIAN X S, ZHANG F, YANG X. Study on Gesture Interaction for Navigation in The Autonomous Driving Situation[J]. ZHUANGSHI, 2020(4): 104-107.
[8] SARMA D, BHUYAN M K. Methods, Databases and Recent Advancement of Vision-based Hand Gesture Recognition for HCI Systems: A Review[J]. SN Computer Science, 2021, 2(6): 436.
[9] SHI Y, LI Y, FU X, et al. Review of Dynamic Gesture Recognition[J]. Virtual Reality & Intelligent Hardware, 2021, 3(3): 183-206.
[10] CARREIRA M, TING K L H, CSOBANKA P, et al. Evaluation of In-Air Hand Gestures Interaction for Older People[J]. Universal Access in the Information Society, 2017, 16(3): 561-580.
[11] DEY D, TERKEN J. Pedestrian Interaction with Vehicles: Roles of Explicit and Implicit Communication[C]// Proceedings of the 9th International Conference on Automotive User Interfaces and Interactive Vehicular Applications. Oldenburg: ACM, 2017: 109-113.
[12] JOISTEN P, LIU Z, THEOBALD N, et al. Communication of Automated Vehicles and Pedestrian Groups: An Intercultural Study on Pedestrians’ Street Crossing Decisions[C]// Mensch und Computer 2021. Ingolstadt: ACM, 2021: 49-53.
[13] ZENG J, SUN Y, WANG F. A Natural Hand Gesture System for Intelligent Human-Computer Interaction and Medical Assistance[C]// 2012 3rd Global Congress on Intelligent Systems. Wuhan: IEEE, 2012: 382-385.
[14] 孫效華, 周博, 李彤. 隔空手勢交互的設(shè)計要素與原則[J]. 包裝工程, 2015, 36(8): 10-13. SUN X H, ZHOU B, LI T. Design Key Elements and Principles of In-Air Gesture-Based Interaction[J]. Packaging Engineering, 2015, 36(8): 10-13.
[15] 于漢超, 楊曉東, 張迎偉, 等. 凌空手勢識別綜述[J]. 科技導(dǎo)報, 2017, 35(16): 64-73. YU H C, YANG X D, ZHANG Y W, et al. A Review on the Recognition of Mid-Air Gestures[J]. Science & Technology Review, 2017, 36(15): 64-73.
[16] WOBBROCK J O, AUNG H H, ROTHROCK B, et al. Maximizing the Guessability of Symbolic Input[C]// Proceedings of the CHI’05 Extended Abstracts on Human Factors in Computing Systems. Portland: ACM, 2005: 1869-1872.
[17] WU H, FU S, YANG L, et al. Exploring Frame-Based Gesture Design for Immersive VR Shopping Environ-ments[J]. Behaviour & Information Technology, 2022, 41(1): 96-117.
[18] 周榮剛, 張侃. 可用性測試中的出聲思維法[J]. 人類工效學(xué), 2005, 11(3): 3. ZHOU R G, ZHAG K.Thinking Aloud in Usability Testing[J]. Chinese Journal of Ergonomics, 2005, 11(3): 3.
[19] QIAN X, JU W, SIRKIN D M. Aladdin’s Magic Carpet: Navigation by In-Air Static Hand Gesture in Autonomous Vehicles[J]. International Journal of Human– Computer Interaction, 2020, 36(20): 1912-1927.
Navigation Gesture Design for Fully Autonomous Vehicles
QIAN Xiaosong, DOU Jinhua, DU Peng*
(School of Mechanical Engineering, University of Science and Technology Beijing, Beijing 100083, China)
The work aims to develop an interaction gesture design method that aligns with user cognition, so as to enhance the user experience of fully autonomous vehicles (FAVs) navigation without steering wheel control. Initially, the navigation gestures for both internal and external scenarios of FAVs were collected by a user generated design test. Then a navigation gesture collection applicable for FAVs was constructed based on consistency comparison. Finally, the usability of the navigation gesture collection was evaluated through card sorting and simulation testing. The results from card sorting and simulation testing indicated that the gesture design method which combined user participatory design and consistency calculation achieved a positive user experience expectation for FAVs. It also affirmed the feasibility of navigation gestures for both internal and external scenarios of FAVs. This research validates the effectiveness of gesture interaction in enhancing the user experience in internal and external scenarios of FAVs, and provides a new direction for the user experience research of FAVs.
fully autonomous vehicles; navigation; gesture design; user generated design
TB472;J525.2
A
1001-3563(2024)08-0040-08
10.19554/j.cnki.1001-3563.2024.08.005
2023-11-22
教育部2022年第二批產(chǎn)學(xué)合作協(xié)同育人項目(220705329275903)
通信作者