邱江勇

10月19日,2019世界vR產業大會在南昌召開。本次大會由工業和信息化部、江西省人民政府聯合主辦,由中國電子信息產業發展研究院、江西省工業和信息化廳、南昌市人民政府和虛擬現實產業聯盟承辦。新西蘭皇家科學院院士、奧克蘭大學教授馬克·比林赫斯特出席大會主論壇并發表演講。
采用不同方式與VR互動
馬克·比林赫斯特表示,大家在展會上用手持的手柄作為控制器,相當于頭戴式的展示器,包括控制器,還可以用語音手勢進行控制。除此之外,還可以用觸摸屏,人們可以用不同的方法與AK、vR互動。
馬克·比林赫斯特用一段小視頻舉了個例子——用一個手勢跟vR互動。他講解到,一只真的人手在動,會產生虛擬菜單;另外一個虛擬的手可以和虛擬菜單互動。在虛擬的控制中,我們希望能夠把不同手勢和其他設備結合在—起。大的動作容易識別.小的動作就不靈敏了,而將兩個設備結合在一起,即可將微小的運動細節用雷達探測出來。這樣,就可以精準地控制物體的移動,把兩個自然界面結臺在一起。
馬克·比林赫斯特還演示了另一段小視頻,人們可以用手移動、控制一個虛擬的木偶,并用微小的動作控制移動的速度。他表示,這個視頻中將技術和手勢放在一起,通過語音進行控制,語音發出指令指向這個東西,用手把這個東西放到另一邊,然后用語音加上手一指,結合成自然界面,就可以控制了。
用眼球進行控制
馬克·比林赫新特表示,最近有一些公司在研究怎樣通過對眼球的追蹤進行控制,并已經做了很多互動研究,從他所舉的案例中,可以看到用特定的手勢所產生動畫的效果。他表示,手勢和語言進行結合其實很難完全精準地進行控制,在這個過程中,人們用多模式的輸入端可以產生一個精細管理的混合現實模型。這樣做速度更快,錯誤率會降低30%。大家通過眼球凝視并互動,這樣的解決方案在市場中已經能夠看到,其中一個方法是雙瞄準線對準。
最后,馬克·比林赫斯特用一段小視頻做了結尾。在這段視頻中,展示的是混合現實。人們可以看到,首先畫面中的人凝視物體,然后再用手點擊,就可以用手控制物體了。按一下,然后手移動之后,便可以看到目標和物體對齊了。因此,混合現實可以用眼神結合手勢實現控制。那么,未來會怎樣?馬克·比林赫斯特表示,他的實驗室也在研究,除了把眼神和手勢結合在一起,是否其他模式也可行?“我們通過對腦電圖的測量研究了大腦的活動,通過人們對于虛擬環境的反應,建立起自然界面。同時也可以使用眼神實現各種各樣的測量方式,我也非常期待大家在VK自然界面方面取得成功。”馬克·比林赫斯特說。