張潛禾
有時候你很生氣,面部表情向其他人傳達了情緒。根據人類的這種表現,馬里蘭大學的研究人員開發了一種稱為ProxEmo的算法,該算法使一個輪式機器人能夠實時分析用戶的步態,并猜測用戶的感受。根據感知到的情緒,機器人可以選擇其路線來與人互動。
這似乎是一個小的功能進步,但是我們可以想象,有一天,當機器掌握人類足夠復雜的情緒,甚至可能會讀懂一個悲傷的人走路的方式,就可以幫助他們。
馬里蘭大學機器人與AI研究人員貝拉表示,基于這種考慮他們協助開發了ProxEmo。這款情緒智能機器人將其動作基于感知到的情緒做出判斷,雖然它無法真正讀取任何人的內心狀態。
為了構建此系統,機器人研究人員從人類實驗開始。他們讓一群人看著其他人走路,并問他們一系列有關他們認為步行者的情緒狀態的問題。當然,該練習在很大程度上是主觀的。但是研究人員從觀察人類的人們那里獲取了這些數據,然后將其與每個人步態的數據相關聯。

機器人學習人類走路的步態,分析情感,包括高興,悲哀,生氣,正常等等
為了理解步態,機器人需要客觀的數據,而不是主觀的判斷。因此,研究人員使用了算法來分析人們行走的視頻,每個人的圖像都被覆蓋著16個關節(包括脖子、肩膀和膝蓋)的骨骼。
研究人員獲得了新的ProxEmo算法,他們將其裝入裝有黃色攝像頭的可愛的黃色小四輪機器人(Jackal,來自機器人公司Clearpath)。當機器人滾動時,攝像機注視著經過的行人,而ProxEmo用16個關節的骨骼覆蓋每個機型,骨骼是步態的客觀測量,該算法已學會與某些情緒相關聯。這樣,ProxEmo可以猜測用戶的情緒狀態,并做出避讓。
不過,棘手的一點是,機器人接受了從實驗室環境中行走的人提取的數據訓練,但缺乏現實世界中的數據。為了使機器人在現實世界中減少失誤,研究人員必須以“噪聲”的形式引入一點混亂。“添加噪聲不會改變情感,但是我們添加了不同種類的噪聲,然后訓練系統。”貝拉說。
有一天,ProxEmo可能會與另一套讀取面部線索的系統配對,從而建立更加復雜的情商。如果我們希望機器人在我們中間行走和滾動而不傷及人或自己,那么它們必須在獲取這些細微差別方面變得越來越好。

當機器人正面接近人類時,它需要在前面留出很多空間,而在側面經過時根據人類的情緒判斷,則需要留出更多的空間避讓。就好像你看見一個醉鬼走來,會選擇正面相向還是側身躲過呢?