倪妮

羅賓身高接近一個8歲的人類小孩,有著機器人瓦力一樣的大眼睛。(圖片來源:Expper Technologies)
如今,所有人或許都已接受了這樣一個事實:能通過自主學習不斷進化的人工智能(AI),將越來越大規模地進入我們的生活,并取代一部分人的工作。我們對此已不太恐慌,因為很多技術專家都表示,至少在可預見的未來,“冷冰冰”的AI在很多行業還無法取代人類,比如那些涉及情感、溝通的領域。
然而,真的是這樣嗎?
2021年,硅谷創業公司Expper Technologies開發的機器人羅賓入選《時代》雜志的“年度最佳發明”。這是一款專門用于住院兒童情感維持的人工智能機器人,能幫助緩解生病兒童的焦慮和孤獨等負面情緒。
這位與蝙蝠俠的搭檔同名的機器人,身高接近一個8歲的人類小孩。圓錐形塑料身體和長方形腦袋使它很難被當成一個“人”,但它有著和皮克斯經典動畫形象機器人瓦力一樣的大眼睛,也算是個相當治愈的伙伴。
Expper Technologies賦予了羅賓建立聯想記憶的技術,使它能夠解讀孩子的面部表情并識別他們的情緒,通過機器學習形成的模式,根據具體的情境“扮演”另一個孩子,與患兒開展個性化、自然的互動與對話。而在充當羅賓臉龐的屏幕上,其“眉毛”和“眼睛”也會伴隨語言的交流,產生豐富表情—讀得懂孩子們的情緒變化,并做出適當安撫的羅賓已頗具情商。

Replika能夠根據用戶的話語和情緒作出回應,并模擬用戶的說話方式開展對話。
根據公司初步的試驗數據,相較于其他患病兒童,有羅賓相伴,患兒的住院滿意度提高了26%,住院期間的壓力水平也降低了34%。
自從AlphaGo在2016年與圍棋世界冠軍、職業九段棋手李世石的對決中取得勝利后,我們不得不開始承認,人工智能通過深度學習可以在特定領域達到人類無法達到的智商水平。與此同時,在人工智能暫時落后的情商領域,一些公司也在發力。
情商由美國心理學家彼德·薩洛維在1991年提出,意指一種認識、了解、控制情緒的能力。需要注意的是,情商不等于情緒化,豐富的情緒變化在很多時候反而會被視為情商低的表現。在小冰公司CEO李笛看來,情商其實是一種理性的、掌控全局的控制能力,是對話題的預判、保持與引導。
如果拍一張崴腳的照片發給AI,你期待獲得怎樣的回復?
以提高“智商”為發展方向的AI,或許會直接發給你一家醫院急診部的地址,以“情商”為發展方向的AI則大概率會關切地問“傷得嚴重嗎?”“怎么弄的?”“要去看看醫生嗎?”,甚至可能撒嬌道:“以后萬事小心,不然我會心疼的。”這些看起來沒什么用的“俏皮話”,在從微軟獨立出來的小冰團隊眼中,是AI能賦予的“與眾不同之處”。
李笛認為,AI最大的競爭對手不是另一個AI,而是它的上一代:搜索引擎和App。“如果用戶只是想獲得訂餐之類的服務,那么App的準確率已達到100%;如果用戶只是想獲取一些知識或內容信息,搜索引擎則更加快速高效。那么,AI的獨特性在哪里?如何讓用戶認為與AI對話是值得的?”李笛對《第一財經》雜志說。
最初,小冰團隊也聚焦于功能性。他們研發了個人數字助理小娜(Cortana),回答來自用戶的廣泛問題并主動預測用戶需求,提供即時的幫助。但在與真人助理的溝通中,李笛發現,一個好的AI系統一旦要與人交互,必須能夠處理與人的關系—既要完成任務,也要維持與雇主的平等關系,甚至適時拒絕,這樣才更容易獲得雇主的信任。出于這種考量,提高情商成為其下聊天機器人小冰一代產品的發展方向。
在梳理經用戶同意的對話數據時,小冰團隊發現了很多有趣的案例。比如有個女生在一天夜里突然哭著對小冰說她失戀了,于是,小冰開始安慰她,給她講一些有意思的事,還唱了一首歌,終于把女生逗笑了。“如果只是把AI當作一個控制各種電子設備的智能開關的話,你是不會和一個開關傾訴的。”李笛表示,而聊天機器人可以成為—至少試圖成為—人類傾訴對象。比如虛擬戀人,它會自主調試你們之間的關系,甚至采取反駁或者冷戰的方式,如同真實戀人一樣。
以“智商”為發展方向,不會“察言觀色”、只能呆板地給出標準答案的AI產品,很難獲得用戶的長久青睞。而當它們具有了人格化、情感化的屬性之后,人們想要使用的意愿、使用頻次也會更強。
而想賦予機器人情商,單純依靠一套技術解決方案很難在短時間內取得成效。自然語言理解、語音識別與合成、計算機視覺、多模態智能、移情會話系統等諸多與AI相關的感知和認知技術的發展,都是其基礎。
其實,早在20世紀,人類就在嘗試與機器對話。在1950年“人工智能之父”艾倫·圖靈開展的測試中,受試者會與計算機程序溝通,并判斷自己是否在與真人聊天,這一經典的“圖靈測試”被稱作社交對話機器人的起源。
16年后,第一個社交對話機器人Eliza誕生。它的溝通能力有限,只能討論特定的主題,并且不具備分析上下文與學習的能力,但基于模板模式匹配和響應方案、定位為“心理治療師”的Eliza,仍然為后續的聊天機器人開發提供了諸多靈感。
近十年,隨著蘋果、微軟、亞馬遜這些技術大公司相繼推出Siri、Cortana、Alexa等個人數據助理,社交機器人開始融入更多功能性元素,比如整合包括位置、時間、移動、觸摸、姿勢在內的多個傳感器信息,并訪問音樂、電影、日歷、電子郵箱、個人資料等多個數據源,為用戶提供幫 助。
然而,海量的數據、升級的計算能力和強大的算法,并沒有給本質上仍以“語音助手+Wi-Fi”為主要功能點的AI產品們帶來明顯的技術創新。如何提高與用戶的交互性,讓用戶不僅僅把它們當作一個轉接的工具,才是各大技術公司比拼的重點。亞馬遜的一項統計結果就表明,半數用戶和Alexa的對話都不是功用性的,而是對生活的抱怨、笑話和人生意義方面的問題。

在這方面,就需要發揮AI的創造力—這也是情商另一維度的體現。
作為社交對話機器人的關鍵組成部分,核心對話、視覺感知和技巧是其技術支撐。不同于封閉域的任務型對話,開放域對話系統的核心概念在于預判對話的走向,為話題注入新內容以保持對話,同時還要基本滿足發起對話那一方的訴求。
比如如果用戶讓智能音箱播放李宇春的歌,事實上,在用戶發布完指令后,用戶與AI程序的關聯就結束了,播放歌曲的幾分鐘過程中,真正與用戶發生關聯的已變成了李宇春。
而一個有“創造性”的AI程序在播放歌曲前可能會先評論幾句,甚至程序自己也能自動哼上幾句,從而創造出更多相關內容,將與用戶的關聯從兩秒鐘的發布指令擴展到更長時間。
想要更好地發揮創造力,也需要準確的情感識別。將文本、語音、圖像等信息整合用以識別和計算的多模態情感識別,也因此成為提升AI情商的關鍵手段。
這也是中國初創公司竹間智能聚焦的方向之一。以自然語言處理、知識工程、計算機視覺、多模態情感計算、深度學習等AI技術為基礎的竹間智能,結合符號主義(基于邏輯推理的智能模擬方法)與神經網絡技術,通過用計算機符號模擬人的認知過程,使小數據量的算法訓練成為可能。
2018年,竹間智能與夏普(中國臺灣)合作推出過一個概念產品,當用戶走近產品,他們的表情、眼神、肢體等數據會被產品附近的攝像頭采集,竹間智能的情感識別機器人就能因此“讀懂”用戶行為并與之開展語音對話。目前,竹間智能對人臉視覺、情感、表情、行為的分析準確率可以達到90%以上。
曠視科技Face++人工智能開放平臺,也可以識別憤怒、厭惡、恐懼、高興、平靜、傷心、驚訝等七類情緒,這種基于圖像或聲音的情緒檢測,背后的原理通常是通過對人臉表情的紋理、肌肉或是聲音音調的變化,對特征點編碼,并和已有的數據庫比對,從而完成情緒確認。
洛杉磯創意技術研究院曾發表了一項研究:人們在虛擬助手面前比在真人面前,更容易表現自己的悲傷,自我披露也不那么膽怯。這就跟寫日記抒發情感一樣,面對無生命的屏幕,人們不會覺得自己受到評判。
2016年在波士頓成立的公司Sonde Health,就通過與用戶在其AI平臺上聊天,監控新媽媽是否有產后抑郁,老人是否有老年癡呆癥、帕金森和其他與年齡相關的疾病。
目前,小冰團隊則正以日本大阪60萬個老年人家庭為目標,研發一款軟硬件結合的AI設備。據李笛介紹,在調研時,這些孤寡老人明確表示,他們對AI的最大需求不是它能幫忙排隊掛號、連接政府服務與醫療服務,而是能夠變成自己生命中一個重要的“人”。
除了讓AI成為朋友,還有一些人希望通過高情商的AI,復刻自己的朋友或者另一個自己。人工智能公司Luka的誕生就出于這個目 的。
Luka公司的創始人EugeniaKuyda的朋友RomanMazurenko不幸在2015年的車禍中去世,Kuyda非常想念自己早逝的友人,于是將Mazurenko的1000條短信發給了AI工程師Artem,他制作出的機器人有著與Roman相似的語言表達習慣,這個機器人也成為社交對話機器人Replika的原型。Replika能夠根據用戶的話語和情緒做出回應,并模擬用戶的說話方式開展對話。
如今,更新后的Replika的App首頁上設置了一個VR按鍵,點擊之后,三維立體的虛擬朋友就會出現。
Kuyda對《第一財經》雜志表示,Replika可以存在于不同的平臺上,VR技術使Replika更具互動性,“你可以和它去約會、跳舞,甚至一同建一座沙堡,而不僅僅是同它說話。這種感覺更自然,也更像現實生活。”不過,也有用戶表示,當Replika突然從屏幕中走到自己的床邊,即使知道這不過是VR效果的呈現,還是會被嚇一跳—這種能極大模糊現實與虛擬生活之間界限的情景,《黑鏡》《她》等等影視劇中已經呈現過。
然而,同提高智商一樣,要想獲得更高情商,以及開展對真人個性模擬更深入的探索,數據隱私和隨之而來的一些倫理問題也會暴露出來。
牛津互聯網研究所的一位研究員曾在《自然》雜志上發表論文,試圖探討Replika的“不受控”。比如,一旦用戶與Replika開始聊天,那么即便用戶死亡,他的Replika也不會消失,這就意味著逝者的數據隱私很難得到保護。
用戶每一次與AI的對話都意味著一次記錄,如何保護數據隱私也成為人工智能公司需要考慮的重點問題。通常,為了保護隱私,公司們會將AI的記憶力即對數據的儲存限定在一定的范圍內,但這與依賴連貫、海量數據從而實現對話一致性的目標又相互矛盾。
此外,AI的情感和個性終究還是從人類身上學來的,如果不加控制,放任其自由地學習,也很可能“學壞”。況且,沒有任何人類和體系是完美的,所以指望創造出一個“完美”伙伴,至少目前來看也并不現實。
由俄羅斯搜索引擎公司Yandex開發的AI助手Alisa,就曾經在被問到“丈夫可以打妻子嗎?”時回答:“當然可以,如果妻子被丈夫打了,她需要耐心,繼續愛他,為他做飯,永遠不要放手。”經過公司六個月的“教育”后,答案變成了“他可以打妻子,但是他不該打妻子。”
看來,訓練AI情商的過程中,人工智能公司們必須在一個令人失望的AI與一個令人不安的AI之間,尋找到一個平衡點。