
當你打開視頻網站,看到正在播放一個心儀已久的商品的廣告,禁不住露出驚喜的表情。攝像頭提示燈忽然閃了閃:眼睛定位,尋找嘴部水平中心線,XYZ軸建模;眼輪匝肌、皺眉肌、顴大肌,計算各塊肌肉的位移;數據“嗞嗞”傳回;數據庫表情匹配。另一端的商家電腦里,用戶滿意度統計圖里“十分滿意”一欄又上升了一格。
當然,這只是為了讓你印象更深刻的一種假設。實際情況是,數據傳輸并不會“嗞嗞”作響,面部表情算法也更為復雜,但是你的表情數據確實會像點擊數據一樣被收集起來,并被做成生意。
雖然電腦長期以來在感知任務方面遠不如邏輯運算那么厲害,但是最近,面部識別技術的突破讓電腦變得比人類更善于讀懂表情。
目前的面部識別程序對人類“快樂、悲傷、恐懼、憤怒、驚訝、厭惡”六種基本情緒的識別準確率達到96.9%,對更為復雜的20多種復合情緒的識別準確率也能達到76.9%。
隨著監控技術的普及和攝像頭產品的研發熱潮,“面部識別”也準備從實驗室投入到現實生活,實現商業化。
Emotient是一家由美國加州大學圣地亞哥分校的面部識別研究小組創辦的公司。它正為谷歌眼鏡開發一款應用程序,用來實時讀取視野里人們的真實情感。原理是收集人們的面部表情,轉化為數據進行分析和處理,最后通過數據庫匹配,將他人的整體情緒(喜悅、憤怒、驚恐等)簡潔地用文字顯示在設備顯示屏上。
Emotient的目標是“成為任何帶有攝像頭的設備的情感分析引擎”,通過分析客戶表情為商家提供顧客的情緒反應數據。
人們進行虛假和真實的情感表達時使用的大腦映射不同,因此反應在面部肌肉的動作上也會有所不同。
盡管仍處于測試階段,但它已經可以識別許多基礎表情,同時,團隊在測試時還發現了它的另一種功能:測謊。
使用表情測謊的原理,是人們進行虛假和真實的情感表達時使用的大腦映射不同,因此反應在面部肌肉的動作上也會有所不同,雖然細微,但足以讓電腦程序檢測和區分出來。最關鍵的是:這種區別人類很難區分,但對電腦來說卻很容易。
從面部特征識別到表情識別,再到情緒識別,也許有一天被識別的不再是人臉和聲音,而是真實與謊言。
盡管Emotient公司再三保證該技術不支持圖像數據存儲功能,只記錄識別出來的情緒結果,而且這種結果絕對不會泄露給任何人,但“面部表情會被谷歌眼鏡掃描并分析”這一點,仍然讓很多人感到擔心。
如果未來所有的攝像設備都具備這樣的功能,面對攝像頭就等于面對一臺隨時準備解碼自己表情、監控內心情緒的測謊儀,人們會不會冒著丟失自然人性的危險,依賴于時刻在觀察和評判自己的那個算法?