王爾山

我想說,擔心機器搶人飯碗的人,可能骨子里都是樂觀主義者。
為什么這么說?
首先,他們只看機器可能取代某些目前由人來完成的工作的說法,卻不會在意,那些說法都是有前提的。比如:某報告總結了一些容易被自動化取代的工作的特點,其中之一是具有可預見性。舉例:戶外伐木工作的可預見性,就低于裝配生產線上的工作,后者很顯然就是不斷重復,幾乎每套動作都做得一模一樣;因此,盡管同屬體力活兒,裝配流水線上的工作就有78%的概率會被機器取代,而戶外伐木的工作只有25%的概率會被取代。別問這兩個數(shù)是怎么來的,反正我們的專家算出來了。
對人類的能力感到樂觀,也是對作為人類一員的自己感覺良好。這樣的人好像一直都不缺。比如:在人工智能這個術語出現(xiàn)幾年后,就有科學家寫過聊天機器人程序,名為Eliza,其中一個“人設”是Doctor,原理是先確定一套規(guī)則,讓機器按規(guī)則根據用戶輸入的句子作出回應,造成用戶聽得懂的假象。之所以說是假象,是因為科學家自己也說了,它其實沒聽懂,而是通過反饋一些開放而含糊的話,設法讓用戶以為它真的在傾聽。
像這樣——
用戶:“最近覺得很不開心。”
機器:“你常常覺得很不開心嗎?”
用戶:“是的,但我不知道怎樣才能讓自己開心起來。”
機器:“為什么你不知道怎樣才能讓自己開心起來?”
用戶:“你能給我說說嗎?”
機器:“那我就來說說。”
用戶:“跟我說說吧。”
機器:“你能說具體一點嗎?”
用戶:“不能,我就是覺得不開心。也許我是在擔心什么事情。”
機器:“你這樣擔心有多久了?”
用戶:“兩星期。”
機器:“說下去。”
用戶:“我需要你的幫助。”
機器:“為什么你會需要我的幫助?”
如果看英文原文,你會更清楚地看到,這臺機器怎樣抓住一些重點詞進行重復,變成它的回應。
但就是這么簡單的設計,卻得到大量的好評。許多用戶堅信自己就是在跟人類醫(yī)生說話,并且,跟這位“醫(yī)生”聊完,自己的狀況大有好轉。
最終,這套程序不僅帶上“人工智能”和“聊天機器人”這樣一些計算機科學領域的標簽傳世,還多了一個跨界標簽,就是“Eliza效應”,用于描述下意識地將機器行為與人類行為等同起來的傾向。
這就成了俄羅斯套娃,因為Eliza這名字源于另一個故事,里面也有一個效應,這就是蕭伯納的名作《皮格馬利翁》中的“皮格馬利翁效應”。科學家說他的聊天機器人就像女主角Eliza——出身下層社會的賣花女,可以通過接受語言學家的訓練而掌握上層社會的言談風度,誰也看不出破綻。而蕭伯納的靈感又源于希臘神話,說的是國王皮格馬利翁愛上了自己精心雕刻的少女雕像,愛得很入迷,最終感動了天神,決定賦予少女生命,二人得以喜結良緣。從那時就有了皮格馬利翁效應,用以描述人們會不自覺地接受自己喜歡、欽佩、信任和崇拜的人的影響和暗示,“說你行,你就行。”
這個故事就變成,先是科學家將自己設計的聊天機器人命名為Eliza,“拔高”這個設計,因為這臺機器并不能像戲中女主角那樣,從語言學家那兒學會另一套說話方式;同時,在用戶這邊,好像與科學家心有靈犀一般,也出現(xiàn)了“拔高”的印象,用戶愿意相信這臺機器就是聽得懂他們的話,盡管它其實聽不懂,并且科學家也把程序公開發(fā)表了。
有沒有可能,他們愿意“高看”的,其實是人類的能力。他們期待人類盡快達成目標,從而作為人類的一員也與有榮焉?
如果這還不算樂觀,我還有第二個理由:人類邁向老齡化社會的現(xiàn)實,也被他們選擇性地無視了。
我們面臨的老齡化挑戰(zhàn)有多嚴峻?外國有報告說,從2010年到2050年,在我國,每100位適齡勞動者要分擔扶養(yǎng)的老人和小孩總數(shù),從36人變成63人。
看完這組數(shù)據,我的第一反應是,趕緊先來100臺機器人。讓那寶貴的100個人類勞動者指揮這些機器人,于是勞動者的總數(shù)加倍,變成200,這樣看起來才比較“正常”,不那么令人倍感壓力。
因為我不是樂觀主義者。
反過來,能在人工智能技術尚未發(fā)達和人類已經加速邁向老齡化這兩個現(xiàn)實條件的夾擊之下,依然擔心機器搶人飯碗的人,可不就是樂觀主義者嗎?他們相信人類能盡快造出機器人,然后一切繼續(xù)盡在掌握。
(飄 雪摘自《文匯報》2017年7月6日,王 青圖)