文 | 本刊記者 熊偉
?
AI 恐 懼:精 神 自 虐 神 器
文 | 本刊記者 熊偉

AI恐懼無非兩種,可以稱為“AI的客觀后果恐懼”和“AI的主觀意圖恐懼”。在兩種恐懼之前還有一種失落,因為機器比人能干,未來的電腦可能比人還聰明,人之為人的部分榮譽感被剝奪了。
我們對帶來恐懼感的東西本能地排斥,但有時候喜歡自己嚇自己,就像捂住眼睛的小孩兒,一邊說“嚇死寶寶了”,一邊從指頭縫里偷看幾眼。滿足人們對恐懼的需求(幫別人自己嚇自己),簡直是一門生意——鬼故事古時候就有了,恐怖小說、恐怖片和災難片,每分每秒都在賺錢。人工智能,AI,像蛇一樣滿身都是吸引力,是這門生意的好素材,它看起來高深莫測,散發著因為陌生所以可怕的文學氣味,既燒腦又虐心,讓有精神受虐需求的人欲罷不能。想象未來人類被機器碾壓,痛苦地呻吟,就像看恐怖片一樣過癮。
人工智能新近的發展似乎顯得太快,超出了人們的預期和適應能力。2014年6月7日,正好是阿蘭·圖靈逝世60周年紀念日,聊天程序“尤金·古斯特曼”有爭議地通過了圖靈測試。此后宣稱通過圖靈測試的計算機頻頻出現。人們普遍相信,計算機模仿人類談話而不被察覺,徹底實現的一天即使現在還沒有到來,也為時不遠了。
神經元網絡理論、代理控制、深度學習和大數據的進步在不同側面加強了人工智能,使它在一些特定的任務上打敗了人類。特斯拉的聯合創始人、CEO馬斯克說,計算機比人更適合開車,“當所有的車都知道自己該怎么開的時候,讓人來操控兩噸重的致命機械太危險了”。理智上我們不得不贊同他,但情感上似乎難以接受——世界的方向盤是否也和汽車的方向盤一樣,從此交到了計算機的手里?計算機冷笑一聲:“當然是我們來控制世界,連方向盤都不需要。”
波普(K. R. Popper)的話在耳邊響起——客觀知識的世界,是人類創造的,卻是自主的,也會具有創造性。盡管他是在50年前(確切地說是1967年)說這番話的,此刻我們面對人工智能這一存在,“細思恐極”。
強人工智能——會自主行動的機器人,會學習、自我改進、像生物一樣進化的機器人是迫在眉睫的現實嗎?對人工智能的擔心究竟只是精神自虐,還是伴隨著符合事實與邏輯的預測?如果是前者,不需要AI恐懼的人可以松一口氣,如果是后者,早早想出應對之策才行。


分析起來,AI恐懼無非兩種,可以稱為“AI的客觀后果恐懼”和“AI的主觀意圖恐懼”。在兩種恐懼之前還有一種失落,因為機器比人能干,未來的電腦可能比人還聰明,人之為人的部分榮譽感被剝奪了。但這種失落很快就能適應,人們早有經驗——起重機比人力氣大,望遠鏡比人看得遠,計算器比人算得快,飛機還會飛呢。超越人能力局限的東西很多很多,只要它們被人掌握著,就不僅僅是對人能力的超越,而且是對人能力的延伸,能力再大也不用害怕。電腦真比人聰明了,就算有點失落,只要它們為我們所用,聽我們安排,總歸好處多多。況且“聰明”定義模糊,解微分方程,下棋,電腦都比人厲害,是不是就比人聰明了呢?也不能簡單地下結論。
在客觀后果一側,討論的比較多的是就業問題,擔心機器人或者軟件把人的工作崗位一批一批地搶走。工業生產不用說,流水線工人是最先被機器人替代的,無人工廠不是什么科幻,而是既成事實。之后是服務業,有餐館嘗試用小型無人機上菜,也有機器快遞小哥,各種智能機器發明出來之后,大量留給人的服務崗位就會消失。如果你現在是倉庫管理員,或者坐在高速公路入口發卡,趕緊準備下一份工作吧。之后是企業中層,啟用各種交流軟件和自動工作流程軟件,企業內部上傳下達的事情少了,啟用商業智能軟件,輔助決策的參謀崗位也少了。之后是創造性工作,包括媒體工作,做主持人、做研究員、做建筑師,虛擬角色和軟件勝任愉快,連寫文章、作曲、畫畫、導致失業不是人工智能負面后果的全部,擔心還包括健康問題、非對稱戰爭等等。家里有了機器人服務員,人們衣來伸手飯來張口,只用當一個沙發土豆就可以了。大量無人飛機和機器士兵,改變了戰場的倫理——優勢一方沒有面對活人敵手的心理壓力,打起仗來點點鼠標,像打游戲;劣勢一方面抵御機器的進攻,連敵人的面都見不著,憤怒的情緒可能導向更多恐怖極端手段,把戰火引向敵方非軍事人員。
這些對人工智能改變社會的推測大體合乎邏輯,但并不帶來太大的困擾。人工智能造成的負面后果會被它帶來的好處抵消,人們相信積極影響遠遠大于消極影響,畢竟危險的、繁重的和乏味的工作由機器人來承擔更合適。
在主觀意圖一側,AI恐懼的程度會高出幾個級別。人們擔心的是機器產生壓迫人、奴役人、消滅人的意圖和行動。盡管這種擔心非常嚴肅,也不見得是杞人憂天,但此刻還不到真正需要恐懼的時候。就像看電影不能代替學物理一樣,面對AI發抖也不能代替冷靜的分析。確實沒有論據證明,只有生物才能產生意識,因此假設機器可能產生意識在科學上是“合法”的,但反過來,證實機器可能產生意識這個假設的論據,現在也還沒有出現。何必被一種可能性有多大都不知道的想法嚇破膽呢?除非你喜歡這種恐懼感,就像喜歡看鬼片一樣。

最近有三個“牛人”聊到這個話題。2016年4月,《三體》作者、科幻作家劉慈欣,百度首席科學家吳恩達,對話“未來人工智能20年”。梁冬主持對話,扮演對人工智能的發展憂心忡忡的人。按照“AI的客觀后果恐懼”和“AI的主觀意圖恐懼”分類法梳理三個人的觀點,先說主觀意圖一側。吳恩達的意見用一句歌詞就概括了,“一千年以后……”,他的意思是機器表現得像人一樣,成為有意識的物種,還早著呢,究竟會不會也不知道,何必擔心?梁冬說,模仿鳥造飛機不成功,人類造出飛行機器其實用了和生物界不同的方案,因此造出思考機器也不必了解人腦,對人腦的無知根本不是人工智能的發展障礙。吳恩達和劉慈欣都表示同意。三位一致認為,如果機器真成了物種,那也是人類的孩子,一開始會模仿父母(即人類)的行為,如果機器變成了壞孩子,人類也沒別人可埋怨。劉慈欣說,他特別“相信”人的“壞”,足以防范一個機器物種傷害人類自己。
客觀后果一側,三位都比較樂觀。吳恩達說,就算有工作機會被機器拿走了,更多更有趣的工作機會也會出現,而百度大腦、智能汽車、智能教育等等人工智能的成果,未來20年內,就可能改善人類的生活。劉慈欣說,AI在未來成為人類性伴侶將會很常見,這還只是毛毛雨,AI對社會的整體影響被嚴重低估了。比如說,如果機器接手世界上90%的工作,人們不需要工作也能生存,大學畢業可以退休,那時候,“我如何度過一生”這個問題的背景,和現在的情況將完全不同。
促成人工智能科學家和科幻作家對話,是百度公司“凡爾納計劃”的內容。人類歷史上很多新東西,都是科幻作家先寫到作品里,之后若干年才被科學家和發明家實現的。按照百度公司的說法,“尖端技術與科幻作家碰撞,讓科技更具想象力”。