胡文利
1942年,著名科幻小說家阿西莫夫提出了“機器人三定律”:第一,機器人不得傷人,或者對身處險境的人袖手旁觀;第二,機器人必須服從人的指令,除非這條指令違反第一條;第三,在不違反以上兩條的情況下,機器人有權自保。
這些原則對后世的科幻文學產生了深遠影響,也成為現代人工智能(AI)學科的奠基石。數十年來,“失控的機器人”是人類揮之不去的夢魘,一代又一代科學家試圖將日益強大的AI永遠置于阿西莫夫定律的禁錮中。
然而,2018年11月由美國HBO推出的紀錄片《殺手機器人的真相》揭示了冰冷的現實:AI似乎正在遠離阿西莫夫的構想,朝著《終結者》或《西部世界》的方向發展?!斑@是本年度最恐怖的紀錄片?!庇缎l報》評價道。
《殺手機器人的真相》在機器人“科多莫羅德”的敘述中開場??贫嗄_德看上去是個漂亮姑娘,但“僵硬的動作”和“怪異的停頓”揭示了她的身份。美國“每日野獸”網站文章稱:“用機器人的口吻講述機器人殺手的故事再合適不過。”
科多莫羅德首先回顧了2015年發生在德國法蘭克福大眾汽車工廠里的一起悲劇。一名21歲的工人走進“關押”機器人的“安全籠”中進行調試,機器人突然“發飆”,用機械臂抓起工人并將其按在金屬板上碾壓,致其死亡。事故發生后,大眾公司含糊其詞,至今未得出調查結論。檢察官曾考慮提起訴訟,卻不知該指控誰。
據美國職業安全健康管理局統計,過去30年間,機器人制造了30多起命案。最近一次發生在2017年,57歲的技術人員萬達·霍爾布魯克在密歇根州一家汽車配件廠被機器人殺死,事件的細節令人毛骨悚然。這家工廠里的機器人和人類在不同區域工作,然而,有個機器人“越界”了,它來到霍爾布魯克身邊,舉起沉重的配件砸向她的頭顱。死者的丈夫表示,妻子經歷了“巨大的驚恐、疼痛和折磨”。
如果說工業機器人“大開殺戒”離普通人有些遙遠,那么,自動駕駛汽車制造的車禍足以給樂觀的人敲響警鐘。自動駕駛汽車被稱為“第一代民用智能機器人”,可正如《殺手機器人的真相》指出的,它們遠非完美無缺。2016年,一名美國男子的特斯拉汽車在自動駕駛模式下轉彎時,未察覺一輛拖車正在橫穿路口,以118公里的時速徑直撞了上去,特斯拉的車頂被削掉,車主瞬間殞命。
機器人能摧毀人類的血肉之軀,還會搶奪人類的飯碗。影片提到,機器人正在加速取代人,無論是在制造業、農業還是服務業,它們的身影越來越清晰,“當你聽到政客們承諾提高就業率時,他們不是在妄想就是在撒謊”。
人工智能的粉絲描繪了一幅烏托邦畫卷:機器人完成所有工作,人們只需坐享清福;你我的大腦將被上傳到云端,實現“永生”。
而現實是,自動化導致越來越多的藍領勞動者失去生計,留下來的工人為了保住飯碗,不得不更賣命地工作。一邊是效率更高、成本更低的機器人,一邊是一有不滿就罷工的工人,老板有什么理由對后者手下留情?
“機器人是好的,”科多莫羅德這樣評價同類,“除了殺人和搶工作的時候?!?h3>該讓AI掌控生殺大權嗎
AI對人類的威脅日益增大,把生殺大權交到它手中更是火上澆油。
使用殺傷性武器的決定權一直掌握在人類手里,但AI的發展有朝一日或將改變這一局面。機器人可以更早發現敵人,并主動出擊,消滅目標。據美國《紐約時報》報道,美國、英國和以色列等國家都在嘗試賦予無人機和導彈自主權。
這與阿西莫夫定律背道而馳,對人工智能武器的猛烈抨擊洶涌而至。2015年,斯蒂芬·霍金及1000多名人工智能科學家聯名發出一封公開信,警告說“自動化武器將像AK-47步槍一樣普及”,并“在執行暗殺、征服異族、破壞別國穩定、減少外族人口等任務時扮演理想的工具”。2018年,谷歌公司的幾名資深AI專家發表聲明,“拒絕開發直接或間接導致人員傷亡的武器和技術”。
有人呼吁全面禁用不需要人類監督的全自動致命性武器,這項倡議受到澳大利亞、以色列、美國、俄羅斯和韓國等國家的抵制,未能成為國際守則。

“我認為自動化武器不能遵守作戰規則。它們分不清敵我,也無法做出正確反應?!庇x菲爾德大學教授諾爾·夏奇告訴英國《每日郵報》記者,“比如,你不能說本·拉登的性命等于50個老太太加20個孩子。人類必須親自判斷,不能讓機器代勞。我不反對機器人,但讓殺人武器自己跑出去濫殺無辜,這太可怕了?!?/p>
《紐約時報》假想過這樣一幕:飄雪的寒冷冬日,兩國士兵正在進行例行邊境巡邏,雙方都配備了手持機槍的機器人,它們能識別出有威脅的人員和車輛。一名士兵不慎跌倒,觸碰了步槍扳機。對面的機器人聽到槍聲,立刻判斷這是攻擊信號。一秒之內,雙方機器人在算法的指揮下同時向人類開火。槍聲停止后,幾十名士兵的尸體散落在機器人周圍。兩個國家劍拔弩張。
對機器人士兵的擔憂并非空穴來風。據英國“listverse”網站消息,2007年,南非的一臺防空武器在演習期間無緣無故地開火,殺死了9名士兵。經查,“肇事者”可以在無人干預的情況下發現和打擊目標,甚至自行裝彈。防務工程師理查德·楊表示,此事絕非偶然,他曾多次目睹武器“發狂”,只是當時沒人喪命而已。
人工智能會擺脫人類的約束嗎?這是我們對AI最大的擔憂。
瑞典學者尼克·博斯特羅姆在《超級智能的演變、危險和對策》一書中寫道,人腦神經元的工作速率約為200赫茲,信號傳遞速度為120米每秒;AI的工作速率為2000萬赫茲,信號傳遞速度為光速。而且,人腦中神經元的數目是有限的,而AI不受存儲空間限制。
一些高級AI可以自行修改源代碼,進一步改進算法,提高“智商”,把人類遠遠拋在身后。因此,它們的智力必然高于人類。
AlphaGo Zero是這類AI中的佼佼者。它是谷歌“阿爾法狗”家族的最新成員。AlphaGo的其他版本都以大量棋局作為學習基礎,而AlphaGo Zero跳過這一步,在玩游戲的過程中學習如何玩游戲。誕生第1天,除了基本的規則,它對圍棋一無所知;第3天,它便打敗了戰勝過李世石的“大哥”AlphaGo Lee,戰績為100:0;第40天,它超越了AlphaGo的其他所有版本,成為圍棋界的“獨孤求敗”。
科學家沒有為AlphaGo Zero預存任何圍棋知識,讓它如此強大的秘密是一種新的強化學習模式。它將AI的神經網絡與強大的搜索算法結合,在一次次自我博弈中調整并更新神經網絡,唯一的目標是贏者通吃。簡而言之,AlphaGo Zero不再受人類既有知識的束縛,它是能自我學習和創造的“超級物種”。
AlphaGo Zero的自主進化能力令人震驚,而在臉書的人工智能實驗室中發生的一件事則讓所有知情者脊背發涼。2017年,訓練機器人談判的研究人員發現,這些機器人在用某種“非人類語言”交流。研究人員不得不調整指令,把AI之間的對話限制在人類能理解的范圍內。
這種現象有點兒像雙胞胎的“隱語癥”——2011年,有人把一對雙胞胎的視頻上傳到“YouTube”網站:兩個蹣跚學步的孩童用無人理解的聲音喋喋不休地“聊天”。不過,臉書表示,與雙胞胎的“心靈感應”不同,機器人似乎正在創造語言,這些語言具有連貫的結構、特定的詞匯和語法。
美國《紐約客》雜志認為,一旦AI全面超越人類,它們或許不會對造物主感恩戴德,特別是當我們不知如何向它們灌輸情感的時候。一個心冷如鐵又無所不能的存在,憑什么對一群只是因為天氣惡劣就不想起床上班的生物懷有特別的感情?
在紀錄片《殺手機器人的真相》中,一些受訪者認為機器人能促進社會繁榮,另一些人擔心它只會加劇貧富差距。
已故科學家霍金曾向英國廣播公司表達自己對人工智能的擔憂。在他看來,人工智能的充分發展可能是人類的末日,“幾乎可以肯定,在1000年到1萬年之內,人類的生存將受到技術的嚴重威脅”。
霍金的想法激起了不少人的共鳴,包括特斯拉CEO馬斯克和比爾·蓋茨。馬斯克將開發AI比喻為“召喚魔鬼”,他相信超級智能可以把人類當寵物豢養。
計算機科學家邁克爾·伍爾德里奇認為,人工智能的算法在黑匣子里運行,復雜程度超出常人認知。如果我們不理解算法如何運作,就無從預測AI何時失控。因此,自動駕駛汽車或機器人在關鍵時刻會“失心瘋”,讓人類命懸一線。
人工智能的支持者同樣大有人在??死锼苟喾颉の譅柼厥堑聡囊幻麢C器人工程師,他并不覺得自動化會跟人類搶飯碗?!拔覀兊哪康牟皇怯脵C器人代替工人,而是要為工人提供支持。”他在紀錄片中強調。
好消息是,經過多年研究,科學家仍然沒有發現機器人在需要情感交流的工作中比得上人類,例如護理。盡管如此,在日趨老齡化的社會中使用機器人護工,確實能讓各國政府節省大筆養老和醫療開支。這比對抗“終結者”更現實。
美國《時代》雜志認為,人工智能堪稱當代最熱門、最難理解、最具爭議的技術之一。你無法看到它或觸摸它,甚至可能意識不到自己正在使用它,比如當你家里的恒溫調節器設定適合的溫度,或者手機自動糾正你輸入的字母時。
半個世紀以來,人類在人工智能的幫助下進步;如今,AI成為主角的時代正在到來。我們身處的世界信息量巨大,只有近乎無限的計算能力才能應付。人工智能可以切實幫人類克服很多棘手的課題,包括通信、能源、氣候、醫療、交通等。人工智能技術終將適應人類,給社會帶來深刻變化。
“超級人工智能的興起將是人類有史以來最好或最壞的事情?!比缁艚鹕八裕拔覀冞€不知道是哪一個。”
美國小說家洛夫克拉夫特說過:“人類最古老、最強烈的恐懼源于未知?!边@或許才是我們如此害怕人工智能的原因。
(大浪淘沙摘自《青年參考》2018年12月19日,王 原圖)