人類再厲害也抵擋不住的“殺手機器人”
“殺手機器人”一旦發展起來,可能導致武裝沖突以比以往任何時候更大的規模進行,而且速度比人類所能理解的還要快。于是很多人開始擔心,“這些自主武器可能被獨裁者和恐怖分子用來對付無辜人群。一旦潘多拉的盒子打開,就很難再關閉”。
人類智力超群,但受制于“肉身”的生理極限,有些地方去不了。在溫度過高過低或者有毒有害的環境下,機器人就是很好的選擇。而且,機器人不需要工資,不需要吃飯,不需要動員,也不會有心理疾病……好處簡直太多了。
《解放軍報》的一篇文章說,或許有那么一天,在戰場上沖鋒陷陣的不再是血肉之軀的“人”,而是“鋼鐵戰士”。軍人只需要坐在屏幕面前觀察和指揮,就像打電子游戲一樣。
全球著名信息服務商IDC(國際數據公司)最新發布的報告指出,2017年全球機器人相關(包括無人機、機器人相關軟硬件/服務)支出金額預估將達972億美元、較2016年成長17.9%。IDC預期未來五年機器人支出將加速成長、2021年達到2307億美元,復合年增率預估為22.8%。
人工智能的不斷發展,也讓未來戰場上出現“機器人士兵”的可能性正不斷增大。
英國《每日郵報》6月15日報道說,五角大樓已經發出一項標價1100萬美元的合同,以組建具有人類和機器人協同作戰能力的“聯合兵種班”,新系統可望在2019年年中之前完成。
專家預言,機器人將是戰爭的未來——而它的到來也許會比許多人預料的更快。“今日俄羅斯”電視臺報道說,前英國情報官員約翰·巴塞特去年曾表示:“有智慧的機器人武器是一種真實的存在,到2030年它們將會無所不在。到2025年前后的某個時候,美國陸軍實際上擁有的戰斗機器人的數目將多于人類士兵的人數。”
在美軍的各個部門,人機關系愈發緊密,士兵們已與機器伙伴建立起了嶄新的關系。
機器人家族中最拉風的,要數代號為“劍”的美軍戰斗機器人。它個頭不足1米,卻披掛“豪華”,裝備有四臺光學偵察瞄準設備、M-249機槍、M-16系列突擊步槍和M202-A16毫米火箭彈發射器等。它每分鐘可射出1000發子彈,而且命中率極高,幾乎達到100%。

科幻電影里的戰斗機器人
其他國家軍隊和各種武裝組織也在開發自己的戰斗機器人。2015年,俄羅斯在打擊極端組織“伊斯蘭國”時,六臺多用途戰斗機器人、四臺火力支援戰斗機器人和三架無人機同“仙女座-D”自動化指揮系統建立無人作戰集群,先于有人作戰力量行動,實施偵察與打擊。
敘政府軍隨后跟進實施清剿,整個戰斗持續了20分鐘,一舉消滅敵方70名武裝分子,而敘政府軍僅有四人受傷。
不過,被美軍部署到伊拉克的戰斗機器人“劍”還未開一槍就很快從戰場被撤回——因為它們做了可怕的事情:將槍口指向它們的人類指揮官。
機器人“叛亂”警示人們,關于機器人作戰的研究項目并非想象中那么順利。同時,公眾對“殺手機器人”的恐慌日益顯露。早在2012年,就有多個非政府組織啟動了他們稱之為“禁止殺手機器人”的運動,聯合國也就這個問題舉行了一系列國際會議。
據報道,全球116名機器人和人工智能企業的創始人日前簽署公開信,呼吁禁止使用“殺手機器人”。
報道稱,各國軍方正在研制致命自主武器,俗稱“殺手機器人”。它們可以獨立設計和選擇具體的作戰方案,而不依賴于人類操控者的判斷。報道警告說:“殺手機器人將把人類從殺戮決定中排擠出去,跨越了我們認為不應該超越的基本道德和倫理底線。”
包括美國太空探索技術公司首席執行官馬斯克在內的116名相關領域專家在公開信中警告說,“致命的自主武器有可能成為戰爭中的第三次革命。一旦它們發展起來,可能導致武裝沖突以比以往任何時候更大的規模進行,而且速度比人類所能理解的還要快”。尤其讓人擔心的是,“這些自主武器可能被獨裁者和恐怖分子用來對付無辜人群。一旦潘多拉的盒子打開,就很難再關閉”。
去年12月,聯合國《特定常規武器公約》的123個成員國同意正式討論這類自主武器,其中19個成員國已要求徹底禁止這種武器。但原定于8月開始的相關討論會議被推遲到11月。公開信對會議被推遲表示遺憾,并敦促各方在11月會議之前加倍努力。
馬斯克近來已多次表達對人工智能、機器人技術發展的擔憂。他曾連同物理學家霍金等多名專家于2015年簽署公開信,要求禁止開發“超過人類控制意義之外的自主武器”。馬斯克警告說,“人工智能可能通過創建假冒的賬戶、發送虛假新聞等方式操縱信息,甚至可以引發戰爭”。
但并非所有人都贊成這種觀點。臉書創始人扎克伯格就反對說:“對那些否定人工智能、試圖營造世界末日論的人,我確實不太理解。他們的言論某些時候讓我感覺太不負責任。未來5-10年,人工智能將在許多方面改善我們的生活質量。”
事實上,現代戰爭商業化背后,禁止“殺手機器人”已來不及,但只要我們避開那些真正糟糕的技術,一切都會好起來的。
就像法律專家們認識到的那樣,這些問題會變得更加復雜。一方面,他們更加擔心也更加著急的是機器人的道德問題;另一方面,他們關注的是現代戰爭的本質及其商品化。
在任何情況下,道德問題都不可能輕易地被制定為“一刀切”的原則。歷史學家尤瓦爾·赫拉利指出,就像無人駕駛汽車將需要一些規則來決定如何應對不可避免的或者可能致命的碰撞:機器人試圖拯救誰?尤瓦爾·赫拉利說,我們可能將會得到兩種模式:利己主義者(優先考慮司機)和利他主義者(這把別人放在第一位)。
在2012年人權觀察組織的一份關于“殺手機器人”的報告中,有一些科幻的偏見。報告稱:“區分恐怖的平民和危險的敵人需要士兵去理解人類行為背后的意圖,這是機器人做不到的。”此外,“機器人不會受制于人類情感和同情,這可以為殺戮平民提供重要的檢查”。但是,第一個說法是對信仰的陳述——機器人用生物識別技術難道不能比一個使用本能的受驚士兵做出更準確的評估嗎?至于第二種說法,你會認為:有時候當然會。其他時候,戰爭地區的人們肆意強奸和屠殺。
這并不是要反駁報告中對自動機器人士兵的恐懼。相反,它讓我們回到了關鍵問題,這不是技術問題,而是戰爭。
自動化軍事技術的問題與戰爭本身的變化本質密切相關。在這個恐怖主義和叛亂的年代里,戰爭不再有開始或結束、也不再有戰場或軍隊——正如美國戰略分析家安東尼考斯曼所說:“現代戰爭的教訓之一就是戰爭不再被稱為戰爭。”無論如何,這都不像是諾曼底登陸。
戰爭總是使用最先進的技術,“殺手機器人”也一樣。你可以肯定的是有人從中獲利。
無論如何,讓我們試著抑制我們最糟糕的沖動:把犁頭打成刀劍,告訴國際軍火貿易他們不能制造殺手機器人就像告訴軟飲料制造商他們不能生產橙汁一樣。
(《解放軍報》2017.8.24等)