
一個大雪紛飛的日子,在愛沙尼亞與俄羅斯的交界,兩國士兵在邊界例行巡邏。雙方皆配備履帶機器人,這種機器人配有自動槍械和光學系統,還可分辨外來的威脅,例如人類或是交通工具。當雙方士兵與機器人在凹凸不平的地面慢慢交會時,一名愛沙尼亞士兵不慎跌倒時誤發射了他的突擊步槍。俄羅斯機器人記錄到槍聲后將此舉解釋為攻擊行動,隨即決定進行適當回應。不到一秒鐘,愛沙尼亞和俄羅斯的機器人在算法的命令下,將武器轉向人類目標然后發射。一陣槍林彈雨過后,12名或死或傷的士兵四散倒臥在他們的機器人同伴旁,最后兩國對此番事故自我檢討,或者將此次攻擊歸咎到對方身上。
雖然上述情景只是個假設情況,而且看似荒誕,但如今這些戰用機器人早有雛形。愛沙尼亞的米爾蘭姆機器人公司研發出一款名為THeMIS的機器人,全名為“履帶混合模塊化步兵系統”。它靠小型坦克履帶移動,上方有遠端武器炮塔,可搭載小口徑或大口徑的機械槍。機器人還具備鏡頭與目標追蹤軟件,讓炮塔可按照設定追逐人類或物體。米爾蘭姆公司堅稱,目前這套系統仍由人類控制,但其實機器人身上的零件組成已能讓它自行判斷眼前情況,辨別可能的作戰目標并進行追蹤。米爾蘭姆公司官網上指出:“THeMIS有近乎無限的潛在用途。”
過去一直是由人類做出在戰爭中使用致命武器對抗作戰目標的決定,但這種情況可能很快面臨改變。人工智能、機器影像辨識和機器人等現代科技產物將組建全球一部分的軍隊,讓武器系統不需人類參與,便可確認并殺死戰場上的敵人。
俄羅斯、中國、美國都在努力研發可將武器與感應器、定位計算機配對的自動平臺;英國和以色列早已使用具有自動化功能的武器,包括可找尋并攻擊敵人雷達的飛彈、無人機,以及無需人類命令便可立刻決定發射炮火的交通工具與船艦。
什么情況下軍事武器可以或應該代替人類,決定由機器取走人類的生命?這個問題跨越道德,讓人思考戰爭本質,軍事策劃者、人權組織、國防官員、研究分析師和倫理學家如今尚未取得共識。
自動殺人機器并不是新科技,數十年前已有武器系統可以獨立辨識并攻擊目標的技術。20世紀80年代及90年代,美國戰爭策劃者已測試可獨自辨認目標的魚叉反艦飛彈和戰斧巡弋飛彈,兩種飛彈至今仍在人為監控的情況下使用。
美國最先進的自動武器主要著重防御應用。2003年美國在伊拉克的大型基地遭攻擊,美國陸軍研發出反火箭、火炮和迫擊炮系統來偵測空中威脅,向人類操作員示警。當操作人員按下按鈕,該系統可追蹤并發射可在空中自行爆炸的彈藥來炸毀威脅來源,藉此減少人員傷亡與損害。
華盛頓智庫“新美國安全中心”高級研究人員沃克表示:當大量飛彈襲來,人類不可能說:好,你先擊毀那個飛彈。作戰信息中心的人員沒辦法跟上飛彈速度,因此美國策劃人員發展出方陣近迫武器系統(Phalanx)和神盾戰斗系統,這可以連結到船艦和飛機上的感應器辨認空中威脅,操作人員輸入資料后,可自動發射艦上飛彈攻擊。這些系統已被事先安排好,只要人類在某個時間點按下按鈕,機器就可做出一切決定。在沃克看來,致命自動武器的定義為:一旦人類解除限制,便可獨立決定摧毀對象與目標的武器。


沃克于2014年~2017年擔任美國國防部副部長,當時他負責執行國防部的“第三次抵消戰略”,即利用美軍軍事最核心的創新科技來打擊敵人的可能優勢。美國第一次抵消戰略在美國前總統艾森豪威爾任內實施,旨在建立美國核優勢;第二次在上世紀七八十年代,強調美國計算機和導彈科技;第三次抵消戰略結合人類與機器的優點,利用人工智能、機器自動化來打造更快、更聰明的網絡。
獨立致命武器的支持派認為,機器可降低錯誤發生率,機器人可在幾毫秒內分析人類想象不到的大量數據,并判斷出使用武器限制損害的最佳時間點。但是反對派表示,一旦致命機器人犯錯,將招致更血腥的嚴重沖突,這需要自動武器持有國相互合作與約束。
聯合國工作組織也擬定方向,作為未來國際自動殺人機器人的規范,希望讓制造商承擔更多責任。聯合國召開為期五天的聯合國特定傳統武器公約(CCW)會議,希望可制定自動武器的管理規范。雖然多數國家支持自動武器在某種程度上由手動控制,但卻難以解釋“實務上有效人為控制的意義”,因此外交官認為達成條約的機會不高。
美國海軍戰爭學院軍事倫理教授波林·尚克斯·考林表示,人類會譴責某種行動或將之合理化,這牽涉到人類會判斷這些行動是否符合道德,如果今天不是人類作決定,那這就變成機器對機器的問題了。
特斯拉創辦人馬斯克、已故英國理論物理學家霍金、蘋果共同創辦人沃茲尼克及多位人工智能研究人員于2015年曾簽署一封公開信,其中警告自動武器可能成為暗殺、顛覆國家、壓迫人民和選擇性殺害特定種族的工具。馬斯克曾指出,人工智能武器恐成人類最大威脅,一旦打開了潘多拉的盒子,就再也關不上了。
盡管如此,沃克對道德問題的看法顯得稍加樂觀,他認為未來人類不用過分擔心將控制權交給自動武器代理,但他坦言人類必須采取行動,而且還有漫漫長路需要努力。