張 煌 杜雁蕓
伴隨著自主武器系統攻擊事件的頻發(1)2018年8月,委內瑞拉總統馬杜羅遭遇無人機炸彈襲擊;2019年9月,沙特阿美公司油田遭遇胡賽武裝無人機群攻擊;2020年1月,伊朗“圣城旅”指揮官蘇萊曼尼少將被美國“收割者”無人機刺殺;2020年11月27日,伊朗頂級核物理學家穆赫辛·法赫里扎德被由人工智能技術遠程控制的自主機槍擊斃。,全球范圍內新一輪自主武器系統軍備競賽也在如火如荼地展開。研發、使用自主武器系統存在的問題與潛在風險,日益成為國際社會關注的焦點。包括聯合國秘書長、聯合國軍控委員會負責人、紅十字國際委員會負責人和歐洲議會議長在內的國際政要,堅決反對致命性自主武器的研制和使用,對其可能引發的人道主義災難表達深切的憂慮(2)Stephen Goose,“The Case for Banning Killer Robots: Point”,Communications of the ACM,Vol.58,No.12,2015,pp.43-45.。2018年7月,超過2400名AI領域科學家發表《致命性自主武器系統宣言》,承諾“將不參與也不支持致命性自動武器的開發、制造、貿易或使用”,并呼吁各國政府和政府領導人“利用強大的國際規范、法規和法律打擊致命性自動武器”(3)Future of Life Institute,“Lethal Autonomous Weapons Pledge”,https://futureoflife.org/lethal-autonomous-weapons-pledge/,2021-01-23.。這是自1955年《羅素-愛因斯坦宣言》發表以來,國際社會再次針對一項武器,出現如此聲勢浩大、旗幟鮮明的和平主義行動,由此也引發學界圍繞自主武器系統攻擊的正義性展開一系列戰爭倫理追問。目前,國內學界圍繞自主武器系統的戰爭倫理研究,主要聚焦于無人機等半自主武器系統作戰的正義性分析(4)參見錢鋮、石斌《“雄蜂”的陰影——美國無人機作戰對當代戰爭倫理的挑戰》,《世界經濟與政治》2013 年第8期;梁亞濱《武裝無人機的應用:挑戰與影響》,《外交評論(外交學院學報)》2014年第1期;張煌、劉軼丹、張鵬:《無人機作戰的倫理困境》,《倫理學研究》2015年第2期。,對于自主化程度更高的完全自主武器系統的戰爭倫理討論,除了董青嶺在《新戰爭倫理:規范和約束致命性自主武器系統》一文中做了具有開拓性意義的研究之外(5)董青嶺:《新戰爭倫理:規范和約束致命性自主武器系統》,《國際觀察》2018年第4期。,更進一步的專題研究仍然暫付闕如。國外學界特別是美國學者關于這一問題的研究成果相對豐富一些,相關討論涉及倫理、法理以及技術規制等多個層面(6)Arkin Ronald ,“The Case for Ethical Autonomy in Unmanned Systems”,Journal of Military Ethics,Vol.9,No.4,2010; Michael C.Horowitz ,“The Ethics & Morality of Robotic Warfare: Assessing the Debate over Autonomous Weapons”,Daedalus,Vol.145,No.4,2016; Aaron M.Johnson and Sidney Axinn,“The Morality of Autonomous Robots”,Journal of Military Ethics,Vol.12,No.2,2013.,但由于國家立場、意識形態、價值觀念層面的差異,加之自主武器系統的不斷發展以及作戰方式的不斷創新,現有的研究遠未達到完善的地步。本文在界定自主武器系統并梳理其作戰應用歷程的基礎上,從經典正義戰爭理論的分析框架出發,系統討論當前各類自主武器系統作戰應用對于“開戰正義”“交戰正義”和“戰后正義”相關倫理準則所構成的挑戰,同時,展望未來完全自主武器系統的軍事應用前景,就其對戰爭倫理體系可能造成的進一步沖擊,做出具有前瞻性的評估與探討。
當前,學界普遍認為,自主性是自主武器系統的典型標簽,因此主要圍繞武器的自主性對自主武器系統進行定義。2012年11月,美國國防部出臺了發展自主武器的官方文件——《國防部指令3000.09》(武器系統中的自主性),將自主武器系統定義為“在激活后無需進一步人工輸入就可以自主選擇目標和交戰的武器系統”(7)US Department of Defense,“Autonomy in Weapon Systems”,https://fas.org/irp/doddir/dod/d3000_09.pdf,2021-01-23.。雖然美國國防部對自主武器系統給出了官方定義,但是,當前學界對于自主性在武器系統中的具體體現,仍然存在一定的分歧與爭議。特里克·德·格里夫(Tjerk de Greef)等人認為,自主武器系統是一種“算法決定一切、自主行動且以無需人類干預方式運行的武器系統”(8)Tjerk de Greef,Kees van Dongen,et al.,“Augmenting Cognition: Reviewing the Symbiotic Relation Between Man and Machine”,Foundations of Augmented Cognition ,Vol.4565 ,2007.。希瑟·羅夫(Heather Roff)提出,可以從三個方面來衡量武器系統的自主性程度:即自我機動性、自我指導性和自我決定性(9)轉引自 Michael C.Horowitz,“When Speed kills: Lethal Autonomous Weapon Systems,Deterrence and Stability”,Journal of Strategic Studies,Vol.42,No.6,2019。。奧斯汀·懷亞特(Austin Wyatt)進一步指出,自主武器系統的自主性,還體現為能夠“以超出人類期望的方式學習并擴展其殺戮功能和能力”(10)Austin Wyatt,“Charting Great Power Progress Toward a Lethal Autonomous Weapon System Demonstration Point”,Defence Studies,Vol.20,No.1,2020.。綜合以上定義,筆者認為,真正意義上的自主武器系統是一種擁有完全自主權的殺人機器,在人工智能技術的驅動下,它能夠自主完成整個攻擊流程,即自主運用傳感器搜索潛在目標的數據信息,通過數據分析自主識別、鎖定目標,自主評估使用武力的后果并自主作出攻擊決策。
自主武器系統是人工智能技術推動武器裝備創新發展最新和最典型的案例之一,它在軍事領域的橫空出世,引發了“人-武器”相互關系和戰斗力生成機理的顛覆性轉變,其發展歷程體現了武器系統由“非自主-半自主-完全自主”的演進趨勢。
傳統戰爭是“人類中心化”的戰爭。從冷兵器時代開始,人類操控武器作戰就是戰爭對抗模式的基本特征,武器必須要與人緊密結合才能夠形成戰斗力。 伴隨人類戰爭由冷兵器戰爭向熱兵器戰爭再到信息化戰爭的演進,武器裝備的作用半徑和毀傷能力不斷增長,但人類作為武器裝備操控者的角色和地位始終沒有發生改變。
人工智能技術的發展及其軍事應用,使得人在作戰系統中的地位日益由“人在回路內”向“人在回路上”轉變,人類從居于系統之中的操控者轉變為居于系統之上的監督者。阿富汗戰爭中,美國使用“捕食者”無人機對基地組織和塔利班頭目進行“定點清除”式攻擊,揭開了無人化反恐戰爭的序幕。在此后的十余年間,基地組織重要頭目阿爾哈特希、“自由者大會”頭目奧馬爾·霍拉薩尼、巴黎《查理周刊》恐怖襲擊事件策劃人納賽爾·安西、“伊斯蘭國”頭目阿布·巴克爾·巴格達迪、伊朗高級將領卡西姆·蘇萊曼尼等人盡皆命喪于無人機之手。作為美軍執行定點清除行動的利器,察打一體的“捕食者”“收割者”無人機,實質上是一種有人監督的半自主武器系統,已經具有自主導航定位、自主識別目標和半自主火力打擊的能力,人類實時監控無人作戰系統的運行,可以在必要的時候對武器系統進行干預和接管。
完全自主武器系統的出現,徹底顛覆了人類作為武器操縱者和致命行為執行者的歷史。2017年,國際非政府組織“自主武器系統禁令運動”對外公布了一段視頻。一群由人工智能技術驅動的機器“殺人蜂”闖入教室,通過人臉識別方式,將十余名正在上課的學生瞬間擊殺,場面極度血腥。雖然視頻中的殺人場景是由計算機模擬而成,但在現實世界中,各軍事強國圍繞自主武器系統的軍備競賽已在如火如荼地展開。早在2012年11月,美國國防部就出臺了發展自主武器的官方文件——《國防部指令3000.09》,規定了研發半自主和自主武器的通用原則(11)US Department of Defense, “Autonomy in Weapon Systems”,https://fas.org/irp/doddir/dod/d3000_09.pdf,2021-01-23.,并實施了聯合無人空戰系統、高自主性遠程反艦導彈、X-47B無人機、“快速輕量化自主”以及“拒止環境協同作戰”等一系列自主武器技術和裝備研發項目(12)[美]保羅·沙瑞爾:《無人軍隊:自主武器與未來戰爭》,朱啟超等譯,世界知識出版社2019年版,第111-130頁。。目前,美軍已裝備無人機7000多架,在伊拉克、阿富汗戰場上投入運用的地面輪式機器人超過12000個(13)[美]保羅·沙瑞爾:《無人軍隊:自主武器與未來戰爭》,朱啟超等譯,世界知識出版社2019年版,第7頁。。與美國自主武器的發展相同步,在2015年的敘利亞戰爭中,俄羅斯軍方就開始將整建制的半自主機器人投入戰場。2017年7月,俄羅斯軍工制造商卡拉什尼科夫聯合企業宣布,他們即將發布基于神經網絡的全自主作戰模塊(14)Russian News Agency,“Kalashnikov Gunmaker Develops Combat Module Based on Artificial Intelligence”,https://tass.com/defense/954894,2021-01-23.。俄羅斯人工智能專家梅德韋杰夫·米哈伊爾預言,2030年俄羅斯軍隊將主要由自主機器人組成(15)Kelsey D.Atherton,“Russian Roboticist Sees All-But-Lethal Autonomous Weapon Systems by 2030”,https://www.c4isrnet.com/unmanned/2018/09/17/russian-roboticist-sees-all-but-lethal-autonomous-weapon-systems-by-2030/,2021-01-23.。除美、俄以外,諸如英國的“雷神”無人機和“硫磺石”反坦克導彈、印度的“奧拉”無人機以及韓國的SGR-A1機器人哨兵等,都是具有自主作戰能力的武器系統(見表1)。

表1當前各國自主武器系統研發、應用情況一覽表(16)參見[美]保羅·沙瑞爾《無人軍隊:自主武器與未來戰爭》,朱啟超等譯,世界知識出版社2019年版,第111-130頁。
隨著各國軍隊自主武器系統的自主程度越來越高,使用頻次越來越密集,由此產生的人道主義災難事件和戰爭倫理危機也越來越多。其中,美國無人機反恐造成的倫理危機和人道主義災難,成為全球輿論和國際社會的熱點話題。“9·11”事件以來,美軍以反恐名義,長期在阿富汗、巴基斯坦、伊拉克、索馬里、也門以及敘利亞等主權國家領空范圍內執行無人機“定點清除”任務,殃及大量無辜平民。據統計,自2004年以來,美軍僅在巴基斯坦一國,就使用無人機進行了408起反恐襲擊,造成包括大量平民在內的3000多人喪生(17)Jamil Bhatti,“News Analysis: Latest U.S.Drone Strike in Pakistan May Further Escalate Bilateral Tension”,http://www.xinhuanet.com//english/2017-09/18/c_136617222.htm,2021-01-23.。圍繞美軍無人機反恐的正義性與合法性問題,倫理學界和法學界已經進行過廣泛討論。2020年1月3日,美軍在伊拉克使用無人機擊斃了伊朗少將蘇萊曼尼,這是美國首次針對主權國家的重要軍事領導人實施“定點清除”行動,使得此次刺殺事件在正義性方面面臨更多、更尖銳的爭議。2020年11月27日發生的伊朗核科學家遇刺事件,又引發了國際社會對于自主武器系統匿名攻擊問題的關注。自主武器系統的隱秘性使得強權國家領導人相信,依靠自主武器系統實施遠程打擊不需要承擔戰爭責任且毫無風險可言,也使得這種匿名攻擊的戰爭倫理后果比以前更難評估。由于各軍事強國競相研發、部署和使用自主武器系統,智能化時代的軍事對抗日益呈現出“去人類決策”“去人類中心化”的發展趨勢。作為人工創造物,自主武器系統正在取代人類的戰爭主體地位,開始控制戰爭,進而對傳統的戰爭倫理觀念構成強有力的沖擊與挑戰,人類戰爭向著失控的方向發展。
正義戰爭理論認為,戰爭的正義性應當體現在目的、手段和責任三個方面,必須實現“開戰正義”“交戰正義”和“戰后正義”的統一。“開戰正義”是實現戰爭正義的起始點,主要是探討國家訴諸戰爭權利的正義性問題。依據經典正義戰爭理論以及相關國際法規定,影響“開戰正義”的倫理原則主要包括“正當理由”“合法權威”“正當目的”“成功的可能性”“相稱性”和“最后手段”六個方面(18)左高山、李建華:《戰爭鏡像與倫理話語》 ,湖南大學出版社2008年版,第31頁。。
當前,對于自主武器系統引發戰爭倫理風險的探討,主要是將其作為一種戰爭手段,分析其在交戰過程中的手段正義性問題以及體現“戰后正義”的責任分配問題,也有少數學者關注到戰爭手段對于戰爭目的的反向影響。德國達姆施塔特工業大學的馬蒂亞斯·恩格勒特(Matthias Englert)等人認為,自主武器系統在作戰手段中的道德應用,也是將價值觀和行為準則輸入智能化作戰平臺的控制系統(19)Matthias Englert,Sandra Siebert and Martin Ziegler,“Logical Limitations to Machine Ethics with Consequences to Lethal Autonomous Weapons”,Computer Science,No.11,2014.。自主武器系統的軍事應用,特別是智能化情報分析和作戰輔助決策系統的出現,將機器意志滲透到開戰決策之中,反向影響了戰爭決策者看待戰爭的價值觀念與行動操守,從而對“開戰正義”的倫理原則構成沖擊與挑戰。具體而言,自主武器系統對于“開戰正義”的挑戰,主要體現在對“正當理由”“合法權威”以及“最后手段”三個原則的挑戰。
在正義戰爭理論體系中,“正當理由”是維系“開戰正義”的首要原則。正義戰爭理論對正當理由原則有嚴格的限定,即唯一正當的開戰理由是針對外敵侵略進行自衛。自主武器系統的軍事應用,沖擊了自衛作為開戰正當理由的唯一性。
一方面,當前自主武器系統作戰應用所展現的低成本和高效率,導致技術先發國家不斷弱化“正當理由”的倫理標準。較之傳統作戰平臺,目前各類半自主和完全自主武器系統不僅具有平臺無人、造價低廉等優勢,而且可以通過匿名攻擊規避戰爭責任,其在經濟、政治以及人員安全方面的成本優勢,使其被廣泛應用于高技術局部戰爭、反恐作戰等行動中。以美國的無人機反恐為例,邁克爾·沃爾澤(Michael Walzer)認為:“較之其他殺傷形式,無人機容易太多了,以至于讓我們產生不安。它是既誘人又危險的技術手段。它使我們的敵人比以往更脆弱,而我們的士兵沒有任何風險。……但技術太好,使用的標準就會逐步放松。”(20)Michael Walzer,“ Just & Unjust Targeted Killing & Drone Warfare”, Daedalus,Vol.145,No.4,2016.察打一體的武裝無人機,不僅強化了西方軍事強國打贏反恐戰爭的手段優勢,也相應降低其發動戰爭的物質成本與道德成本,導致少數霸權國家弱化約束開戰正義的道德準則,以所謂“預先防衛”的名義,濫用開戰權利。
美國使用無人機刺殺蘇萊曼尼的軍事行動即是一個典型的例子。關于刺殺蘇萊曼尼的原因,特朗普在2020年1月13日發表的個人推文中表明心跡:“蘇萊曼尼是否對美國進行襲擊并不重要,因為他過去的可怕經歷!”(21)轉引自Alex Hobson,“An Eye for an Eye Doesn’t Make Americans Safer”,Foreign Policy,No.2,2020。這是對特朗普復仇心態的直接表述,也意味著在特朗普政府認同的開戰理由中,自衛已經不是具有優先級的理由。而特朗普在白宮的講話中也指出:“如果任何地方的美國人受到威脅,我準備并采取任何必要的行動。特別是指伊朗。”(22)National Security & Defense,“Remarks by President Trump on the Killing of Qasem Soleimani”,https://www.whitehouse.gov/briefings-statements/remarks-president-trump-killing-qasem-soleimani/,2020-09-01.只要受到“威脅”而非遭受實質性傷害就可以“采取任何必要的行動”,意味著在強大技術優勢的加持下,美國反恐戰爭日益在戰略上迷失,“預先防衛”驅使下的反恐戰爭在全球呈擴大化趨勢,從而使國際安全環境陷入更為嚴峻的形勢之中。
另一方面,未來完全自主武器系統的軍事應用,將使得機器意志貫徹到開戰決策之中,導致維系“開戰正義”的“正當理由”原則面臨更嚴峻的挑戰。
伴隨軍事智能化的發展,自主武器系統參與戰爭決策的程度日益加深。早在1990年,美軍作戰實驗室進行實戰化仿真的推演結果,形成了以“左勾拳”為核心的低風險、低傷亡作戰方案,這也成為促成美國老布什政府作出海灣戰爭決策的關鍵依據(23)俞中明、楊旭:《海灣戰爭地面決戰的運籌分析》,中國系統工程學會軍事系統工程委員會第七屆年會論文集,1995年,第54-57頁。。“9·11”事件以來,美國等人工智能技術先發國家構建了“棱鏡”等智能化大數據分析平臺(24)Aiesha Y.Khudayer,Rasha M.Abdulsalam,et al.,“Impact of NSA-PRISM to National Information Security Strategy & Policy”, International Journal of Information and Communication Technology Research,Vol.4,No.1 ,2014.,運用大數據挖掘、模擬仿真、兵棋推演等技術手段預判可能存在的國家安全威脅,以此作為先發制人發動軍事行動的憑據。當前,以美軍為首的北約國家在針對伊斯蘭極端宗教組織的反恐戰爭中,廣泛應用人工智能技術預判恐怖威脅,通過對過往恐怖襲擊的時間、空間、人員、裝備以及政治誘因、宗教誘因、民族誘因等歷史信息進行關聯分析,預測未來可能發生的恐怖襲擊事件和鎖定恐怖嫌疑人。美軍針對潛在恐怖嫌疑人實施先發制人的“特征攻擊”,即目標一旦被自主武器系統認定具有恐怖分子的某些行為特征,美軍就可以在未經國會批準的情況下實施“斬首”行動(25)Daniel Byman,“Why Drones Work:The Case for Washington’s Weapon of Choice”,Foreign Affairs,Vol.92,No.4,2013.。
未來,智能化戰爭決策系統自主能力的深度發展,可能進一步推動開戰決策模式由機器輔助決策向機器代替人決策的顛覆性轉變,由此也引發對開戰理由公開性與透明性的質疑。依據正義戰爭理論,正當的開戰理由不僅是合法的,而且應當是公開透明、為公眾所理解的。自主武器系統一旦掌握開戰決策權,將導致公開的開戰程序日益被隱秘的算法、模型和運算程序所取代,以各類算法、模型為基礎的軍事威脅評估系統被視作嚴格保護的機密,這些不透明、不接受質疑、難以被理解的算法和模型被用于戰爭決策,而國際社會和普通民眾根本無法了解決策程序的具體運行規則,很難對其決策結果的正義性提出質疑。
自主武器系統對于“開戰正義”的挑戰,同樣體現為對“合法權威”原則的沖擊。正如美國賓夕法尼亞大學的亞倫·約翰遜(Aaron M.Johnson)所指出的:“自主武器系統引發了諸多倫理問題,但最核心的問題是將決定人類生命的權利由人轉交給機器。”(26)Aaron M.Johnson and Sidney Axinn,“The Morality of Autonomous Robots”,Journal of Military Ethics,Vol.12,No.2,2013.作為開戰正義的重要原則,“合法權威”原則規定戰爭是國家與國家之間的行為,主權國家和聯合國是發動正義戰爭的合法權威。自主武器系統的軍事應用,使得各類智能化作戰平臺取代人類進行戰爭籌劃與決策成為可能,不僅顛覆了傳統作戰模式,也沖擊了“合法權威”原則的道義基礎。以韓國三星公司研發的SGR-A1機器人哨兵為例,據國際電氣和電子工程協會的報道,這款部署在韓朝邊境的武裝哨兵機器人,一旦切換至完全自主攻擊模式,將會掌握生殺予奪的權力,自主攻擊所有越境的入侵者(27)Jean Kumagai,“A Robotic Sentry for Korea’s Demilitarized Zone”, IEEE Spectrum,Vol.44,No.3,2007.。
更值得關注的是,自主武器系統一旦掌握自主開火權,成為發動戰爭的“合法權威”,可能增加“意外戰爭”爆發的風險。“意外戰爭”是指由于核打擊方面的錯誤評估、錯誤判斷、錯誤警報或核事故而引發的軍事危機,甚至導致核戰爭的爆發。在傳統的危機預警模式下,人在系統的回路之中,既是危機反應的最終決策者,也是危機處理最后的“保險裝置”。新美國安全中心高級研究員保羅·沙瑞爾(Paul Scharre)指出:“人類并不完美,但他們能夠同情對手并考慮全局。與人類不同,自主武器無法理解其行動的后果,也無法在戰爭的邊緣懸崖勒馬。”(28)[美]保羅·沙瑞爾:《無人軍隊:自主武器與未來戰爭》 ,朱啟超等譯,世界知識出版社 2019年版,第357頁。冷戰期間,美蘇雙方多次收到錯誤的核攻擊信息,得益于人類的理性判斷和人機雙重檢查機制,雙方最終選擇了克制而非升級的應對策略,避免了核戰爭的意外爆發。自主武器系統的軍事應用,可能帶來危機預警模式的革命性變化。在危機處理規程中,自主武器系統通過目標識別提取匹配算法規則的有效信息,自主進行具體分析和判斷。這種由算法主導的自主預警模式,雖然在一定程度上提升了國家危機預警的速度和效率,但是,由于將人類從危機預警的系統回路中剔除出來,人機雙重檢查制度和重新考慮機制無法實現。邁克爾·哈斯丘(Michael E.Haskew)認為:“使用自主武器的國家會在危機方程式中引入一個超出其直接控制范圍的變量。”(29)轉引自[美] 保羅·沙瑞爾《無人軍隊:自主武器與未來戰爭》,朱啟超等譯,世界知識出版社2019年版,第345頁。人類干預缺失造成的不可控性與算法運行的不可控性雙重疊加,進一步增加了危機的不穩定性和發生“意外戰爭”的風險。
在傳統的“開戰正義”標準之下,戰爭作為解決國際爭端的一種手段,受到嚴苛的條件約束,即戰爭必須是政治、外交手段窮盡之后的最后選擇。這是由于戰爭作為國之大事,關乎國家、民族的生死存亡,戰爭失敗的沉重代價,決定了戰爭手段的運用只能是不得已而為之。近年來,國際上自主武器系統攻擊事件頻發,對于美國等軍事強國而言,低成本、高效率且可以保證攻擊方絕對安全的各類自主武器系統,已經日益將戰爭變成一架“無風險”“零傷亡”的機器,進而使得戰爭從“最后手段”蛻變為“最優手段”。概而言之,由人工智能技術驅動的自主武器系統對于“最后手段”原則的挑戰,具體體現在三個方面:
首先,自主武器系統挑戰了“最后手段”原則成立的前提條件。費爾巴哈在《宗教的本質》中指出:“人類的恐懼多源自于未知。”戰爭作為人類處理紛爭的最后手段,也是源于交戰各方對戰爭結果的未知。在信息技術不發達的古代,人們無法準確預知戰爭的勝負,處于“戰爭迷霧”籠罩下的政府對戰爭的決策必然是慎之又慎。人工智能技術以及自主武器系統的軍事應用,使得戰爭的結果在一定程度上從“未知”變為“已知”。人工智能科技領域的突破性進展和軍事應用,催生了戰爭工程、兵棋推演以及作戰實驗室等一系列戰爭預判與評估手段。利用上述科技領域的最新進展,推演戰爭的進程并預測戰爭的結果,成為智能化戰爭的重要特征。借助人工智能技術的風險評估、推演和研判功能,少數霸權國家在預知戰爭結果的情況下,可以將遙遠的、不確定的軍事威脅評估為確定的、迫在眉睫的戰爭前景,并以此作為濫用“預先自衛權”和發動“預防性戰爭”的現實憑據。同時,利用自主武器系統攻擊的低成本、零風險以及隱秘性等優勢,這些國家可以逃避“尸袋綜合癥”帶來的國際、國內輿論壓力,從而在輕易逾越戰爭門檻的同時占據道義制高點。
其次,自主武器系統打破了逐漸升級的“最后手段”使用模式。對于戰爭與政治的關系,克勞塞維茨(Carl Von Clausewitz)在《戰爭論》中有過精辟的論述:“戰爭是政治通過另一種手段的繼續。”從時間關系上來看,這句話也說明政治手段與戰爭手段之間存在一個前后接續的關系。傳統的戰爭往往經歷由照會、聲明、磋商、談判和斡旋等低成本政治外交手段,再向軍事滲透、介入、威懾、干預、打擊等高成本、高風險戰爭手段逐漸升級的過程。各類自主武器系統以其“無人化”“非接觸”的打擊優勢,顛覆了逐漸升級的手段使用模式。特朗普政府在沒有掌握確鑿證據的情況下,就使用無人機擊斃伊朗軍事領導人蘇萊曼尼,也反映了在解決國際爭端中,較之暴力程度更低但程序繁瑣、時間冗長的政治、外交手段,能夠一錘定音且毫無風險的自主武器系統顯然更受到政治家的青睞。
最后,自主武器系統進一步挑戰了維系“最后手段”原則的均衡性基礎。“最后手段”原則成立的基礎,在于敵對雙方力量總體上處于均勢狀態,從而使他們審慎思考未來戰爭的殘酷性和取得戰爭勝利的慘重代價。正如美國內戰時期著名將領羅伯特·李(Robert Lee)所言:“戰爭殘酷是件好事,否則人們真的會愛上戰爭。”于爾根·奧特曼(Jürgen Altmann)等學者指出,自主武器系統的軍事應用,進一步打破了國際軍事競爭的戰略穩定性(30)Jürgen Altmann and Frank Sauer,“Autonomous Weapon Systems and Strategic Stability”,Survival,Vol.59 ,No.5,2017.。自主武器系統實現人與武器的實質性分離,極大提升作戰效率,同時使己方戰爭傷亡無限趨近于零。美軍正在實施的“第三次抵消戰略”,就是試圖利用人工智能技術和自主武器系統的質量優勢,抵消戰略對手在傳統信息化作戰力量上的數量優勢。未來,具備人工智能的“無人軍團”,可能成為世界一流軍隊的“標配”,從而進一步拉大國際間軍力差距,在國際軍事力量博弈中塑造強者恒強、弱者愈弱的格局。
“交戰正義”又稱戰爭手段正義,主要體現為交戰過程中攻防雙方如何規制作戰手段的使用方式,使其符合倫理道德規范的要求。隨著各國加大對自主武器系統的研發投入,其在交戰過程中的自主性不斷提升。譬如,英國軍方研發的“雷神”無人機,設置有主動攻擊目標的可選模式,可在戰場上自主搜尋和攻擊敵對目標(31)[美]保羅·沙瑞爾:《無人軍隊:自主武器與未來戰爭》,朱啟超等譯,世界知識出版社 2019年版,第120頁。;韓國軍方部署的SGR-A1機器人哨兵,可以使用弱光攝像頭和模式識別軟件鎖定敵人,并在必要的時候自主決定開火射擊(32)Jean Kumagai,“A Robotic Sentry for Korea’s Demilitarized Zone”,IEEE Spectrum,Vol.44,No.3,2007.;俄羅斯軍方裝備的“平臺-M”陸戰機器人,可以在智能化系統控制下自主收集情報、搜索和摧毀固定及移動目標(33)[美] 保羅·沙瑞爾:《無人軍隊:自主武器與未來戰爭》,朱啟超等譯,世界知識出版社 2019年版,第125頁。。上述具有高度自主性的武器系統引發了國際社會的關注,自主武器系統能否在交戰過程中遵循戰爭倫理規范,成為當前國內外學者爭議的焦點。一旦完全不受約束的自主武器系統取代人類成為戰爭唯一主體,必將挑戰維系“交戰正義”的基本倫理原則,可能導致人類社會面臨前所未有的自我毀滅風險。自主武器系統在交戰中的倫理風險,具體體現在以下幾個方面:
“區分原則”是體現“交戰正義”的一項基本原則。正如沃爾澤所指出的:“在任何情況下都不能攻擊非戰斗人員,永遠不能將其作為軍事行動的目標。”(34)[美]邁克爾·沃爾澤:《正義與非正義戰爭:通過歷史實例的道德論證》,任輝獻譯,江蘇人民出版社2008年版,第140頁。“區分原則”強調交戰各方必須對攻擊目標嚴格加以區分,以達成對平民特別是老弱婦孺、俘虜和喪失戰斗能力者等弱勢群體的保護。
自主武器系統帶來了戰場區分模式的革命性變化。在傳統戰爭模式下,區分目標由人類完成,自主武器系統利用算法取代人力主導的區分方式,即通過計算機編程的方法,將區分規則轉化為自主武器系統能夠理解的一組算法,由此也引發了學界的廣泛質疑。2018年5月,3100多名谷歌員工聯名抵制軍用無人機作戰項目Maven,成為震驚全球的科技倫理事件(35)Rahul Kalvapalle,“What is Project Maven? The Pentagon AI project Google Employees Want Out of”,https://globalnews.ca/news/4125382/google-pentagon-ai-project-maven/,2021-01-23.。這一事件的爆發,集中反映了學界對于算法區分模式潛在風險的憂慮。
史蒂文·烏姆布雷洛(Steven Umbrello)一針見血地指出,機器算法區分存在區分目標的盲區,無法可靠地區分合法與非法目標(36)Steven Umbrello,“The Future of War: Could Lethal Autonomous Weapons Make Conflict More Ethical?”,AI & Society,Vol.35,No.1,2019.。在他看來,并非所有的區分標準都可以轉化為算法植入機器之中。當前,軍服、武器裝備等一系列明確標識可以設置區分規則,然而,在近期爆發的幾場高技術局部戰爭和反恐作戰中,為應對北約國家的軍事打擊優勢,對手采取寓軍于民的方式,軍事目標缺乏明顯的視覺標識,這給自主武器系統執行區分任務帶來巨大挑戰。
特羅·卡爾皮(Karppi Tero)等人進一步指出,自主武器系統難以勝任涉及目標主觀情緒的區分任務(37)Karppi Tero,B?hlen Marc and Granata Yvette,“Killer Robots as Cultural Techniques”, International Journal of Cultural Studies,Vol.21,No.2,2018.。譬如,對于自主武器系統而言,區分投降信號的真偽比區分軍民困難得多,因為傳遞投降信號的方式、方法和途徑呈現巨大的多樣性。人類對于投降信號的識別源于自身的經驗、閱歷和主觀感受,難以通過編程方式轉化為可供機器區分操作的算法。
此外,錢鋮等人認為,自主武器系統在貫徹區分原則方面還存在跨文化環境障礙,美軍在無人機反恐作戰中,將是否攜帶管制武器作為區分恐怖分子的重要特征,忽視了中亞地區游牧民族成年男性有隨身佩戴刀具的文化傳統(38)錢鋮、石斌:《“雄蜂”的陰影——美國無人機作戰對當代戰爭倫理的挑戰》,《世界經濟與政治》2013年第8期。。事實上,任何區分操作都是在具體的地域環境、文化環境和宗教環境中進行的,將自主武器系統置于跨文化環境的陌生戰場,可能造成識別區分操作的失誤。
在筆者看來,即便技術的發展使得上述區分盲區不復存在,以自主武器系統取代人類來區分目標,在道義上仍是難以接受的,因為它違背了確立“區分原則”的初衷。“區分原則”作為戰爭倫理規約的重要內容,它所體現的根本精神就是對人類生命權利的尊重。沃爾澤提及的“裸兵”案例啟示我們,無論對于目標的識別多么契合“區分原則”,我們都需要在殘酷的戰爭決策中留有道義的余地,以彰顯敬畏生命、憐憫弱者的人性光輝(39)“裸兵”的案例是沃爾澤在《正義與非正義戰爭:通過歷史實例的道德論證》中摘錄羅伯特·格里福斯一戰回憶錄的一段:“在后方支援線,我打了個盹,剛醒過來,從射擊孔透過望遠鏡看去,大約700碼外一個德國人。他正在德國的第三線洗澡。我討厭向一個沒有防衛的人射擊,就把步槍遞給了一個中士。”。一旦自主武器系統可以自行決定敵人生死,就會從根本上抹去人性在戰場上的存在感,進而可能帶來重大倫理風險。這種倫理風險并非主要由算法區分的運行錯誤所導致,而是因為算法區分剝奪了人類決定同類生死的權利和尊嚴,踐踏了“珍視生命、同情弱者”的社會價值觀念。在一個由自主武器系統主宰殺戮的社會,人類缺乏對殺戮行為的道德負擔,其結果必然使殺戮變得毫無人性。
在正義戰爭理論中,“相稱性原則”是“區分原則”的重要補充。“相稱性原則”強調在針對合法目標進行攻擊時,也必須視目標和作戰環境的具體情況,選擇使用相稱的作戰方式和暴力手段,避免過度殺傷和重復傷害(40)周桂銀:《國際政治中的外交、戰爭與倫理》,南京大學出版社2018年版,第287頁。。
在技術樂觀主義者眼中,自主武器系統堪稱滿足“相稱性原則”的典范:一是空間相稱,依托人工智能技術實現目標自主鎖定,精確限定作戰區域,選擇性殺傷目標,最大限度避免“附帶傷害”;二是時間相稱,以美國X-47B無人機為代表的自主武器系統,能夠實現“半小時覆蓋全球”的快速打擊,避免“馬拉松”式消耗戰;三是傷亡相稱,“自主武器系統”實現人與武器的實質性分離,且按照智能作戰推演優化作戰方案,使實際傷亡無限趨近于零。基于此,美國智庫蘭德公司宣稱,比起傳統軍事力量,自主武器系統能更好地遵循“相稱性原則”(41)Lynn E.Davis,Michael J.McNerney,et al.,“Armed and Dangerous?UAVs and U.S.Security”,RAND,2014.。
相對于美國軍方的樂觀主義態度,倫理學界以理性的態度分析問題,指出自主武器系統雖然在數據處理與速度計算方面擁有人類難以比擬的優勢,但在進行相稱性的道德評估方面仍存在諸多瓶頸。
沙瑞爾從簡單環境與復雜環境的比較視角指出,自主武器系統僅能評估太空、深海、極地等簡單環境下的相稱性問題,卻難以在復雜環境下遵循相稱性原則。他認為:“在人口稠密地區遵循相稱性原則變得困難得多。……這將要求機器掃描目標周圍的平民區域,估計潛在的附帶損傷,然后判斷是否應該進行攻擊,這個過程很難實現自動化。”(42)[美]保羅·沙瑞爾:《無人軍隊:自主武器與未來戰爭》,朱啟超等譯,世界知識出版社2019年版,第288頁。在復雜環境下,權衡軍事目標價值與預期平民傷亡之間的相稱性關系,涉及極其復雜的道德推理和評估能力,這是當前自主武器系統難以做到的。
錢鋮等人從物理傷害與心理傷害的視角指出,軍事行動既要在物理毀傷層面滿足相稱性原則,也需要在心理傷害層面滿足相稱性原則。自主武器系統能夠對物理毀傷進行精確評估,進而衡量物理層面的相稱性問題,卻難以準確評估對敵國民眾造成的持久性心理創傷,他們將美國無人機“定點清除”行動給所在國家民眾帶來心理層面的創傷稱之為“雄蜂的陰影”( the Shadow of the Drone)(43)錢鋮、石斌:《“雄蜂”的陰影——美國無人機作戰對當代戰爭倫理的挑戰》,《世界經濟與政治》2013年第8期。。在筆者看來,“雄蜂的陰影”反映了當前美國利用自主武器系統反恐面臨的道德困境。在某些西方媒體的宣傳解讀下,無人機等半自主或自主作戰平臺是以精準的物理摧毀來占據道義的制高點,媒體大肆宣揚依托無人機清除恐怖分子首領的“輝煌戰果”,卻刻意掩飾阿富汗、也門、索馬里、敘利亞等反恐區域內民眾反美情緒日益高漲、恐怖主義源頭難以清除以及“三股勢力”活動愈演愈烈等一系列問題。可以想象,在未來自主武器系統成為執法工具的時代,當局者可能對其快捷高效的執法能力贊譽有加,而普通民眾也會對“機器人暴政”產生強烈的心理恐懼。
奧特曼等人從戰術和戰略的視角指出,自主武器系統即便在戰術層面能夠遵守相稱性原則,在戰略層面也難以遵循相稱性原則。針對少數美國學者提出的利用“蜂群”攻擊敵對國家的核武器輸送系統,提升美國彈道導彈防御能力的方案,他們認為,自主武器系統執行的任務雖然只是小規模戰術行動,但是可能造成戰略影響(44)Jürgen Altmann and Frank Sauer,“Autonomous Weapon Systems and Strategic Stability”,Survival,Vol.59,No.5,2017.。一旦自主武器系統與核武器攻防技術深度融合,就必然會增加核戰略對手之間的緊張和不信任,進一步刺激各國優先發展“先發制人”的自主武器系統,降低核大國之間的戰略互信,威脅全球核戰略穩定性。
在筆者看來,技術樂觀主義者片面強調“自主武器系統”在簡單環境、物理毀傷以及戰術層面遵循“相稱性原則”的優勢,刻意忽視其在復雜環境、心理傷害以及戰略層面違背“相稱性原則”的問題,反映出對“相稱性原則”內涵的曲解。沃爾澤指出:“我們要把‘造成的傷害’——這想必不僅包括對個人的直接傷害,也包括對人類長期利益的傷害——與傷害對勝利目標的促進作用加以權衡比較。”(45)[美]邁克爾·沃爾澤:《正義與非正義戰爭:通過歷史實例的道德論證》,任輝獻譯,江蘇人民出版社2008版,第118頁。在沃爾澤看來,“相稱性原則”在時間維度包括兩方面含義:一方面是短期相稱性,另一方面是長遠相稱性。自主武器系統在簡單環境、物理毀傷以及戰術層面的行為影響都是短期的,而在復雜環境、心理傷害以及戰略層面的行為影響將是長期持續的。兩者相較,維護人類長期利益的持久和平無疑更為重要。
“戰后正義”又稱戰爭責任正義。人類既是享有發動戰爭權利的主體,又是承擔戰爭責任的主體。正如沃爾澤所指出的:“責任分配是對正義論的重要檢驗。……只要我們準確地指出責任者或者我們的責任分配和道德判斷符合戰爭的實際經驗,并對戰爭的所有痛苦保持敏感,就會極大地增強正義論的力量。如果最終無人負責,在戰爭中就沒有任何正義可言。”(46)[美] 邁克爾·沃爾澤:《正義與非正義戰爭:通過歷史實例的道德論證》,任輝獻譯,江蘇人民出版社2008版,第261頁。“戰后正義”主要關注人類應當承擔的戰爭責任,具體體現在戰后秩序重建、侵略罪行審判、戰爭賠償以及制裁等戰爭責任分配問題。在智能化戰爭模式下,伴隨自主武器系統的出現與應用,人作為戰爭的責任主體從作戰系統中脫離出來,將生死決定權委托給機器。對于這一變化,馬庫斯·舒爾茨克(Marcus Schulzke)、斯瓦蒂·馬利克(Swati Malik)、邦尼·多徹蒂(Bonnie Docherty)等戰爭倫理學者認為,自主武器系統無法識別、承擔責任并接受懲罰,原有的戰后正義規約難以約束一場完全由機器人來進行的戰爭(47)Marcus Schulzke,“Autonomous Weapons and Distributed Responsibility”,Philosophy & Technology,Vol.26,2013;Swati Malik,“Autonomous Weapon Systems: The Possibility and Probability of Accountability”,Wisconsin International Law Journal,Vol.35 ,No.3,2018;Bonnie Docherty,“Mind the Gap: The Lack of Accountability for Killer Robots”,http://autonomousweapons.org/mind-the-gap-the-lack-of-accountability-for-killer-robots/,2021-01-23.,相應的倫理風險體現為:
在傳統戰爭模式下,人類作為軍事行動的遂行者和武器的直接操控者,其所從事的戰爭行為與其導致的后果之間存在清晰的對應關系。依據正義戰爭理論,如果有可以辨認的戰爭罪行,就必定有可以辨認的罪犯。伴隨自主武器系統的軍事應用,人類在戰爭系統中的定位由“人在回路內”逐漸向“人在回路上”乃至“人在回路外”轉變,作戰主體與作戰手段之間的距離日益拉大,當前西方軍事強國廣泛使用的“捕食者”“收割者”等半自主武裝無人機,就是典型的“平臺無人,體系有人”作戰模式。無人機操控員在千里之外實現對目標的遠程打擊,他們在感官上與戰場隔絕可能導致其行為與責任的分離。正如紐約大學法學系教授菲利普·阿斯頓(Philip Alston)所指出的:“作戰人員通過計算機按鍵與遠程視頻反饋來實施打擊,因此存在以游戲心態來殺人的風險。”(48)Philip Alston,“Study on Targeted Killings”,A/HRC/14/24/ADD.6,New York: United Nations,General Assembly,2010,p.25.可以預見,一旦真正意義上的自主武器系統大規模投入戰場,人類將從瞄準和擊殺的作戰鏈條中被移除,這會從根本上改變人與戰爭、人與殺戮之間的關系,也將徹底打破正義戰爭理論所強調的“戰爭罪犯”與“戰爭罪行”之間的對應關系。美國亞利桑那州立大學的希瑟·羅夫(Heather Roff)和卡內基梅隆大學的大衛·丹克斯(David Danks)指出:“人類對于自主武器系統的信任源自于人類對其行動可預測性的判斷。”(49)Heather M.Roff and David Danks,“‘Trust but Verify’: The Difficulty of Trusting Autonomous Weapons Systems”,Journal of Military Ethics,Vol.17,No.1,2018.如果自主武器系統錯誤的殺戮行為超出了人類可以預料的范圍,人類就可能產生不需要對殺戮行為負責任的情緒,這種“問責空白”可能會導致更多的殺戮和痛苦。
自主武器系統的作戰應用,不僅會造成機器難以代替人類承擔戰爭責任的“問責空白”,而且可能導致戰爭責任的分配困境。傳統戰爭模式下,責任主體構成相對簡單,主要由政治家、軍隊指揮官和士兵等特定對象構成。自主武器系統研發鏈條的復雜性和高技術密集性,促使程序員、算法工程師、數據工程師以及自主武器裝備生產商等新興責任主體出現,自主武器系統研發過程的復雜性與作戰應用過程的復雜性雙重疊加,導致戰爭責任分配面臨巨大的困境,甚至可能出現責任“轉嫁”的風險。一方面,自主武器系統的所有國可以通過匿名攻擊的方式,使得自主武器攻擊難以溯源,導致被攻擊國家的盲目猜測,進而逃避戰爭罪責。譬如,2010年發生的“震網”病毒攻擊伊朗核電站事件以及2020年發生的伊朗核科學家遇刺事件,都是采取自主武器系統匿名攻擊的方式,使得攻擊者可以逃避戰爭責任的追究;另一方面,敵對國家也可以利用智能化作戰平臺對作戰網絡的高度依賴,采取電磁干擾、木馬植入、黑客入侵等方式,操控其進行大量違背人道主義準則的軍事行動,而將罪責轉嫁給智能化作戰平臺的所有國。2011年,伊朗電子戰專家成功俘獲美軍RQ-170“哨兵”無人機的案例,說明在自主武器領域,技術先發國家與后進國家一樣,都可能面臨戰爭責任“轉嫁”的風險。
當前,學界對于自主武器系統的戰爭責任正義研究,主要是從倫理規約的層面,探討人工智能技術的軍事應用給戰爭責任分配帶來的挑戰以及如何應對這種挑戰。然而,在筆者看來,實現戰爭的責任正義,不僅要靠法律法規和倫理原則的約束,更需要將承擔戰爭責任作為一種文化進行傳承。正如美國五星上將道格拉斯·麥克阿瑟所述:“軍人必須承擔保護弱者和沒有武裝者的責任。這是他擔任這個神圣職務的根本理由。”(50)轉引自[美]邁克爾·沃爾澤《論戰爭》 ,任輝獻等譯,江蘇人民出版社2008年版,第33-34頁。軍人作為一種社會尊崇的職業存在的道德基礎,就在于軍人以自我犧牲的精神替代平民承擔更大的責任與風險。軍人具有“保家衛國”“不怕犧牲”“英勇殺敵”等武德精神,正是責任文化傳承的鮮明體現。一旦自主武器系統取代人類成為戰爭主體,戰爭將會進入“后英雄主義時代”,各類自主武器系統承擔絕大部分的作戰風險,戰爭中的軍人被置于比平民還要安全的境地,他們將不再被期待具備過人的勇氣和大無畏的精神,從而在無形中瓦解了確認軍人職業身份的道義根基,也意味著軍人“武德精神”的終結。
自主武器系統在軍事領域的廣泛應用,將軍事智能化的廣闊前景展現在世人面前,同時,也使得人類戰爭較之以往任何時刻都更為接近失控的邊緣。這種由自主武器系統帶來的失控風險,貫穿于開戰、交戰、戰后的整個戰爭過程之中,體現為對戰爭倫理規約的顛覆性挑戰。
在“開戰正義”層面,自主武器系統所展現的巨大軍事價值,導致“開戰正義”倫理原則的弱化,進而降低了開戰門檻并增加了爆發“意外戰爭”的可能性。首先,“正當理由”原則日益由抵御侵略的被動自衛弱化為主動先發制人的“預先防衛”。“無風險”“零傷亡”的自主武器系統攻擊,促使少數霸權國家無視“開戰正義”對于“正當理由”原則的嚴苛限制,導致“預先防衛”權利的濫用和預防性軍事打擊的頻繁發生。其次,開戰“合法權威”日益由主權國家的國家意志轉向智能化自主武器系統的機器意志。人類依賴智能化作戰指揮決策系統進行戰爭決策,從本質上來說就是一種基于技術信任的授權,將本應歸屬于主權國家的開戰權利讓渡給機器,導致國家意志可能被機器意志操控。再次,戰爭作為“最后手段”日益向“最優手段”轉變。自主武器系統強化了技術先發國家在“反恐戰爭”和高技術局部戰爭中的優勢,促使少數霸權國家將遙遠的、不確定的軍事威脅評估為確定的、迫在眉睫的戰爭前景,頻頻以自主武器攻擊的方式逾越戰爭門檻,使全球安全與戰略穩定性面臨更加嚴峻的挑戰。
在“交戰正義”層面,自主武器系統取代人類成為戰爭主體,沖擊了維系“交戰正義”的“區分原則”和“相稱性原則”。一方面,對于遵循“區分原則”而言,自主武器系統以計算機算法區分取代人力區分,徹底顛覆了傳統的戰場區分模式,同時也使得作戰行動遵循“區分原則”面臨新的挑戰。自主武器系統的算法區分,只能利用軍服、武器裝備等明顯的視覺標識來設置區分規則,從而造成一系列區分盲區。同時,基于計算機算法的區分模式將決定人類生命的權利交給冰冷的機器,導致人類對戰場殺戮行為缺乏道德責任感。另一方面,對于遵循“相稱性原則”而言,自主武器系統只能評估簡單戰場環境、物理毀傷方面以及短期戰術層面的相稱性問題,卻難以評估涉及復雜戰場環境、心理層面傷害以及長期戰略層面的相稱性問題,從而在本質上背離了“相稱性原則”的道義要求。
在“戰后正義”層面,非人化的自主武器系統難以替代人類成為承擔戰爭責任的主體。首先,自主武器系統沒有能力為自己的犯罪行為感到內疚,因此難以承擔戰爭責任。自主武器系統的作戰應用,導致戰爭責任主體日益呈現人機分離和責任主體多元化的發展趨勢。承擔戰爭責任作為維系人類“戰后正義”的倫理規約,難以適用于一場自主武器系統作為責任主體的戰爭。自主武器系統在法律上不能夠視為自然人,如果強行用約束人類戰爭行為的規范生搬硬套,必然會造成問責缺位的責任鴻溝,進而造成戰爭中犯錯不受懲罰的文化在軍隊盛行,并可能導致戰時行為的極端非人化。其次,即便理論上人類應當承擔“殺手機器人”的罪責,然而真正實現責任到人仍然面臨諸多瓶頸。機器人的罪行需要在設計者、生產者、管理者、使用者、監督者等諸多主體之間進行“責任分攤”,進而容易引發“責任擴散”,責任如何在諸多主體之間進行公正的分配也缺乏明確的標準,并且可能造成責任“轉嫁”的風險。最后,一旦自主武器系統替代軍人承擔戰爭責任,也將在無形中瓦解社會對于軍人職業身份認同的道德基礎,甚至導致軍人“武德精神”的消弭。