徐能武 葛鴻昌
[內容提要] 隨著新科技革命的發展,人工智能在軍事領域的應用日益廣泛并催生一系列致命性自主武器,因而對國際人道主義和人權、國際法以及國際軍控機制日益構成威脅與挑戰。對此,國際社會應多措并舉、折沖樽俎,大力推進致命性自主武器系統軍控談判。中國應會同有關各國一道,積極推動聯合國多重機構提前多層次、主導性介入談判過程,明確強調通過友好協商尋求各方都能接受的方案,積極支持成立確保透明、問責和法治原則的多邊國際監管體系,穩步推進致命性自主武器系統軍控的艱難談判。
習近平總書記在中共十九大報告中號召“加快建設制造強國,*本文為國際軍事合作辦公室資助課題“致命性自主武器系統軍控研究”的階段性研究成果。加快發展先進制造業,推動互聯網、大數據、人工智能和實體經濟深度融合”,*習近平:《決勝全面建成小康社會 奪取新時代中國特色社會主義偉大勝利——在中國共產黨第十九次全國代表大會上的報告》,人民出版社,2017年,第30頁。強調把握好人工智能革命這一重大歷史機遇。近年來,人工智能在軍事領域的應用直接催生了致命性自主武器系統(LAWS,Lethal Autonomous Weapons Systems),引起國際安全形勢的巨大變化。致命性自主武器系統正在成為一些國家追求利益的一種戰略手段,它所造成的嚴重威脅和挑戰也引起越來越廣泛的關注,因此,國際社會推動致命性自主武器系統軍控談判既艱難又緊迫。致命性自主武器系統軍控包含一定的權利和義務,因此,相關國家的參與就意味著接受這種形式的收益與成本。聯合國作為最具權威的全球性安全機制,對于推進致命性自主武器系統軍控談判具有不可或缺的建構作用。中國應會同各有關國家一道大力推動聯合國等多種機構多層次、主導性地介入致命性自主武器系統軍控談判過程,主張和堅持通過友好協商尋求各方都能接受的方案,積極支持成立確保透明、問責和法治原則的多邊協調機構,穩步推進談判進程,在捍衛中國權益的同時,為維護國際安全穩定貢獻智慧和力量。本文擬分析致命性自主武器系統的緣起及其威脅與挑戰,重點論述中國應該如何與聯合國等機構一起推進相關軍控談判。
致命性自主武器系統是指這樣的武器系統,它們具有最先進的人工智能、機器人和自動控制能力,不需人類干預,就能選擇目標、決定是否進行打擊,并能致人喪失生命。關于致命性自主武器系統是否已能用于實戰,目前尚存在爭議,但某些國家的特定實驗室正在進行有關的開發研究,則是不爭的事實。2017年,在聯合國“致命性自主武器系統問題政府專家組”會議上,有些代表團認為,完全自主武器系統尚不存在,但另一些代表團則指出,存在一些前體技術,還有一些國家部署了自主性程度越來越高的技術。*United Nations,“Report of the 2017 Group of Governmental Experts on Lethal Autonomous Weapons Systems,” December 2017,p.7.2015年7月召開的國際人工智能聯合會議曾在開幕式上宣讀了物理學家霍金(Stephen Hawking)、語言學家和麻省理工學院教授諾姆·喬姆斯基(Noam Chomsky)、特斯拉(Tesla)行政總裁馬斯克和蘋果公司聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)等上百位專業人士的聯名公開信,信中稱人工智能技術可使完全自主武器“無需幾十年,而是幾年內就可以開發應用”。*Stuart Russell,Stephen Hawking,Elon Musk,et al ,“Autonomous Weapons: An Open Letter from AI & Robotics Researchers,” https://futureoflifeinstitute.org/open-letter-autonmous-weapons/.(上網時間:2018年6月5日)總體上可以確定的是,致命性自主武器系統正在加速走向人類,在世界上引起廣泛憂慮。
第一,科技革命推動致命性自主武器系統的興起。第三次科技革命帶來的電子計算機技術、激光技術等新興科技為武器裝備自動化程度的大幅提高提供了可能,這是致命性自主武器系統發展的必要基礎。高度自動化的武器可在無人協助的情況下自我完成攻擊或防御動作,但必須由人類提前預設程序,并由人對其攻擊目標的識別、決策及其方式選擇做出特定限制和要求,這種武器無法做出自我判斷和抉擇。二戰時期德國研制的Fritz X導彈作為世界上第一代精確制導武器,已具有對目標進行一定程度的自動搜索及打擊的能力。有學者認為Fritz X甚至“可以稱作第一個無線電控制的無人機”。*Ty McCormick,“Lethal Autonomy: A Short History,How Killer Robots Became More Than Just Scary Science Fiction,” Foreign Policy,January 2014.二戰后,美國大力支持自主武器系統的研發并居于領先位置。在20世紀70年代的越南戰場,美國首次在戰爭中成功使用激光制導的“智能炸彈”完成對敵軍目標的打擊,同時部署了無人偵察機通過遠程遙控在一定范圍內進行情報的拍攝、搜集,發揮了自主武器的獨特優勢。1980年,美國開始投入使用“密集陣”近防系統。該系統運用高性能的計算機進行一系列程序設定,具有快速開火、電腦控制、雷達引導等特征,但被預設為“只參與瞄準防御點內及預定速度范圍之間行進的目標”*Vincent Boulanin and Maaike Verbruggen,“Mapping The Development of Autonomy in Weapon Systems,” Stockholm International Peace Research Institute,November 2017,p.38.,不具備差別對待目標的能力。可以說,這些早期致命性自主武器系統主要用于根據預先設定的程序對目標進行識別和打擊,自動化、無人化的優勢減少了人員的直接參與,但在選擇和決策過程中仍完全依靠人類,自主化程度和處理問題的能力處于較低水平。
第二,人工智能加速致命性自主武器系統的發展。進入21世紀以來,隨著人工智能的飛速發展和國際安全形勢的日益嚴峻,智能化的無人作戰系統作為維護國家安全的“護身符”“殺手锏”,逐步走向更廣闊的現實戰場。智能模擬、精確識別、深度學習及大數據處理等關鍵技術的突破,助推致命性自主武器系統實現了飛躍式發展。從2002年起,美國開始綜合采用無人機和傳統空襲的方式在也門戰場進行秘密定點清除行動。*Amrit Singh,“Death by Drone,Open Society Foundations,” Open Society Justice Initiative,August 2015,p.31.2002年11月,美國“捕食者”無人機在薩那東部精準獵殺基地組織頭目阿布·阿里(Abu Ali)及其他5名武裝分子,無人機從此成為美國反恐戰場上的常備武器。2006年,韓國在武裝智能機器人領域取得進展,并將其部署在朝韓邊境的非軍事區。它是一款由三星設計的SGR-1機槍機器人,裝有熱量和運動探測器,可識別2英里以外的潛在目標并對目標進行全自動跟蹤和定位。其配備的5.5毫米機槍和40毫米榴彈發射器可經人授權后進行射擊。*Mark Prigg,“Who Goes There? Samsung Unveils Robot Sentry That Can Kill From Two Miles Away,” Daily Mail,September 15,2014.2013年7月,美國諾思羅普·格魯曼公司研制的X-47B無人機創造了“第一次實現自主戰機從航母甲板彈射起飛”*Clay Dillow,“What The X-47B Reveals about the Future of Autonomous,” Flight Popular Science,July 6,2013.的歷史,為美軍隨后的“艦載無人空中加油系統”項目奠定了技術基礎。
智能化無人作戰系統使海軍裝備的自主性大幅提升。美國在2016年5月測試的“海上獵手”號無人反潛戰艦長約132英尺,最高航速可達27節,可在無人操作的情況下在海上連續航行數月。美國媒體稱其因獵潛能力可成為“敵軍潛艇的噩夢”。*Cillian Zeal,“US Military Unveils Monstrous Drone Warship ‘Sea Hunter’,” Western Journal,February 6,2018.憑借雄厚的軍工科研能力和豐富的實戰經驗,俄羅斯在無人戰車領域占據領先優勢。由俄羅斯國防出口公司自行研發的“天王星-9”無人戰車2016年9月首次披露。其配備多種傳感器,激光告警系統及熱敏和光學相機,能夠自行探測和獲取4英里外的目標。操作員在1.8英里內的移動載具中既可對其進行人工操作,也可設置預定程序。*Daniel Brown,“ Russia Says It Has Deployed Its Uran-9 Robotic Tank to Syria — Here’s What It Can Do,” Business Insider,May 15,2018.這些無人戰車成為俄羅斯參與敘利亞地緣博弈的重要工具。
由此可見,人工智能革命引發的技術浪潮推動武器裝備朝著擬人化、自主化方向發展,實現檢測、識別、跟蹤、交會等一系列行為的自我處理。這樣的致命性自主武器系統已經遍布海、陸、空、太空等各個領域,賦予武器裝備解決簡單問題的權限,進一步減少對操作人員數量和技能水平的依賴,極大地提高了作戰效能。
第三,大國戰略誘導致命性自主武器系統的研發。人工智能革命正在改變戰爭的基本態勢。為追逐在新一輪軍事競爭中的領先位置,各大國爭相制定相關戰略和政策,鼓勵本國致命性自主武器系統的研發,提升人工智能的軍事化應用程度,以圖占據世界新軍事革命的制高點。美、俄、英、以色列、韓等擁有高科技軍事力量的國家正在研發減少人類參與的致命性自主武器系統。其將研發出的新技術很可能使完全自主機器人變為現實。
早在2007年,美國國防部就在其無人系統路線圖中寫道,對于處理器技術來說,最終目標是用同等或更快的思維速度、更強的記憶能力以及訓練和經驗所獲得的反應等機械傳真取代操作員。*US Department of Defense,“Unmanned Systems Roadmap 2007-2032,” December 2007,p.53.2009年5月18日,美國空軍發布了《無人機系統飛行計劃2009-2047》,為未來40年的無人機發展謀篇布局,其中強調“完全自主”是未來無人機系統所需的綜合能力之一。*Headquarters,United States Air Force,“United States Air Force Unmanned Aircraft Systems Flight Plan 2009-2047,” May 2009,p.50.2018年3月,美國在提交給聯合國“致命性自主武器系統問題政府專家組”會議的立場文件中稱,“致命性自主武器系統領域的新興技術可以提高國家在運用武力時降低平民傷亡風險的能力……相比于貶低或禁止致命性自主武器系統領域的新興技術,美國應鼓勵相關創新。”*The United States of America,“Humanitarian Benefits of Emerging Technologies in the Area of Lethal Autonomous Weapon Systems,” March 2018,p.6.俄羅斯在人工智能領域同樣不甘示弱。俄軍在2015年制訂了一項雄心勃勃的研發計劃并獲得軍事工業委員會的支持,它預定在未來十年30%的戰斗力將由遠程遙控自主機器人平臺組成。*Tamir Eshel,“Russian Military to Test Combat Robots in 2016,” Defense Update,December 31,2015.有專家稱,“俄羅斯近幾年正試圖追趕美國和中國在機器人、無人機及其他潛在的自主武器方面的發展進度”。*John Dyer,“Ivan the Terminator: Russia Is Showing Off Its New Robot Soldier,” Vice News,May 26,2016.這種大國間在自主武器領域的軍備競賽極易打開致命性自主武器系統的魔盒,將世界拖入“終結時代”。
同時,致命性自主武器系統可為國家削減戰斗人員,降低戰爭消耗,實現武器裝備的代際超越。這為對內承受資源人口壓力、對外面臨和平安全威脅的國家提供了新的戰略思路。例如,日本和以色列擁有高度先進的技術部門并面臨獨特的人口挑戰,對致命性自主武器系統的研發可能有更大興趣。*Greg Allen Taniel Chan,“Artificial Intelligence and National Security,” Belfer Center for Science and International Affairs,July 2017,p.21.大國在戰略上的隱蔽性和技術上的先進性很可能讓致命性自主武器系統越來越多地悄然生發。
人工智能軍事化蘊藏的風險也開始引發廣泛關注。如霍金所言,人工智能的發展“要么是人類歷史上最好的事,要么是最糟的”。*John Koetsier,“ Stephen Hawking Issues Stern Warning On AI: Could Be ‘Worst Thing’ For Humanity,” Forbes,November 6,2017.一批知名科學家和技術專家多次發出呼吁,要求國際社會采取實質性舉措限制這一危險進程,特別是限制那些致命性自主武器系統的發展和應用。特斯拉創始人埃隆·馬斯克甚至警告,國家間人工智能的軍備競賽,有可能成為第三次世界大戰的起因。*Jasper Hamill,“ Elon Musk Fears Global Artificial Intelligence Arms Race Could Spark World War 3,” The Sun,September 4,2017.
第一,對國際人道主義和人權的威脅和挑戰。首先,致命性自主武器系統無需人類干預自行決策的特點,割斷了戰場上人與人的情感關聯,使得國際人道主義在戰爭中難以落實。根據人道主義的相關原則,人類在發動攻擊時會對目標人群產生一定同情心理,并在綜合考慮可能面臨的法律、情感和道德后果后作出決定。對戰爭態勢的判定和戰場慘烈程度的認知必然導致戰斗人員決策行為的即時改變。而致命性自主武器系統“決策的去人類化”特征可能帶來與實際使用武力的物理和心理上的距離,會減輕人的關切,甚至使部署致命性自主武器系統的人員察覺不到這種關切。*Human Rights Council Twenty-third Session,“Report of the Special Rapporteur on Extrajudicial,Summary or Arbitrary Executions,Christof Heyns,” United Nations General Assembly,April 9,2013,p.11.這會造成致命性自主武器因缺少情感和道德考量而無法節制非人道行為,同時有關決策層因無需考慮自身人員傷亡情況而極有可能加大戰爭的搏殺力度,引發亂殺濫殺等人道主義災難。
其次,作為非生命體的致命性自主武器系統自我決定剝奪個體的生命這一舉動就是對人權的踐踏。“在戰斗中部署致命性自主武器系統透露出一種觀念:即被其瞄準的任何人都不值得具有生命狀態的操作員去考慮,該人的生命和尊嚴因此遭受剝奪。”*Erin Hunt and Piotr Dobrzynski,“The Right to Dignity And Autonomous Weapon Systems,” CCW Report,April 2018,Vol.6,No.3,p.5.人類在戰爭中也會存在肆意侵犯生命權的行為,但這仍然被視為是人類思維和價值非常化的體現。現有社會中的人權法和道德都可對人類的相關行為產生約束效果。現有的科技水平仍無法為致命性自主武器系統提供與人類相似的認知水平,幫助其準確感知平民與非戰斗狀態下之戰斗人員的區別。放寬自主決策的權限可能是充分利用致命性自主武器系統的唯一途徑,但這會造成系統失控的狀態,增加平民成為擊殺目標的可能性。致命性自主武器系統在缺少價值觀判斷的情況下蓄意擊殺個人無疑是對人類生命權的褻瀆。
最后,致命性自主武器系統也可能對其他人權帶來負面影響。彼得·阿薩羅(Peter Asaro)就表達了對生命權之外的踐踏其他人權的關注,“譬如逮捕、拘留及行動限制;搜查、監視及跟蹤;驅逐出境;驅逐和喪失抵押品贖回權;拒絕給予醫療保險、公眾集會、出版和言論自由及選舉的權利”。*彼得·阿薩羅著,韓陽譯:“論禁止自主武器系統:人權、自動化以及致命決策的去人類化”,《紅十字國際評論》,2012年第2期,第201頁。致命性自主武器系統在做出是否擊殺目標的決定之前,首先要完成搜索、檢測、識別、跟蹤、瞄準等一系列確認動作。這在當前戰爭尤其是反恐戰爭中戰場界限模糊不清的情況下很可能持續相當的時間,對公民的私人生活造成影響。它在一定程度上是侵犯隱私權的表現。希瑟·羅夫(Heather Roff)還曾認為,空中致命性自主武器系統在發現目標時只能夠在是否擊殺中進行選擇,如果選擇擊殺,則既剝奪了生命權同時也侵犯了該人員的公平審判權。*Heather Roff,“Banning and Regulating Autonomous Weapons,” Bulletin of the Atomic Scientists,November 24,2015.
第二,對戰爭法的威脅和挑戰。由于與人類存在本質性的差異,致命性自主武器系統雖然在戰場上發揮戰斗人員的實際作用,卻無法受到戰爭法的相關約束和影響。如果其違反了法律,做出部署人員無意實施的違法行為,誰應負法律責任則是不明確的,由此造成“追責缺口”。*Thompson Chengeta,“Accountability Gap,Autonomous Weapon Systems and Modes of Responsibility in International Law,” Mar 2016,p.1.有學者認為,在系統部署過程中,“有可能負有法律責任者包括軟件程序員、硬件制作或出售人員、軍事指揮官、部署武器系統的下級人員和政治領導人。”*Human Rights Council Twenty-third Session,“ Report of the Special Rapporteur on Extrajudicial,Summary or Arbitrary Executions,Christof Heyns,” p.14.但是,詳細的名單無法為明確的責任劃分提供建議,反會因責任人眾多而削弱法律應有的懲罰與勸誡效果,使受害者的權益得不到應有的保障,有損司法問責制度的權威,進而無法對戰爭中的平民和潛在受害者繼續提供有效保護。
致命性自主武器系統是否符合戰爭法的要求也是人們關心的議題。《日內瓦四公約第一附加議定書》第36條為新武器的法律審查提供了指導方針,即“研究、開發、獲取或采用一種新的武器、作戰手段或方法時,締約國一方有義務斷定在某些或所有情況下,該新的武器、作戰手段或方法是否為本議定書或適用于該締約一方的任何其他國際法規則所禁止。”這項規定的目的是防止在任何情況下使用違反國際法的武器,并對在某些情況下違反國際法的武器的使用施加限制,在研發、獲得及放入國家“武器庫”之前確定其合法性。*K.Lawand et al,“Guide to the Legal Review of New Weapons,Means and Methods of Warfare,” ICRC,Geneva,2006,p.4.當前學界對于致命性自主武器系統是否符合戰爭法的爭論焦點在于其是否符合馬頓斯條款——即“受到來源于既定習慣、人道原則和公眾良心要求的國際法原則的保護和支配。”*International Committee of the Red Cross,“Protocol Additional to the Geneva Conventions of 12 August 1949,And Relating to the Protection of Victims of International Armed Conflicts (Protocol I),of 8 June 1977,” June 1997,p.240.只是在致命性自主武器系統出現前,誰也無法確切回答其是否服從人道主義規范。
區分原則和相稱性規則是在戰爭中必須遵守的兩項基本原則。區分原則要求無論何時均應該在平民與戰斗員、民用物體與軍事目標之間做出區分。相比之下,在評估武器系統本質上是不分青紅皂白時,檢查其目標識別性能顯得尤為重要。*Autonomous Weapon Systems under International Law,Geneva Academy,November 2014,p.22.人類需要時刻把握戰場態勢和環境態勢以做出相對準確的判斷。慣于以計算機處理定量數據的致命性自主武器系統很難理解相關的標準,極有可能違反戰爭法規定。相對稱性規則評判要求,即使某一武器符合區分標準,它的使用也必須涉及對預期平民傷害(對平民或民用物體)的評估,以確定預期的軍事優勢,對平民的傷害不能大于預期的軍事收益。這同樣考驗致命性自主武器系統對具體情境下價值的判斷和主觀考量,給人類社會帶來巨大的風險和挑戰。致命性自主武器系統迫使人類重新思考戰爭法的主體界定、適用范圍和基本原則等內容,使原本趨于完備的戰爭法面臨嚴峻考驗。
第三,對國際軍控機制的威脅與挑戰。當前,自主武器朝著多樣化、智能化方向加速發展,致命性自主武器系統呼之欲出。毫無疑問,哪個國家率先研發出在掌控范圍內的致命性自主武器系統,哪個國家就將在世界新軍事革命中占據優勢地位。雖然各國都懷有對致命性自主武器系統失控泛濫的隱憂,但仍在暗自角力,力爭取得領先性優勢。美國國防部前副部長沃克曾在接受采訪時說:“我們可能會遇到一個比我們更愿意把權力下放給機器的競爭對手,隨著競爭的展開,我們將不得不就如何才能贏得競爭做出決定。”*“David Ignatius and Pentagon’s Robert Work Talk About New Technologies to Deter War,” Washington Post,March 30,2016.俄羅斯總統普京也曾說,誰主導人工智能這一領域,誰就可以成為世界的霸主。*Patrick Caughill,“ Vladimir Putin: Country That Leads in AI Development ‘Will Be the Ruler of the World’,” Futurism,September 2,2017.作為新一輪軍備競賽的焦點對象,致命性自主武器系統相關的軍控談判同樣會逐漸增多。聯合國《特定常規武器公約》會議建立的“致命自動武器系統監管專家組”(GGE)主要負責此類談判,各大國借此展開的博弈必將挑戰原有軍控機制確立的部分原則。
致命性自主武器系統可以幫助國家“在沒有軍事傷亡的情況下進行戰爭,這將消除戰爭發生的最大威懾”。*Jason Borenstein,“The Ethics of Autonomous Military Robots,” Studies in Ethics,Law,and Technology,Vol.2,Issue 1,2008,p.8.相關國家的領導人將較少地顧忌發動戰爭導致本國軍事人員傷亡帶來的國內負面社會效應,這極大降低了戰爭的門檻。在戰爭中先發制人的國家還可以將戰場推進到對手的領地,最大程度減緩本國因沖突造成的損失。這無疑會增強國家對外擴張的野心,降低國際間局勢的穩定性,削弱軍控機制的協調能力。
同時,致命性自主武器系統的研發具有相對隱秘性。任何掌握人工智能及大數據處理等技術的實驗室都可以在一定時間內制造具有相當自主程度的武器。商業公司利用規模經濟和自由市場幫助自主系統和機器人技術向民用領域滲透,增加了這種武器系統軍控性質的監管和核查難度。韓國科學技術院2018年2月與韓國十大財團之一的韓華集團旗下韓華系統公司合作,設立人工智能研發中心,目的是研發適用于作戰指揮、目標追蹤和無人水下交通等領域的人工智能技術。全球30多個國家和地區的研究人員對此一致予以反對,認為韓國科學技術院的舉措將加劇軍備競賽,令人遺憾。*Andrea Shalal,“ Researchers to Boycott South Korean University Over AI Weapons Work,” U.S.News,April 4,2018.此外,由于不擴散政策可能針對的瓶頸點相對較少,致命性自主武器系統有可能被更多的國家和非國家行為體所利用,這對軍備控制會產生巨大副作用。*Jürgen Altmann and Frank Sauer,“Autonomous Weapon Systems and Strategic Stability,” Survival,Vol.59,No.5,October 2017,pp.125-126.一旦恐怖分子獲取或自行研制致命性自主武器系統,現行的國際秩序和人類命運將遭到災難性的破壞。
致命性自主武器系統的軍控現狀表明,國際社會加強了致命性自主武器系統的監管,并就防止由其應用可能導致的人道主義災難或對人類尊嚴的損害形成一定共識,但對于如何推動相關軍控談判以及法律制度建構則沒有任何進展,個別國家甚至不顧國際社會的反對而乘隙加大力度研發各種形式的致命性自主武器系統,加劇了不安全感。中國作為聯合國安理會常任理事國的一員和新興大國,理應在相關軍控事務中發揮積作用,樹立中國作為負責任大國的良好形象,以維護中國和平發展的外部環境與世界秩序的安全、穩定。
第一,推動聯合國多重機構提前多層次主導性介入。致命性自主武器系統的研發及應用不僅影響著未來戰爭形態和平民安全等,而且涉及可能侵犯人的尊嚴,不同社會主體對其正負功能爭議較大,加之其包含的許多無法預測的后果,使得聯合國作為維護和平與安全的全球性國際安全機制,主導致命性自主武器系統軍控有著其他國際行為主體不具備的優勢,也為世界各國捍衛主權和國際法提供了一個不可替代的平臺。
首先,明確主張由聯合國主導軍控談判。對于致命性自主武器系統軍控存在的廣泛復雜爭議表明,其現實推進需要聯合國所具有的整體性視野。反對軍控者認為,如果致命性自主武器系統能被方便地用于反恐行動,或許將減少由此類恐怖活動造成的平民傷亡。致命性自主武器系統駐防時間比人長得多,并可承受加速力等其他障礙,減少無必要的傷亡。致命性自主武器系統不受某些可能破壞保護生命的人類弱點的制約,不會出于報復、恐慌、憤怒、鄙視、偏見或害怕而行動,也不會故意通過酷刑、強奸等對平民施加傷害。同時,自由追求科學研究的重要性也是人們不愿意規范人工智能在軍事領域研發及應用的一個重要原因。
贊成軍控者則認為,這一領域的“技術攀行”(Technology Climbing)幾乎可以在讓人毫無察覺的情況下發展到對人類核心價值觀和國際安全體系帶來嚴重危險的局面。致命性自主武器系統在戰場上選擇的背后有種種相互矛盾的因素,這就使得機器人很難計算,也難以真正具備區分合法與非法命令的能力。致命性自主武器系統及其應用所引發的復雜社會影響和熱烈爭議,必然要求相關國家、國際組織以及民間社會等充分利用聯合國這一全球性國際安全機制來全方位考慮對其進行有效軍控的問題。因此,任何國家的國內單邊立法應符合聯合國框架下建立的致命性自主武器系統軍控機制原則精神的要求。
其次,支持聯合國多種機構介入軍控談判。中國應繼續支持聯合國作為全球性國際安全機制,由其多種機構和部門按照職責分工,恰當、適時地推進致命性自主武器系統軍控。聯合國人權理事會(U.N.Human Rights Council)作為聯合國大會下屬的政府間機構,主要負責在全球范圍內加強促進和保護人權的工作,解決侵犯人權的問題。因此,各國可充分利用聯合國人權理事會這一平臺就致命性自主武器系統對國際人權法和人道主義法的嚴峻挑戰展開詳盡的探討,達成更廣泛的共識,并磋商軍控事宜。與此同時,中國應積極參加聯合國裁軍研究所有關致命性自主武器系統軍控的研究和探討。中國應同其他各國一道盡快推動設立在日內瓦的裁軍談判會議(U.N.Conference on Disarmament)作為唯一的多邊裁軍談判機構,盡快啟動致命性自主武器系統軍控談判,將有關談判要點和進展情況納入年度工作計劃和工作報告,按時向聯合國大會提供相關建議,并提交致命性自主武器系統軍控專題工作報告。
與此同時,中國應積極推動由國際知名專家組成的聯合國裁軍事務咨詢委員會(U.N.Advisory Committee on Disarmament)將致命性自主武器系統軍控納入定期召開會議,并盡快向聯合國秘書長提供咨詢意見;推動負責處理裁軍與國際安全問題的聯合國大會裁軍和國際安全委員會(U.N.First Committee,Disarmament and International Security of General Assembly of the United Nations),適時為致命性自主武器系統軍控問題制定議程、做出決策,審議并通過有關裁軍與軍控決議;由附屬于聯大的審議機構——裁軍審議委員會(U.N.Disarmament Commission)審議致命性自主武器系統軍控問題并向聯合國大會提出建議。應積極推動聯合國秘書處設有裁軍事務廳(U.N.Office for Disarmament Affairs),搜集致命性自主武器系統軍控方面的信息,加大調查研究,提出軍控咨詢,協調各國立場,為有關致命性自主武器系統軍控會議提供技術支持等。
再次,參與聯合國提前多層次介入軍控談判。中國作為聯合國安理會常任理事國,應積極參與聯合國有關機構和部門組織開展的推進致命性自主武器系統軍控相關活動。中國應主動派出相關專家參與聯合國人權理事會召集的討論致命性自主武器系統問題專家組活動,探討審查機器人技術及其與國際人權和人道主義法律相符的問題,以及暫時中止有關致命性自主武器系統若干活動的方式途徑等。中國應積極參與日內瓦聯合國辦事處舉行的有關致命性自主武器系統的會議,與有關專家和領導人共同討論關于未來武器潛在的管制辦法,并表明中國支持致命性自主武器系統軍控的基本態度和關切要點。中國應積極參與聯合國在日內瓦舉行的《特定常規武器公約》締約國專家會議,探討致命性自主武器系統所引發的法律、道德與社會問題。
同時,中國裁軍大使可依據情勢和軍控實際進程,在《特定常規武器公約》(CCW)締約國大會闡明中國基本立場和觀點。中國有關代表可充分利用《特定常規武器公約》的國際會議、公約審議大會、締約國會議以及各次專家組會議,和聯合國裁軍研究所、國際紅十字委員會、非政府組織,以及相關領域的專家和學者圍繞致命性自主武器系統引發的技術與應用關切,倫理與道德關切以及未來的發展之路進行探討。中國公開支持聯合國《特定常規武器公約》會議關于建立“致命自動武器系統監管專家組”(GGE)的決定,并派出相應專家積極參加2017年11月召開的 GGE第一次會議和2018年4月GGE第二次會議。今后,中國應繼續就致命性自主武器系統軍控問題充分交流探討,了解前沿動態,把握各國關切和分歧要點。*徐徐:“聯合國試圖就殺手機器人使用達成協議”, 《中國科學報》,2015年4月15日。中國應充分利用聯合國系統內就禁止致命性自主武器系統展開討論的機會,參與交流,提出關切要點,表明原則立場,呼吁國際社會加強在這一問題領域的國際安全合作,努力推進對致命性自主武器系統的國際監管,盡快就此形成法律文書。*Mark Prigg,“UN to Debate ‘Killer Robot’ Ban Next Year as Experts Warn Time Is Running out to Stop AI Weapons,” Daily Mail,December 16,2016.
第二,主張尋求友好協商基礎上各方都能接受的方案。致命性自主武器系統作為現代科技前沿技術——人工智能軍事應用的典型代表,圍繞其功能作用的爭議分歧較大,不同國際行為主體由于自身權益追求、權力地位和認知觀念等的不同,對于推進致命性自主武器系統軍控談判有著不同立場、觀點和看法,因此,通過友好協商找到各方都能接受的方案,以協調各國行動,反對霸權國家單方面主導規則的制訂,切實加強國際合作顯得尤為關鍵。
首先,在充分討論交流中兼顧、權衡各類意見、觀點。事實上,中國也在相關場合反復表明這一立場,“中國高度重視并積極參與國際社會有關‘致命性自主武器系統’討論,主張各國應對此進行深入研究,在全面、充分討論基礎上,尋求妥善解決辦法。”*中國常駐聯合國代表團孫磊參贊在2016年聯合國裁審會實質性會議一般性辯論中的發言,2016年4月4日。對致命性自主武器系統軍控,有些人認為這一武器系統不可能在戰場決策方面超越人類,永遠不能達到國際人道主義法律或國際人權法的要求,即使能夠達到,作為一個原則問題,也不能給予致命性自主武器系統以生殺予奪的權力。因此,他們大聲疾呼應一概禁止這一武器系統的開發、生產和使用。
另外一些人則認為,這類技術進步,只要控制在適當的界限內,是合法的軍事進步,在有些情況下甚至能夠有助于讓武裝沖突更加節制,減少當事各方的人員犧牲。按照這種論點,完全擯棄這種技術就等于沒有適當地保護生命。第三種論點則認為,正是因為致命性自主武器系統不是人類,它們在某些危險情況中的表現可能會超越人類。同時,通過編制程序,致命性自主武器系統可借由外形、熱信號、空速閾值等特征識別敵對目標,從而可以做到遵守國際人道主義法中的攻擊相稱原則。因此,這些人強調,對致命性自主武器系統的軍控并不是全面禁止,而是加強國際有效監管。
其次,在漸次達成共識中比較、考量各種方式、措施。目前,對于致命性自主武器系統及其應用還存在諸多不確定性,因此,在漸次達成共識的基礎上規范、控制這類開發中的武器系統需要依據實際情況比較、考量各種不同的方式、措施。一方面,根據現有相關國際軍控體系,對于新武器系統開發應援引《1949年8月12日日內瓦四公約關于保護國際性武裝沖突受難者的第一議定書》第36條規定,雖然不能要求各國披露其審查的結果,但確保對諸如致命性自主武器系統等新武器出現加強管控的一個辦法是鼓勵各國更加對外開放本國遵循第36條審查的程序。
另一方面,中國應同國際社會一道推動各種非政府組織和公眾展開致命性自主武器系統要不要軍控以及如何軍控的各種形式的探討。在具有拘束力的法律文書一時難以達成的情況下,中國應積極參與推動有關國際組織制訂、出臺一些有意義的軟法律文書,包括相關宣言、行為準則、政府間對話、情報共享和建立信任措施及框架公約等,以便盡可能規范、控制致命性自主武器系統的出現和部署。對致命性自主武器系統進行積極軍控的措施還應該包括預先研討、規范對此類武器的可能受害者進行援助的規定。
再次,在多方協調行動中對比、明確各方權利和義務。致命性自主武器系統軍控涉及到相關科學家和技術專家、制造廠商、政府決策者、部隊指揮官、戰士,以及普通民眾等,因此,此類武器系統軍控談判應在多方協調行動的基礎上,設定明確各方不同的權利、義務的議題,展開具有實質意義的探討和規范制定。對于相關致命性自主武器系統程序員和制造商而言,讓開發程序員和制造商承擔責任存在法律障礙,比如美國大多數武器制造商擁有豁免權。軍控條約應明確人工智能和機器人專家合法地研發、制造機器人的權利和義務,明確規范政府決策者對于急速發展的人工智能的軍事應用,必須承擔起內審義務。如果不能確定開發出來后能否加以限制,就應該要求“先行禁止”。
部隊指揮官、戰士等作為此類武器的主要使用者,按照國際刑法規定,大多數情況下不必承擔武器傷害引發的責任。如果人類操作者事先知道致命性自主武器系統使用的危害和風險,那么他們必須對機器人自主行動造成的負面結果負責。對于廣大民眾而言,因這種不受人類控制的武器系統發展不僅會引發“全球性人工智能軍備競賽”,而且會在任何難以想象的情況下危及自身和親人的生命,因此,呼吁規范、限制致命性自主武器系統的開發和使用是其權利和責任。
第三,支持成立確保透明、問責和法治原則的多邊國際監管體系。現階段致命性自主武器系統軍控最緊迫的任務是對其實現有效的國際監管,為此,中國應大力支持聯合國和國際社會在推進軍控的過程中,適時地成立確保透明、問責和法治原則的多邊國際監管體系。致命性自主武器系統軍控現實目標應定位為國際監管體系既能對因使用致命性自主武器系統而可能造成的附帶損害加以限制,又能對此類武器的開發和擴散加以監管。
首先,應支持聯合國人權理事會呼吁建立軍控國際商定框架。從致命性自主武器系統軍控的實踐歷程來看,聯合國人權理事會既是較早討論這一軍控問題的聯合國機構,也是相對適宜組織有關探討的機構。為此,中國應積極支持聯合國人權理事會呼吁全體國家宣布并在國內至少暫停測試、生產、組裝、轉讓、采購、部署和使用致命性自主武器系統,直到建立一個關于致命性自主武器系統軍控的國際商定的框架。
中國應和國際社會一道,吁請人權理事會優先組建一個致命性自主武器系統高級別專家小組,由來自法律、機器人、計算機科學、軍事行動、外交、沖突管理、道德和哲學等不同領域的專家組成。專家小組應總結有關致命性自主武器系統方面的技術推進情況;評估與致命性自主武器系統有關的法律、道德和政策問題;提出一個框架建議,使國際社會能夠有效地處理有關致命性自主武器系統的法律和政策問題,并就此提出具體的實質性和程序性建議。專家小組在工作中應努力推進具有廣泛基礎的國際對話;評估現有規范致命性自主武器系統的國際和國內法律框架的有效性和不足之處;就如何適當推進軍控工作提出建議。
其次,應支持聯合國促進建立各國武器審查的國際透明機制。《日內瓦四公約第一議定書》第36條要求每一締約國判定,使用其研究、發展、取得或采用的任何新武器、作戰手段和方法,是否在某些或所有情況下,為國際法所禁止。評估新武器的合法性有助于確保各國武裝部隊能夠根據該國承擔的國際義務從事敵對行動。為此,2001年第28屆紅十字與紅新月國際大會上為《日內瓦四公約》締約國所通過的《人道行動日程》(Humanitarian Agenda)所準備的文件《新武器、作戰手段和方法法律審查指南:1977年〈第一附加議定書〉第36條實施措施》,要求各國對所有新武器、作戰手段和方法進行嚴格與全面的審查,從而確保其合法性。
因此,在致命性自主武器系統軍控尚未簽署國際法律文書前,中國應和其他各國一道積極支持聯合國裁軍和軍控機構推進各國形成致命性自主武器系統審查的國際透明機制。所有相關聯合國機構和組織在與活躍在致命性自主武器系統領域的各方互動時,應視情強調有必要在開發致命性自主武器系統的各個方面充分透明;爭取各國內部武器審查程序進一步對國際透明。各國至少應在所遵循的程序(如果不是實質性結果)上對國際社會透明,承諾盡可能嚴格地進行審查;加大有關國際討論和政府間對話,交流各自最佳做法。
再次,應支持國際社會各群體組織成立多樣化軍控協調機制。人工智能領域的科學家和技術專家因對全自主技術發展前沿及其功能影響較熟悉,是較早提出應關注致命性自主武器系統軍控這一問題的國際社會群體之一。2009年9月,英國謝菲爾德大學機器人、人工智能專家諾爾·夏基(Noel Sharkey)領導建立了非政府間團體“國際機器人武器控制委員會”(The International Committee for Robot Arms Control),多次與人權觀察組織和其他組織(目前包括來自22個國家的47個組織)聯合進行“停止殺手機器人活動”,并努力說服《特定常規武器公約》締約國采取相關行動。
2013年11月,國際裁軍聯盟和人權組織呼吁,聯合國《特定常規武器公約》日內瓦會談必須抓住機遇,禁止研發名為“殺手機器人”的完全自主武器。2016年9月,全球最大的五大科技巨頭谷歌、亞馬遜、臉書、IBM和微軟聯合制定首個成熟的人工智能道德標準,并打算成立一個人工智能行業組織,目的是確保人工智能有利于人類而不傷害人類。中國應繼續支持相關專家積極參與國際社會成立的各群體組織,并一起推動有關致命性自主武器系統軍控多樣化協調機制的完善,以及其與聯合國相關國際機制的對接,從而做到既匯聚各方智慧,形成軍控共識,又促進有效國際法律文書的早日達成。
基于致命性自主武器系統及其應用所致影響的復雜性和深刻性,以及其與各國國家安全利益的深度關聯性,中國應旗幟鮮明地倡導由聯合國主導致命性自主武器系統的軍控進程。目前,關于這一武器系統的應用可能造成的影響還在討論中而沒有形成一致認識,因此,有關軍控的推進迫切需要加強國際監管,先應勒住這匹奔騰的“野馬”,防止其脫韁而逃,以免造成今后難以逆轉的可怕后果。同時,依照現有國際法和軍控機制,在國內、國家間和國際層面開展一項包容各方的進程,以決定如何著手處理這一問題。中國應推動國內審查新武器機制的完善努力,并適時啟動致命性自主武器系統軍控機制建構的談判議程。為啟動這一程序,需要由聯合國相應機構組織政府專家組討論、撰寫長期的選擇辦法和機制框架草案。加強軍控談判中的戰略溝通,并平等地向所有成員提供一些公正的信息,可減少信息的不對稱性,從而有助于消除不確定性,增大安全合作的機會。與此同時,“相比集體領導而言,多元領導是描述這種有差異的、采取主動行為進程的恰當詞語。”*羅伯特·基歐漢、約瑟夫·奈著,門洪華譯:《權力與相互依賴》(第3版),北京大學出版社,2002年,第244頁。為維護該安全領域的戰略力量平衡,在具體條件許可的情況下,中國應積極推動聯合國主導下的多元領導,反對任何霸權企圖,在維護戰略穩定性的前提下,建構致命性自主武器系統軍控機制。○