
江天驕,復旦大學發展研究院金磚國家研究中心副主任
今年,以ChatGPT為代表的人工智能引爆了新一輪技術和產業革命。與此同時,一些智能武器裝備和輔助決策系統已經在烏克蘭危機中大顯身手。國際社會長期對智能武器的失控風險、問責困境以及戰爭倫理問題憂心忡忡,聯合國自2013年就開始關注致命性自主武器系統(LAWS)并多次開展政府專家組磋商,雖達成了一些共識,但由于各方競爭激烈,短期內締結多邊條約的難度較大。鑒于此,國際非政府組織和以科學家、法學家、行業專家以及智庫為代表的知識共同體正在通過自下而上的模式,逐步打造有關智能武器風險和法律規則標準的國際認知共同體,并通過廣泛的對話和交流機制不斷擴大同心圓,以吸納越來越多的國家學習并內化相關規則。
國際非政府組織的努力方向大致可以分為兩類:一是全面禁止;二是分步控制。兩者并不是非此即彼的關系,而是在部分重疊的情況下各有側重。在第一類路徑中,“禁止殺手機器人運動”明確提出禁止研發人類無法有效控制的武器,這個提法已經得到全球60多個國家(地區)約130多個團體的支持。在2018年的“國際人工智能聯合會議”上,全球兩千多名科學家和企業家共同簽署了《致命性自主武器宣言》,承諾不參與相關武器系統的開發、研制、交易和使用。這些國際非政府組織主要要求全面禁止LAWS,并敦促《特定常規武器公約》(CCW)盡快就此達成國際條約。此外,谷歌、深智(Deepmind)、波士頓動力等企業員工紛紛以“不作惡”為由迫使公司退出美國國防部的智能武器項目。
第二類路徑在針對LAWS的問題上與第一類基本一致。但除了LAWS之外,還關注人工智能與武器系統、情報偵察、輔助決策、指揮控制等更加廣泛的軍事應用問題。因為如果缺乏足夠的高質量訓練數據、數據被污染、算法本身的漏洞以及“算法黑箱”,抑或是真實戰場環境的錯綜復雜,都可能導致相關系統在實驗室和實際部署中出現巨大差異,甚至產生不可預估的后果,在現實中很可能引發沖突升級或造成人道主義災難。紅十字國際委員會(ICRC)早在2011年就開始關注相關系統的穩健性和負責任問題,并要求各國盡快確立關于限制智能武器的國際標準,遵守國際人道法的相關規則。2019年清華大學戰略與安全研究中心與美國布魯金斯學會圍繞“人工智能與國際安全治理”開展了一系列二軌對話,聚焦如何設定智能武器的攻擊禁區及國際法監管問題。
目前,主張對智能武器進行分步控制的方案已經由早些年的原則共識向減少風險的具體規則和標準方向深入推進。其中,位于日內瓦的“人道主義對話中心”和INHR智庫邀請了新美國安全中心、布魯金斯學會以及來自中國和歐洲的專家共同圍繞智能武器的設計開發、測試評估、部署使用、問責機制、建立信任和國際合作等方面,設計了一套測試、評估、驗證和核查(TEVV)風險管理框架。TEVV強調任何智能武器的部署都必須遵守國際人道法對于武器系統開展測試和評估的要求。由于智能武器獨有的穩健性和負責任問題,測試和評估應不間斷地貫穿相關系統的全生命周期。TEVV進一步要求各國政府在開發智能武器時與國際民用標準相協調,并將各國TEVV的原則和審查程序對外公開,從而增加透明度,塑造負責任形象。TEVV還建議設立類似國際民航組織這樣的專業性機構來分析搜集各國人工智能的故障案例,監管智能武器發展的合規問題,并在一旦發生事故時能夠組織專業力量打開人工智能“黑箱”,判定責任,避免沖突升級。
在相關國際非政府組織的努力下,由全球多個國家、國際組織以及非政府組織參與的“軍事領域負責任使用人工智能”(REAIM)峰會發布了《軍事領域負責任使用人工智能行動倡議》成果文件。迫于國際非政府組織和科技企業的壓力,美國國防部也在今年更新了關于武器自主性的文件《國防部指令3000.09》,并提出將對智能武器系統開展類似TEVV的審查原則。但需要指出的是,美國對相關國際非政府組織提出的倡議往往采取合則用,不合則棄的態度,將對其有利的規則定義為“負責任行為”,而避免制定約束其霸權的國際條約。這將不利于國際社會推動人工智能國際規則的達成。