
祁昊天北京大學國際安全與和平研究中心副主任
人工智能(AI)的軍事應用尚處在初級階段,但影響已嵌入指揮、情報、攻防、后勤、訓練等諸多領域,覆蓋戰略、戰役、戰術不同層面。
AI作為一種通用和賦能技術,在提高軍事效能的同時,也帶來諸多風險,主要包括:本體性風險,即人類在機器面前失去主導地位;能動性風險,即AI在攻防平衡、威懾平衡、危機穩定等場景下誘發主動沖突或升級可能;意外性風險,即AI系統因誤操作或系統故障所帶來的傷害。
相關國際治理亦面臨多重挑戰,比如:規則機制發展與技術發展不匹配;對于如何將AI軍事應用進行界定和分類,存在分歧;國際信任赤字疊加AI軍用利益訴求差異,加大了不信任和誤解;AI軍備競賽與擴散風險;AI疊加信息和網絡安全,使得廣義數字化軍事安全場域愈加復雜,等等。
國際社會需要通過加強多邊合作來應對AI軍事化風險,但相關全球治理仍處在醞釀期,學術和智庫在此時的積極參與至關重要。目前,AI軍事應用治理的國際學術共同體呈現松散狀態,但也已形成幾種初步的樣式和特點:跨地域、跨領域、跨形式,就軍用AI的倫理、法律、技術、軍事和治理機制問題進行不同形式的對話與合作研究;學術機構和智庫合作往往嵌入政府、國際組織、非政府組織和業界,而非單純紙上談兵;合作平臺逐漸機制化,包括定期舉行國際研討會,開展中長期的雙多邊聯合項目,進行共同成果倡議和宣言發布;跨領域學術“基建”得到重視,特別是針對AI軍事應用的定性、范疇及互動過程;教育與培訓提上日程,通過國際平臺幫助相關研究和實踐者提升對AI軍事應用復雜性的認知……
過去一年,比較典型的合作包括清華大學戰略與安全研究中心與美國布魯金斯學會合辦的雙邊二軌研討,新加坡南洋理工大學舉辦的年度多邊AI與戰略穩定研討會,日內瓦安全政策中心舉辦的年度五常智庫會議,海牙阿瑟研究所舉辦的“困境2023”會議。另有官方多邊場合為學術和智庫交流搭臺,如荷蘭政府舉辦的首屆“負責任軍事人工智能”峰會(REAIM2023),英國政府舉辦的AI安全峰會,等等。這些活動雖由不同的主辦方發起,但所依托的機構和人員網絡存在廣泛交集,議題互補,整體呈現出共同體式的聚合力。這一共同體包含不同的子網絡,子網絡的范圍、緊密程度、科研水平和政策支持能力固然存在差異,但共同塑造著全球軍事AI治理體系。
通過對過去十年相關數據的收集與分析,可以發現中國的清華大學、中國科學院、北京大學,美國的布魯金斯學會、卡內基和平研究所、人道主義對話中心,歐洲的日內瓦安全政策中心、斯德哥爾摩國際和平研究所,以及新加坡的南洋理工大學,擁有相對更為廣泛的合作網絡和更加中心化的地位,在掌握合作資源方面占據著較高排名。而在它們之外,哈佛大學、美國對外關系委員會等機構并非最為活躍,但也承擔著共同體網絡的中介調節和向外延展通道功能。
目前這些機構和相關研究群體已在一些重大問題上達成較廣泛共識,涉及:軍用AI系統安全可靠的必要性,避免意外或未經授權行動發生的重要性,測試和驗證的重要性,不同環境和條件下穩定性和可預測性的重要性與局限性,倫理和法律標準的重要性,等等。近幾年,它們圍繞AI軍事應用術語、治理原則框架、跨學科復雜性、軍事與非軍事領域關聯、AI與核導關聯、AI與其他新軍事技術集成、既有軍控機制與AI治理等議題,開展了廣泛的學術研討、知識積累、報告發布和咨政管道疏通工作。在此過程中,共同體內存在不同程度的分歧,比如:AI系統多大程度上可擁有自主性,特別是決策方面;人在回路中的具體位置、作用、控制程度,以及如何定義“有意義的控制”;如何針對透明度、責任和倫理等問題,制定和實施國際標準和規范;如何明確有效部署的技術標準和成熟度;如何界定和規制致命性自主武器系統,等等。
AI軍事應用尚處在高度不確定的萌芽期,但在新技術沖擊下維護全球和平與穩定的任務又是緊迫的,未來相關學術共同體如要進一步發展,需要繼續降低跨學科跨領域對話門檻,降低科研—政策對接成本,并努力破除信息繭房。