【摘要】目前很難就全面禁止人工智能武器達成全球共識,更可行的做法可能是要求人工智能賦能武器的發展符合現有國際法規范。為此,各國需要就如何進行風險防范尋求共識,共同努力構建治理機制。現階段是構建人工智能國際安全規范的關鍵窗口期。目前中美兩國是在人工智能技術研究和應用發展最快的國家,兩國需要在這個領域加強協調與合作。
【關鍵詞】人工智能 國際安全治理 【中圖分類號】D815 【文獻標識碼】A
清華大學戰略與安全研究中心在“人工智能國際治理”框架下,于2019年6月啟動了一項與美國布魯金斯學會進行聯合研究的項目,研究中心主任傅瑩和美國布魯金斯學會會長約翰·艾倫(John Allen)為項目總牽頭人。圍繞課題人工智能技術在安全領域的挑戰和治理問題,兩國專家進行了一系列二軌(非官方)對話和研討,在討論的基礎上分別就各項議題撰寫了論文。據此,傅瑩和約翰·艾倫在美國Noema雜志分別發表文章,公布聯合研究成果,介紹雙方專家的討論和主要觀點,旨在提高國際社會和兩國各界對人工智能武器化風險的認知和警惕,并提出治理建議。
約翰·艾倫在文章中提到,美中在人工智能等新興技術領域的戰略競爭日益明顯,圍繞著“人工智能軍備競賽”的說法不絕于耳。為了避免不可控的軍備競賽,他希望美中兩國專家組成的“人工智能與國際安全”研究團隊所討論的安全關切,能夠在政府層面對話和非官方論壇中得到進一步探討,特別是針對人工智能所構成的國家安全風險,以降低這些風險發生的可能性。他認為現在正是規范智能技術發展和應用的關鍵期。因為一旦這些技術被納入到軍事體系中,呼吁限制其在國家安全領域的應用將極為困難。
以下為傅瑩文章正文:
近年來,人工智能技術的快速發展帶來了巨大機遇,但是技術革命也往往伴隨不可預知的安全挑戰,尤其需要關注人工智能技術武器化的道德和技術風險問題。許多國家的專家和學者呼吁禁止發展可以自主識別并擊殺人類目標的智能武器,更不應該容許它們執掌人類生死。然而,全面禁止人工智能武器很難達成全球共識,即便能開啟相關討論和談判也將曠日持久。
從目前的趨勢看,人工智能武器化是不可避免的。更可行的做法可能是要求人工智能賦能武器的發展符合現有國際法規范。為此,各國需要就如何進行風險防范尋求共識,共同努力構建治理機制。在與美方進行二軌討論時,我們的焦點在于如何設定人工智能賦能武器的攻擊“禁區”,如何依據國際法律和規范開展對人工智能武器的監管,以及如何鼓勵采取克制態度以限制對人工智能數據的軍事化濫用。
人工智能賦能武器系統存在諸多潛在挑戰。一是人工智能內在的技術缺陷使得攻擊者難以限制打擊的損害范圍,容易使得被打擊方承受過大連帶傷害,從而導致沖突升級。人工智能賦能武器不僅應該在實施打擊時區分軍事目標和民用目標,還需要防止和避免對民用目標造成過分的附帶或間接損害。然而,現有人工智能技術條件在能否保證武力使用過程中完全滿足上述條件方面,是存在不確定性的。
二是當前以機器學習帶動的人工智能技術發展需要大量數據,不能完全避免基于大數據訓練的算法和訓練數據集將偏見帶入真實應用系統,因此,不能排除人工智能給決策者提供錯誤建議的可能性。進而,當訓練數據集受到其他國家的污染,致使系統提供錯誤偵查信息時,也有可能讓軍事決策者做出錯誤判斷和相應的軍事部署。
三是人機協同的挑戰是人工智能軍事化的終極難題。機器學習和大數據處理機制存在局限。無論是行為主義的強化學習、聯結主義的深度學習,還是符號主義的專家系統都不能如實準確地反映人類的認知能力,比如直覺、情感、責任、價值等。人工智能的軍事運用是人一機一環境的綜合協同過程,而機器在可解釋性、學習性、常識性等方面的不足,將放大發生戰場沖突的風險,甚至刺激國際危機的螺旋上升。
對話雙方一致認為,各國需要采取軍事克制態度,避免人工智能武器化給人類帶來重大損害。各國應該禁止沒有責任和風險意識的輔助決策系統。在使用人工智能賦能的武器時,需要限制其打擊的損害范圍,防止造成連帶傷害,避免沖突升級。此外,軍事克制的內容還應該反映在公共教育當中。由于人工智能技術具有易于擴散的特點,它有可能流入某些黑客手里,進而將人工智能技術用于有害公共安全的行為中。
人工智能賦能武器的使用如何與國際法的基本原則保持一致,是安全治理研究中的重點所在。《聯合國憲章》規定,除非得到聯合國安理會的授權,否則成員國不得使用武力,或者是出于自衛的目的才能使用武力。因此,國家出于自衛目的而使用武力時,所使用武力的強度和規模須與受到的攻擊或者受到的威脅的嚴重性相稱。在討論中,中方專家特別提出,各國須承擔法律責任,主動推動和實現在涉及人工智能的軍事行動中國際規范的建構。同時需要確定人類參與的閾值,以保證智能武力的使用不會造成過度傷害。因為人工智能賦能的武器平臺很難評判什么是必要的、合適的、平衡的攻擊,所以人類指揮官的主觀能動性應當得到尊重。
此外,人工智能數據的安全必須得到保證。應該對數據挖掘和采集的過程、數據標注和分類、數據使用和監管進行規范和限制。智能武器訓練數據的收集過程和手段應當遵守國際法律,收集的數據數量應達到一定規模。需要確保數據標注和分類的質量和準確性,避免形成錯誤模型和導致決策者做出錯誤判斷。在數據使用過程中,需要關注使用目標和數據的污染問題。有中方學者建議給智能武器的自主化程度分級。例如,分為半自主化、部分自主化、有條件自主化、高度自主化和完全自主化五級。對自主化程度進行分級,有利于更好地確認和保障人類的作用,從而切實有效地實現對人工智能及自主武器系統的管理和控制。
現階段是構建人工智能國際安全規范的關鍵窗口期。目前中美兩國是在人工智能技術研究和應用發展最快的國家,兩國需要在這個領域加強協調與合作。其他國家也表示出對人工智能應用的安全擔憂,說明人工智能治理是人類共同的難題,不是一國兩國能夠解決的。中美開展對話與合作至關重要,將能夠為全球人工智能治理合作貢獻智慧。因此,中美兩國應就推動構建國際層面的規范和制度進行正式討論,在各自利益關切的基礎上探索合作領域,互換和翻譯相關文件,以政策溝通和學術交流的方式降低兩國在這一領域影響雙邊關系和國際安全的潛在風險。
近年來,中國積極釋放合作信號,2020年11月21日,習近平主席在二十國集團領導人第十五次峰會上強調,中方支持圍繞人工智能加強對話,倡議適時召開專題會議,推動落實二十國集團人工智能原則,引領全球人工智能健康發展。2020年9月8日,國務委員兼外長王毅提出《全球數據安全倡議》,包括有效應對數據安全風險挑戰應遵循的三項原則,表示希望國際社會在普遍參與的基礎上就人工智能安全問題達成國際協議,支持并通過雙邊或多邊協議形式確認倡議中的有關承諾。中國在發展人工智能技術的同時,也高度重視和積極推進相關國內治理建設。2018年中國發布《人工智能標準化白皮書》列出了四條倫理原則,包括人類利益原則、責任原則、透明度原則、權責一致原則。
中國已經準備好與美國和其他國家地區在人工智能治理方面開展合作。我們相信,人工智能不應成為一場“零和游戲”,技術突破最終應使得全人類受益。
責編/常妍 美編/宋揚