
摘要:人工智能技術與應用的迅猛發展引起國際社會的廣泛關注,人工智能全球治理呈現新局面。面對復雜多變的人工智能治理議題,國家行為體和非國家行為體競相出臺治理政策、創新治理工具、謀求治理話語權。但是,人工智能治理的有效供給明顯落后于治理需求,在應對人工智能所帶來的全球性挑戰時表現乏力。人工智能全球治理困境緣于制度性、政治性和合法性阻礙。借鑒“機制安排”和“關系建設”的治理理念,構建以聯合國為“紐帶”的人工智能治理“命運共同體”,有助于國際行為體合力應對人工智能可能帶來的各種挑戰。
關鍵詞:人工智能;全球治理;聯合國;人類命運共同體
中圖分類號:D815" " " "文獻標識碼:A" " " "文章編號:1003-8477(2024)12-0023-09
自然語言處理工具ChatGPT和文生視頻大模型Sora的橫空出世不僅加快了人工智能領域的技術發展和產業升級,一定程度上也推高了國際行為體在人工智能領域的治理競爭。①治理主體、治理議題和治理工具發生新變化,人工智能全球治理呈現新特征。各種治理措施和行動并沒有消除人們對于人工智能可能帶來的風險的擔憂,反而形成人工智能治理領域不同理念和機制的競爭,為人工智能全球治理的深化帶來阻礙。本文通過描繪當前人工智能全球治理的圖景,探析國際社會開展人工智能治理合作的阻礙因素,嘗試提出全球層面的應對方案。
一、人工智能全球治理現狀:以“治理主體—治理議題—治理工具”為框架
1956年,“人工智能之父”約翰·麥卡錫(John McCarthy)首次提出“人工智能”(Artificial Intelligence,AI)的概念。但對于人工智能是什么或者應該是什么,學界仍眾說紛紜。如今,人工智能全球治理呈現如下特征:在治理主體上,國家與非國家行為體并立,國家行為體仍居主導;在治理議題上,安全與發展議題并存,安全議題更受關注;在治理工具上,“軟治理”與“硬規則”并行,行為體加速探索“硬規則”。
(一)治理主體:國家行為體與非國家行為體
人工智能的迅猛發展引起各類行為體的高度關注和迅速回應。人工智能全球治理主體主要分為國家行為體與非國家行為體。這些行為體競相提升人工智能治理能力,搶占主導權和話語權,且逐漸由早期的非國家行為體較為活躍轉變為如今的國家行為體更趨主導。
中國既從戰略層面明確人工智能發展規劃,又著重推動人工智能治理工作。圍繞人工智能治理,中國組建了國家新一代人工智能治理專業委員會,并建立了兼顧發展規劃、基礎立法、專項規制、標準建設、倫理規范和國際倡議的較為系統的政策規制體系。此外,中國將國內人工智能治理經驗轉化為在國際舞臺上的行動和倡議。2021年12月,中國向聯合國《特定常規武器公約》第六次審議大會提交了《中國關于規范人工智能軍事應用的立場文件》。2024年7月,第78屆聯合國大會協商一致通過中國牽頭提出的“加強人工智能能力建設國際合作”決議草案,140多個國家參加決議聯署。[1]
為支持人工智能的發展與治理,美國成立了國家人工智能計劃辦公室(NAIIO)、機器學習與人工智能分委會(MLAI)、人工智能特別委員會(SCAI)、人工智能國家安全委員會(NSCAI)、國防部聯合人工智能中心(JAIC)和生成式人工智能工作組(Lima)等機構,覆蓋政府官員、企業高管、學界領袖、技術人員等多個利益攸關方,為政策制定、關系協調和經費供給等提供了充分保障。美國還先后發布或簽署了一系列重要政策文件,在人工智能監管基調、架構、范圍、路徑等方面作出明確指導與規定。
除中國和美國外,其他國家行為體也在人工智能治理領域奮起直追。2023年3月,英國發布了首份人工智能白皮書——《促進創新人工智能監管框架》。同年11月,英國倡議發起首屆“全球人工智能安全峰會”。2022年5月,新加坡推出全球首個官方人工智能治理測試框架和工具包“人工智能驗證”(AI Verify)。2024年6月,新加坡又推出一款生成式人工智能測試開源工具包Project Moonshot。2021年2月,印度政府政策智庫“印度國家機構改革委員會”(NITI Aayog)發布《負責任的人工智能原則》及其操作原則。2023年8月,印度頒布《數字個人數據保護法案》,旨在防止人工智能技術的濫用。2024年6月,以“人工智能技術:非洲發展的杠桿”為主題的首屆非洲人工智能技術發展高級論壇舉辦,與會代表通過了包含“努力構建全球性和包容性的人工智能治理共同框架”的“拉巴特共識”。
非國家行為體在人工智能全球治理領域也非常活躍,采取了大量措施和行動(見表1)。2023年5月,聯合國發布《全球數字契約——為所有人創造開放、自由、安全的數字未來》,提議制定“全球數字契約”(GDC),提倡對人工智能和其他新興技術的敏捷治理。[2]2023年10月,聯合國秘書長安東尼奧·古特雷斯(António Guterres)宣布組建“高級別人工智能咨詢機構”,加強人工智能治理國際合作。同年,該機構發布《臨時報告:為人類治理人工智能》。[3]
2018年,歐盟組建“歐洲人工智能聯盟”和“人工智能高級別專家組”。其后,歐盟內部圍繞“可信賴的人工智能”、人工智能“歐洲制造”、《人工智能法案》(Artificial Intelligence Act)等議題開展了豐富的交流磋商與務實行動。歐盟將人工智能發展納入“地平線歐洲”項目(Horizon Europe)、“數字歐洲”項目和“歐洲數字十年”戰略以加大投資,以期成為開發尖端、值得信賴的人工智能的全球領導者。[4]2024年8月,歐盟《人工智能法案》正式生效。這是迄今為止全球首部全面監管人工智能的法律法規。歐盟期待在人工智能領域再現《通用數據保護條例》(CDPR)的“布魯塞爾效應”,引領人工智能全球治理進程。
在非政府間機構中,世界經濟論壇、國際標準化組織、國際電工委員會、電氣電子工程師協會等技術社群與行業協會,布魯金斯學會、未來生命研究所等智庫以及微軟、OpenAI等私營部門通過參與制定技術標準、倡導形成國際共識、提供政策評估工具、構建國際協調機制、評估影響、判斷形勢、問責追責等方式參與國際事務,對人工智能全球治理產生重要影響。
各類行為體在開展和參與人工智能全球治理方面呈現以下特點:首先,早期非國家行為體扮演“先行官”,如今國家行為體更趨主導。在人工智能發展早期,非國家行為體尤其是私營部門、技術社群和行業協會等憑借信息和技術優勢活躍在人工智能全球治理的前沿,為人工智能系統早期的良性運轉提供了保障,并為后期人工智能倫理規則的制定奠定了基礎。其次,在國家行為體中,發達國家在人工智能治理方面起步早、基礎強、影響力大,發展中國家在人工智能全球治理中的代表性、發言權和話語權較弱。第三,國家行為體與非國家行為體相互開展廣泛合作,共同應對人工智能全球治理的趨勢顯著。
(二)治理議題:安全與發展
談論人工智能治理時,治理主體往往傾向于人工智能模型、數據集、開發工具包或其他制品,而不是直接討論可能帶來誤導和困惑的“如何治理人工智能”。作為一種實踐概念的人工智能的治理,應包含人工智能研究開發、設計制造、部署應用、風險防控等全過程,以及這一過程中的實踐主體及其組織、應用工具與操作流程、使用目的與可能影響。[5](p256)
作為一種強賦能且可自我迭代的技術,人工智能具有發展自適應性、不穩定性和不可預測性以及影響外溢性、跨域性和全球性,這注定了人工智能治理問題的紛繁復雜。學界、政界和業界都嘗試對人工智能治理問題進行分類辨別。如從人工智能生命周期出發,可分為技術內生、技術開發和技術應用;從人工智能風險類別出發,可分為綜合性風險和特定場景風險;從人工智能影響對象出發,可分為個體、社會、國家和人類;從人工智能核心要素出發,可分為數據、算法和算力;從人工智能影響出發,可分為經濟、社會、健康、安全和文化等。但人工智能治理議題大致可以分為安全和發展兩類。
針對安全和發展議題,治理主體的側重點不同。但總體而言,安全治理是目前更受關注,也引發更多擔憂的領域。這符合技術發展的早期特點,即對技術安全風險的擔憂高于對技術發展價值的重視。人工智能發展議題主要涉及從公平性出發的數字鴻溝問題、從包容性出發的發展成果分配問題、從可持續性出發的能源開發利用問題等內容。人工智能安全議題涉及面廣,對行為體均可能產生影響。
治理主體對安全議題的高度關注體現在幾個方面。其一,在已發布的人工智能治理政策規制文件中,安全議題必被提及,且有明確的底線性規定。比如歐盟《人工智能法案》對具有“不可接受風險”人工智能系統的嚴格禁令。其二,在已舉辦的人工智能國際會議或論壇中,安全是常設討論議題,有時甚至成為會議或論壇的主題。比如,英國倡議發起的首屆高規格全球性人工智能大會以“安全”為峰會主題,中國舉辦的2024年世界人工智能大會設置“前沿人工智能安全與治理論壇”。其三,在人工智能治理中,安全議題中的“致命性自主武器系統”(LAWS)的使用與管控問題最有希望達成全球共識。這一妥協意愿足見國際行為體對安全議題的重視。
(三)治理工具:“軟治理”與“硬規則”
人工智能全球治理中的發展與安全議題的平衡直接體現為治理主體對“軟治理”與“硬規則”的權衡。人工智能全球治理工具表現為“軟治理”與“硬規則”的“剛柔并濟”,并呈現出國際行為體對“硬規則”加速探索的態勢。
“軟治理”指“軟法”,涵蓋一系列的非強制性規則規范,如原則、規范、規則、理念、標準、倡議、指南、意見等,體現為政策指南、監管指引、倫理規范、價值準則、技術標準、行為守則、自律承諾等多種形式。“軟法”制定、運行和適用成本低,且靈活易調整,能在治理實踐中產生社會實效并推動全球治理合作,是補充或完善“硬規則”的備用工具。1但是,治理權威不足缺乏法律約束力、規則籠統模糊缺乏實踐執行力仍是其固有局限。
國際“軟法”主要體現為國際組織、多邊外交會議通過的包括聲明、決議、宣言、指南或者行為守則等在內的非條約式國際性法律文件。[6](p105)在人工智能技術發展的早期階段,政府對于技術的了解和認知存在局限性,往往難以制定較為科學的監管規定。因此,為避免過分嚴苛的監管扼殺技術創新,“軟治理”在人工智能發展早期較為常見,發揮著重要的約束和指引作用。如聯合國教科文組織發布的全球首份人工智能倫理規范《人工智能倫理問題建議書》。[7]人工智能“軟治理”的倡導者以美國、英國、日本為代表。美國延續了對新技術發展一貫的鼓勵創新態度,沒有在聯邦層面發布剛性的法律規則,以監管原則和監管框架等原則性要求為主,并鼓勵行業自律。[8]
“硬規則”又稱“硬法”,是指剛性的具有法律約束力的規則規范,如法律、國際條約等,并有具體的執行實施機制和保障懲罰機制,具有確定性、穩定性和強制執行力。由于“硬法”難以適時制定修訂,且多局限于特定的司法管轄區,缺乏及時性、回應性和靈活性,這種靜態治理思路可能帶來治理失效風險。
國際“硬法”主要指國際條(協)約、國際習慣和一般法律原則。在人工智能治理“硬規則”領域,尚未形成全球層面的成文法。2024年5月,歐盟理事會正式批準《人工智能法案》,這是全球首個以立法模式對人工智能進行全面監管的法案。歐盟總結《數字市場法案》和《通用數據保護條例》的制定經驗,沿用“基于風險的治理路徑”(Risk-Based Approach),采取風險分級分類管理的精準治理模式,并創新地提出人工智能“監管沙盒”,即提供一個進行人工智能系統開發、測試和驗證的受監督的實驗測試區。這既促進了人工智能治理前瞻性,又兼顧了創新友好性,為應對科技管理的“步調問題”提供了解決思路。[9](p61)2024年3月,歐洲委員會人工智能特設委員會提出了首個關于負責任地使用人工智能的具有法律約束力的國際條約《人工智能、人權、民主和法治框架公約》。此條約旨在確保人工智能系統在生命周期內的活動完全符合人權、民主和法治要求,并建立了后續機制以保障國際合作。除歐盟外的主要國家和地區尚未制定全域的、專門的、整體性的人工智能法律法規,但已就人工智能領域具體問題完成了相關立法,并探索推進人工智能整體性立法。
通過探析人工智能全球治理工具,可總結出“軟治理”和“硬規則”的關系特點:一是“軟治理”和“硬規則”兩種治理工具并行。基于自身局限性,無論是“軟治理”還是“硬規則”均無法獨立勝任人工智能治理任務,兩者互為補充和保障是治理所需。倘若“軟法”施行效果廣受認可,可以升級為“硬法”,兩者存在轉化關系。二是主要國家正在加速探索人工智能治理“硬規則”。為滿足快速發展的人工智能治理需要,部分國家行為體已將人工智能整體性立法納入議程。
二、深化人工智能全球治理的阻礙
盡管多方治理主體在人工智能治理領域高度活躍,各種治理機制層出不窮,但是人工智能治理供給仍明顯落后于治理需求,已經引發包括人工智能換臉詐騙、編造網絡謠言、侵犯商業秘密等人工智能相關案(事)件。由于人工智能具有潛在外溢性風險,對于人工智能治理的失靈,不能片面著眼于個別國家或地區,而應從全球角度審視,思考阻礙國際行為體合力應對人工智能共同威脅的因素。人工智能全球治理困境緣于全球治理內在的制度性、政治性和合法性阻礙,這導致國際社會在應對人工智能所帶來的全球性挑戰時顯得乏力。
(一)制度性阻礙:人工智能治理機制碎片化
當國際規則無法充分實現治理功能,國際行為體往往繞過全球性規則而進行小范圍的合作。根據經濟合作與發展組織“人工智能政策觀察站”披露的數據,目前來自不同國家和地區的人工智能政策倡議已達數百項。地區甚至雙邊的治理安排的活躍恰恰反映了人工智能治理在全球層面的低效度和不充分性。[10](p9)人工智能全球治理呈現治理議題分散、治理機制重合和治理中心缺位的碎片化圖景,為人工智能全球治理合作帶來制度性阻礙。
當今人工智能全球治理安排呈現出高度分散的碎片化圖景。國際行為體因治理目標、治理資源和治理經驗的差異有著不同的議題偏好,造成治理議題的分散化。國際行為體不同的價值觀念和戰略需求導向在治理重點、治理工具和治理強度等政策取向方面的廣泛差異,最終導致治理合作缺乏下的機制競爭。具體而言,在理念上,全球形成了“負責任的人工智能”“有益的人工智能”“以人為本的人工智能”“可信賴的人工智能”“為善的人工智能”等治理理念。在實踐上,圍繞具體治理問題,尚未設立明確可執行,且具備實際約束力的全球性治理機制。行為體各自擬定治理方案并尋求方案輸出,爭奪人工智能全球治理話語權和影響力,帶來圍繞同一治理問題的不同治理機制之間的嵌套、重疊和沖突,表現為治理機制的多重性。在人工智能治理架構上,目前尚未設立人工智能全球治理的核心監管機構,也未建立統一的人工智能全球治理框架,總體呈現缺乏中心機制的非等級化局面,不同治理機制之間沒有從屬關系和約束力,表現為治理中心的缺位。
人工智能治理機制碎片化為人工智能全球治理帶來制度性阻礙,無法有效回應人工智能全球治理需要。其一,治理議題涵蓋度和覆蓋面的不足導致對于人工智能領域綜合性較強的系統安全問題與發展合作問題的回應較弱。[11](p31)其二,當前人工智能治理機制的制度化程度較低、隨機性較高且將多數行為體排斥在外。[12](p101)單個機制治理能力較弱且代表性不足,無法獨立干預人工智能全球治理問題。其三,機制之間治理能力相差較大。盡管現有人工智能治理機制之間沒有嚴格的等級關系,但機制之間并非處于完全平行的狀態,成員的國際地位、平臺的權威性、機制的成熟程度等區別勢必帶來機制國際影響力的差距,可能導致“治理機制競賽”,帶來強勢機制對弱勢機制的傾軋。其四,各機制之間耦合程度較弱,使治理問題的討論和解決變得更加復雜。其五,缺乏共同的、較為剛性的標準和規范,導致不同司法管轄區之間缺乏協調性,不同治理機制之間缺乏互操作性,使人工智能在不同國家的發展和應用面臨不同的監管環境,可能帶來“選擇法院”(Forum Shopping)式監管套利,有違治理初衷。[13](p76)總之,人工智能治理機制碎片化削弱了人工智能全球治理的權威性和有效性。
(二)政治性阻礙:人工智能治理取向地緣政治化
以美國為代表的西方國家常運用“二元對立”的思維方式看待國際社會中不同行為體之間的關系。這勢必凸顯國際行為體之間的對立性和沖突性,不利于就全球問題達成共識和合作。這是當今世界在人工智能全球治理問題上無法達成一致的重要原因。在人工智能全球治理領域,地緣政治意識正在侵蝕治理合作。以美國為代表的西方國家將全球治理機制工具化,力圖向全球推廣西方治理模式,以掌握對未來技術的控制權并擴大自身在智能世界的勢力范圍,從而為人工智能全球治理合作帶來政治性阻礙。
美國以意識形態劃線,打造排他性技術聯盟,筑起“小院高墻”。美國等西方國家將西式自由、民主、人權、平等等價值理念作為“安全、可靠、值得信賴的人工智能”的參考標準,糾集盟友打造以“共同價值觀”為基礎的技術聯盟,主觀塑造戰略競爭對手,進行陣營對抗。以“首爾峰會”為例,會議成果性文件之一《關于安全、創新和包容性人工智能的首爾宣言》的實際簽署方僅包含七國集團、韓國、澳大利亞、新加坡共10個國家和歐盟,排除包括中國在內的其他非西方陣營國家。七國集團在“廣島人工智能進程”中關于組織開發先進人工智能系統的國際指導原則和國際行為準則為基礎,明確“全球”人工智能治理框架,而非國際社會普遍提倡的在聯合國框架下確定治理規則,以“西方共識”取代“全球共識”的意圖明顯。[14]經濟合作與發展組織、“美歐貿易和技術委員會”(TTC)、《二十一世紀美英經濟伙伴關系大西洋宣言》等出臺的機制或倡議也表現出聯動、互嵌和融合態勢。[13](p81)除以美國為主導的機制外,歐盟、英國、印度等也發起各自的小范圍合作,通過“志同道合的伙伴關系”,探索在人工智能技術研發領域的合作,并尋求共同開發“監管通道”(Crosswalk),以實現雙方監管的互操作性和一致性。
美國還推動資源管控安全化,主張“脫鉤斷鏈”。美國利用技術壟斷和單邊強制措施進行人工智能相關技術和產品出口管制,意在鎖定在人工智能領域的比較優勢。如美國通過《芯片和科學法案》,成立“芯片法案辦公室”,逐步加嚴對人工智能相關芯片、半導體制造設備的對華出口限制,并將多家中國實體列入出口管制“實體清單”。[15]美國為了維持其在人工智能領域的領先地位而采取的單邊主義行動嚴重影響全球技術與產品流動的正常秩序。
(三)合法性阻礙:人工智能治理資源與收益分配不均
全球治理的合法性來源于多元性和公平性。研究表明,在人工智能治理資源與發展回報分配方面,發展中國家存在代表性和普惠性的匱乏,非政府間機構存在權責定位不清晰和收益分配不均衡的問題。人工智能的治理資源和發展回報集中在少數國家和少數利益群體,為人工智能全球治理合作帶來合法性阻礙。
在發展中國家人工智能治理資源與發展回報分配方面,存在代表性和普惠性的匱乏。在治理資源方面,新興經濟體往往只能通過新設立國際機制來增強自身的制度性話語權。這種全球治理框架變革的滯后性所帶來的發展中國家的代表性不足,使發展中國家在人工智能全球治理資源和能力的獲取和運用方面依然無法擺脫固有劣勢。一方面,在頗具影響力的人工智能治理機制中,發展中國家基本沒有代表或者代表人數不足;另一方面,發達國家憑借其技術先進性獲得人工智能治理規則制定的“先發優勢”,形成治理代差,進一步削弱了發展中國家在人工智能全球治理中的影響力。在發展回報方面,作為強賦能性技術,人工智能在包括實現聯合國可持續發展目標(SDGs)在內的經濟和社會發展方面具有較強促進作用,但人工智能發展回報分配的普惠性問題值得關注。發達國家和發展中國家的智能鴻溝表現為人工智能資源占有不均、應用能力不同和發展機遇不等,這影響著全球人工智能產業鏈分工。人工智能核心技術的開發和應用仍集中在發達國家,而低薪、高強度、創傷性的數據標注工作被委托給處于人工智能技術研發活動邊緣地帶的發展中國家,這將繼續擴大兩者間的經濟發展差距和智能鴻溝。此外,人工智能訓練會帶來極高能源消耗和碳排放量,應警惕發達國家向發展中國家進行產業轉移可能伴隨的污染轉移問題,避免發展中國家面臨人工智能收益和損失分配關系的進一步失衡。
在非政府間機構人工智能治理資源與發展回報分配方面,存在權責定位不清晰和收益分配不均衡的問題。在治理資源方面,更為多元的跨界性彌散性治理訴求要求除主權國家之外,其他社會力量的參與和協助。事實上,國際社會已就“人工智能全球治理需要多利益攸關方的參與”達成共識。但是,非政府間機構對人工智能全球治理的廣泛參與,也帶來了國家治理權力的分散化。掌握核心治理資源的政府與掌握前沿信息與技術的非政府間機構之間的關系定位與協調方式尚不明晰。[13](p78)如何在使非政府間機構充分發揮訴求表達、意識宣傳、信息提供、行動監督等作用,為人工智能全球治理帶來有益補充的同時,妥善處理好與政府之間的關系,國際社會尚未達成共識,更遑論制定權責明確的多層次全球治理機制。在發展回報方面,如今大部分國際制度和規則是在以國家為唯一主導行為體的國際體系下設計和建立的,也自然服務于國家利益的實現。此外,在非政府間機構內部也存在著不公平分配。以私營部門為例,人工智能技術研發需要大量資金、能源和技術人員支持,頭部企業具有顯著發展優勢。在部分國家和地區,政府倡導行業自治與自主監管,頭部企業對發展優勢的壟斷會演變為監管優勢,進一步拉大與初創企業和中小企業的發展回報差異。即便在同一家企業的內部,由于勞動分工的專業化,也會存在回報差異,可見收益分配不均衡問題的廣泛性。
三、人工智能全球治理的前景
為了應對人工智能全球治理領域的挑戰,各行為體在理論和實踐方面進行了有益探索,有關優化人工智能全球治理的具體建議不勝枚舉。參考學者提出的“機制”和“關系”構成的綜合治理模式,[16](p16)人工智能全球治理前景也可以包括兩個方面:在機制安排方面,構建以聯合國為紐帶的全球治理框架;在關系建設方面,建設以“命運共同體”為愿景的全球伙伴關系,從而推動突破人工智能全球治理所面臨的制度性、政治性和合法性阻礙。
(一)機制安排:以聯合國為紐帶的全球治理框架
“治理”概念自誕生之初就離不開“機制”,被視為由多數協議構成的一種規范系統。[12](p94)如今的人工智能全球治理呈現由復雜利益關系催生的治理機制混雜的圖景,而碎片化的治理機制無法有效回應人工智能全球治理需求。對此,不能片面依靠機制的“自適應性”來消解機制碎片化帶來的挑戰,有必要對治理機制進行有效整合,化單一分散的制度安排為多元協同的機制體系或網絡。
構建人工智能全球治理框架的關鍵在于核心紐帶的選擇。盡管聯合國因在處理大國間關系問題上的乏力而受到有效性質疑,但在為人工智能全球治理的集體行動提供框架基礎方面,聯合國仍是最佳選擇。一方面,聯合國具有獨特的合法性和影響力。作為一個基于國際普遍認同的《聯合國憲章》而建立的機構,聯合國的權威性是其天然優勢。而治理機制的“曝光度”,即被行為體獲知,乃至應用的程度,恰是取得實際效用的關鍵因素之一。[17](p158)另一方面,聯合國具有解決全球性問題的建制基礎和豐富經驗。聯合國在建立全球標準、促進能力建設和確保監督問責等方面具有堅實的職能部門支撐和豐富的全球治理經驗。實際上,聯合國已圍繞人工智能全球治理框架的構建而采取密集行動。2023年12月21日,聯合國“高級別人工智能咨詢機構”發布《臨時報告:為人類治理人工智能》,初步描繪了建立人工智能全球治理機構的原則性規劃,并提出將在2024年聯合國未來峰會召開前發布最終報告。2024年3月21日,聯合國大會通過了普遍性的“抓住安全、可靠和值得信賴的人工智能系統帶來的機遇,促進可持續發展”決議,旨在鼓勵各方在人工智能的發展和應用中,秉持開放、合作、包容和公平的原則,共同推動人工智能技術的可持續發展。7月1日,聯合國又通過專門性的“加強人工智能能力建設國際合作”決議,旨在通過國際合作和實際行動幫助各國,特別是發展中國家加強人工智能能力建設,增強發展中國家在人工智能全球治理中的代表性和發言權。
構建人工智能全球治理框架的基礎在于協調機構的創建。國際社會需要具體機構承擔人工智能治理主體協調和治理機制整合的工作。在聯合國系統內部,有關人工智能治理的具體工作分散在不同部門,并未進行有機整合。在2024年世界人工智能大會暨人工智能全球治理高級別會議上發表的《人工智能全球治理上海宣言》倡導建立全球范圍內的人工智能治理機制,支持聯合國發揮主渠道作用。[18]以聯合國為“主渠道”,意為使聯合國在人工智能全球治理中成為團結性紐帶,即以聯合國普遍框架為基礎,建立人工智能全球治理機構,發揮協調作用,促成全球共識,為人工智能全球治理提供一個連貫的、可互操作的治理框架,而不是使聯合國扮演垂直式壟斷結構中的“核心”。在人工智能全球治理機構的初步設想中,聯合國明確了指導原則和關鍵職能,為構建人工智能全球治理框架承擔策劃、協調和監督等工作。[19]
構建以聯合國為紐帶的全球治理框架是突破人工智能全球治理制度性阻礙的重要措施,有助于減小合法性阻礙和政治性阻礙。比如,聯合國在進行人工智能全球治理機構職能分配時強調,國際組織、政府和私營部門將對七項關鍵職能承擔主要責任,民間社會將在提供政策建議、評估政策影響以及問責關鍵行為體方面發揮關鍵作用。這表明聯合國在探索構建人工智能全球治理體系時秉持的多元主義治理觀,有助于夯實人工智能全球治理的合法性基礎。
(二)關系建設:以“命運共同體”為愿景的全球伙伴關系
“機制”在全球治理中發揮重要作用,但構建和發展國際行為體之間的和諧關系也十分重要。倘若將全球治理界定為一種對行為體相互間關系的塑造、管理和協調過程,加強雙方的信任感和“共同體”意識,營造團結協作的整體氛圍,有助于促進全球性問題的共同解決。[16](p15-16)在人工智能全球治理中,可以探索在“命運共同體”這一集體身份下共同應對人工智能治理挑戰,增強人工智能全球治理的有效性和可持續性。
在西方國際關系理論視角下,國際行為體之間或是基于霍布斯式的敵對關系,或是基于理性主義的利益驅動下的競合關系。這容易導致國際行為體對國際機制的“選擇性”利用,對己有利便加入積極作為,對己有損便退出或消極避責,嚴重阻礙國際機制作用的有效發揮。因此,需要倡導國際行為體相互聯系、相互依存,全球命運與共、休戚相關的理念,在人工智能全球治理領域構建一種“命運共同體”關系,以有利于應對攸關全人類命運的人工智能治理共同課題。
一是堅持“以人為本”的理念,構建人工智能治理“命運共同體”。“以人為本”是國際行為體塑造共同身份的基點。在人工智能發展與治理過程中,只有始終以增進人類共同福祉為目標,以保障社會安全、尊重人類權益為前提,確保人工智能始終朝著有利于人類文明進步的方向發展,才能從根本上塑造和維持國際行為體之間的信任感和認同感。[20]
二是堅持“協同治理”的路徑,構建人工智能治理“命運共同體”。“協同治理”是國際行為體參與共同實踐的方式。只有各國政府、國際組織、企業、研究機構、社會組織和個人等多元主體秉持共商共建共享的理念,發揮與自身角色相匹配的作用,參與人工智能治理體系的構建和實施,才能使伙伴關系真正落到實處,促進人工智能技術造福于人類。
三是堅持“平等互利”的原則,構建人工智能治理“命運共同體”。“平等互利”是國際行為體維護共同關系的保障。堅持公平性、包容性和非歧視性原則,反對以意識形態劃線或構建排他性集團;避免產生針對不同或特定民族、信仰、國別、性別等的偏見和歧視;推動保證各國無論大小、強弱,無論社會制度如何,都有平等發展和利用人工智能的權利,有利于避免地緣政治競爭驅動不負責任的人工智能或人工智能治理。
建設以“命運共同體”為愿景的全球伙伴關系是突破人工智能全球治理政治性阻礙的重要措施,也有助于減少合法性和制度性阻礙。堅持“協同治理”的路徑,有助于推動多元主體對人工智能全球治理的共同參與,增強人工智能全球治理合法性。同時,國際行為體之間“伙伴關系”的構建需要依托國際機制,從長遠角度也有利于克服人工智能全球治理的制度性阻礙。
結語
所有全球治理機制都需要回答的重要問題是:誰是受益方?這是全球治理機制的起點,關乎機制的后續發展,也是最終評判機制實踐效果的依據。對于人工智能全球治理也是如此,即當前的人工智能治理是否真正服務于人類的根本利益?可以發現,在人工智能全球治理領域,治理主體發掘并運用治理工具,積極應對紛繁復雜的治理問題,但將個體利益置于整體利益之上的行為也比比皆是。若想突破人工智能全球治理所面臨的困境,首先需要做好行為體身份和行為體之間關系的定位,明確人工智能全球治理的本質目標。同時,在深化人工智能全球治理時所面臨的制度性、政治性和合法性阻礙中,有部分是人工智能領域獨有的,有部分卻是全球治理的共性問題。若想突破人工智能全球治理所面臨的困境,本質上需要回答如何建立起符合時代發展需要的全球治理體系。
參考文獻:
[1]聯合國大會.加強人工智能能力建設方面的國際合作(A/RES/78/311)[R].https://documents.un.org/doc/undoc/gen/n24/197/25/pdf/n2419725.pdf?token =rojed agcH3kFCnFdGnamp;fe=true.
[2]聯合國.《我們的共同議程》政策簡報5:全球數字契約——為所有人創造開放、自由、安全的數字未來(A/77/CRP.1/Add.4)[R]. https://www.un.org/sites/un2.un.org/files/our-common-agenda-policy-brief-gobal-digi-compact-zh.pdf.
[3]United Nations. Interim Report: Governing AI for Humanity[R]. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pdf.
[4]European Commission. An European Approach to Excellence in AI[EB/OL]. https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence,2024-08-01/2024-08-03.
[5]Veale M, Matus K, Gorwa R. AI and Global Governance: Modalities, Rationales, Tensions[J]. Annual Review of Law and Social Science, 2023,19(1).
[6]朱明婷,徐崇利.人工智能倫理的國際軟法之治:現狀、挑戰與對策[J].中國科學院院刊,2023,38(7).
[7]聯合國教科文組織.人工智能倫理問題建議書[EB/OL].https://unesdoc.unesco.org/ark:/48223/pf00 00381137_chi,2021-11-23/2024-07-15.
[8]曾雄,梁正,張輝.人工智能軟法治理的優化進路:由軟法先行到軟法與硬法協同[J].電子政務,2024,(6).
[9]胡正坤,李玥璐.全球人工智能治理:主要方案與階段性特點[J].中國信息安全,2023,(8).
[10]秦亞青.全球治理失靈與秩序理念的重建[J].世界經濟與政治,2013,(4).
[11]魯傳穎.全球人工智能治理的目標、挑戰與中國方案[J].當代世界,2024,(5).
[12][瑞士]彼埃爾·德·塞納克倫斯,馮炳昆.治理與國際調節機制的危機[J].國際社會科學雜志(中文版),1999,(1).
[13]桂暢旎.人工智能全球治理機制復合體構建探析[J].戰略決策研究,2024,15(3).
[14]何文翔,李亞琦.首爾峰會之后:全球AI安全治理的現狀、權力與路線之爭[EB/OL]. https://fddi.fudan.edu.cn/_t2515/6c/53/c21253a683091/page.htm,2024-06-17/2024-07-27.
[15]中華人民共和國外交部.2024年1月29日外交部發言人汪文斌主持例行記者會[EB/OL]. https://www.mfa.gov.cn/web/wjdt_674879/fyrbt_674889/202401/t20240129_11235277.shtml,2024-01-29/2024-07-30.
[16]秦亞青.全球治理失靈與秩序理念的重建[J].世界經濟與政治,2013,(4).
[17]Schiff D, Biddle J, Borenstein J, et al. Whats Next for AI Ethics, Policy, and Governance? A Global Overview[A]//Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society. 2020.
[18]中華人民共和國外交部.人工智能全球治理上海宣言[EB/OL]. https://www.fmprc.gov.cn/web/ziliao_674904/1179_674909/202407/t20240704_11448293.shtml,2024-07-04/2024-07-14.
[19]United Nations. Interim Report: Governing AI for Humanity[R]. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pdf.
[20]中央網絡安全和信息化委員會辦公室,中華人民共和國國家互聯網信息辦公室.全球人工智能治理倡議[EB/OL]. https://www.cac.gov.cn/2023-10/18/c_1699291032884978.htm,2023-10-18/2024-07-14.
責任編輯" " 唐" "偉, 王" "瑞