摘要:人工智能是人類發(fā)展的新領(lǐng)域。面對人工智能技術(shù)的快速發(fā)展,美國和歐洲從2015年至今采取了一系列有關(guān)人工智能治理的重要嘗試,將技術(shù)治理問題嵌入國家與地區(qū)的人工智能發(fā)展戰(zhàn)略。但是在推進人工智能治理進程的過程中,美國和歐洲選擇了有所不同的人工智能治理道路。雙方在治理理念、治理原則、治理模式、治理手段等方面的分歧客觀上擴大了全球人工智能治理的碎片化程度,在影響全球人工智能技術(shù)發(fā)展和風險管控的同時,也為世界各國的人工智能治理實踐提供了更多選擇。對中國來說,美歐人工智能治理的分歧及其影響可以提供加快構(gòu)建“以我為主”的人工智能治理體系、加強對美對歐人工智能對話溝通、加大面向發(fā)展中國家的國際合作與援助三方面啟示。
關(guān)鍵詞:人工智能治理;美國;歐洲;國際治理
中圖分類號:D815" " " "文獻標識碼:A" " " " 文章編號:1003-8477(2024)12-0042-09
人工智能是人類發(fā)展的新領(lǐng)域。當前,全球人工智能技術(shù)的快速發(fā)展,對經(jīng)濟社會發(fā)展和人類文明進步產(chǎn)生深遠影響。人工智能在給世界帶來巨大機遇的同時,也帶來了技術(shù)濫用、隱私安全、責任模糊、虛假信息、技術(shù)壟斷的負面影響以及技術(shù)失控等難以預(yù)知的風險和復(fù)雜挑戰(zhàn)。人工智能治理攸關(guān)全人類命運,是世界各國面臨的共同課題。[1] 但是目前,不同國家在發(fā)展水平、政治制度、文化環(huán)境、治理理念等方面存在差異,對人工智能治理方式的選擇有所不同。特別是美國和歐洲作為人工智能技術(shù)創(chuàng)新和產(chǎn)業(yè)應(yīng)用最發(fā)達的地區(qū),雖然各自出臺了一系列人工智能治理的最新舉措,但在人工智能治理問題上存在分歧,對人工智能風險的跨國監(jiān)管、人工智能國際治理體系的協(xié)調(diào)構(gòu)建等問題產(chǎn)生了較大影響,導(dǎo)致本就面臨合理性、公平性、有效性三大赤字的人工智能國際治理問題[2] 面臨更大挑戰(zhàn)。在此背景下,有必要基于人工智能國際治理的視角,比較分析美歐人工智能治理模式的異同、評估美歐人工智能治理模式分歧的影響,以此對中國推動人工智能治理國際合作提出啟示與建議。
一、美、歐人工智能治理的整體進程
根據(jù)斯坦福大學的統(tǒng)計,從研發(fā)投入、基礎(chǔ)研究產(chǎn)出、專利申請、人才培養(yǎng)、產(chǎn)業(yè)應(yīng)用等各個維度來看,美國和歐洲都是中國之外全球人工智能發(fā)展最迅速的地區(qū)。[3] 隨著近年預(yù)訓練大模型等生成式人工智能的快速迭代,技術(shù)的躍遷式發(fā)展不斷向人工智能治理提出新的挑戰(zhàn)。為防范人工智能技術(shù)的負面危機外溢,維護自身技術(shù)的先發(fā)優(yōu)勢,美、歐在加快推動人工智能發(fā)展的同時將技術(shù)治理提升到國家與地區(qū)人工智能發(fā)展戰(zhàn)略之中,有關(guān)人工智能全球監(jiān)管標準與規(guī)則制定主導(dǎo)權(quán)的競爭日趨激烈。[4]
(一)美國人工智能治理進程
美國人工智能治理的進程始于奧巴馬政府末期,在特朗普政府時期逐漸細化,到拜登政府時期已經(jīng)被提升至事關(guān)美國國家競爭力和領(lǐng)導(dǎo)地位的重要高度。
第一,奧巴馬政府較早布局人工智能治理,圍繞促進技術(shù)發(fā)展、評估經(jīng)濟社會影響等問題進行了早期嘗試。2016年10月,奧巴馬政府發(fā)布了《人工智能研究與發(fā)展戰(zhàn)略規(guī)劃》《為未來人工智能做好準備》兩份重要文件,設(shè)定了“提高前沿人工智能性能和可靠性”的發(fā)展目標,重點關(guān)注前沿人工智能技術(shù)在健康、交通、能源、國家安全等領(lǐng)域的應(yīng)用價值,在提出“加強基礎(chǔ)研究、推動跨部門合作、培養(yǎng)人工智能人才”等具體戰(zhàn)略舉措的同時,強調(diào)要加強對于人工智能技術(shù)應(yīng)用的評估和監(jiān)督。[5] 由于當時已經(jīng)處于奧巴馬政府任期的最后階段,相關(guān)文件產(chǎn)生的實際影響較為有限。
第二,隨著人工智能技術(shù)的快速發(fā)展,特朗普政府更加重視人工智能的發(fā)展和治理問題,在2017年《美國國家安全戰(zhàn)略》、2018年《國防戰(zhàn)略報告》等多項重大政策文件中提及人工智能對于美國國家安全和國際競爭力的戰(zhàn)略意義,[6] 美國人工智能治理進程由此開始加速。2019年2月,時任美國總統(tǒng)的特朗普簽署了題為《維護美國人工智能領(lǐng)先地位》的行政命令,明確了美國政府對于前沿人工智能技術(shù)的重視和支持,強調(diào)通過提高對人工智能技術(shù)研發(fā)的支持和投資力度保持美國在人工智能領(lǐng)域的全球領(lǐng)導(dǎo)地位。[7] 同時,該行政令也提出應(yīng)關(guān)注前沿人工智能技術(shù)可能帶來的倫理和社會影響,并將積極推動人工智能國際標準的制定與合作。2020年12月,特朗普政府發(fā)布《促進聯(lián)邦政府使用可信人工智能技術(shù)》行政令,提出了包括尊重美國法律和價值觀、公平、透明、安全、負責任、可追溯等在內(nèi)的前沿人工智能治理原則。[8] 2021年1月,《2020年國家人工智能倡議法案》正式生效,法案將人工智能計劃編入《國防授權(quán)法案》,要求成立國家人工智能倡議辦公室等行政機構(gòu),每5年更新一次國家人工智能發(fā)展戰(zhàn)略,[9] 進一步完善了美國人工智能治理的頂層設(shè)計和戰(zhàn)略部署。
第三,2021年后,以大語言模型為代表的生成式人工智能掀起了全球人工智能技術(shù)發(fā)展的新浪潮,拜登政府將人工智能的監(jiān)管和治理提升至關(guān)乎美國國家競爭力和領(lǐng)導(dǎo)地位的重要位置,從國內(nèi)治理和國際治理兩個維度進行了一系列重要布局。2022年10月,拜登政府發(fā)布《人工智能權(quán)利法案藍圖》,明確提出了公平、可解釋、隱私保護、安全、負責任的“五項治理原則”。[10] 2023年10月,拜登簽署《關(guān)于安全、可靠、可信地開發(fā)和使用人工智能的行政令》(后文簡稱《人工智能行政令》),要求對前沿人工智能進行新的安全評估,提出了建立人工智能安全標準、保護美國公民隱私、促進公平、維護消費者和勞工權(quán)利、促進創(chuàng)新和競爭、提升美國領(lǐng)導(dǎo)地位等具體的人工智能治理目標。[11] 不僅如此,拜登政府在行政令中還強調(diào)美國應(yīng)成為人工智能領(lǐng)域的全球領(lǐng)導(dǎo)者,希望與盟友一道在人工智能全球技術(shù)標準和治理體系中發(fā)揮主導(dǎo)作用,在加強國內(nèi)治理的同時試圖將自身的治理體系在全球范圍內(nèi)進行推廣。2024年3月,拜登政府牽頭的決議《抓住安全、可靠和值得信賴的人工智能系統(tǒng)帶來的機遇,促進可持續(xù)發(fā)展》獲得聯(lián)合國大會通過,鼓勵會員國制定與人工智能系統(tǒng)相關(guān)的治理方法和框架,美國在人工智能國際治理領(lǐng)域的布局正在加速展開。
(二)歐洲人工智能治理進程
歐洲是中美之外人工智能發(fā)展最快的地區(qū),也是全球人工智能立法的領(lǐng)跑者。總體來看,歐洲的人工智能治理進程可以劃分為2015至2018年、2018至2021年、2021年至今三個具體階段。
第一,2015至2018年是歐洲人工智能治理的起步階段。在此期間,歐盟逐漸提高對于人工智能的關(guān)注程度,部分成員國發(fā)布了有關(guān)人工智能發(fā)展的國家戰(zhàn)略。2015年1月,歐洲議會發(fā)布《關(guān)于制定機器人和人工智能民事法規(guī)建議》的報告,提出要關(guān)注機器人和人工智能快速發(fā)展的社會影響,確保相關(guān)技術(shù)得到負責任和道德的使用,建議設(shè)立歐盟機器人和人工智能專門管理機構(gòu),針對性制定新的法律和道德規(guī)范,[12] 人工智能治理開始逐步進入歐盟立法議程。2017年5月,歐洲經(jīng)濟與社會委員會在題為《人工智能對數(shù)字市場、生產(chǎn)、消費、就業(yè)和社會影響》的報告中總結(jié)了人工智能在倫理、安全、隱私等11個領(lǐng)域的風險挑戰(zhàn),[13] 進一步強調(diào)歐洲需要建立完善的人工智能監(jiān)管標準體系。到2018年初,法國、德國等歐盟成員國分別發(fā)布了《有意義的人工智能:走向法國和歐洲的戰(zhàn)略》《人工智能造福人類》等人工智能發(fā)展戰(zhàn)略,開啟了歐洲人工智能治理的實踐步伐。
第二,2018年到2021年是歐洲人工智能治理的加速階段。在此期間,歐洲圍繞區(qū)域內(nèi)的人工智能跨國治理進行了大量嘗試。2018年4月,25個歐洲國家聯(lián)合簽署《人工智能合作宣言》,同意在人工智能相關(guān)領(lǐng)域加強集體合作,在確保歐洲人工智能發(fā)展競爭力的同時,共同應(yīng)對人工智能帶來的社會、經(jīng)濟、倫理及法律風險,標志著歐洲正式開始在區(qū)域?qū)用嫱苿尤斯ぶ悄艿囊?guī)范化發(fā)展。[14] 在合作宣言的基礎(chǔ)上,歐盟委員會隨后發(fā)布《歐盟人工智能》戰(zhàn)略和“人工智能協(xié)調(diào)計劃”,明確設(shè)置了提升歐洲人工智能國際競爭力、幫助所有歐盟國家參與人工智能變革、確保歐盟價值觀作為歐洲人工智能基礎(chǔ)三項目標。在呼吁促進人工智能科技創(chuàng)新的同時,強調(diào)將人工智能限制在尊重歐盟的價值觀、基本權(quán)利和道德原則的框架內(nèi)發(fā)展。對此,戰(zhàn)略具體提出了擴大公共和私人投資、積極應(yīng)對人工智能經(jīng)濟社會影響、加快建立道德和法律框架三大支柱組成的歐洲人工智能治理路徑。[15] 同年6月,歐盟委員會根據(jù)《歐洲人工智能》戰(zhàn)略的布局,正式成立了人工智能高級專家組和人工智能聯(lián)盟,開始著手研究和規(guī)劃歐洲具體的人工智能政策。2019年4月,歐盟委員會發(fā)布《人工智能道德準則》,圍繞“以人類為中心”的人工智能治理理念,確定了“尊重人的自主性、預(yù)防傷害、公平、可解釋”四項治理目標,并由此提出了保證人類能動性和有效監(jiān)督、確保技術(shù)安全、保護隱私和數(shù)據(jù)、確保透明度、保障非歧視和公平性、有利社會福祉、確保可追責等7項具體的人工智能治理準則。2020年2月,歐盟委員會連續(xù)發(fā)布《人工智能白皮書》《歐洲數(shù)據(jù)戰(zhàn)略》《塑造歐洲數(shù)字化未來》3份重要文件,標志著歐洲人工智能治理的頂層設(shè)計和路線規(guī)劃基本完成。
第三,2021年至今是歐洲人工智能治理的落地和細化階段。在此期間,歐洲人工智能治理的重心從戰(zhàn)略規(guī)劃和軟性規(guī)范轉(zhuǎn)向硬性立法,全球首部人工智能全面監(jiān)管法律——《人工智能法案》的制定構(gòu)成了這一時期歐洲人工智能治理進程的核心。2021年4月,歐盟委員會首次發(fā)布《人工智能法案》提案,并提出加強歐洲人工智能治理方案溝通、評估人工智能法案影響等多項計劃,正式開啟了歐洲人工智能立法的步伐。同年11月至12月,歐盟理事會發(fā)布了關(guān)于《人工智能法案》的輪值主席折中方案,歐洲中央銀行、歐洲經(jīng)濟和社會委員會、歐洲地方委員會等歐盟機構(gòu)和咨詢組織圍繞《人工智能法案》提出了各自的觀點。2022年12月,歐盟理事會通過了關(guān)于《人工智能法案》的共同立場,圍繞人工智能系統(tǒng)定義、絕對禁止的人工智能行為、人工智能系統(tǒng)風險等級劃分標準等核心問題達成共識。2023年6月歐洲議會通過了《人工智能法案》的草案表決后,歐盟成員國、歐盟理事會和歐洲議會就《人工智能法案》的具體條款進行了多輪談判,并最終于2023年12月達成了有關(guān)《人工智能法案》的臨時協(xié)議。[16] 2024年3月13日,歐洲議會正式批準了《人工智能法案》,待歐盟理事會批準后即將成為歐盟的正式法律。經(jīng)歷3年多的談判磋商,《人工智能法案》的最終通過為歐洲的人工智能治理奠定了重要的法律基礎(chǔ),歐洲軟性規(guī)范和硬性法律框架結(jié)合的人工智能治理體系逐漸成形。
二、美、歐人工智能治理的差異比較
綜合美國和歐洲人工智能發(fā)展和治理的進程來看,美、歐人工智能治理均始于2016年前后,到2018年開始加速,直至 2021年生成式人工智能掀起新的發(fā)展浪潮后到達高峰。雖然美國和歐洲人工智能治理的整體進程呈現(xiàn)你追我趕的態(tài)勢,但雙方在具體的治理理念、治理原則、治理體系、治理方式和治理手段上存在明顯差異,有關(guān)人工智能治理的分歧不容忽視。
(一)治理理念的差異
治理理念是治理模式和治理體系生長的土壤和基礎(chǔ)。美國和歐洲結(jié)合自身人工智能發(fā)展情況和傳統(tǒng)價值取向,在人工智能問題上的選擇了有所不同的治理理念。
第一,美國作為全球人工智能發(fā)展的領(lǐng)跑者,主張“有益的人工智能”,認為“負責任的人工智能應(yīng)用”可以幫助人類解決一系列緊迫挑戰(zhàn),使世界更加繁榮、高效、創(chuàng)新和安全。其人工智能治理理念更加關(guān)注收益與風險、發(fā)展和安全的平衡,強調(diào)在“公平”的競爭環(huán)境中通過市場化、靈活性治理方式兼顧人工智能的創(chuàng)新與安全。正是基于這種治理理念,拜登政府在最新的《人工智能行政令》中樂觀地提出,人工智能反映了創(chuàng)造者、使用者和訓練數(shù)據(jù)的價值取向,美國有理由相信自身有能力利用人工智能為世界帶來正義、安全和機會。[11] 2024年美國在聯(lián)合國牽頭提出的人工智能決議也更加關(guān)注人工智能帶來的機遇,強調(diào)人工智能創(chuàng)新發(fā)展的重要性。不僅如此,美國共和黨全國委員會在2024年7月發(fā)布的《2024年共和黨執(zhí)政綱領(lǐng)》中明確提出將廢除拜登政府“阻礙人工智能創(chuàng)新”的行政命令,強調(diào)通過人工智能等引領(lǐng)世界的新興產(chǎn)業(yè),為美國未來經(jīng)濟的發(fā)展鋪平道路。一旦共和黨贏得年底的美國大選,美國很有可能在未來4年進一步采取“去監(jiān)管”的治理理念,為人工智能企業(yè)提供更為寬松、自由的發(fā)展環(huán)境。
第二,歐洲作為人工智能領(lǐng)域的追趕者,主張“以人為中心”的人工智能治理,重視人工智能發(fā)展對人類尊嚴、自由、隱私、民主、法治等“歐洲基本價值觀”的影響,強調(diào)人工智能發(fā)展的安全、可控。這一治理理念與歐洲一直以來“數(shù)字主權(quán)是歐洲戰(zhàn)略自主的核心,沒有數(shù)字主權(quán)就沒有戰(zhàn)略自主”的戰(zhàn)略認知一脈相承,反映了歐洲希望通過將自身價值觀念融入數(shù)據(jù)保護、人工智能、網(wǎng)絡(luò)安全等領(lǐng)域,從而引領(lǐng)全球數(shù)字治理變革的戰(zhàn)略雄心。[17] 受到“以人為中心”人工治理理念的影響,歐洲主張只有在不加劇現(xiàn)有環(huán)境和社會問題或損害集體利益的情況下,才能有條件地使用符合社會利益與道德的人工智能,[18] 在人工智能發(fā)展和安全的天平中更傾向安全一端。
(二)治理原則的差異
治理原則是指導(dǎo)人工智能治理的核心依據(jù)和準則。雖然美國和歐洲并未同中國一樣發(fā)布類似《新一代人工智能治理原則——發(fā)展負責任的人工智能》的治理原則文件,但均在各自的人工智能戰(zhàn)略、行政令、法案等官方文件中提出了較為完整的人工智能治理原則。美、歐雙方的治理原則在共同強調(diào)技術(shù)安全、保護隱私、保障公平等問題的同時,也存在涵蓋內(nèi)容、設(shè)計方式、概念解釋三方面的差異。
第一,美、歐人工智能治理原則的涵蓋內(nèi)容不同。歐洲《人工智能法案》在2019年《人工智能道德準則》的基礎(chǔ)上提出了“適用于所有一般人工智能系統(tǒng)的一般原則”,具體包括“人類主體和監(jiān)督”“技術(shù)安全”“尊重隱私”“保持透明度”“保障多樣性、非歧視和公平”“有利社會和環(huán)境福祉”6項原則。相關(guān)原則全部聚焦人工智能治理中的風險和監(jiān)管問題。而結(jié)合前文美國人工智能治理進程的概述來看,美國政府在《促進聯(lián)邦政府使用可信人工智能技術(shù)》《人工智能權(quán)利法案藍圖》等多個官方文件中提及過人工智能治理原則,其中以拜登政府《人工智能行政令》中的治理原則最為豐富,具體包括“安全可控”“負責任的創(chuàng)新”“保護美國工人”“公平和公民權(quán)利”“消費者保護”“隱私和公民自由”“負責任的政府使用”“引領(lǐng)全球技術(shù)進步”8項原則。相比之下,美國人工智能治理原則涉及安全問題之外的發(fā)展問題,關(guān)注的范圍比歐洲更為廣泛。
第二,美、歐雙方治理原則的設(shè)計方式不同。從治理原則涵蓋內(nèi)容的差異可以看出,美國和歐洲對于人工智能治理問題的理解存在分歧,這也導(dǎo)致雙方治理原則的設(shè)計方式存在不同。具體而言,歐洲更多將治理原則作為具體的技術(shù)標準進行設(shè)計,“保障多樣性、非歧視和公平”“保持透明度”“有利社會和環(huán)境福祉”等原則一定程度上涉及人工智能監(jiān)督和管理的技術(shù)細節(jié)問題,整體設(shè)計比美國更加細致。反觀美國,則更多將治理原則作為戰(zhàn)略目標進行設(shè)計,“負責任的創(chuàng)新”“負責任的政府使用”“引領(lǐng)全球技術(shù)進步”3項原則直接涉及科技創(chuàng)新、政府投入、技術(shù)競爭等事關(guān)人工智能發(fā)展優(yōu)勢和國際標準規(guī)則主導(dǎo)權(quán)的問題,整體設(shè)計比歐洲更具戰(zhàn)略眼光。
第三,美、歐雙方治理原則對部分概念的解釋存在差異。除了涵蓋內(nèi)容和設(shè)計方式上的差異,美國和歐洲在對于“安全可控”“尊重隱私”等雙方共同關(guān)注原則的理解也有所不同。例如,在安全原則上,歐洲主要關(guān)注人工智能算法本身的可靠性和安全性,僅用較短的篇幅提及“確保人工智能抵御外部攻擊和不當干擾”的問題。而美國則認為“包括生物技術(shù)、網(wǎng)絡(luò)安全、關(guān)鍵基礎(chǔ)設(shè)施和其他國家安全危險”是人工智能可能造成的最緊迫的安全風險,在安全原則中更加關(guān)注人工智能系統(tǒng)濫用、誤用造成的危害。同時,美國在安全原則中強調(diào)“美國政府希望在不過多減少人工智能正面影響的前提下管控相關(guān)風險”對于安全原則的定位和排序顯然不如歐洲靠前。
(三)治理模式的差異
治理模式是實施人工智能治理的基本框架。受到治理理念和治理原則的影響,美國采用了基于具體應(yīng)用場景的分散化治理模式,歐洲則選擇通過基于風險等級的統(tǒng)一治理框架對不同場景的人工智能應(yīng)用進行集中管理。
第一,美國的人工智能治理模式呈現(xiàn)典型的分散化特征。從美國《人工智能行政令》的安排來看,雖然拜登政府要求白宮管理和預(yù)算辦公室(Office of Management and Budget, OMB)和白宮科學與技術(shù)政策辦公室(Office of Science and Technology Policy, OSTP)組織財政部、國防部、農(nóng)業(yè)部、商務(wù)部、勞工部、國家科學基金會等多部門共同成立指導(dǎo)美國人工智能治理工作的“跨部門協(xié)調(diào)委員會”,并由科學與技術(shù)政策辦公室主任作為副主席負責日常工作,但該委員會并不具備實際的行政職能。美國人工智能治理的具體實施仍基于現(xiàn)有機制,依靠各政府部門對各自職能范圍內(nèi)的人工智能應(yīng)用場景進行管理。例如,美國聯(lián)邦貿(mào)易委員會(Federal Trade Commission, FTC)在2023年5月發(fā)布的指南中將人工智能在商業(yè)實踐中產(chǎn)生的深度偽造、過度推薦等有關(guān)消費者保護的內(nèi)容納入自身管轄范圍[19];美國電信和信息管理局(National Telecommunications and Information Administration, NTIA)在2023年4月出臺AI問責政策征求意見稿中針對人工智能系統(tǒng)的數(shù)據(jù)訪問權(quán)限、問責機制等進行布局[20];美國能源部通過下設(shè)的關(guān)鍵和新興技術(shù)辦公室(Office of Critical and Emerging Technologies)對人工智能對能源基礎(chǔ)設(shè)施及清潔能源發(fā)展的影響、人工智能對核能利用與核威脅的影響[21] 等具體問題進行治理;美國國防部則在2023年1月更新的《自主武器系統(tǒng)指南》中提出由首席數(shù)字和AI辦公室(Chief Digital and Artificial Intelligence Office, CDAO)加強對人工智能和自主武器系統(tǒng)研發(fā)、測試、使用的監(jiān)管。[22]
第二,與美國不同的是,歐洲通過《人工智能法案》這一綜合性法典構(gòu)建了統(tǒng)一的人工智能治理框架,試圖通過風險等級劃分對不同場景下的人工智能應(yīng)用進行集中治理。[23] 具體來說,適用于“所有在歐盟內(nèi)投放市場或投入使用的人工智能系統(tǒng)”的《人工智能法案》要求對除軍事之外的所有應(yīng)用場景中的人工智能系統(tǒng)進行風險分級,按照“不可接受風險”“高風險”“有限風險”“低風險”四類進行統(tǒng)一的分類管理。例如,《人工智能法案》對“不可接受風險”分級涵蓋的“使用潛意識、操縱性、欺騙性手段扭曲用戶行為”“根據(jù)社會行為或個人特征進行群體分類”“通過無針對性的面部圖像抓取構(gòu)建面部識別數(shù)據(jù)庫”“利用個人特征進行犯罪風險的評估和預(yù)測”“在工作場所和教育機構(gòu)進行情緒識別”等多個使用場景下的全部人工智能應(yīng)用采取了“一刀切”的明確禁止。不僅如此,為了確保這種基于風險等級的人工智能治理框架有效運轉(zhuǎn),《人工智能法案》還要求在歐盟委員會下新設(shè)歐盟人工智能辦公室,作為專職機構(gòu)集中管理和監(jiān)督各成員國主管機構(gòu)對法案的執(zhí)行。
(四)治理手段的差異
治理手段是落實人工智能治理的具體方法。出于重創(chuàng)新和重安全的差異,美國主張通過相對寬松的“軟法”對人工智能進行治理,歐洲則主張通過“硬法”管理人工智能的潛在風險。
具體來說,根據(jù)《維護美國人工智能領(lǐng)先地位行政令》的要求,白宮管理和預(yù)算辦公室、科學和技術(shù)政策辦公室、國內(nèi)政策委員會、國家經(jīng)濟委員會在2020年聯(lián)合發(fā)布《人工智能應(yīng)用規(guī)范指南》。指南不但明確要求“為了加強美國在人工智能領(lǐng)域的創(chuàng)新優(yōu)勢,各主管部門應(yīng)確保美國企業(yè)未受到美國監(jiān)管制度的不利影響”,還提出“歐洲及美國盟友應(yīng)避免采用過度干預(yù)、扼殺創(chuàng)新的人工智能監(jiān)管方式”[24]。受此影響,美國在聯(lián)邦政府層面的人工智能治理手段以行政命令、白皮書、政策指南等不具備強制性的“軟法”為主,傾向于通過行業(yè)準則、企業(yè)自治等市場化的方式控制人工智能風險。只有加利福尼亞、伊利諾伊、印第安納、康涅狄格、得克薩斯等少部分地區(qū)通過州內(nèi)立法對人工智能的隱私保護、透明度等問題提出了明確要求。
反觀歐洲,《人工智能法案》僅對“有限風險”“低風險”的人工智能系統(tǒng)采取了與美國類似的市場化治理手段,對于包括ChatGpt在內(nèi)的“高風險”和“不可接受風險”人工智能系統(tǒng)采取了嚴格的監(jiān)管和限制措施。法案不但給出了實施所有條款的時間表,還規(guī)定對違反人工智能系統(tǒng)禁止條款的企業(yè)處以最高3500萬歐元或全球年營業(yè)總額7%的罰款;對違反其他合規(guī)條款的企業(yè)處以最高1500萬歐元或全球年營業(yè)總額3%的罰款,具有明顯的強監(jiān)管色彩。
三、美、歐人工智能治理分歧的影響
人工智能作為人類發(fā)展的新領(lǐng)域,既給世界帶來了巨大機遇,也帶來了難以預(yù)知的各種風險和復(fù)雜挑戰(zhàn)。在此背景下,美國和歐洲在人工智能治理理念、治理原則、治理模式、治理手段等方面的差異與分歧客觀上擴大了全球人工智能治理的碎片化程度,提高了國際合作的協(xié)調(diào)成本,對人工智能的技術(shù)發(fā)展和風險管控均有影響。但與此同時,美、歐人工智能治理的分歧也說明了人工智能治理路徑的多樣性,為不同國家根據(jù)自身國情選擇不同的人工智能治理政策提供了重要借鑒。
第一,從技術(shù)發(fā)展的角度來看,美、歐人工智能治理的分歧一定程度上滯緩了人工智能技術(shù)創(chuàng)新和應(yīng)用普及的速度。雖然在社會、經(jīng)濟、法律等治理系統(tǒng)難以追上技術(shù)系統(tǒng)演進速度的情況下,是否應(yīng)該限制人工智能發(fā)展的問題仍存爭議,但美、歐人工智能治理的分歧在事實上減緩了人工智能技術(shù)在全球范圍內(nèi)的發(fā)展速度。其一,技術(shù)創(chuàng)新方面。美國和歐洲治理理念和治理原則上的差異導(dǎo)致美歐貿(mào)易和技術(shù)委員會(TTC)“避免人工智能風險管理框架分歧”的設(shè)想[25]難以落地,提高了美歐雙方在人工智能領(lǐng)域開展技術(shù)合作的難度。特別是歐洲《人工智能法案》專門針對引領(lǐng)當前人工智能技術(shù)浪潮的生成式人工智能進行了重點規(guī)制,要求相關(guān)通用基礎(chǔ)模型的提供者接受全生命周期的外部監(jiān)管,確保模型滿足可預(yù)測性、可解釋性、可糾正性、最小化資源使用等要求,一定程度上限制了人工智能技術(shù)的創(chuàng)新速度。其二,應(yīng)用普及方面。歐洲更為嚴格的“強監(jiān)管模式”在限制人工智能基礎(chǔ)創(chuàng)新的同時,還顯著提高了歐洲企業(yè)人工智能技術(shù)的使用成本。根據(jù)歐洲智庫“數(shù)據(jù)創(chuàng)新中心”(Center for Data Innovation)的統(tǒng)計,到2025年,《人工智能法案》的實施將導(dǎo)致歐洲企業(yè)為使用人工智能額外支付約109億歐元的成本,降低歐洲約20%的人工智能相關(guān)投資。[26] 不僅如此,美國、歐洲等世界主要經(jīng)濟體人工智能政策的碎片化還會提高企業(yè)跨國經(jīng)營的合規(guī)成本,最終減緩人工智能應(yīng)用在歐洲乃至世界的擴張步伐。
第二,從風險治理的角度來看,美國和歐洲的分歧提高了人工智能國際治理的協(xié)調(diào)難度,擴大了人工智能的潛在風險。人工智能作為顛覆性技術(shù),具有低應(yīng)用知識門檻、強自主學習能力、多中心化應(yīng)用等技術(shù)和經(jīng)濟特征。[27] 這些特征導(dǎo)致人工智能系統(tǒng)的濫用、誤用問題很有可能引發(fā)社會、經(jīng)濟、軍事等領(lǐng)域的重大安全風險,通用人工智能脫離人類控制甚至還會對人類生存構(gòu)成威脅。為了降低這些潛在風險,世界各國需要通過對話與合作凝聚共識,共同構(gòu)建開放、公正、有效的治理機制。但是,美國和歐洲有關(guān)人工智能治理的分歧導(dǎo)致雙方很難就人工智能的國際技術(shù)標準、風險評估體系、法律規(guī)章制度等實際問題達成有效共識,極大地增加了雙方實現(xiàn)“跨大西洋技術(shù)治理對齊”的難度,加劇了人工智能國際治理體系的碎片化特征。在此背景下,無論是聯(lián)合國、經(jīng)合組織還是七國集團等多邊框架下的人工智能治理國際合作的進展都僅限于國際倡議、指導(dǎo)原則或自愿行為準則,尚未在建立人工智能國際治理機制的問題上取得實質(zhì)性突破。受此影響,人工智能技術(shù)全球性的潛在風險很難得到有效控制,單一國家或地區(qū)人工智能風險治理的效果也將大打折扣。
第三,從尊重各國政策和實踐差異性的角度來看,美國和歐洲人工智能治理模式的差異為其他國家的人工智能治理方案提供了多樣性的選擇。雖然出于推動技術(shù)發(fā)展、加強風險監(jiān)管的目的,人類亟待形成具有廣泛共識的人工智能治理框架。但是這一框架需要以相互尊重、平等互利為前提,各國無論大小、強弱,無論社會制度如何,都有平等發(fā)展和利用人工智能的權(quán)利。[28] 事實上,既有研究已經(jīng)證明,世界不同國家和地區(qū)不同的技術(shù)發(fā)展水平、經(jīng)濟和政治制度、法律和政策環(huán)境甚至人口結(jié)構(gòu)和文化價值觀都會影響當?shù)毓妼τ谌斯ぶ悄艿慕邮艹潭群椭卫砥谩29] 因此,只有在尊重差異的基礎(chǔ)上,建立廣泛對話,尋找共同價值,才能真正實現(xiàn)“以人為本”的人工智能國際治理。[30] 美國和歐洲作為中國之外人工智能最發(fā)達的地區(qū),并未在人工智能治理問題上達成一致,反而為其他國家尋求符合自身利益和價值的人工智能“發(fā)展和安全的平衡點”提供了更多機會。特別是歐洲在人工智能技術(shù)創(chuàng)新整體落后于美國的情況下,通過規(guī)則和治理模式的創(chuàng)新積極維護自身利益,為更多發(fā)展中國家和人工智能欠發(fā)達地區(qū)提供了參考和借鑒。
四、對中國的啟示
綜合前文分析來看,面對人工智能技術(shù)的躍遷式發(fā)展,美國和歐洲選擇了有所不同的人工智能治理道路,雙方在治理理念、治理原則、治理模式、治理手段等各方面的差異對全球人工智能的技術(shù)發(fā)展和風險管控產(chǎn)生了深遠影響,為世界各國的人工智能治理實踐提供了更多選擇。對于中國來說,美歐人工智能治理的分歧及其影響至少可以提供以下三方面的啟示。
第一,人工智能治理不是單純的技術(shù)問題,中國需要結(jié)合自身國情,加快構(gòu)建“以我為主”的人工智能治理體系。無論是美國根據(jù)自身在人工智能領(lǐng)域的科技創(chuàng)新優(yōu)勢,選擇基于應(yīng)用場景、更加重視發(fā)展的“弱監(jiān)管”模式,還是歐洲延續(xù)自身數(shù)字主權(quán)戰(zhàn)略,選擇基于風險劃分、更加重視安全的“強監(jiān)管”模式,雙方的人工智能治理路徑始終服務(wù)于國家和地區(qū)利益。事實上,中國早在2018年就已經(jīng)提出,人工智能是引領(lǐng)本輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù),加快發(fā)展新一代人工智能是贏得全球科技競爭主動權(quán)的重要戰(zhàn)略抓手,是推動中國科技跨越發(fā)展、產(chǎn)業(yè)優(yōu)化升級、生產(chǎn)力整體躍升的重要戰(zhàn)略資源。[31] 對此,中國可以根據(jù)自身人工智能領(lǐng)域“領(lǐng)先的追趕者”定位,綜合考慮自身數(shù)據(jù)基礎(chǔ)和應(yīng)用場景等方面的優(yōu)勢、基礎(chǔ)算法和硬件設(shè)備等方面的不足,在美、歐兩種治理體系之外,積極探索立足中國人工智能產(chǎn)業(yè)實際需要、兼顧發(fā)展和安全需求的中國式人工智能治理模式。
第二,美國及其盟友尚未就人工智能治理完成對齊,中國可以圍繞人工智能問題與美、歐雙方展開積極對話。在美國對華展開戰(zhàn)略競爭,重點在科技領(lǐng)域聯(lián)合盟友進行“小院高墻”對華圍堵的背景下,人工智能是中國可以與美及其盟友進行對話的重要議題。其一,加強中美人工智能對話。人工智能作為人類發(fā)展的新領(lǐng)域,是中美之間存在共同利益和對話空間的重要議題。鑒于中美作為全球人工智能發(fā)展最迅速的國家,在算力、算法、數(shù)據(jù)三大人工智能核心要素上互有長短,雙方在人工智能技術(shù)研發(fā)和治理領(lǐng)域的互補性甚至超過歐洲、日本等美國傳統(tǒng)盟友。中國可以加快落實兩國領(lǐng)導(dǎo)人2023年舊金山會晤中達成的建立中美人工智能政府間對話機制的共識,通過對話管控分歧、推動新興領(lǐng)域的中美合作。其二,加強中歐人工智能對話。由于歐洲和美國在人工智能安全問題上的立場和關(guān)切有所不同,中國還可以根據(jù)自身發(fā)展需要,與歐洲圍繞風險等級測試評估體系、倫理規(guī)范準則、法律和規(guī)章制度等人工智能風險治理議題展開對話,共同推動形成各國廣泛參與、協(xié)商一致的人工智能國際治理框架。
第三,有關(guān)全球人工智能監(jiān)管標準與規(guī)則主導(dǎo)權(quán)的競爭日趨激烈,中國可以通過開展面向發(fā)展中國家的國際合作與援助,增強發(fā)展中國家在人工智能全球治理中的代表性和發(fā)言權(quán)。美國和歐洲在人工智能治理問題上的分歧不但加劇了人工智能國際治理方案碎片化和行動力缺失的現(xiàn)實困境,雙方在技術(shù)創(chuàng)新和風險治理方面的快速布局也進一步擴大了發(fā)展中國家與發(fā)達國家之間的“智能鴻溝”和“治理能力差距”。中國作為發(fā)展中國家的代表,應(yīng)該踐行《全球人工智能治理倡議》,依托聯(lián)合國大會最新通過的“加強人工智能能力建設(shè)國際合作決議”,鼓勵全球共同推動人工智能健康發(fā)展,共享人工智能知識成果,開源人工智能技術(shù),積極推動發(fā)展中國家之間的人工智能合作,確保各國人工智能發(fā)展與治理的權(quán)利平等、機會平等、規(guī)則平等,最終構(gòu)建更加開放、公正、有效的人工智能國際治理機制。
參考文獻:
[1]中華人民共和國外交部.全球人工智能倡議[EB/OL].https://www.mfa.gov.cn/web/ziliao_674904/1179_674909/202310/t20231020_11164831.shtml,2023-10-20/2024-06-25.
[2]賈開,俞晗之,薛瀾.人工智能全球治理新階段的特征、赤字與改革方向[J].國際論壇,2024,(3).
[3]Nestor Maslej, et al. The AI Index 2024 Annual Report[EB/OL]. https://aiindex.stanford.edu/wp-content/uploads/2024/05/HAI_AI-Index-Report-2024.pdf,2024-05-15/2024-06-26.
[4]宋黎磊,戴淑婷.中美歐人工智能治理領(lǐng)域的競爭與合作[J].當代中國與世界,2021,(4).
[5]National Science and Technology Council. National Artificial Intelligence Research and Development Strategic Plan[EB/OL]. https://www.nitrd.gov/pubs/national_ai_rd_strategic_plan.pdf, 2016-10-13/2024-06-26.
[6]周琪,付隨鑫.美國人工智能的發(fā)展及政府發(fā)展戰(zhàn)略[J].世界經(jīng)濟與政治,2020,(6).
[7]The White House. Executive Order on Maintaining American Leadership in Artificial Intelligence[EB/OL].https://trumpwhitehouse.archives.gov/presidential-actions/executive-order-maintaining -american-leadership-artificial-intelligence,2019-02-11/2024-06-28.
[8]The White House. Executive Order on Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government[EB/OL].https://trumpwhitehouse.archives.gov/presidential-actions/executive-order-promoting-use-trustworthy-artificial-intelligence-federal-government,2020-12-03/2024-06-29.
[9]U.S. Congress.H.R.6216: National Artificial Intelligence Initiative Act of 2020[EB/OL]. https://www.congress.gov/bill/116th-congress/house-bill/6216, 2020-12-03/2024-06-29.
[10]The White House. Blueprint for an AI Bill of Rights[EB/OL]. https://www.whitehouse.gov/ostp/ai-bill-of-rights, 2022-10-14/2024-06-28.
[11]The White House. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence[EB/OL].https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence, 2023-10-30/2024-06-29.
[12]European Parliament. Report with recommendations to the Commission on Civil Law Rules on Robotics[EB/OL]. https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_EN.html,2017-01-27/2024-06-29.
[13]The European Economic and Social Committee.The Consequences of Artificial Intelligence on the (Digital) Single Market, Production, Consumption, Employment and Society[EB/OL]. https://www.eesc.europa.eu/en/our-work/opinions-information-reports/opinions/artificial-intelligence-consequences-artificial-intelligence-digital-single-market-production-consumption-employment-and,2017-05-31/2024-07-03.
[14]呂蘊謀.歐盟人工智能治理的規(guī)范[J].國際研究參考,2021,(12).
[15]European Commission. Artificial Intelligence for Europe[EB/OL].https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=COM%3A2018%3A237%3AFIN,2018-04-24/2024-07-05.
[16]European Commission. European approach to artificial intelligence[EB/OL].https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence,2024-03-06/2024-07-05.
[17]馬國春.歐盟構(gòu)建數(shù)字主權(quán)的新動向及其影響[J].現(xiàn)代國際關(guān)系,2022,(6).
[18]Huw Roberts, et al. Achieving a ‘Good AI Society’: Comparing the Aims and Progress of the EU and the US[J].Science and Engineering Ethics, 2021, (27).
[19]U.S. Federal Trade Commission. The Luring Test: AI and the Engineering of Consumer Trust[EB/OL].https://www.ftc.gov/business-guidance/blog/2023/05/luring-test-ai-engineering-consumer-trust,2023-05-01/2024-07-06.
[20]U.S. National Telecommunications and Information Administration.AI Accountability Policy Request for Comment[EB/OL].https://www.ntia.gov/issues/artificial-intelligence/stakeholder-engagement/request-for-comments,2023-04-11/2024-07-08.
[21]U.S. Department of Energy. Artificial Intelligence for Nuclear Deterrence Strategy 2023[EB/OL].https://www.energy.gov/articles/artificial-intelligence-nuclear-deterrence-strategy-2023, 2023-03-11/2024-07-08.
[22]Office of the Under Secretary of Defense Policy. Autonomy in Weapon Systems [EB/OL]. https://www.esd.whs.mil/portals/54/documents/dd/issuances/dodd/300009p.pdf, 2023-01-25/2024-07-08.
[23]Ren Bin Lee. A principled governance for emerging AI regimes: lessons from China, the European Union, and the United States[J]. AI and Ethics, 2023, (3).
[24]The White House. Guidance for Regulation of Artificial Intelligence Applications[EB/OL]. https://www.whitehouse.gov/wp-content/uploads/2020/01/Draft-OMB -Memo-on-Regulation-of-AI-1-7-19.pdf,2020-01-08/2024-07-09.
[25]戴麗娜,鄭樂鋒.新一輪美歐技術(shù)經(jīng)貿(mào)協(xié)調(diào)進程[J]. 現(xiàn)代國際關(guān)系,2022,(2).
[26]Benjamin Mueller. How Much Will the Artificial Intelligence Act Cost Europe[EB/OL].https://www2.datainnovation.org/2021-aia-costs.pdf,2021-07-23/2024-07-09.
[27]韓永輝,張帆,彭嘉成.秩序重構(gòu):人工智能沖擊下的全球經(jīng)濟治理[J].世界經(jīng)濟與政治,2023,(1).
[28]中華人民共和國外交部.全球人工智能倡議[EB/OL].https://www.mfa.gov.cn/web/ziliao_67490 4/1179_674909/202310/t20231020_11164831.shtml,2023-10-20/2024-07-09.
[29]Matthew OShaughnessy, et al. What Governs Attitudes toward Artificial Intelligence Adoption and Governance?[J]. Science and Public Policy, 2023, (2).
[30]陳超,張小可.人工智能治理國際合作:現(xiàn)狀、挑戰(zhàn)與方向[J].當代中國與世界,2023,(4).
[31]習近平.加強領(lǐng)導(dǎo)做好規(guī)劃明確任務(wù)夯實基礎(chǔ),推動我國新一代人工智能健康發(fā)展[N].人民日報,2018-11-01(01).
責任編輯" "唐" "偉