摘" "要:[研究目的]在安全視域下分析歐盟人工智能戰略的發展趨勢,可以為推動完善我國人工智能政策制度提供啟示借鑒。[研究方法]通過檢索和對比,分析歐盟人工智能相關政策法律文件,深入梳理剖析歐盟人工智能戰略的發展歷程、核心內容及安全考量。[研究結論]安全視域下,歐盟的人工智能戰略演進大致歷經了三個特色鮮明的時段,總體呈現為一個由“冷”至“熱”的過程,主要特點表現為形式上從戰略性文件向法律性文件轉變、內容上從宏觀部署向體系治理轉變、實踐上通過試點驗證并完善監管框架,反映出歐盟以自身利益為中心的安全考量及動因。我國應堅持發展、創新與安全并重,通過把握技術和倫理兩大主要風險來源保障人工智能全方位安全,耦合政策和法律體系實現人工智能高質量發展,還應探索“AI+”模式助力人工智能加速形成新質生產力,圍繞人工智能開放與競爭營造國際合作新交點,站在戰略高度不斷推動人工智能安全發展。
關鍵詞:歐盟;人工智能戰略;人工智能法案;安全發展;治理
中圖分類號:TP18;F49;D99 文獻標識碼:A DOI:10.19881/j.cnki.1006-3676.2024.12.03
1956年的達特茅斯會議上,“人工智能之父”約翰·麥卡錫(John McCarthy)聯合多位數學、信息學、計算機學、神經學、心理學等領域專家首次提出人工智能(Artificial Intelligence,AI)之概念,自此人工智能逐漸被視為新的研究領域。2024年5月,歐盟委員會提出的《人工智能法案》(Artificial Intelligence Act,AIA)終獲歐盟理事會批準,意味著歐盟乃至世界第一部“人工智能監管與發展法”將在歐盟域內正式通行,標志著歐盟人工智能領域監管立法與實踐走在世界前列。為此,本文試圖從歐盟歷年人工智能相關戰略、政策、法律中梳理提煉歐盟對該新興技術治理的關注重點及特點,分析其安全考量與動因,以期為我國推動完善人工智能政策法律提供參考。
一、安全視域下歐盟人工智能戰略的演進歷程與特點呈現
人工智能作為足以顛覆人類生產生活方式和決定人類文明走向的關鍵科技力量之一,如何正確引導人工智能研究與應用邁向人類文明友好之路是每個國家,尤其是掌握AI核心技術及具有巨大市場的世界主要經濟體,需要深思的問題。2024年8月,歐盟《人工智能法案》(Artificial Intelligence Act,AIA)正式生效,該法案是全球首部全面監管人工智能的法規,標志著歐盟在規范人工智能應用方面邁出重要一步。
(一)演進歷程
以2018年“AI技術的巨大進步”和2024年“AIA的生效”兩大標志事件為時點,歐盟人工智能戰略演進歷程可劃分為三個特色鮮明的時段。
1.2018年以前
2018年以前,歐盟對人工智能的發展及安全性的關注和認識不足,歐盟的關注重心在網絡及數據安全等傳統領域,但人工智能及機器人作為擁有無限可能的新興技術,卻已逐步進入歐盟立法者視野。在歐盟EUR-Lex網站中,筆者以條約(Treaties)、法律文書(Legal Acts)、合并案文(Consolidated Texts)、籌備文件(Preparatory Documents)為文件類型,選取2010年1月1日至2017年12月31日標題或內容中包含“人工智能”的文件作為檢索對象進行了檢索,結果有44份相關文件的標題或內容包含“Artificial Intelligence”或“AI”。除去將序號“(ai)”識別成“AI”一詞和以“AI”一詞作簡單舉例的情況,實際針對“AI”監管的規范文件數量更少。其中,歐洲經濟和社會委員會《關于“人工智能——人工智能對(數字)單一市場、生產、消費、就業和社會的影響”的意見(自主意見)》和《歐洲議會關于機器人民法規則建議的決議》較為關鍵。前者作為歐盟“數字單一市場戰略”實施過程性文件,就人工智能對“數字單一市場戰略”中對各領域所致影響提出了專項意見;后者是歐洲議會對機器人技術的民事法律適用規則提出的建議,該決議已于2018年修訂。此外,歐盟在2018年以前發布的較為重要的法律文件,如2003年通過的“歐洲安全戰略”、2013年通過的《歐盟網絡安全戰略:公開、可靠和安全的網絡空間》、2016年通過的《NIS2關于在歐盟范圍內實現網絡和信息系統高水平共同安全措施的指令》等,均鮮有提及針對人工智能的網絡與數據安全規則。
2.2018年至2024年間
2018年,美國OpenAI公司研發的GPT-1問世,其展現的強大語言生成能力震驚了世界。同年4月,歐盟發布《建立以人為本的人工智能信任》,自此歐盟人工智能戰略、立法與AI技術發展一并進入“快車道”。筆者在EUR-Lex網站以相同檢索方法,將檢索日期更改為2018年1月1日至2024年5月31日,發現檢索結果中有高達1256部相關文件的標題或內容包含“Artificial Intelligence”或“AI”。經計算,這一時期歐盟出臺的人工智能相關文件是此前相關文件總量的30倍。從時間上看,具有規劃及倡議性質的戰略計劃部署類文件主要集中于2018—2020年,主要的監管制度建設及實踐類文件則集中于2020—2021年。自2021年歐盟委員會提出《人工智能法案》提案后,歐盟圍繞該法案進行了長達3年的立法活動,這部集歐盟人工智能發展戰略與安全部署于一體的世界首部《人工智能法案》終于在2024年正式生效。
3.2024年之后
2021年4月,歐盟委員會提出《人工智能法案》提案;2024年5月,歐盟理事會正式批準《人工智能法案》,歷經3年打磨,歐盟希望通過法案“復制下一個GDPR(General Data Protection Regulation,歐盟《通用數據保護條例》)”,引領世界各國開展關于人工智能技術立法的新浪潮。人工智能委員會(European Artificial Intelligence Board,EAIB)將作為統籌機構,負責同各成員國主管機關協調,促進《人工智能法案》在各成員國落實并及時跟進反饋問題與建議。另外,歐洲人工智能辦公室(AI Office)作為歐盟委員會通信網絡、內容和技術總司1行政結構的一部分,以及作為《人工智能法案》的制定和實施的主管機構,已于2024年2月正式運營。然而,在歐盟將該法案作為其再次引領全球數字安全與發展之“政治愿景”下,無論是法案還是愿景本身均存在著不可忽視之缺陷[1]。《人工智能法案》能否真正引發人工智能立法浪潮,成為影響世界各國人工智能立法的歐盟法案,仍然有待觀察。
(二)特點呈現
歐盟近幾年發布的人工智能戰略與法律文件數量較多,筆者挑選其中具有代表性的6部戰略和法律文件進行分析,文件分別是《人工智能時代:確立以人為本的歐洲戰略》(以下簡稱《戰略》)、《人工智能協調計劃》《可信人工智能倫理指南》(以下簡稱《指南》)、《建立以人為本的人工智能信任》《人工智能白皮書:通往卓越與信任的歐洲之路》(以下簡稱《白皮書》)及《人工智能法案》。基于以上文件,對歐盟人工智能戰略的特點歸納如下。
1.在形式上從戰略性文件向法律性文件轉變
2018年《戰略》的副標題為“確立以人為本的歐洲戰略”,主旨為幫助歐盟發展以人為本的人工智能技術,內容主要包括介紹全球人工智能研發投入與發展情況、歐洲人工智能發展情況以及歐盟成員國與其他國家技術發展現狀之對比,提出人工智能技術發展可能引發的勞動者被替代、人工智能偏見等問題。該文件由歐洲政治戰略中心發布2,并成為后續歐盟制定并推出各項人工智能戰略及法律的指導性文件。為實施《戰略》,歐盟發布《人工智能協調計劃》《指南》和《建立以人為本的人工智能信任》等文件以發揮人工智能政策間的“協同效應”。2020年,歐盟發布《白皮書》,該文件出臺標志著歐盟對人工智能技術的發展與監管有了較為清晰和詳細的規劃。此后,歐盟圍繞一系列戰略部署開啟了《人工智能法案》的制定。2024年《人工智能法案》獲批通過,標志著歐盟人工智能戰略法律體系主干已建成,后續歐盟將圍繞人工智能技術應用的實際情況對《人工智能法案》進行修補。
2.在內容上從宏觀部署向微觀治理轉變
《戰略》前瞻性地預測人工智能技術將成為深刻改變人們生活的通用技術,且具備改變人類社會現存模式的極大潛力,總結了歐洲人工智能發展面臨的內外部挑戰,指出內部挑戰在于歐盟域內的企業及公共部門對人工智能技術的接受程度普遍較低,導致技術性轉化受阻;外部挑戰在于世界各國的人工智能技術發展速度與規模不均衡(主要是中美兩國和其他國家對比),導致技術和資金出現壟斷現象。為應對內外雙重挑戰,《戰略》分別設定了創設歐洲人工智能投資框架和制定全球人工智能質量標準這兩方面目標。《人工智能協調計劃》作為各成員國采納并實施《戰略》的關鍵一步,于2021年補充修訂,其中明確提出歐盟及各成員國在實現“可信人工智能”方面形成世界領導地位的具體行動計劃。作為延伸,歐盟人工智能高級專家組發布了《指南》,該文件以基本權利為基礎,確定了人工智能技術發展與應用應遵守的倫理原則、價值準則、可信人工智能系統的關鍵要求以及符合可信要求的AI評估清單。此后,歐盟通過《建立以人為本的人工智能信任》肯定了《指南》對人工智能倫理原則和價值準則的界定,并對《指南》提出的可信人工智能的7項關鍵要求作出歸納提煉,進而提出要試點實施《指南》中的AI評估清單,以驗證其可實施性。
此外,《建立以人為本的人工智能信任》提出,基于信任的以人為中心的人工智能準則,可以推動建立國際人工智能倫理準則,使歐盟成為全球范圍內值得信賴的尖端人工智能的領導者,該愿景在歐盟《白皮書》中有著更為具體的表現。《白皮書》將人工智能描述為數據、算法和算力相結合的“技術集合”,明確歐盟將通過“技術和工業優勢”與“高質量數字基礎設施和基于歐盟基本價值的監管框架”結合的路徑,成為可信賴的人工智能和數字經濟的領導者。《人工智能法案》作為歐盟人工智能發展戰略規劃與安全監管規則之集大成者,最大程度上對人工智能技術從開發端到應用端涉及的各類問題作出闡釋并加以規制。作為歐盟在人工智能研發、應用、監管、救濟等方面所作出的研析、部署、規劃、實踐之經驗總結,《人工智能法案》的目標在于為可信賴的人工智能制定全面規則,該法案的出臺極大增強了歐盟人工智能治理之體系性,也引發了世界各國對此的廣泛關注與研究。
3.在實踐上通過試點驗證并完善監管框架
歐洲人工智能監管框架的關鍵要素是創造獨特的“可信賴生態系統”[2]。歐盟委員會支持《建立以人為本的人工智能信任》中提及的“以人為本”的宗旨,并將該文件的試點階段成果作為未來開展工作的依據。歐盟試點的AI評估清單,以及建立的可信賴人工智能評估準則,為后續《人工智能法案》中基于風險分類的人工智能監管規則奠定了基礎。《人工智能法案》中基于風險分類設定監管規則,有助于提升歐盟對人工智能的研發與應用進行監管的有效性與靈活性。歐盟還引入金融科技領域的“監管沙盒”[3]制度,使歐盟在人工智能研發階段即可介入監管,并引導人工智能技術更符合倫理準則。該制度的弱監管強度給予了人工智能開發企業最大限度的自由,平衡了人工智能領域的監管與創新之間的沖突[4]。人工智能“監管沙盒”制度和基于風險分類的監管制度共同構成《人工智能法案》最主要的監管框架,前者強調對人工智能研發端的監管,重風險防范,而后者強調對人工智能應用端的監管,重在風險化解。
二、歐盟人工智能戰略中的安全考量
歐盟人工智能戰略及法律的演進過程內含歐盟自身的安全考量,歸結起來可以說歐盟的相關部署是以自身利益為中心,以戰略和法律為抓手,保護和發展自身人工智能技術工業體系,同時追求戰略和法律的域外影響力,輸出歐盟的價值觀念。
(一)安全理念:加強人工智能的體系化治理
1.基于“數據—算法—算力”的人工智能技術治理
數據猶如人工智能的“血液”,算法為人工智能的“大腦”,算力構成人工智能的“肌肉”,缺失任一環節,人工智能都難以正常運行。在數據方面,歐盟歷來重視數據安全治理,在很長一段時間內,歐盟都將人工智能安全歸屬于數據或網絡安全范疇中,認為通過對數據進行訓練、喂養、驗證、測試等,可以極大程度約束人工智能的發展。歐盟在多部人工智能戰略與法律文件中,都將數據風險作為人工智能面臨的關鍵風險列示。例如,《人工智能法案》對數據及數據治理作出專條規定,對人工智能系統提供者的數據獲取、分析、存儲、過濾等行為進行制約。
在算法方面,不透明性、復雜性、不可預測性和自主行為等問題成為歐盟格外關注的對象。在《白皮書》中,歐盟將算法和數據并列為同等重要的人工智能風險來源,隨著人工智能技術在產品和服務中的應用速度加快、范圍變廣,給用戶帶來的新安全威脅也逐漸增多。然而,由于“算法黑箱”等問題在科學領域尚未得到合理解釋與規避方法,因此歐盟選擇間接方式確保人工智能系統(尤其是高風險人工智能系統)在設計、開發、應用和使用過程中具有足夠的透明度3。
在算力方面,人工智能系統依賴的數字基礎設施也是歐盟關注的重點之一。作為人工智能系統的硬件支撐,一方面,數字基礎設施的技術水平制約著人工智能系統的性能上限;另一方面,數字基礎設施的安全韌性又決定了人工智能系統平穩運行及可信賴程度,二者共同影響了人工智能的市場化運行。《人工智能法案》規定高風險人工智能應具備韌性,以防未經授權的第三方利用系統漏洞改變其使用、輸出或性能。處理人工智能特定漏洞的技術解決方案除預防、檢測、應對和解決外,還需對試圖篡改訓練數據集(即“數據投毒”)或篡改用于訓練的預訓練組件(即“模型投毒”),以及導致模型出錯的輸入(即“對抗性示例”“模型規避”)等攻擊的防范作出預案。
2.基于“研發—應用—使用—監管”的人工智能全場景治理
歐盟人工智能治理體系跨越研發端、應用端、使用端、監管端等4個主要場景,對應4類不同主體。研發端對人工智能系統提供商、進口商和分銷商的義務進行了規定,規定提供者的義務主要包括確保高風險人工智能系統質量、安全、投放合規等;進口商和分銷商則需在《人工智能法案》規定的合規要求基礎上,對引入和投放的高風險人工智能系統承擔審查義務。應用端主體主要是人工智能系統部署商,指在提供商的特別授權下運用人工智能系統從事職業、商業活動的自然人和法人。《人工智能法案》對部署商的義務規定中最主要的是指派專門人員對人工智能系統應用進行人工監督,當人工智能系統發生或可能發生風險時,及時停止運行,并通知提供者和監督管理機關。使用端是人工智能系統直接面向的用戶,《人工智能法案》主要以透明度、風險管理系統、技術文件、記錄留存、保密性、投訴權等方面的規定來保障和救濟使用端客戶的權利。監管端包括歐盟委員會、人工智能辦公室、人工智能委員會、人工智能系統提供商授權代表、市場監督管理機關、人工智能專家組等。針對人工智能系統的研發、應用、使用和監管的全部市場主體,《人工智能法案》均規定了其各自的權利與責任,以此實現人工智能產業鏈的全場景安全治理。
3.基于“政策+法律”邏輯構建人工智能治理體系
歐盟依靠人工智能專家組對人工智能發展的現狀和未來進行規劃和研判,最終助力歐盟出臺第一部人工智能戰略,其后的《指南》成為歐盟構建人工智能治理體系的最重要基石。《白皮書》作為兼顧戰略和計劃性質的綜合性政策文件,一方面總結并完善了歐盟委員會之前就人工智能發展作出的規劃部署,統一歐盟內部就人工智能發展的共識和力量;另一方面就人工智能風險防范和市場監管法案的制定作出部署,并指導各成員國將歐盟層面發布的政策、法律在成員國落實。《人工智能法案》是歐盟人工智能治理體系主干建成的關鍵一步,系統規定了人工智能全產業鏈各方主體的權利義務和實施細則,為進一步增強歐盟的全球影響力提供了重要幫助。歐盟人工智能治理體系建立的整個過程反映了歐盟治理新興社會問題的底層邏輯,即充分發揮專家學者的“智囊團”作用,創新引入不同領域的監管方法并進行試點驗證,最終通過跨部門意見交流達成合意,推出普適性法律,實現政策和法律良性互動,構建起有效的治理體系。
(二)政治愿景:通過“布魯塞爾效應”再次引領全球
《人工智能法案》是人工智能治理的專項法律,對全球人工智能安全治理有積極意義。該法案背后也體現著歐盟的政治意圖,即希望《人工智能法案》發揮同GDPR類似的全球影響力,幫助歐盟在自身技術相對劣勢的情況下在技術標準制定方面掌握更多話語權,以限制技術優勢國在歐盟市場的壟斷,達到扶持歐盟域內企業并吸引外資,同時在一定程度上幫助歐盟擴大在第三世界國家的政策影響力的目的。2023年11月,世界經合組織(OECD)將人工智能的定義更新為“一種依賴于機器的系統”,這些系統通過明確或隱含的目標,推導出影響物理或虛擬環境的結果。該定義的修改,一方面統一了全球對于“人工智能”的定義,體現出與人工智能發展保持同步的承諾,另一方面也為歐盟出臺《人工智能法案》鋪平道路[5]。當然,《人工智能法案》的全球影響力如何仍有待觀察。
(三)保護主義:營造域內人工智能技術發展與企業融資有利環境
歐盟積極推進一系列人工智能發展與監管文件的動機,主要包含對外和對內兩個方面。對外,歐盟希望通過對人工智能相關概念及原則的界定,宣揚歐盟價值觀并提升歐盟國際影響力;對內,則希望限制技術強國對歐盟市場的壟斷,營造有利于歐盟企業的發展環境,為企業融資提供支持和便利。《白皮書》從政策層面提出,要利用“數字歐洲計劃”幫助各成員國至少建立一個在人工智能方面具有高度專業化水平的“數字創新中心”,并促進其與中小企業展開合作。同時,歐洲委員會和歐洲投資基金將持續通過歐洲投資計劃為人工智能創新發展提供股權融資。相應地,《人工智能法案》則從法律層面規定,要為登記在冊并符合規定的小微企業及初創企業提供優先進入人工智能“監管沙盒”的機會,為其提供更多指導和培訓服務,確保其參與標準化制定過程的權利,并保持同歐盟公共機關溝通渠道的暢通;同時,為中小微企業提供降低評估費用的優惠,減少或免除超過其能力外的義務,并簡化其履行義務的方式。除企業外,歐盟還將支持頂尖大學和高等教育機構組建高新技術教育基地,以吸引優秀的教授和科學家,在人工智能領域提供全球領先的研究生課程。
三、歐盟人工智能戰略對我國人工智能安全發展的啟示
作為“世界一極”[6],歐盟在新興技術領域的影響力不容小覷。誠然,歐盟人工智能戰略及法律體現著自身價值取向,但《人工智能法案》作為世界上首部關于人工智能治理的法案,對我國統籌人工智能發展和安全,發揮人工智能對新質生產力發展的推動作用,防范和化解人工智能帶來的風險挑戰,確保人工智能安全、可靠、可控[7],有借鑒意義。
(一)把握技術和倫理兩大主要風險來源,保障人工智能全方位安全
人工智能技術是計算機、互聯網、電子工程及軟硬件技術等諸多高新技術結合發展之產物,一方面體現一國的科技水平,另一方面受限于各國的工業水平,是世界各國爭相占領制高點的領域。
從開發鏈、產業鏈再到應用鏈,人工智能技術風險不只存在于軟件方面,人工智能所需的大數據、大算力建立于存儲和計算芯片的基礎之上,微單元芯片制造能力實質影響人工智能技術的市場化應用[8],網絡和數據風險抵御能力直接影響人工智能系統的平穩運行。2020年,中國信息通信研究院發布《人工智能安全框架(2020年)》,系統闡釋和論證了人工智能安全框架的內容和可行性,該報告為人工智能安全治理提供了新思路,可成為未來我國制定人工智能安全法律的參考。已于2023年8月15日施行的《生成式人工智能服務管理暫行辦法》成為我國針對人工智能專門領域監管立法的第一步,預示未來對人工智能的監管立法將加速推進,并且,技術本身面臨的風險及技術應用帶來的倫理風險也將一并納入監管視野。
在人工智能技術研發階段的數據投喂、算法編輯或訓練等過程中,在人工智能技術應用階段的信息選擇和爬取、機器決策的產生等過程中,以及在人工智能被使用的整個過程中,均存在諸多倫理風險挑戰。2019年,國家人工智能標準化總體組發布《人工智能倫理風險分析報告》,系統闡述了人工智能技術倫理風險的來源、評估與應對,就世界各國倫理研究狀況及成果作出總結,并基于“阿西洛馬人工智能原則”和國際電氣電子工程師協會(IEEE)組織倡議的人工智能倫理標準,初步得出我國人工智能發展過程中所遵循的原則。2023年,國家人工智能標準化總體組聯合信標委發布《人工智能倫理治理標準化指南(2023版)》,提出人工智能倫理準則包含以人為本、可持續、合作、隱私、公平、共享、外部安全、內部安全、透明、可問責10個方面,同時進一步分析了人工智能倫理風險所涉及的典型場景并提出解決方案。
(二)耦合政策和法律體系以實現人工智能高質量發展
從宏觀上看,歐盟人工智能治理體系由人工智能政策體系與法律體系構成。從微觀上看,通過基于風險而劃分的監管措施及基于差異而推行的鼓勵政策,歐盟為實現其成員國之間價值觀念和工業水平的平衡可謂付出了巨大努力。就我國的情況而言,各地區的經濟、科技、數字產業發展同樣存在不平衡問題,這對我國統籌推進人工智能協調發展提出了更高要求。人工智能的高質量發展應以理論創新和技術革新為源動力,以“新基建”發展為重要實現形式,以引導技術的商業化合規應用為重要保障[9],只有充分發揮戰略政策的鼓勵作用,同時落實法律法規的約束作用,才能真正引導人工智能高質量發展。
在政策層面,國家高度重視人工智能技術發展及其在不同領域的應用。比較具有代表性的規劃性文件有2017年國務院發布的《新一代人工智能發展規劃》、2019年國家新一代人工智能治理專業委員會發布的《新一代人工智能治理原則——發展負責任的人工智能》,以及黨的十九大、二十大報告等文件的相關論述。就人工智能技術與不同領域的結合發展,國務院及各部委也發布了諸如《關于促進人工智能和實體經濟深度融合的指導意見》《“互聯網+”人工智能三年行動實施方案》《高等學校人工智能創新行動計劃》等文件。除政府文件外,科研事業單位、高校研究機構、企業研究部門等就人工智能的高質量發展也形成大量智庫型文件。例如,中國信息通信研究院發布的《全球人工智能戰略與政策觀察(2019)》和《人工智能研發運營體系(MLOps)實踐指南(2023)》等,為人工智能服務提供者及主管部門開展安全評估、提高安全水平提供了有益參考。
在法律層面,我國已出臺多部法律法規對人工智能技術健康發展提供保障。以《生成式人工智能服務管理暫行辦法》為專項立法基石,輔以《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》作為重要補充規定,同時依托《網絡安全法》《數據安全法》《個人信息保護法》及《科學技術進步法》等法律,我國已構筑起一套初步的人工智能安全發展法治保障框架。該框架覆蓋了人工智能多個關鍵領域,諸如數據安全、個人信息保護、算法推薦等,還明確了在人工智能服務管理、網絡安全、科技進步等方面的具體法律要求和監管機制。然而,由于人工智能技術持續演進和應用領域不斷擴展,我國亦需不斷完善相關法律法規,以適應新的發展挑戰。2024年,《人工智能示范法2.0(專家建議稿)》和《中華人民共和國人工智能法(學者建議稿)》相繼發布[10],為我國人工智能綜合立法提供了規制和框架參考。目前,我國同世界其他主要經濟體均面臨人工智能“邊發展邊摸索邊治理”的重大挑戰[11],推出人工智能領域綜合立法的可行性探討仍有很大空間。但無論如何,一部專門的“人工智能發展促進和安全治理法”都將為我國人工智能領域帶來更為可靠的法律保障。
(三)探索“AI+”模式助力人工智能加速形成新質生產力
科學技術作為第一生產力,技術革新不斷推動著生產力的進步;而生產力作為人類社會發展過程中最具革命性的因素,代表著人類社會的前進方向[12]。人工智能是新一輪科技革命和產業變革的重要驅動力量,加快發展新一代人工智能是事關我國能否抓住新一輪科技革命和產業變革機遇的戰略問題[13]。
我國作為世界第一制造業大國,加之具有千年農業積累及活躍的服務業市場,人工智能在我國有著得天獨厚的全領域適用場景。2018年以后,上海的“AI金融”、廣東和安徽的“AI制造”、浙江的“AI城市”等結合自身產業優勢拓寬人工智能轉化為生產力的模式的地方探索實踐,為實現人工智能技術向新質生產力發展開創了新的現代化路徑。然而,我國在促進人工智能的生產力轉化過程中仍面臨諸多困難。從深圳市人工智能行業協會2024年4月發布的《2024人工智能發展白皮書》所列數據看,目前我國人工智能市場中的應用層持續活躍、技術層不斷革新、基礎層快速發展,然而從基礎層到技術層再到應用層的整個人工智能產業鏈均存在特異性的痛點難點問題[14],圍繞解決人工智能不同層面的市場問題成為實現人工智能技術形成新質生產力之重點。除產業鏈外,人工智能的多行業適用是否會造成大規模失業問題,同樣引起了中外學者的重點關注。從人類技術發展史看,新技術的產生勢必伴隨著“勒德謬誤”4的再次興起。事實證明,在人類歷經的數次工業革命中,“機器的崛起”并沒有取代人類,只是重新定義了人類的社會面貌[15]。然而這僅是從結果層面得出的結論,人工智能革命帶來的“社會結構性陣痛或不平等危機”[16]仍不可避免。
(四)圍繞人工智能開放與競爭營造國際合作新交點
人工智能向多個行業滲透從而引發顛覆性變革的同時,也為全球治理帶來諸多新問題。歐盟認為自身完全有能力在人工智能治理領域發揮國際領導作用。伴隨聯合國、世界經合組織、世界貿易組織以及G20峰會、世界經濟論壇等政府間國際組織和論壇針對人工智能的討論愈發增多,歐盟在各項國際論壇“推銷”其《人工智能法案》中的各項標準原則及評估機制的機會也更多。
對我國來說,掌握技術標準和技術治理的話語權之重要性,不亞于技術本身的發展。實際上正如學者所說,安全發展與和平利用已經成為全球人工智能治理的新秩序[17]。2023年10月,我國提出《全球人工智能治理倡議》,該倡議不僅為我國國內人工智能治理和涉外人工智能交流提供了方向,更是切實為全球人工智能治理提供了中國方案。倡議內容圍繞技術發展應堅持“以人為本”理念和“智能向善”宗旨,反對技術霸權和冷戰思維,同時倡導各國相互尊重主權,堅持平等互利,遵守公平性和非歧視性原則,建立健全國際風險等級測試評估體系、國際法律體系、人工智能共商共建共享體系,彌合發展中國家同發達國家之間的智能鴻溝和治理差距,真正使人工智能技術發展成果惠及全人類。在《全球人工智能治理倡議》發布以前,我國還向國際社會先后發布了《中國關于規范人工智能軍事應用的立場文件》《中國關于加強人工智能倫理治理的立場文件》,切實踐行我國向世界宣告走“和平發展”“互利共贏”[18]道路的承諾。未來,圍繞國際人工智能競爭新焦點,營造國際合作新交點,是我國構筑更高水平對外開放的新選擇和新優勢。
四、結語
新一代人工智能技術迅猛發展,人類社會正處于歷史性的變革節點上。人工智能不是一個行業,更不是單一的產品,用戰略術語來說,甚至不是一個“領域”,它是眾多行業及人類生活各方面的賦能者[19]。中國擁有龐大的市場規模和豐富的應用場景,為人工智能發展提供了得天獨厚的條件。近年來,我國在人工智能領域取得顯著成就,然而也要清醒認識到,我國在人工智能基礎層、技術層和應用層等方面仍存在不足,需進一步加強研發創新,突破核心技術,提升產業鏈水平。總之,人工智能作為新質生產力的代表,正以其獨特的優勢和潛力引領著人類社會向更高層次邁進,我們應緊緊抓住這一歷史機遇,以開放、包容、合作的態度,堅持發展、創新與安全并重,推動人工智能技術安全發展,為構建人類命運共同體貢獻中國智慧和力量。
注釋:
1. 通信網絡、內容和技術總司是歐盟委員會的下屬機構,負責制定和執行歐盟委員會關于數字經濟、數字社會的研究與創新等方面的政策,通過資金、立法和政策舉措,幫助確保歐洲在關鍵數字技術方面的領導地位和獨立性。
2. 歐洲政治戰略中心英文全稱為“The European Political Strategy Center”,簡稱“EPSC”,于2014年10月成立,系歐盟委員會的內設智庫機構。
3. “透明度”是指人工智能系統的開發和使用方式應允許具有適當的可追溯性和可解釋性,同時讓人類意識到與人工智能系統進行了交流互動,并適當告知部署者人工智能系統的能力和局限性,以及受影響者的權利。
4. “勒德謬誤”或稱“盧德主義”,系經濟學概念,指新技術會奪走工作崗位并造成失業率攀升的錯誤觀念;從本質上說,新技術可能會對傳統崗位造成一定破壞,但對總體就業水平影響有限。
參考文獻:
[1] 劉洋,李益斌.愿景政治視角下人工智能規范的“歐洲方案”研究[J].當代世界與社會主義,2023(4):153-161.
[2] RYAN M. In AI we trust:ethics,artificial intelligence,and reliability[J].Science and engineering ethics,2020,26(5):2749-2767.
[3] DOSTOV V,SHOUST P,Ryabkova E. Regulatory sandboxes as a support tool for financial innovations[J].Journal of digital banking,2017,2(2):179-188.
[4] 董新義,梅貽哲.“人工智能法總則”建構原則與理念:歐盟立法經驗之鏡鑒[J].數字法治,2024(2):195-210.
[5] 張文遠.OECD更新人工智能定義為歐盟全面人工智能監管鋪平道路[J].互聯網天地,2023(12):60.
[6] 拉哈.歐洲一體化史(1945—2004)[M].彭姝祎,陳志瑞,譯.北京:中國社會科學出版社,2005:118.
[7] 中共中央宣傳部,中央國家安全委員會辦公室.總體國家安全觀學習綱要[M].北京:學習出版社、人民出版社,2022:116.
[8] TECHNAVIO. Artificial intelligence(AI) chips market to grow at a CAGR of 61.51% from 2022 to 2027: growth from ASICs segment will be significant[EB/OL].(2023-04-19)[2024-05-05].https://www.prnewswire.com/news-releases/artificial-intelligence-ai-chips-market-to-grow-at-a-cagr-of-61-51-from-2022-to-2027-growth-from-asics-segment-will-be-significant---technavio-301800599.html.
[9] 李勇堅,劉宗豪.新基建驅動新質生產力發展[J].科技中國,2024(4):18-22.
[10] 周輝.中國人工智能立法:示范與定位[J].探索與爭鳴,2024(10):14-17.
[11] 梁木,李方,許怡.推動人工智能安全高效發展[N].經濟日報,2024-05-05(3).
[12] 于鳳霞.以發展人工智能為重點加速鍛造新質生產力[J].中國經濟報告,2023(6):107-113.
[13] 習近平:加強領導做好規劃明確任務夯實基礎 推動我國新一代人工智能健康發展[N].人民日報,2018-11-01(1).
[14] 吳徐美,王晨雯.《全球人工智能產業發展白皮書(2024年度)》發布 深圳人工智能企業2267家同比增18%[N].深圳特區報,2024-08-30(A02).
[15] 呂鵬,龔順,梅笑,等.智能社會的崛起和人工智能的社會影響[J].智能社會研究,2022,1(1):61-77.
[16] 張真源,張富利.人工智能發展的系統性風險治理:實踐反思、理性建構與策略優化[J].學術論壇,2024,47(1):133-148.
[17] 魯傳穎.全球人工智能治理的目標、挑戰與中國方案[J].當代世界,2024(5):25-31.
[18] 中共中央宣傳部,中華人民共和國外交部.習近平外交思想學習綱要[M].北京:學習出版社,人民出版社,2021:112.
[19] 基辛格,施密特,胡滕洛赫爾.人工智能時代與人類未來[M].胡利平,風君,譯.北京:中信出版社,2023:4-5.
The Development Trend of European Union Artificial Intelligence Strategy from a Security Perspective and Its Enlightenment
Xie Bo1" " Wang Zhiqi2
(1. Southwest University of Political Science and Law, National Security School,Chongqing,401120;2. Southwest University of Political Science and Law,Institute of Holistic Approach to National Security,Chongqing,401120)
Abstract: [Research purpose] Analyzing the development trend of the EU's artificial intelligence strategy from the perspective of security can provide inspiration and reference for promoting the improvement of China's artificial intelligence policy system. [Research method] Through retrieval and comparison, this paper analyzes the relevant policy and legal documents of EU artificial intelligence, and deeply analyzes the development process, core content and safety considerations of EU artificial intelligence strategy. [Research conclusion] From the perspective of security, the evolution of the EU's artificial intelligence strategy has gone through three distinctive periods, which is generally presented as a process from “cold” to “hot”. The main characteristics are the transformation from strategic documents to legal documents in form, from macro-deployment to system governance in content, and through pilot verification and improvement of the regulatory framework in practice, reflecting the EU's security considerations and motivations centered on its own interests. China should attach equal importance to development, innovation and security, ensuring the all-round security of artificial intelligence by grasping the two main risk sources of technology and ethics, realizing the high-quality development of artificial intelligence by coupling policy and legal system, and exploring the “AI+” model to help artificial intelligence accelerate the formation of new quality productive forces, creating a new intersection of international cooperation around the opening and competition of artificial intelligence, and continuously promoting the safe development of artificial intelligence from a strategic perspective.
Key words: European Union (EU); artificial intelligence strategy; Artificial Intelligence Act; safety development;governance
基金項目:國家社科基金重大項目“新時代國家安全法治的體系建設與實施措施研究”(20amp;ZD190)。
作者簡介:謝波,男,1983年生,博士,副教授,西南政法大學國家安全學院副院長,研究方向為新型領域安全。王志祺(通信作者),男,2000年生,碩士,助理研究員,研究方向為網絡安全。