【內容提要】人工智能的跨越式發展正在引領新一輪科技革命和產業變革,其不僅是當前國家安全最新、最活躍、最突出的重點領域,更是維護和塑造國家安全的主戰場主陣地。人工智能安全包括技術本身的內生安全和技術在各領域使用所導致的應用安全,在實踐中具有內涵外延快速拓展、攻防非對稱性、風險不可預測性等特征。我國人工智能安全面臨多重挑戰,主要體現為技術實力尚不夠強、監管難題長期存在、外部遏壓不斷加碼,以及外溢領域風險突出等。推進人工智能治理應全面貫徹總體國家安全觀,統籌人工智能發展和安全,從關鍵核心技術自立自強、加快應用開發和強化安全監管三方面同步發力。中國作為人工智能全球治理的積極倡導者和貢獻者,已發布一系列政策法規和國際立場文件,為促進人工智能全球治理貢獻了中國智慧、提供了中國方案。
【關鍵詞】總體國家安全觀;人工智能安全;統籌發展和安全;中國方案
一、人工智能是國家安全最新最活躍最突出的重點領域
經過多年的發展,人工智能技術及其應用已進入爆發期,以大模型和生成式人工智能為代表的通用人工智能技術取得突破性進展,成為引領新一輪科技革命和產業變革的重要驅動力。屬于非傳統安全范疇的人工智能不僅是總體國家安全觀的重要領域,更是新時代新征程國家安全工作新的戰線和科技賦能的關鍵手段。當前,人工智能因其戰略性、前沿性和全局性成為全社會關注的焦點,但政府、科技工作者、產業界、社會大眾對人工智能安全的關注點各有側重,政府更關心國家競爭力和安全監管,產業界更關注技術本身的發展和安全,社會大眾更關注新技術帶給各行各業的變革,這便產生了人人都在談論人工智能安全,但談論的人工智能安全并不相同的局面。因此,在深入分析我國人工智能安全問題之前,有必要首先厘清人工智能安全的概念。
(一)人工智能安全的內涵
由中央有關部門組織編寫的《國家人工智能安全知識百問》(以下簡稱《百問》)于2023 年4 月出版,《百問》將人工智能安全分為內生安全、衍生安全和發展安全。全國網絡安全標準化技術委員會于2024 年9 月發布的《人工智能安全治理框架》1.0 版則將人工智能安全風險分為內生風險和應用風險。從人工智能發展的實踐來看,后一種分類更具指導意義,因其能夠更好地區分并涵蓋技術本身的安全問題和因技術應用所引發的其他安全問題。
首先,人工智能的本質是信息技術,內生安全就是技術本身的安全,是最基礎的安全問題。《百問》將內生安全定義為:由人工智能自身的脆弱性所導致,通常存在于數據、算法/模型、平臺和業務等環節的安全問題。全國信息安全標準化技術委員會發布的《人工智能安全標準化白皮書(2019 版)》指出:“人工智能安全是指通過采取必要措施,防范對人工智能系統的攻擊、侵入、干擾、破壞和非法使用以及意外事故,使人工智能系統處于穩定可靠運行的狀態,以及遵循人工智能以人為本、權責一致等安全原則,保障人工智能算法模型、數據、系統和產品應用的完整性、保密性、可用性、魯棒性、透明性、公平性和隱私的能力。”與《百問》相比,2019 版標準化白皮書對人工智能內生安全的定義更加系統詳細,兼顧狀態和能力兩個方面,但二者本質相同,都強調技術本身的安全問題。
2023 年發布的《人工智能安全標準化白皮書(2023 版)》繼續沿用2019 年版白皮書對人工智能安全的定義,同時更加強調人工智能內生安全所具有的可靠性、透明性、可解釋性、公平性、隱私性五大屬性。其中,可解釋性、公平性是人工智能相較于其他信息系統的特有屬性;可解釋性關注人工智能算法模型可被人理解其運行邏輯的特性;公平性則要求人工智能的處理結果需保證公正、中立,不引入偏見和歧視因素。與之相對應地,人工智能內生安全主要表現在兩個方面:一是人工智能技術特有的安全問題,如算法黑箱、數據投毒、對抗樣本攻擊等;二是信息系統普遍需要防護的安全問題,如網絡安全、服務器安全、數據庫安全和機房安全等。
其次,應用安全是指人工智能技術在應用于其他領域的過程中,因其脆弱性和不確定性,或者因受到惡意攻擊、不當使用甚至惡意利用而導致的安全問題,通常體現為惡意攻擊、深度偽造和行為操控等。在內生安全之外對應用安全概念進行細致探討至關重要,因為技術本身的安全問題和技術應用所導致的安全問題大相徑庭,只要是使用人工智能的地方,就存在應用安全問題。一般而言,越是依賴人工智能的領域,人工智能應用安全的風險系數就越高。例如,在自動駕駛領域,人工智能系統的錯誤決策可能導致嚴重的交通事故和人身傷害;在能源領域,人工智能系統的故障可能造成整個能源網絡的癱瘓;在醫療領域,人工智能的一個小失誤就可能使病人付出生命代價。隨著人工智能技術的應用范圍越來越廣,應用領域越來越關鍵,其應用安全問題將越發凸顯。
(二)人工智能安全的外延
隨著人工智能技術的快速發展,社會各界對人工智能安全的討論已不局限于技術本身,很多問題的根源也不是源于人工智能技術的脆弱性,但我們也將其稱為人工智能安全,這些安全問題被視為人工智能安全的外延。其主要包括三類:
一是發展安全。人工智能的發展安全是指影響和決定人工智能所處的技術生態能否健康發展的安全問題,通常包括基礎研究、應用研究、產業環境、體制機制、人才資源和國際環境等方面。當前,我國人工智能面臨的最大發展安全問題便是來自外部的遏制打壓,包括技術上的“脫鉤斷鏈”“小院高墻”“卡脖子”“去風險”等。
二是技術濫用。人工智能作為工具和手段,在造福人類的同時,不可避免地會放大某些負面行為的危害,典型如網絡攻擊和深度偽造,在人工智能技術出現之前,網絡攻擊和音視頻偽造行為就已經存在,但人工智能使得這些負面行為的危害程度呈現出指數上升、防范難度加大的局面。
三是負外部性。負外部性是經濟學詞語,指某個經濟主體的活動給其他經濟主體帶來了損害,但該經濟主體卻不必為此承擔相應的成本。當前人工智能技術發展過快的負外部性日益顯現,典型表現就是失業問題加劇和貧富分化。需指出的是,本文對人工智能安全類型的劃分主要基于風險源頭的差異,雖然某個安全問題并非僅存單一的風險源頭,但應抓住問題的主要矛盾,例如負外部性問題表現領域和表現形式多種多樣,其問題的本質均是技術發展太快,生產關系的變革滯后于生產力發展速度。
(三)人工智能安全的主要特征
第一,內涵外延快速拓展。速度快是本輪人工智能技術發展的突出特征。2018 年OpenAI發布GPT-1 模型的參數數量是1.1 億,2022年OpenAI 基于GPT-3.5 推出的ChatGPT 參數數量為1750 億,最新的大模型參數數量可能達到萬億級。大模型參數指數級上升使得人工智能水平實現跨越式發展。技術的快速發展又帶來安全挑戰的快速演變。一方面,人工智能的應用場景不斷拓展,涉及醫療、交通、金融等各個領域,這意味著安全問題的影響范圍在迅速擴大;另一方面,技術更新迭代頻繁,導致安全措施總是難以跟上技術步伐。新的算法、模型不斷涌現,風險表現形式不斷變化,給維護人工智能安全帶來巨大挑戰,并且未來人工智能安全的內涵和外延還將不斷豐富拓展。
第二,攻防非對稱性。人工智能安全中的攻防具有明顯的非對稱性,攻擊成本低、手段多樣且易實施,例如對抗樣本攻擊只需要對原始數據進行微小的、人眼難以察覺的擾動,就可能使人工智能系統產生錯誤的輸出結果,受過一定技術訓練的個體就可以實施此類攻擊。與此同時,防御的難度卻很大,成本高且要求持續投入,需要建立完善的安全防護體系、進行持續的安全檢測和漏洞修復。同樣以對抗樣本攻擊為例,防御方需要開發更加安全的機器學習算法和模型,進行大量的研究和開發投入,不斷跟進攻擊者的新型攻擊方式,及時調整和完善防御策略。
第三,風險不可預測性。傳統技術工具即使再復雜,其設計原理和運行邏輯還是能夠被人完全掌握,故而其行為可以被預測。人工智能技術則不然,智能的原理對人類來說是“黑箱”,使用者只知道其好用,但不知道其為什么好用,也不能排除好用之外是否存在安全隱患。此外,人工智能還存在復雜系統的“涌現”可能(涌現是系統科學和哲學中的概念,用來描述一個系統中個體組成部分之間相互作用后產生新的、不可預測的特性或行為模式),隨著算力的進一步提升,很難預計人工智能還將產生什么超出人類預料之外的能力。最后,人工智能系統具備一定的學習能力,能夠自我進化,長期而言其進化軌跡存在很大的不確定性。當人類無法預測人工智能的行為,就必然無法為所有的安全問題做好準備。
二、我國人工智能安全面臨多重風險挑戰
我國人工智能安全問題突出體現在技術脆弱性帶來的內生安全風險和技術不合理使用導致的應用安全風險,主要面臨以下四方面挑戰。
(一)技術實力尚不夠強
近年來,我國在人工智能技術發展和產業應用上取得了顯著成績,人工智能技術發展處于國際領先水平。從技術體系看,我國堅持自主創新,現已構建起包括智能芯片、大模型、基礎架構和操作系統、工具鏈、深度學習平臺和應用技術在內的人工智能技術體系。從產業規模看,截至2023 年底,我國人工智能核心產業規模接近5800 億元,已經形成京津冀、長三角、珠三角三大集聚發展區,核心企業數量超過4400 家,居全球第二。雖然我國在人工智能領域取得了顯著成就,但與世界頂尖水平相比仍有不足,主要體現在:
一是算法研究能力偏弱,與國際先進水平相比存在明顯差距,尤其是在算法的創新和突破上需要加強。
二是高端芯片和器件研發能力不足,在高端芯片、傳感器等核心器件的研發和制造上,我國與國際先進水平相比差距明顯,還存在“卡脖子”現象。
三是開源開放平臺缺乏影響力,我國目前缺乏具有國際影響力的人工智能開源開放平臺,這在一定程度上限制了技術的交流和合作,影響了創新生態的構建。
四是高端技術人才短缺,我國人工智能人才培養規模逐漸擴大,但高校和科研機構的人才培養體系與產業需求之間存在一定脫節,致使高層次領軍人才稀缺、基礎研究人才匱乏。
以上不足的共同原因就是基礎研究和應用研究之間“頭重腳輕”,學界、產業界對人工智能的投入更多體現在應用層面,基礎性、原創性研究依然薄弱。這在一定程度上是由我國人工智能所處的發展階段造成的。我國在人工智能技術上處于后發追趕地位,現階段優先尋求應用層的發展和突破相對經濟可行,但長期看我們要追上世界頂尖水平,避免技術被“卡脖子”、被人拉開技術差距,加強基礎領域研究已勢在必行。
(二)監管難題長期存在
當前,我國已逐漸建立起人工智能監管體系,極大地促進了人工智能技術的健康發展。例如在標準化建設方面,2024 年工業和信息化部等四部門聯合發布《國家人工智能產業綜合標準化體系建設指南(2024 版)》;在法律法規方面,2023 年國家互聯網信息辦公室等七部門聯合發布《生成式人工智能服務管理暫行辦法》,2024 年國家互聯網信息辦公室發布《人工智能生成合成內容標識辦法(征求意見稿)》;在倫理規范方面,2021 年國家新一代人工智能治理專業委員會發布《新一代人工智能倫理規范》;在安全治理方面,2023 年我國提出《全球人工智能治理倡議》,2024 年全國網絡安全標準化技術委員會發布《人工智能安全治理框架》1.0 版。
但在人工智能監管體系日益完善的同時,我們也應該認識到,人工智能監管體系建設是一項長期任務,許多監管挑戰將長期存在。
一是技術本身不確定性長期客觀存在。算法黑箱使得開發人員和監管者難以真正理解算法內部的工作機制和決策過程,從而增加了監管難度;人工智能技術發展迅速,新的算法、模型和架構不斷涌現,使得監管政策和標準難以跟上技術更新的速度,導致監管滯后。
二是國際合作中的競合矛盾長期存在。在地緣政治影響下,人工智能領域存在著激烈的國際競爭,各國特別是大國都將人工智能視為國家競爭力的關鍵因素,這種競爭關系不可避免地會影響國際間的合作意愿,使得各國在人工智能監管方面難以達成共識。另外,不同國家和地區的法律制度、文化背景和監管政策存在差異,這給人工智能的跨國界應用和監管帶來了困難,例如不同文化的國家對數據隱私問題的態度和政策存在明顯差異。
三是具體監管中個體性和統一性的矛盾將長期存在。人工智能應用具有多樣性和普遍性,制定統一監管政策難度很大,“一刀切”式監管將導致監管過度或監管不足的問題。再加之每個行業都有自身的特點和監管要求,極大增加監管的復雜程度和難度。
四是創新和安全的關系需要長期保持動態平衡。在技術發展領域,創新和安全相輔相成,監管政策需要既能激勵創新,又能確保技術的安全和可靠。
(三)外部遏壓有增無減
隨著人工智能重要性進一步凸顯,個別西方國家從維護自身霸權角度出發,有預謀有組織地對中國人工智能發展采取了一系列遏壓行動。
一是通過不斷加碼出口管制和投資審查,阻撓正常學術交流,限制資金、技術等資源向中國人工智能領域流動。例如,從2019 年開始,美國便有組織、大規模地破壞中美科學合作,數以千計的中國留美學生和學者被美相關機構拒簽、吊銷簽證甚至驅逐出境。2022 年,美國商務部工業與安全局出臺了新的出口管制措施,限制向中國出口先進計算和半導體制造物項,并多次升級這些措施,擴大限制范圍,將多家中國實體列入出口管制“實體清單”。此外,美國還通過《芯片與科學法案》等,限制美國公司在中國進行半導體和微電子、量子信息、某些人工智能領域的投資活動。
二是構筑人工智能反華聯盟。美國政府將人工智能視為推動其所謂“自由、開放、透明”原則的重要工具,通過對合作伙伴的標準化要求,極力推動人工智能技術發展符合其利益訴求,并與盟友共同制定科技領域的國際規則和標準,以“民主價值觀”之名,行構建科技“小圈子”、限制中國科技發展之實。例如,美國防部啟動“人工智能國防伙伴關系”,并與韓國、日本及中國臺灣地區建立“芯片四方聯盟”,對華實施統一出口管制。
三是重點限制我人工智能大模型發展。美國深知大模型是本輪人工智能技術爆發式增長的關鍵,不遺余力打壓中國大模型發展,手段包括高端芯片出口限制、先進半導體制造設備全球管制、人工智能基礎軟件出口管制、云計算服務限制、特定應用程序服務禁令等。2024年,美國商務部要求亞馬遜等云服務提供商報告外國客戶使用云算力訓練人工智能大模型的情況,針對中國意味明顯。美國眾議院外交事務委員會通過《加強海外關鍵出口限制國家框架法案》,對人工智能模型實施出口管制,以限制中國獲取先進模型技術。
人工智能作為關乎國家競爭力和未來發展的關鍵技術,是未來大國競爭博弈的主戰場。可以預見,在未來相當長時間內,大國博弈將是影響我人工智能發展的關鍵變量,國際競爭和外部遏壓是維護我國人工智能安全的主要挑戰。
(四)外溢領域風險突出
在政治安全領域,人工智能深度偽造技術被用來抹黑重要政治人物,引發社會信任危機,嚴重危害政治安全;在信息繭房作用下,人們會依照個人的喜好自動選擇和過濾信息,只對自己偏好的信息感興趣,排斥不感興趣的信息,這將導致主流意識形態傳播弱化、話語消解的風險。在經濟安全領域,人工智能可能改變現代經濟體系中的“資本—技術—勞動力”的三邊關系,重構價值鏈與權力分配格局,引發結構性失業、貧富分化加劇等問題。在社會安全領域,人工智能使得網絡欺詐、隱私竊取等犯罪行為更具隱蔽性、更有針對性,給防范和打擊犯罪行為帶來新挑戰。此外,當人工智能普遍應用于交通調度、能源管理和政務服務時,其系統故障帶來的公共安全風險不容小覷。在軍事安全領域,人工智能技術的發展可能改變戰爭形態,極大增強武器系統的性能和自主性水平,人工智能軍備競賽還將引發法律、倫理和戰略問題。在科技安全方面,人工智能本身就是引領新一輪產業變革的關鍵技術,同時作為一項重要工具,人工智能技術對科研活動具有顯著的賦能作用,國家間科技實力差距可能被進一步拉大。
三、推進人工智能治理需要統籌發展和安全
人工智能既是發展的加速器,也是風險的導火索。對于人工智能安全面臨的復雜挑戰,我們要全面貫徹總體國家安全觀,高效統籌發展和安全,兼顧鼓勵創新與防范風險,既要避免技術落后導致的發展動力缺失與“被動挨打”,也要加強早期治理,防范無序發展帶來的安全亂象,堅持促進發展與確保安全相統一,在發展中規范、在規范中發展,確保人工智能始終安全、可靠、可控。
(一)加快實現關鍵核心技術自立自強
科技創新能力是衡量一國實力的重要標準,科技競爭已成為大國博弈的重要內容。美西方在關鍵科技領域打著“去風險”的旗號拉幫結派,在國際上對中國大搞“脫鉤斷鏈”,筑起“小院高墻”、實施封鎖圍堵,企圖遏制與遲滯我國科技發展進程。習近平總書記強調,關鍵核心技術是要不來、買不來、討不來的。只有把關鍵核心技術掌握在自己手中,才能從根本上保障國家經濟安全、國防安全和其他安全。人工智能作為具有劃時代意義的關鍵技術,是我們贏得全球科技競爭主動權的重要抓手,是推動我國科技發展、產業升級、生產力躍升的重要依托。面對美西方的遏壓以及人工智能內生安全風險和應用安全風險,我們必須堅持推進高水平科技自立自強,把科技命脈和發展主動權牢牢掌握在自己手中,發揮新型舉國體制的優勢,聚焦人工智能關鍵核心技術的差距和短板,加快研發進程,推動人工智能高水平發展。
人工智能領域的關鍵核心技術主要包括人工智能芯片以及算法、算力與數據等。芯片是人工智能的基礎,要加強在高端芯片領域的研發力度和產業布局,為人工智能的發展提供堅實的硬件支撐。要持續深化人工智能的基礎理論研究,開展大模型基礎原理和新架構探索,構建具有國際影響力的通用人工智能原創性理論體系。要推動人工智能前沿領域攻關,搭建深度學習框架等開源算法平臺,加強學習推理與決策、圖像圖形、語音視頻、自然語言識別處理等領域創新。同時還要加快建立多層次開放共享的數據體系,打破不同領域、不同平臺、不同渠道的數據壁壘,形成高質量、大規模、多樣性的數據集,為人工智能發展提供有力的數據支持。
實現關鍵核心技術自立自強的重中之重是培養高素質人才。要增強人工智能領域的人才培養和學科布局,加大對人工智能學科和高校科研院所的支持力度,圍繞產業需求和區域發展來布局人工智能相關專業,逐步擴大高等院校人才培養規模。要不斷突破學科壁壘,探索高效前沿的人才培養模式,推動人工智能專業與數學、統計學、生物學、心理學等學科的交叉融合,堅持產學研相結合的育人導向,面向領域前沿、面向產業需要培養人工智能的研發、運維與管理人才。要完善人工智能人才國際交流合作機制,堅持“走出去”與“引進來”相結合,一方面提升與世界各國人工智能專業領域的交流合作力度,建立定期交流訪學、合作辦學等機制;另一方面加大引進人工智能領域高端人才力度,為全球人工智能領域人才來華工作創業暢通渠道。
(二)推進人工智能應用開發
人工智能具有極強的溢出和帶動效應,是經濟社會發展的重要驅動力量,能夠極大地抬升其他領域的發展變革速度,催生了一大批具有顛覆性的新產品、新業態和新模式,但人工智能在使用過程中也會產生系列應用風險,引發諸多經濟社會問題。在一定程度上,人工智能的風險防范還需要依靠人工智能技術的創新性研發加以解決,因此,必須積極推進用于人工智能治理的相關技術開發與應用,不斷提高人工智能治理的技術能力。習近平總書記強調,“我國經濟已由高速增長階段轉向高質量發展階段,……,迫切需要新一代人工智能等重大創新添薪續力。我們要深入把握新一代人工智能發展的特點,加強人工智能和產業發展融合,為高質量發展提供新動能。”“要發揮人工智能在產業升級、產品開發、服務創新等方面的技術優勢,促進人工智能同一、二、三產業深度融合,以人工智能技術推動各產業變革。”因此,要緊緊圍繞經濟社會發展的新要求,充分發揮我國超大規模應用市場優勢,強化人工智能科技應用開發,形成“人工智能+”的產業研發模式,培育智能創新產品和服務,構建人工智能科技創新和產業發展同頻共進的良好局面。
例如,要著力推動人工智能同民生保障相結合,加強人工智能在人們日常工作生活中的深度運用,聚焦社會保障和民生領域的突出問題和重難點,圍繞教育、醫療、交通、養老、家政服務等領域展開人工智能應用研發,創新智能服務體系、智慧養老體系和智慧交通體系等,不斷增強公共服務水平。要推動人工智能同社會治理相結合,開發適用于政府服務和咨詢決策的人工智能系統,加強政務信息資源整合和公共需求精準對接;構建立體化信息化的社會治安防控體系,通過通用大模型引領的技術創新推動社會治安防控體系實現精細覆蓋、快速反應與有效處置,努力提高社會治理水平。要持續推動人工智能同氣候治理相結合,圍繞氣候變化趨勢評估、碳排放監測管理、極端氣候災害預警和應急指揮、自然生態保護等方面開發人工智能應用產品,增強人類對氣候變化的認知、反應和應對能力。
(三)加強人工智能安全監管
科學技術是一把“雙刃劍”,回顧人類科技文明的發展史,科技創新在推動人類社會進步的同時,也滋生了一系列風險與災難。人工智能作為新一輪科技革命中具有顛覆性和突破性的前沿技術,對人類影響程度更深、范圍更廣、力度更大,“雙刃劍”的屬性體現得更加淋漓盡致,加強對人工智能的安全監管勢在必行。特別是當前人工智能尚處于發展的初始階段,技術倫理、法律法規和政策體系尚不完善,建立行之有效的監管體系正當其時。習近平總書記高度重視對人工智能領域的安全監管,多次就推動人工智能健康發展,確保人工智能安全、可靠、可控作出重要指示。黨的二十屆三中全會明確提出,要“完善生成式人工智能發展和管理機制”“加強網絡安全體制建設,建立人工智能安全監管制度”。這充分表明加強人工智能安全監管已成為未來五年的一項重點工作。在人工智能領域,我們要摒棄以往“先發展、后治理”的思路,做到“邊發展、邊治理”,加強人工智能的戰略研究、前瞻預防和約束引導,需從以下四個方面防范化解人工智能領域的安全風險。
一是完善人工智能法律法規和政策體系,將制度規范貫穿到人工智能的設計、研發、部署和維護各個環節,加快推進人工智能基礎設施保護、個人隱私保護與數據安全、安全服務認證等領域的立法工作,同時,完善人工智能安全管理的追溯和問責制度、風險監測研判和防范制度等,明確人工智能模型算法研發者、服務提供者、使用者等相關主體的權利、義務與責任。
二是建立人工智能的倫理規范,將倫理道德融入人工智能全生命周期,推進人工智能行為科學和倫理問題的研究,明確人工智能的道德標準和社會責任,制定研發人員的倫理行為守則和行業道德規范,防止其被用于核生化導等大規模殺傷性武器等高危場景,同時,要為人工智能系統內部構造、推理邏輯、輸出結果等提供說明,不斷增強系統的可解釋性與透明度。
三是加強人工智能的監管執法力度,將監管落實到人工智能的研發應用、評估審查和監測預警等環節,相關監管和執法部門要對人工智能系統的攻擊破壞行為以及借用人工智能系統實施數據竊取、散布虛假信息、網絡攻擊等行為及時依法進行懲處,持續強化人工智能的監管力度,提升人工智能的安全性和可靠性。
四是推動公眾參與人工智能監管,暢通社會組織、企業、科研院所、民間機構和社會公眾等主體參與人工智能監管的體制機制和渠道,以社會監督來彌補政府監管的不足,確保人工智能良性發展。
需要指出的是,雖然加強人工智能安全監管不可或缺,但人工智能方興未艾,其未來的發展方向、應用場景和安全風險仍充滿變數。因此,推進人工智能治理要注重統籌發展和安全,應堅持以發展和引導為主,進一步激發其創新動能,釋放發展活力。在監管中要秉持審慎包容的理念,把握好倫理引導和創新引領、制度規范和自主發展的關系,控制好監管的范圍、力度和尺度,要讓監管成為人工智能蓬勃健康發展的動力,為人工智能營造良好的發展環境,避免因監管過于嚴格而阻礙科技進步步伐,確保我國在全球人工智能競爭中處于有利地位。
四、推進人工智能全球治理的中國方案
中國始終是人工智能全球治理的積極倡導者和貢獻者,致力于促進人工智能的健康有序發展與高效合理應用,現已推出系列政策法規和國際立場文件,為推動人工智能全球治理持續貢獻中國智慧。2019 年,中國發布《新一代人工智能治理原則——發展負責任的人工智能》,圍繞負責任的人工智能目標,提出人工智能治理的框架與行動指南。2021 年出臺《新一代人工智能倫理規范》,旨在將倫理道德融入人工智能全生命周期,全力應對其帶來的風險挑戰。2023 年,面對人工智能發展的新形勢、新機遇和新挑戰,習近平主席在第三屆“一帶一路”國際合作高峰論壇開幕式上首次提出《全球人工智能治理倡議》(以下簡稱《倡議》)。《倡議》聚焦人工智能的發展、安全和治理,系統闡述了人工智能全球治理的中國方案,為應對人工智能風險挑戰提出了建設性解決思路,為相關國際討論和規則制定提供了重要遵循。《倡議》的提出是中國積極踐行人類命運共同體理念,落實全球安全倡議和總體國家安全觀的生動體現,有力助推人工智能朝著更加安全、公平、有效的方向發展,標志著中國人工智能全球治理理念業已成熟,能力極大提升,實現由被動跟跑向主動領跑的轉變。
(一)堅持倫理為要,筑牢“以人為本”的道德基礎
人工智能雖被冠以智能之名并能實現某些類人功能,但在本質上依舊是附屬于人的技術和工具,目的不是徹底替代人類,而是更好地促進人類高質量發展。作為一項以人為模仿對象和追趕目標的新技術,人工智能的發展將給人類帶來前所未有的倫理沖擊。因此,強化倫理的引領、支撐和規范作用是人工智能發展的基礎和前提。中國的人工智能治理方案即以倫理為根本出發點和落腳點,以增進全人類的共同福祉為目標,旨在踐行和平、發展、公平、正義、民主、自由的全人類共同價值,確保人工智能技術發展與應用符合倫理道德,在安全可靠可控的前提下服務人類社會文明進步。提倡議》明確指出,要堅持倫理先行,秉持“以人為本”的理念、“智能向善”的宗旨,以保障社會安全、尊重人類權益為前提,確保人工智能始終朝著有利于人類文明進步的方向發展。在如何將上述理念落實到具體行動上,《倡議》強調,要建立并完善人工智能倫理準則、規范及問責機制,形成人工智能倫理指南,建立科技倫理審查和監管制度,明確人工智能相關主體的責任和權力邊界,充分尊重并保障各群體合法權益,及時回應國內和國際相關倫理關切。通過在全球范圍內廣泛凝聚倫理共識、明確價值取向、規范倫理架構,中國積極構建公平合理的人工智能全球治理倫理話語體系,引領人工智能朝著造福于人類的正確方向前進。
(二)踐行發展優先,營造平等互利的競爭環境
人工智能正在引領一場科技革命,給世界帶來深遠影響和巨大機遇,深刻塑造著人類生產、生活和學習模式,要始終以促進人工智能創新發展為第一要務。中國對外著力解決發展中國家在人工智能全球治理規則制定上的邊緣化、人工智能全球發展的不均衡問題,主張推動人工智能平等發展。《倡議》提出發展人工智能應堅持相互尊重、平等互利的原則,各國無論大小、強弱,無論社會制度如何,都有平等發展和利用人工智能的權利。特別強調要增強發展中國家在人工智能全球治理中的代表性和發言權,確保各國人工智能發展與治理的權利平等、機會平等、規則平等。與此同時,呼吁全球共同發展。人工智能作為具有全球性影響的前沿技術,其發展成果不應由少數國家獨占,而應由全球共享。《倡議》呼吁全球應共同推動人工智能健康發展,共享人工智能知識成果。鼓勵各國開源人工智能技術,開展面向發展中國家的國際合作與援助,不斷彌合智能鴻溝和治理能力差距。面對西方發達國家實施的技術封鎖,《倡議》強調要反對以意識形態劃線或構建排他性集團,惡意阻撓他國人工智能發展,反對利用技術壟斷和單邊強制措施制造發展壁壘,惡意阻斷全球人工智能供應鏈。總體而言,中國始終踐行發展優先原則,著力在全球范圍內營造平等互利、合作共贏的競爭環境,以滿足廣大發展中國家的共同發展需要。
(三)強化安全保障,健全“智能向善”的體制機制
安全是人工智能的生命線,必須確保人工智能始終在正確的方向軌道上發展。尤其是隨著人工智能的飛速更新迭代,其帶來的挑戰前所未有,健全人工智能安全保障體制機制更顯緊迫,中國對此提出了一系列主張和安排。首先,在治理問題上,《倡議》聚焦人工智能引發的多重風險挑戰,強調要反對竊取、篡改、泄露和其他非法收集利用個人信息;反對利用人工智能技術優勢操縱輿論、傳播虛假信息、干涉他國內政、危害他國主權;要共同防范和打擊恐怖主義、極端勢力和跨國有組織犯罪集團對人工智能技術的惡用濫用等。其次,在治理主體上,《倡議》秉持共商共建共享的理念,凝聚各方力量,推進各國政府、國際組織、企業、科研院校、民間機構和公民個人等多元主體協力共同促進人工智能治理。最后,在治理方式上,《倡議》堅持公平性和非歧視性原則,呼吁完善法律和規章制度,保障人工智能研發和應用中的個人隱私與數據安全;推動建立風險等級測試評估體系,實施敏捷治理,提高人工智能可解釋性和可預測性,提升數據真實性和準確性;避免在數據獲取、技術開發、產品研發與應用過程中產生偏見和歧視。通過健全相關安全體制機制來保障實現“智能向善”目標,助力人工智能更好地為人類發展服務。
(四)促進國際合作,推動構建人類命運共同體
人工智能的影響具有全球性,沒有任何國家能在人工智能的風險沖擊中獨善其身,更沒有一個國家能憑一己之力應對挑戰。《倡議》明確指出,人工智能治理攸關全人類命運,是世界各國面臨的共同課題,需各國攜手應對。因此,人工智能全球治理必須以人類整體的利益福祉為宗旨,堅持自身安全和共同安全有機統一。然而,美西方無論是在軍事防務部門還是產業經濟領域,其人工智能合作都具有極強的排他性和競爭性,意圖壟斷全球人工智能治理規則制定權,這與人類的整體福祉背道而馳。《倡議》以合作共贏替代美西方零和博弈理念,廣泛凝聚各方共識,主張同世界各國一道深化人工智能發展和治理國際合作,共同推動人工智能健康發展、促進世界經濟增長、增進各國人民福祉。《倡議》強調,各國應秉持共同、綜合、合作、可持續的安全觀(亦即全球安全觀,也是總體國家安全觀的“世界篇”),堅持發展和安全并重,廣泛參與、協商一致、循序漸進的原則,在充分尊重各國政策和實踐差異性基礎上,推動各利益攸關方積極參與,在國際人工智能治理領域形成廣泛共識。同時,積極支持在聯合國框架下討論成立國際人工智能治理機構,協調國際人工智能發展、安全與治理重大問題,構建開放、公正、有效的治理機制,促進人工智能技術造福于人。展望未來,在人工智能治理全球合作系列主張的引領下,世界各國應共同推動人工智能科技賦能人類社會,以此助推構建人類命運共同體。
(截稿:2024 年11 月 責編:荊 江)
作者簡介
陳向陽,總體國家安全觀研究中心辦公室主任,中國現代國際關系研究院研究員、博士生導師
張旭,中國現代國際關系研究院副研究員
黃政,總體國家安全觀研究中心辦公室研究人員、博士