摘 要:生成式人工智能利用海量未標記數據和合成數據進行持續訓練,依賴深度神經網絡等機器學習技術逐漸形成自主的行為能力,輸出新穎結果、應用日趨廣泛,正深刻改變著人際間的互動方式,其模型開發的資源密集型特性也促使復雜價值鏈條形成。生成式人工智能在運行節點的技術躍遷,引發了版權侵權、數據偏見、能耗過大、風險難測、虛假信息傳播以及損害認定困難等監管挑戰。歐盟人工智能法作出緊急回應,以“通用人工智能模型”為概念中樞,經由“通用人工智能系統”過渡,將生成式人工智能納入“人工智能系統”范疇;輸入端從數據數量和數據質量雙管齊下設置合規義務,處理端引入“高影響能力”的自主性程度判斷標準,并將“具有系統性風險的人工智能”嵌入風險分類分級制度,輸出端則設計“檢測、披露和透明度”等義務來規制虛假信息傳播,部署端也專門設計價值鏈上的責任分配專條。雖然歐盟立法為應對生成式人工智能風險作出了努力,但在“抽象定義的確定性”“衡量數據訓練效果的方法”“高級模型與小型模型之區分”“系統性損害的確定”以及“API 接口和開源模式對價值分配的影響”等方面仍有繼續完善的空間。
關鍵詞:歐盟人工智能法 生成式人工智能 定義范疇 系統性風險
人工智能治理是一項復雜的系統性工程,歐盟在世界范圍內率先嘗試以正式立法推動人工智能法律規制進程。然而,隨著GAN、CLIP、Transformer、Diffusion、預訓練模型、多模態技術、生成算法等人工智能技術集成應用和迭代升級,催生了以ChatGPT、DALL-E 和Sora 等為代表的生成式人工智能(ArtificialIntelligence Generated Content,簡稱AIGC)大爆發,對人工智能規制形成新挑戰——立足于傳統人工智能的歐盟立法是否還能有效應對此種具有通用屬性的新類型人工智能?與我國針對生成式人工智能開展專門立法不同,歐盟制定的是一般法意義上的“人工智能法”,即2021 年4 月歐盟委員會正式公布的“歐洲議會和理事會關于制定人工智能統一規則(《人工智能法案》)和修訂某些歐盟立法法案的提案”(以下簡稱“2021 人工智能法提案”)便是歐盟“人工智能法”的雛形。自2022 年底出現人工智能技術拐點(以OpenAI 推出ChatGPT 為標志)之后,歐盟立法在“2021 人工智能法提案”基礎上歷經數次修訂,以應對生成式人工智能帶來的監管挑戰,其中較為關鍵的立法修訂程序主要包括2022 年12 月歐盟理事會通過的“一般立場”(以下簡稱“2022 人工智能法立場”)以及2023 年5 月歐盟有關機構通過的“關于報告草案的折衷修正案草案”(以下簡稱“2023 人工智能法草案”);最近的一次重要修訂是歐洲議會在2024 年3 月13 日發布的“立法決議”(以下簡稱“2024 人工智能法”),該法案于2024 年7 月12 日在歐盟官方公報發布,2024 年8 月1 日正式生效。
綜觀歐盟人工智能法的變遷過程,該部立法對生成式人工智能的監管態度和規制方式實際上經歷了艱難的價值博弈。為清晰展現歐盟立法對生成式人工智能的規制思路,本文首先從人工智能現象談起,在系統論指導下遵循“輸入—處理—輸出—部署”鏈條,相對客觀地“白描”生成式人工智能較之于傳統人工智能的技術變化;在此基礎上,繼續觀察生成式人工智能在進入人類社會生活后因其技術躍遷引起的“社會風險變化”和“社會關系變化”,正是這些變化構成了歐盟“2024 人工智能法”修訂內容的敘事背景;接著以歐盟立法史中變動的“人工智能法律定義范疇”為切口,初步揭示歐盟立法對生成式人工智能的規制模式,這也是人工智能立法應對監管挑戰的邏輯前提;其后繼續遵照系統論鏈條對歐盟“2024 人工智能法”中涉及生成式人工智能的相關具體條款進行體系解釋,以期勾勒出歐盟立法應對監管挑戰的基本方案;最后,反思歐盟生成式人工智能立法的利弊得失,以此作為未來中國人工智能立法之鏡鑒。
一、生成式人工智能的技術躍遷
(一)輸入端:海量的訓練數據
生成式人工智能實現技術躍遷的關鍵步驟是“預訓練轉換模式”,以提前訓練海量和多樣的未標簽文本為必要前提,而ChatGPT 要想實現通用智能,則需要以“少調整”甚至“不調整”參數為目標,這就意味著“未標記數據”和“合成數據”自然成為生成式人工智能為滿足海量訓練數據需求的基本選擇。
傳統人工智能以監督學習為基礎,依賴具有預定義輸入和輸出的“大量標記(標注)數據”(為實現特定目的而精心策劃的數據)進行訓練,需要通過“人工注釋”方式來準確學習并作出預測,以實現數據訓練的高精度和高性能水平;相較之下,生成式人工智能允許系統從非結構化數據中學習,以找到數據集的潛在模式和結構特征,并在“沒有明確人工指導”的情況下生成輸出,這種生成新數據和新內容的能力使生成式人工智能在無監督環境中變得強大。
合成數據基于深度學習、生成對抗網絡(GAN)、3D 渲染等方法形成,外觀與原始數據樣本相同,是一種映射真實世界模式的數據形態,其主要功能在于復制和替換原始數據,從而作為生成式人工智能的預訓練數據以創建不同的機器學習模型。合成數據作為預訓練數據的重要類型,其主要價值有四:一是數據庫測試時“數據保真”,處理原始數據的合成版本,能夠在不改變真實數據屬性和成分的基礎上獲得相同結果;二是降低從真實世界收集原始數據的經濟成本和時間成本;三是生成式人工智能可以通過生成新樣本以增強數據集、提高基礎模型的魯棒性和泛化性;四是大型、多樣化的數據集有利于強化自然語言處理和計算機視覺領域的性能。
(二)處理端:自主的行為能力
傳統人工智能依賴于基于規則的方法,這些規則由人類專家根據他們對問題域的理解而設計,通過明確指令和預定義規則進行編程,使系統能夠執行特定任務;生成式人工智能采用數據驅動的方法,模型不依賴于顯式規則,而是使用深度神經網絡等機器學習技術從大型數據集中捕獲基礎模式和結構關系來生成新內容。深度學習技術源于人腦的生物神經網絡機制,能夠模仿人腦自動對數據進行特征提取、識別、決策和生成,其中以“利用人類反饋強化學習”(Reinforcement Learning from Human Feedback)為訓練方式的Transformer 模型是讓人工智能進行自主深度學習的核心架構。譬如,將大量小說作品輸入生成式人工智能模型,機器學習算法從輸入的信息中學習情節、結構、人物、主題和其他敘事手段等元素,隨著訓練時間增加、生成數據增多,基礎模型越來越復雜,其輸出就越有說服力和人類特性。
生成式人工智能處理端的技術變化使其具備“自主的行為能力”,這種“自主性”特征體現在基礎模型的運行目的、運行過程和運行結果的全流程。首先,基礎模型的運行目的具有不可知性。基礎模型對“少樣本”“單樣本”和“零樣本”情形進行綜合,在沒有案例指引的情況下獨立完成對任務的理解,這就類似于向人類下達同等任務,體現出高度自主性與問題應對的靈活性。其次,基礎模型的運行過程具有不可確定性、不可理解性、不可控制性以及自我統攝性,其在大量未標記數據上訓練,從中推斷出模式而無需人工監督,使模型能夠展示超出開發人員最初設想的“緊急能力”。最后,基礎模型能夠生成類似人類理性的運行結果,甚至可以作出遠優于自然人的決策。一方面,生成式人工智能不僅僅是信息傳播工具,其在一定程度上也是“信息生成者”,能夠選擇性設計信息內容、建構傳播渠道,進而阻礙數據共享與完整傳輸,導致政策觀念之間協商、修正的機會大大減少;另一方面,生成式人工智能具備遷移應用能力,與通常被訓練為執行一項特定任務的非基礎模型不同,基礎模型能夠將其在執行任務A 時獲得的知識應用于任務B。雖然生成式人工智能在理解力、邏輯性和功能化等方面呈現出強人工智能(General AI)特性,并且在解除一定限制的情況下,GPT-4 能夠自主使用各種工具完成工作,具備自我反思和迭代能力,能夠實現從感知智能向自主認知智能躍遷,但ChatGPT 基于語料喂養和人類反饋強化學習所訓練出來的認知能力仍然有限。在“是否可以脫離人類設計和編制的程序自主實施行為”標準下,生成式人工智能實際上處于弱智能機器人與強智能機器人的臨界點。
(三)輸出端:多樣的輸出結果
生成式人工智能的底層邏輯為“理解—創作”,它不是對既有內容進行簡單拼接,而是對輸入的數據進行演繹式創造,形成多樣的輸出結果。
其一,生成式人工智能的輸出結果具有一定“新穎性”。傳統人工智能基于數據中的歷史模式來預測特定用例的結果,而生成式人工智能則是在“理解上下文”的基礎上生成新穎的類人內容,其擅長創制藝術類、音樂類和設計類等新內容,特別是在傳統素材稀缺的情況下提供獨特解決方案。換言之,生成式人工智能通過輔助藝術家和創新者探索未知創意領域,將抽象概念轉化為有形現實,突破傳統創意的界限,推動行業向前發展,使其成為激勵創新的基石。
其二,生成式人工智能的輸出結果具有廣泛的應用場景。傳統人工智能適用于特定用例,例如檢測欺詐、下棋、識別圖像中的異常情形;而生成式人工智能適用于各種通用的用例和應用程序,例如回答復雜問題,創建全新的圖像、音頻和視頻等。傳統人工智能的特定用例中使用專用程序,例如BI 報告、儀表板、呼叫中心屏幕等;而生成式人工智能則有更多的人機交互界面,例如基于應用程序和Web 瀏覽器的聊天界面。
其三,生成式人工智能的輸出結果能夠改變人機互動方式。隨著技術進步,傳統人工智能和生成式人工智能將協同工作,生成式人工智能主要用于簡化人機交互,并使用傳統人工智能來創建應用程序,它們將串聯使用而不是各自孤立使用,即生成式人工智能的“通用性”(泛在性)也是有限的,其只是工具箱中的另一個工具。進言之,以生成式人工智能為基礎的聊天機器人可以改變企業與客戶間的互動方式,具備提高效率、參與度和滿意度的優勢。譬如,嵌入生成式人工智能功能的聊天機器人不斷從每次互動中學習和適應,確保它們隨著時間推移而變得更加有效,這種持續改進的循環預示著未來集成式人工智能將提供更加個性化和高效的客戶服務。
(四)部署端:復雜的價值鏈條
GPAI(General Purpose AI)模型的關鍵技術特征是其大尺寸(使用大量參數,即定義模型的數值)、不透明性(輸出信息的計算機制難以解釋),以及具有超出生產者預期的意外開發能力。并且,提供GPAI模型不僅需要大量數據和計算能力,還需要高水平的研究人員和技術工程師,這些都將耗費高昂的經濟成本。GPAI 模型開發的“資源密集型”特性促使其提供商(上游)和面向終端用戶的公司(下游)之間建立相互依賴關系,表征傳統單一用途人工智能應用范式的轉變。與必須從頭開始構建一個人工智能系統來執行特定任務不同,尖端GPAI(如Meta、Microsoft 及其合作伙伴OpenAI 等)能夠通過傳統上技術含量較低的“后臺”公司為下游公司構建多種面向用戶的應用程序提供基礎設施支持,各種參與者負責同一過程的不同組件,使GPAI 模型的生命周期變得復雜。進言之,上游和下游公司之間的這種牽連關系意味著不同參與者對GPAI 模型的控制水平會根據上游GPAI 提供商分發模型并將其投放市場的策略(目前大部分是開源軟件或通過應用程序編程接口)而發生變化,即他們產生價值和將GPAI 模型市場化的方式更為復雜。
二、生成式人工智能引發監管挑戰
海量未標記數據在提高生成式人工智能性能的同時,也會出現以下風險:一是知識產權侵權,大多數生成式人工智能系統的核心——基礎模型(FM)和大型語言模型(LLM)——是在海量數據上訓練的神經網絡,這些數據往往直接從互聯網爬取,不少內容實際上受版權法保護,但數據使用者卻沒有為此支付對價。二是數據偏見,用于訓練生成式人工智能模型的數據中存在歷史偏見和其他形式的偏見,這些模型復制了刻板印象并可能導致仇恨言論等危險輸出。三是人工智能事件增加,斯坦福互聯網天文臺(SIO)的一項調查在一個開放數據集中發現了數百張兒童性虐待材料(CSAM)圖像,而人工智能模型直接在容納了數十億張圖像的公共數據集(LAION-5B)上進行訓練,該數據集由機器在社交媒體網站、成人視頻網站等直接抓取。此外,生成式人工智能在利用合成數據訓練時,存在“異常值”問題。一方面,將罕見事件編程到數據分發系統中非常困難;另一方面,合成數據因復制了輸入數據的部分統計特征而忽略某些不可預測的真實數據,所以變量數據質量很大程度上取決于輸入數據質量,嚴格的質量控制對于避免產生問題數據樣本而言至關重要。
生成式人工智能利用未標注數據和合成數據進行訓練,除了存在侵權風險之外,還因消耗大量淡水來發電供能和冷卻處理器而導致環境問題等負外部性。譬如,在美國愛荷華州的西得梅因,一個巨大的數據中心集群為OpenAI 最先進的模型GPT-4 提供服務,當地居民的訴訟顯示,2022 年7 月,即OpenAI 完成模型訓練的前一個月,該集群使用了整個地區約6% 的淡水;當谷歌和微軟訓練大型語言模型時,兩家公司的用水量都出現了大幅飆升,環境評估報告顯示其一年內分別增加了20% 和34% ;預計到2027 年,全球人工智能用水需求可能是英國的一半,Facebook 的人工智能研究人員將該行業追求規模所帶來的環境影響稱為“房間里的大象”。
從處理端的運行機理看,即便生成式人工智能以有限自主性塑造著人類社會,其仍然存在突破預先設計的臨界點而走向失控的潛在風險。一是在風險來源方面,不僅識別和預見生成式人工智能使人類社會受益的方式具有困難,而且預測它們何時會造成傷害也更加困難。二是在風險內容方面,GPT 進行數據分析時可能故意利用少數群體和弱勢群體,在隱蔽運行具有偏見的模型時,對數據進行監控與編輯,并在后續的編輯和處理中放大偏見效應,形成惡性循環。三是在風險后果方面,生成式人工智能使“自主學習類算法共謀”不再停留于理論可能性,各類算法模型也不再受控于經營者而實現自我學習和自主決策,在某些情況下可以部分承擔甚至完全分攤對某個特定結果的因果力作用,助推經營者之間“無意識”地達成更加穩定且持久的價格共謀,最終導致消費者福利減損。
由于生成式人工智能輸入數據的質量良莠不齊,其在人工智能“自主性”加持下,輸出端極易滋生“虛假信息”風險。虛假信息是指制造者故意誤導讀者,并能夠通過其它來源證實其結果為假的信息,通常具有故意性(Intent)和可證實性(Verifiability)特征;利用生成式人工智能輸出的虛假信息主要包括“事實性虛假”和“幻覺性虛假”兩種類型。隨著ChatGPT、Midjourny 等生成式人工智能系統廣泛部署應用,網絡空間中虛假信息的炮制效率、傳播速度、生成體量和辨識難度也因技術迭代而出現倍增效應,加之大語言模型更符合人類語言表達習慣,ChatGPT 極大縮短了傳統人機交互之間的距離感,在人類個體與ChatGPT 之間形成相互強化偏見的共軛效應。這些虛假信息在網絡空間中傳播將引發極大風險,除了信息內容本身的非真實性引發信任衰退,帶來持久性的社會信任危機,其對社會造成的危害還源于傳播行為的負外部性,主要是擾亂社會秩序和為不法分子提供犯罪思路。譬如,利用AI 換臉和擬聲技術實施電信詐騙、利用ChatGPT 生成虛假新聞牟利、利用深度偽造軟件生成具有侮辱性和誹謗性的內容侵害人格權益、誘導ChatGPT“越獄”而引發網絡暴力等,涉及金融、國防、反恐等領域的虛假信息傳播還會直接威脅國家安全。
在生成式人工智能部署端,GPAI 開發公司和部署公司之間復雜的依賴關系、模型的多功能性,以及這兩個因素與上游提供商發布策略之間的糾纏,對人工智能立法形成獨特挑戰。首先,從GPAI 上游提供商角度看,其通常在數據上研究、設計、開發和預訓練模型,有時還會采用不可知的風險管理和質量控制模式,然后確定GPAI 模型的發行和定價結構。具言之,如果通過API 發布模型,意味著提供商能夠分析下游使用情況并設置訪問條件,應對下游濫用,不斷改進其模型和商業策略,并且不會喪失知識產權;如果提供商將模型作為開源軟件發布,其將失去對下游使用情況的控制而只能利用間接市場化方式,但提供商可以將開源環境中下游開發的新功能整合到原始模型。其次,從下游參與者角度看,其可以決定模型的具體用途和訓練數據,通過微調GPAI 模型來生成更簡單的人工智能應用程序,還可以選擇在特定使用環境中提供風險和質量管理。如果通過API 訪問模型,他們可能會在評估或重新訓練模型功能時面臨限制;相反,使用開源模型,他們可以直接檢查提供者最初訓練的參數值并更改數據。因此,GPAI 及其發布策略對人工智能立法形成挑戰的根源在于上下游參與者之間“復雜的價值鏈條”。
三、歐盟立法應對監管挑戰的前提
在人工智能立法時,調整對象界定、制度框架搭建以及具體規則設計,皆需科學、合理的人工智能法律定義充當識別社會關系、定性法律關系的第一道“濾網”。近三年來,歐盟人工智能法歷經數次修訂,幾乎每個版本草案都涉及人工智能法律定義的內容變遷,特別是在生成式人工智能出現技術突破并廣泛部署應用后,歐盟人工智能法也對最初版本的人工智能法律定義進行“徹底”重構以應對這種顛覆性技術變革。因此,梳理歐盟立法中人工智能法律定義的變動歷程,可以據此窺見歐盟人工智能法對生成式人工智能的基本立場和規制模式。
“2021 人工智能法提案”在第3 條第(1)款界定人工智能的法律定義,認為人工智能是利用一種或多種技術和方法開發的“軟件”,其在人類給定目標約束下輸出“內容、預測、建議或決策”,影響與之交互的環境;并在附件1 中封閉式列舉出“機器學習方法”“基于邏輯和知識的方法”以及“統計方法、貝葉斯估計、搜索和優化方法”共三種系統開發的技術和方法基礎。可見,最初版本的歐盟人工智能法提案并沒有在定義中刻意關注生成式人工智能并對其定性,只是概念的部分要素——譬如“輸出內容”和“機器學習”等——涉及到生成式人工智能的某些特征而與之產生弱關聯。
“2022 人工智能法立場”主要從四個方面修訂了人工智能的法律定義:一是將人工智能的屬概念從“軟件”更新為“系統”;二是增加“自主性元素”作為種差特征;三是明確了輸入端的內容是“機器或人類給定的數據”,將處理端的技術限定為“機器學習、基于邏輯和知識的方法”,運行目標不再強調“人類給定”,在輸出端新增“系統生成的”限制性表述,并且單獨列舉“內容(生成式人工智能系統)”來突出該種輸出類型;四是刪除附件1,在背景條款中增添6a 和6b 兩條新敘述來闡明“機器學習”以及“基于邏輯和知識的方法”的具體意涵。根據“2022 人工智能法立場”背景條款第(6)條,該定義基于人工智能的關鍵功能特征——例如學習、推理或建模能力——與更簡單的軟件系統和編程方法區分開來;雖然沒有明確界定“生成式人工智能”的概念或者明示其與人工智能的關系,但背景條款敘述以“生成式人工智能”為例來揭示人工智能輸出“內容”的特點,已經在法律定義層面間接表達出應當將生成式人工智能納入“人工智能法”調整范疇的意圖。
“2023 人工智能法草案”進一步將人工智能系統的定義范圍縮小,使其與經合組織對人工智能的定義保持一致。該定義首先明確了人工智能系統運行的事實基礎(載體)是“基于機器”;其次描述運行過程特征——具有“不同程度的自主性”,而運行目標既可以是“明確的”,也可以是“隱含的”;接著以“不完全列舉+ 等”形式表明“預測、建議或決策”三種主要輸出類型;最后指出輸出所影響環境的特征——“物理或虛擬的”。較之于“2022 人工智能法立場”,該種人工智能定義的關鍵變化有二:一是刪減“輸入特征”“處理端的技術基礎”以及“輸出類型”;二是從“基礎”“過程”和“目標”三個方面強化人工智能系統的運行特征,凸顯其“自主性”。整體來看,“2023 人工智能法草案”對人工智能系統的定義更加抽象化,雖然在第3 條第(1)款的人工智能定義中剝離了其與“生成式人工智能”的間接牽連,但在第3 條新增第(1c)款“基礎模型”和第(1d)款“通用人工智能系統”,意在通過定義性條款為規制生成式人工智能提供清晰依據。“基礎模型”是在廣泛數據上開展大規模訓練的人工智能系統模型,專為輸出的通用性而設計,并可以適應各種獨特任務,背景條款60h 進一步要求,“歐盟委員會和人工智能辦公室應當監測、定期評估這些模型的立法和治理框架,特別是基于基礎模型的生成人工智能系統,可能會引發與違反歐盟法律、版權規則和潛在濫用的內容生成相關的重大問題”,由此形成對生成式人工智能監管的直接關切,而第28條第(b)款第4 項更是直接闡明了生成式人工智能的意涵——專門用于以不同程度的自主性生成復雜文本、圖像、音頻或視頻等內容,并且明確了“將基礎模型專門用于生成式人工智能系統”的提供商義務。至此可以認為,“2023 人工智能法草案”以“基礎模型”為切入點,已初步形成對生成式人工智能的規制思路。值得注意的是,雖然第3 條第(1d)款給定了“通用人工智能系統”的定義,但其與人工智能、基礎模型以及生成式人工智能之間存在何種關聯,在這一立法階段暫時難以形成確切判斷。
“2024 人工智能法”,在第3 條第(1)款最終明確了人工智能系統的定義。較之于“2023 人工智能法草案”,該定義有以下變化:一是增加了人工智能系統“部署后”的狀態敘述——“可能表現出適應性”,根據背景條款(12),這種適應性是指“自主學習能力”,即“允許系統在使用過程中發生變化”。二是恢復“輸入端”和“處理端”要素特征描述,將人工智能系統的“輸入—處理—輸出”基本構造固定下來,其中處理端揭示出人工智能系統具有“推斷”特性;背景條款(12)指出,該特征不僅是指其“獲得輸出的過程”,而且也指向“從輸入/ 數據中推導出模型/ 算法的能力”,這種能力不局限于“基本的數據處理、學習、推理或建模”。三是將“內容”重新確定為輸出類型之一,不過沒有如同“2022 人工智能法立場”一樣列舉“生成式人工智能”,同時也刪去了對“機器學習方法、基于邏輯和知識的方法”的專條闡釋,將背景條款6a 和6b 簡化處理后融入背景條款(12)。此外,“2024 人工智能法”在第3 條第(63)款以“通用人工智能模型”概念取代“基礎模型”,并且在第3 條第(66)款重構了“通用人工智能系統”的意涵。具言之,“通用人工智能模型”通過增添特征,較之于“基礎模型”而言,其范疇更窄:其一,增加了數據訓練方式——“自我監督”;其二,增加“通用性”的外顯化特征——“集成到各種下游系統或應用中”;其三,限制“通用性”特征的存在節點——“投放市場”,而“投放市場前用于研究、開發和原型設計活動的人工智能模型”則不屬于通用人工智能模型之列。同時,“2024 人工智能法”也捋順了“通用人工智能系統”與“通用人工智能模型”兩個概念之間的內在牽連關系,即“通用人工智能系統是基于通用人工智能模型的人工智能系統”,該類人工智能系統的“通用性”特征表現為“能夠服務于多種目的,既可以直接使用,也可以集成到其他人工智能系統之中”。需要注意的是,雖然“2024 人工智能法”沒有直接明示生成式人工智能的概念,但可以結合背景條款97、99 和100 進行體系解釋,即“生成式人工智能模型是通用人工智能模型的典型范例”,而“通用人工智能模型集成到一個人工智能系統中或成為其組件之一時,該系統應視為一個通用人工智能系統”,因此以生成式人工智能模型為基底的生成式人工智能系統,可以歸為通用人工智能系統范疇。
四、歐盟立法應對監管挑戰的方案
在歐盟“2024 人工智能法”明確將生成式人工智能歸屬于通用人工智能的前提下判斷當前歐盟立法能否應對生成式人工智能的監管挑戰,可以提取“2024 人工智能法”中涉及通用人工智能的相關條款并運用體系化方法重新規整,進而評估該部立法的系統性風險防范能力。
(一)輸入端“數據訓練”問題的歐盟立法應對
生成式人工智能語料體系的參數“數量”和“質量”,是影響數據訓練效果、決定最終輸出“答案”的基本因素。一是在“數據數量”方面,歐盟立法以“浮點運算”來衡量通用人工智能模型訓練時所需的計算量。這是模型部署前旨在提高模型能力的各項活動和方法(如預訓練、合成數據生成和微調)中所用計算量的累計,可以從“訓練數據集的質量或規模”“業務和最終用戶的數量”“輸入和輸出模態”“自主程度和可擴展性”以及“可使用的工具”等標準進行整體性評估(背景條款111)。如果通用人工智能模型達到高影響能力閾值,其應當被推定為具有系統性風險,所以通用人工智能模型訓練之前需要進行大量規劃,譬如計算資源的前期分配,以確保提供者能夠在訓練完成之前就知道其模型是否達到閾值,由此在程序上保障通用人工智能模型提供者的可預期性(背景條款112)。至于閾值判斷的具體標準,附件13 在數據數量維度主要設計了“模型參數的數量”和“數據集的質量或大小”兩項指標。二是在“數據質量”方面,歐盟立法首先宣示了提高數據質量的必要性。為避免“歧視或不公正”風險,如果人工智能系統沒有經過高質量數據訓練,在性能、準確性或穩健性上沒有達到足夠要求,或者在投放市場、以其他方式投入使用之前,沒有經過適當設計和測試,這些系統可能會以歧視性或其他不正確、不公正的方式將人篩選出來(背景條款59)。因此,獲取高質量數據在提供訓練結構、確保人工智能系統性能等方面發揮著至關重要的作用,特別是在使用涉及模型訓練的技術時,應當保障高風險人工智能系統按照預期安全運行,并且不會成為歐盟立法禁止的歧視來源(背景條款67)。在此基礎上,歐盟立法進一步提出提高數據質量的一般性要求。具言之,用于訓練、驗證和測試的數據集(包括標簽)應當具有相關性和足夠代表性,在最大程度上確保沒有錯誤,并且在系統預期目的檢視下應當是完整的(背景條款67);歐盟委員會建立歐洲共同數據空間,以促進各方主體之間為了公共利益共享數據,為人工智能系統的訓練、驗證和測試提供可信、負責和非歧視性的高質量數據(背景條款68)。此外,數據訓練還應當遵守歐盟數據保護法——如(EU)2016/679 號條例——對數據質量的要求,數據集應當具有適當的統計屬性,注意減輕數據集中的偏差和歧視等(背景條款67)。三是進一步明確了“數據和數據治理”的具體規定。歐盟立法第10 條第1 款提出總體要求,使用數據訓練模型技術的高風險人工智能系統,應當在使用“符合第2 款至第5 款所述質量標準的訓練、驗證和測試數據集”的基礎上開發,同時該條第6 款明確了例外情形。
關于數據訓練引發的知識產權侵權風險、形成的高昂環境成本,歐盟立法也作出回應。關于版權保護問題,歐盟立法首先采用“原則+ 例外+ 例外之例外”模式設計版權保護的一般要求。使用文本和數據挖掘技術檢索、分析海量訓練數據時,原則上應當尊重版權和相關權利,應當獲得相關權利人授權,除非適用相關的版權例外和限制條款;歐盟指令(EU)2019/790 引入了例外規則,允許在某些條件下出于文本和數據挖掘目的來復制、摘錄作品或其他客體,但權利人可以選擇保留對其作品或其他客體的權利以防止文本和數據挖掘,除非出于科學研究目的(背景條款105)。其次,歐盟立法明確了版權保護程度——任何提供商都不應采用低于歐盟立法的版權標準在歐盟市場上獲得競爭優勢(背景條款106),目的在于確保通用人工智能模型提供商之間的公平競爭環境。最后,歐盟立法設置“數據透明”義務,旨在提高通用人工智能模型預訓練和訓練中使用的數據透明度,包括受版權法保護的文本和數據;該項義務要求模型提供者起草并公開用于訓練通用模型的足夠詳細的內容摘要,該摘要范圍應總體上全面而不是技術上詳細,并且還需提供所使用的其他相關數據源的敘述性解釋(背景條款107)。關于數據訓練帶來的高昂環境成本,雖然歐盟立法將環境保護作為立法目的之一,并在立法背景中提及十余次(譬如背景條款1、2、4、8、27、130、139、142、155、165、176 等),但“環境可持續性”要求更多是鼓勵或宣示性規定;又如第95條第2 款規定的“評估和盡量減少人工智能系統對環境可持續性的影響,包括有效設計、培訓和使用人工智能的節能規劃和技術”,也只是作為人工智能辦公室和成員國鼓勵、促進制定“自愿適用具體要求”的行為守則,強制性不高。
(二)處理端“自主行為”問題的歐盟立法應對
人工智能系統在設計上具備不同程度的自主性,意味著它們的行動在一定程度上可以獨立于人類,并且擁有在沒有人類干預情況下自主運行的能力(背景條款12)。自主性是通用人工智能模型系統性風險的重要成因,這種風險隨著模型能力和模型范圍的增加而增加,可能在模型的整個生命周期中出現,并受到濫用條件、模型可靠性、模型公平性和模型安全性、模型自主性程度、獲取工具的途徑、新穎或組合模式、發布和傳播策略、移除護欄的可能性以及其他因素的影響,特別是國際層面已經確定需要關注“模型復制自身”或“自我復制”或“訓練其他模型”的風險(背景條款110)。
進言之,自主性程度也是判斷應否將通用人工智能模型歸為具有系統性風險的人工智能的標準。歐盟立法第51 條第1 款規定,“高影響能力”是衡量通用人工智能自主性程度的指標,需要結合附件13 所列標準進一步判定;而附件13 將“高影響力”細分為七個具體標準,其中“模型能力的基準和評價,包括考慮未經額外培訓的任務數量,學習新的、不同任務的適應性、自主性和可擴展性程度,可以使用的工具”則是聚焦于自主性程度的關鍵標準之一。
此外,自主性程度還是人工智能分類分級監管的基本依據。一是關涉應當予以“禁止”的人工智能類型,譬如歐盟立法第5 條第1 款所列的“采用超出個人意識的潛意識技術或有目的操縱、欺騙技術”的人工智能系統致害情形;二是關涉“高風險”的人工智能類型,譬如歐盟立法第7 條第2 款將“人工智能系統自主行動的程度,以及人類推翻可能導致潛在傷害的決定或建議的可能性”作為評估人工智能高風險性的標準之一;三是關涉人工智能的“人類監督”,譬如歐盟立法第14 條第3 款要求“監督措施應當與高風險人工智能系統的風險、自主程度和使用環境相稱/ 成比例”。
(三)輸出端“虛假信息”問題的歐盟立法應對
針對生成式人工智能輸出端的“虛假信息”傳播風險,歐盟立法從行為危害、技術基礎、防治措施等維度展開制度設計。通用人工智能模型可能帶來的系統性風險包括但不限于“非法、虛假或歧視性內容傳播”(背景條款110)。各種人工智能系統可以生成大量合成內容,而人類越來越難以將這些內容與人類生成的真實內容區分開來。這些系統廣泛可用,能力日益增強,對信息生態系統的完整性和信任度產生重大影響,引發大規模誤導、操縱、欺詐、冒名頂替和欺騙消費者等新風險(背景條款133),而“深度偽造”技術便是引發風險的“罪魁禍首”之一。這種技術由人工智能生成或操縱圖像、音頻、視頻內容,與現有人員、物體、地點和其他實體/ 事件相似,讓人誤以為具有實在性或真實性(第3 條第60 款)。
為防治利用人工智能生成虛假信息的風險,歐盟立法對提供者設置兩類主要義務。一是檢測和披露義務。特定的人工智能系統提供者、部署者有義務檢測、披露系統的輸出是否由人為生成或操縱,旨在促進(EU)2022/2065 條例有效實施;該項義務尤其適用于超大型在線平臺或搜索引擎的提供者,即識別、降低因傳播人為生成或操縱的內容而產生的系統性風險,特別是對民主進程、公民言論和選舉進程產生實際或可預見負面影響的風險,包括虛假信息傳播風險(背景條款136)。為確保連貫一致的執法,應授權歐盟委員會通過執行法案,實施關于人工生成或篡改內容的標識和檢測規定,檢測機制可以利用并促進價值鏈中其他行為者間合作,傳播內容或檢查信息的來源及真實性,使公眾能夠有效區分人工智能生成內容(背景條款135)。二是透明義務。某些旨在與自然人互動或生成內容的人工智能系統,無論其是否符合高風險條件,都可能引發假冒、欺騙等具體風險。因此,在特定情況下,使用這些系統應遵守具體的透明度義務,但該種義務不影響對高風險人工智能系統的監管和相關義務履行(背景條款61)。當生成內容屬于明顯具有創造性、諷刺性、藝術性或虛構性作品的一部分時,透明度義務不應被解釋為使用該系統或其輸出會妨礙《憲章》所保障的言論自由權、藝術與科學自由權,但需適當保障第三方權利和自由,此時深度偽造的透明度義務僅限于“以適當方式披露此類生成或篡改內容的存在,不得妨礙作品展示或欣賞,包括作品的正常開發和使用,同時保持作品的實用性和質量”;當然,對于人工智能生成或篡改的文本,如果其發布目的是向公眾提供有關公共利益問題的信息,也應承擔類似披露義務,除非人工智能生成內容經過人工審查或編輯控制,否則自然人或法人應對內容發布負有編輯責任(背景條款134)。此外,歐盟立法第50 條針對“某些人工智能系統提供者和用戶的透明度義務”設計專項條款,進一步細化了透明度義務的具體要求。
(四)部署端“價值分配”問題的歐盟立法應對
歐盟人工智能法最初旨在規范投放歐盟市場的有形產品,此種敘事幾乎不適用于GPAI 模型。事實上,在GPAI 的價值鏈條上,參與者數量、基于發布和訪問策略的不同控制級別,以及模型在整個生命周期中的創新能力等諸多因素,導致監管職責分配和法律義務設計都比歐盟人工智能法一開始的設想要復雜的多。
在2023 年12 月9 日達成政治協議之前,是否對人工智能價值鏈上游的模型提供者進行監管,一直是歐洲議會、歐盟理事會和歐盟委員會三方談判時最具爭議的話題之一。基礎模型通過引入新型服務,以應用程序編程接口直接促進模型開發人員和最終用戶之間的交互,從而增加了人工智能價值鏈條的復雜性;換言之,生成式人工智能的出現擾亂了擬議人工智能法案的立法進展,迫使立法者重新評估模型開發人員、人工智能系統提供者和人工智能系統部署者(原始提案中稱為用戶)之間的關系認定和責任分配。事實上,特定情況下經營者可能會同時扮演多個角色,這就要求明確價值鏈上相關運營商的角色和具體義務,并且應當累計履行與這些角色相關的所有義務(背景條款83)。
鑒于此,歐盟立法對人工智能價值鏈上的牽連行為進行調整,試圖平衡各方主體間復雜的利益關系。譬如歐盟立法設計出“基于人工智能系統集成性的信息共享義務”:多方主體在人工智能系統、工具、服務、組件或流程所集成的高風險人工智能系統供應商的價值鏈中發揮著重要作用,這些主體應當通過書面協議向該供應商提供必要的信息、能力、技術訪問和其他基于公認技術水平的援助,以便供應商能夠在不損害知識產權或商業秘密的情況下遵守法律義務(背景條款88)。又如歐盟立法設計的“免費和開放許可情況下的責任減免”:如果集成于人工智能系統的工具、服務、流程或組件能夠在免費和開放許可情況下提供訪問,則不應強制要求第三方遵守人工智能價值鏈上的責任要求;應當鼓勵通用人工智能模型以外的免費和開源工具、服務、流程及人工智能組件的開發人員實施廣泛采用的文檔實踐,例如模型卡和數據表,以此加速人工智能價值鏈上的信息共享(背景條款89)。諸如此類平衡人工智能價值鏈上各方主體利益的背景條款還有很多,而歐盟立法第25 條更是以“人工智能價值鏈上的責任”為條標,專門針對分銷商、進口商、部署商、第三方主體等設計義務和分配責任。
五、歐盟生成式人工智能立法鏡鑒
(一)歐盟生成式人工智能立法的反思
通用人工智能是歐盟“2024 人工智能法”的調整對象之一,生成式人工智能以“通用人工智能模型”為橋梁,能夠被人工智能系統的法律定義順利涵攝,這種立法模式不僅解決了生成式人工智能規制的緊迫現實問題,而且也為規制未來可能涌現的新類型人工智能預留了解釋學空間。事實上,人工智能并不是某種單一技術,而是以數據、網絡、算法和算力等核心要素為支撐、帶有“輸入—輸出”和“目標—反饋”控制結構的有機系統,其中核心要素相互影響、相互作用,共同決定著發展什么樣的人工智能。可見,歐盟“2024 人工智能法”對人工智能系統的重新界定雖然沒有在定義中突出各要素之間的有機聯系,但至少在定義構造上內嵌了系統論的基本原理,基本契合人工智能的“事物本質”。誠然,歐盟立法利用抽象程度較高的人工智能系統定義來增強“包容性”,并且能夠借助“通用人工智能系統”來擴張立法規制范圍,但問題在于,“通用性”概念本身具有極大的模糊性,很難找到實證(有現實證據支持的)基礎來認可這項技術的廣泛“通用性”。雖然對GPAI 領域未來的基準測試和計量工作可能會有幫助,但在其成熟完善之前,或許需要一個暫時性的行為準則以明確裁量尺度、確保法律規范的可預見性。
在數據訓練實踐中,OpenAI、DeepMind 和Anthropic 等基礎模型提供商目前還未達到歐盟人工智能法預期的合規程度要求。斯坦福大學計算機科學博士候選人Rishi Bommasani 指出,這些提供商未達到標準的領域包括“提供用于訓練模型的受版權保護數據的摘要”“能源使用不均衡”“風險緩解披露不充分”以及“缺乏評估標準或審計程序”等,其中采用開源方法的基礎模型開發者往往在資源披露方面表現較好,而封閉或受限的訪問模型在部署方面表現更好。Bommasani 進一步指出,法案沒有充分考慮基礎模型的使用問題,如果ChatGPT 應用于醫療或法律而不是娛樂目的,這會嚴重影響透明度評估;雖然法案考慮了基礎模型的下游使用,但它沒有考慮到供應鏈的其他方面,例如數據集構建和訓練方法。還有研究表明,當前的大型語言模型(LLM)訓練嚴重不足,這是它們專注于擴展語言模型同時保持訓練數據量恒定的結果,當使用更廣泛和更高質量的數據集進行訓練時,較小的模型已經可以勝過具有更多參數的大型模型,因此法案確定的“浮點運算”方法具有不確定性,其閾值將隨著時間推移而衰減;然而,HELM 項目(語言模型整體評估)指出,基準測試中還存在著“數據獲取和成本”問題,這些基準之所以伴隨著不確定性和批評,源于語言所固有的語境性,而人工智能研究卻普遍對這種不確定的基準處于依賴狀態。
歐盟立法以系統性風險制度來應對通用人工智能的自主性挑戰也存在局限,其確定系統性風險時忽視了高級模型與小型模型的區分。歐盟立法層面的系統性風險是特定于GPAI 模型高影響能力的風險,可能對公共衛生、安全、基本權利和整個社會產生實際或合理可預見的大范圍負面影響,在整個價值鏈條中大規模傳播。如果只考慮高影響能力模型特有的風險,即使它們成為系統性風險,小型模型中許多已知風險是否會被排除在系統性風險的考慮之外?例如,從OpenAI 的GPT-4 系統卡發布中可以窺見GPT-4 特有的新興風險,假設這些風險能夠被閾值捕獲,該卡列出了“幻覺、有害內容、代表性危害、分配和服務質量(即偏見)、虛假信息和行動影響、常規和非常規武器的擴散、隱私、網絡安全、風險突發行為的可能性、與其他系統的互動、經濟影響、加速和過度依賴”等風險,然而大多數風險已經在更小的(機器)前身中顯現。在這些高級模型中新觀察到的風險實際上是與其他系統交互作用的結果。通過將這些系統鏈接在一起,該模型能夠找到風險替代模型本身所保護的系統。隨著模型能力增強,其他風險仍然有待證實,只不過其尚未被發現(譬如自我復制)。進言之,當生成式人工智能自身已經進步到可以自主實現生產同類或其他類別人工智能技術的能力階段時,通過“清單式管理”顯然無法應對人工智能衍生的多樣性與復雜性。
雖然歐盟立法針對輸出端虛假信息傳播風險為人工智能系統提供者、部署者設置了檢測、披露和透明等義務,但人工智能系統輸出結果所導致的損害往往難以衡量,進而適配何種程度的處罰或賠償才符合比例原則,歐盟立法沒有作出有效回應。傳統人工智能系統的危害可能與特定預測的社會影響有關,而生成式人工智能的危害則無法輕易界定,當人工智能系統輸出不準確信息時,受害者究竟是誰?如果這些信息是在長期的人機對話訓練中產生的,那么危害何時發生?事實上,生成式人工智能致害并非微觀問題而是宏觀問題,由系統創建的任何特定輸出——單個圖像、文本或音頻文件——產生的危害通常很小并且容易被忽視。雖然“概率系統”要為一個錯誤事實付出代價,但生成式人工智能系統最令人擔憂的是隨著時間推移而“累積”形成的危害;換言之,一個錯誤事實在技術上可能微不足道,但在社會層面,不準確信息會因傳播效應而激增并產生嚴重后果,譬如從“單純的錯誤信息”演變為“詆毀邊緣化群體”。這些危害一旦累加起來,將會對整個社會產生巨大的負面影響。遺憾的是,即便人們意識到生成式人工智能會帶來系統性風險,卻不知道在哪里劃清損害的界限,特別是評估生成式人工智能系統的具體危害時,“實際損害”以及“非法行為應當受到的處罰”的邊界難以厘定。在隱私保護領域,損害賠償評估也面臨類似問題。例如,谷歌拍攝了賓夕法尼亞州一棟房子的照片,該房子由Boring 家族擁有,谷歌將照片用于谷歌地圖上的“街景”功能,Boring 家族以侵犯隱私為由提起訴訟并勝訴,但只獲得1 美元賠償金。相較之下,計算生成式人工智能的損害賠償問題更加困難,即便立法能夠確定哪些類型的輸出可能形成足夠大的危害而構成違法行為,那么該種行為應該受到何種形式的處罰,以及在因果鏈條的哪個節點來施加這些處罰,當前的人工智能立法未能給出合理答案。
歐盟立法也試圖在部署端的價值鏈條上進一步平衡各方主體間的權利義務,但該種努力沒有充分凸顯“提供API 接口”和“開源訪問許可”之間的差異對利益分配方式的深刻影響。其一,“提供API 接口”和“開源訪問許可”決定了不同參與者對模型的控制級別。在API 路線中,GPAI 模型由提供商開發并在其服務器上遠程運行,通過持續交互,將輸入和輸出在下游用戶之間在線傳輸,模型和源代碼的控制權仍然主要掌握在提供者手中;與之相對,開源訪問是在寬松的許可條款下公開發布模型或某些元素,并允許任何人下載、修改和分發,在這種情況下只需要GPAI 提供商和下游開發人員之間一次性交互。其二,計算能力在GPAI 模型構建的難易程度上發揮重要作用。API 訪問通常與必要的計算基礎設施訪問相結合;使用開源GPAI 時,下游開發人員需要擁有此類基礎設施的單獨訪問權限,但由于計算能力昂貴且稀缺,這反而成為修改和加載模型的障礙。其三,選擇API 方式抑或是開源許可模式,對可訪問性和問責制度有不同影響。API 介導的訪問可以提供更多護欄來減少有害內容擴散,但其將GPAI 模型控制權集中在價值鏈上最強大的參與者手中;相反,開源版本被視為促使GPAI 模型訪問和控制更加公平的手段,因為更加廣泛的社區可以研究、調整或改進模型,然而開源版本中缺乏護欄,已經導致性別歧視和種族主義輸出激增,也引發了大量版權保護訴訟。因此,生成式人工智能不同發布策略帶來的復雜影響,映射出背后艱難的利益權衡,這在一定程度上也解釋了某些領先的人工智能實驗室將模型保密的原因。
(二)歐盟生成式人工智能立法的啟示
歐盟并未針對生成式人工智能進行專門立法,而是將其作為通用人工智能系統的典型類型之一,為其適配人工智能監管的一般規則。這種總則式立法的優勢在于保持法律體系的相對穩定性,即便未來新類型的人工智能層出不窮,也能夠通過人工智能法的根本理念、基本原則、基礎制度以及包容性的法律定義進行“應急”而不至于出現法律漏洞,從而為法律修訂爭取“應變”時間。比較而言,我國《生成式人工智能服務管理暫行辦法》屬于針對特定類型人工智能的專門立法,這種“短平快”的立法模式可以就實踐中爆發的緊迫問題快速“出擊”,也有利于為人工智能一般法出臺積累立法經驗,但仍然存在體系性不足、穩定性不強、效力層次低等局限。這就要求在“法律”層級適時制定一部兼具框架性和包容性的“人工智能法”,該法具有“總體性、保障性、邊界性和統一性”特征,于“金字塔頂端”發揮基本法的統帥功能。
歐盟立法中法律定義的變遷過程折射出人工智能一般定義的界定并非易事,既要在物理層面彰顯人工智能的技術特性,又要在事理層面兼容人工智能立法的價值導向。我國在2023 年4 月公布的《生成式人工智能服務管理辦法(征求意見稿)》沒有區分章節,而是在第2 條第2 款直接定義“生成式人工智能”;同年7 月,《生成式人工智能服務管理暫行辦法》正式出臺,該部規章將法律用語含義統一安排在第五章“附則”中闡釋,但較之于征求意見稿,正式立法文本不再明確界定“生成式人工智能”的意涵,而是在第22 條第1 款第1 項新增“生成式人工智能技術”概念。對比來看,征求意見稿側重描述生成式人工智能的“發生學特征”,而正式文本側重敘述生成式人工智能的“功能性特征”。進言之,正式文本擴大了生成式人工智能的外延,而征求意見稿中的“模型”只是定位為生成式人工智能技術的某一要素,其并非獨立的規制對象;正式立法重構了“模型”性質,認為“模型及相關技術”皆是生成式人工智能的技術類型,由此將“模型”納入生成式人工智能立法的規制范疇。誠然,中國沒有在《生成式人工智能服務管理暫行辦法》中直接界定人工智能的意涵,而是在《深圳經濟特區人工智能產業促進條例》《上海市促進人工智能產業發展條例》和GB/T 41867—2022《信息技術 人工智能 術語》中予以闡明,其中《深圳經濟特區人工智能產業促進條例》和《上海市促進人工智能產業發展條例》與歐盟立法的定義思路差異較大,GB/T 41867—2022《信息技術 人工智能 術語》則與歐盟立法的定義方式基本一致。未來,中國制定“人工智能法”時,應當在總則部分設計“人工智能”法律定義專條,而其他衍生概念,如“生成式人工智能”“決策式人工智能”“人工智能部署者”“通用人工智能模型”等,可以在附則中闡釋。此種體例安排旨在凸顯人工智能法律定義作為識別人工智能法律規范的第一道“濾網”之功能,同時確保法律定義與立法目的、基本原則等在體系上相互融貫,共同發揮對整部立法的統籌作用。
根據人工智能對用戶和社會的潛在影響程度,歐盟立法建構以“風險分類分級”為核心的制度架構,重在調整人工智能系統在歐盟上市、部署和使用等人工智能生命周期后端的法律關系。事實上,人工智能具有多重意象,立法界定的法律定義只是初步勾勒出一種尚未牽涉到人際關系的客體形象,在這種抽象客體背后實際牽涉到人工智能技術、人工智能產業、人工智能產品和人工智能系統等不同具體對象之區分。并且,對人工智能的法律控制又可分為兩種模式,一種是具體控制,關注控制方法的特殊性,主要依據系統運作的現實情況進行逐案分析;另一種是抽象控制,指向一般性范疇,例如風險控制、倫理控制和抽象權利(人權)保護等。當不同意象的人工智能與不同的控制方式“排列組合”后,具體客體之上便承載著性質迥異的法律關系,由此形成復雜的價值鏈條。誠然,風險只有在風險變現時才能被評估,風險評估也會受評估主體主觀認知的影響,但這并不能否定對風險進行標準化立法的必要性,因為人工智能系統存在的巨大風險迫使立法者基于功利思想或者“成本—效益”分析,必須對其進行事前監管。無論是以“條件概率分布”為基底的決策式人工智能,還是以“聯合概率分布”為核心的生成式人工智能,其基礎邏輯都是“通過海量數據對算法函數進行訓練以輸出結果”。所以人工智能立法體系構建一方面應當遵從“研發—生產—部署—使用”全生命周期鏈條,另一方面也應當契合人工智能運行的基本邏輯,至少從“訓練數據、算法處理和內容輸出”三個節點進行類型化規整,即“生命周期鏈條”和“系統運行節點”縱橫交錯,共同編織出人工智能法律關系譜系圖。鑒于此,歐盟“2024 人工智能法”和我國《生成式人工智能服務管理暫行辦法》,其規范體系的完整性和內在脈絡的融貫性仍有繼續優化之空間。