摘 要:生成式人工智能在智能水平、自主性等方面獲得巨大提升,基于對其技術與人機關系特性以及法律問題成因的分析可以發現,生成式人工智能在承繼以往人工智能宏觀、微觀法律問題之外,又在技術層面、事實層面、價值層面產生大量新問題。生成式人工智能法律規制應當確立局部替代人類、整體增強人類的價值理念,以監管機制為中心,分階段采取強度不同的監管模式,并將人類價值觀做技術嵌入。沿用《數據安全法》上的重要程度、危害程度作為人工智能分類分級的標準,建立分類分級機制以及技術標準機制。在此基礎上,根據生成式人工智能的技術流程,建立針對起始階段的研發機制、針對中間階段的應用機制以及針對最終階段的責任機制,并配以強制責任保險與社會救助基金機制。
關鍵詞:大語言模型;生成式人工智能;人機關系;法律規制;人工智能法
作者簡介:姜灃格,山東工商學院法學院講師(煙臺 264005);于海防,煙臺大學法學院、煙臺大學數字法治研究中心教授,通訊作者(煙臺 264005)
基金項目:山東省社會科學規劃專項“網絡格式締約中意思表示真實性的保障研究”(24CFZJ14)DOI編碼: 10.19667/j.cnki.cn23-1070/c.2025.02.011
作為一種機器智能,人工智能的發展過程就是機器在增強人類的同時也在替代人類(勞動)的過程。對相關問題的研究,基礎始終在于人工智能技術與人機關系。二者的關系是,人機關系產生于技術與社會(包括法律在內)的連接,而人工智能法律問題其實就是人工智能技術與人機關系在法律上的投射,并且會隨著技術與人機關系的發展而發展。2023年11月1日,包括中國在內的28個國家簽署了首個全球性人工智能聲明——《布萊切利宣言》,指出人工智能具有廣泛且重大的風險,各國應當斟酌國情,通過政策與法律予以解決。目前,歐盟制定了《人工智能法案》,對生成式人工智能作出專門規定,美國也正在進行密集立法。我國已經頒布了《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》),并啟動了《人工智能法》的立法工作。①
從ChatGPT到Sora、DeepSeek,各類模型雖層出不窮,但仍主要基于Transformer結構,生成式人工智能技術仍處于勃發初期,相關法律研究也處于起步階段。學界對生成式人工智能的監管、治理、侵權、生成內容保護等具體問題展開研究,但許多研究對基礎性的技術與人機關系探究不足,這會對問題的分析、解決產生不利影響。例如,有學者提出改變我國原有的“技術支持者—服務提供者—內容生產者”的監管體系,建立“基礎模型—產品模型—服務應用”的分層治理體系,②卻未充分認識到生成式人工智能對此前人工智能的技術傳承與理念延續的重要性,造成新體系與原體系的分裂。有學者對生成式人工智能侵權的主體、客體進行界定,③分析因果關系認定的疑難,④卻未充分挖掘生成式人工智能與此前人工智能的差異以及這種差異在法律上所產生的影響。還有學者通過人機關系將技術與法律相連接,洞見本質,但基于生成式人工智能塑造了“從以機器為中心轉向以人為中心”的人機共生新型關系,⑤甚至基于機器成為人的“共情伙伴”⑥進行論述,對生成式人工智能技術與人機關系的認識存在偏差,從而可能產生論證與結論的偏差。在這種情況下,十分有必要對包括技術與人機關系在內的生成式人工智能法律規制的基礎問題進行綜合性研究。
自圖靈在1950年的《計算機器與智能》中提出人工智能的設想開始,人工智能的技術目標始終是通過提升機器智能使機器能夠替代人類從事相關勞動或活動,即以機器為中心、以替代人類(勞動)為目標。⑦這使得人工智能領域中的人機關系迥異于其他領域的人機關系,天然具有去人類化屬性與物本主義傾向。進入21世紀后,人工智能的應用不斷擴張,其人機關系對社會關系的影響越來越大,進而映射于法律,從而產生各種法律問題。在不同的技術發展階段,人工智能技術與人機關系的具體特性會有所不同,所產生的法律問題也會有所不同。因此,研究生成式人工智能的法律規制,需要以技術與人機關系⑧分析為基礎,尋找法律問題的產生原因,以便對癥下藥。
(一)生成式人工智能的基本結構與技術流程
生成式人工智能的本質是將人類輸入(指令、詢問等)通過機器處理后轉化為符合人類要求的機器輸出,涉及機器視覺、自然語言處理等多個技術領域。其中,自然語言處理因其巨大難度而被譽為“人工智能皇冠上的明珠”⑨。語言建模是自然語言處理的主要方法,主要經歷了四個發展階段:統計語言模型(SLM)、神經網絡語言模型(NLM)、預訓練語言模型(PLM)、大語言模型(LLM)。①各種技術雖路徑不同,但最終交匯于Google于2017年提出的Transformer結構,②其將此前的語言模型、深度神經網絡、深度學習、詞向量、注意力機制、預訓練等技術整合于一個結構之中。較之此前的人工智能,生成式人工智能采取了新的結構與技術流程,使技術效果得到巨大提升,也使人機關系產生了新的特性。
1. 基于Transformer的生成式人工智能的基本結構
生成式人工智能是大語言模型的產物,目前的大語言模型基本上均基于Transformer結構或其變種發展而來,或者與Transformer結構相結合。③Transformer由編碼器(Encoder)與解碼器(Decoder)組成,雖然結構復雜,但簡單來說,其先將人類自然語言轉化為向量數值,再通過層層網絡對數值進行計算,最后通過概率計算,將處理結果轉換輸出為人可讀的內容。此中,注意力機制具有重要作用,其模仿了人類在閱讀時會對句中某些詞語予以特別注意的特點,結合詞語的詞性及在句中的位置編碼,賦予不同的權重,從而可以更好地提取文本特征,使模型可全面捕捉、長時記憶文本中的重要信息及特征。④較諸此前的卷積神經網絡、循環神經網絡,Transformer大幅提升了對人類自然語言的“理解”與處理能力,因而除了可以運用于從文本到文本的生成外,還可以運用于從文本到圖像、視頻等的生成。ChatGPT、DeepSeek采用了Transformer解碼器部分,BERT采用了Transformer編碼器部分,并均做改進與復雜化處理。此外,還存在采用“編碼器—解碼器”結構的MASS、T5等模型。雖然Transformer結構獲得巨大成功,但其在算力等方面的成本極高,并且在持續學習、可解釋性、超長文本處理等方面存在缺陷。當前,替代Transformer結構的研究正處于發展中,如Mamba結構。⑤
2. 生成式人工智能的技術流程
不論是從文本到文本、文本到圖像,還是從文本到音頻、視頻,基于大語言模型的生成式人工智能基本上均采取“預訓練+微調”模式。生成式人工智能的技術流程大致如下。
第一,建立大語言模型并對初始模型進行預訓練。即使用海量語料庫、數據集,采取自監督學習、反向傳播、損失計算等多種方式對初始模型進行預訓練,使其自動優化模型參數,⑥獲得知識以及解決任務的能力。借助超大規模語料訓練,模型能夠記憶并處理海量人類知識,從而提升智能水平,提高對問題、任務響應的準確率。
第二,對大語言模型進行指令微調(Instruction Tuning)。在指令微調中,通過人類標注的模板樣例、任務樣例等,將人類需求進行標準化表示,⑦并作為指令下達給模型。模型通過學習樣例,習得人類問答邏輯、價值偏好,由此提升性能并提高對未經訓練任務的泛化能力。⑧指令微調還引入了上下文學習(In-Context Learning,ICL)、思維鏈推理(Chain of Thought,CoT)等技術。基于人類提供的樣例,通過學習人類的上下文演示類比以及在算術、代碼、常識等方面的中間推理步驟,①模型在閱讀理解、符號推理、常識推理等方面的性能可以“自然地”顯著提高,并能在回答中呈現推理步驟。②
第三,對大語言模型進行對齊微調(Alignment Tuning)。對齊微調的目的在于使模型減少有害、誤導、不真實、有偏見的內容,令模型的輸出與人類的倫理、道德、價值觀等相對齊即保持一致。③但對齊微調難以解決所有問題,模型仍可能輸出錯誤或不當內容,且難以被充分解釋。在對齊微調中,主要使用基于人類反饋的強化學習(RLHF)等方法,按照預設的對齊標準,根據人類標注員對模型輸出內容的反饋數據,建立相應的獎勵模型對模型進行微調。④對齊微調會導致模型性能下降,但卻是將模型部署于人類社會所必須支付的代價。
第四,在現實世界中部署、應用。經過反復微調、測試、評估、迭代后,大語言模型投入使用成為生成式人工智能,基于人的提示(Prompt),自動生成內容。在實際部署后,還會根據反饋情況對大語言模型進行調整。⑤大語言模型目前并不具備實時學習的能力,并且受規模與成本所限,無法隨時進行調整,因此所發現的問題通常不會得到立即解決。
可以看出,生成式人工智能傳承、融合了以往諸多人工智能技術,在新的技術結構與流程之下,以機器為中心的特性得到進一步加強。這將使機器產生更高的獨立性,雖然研發、訓練過程繁復,但一旦完成,機器便會創造更大的價值,同時也會對人產生更強的“反控性”⑥。
(二)生成式人工智能的技術與人機關系新特性
較此前的人工智能,生成式人工智能在技術與人機關系上存在以下具有法律意義的新特性。
1. 智能水平與類人性提升顯著
大語言模型所使用的深度學習技術的自動表示特征及分層抽象的思想,本就有益于在不同領域的任務和語言之間進行泛化遷移,⑦而參數規模的擴大與訓練數據的增加又使大語言模型獲得了更高的泛化性與準確性。⑧在此基礎上,通過采取上下文學習、思維鏈等微調方法,能夠令大語言模型的泛化性以及常識推理、復雜推理能力顯著提升。⑨這使得生成式人工智能具有極高的智能水平。生成式人工智能在“理解”方面進步明顯,甚至在一些心智測試中超過了人類平均水平。⑩但從結構與原理來看,人工智能是人“一般智力”實現和表達的技術,11而大語言模型通過詞嵌入將人類自然語言轉換為數值,后續的處理過程就是數值計算的過程。在自然語義獲取上,大語言模型仍是通過數值計算來分析不同詞語在詞向量空間中的遠近關系,而不是如人類一般的學習、領會。因此,生成式人工智能的確表現出類人“理解”,但不是如人類一樣理解,而是在計算、識別、映射。
2. 具有涌現能力,但機理不明
當大語言模型足夠龐大,在使用上下文學習、思維鏈推理后,只需借助簡單的人類示例,模型便被激發出涌現能力,即“在較小規模模型中不存在但在大規模模型中存在的能力”①。智能涌現使生成式人工智能能夠如同人類一樣進行上下文分析、多步驟推理,從而提升執行未經訓練任務的能力。例如,GPT-4涌現出此前人工智能普遍欠缺的常識能力,②能夠基于常識而進行判斷、推理。不過,大語言模型出現涌現能力的原因、運行機理目前仍不得而知,③且難以預測,④只是推測與代碼訓練有關。⑤涌現能力在提升機器性能的同時,也擴大了風險與不確定性,增加了人類對機器的預見、控制難度。
3. 初步具備通用人工智能的特點
微軟在《通用人工智能的火花:GPT-4的早期實驗》的報告中,基于與人類智能的比較實驗,指出GPT-4較ChatGPT以及此前其他人工智能表現出更多的通用智能,能夠推理、計劃、快速學習、汲取經驗、擁有常識,在諸多領域的任務中表現出接近人類的水平,能夠執行超出狹義人工智能系統典型范圍的任務,應將GPT-4視為通用人工智能的早期但仍不完整的版本。⑥自然語言是人類智能的核心表征,屬于通用智能,是各種人類行為的基礎。大語言模型以自然語言處理為核心,具有與生俱來的通用性、擴展性、泛化性,可泛領域地執行以“理解”自然語言為基礎的各種任務。這種兼具通用性與專用性的特點使得生成式人工智能迥異于以往的人工智能。
4. 黑箱化更加嚴重,可解釋性進一步降低
深度神經網絡與深度學習天生具有黑箱(Black Box)特性,其內部工作原理和決策過程難以被簡單理解。⑦大語言模型是一個規模更大的黑箱,⑧系統復雜而不透明,人類很難理解和分析,⑨模型也無法做到自我解釋。⑩例如,思維鏈技術可以列出推理過程,但推理過程的形成卻難以解釋。此外,對大語言模型涌現能力的形成原因、運作機理仍不清楚,那么對基于涌現能力所生成內容的可解釋性便幾近于無。因此,生成式人工智能在性能提升的同時,可解釋性進一步降低,這會導致可信性下降。歐盟《人工智能法案》第13條要求高風險人工智能系統在運行上應具有充分的透明度,從而使用戶可以解釋系統的輸出并適當使用。然而,即使透明,也不意味著人工智能便是可解釋的。我國《暫行辦法》第4條便未做過高要求,而只是規定提升生成式人工智能服務的透明度。在筆者看來,通過人類對人工智能進行普遍性解釋既不可能,也不現實,可行之計可能在于發展可解釋人工智能技術(Explainable Artificial Intelligence,XAI),通過人工智能來解釋人工智能。可解釋人工智能技術源于人工智能的黑箱化特性,目的在于顯示人工智能的內部過程并解釋其如何做出決定,①服務于人機互動,有利于確定研發者、使用者、監管者以及受影響者相互間的關系,應受到立法關注。
5. 存在機器幻覺現象
生成式人工智能存在“生成與特定來源相關但無意義或不真實的內容”的機器幻覺現象,可能導致危險的發生,②例如對藥品說明書翻譯錯誤會產生嚴重后果。機器幻覺包括本質性幻覺(所生成的內容與源內容相矛盾)與外在幻覺(所生成的內容無法驗證為真實),在人機對話、文本總結、機器翻譯、推理以及機器視覺等領域均有體現。③機器幻覺的發生原因尚難解釋,只是推測可能與模型架構、訓練方式、訓練數據甚至是簡單的解碼錯誤等原因有關。④基于長尾效應,⑤即便機器幻覺可以被改善,機器也不能對所有問題均作出正確響應,尤其是在罕見、少見或意外問題的場合。在應用中,生成式人工智能可能會生成不真實、不準確的內容,一旦人類錯誤信賴將可能產生損害。
6. 自動性、自主性上升,深度介入人類主觀領域,人類作用進一步降低
人工智能替代人類的程度越來越深,哲學、倫理學、法學、社會學等學科越來越關注其在倫理、道德、價值觀(以下統稱價值觀)等人類主觀領域所引發的問題。生成式人工智能的運用較此前更加廣泛、深入,一旦遵循錯誤或不當的價值觀,將產生嚴重后果。需要注意的是,雖然目前大語言模型均需進行人工對齊微調,以使其遵循人類的價值觀,但研發者一直在追求降低人類參與度的方法,采取少樣本學習、零樣本學習等降低成本、提高自動性與自主性的技術,甚至取消人工數據標注,由模型自動標注、自我調優、自行識別和修復錯誤,⑥從而實現機器的自我調整。⑦在ChatGPT之后出現的AutoGPT等所謂“自主智能體”實現了更高程度的自動性、自主性,無需人類干預,便可自動規劃、執行任務。人類作用日益下降,符合人工智能的技術發展趨勢,但在涉及人類主觀領域時,有必要通過立法保障人類在人工智能技術流程中的核心地位與掌控能力,確立價值觀嵌入規則,對人工智能的過度自主性施加必要限制。我國《暫行辦法》以及《新一代人工智能倫理規范》《科技倫理審查辦法(試行)》對價值觀問題有所涉及,但不夠詳細、具體,且均未涉及對人工智能自主性的控制問題。
(三)生成式人工智能法律問題的產生原因
OpenAI、微軟等研發公司作為生成式人工智能的開創者,為降低人類社會的接受難度,專門指出生成式人工智能的目標并非替代人類,而是增強人類,尤其是增強人類解決問題的能力與創造力,但也承認人工智能會令工作實現自動化,導致勞動力遷移、加劇不平等、產生群體性影響,并產生人工智能鴻溝。①在筆者看來,這種宣傳并不會改變問題的本質,生成式人工智能在技術上與事實上仍然以機器為中心,以替代人類為目標,并且還加深了替代人類的范圍與水平,目前已經在數據處理、影視制作、游戲制作、軟件生產、平面模特、翻譯、銷售等領域大量替代了人類崗位。此外,目前的生成式人工智能為非具身的,但正在與機器人、汽車等相結合而向具身方向發展,我國2025年《政府工作報告》也提出培育具身智能產業,這將產生更強的通用性,②使生成式人工智能從網絡世界進入實體世界,對人類社會形成更大沖擊。
法以人為中心,以社會關系為調整對象,當人工智能替代人類參與勞動或各種活動時,其技術與人機關系特性便會向人際關系、社會關系傳遞,投射于以人為中心的法律,催生出各種法律問題,因此人工智能法律問題其實就是人工智能技術與人機關系在法律上的投影。生成式人工智能較此前的人工智能具有巨大進步,人機關系也具有新特性,去人類化屬性與物本主義傾向更為明顯。在生成式人工智能逐漸超越人類智能且應用不斷擴張的背景下,生成式人工智能在人際關系、社會關系中的地位與作用會越來越重要,也會越來越多地參與到法律事實的產生、變更、消滅中去,相關關系、法律事實便會越來越多地受到其技術與人機關系特性的影響,從而產生諸多問題。
由前文分析可以看出,生成式人工智能法律問題的產生基礎、背景、原因較此前并無本質差異,仍然遵循“技術→人機關系→人際關系→社會關系→法律問題”逐層遞進的邏輯。這意味著,生成式人工智能會承繼此前的人工智能法律問題。但生成式人工智能又是人工智能發展的新階段,在技術結構、流程以及人機關系上出現了鮮明的新特性,加深了替代人類的程度,這必然會產生新的問題。
(一)生成式人工智能法律問題的表現
1. 生成式人工智能承繼的法律問題
在宏觀方面,此前的人工智能法律問題主要有四。人工智能法律規制應當遵循何種價值取向;人工智能可以替代人類,那么應否賦予其主體資格;使用人工智能替代人類從事各種活動是否正當、適法(即領域準入),應遵循何種規則;人工智能替代人類實施行為而產生的責任應如何認定。③在微觀方面,此前的人工智能法律問題主要表現為因人工智能技術的運用而在民商法、經濟法、行政法、刑法、訴訟法、國際法等法域產生的具體問題,包括自動化意思表示、自動駕駛、機器董事、人工智能生成內容、深度偽造、內容治理、虛擬人、數據、個人信息、新型犯罪、司法審判、歧視、偏見、跨國服務等。在生成式人工智能中,此前的宏觀、微觀法律問題依然存在,并且因技術的提升與應用領域的拓展深化,這些問題會進一步復雜化。
2. 生成式人工智能促生的新法律問題
生成式人工智能的技術與人機關系新特性還會引發新的法律問題。以問題成因為標準,這些問題大致可分為三類。第一,基于生成式人工智能的技術特性而產生的技術層面的法律問題;第二,基于生成式人工智能的人機關系特性而產生的事實層面的法律問題;第三,生成式人工智能在技術層面與事實層面均與人類倫理、道德、價值觀有著密切關聯,由此而產生價值層面的法律問題。①
(1)技術層面的法律問題
生成式人工智能在技術層面的法律問題主要圍繞著生成式人工智能建模、預訓練、微調、部署的技術流程而產生。
第一,在建模階段,核心法律問題主要有二。其一,如何對人工智能系統進行分類分級進而分層治理。由于生成式人工智能以大語言模型為基礎,因此大語言模型應當成為法律規制的主要對象。分屬不同類型、級別的大語言模型、生成式人工智能的研發會產生不同的義務,立法應當考慮某些類型、級別(如具有高風險)的大語言模型、生成式人工智能在建模階段便需接受相應的規制,授權行政機關在建模階段便展開監管。其二,如何平衡人工智能發展與人工智能可解釋性之間的矛盾。人工智能的黑箱化特性與人類所需要的可解釋性之間存在沖突,但生成式人工智能的生成結果仍應具有適度的可溯性,以便確定輸入與輸出間的邏輯關系,否則難以保障對于人類而言應有的確定性。除對建模、對齊優化等作出規定外,還可以考慮對可解釋人工智能技術(XAI)作出規定,對其解釋結果賦予一定的法律效力。
第二,在預訓練階段,核心法律問題主要與用于訓練的數據集有關,主要涉及三個方面。其一,數據集篩選問題。預訓練數據集在很大程度上決定了生成式人工智能的性能、水準以及部署領域,相關法律問題主要表現為訓練、微調、測試、驗證等環節數據集篩選規則的確立,這涉及數據集本身的倫理、道德、價值傾向以及所記錄信息的準確性、多樣性等因素。②《暫行辦法》第4條從結果的角度規定生成式人工智能的生成內容應當具有正確的價值觀,避免歧視,對數據集篩選具有規范意義,但缺少對社會性倫理、道德方面的要求。《暫行辦法》第7條要求依法開展預訓練、優化訓練,增強訓練數據的真實性、準確性、客觀性、多樣性,涉及數據集篩選,但所作規定過于簡單,并且僅涉及訓練數據,而未將測試數據、驗證數據涵蓋在內。其二,知識產權、競爭、壟斷等問題。生成式人工智能的數據訓練是一種知識訓練,其應用也是一種以知識為基礎的內容生成,因此生成式人工智能會產生大量的知識產權問題。例如,將作品、表演等轉化為數據集用于模型訓練是版權法未涵蓋的使用方式,應否創設新的權利類型?如何平衡公共利益與權利人私益的關系?③生成式人工智能的研發、訓練仰仗于大規模的資金投入,隨著其應用范圍、重要程度的上升,作為研發者的大企業對經濟活動、社會活動甚至個人活動的控制力也會相應上升,由此產生競爭、壟斷問題以及相應的社會問題、政治問題。④其三,隱私、個人信息、商業秘密等信息保護問題。模型訓練并不是公開進行的,相關數據可能在未經同意的情況下便直接用于模型訓練,權利主體卻難以查知,并且系統會收集、積累大量信息,擴大了隱私、個人信息、商業秘密等受侵害的風險,進而產生法律問題。①
第三,在微調階段,除上述數據集問題外,主要涉及對人類價值觀的保障,對“人在環路”的要求以及強化呈現推理步驟以增強可解釋性等問題。具體包括下列問題:在法律層面,應當如何詳細確定價值觀?②如何根據價值觀來設定模型對齊標準、微調數據集、測試數據集,如何保障人工智能不偏離正確方向?應當設定何種條件、程序來挑選微調的操作主體?應否強制“人在環路”,即使犧牲人工智能的性能也在所不惜?③應否禁止無人參與的全自動微調?應否要求必須呈現生成內容的生成過程、步驟,生成內容的可解釋性需要達到何種程度?這些問題其實是生成式人工智能價值層面法律問題在微調階段的技術性體現。
第四,在部署之后,生成式人工智能的法律問題便與所應用的領域與所執行的任務有關,包括前文所指出的自動化意思表示、人工智能生成內容、數據、內容治理等一系列具體問題,需要具體情況具體分析。以人工智能生成內容為例,機器所生成的內容極大地借鑒了預訓練數據集(即人類以往創造的知識),那么人的“提示”與機器的“生成”是否構成傳統法意義上的“創造”?是否需要修正傳統的“創造”概念以適應知識產品的提示式創制?人機合作所“創造”的內容又應在多大程度上得到保護?鑒于知識產品的提示式創制具有通用性,傳統知識產權理論、規則會遭遇巨大挑戰。
除上述問題外,還有一個問題需要關注,即對生成式人工智能自身的保護問題。在“制造”生成式人工智能的過程中,使用了人類以往創造的大量知識,若對生成式人工智能施加過多保護,會令研發者獲得不當利益。筆者認為,對生成式人工智能的算法部分應當予以充分保護,但就基于數據訓練所產生的部分不應獲得保護或只應獲得限制性保護。
(2)事實層面的法律問題
生成式人工智能在事實層面的法律問題主要基于它的機器學習、涌現能力、機器幻覺、黑箱化等人機關系事實特性而產生。生成式人工智能在智能水平、類人性、自動性、自主性方面的進步,會極大拓展人工智能應用領域,使機器能夠更好地替代人類實施各種行為。然而,機器學習雖系模仿人類而來,但在海量的參數、數據之下,生成式人工智能因何而在訓練、學習之后產生某種能力,對人類而言是不透明的。機器幻覺、黑箱化現象伴生于整個技術流程,令機器所生成內容的真實性、準確性難以得到保證,機器所做響應、所實施行為的邏輯無法被徹底回溯,可解釋性極弱,這帶來了巨大的不確定性與失控的風險,由此而產生機器所造成的風險、損失、責任如何分配的問題。
從技術流程與人機關系特性可以看出,在生成式人工智能部署之后,風險、損失、責任雖會因攻擊、使用不當、有意規避等人為因素而產生,但主要因技術因素而產生,尤其是在生成式人工智能自主或半自主執行任務時,例如無人駕駛、醫療機器人診療等。從人類族群利益以及控制風險等角度出發,不能賦予機器以主體資格,因此也就不能向機器追責。那么,如何將因機器所引發的技術性的風險、損失、責任在人類主體間進行分配?例如,人基于機器的錯誤回答而實施侵權行為、錯誤投資、不當診療,但人難以分辨機器的回答是否錯誤,將責任歸咎于人的基礎何在?機器的自主操作偏離人的意思而作出錯誤的意思表示、履行行為,損失應如何分擔?在機器的行為難以作出符合人類邏輯的解釋時,如何分配所產生的損害?機器自主執行的行為可能構成犯罪行為,在無法向機器追責的情況下,應否由人來承擔刑事責任?在機器于人機關系中越來越主動的背景下,應當以何種邏輯向人類主體追責或者分配風險?這對法律上的歸責、應當預見、合理信賴、因果關系、一般理性人等理論、規則會產生巨大影響。
(3)價值層面的法律問題
人工智能技術與其他技術的關鍵區別在于,人工智能始終以替代人類為目標,意在使機器成為獨立的行動體。人工智能在“獨立地”替代人類或指導人類實施行為時,必然會與人類價值觀產生密切關聯,這一關聯會隨著人工智能的智能水平、自主性的提升以及應用領域的擴展而不斷加深。對生成式人工智能而言,其已開始深度介入人類主觀領域,在此前的偏見、歧視等問題之外,還產生了一系列價值性的法律問題。第一,不同民族、國家有著不同的價值觀(包括倫理、道德),本國的人工智能應當體現哪些,在跨國調用人工智能服務時如何解決沖突?第二,在建模、預訓練階段便需體現價值觀,還是說僅需在后期進行對齊優化?第三,研發者是否有權決定向人工智能輸入的價值觀?第四,在建立數據安全官機制之余,法律應否建立價值安全官機制?第五,解決這些問題應當采取何種立法技術?此外,生成式人工智能還會對人類社會的宏觀秩序產生巨大影響,例如在生物領域產生超人類的問題,在教育領域產生如何適應知識生成自動化的問題,①在勞動領域產生尊嚴、公平、勞動歧視等問題,在司法領域產生機器應否擁有決策權的問題,在輿論領域產生話語權、社會動員、內容治理等問題。不過,生成式人工智能在價值層面的法律問題有別于在技術層面、事實層面的法律問題,技術性、經濟性、道德性、政治性等多方面因素混合介入,②其本質是政治問題、社會問題、倫理問題,只是最終通過法律制度予以落實。
(二)生成式人工智能法律問題的解決方向
人工智能學術界、產業界對于應否發展生成式人工智能爭議激烈,有支持者,有反對者,還有中立者,③其所爭議的其實是人類社會對生成式人工智能應持何種價值取向,這也是生成式人工智能法律規制的前提性問題。④生成式人工智能是借助人機關系而使技術與社會相連,人機關系是問題處理根本之所在。一旦在人機關系意義上確立人類社會對生成式人工智能的價值取向,生成式人工智能法律問題的解決方向便得以確立。
科技行為是人類有意識的實踐活動,其中滲透著主體的價值判斷與取舍,具有很強的倫理負載。⑤生成式人工智能不是技術中性的,同時具有正價值與負價值,影響人類社會的構造與秩序并產生復雜的連鎖反應“。對技術正價值的最大可能性發揮和對負價值的有效規避是人類對技術的期待與追求”⑥,包括我國在內,多個國家、國際組織為此而對人工智能提出了各種發展理念,如安全、可控、可靠、道德、公平、和諧、向善、誠實、透明、可信賴、負責任、多樣性等。這些理念均與人機關系相關,目的均在于貫徹“以人為本”,發揮人工智能技術的正價值,抑制負價值。聯合國2023年的《全球數字契約——為所有人創造開放、自由、安全的數字未來》中也貫徹了這種思想,提出確保人工智能及其他新興技術的設計、使用應當透明、可靠、安全并處于負責任的人類控制之下,確保人工智能系統安全、公平、可問責、透明、可解釋、可信并與人類價值觀相一致。《布萊切利宣言》還提出對人工智能進行適當的人類監督。從人機關系的角度來看,生成式人工智能的發展應當是一種受到控制的發展,而不能任由其不受控制地替代人類。也就是說,人工智能對人類的替代應是局部的,而不能是整體的或者過大范圍的,否則極可能產生人類社會不能承受之重。因此,結合人工智能替代人類的技術本性、受控發展的理念以及倫理觀念,對包括大語言模型、生成式人工智能在內的各種人工智能技術進行法律規制,應當立基于以人為本,采取局部替代人類、整體增強人類的價值取向。①一方面,這種價值取向認可人工智能的正價值,通過發展人工智能技術,增加社會福祉,促進社會進步。另一方面,這種價值取向抑制人工智能的負價值,前置性地施加以人為本的整體價值負載,適度矯正人工智能替代人類的理念與技術。事實上,我國在《新一代人工智能治理原則》《新一代人工智能倫理規范》中所提出的各種治理原則、倫理規范均可在局部替代人類、整體增強人類的價值取向下尋得依據,亦可以視為這一價值取向的具體體現。
生成式人工智能在技術層面的法律問題其實屬于表層問題,在事實層面的法律問題屬于深層問題,在價值層面的法律問題屬于更深層的問題,三者有著自淺入深、由表及里且相互關聯的關系。一旦確立了公認的價值取向,便可以之為基礎并行解決各層面的問題,而不必逐層解決。在局部替代人類、整體增強人類的價值取向下,不論是解決哪一層面的問題,關鍵均在于,在促進生成式人工智能技術發展的同時予以引導、調制、限制,以人類的參與、監督來限制去人類化屬性,以人本主義理念來限制物本主義傾向,通過價值取向、治理原則、治理機制的細化,保障生成式人工智能由人類控制,實現生成式人工智能在人類社會的“軟著陸”,避免其以機器為中心、以替代人類為目標的特性過度沖擊人類社會秩序。
生成式人工智能法律問題紛繁蕪雜,當下迫在眉睫的是針對關鍵環節建立法律機制,進而以這些機制作為基點,逐步推進問題的解決。筆者認為,從整體上看,生成式人工智能法律規制應以監管機制為中心,貫徹始終,以分類分級、技術標準機制為基礎,支撐其他機制的運行。而根據生成式人工智能的技術流程,應當針對起始階段建立研發機制,針對中間階段建立應用機制,針對最終階段建立責任機制,如此則涵蓋了生成式人工智能的全生命周期,并涵攝其所產生的主要法律問題。這些法律機制內容繁雜,以下就機制建立原因以及機制要點進行闡述。另外,生成式人工智能與此前的人工智能一脈相承,其法律規制不應是單獨的,因此對相關問題的討論應置于人工智能的整體框架之內。
(一)生成式人工智能監管機制
1. 生成式人工智能法律規制應當以監管為中心
筆者認為,生成式人工智能法律規制應當以監管為中心。原因在于:第一,生成式人工智能技術對人類社會具有一定的危險性,并且會借助網絡迅速擴散,產生連鎖反應,人類個體或群體的力量不足以作出有效應對,只能通過政府對技術研發與應用進行妥當控制。前文所分析的技術層面與價值層面的法律問題,主要依靠監管機制來解決。第二,在法律上,相較于通常的事后救濟、責任承擔,由政府通過行政手段,對技術研發與應用進行事前、事中、事后的監管無疑更有效率。監管部門可以密切跟蹤技術發展,對研發者、應用者的行為保持常態化管理,迅速發現問題并做出反應,其他方式無法起到這種作用。第三,面對日新月異的人工智能技術,在人機關系方面必須堅持整體增強人類的取向,必須保證機器處于受控與安全的狀態,與人類價值觀保持對齊,而這一整體性目標只能通過政府監管來實現。第四,監管機制并非只是簡單地賦予政府以監管權力,而是涵蓋大量規則,設置各種指標、標準、義務。這些指標、標準、義務既是形成正當秩序的基礎,也是研發、應用、責任等機制的運行基礎,還是各部門法在內部解決各種問題的基礎。因此,監管機制其實是在局部替代人類、整體增強人類之價值取向下,對生成式人工智能在人機關系中具體應居于何種地位的回答與維持,應當成為法律規制的中心。
2. 分階段采取強度不同的監管模式與監管內容
我國《新一代人工智能發展規劃》將發展人工智能提升到國家戰略的層面,如果對人工智能實施過度管制,可能會在世界競爭中落于下風,并在全產業鏈產生不良反應。同時,只有擁有領先的技術優勢,中華倫理、價值觀才能在世界人工智能領域占有一席之地。然而,對人工智能的風險又不能置之不理。因此,對生成式人工智能的監管,應當是在促進發展的同時又予以必要的限制,防范技術風險又不妨礙技術創新。《暫行辦法》第3條提出的“發展和安全并重、促進創新和依法治理相結合”的原則頗值贊同,也應當成為我國《人工智能法》的基本原則。生成式人工智能勢必經歷爆發式發展、穩步發展的過程,我國不應采取如歐盟《人工智能法案》中“一步到位”式的強監管,而應隨技術的發展,硬法與軟法相結合,①分階段采取強度不同的監管模式。在當前階段,我國宜采取“促進為主、管制為輔”的弱監管模式,將我國《新一代人工智能治理原則——發展負責任的人工智能》中抽象的治理原則予以具體化,硬法與軟法相結合,通過設置技術委員會等方式進行各界協同治理,適度規范技術發展,防范壟斷,救濟損害,弱化不良影響。將來,我國應對生成式人工智能采取強監管。《暫行辦法》所采取的便是弱監管模式,在目前的技術發展階段是適當的,但《暫行辦法》在通用人工智能、價值觀、人類監督、監管措施、法律責任等方面的規定存在不足,難以應對生成式人工智能技術的危險性以及對社會的沖擊。需要注意的是,生成式人工智能技術并不是中性的,不論何種階段的監管,均應監督人工智能技術在整體增強人類的框架內發展,保障基本倫理、道德、價值因素的貫徹,防范潛在危害,警惕他國價值輸出。②
(二)生成式人工智能分類分級機制與技術標準機制
人工智能的分類分級、技術標準機制是監管、研發、應用、責任、保險等機制的運行基礎,可為多學科研究確立共同的出發點,推進人工智能在技術、事實、價值三個層面的法律問題的解決。人工智能的分類分級與技術標準機制涵蓋了生成式人工智能的分類分級與技術標準。
歐盟《人工智能法案》基于人工智能的分類而進行整體架構,其按照對人的健康、安全、基本權利造成損害風險的不同,對人工智能進行分類。具有不可接受風險的人工智能被禁止,具有最低或最小風險的人工智能除了在透明度方面外基本不受監管,而高風險的人工智能則是監管的重點。在此框架內,歐盟《人工智能法案》還對通用人工智能模型、系統③作出專門規定。從我國法的角度來看,歐盟所規定的其實僅是人工智能的分級,類似于我國《網絡安全法》第21條中的網絡安全等級,即其只分級未分類,或者說以分級代替分類。然而,人工智能適用廣泛,在社交、藝術、娛樂、輿論、教育、政務、金融、司法、交通等不同領域中,對不同人工智能在準入、透明度、準確性等方面的要求存在差異,監管與責任認定的邏輯也不盡相同,既要分類,也要分級。人工智能與數據密不可分且有共通之處,筆者認為,可以參考《數據安全法》第21條的規定,將重要程度、危害程度沿用為人工智能分類分級的標準,這種復合性標準較歐盟所采取的單純的風險標準更為合理,且不會與我國的數據分類分級機制相抵牾,可以保障具體場景中法律適用效果的統一性。在對人工智能進行分類分級時,還應考慮到人工智能責任機制的后續運行,而不能如《暫行辦法》一樣僅考慮監管。
人工智能技術標準機制的核心在于確保人類利益、技術安全、用戶權利。雖然對倫理規范的遵循、對人類尊嚴及多樣性的尊重等問題一時難以解決,無法全面體現于技術標準中,但非歧視、透明度、用戶數據保護、避免大規模侵權、可解釋性等卻是可以通過技術標準來體現的。筆者認為,可以考慮將預訓練數據集篩選、測試與驗證數據集建立、開發與測試記錄保存、系統適度透明、人類監督、適度解釋、可供追溯、可確保退出、主動告知、數據完整、隱私保護、敏感數據保護、權限管理、身份識別、防篡改、安全保障等內容納入技術標準機制。
(三)生成式人工智能研發機制與應用機制
人工智能不良行為的產生既有內部原因,也有外部原因。前者主要表現為人工智能的算法開發(包括模型建構)、數據訓練、對齊優化等,后者主要表現為人工智能的部署、指令、使用方式、外部攻擊等。針對二者,法律應當前置以整體增強人類的價值理念,堅持以人為本,分別建立研發機制與應用機制。
在研發上,即便科技具備內在的發展邏輯,也不能自主地展開,而是要受到社會的制約和規定的,①生成式人工智能研發機制所體現的便是社會對其的制約和規定。在目的上,研發機制的建立是為了使大語言模型、生成式人工智能(涵蓋算法、訓練數據等)具體符合人工智能的治理原則,使其處于安全可控的狀態。在內容上,研發機制涵攝科技倫理,既設定一般性的研發規范,也為研發者(包括研發組織與具體人員)設定具體的行為規范。具體而言,第一,應當平衡創新與管制,在分類分級的基礎上,對人工智能的研發進行區別治理。第二,應當設置研發禁區,要求相應類型、級別的人工智能的研發者建立規范的內部流程。第三,在設定抽象的倫理規范之余,還應當通過具體的研發指引等來規范研發行為,并配以相應的義務與責任,以便從源頭上減少人工智能后續的不當應用、不良行為。第四,算法與數據是人工智能研發的核心,并且二者均會帶有價值偏好,②對人工智能的訓練與后續應用會產生重大影響,法律應當通過“人在環路”、價值觀嵌入等規則適度規范算法開發與數據訓練,保障人類在零樣本學習、對齊、評估等環節的參與與監督,保持對技術自動性、自主性的適度干預。第五,法律應當要求人工智能在研發上保持與現有技術水平相應的透明性、可解釋性,盡量消解因黑箱化產生的風險。需要指出的是,研發機制會涉及大量價值性法律問題,有的適合由法律作出規定,有的則不適合。因此,研發機制需要融通硬法規制與軟法調制,通過法律法規、規章、部門規范性文件以及技術標準等多種途徑共同建立,并推動行業自律、協同共治,保障人工智能在可控框架內發展。
在應用(包括部署)方面,應當在分類分級的基礎上,建立教育、法律、生物、醫療、兵器、輿論等敏感領域中的通用人工智能、專用人工智能應用機制。應用機制涵蓋準入、部署、使用等方面,目的主要在于防范系統性、結構化風險,保障人類的最高決策權,維護人工智能應用秩序。在敏感領域中,若無法保障機器決策的高度透明性與可解釋性,人工智能只能做輔助性使用,甚至不允許使用。以課堂教學為例,監管部門應當針對不同教育階段、學科建立相應的測試數據集,根據具體情況設定相應的閾值,對人工智能進行評估。只有通過測試的人工智能方能獲得準入許可。而在課堂教學中,人工智能的使用也應是受限的,不可濫用。監管部門還應當對人工智能的使用保持常態化的測試、評估,跟蹤監管。在其他敏感領域,亦同此理。
(四)生成式人工智能責任機制
不論是在技術層面、事實層面還是在價值層面,責任機制均是(生成式)人工智能核心問題之一,包括行政、刑事、民事三個部分。行政部分與刑事部分的主要意義在于通過向研發者、部署者、使用者分配公法責任,來規范人工智能的研發、應用。民事部分的主要意義在于風險分配與損害救濟,民事部分居于基礎地位,且以侵權責任為主,是解決人工智能事實層面法律問題的關鍵。人工智能侵權責任牽涉歸責、損害認定、因果關系、責任類型、免責事由、舉證責任分配、多數人侵權等一系列復雜問題,而歸責問題無疑是其中的前提性問題。囿于篇幅,本文僅就此問題發表初步看法。
傳統法基于主客二分建立相應的責任體系,人為行為主體,并順理成章地成為責任主體。然而在人工智能領域中,尤其是隨著生成式人工智能的崛起,機器的智能水平、自動性、自主性得到巨大提升,人機關系開始從“人—機”向“機—人”發展,①逐漸出現主客翻轉的現象,人要接受機器的決策,甚至可能成為人工智能行為的“客體”。例如,從機器輔助人類駕駛過渡到機器替代人類駕駛,從“理性人”向“理性車”發展;②醫生按照醫療人工智能的指示進行治療。機器具備了學習能力,其行為會超出研發者的設計與預計,在一些場合,機器會替代人類成為事實上的行為“主體”,而責任卻仍需由人來承擔。因此,歸責的核心在于如何合理地將生成式人工智能技術流程中的責任歸咎于相應的人類主體。
筆者認為,第一,生成式人工智能在具身性、應用領域等方面有異,其智能水平、能力、風險有著從低到高的階段性、級別性的差異,并且責任主體具有多元化的特點,涵蓋研發者、提供者、銷售者、部署者、使用者等不同類型的主體。以人工智能研發者與使用者為例,明顯不能對二者在任何場景中均實施相同的歸責原則。因此,不能如學界一些觀點認為的統一采取過錯責任、③過錯推定責任④或無過錯責任,⑤而應區分責任類型、責任主體進行多元歸責。第二,為了進行多元歸責,需將人工智能侵權責任予以類型化區分。由于人工智能被用于代替人類勞動,其行為與人類行為具有平行性,因此可以沿用《民法典》上的一般侵權責任與特殊侵權責任的分類,將人工智能侵權責任劃分為人工智能一般侵權責任與人工智能特殊侵權責任,分別研究、確立其歸責原則。第三,在整體上,作為機器的人工智能具有危險性,在傳統法上,其無疑與危險責任最為契合。應當主要依托危險責任,并主要借助對危險責任中的產品責任的改造來規制人工智能侵權。這意味著對人工智能的研發者、提供者、部署者等技術性、商業性主體應主要采取無過錯責任,并借助產品缺陷認定、證據開示、抗辯事由、責任限額規則以及設立保險、國家救助基金等方式實現在產業發展與權利救濟之間的平衡,在不同技術發展階段采取不同的平衡方式。此中關鍵在于產品缺陷認定規則,例如在因機器學習、涌現能力、機器幻覺、無法解釋等技術原因而產生損害時,應否認定存在產品缺陷。第四,在《民法典》已作規定的機動車交通事故責任、醫療損害責任、環境污染責任、高度危險責任等特殊侵權責任以及其他法所規定的如個人信息侵權責任等場合,應當結合人工智能在相應領域中的研發、部署、使用,分別確定相應的歸責原則。在這些類型的侵權責任中,無過錯責任、過錯推定責任以及過錯責任均可能采取。例如,在人工智能醫療損害責任中,對作為人工智能使用者的醫院勢必不能實行無過錯責任,而應主要實行過錯責任。人工智能產品侵權責任規則與其他人工智能特殊侵權責任為一般法與特別法的關系,按照特別法優于一般法的原則進行法律適用,即人工智能產品責任居于兜底地位。第五,在人工智能一般侵權責任,歸責需要區分技術性、商業性主體與使用者。對人工智能的技術性、商業性主體,往往可以按照人工智能產品侵權責任進行歸責,無人工智能一般侵權責任的適用余地。對人工智能使用者(特殊侵權責任類型外的使用者)不應采取無過錯責任或過錯推定責任,而應當采取過錯責任。
上述多元歸責方法依托傳統法,以人為本、以技為用,遵循局部替代人類、整體增強人類的價值取向,符合當下(生成式)人工智能的技術與人機關系特性,在以機器為中心的技術與以人為中心的責任之間建立連接。當然,這種連接是否合理,有待進一步研究。不過,不論采取何種連接方法,對歸責原則、因果關系、與有過失、多數人侵權、責任形式等問題的研究均應當在人機連接的基礎上展開。
① 按照國務院辦公廳《關于印發國務院2023年度立法工作計劃的通知》,人工智能法草案在2023年預備提請全國人大常委會審議,不過此草案目前仍未形成。
② 參見張凌寒:《生成式人工智能的法律定位與分層治理》,《現代法學》2023年第4期,第137—139頁。
③ 參見王利明:《生成式人工智能侵權的法律應對》,《中國應用法學》2023年第5期,第28—31頁。
④ 參見徐偉:《生成式人工智能侵權中因果關系認定的迷思與出路》,《數字法治》2023年第3期,第134—138頁。
⑤ 參見陳永偉:《超越ChatGPT:生成式AI的機遇、風險與挑戰》,《山東大學學報(哲學社會科學版)》2023年第3期,第132頁;韓旭至:《生成式人工智能治理的邏輯更新與路徑優化——以人機關系為視角》,《行政法學研究》2023年第6期,第32頁。
⑥ 參見王洋、閆海:《生成式人工智能的風險迭代與規制革新——以ChatGPT為例》,《理論月刊》2023年第6期,第16頁。
⑦ 從20世紀的博弈、問題求解、機器翻譯、機器視覺、專家系統到21世紀的自動駕駛、機器人、智能醫療、決策系統、群智能,不論是采取符號主義范式,還是采取聯接主義、進化主義范式,人工智能的目的均是提升機器智能,利用機器從事本由人類從事的活動。
⑧ 本文在廣泛意義上使用“人機關系”,包括在人機互動中機器所具有的會對人機關系產生影響的特性。
⑨ 參見江洋洋、金伯、張寶昌:《深度學習在自然語言處理領域的研究進展》,《計算機工程與應用》2021年第22期,第2頁。
① See Zhao,Wayne Xin,et al. A Survey of Large Language Models. in arXiv preprint arXiv:2303.18223,2023,pp.1-2.
② See Cao,Yihan,et al. A Comprehensive Survey of AI-Generated Content: A History of Generative AI from GAN to Chat? GPT. in arXiv preprint arXiv:2303.04226,2023,p.2.
③ 從文本到圖像、從文本到視頻的生成式人工智能(如Stable Diffusion)使用擴散模型,而其擴散模型使用了Trans? former。Google于2023年12月6日所發布的據稱性能超過GPT-4的多模態大語言模型Gemini仍然是基于Transformer的擴散模型。OpenAI于2024年2月16日發布的Sora也使用了Transformer。
④ 參見陳德光、馬金林、馬自萍、周潔:《自然語言處理預訓練技術綜述》,《計算機科學與探索》2021年第8期,第1360頁。
⑤ See Albert Gu,Tri Dao. Mamba: Linear-Time Sequence Modeling with Selective State Spaces. in arXiv preprint arXiv:2312.00752,2023,pp.1-3.
⑥ 參見盧經緯等:《問答ChatGPT之后:超大預訓練模型的機遇和挑戰》,《自動化學報》2023年第4期,第709頁。
⑦ See Lou,Renze,et al. Is Prompt All You Need?No. A Comprehensive and Broader View of Instruction Learning. in arX? iv preprint arXiv:2303.10475,2023,pp.2-9.
⑧ See Chung,Hyung Won,et al. Scaling Instruction-finetuned Language Models. in arXiv preprint arXiv:2210.11416,2022,pp.14,25-28.
① See Wei,Jason,et al. Chain of Thought Prompting Elicits Reasoning in Large Language Models. in arXiv preprint arXiv:2201.11903,2022,pp.7-8.
② See Chung,Hyung Won,et al. Scaling Instruction-finetuned Language Models. in arXiv preprint arXiv:2210.11416,2022,pp.1-9.
③ See Ouyang,Long,et al. Training Language Models to Follow Instructions with Human Feedback.in Advances in Neural Information Processing Systems,2022,Vol.35,pp.27731-27736.
④ 人類設計獎勵模型,使語言模型根據得分高低自行調整生成策略,增強對話的連貫性、多樣性,符合人類的價值偏好。
⑤ 參見盧經緯等:《問答ChatGPT之后:超大預訓練模型的機遇和挑戰》,《自動化學報》2023年第4期,第710頁。
⑥ 參見謝玉進:《人機互動演進的哲學解讀》,《學術論壇》2009年第7期,第12頁。
⑦ 參見奚雪峰、周國棟:《面向自然語言處理的深度學習研究》,《自動化學報》2016年第10期,第1462頁。
⑧ 參見王海寧:《自然語言處理技術發展》,《中興通訊技術》2022年第2期,第63頁。
⑨ See Chung,Hyung Won,et al. Scaling Instruction-finetuned Language Models. in arXiv preprint arXiv:2210.11416,2022,pp.12-13.
⑩ See Rahimi Moghaddam,Shima,et al. Boosting Theory-of-Mind Performance in Large Language Models via Prompting. in arXiv preprint arXiv:2304.11490,2023,p.1.
11 參見涂良川、錢燕茹:《人工智能奇點論的技術敘事及其哲學追問》,《東北師大學報(哲學社會科學版)》2022年第6期,第62頁。
① See Wei J,Tay Y,Bommasani R,et al. Emergent Abilities of Large Language Models. in arXiv preprint arXiv:2206.07682,2022,p.2.
② See Bubeck,S.,et al. Sparks of Artificial General Intelligence: Early Experiments with GPT-4. in arXiv preprint arXiv:2303.12712,2023,pp.4-6.
③ See Bubeck,S.,et al. Sparks of Artificial General Intelligence: Early Experiments with GPT-4. in arXiv preprint arXiv:2303.12712,2023,p.6.
④ See Wei J,Tay Y,Bommasani R,et al. Emergent Abilities of Large Language Models. in arXiv preprint arXiv:2206.07682,2022. p.11.
⑤ 有研究推測,智能涌現的產生是因為用于訓練的軟件代碼數據具有良好的算法邏輯和編程流程。See Zhao,Wayne Xin,et al. A Survey of Large Language Models. in arXiv preprint arXiv:2303.18223,2023,p.45.
⑥ See Bubeck,S.,et al. Sparks of Artificial General Intelligence: Early Experiments with GPT-4. in arXiv preprint arXiv:2303.12712,2023,pp.1-9.
⑦ 符號主義范式將規則轉化為符號,人類通過反向回溯的方法在一定程度上可以解釋輸入與輸出間的關系、系統的工作過程,但使用深度神經網絡、深度學習的聯接主義范式卻很難做到這一點,輸入層與輸出層是相對確定的,但之間存在隱藏層,且層數可能極深,這導致可解釋性很低。
⑧ See Ouyang,Long,et al. Training Language Models to Follow Instructions with Human Feedback.in Advances in Neural Information Processing Systems,2022,Vol.35,p. 27749.
⑨ See Kaur,Davinder,et al. Trustworthy Artificial Intelligence: a Review. in ACM Computing Surveys(CSUR),2022,Vol.55,No. 2,p.8.
⑩ 參見郝雅茹、董力、許可等:《預訓練語言模型的可解釋性研究進展》,《廣西師范大學學報(自然科學版)》2022年第5期,第60頁。
① See Minh,D.Wang,et al. Explainable Artificial Intelligence: a Comprehensive Review. in Artificial Intelligence Review,2022,Vol.55,p.3503.
② See OpenAI. GPT-4 Technical Report. in arXiv preprint arXiv:2303.08774,2023,p.67.
③ See Ji,Ziwei,et al. Survey of Hallucination in Natural Language Generation. in ACM Computing Surveys(CSUR),2023,No. 12,pp.13-30.
④ See Ji,Ziwei,et al. Survey of Hallucination in Natural Language Generation. in ACM Computing Surveys(CSUR),2023,Issue 12,p.4.
⑤ 對于人工智能系統中的長尾效應問題,詳見梅拉妮?米歇爾:《AI 3.0》,成都:四川科學技術出版社,2021年,第109—115頁。
⑥ See Peng,Baolin,et al. Instruction Tuning with GPT-4. in arXiv preprint arXiv:2304.03277,2023,pp.1-4.
⑦ See Sun,Zhiqing,et al. Principle-Driven Self-Alignment of Language Models from Scratch with Minimal Human Super? vision. in arXiv preprint arXiv:2305.03047,2023,p.2.
① See OpenAI. GPT-4 Technical Report. in arXiv preprint arXiv:2303.08774,2023,p.18;Bubeck,S.,et al. Sparks of Arti? ficial General Intelligence: Early Experiments with GPT-4. in arXiv preprint arXiv:2303.12712,2023,p.82.
② See Driess,Danny,et al. Palm-e: An Embodied Multimodal Language Model. in arXiv preprint arXiv:2303.03378,2023,pp.1,10.
③ 關于人工智能宏觀法律問題的歸納,可參見于海防:《人工智能法律規制的價值取向與邏輯前提——在替代人類與增強人類之間》,《法學》2019年第6期,第22—23頁。
① 需要說明的是,這只是一個宏觀上的大致分類,這三類法律問題存在重疊之處,需要進一步研究。
② 例如,不可以將戲劇作品的內容作為事實性的數據來源,不可以使用有違倫常、反社會的作品進行預訓練,以免模型產生錯誤。
③ 筆者認為,有必要創設訓練權或者說數據訓練權。原因在于,將作品、錄音錄像制品等轉化為用于模型訓練的語料,此種新型使用方式在大語言模型中已經相當普遍,應當創設訓練權,以保護版權人、鄰接權人的正當利益。在此基礎上,再通過合理使用、法定許可或其他規則對訓練權進行適度限制。
④ 擁有廣泛受眾和雄厚資本支持的創新企業會蠶食權力和資源,政府和法律已不再擁有相較于傳統企業那樣核心的位置。參見劉岳川:《科技創新的法律規制》,《華東政法大學學報》2023年第3期,第41頁。
① 對于生成式人工智能所涉及的知識產權、競爭、個人信息等法律問題,可參見陳兵:《促進生成式人工智能規范發展的法治考量及實踐架構——兼評〈生成式人工智能服務管理暫行辦法〉相關條款》,《中國應用法學》2023年第4期,第109—111頁。
② 《暫行辦法》第4條對價值觀的規定并未涉及中國傳統意義上的“禮”方面的倫理道德。并且,在立法上可以“等”來兜底,但在向人工智能輸入時,卻不能依賴“等”,而必須作出詳細、明確的要求。
③ 《暫行辦法》第8條對數據標注以及標注人員的培訓、監督作出簡單規定,但未提出“人在環路”或類似要求。歐盟《人工智能法案》第14條規定了人類對人工智能系統的監督作出,但未予細化。
① 參見段偉文:《積極應對ChatGPT的倫理挑戰》,《中國社會科學報》2023年3月7日,第7版。
② 參見俞鼎:《“有意義的人類控制”:一項新的人工智能倫理治理原則》,《中國社會科學報》2022年12月27日,第6版。
③ 參見郭春鎮:《生成式AI的融貫性法律治理——以生成式預訓練模型(GPT)為例》,《現代法學》2023年第3期,第92頁。
④ 應否發展生成式人工智能是一個多學科交叉的復雜問題,本文不予過多涉及,而是基于我國的人工智能戰略進行討論。
⑤ 參見李玲芬:《現代科技的倫理維度》,《貴州社會科學》2005年第6期,第77頁。
⑥ 文祥、易顯飛:《論人本視角下的人工智能技術哲學研究》,《湖南人文科技學院學報》2018年第1期,第41頁。
① 關于人工智能法律規制的價值取向問題,詳細論證可參于海防:《人工智能法律規制的價值取向與邏輯前提——在替代人類與增強人類之間》,《法學》2019年第6期,第23—25頁。
① 參見宋保振、秦瑞標:《論生成式人工智能應用風險的法律規制》,《上海政法學院學報》2023年第6期,第117頁。
② 參見金晶:《歐盟的規則,全球的標準?數據跨境流動監管的“逐頂競爭”》,《中外法學》2023年第1期,第51頁。
③ 歐盟《人工智能法案》區分人工智能模型與人工智能系統,通用人工智能模型可以在經過修改、微調以及增加組件后成為人工智能系統。歐盟《人工智能法案》第53條為通用人工智能模型提供者設定了諸多義務。
① 參見胡明艷、曹南燕:《人類進化的新階段——淺述關于 NBIC會聚技術增強人類的爭論》,《自然辯證法研究》2009年第6期,第106—112頁。
② 參見潘宇翔:《大數據時代的信息倫理與人工智能倫理——第四屆全國賽博倫理學暨人工智能倫理學研討會綜述》,《倫理學研究》2018年第2期,第111頁。
① 這種人機關系的差異是智能增強技術與人工智能技術的核心差異。也正是基于此,法律在解決計算機、網絡、電子商務等典型的智能增強問題時不存在太大難度,在解決人工智能問題時卻存在較大難度。
② 參見鄭志峰:《自動駕駛汽車交通事故責任的立法論與解釋論——以民法典相關內容為視角》,《東方法學》2021年第3期,第166頁。
③ 參見王利明:《生成式人工智能侵權的法律應對》,《中國應用法學》2023年第5期,第32頁。
④ 參見周學峰:《生成式人工智能侵權責任探析》,《比較法研究》2023年第4期,第127頁。
⑤ 參見徐偉:《生成式人工智能服務提供者侵權歸責原則之辨》,《法制與社會發展》2024年第3期,第197頁。
[責任編輯 李宏弢]
Basic Issues and Core Mechanisms of Legal Regulation of Generative Artificial Intelligence
——From the Perspective of Technology and Human-Machine Relationship
JIANG Feng-ge, YU Hai-fang
Abstract: Generative Artificial Intelligence (AI) has achieved significant improvements in aspects such as intelligence level and autonomy. Based on the analysis of the characteristics of technology and humanmachine relationship as well as the causes of the legal issues, it can be found that generative AI has generated a large number of new problems at the technical, factual, and value levels in addition to inheriting the previous macro and micro legal issues of AI. The legal regulation of generative AI should establish the principle of replacing human beings partly and enhancing human beings integrally. With the supervision mechanism as the center, the regulation should adopt supervision modes of different intensities in stages and embed human val? ues technically. Following the importance degree and harm degree of the Data Security Law as the criteria for classification and grading of AI, the classification and grading mechanism as well as the technical standard mechanism should be established. On this basis, according to the technological process of generative AI, a research and development mechanism for the initial stage, an application mechanism for the intermediate stage, and a liability mechanism for the final stage are established, supplemented by the mechanisms of com? pulsory liability insurance and social assistance fund.
Key words: Large language model, generative artificial intelligence, human-machine relationship, legal regu? lation, AI Law