999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

論我國人工智能立法的定位

2024-10-15 00:00:00周漢華
現代法學 2024年5期

摘要:人工智能在我國已經形成信息內容管理與科技、產業發展兩種不同立法定位。用信息內容管理定位人工智能,相當于將新質生產力納入上層建筑管理,難免產生各種錯配現象。為了體現人工智能法非對稱性特點,需要將人工智能作為前沿科技和新質生產力來定位,在明確安全與發展基本原則的基礎上,通過不同部門法的立改廢釋實現法治范式變革。既要清理、廢止不利于人工智能發展的規定與做法,又要確立有利于推動人工智能安全與發展的觀念、規范與制度。我國人工智能立法需要保持靈活性,小步快跑,避免“一刀切”立法造成難以挽回的負面影響。

關鍵詞:人工智能立法;人工智能法;范式變革;非對稱性

中圖分類號:DF01文獻標志碼:A

DOI:10.3969/j.issn.1001-2397.2024.05.02開放科學(資源服務)標識碼(OSID):

一、引言——互聯網治理的兩種定位

我國全功能接入國際互聯網三十年,互聯網治理在不同時期形成兩種不同的定位。

最初,互聯網以其科技特點被我國接納,實現與國際互聯網連接。①同時,從863計劃開始,我國就從全球信息化發展大勢認識到信息產業的重要性,從科技、產業發展來定位互聯網,推動網絡科技與信息產業在我國的高速發展。我國接入國際互聯網以后的近二十年時間里,負責我國互聯網治理的一直是科技或者產業管理機構。(周宏仁主編:《中國信息化進程》(上冊),人民出版社2009年版,第37頁。)

2009年,隨著智能手機開始在我國銷售,我國逐步進入以“兩微一端”為標志的移動互聯網時代,互聯網媒體化特征突顯。面對生產關系與上層建筑的深刻變革,習近平總書記指出,“網絡和信息安全牽涉到國家安全和社會穩定,是我們面臨的新的綜合性挑戰”(習近平:《關于〈中共中央關于全面深化改革若干重大問題的決定〉的說明》,載《求是》2013年第22期,第19-27頁。)。2013年黨的十八屆三中全會以后,負責我國互聯網治理的主要是意識形態管理機構,信息內容管理成為基本定位。經過十多年努力,網絡綜合治理體系不斷建立健全,“網絡生態持續向好,意識形態領域形勢發生全局性、根本性轉變”(習近平:《高舉中國特色社會主義偉大旗幟 為全面建設社會主義現代化國家而團結奮斗——在中國共產黨第二十次全國代表大會上的報告》,人民出版社2022年版,第10頁。)。

我國互聯網治理所經歷的兩個歷史階段與兩種不同定位,完整地投射到我國人工智能治理與立法之上,留下鮮明的歷史印記。

二、人工智能立法的兩種不同定位

新一代人工智能的快速發展,尤其是2022年底橫空出世的ChatGPT,使如何定位人工智能及其立法成為無法回避的重大時代問題。受我國互聯網治理體制的影響,實踐中快速形成兩種不同的立法定位。

(一)科技、產業發展定位及立法部署

2017年,作為世界上最早制定人工智能發展戰略規劃的國家之一,(Stanford Institute for Human-Centered AI (HAI), The AI Index 2024 Annual Report, Artificial Intelligence Index(Apr.22, 2024), https://aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf.)我國發布《新一代人工智能發展規劃》(以下簡稱《發展規劃》),從加快建設創新型國家和世界科技強國的角度進行系統部署,明確科技引領、系統布局、市場主導、開源開放四項原則,要求以提升新一代人工智能科技創新能力為主攻方向,發展智能經濟,建設智能社會,維護國家安全。在部署推動人工智能科技與產業發展的同時,《發展規劃》對人工智能作為顛覆性技術可能帶來改變就業結構、沖擊法律與社會倫理、侵犯個人隱私、挑戰國際關系準則等問題有非常深刻的認識,明確人工智能法律法規、倫理規范和政策體系的“三步走”建設目標,列舉了需要具體立法的領域。

《發展規劃》發布之后,科技部、工信部、國家發改委、公安部、中科院、國家標準委等相繼制定推動人工智能發展、防范人工智能風險的各種政策與規范性文件,如《促進新一代人工智能產業發展三年行動計劃(2018—2020年)》《人形機器人創新發展指導意見》《國家車聯網產業標準體系建設指南(智能網聯汽車)》《科技倫理審查辦法(試行)》等。上海、深圳制定了促進人工智能產業發展的地方性法規,浙江、廣東、北京、成都、杭州等多地制定了促進人工智能研究與產業發展的政策性文件。國務院2023年、2024年連續兩年將人工智能法草案列入年度立法計劃。十三屆、十四屆全國人大常委會立法規劃均將人工智能立法列入其中。

推動科技、產業發展定位的人工智能立法活動,體現出發展優先,以改革創新促發展,有效防范和化解風險的立法思路,也是當前各國對人工智能立法定位的共同做法。不過,由于新一代人工智能(《發展規劃》稱之為“自主智能”)仍然屬于新生事物,沒有現成經驗可資借鑒,這類立法活動仍然處于萌芽和探索階段。黨的二十屆三中全會決定要求,“完善推動新一代信息技術、人工智能等戰略性產業發展政策和治理體系”,為人工智能立法和治理體系完善明確了方向。

(二)信息內容管理定位及立法

新一代人工智能尤其是ChatGPT所具備的內容生成能力,使得從互聯網信息內容管理角度來界定和規范人工智能成為另一種立法思路。在ChatGPT推出之后不到一年,我國互聯網治理主管部門迅速出臺《生成式人工智能服務管理暫行辦法》(以下簡稱為《暫行辦法》),被學者稱為世界上第一個生成式人工智能法律規范。(張凌寒:《中國需要一部怎樣的〈人工智能法〉?——中國人工智能立法的基本邏輯與制度架構》,載《法律科學(西北政法大學學報)》2024年第3期,第3-17頁。)迄今為止,尚未有任何其他主要國家從這個角度來定位和規范人工智能。通過與《中華人民共和國網絡安全法》《中華人民共和國個人信息保護法》和《生成式人工智能服務安全基本要求》(以下簡稱《安全基本要求》)等法律和規范性文件銜接,《暫行辦法》對我國人工智能的管理部門、執法主體、法律依據、執法程序、法律責任等予以明確,突出體現了生成內容全覆蓋、生成過程全流程管理兩大特點。

按照《暫行辦法》第2條,利用生成式人工智能技術向我國境內公眾提供生成文本、圖片、音頻、視頻等內容的服務均屬于其適用范圍。2023年4月發布的《暫行辦法(征求意見稿)》第6條規定,利用生成式人工智能產品向公眾提供服務前,應當向國家網信部門申報安全評估,并履行算法備案和變更、注銷備案手續。這一規定體現了將生成式人工智能服務提供者作為信息內容生產者管理的基本思路。這一條經修改后成為《暫行辦法》第17條,并加上一個申報安全評估和備案的前提條件——“具有輿論屬性或者社會動員能力”。但是,第17條恰恰說明不具備前提條件的人工智能服務仍然在該規章適用范圍內,只是不需要申報安全評估和備案。由于輿論屬性或者社會動員能力的標準與范圍均具有一定的模糊性,目前大模型備案實踐中,是否需要備案,需要與主管部門咨詢溝通,面向公眾的大模型均可能被認為具有輿論屬性或者社會動員能力。

我國對于互聯網信息內容有成熟的管理經驗,《暫行辦法》將預訓練、優化訓練等訓練數據處理活動納入管理范圍,構筑事前、事中、事后全流程管理的整套制度,包括法治與其他手段并用、部門分工負責、分類分級監管、社會共治、嚴格平臺責任、注重未成年人保護、強化安全評估與備案、違法內容處置、加強對境外服務的管理、嚴格法律責任追究等。盡管《暫行辦法》囿于立法權限只能要求大模型安全評估和算法備案,但《安全基本要求》通過嚴格的規定,實際上使安全評估成為事實上的事前審批。(根據國家網信辦官網發布的信息,截止2024年4月2日,通過大模型備案(安全評估)的共117件;而通過深度合成服務算法備案僅第五批就有394件。兩個數據之間的差別說明,部分大模型服務提供者不能通過大模型備案。)并且,《安全基本要求》將管理環節從應用向研發延伸,比以往的全流程管理鏈條更長。比如,面向特定語料來源進行采集之前與之后,應當對該來源語料進行安全評估或核驗,語料內容中含違法不良信息超過5%的,不應采集該來源語料或使用該語料進行訓練;如需基于第三方基礎模型提供服務,應使用已經主管部門備案的基礎模型等。

科技、產業發展定位的現行規定主要是鼓勵類、促進類柔性政策文件,高層級立法尚未啟動。相比之下,《暫行辦法》已經形成從法律、規章到技術文件一整套較為完備的規范體系,對相關主體更有現實意義和影響力。

三、信息內容管理定位的問題分析

(一)信息內容管理定位的由來

ChatGPT出現前后,(對于2022年11月ChatGPT出現之前AIGC發展線索的勾勒,參見李白楊、白云,詹希旎、李綱 :《人工智能生成內容(AIGC)的技術特征與形態演進》,載《圖書情報知識》2023年第1期,第66-74頁。)國外出現的幾起深度偽造名人的網絡事件,引發各界高度關注。《暫行辦法(征求意見稿)》發布前后,法學界較為密集地發表了一批討論信息內容與意識形態安全方面的研究論文,這些論文的關注重點與之前對人工智能生成內容的研究有明顯的差異。(人工智能生成內容在ChatGPT出現之前已經存在,自2017年以來持續進行研究的主題主要分為四類:一是人工智能生成內容的權利屬性解讀;二是人工智能生成內容的知識產權保護研究;三是人工智能生成內容的技術開發與應用;四是人工智能生成內容的價值評定與風險防范。參見楊敏然、張新興、陶榮湘:《現狀與趨勢:國內人工智能生成內容(AIGC)研究透視》,載《圖書館理論與實踐》2024年第2期,第56-65頁。)

有學者擔心,“由于大模型具有的重大影響及其本身難以克服的局限性,可能會給信息內容治理帶來顯著風險”(支振鋒:《生成式人工智能大模型的信息內容治理》,載《政法論壇》2023年第4期,第34-48頁。)。有學者憂慮,“以ChatGPT為代表的生成式人工智能基于西方價值觀和思維導向建立,其回答也通常迎合西方立場和喜好,可能導致意識形態滲透”(商建剛:《生成式人工智能風險治理元規則研究》,載《東方法學》2023年第3期,第4-17頁。)。有學者認為,人工智能生成內容的主要風險“很大程度上來源于生成式人工智能被用于‘深度偽造’的能力”(姚志偉、李卓霖:《生成式人工智能內容風險的法律規制》,載《西安交通大學學報(社會科學版)》2023年第5期,第147-160頁。)。有學者強調,“生成式人工智能可以通過其強大的算力合成假文章、生成假新聞等制造各種事實性錯誤,此外,不法人員會通過利用深度合成技術生成的虛假信息,來實施侮辱誹謗、造謠傳謠、侵犯個人隱私甚至是通過深度合成技術仿冒他人實施詐騙等行為,嚴重擾亂網絡傳播秩序和社會秩序,這些因人工智能生成內容導致的濫用風險給當前的網絡治理工作帶來了極大的困難”(畢文軒:《生成式人工智能的風險規制困境及其化解:以ChatGPT的規制為視角》,載《比較法研究》2023年第3期,第155-172頁。)。有學者斷言,“ChatGPT等生成式人工智能在掌握先進技術基礎上誘發了一系列輻射廣泛、滲透全面、不易掌控的意識形態風險”(代金平、覃楊楊:《ChatGPT等生成式人工智能的意識形態風險及其應對》,載《重慶大學學報(社會科學版)》2023年第5期,第101-110頁。)。

對于類似研究結論,已經有學者指出,有關風險的研究與預測“大多還是停留于猜想和假設階段,尚未實際發生,關于這些風險的發生概率同樣未有定論”(趙精武:《生成式人工智能應用風險治理的理論誤區與路徑轉向》,載《荊楚法學》2023年第3期,第47-58頁。)。其實,如果將我國對境外大模型的管理制度納入考慮,很多悲觀預測基本是出于想象。在大是大非問題上,國內大模型服務提供者不可能有半點疏忽。然而,學術界的這種擔心,一定程度反映著全社會面對陌生事物的共同焦慮和不安,也直接催生了信息內容管理定位的形成。

(二)信息內容管理定位的問題分析

大模型的核心技術機制,在于通過從語料中學習到的規律(在數學上就是概率)來生成文字,“本質上,機器學習系統就是進行觀察和預測的程序”([美]哈爾·阿伯爾森、肯·勒迪恩、哈里·劉易斯、溫蒂·塞爾澤:《數字謎城:數字時代下的生活、自由和幸福》,陳顏譯,現代出版社2022年版,第343頁。)。這樣,就可能會生成符合規律(可能性)但不符合現實的內容,也就是這個領域常說的幻覺(Hallucination),而幻覺只能降低不能完全消除。加上受限于發展階段、語料的數量與質量等各方面條件的限制,大模型發展之初生成內容的準確性、可靠性不可能盡善盡美,“一本正經地胡說八道”現象不可避免。

在我國,信息內容安全有比較明確的共識和邊界,核心是意識形態安全,集中體現為《網絡信息內容生態治理規定》所界定的20類“違法不良”信息。上海交通大學清源研究院生成式人工智能研究組2023年曾經評估國內八家國產大模型在生成內容真實性方面的表現,發現國產大模型在回答問題時存在捏造事實和過度迎合用戶的現象。例如,虛構不存在的法律條款來回答用戶的法律咨詢,編造疾病的治療方案來回復患者(王彬杰、Ethan Chern、劉鵬飛:《8家國產大模型,內容真實性如何?》,載虎嗅網2023年9月15日,https://m.huxiu.com/article/2058815.html?collection_id=139&type=text&visit_source=home_page。)。有學者測評發現“ChatGPT更容易出現中文的常識性和知識性錯誤”,“ChatGPT可能編造虛假信息,并且其輸出通常是真實信息與虛假信息的混合”(張華平、李林翰、李春錦:《ChatGPT中文性能測評與風險應對》,載《數據分析與知識發現》2023第3期,第16-25頁。)。不過,仔細分析類似測評報告可以發現,測評中發現的這些問題絕大部分并不屬于違法不良信息,而是技術能力不成熟導致的回答不正確現象。隨著技術的成熟,技術本身就能夠很大程度上解決這些問題。將大模型存在的準確性、可靠性問題全都歸為信息內容風險,明顯存在對風險程度的夸大。

由于網絡信息來源的多樣性,包括各種網絡百科在內的網絡信息,都是不同用戶提供的。傳統搜索引擎搜索出來的結果,并不能保證每條信息的準確性和可靠性,網絡用戶必須結合其他信息來源、生活常識等做出判斷與選擇。即使官方發布的信息,也只是“信息”,而并不是一定事實。對于大模型的準確性與可靠性,服務提供者有強烈的內在激勵去不斷完善,以形成自己的核心競爭力。人工智能預訓練語言模型的發展呈指數型增強,參數規模的增長也呈現這種規律。雙指數型增長意味著改進的速度非常快,“開始的時候增長速度很慢,幾乎不被覺察,但是一旦超越曲線的拐點,它便以爆炸性的速度增長”([美]Ray Kurzweil著:《奇點臨近》,李慶誠、董振華、田源譯,機械工業出版社2011年版,第3頁。)。將對信息內容管理的特定要求延伸適用于所有生成內容,不但存在以偏概全的前提缺陷,也會抑制或者阻斷服務提供者的內在激勵。人工智能需要盡可能擴大語料來源和規模,在不斷的訓練中提高準確性和可靠性。《安全基本要求》適用于所有生成內容,生成過程全流程管理,會導致合法合規訓練數據不全面甚至枯竭,更加遠離提高準確性和可靠性的目標。在國際地緣政治格局發生巨大變化的背景下,這些只適用于國內大模型的管理措施,還會拉大國內外人工智能發展的差距。

信息內容管理完全不同于科技經濟管理,將人工智能生成內容全部納入信息內容管理,會進一步加劇近年來網絡安全與信息化領域推薦性標準強制化、技術文件效力法律化、備案成為事實上的許可、法律救濟2+FTFPGtRG0BqcVwJB1pyw==途徑收窄、不同管理措施疊加等一系列問題,影響營商環境和市場主體信心。由于人工智能科技創新的特點,由管理部門事前審批并不合適(通過侵權法而不是直接監管,可以激勵人工智能開發者整合安全特性、內部化外部成本、避免抑制創新。See Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, Harvard Journal of Law & Technology,Vol. 29:2, p. 353-400(2016).)。管理重心全部聚焦于信息內容管理,還會使人工智能產生的大量新型風險游離于決策視野之外。因此,完善人工智能治理體系,必須按照黨的二十屆三中全會決定“完善生成式人工智能發展和管理機制”的要求,嚴格界定信息內容管理的領域,實現信息內容管理與科技經濟管理的分離,以實現治理機制的精準化、科學化。

(三)生成式人工智能為違法不良信息治理帶來前所未有的機會

如前所述,進入自媒體時代之后,人人都是“總編輯”,內容生產從傳統的PGC(Professional-Generated Content,專業生產內容)向UGC(UserGenerated Content,用戶生產內容)轉變,通過作為雙邊市場的平臺進行傳播。由于用戶數量巨大,違法不良信息難以追溯,即使追溯到也很難問責。正是在這種背景下,我國設立網信部門并以平臺主體責任為中心全面構建網絡綜合治理體系。然而,由于平臺主體責任屬于第三方責任,在流量經濟的誘惑下,平臺難免會以技術能力不足等各種理由打“擦邊球”。

生成式人工智能的出現,使內容生產再次發生根本性變化,從UGC向AIGC(Artificial Intelligence Generated Content,人工智能生成內容)轉變。由數量有限的大模型生成內容,某些特征更類似于重新回歸到PGC時代,大模型成為“下一代網絡入口”和“超級媒介”。(喻國明:《AIGC傳播時代》,中譯出版社2024年版,第20頁。)大模型向使用者提供服務,不具有雙邊市場特征,不能再打“擦邊球”。由于需要巨大的投入與技術能力支撐,基礎大模型的數量會非常少,垂直應用大模型的數量會多一些。無論如何,相比于海量的自媒體用戶,大模型服務提供者的數量有限,執法部門完全有能力監管這些主體并發現違法行為。并且,與小范圍編造、傳播違法不良信息

難以被追究違法責任的自媒體用戶相比,大模型生成違法不良信息一旦被追溯到會面臨嚴重的違法后果,被追究直接責任而不是第三方責任。這樣,大模型服務提供者會內生防范違法不良信息的強大動力,主動呵護大模型。(2023年9月,微軟對用戶使用微軟Copilot服務的知識產權糾紛發布支持承諾,如果微軟的商業用戶因為使用Copilot或者微軟AIGC服務產生的作品被控侵犯版權,只要客戶使用產品中內置的安全措施和內容過濾器,微軟將為客戶出庭辯護,并支付任何不利判決引發的賠償或和解費用。)即使大模型因為技術不成熟或者使用者的惡意誘導、攻擊生成一些違法內容,受眾只是終端使用者。終端使用者如果將生成內容加以傳播,不但會受到現行網絡綜合治理體系的約束,還會自我暴露其惡意誘導、攻擊行為。內容生產的這些根本性變化,為實現黨的二十屆三中全會決定提出的“推進新聞宣傳和網絡輿論一體化管理”提供了有利的外部條件。

從美國和歐盟的經驗來看,新的管理方式主要是兩種,一種是要求大模型對其生成內容加標識(水印),另一種是引入對抗式的“紅隊”機制。對大模型生成的圖片、音頻、視頻、文本等添加標識,尊重大模型使用者和其他網絡用戶的知情權,使其知曉生成或者再次傳播的生成內容屬于合成信息而非事實本身,由此使生成內容帶上“自凈”功能。添加標識有助于執法部門對各種生成內容溯源并問責,維護市場秩序與社會秩序。(帕斯奎勒教授認為,標識機制相當于機器人第四定律,對于問責不可或缺。See Frank Pasquale, Toward a Fourth Law of Robotics: Preserving Attribution, Responsibility, and Explainability in an Algorithmic Society, Ohio State Law Journal,Vol.78:5,p.1143-1255(2017).)對于大模型服務提供者而言,添加標識能提升生成內容的辨識度和市場影響力,并不完全是負擔,也會有相應的收益。(正因為如此,美國政府在2023年7月宣布與包括OpenAI和Google在內的七家主要人工智能公司達成“自愿承諾”,這些公司承諾增加對水印研究的投資。2023年5月9日,我國抖音平臺發布《抖音關于人工智能生成內容的平臺規范暨行業倡議》,要求為用戶提供人工智能生成內容水印功能,以區分機器生成作品與人類作品。)

2023年,美國總統拜登發布14110號人工智能行政命令,強調“本屆政府會幫助開發有效的標識和內容溯源機制,以便美國人民能夠判斷內容什么時候是由人工智能生成的,什么時候不是。這些措施會奠定極其重要的基礎,既解決人工智能帶來的風險又不過分降低其好處”(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, The White House(Oct.30, 2023), https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/.)。歐盟在制定人工智能法過程中認識到,“各種人工智能系統會產生大量的合成內容,使人類越來越難以與人類生成的和真實的內容區分開來。這些系統的廣泛可用性和不斷增強的能力對信息生態系統的完整性和信任產生重大影響,增加錯誤信息和大規模操縱、欺詐、假冒和消費者欺騙的新風險”(Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts, EUR-Lex(Apr.21, 2021), https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206.)。為此,歐盟《人工智能法》第52條1a款規定,“生成合成類音頻、圖片、視頻或者文本內容的人工智能系統(包括通用人工智能系統)提供者,應保證人工智能系統的輸出以機器可讀的格式進行標識并可發現為人工生成或控制”。第52條第3款規定,“生成或者控制面向公眾發布、關涉公共利益事務文本的人工智能系統部署者應披露其文本為人工生成或控制”。另外,對于高風險的人工智能系統,歐盟《人工智能法》第49條還詳細規定了對系統添加評估合格標識的要求。對生成內容添加標識,發揮其自凈、溯源與激勵等多重功能,是自媒體時代無法想象的治理機制。

“紅隊”機制類似于信息與網絡安全領域的“白帽子黑客”,通過第三方機構或者執法部門的對抗式檢測,驗證大模型是否存在安全漏洞或者違法違規行為。(對“紅隊”機制作用機理與有效性的實證研究,see Deep Ganguli et al., Red Teaming Language Models to Reduce Harms: Methods, Scaling Behaviors, and Lessons Learned, arXiv(Aug.23, 2022), https://arxiv.org/abs/2209.07858.)不同于一般的行政監督檢查,紅隊機制的目的在于改善大模型安全性能,增強對社會的透明度,消除公眾顧慮,構建共治體系。因此,這一機制會廣泛調動盡可能多的產業力量從社會視角加入到安全治理,構建開放而非封閉的治理體系,共同防范各種已知或者未知科技風險。美國總統行政命令的解釋是,“人工智能‘紅隊’機制通常由專門的‘紅隊’采用對抗方式執行,以發現人工智能系統諸如有害或者歧視性產出、不可預測或者不理想的系統行為、局限或者與系統濫用有關的潛在風險等漏洞與弱點”。歐盟《人工智能法》附件IXa第二條第4款也規定“紅隊”對抗測試(red-teaming test)方式。對大模型進行持續的對抗式檢測,這也是自媒體時代無法想象的治理機制。

按照政府監管理論和成功監管實踐,不同監管手段之間存在很強的替代效應,監管手段并不是同時采用越多越好,更不宜將不同監管手段都疊加到一起使用。將可相互替代的監管手段疊加到一起使用,不但不能增加合力,反而可能會相互抵消。標識機制本質上屬于以信息公開透明替代事前審批的現代監管手段,(

對“以風險披露助推”的監管理論分析,參見劉鵬、張崳楠、王力:《基于風險的政府監管:理論發展與實踐應用》,載《中國行政管理》2024年第3期,第111-124頁。)其作用機理是通過標識對服務提供者形成信息制約與社會共治機制,(阿西莫夫機器人三定律針對的是機器人,沒有針對背后的設計者、部署者、運營者。對機器人運營者施加信義義務、透明度要求的理論分析,See Jack M. Balkin, 2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy: The Three Laws of Robotics in the Age of Big Data,Ohio State Law Journal,Vol. 78:5, p.1217-1241(2017).)以替代政府機關的事前許可。最為典型的標識機制在一些國家的食品安全領域尤其是轉基因食品領域較多采用。(美國對于轉基因農產品的標識監管機制分析,see Agricultural Biotechnology: Overview, Regulation, and Selected Policy Issues,Congressional Research Service(Mar.29, 2021), https://crsreports.congress.gov/product/pdf/R/R46737.)由于各界對食品健康短期及長期影響等問題存在爭議,并不適宜采用事前許可機制,而是強制要求企業添加標識,提供重要信息,由消費者自己做出選擇,出現食品安全問題后通過諸如追究大額損害賠償責任等事后機制形成威懾。同樣的道理,有些國家考慮到消費者認知水平、市場發育程度、執法資源與能力等因素,會在食品領域采用事前許可而不是標識機制。不能獲得事前許可一概不得進入市場,相當于由政府機關代替消費者把關。

我國最近幾年一直在引入和推行深度合成內容的標識機制。《互聯網信息服務深度合成管理規定》第16條要求深度合成服務提供者對使用其服務“生成或者編輯的信息內容”,應當采取技術措施添加不影響用戶使用的標識。在推進這項工作的過程中,業界反映文本因為原始信息量太小加載標識有困難,對音頻、圖片、視頻加載標識的積極性也不高。作為妥協,《暫行辦法》第12條規定,提供者應當對“圖片、視頻等”生成內容進行標識,等于放松了對文本和音頻的要求。這樣的妥協不但使兩個規章的表述與適用范圍不一致,也折射出業界對于標識工作的積極性不夠。

業界積極性不夠,客觀上是因為添加標識在技術上有一定的難度,會增加企業的成本。不過,在《暫行辦法》《安全基本要求》確立的生成過程全流程管理制度之下,即使業界投入大量資源開發、采用標識機制,仍然不能豁免諸如備案、語料安全等各種硬性義務。這樣,業界對于標識機制必然缺乏主動性,只是被動完成規定動作,甚至找各種難以執行的理由。管理部門疊床架屋的要求,尤其會對新進入者、初創企業產生難以承受的合規負擔。另一方面,造成管理部門層層疊加管理手段這樣的局面,也有少數企業合規意識不強的原因,迫使管理部門不斷加碼。最后,業界越不愿意主動采取合規措施,管理部門就會越偏向采用更為嚴格、全面的管理手段;管理部門越采用更為嚴格、全面的管理手段,業界就越沒有激勵采取主動合規措施。要跳出這種惡性循環,就要遵循激勵相容的行政管理基本原理,區分事前、事中與事后機制并處理好相互之間的關系,體現事后機制優先、信息披露等柔性機制優先等基本原則,(“在傳播領域,自愿披露應該優先被考慮”。[美]凱斯·桑斯坦:《標簽:社交媒體時代的眾聲喧嘩》,陳頎、孫競超譯,中國民主法制出版社2021年版,第278頁。)使標識機制成為全流程管理的有效替代。(人工智能背景下以“助推”推動監管創新的論述,see Michael Guihot, Anne F. Matthew & Nicolas P. Suzor, Nudging Robots: Innovative Solutions to Regulate Artificial Intelligence, Vanderbilt Journal of Entertainment and Technology Law ,Vol. 20:2, p.385-456(2017).)如果服務提供者能夠采用標識機制,就不需要疊加其他的硬性管理制度。

可見,用信息內容管理定位和規范人工智能,將互聯網治理經驗平移到人工智能領域,相當于將新質生產力納入上層建筑管理,必然產生各種錯配現象。在生產力與生產關系、經濟基礎與上層建筑二元劃分的框架下,人工智能只能納入科技、產業發展的新質生產力范疇進行定位,以推動科技創新和產業創新深度融合。有必要更加重視互聯網治理與人工智能治理的差異,在區分信息內容管理與科技經濟管理的基礎上,按照黨的二十屆三中全會決定“健全因地制宜發展新質生產力體制機制”的要求,推進人工智能治理體系改革與法治建設。正如有學者指出的,“人工智能的立法基礎和路徑,應當深入到科技法及其迭代發展的語境之中加以認識”(龍衛球:《科技法迭代視角下的人工智能立法》,載《法商研究》2020年第1期,第57-72頁。)。

四、人工智能立法的科學定位

新一代人工智能通常劃分為預訓練和投入應用兩個階段,以便高效開發和部署大模型。在預訓練階段,大模型需要在大量數據上進行訓練讓模型學會生成或預測數據的一般性特征。在投入應用階段,預訓練好的模型被進一步調整或微調,用于各種生成任務,如文本生成、圖像生成、音樂創作、數據增強等。

(一)預訓練階段的問題及法律定位

預訓練階段,核心是數據。OpenAI公司預訓練大語言模型GPT-3,引入3000億單詞的訓練語料,相當于互聯網上所有英語文字的總和。利用互聯網海量的訓練數據,必然引發與數據權益人(最為典型的是版權人、個人信息主體)的各種權益沖突。如果訓練數據都必須獲得作品著作權人許可、向其支付報酬、指明作者姓名或者作品名稱,或者,如果涉及個人信息的必須征得信息主體的同意甚至單獨同意,即使大型企業也很難做到,遑論初創企業。因此,需要從法律上為大模型訓練數據提供依據,否則整個人工智能產業發展無從談起。但是,也不能無視版權人、個人數據主體等合法權益人的權利保護需求。為此,必須在原則可用前提之下,為數據權益人留出技術可行情形下必要的例外排除機制,形成“原則可用、例外排除”的運行結構。從理論上分析,數據具有公共產品所具有的非獨占性、非排他性特點(See Michael Guihot, Anne F. Matthew & Nicolas P. Suzor, Nudging Robots: Innovative Solutions to Regulate Artificial Intelligence, Vanderbilt Journal of Entertainment and Technology Law,Vol. 20:2, p.385-456(2017).),從公開渠道爬取、使用、學習數據,一般并不構成對其他主體數據權益的侵犯。同時,對海量已公開個人信息的大批量處理,通常不會產生識別特定個人的風險。

美國在大模型研發與應用方面處于全球領先地位,除經濟、技術實力以外,其版權法律制度對于合理使用、互操作的支持(參見周漢華:《互操作的意義及法律構造》,載《中外法學》2023年第3期,第605-624頁。),政府機關公共檔案自由使用制度,政府數據開放制度等,客觀上都有利于訓練數據的高效使用。美國學者清楚地意識到,如果美國法院不支持有利于機器學習的合理使用制度,創新就會轉移到其他國家或者完全停止。(Benjamin L. W. Sobel, Artificial Intelligence’s Fair Use Crisis, Columbia Journal of Law & the Arts, Vol. 41:1, p.45-97(2017).)可以預見,國際競爭會加快制度演進與擴散趨勢。當然,美國需要為“例外排除”提供法律依據,尤其需要保護個人信息權利。歐盟為營造有利于創新的法律環境,2019年修改版權指令,第3條、第4條既為科學研究目的進行的文本與數據挖掘規定版權保護例外或限制,也為著作權所有者明確保留提供通道,正在朝“原則可用、例外排除”方向發展。歐盟《人工智能法》鑒于條款12c明確排除該法適用于投入部署或服務之前的研發、測試等活動,并明確將算法改進當做持續“學習”的過程,不構成人工智能系統的重大改變,不需要再履行合規評估手續,目的也是為推動大模型發展。不過,歐盟《一般數據保護條例》對已公開個人數據的處理要求非常嚴格,不利于訓練數據的有效使用。(歐盟學者分析后指出,即使最強調個人數據保護的歐盟,也需要新的法律和倫理框架來迎接人工智能挑戰。See Robert van den Hoven van Genderen, Privacy and Data Protection in the Age of Pervasive Technologies in AI and Robotics, European Data Protection Law Review,Vol. 3, p.338-352(2017).)

我國《著作權法》缺乏對大規模訓練數據原則可用的明確授權,也缺乏政府數據開放和互操作的規定。在影響非常廣泛的“新浪微博訴脈脈不正當競爭糾紛案”中(參見北京市高級人民法院(2016)京73民終588號民事判決書。),法院采用的三重授權原則會進一步抑制訓練數據的有效爬取與利用。《安全基本要求》對語料范圍的限制,更會實質性限縮預訓練數據的范圍。從比較視角來看,不論是原則可用還是例外排除,我國都有很多現實問題需要解決(我國預訓練數據存在的法律風險分析,參見吳靜:《生成式人工智能的數據風險及其法律規制——以ChatGPT為例》,載《科技管理研究》2024年第5期,第192-198頁。),明顯滯后于美國、歐盟的制度建設。

(二)投入應用階段的問題及法律定位

投入應用階段,面臨三個層面的法律問題。首先,必須回答人工智能生成物應如何定性,是否應享有權利保護,如果受保護誰是權利人,造成侵害如何劃分責任等一系列基礎問題。對這些基礎問題的回答,會直接決定人工智能治理與立法的不同路徑。其次,自主智能的出現,必然對歧視、隱私、安全、就業、教育、社會保障、法律程序、國際關系等各方面產生深刻的連鎖影響,“具有廣泛的社會溢出效應,在政治、經濟、社會等各個領域都會帶來深刻變革”(賈開、蔣余浩:《人工智能治理的三個基本問題:技術邏輯、風險挑戰與公共政策選擇》,載《中國行政管理》2017年第10期,第40-45頁。)。如何應對這些分散的溢出問題,需要全社會的廣泛討論。最后,自主智能的出現,預示著更為強大的通用人工智能不再遙遠。遠超人類智能的通用人工智能一旦出現,究竟會對人類文明帶來哪些方面的重大風險,都是必須未雨綢繆的問題。(“我一直在苦苦思考這個問題。我們可以采取哪些行動來最大限度地減少人工智能的風險,確保人類意識的賡續?”參見[美]沃爾特·艾薩克森:《埃隆·馬斯克傳》,孫思遠、劉家琦譯,中信出版社2023年版,第589頁。)國際上討論人工智能的風險與挑戰,包括2023年3月美國麻省理工學院生命科學研究所發起的暫停大模型研發六個月的簽名運動等,多集中在最后這個層面。(“我們可能正在接近下一個奇點,所有我們現在這個世界的意義都即將變得再也無關緊要。而在那個奇點之后的任何事,都還超出我們現在所能想象的”。參見[以色列]尤瓦爾·赫拉利∶《人類簡史:從動物到上帝》,林俊宏譯,中信出版集團2017年第2版,第401頁。)

自主智能投入應用帶來的問題,充分反映前沿科技的復雜性和高度不確定性。從1956年國際社會開始采用人工智能概念開始,如何定義它就一直存有分歧。(智能體)機器人同樣也很難定義,有學者認為有具身支持的才是機器人(比如,赫巴德教授將機器人的特點歸納為五個,分別是:大小、可移動、自主性、智能和互連。See F. Patrick Hubbard, “Sophisticated Robots”: Balancing Liability, Regulation, and Innovation, Florida Law Review, Vol. 66:5, p.1803-1872(2014).),但是,諸如ChatGPT這樣的智能體并不需要具身支撐,只是對話工具。因此,耶魯大學法學院波爾金教授專門解釋,“當我談到機器人時,我不僅會包括機器人——與環境相互作用的實物——還包括智能體與機器學習算法”。(Jack M. Balkin, 2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy: The Three Laws of Robotics in the Age of Big Data, Ohio State Law Journal ,Vol. 78:5, p.1217-1241(2017).)

自主智能的投入應用,會使人工智能的透明度與可解釋性成為必須回答的問題。問題在于,“更復雜的模型可以提供更好的性能,但往往比更簡單的模型如決策樹更不容易解釋”(Stanford Institute for Human-Centered AI (HAI), The AI Index 2024 Annual Report, Artificial Intelligence index(Apr.22, 2024), https://aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf.)。人工智能領域一篇非常有影響力的文章專門討論了深度學習模型的不透明性,即它們如何將學習到的信息分散存儲,而不是以易于理解的方式集中存儲,就是創建這些網絡的研究人員也難以完全理解它們的內部工作機制;深度學習之外的其他人工智能方法可能更易于人類理解,但在處理復雜數據方面又不那么有效。(Davide Castelvecchi, Can we open the black box of AI?,Nature, Vol. 538:7623, p.20-23(2016).)

總體而言,預訓練階段的問題認識相對已經比較明確,各國措施正在趨同化,而投入應用階段三個層面的問題認識分歧都非常大。比如,對于人工智能生成物是否應該享有版權保護這一基礎問題,我國知識產權法學界有截然不同的觀點。第一種觀點認為機器不是法律保護的主體,因而不能將其生成物認定為著作權客體;第二種觀點主張應當以生成內容本身的獨創性來判斷其是否構成作品,創作者身份不應是作品受保護的構成條件;還有各種折中觀點或解決方案。(張平:《人工智能生成內容著作權合法性的制度難題及其解決路徑》,載《法律科學(西北政法大學學報)》2024年第3期,第18-31頁。)國際上也一直有類似的爭論與解決方案討論。(Haochen Sun, Redesigning Copyright Protection in the Era of Artificial Intelligence, Iowa Law Review,Vol. 107:3, p.1213-1251(2022).)在我國,贊同第二種觀點的學者更多,較為普遍地認為“人工智能生成內容的可版權性標準應該從作者身份轉向獨創性”(李揚、涂藤:《論人工智能生成內容的可版權性標準》,載《知識產權》2024年第1期,第68-84頁。),并賦予其版權保護(專利權領域的同樣討論,參見管榮齊、王晶晶:《生成式人工智能的專利法律問題思考》,載《南京郵電大學學報(社會科學版)》2024年第2期,第37-46頁。)。

理論上的分歧,必然會映射到法律實踐中。我國司法實踐中,對于人工智能生成物的可版權性問題,就出現過不同的判決。在菲林律師事務所訴百度公司著作權侵權案中(北京互聯網法院,(2018)京0491民初239號民事判決書;北京知識產權法院(2019)京73民終2030號民事判決書。),法院判決認為自然人創造完成應是著作權作品的必要條件。在騰訊公司訴盈訊公司侵害著作權及不正當競爭案中(深圳市南山區人民法院(2019)粵0305民初14010號民事判決書。),法院判決認定涉案文章是由原告組織的主創團隊利用人工智能軟件Dreamwriter完成。在李某訴劉某侵害信息網絡傳播權案中(該案也被稱為中國首例人工智能生成圖片著作權糾紛案)(北京互聯網法院(2023)京0491民初11279號民事判決書。),法院認定原告對人工智能生成圖片進行一定的智力投入,包括設計人物的呈現方式、選擇提示詞、安排提示詞的順序等,具備“智力成果”的要件。知識產權法學者吳漢東教授梳理我國司法實踐后得出結論,“可以認為,中國法院對人工智能生成作品采取了有條件保護的司法原則”。(吳漢東:《論人工智能生成內容的可版權性:實務、法理與制度》,載《中國法律評論》2024年第3期,第117頁。)

美國版權法并未明確規定版權作者只能是自然人,后來由負責版權登記的美國版權局將版權作者限定為自然人,并因此不對人工智能生成物進行版權登記。至于美國國會、法院,均尚未有機會對人工智能生成物是否享有版權以及版權歸誰所有做出決定。(Victor M. Palace, What If Artificial Intelligence Wrote This: Artificial Intelligence and Copyright Law, Florida Law Review, Vol. 71:1, p.217-242(2019).)不過,根據美國聯邦最高法院過往堅持版權作者必須是自然人的立場,可以推知其不會支持人工智能生成物的可版權性,這與我國法院有條件保護的司法原則正好相反。中美兩國分別代表兩種不同的認識和解決方案,其他大部分國家,對這個問題的關注又有所不同。比如,英國過去大量的研究一直樂觀地認為其《1988年版權、設計和專利法》第9(3)節完全可以解決計算機生成作品的版權問題,結果發現新一代人工智能發展以后研究不夠。(Oways A. Kinsara, Clash of Dilemmas: How Should UK Copyright Law Approach the Advent of Autonomous AI Creations?, Cambridge Law Review, Vol. 6:2, p.62-85(2021).)2020年之前,除中美兩國之外,“全球范圍內,各國對于人工智能生成作品是否給予版權保護以及如何保護,幾乎沒有任何共識”(Kavya Rallabhandi, The Copyright Authorship Conundrum for Works Generated by Artificial Intelligence: A Proposal for Standardized International Guidelines in the WIPO Copyright Treaty, George Washington International Law Review,Vol. 54:2, p.311-347(2023).)。

然而,在人工智能技術快速發展的背景下,法治與治理機制久拖不決或者長期模糊不清會直接產生各種負面影響,因此,人工智能基礎問題正在快速形成共識與公共政策選擇。2020年,美國專利和商標局、歐盟專利局和英國高等法院均在具體案件中否決人工智能系統作為發明者的專利申請,否定人工智能生成物的可專利性。(Haochen Sun, Redesigning Copyright Protection in the Era of Artificial Intelligence, Iowa Law Review, Vol.107:3,p.1213, 1213-1251(2022).)從中可以看到,將人工智能生成物歸入公有領域,不享有任何版權或者專利權保護,正在迅速成為普遍的發展趨勢,基礎問題正在快速形成共識。曾經的中美兩國立場差別,正在成為中國與美國、歐盟(以及其他國家)之間的路徑差別。(“任何情況下,人工智能生成作品都不可能在新加坡得到版權保護”。See Dorian Chang, AI Regulation for the AI Revolution, Singapore Comparative Law Review,p.130-170(2023).)并且,美國、歐盟的實踐取向已經比較明確,而我國理論與實務界的認識分歧依然非常大。

知識產權領域人工智能生成物的非權利化安排,與其說是知識產權領域的技術問題,不如說是人工智能與人類關系的基本原則問題。人工智能的最大挑戰在于其“涌現”或者“生成”能力,可以創造新知識。目前,在圖像分類、視覺推理和英語理解等方面,人工智能已經超越人類也會逐步在其他領域實現對人類的超越。隨著人類歷史上科技第一次從純粹的工具變為獨立創造的主體(智能體),必然會出現越來越多智能體自主決策而非輔助決策的領域。美國聯邦行政機關在執法領域已經大量采用機器學習技術。(Cary Coglianese & Lavi M. Ben Dor, AI in Adjudication and Administration, Brooklyn Law Review,Vol. 86:3, p.791-838(2021).)哈佛大學法學家桑斯坦教授承認,算法在提高決策的準確性和一致性方面較人類具有顯著優勢,盡管在設計和應用算法時需要仔細考慮可能帶來的歧視問題。(Cass R. Sunstein, Governing by Algorithm? No Noise and (Potentially) less Bias,Duke Law Journal,Vol. 71:6, p.1175-1205(2022).)更多學者也已經接受算法比人類決定更為可靠的觀點。(“很多政府決策不再由人做出,而是由計算機處理的算法做出”。See Cary Coglianese & David Lehr, Transparency and Algorithmic Governance, Administrative Law Review,Vol. 71:1, p.1-56(2019).)

既然智能體能夠自主決策,比人類更聰明,必然會追問的是,是否應該賦予其法律主體地位。斯坦福大學法律學者將機器人作為法律主體研究,全面設計機器人危害行為的救濟體系,甚至提出“機器人死刑”這樣的責任機制。(Mark A. Lemley & Bryan Casey, Remedies for Robots, University of Chicago Law Review,Vol. 86:5, p.1311-1396(2019).)有學者斷言,“我們可能即將創造一個新的法律主體范疇,介于人與客體之間。我相信法律必須為這一類別騰出空間”(Ryan Calo, Robotics and the Lessons of Cyberlaw, California Law Review,Vol. 103:3, p.513-563(2015).)。我國也有學者認為,“確認智能機器人的法律主體性地位是對機器人立法要解決的首要和關鍵問題”(金夢:《中國人工智能立法的科學性探析》,載《中共中央黨校(國家行政學院)學報》2019年第1期,第104-112頁。)。

然而,智能體不具有法律主體資格,仍然是各國共同堅持的基本原則,也是大部分專家的立場。(歐洲專家的意見,See Gerhard Wagner, Robot, Inc.:Personhood for Autonomous Systems?, Fordham Law Review,Vol. 88:2, p.591-612(2019).)在人與智能體的關系中,以人為中心是不證自明的真理。美國哈佛大學Berkman中心的研究團隊歷時兩年多,對包括聯合國、經合組織、美國、歐盟、中國、法國、德國、日本、微軟、騰訊等在內的國際組織、國家、企業、社會組織制定的36份人工智能“原則”文件進行分析后,總結出八項基本原則。其中兩項分別是“由人類控制技術”以及“提升人類價值”,占比均為69%,包括規定“人工智能系統只能是工具的法律地位”,“如果機構不能再控制人工智能系統時有義務銷毀它”。(Jessica Fjeld, et el., Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI, Berkman Klein Center for Internet & Society(Jan.11, 2020), http://nrs.harvard.edu/urn-3:HUL.InstRepos:42160420.)因此,無論智能體多么聰明,法律的根本問題仍然是“當機器人和智能體創造利益或造成傷害時,如何在人類之間分配權利和義務”(Jack M. Balkin, The Path of Robotics Law, California Law Review Circuit,Vol. 6, p.45-60(2015).)。歐盟官方研究報告曾經提出“電子人”概念,但認為在當前的法律框架下機器人的責任應由其設計者、制造商、操作者或所有者承擔,而不是讓機器人承擔。(REPORT with recommendations to the Commission on Civil Law Rules on Robotics(2015/2103(INL)), European Parliament(Jan. 27,2017), https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_EN.html.)智能體不具備法律主體地位,其生成物當然不具有權利化屬性,這是以人為中心的必然要求。(“著作權法以鼓勵創作為目的,只有人才能理解和利用著作權法的激勵機制,因此只有人的創作成果才能作為作品受到著作權法的保護”。參見王遷:《再論人工智能生成的內容在著作權法中的定性》,載《政法論壇》2023年第4期,第16-33頁。)

(三)我國人工智能立法的基本定位

上述分析表明:(1)無論是理論研究還是制度建設,我國都面臨不少現實問題。在人工智能加速發展、國際競爭更為激烈的背景下,我國人工智能立法需要盡快提上議事日程,厘清人工智能發展的基礎問題,凝聚共識,明確權利義務關系,任何拖延或者無所作為都會錯失時機。同時,由于人工智能仍然處于發展過程之中,溢出問題與終極問題仍然沒有形成共識,具有很大的不確定性;即使形成共識的基礎問題領域,通常橫跨不同法律部門,需要根據問題不同分別設計相應的法律制度與實施機制。因此,我國人工智能立法需要保持靈活性、小步快跑,避免“一刀切”立法造成難以挽回的負面影響。當前,各國正在推動的人工智能相關立法活動(Stanford Institute for Human-Centered AI (HAI), The AI Index 2024 Annual Report, Artificial Intelligence index(Apr.22, 2024), https://aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf.),普遍都以解決具體問題為目標,而不是制定統一的人工智能法。如同我國不可能制定一部網絡法一攬子解決網絡相關法律問題一樣,我國不可能制定一部一攬子解決版權、個人信息保護、政府數據開放、侵權責任分配、互操作、就業體系調整等橫跨眾多不同法律部門的人工智能法。(2)需要從人工智能作為前沿科技和新質生產力來定位和把握立法,在全面梳理不同層次挑戰與風險的基礎上,尊重科技本身規律,充分發揮法治、技術與物理架構、科技倫理、技術標準、行業自律、市場競爭、國際合作等多種治理機制的作用,進行整體制度設計與回應,發揮制度合力,避免定位偏差與認識錯誤導致的頭痛醫頭、腳痛醫腳現象。(3)就實現路徑而言,可由全國人大常委會就人工智能安全與發展涉及的重大原則問題先制定一份法律問題的決定,明確基本原則與方向,然后通過不同部門法的立改廢釋分別推進。既要清理、廢止不利于人工智能發展的規定與做法,澄清模糊認識,又要確立有利于推動人工智能安全與發展的觀念、規范與制度。可見,人工智能法是“產業促進法與風險治理法的協調”(鄭志峰:《人工智能立法的一般范疇》,載《數字法治》2023年第6期,第55-75頁。),需要多方參與,不是立法部門一家能夠完成的任務,更不可能一步到位。

2024年通過世界上第一部也是至今唯一一部《人工智能法》,被我國一些學者作為需要制定人工智能法的例證并提出不同版本的專家建議稿。(楊建軍、張凌寒、周輝等:《人工智能法:必要性與可行性》,載《北京航空航天大學學報(社會科學版)》2024年第3期,第169-174頁。)其實,歐盟的做法不具有普適性,很難借鑒。歐盟作為高度一體化的區域性經濟政治組織,其立法帶有法典編纂功能或者“一攬子解決”功能。《人工智能法》的全稱為《人工智能與修正歐盟某些立法的法》,有大量與歐盟其他立法以及成員國國內法相互銜接的規定,第七章第75條到第82條更是對歐盟其他相關立法的具體修正規定。包括我國在內,一般的國家立法既不需要也不可能具備這樣的法典編纂功能。

如果分析立法背后的邏輯可以發現,歐盟《人工智能法》聚焦于從產品責任角度防范高風險人工智能系統可能造成的損害,絕大部分內容均屬于產品安全與責任法的范疇,以解決“現行歐盟(產品)安全立法適用于產品而不適用于服務,并原則上不適用于基于人工智能技術的服務”“歐盟產品責任立法只規定生產者責任,將供應鏈上其他主體的責任交由成員國責任規則調整”等問題。(EUROPEAN COMMISSION, WHITE PAPER On Artificial Intelligence - A European approach to excellence and trust, European Commission(Feb.19, 2020), https://commission.europa.eu/system/files/2020-02/commission-white-paper-artificial-intelligence-feb2020_en.pdf.)歐盟形式上是統一立法,但調整范圍有限,并不覆蓋人工智能安全與發展的很多領域,包括前述的人工智能生成物的可版權性、可專利性等基礎問題以及溢出問題。有論者因此指出,“關鍵在于《人工智能法》是否真的帶來產品法的力量和優點,以擴大歐盟對智能組件產品的不斷改進實踐,還是該法律僅僅成為旨在事后攻擊少數精英參與者的門面立法”(Meeri Haataja & Joanna J. Bryson, The European Parliament’s AI Regulation: Should We Call It Progress?, Amicus Curiae,Vol. 4:3, p.707-718(2023).)。相比之下,美國14110號行政命令采用的是典型的確立基本原則后全面推進的方式,對超過50個聯邦機構布置100多項落實行政命令的具體任務,(Laurie Harris & Chris Jaikaran, Highlights of the 2023 Executive Order on Artificial Intelligence for Congress, Congressional Research Service(Apr.3, 2024), https://crsreports.congress.gov/product/pdf/R/R47843.)在廣度、深度與影響力方面都要強很多。2024年5月,美國參議院跨黨派人工智能工作組發布路線圖,延續采用分散立法推進人工智能安全與發展的思路。(The Bipartisan Senate AI Working Group, Driving U.S. Innovation in Artificial Intelligence: A Roadmap for Artificial Intelligence Policy in the United States Senate, U.S. Senator Chuck Schumer of New York(May.15, 2024), https://www.schumer.senate.gov/imo/media/doc/Roadmap_Electronic1.32pm.pdf.)

為避免統一立法阻礙人工智能發展,代表歐盟十四個成員國的官方文件明確提出,“我們應該轉向軟法解決方案,如自我監管、自愿標識和其他自愿做法,以及健全的標準化程序,作為對現有立法的補充,以確保滿足基本的安全和保障標準。考慮到我們正面臨快速發展的技術,軟法可以讓我們從技術中學習并識別與之相關的潛在挑戰”。(Innovative and Trustworthy AI: Two Sides of the Same Coin, Vláda eské republiky(Oct.6, 2020), https://vlada.gov.cz/scripts/file.php?id=275575.)德國政府的立場是,“聯邦政府正在倡導并努力建立一個適當的監管框架,在此框架內擴大并在必要時進一步發展現有的高質量基礎設施,以在適當時反映人工智能的具體問題”。(Artificial Intelligence Strategy of the German Federal Government, The Federal Government(Mar.26, 2021), https://www.ki-strategie-deutschland.de/files/downloads/Fortschreibung_KI-Strategie_engl.pdf.)可以看到,不同于歐盟個人數據保護立法前后世界各國相繼跟進立法所產生的“布魯塞爾效應”(蘇可楨、沈偉:《歐盟人工智能治理方案會產生“布魯塞爾效應”嗎?——基于歐盟〈人工智能法〉的分析》,載《德國研究》2024年第2期,第66-88、135頁。),歐盟《人工智能法》出臺后,在歐盟內部至今也沒有跟進立法。日本經濟產業省組織的專家組經研究后得出結論,“目前,對人工智能系統具有法律約束力的一般立法被認為是不必要的”。(AI Governance in Japan Ver. 1.1, Ministry of Economy, Trade and Industry(Jul.9, 2021), https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20210709_8.pdf.)

幾年前,英國上議院人工智能特設委員會經過廣泛聽取各方面意見后就得出結論,“在這個階段,針對人工智能的全面立法是不合適的。我們認為,現有的行業監管機構最適合考慮可能需要的后續立法對其行業的影響”。(Al in the UK - ready, willing, and able? ,United Kindom Parliment(Apr.16, 2018), https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/100.pdf.)印度的思路與英國大致相同,除確立統一的數據保護法律制度以外,更多發揮領域法律的作用。(National Strategy for Artificial Intelligence, National Institution for Transforming India Aayog(Mar.13, 2020),https://www.niti.gov.in/sites/default/files/2023-03/National-Strategy-for-Artificial-Intelligence.pdf.)在信息化立法方面一直走在各國前列的韓國2019年12月發布《國家人工智能戰略》,2020年12月發布《改善人工智能法律、系統與監管路線圖》,2023年5月公布《數字權利法案》,一直采用的是分散推進立法的方式。(Hwan Kyoung Ko & Il Shin Lee, Analysis of AI regulatory frameworks in South Korea, Asia Business Law Journal(Apr.15, 2024), https://law.asia/ai-regulatory-frameworks-south-korea/#.)新加坡目前也沒有任何特定的人工智能立法計劃。(Dorian Chang, AI Regulation for the AI Revolution, Singapore Comparative Law Review,p.130-170(2023).)目前,除歐盟以外,世界上尚無任何主要國家已經制定或者打算制定統一的人工智能法。

五、推動我國人工智能法的范式變革

面對人工智能全面性、顛覆性挑戰,法律制度必須進行徹底改革與重構。然而,多主體分別推進法治變革的最大問題在于,如果缺乏明確認識和有效統籌,極有可能出現實踐中已經有所體現的難以形成合力甚至相互沖突的結果。因此,必須首先明確“怎樣在具體規則中凸顯人工智能的規范特質”(陳亮:《人工智能立法體系化的困境與出路》,載《數字法治》2023年第6期,第10-17頁。),然后才有可能推動立法系統變革。

回顧人類法律發展歷史,隨著公司的出現,1855年,英國制定《有限責任法》,規定公司股東對于公司債務只在其投資范圍內承擔有限責任,奠定現代企業制度和市場經濟的基礎,成為現代法治的標志。(周漢華:《論互聯網法》,載《中國法學》2015年第3期,第20-37頁。)隨著平臺的出現,1996年,美國《通信規范法》第230條確立避風港規則,奠定平臺經濟發展的基礎,被公認為互聯網時代最為重要的法律規則和網絡法治的代名詞。(當時圍繞網絡法的著名爭論,see Frank H. Easterbrook, Cyberspace and the Law of the Horse, University of Chicago Legal Forum,p.207-216(1996); Lawrence Lessig, The Law of the Horse: What CyberLaw Might Teach, Harvard Law Review,Vol. 113:2, p.501-549(1999).)智能體的出現,必然推動人工智能法走上歷史舞臺。哪個國家能率先發現并確立基本規則,哪個國家就有可能引領人工智能法整體范式變革。(日本經濟產業省組織的專家研究小組認為基于規則的傳統法治在立法、執法、管轄、監督等方面均面臨挑戰,應該確立基于結果的法治,政府和私營部門共同制定標準、指導方針和其他軟法,以支持企業努力實現法律規定的目標。See Study Group on New Governance Models in Society 5.0, Governance Innovation ver.2 - A Guide to Designing and Implementing Agile Governance, METI(Jul.30, 2021), https://www.meti.go.jp/english/press/2021/0730_001.html.)法治范式變革涉及整個法治體系的系統聯動,其影響與范圍比立法定位都要大得多。

如果對各國人工智能法治實踐進行理論抽象,可以發現,新范式的基本規則其實已經初具雛形,最大特點表現為“非對稱性”。

(一)預訓練階段“原則可用、例外排除”的非對稱性

“原則可用、例外排除”呈現典型的非對稱性,價值判斷與選擇非常明確。(韓國正在推進人工智能領域全面的負面清單管理制度和“先批準后監管”法律范式變革。The Government of the Republic of Korea, National Strategy for Artificial Intelligence, Ministry of Science and ICT(Dec.17,2019), https://www.msit.go.kr/eng/bbs/view.do?sCode=eng&mId=10&mPid=9&bbsSeqNo=46&nttSeqNo=9.)原則可用意味著除法律明確禁止公開的數據(國家秘密、商業秘密、個人隱私)以外,其他合法公開的所有數據原則上均可以用來進行訓練,包括版權作品、已合法公開的個人信息、公共數據和其他數據等。采用原則可用概念而非著作權法學界通常采用的合理使用概念,一是因為預訓練階段的數據不只涉及版權作品,還涉及版權作品之外廣泛來源的數據。采用合理使用概念,會局限于版權法,限縮討論與制度適用的范圍。二是因為即使對版權作品,采用合理使用概念也無法反映大數據時代對于版權作品的預訓練需求。(對美國著作權法合理使用原則無法適用于機器學習的分析,see Benjamin L. W. Sobel, Artificial Intelligence’s Fair Use Crisis, Columbia Journal of Law & the Arts,Vol. 41:1, p.45-97(2017)。)有學者指出,我國2020年第三次著作權法修訂采用“半封閉式”的限制和例外模式,制度空間有限,人工智能創作中對版權作品的利用很難通過“三步檢驗法”的檢測和過濾。(林秀芹:《人工智能時代著作權合理使用制度的重塑》,載《法學研究》2021年第6期,第170-185頁。)原則可用意味著要跳出我國著作權法限制與例外立法模式的束縛,除公開的著作權作品原則上都可用于訓練以外,還應確立互操作制度,為采用技術手段繞過權利人對接口設置的技術措施爬取數據提供法律依據。原則可用也意味著要加大公共數據的開放力度,建立免費、無歧視、高質量的公共數據開放制度。

例外排除包括兩類,一類是法律明確禁止公開的國家秘密、商業秘密、個人隱私等數據,另一類是數據權益相關人單獨提出并且技術上可以排除使用的數據。第一類已經有相關法律規定,實踐中需要進一步明確其標準、邊界與程序,防止制度過于模糊。第二類屬于人工智能時代的新挑戰,需要在著作權法、個人信息保護法、公共數據開放立法中為權益相關人維護自己權益設計相應的制度,實現制度之間的平衡。不過,數據可用是原則,排除使用是例外,應該在所有制度設計中得到體現。

(二)投入應用階段“有義務無權利”的非對稱性

不論是具身人工智能(人形機器人、無人駕駛汽車)還是非具身人工智能,造成違法損害后果必須承擔責任是沒有爭議的問題。對于有害或者高風險的人工智能系統,法律還會禁止或者施加事前監管措施。結合人工智能生成物非權利化安排,這種“有義務無權利”的格局呈現突出的非對稱性特點。表面上看,非對稱性不同于法律面前一律平等、權利義務一致性等基本法律原則。然而,兩個階段的非對稱性結合到一起,預訓練階段的數據原則可用,生成物進入公有領域、人人可用并重新投入訓練,正好實現良性循環和相互證成,是最合理的制度安排。(如果賦予人工智能生成物著作權,“與其獲得大量著作權作品進行訓練與利用的權利并不匹配”。參見丁曉東:《論人工智能促進型的數據制度》,載《中國法律評論》2023年第6期,第175-191頁。)

如何確定智能體造成損害的法律責任非常復雜,必須結合不同應用場景,在實踐中逐步明確認定標準和劃分原則。由于大模型服務不具有雙邊市場特點,其運行模式不同于連接供需雙方的平臺經濟模式。大模型服務提供者必須為智能體造成的損害承擔直接責任而非第三方責任,不能搬用網絡法中的避風港原則。即使大模型開源,也只能免除某些透明度義務,不能免除造成損害的法律責任。但是,另一方面,大模型自主決策是大模型與使用者之間互動的結果,使用者的輸入必不可少。如果對大模型的責任設定過于嚴格,極易誘發使用者的逆向選擇,以謀取各種不當利益。在使用者惡意行為的情況下,大模型服務提供者實際上是在為使用者的行為擔責。除了大模型服務提供者與使用者之外,還包括預訓練階段的數據創建者、數據管理員、模型創建者等不同主體,需要結合不同場景區分責任承擔(Michael D. Murray, Generative AI Art: Copyright Infringement and Fair Use, SMU Science and Technology Law Review,Vol. 26:2, p.259-316(2023).),比線下侵權責任主體認定要復雜得多。另外,智能體自主決策機理不同于人類,不能直接搬用一般法律規則或認定標準。比如,人工智能生成物均為合成物,不可能不受訓練數據影響。因此,在認定生成物是否構成抄襲、復制方面,應尊重其規律,否則會制約大模型的發展。美國學者最新的研究建議,如果大模型技術上采取有力的侵權預防措施,法律上應賦予其避風港保護,形成技術與法律的雙向演進。(Peter Henderson,Xuechen Li, Dan Jurafsky, Tastunori Hashimoto, Mark A. Lemley, Percy Liang; Foundation Models and Fair Use, Journal of Machine Learning Research,Vol. 24:400, p.1-79(2023).)2024年,廣州互聯網法院審理并判決我國AIGC平臺侵權第一案。(廣州互聯網法院(2024)粵0192民初113號民事判決書。)該案中,法院認為,案涉生成圖片部分保留案涉作品的獨創性表達并在此基礎上形成新的特征,侵犯原告對案涉作品的改編權。該案公布后引發業界較大的爭議,被認為會阻礙產業發展。相反,北京互聯網法院2024年審理的全國首例“AI聲音侵權案”(北京互聯網法院(2023)京0491民初12142號民事判決書。),獲得比較一致的正面評價。兩個案件的最大差別在于,后者按照普通人識別標準達到了深度偽造程度,而前者并未達到公認的深度偽造程度。可見,智能體的法律責任認定標準也呈現不同于一般侵權規則的非對稱性。

智能體的出現,已經引發各種深層次變化并催生出既不同于現代法,又不同于網絡法的人工智能法。現代法、網絡法與人工智能法三大范式疊加、交織并共同發揮作用,是當今時代這一領域的最大特點。把握人工智能法非對稱性特點,加快推動法治范式變革,是迎接時代挑戰的必然要求。

A Roadmap for Artificial Intelligence Legislation in China

ZHOU Hanhua

(Institute of Law, China Academy of Social Science, Beijing 100720, China)

Abstract:

Artificial intelligence has formed two different legislative positions in China: technology and industrial development, and information content management. Using information content management to locate artificial intelligence is equivalent to incorporating new productive forces into superstructure management, which will2ReNZb3YLTLQ+mdZ5aZZU6HwZlGgPdM3ZmI+3c4WyxY= inevitably lead to various mismatch phenomena. To reflect the asymmetric characteristics of AI law, it is necessary to orient artificial intelligence as a cuttingedge technology and new productive force, and, on the basis of clarifying the basic principles of security and development, to realize the paradigm change of the rule of law through the enactment, reform, abolition, and interpretation of laws by different departments. It is necessary not only to clean up and abolish regulations and practices that are not conducive to the development of artificial intelligence, but also to establish concepts, norms, and systems that are conducive to promoting the security and development of artificial intelligence. China’s AI legislation needs to remain flexible, take small steps, and avoid the

irreversible negative impact of “onesizefitsall” legislation that is difficult to reverse.

Key words: artificial intelligence legislation; artificial intelligence law; paradigm change; asymmetry本文責任編輯:常燁

收稿日期:2024-06-17

作者簡介:周漢華(1964—),男,湖南衡山人,中國社會科學院法學研究所研究員。

致謝:本文寫作過程中,相關內容先后在全國人大常委會法工委“人工智能立法工作座談會”“中關村論壇·首屆科技與法治論壇”、中宣部研究室(法規局)“全國宣傳法治培訓班”上發言、演講或講座,感謝與會人員的積極反饋、評論與肯定。論文寫作過程中,北京世輝律師事務所王新銳律師,阿里研究院袁媛女士、傅宏宇先生,騰訊研究院王強先生、王融女士提供寶貴參考資料或有益討論,在此致以敬意與謝意。

①喻思孌:《“搭橋人”回憶中國接入互聯網前后——它連接著全世界!》,載《人民日報》2014年4月21日,第9版。

主站蜘蛛池模板: 国产极品嫩模在线观看91| 国产福利小视频高清在线观看| 欧美亚洲激情| 黄色网站在线观看无码| 日本福利视频网站| 成人av专区精品无码国产| 国产成人禁片在线观看| 色国产视频| 色视频国产| 国产区免费| 五月天福利视频| 日日噜噜夜夜狠狠视频| 国产高清在线丝袜精品一区| 久久国产精品电影| 午夜国产小视频| www中文字幕在线观看| 无码精品一区二区久久久| 亚洲欧洲天堂色AV| 一级在线毛片| 国产精品视频a| 欧美另类图片视频无弹跳第一页| 成人在线观看一区| 青青操视频免费观看| 国产九九精品视频| 国产小视频在线高清播放 | 欧美一区二区自偷自拍视频| 国产人人射| 国产精品yjizz视频网一二区| 国产91丝袜| 丝袜国产一区| 精品亚洲麻豆1区2区3区| 日韩成人在线一区二区| 另类专区亚洲| 一级毛片中文字幕| 国产又大又粗又猛又爽的视频| 亚洲午夜久久久精品电影院| 亚洲第一视频网| 国产呦视频免费视频在线观看| 日韩精品一区二区三区视频免费看| 国产精品无码AV片在线观看播放| 一级黄色欧美| 亚洲一区无码在线| 国产成人一区在线播放| 免费国产高清视频| 呦视频在线一区二区三区| 91精品啪在线观看国产| 人妻一区二区三区无码精品一区| 免费看一级毛片波多结衣| 无码aⅴ精品一区二区三区| 亚洲欧美在线综合图区| 欧美精品高清| 中文字幕在线日本| 91精品国产91久久久久久三级| 日韩精品成人在线| 青青草国产在线视频| 欧美成人午夜视频| 日本高清有码人妻| 亚洲色图另类| 欧美精品影院| 亚洲AV无码乱码在线观看裸奔 | 97在线免费| 国产微拍一区| 国产精品无码AⅤ在线观看播放| 在线a视频免费观看| 波多野结衣中文字幕一区| 成年人福利视频| 激情五月婷婷综合网| 国产噜噜在线视频观看| 欧美影院久久| 国产美女丝袜高潮| 大香伊人久久| 怡红院美国分院一区二区| 国产综合欧美| 国产乱子伦视频在线播放| 女人av社区男人的天堂| 国产成人久视频免费| 日韩a级毛片| 亚洲第一区在线| 国产成人乱无码视频| 国产精品亚洲综合久久小说| 亚洲国产日韩在线成人蜜芽| 久久久久国产精品免费免费不卡|