摘 要:隨著ChatGPT的爆火,生成式人工智能成為炙手可熱的技術概念,其具有數據依賴、生成內容難以分辨以及通用性較強三個主要特征。生成式人工智能的應用前景可觀,但也可能會引發數據安全、算法安全以及生成內容安全方面的社會風險。生成式人工智能運行的不透明性、不可理解性以及追責困難性,將會造成生成內容著作權歸屬不清和生成內容存在偏見,可能侵害個人信息權益、造成行業壟斷甚至危害國家安全。針對生成式人工智能風險的治理方案,在法律層面應當從數據安全保護、算法治理以及生成內容審查方面構建全鏈條的治理規則。在平臺監管層面,應當構建平臺備案制度、實施激勵措施以及暢通投訴渠道。在協同層面,形成用戶、企業、政府以及國際組織等多元主體共治局面。
關鍵詞:生成式人工智能;ChatGPT;社會風險;治理方案
中圖分類號:D923 文獻標識碼:A 文章編號:1009 — 2234(2024)12 — 0071 — 07
自美國OpenAI公司開發的兩款產品DALL·E2①和ChatGPT②相繼發布以來,生成式人工智能這一概念正式進入大眾視野,整個社會開始對大型科技公司開發的各種生成式人工智能產品抱有極大興趣。Meta、微軟、谷歌、百度、騰訊等網絡巨頭爭相跟進,生成式人工智能成為了互聯網投資的新風口和信息技術發展的新趨勢。生成式人工智能作為一項新興技術,未來應用前景十分可觀。被譽為“互聯網之父”的英國計算機科學家蒂姆·伯納斯-李(Tim Berners-Lee)預測:未來人人都可能會擁有ChatGPT類生成式人工智能助手[1]。人類社會的發展進步離不開科技創新。自工業革命以來,每一次技術變革都會引發社會形態、社會結構以及治理方式的改變。正如海德格爾(Martin Heidegger)指出的,現代技術的本質體現了人類的技術性生存方式,這是人類不可逃避的“天命”[2]。因此,人類應當在守正的基礎上不斷進行創新。盡管新的技術可能會引發風險,但不能因此將其視為洪水猛獸而停滯發展。對科技風險進行合理的規制則能夠使其消極影響降到最低,從而讓科技更好地服務于人類社會。在生成式人工智能技術尚處于起步階段的應用背景下,當前亟需對生成式人工智能的風險類型進行梳理,并提出具有前瞻性和可行性的治理方案,從而促進生成式人工智能的良性發展。
一、生成式人工智能的主要特征
生成式人工智能技術是指通過各種機器學習(ML)方法從數據中學習工件的要素,進而生成全新的、原創的、真實的工件(一個產品或任務)[3]。生成式人工智能技術本身已有60多年的發展歷史。早在1957年,Lejaren Hiller和Leonard Isaacson完成了歷史上第一部由計算機創作的音樂作品[4]。隨著基礎研究的不斷深入,大數據、算法和算力等相關技術的迅猛發展,作為生成式人工智能關鍵技術支撐的生成模型,其性能得到了顯著改善。生成式人工智能的生成模型包括:生成式對抗網絡(GANs,其本質上是一種深度學習模型)、自回歸模型以及基于流的模型等。利用生成模型,生成式人工智能可以在短時間內自動創建大量的內容,包括新的文本、圖像、音樂、視頻等。值得注意的是,生成式人工智能只是一種技術概念,而并非具體的應用概念,該技術可以被應用到搜索引擎、互聯網平臺等下游場景中。元宇宙數字虛擬世界,本質上就是生成式人工智能應用到數字空間構建的結果,也就是說生成式人工智能技術的出現才使得元宇宙不再是“空中樓閣”[5]。結合生成式人工智能的技術原理,本文認為其具有極其依賴數據、生成內容難以分辨以及通用性較強三個方面的主要特征。
(一)數據依賴性
生成式人工智能從本質上來說是一種大語言模型,離開了數據,生成式人工智能就成了無源之水、無本之木[6]。生成式人工智能需要通過算法技術不斷訓練語言模型,以此提升生成內容的質量,而語言模型訓練的背后離不開數據的支撐。生成式人工智能“聰明”的關鍵因素是其具有強大的推理能力,然而,這種能力需要通過深度挖掘大量數據中豐富的內在信息進行獲取,這樣才能使得生成式人工智能可以更好的滿足用戶需求。因此,要想生成式人工智能輸出高質量的內容,就必須為其提供數量足夠多、種類足夠廣、質量足夠高的“數據口糧”。就技術角度而言,數據對于人工智能應用程序的開發以及迭代至關重要[7]。例如,作為生成式人工智能典型應用代表的ChatGPT,從2018年發展至今,已經迭代出4個版本。ChatGPT-1擁有117M訓練參數,ChatGPT-2擁有15億參數和800萬個網頁的訓練數據集,ChatGPT-3擁有1750億訓練參數,如今ChatGPT-4擁有百萬億級訓練數據參數[8]。由此可見,ChatGPT的每次升級迭代都極其依賴于訓練數據的指數級增長。正是由于海量級訓練數據的積累,ChatGPT才能不斷進步完善,最終能夠提供更好的應用服務。
(二)生成內容難以分辨
生成式人工智能作為一項引領未來的新興技術,其生成內容有時具有難以分辨的特征。生成式人工智能的生成內容高度依賴于訓練數據和算法設計,訓練數據的選取、算法的設計均會對生成內容產生較大的影響。這就意味著生成內容易受到訓練數據偏向、技術開發者價值觀念以及相關資本因素的影響,因此很難確保生成內容的絕對正確性與可分辨性。除此之外,生成式人工智能為了生成符合人類偏好的知識,其不僅需要輸入和學習大量既定相關的客觀知識,而且還需要向語言模型中不斷輸入人類的反饋意見[9]。這些反饋意見可能包括人類和機器之間的互問、互答等帶有主觀方面的語料,因此也就意味著生成式語言模型的訓練數據可能包含有人類價值偏好、主觀臆斷等方面的內容。正是由于生成式人工智能語言模型輸入的內容帶有不可避免的主觀知識因素,從而可能會導致其生成內容的客觀性難以分辨,這也構成了生成式人工智能的另一個重要特征。
(三)通用性較強
生成式人工智能還具有通用性強的基本特征,主要表現為以下兩個方面:一是能夠廣泛應用在各個領域;二是擁有大量的產品用戶。生成式人工智能可以被廣泛應用在科技寫作(如文獻回顧、數據分析)、教育培訓、醫療問診、輔助軟件開發、工具管理以及其他各種類型的應用程序之中。除上述領域之外,生成式人工智能還可以應用于財務統計、會計運算以及法律咨詢等方面。另外,生成式人工智能所生成的內容不僅能夠滿足用戶的基本需求,而且還能夠通過互動以增強用戶對其的使用依賴性。與過往所開發的智能語言助手相比,ChatGPT類生成式人工智能可以通過對話等方式精準、動態地對接用戶需求,能夠多維度回答用戶提出的各種問題,天然具備能夠貼近用戶需求的優勢。正因為如此,ChatGPT也創造了最短時間內智能產品用戶數量最高的一項記錄。自ChatGPT投入使用后的兩個月內,已經擁有超過1億名用戶[10],成為史上用戶數量增長最快的智能應用產品。
二、生成式人工智能的風險類型
一項新技術在促進經濟社會發展的同時,也可能會引發從未有過的風險問題。毋庸置疑,生成式人工智能作為一項新的技術,亦會帶來一些新的社會挑戰和風險因素。總體來看,生成式人工智能對個人信息保護、網絡安全、數據跨境流動等帶來沖擊,對現有數據、算法、算力的治理范式提出挑戰。為了保障生成式人工智能的健康可持續發展,本文將從數據安全、算法安全以及內容安全三個層面,對生成式人工智能存在的風險類型進行全鏈條的梳理和反思。
(一)數據安全的風險
數據作為生成式人工智能的“原料”,是其運用和發展的基石[11]。因此,在梳理生成式人工智能的風險類型時,應當首先分析作為“原料”的數據是否存在安全風險。生成式人工智能引發的數據安全風險主要表現為侵害個人信息權益、造成行業壟斷甚至危害國家安全。
其一,侵害個人信息權益。生成式人工智能本身具備收集、儲存和使用個人信息的功能,包含有個人信息的數據可能會被竊取、過度收集或者不正當使用,從而侵害個人信息權益及隱私。首先,生成式人工智能對數據具有極強的依賴性,數據的質量決定了生成內容的質量和決策的質量。然而,這些數據大多來自于數據爬取,可能在用戶不知情的情況下,包含其個人信息的數據會被收集和處理,這不符合數據收集的授權—同意規則,同時也侵害了用戶的個人信息權益及隱私權。其次,當用戶在與生成式人工智能進行互動的過程中,可能會向其輸入含有個人信息或隱私的數據,這些數據會被生成式人工智能用來“訓練”,那么生成式人工智能輸出的內容中就可能包含用戶提供的個人信息或隱私。再次,生成式人工智能作為由大型科技公司開發的一項新興技術,可以被嵌入到相關平臺之中,然而,一些實力不強的平臺可能不具備與其面臨的數據安全風險相匹配的安全防護能力。如果含有用戶個人信息的平臺被黑客惡意攻擊,這不僅將會造成個人信息及隱私泄露的風險,而且還會對用戶的財產安全帶來風險隱憂。
其二,造成行業壟斷。作為一種大型語言模型,生成式人工智能最大的優勢在于能夠基于用戶的反饋給出答案,其可以被應用到搜索引擎、微博、電商平臺中。相對傳統的平臺而言,嵌入生成式人工智能的平臺也因其“聰明”引起用戶的廣泛青睞。由于散落在用戶手中的數據資源將再次被聚集到互聯網平臺中,極易導致互聯網行業形成壟斷,生成式人工智能亦會可能成為網絡集權的工具,從而導致互聯網平臺的“再中心化”成為可能[12]。互聯網寡頭通過對用戶的數據進行挖掘和處理,從而對用戶進行精準畫像,進而為用戶建立個體或集體檔案。在利益和權力的驅使下,互聯網寡頭可能對事實進行捏造,導致用戶在嵌入生成式人工智能平臺中獲取的是帶有價值導向信息。用戶難以搜索到客觀、中立的信息,可能導致真相掌握在少數人手中,社會公眾愈發難以識別謊言,間接剝奪了用戶的知情權,使用戶受困于“信息繭房”之中。
其三,侵犯國家安全。隨著數據在治理能力與治理體系中的地位越來越重要,利用深度挖掘后的數據來定義規則和標準已經成為現實,包括政府在內的主體也不得不利用私有資本控制的大數據分析結果來實現社會治理。生成式人工智能的推手主要是大型科技公司與私人資本,這些大型科技公司、私人資本將成為數字空間乃至社會空間隱形權力的主體[13]。這種權力隨著生成式人工智能的規模化應用,可能會向社會的公平正義提出挑戰。在生成式人工智能全球化應用的背景下,可以利用生成式人工智能技術獲取不同國家、不同地區的數據,尤其是在進行數據跨境流動時,將會對國家安全帶來風險。
(二)算法安全的風險
算法作為生成式人工智能的“框架指南”,是其硬實力的保障,算法在智能時代的重要性不言而喻。然而,當算法被大規模應用后,在無形中會給人類和社會帶來風險。這種風險具有一定的隱蔽性,典型的如“算法黑箱”。由于算法的不透明性、復雜性以及快速迭代,使得傳統法律的責任規制無法適應算法帶來的風險,這將會對整個社會帶來潛在危害。“黑箱”是社會發展歷史的基本特征,各類行業都存在一定程度的黑箱屬性[14]。算法運行過程復雜,不可控性更強,且難以人為干預,這使得它天然具備很強的黑箱屬性。如達納赫所言:“我們生活在一個算法時代,數據和計算機科學以強大的方式結合在一起,以算法來助推、偏向、引導、激發、控制、操縱和約束人類行為,從而影響、塑造、指引我們的行為和社會的治理”[15]。算法使用的計算機編程語言和法律的自然語言之間存在信息轉化的鴻溝,由此帶來當前社會算法黑箱的規制難題,其主要原因有以下三個方面。
其一,算法的不透明性。算法準確性的提高往往需要犧牲透明度[16],算法治理的一個明顯問題是總體缺乏透明度。用戶對它們如何利用知識影響我們以及它們做作的重要決策知之甚少,甚至一無所知,這是因為算法所做的決策隱藏在用戶無法輕易閱讀和理解的代碼后面。在算法治理或者通過代碼進行規制的語境中,我們始終面臨著“算法未知”的困境,這在機器學習和算法不斷迭代的復雜背景之下更加如此。其二,算法的不可理解性。當出現算法糾紛時,解讀計算機代碼變得至關重要。然而,計算機代碼的解讀過程非常復雜,即使在特定時間解讀了代碼的含義,未來也可能因代碼的持續迭代而變得不準確。這表明算法解釋的難度非常大,即使作出了解釋,也難以起到實質性的作用[17]。更復雜的還有大多數人工智能技術不僅只包含一種算法,而是包含有多重執行特定任務的算法。其三,算法的追責困難性。當前生成式人工智能正處于起步階段,算法作為企業發展的核心機密,企業出于對其自身利益的考慮,可能會選擇不予公開相關算法,這將對責任認定帶來極大的挑戰。
算法規制的法律常常運用算法備案或者算法公開的方式,使得算法本身更加公開透明和易于理解,從而有助于防控算法黑箱在具體場景下引發的風險,但是同樣面臨可欲性與可行性的障礙。由于生成式人工智能的迭代能力過強,導致侵權的類型范圍、場景與樣態更加多樣化,算法黑箱的規制難題在生成式人工智能技術領域有增無減,甚至被進一步放大,導致風險源頭更難識別、過程追溯更加困難。
(三)生成內容安全的風險
針對生成式人工智能生成內容的安全問題,本文主要從生成內容著作權歸屬不清與生成內容存在偏見兩個方面展開論述。
創作屬于智力活動,只有自然人才能完成,這是人類和動物的根本性區別。自然人具備作者身份,應當不存在爭議。從這個層面上來說,生成式人工智能不應當成為創作的主體。我國《著作權法》在特定情況下允許擬制法人或者非法人組織可以成為“作者”,但是生成式人工智能不是法律意義上的法人或者非法人組織,世界范圍內亦無相應國家立法或者國際條約明確賦予人工智能“作者”身份。因此,生成式人工智能本身不具備“作者”身份。但是,對于生成式人工智能生成內容的著作權歸屬問題以及其生成物能否稱為“作品”,值得進一步明確。
生成式人工智能生成的內容是由底層數據、生成模型與操作者指令共同完成的。底層數據、生成模型的構建依托科技公司強大的算力和算法。雖然操作者在交互界面上使用提問或指令的方式發出指示,但是這種指示本身能否具有著作權意義上的內容,也存在探究的必要性。生成內容涉及的三個主體分別是算法設計者、平臺和用戶,生成內容的著作權究竟應該歸屬于算法設計者、平臺抑或是使用者,需要予以界定。依據我國《著作權法》第三條的規定,著作權的指向對象為作品。僅從法律文本來看,我國現行知識產權法律體系均規定法律主體為享受權利、履行義務和承擔責任的自然人,著作權保護的邏輯是“作品—創作—作者”。從這個意義上來說,生成式人工智能生成內容不能成為“作品”,當然也難以得到《著作權法》的保護。這種觀點在2018年“北京菲林律師事務所訴百度公司案”的裁判結果中得到支持。該案法院認為,搜索軟件形成的文章不具有獨創性。①然而,在2020年“騰訊公司訴網貸之家網站轉載機器人自動撰寫的文章作品案”中,法院認為在滿足獨創性要求的情況下,人工智能撰寫的文章屬于著作權保護的范圍。②法律規則的模糊易出現司法裁判的不統一。生成式人工智能生成內容歸屬不清,不僅可能導致生成式人工智能創作的內容無法獲得著作權法的保護,阻礙人工智能技術發揮其創作價值,還可能因為生成式人工智能的海量撰寫行為稀釋既有作品權利人的獨創性,影響他人合法權益。
目前ChatGPT類生成式人工智能所挖掘的數據庫文本中英文語料占比高達92%,中文資料僅占比0.16%[18]。當生成式人工智能實現全球化應用后,在這種結構數據的“訓練”下,ChatGPT類生成式人工智能的“偏見”或者“歧視”也會越來越嚴重。長此以往,用戶基于主體意志的獨立思考和批判意識會被削弱,人類社會也會因自由意志迸發出的多樣性和創新性而隨之枯竭,這會對文化的多樣性及語言的豐富性造成沖擊,甚至動搖國家的意識形態。
生成式人工智能可以在短時間內生成大量的書面信息,可以用于信件、評論。如果被用來引起公眾輿論,煽動民眾情緒,將會對網絡治理甚至國家民主安全帶來嚴重的挑戰。例如,哈佛大學本科生使用生成程序提交1001條評論,回應政府就醫補助征求公眾意見[19]。一旦生成式人工智能被相關用戶用來瞄準相關事件,利用其生成速度快、傳播效率高的特點,將會以難以置信的速度在社會中引起較大的輿論影響。
三、生成式人工智能風險的治理方案
針對生成式人工智能的主要特征及風險類型,治理方案需要在有效規制生成式人工智能帶來的社會問題和營造寬松發展環境之間尋找平衡點。本文認為,對于生成式人工智能的治理方案,應當遵循全方位治理和系統化原則,推進多元主體協同共治,保障生成式人工智能朝著穩定、可預期的方向良性發展。
(一)構建全鏈條法律治理規則
目前,我國民法、刑法、行政法能夠在某種程度上對生成式人工智能進行分散治理,但尚未形成完善的法律體系。現有的法律規則無法妥善規制生成式人工智能引發的各類風險。過于寬泛而固定的人工智能立法模式,并不能適應潛在變革性強的立法框架,因此有必要構建一種敏捷性較高的治理規制[20]。這樣既可以維護用戶權益、防止生成式人工智能對社會的潛在危害,又可以規范生成式人工智能的健康發展。本文從數據安全保護、算法治理以及生成內容監管三個方面著手,構建生成式人工智能全鏈條的治理規則。
第一,強調對數據進行分類分級保護。生成式人工智能技術因其迭代能力強,無法適應固定的立法框架,因此應當根據生成式人工智能數據的具體使用場景進行分類分級治理。歐盟《通用數據保護條例》(GDPR)依據個人數據的敏感程度進行區別保護,同時也頒布了《非個人數據在歐盟境內自由流動框架條例》,總體來說將數據分為個人數據和非個人數據[21]。澳大利亞將個人數據分為一般數據和敏感數據[22]。我國《數據安全法》將數據分為一般數據和重要數據,《個人信息保護法》界定了敏感個人信息。基于此,本文認為應當根據應用場景對生成式人工智能數據進行分類,在具體的分類中再來探討數據分級保護制度。可以將生成式人工智能數據分為一般用戶數據、經濟組織數據、重要產業數據以及國家秘密數據。針對一般用戶數據,可以分為極度敏感數據、一般敏感數據、不敏感數據三個等級;針對經濟組織數據,可以分為重要數據和非重要數據兩個等級;針對重要產業數據,分為核心數據和非核心數據兩個等級;針對國家數據,可以分為可公開數據和不可公開數據兩個等級。
第二,加強對生成式人工智能算法的監管。算法技術專業性強、壁壘高,有必要設立專門的監管機構。可以考慮設立生成式人工智能辦公室[23],明確其職責,加強算法監管。由于網絡傳播速度快、范圍廣,算法帶來的后果往往十分嚴重。針對算法監管而言,事前防范就顯得十分重要,這有助于加強對算法本身的監管[24]。首先,要增強算法的透明度。歐盟立法者支持生成式人工智能的透明度和安全規則,要求基礎模型的提供者在將其模型投放市場之前,應當對數據治理措施和風險緩解措施進行安全檢查[25]。算法開發者應當履行信息披露義務,定期向社會公布選取訓練數據的來源,確保選取高質量的訓練數據。另外,還要通過可視化的方式向用戶展示算法運行特征、算法決策以及潛在的風險。其次,要加強對算法技術研發人員的職業倫理教育,確保研發人員設計的算法遵循道德標準和倫理準則。最后,生成式人工智能辦公室要根據算法潛在的風險等級,要求算法開發者進行自我備案或者向監管部門備案,同時還要履行算法變更和注銷手續。
第三,強化對生成式人工智能生成內容的審查。歐盟和美國均有相關立法實踐與審查措施[26]。2023年7月我國發布的《生成式人工智能服務管理辦法》第4條明確規定,提供和使用生成式人工智能服務,應當堅持社會主義核心價值觀。依據我國《互聯網信息服務深度合成管理規定》第17條的規定,深度合成服務提供者應當對生成內容進行標識。雖然該條款要求對生成內容進行標識,但是針對不同的應用場景以及用戶的個人行為,有些深度合成服務提供者會在實際操作過程中繞開這些限制,因此生成式人工智能生成內容的標識需要進一步提高。首先,需要配備人工過濾審核機制。針對不符合社會主義核心價值觀的內容,督促平臺履行停止傳輸義務;針對惡意發表煽動民眾的評論,要實行強制熔斷,并對相關用戶進行處罰。其次,實施辟謠機制和舉報機制,增強用戶參與治理的主動性,確保生成內容真實準確。再次,需要增強技術應用,確保生成式人工智能始終可控[27]。通過開發生成內容檢測技術來準確區分生成式人工智能生成的內容和人類創造的內容[28]。準確區分生成內容和人類創造內容是判定生成內容能否稱為“作品”的前提,若生成內容符合“作品”要件,生成內容的所有權應歸于用戶;若生成內容完全依賴平臺技術,則生成內容的所有權應歸于算法設計者或者平臺。
(二)塑造全方位平臺監管體系
生成式人工智能作為一項先進技術,可以應用到新聞傳播、網絡購物、移動社交、搜索引擎等下游場景中。在嵌入生成式人工智能后,Web3.0時代互聯網平臺的監管也變得尤為重要。在保障數據安全、算法安全、生成內容安全的基礎上,加強對平臺的監管有助于增強用戶對平臺的信任程度,為生成式人工智能的發展營造良好的商業環境,形成良好的正向循環,促進人工智能技術實現由弱人工智能向強人工智能的轉變。針對平臺監管,本文從構建平臺備案制度、實施守法激勵措施以及暢通投訴渠道三個方面展開。
第一,對嵌入生成式人工智能的平臺進行備案。對于快速發展的生成式人工智能而言,可能無法適應干預度較高的行政許可、行政處罰等規制手段,因此備案制度的構建必須以系統觀念全面協調、有機推進。應當針對不同領域設立不同的備案等級。針對教育、醫療等容錯率較低的行業,實施最高等級的備案制度;針對媒體、金融等傳播廣泛的行業,實行一般等級的備案制度;針對科技寫作、軟件開發等影響較小的行業,鼓勵其自愿備案。
第二,對嵌入生成式人工智能的平臺采取守法激勵措施[29]。守法激勵措施能夠在一定程度上提升主體的行動積極性。但是如果一味地依賴守法激勵措施,不僅會提升總體社會成本,而且也會對中小型企業的生存和發展帶來消極的影響。因此,應當針對不同類型的企業設置不同的義務和責任。在明晰義務和責任的前提下,設置不同的激勵方案,讓每個企業都能感受到激勵措施的效果。另外,還應當開展守法激勵方案的宣傳,讓企業充分了解激勵方案的優越性。
第三,暢通對嵌入生成式人工智能的投訴渠道。首先要創新服務平臺,拓寬投訴渠道。采取電話投訴、短信投訴、線上投訴等多種渠道的方式,確保信息暢通并及時將辦理情況反饋給用戶,保證用戶的投訴能夠得到及時回應。其次要簡化投訴流轉環節。為保障投訴的實效性,簡化投訴流轉環節,提高辦事效率,減少訴求的環節和層次,用戶針對平臺的違規行為能夠進行有效投訴。最后要建立督查制度,針對用戶投訴較多的平臺、重點難點問題進行分析排查,分析原因并制定解決措施。
(三)推進多元化協同共治秩序
2022年我國發布的《人工智能治理白皮書》指出,人工智能治理的重要特征之一是治理主體的多元化。通過多元主體共治的方式,不僅能夠匯聚多元主體的力量參與到生成式人工智能治理的過程中,而且還能夠有效平衡各方利益。對生成式人工智能多元主體共治的具體措施如下。
第一,社會公眾作為生成式人工智能的服務對象,應當鼓勵其參與到生成式人工的治理和監督之中。歐盟《人工智能法》中也提到要確保AI系統由人類監督。政府在生成式人工智能治理中發揮著主導性作用,通過建立專業的管理機構針對用戶定期開展生成式人工智能的宣講活動,讓公眾了解生成式人工智能的優勢和劣勢,學會辯證看待生成式人工智能技術,鼓勵公眾參與到生成式人工智能治理的整個流程之中。第二,企業作為生成式人工智能的開發者和擁有者,應當承擔相應的主體責任。生成式人工智能的研發企業應當以高標準進行自我約束,實現自律自治。科技人員作為生成式人工智能技術發展的重要力量,企業應當對科技人員開展科技倫理教育,創造科技向善的氛圍,使得科技人員能夠自覺擔負起社會責任。技術開發者相較于公眾而言,能夠判斷人工智能存在風險的可接受度,應當及時將潛在風險告知用戶[30]。相關企業應當聯合起來,成立生成式人工智能發展協會。一方面,不同企業能夠通過協會實現資源共享,促進整個行業的發展;另一方面,協會又可以提升企業的自我約束能力。第三,生成式人工智能的發展需要國際合作,需要借助政府、國際組織來加強國家之間的協作。不同國家之間生成式人工智能發展水平不一,質量層次不齊。政府、國際組織負有縮短國家間數字鴻溝,促進各國生成式人工智能健康、協作發展的使命,進而有助于豐富生成式人工智能的“學習資料”,減少生成式人工智能的“偏見”。
四、結語
生成式人工智能作為通用人工智能技術發展進步的重要標志,有助于加速社會的智能化進程。在生成式人工智能處于起步發展階段時,針對其所存在的風險進行合理規制,有助于促進生成式人工智能的健康發展,增強社會對技術的信任,避免其“曇花一現”。基于生成式人工智能的主要特征以及風險類型,生成式人工智能的治理應當遵循系統化原則,推進多元主體協同共治。在法律層面,強調對數據進行分級分類保護、加強對生成式人工智能算法的監管以及強化對生成式人工智能生成內容的審查。在平臺層面,對嵌入生成式人工智能的平臺進行備案、采取守法激勵措施以及暢通投訴渠道。在協同層面,要鼓勵社會公眾參與生成式人工的治理和監督,生成式人工智能研發企業應當以高標準進行自我約束,政府和國際組織要加強相互間的協作。
〔參 考 文 獻〕
[1]智通財經網.“互聯網之父”暢談網絡愿景:未來可能人手一位ChatGPT式助理[EB/OL].https://www.zhitongcaijing.com/content/detail/878404.html. 2023-2-17/2023-5-16.
[2]張絨. 生成式人工智能技術對教育領域的影響——關于ChatGPT的專訪[J].電化教育研究, 2023(02): 5-14.
[3]Van Dis E A M, Bollen J, Zuidema W, et al. ChatGPT: Five priorities for Research[N].Nature,2023-2-09.
[4]中國通信研究院. 人工智能生成內容白皮書[R].2022.China Academy of Information and Comm-
unications Technology.
[5]王文玉. 元宇宙的主要特征、社會風險與治理方案[J]. 科學學研究, 2022(11):1-14.
[6]楊曉雷. 人工智能治理研究[M].北京:北京大學出版社,2022:35.
[7]Hacker, Philipp. A legal framework for AI training data—from first principles to the Artificial Intelligence Act[J]. Law, Innovation and Technology, 2021(2):257-301.
[8]Chao Ning Zhang,Chen Shuang Zhang,Cheng Hao Li,et al. One Small Step for Generative AI, One Giant Leap for AGI: A Complete Survey on ChatGPT in AIGC Era [EB/OL]. https://doi.org/10.48550/arXiv.
2304.06488. 2023-4-4/2023-5-16.
[9]Shattuck,Christopher C. ChatGPT Artificial Intelligence: Will It Replace Lawyers and Legal Staff?[J]. Wisconsin Lawyer, 2023(2): 41-49.
[10]Chris Smith, ChatGPT has the fastest user growth of any app in history[EB/OL]. https://bgr.com/tech/chatgpt-has-the-fastest-user-growth-of-any-app-in-history/.2023-02-02/2023-5-16.
[11]林偉.人工智能數據安全風險及應對[J].情報雜志,2022(10):105-111.
[12]陳全真.生成式人工智能與平臺權利的再中心化[J]. 東方法學,2023(03):61-71.
[13]袁曾.生成式人工智能的責任能力研究[J]. 東方法學,2023(05):18-33.
[14]余成峰.從馬的法律到黑箱之法[J]. 讀書,2019(03):18-27.
[15]伊格納斯·卡爾波卡斯. 算法治理:后人類時代的政治與法律[M]. 上海:上海人民出版社, 2022:57.
[16]Peter Margulies. Surveillance By Algorithm:The NSA,Computerized Intelligence Collection and Human Rights[M]. Social Science Electronic Publishing, 2016:1054.
[17]Edwards Lilian & Veale Michael. Slave to the Algorithm Whya'Right to an Ex-planation’is Probably Not the Remedy You are Looking for[J]. International Duke Law & Technology Review, 2017(16):18-84.
[18]GitHub. Dataset of GPT-3[EB/OL].https://github.com/openai/gpt-3/blob/master/dataset_statistics/languages_by_character_count.csv. 2020-01-02/2023-4-15.
[19]Bruce Schneier. How ChatGPT Hijacks Demcory[EB/OL].https://www.hks.harvard.edu/centers/mrcbg/programs/growthpolicy/how-chatgpt-hijacks-democracy.2023-01-15/2023-05-20.
[20]Walter G.Johnson, Diana M.Bowman. A Survey of Instruments and Institutions Available for the Global Governance of Artificial Intelligence[J]. IEEE Technology and Society Magazine,2021(40):68-76.
[21]Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC [EB/OL].https://eur-lex.europa.eu/eli/reg/2016/679/oj.2016-04-27/2023-02-20.
[22]Parliament of Australia.The Privacy Act1988[EB/OL].https://www.legislation.gov.au/Details/C2014C
00076. 2014-03-12/2023-03-20.
[23]European Parliament. Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts.[EB/OL].https://eur-lex.europa.eu/legal-content/EN/TXT/uri=CELEX:52021PC0206. 2021-04
-21/2023- 03-20.
[24]羅杰·布朗斯沃德. 法律3.0——規則、規制和技術[M]. 北京:北京大學出版社,2023:48.
[25]Kimia Morgan, EU lawmakers back transparency and safety rules for generative AI [EB/OL]. https://www.technewsholding.com/2023/05/11/eu-lawmakers-back-transparency-and-safety-rules-for-generative-ai.2023-5-12/2023-05-16.
[26]石婧,常禹雨,祝夢迪. 人工智能“深度偽造”的治理模式比較研究[J]. 電子政務,2022(05):69-79.
[27]Matthijs M. Maas. How Viable Is International Arms Control for Military Artificial Intelligence Three Lessons from Nuclear Weapons[J]. Contemporary Security Policy, 2019(3): 285-311.
[28]Alessandro Pegoraro, Kavita Kumari,Hossein Fereidooni et al. To ChatGPT, or not to ChatGPT: That is the question![EB/OL]. https://arxiv.org/abs/2304.01487. 2023-04-05/2023-5-10.
[29]張欣. 人工智能時代的算法治理:機制與方案[M]. 北京:法律出版社,2022:147.
[30] Johann Laux,Sandra Wachter, Brent Mittelatadt,Trust artifical intelligence and the European Uninon AI act: On the conflation of trustworthiness and acceptability of risk[R], Regulation&Governance, 2022.
〔責任編輯:侯慶海,周浩〕