鄭 曦,朱溯蓉
(北京外國語大學(xué)法學(xué)院,北京 100089)
2022年11月,美國OpenAI公司發(fā)布了名為“ChatGPT”的聊天機器人程序。較之以往的人工智能,ChatGPT 能夠理解和學(xué)習(xí)人類的語言進行對話,并根據(jù)上下文進行互動,真正做到像人類一樣交流,甚至能完成撰寫郵件、視頻腳本、文案、翻譯、代碼等任務(wù)。以ChatGPT為代表的新一代人工智能,即生成式人工智能(Generative AI),不同于過去的以分類和回歸為目標(biāo)任務(wù)的人工智能,是一種可以創(chuàng)建各種數(shù)據(jù),例如,圖像、視頻、音頻、文本和3D 模型的人工智能系統(tǒng)[1]。
生成式人工智能在實現(xiàn)其潛在創(chuàng)造力的同時,也滋生出諸多風(fēng)險和問題。例如,部分用戶表示ChatGPT 的生成內(nèi)容存在虛假性,還有用戶表示ChatGPT 存在對個人數(shù)據(jù)進行非法編造與錯誤加工的情況。為了維護社會秩序,保障公民權(quán)利和安全,2023年7月,國家互聯(lián)網(wǎng)信息辦公室聯(lián)合七部門發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,旨在對生成式人工智能服務(wù)展開全方位的綜合治理。與此同時,一些外國政府、組織也在積極尋找治理生成式人工智能的可行方案。例如,歐盟隱私監(jiān)管機構(gòu)創(chuàng)建ChatGPT工作組,準(zhǔn)備邁出生成式人工智能政策制定的第一步。
此外,國內(nèi)外關(guān)于生成式人工智能的相關(guān)學(xué)術(shù)研究也正如火如荼地開展。國內(nèi)相關(guān)法律研究呈現(xiàn)出明顯的分段性。第一階段,2017 年至2022 年上半年,該階段的研究較單一且集中,重點探討人工智能生成物的知識產(chǎn)權(quán)問題:一方面,討論人工智能生成的內(nèi)容在著作權(quán)法中的定位,以及對著作權(quán)法的沖擊;另一方面,探究生成式人工智能給專利制度帶來的挑戰(zhàn),以及專利法應(yīng)該如何修正以應(yīng)對該種沖擊。第二階段為2022年下半年至今,相關(guān)研究呈現(xiàn)出“百花齊放”的態(tài)勢,涵蓋生成式人工智能風(fēng)險規(guī)制、類案裁判、數(shù)據(jù)和內(nèi)容安全、責(zé)任承擔(dān)、倫理道德等方面。國外學(xué)理研究則圍繞以ChatGPT 為代表的“新一代”生成式人工智能,分析該類人工智能的風(fēng)險類別、級別,探討其對訴訟律師的影響,以及相關(guān)的版權(quán)問題、侵權(quán)責(zé)任追究等。
盡管關(guān)于生成式人工智能的法律規(guī)制研究逐漸增多,但仍存在研究深度和廣度不均衡、實踐指導(dǎo)不足、缺乏案例和數(shù)據(jù)支撐等問題,造成整體研究暴露出前瞻性過度、現(xiàn)實性關(guān)注不足的缺陷。因此,本文在充分考慮生成式人工智能風(fēng)險現(xiàn)實化和緊迫性的基礎(chǔ)上,深入剖析其中存在的數(shù)據(jù)、隱私、技術(shù)壟斷和知識產(chǎn)權(quán)糾紛等問題,并提出相應(yīng)的治理策略。通過對這些問題的細致探究,提供更全面、實用的指導(dǎo)和解決方案,以應(yīng)對生成式人工智能帶來的風(fēng)險。
新一代生成式人工智能的生成機制可以概括為以下三個階段:預(yù)訓(xùn)練、微調(diào),以及強化學(xué)習(xí)。以ChatGPT為例[2],預(yù)訓(xùn)練階段的核心任務(wù)是“學(xué)會說話”,即利用自回歸等無監(jiān)督訓(xùn)練策略,對模型進行海量無標(biāo)注數(shù)據(jù)的喂養(yǎng),使其學(xué)習(xí)到數(shù)據(jù)本身蘊含的豐富的語言知識,實現(xiàn)文本續(xù)寫功能。通過這樣的訓(xùn)練,模型學(xué)會了人類語言文本的組織規(guī)律。微調(diào)階段旨在實現(xiàn)“含義理解”,即利用人工標(biāo)注的數(shù)據(jù)集進行有監(jiān)督訓(xùn)練,引導(dǎo)人工智能向人類期望的方向作答。強化學(xué)習(xí)階段進行“反饋優(yōu)化”,首先,收集對比數(shù)據(jù)并訓(xùn)練獎勵模型(獎勵模型是一個符合人類評價標(biāo)準(zhǔn)的模型);其次,利用獎勵模型不斷迭代優(yōu)化自身輸出結(jié)果。通過對生成式人工智能底層邏輯的簡單分析,其所帶來的現(xiàn)實且緊迫的風(fēng)險與挑戰(zhàn)主要包括以下三類:
第一,生成式人工智能在數(shù)據(jù)收集和標(biāo)注過程中存在風(fēng)險。一方面,訓(xùn)練數(shù)據(jù)來源不均衡,且標(biāo)注數(shù)據(jù)可能存在偏差。這種情況下,生成式人工智能算法可能會學(xué)習(xí)到人類偏差,最終損害生成式人工智能模型在種族、性別、年齡、語言、職業(yè)、地理等方面的公平性。例如,ChatGPT 的訓(xùn)練數(shù)據(jù)集96%來自英語文本[2],這可能導(dǎo)致在響應(yīng)其他語種指令時存在潛在的意識形態(tài)偏差。此外,用戶與有偏見的生成式人工智能進行交互可能會感到被冒犯或受到傷害。例如,如果用于訓(xùn)練文本生成模型的數(shù)據(jù)集主要針對男性,此時數(shù)據(jù)集缺乏多樣性,其生成文本可能會表現(xiàn)出對女性的偏見和排斥。這樣的輸出可能會進一步加劇性別不平等、侵害女性權(quán)益。另一方面,生成式人工智能通常需要大量的訓(xùn)練數(shù)據(jù),而這些數(shù)據(jù)集可能包含未經(jīng)授權(quán)的數(shù)據(jù),例如,通過爬蟲等方式從互聯(lián)網(wǎng)上獲取的信息,而未經(jīng)授權(quán)的網(wǎng)絡(luò)爬取行為可能違反《中華人民共和國網(wǎng)絡(luò)安全法》中關(guān)于網(wǎng)絡(luò)安全運行和網(wǎng)絡(luò)信息安全的相關(guān)規(guī)定。
第二,生成式人工智能在運行和使用過程中存在數(shù)據(jù)濫用和泄漏風(fēng)險。根據(jù)生成式人工智能的運行機制,不難推知,其會利用交互信息進行迭代學(xué)習(xí),以不斷提升和優(yōu)化性能。首先,對個人信息而言,根據(jù)《中華人民共和國個人信息保護法》(下文簡稱個人信息保護法)的規(guī)定,個人信息處理者在符合特定情形時方可處理個人信息,但期望生成式人工智能服務(wù)提供者在處理個人信息之前均取得個人同意幾乎是不現(xiàn)實的,知情同意原則無法有效遏制個人數(shù)據(jù)被濫用的風(fēng)險。其次,潛在的犯罪分子能夠以相對較低的成本收集用戶信息,再利用上述信息實施犯罪。再次,人們可能會在與生成式人工智能交互中不經(jīng)意透漏商業(yè)信息,甚至是商業(yè)秘密。最后,生成式人工智能與搜索引擎的集成式開發(fā)模式將會加劇數(shù)據(jù)濫用風(fēng)險。以New Bing為例,New Bing是ChatGPT與搜索引擎融合后的生成式人工智能,它引入了新的搜索范式,從單純的搜索任務(wù)轉(zhuǎn)變成搜索與生成式任務(wù)相結(jié)合的運行模式。在該種模式下,盡管搜索結(jié)果的準(zhǔn)確性和相關(guān)性方面得到了突破式進展,但也增加了個人信息被濫用的風(fēng)險,因為該種運行機制下使用者更容易獲取他人的公開信息。
第三,生成內(nèi)容的可信度存在偏差。盡管生成式人工智能的生成能力取得了顯著的進步,但其在生成完全準(zhǔn)確、真實和可靠信息方面的能力依舊存疑。除此之外,利用生成式人工智能編造虛假信息牟取個人利益的行為也頻頻發(fā)生。例如,在最近偵破的“洪某弟利用科技手段編造虛假謠言信息,并在互聯(lián)網(wǎng)大肆散布”一案中,嫌疑人便是利用了ChatGPT編造虛假信息。
生成式人工智能在交互過程中存在隱私泄漏風(fēng)險。生成式人工智能在交互過程中,可以收集用戶的歷史對話和多模態(tài)意圖,這些信息不僅能供其自身學(xué)習(xí)和訓(xùn)練,還可能被用于預(yù)測用戶的偏好,繪制個人資料等,由此可能侵害個人隱私。此外,在交互過程中,利用生成式人工智能的“弱點”來套取隱私信息的現(xiàn)象也十分嚴(yán)峻。開發(fā)者在部署生成式人工智能模型之前,通常會制定嚴(yán)格的規(guī)則,以防止有害內(nèi)容的產(chǎn)生和抵御隱私泄漏的風(fēng)險,但通過“角色扮演”“提示攻擊”和“反面提問”等方式能夠欺騙生成式人工智能泄漏敏感信息,甚至執(zhí)行未經(jīng)授權(quán)的命令[3]。
生成式人工智能在數(shù)據(jù)收集過程中可能會損害個人隱私。生成式人工智能依賴大規(guī)模數(shù)據(jù)集的喂養(yǎng),數(shù)據(jù)來源包括且不限于互聯(lián)網(wǎng)、第三方機構(gòu)和個人用戶。與傳統(tǒng)的人工智能模型相比,生成式人工智能模型在訓(xùn)練和部署階段的隱私威脅更加嚴(yán)峻。一方面,生成式人工智能為了提供高質(zhì)量的輸出,通常需要用戶提供多樣態(tài)的輸入數(shù)據(jù),這些數(shù)據(jù)很可能是私密且敏感的。另一方面,互聯(lián)網(wǎng)上留存的公開信息可能存在記錄不準(zhǔn)確,更新不及時,以及內(nèi)容涉密等問題。
鑒于生成式人工智能的記憶屬性,個人隱私威脅問題變得更加突出。最先進的語言模型(Language Model,LM),其參數(shù)可擴展到數(shù)萬億個,并且需要在大型文本語料庫上進行預(yù)訓(xùn)練,預(yù)訓(xùn)練得到的模型胚子需要利用特定領(lǐng)域的數(shù)據(jù)集進行微調(diào)以適應(yīng)下游任務(wù)。在訓(xùn)練過程中生成式人工智能便將上述數(shù)據(jù)留在“記憶深處”,給允許使用敏感數(shù)據(jù)用于模型訓(xùn)練的數(shù)據(jù)所有者帶來了潛在的隱私威脅。例如,人們可以通過與原始數(shù)據(jù)相關(guān)聯(lián)的數(shù)據(jù)反推獲得生成式人工智能記憶中的隱私數(shù)據(jù)和敏感數(shù)據(jù)。此外,生成式人工智能模型具有保留或記憶訓(xùn)練數(shù)據(jù)信息的能力,導(dǎo)致敏感數(shù)據(jù)所有者無法有效行使數(shù)據(jù)刪除權(quán)、被遺忘權(quán)等權(quán)利。
生成式人工智能可能引發(fā)技術(shù)壟斷風(fēng)險。美國《謝爾曼法》規(guī)定,某公司擁有相關(guān)市場的高份額,并且其在相當(dāng)長的一段時間內(nèi)為其他企業(yè)進入該市場設(shè)置壁壘,則推斷該企業(yè)具有壟斷能力。具有壟斷能力的企業(yè),不僅擁有顯著的市場份額,而且處于高市場壁壘之內(nèi),該類企業(yè)通常具有較高的壟斷風(fēng)險[4]。生成式人工智能的研發(fā)通常需要海量的訓(xùn)練樣本和強大的計算能力,而這種投入不僅需要雄厚的經(jīng)濟實力,更需要堅實的市場支配力和較強的科技實力,因此生成式人工智能的研發(fā)領(lǐng)域極易出現(xiàn)技術(shù)壟斷風(fēng)險。技術(shù)壟斷是指在一定空間時間范圍內(nèi)對某些技術(shù)完全占有并享有壟斷收益的狀態(tài)。技術(shù)壟斷風(fēng)險則指單個占主導(dǎo)地位的公司或組織利用其市場力量來控制和操縱技術(shù)生產(chǎn)和分配的可能性[5]。以ChatGPT 的開發(fā)為例,OpenAI 公司自成立之初就以GPT 語言模型為研發(fā)中心,但模型性能一直表現(xiàn)不佳。直到2019年,獲得微軟(Microsoft)的投資與合作后,其GPT語言模型如獲新生,此后發(fā)布的GPT-2、3、3.5和GPT-4在準(zhǔn)確性和交互性上取得了顯著的優(yōu)化。2023年,微軟將ChatGPT分別融入搜索引擎必應(yīng)和操作系統(tǒng)windows,開發(fā)了New Bing 和Copilot 等生成式人工智能應(yīng)用。微軟逐漸在生成式人工智能領(lǐng)域占據(jù)市場優(yōu)勢地位。一方面,微軟自身具有充裕的資金和技術(shù)實力,相關(guān)市場份額占比極高;另一方面,微軟擁有ChatGPT 的所有接口,可能會為其他企業(yè)開發(fā)相關(guān)的生成式人工智能設(shè)置市場壁壘。此外,這種壟斷還將滋生個人隱私風(fēng)險和數(shù)據(jù)安全風(fēng)險。因為,任何一家以研發(fā)生成式人工智能為目標(biāo)的企業(yè),一旦占據(jù)市場主導(dǎo)地位,也將獲得對大量數(shù)據(jù)的集中控制權(quán)。
生成式人工智能在文本創(chuàng)作、圖像設(shè)計、視聽資料編輯等領(lǐng)域中表現(xiàn)突出,對現(xiàn)有的知識產(chǎn)權(quán)法律體系帶來了挑戰(zhàn)。在數(shù)據(jù)收集階段,存在侵犯著作權(quán)、商標(biāo)權(quán)等知識產(chǎn)權(quán)糾紛,如前文所述,不再贅述。此外,隨著大型人工智能生成模型的研發(fā),人工智能生成內(nèi)容的知識產(chǎn)權(quán)歸屬面臨新的法律挑戰(zhàn)。生成內(nèi)容通常由預(yù)先存在的數(shù)據(jù)和新的創(chuàng)意元素混合而成,但這兩者的界限十分模糊,法律界對究竟應(yīng)該由誰擁有人工智能生成內(nèi)容的知識產(chǎn)權(quán)存在爭議。美國版權(quán)局曾于20世紀(jì)末提出一項開創(chuàng)性的舉措,就是出版由計算機“創(chuàng)作”的“作品”,并且將Racter 登記為《The Policeman’s Beard is Halfconstructed》的作者[6]。與此相反,北京互聯(lián)網(wǎng)法院審理的“北京菲林律師事務(wù)所訴北京百度網(wǎng)訊科技有限公司侵害作品著作權(quán)”一案中,該案判決認(rèn)為由計算機軟件生成的內(nèi)容不能構(gòu)成作品,計算機軟件研發(fā)者和軟件使用者均不能以作者身份進行署名。
由此可見,盡管生成式人工智能構(gòu)建了更高智能化的學(xué)習(xí)模型,但同時也引發(fā)了更多的社會風(fēng)險和法律挑戰(zhàn)。
生成式人工智能具備相當(dāng)?shù)膭?chuàng)造力、顯著的效率和生產(chǎn)力,但其也滋生出諸多社會風(fēng)險和法律問題。為了維護社會秩序,保障公民權(quán)利和安全,國內(nèi)外有關(guān)部門在監(jiān)管層面都對其予以高度重視,并通過一系列的法案規(guī)制其可能滋生的風(fēng)險。
生成式人工智能在全球范圍內(nèi)急速升溫的同時,包括OpenAI 首席執(zhí)行官薩姆·奧爾特曼(Sam Altman)在內(nèi)的多位人工智能科學(xué)家都對生成式人工智能可能存在巨大的社會風(fēng)險和法律風(fēng)險表示擔(dān)憂,關(guān)于生成式人工智能監(jiān)管的討論在世界各地陸續(xù)開展。
歐盟一直十分關(guān)注人工智能領(lǐng)域的治理活動。面對生成式人工智能的問世,一方面,歐盟成員國積極采取執(zhí)法措施應(yīng)對已經(jīng)暴露的現(xiàn)實風(fēng)險;另一方面,歐盟也在積極推進相關(guān)立法工作,以期集思廣益,制定切實有效的監(jiān)管規(guī)定。例如,2023年6月,歐洲議會通過的《人工智能法案》(AI Act)指出,像GPT這樣的生成基礎(chǔ)模型必須遵守額外的透明度要求,以防止其生成非法內(nèi)容。此外,法案還規(guī)定,在生成式人工智能服務(wù)的數(shù)據(jù)獲取方面,必須遵守版權(quán)保護等相關(guān)法律要求的摘要[7]。
美國聯(lián)邦現(xiàn)行立法和行政文件,大多是關(guān)于人工智能治理的,而非針對生成式人工智能的規(guī)定,且以自愿性、建議性為基調(diào)。例如,美國商務(wù)部下設(shè)的國家遠程通信和信息管理局(NTIA)在2023年4月發(fā)布了一項關(guān)于人工智能的征求意見稿(AI Accountability Policy Request for Comment),征求意見通知中指出,“推動可信賴的人工智能”一直是聯(lián)邦的一項重要目標(biāo),其期望在征求意見的基礎(chǔ)上,起草并發(fā)布一份關(guān)于人工智能問責(zé)政策的報告,以構(gòu)建一個人工智能保障的生態(tài)系統(tǒng)[8]。
澳大利亞政府宣布建立負(fù)責(zé)任的人工智能網(wǎng)絡(luò),以應(yīng)對包括ChatGPT 和Bard 在內(nèi)的聊天機器人帶來的危害[9]。韓國國會科學(xué)、信息通信技術(shù)、廣播和通信委員會2023年2月通過了一項擬議立法,旨在制定《人工智能產(chǎn)業(yè)促進法和建立可信賴人工智能的框架》,該法案為建立人工智能道德準(zhǔn)則提供了法定基礎(chǔ)[10]。加拿大隱私專員辦公室對生成式人工智能(GAI)對隱私權(quán)造成的影響展開調(diào)查,懷疑其未經(jīng)同意收集、使用和披露個人信息[11]。
近年來,我國積極推進人工智能領(lǐng)域的相關(guān)立法工作,形成了多層級、多維度、軟法和硬法相結(jié)合的綜合治理體系。
當(dāng)前我國對生成式人工智能的監(jiān)管,宏觀上有國家政策、人工智能白皮書、國標(biāo)及團體標(biāo)準(zhǔn)等引領(lǐng)和指導(dǎo)生成式人工智能健康發(fā)展。如國務(wù)院2017年7月8日發(fā)布的《新一代人工智能發(fā)展規(guī)劃》、國家新一代人工智能治理專業(yè)委員會2019年6月17日發(fā)布的《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》等相關(guān)文件,為推進人工智能健康發(fā)展,確保人工智能安全可靠可控,推動經(jīng)濟、社會及生態(tài)可持續(xù)發(fā)展提供了有力支撐。2022 年6 月30 日由中國電子工業(yè)標(biāo)準(zhǔn)化協(xié)會正式發(fā)布的《人工智能深度合成圖像系統(tǒng)技術(shù)規(guī)范》確立了深度合成圖像(含視頻)系統(tǒng)的框架、技術(shù)要求等內(nèi)容,該標(biāo)準(zhǔn)可有效規(guī)范深度合成圖像系統(tǒng)的功能和性能,有助于推動計算機視覺領(lǐng)域發(fā)展的可靠性、安全性和規(guī)范性。
微觀上,從中央到地方,涵蓋算法、數(shù)據(jù)、深度合成、生成式人工智能等多維度的法律法規(guī),具有中國特色的生成式人工智能治理體系已經(jīng)初具規(guī)模。國家層面,2019年,由國家互聯(lián)網(wǎng)信息辦公室聯(lián)合其他部門發(fā)布的《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》中要求網(wǎng)絡(luò)音視頻服務(wù)提供者對使用者利用音視頻生成技術(shù)制作、發(fā)布、傳播謠言的,應(yīng)及時采取相應(yīng)的辟謠措施。同年,國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《網(wǎng)絡(luò)信息生態(tài)治理規(guī)定》規(guī)定網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者、網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺不得利用網(wǎng)絡(luò)和相關(guān)信息技術(shù)實施侮辱、誹謗、威脅、散布謠言以及侵犯他人隱私等違法行為,損害他人合法權(quán)益。2021年通過的《中華人民共和國個人信息保護法》《中華人民共和國數(shù)據(jù)安全保護法》用于規(guī)范和約束相關(guān)技術(shù)收集、分析、儲存和使用個人信息與數(shù)據(jù)。同年,互聯(lián)網(wǎng)信息辦公室聯(lián)合其他部門發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(下文簡稱《管理規(guī)定》)中明確要求利用生成合成類等算法向用戶提供信息應(yīng)該遵守本法的相關(guān)規(guī)定。2022 年國家互聯(lián)網(wǎng)信息辦公室等部門聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(下文簡稱《深度合成管理規(guī)定》),對生成服務(wù)的數(shù)據(jù)收集和技術(shù)管理方面提出明確要求。2023 年7 月,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》(下文簡稱《辦法》),針對生成式人工智能展開全面治理。地方層面,2022 年9 月,上海市人大常委會發(fā)布了《上海市促進人工智能產(chǎn)業(yè)發(fā)展條例》,2022年9月,深圳市發(fā)布了我國首部人工智能產(chǎn)業(yè)專項立法《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》(2022 年11 月1 日起施行),標(biāo)志著各地區(qū)開始積極探索具有地域特色的人工智能治理方案。
近年來,我國發(fā)布了一系列有關(guān)人工智能治理的規(guī)范,甚至在特定類型和應(yīng)用的治理上領(lǐng)先于其他國家,但總體上看,目前的監(jiān)管體系仍存在諸多漏洞與不足。
“垂直”傾向的治理策略,導(dǎo)致監(jiān)管主體過多,難以形成治理生成式人工智能風(fēng)險的合力。世界范圍內(nèi)治理人工智能的策略大致分為兩類:水平治理和垂直治理。水平治理即橫向方法,是由監(jiān)管機構(gòu)制定一項法規(guī),涵蓋人工智能可能產(chǎn)生的多種影響,通過該法案實現(xiàn)全面治理。典型的如歐盟制定的《人工智能法案》(AI Act)。垂直治理即縱向辦法,是由政策制定者針對不同類型的人工智能應(yīng)用和產(chǎn)品制定不同的法規(guī)[12]。我國的規(guī)制體系總體上是“垂直”傾向的,特定領(lǐng)域特殊立法。雖然“垂直”立法能夠確保人工智能立法的專業(yè)性,有效減輕不同人工智能技術(shù)和應(yīng)用造成的特定危害,但“垂直”立法不僅成本過高,而且可能會削弱監(jiān)管合力。一方面,過多主體參與治理,增加了立法、執(zhí)法機構(gòu)之間的協(xié)調(diào)難度。另一方面,不同主體基于不同的利益驅(qū)動,監(jiān)管中可能存在競爭與互相推諉的情形。
迭代式的立法模式下,縱橫交錯的法律規(guī)范之間可能存在一定程度的沖突與抵牾,導(dǎo)致生成式人工智能治理的有效性和適當(dāng)性大打折扣。迭代式的立法模式[13]是指,當(dāng)我們發(fā)現(xiàn)一項現(xiàn)行的法律規(guī)范不能有效應(yīng)對新生的人工智能產(chǎn)品時,就通過發(fā)布新的法規(guī)來填補規(guī)則漏洞或擴大規(guī)制范疇,如通過《辦法》對《深度合成管理規(guī)定》進行填補和擴展。但是,迭代式立法可能會導(dǎo)致適用主體和規(guī)制對象混亂。例如,《辦法》和《深度合成管理規(guī)定》的規(guī)制對象在范圍上存在交叉和重疊,均包含利用算法生成文本、圖片和聲音等內(nèi)容的技術(shù),可能導(dǎo)致被監(jiān)管主體承擔(dān)過重的義務(wù)。
在具體的治理規(guī)范上,現(xiàn)行立法存在治理規(guī)則粗疏、規(guī)范效力不足、實踐性受限等問題,無法有效應(yīng)對生成式人工智能治理中存在的數(shù)據(jù)偏差、隱私泄漏等風(fēng)險。首先,相關(guān)治理規(guī)則粗疏,缺乏可行性。例如,根據(jù)《管理規(guī)定》的相關(guān)要求,相關(guān)主體應(yīng)該通過備案系統(tǒng)履行備案手續(xù)。通過2022年2月網(wǎng)信辦發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng)使用手冊》可知算法備案系統(tǒng)要求算法備案填報人員填寫算法基礎(chǔ)屬性信息、算法詳細屬性信息,包括算法數(shù)據(jù)、算法模型、算法策略和算法風(fēng)險與防范機制等信息。但上述填報信息過于寬泛和宏觀,缺乏實踐性。其次,相關(guān)規(guī)范效力位階較低、雜亂無章,導(dǎo)致執(zhí)法約束力受限。當(dāng)前我國治理生成式人工智能發(fā)展的相關(guān)規(guī)范多由政府某一部門或多個部門聯(lián)合頒布,效力層級較低,缺乏法律強制力保障。最后,治理規(guī)則與實踐中的治理行為不匹配,相關(guān)規(guī)則的有效性減弱。例如,《辦法》中要求用于生成式人工智能產(chǎn)品的預(yù)訓(xùn)練、優(yōu)化訓(xùn)練數(shù)據(jù),應(yīng)滿足真實性、準(zhǔn)確性、客觀性要求,但這對于從數(shù)百萬網(wǎng)站抓取大量文本和圖像進行訓(xùn)練的大語言模型來說,幾乎是不可能達到的要求。又如,我國個人信息保護法和《辦法》中均要求在使用個人數(shù)據(jù)時應(yīng)征得相應(yīng)主體的同意,但要求相關(guān)企業(yè)每次使用個人數(shù)據(jù)之前均履行“知情-同意”義務(wù),一方面,會大大增加相關(guān)企業(yè)的開發(fā)成本;另一方面,由于以ChatGPT為代表的生成式人工智能通常是間接獲取相關(guān)數(shù)據(jù)進行訓(xùn)練的,“知情-同意”原則最終只會淪為空中樓閣和紙上談兵,不能得到有效的貫徹和實行。
欲防止應(yīng)用生成式人工智能時滋生數(shù)據(jù)合規(guī)、隱私侵害和知識產(chǎn)權(quán)糾紛等風(fēng)險,需對其予以必要的規(guī)制。盡管我國已有一些規(guī)制生成式人工智能的法律規(guī)范,但存在監(jiān)管主體錯亂、規(guī)范效力不足等問題,導(dǎo)致立法預(yù)期與實踐效果存在較大差異,需增強相關(guān)規(guī)范的實踐性,進一步協(xié)調(diào)生成式人工智能可持續(xù)發(fā)展與社會公共利益之間的關(guān)系。
在對生成式人工智能所引發(fā)的諸多風(fēng)險確立具體的規(guī)制路徑之前,有必要明晰基本的規(guī)制理念與原則,以指導(dǎo)具體歸責(zé)方案的設(shè)計。
首先,秉持風(fēng)險預(yù)防原則,利用風(fēng)險規(guī)制手段應(yīng)對生成式人工智能可能引發(fā)的法律和社會風(fēng)險。現(xiàn)階段生成式人工智能已經(jīng)暴露出內(nèi)容不真實、侵害個人隱私等問題,但生成式技術(shù)的發(fā)展日新月異,法律規(guī)制手段存在一定滯后性,為有效解決生成式人工智能可能帶來的風(fēng)險,在治理理念上應(yīng)采納“預(yù)防勝于治愈”的風(fēng)險預(yù)防原則。風(fēng)險預(yù)防原則要求政府對“科學(xué)上尚不確定”的問題保持特殊注意,即允許行政機關(guān)在面對不確定性風(fēng)險的時候,不能把缺乏充分的科學(xué)肯定性作為推遲采取措施的理由[14]。風(fēng)險規(guī)制手段是典型的針對未知進行決策的管理手段[15],在風(fēng)險規(guī)制的過程中也并非是靜態(tài)的線性的應(yīng)對,還要分析成本與收益之間的關(guān)系,以及規(guī)制實施過程中可能遇到的次生風(fēng)險。生成式人工智能的出現(xiàn)一定程度上改變了人類的生活方式,但由于生成式模型的參數(shù)規(guī)模和層數(shù)“爆炸式”激增,其不可解釋性愈發(fā)明顯,生成式人工智能風(fēng)險呈現(xiàn)出不確定性、多樣性與復(fù)合性。因此,在應(yīng)對生成式人工智能風(fēng)險時,應(yīng)該將“預(yù)防先行”的理念貫穿于生成式技術(shù)研發(fā)、應(yīng)用和生產(chǎn)的各個環(huán)節(jié),將風(fēng)險預(yù)防原則作為基本原則,發(fā)揮其指導(dǎo)和統(tǒng)帥作用。此外,通過風(fēng)險規(guī)制手段,即利用風(fēng)險評估和風(fēng)險管理方法,輔之以風(fēng)險信息交流工具,達成對生成式人工智能風(fēng)險的有效預(yù)防和遏制。風(fēng)險評估旨在對生成式人工智能可能造成的負(fù)面影響進行評估和分析,了解該風(fēng)險可能帶來的后果。通過定性或定量分析生成式技術(shù)風(fēng)險,明確該技術(shù)納入規(guī)制日程的必要性和及時性,并為相關(guān)主體采取處置手段或措施、制定相關(guān)標(biāo)準(zhǔn)提供科學(xué)依據(jù)[16]。風(fēng)險管理是在對生成式技術(shù)進行科學(xué)評估的基礎(chǔ)上選擇恰當(dāng)規(guī)制手段并予以執(zhí)行的活動。前者是對生成式技術(shù)風(fēng)險轉(zhuǎn)化為實質(zhì)危害的概率性、嚴(yán)重性的科學(xué)調(diào)查行為,后者是在考量經(jīng)濟、政治、社會等因素基礎(chǔ)上通過民主參與程序,按照民主政治和基本權(quán)利保護原則來決定干預(yù)措施[17]175。風(fēng)險信息交流工具則是為了保障管理活動兼具科學(xué)與民主,即通過有效的信息交流,一方面,使公眾了解生成式人工智能存在一定的風(fēng)險,應(yīng)謹(jǐn)慎使用,但也不必過分恐懼;另一方面,通過該程序獲得有效的公眾意見,作為規(guī)制機構(gòu)做出決策的考量因素,彌補專家知識和公眾認(rèn)知之間的信息鴻溝[18]213。
其次,防止過度干預(yù),實現(xiàn)生成式技術(shù)發(fā)展與公共利益保護之間的動態(tài)平衡。經(jīng)濟學(xué)視野下,回避風(fēng)險就意味著喪失了承擔(dān)風(fēng)險時所應(yīng)獲得的利潤[19]。限制生成式人工智能發(fā)展,能夠保障個人權(quán)益和社會公益,但同時可能會犧牲部分個體的自由權(quán),甚至打擊開發(fā)人員的積極性,因此明確干預(yù)手段的邊界顯得尤為重要。為盡可能減少對基本權(quán)利的限制,管理措施的啟動應(yīng)該符合比例原則。比例原則下轄三性:妥當(dāng)性、必要性和比例性[20]。妥當(dāng)性要求相關(guān)主體在對生成式人工智能采取約束措施時,應(yīng)該充分解釋治理目的具有正當(dāng)性,并且說服相對人接受相關(guān)措施。必要性要求相關(guān)主體在選擇約束措施時,優(yōu)先選擇對相對人權(quán)益損害較小的或較溫和的監(jiān)管措施。比例性要求相關(guān)主體在對生成式技術(shù)實施監(jiān)管過程中所采取的手段和期望實現(xiàn)的目的符合比例。將比例原則作為干預(yù)的邊界,不僅能夠有效約束生成式技術(shù)帶來的風(fēng)險,而且有助于實現(xiàn)技術(shù)發(fā)展和權(quán)利保障之間的協(xié)調(diào)。
再次,應(yīng)當(dāng)要求生成式人工智能技術(shù)的開發(fā)和使用遵守一定的倫理和道德準(zhǔn)則,實現(xiàn)技術(shù)向善。其一,應(yīng)當(dāng)要求生成式人工智能的開發(fā)遵守公平公正的倫理準(zhǔn)則。生成式人工智能的開發(fā)依賴海量數(shù)據(jù)集,大批多樣化的數(shù)據(jù)盡管可能是對現(xiàn)實世界的準(zhǔn)確描述,但是數(shù)據(jù)驅(qū)動決策的過程中,數(shù)據(jù)集中的偏見可能會隨著時間的推移而被強化,因此,要求生成式模型的開發(fā)者盡可能地評估數(shù)據(jù)偏見及其影響,減少偏見因子,確保技術(shù)中立就尤為重要。其二,應(yīng)當(dāng)要求生成式技術(shù)的無害性。2016年歐洲議會綠色數(shù)字工作組的《機器人和人工智能的位置》(Position on Robotics and Artificial Intelligence)[21]中的第一原則即“無害”,其規(guī)定“機器人應(yīng)該作為朋友、助手和伙伴來服從人類,不應(yīng)該傷害人類”,因此應(yīng)當(dāng)要求生成式技術(shù)的開發(fā)也以人為本,服務(wù)于人類。此外,無害原則中還蘊含著對安全的呼吁,要求人工智能技術(shù)不得造成無意傷害,不得惡意攻擊人類。其三,應(yīng)當(dāng)要求相關(guān)企業(yè)負(fù)責(zé)任地開發(fā)生成式人工智能。聯(lián)合國教科文組織提倡,人工智能行為者和會員國應(yīng)根據(jù)國家法律和國際法,以及會員國承擔(dān)的人權(quán)保障義務(wù),確保人工智能系統(tǒng)的整個生命周期都符合倫理準(zhǔn)則。具體而言,會員國應(yīng)該尊重、保護和促進人權(quán)和基本自由,促進對環(huán)境和生態(tài)系統(tǒng)的保護,同時,承擔(dān)各自的倫理和法律責(zé)任。生成式人工智能技術(shù)作為人工智能技術(shù)的分支,其發(fā)展自然也應(yīng)秉持負(fù)責(zé)任、合法、真實和可審計的態(tài)度。其四,應(yīng)當(dāng)要求生成式人工智能的發(fā)展有助于實現(xiàn)“團結(jié)”。聯(lián)合國項目事務(wù)廳(UNOPS)、世界衛(wèi)生組織(WHO)等政府間組織或微軟等私營公司都在強調(diào)利用人工智能技術(shù)維護人類團結(jié),其強調(diào)人工智能的發(fā)展絕不能威脅到現(xiàn)存的道德、情感和人際關(guān)系,而應(yīng)該致力于促進和睦關(guān)系的發(fā)展,促進人機合作,減少脆弱性和孤立性。
盡管我國現(xiàn)行的法律法規(guī)在規(guī)制生成式人工智能風(fēng)險過程中起到了一定的積極作用,但現(xiàn)有立法策略之下,具象化和現(xiàn)實化問題應(yīng)對仍舊存在不足,下文就生成式人工智能風(fēng)險的應(yīng)對提供具體的規(guī)制路徑。
第一,治理策略上突破“垂直迭代式”的立法模式。根據(jù)上文所述,我國傾向于垂直迭代立法,通過新立法應(yīng)對新生人工智能。有學(xué)者已經(jīng)對該種模式治理的必要性提出質(zhì)疑,認(rèn)為“新風(fēng)險治理之必要”欠缺理論支撐,盡管生成式技術(shù)產(chǎn)生了新型的社會治理風(fēng)險,但是這些新風(fēng)險本質(zhì)上并沒有徹底改變既有的法律關(guān)系,同樣也沒有突破現(xiàn)有法律規(guī)范的調(diào)整范圍,通過新立法回應(yīng)新風(fēng)險欠缺必要性和邏輯性[22]。生成式人工智能歸根究底隸屬于人工智能范疇,其開發(fā)流程均包含數(shù)據(jù)處理、模型設(shè)計、訓(xùn)練優(yōu)化、評估驗證、測試調(diào)整和部署實施階段,均存在數(shù)據(jù)、隱私、知識產(chǎn)權(quán)等風(fēng)險,風(fēng)險類型并沒有實質(zhì)性差異,只是風(fēng)險等級發(fā)生了變化。《辦法》將生成式人工智能作為獨立的、新型的風(fēng)險類別進行治理欠缺邏輯自洽性。對比歐盟地區(qū)采用的“且試且走”“先治理后規(guī)范”,穩(wěn)步推動監(jiān)管的水平治理為主的立法策略,我國所采取的重“垂直”、輕“水平”的立法模式不利于維護法律的穩(wěn)定性和權(quán)威性。因此,在規(guī)制生成式人工智能等新型人工智能產(chǎn)品和服務(wù)帶來的風(fēng)險時,首先,可利用現(xiàn)有法律法規(guī)對已經(jīng)暴露的風(fēng)險采取及時、妥當(dāng)?shù)谋O(jiān)管措施,防止危害進一步擴大。其次,科學(xué)評估新型人工智能產(chǎn)品和服務(wù)與原有的人工智能之間的風(fēng)險類別差異、風(fēng)險等級差異,分析是否存在立法的必要性。具體而言,只有當(dāng)新風(fēng)險徹底改變既有法律關(guān)系,突破原有規(guī)范調(diào)整范圍時才具備立法的充分且必要條件。最后,基于現(xiàn)有的人工智能治理規(guī)范,醞釀一部綜合性的人工智能法案。
第二,強化生成式人工智能治理機構(gòu)之間的協(xié)調(diào)性和能動性,建立多元有序的規(guī)制體系。《管理規(guī)定》、《深度合成管理規(guī)定》和《辦法》作為生成式人工智能治理的三個基本準(zhǔn)則,共同為生成式技術(shù)的發(fā)展保駕護航,但是碎片化治理導(dǎo)致資源分散、部門之間互相推諉、溝通不暢等問題時有發(fā)生,協(xié)調(diào)聯(lián)合行動難以展開,在尚未制定一部統(tǒng)一的人工智能法之前,可以通過科學(xué)劃分權(quán)力,集中統(tǒng)籌管理,加強部門協(xié)作緩和治理困局。首先,明確網(wǎng)絡(luò)信息辦公室在生成式人工智能風(fēng)險治理中的核心地位,確保其能夠高效地開展指揮、調(diào)配和統(tǒng)籌工作。其次,加強對部門內(nèi)工作人員的專業(yè)素養(yǎng)培訓(xùn),確保其制定的規(guī)范、采取的措施具有實踐性和有效性。最后,厘清網(wǎng)絡(luò)信息辦公室、公安部等參與治理的其他主體在生成式人工智能治理各個環(huán)節(jié)中的職能邊界,加強部門協(xié)作,建立部門聯(lián)動機制。
第三,加強對生成式服務(wù)提供者使用個人數(shù)據(jù)的監(jiān)管,賦予數(shù)據(jù)主體必要的數(shù)據(jù)權(quán)利。《辦法》中規(guī)定,生成式人工智能在處理數(shù)據(jù)時,涉及個人信息的,應(yīng)當(dāng)取得個人同意或者符合法律、行政法規(guī)規(guī)定的其他情形;換言之,生成式人工智能收集和使用個人數(shù)據(jù)以取得個人單獨同意為原則。根據(jù)上文所述,要求生成式服務(wù)提供者嚴(yán)格遵守“知情-同意”原則是不現(xiàn)實的,不妨通過強制記錄義務(wù),加強保密措施、泄密后的及時處置措施,加強對生成式服務(wù)提供者的監(jiān)管。首先,生成式服務(wù)提供者在獲取網(wǎng)站、應(yīng)用程序等第三方平臺上留存的個人數(shù)據(jù)時,應(yīng)當(dāng)將讀取記錄和與第三方簽訂的數(shù)據(jù)提供服務(wù)協(xié)議儲存下來,并備案。其次,生成式服務(wù)提供者應(yīng)該加強數(shù)據(jù)流轉(zhuǎn)和處理過程中的數(shù)據(jù)保密措施,要求其以必要的手段防止數(shù)據(jù)泄漏。最后,生成式服務(wù)提供者一旦發(fā)現(xiàn)數(shù)據(jù)泄漏,應(yīng)及時通知數(shù)據(jù)監(jiān)管機構(gòu),告知數(shù)據(jù)當(dāng)事人,并修復(fù)相關(guān)漏洞,盡可能減少損失。此外,可通過強調(diào)對個人數(shù)據(jù)權(quán)利的保障來防止生成式服務(wù)提供者濫用個人數(shù)據(jù)。首先,賦予生成式服務(wù)使用者數(shù)據(jù)訪問權(quán)。我國個人信息保護法規(guī)定,個人有權(quán)向個人信息處理者查閱、復(fù)制其個人信息,因此,使用者應(yīng)該享有數(shù)據(jù)訪問權(quán),以知悉其個人數(shù)據(jù)的使用情況。其次,生成式服務(wù)提供者間接獲取的數(shù)據(jù)可能是陳舊的、不準(zhǔn)確的,應(yīng)該賦予使用者更正和補充個人信息的權(quán)利,防止數(shù)據(jù)被誤用。最后,當(dāng)發(fā)生數(shù)據(jù)泄漏等事件時,生成式服務(wù)使用者享有知情權(quán),即使用者有權(quán)知曉數(shù)據(jù)被竊取,以及被何人竊取等訊息。
第四,在現(xiàn)有法律體系下,保護人工智能生成物,應(yīng)對新型侵權(quán)糾紛。首先,肯定人工智能生成物應(yīng)受相關(guān)法律保護。其次,現(xiàn)階段,可以參照我國著作權(quán)法保護人工智能生成物。如,有學(xué)者主張參照著作權(quán)法上關(guān)于職務(wù)作品或雇傭作品的相關(guān)規(guī)定,將創(chuàng)作過程中真正實施人工干預(yù)、人為編排或創(chuàng)制該算法的人認(rèn)定為作者[23]。再如,英國1988年《版權(quán)、外觀設(shè)計和專利法案》中規(guī)定,“如果是計算機生成的文學(xué)、戲劇、音樂或藝術(shù)作品,那么應(yīng)將為創(chuàng)作作品做出安排的人視為作者”[24],該條所指計算機生成內(nèi)容(Computer-Generated Works)是指在沒有人類作者的情況下由計算機完成的內(nèi)容。最后,通過著作權(quán)許可使用的相關(guān)規(guī)定,限制生成式服務(wù)提供者使用他人享有著作權(quán)的作品進行深度學(xué)習(xí)。