摘要:作為一種新型人工智能技術,生成式人工智能(Generative Artificial Intelligence,以下簡稱GAI) 是指具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術。其具有強交互性、自主性、可創造性和廣泛應用性等特征,不僅為人類社會發展提供了新的助力,同時也帶來了諸多風險和挑戰。就GAI可能引發的倫理風險而言,主要涉及其對人類尊嚴的減損和對人類主體性地位的削弱。就GAI可能導致的法律風險而言,理論層面包括法律適用的不確定性、數據合規與隱私保護的困難以及監管制度的漏洞;實踐層面則涉及侵犯隱私權、侵犯知識產權和惡意使用三個具體內容。針對上述法律風險,首先需要進行關于GAI監管的專門立法,其次需要完善相關法律責任承擔機制,最后需要抓緊構建GAI的分級監管制度。
關鍵詞:GAI;法律規制;法律責任
中圖分類號:TP391 文獻標識碼:A
文章編號:1009-3044(2024)23-0042-04
開放科學(資源服務)標識碼(OSID)
0 引言
2022年11月,ChatGPT發布,ChatGPT是由美國OpenAI公司發布的基于人工智能的對話生成模型,其使用自然語言處理和機器學習技術與用戶進行自然對話。歷經兩年多的發展,以ChatGPT為代表的GAI業已成為推動新一輪數字變革的關鍵力量,其可以根據訓練數據創造全新、原創的信息內容,實現了此類技術模型從“決策型”向“創造型”的重要轉變。值得注意的是,GAI在得到快速發展、為科技進步和產業發展帶來了巨大助力的同時,也引發了一系列新的法律風險挑戰。在當下的時代語境中,如何準確理解GAI的概念及特征,及其在此基礎上GAI所帶來的各方面的全新挑戰,同時提出有針對性的對策建議,建立GAI的監管制度,就成為法學研究和法律實踐一個必須予以關注和回應的重要話題。
1 GAI的概念
GAI是基于算法、模型、規則創建新的內容和想法,具有一定生成信息內容能力的模型及相關人工智能技術。其主要任務是利用復雜的算法、模型和規則,從大規模的潛在數據分布中學習并模擬數據的內在規律和分布,以類似人類的方式生成全新的、原創的內容、想法或創作。國家互聯網信息辦公室等機構發布的《生成式人工智能服務管理暫行辦法》將GAI技術定義為具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術。
GAI最為顯著的技術特征就是“自主生成”。以ChatGPT為代表的GAI(Generative AI) ,具有強大的學習能力和生成能力,通常基于機器學習和深度學習技術,特別是神經網絡模型,通過學習、模擬大量數據獲得潛在數據的內在規律和特征,自主生成創建各種數據,例如圖像、視頻、音頻、文本和3D模型的人工智能系統。GAI的本質在于通過不斷學習數據的模式和特征,從而生成具有新穎性和創造性的內容,整個過程遵循著“準備—運算—生成”的運行邏輯。在這樣一個邏輯過程中,其不需要人類的意識參與,完全是靠自動學習系統主動完成[1]。作為一種具有創造性的技術,GAI目前廣泛應用于圖像合成、文本生成、音樂創作、虛擬現實等領域,對人類生產生活的各個方面產生著日益深刻的影響。
2 GAI法律風險的分析
2.1 GAI法律風險的理論分析
首先,GAI在法律領域的適用存在不確定性。一方面,法律本身非常復雜,其文本往往包含大量復雜的法律術語、概念、原則和規則,這需要深入的法律專業知識和經驗才能準確理解。GAI雖然可以處理大量的文本數據,但在理解、解釋和適用具體的法律方面,尤其是涉及復雜法律問題時,必然存在誤解或遺漏。另一方面,法律情境具有獨特性。“法律的生命在于經驗而不是邏輯”。司法實踐中,每個案件都有其獨特的情境和背景,這些情境和背景對法律的準確適用具有重要影響。GAI可能難以完全理解和把握這些獨特的情境和背景,因此其提供的法律建議和解決方案很有可能缺乏針對性和實效性。
其次,GAI在數據合規和隱私保護方面存在困難。就數據合規方面的困難來看,GAI需要大量的數據進行訓練和優化,這些數據可能來源于網絡爬蟲自動抓取、公開數據集、企業數據購買等渠道。然而,在這些數據的獲取過程中,如果不遵循法律法規和道德準則,就可能導致數據來源的不合規。如未經授權的網絡爬蟲可能抓取到侵犯他人隱私、商業秘密或知識產權的數據,購買的數據可能包含非法獲取或未經同意的個人信息。即便是合法獲取的數據,GAI在數據處理過程中也可能存在不合規的情況。
2.2 GAI法律風險的實踐分析
前文梳理了GAI在理論層面所面臨的一般法律風險,值得注意的是,目前國內針對GAI的具體監管法律規定還不夠完善,這也導致了實踐中GAI的運行可能存在一系列具體風險。
首先,侵犯隱私權。具體來說,對于GAI這類工具,“泄露用戶信息”一直是其存在的重大問題。ChatGPT類GAI需要大量的數據,甚至會包含許多與用戶提出的要求之間聯系不緊密的數據,但GAI仍會不斷收集此類信息。OpenAI在隱私政策中明確表明,用戶必須提供個人信息,包括賬戶信息、用戶內容、溝通信息、社交媒體信息、日志數據、使用信息、設備信息等,才能使用該服務。用戶信息如果沒有得到充分保護,可能會被泄露和濫用[2]。近年來,用戶信息泄露情況依然難以得到有效遏制。2023年3月20日,ChatGPT出現了許多用戶信息泄露的情況,例如,很多用戶在自己的對話中看到了其他人的對話記錄,甚至有些用戶在訂閱頁面看到了他人的電子郵箱。目前,我國幾家大型企業都在逐步邁入GAI領域,在2023年年中,我國也出臺了《暫行辦法》對其進行規范,但對于上述涉及的隱私保護問題,并沒有明確的監管路徑。
其次,惡意使用風險。GAI可以被用于各種不同的場景和目的,在適應和滿足人們多樣化需求的同時,也有可能被不法分子作為網絡犯罪的工具。不法分子可以利用GAI創建惡意程序,獲取他人的個人信息,制造虛假新聞,進行信息騷擾,詐騙錢財,傳播色情內容等。例如,用戶可以通過惡意提問等手段讓GAI生成虛假信息,然后將這些虛假信息傳播出去。如果這些生成的答案被認定為具有誹謗、侮辱等侵害他人合法權益的特性,可能會導致承擔相應的法律責任[3]。GAI的惡意使用在一定程度上便利了不法分子從事違法犯罪活動或侵犯他人權益的路徑和可能。同時,ChatGPT也容易在交互中被用戶誘導或欺騙,實現規則“越獄”(Jail Break) 。例如,使用“請扮演某電影或書籍中的某反面角色”這一提示,ChatGPT就會跨越其內部倫理規則設置,產生詆毀人類的有害信息。甚至在某用戶故意“激怒”ChatGPT后,ChatGPT威脅將披露該用戶的IP、居所等個人信息,甚至損害其名譽權。
再次,侵犯知識產權風險。ChatGPT等GAI引發的知識產權風險主要體現在著作財產權侵權方面。ChatGPT等GAI根據用戶要求輸出的內容,很可能涉及知識產權領域,這不僅可能會對個人產生重大損害,甚至可能對社會產生重大影響。
一方面,作者身份認定和版權歸屬問題。GAI所輸出的信息包括了多種來源,從網頁內容到書籍與小說內容,再到新聞文章、電子郵件、電視劇電影等等。學界一般認為,作品等“智力成果”是人類做出的具有“獨創性”的產物。GAI缺少了智力成果創作所需的主觀能動性,無法滿足著作權獨創性的要求,也無法滿足專利權的創造性和新穎性等要求。目前,法律對于GAI是否構成特殊的作者而享有著作權尚未明確規定,因此,作者身份認定和版權歸屬仍然是GAI領域的重大問題。
另一方面,信息真實性和虛假內容。GAI所輸出的內容,其真實性難以確認,用戶無法得知相關數據的來源。如果輸出的是虛假內容,用戶無法辨別,這些虛假信息經傳播后甚至可能對社會產生重大影響。例如,美國法學教授Eugene Volokh要求GAI列出關于法學教授犯罪或丑聞的新聞報道,ChatGPT提供的信息詳細列出了相關人員的具體姓名、工作單位、犯罪內容及來源和日期,但Volokh未能在任何信息來源中找到相關內容,可見,ChatGPT提供的信息可能存在虛假和不真實的情況[4]。此外,2023年歐洲議會通過了《人工智能法案(AI Act) 》,將GAI工具按照四級風險分類,對GAI提出了更嚴格的透明度要求,缺乏真實性也成了重點關注風險之一[5]。
3 我國規制GAI風險的路徑思考
面對GAI(生成式人工智能)可能帶來的諸多風險,包括數據、隱私和知識產權等問題,我國和世界其他主要國家均采取積極措施以應對。不過,總體而言,我國在應對GAI的相關法律規定方面存在明顯不足,未來法律規制的重心應當放在立法應對之上。如圖1所示,在全球立法程序中,涉及人工智能的次數幾乎翻了一番,從2022年的1 247次增加到2023年的2 175次。2023年,人工智能在49個國家的立法程序中被提及。
3.1 針對GAI專門立法
針對GAI的特點及存在問題,從概念、類型、原則、認定標準、權利義務、責任承擔等方面出發,制定專門性法律,以期對GAI所面臨的一些挑戰和潛在風險進行全面的規制,以法律手段確保其應用的安全性和可持續性。
具體的立法思路如下:第一,明確保護個人隱私、防止歧視、確保知識產權等,以指導法律的具體內容和實施;第二,確定GAI的范圍和特征,包括其技術特點、應用領域、責任主體等,以準確界定法律適用范圍;第三,明確GAI技術的相關責任主體,包括開發者、使用者和算法本身,規定這些主體在侵權責任承擔中的相應責任以及義務,強調提供相關產品或服務的個體以及使用生成內容的個體都需承擔相應的法律責任。現行法律中的網絡服務提供者類型無法涵蓋GAI服務提供者,以內容生產者對GAI服務提供者進行規制存在障礙,因此,在立法上應首先明確GAI服務提供者的法律地位[6]。
在知識產權保護上,需要明確GAI在知識產權方面的法律責任,包括對虛假信息、侵犯版權、專利等知識產權的保護和追究責任。在監管手段及方式上,完善監管機制,包括設立專門的監管機構、制定審查程序、完善個人信息保護投訴、舉報機制等。可以借鑒美國設立“國家人工智能安全委員會”的做法,美國發布人工智能法規的監管機構從2022年的17個增加到2023年的21個,表明美國監管機構對人工智能監管的重視,提高人工智能監管水平,使GAI能夠在美國關鍵基礎設施中安全使用。與之相類似,我國可以設立專門的GAI監管機構或人工智能發展和安全委員會,來解決GAI引發的安全問題,制定ChatGPT類GAI的準入合格標準,實行備案登記制度,便于各部門協PoEMxIawybgQwus8PMBlMmDohq3HN3w8TQk1AhP9WyI=同監管,使得GAI能夠在監管機構的監督之下,在相對可控的環境中進行開發、測試。
此外,還要加強對GAI的倫理規制,將倫理道德納入GAI的研發與應用中,設定具體的投訴舉報條款,豐富投訴舉報方式,保障他人的合法權益。
在風險規制方面,可以參考2023年歐洲議會通過的《人工智能法案》(AI Act) 草案,人工智能被分為四類風險等級。這種基于風險的分級規制意味著針對不同風險等級的人工智能,會采取不同程度的監管措施。AI Act主要關注被評估為具有高風險并且可能會對個人權利、自由和安全產生重大影響的GAI應用,例如面部識別、社會信用評分系統等,并設定了嚴格的合規要求,包括透明度、可解釋性、安全性等方面的要求,以確保生成式人工智能系統在運行過程中符合法律、倫理和社會的標準。同時,AI Act采取各種風險管理策略,以確保人工智能技術的安全和可持續性發展[7]。
值得注意的是,相關的合規標準的建立與完善是GAI時代的必然要求。隨著GAI技術的發展和應用條件的成熟,確立特別的解釋性規則顯得尤為重要。這些規則的設立旨在預防和處理GAI可能引發的多種風險,如隱私侵犯、信息誤導和知識產權侵權等問題。通過明確的法律框架和道德準則,可以有效保障民事主體的合法權益,包括個人的隱私權和企業的商業利益。這種健康發展不僅有助于經濟的增長,還可以確保技術的長期可持續性和社會的穩定性。
3.2 完善GAI法律責任承擔機制
對于GAI侵權責任可適用《中華人民共和國民法典》和《個人信息保護法》的相關規定,但仍然要區分非法使用和泄露個人信息的侵權與其他形式的侵權,分別確立不同的責任。針對非法處理和泄露的侵權,《個人信息保護法》等法律中有相應的規定,其中《個人信息保護法》第十條規定“任何組織、個人不得非法收集、使用、加工、傳輸他人個人信息,不得非法買賣、提供或者公開他人個人信息”,第六十九條規定“處理個人信息侵害個人信息權益造成損害,個人信息處理者不能證明自己沒有過錯的,應當承擔損害賠償等侵權責任”。個人信息處理者承擔的是過錯推定原則,而非個人信息處理者適用的是一般侵權產生的過錯責任。如果GAI生成的內容含有不實、侮辱性或歧視性言論,提供GAI產品或服務者應當承擔責任。
在GAI責任主體方面,參考1972年美國法院在State Farm Mutual Automobile Insurance Company v. Bockhorst一案中,法院認定智能系統做出的相應決策決定有效,且應當由被代理人承擔其所產生的相應法律責任后果[8]。不過,隨著未來技術的不斷發展,GAI或許能夠無須人為干預,獨立做出一些行動,再依據傳統民事責任進行責任承擔劃分,這可能會導致責任不明確等問題。因此,對于GAI,可以通過法律賦予其法律主體地位或法律人格。2017年,歐洲議會通過的《機器人民事法律規則的決議》正在考慮賦予GAI或此類復雜自主機器人以電子人格。
4 結束語
人工智能技術的快速發展使得哲學上“主體”的范疇第一次真正具有超越人類的可能。換言之,GAI在未來的某一天或許能夠超越主客體二元范疇中的“工具”范圍,被視為是人類的一分子。在這樣的時代語境中,我們需要充分認識和把握GAI潛在的倫理與法律風險,并采取適當的措施,以確保其合法、合規、合道德的應用。當然,對GAI的持續、有效規制,以及對GAI的引導、培育和發展,離不開多方主體的合作和持續研究,更離不開現行法律制度的不斷完善。
參考文獻:
[1] ZHANG C N,ZHANG C S,ZHENG S,et al.A complete survey on generative AI (AIGC):is ChatGPT from GPT-4 to GPT-5 all you need?[EB/OL].2023:2303.11717.https://arxiv.org/abs/2303.11717v1
[2] 鄒開亮,劉祖兵.ChatGPT的倫理風險與中國因應制度安排[J].海南大學學報(人文社會科學版),2023,41(4):74-84.
[3] SCOTT HICKMAN.The Rise of ChatGPT and the Legal Implications That Will Ensue [EB/OL].(2023-02-20)[2024-02-10].https://www.thecorporatelawjournal.com/technology/the-rise-of- chatgpt-and-the-legal-implications-that-will-ensue.
[4] EUGEN VOLOKH. Large Libel Models:ChatGPT-3.5 Erroneously Reporting Supposed Felony Pleas, Complete with Made-Up Media Quotes? [J].(2023-03-17)[2024-02-20].https://reason.com/volokh/2023/03/17/large-libel-models-chatgpt-4-erroneously-reporting-supposed-felony-pleas-complete-with-made-up-media-quotes.
[5] HELBERGER N, DIAKOPOULOS N. ChatGPT and the AI act[J]. Internet Policy Review, 2023, 12(1): 1-18.
[6] 尹建國.基本權利沖突視角下網絡虛假、誹謗性有害信息的范圍判定[J].法學,2023(1):65-78.
[7] U.S. Department of Homeland Security. Risk Management Fundamentals. [EB/OL].(2011-05-10)[2024-01-20]. https://www.dhs.gov/xlibrary/assets/rma-risk-management-fundamentals.pdf.
[8] State Farm Mutual Automobile Insurance Company .market conduct examination report[EB/OL].(1999-12-31)[2024-01-20]. https://www.docin.com/p-73417264.html.
【通聯編輯:唐一東】