999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

類ChatGPT生成式人工智能的運行機制、法律風險與規制路徑

2024-05-08 00:00:00楊建武羅飛燕
行政與法 2024年4期
關鍵詞:人工智能模型

摘" " " 要:生成式人工智能通過“準備-運算-生成”的運行模式為人們提供了創造性和高效的內容生成工具,深刻改變了創作、溝通和信息傳播方式。但其在給人們帶來便利的同時也帶來了一系列的法律風險,如在準備階段出現了數據安全和算法偏見風險等問題,在運算階段存在隱私泄露和網絡侵權、欺詐風險等問題,在生成階段引發了版權及版權歸屬不明和商業秘密泄露及其導致的不正當競爭等問題。對于以上法律風險問題,需要以安全負責和科技向善為著眼點,選擇相對應的法律規制路徑,這有助于平衡技術創新與社會穩定之間的關系,保障公眾權益。

關" 鍵" 詞:生成式人工智能;ChatGPT;法律風險;規制路徑

中圖分類號:D9;TP18" " "文獻標識碼:A" " "文章編號:1007-8207(2024)04-0101-15

引" 言

2022年美國公司Open AI推出生成式人工智能ChatGPT,甫一問世迅速引起世界關注和熱議,將生成式人工智能推上新高度。以ChatGPT為代表的生成式人工智能,正實現從前沿技術研發到商業化轉型的關鍵過程,大規模預訓練模型如GPT-3和GPT-4表現出驚人的語言理解和生成能力。這些技術被廣泛用于文本生成、自動化寫作、虛擬助手等應用,推動人類經濟社會生活的互動交融,為社會發展創造了新機遇。雖然生成式人工智能帶來了革命性影響,但也引發了數據安全、算法偏見和知識產權等領域的法律風險。著眼于安全負責和科技向善,提出相對應的規制路徑,有助于促進生成式人工智能技術的健康發展,使其在正確道路上為人類生產生活服務。筆者以ChatGPT為例,通過分析生成式人工智能的發展、本質與運行機制,并以其引發的法律風險為出發點,探討可行的法律規制路徑,期望在促進創新與規制風險之間找到平衡點。

一、生成式人工智能的演化圖景與運行機制

(一)生成式人工智能的演化圖景

生成式人工智能源于1956年達特茅斯會議提出的“人工智能”概念。近年來,Open AI公司運用深度學習和自然語言處理等技術,逐漸提高了AI生成和對話質量方面的能力,進而開發和推廣出一種語言模型,名為ChatGPT。與以往的人工智能技術相比,ChatGPT類技術的走紅是因為在大規模語言模型與生成式人工智能架構的共同作用下,其技術性能發生了質的躍升。而ChatGPT所具有的“大規模語言模型(LLMs)”也意味著在深度合成領域該技術已取得了很大技術進步。[1]以ChatGPT為代表的生成式人工智能以其強大的可擴展性、可遷移性和創造性,有望成為一種真正意義上的新型基礎設施,并向政治、經濟、法律等領域滲透,以潛移默化的方式重新塑造社會結構與治理模式。[2]具體來看,生成式人工智能的發展大致經歷了以下四個發展階段(見圖1)。

⒈早期探索階段。生成式人工智能的起源可追溯至20世紀中葉,藝術家和科學家試圖使用計算機生成藝術作品的嘗試。此階段,研究人員主要關注利用計算機模擬人類的創造性過程,但由于計算能力和算法的限制,進展有限。

⒉統計生成模型階段。20世紀90年代至21世紀初,得益于電子信息技術的發展,生成式人工智能取得了重要的突破。此階段,研究人員開始關注基于統計建模的生成模型,如隱馬爾可夫模型和貝葉斯網絡。這些模型能夠通過學習數據的分布來生成新樣本,如IBM開發的Deep Blue系統。但受限于模型復雜度和計算資源等原因,生成式人工智能仍未引起社會關注。

⒊深度學習時代。深度學習的興起為生成式人工智能發展提供了契機,深度神經網絡因更強大的表達能力和泛化能力為生成式人工智能找到了發展密鑰。同時,生成式對抗網絡在圖像生成、文本生成等領域取得了重大進展,并引起了廣泛的關注和研究,成為該時期最重要的突破之一。

⒋模型改進和擴展階段。隨著技術的不斷發展,生成式人工智能的模型不斷改進和擴展。其中一項重要進展是注意力機制的引入,如Transformer模型在自然語言處理任務中取得了顯著突破。[3]此外,大規模預訓練語言模型(如GPT模型)和變分自編碼器(VAEs)等技術開啟了大規模語言模型新時代,極大拓展了生成式人工智能的應用范圍。在圖像生成方面,樣式遷移技術(如CycleGAN和StyleGAN)能夠將圖像轉換到不同的風格和領域。在自然語言處理領域,生成模型在文本生成、機器翻譯和對話系統等任務中表現出色。此外,生成式人工智能還在音樂、設計和藝術創作等領域展現了潛力。ChatGPT之所以被認為是生成式人工智能最先進的產物,是因其具備卓越的自然理解語言和生成能力,且融合了大規模的預訓練技術和自動對話生成能力,能夠理解并響應各種語言輸入,讓人們如同與真實個體對話,所以其代表了當前生成式人工智能領域的最新進展。

(二)生成式人工智能的運行機制

生成式人工智能的本質在于通過學習數據的模式和特征,進行學習和模式識別,從而生成具有新穎性和創造性的內容,整個過程遵循著“準備-運算-生成”的運行邏輯(如圖2所示)。

⒈準備階段。此階段,大數據收集、機器學習和人工標注發揮著重要的作用,為運算階段和生成階段奠定了堅實的基礎。首先,數據海量化是基礎。在生成式人工智能的運行之初,需要來自公開數據集以及專門采集的大量數據作為模型的學習和創作基礎。其次,機器學習是核心。機器學習的作用是將數據轉換為機器可理解和處理的表示形式,為后續的生成模型訓練提供有意義的輸入,其技術內核是利用大規模數據的統計分析和學習算法來發現數據中的隱藏模式和規律,為生成模型提供有效的輸入。再次,人工標注是重要補充。人工標注通過人工處理和注釋數據,不僅為訓練數據集提供準確的標簽和注釋信息,還可以糾正機器學習過程中可能產生的誤差,提高數據的質量和訓練結果的準確性。如在ChatGPT中,人工標注通過評分模型將人們期望的結論信息反饋給數據庫,并將其歸納為機器學習的經驗。同時,因加入了人類的偏好,使得ChatGPT能夠領會人類的話語,并具有一定的判斷標準和判斷能力。[4]

⒉運算階段。用戶反饋數據植入、數據預處理、特征提取和模型訓練是運算階段的核心環節,它們共同構成了生成模型學習和創作的基礎。這一階段的關鍵任務是將數據庫里大量的數據轉化為機器可理解的形式,提取有意義的特征,使得生成模型能夠更好地理解和處理數據,從而能夠生成多樣化、創造性的新樣本。首先,收集用戶的數據反饋,將其加入現有數據庫中,以保證產出內容的實時性。其次,進入數據的預處理環節,預處理的目標是對數據進行清洗、消除噪聲和異常值、填充缺失值和對數據進行轉換,提高數據的質量和可靠性。再次,特征提取是運算階段的核心步驟之一,其目標是從經過預處理的數據中提取有意義的特征,通過合適的特征提取,將數據轉換為機器可理解的表示形式,從而為生成模型提供更有意義和豐富的數據。最后,進入模型訓練環節,這也是生成模型學習和創作的關鍵環節。此階段使用上述三個步驟的數據作為輸入,以及利用適當的生成模型,如生成式對抗網絡(GAN)等,并通過優化算法不斷調整模型參數,使得模型能夠更好地學習數據的分布和特征,從而生成多樣化、創造性的新樣本。

⒊生成階段。在生成式人工智能的生成階段,模型會基于已經獲取的知識和內部表示來創建新的內容,其中,核心是模型內部的生成器,通常是深度神經網絡,如變分自動編碼器等。在生成階段的開始,模型使用所謂的內部表示。這個內部表示是生成器的“思維空間”,它包含了模型從已知的數據中學習的關系、模式和特征,內部表示的質量和多樣性對生成的內容非常重要,一個優秀的內部表示能夠產生更加豐富和富有創意的內容。隨后進入隨機采樣步驟,隨機采樣是讓生成內容多樣化的關鍵,模型將會在內部表示的“思維空間”中選擇一個點,即使在相同的內部表示下,模型也可以生成各種不同的內容。最后,模型將進行解碼以生成新的內容。模型必須將抽象的內部表示轉化為具體的內容,解碼的質量會影響生成內容的梯度和真實感。因此,這三個小步驟共同促成了樣本的生成。當前,生成式人工智能的生成樣本在各個領域已被廣泛應用。例如,在醫學領域,可以生成病例數據供醫生研究之用;在自然語言的處理領域,其改變了智能助手、在線翻譯和自動問答系統,提高了多語言交流和信息獲取的效率。

二、生成式人工智能的法律風險

(一)準備階段的風險

生成式人工智能在準備階段的法律風險,指的是在使用ChatGPT等技術之時,因其數據固有、處理、標注和算法設計理念、模型設計、安全保障等方面存在瑕疵,會傳導并產生負面后果,以人類無法感知的方式對其造成危害,從而引發一系列法律問題。[5]

⒈數據來源不合規風險。數據來源不合規風險是指在生成式人工智能的訓練和運行中,所使用的數據存在不合規性而可能引發相應的法律風險。引發此法律風險的大致原因有以下三種:一是數據來源竊取性。有訴訟指出谷歌與其AI子公司DeepMind和母公司Alphabet在用戶不知情和未取得其同意的情形下,通過技術手段竊取無數美國人在網絡上創作和發表的數據,繼而用此數據用來訓練旗下的AI產品,比如聊天機器人Bard。[6]二是數據來源具有違法性。目前,生成式人工智能的數據采集來源并未公開,用于訓練模型和生成樣本的數據庫的數據來源是否合法也存在著很大的爭議。[7]在準備階段的大數據收集過程中,生成式人工智能可能會對其他站點的數據進行“爬取”,從而對他人數據造成侵害。這一行為有可能違反《中華人民共和國反不正當競爭法》(以下簡稱《反不正當競爭法》)第十二條的規定,不得對其他經營者依法提供的網上產品和服務進行妨礙、破壞。三是被收集用戶的不知情性。基于司法實踐來看,通常認為企業只對其擁有適度的使用,不能擁有絕對的控制。但就整個數字資源而言,比如大眾點評網站上的評論信息,是由企業長期投資的人力、財力所構成,因此企業在這方面具有受到保護的競爭優勢。但是,倘若生成式人工智能如ChatGPT等對此類數據進行隨意“爬取”,就會被認為是不公平的競爭行為。目前沒有明確的法律法規去監管和禁止公司未經人們的知情和同意竊取信息訓練生成式人工智能的行為。例如,美國的隱私法因為擔心數據的收集和使用會受到第一修正案的保護,便免除了對大多數公開數據的監管,但卻加劇了某些公司無道德、無底線地去獲取數據來獲得經濟利益的行為。[8]

⒉數據質量風險。生成式人工智能的數據質量是保證模型運行和生成可信內容的關鍵。數據質量是數據是否符合預期目的的關鍵,包括對其準確性、誤差性、有效性、一致性、唯一性、及時性和適用性等方面的關注。首先,數據存在虛假、違法的內容可能會引發相關的法律問題。虛假內容的存在使得生成式人工智能的輸出可能涉及不實陳述,這可能導致欺騙、偏見等行為的發生,從而引發與其相關的多個法律領域的問題。可能觸犯《中華人民共和國刑法》第二百九十一條規定的“編造、故意傳播虛假信息罪”和《互聯網信息服務管理辦法》第十五條等。違法內容的存在可能涉及隱私和版權等問題,生成式人工智能無意中生成侵犯個人隱私權或侵犯他人知識產權的內容,這可能導致相應的民事訴訟和刑事訴訟被提起。其次,生成式人工智能生成樣本的質量還可能受到數據庫質量、數據標注水平和數據共享互通政策的影響。在數據庫質量和標注水平方面,如若導入含有錯誤信息的數據或數據標注不準確,可能會造成不利后果,同時也會違反《互聯網信息服務深度合成管理規定》(以下簡稱《深度合成管理規定》)第十條的規定。在數據共享互通政策方面,數據的共享可以提高生成式人工智能的數據性能,但也可能涉及隱私、版權和知識產權問題。在某些情況下,使用未授權的數據共享可能會引發法律糾紛,尤其是在知識產權領域。

⒊算法偏見風險。與傳統人工智能相比,生成式人工智能能夠運用神經網絡算法去解決各種復雜問題。但算法存在自發性等黑箱,這使得生成式人工智能的算法偏見風險備受關注,如受歧視、隱私和知識產權等。

一方面,算法引起內生性偏見。內生性偏見主要源于技術“黑箱”,其具有自發性和意識形態滲透的隱蔽性。以ChatGPT為例,在其整個操作的過程中,用戶僅能在輸入數據之后得到輸出結果,無法得知其產出結果的具體邏輯。[9]算法的自發性會導致算法偏見,目前發展起來的人工智能深度學習算法能夠在大數據中進行自我學習,當生成式人工智能模型如GPT在生成文本、圖像等內容時,會基于其之前在大規模數據上獲取的模式和規則進行預測和生成,這種生成的過程通常也是自動的,不需要人工干預。生成式人工智能在準備階段收集大數據進行自我學習的這個過程屬于技術“黑箱”的范疇。但是ChatGPT在準備階段并沒有針對數據收集中可能存在的算法偏見設置過濾程序,同時OpenAI目前也沒有完全對外公示ChatGPT數據來源,如果其獲取的大數據本身包含偏見,算法便是具有偏見的,即其生成的結果也會存在偏見性。同時,算法選擇和超參數設置等也屬于技術“黑箱”的范疇。算法運行規則的設定者在進行算法選擇和超參數設置時可能在不經意間導致模型存有偏見,其存在的偏見和可能帶來的損害都具有隱蔽性。例如,類ChatGPT生成式人工智能技術來源于西方,其生成的樣本和結果可能會更加迎合西方的價值觀,對于大多數國家來說,這會帶來無形的意識形態滲透的損害。[10]其所帶來的偏見在一定程度上甚至可以改變原有的價值觀、信仰、政治立場,以實現滲透方的政治或戰略目標。

另一方面,算法導致外生性偏見。生成式人工智能本質上是一個由自動化算法程序驅動的、能與真人用戶進行交互的話語生成機器,其背后仍離不開人工的操作和設置。[11]也就是說,生成式人工智能的自動信息輸出并不是一個完全隨機的純技術過程,而是建立在預先給出的算法之上,即使有機器自動學習,但其學習過程也會受到人為的影響。從產生信息的本質來看,算法是一種以人的反饋為基礎的巨大的神經網絡,由相關的科學家們“喂養大量的數據”所培養出來的,具備黑格爾式的辯證邏輯、知識的生產模式,但可能也是一個會捏造事實、誤導大眾的知識型生產模型。算法模型在處理公共語言時,都存在著先天不足,這就會造成生成式人工智能生成的內容存在缺陷和不足,難以進行后續運轉工作。其一是主觀性標注偏見。人工標注者可能受到個人觀點、文化、價值觀和社會背景的影響,在模型生成過程中加入其主觀偏見,例如性別、種族或政治偏見。其二是標簽偏見。標注者在標注的過程中也許會無意間用到存在爭議性或傾向性的標簽,這可能在生成內容中引入偏見,尤其是當標注者不清楚標簽的影響時。其三是標注工具導致偏見。這一偏見主要源于工具的界面和可用選項,二者在具體運行時可能影響標注者的選擇,甚至影響到其決策。

(二)運算階段的風險

⒈個人隱私泄露風險。數據隱私泄露是一個日益嚴重的隱患。為了生成更準確的答案,ChatGPT需要大量的數據,很多個人數據即使與當事人想咨詢的結論之間聯系并不緊密,ChatGPT的算法也會收集這類數據來輔助驗證,并通過知識蒸餾來進行深度學習并凝練結論。[12]Open AI官方公布的隱私政策第十條明確指出,若使用者不提供與此相關的個人信息,將不能使用該服務。同時,生成式人工智能的數據來源并沒有得到官方的公開,但其中的部分數據也許包含了用戶的個人信息和敏感數據,如果這些數據沒有得到充分保護,可能導致用戶隱私被泄露和濫用。例如,ChatGPT在此前掀起了一場隱私危機,部分用戶會在他們的聊天界面看到其他用戶的聊天記錄,有些人還在他們的訂閱頁面上發現別人的郵箱。用戶在使用過程中,因為缺乏對生成式人工智能數據處理機制運行過程的明確認識,無意間便泄露了自己的敏感信息。[13]目前,國內幾家大型平臺企業都在積極研發ChatGPT的中文版本,其正在逐步進入我國。國家網信辦于2023年4月11日公布了《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《管理辦法》),但僅從宏觀角度探討了對其進行監管時所涉及的隱私保護問題,沒有明確規制路徑。

⒉技術漏洞引發網絡犯罪風險。微軟于2023年4月12日開源了Deep Speed Chat,該工具可以讓用戶較容易地訓練出類似于ChatGPT這樣的大型語言模型,讓每個人都可以使用它。據了解,該工具基于微軟的深度學習優化庫而開發完成,具有訓練和增強推理等能力,并采用RLHF(人工反饋機制強化學習)技術,可以提高訓練速度超過15倍,同時大大減少訓練開銷。[14]因此,生成式人工智能也有可能被不法分子利用成為網絡犯罪的便利工具,通過編寫網絡攻擊代碼,創造出惡意程序,來探測用戶的敏感數據,還可以入侵目標用戶的電腦系統或電子郵件賬戶,從而獲得重要信息。有專家曾詳細闡述了如何利用ChatGPT來構建一個能夠繞開Open AI所構建的內容策略篩選器即數據預處理環節來構建一個多形態的惡意程序。[15]例如,有些犯罪分子通過使用生成式人工智能,如ChatGPT或其他類似AI系統來生成的假文本,創建針對受害者的個性化的令人信服的網絡釣魚電子郵件。這些電子郵件看似是來自合法途徑,如銀行或其他金融機構,但其實是犯罪分子利用生成式人工智能模型生成的網絡釣魚電子郵件,里面可能包含危險鏈接或附件,若點擊則可能在受害者的計算機或移動設備上安裝惡意軟件或竊取相關數據信息。惡意注入樣本行為違反了《中華人民共和國治安管理處罰法》第二十九條。同時針對這些問題,在《管理辦法》中也有相應的規定,但是還需要從法律的層面對其進行進一步的規制,既要保證發展,又要保證安全。

(三)生成階段的風險

⒈版權及版權歸屬不明風險。著作權問題是生成式人工智能在生成階段不可忽視的問題。大陸法系國家多規定只有自然人才能創造智力成果。①學界對于“智力成果”,一般認為其是人類原創性和獨有性勞動的產物。然而,生成式人工智能是否可以享受傳統上只有作為人類才享有的著作權,目前現有法律關于這方面的規定并不明確。況且,因為ChatGPT在準備階段需要大量的訓練數據,這些數據往往來源于各種網絡文本、書籍、新聞等,其中很可能包含受版權保護的內容,那么ChatGPT所生成的樣本便存在版權歸屬不清的問題。當前,國際上對生成式人工智能版權的歸屬問題還沒有一個清晰的界定,從理論和實踐上看,各國對生成式人工智能版權的歸屬存在著差異,主流觀點分為三種:分別為歸屬于AI、歸屬于AI開發者和其他情形。[16]在生成階段,如果ChatGPT生成的文本、圖像或音頻與已有作品相似或相同,而未經版權所有者授權或未遵循合理使用原則,可能引發版權侵權糾紛。例如,有三位美國藝術家聯合起訴了三家人工智能公司,控告被告從公開網站獲取了數十億張具有著作權的訓練圖片,并直接或間接地違反了《數字千年版權法》。[17]

⒉商業秘密泄露及其導致的不正當競爭風險。生成式人工智能的訓練數據和生成模型產出的樣本等,都可能無意間包含了企業的商業機密,這些商業秘密的泄露可能會導致競爭對手獲得類似的生成能力,也會在一定程度上加劇不正當競爭問題。當大模型的影響越來越大時,為了提高生產力,公司可能會把它們整合到辦公系統中。如果員工通過此項技術輸入與企業機密有關的業務數據,則會增加企業商業數據被他人獲取的風險。例如,目前已有報告指出,三星半導體業務部門因為使用ChatGPT而導致數據泄露,有關半導體設備測量數據、產品性能數據以及其他與此有關的內容,已經保存在ChatGPT的訓練數據庫中。[18]除此之外,因為大多數企業都將“爬取”作為獲得數據的一種渠道,所以如果使用非法“爬取”的數據來進行生成式人工智能模型訓練,其所形成的數據產品實質性地替代其他經營者所提供的相關產品、服務或在很大程度上引發消費者的混淆,也有可能構成不正當競爭,即可能會違反《反不正當競爭法》的相關規定。

三、生成式人工智能的規制路徑

生成式人工智能的發展為社會帶來了機遇和挑戰,其風險挑戰的本質是技術創新發展與法律規制策略之間的不匹配問題。目前,域內外在生成式人工智能規制等方面,相繼采取了一些措施,如歐盟強調應對人工智能產品實行全程監控的策略。[19]美國商務部就類ChatGPT人工智能技術有關的責任問題,已經正式向公眾開始公開征求意見。[20]國家網信辦等7部門聯合發布的《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》)于2023年8月15日開始實施。[21]為最大程度地發揮這一技術的優勢并減少相關風險,需要以安全負責和科技向善為著眼點,構建全過程的法律規制體系,推動生成式人工智能更好服務人類社會。

(一)完善過程性監管體系

⒈“事前-事中-事后”全鏈條監管。在事前預防方面。針對生成式人工智能的運行邏輯,在事前需要構建一套涵蓋數據合規檢驗、提高算法透明度和風險評估等內容的事前通用防御方案。其一,強化數據合規檢驗。為確保數據的隱私和安全,全社會應采用適當的安全措施,如數據加密、訪問控制和數據備份,并應對數據進行清理,去掉虛假或錯誤的信息。另外,對相關重要數據也應進行標記,以區分敏感信息和非敏感信息,這有助于在后續處理中更好地管理數據。在此基礎上,還應定期進行內部或外部合規審計,以驗證數據使用的合規性。其二,提高算法透明度。針對運行中的算法“黑箱”,可采用可解釋性算法,提供有關系統決策的詳細信息,這有助于用戶更好地理解系統得出的答案或建議;也可以使用模型解釋工具,如LIME(局部模型相關解釋器)或SHAP(SHapley Additive exPlanations),來解釋模型的預測結果。其三,加強運行風險評估,《管理辦法》提出,生成式人工智能產品在面向大眾提供服務時,應按照《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》的要求,向國家網信部門申請進行安全評估。[22]基于此,需要明確定義和分類生成式人工智能的風險級別,可以基于應用的潛在影響、使用的數據類型、法規合規要求等,并根據風險等級,制定相應的風險管理計劃,如高風險應用需要更多的風險應對措施。此外,定期監測生成式人工智能,以確保其在運行過程中符合風險評估的標準,并根據實際情況,不斷改進風險監管方案。

在事中監管方面。首先,要完善相關法律法規,要盡快制定適用于生成人工智能的法律框架,以確保其合法性和安全性。如明確定義生成式人工智能的范圍、限制和用途以及規定相關的法律責任,明確知識產權、隱私保護、數據安全和生成式人工智能生成偏見內容等方面的規定。目前,我國在這方面已經取得了一定進展,制定的《管理辦法》中有關于這些風險的一系列初步規制辦法。[23]其次,要強化準備階段的內容審查,如性別、種族等偏見。需要定義偏見的法律標準,使之更為明確,這有助于評估何時算法偏見觸犯了法律。法律需要針對生成式人工智能的公平性方面進行明確規定,這包括確保算法不得歧視個體或社會群體,禁止生成虛假信息或有害內容。法律法規還應強制實施公平性評估,以糾正不公平的算法。

在事后處罰方面。由于法律、行政法規并沒有規定相對應懲罰措施,所以對于本文所提及的部分法律風險的締造者,只能給予警告和通報批評的懲罰,從而造成了《暫行辦法》中缺失相對應的禁止條款,實踐中可操作性不強。因此,應在法律上建立與生成式人工智能相匹配的責任制度,以ChatGPT為例,其運行過程的技術開發者、技術部署者和用戶等幾大主要參與者都應明確其責任承擔的范圍和方式。在行政立法方面,國家互聯網信息辦公室等機構已經出臺了部分部門規章,規定了人工智能不能傳播在國家規定的范圍內的信息,但是并沒有對違反規定的責任主體、責任承擔方式等進行明確地說明,因此還需要對此進行進一步的完善。[24]建立具體的責任分配機制應該遵循合適的分配規則,也就是“誰管轄,誰負責”。[25]

⒉政府、企業和社會的“三位一體”治理模式。第一,政府監管與企業自我管理相結合。首先,政府在治理模式中發揮著重要作用,政府應支持制定法律上的道德標準,強調數據安全、隱私保護、消除偏見等,同時也可以參考歐盟的做法,將風險分級,針對高風險的應用場景制定更嚴格的道德要求;政府機構應負責監督生成式人工智能的開發和使用,定期進行審查,確保生成式人工智能系統的使用合法合規,同時政府應及時對不當行為采取措施;政府應制定安全標準,以防止不法分子利用生成式人工智能進行網絡侵權和欺詐,可以制定相對應的網絡安全和應急響應計劃等。其次,政府應鼓勵企業進行自我管理,使其發揮內在潛力。企業可以制定技術標準,確保生成式人工智能系統能夠在消除偏差的同時保證運行效率和模型產出樣本的質量,可以開發例如自動化的偏差檢測工具等;企業可以開發隱私保護的權限認證系統,未經授權不得隨意使用,以保護用戶隱私。例如,對ChatGPT使用過程中的與隱私有關的部分數據,可以通過引入DRM技術配置來設置權限。[26]DRM被劃分成了三種類型,一種是以密碼技術為基礎的DRM系統,另一種是以數字水印為基礎的DRM系統,還有這兩種類型結合起來的系統。最后,政府監管與企業自我管理應相互結合,建立良好合作,最大限度減少生成式人工智能的風險。政府應制定政策和法規,提供監督和指導,鼓勵企業建立自我管理機制。企業則需積極配合政府的監管,內部建立自我管理體系,并進行自我審核,以確保符合監管要求。二者的有機結合,不僅有助于風險的預防和管理,也能保證其持續發展,并為社會創新與進步帶來更多機會。

第二,調動公眾的積極性,提高對生成式人工智能監管力度。在大規模數字化平臺和資本驅動的智能制造體系面前,絕大多數公民都成了“弱勢群體”,很容易就會成為智能技術風險的靶子,但這并不意味著他們只有默默忍受。相反,應當主動參與到人工智能體系風險的治理中,在數字化時代捍衛權利和正義。[27]一方面,政府和企業應合作開展教育和意識提升活動,對生成式人工智能的工作原理、潛在風險等進行解釋,包括舉辦在線課程、知識分享平臺等,以幫助公眾更好地理解生成式人工智能,以此來促進公眾對生成式人工智能的監督。另一方面,建立關于生成式人工智能應用的監督機制,以防公眾舉報可能無效或不當的情況,同時政府和企業對公眾舉報應積極予以回應。

(二)明確各主體的法律責任

由于生成式人工智能兼具“工具性”和“基礎設施”兩種特征,如果單純依賴技術反饋進行規制,會因為治理方式過于單一,而很難應對其所帶來的風險與挑戰。技術并不是自然生成的,其本質是人造物。這就需要對相關主體的法律責任進行明確的規定,在促進技術發展的同時保障社會的穩定發展。因此,從技術創新的角度進行分析,就需要從法律上去明確技術開發者和技術部署者的研發責任、用戶的使用邊界和政府監管部門的審查監管責任。

⒈算法偏見風險由開發者和技術部署者承擔不真正連帶責任。關于“算法主體責任”的設計原理,是在算法的技術規律和操作邏輯的客觀屬性基礎上,預先設定了算法設計的工具性質,并將其視為開發者價值觀的一種技術表達。[28]同時,人工標注是生成式人工智能不可缺少的一環,其可能在很大程度上單方面導致算法偏見風險的產生。針對此問題,相關法律可以強制要求技術開發者和部署者在算法開發過程中進行充分的測試和審查,來確保算法的公正性,并對算法偏見風險負主要責任。《中華人民共和國民法典》(以下簡稱《民法典》)第一千一百六十八條的規定:“二人以上共同實施侵權行為,造成他人損害的,應當承擔連帶責任。”可見,算法偏見風險可以由開發者和技術部署者承擔不真正連帶責任,《民法典》第一千二百零三條中也有關于不真正連帶責任的闡述,將其運用于生成式人工智能領域中,即當技術部署者對模型內容進行標注和調整的過程中產生偏見信息,或開發者在算法開發時導致算法偏見風險的發生,可以由開發者或技術部署者一方先承擔責任,在賠償后再向真正過錯方進行追償。

⒉明晰開發者、技術部署者與用戶的責任承擔。技術的開發者和部署者除了在基于當前技術發展水平無法避免損害的發生和擴大的情形下,對于技術導致的損害,應承擔無過錯責任,用戶則承擔過錯責任。首先,類ChatGPT生成式人工智能并不能獨立地判定其所產生的信息是否完全準確、合法。因此,類ChatGPT生成式人工智能的開發者和技術部署者應當對風險的發生采取一系列相應措施來防止損害的發生,如披露數據的來源、提高數據來源的透明度或在進行訓練和測試時,采用數據匿名化和脫敏方法,以加強對個人身份信息的保護,降低隱私泄露風險。同時,技術開發者和部署者必須盡可能地為用戶提供準確且合法的訓練數據,并及時地更新模型,從而減少質量低下、非法內容的生成概率。如果采取了類似上述的一系列手段和方法,仍導致了損害的發生,應考慮其可能屬于意外風險;如若是第三人故意所致的損害,不應該由技術開發者和部署者承擔全部責任。其次,因生成式人工智能產生的內容很有可能來源于不同國家的數據,所以其生成的內容是否具有正確性和合法性很難被用戶所輕易識別,但若開發者及運營者有證據表明用戶在使用過程中蓄意產生錯誤的或違法的信息,則用戶將可能被追究相應的法律責任。比如,在ChatGPT發出提示其生成的內容可能存在違法信息,但用戶仍然繼續輸入指令。可根據我國《民法典》的侵權責任歸責原則的相關規定對責任承擔進行認定,只要是由生成式人工智能自身缺陷造成的損害,除了基于現有技術水平無法規制和避免的情形,都應當由技術開發者和部署者承擔無過錯責任。但是,如果是由外在因素導致的,比如用戶的不合理使用和黑客入侵等,則應當按照《民法典》第一千一百六十五條的規定由實際侵權人承擔法律責任。[29]

⒊政府監管部門的審查監管責任。第一,建立健全AI風險管理的制度體系。在生成式人工智能投入市場前,為更好地監管生成式人工智能,政府監管部門可以建立關于AI風險管理的制度,保證生成式人工智能的動態變化對我國數據安全和隱私保護等產生的影響總是在可接受范圍內。在歐盟《AI法案》中,高風險人工智能系統具備風險管理機制是非常有必要的。當前,我國在算法與人工智能領域的監管標準中,已經出現了與風險管理機制相似的需求。例如,《互聯網信息服務算法推薦管理規定》第八條要求,需要對算法機制、模型、數據及應用效果等進行定期審查、評估和驗證。然而,上述定期審查和評估義務并未在《深度合成管理規定》和《暫行辦法》中予以明確規定。

第二,提高政府監督和執法力度。在生成式人工智能投入市場時,政府的監管責任不僅包括制定應對相應風險的法規和制度,還包括監督和執法。目前,《暫行辦法》中已經明確提出了“整體分級分類”的監管思想。[30]因此,在生成式人工智能投入市場時,政府等監管部門可以參照其思路制定出關于按照不同等級和不同類別實行不同力度的監管方案,以鼓勵技術創新,推動技術研發。同時,政府還可以推動建立道德審查機制,以確保生成式人工智能的應用符合道德標準,這有助于防止技術被搶占,尤其是在與敏感主題或內容相關的情況下。

第三,強化定期監測和合規檢查。在生成式人工智能投入市場后,政府的監管責任變得更加重要。《暫行辦法》第十四條規定了生成式人工智能服務提供商有義務對侵權內容進行糾正和整改,并規定了相關的強制性報告義務,如對生成式人工智能服務提供商,應立即采取停止生產、停止傳輸、刪除等處置措施,并將其報告給相關機構,同時規定了對用戶的侵權行為進行監督、處理和報告的責任。但是,我國還沒有建立起一套完善的相關制度,有關的規定只是部門規章,沒有足夠的法律約束力。因此,政府需要進行定期的監測和合規檢查,以確保生成式人工智能在市場中的行為合法合規。此外,政府機構應當對不合規行為進行處罰,并有明確的執法程序。處罰可以包括罰款、暫停運營或撤銷許可。

(三)推動知識產權領域法律更新

⒈優化與完善知識產權相關法律。生成式人工智能能夠生成多樣化的內容,可能涉及與他人作品相似或相同的元素。根據《中華人民共和國著作權法》第三條的規定,“作品”是指在文學、藝術領域內具有獨創性,同時也可以以一定形式表現出來的智力成果。我國著作權法在傳統作品的版權歸屬問題上的態度是版權屬于自然人、法人或者非法人組織。因而如果依照傳統的觀點來看,生成式人工智能是一種工具,缺乏從事民事法律行為所必須具備的獨立的意志因素以及一定的責任能力,所以其被視為不具有著作權。當前,在人工智能作品的版權歸屬問題上眾說紛紜,存在著“人類中心主義論”“法律主體地位論”和“法律解釋論”等三種不同的看法。[31]因此,針對由生成式人工智能所引發的知識產權風險,就需要更新與此相關知識產權領域的法律來緩解這些爭端。一方面,明確創作者身份和權利歸屬。過往大部分的人工智能都是做一些單純的體力勞動,或者只是提供一些信息索引和進行一些簡單的對話。因而,這些使用算法、規則和模板得到的結果,并不能很好地反映出創作者的獨特性格。但是,ChatGPT具有信息組織能力,并且具備一定的自主創新性,例如它可以模仿某一位武俠作家的風格,重新編寫一本小說,這就使得程序算法與獨立思維之間的界限變得更加模糊。[32]鑒于生成式人工智能的創作過程涉及算法和數據的復雜組合,法律可以考慮對生成內容的權利歸屬進行明確規定。另一方面,增設專門的知識產權仲裁機構。為了解決生成式人工智能創作引發的知識產權糾紛,可以設立與生成式人工智能相關的知識產權仲裁部門,專門處理與生成式人工智能相關的著作權和版權爭議。仲裁部門可以由專業的知識產權法官和專家組成,通過仲裁方式快速、高效地解決糾紛。

⒉基于《中華人民共和國網絡安全法》《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》等相關立法的大背景,生成式人工智能產品所產生的數據、數據的安全等均需滿足相關法規對其正當合法性的要求,否則可能會在不知不覺中泄露商業秘密,對企業和社會都帶來不利影響。美國信息技術與創新基金會旗下的數據創新中心發表了一份關于生成式人工智能的研究報告指出,過多地限制生成式人工智能如ChatGPT和DALL-E等,將會不利于生成式人工智能的開發和應用,建議決策者將重點放在增強其他類型的知識產權上來保護創造者。可見,在對生成式人工智能的研究和開發過程中,若對其進行嚴格的正當化規范,將對其發展造成極大的制約,進而影響產品的開發和更新,拉低信息科技的發展速度。美國在人工智能研究開發中,基于促進人工智能創新、謹慎立法、避免法律與科技發展脫節等原因,對人工智能研究開發中涉及的知識產權問題,至今仍采用較為統一的價值觀指引和原則性條款加以解決,并未發布明確的規范。因此,一方面,可以從立法上規定生成式人工智能的合同保密義務。在生成式人工智能的開發、使用和運營過程中,涉及商業秘密的相關各方可以通過合同設定保密義務,明確生成式人工智能的使用范圍、保密措施和違約責任,以確保商業秘密的保密性和安全性。另一方面,可以設立商業秘密的民事與行政方面處罰制度。對于生成式人工智能泄露商業秘密的行為,可以進行相應的處罰,如對于商業秘密泄露的懲罰性損害賠償、行政罰款等,以此來維護商業秘密的非公開性。

【參考文獻】

[1]周維棟.生成式人工智能類案裁判的標準及價值邊界[J].東方法學,2023(3):47-60.

[2]Burrell,J.and Fourcade,M.The Society of Algorithms[J].Annual Review of Sociology,2021(1):213-237.

[3]Radford A,Wu J,Child R,et al.Language Models are Unsupervised Multitask Learners[J].OpenAI blog,2019(8).

[4]朱光輝,王喜文.ChatGPT的運行模式、關鍵技術及未來圖景[J].新疆師范大學學報(哲學社會科學版),2023(4):113-122.

[5]商建剛.算法決策損害責任構成的要件分析[J].東方法學,2022(6):44-57.

[6]谷歌遭遇集體訴訟,被指竊取數億美國人的網上數據用于訓練AI[EB/OL].IT之家網,https://www.ithome.com/0/705/607.htm.

[7]ChatGPT內容商業使用的法律風險及應對[EB/OL].騰訊網,https://mp.weixin.qq.com/s/8fzvmnyhEbIwWVTAV

m8WWA.

[8]生成式人工智能的潛在有害影響與未來之路(二)[EB/OL].梨花溪網,http://lihuaxi.xjx100.cn/news/1480384.

html?action=onClick.

[9](美)弗蘭克-帕斯奎爾.黑箱社會:控制金錢和信息的數據法則[M].趙亞見,譯.北京:中信出版社,2015:55.

[10]商建剛.生成式人工智能風險治理元規則研究[J].東方法學,2023(3):4-17.

[11]龍柯宇.生成式人工智能應用失范的法律規制研究——以ChatGPT和社交機器人為視角[J].東方法學,2023(4):44-55.

[12]黃震華,楊順志,林威,等.知識蒸餾研究綜述[J].計算機學報,2022(3):624-653.

[13]Titles of User Chat Histories Exposed by ChatCPT Bug,https://www.cpomagazine.com/data-privacy/titles-of-

user-chat-histories-ex-posed-by-chatgpt-bug,March 27th,2023.

[14]朱嘉琣.生成式人工智能虛假有害信息規制的挑戰與應對——以ChatGPT的應用為引[J].比較法研究,2023(5):34-54.

[15]張弛,翁方宸,張玉清.ChatGPT在網絡安全領域的應用、現狀與趨勢[J].信息安全研究,2023(6):500-509.

[16]謝婧軒.西方人工智能生成內容版權問題研究綜述[J].中阿科技論壇(中英文),2022(12):189-195.

[17]Joseph R.Saveri.IP AI COPYRIGHT Complaint.pdf[EB/OL].https://fingfx.thomsonreuters.com/gfx/legaldocs/myvmogjdxvr/IP%20AI%20COPYRIGHT%20complaint.pdf.

[18]員工20天三起泄密事故,三星考慮重新禁用ChatGPT[EB/OL].澎湃新聞網,https://m.thepaper.cn/newsDetail_for-ward_22568617.

[19]A Group of International AI Experts.Five Considerations to Guide the Regulation of General Purpose AI in the EU's AI Act[R/OL].https://ainowinstitute.org/wpcontent/uploads/2023/04/GPAI-Policy-Brief.pdf.

[20]生成式人工智能國內外監管形式解讀[EB/OL].安全內參網,https://www.secrss.com/articles/55515.

[21]國家網信辦等七部門聯合公布《生成式人工智能服務管理暫行辦法》[EB/OL].中國網信網,http://www.cac.gov.cn/2023-07/13/c_1690898326795531.htm.

[22]種曉明.AIGC賦能出版業背景下版權監管新路徑研究[J].科技與出版,2023(8):96-104.

[23]畢文軒.生成式人工智能的風險規制困境及其化解:以ChatGPT的規制為視角[J].比較法研究,2023(3):155-172.

[24]鄧建鵬,朱懌成.ChatGPT模型的法律風險及應對之策[J].新疆師范大學學報(哲學社會科學版),2023(5):91-101+2.

[25]勞東燕.過失犯中預見可能性理論的反思與重構[J].中外法學,2018(2):304-326.

[26]Armstrong T K,Digital Rights Management and the Process of Fair Use,20 Harvard Journal of Law amp; Technology 49,49-121(2006).

[27]郭小東.生成式人工智能的風險及其包容性法律治理[J].北京理工大學學報(社會科學版),2023(6):93-105+117.

[28]張亮.算法治理須抓牢主體責任“牛鼻子”[N].法治日報,2022-01-12(05).

[29]周書環.聊天機器人的法律人格爭議與傳播侵權責任研究:基于ChatGPT場景視角[J].南京社會科學,2023(6):90-99.

[30]歐盟《人工智能法案》主要監管及激勵措施評述[EB/OL].搜狐網,https://www.sohu.com/a/712668521_610982.

[31]孫祁.規范生成式人工智能產品提供者的法律問題研究[J].政治與法律,2023(7):162-176.

[32]熊琦.人工智能生成內容的著作權認定[J].知識產權,2017(3):3-8.

The Operation Mechanism, Legal Risks and

Regulatory Methods" of Generative

Artificial Intelligence like ChatGPT

Yang Jianwu,Luo Feiyan

Abstract:Generative artificial intelligence provides people with creative and efficient content generation tools through the operation of the three phases of“preparation-computation-generation”,which has profoundly changed

the way of creation,communication and information dissemination.However,while bringing convenience to people,it also brings a series of legal risks.The preparation stage has led to problems such as data security and the risk of algorithmic bias;the computing stage has highlighted problems such as privacy leakage and network infringement,and fraud risk;and the generation stage has triggered problems such as unclear copyright and copyright attribution,and leakage of trade secrets and the unfair competition they cause.With regard to the legal risks arising in the three major phases,it is necessary to put forward corresponding legal regulation paths with a focus on safety and responsibility and technology for the good,which will help to balance the relationship between technological innovation and social stability,and safeguard the public interest.

Key words:generative AI;ChatGPT;legal risks;regulatory paths

(責任編輯:王正橋)

收稿日期:2023-11-10

作者簡介:楊建武,中南林業科技大學政法學院副教授,管理學博士,研究方向為技術發展與政府治理;羅飛燕,中南林業科技大學政法學院碩士研究生,研究方向為技術發展與政府規制。

基金項目:湖南省教育廳科學研究青年項目“算法推薦對政治認同的消極影響及其防控研究”,項目編號:21B0268。

猜你喜歡
人工智能模型
一半模型
我校新增“人工智能”本科專業
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
3D打印中的模型分割與打包
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 04:56:22
主站蜘蛛池模板: 国产精品99在线观看| 日韩高清无码免费| 国产精品片在线观看手机版| 日韩精品毛片| 亚洲午夜国产精品无卡| 中国特黄美女一级视频| 欧美成人日韩| 欧美激情网址| 伊人久久婷婷五月综合97色| 国产精品三级av及在线观看| 国产激情无码一区二区APP| 国产色网站| 国产午夜福利在线小视频| 免费AV在线播放观看18禁强制| 久无码久无码av无码| 日韩在线欧美在线| 欧洲成人在线观看| 久久香蕉国产线看观看精品蕉| 丝袜久久剧情精品国产| 成人国产精品网站在线看 | 久久黄色小视频| 国产亚洲日韩av在线| 久久网欧美| 免费A∨中文乱码专区| 日本不卡免费高清视频| 在线观看无码av免费不卡网站| 日韩精品中文字幕一区三区| 国模视频一区二区| 亚洲精品你懂的| 色婷婷久久| 国产精品午夜电影| 国产精欧美一区二区三区| 久久青草视频| 久久精品人妻中文系列| 国产黄在线观看| 欧洲在线免费视频| 呦女精品网站| 夜精品a一区二区三区| 婷婷五月在线| 视频二区中文无码| 成人在线不卡视频| 日韩免费毛片| 久久精品国产精品国产一区| 国产成人高清精品免费| av无码一区二区三区在线| 99久久精品国产麻豆婷婷| 成人午夜久久| 99久久亚洲综合精品TS| 久久国产精品77777| 午夜小视频在线| 97se亚洲综合在线韩国专区福利| 色婷婷在线影院| 黑人巨大精品欧美一区二区区| 中文字幕av一区二区三区欲色| 亚洲无码视频图片| 亚洲色图狠狠干| 国产精品第一区| 日本免费新一区视频| AV天堂资源福利在线观看| 精品视频免费在线| 黄色不卡视频| 99在线观看免费视频| 中文字幕在线不卡视频| 2021国产在线视频| 国产欧美网站| 久久99国产综合精品女同| 成人免费网站久久久| 亚洲色图另类| 91成人免费观看| 中国国产高清免费AV片| 99在线视频免费| 欧美狠狠干| 亚洲精品视频在线观看视频| 精品伊人久久久香线蕉| 色综合日本| 亚洲成人网在线观看| 嫩草在线视频| 国产精品欧美亚洲韩国日本不卡| 日韩欧美国产成人| 一区二区自拍| 97se亚洲| 波多野结衣一区二区三区88|