張淇 張潼
摘要:生成式AI具有智慧性、泛用性和復雜性的綜合技術特征,但也引發了一系列的版權風險。在本體論上,生成式AI生成物面臨版權保護的牢籠困境;在外部性上,生成式AI生成物在數據挖掘、處理和傳播的過程中較容易產生一系列的侵權風險。為此,要將生成式AI生成物視為作品,納入版權保護的范疇,并且要通過“自律+他律”相結合的手段對版權風險加以規制。
關鍵詞:生成式AI;ChatGPT;版權風險;規制路徑
1. 越過奇點:生成式AI的技術特征與突破
一石激起千層浪,自2022年11月30日OpenAI公司發布ChatGPT(chat generative pre-trained transformer)以來,有關此類生成式AI在文本撰寫、圖像、視頻生成、即時人機對話等功能的優越表現便廣受業界和人們的關注。比爾·蓋茨稱贊ChatGPT與手機和互聯網一樣具有革命性意義。總體而言,以ChatGPT為代表的生成式AI具有以下特征。
(1)智慧性。生成式AI是借由大規模預訓練語言模型所驅動的自然語言處理工具,通過綜合運用算法、模型、指令程序等自動化程序,輸出能夠為自然人所直接識別閱讀的文本、代碼、圖片、視頻等多項內容,在內容處理和信息輸出上更加具有智慧性。尤其是ChatGPT引入了人工操作的獎懲反饋機制(reinforcement learning form human feedback,RLHF),可以生成獎勵模型(reward model,RM),以根據人工標注為傳輸的文本設置標量獎勵,不斷對ChatGPT算法進行反饋、訓練和微調,最終使得ChatGPT實現類人化表達。這就相當于讓算法模型在動態環境中根據一定的獎懲反饋而不斷進化與自適應,從而在機能上漸次完備。
(2)泛用性。不同于傳統AI只針對特殊領域的運用,ChatGPT實現了跨領域、破壁壘式的強運用。無論是輕松愉悅的人機溝通,還是專業度極高的文本、代碼生成,ChatGPT都可以輕松完成。這也就意味著,ChatGPT用來運作所收集利用的數據集將不會僅局限于某個領域,而是來源于互聯網的廣闊數據庫,甚至其又豐富拓展了數據的來源,用戶與ChatGPT之間的溝通對話內容也將成為大模型喂養的重要“養分”。
(3)復雜性。客體上,與以往簡單、單鏈條式的算法指令動作不同,以ChatGPT為代表的生成式AI融合了龐大的數據資源、層層嵌套的算法結構以及高耗能的算力支撐,一經算法設計師、投資者開發創造,即可“脫手”進行自我系統性工作,除特殊情況外,無須內部員工介入運行,從而導致難以第一時間采取針對措施解決問題。另外,生成式AI產品一旦構成侵權,其在責任主體的認定上也存在一定的復雜性,在固有的侵權責任主體語境下,目前有關采取何種侵權責任追究辦法,以及責任最終歸咎于何方,學界依舊有較大爭議,生成式AI的設計師、投資者、運營者、使用者甚至用戶都有可能成為潛在的追責主體[1]。
2. 成因解構:生成式AI生成物的多重版權風險
2.1 生成物版權權屬爭議風險
有關是否賦予人工智能生成物版權保護的爭議由來已久,目前有三種主流觀點:一是“否定說”,有學者認為人工智能生成物并不具備作品中所需的智力參與,因此不應當將其生成物認定為作品;二是“法人說”,認為可以參照《著作權法》中有關法人作品制度的規定,將人工智能開發設計者視為著作權人;三是“鄰接權說”,認為人工智能生成物是在極少人類參與過程中創造的,其符合我國《著作權法》中有關鄰接權客體獨創性不足的特點[2]。以上三種觀點在靜止的、機械性的人工智能技術發展階段具有一定的合理性,但生成式AI技術具有了初步的智慧性、泛用性和復雜性特征,因此,應當對其重新認識,重點把握生成式AI生成物在版權領域中的客體認定。
在當今ChatGPT等生成式AI技術正飛速發展的關鍵時期,我國不應當嚴苛地將生成物是否具有人格性視為認定作品的關鍵,其應當被視為作品。首先,ChatGPT生成物的產生并不能缺少用戶的參與,其在目前也正是處于一種人類輔助的角色和定位,無論是照片、代碼還是視頻都摻雜著用戶和使用者的主觀選擇,并不能脫離自然人的意識選擇和指令。其次,ChatGPT生成物具有獨特性。即使用戶輸入的指令完全一樣,ChatGPT和文心一言等生成式AI也不會輸出一模一樣的作品,其輸出機制具有靈活性。最后,在我國,已有支持人工智能生成物屬于《著作權法》中所規定的作品的先例——在“騰訊訴網貸之家著作權侵權案”中,法院認為騰訊旗下的人工智能寫作產品Dreamwriter所生成的新聞具有一定的“獨創性”,因此受到著作權法的保護。
2.2 生成式AI生成物的負外部性風險
2.2.1 復制權侵權
生成式AI生成物侵犯復制權主要有兩種途徑:一是用戶即時對話信息。根據OpenAI官網中的《使用條款》介紹,用戶所輸入的內容會默認成為算法模型訓練的文本數據來源之一,但在實際運用過程中,不少用戶的信息會在未知情的情況下被收集利用。例如,亞馬遜的律師稱其在ChatGPT中發現了與公司機密“非常相似”的文本內容,懷疑正是因為員工在使用ChatGPT生成代碼或文本時,輸入了公司內部有關的數據,而導致這些內容被訓練庫加以復制利用。二是來自未經授權的信息內容。此種一般是通過“爬蟲”技術對廣泛未授權的網絡數據進行抓取,并進一步以數字化手段將非直接可讀性的內容轉譯為可供數據庫接收、利用的數字格式,從而產生復制權侵權情形。例如,2023年1月就發生了全球第一起有關人工智能生成物的侵權案件——蓋蒂圖片社(Getty Lmages)將Stability訴之于法庭,原因是其圖片庫里的“數百萬非法加工圖像”在未被告知的情況下被Stability復制粘貼于其旗下的Stable Difussion,同時另有三位藝術家也同樣對Stability予以狀告,認為它導致數以百萬計的藝術家的版權被侵犯[3]。
2.2.2 改編權、匯編權侵權
我國《著作權法》[4]第十條對著作權所包括的人身權和財產權作了定義,其中第(十四)項、第(十六)項分別規定了改編權和匯編權。不可否認以ChatGPT為代表的生成式AI所形成的生成物具有一定的創造性,但究其根本ChatGPT是通過運用大模型計算排列組合所生成的產物,不能完全擺脫對原始材料和框架的依賴,并依靠海量數據庫進行材料整合、重組和產出,所以其生成物大部分仍應當屬于改編或匯編之物的范疇。然而,此類組合再創造的生成式AI作品卻難以依照《著作權法》中的有關規定取得原作品權利人的知情同意,因為傳統的單獨授權模式在海量的產出中會產生較高成本,嚴重影響產品的運行效率。
2.2.3 信息網絡傳播權侵權
數字時代,以ChatGPT為代表的生成式AI可以通過互聯網得到快速傳播。我國《著作權法》第十條第(十二)項規定了信息網絡傳播權。ChatGPT、文心一言等生成式AI如果對元數據進行挖掘,并且在未得到原作品著作權人的授權同意時,也將侵犯其信息網絡傳播權。另外,我國對發行權的定義是“以出售或者贈與方式向公眾提供作品的原件或者復制件的權利”。考量到ChatGPT只是出于商業利益的追求而對原件進行的使用和利用行為,并不意圖占有原件,因此,在我國,生成式AI生成物較難被認定為對原件的發行權侵權。例如,在2019年“騰訊訴盈訊科技著作權”一案中,法院就判定盈訊科技公司因未經授權而公開傳播了騰訊公司所開發的Dreamwriter軟件所自動形成的一篇財經成果,從而侵害了原告騰訊公司所享有的信息網絡傳播權而不是發行權。
3. 規制手段:打造版權保護與風險預防的結合路徑
應當注重對生成式AI生成物的版權保護,并搭建具體的準則路徑,以防范其可能產生的負外部性風險。
3.1 確立對生成式AI生成物的版權保護方案
3.1.1 明晰并保護作者利益
生成式AI生成物具備作品的客觀構成要素和外觀,但并不意味著其可以成為作品的作者,這兩個概念不能相混淆。雖然ChatGPT目前展現出了類人化特征,有著向智慧大腦進化的趨勢,但就其當下的算法模型框架而言,還難以徹底擺脫“工具論”的范疇。因此,其并不能屬于《著作權法》第十一條中所規定的“自然人作者”。又因生成式AI生成物的產生非法人組織意愿所招致的,因此其也不能成為“法人作者”。
此外,也不應當將生成式AI的設計者、開發者和投資者視為作者,而選擇用戶作為生成物AI生成物的著作權人更為合適。一是ChatGPT的獨立運行已然具備了較強的自主性和隨機創造性,設計者、開發者和投資者并不具備對任一生成物創造的任何主觀指導意識,其可以考慮成為生成式AI機器人的著作權主體,但并不應當成為生成物作品的作者。相對應地,生成式AI使用者對生成物的創造具有實際上的智力貢獻,能夠通過下達指令來創造出指定物,其滿足《著作權法》領域對于作者的相關要件規定。二是從利益分配的角度來看,ChatGPT的設計者、開發者和投資者對于人工智能產品已通過付費經濟手段而對生成式AI獲得了一定的著作權保護,如若再將版權利益加以其上,將會導致用戶(使用者)喪失了可得、應得利益,進一步致使技術研發者與使用者主體之間的利益失衡,這將不利于生成式人工智能運用市場的長期繁榮與穩定[5]。綜合以上原因,應當堅持“人在回路”的基本理念,將人類用戶(使用者)設定為著作權人,享有因創作而產生的法律上的權益。
3.1.2 擴大合理使用范圍的認定
合理使用制度能夠在特定條件下充分發揮知識成果的使用和利用價值,從而更好地促進社會總成果的產出。一方面,我國《著作權法》第二十四條通過列舉的方式規定了合理使用的12種情形,并在《著作權法實施條例》第二十一條規定了“屬于法定合理使用情形—不影響作品正常使用—未損害著作權人合法利益”的“三步檢測法”。但礙于該準則是司法活動中的輔助性裁決手段,且大陸法系國家法官有限的自由裁量權,將難以保證其作出合理判斷。因此,建議法律明確規定生成式AI的合理數據挖掘行為屬于合理使用的范疇。當然,仍應當堅持生成式AI對數據利用的合法、合理前提,對于在傳播和輸出階段以純商業營利性為目的行為予以排除處理。另一方面,在我國“三步檢測法”的基礎上,建議在立法中引入英美法系中的四要素做法,如《美國版權法》第107條有關合理使用的四要素規定:所使用的目的及性質、作品的本質屬性、使用部分占原作品的重要比重、使用情形對市場需求變化的影響[6]。如此一來,一是可以對合理使用制度進行精細化的規定,二是雖然大陸法系國家法官并沒有解釋法律的能力和職權,但通過嚴格適用“三步檢測法”和“四要素判斷法”的法律規定,仍可以在最大程度上保障對合理使用范圍的司法適用。
3.2 搭建自律與他律相結合的負外部性風險預防路徑
3.2.1 加強生成式AI運營商的軟法自治
首先,針對生成物的著作權權屬問題爭議,應當提前在用戶使用協議中予以明確規定,并對重要的條款內容做重點標識,盡到應有的提示義務;其次,OpenAI等公司應當做好事前的版權合規工作,與明確的重點數據來源提供方之間盡早簽訂長期的授權使用協議,并定期評估和審查版權合規風險;最后,還應當在用戶協議中預留專門的知識產權爭議解決渠道,為潛在的、尚未取得授權許可的原數據持有方提供便捷、迅速的溝通協商路徑。
3.2.2 補充司法和行政手段予以全過程規制
司法上,應進一步鼓勵法官在法律允許的范圍之內充分發揮自由裁量權,并充分遵循著作權法對于保護、促進知識成果交流的基本原則,對生成式AI在科研、文藝創作和教育教學方面的數據挖掘、利用和信息傳播行為作出公正裁決。另外,在我國“葉根友訴無錫肯德基”一案中,法院裁決認為著作權人免費將“書庫”上傳網絡且不限制其被使用的行為在實際上構成了“默示許可”[7]。但在司法實踐中,“授權選擇進入”機制仍是著作權法保護的主流做法,此種模式對生成式AI大數據挖掘運作而言明顯成本過高。因此,建議在行政法規中針對生成式AI的數據挖掘行為引入具體的“默認許可”制度,即對于已線上公開共享的數據,除非權利人明確否認不可為生成式AI產品所利用以外,都應當默認其可以被生成式AI用于合理的開發和使用活動[8]。
結語
生成式AI的出現預示著人工智能技術取得了新的顯著突破,具有了類人化思考運作的機制。一方面,生成式AI生成物具備了作品的形式外觀,并且從關鍵要素來看,生成式AI生成物符合獨創性的基本要求。因此,應當將生成式AI生成物納入著作權法的保護范疇。同時,為預防生成式AI生成物免受不必要的版權風險,應當由“單獨授權許可”制度逐步過渡到“選擇退出”制度,從而促進大數據的加速利用。另一方面,為消減生成式AI生成物的負外部性風險,應當通過運營商自律及司法、行政他律的雙重手段予以規制。
參考文獻:
[1]令小雄,王鼎民,袁健.ChatGPT爆火后關于科技倫理及學術倫理的冷思考[J].新疆師范大學學報(哲學社會科學版),2023,44(4):123-136.
[2]詹愛嵐,姜啟.人工智能生成物的鄰接權保護探析[J].浙江工業大學學報(社會科學版),2021,20(4):412-417.
[3]聶洪濤,馬可可.生成式人工智能繪畫侵權的樣態分析與規制路徑[J].行政與法,2023(12):86-98.
[4]中華人民共和國著作權法[EB/OL].(2021-03-09)[2023-03-02].https://www.ncac.gov.cn/chinacopyright/contents/12230/353795.shtml.
[5]張峣.人工智能生成成果的著作權法保護[J].河南工業大學學報(社會科學版),2022,38(6):73-80,97.
[6]宋偉鋒.生成式AI傳播范式:AI生成內容版權風險與規制建構——以全球首例AIGC侵權案為緣由[J].新聞界,2023(10):87-96.
[7]王國柱.著作權“選擇退出”默示許可的制度解析與立法構造[J].當代法學,2015,29(3):106-112.
[8]鄭飛,夏晨斌.生成式人工智能的著作權困境與制度應對——以ChatGPT和文心一言為例[J].科技與法律(中英文),2023(5):86-96.
作者簡介:張淇,碩士研究生,研究方向:數字法學、人工智能法學。