【摘 要】人工智能技術在內容創作領域的應用引發關于其生成內容的可版權性與治理路徑的討論。探討人工智能生成內容的特性、版權歸屬及治理策略,分析其原創性、作者身份和創作意圖的法律界定,提出立法、行政和技術層面的治理路徑,以期為相關法律制度的完善與實踐操作提供參考。
【關 鍵 詞】新質生產力;人工智能生成內容;可版權性;治理路徑
【作者單位】趙雅琦,洛陽師范學院。
【中圖分類號】D923;TP18 【文獻標識碼】A 【DOI】10.16491/j.cnki.cn45-1216/g2.2024.15.010
2023年9月,習近平總書記在黑龍江考察調研期間首次提到“新質生產力”,同年12月,中央經濟工作會議強調要“以科技創新推動產業創新,特別是以顛覆性技術和前沿技術催生新產業、新模式、新動能,發展新質生產力”。2024年1月31日,習近平總書記在主持中央政治局第十一次集體學習時,對發展新質生產力的一系列重大理論和實踐問題進行了系統闡述,為推動高質量發展提供了科學指引。全國兩會期間,“加快發展新質生產力”被寫入政府工作報告,習近平總書記在參加江蘇代表團審議時強調,“要牢牢把握高質量發展這個首要任務,因地制宜發展新質生產力”。隨著以5G、云計算、大數據、人工智能、物聯網和區塊鏈為代表的信息技術革命成果的高效轉化,全球進入產業數智化時代,出版行業的融合發展在人工智能技術場景化運用的推動下,從數字化階段進入數字化數據化智能化協同發展的新階段。新一代以ChatGPT為代表的生成式人工智能依托大規模數據集中學習并創造新內容,成為出版業態不斷升級的新引擎,同時也為出版內容資源的整合和優化帶來多重風險與挑戰。在此背景下,研究人工智能生成內容的法律屬性,探究其版權歸屬并對出版內容版權審查規則進行應對性調整,是確保供給優質原創出版內容,以創新驅動出版深度融合發展的關鍵。
一、算法模型差異化視角下人工智能生成內容的應然范圍
在數字技術和媒體深度融合的影響下,知識信息來源趨向多元化,因知識生產主體存在身份、信息資源等方面的差異,導致內容生產模式呈現類型化的特點。相較于UGC(用戶生成內容)、PGC(專業生成內容)而言,人工智能自21世紀10年代中期至今,在深度學習算法不斷迭代的技術基礎上,得到開源模式的強力推動,迅速融入產業化的探索之中。需要關注的是,人工智能的核心在于機器學習,機器學習依賴不同的算法模型產生不同的內容。生成式人工智能基于生成式模型得以運用,其工作原理是通過學習數據的生成過程,生成與訓練數據類似的新數據,與之不同的是以判別式模型為核心的判別式人工智能。通過對兩者的多維度比較,我們可以更透徹地理解人工智能生成內容的版權內涵。
第一,從數據生成過程來看,判別式人工智能基于對以往數據的學習形成模型,然后通過模型獲取事物特征并進行預測。生成式人工智能則是基于對數據生成過程的學習形成模型,然后通過學習模型參數來建模以模擬數據生成過程,最終使用模型參數生成新的數據。
第二,在數據質量要求方面,判別式人工智能對所學習數據有量的要求,通過對海量數據的識別和學習來建模,在這個過程中,還需要對數據進行加工,即數據標注,經過標注處理后的結構化數據才可為判別式模型學習,類似于機器學習中的監督學習。生成式模型則不需要人工標記數據,即可從大量未標記的數據中挖掘數據之間的關系和模式,更接近無監督學習。
第三,從成果形式來看,根據2023年7月由國家網信辦聯合國家發展改革委、教育部、科技部等7部門發布的《生成式人工智能服務管理暫行辦法》,人工智能生成內容(AIGC)的形式主要包括文本、圖片、音頻、視頻等。事實上,生成式人工智能創建新內容的形式除了上述立法中概括的,還有代碼、3D交互內容等,并且已在產業中廣泛應用。判別式人工智能的成果形式主要有圖像、文本、語音識別等,側重運用于人臉識別、推薦系統、風控系統等場景。
當前學術界對人工智能生成內容的稱謂五花八門,包括“人工智能生成物”“人工智能創作物”等,即使有些稱為“人工智能生成內容”,但實際上仍然是在生成式模型如ChatGPT的技術背景下展開的探討。因此,筆者認為有必要從邏輯上厘清人工智能生成內容的應然范圍。人工智能生成內容這一個概念是以生成媒介為角度,比照用戶生成內容、專業生成內容而產生的,這一層級的分類并未涉及對人工智能、普通用戶或者專業用戶這些生成媒介類型的層級劃分。根據算法模型的區別,人工智能生成內容應進一步區分為生成式人工智能生成的內容、判別式人工智能生成的內容以及融合式人工智能生成的內容。當然,這種分類不夠周全,隨著新的算法模型建立,人工智能生成內容會產生新的形式并實現內容上的拓展。
現有技術支持下的人工智能模型,其生成的內容類型豐富,在數智出版領域應用于多元化的場景之中,但存在多重風險。例如,為分析受眾閱讀偏好、消費習慣或個性需求,或者在瀏覽用戶中定位目標用戶,判別式人工智能需要在互聯網或社交平臺上抓取用戶評論、采集閱讀數據,在海量數據采集的基礎上,通過機器學習掌握用戶的閱讀偏好,進一步與目標用戶特征進行匹配,從而判斷目標群體。在這一過程中,用戶無意共享的閱讀主題選擇偏好、一時興起的評論觀點等被挖掘提取,甚至應用于融媒出版,這不僅使用戶面臨個人信息失控的風險,對出版者而言,未經許可使用或在出版中使用收集來的評論或觀點、運用用戶群體數據等也可能面臨侵犯著作權的風險。在內容輸出環節,由人工智能基于數據挖掘、判別和整合而生成的文本能否作為作品出版發行也存在道德和法律雙重風險。
生成式人工智能生成內容所產生的著作權爭議與數智出版新業態發展息息相關。基于人類數據訓練而建模的生成式人工智能,訓練數據的質量及清洗環節決定了輸出內容的準確性,如果出版機構使用帶有偏見的生成內容,則可能導致侵權。此外,生成內容若包含他人的作品、作品的片段或數據時,是否構成合理使用,出版機構能否享有著作權等諸多問題仍缺乏法律依據,這制約了數字化智能化出版業態的升級。
二、人工智能生成內容可版權性的理論辨析與實踐例證
人工智能生成內容的可版權性問題不僅是一個法律解釋或法律規制問題,還是一個如何促進法律與產業、科技動態平衡和良性互動的問題。在界定人工智能生成內容基本外延的基礎上,可版權性需要解決以下幾個問題:基于算法模型的人工智能生成內容是否具備作品屬性?具備作品屬性的人工智能生成內容是否必然受著作權法保護?
1.人工智能生成內容具有作品屬性
我國著作權法規定,受保護的作品應具備四個要素:其一,屬于文學、藝術和科學領域范疇;其二,具有獨創性;其三,能以一定形式表現;其四,屬于智力成果。客觀來講,比照現行著作權法意義上作品的構成要件,無論是生成式人工智能還是判別式人工智能,其生成內容能夠以一定形式表現且大多屬于立法規定的“文學、藝術和科學領域范疇”。因此,我們討論的重點集中于兩點:一是人工智能生成內容是否屬于智力成果;二是生成內容是否具有獨創性。
按照通常觀點,著作權涉及的是智力創作者對其創作所享有的權利[1]。現行著作權法將作品限定為智力成果,也正是基于“唯有人類才具有創造性思維,能夠進行智力活動,實施創作行為并產生智力成果”這一論斷,故而需要在作品與人類思想和情感的表達之間建立邏輯聯系。然而,創造性思維和創作行為是人類獨有的嗎?蒙大拿大學學者開展了創造性思維測試(TTCT),通過對比GPT-4和正常成年人類(本科生)運行TTCT的結果,發現人工智能在思維原創性方面的得分達到或超過人類原創思維能力的得分。近期一些其他機構的類似測試也印證了上述結論。盡管目前的人工智能技術正處于由弱人工智能向強人工智能發展的階段,但模型融合自我迭代的能力越來越強,人為干預因素由強變弱,立法的前瞻性亟須我們直面問題,為通用人工智能的出現搭建法律框架。在現有技術條件下,生成式模型已能夠通過自主學習生成新數據、新內容,客觀上與人類智力成果無異;判別式模型則是基于海量數據進行分類判別,雖然更多依賴人類設定的篩選條件,但判別模型的建立以及在判別過程中不斷迭代仍依賴人工智能自主完成,其生成的數據或文本、圖片等內容類似于人類智力成果。
“獨創性”作為作品的構成要件之一,被認為是作品構成的實質性要件,也是作品“可版權性”的主要判斷方向。基于著作權理論,獨創性主要體現在對素材的選擇、安排、取舍、設計、描述、判斷等方面,在(2012)知行字第38號案件中,最高人民法院判決將之概括為“最低限度創造性”。盡管不同法系國家關于作品“獨創性”的標準在信息技術發展的助力下不斷調整,但應向客觀化判斷標準傾斜這一思路愈發得到理論支持[2]。筆者認為,現有人工智能具有創新思維能力,能夠在算法基礎上實現自我創造,能夠根據不同受眾的需求自行生成作品,其生成內容不受人類的嚴格控制。因此,無論是生成式人工智能還是判別式人工智能創作的產物,就新標準而言,是符合“最低限度創造性”要求的。
需要注意的是,判別式人工智能生成內容的獨創性往往被忽視,如果否定其作品屬性,則會導致出版傳播環節存在大量無法受到版權保護的創作物,免費的許可使用、免費的流通等可能會改變我們創立知識產權的初衷,不利于促進新的人工智能大模型的開發和新的使用場景的探索。從長遠來看,還會沖擊版權許可使用秩序與市場化運行,不利于數智出版的縱深發展。
2.擬制法律人格:解決可版權性問題主體障礙的思路
盡管人工智能生成內容具有作品屬性,但其權利歸屬問題仍然存在生物學意義上的障礙,根源在于人工智能作為著作權法意義上的權利主體或者侵權責任主體的規定缺位。對此,學界提出了兩種具有代表性的解決方案。第一種方案秉持人類主體的法哲學立場,考慮到人工智能設計者對大模型這一工具的獨創性貢獻最大,而使用者對生成內容的貢獻最為直接,在現有制度框架下,由設計者或使用者作為權利主體。第二種方案則需突破人類對自我屬性的認知,以擬制技術賦予人工智能法律人格。有學者提出,結合人工智能的屬性賦予人工智能擬制法律人格,有利于厘清人工智能產物的財產權利歸屬以及劃分人工智能侵權責任[3]。
從司法實踐來看,我國不同法院對人工智能作品著作權歸屬案件所作的裁決存在差異(見表1),但也有共通之處,即在現有人工智能技術和立法框架下,堅持“人與物二分法”和“人是目的”的哲學理念,強調創作過程中人發揮的能動作用,進而保護人類創作主體。通過既有案例的對比可以看出,隨著人工智能模型的迭代加速,裁決觀點也發生了細微的變化,逐步承認人工智能生成內容具備“獨創性”要件,但仍否定其法律主體地位,同時也否定設計者對人工智能生成內容主張權利的資格。
司法實踐的探索似乎印證了第一種方案的可行性,但從長遠來看,按照此方案和現有裁判思路,需要在人工智能設計者和使用者之間權衡并明確權利主體的認定標準,即誰更加直接地參與了創作,誰對作品的完成作出了實質性貢獻。客觀來講,相較于人工智能本身而言,設計者和使用者都不是最合適的答案。此外,業已出現的生成式模型與判別式模型融合生成的內容,包含設計者、使用者和人工智能共同創作完成作品的因素,上述標準如何平衡依然面臨人工智能法律主體資格的問題。因此,采用法律擬制技術,參考法人制度,賦予人工智能擬制的法律人格,使其成為法律意義上的權利主體才是解決主體資格缺位的最佳路徑。在此基礎上改造權利分配機制,對推動出版業在數智技術條件下實現產業升級與高質量發展尤為重要。
三、數智出版背景下人工智能生成內容的治理路徑
2022年,中共中央宣傳部印發了《關于推動出版深度融合發展的實施意見》,明確要求“強化大數據、云計算、人工智能、區塊鏈等技術應用,創新驅動出版深度融合發展”,人工智能與出版的結合最為密切,其生成內容在出版業中可能最先得到運用。
1.建立“出版者主導,協同共治”的治理主體體系
出版業是作品的出口和傳播平臺,其角色定位在數智出版的背景下尤為重要。出版業在數智出版背景下發揮作用的關鍵是構建“出版者主導,協同共治”的治理體系。這一體系旨在確保AIGC健康發展,同時維護出版業的生態平衡與版權秩序。出版者應引領內容篩選、編輯、發布,制定AIGC內容標準與審核流程,與技術開發者、法律專家等合作解決版權問題。
首先,出版者應發揮核心引領作用。作為內容篩選、編輯、發布的關鍵主體,出版者需承擔起對AIGC內容質量、原創性及合法性的審查責任。通過制定明確的AIGC內容標準與審核流程,出版者可以有效過濾低質、侵權內容,保障出版物的合法性。此外,出版者還應積極與技術開發者等合作,共同探索AIGC的版權歸屬、權利分配等法律問題,為AIGC的合法出版提供有力支持。
其次,協同共治是保證AIGC治理效果的關鍵。應在出版者的主導下,建立包括技術開發者、創作者、法律機構、行業協會在內的多方協同機制:技術開發者應持續優化AIGC算法,提升生成內容的獨創性與質量;創作者應明確自身在AIGC創作過程中的角色與貢獻,積極參與版權協商與保護;法律機構應提供權威的法律咨詢與裁判服務,為AIGC的版權歸屬、侵權責任等問題提供明確指引;行業協會應發揮橋梁紐帶作用,推動行業自律與標準制定,促進AIGC產業的健康發展。在具體實施上,可探索建立AIGC內容登記與公示制度,借鑒傳統作品的版權登記模式,為AIGC內容提供便捷的登記渠道與公示平臺。通過登記與公示,不僅可以明確AIGC的版權歸屬與權利范圍,還能為版權交易、侵權維權等提供有力證據。同時,建立AIGC侵權投訴與快速處理機制,及時響應版權糾紛,保護權利人的合法權益。此外,加強公眾教育與宣傳也是不可或缺的一環。通過普及AIGC相關知識、提高公眾版權意識、引導合理合法使用AIGC內容,可以營造良好的社會氛圍與輿論環境,為AIGC的健康發展奠定堅實基礎。
2.健全“分層施策、分類治理”的內容監管模式
在數智出版領域,人工智能生成內容的監管不僅關乎版權保護與生態平衡,還直接影響信息傳播的透明度和公信力。因此,在“出版者主導,協同共治”的治理框架下,進一步健全“分層施策、分類治理”的內容監管模式顯得尤為重要。
首先,分層施策意味著要根據AIGC內容的生成階段、應用場景及影響范圍,采取不同層次的監管措施。在內容生成階段,應強化算法監管,確保AIGC算法設計符合法律法規要求,避免生成違法、有害或具有誤導性的內容。對于公開傳播的內容,需建立更為嚴格的審查機制,確保內容真實、準確、健康,符合社會公序良俗。對于涉及國家安全、社會穩定、個人隱私等敏感領域的內容,應實施更為嚴格的監管,必要時進行前置審批或備案。
其次,分類治理是針對不同類型的AIGC內容,制定差異化的監管策略。對于文學作品、藝術創作等創造性內容,應重點關注版權歸屬、原創性認定及侵權防范;對于新聞報道、時事評論等新聞信息類內容,需強調真實性、客觀性和公正性;對于教育、科普等專業知識類內容,需確保內容的準確性、權威性和科學性。通過分類治理可以更加精準地把握AIGC內容的特性和風險點,采取有針對性的監管措施,提升監管效率和效果。
在實施過程中,需注重技術手段與法律制度的有機結合。一方面,可利用區塊鏈、數字水印等先進技術,對AIGC內容進行唯一標識和全程追溯,為版權保護、侵權追責提供技術支撐;另一方面,應完善相關法律法規和行業標準,明確AIGC內容bCmp+znRfw7olVPItW94MCnRULERCRtRiBU18t6+A48=的法律地位、權利歸屬和責任主體,為監管提供法律保障。同時,加強跨部門協作和國際合作,共同應對AIGC帶來的全球性挑戰和問題。
此外,提高透明度也是內容監管的重要方向。可公開監管政策、標準和流程,增強公眾對AIGC內容監管的認知和信任;建立AIGC內容監管信息公示平臺,定期發布監管動態、典型案例和風險提示等信息,引導公眾理性看待和使用AIGC內容;鼓勵社會各界參與AIGC內容監管的監督和評估工作,形成全社會共同參與的監管格局。
3.優化侵權責任承擔機制
在探討如何優化人工智能生成內容的侵權責任承擔機制時,一個創新且具有前瞻性的思路是設立人工智能獨立基金,以化解潛在的侵權責任風險。這一機制旨在平衡技術進步與法律責任之間的關系,促進AIGC技術健康發展,同時保障權利人的合法權益。基金的資金來源可以有多個渠道,如:政府撥款、行業自律組織捐贈、AIGC技術使用者及開發者按比例繳納費用、侵權案件中的罰款及賠償款等。通過多元化的資金來源,可確保基金的穩定運行和持續發展。應設立專門的管理機構運作基金,負責資金的籌集、管理和使用。管理機構應遵循公開、透明、公正的原則,定期公布基金的財務狀況和運作情況,接受社會監督。同時,管理機構應建立科學的投資決策機制,確保資金的有效利用和保值增值。基金的功能與作用主要是侵權賠償、分散風險及糾紛調解,基金可以作為第三方調解機構,通過提供專業的法律咨詢和調解服務,幫助當事人達成和解協議,減少訴訟成本和時間成本。
4.構建一體化的全鏈條風險防御機制
構建一體化的全鏈條風險防御機制,是確保人工智能生成內容技術安全、穩定、可持續發展的關鍵步驟,機制的建立旨在從源頭到終端,全方位、多層次地識別、評估、監控和應對AIGC技術可能帶來的各類風險,包括技術風險、法律風險、倫理風險和社會風險等。構建全鏈條風險防御機制是確保AIGC技術安全穩定發展的關鍵,機制涵蓋風險識別、評估、監控與應對,覆蓋技術、法律、倫理和社會等風險。建立風險識別體系,應實時監測相關數據并以數據分析AIGC技術各環節,組織專家評估風險。在技術上,要加強算法和數據安全,建立應急響應機制。在法律上,要完善法律體系,明確法律地位和責任主體,加強執法。在倫理上,要建立審查機制,加強公眾教育。在社會風險上,要通過政策、市場和社會監督應對風險。整體來看,全鏈條風險防御機制是AIGC技術可持續發展的保障。
綜上所述,一體化治理模式是保障AIGC技術健康、穩定、可持續發展的必然要求。通過風險識別與評估、技術安全防控、法律合規保障、倫理道德引導、社會風險防控等多方面的努力,可以有效防范和化解AIGC技術帶來的各類風險,推動其更好地服務于社會發展,增進人類福祉。
|參考文獻|
[1]WIPO. WIPO Intellectual Property Handbook(Second Edition)[M]. Geneva:WIPO Publication,2004.
[2]李成亮,王惠敏. 機器人創作物的可作品性[J]. 理論觀察,2017(6):87-89.
[3]楊清望,張磊. 論人工智能的擬制法律人格[J]. 湖南科技大學學報(社會科學版),2018(6):91-97.