

關鍵詞:ChatGPT;人工智能創作物;獨創性;合理人原則;保護策略
一、問題的提出
2022年11月30日,美國人工智能研究公司Ope?nAI 推出了基于GPT-3.5 架構的自然語言處理工具ChatGPT (Chat Generative Pre-trained Transformer)。這一基于人工智能的聊天機器人一經推出引發了廣泛反響,因為它不僅可以近乎人類之間的實時交流,而且在人類引導下能夠寫郵件、代碼,甚至學術論文。據報道,一些國外學校的學生使用ChatGPT進行論文寫作,并取得了不錯的成績。2023年1月發表的一篇關于人工智能在護理教育中運用的論文甚至直接將ChatGPT 作為第二作者[1]。一時間,ChatGPT 是否可以成為論文的作者之一以及所創作的結果是否可以成為著作權法上的“作品”又一次引發了與著作權有關的爭議,國內外的知名期刊都開始注意到這一問題并且發表聲明,比如知名學術期刊《Nature》直接在其官網明確提到,任何(包括ChatGPT在內)大型語言模型工具都不能成為論文作者,但是對于它所形成的“作品”是否可以受到著作權法的保護卻沒有進一步說明。如果從現有態度來看,成為著作權法意義上的作品而受到保護的說法并沒有得到完全認可,還是一種搖擺不定的狀態。
人工智能創作物在著作權領域的問題并非全新課題,近年來,理論和司法層面上都對人工智能創作物的獨創性、權利歸屬以及權利主體構建等問題有了廣泛探討。而ChatGPT的出現可以說在一定程度上突破了以往人們對人工智能發展的認知,因為它幾乎可以與真人進行“真實對話”,并具備相應的工作能力,這讓人們懷疑人工智能是否已經具有一定的“自主意識”。同時,人們也需要思考是否可以放棄以往的“人類中心主義”,采取更加開放的態度對待人工智能及其創作物,或者我們還需要繼續觀察人工智能及其創作物的發展,以判斷其是否真的達到“完美”的程度。對這一問題,本文希望以ChatGPT為引,通過對人工智能的基本原理進行細致的剖析與探討,并結合著作權的基礎理論和司法實踐中出現的具體問題,探索一條關于人工智能創作物所涉及的重點——著作權問題的不同路徑。
二、人工智能的“人在回路”本質:以“ChatGPT”為例
關于人工智能創作的論述大都集中于人工智能與法律之間的互動之上,但忽略了人工智能的本質問題,比如有論者認為人工智能無論如何發展都只能作為客體和工具來看待,而不是與人平等的法律地位[2];也有論者進一步提出人工智能的能力是人類所賦予的,所以是人類意志的延伸,以此為基礎確定了人工智能的“工具論”或者說“工具”屬性[3];也有不少論者認為現有的人工智能由于其深度學習能力已經發展到不同于以往的程度,故此賦予其有限或擬制的法律人格是可行的[4-5]。盡管在相關問題上有所涉及,以上論述基本還是從人工智能與法律之間的關系出發,并沒有更為深入地說明“人工智能”的具體運行機制,從而導致結論稍顯“浮于表面”。所以,既然要討論人工智能與其創作物和著作權法之間的關聯,了解其本質才是核心,這就要從“人在回路”這個重要概念為引。
(一)什么是“人在回路”
所謂“人在回路”(Human In The Loop, HITL),就是人類參與到人工智能的學習與決策過程,允許人類對某一或某幾個預測模型進行直接反饋的交互系統。其中算法只是交互過程中的一部分,最終結果是要受到“回路”中的人類輸入和反饋的影響。具體來說,首先需要操作人員通過注釋(annotation)的方式對數據進行人工標注,使其成為機器可以學習的訓練數據(training data),比如在新聞中添加具體主題,或者是給照片和視頻進行分級分類[6]。這一步在“人在回路”的交互系統中占據重要地位,需要花費大量時間,人類所標注的數據質量越高,機器輸出的結果也越精準。數據標注完成并將其轉化為訓練所需數據后,便進入到利用訓練后的數據來創造機器訓練模型這一步,隨后通過部署這一已經形成的初始模型來對沒有被標注的數據進行一定程度的預測。同時,如果所標注的數據數量無法滿足多樣性要求時,此時還需要機器進行“主動學習”(active learning),也就是對人類感興趣但未標注的數據進行抽樣性調查[6]。當然此時的預測由于模型還未進行迭代升級,其結果仍然不夠準確,所以還是需要回到人類,通過對結果的審核與數據的再標注,重復上述步驟讓AI模型完成更高效的迭代與升級從而得到更準確的預測結果,這種過程就稱之為“人在回路”,具體的流程見圖1。
不過這種解釋仍稍顯抽象,因此,我們在這里通過對ChatGPT這一當下流行的AI模型對“人在回路”進行更深層次的解釋①。詳細說來,ChatGPT的訓練模型總共分為三個步驟:第一步中首先收集示范數據(demonstration data)進行標注,并將數據傳輸給團隊后給出提示和結果,并用它來監督訓練一個基線模型;第二步,利用基線模型對問題予以回答形成一個“數據集”,并在此基礎上訓練一個獎賞模型(RewardModel,RM),也就是將模型所輸出的結果由人類進行由高到低的評價和反饋以進行下一步預測;最后,采用PPO(Proximal Policy Optimization,近端策略優化)這種可以直接學習和及時更新的策略來克服以往“從過去經驗學習”的算法來生成隨機問題的回答,并使用前述RM作為獎勵函數對所給出的回答打出分數來微調學習基線,以不斷地迭代和升級AI模型強化學習模型并最終得到更符合具有人類偏向的有效結果[7]。我們通過使用ChatGPT來進一步講解“人在回路”的精髓。在圖2中,筆者通過與ChatGPT進行實時聊天并詢問其問題,在得到錯誤的回答后予以及時糾正,最終得到正確的結果。可以看到,ChatGPT的答案很大程度上受到輸入者的掣肘,是根據具體使用者的輸入結果而進行實時調整,這就是最為簡單與經典的“人在回路”例子。相對比而言,ChatGPT顯然要優于傳統的“人在回路”運作模式,特別是OpenAI并沒有持續使用超大規模的數據讓AI進行學習,而是通過設置獎勵模型和優化算法機制的方法讓最終的結果有更高的置信度和更強的可預測性。
通過上述介紹可以發現,“人”在人工智能的決策過程中起著不可或缺的作用。盡管算法機制等方面在輸出結果中占據一定的比例,但更重要的是人類操作者的輸入和反饋。不過,這也意味著數據的誤差、人類的主觀偏見或判斷力缺乏可能導致結果出現偏差。同樣地,在機器因信息不足和語境不明而出現錯誤時,人類可以幫助系統進行糾正,以確保盡可能得到有效結果。因此,輸出結果不可避免會受到人類偏好的影響,這種立場最終也會影響到AI模型的迭代和升級。目前,以人類偏好為中心的深度學習正是人工智能的發展方向,根據DeepMind和OpenAI的聯合研究結果發現,從人類偏好中學習可以讓AI在未來更好地適應復雜的現實世界,并從人類多樣性的價值觀中提取出相對統一的結果,以配合人類提高工作效率[8]。可以說,人工智能的發展方向不是簡單的工具或單獨依靠機器的自主學習,而是人與機器協作。當然,現在的人工智能模型相較之前也取得了巨大的進步。例如,DeepMind設計的模型只需要人類審查大約0.1% 的代理行為就可以讓模型自行完成下面的任務[9]。
(二)為什么“人在回路”
通過總結可以發現,“人在回路”是現階段與可見未來時間內人工智能的主要發展路徑,這不是“極端人類中心主義”,而是人工智能發展必然的選擇。威爾遜和道爾蒂教授通過對1 500 家公司研究后發現,人工智能的確有能力從根本上改變工作的完成方式,但這項技術的關鍵在于補充和增強而不是取代人類,人類需要人工智能的大規模數據分析與運算,人工智能也必須依靠人類在比如調動氣氛或者靈感迸發等方面的能力,雙方合作后才能讓最終績效達到最高值[10]。不僅是現實世界的數據支撐這一觀點,理論上也是如此。隨著海量數據的涌現,深度學習(deep learning)將人工智能提升到一個更高的層次。深度學習是一種基于神經網絡的機器學習算法,它“由多層非線性運算單元組成,每個較低層的輸出作為更高層的輸入,可以從大量輸入數據中學習有效的特征表示,學習到的高階表示中包含輸入數據的許多結構信息” [11],這種模擬“人類大腦的神經連接結構并通過多個變換階段分層對數據特征進行描述的機器學習方法可以提供更高的抽象層次和模型能力” [12],從而輸出更好的結果。但模擬人腦神經元不代表它等于人腦。根據計算機學家馮·諾依曼的說法,人腦與計算機的工作邏輯是符號“在‘機器’的各個器官中同時出現”的并行與“在機器的一個器官中,在連續的瞬間依次出現”的串行的區別[13]。目前的人工智能確實不同于諾依曼的傳統“計算機”架構,而且在運行過程中也開始使用類似于人腦的分布式并行,深度學習就通過這種方式來完成更大規模的運算。但是大腦的活動是一種內源性活動,“整個神經網絡只是部分地受外部輸入影響,自主性才是其顯著特征;由于自發激活,該網絡能夠產生自己的目標,并且通過這些激活以自上而下的方式塑造其他腦活動” [14]。人工智能不似大腦,其深度學習必然受到外部影響,沒有大量數據的輸入,即便是再復雜的內部構造也無法輸出相應結果,更遑論自主性。如果要用一個比喻來說明的話,那么人腦就像是海洋之中扔入一顆石子,也許會產生平靜的波紋,也可能掀起巨浪,但是人工智能很大程度上還是要按照既定的軌跡進行[15]。此外,深度學習所依賴的大量數據需要經過人工標注而并非被毫無目的地輸入,而且由于過量數據可能會導致結果偏差和錯誤或出現不符合人類價值觀的結果,所以深度學習的循環過程仍然需要依靠人類完成。
不過為了克服上述難題,人工智能也會采取“主動學習”的方式進行迭代。但并不是所想象那般可以如人類一樣“主動”地汲取知識和信息來完成自我發展,主動學習的使用是因為在有些場合下,如果仍然采取大量的人工標注方式會導致時間和經濟成本過高,所以通過篩選的方法來獲取一些難度較高或者更具有針對性的數據進行標注后以期望獲取具有更大準確性的一種方式[16]。盡管這種方式進一步減少了人的因素,但這種主動是一種“被動式主動”而非像人類一樣的“主動式主動”。即便ChatGPT通過優化機器學習的方法,同時適用深度和主動學習的方法進行優化使得它可以在減少對人類依賴的同時更加及時、有效和準確地完成響應,但底層邏輯仍然是“人在回路”。
三、人工智能創作物的可版權性問題:以“獨創性”為核心
在討論人工智能創作物的著作權問題時,可版權性通常會得到關注,特別是獨創性概念在其中被反復提及。如果按照人工智能的“人在回路”交互系統所揭示的人工智能本質,貌似可以得到“不符合獨創性要求”這一確定的答案。但現實世界不是純粹的線性邏輯,尤其涉及法律問題,不能簡單地依靠技術來作出決策,它需要在各種社會利益與不同意見中尋求平衡。目前來說,在判斷人工智能創作成果獨創性的時候,大體可分為兩種:一種是主觀標準,或來源論,這種觀點認為人工智能創作物是否具有獨創性需要考慮是否來源于人類或者體現作者個性[17];另一種則是客觀標準,或內容/結果論,這一路徑認為算法的發展讓作品由“作者創作”改為“讀者需求”,所以要關注的重點并非作品創作過程或“個性”“思維”等方面,而是關注作品是否存在客觀區別[18],比如“讀者”或“消費者”標準皆屬此列[19-20]。無論哪種標準都有其正當性,但這些關于人工智能創作物獨創性的討論總是透露著一種隱喻,也即人工智能與人類擁有幾乎相同的創造性。這種觀念其實在某種程度上預設了人工智能可以創造,以及其創作成果必然可以滿足人類社會中的“創造性”,進而認為獨創性也可以得到滿足。但這種以“結論支撐依據”的論證方式很容易陷入循環論證和自說自話的困境,因此我們需要重新審視獨創性與人工智能創作成果之間的關系,這仍需從“獨”與“創”兩個方面出發。
(一)人工智能是“獨立”創作的么?
首先,討論人工智能創作物獨創性問題的關鍵是確定人工智能是否能夠“獨立”地創作具有一定限度創造性的作品。這一層面上需要明確的是,純粹的主體因素不能納入考慮范圍之內,否則獨立創作從一開始就被遏制住了,因為傳統意義上只有“人類”創作的作品才會考慮獨創性[21]。但這并不意味著“獨立創作”不需要被考慮,這仍然要從理解“獨立”開始。
在著作權法語境下,“獨立創作”指的是作者獨立進行創作,來源于作者而非抄襲。這要求作者必須憑借自己的智力或才智獨立完成某一腦力勞動成果,而不是抄襲得來[22]。有些論者認為,“獨立創作”成為獨創性內涵的原因是歷史特殊情況和司法實踐等偶然因素,并且像民間文學藝術等作品也非獨立創作,將它作為基本內涵不符合法律實際[23]。尤其是像Chat?GPT這樣的人工智能很多時候可以進行自主迭代和發展,創作出與人類作品近乎一致的成果,不少論者認為這一要素沒有必要繼續存在,只需要從作品內容出發即可,這也讓“獨立創作”存在的必要性進一步受到了質疑,但這種說法是片面的。什么是獨立的創作?在實踐中這一問題也有具體闡釋,它是指“思想者借助物質媒介,將構思訴諸形式表現出來,將意象轉化為形象、將抽象轉化為具體、將主觀轉化為客觀、將無形轉化為有形,為他人感知的過程”②,這種解釋符合獨立創作起初的含義。在還沒有開始使用獨創性的概念對作品進行判斷的前著作權法時代,對作品要求的門檻很低,只要是“作者”創作的,甚至可以不論內容和形式,就很可能成為作品。比如在早期英國的司法實踐中,整個18世紀英國法院所判決案例中基本認為只要是作者自己創作的,哪怕是從他人那里摘抄章節過來也可以滿足“獨創性”,例如在“Gyles v.Wilcox”案中,哈德威克勛爵(Lord Hardwicke)提到“只要行使了一定的判斷力,即便是把其它書籍中的內容進行刪節后再編著也可以被稱為一本新書”③。隨后的“Strahan v. Newbery”案中大法官阿普斯利(Lord Apsley)也認為,縮減了原告書中不必要和無趣的內容其實是創造了“一個被允許的和有價值的作品”,甚至認為這種行為可以節省讀者的時間所以能被理解④。簡單地說,“獨立”在一開始就與洛克的“勞動財產說”是直接掛鉤,代表作者發揮自己的“主觀能動性”(腦力與體力勞動結合)進行創作。所以早期著作權法規制的不只是“作品”,更包括“創作行為”,正是創作行為這種“勞動”為“作品可以受到法律保護”這一結論提供充分的正當性論證并沿用至今。當然,這不代表獨創性的判斷要關注“行為”本身,但正是“行為”讓不同作者將自己的主觀思考進行具象化,使得獨創性有了討論的基礎。創作本身的確是一種事實行為,但著作權法中的獨立創作除卻事實行為外還是一種法律規范,它不是只表明了作者與作品的關系,還表明了作者是否“獨立”創作了具有“最低限度創造性”的作品,從而讓不同作者之間的不同作品得以區別,所以是否“獨立創作”與“創造性”之間是一種緊密連接的關系[24]。
此外,獨創性迄今為止發生的變化很大程度上還是在圍繞“獨立創作”本身,只不過是從近乎沒有保護門檻到需要一定程度的創造性,這一結論也存在現實依據。在18世紀的學者看來,即便是進行簡單刪減也是勞動和發明的產物,因為內容也許是相同的,但是編排上卻可能不同,所以每個人的每個作品都是獨一無二的[25]。這種觀點是由一直以來強烈影響西方的文學理論中的“模仿論”所決定,直到18世紀浪漫主義思潮的流行,揚格將“創造性”與文學財產連接起來后才得以緩解。這種做法深刻影響了之后的浪漫主義作家與法學理論家,使得如今許多學者在回顧那一段歷史的時候會不由自主地得出“創造性”很早就已經出現在獨創性之中的結論。可如果創造性是獨創性的根本要求,那么就不會有“都具有創造性的相同或相似作品在不是抄襲的情況下皆具有獨創性而成為著作權法中作品”的原則。所謂最低限度創造性也是在Feist案后才被重視起來,可本案要判斷的只是一本“電話簿”,這根本無法動搖獨創性的根本,不能說電話簿不是作品就可以讓消費者對餐館的評論或者是一些帖子從此失去獨創性[26],重點還是在“獨立”問題上。所以獨立創作的要求不是純粹的偶然,而是一種必然出現的結果與過程中偶然因素出現的結合體。況且,獨立創作包括來源于作者與不是抄襲兩個方面,這就要求作品不僅表明了作者與作品之間的不可分割性,也直接明確了抄襲作品的不可版權性。
當然,通過歷史來推導今天的人工智能的確有些過時,可這仍然無法得出人工智能可以“獨立”創作,這種觀點沒有清晰地意識到“人在回路”交互系統下人工智能的“非獨立性”。如前所述,沒有足夠和詳細信息的提供,即便是現階段十分出彩的ChatGPT也只能提供一種類似于大綱式的結果或者是大規模數據學習后的排列組合。人工智能與所謂的“作品”的聯系性并不明顯,人工智能的創作成果是基于現有數據的注入、算法的構建以及最重要的“人類偏好”所共同搭建構成的,它更像是為了符合人類價值觀而被動形成的一種“半成品”,人工智能并沒有真正發揮一種“主觀能動性”去自主地創作出一部“作品”。所以,要將“人工智能”與“獨立創作”之間生硬地架構起聯系,未免有些牽強。
(二)人工智能可以“創造”么?
“創造性”因素一直是獨創性判斷過程中的難點與重點,許多論者都認為應當從“表達”或內容層面對是否具有“最低限度創造性”進行判斷。但這種觀點忽略了主體與創造之間的聯系,“作品”具有(最低限度)創造性的前提是主體可以創造/創作并且產生了具體內容。人類固然可以如此,但人工智能卻無法“創造”。什么是創造?威爾遜教授認為,“創造是我們內心對創意的追求。創造的驅動力,是人類獨有的對新穎事物的熱愛”,在很大程度上,創造使人類這一物種所特有并且具有決定性的特征[27],它讓人類通過這一方式認識和理解自己,并明白從哪里來以及往何處去。但是人工智能的行為邏輯不是“內源性活動”,人工智能完成創作行為的目的是“為了訓練而創作”,所謂的人工智能進行“創造”本質上就是人類意志的介入與人工智能一定程度上自我迭代與發展的綜合體現。因此,這仍然需要人類與創作成果之間體現出緊密的聯系,而不是簡單認為“人類運用硬件、算法和數據創造出人工智能,而體現出人類意志的人工智能創作出的成果就可以簡單認為是人類的選擇與安排”。在騰訊訴上海盈訊科技有限公司侵害著作權一案中,法院在說理環節認為涉案文章的創作過程實際上無人參與但也不能將Dreamwriter視為創作主體,隨后又提出文章的創作與表現在本質上還是由主創團隊人員進行選擇和安排,體現其意志⑤。這種說法混淆了人與人工智能“創造”的邏輯,Dreamwriter的開發是由原告(人類)創造出來的工具,但是文章的產出是人工智能的輸出結果,兩者之間的獨創性的判斷不能直接混為一談,更何況創作過程本身就不能被混入到獨創性判斷中。而在“菲林律師事務所與百度著作權糾紛”案中,法院認為涉案文章中圖形的變化不是基于創作產生,只是數據的不同而已⑥。在這里,法院并不愿過多關注創作過程,更傾向于將人類與人工智能的“創作”行為分開討論,這種方式可以說一定程度上厘清了人類與人工智能之間行為的邏輯區別。
當然,有論者認為人工智能通過“深度學習”后的創作已然不是隨機產出或機械計算,而是一種有目的的產出邏輯,這與人腦在構思與創作方面的邏輯沒有本質上的差別[28]。但事實并非如此,深度或主動學習讓人工智能有目的的產出不是人工智能自己的目的,而是人類主動設置的目的,所謂的人工智能自主創造更多的是一種“人工智能幻覺”的陷阱。即便我們假設人工智能輸出成果行為可以被稱為“創造(作)”,但在多數場合下也不容易被認為符合“最低限度創造性”。以ChatGPT為例,如果使用者給出一個主題讓它創造出一篇有少許情節描述和言語修辭小短文的確可行,但實際上ChatGPT輸出的內容準確來說更像是一本流水賬而不是一篇真正意義上具有“內容”和“形式”的“文字作品”。當然,也可以選擇提供更加具體的信息來“訓練”它,可結果也只能是流水賬之中加入我們所提供的“信息”,其輸出邏輯更傾向于一種排列組合而不是像Feist案中法官所說的“一點火花”的加入。
這樣來看,人工智能既無法獨立創作,也無法滿足“最低限度創造性”的“主體可以創造”這一前提條件,那么結論似乎就是人工智能創作物很難滿足著作權法上的“獨創性”要求。但是這種說法也是過于武斷的,因為有許多人工智能創作物是在使用者的指導和訓練情況下出現的,比如在充足訓練和給出“足夠”有效信息的情況下利用ChatGPT創作文章或者詩句,再比如利用DreamStudio 或文心大模型等AI作圖工具,可以在減少重復勞動的情況下通過輸入文本或上傳圖像的方法生成新圖像等,確實有可能滿足獨創性要求,畢竟這種成果的來源還是作為人類的使用者或者AI開發者。但問題是這種“利用”人工智能創作的成果應當采取如何進行判斷,這就涉及對獨創性標準、方法的構建以及人工智能創作物的內部再分類之上了。
四、人工智能創作物的獨創性判斷標準構建
人工智能創作物也可能具有獨創性,但是現階段在探討獨創性判斷的時候都選擇給人工智能創作物單獨設定一個標準,仿佛默認人工智能創作物的獨創性判斷標準一定可以適用于著作權法上其他類型作品,卻忽略了著作權法內部所必需的標準共通性。此外,單獨設定判斷標準的觀點也進一步忽略了人工智能創作物本身就是由不同類型作品構成的事實。所以,人工智能創作物的獨創性判斷標準構建需要重點考慮的就是標準一致性與判斷彈性的有機統一。
(一)人工智能創作物的獨創性判斷標準選擇:基于著作權法的一致性
著作權作為“技術之子”,包括人工智能在內的科技發展必然會引發著作權法的修改,獨創性無法獨善其身。但獨創性的重新審視并不是人工智能帶動的結果,而是現實的必然選擇。我國現階段的獨創性判斷面臨著理論與實踐上的爭議,一方面,理論的薄弱導致法院在實踐中不假思索地運用某些學者或國外案例的觀點,從而導致類案/同案不同判的情形,最終使得審判結果缺乏可預見性⑦;另一方面,在“獨創性高度”問題上來回較勁,但是“高度”一詞既不是獨創性的應有之義,在實踐中也沒有可行之處,意圖量化獨創性的行為反而會造成進一步的困惑。所以,無論是否有人工智能創作物,獨創性調整也勢在必行。
在對待人工智能創作成果獨創性的判斷標準時,很大程度上都是針對人工智能創作問題本身,并未考慮到普適性。比如前述“讀者標準”中“讀者”概念的涵攝明顯不足。法律概念的形成是“對各種法律實施進行概括,抽象出它們的共同特征而形成的權威性范疇” [29]。而所謂“讀者”等標準沒有具體內容的構建使得其略顯泛化,抽象后應當形成的“具體特征”并未體現出來。同時,“客觀標準”在面對某些作品時很容易陷入“極端客觀主義”的陷阱中,比如藝術家隨手一甩的墨點是否必然具有獨創性,最終就會出現荷蘭最高法院認定具有香水氣味也具有獨創性而作為作品保護的荒唐結果[30]。我們當然不能否認前述判斷標準和方法的合理性,但在司法實踐中,對作品的獨創性判斷從來就不是“刻舟求劍”式的靜態行為,而是具體分析的動態觀察,不同類型的作品本就存在差異,更多的是需要在這之間尋求一種共通性,人工智能的創作成果仍然要歸到《中華人民共和國著作權法》(以下簡稱《著作權法》)第三條之中的不同作品類型中,所以人工智能創作物的獨創性判斷不可能“鶴立雞群”。應該說,來源和結果論之爭本身就是錯誤的,因為不存在為人工智能創作物單獨設定一個標準,而是一視同仁,無論《著作權法》中哪個種類的作品都應該從這一標準出發。尤其是《著作權法》第三條中新增的作品“開放條款”,如果不采取統一的標準,那么獨創性判斷的混亂是可以預見的。所以,無論是人工智能創作物還是其他種類作品,獨創性的判斷應當遵循一種“相對客觀”標準。
“相對客觀標準”首在“客觀”,之所以采取客觀標準,是因為著作權不像專利與商標,它是一個沒有行政機構正式“授予”的權利,在沒有發生爭議之前,其權利的邊界只能被籠統理解[31]。同時,在專利與商標中,登記發揮了重要作用,不同于專利說明書或者商標注冊申請書中對于發明創造或者商標本體的描述,我們很難想象要以何種方式較為精準地形容一本書或一首音樂并清晰地展示給公眾。在著作權中人們面對的不是作品的描述,而是作品本身,法律不得已通過一種“格言式推理”和提取作品核心成分的方式以幫助劃定權利的范圍與邊界[32]。我們可以通過權利要求書中的幾項要求對發明范圍有一個基本的了解,而在判斷獨創性的時候,總會使用例如“個性”或“創作空間”等一系列概念,但個性的高/低和空間的大或小都是很難用言語進行清晰的解釋,所以針對個性、創作過程等方面的主觀標準是很難對本就模糊的著作權劃定一個清晰的邊界。但是客觀標準,如前所述也確實存在固有缺陷。既然如此,“相對客觀標準”這一中性路徑的引入可以有效克服這一問題。所謂“相對客觀標準”指的是獨創性的判斷在客觀標準的基礎上,又充分發揮“判斷是否具有獨創性”過程中的主觀意見。其合理性不僅在于適用的客觀性與靈活性,更在于適用范圍的廣泛性。
(二)人工智能創作物的獨創性判斷方法:“合理人原則”與三階段判斷
當然,空泛地提出“相對客觀標準”并無意義,在“相對客觀標準”的基礎上,包括人工智能創作物在內的各種類作品應當采取的獨創性判斷方法應當是“合理人原則”而非“讀者”“/ 消費者”標準。相比于后者,“合理人原則”的優勢在于:第一,范圍擴大的同時,又可以較為明確地劃定邊界。著作權的最大特點之一在于“如果沒有被告的行為,原告的權利只能在理論上存在” [31]。所以作品的獨創性判斷所參照的范圍就不能只是特定人群,而是站在整個公眾的視角下抽象為一個相對統一的標準。第二,在堅持客觀標準的同時不忽略主觀因素。“合理人原則”在對“合理性”(reasonableness)進行評價之時堅定地采取客觀標準,但這一原則的彈性也保證在具體適用的時候根據具體案件進行“個體”因素考慮,最終通過法官在一定程度上的自由裁量完成判斷。
在具體的實踐適用中,獨創性判斷中的“合理人原則”則是在完成“合理人”的具體構建后將其放置于作品兩側進行橫向觀察,在此基礎上采取“三階段”判斷方法:第一階段需要構建出在一般情境下的“合理的公眾”與“合理的創作者”。在第二階段要立足于作品本身,將其分割為“核心層”與“邊緣層”要素,并且橫向觀察“合理公眾”與“合理創作者”,隨后對案件相關信息進行篩選后進入第三階段。最后一個階段需要法官根據自己的認知能力、案件信息以及個人判斷等做出最終裁判,也即在“合理的公眾”與“合理的創作者”視角下看這一作品(核心與邊緣層分別判斷)是否具有獨創性。在這種方式下,無論是哪種類型的作品或者是相關作品的內部再分類都可以進行具體的分析并且在保證一致性的同時不缺乏彈性判斷。這三個階段中,需要首先關注第一階段的“合理人”構建。具體來說,“合理人”構建應當從參照范圍與認知水平方面出發:從參照范圍角度來看,“合理公眾”的構建一般情況下應當擴大為全體公眾,但是針對某些特殊或專業性較強甚至極強的作品則更多地關注相關作品范圍的公眾,而對非相關領域適當減少比重;“合理的創作者”范圍則應當縮小而且需要在相關領域的“創作者”一側加重占比,也即更聚焦于具體的作品類型并抽象出這一作品領域的“合理創作者”,因為不同作品的創作者所采取的創作方法與步驟存在差異。從認知水平方面出發,“合理公眾”的認知水平應當在“平均值”上下波動,在面對不同作品時,標準的波動點可以適當放低至最低處或放置于較高處。“合理創作者”可以被理解為某一作品的表達在一個相關領域中合理的創作者中基本都會采取的表達,雖然會略高于“合理公眾”,但是它只要求相關或類似領域的創作者了解大致的創作手法即可,不過在具體適用中也要根據不同案件進行變動。
在判斷的彈性方面,需要明確人工智能創作物只是能指,是作為整體進行討論,關鍵仍然是其中具體的分類,也即所指。實際上,人工智能創作物不是多么神秘的事物,其中的作品分類很難脫離《著作權法》第三條。比如,人工智能可能通過數據的“吸收”來作詩和文章,這便是文字作品;或是AI作圖則很有可能滿足條件而構成美術作品。同時,對待人工智能創作物應該采取一種謹慎的態度,這主要體現在作品的來源是使用者還是AI的開發者,這雖然不會發生判斷標準的改變,但不同的來源可能會產生不同的創作成果從而出現“核心”與“邊緣”層的差別,最終的判斷結果也會改變。再比如,根據文字作品中“文學作品”的特性,其“核心”與“邊緣”層分別是“情節、語言和結構”與“題材、主題和表現手法”,這種分類也有現實案例支撐,如在陳喆(瓊瑤)訴余征(于正)案中,法院提到“情節是……基礎表達……作者通過自身的想象力、結合特有的思維表達和邏輯安排形成的足夠具體的、具有個性特點的獨創內容”⑧。既然如此,在具體判斷中就要運用上述已經構建完成的“合理人”對核心與邊緣進行分別探討,如果在“合理公眾”與“合理創作者”視角下人工智能創作成果中的“核心層”與現有作品存在不同,并且“邊緣層”存在“明顯”不同的情況下,則很可能具有獨創性。舉例來說,筆者使用ChatGPT并以“重生后逆襲”為主題創作一篇短篇小說,其創作成果中具體的語言部分也許會有所不同,但情節部分非常模板化,基本上可以總結為“重生—學習新技能/知識/結交新朋友—不懼困難—走向成功”,總體架構也難有變化,如果僅憑主題、表現手法等本身重復率就較高的“邊緣層”很難認為這些成果具有獨創性。如果在這個題材/主題之中加入更多的細節,比如在重生后了解過去與未來會發生的相關事件,并提醒ChatGPT 要采取哪種語言模式和情節結構,最終成果會產生不同的情節、文章結構和語言形式以及明顯不同的表現手法,這種情況下在“合理人”視角下對“核心”與“邊緣”層分別進行對比后是有可能得出作品滿足獨創性要求這一結論的。
五、人工智能創作物的保護策略
誠然,現階段的人工智能創作還遠未到想象那般境地,但不可否認的是采取何種方式與態度對其進行保護仍然是需要探討的主題。特別是人工智能的發展十分迅速,現階段ChatGPT 所依靠的GPT-3 模型(2020年發布)中的神經網絡擁有1 750億的參數,相較于2019年僅11億參數的GPT-2模型,一年時間的提升不可謂不恐怖。所以,面對科技的發展,法律盡管有其固有的滯后性,但絕不代表放任不理。2023年2月,知名期刊《Nature》在一篇名為《ChatGPT:用于研究的五個優先問題》中明確提到要“制定問責制規則”(Develop rules for accountability),這就對作品的來源、是否抄襲或作假等多方面進行根本性反思[33]。因此,人工智能創作物的保護策略也迫切需要進行思考。
對于人工智能創作物來說,未來應當采取“三階段”保護策略。首先,現階段人工智能還遠無法完成如同人類一樣的創作行為,因為它無法通過一種正式意義上的抽象勞動與具體勞動的結合讓相應“商品”產生使用價值與價值,只是通過海量數據的輸入后形成的一種預測性結果,這背后不是人工智能主動迭代與進化,而是人類發揮主觀能動性進行干預。所以,人工智能創作物的本質歸根結底還是人類創作,只不過需要通過人工智能來間接或直接實現。但是也不應當將人工智能比作紙或筆這種傳統意義上的“工具”,因為人類與人工智能是完全可以進行主動配合與交互的,這與寫作所需紙筆完全不同。既然如此,人工智能創作物在現階段不可一刀切地認為其應當或不應當獲得某種類型的保護,而是要分類探討。具體來說,現階段的人工智能創作物應該分為三個等級:第一,對于幾乎沒有或者只有少量人類參與的人工智能創作物,應該在反不正當競爭法的權益保護框架之下進行判斷,這是因為大部分創作物在處于一種脫離人類和需要人類注入數據的雙重性下,想要獲得著作權法的保護是很難實現的,而反不正當競爭法所提供的“權益”保護已經可以囊括大部分需求。至于有論者所言,這種方式無法明確權利歸屬和界限[34],其實無需擔憂,因為人工智能創作的來源無非就是使用者與開發者,想要判斷誰應當享有這份權益最終要看最終結果產生的貢獻值。第二,對于人類基本甚至完全參與人工智能創作所形成的成果,人工智能轉化為是單純的工具,可以考慮采取著作權法保護,但是獨創性的判斷則需要采取上述“合理人原則”這一相對客觀標準。第三,對于某些不容易歸屬到前兩個部分的創作內容可以歸入到公共領域,這是因為人工智能的進步與發展需要實在的海量數據予以迭代,否則人工智能就像是某些廠商的電話機器人一樣,只能抓取少部分關鍵詞根本無法完成正常使用。更何況,數據的價值不是體現在封存而是流通之上,失去了流通性的數據就像是一潭死水。
其次,進入到第二個階段,也就是人類與人工智能的交互到達一個頂峰,可以完成人類社會的“主體間性”時,反不正當競爭法的一般原則便趨于之后,著作權法的保護則應當提前。此時還不能對人工智能賦予與人類一樣的“民事主體資格”,這不僅會沖擊人類社會的穩定性,也不符合人工智能應當發揮的作用。需要明白的是,人工智能要做的不是取代人類,而是與人類通力合作,這樣才能達到最優解。因此,可以考慮賦予人工智能有限的人格,讓其可以對“作品”享有一定程度的權利并承擔相應的義務。因此,可以在不考慮作品來源的情況下直接適用“合理人原則”對人工智能創作成果進行獨創性判斷。
最后一個階段,人工智能也許在未來的某一天成為真正意義上的“人工智能”,就像是《流浪地球》電影中的550W一樣,可以獨立進行運算、估計、預測以及成果創作并且現行法律和傳統理論已經完全無法對其進行規制之時,才需要考慮另外的法律設定,因為這時人工智能已經無法被稱為人類的工具,而是進入到人類社會之中與人類共處,那時的創作物可能不僅真的與人類一般毫無區別,更有可能超越人類。但是這種想象對于人類和法律都太過于遙遠,并不是現階段和近未來階段的當務之急。
六、結語
人工智能不是“人”,而且在可預見的未來內,它也很難擁有像人類一樣的感情、邏輯和交際。有學者對當前人工智能的法律問題研究進行了深刻反思和批判,認為這種研究是假問題、偽問題而非真問題[35]。通過對現有文獻的查閱可以發現許多論者并沒有了解到人工智能的運作本質與發展路徑,更多的還是依靠自身對人工智能的認知提出觀點和得出結論。但是即便是發展極為迅速的ChatGPT也一直沿著“人在回路”的路徑持續優化,基本上所有問題都可以用現有的理論予以回應,遠沒有到可以擺脫人類社會進入到“人類—機器”的共存社會中,更沒有到人類需要提前如此之久的時間來思考它是否應當另外設定權利、制定法律以及重新思考人類與它之間的關系。所以,未來的研究任務還是要對著作權的基礎理論進行深層次和創新性研究,使其可以不斷適應新的時代,并且趕上科技發展的步伐。如此這般,方能為科技與法律同時帶來更好的循環式發展。