999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能生成物獨創性標準再探討

2021-10-22 02:01:18何煉紅,鄧韜

何煉紅,鄧韜

摘要:人工智能生成物的獨創性標準直接影響到其作品資格的認定,具有重要意義。應該以“獨立創作、源于本人”和“最低限度創造性”作為獨創性構成要素,采用獨創性主觀標準,以人類干預引領和保障科技向善。司法實踐中,構建人類干預評價模型,將案例抽象為人類干預情形組合,可解決獨創性主觀標準之客觀化問題;構建人類干預條件模型,歸納人類干預情形組合與著作權保護之間的關系,可解決獨創性主觀標準之門檻問題。

關鍵詞:人工智能生成物;獨創性主觀標準;人類干預;司法判斷模型

中圖分類號:D923.4? ? ? ? 文獻標識碼:A

文章編號:16738268(2021)05005514

近年來,學界對人工智能生成物的著作權保護問題予以了高度關注,縱觀現有成果,對人工智能生成物是否具備獨創性,肯定者有之,否定者也有之。爭論原因正是學者們對人工智能生成物獨創性的判斷方法或判斷標準不一致[1]197。這種不一致與獨創性本身爭議、人工智能主體資格分歧均有聯系。“獨創性標準”對判斷作品資格極為重要,是人工智能生成物可版權性問題的破題核心,故有必要對人工智能生成物“獨創性標準”爭議予以再探討,以利于理論和實務界統一判斷方法和適用標準。在當前的技術背景下,人工智能生成物區別于傳統的作品,其所蘊含的人格因素在其他文章里,也被表述為“思想”“人格”因素、人格要素、個性特征等,本文統一稱呼為人格因素。被大大沖淡,但著作權法的內核依然是鼓勵和獎賞人類創作,獨創性仍包含著對作品人格因素的期待,故有必要采用獨創性主觀標準,通過構建人類干預之司法判斷模型,篩選出人格因素達標的人工智能生成物予以著作權保護。

一、人工智能生成物獨創性標準之論爭

(一)人工智能生成物獨創性標準探討的意義

當前,人工智能生成物是否應納入著作權法保護得到了廣泛討論。支持者認為,可以防止機器人創作中的抄襲之風[2],以產權化方式降低市場交易成本[1]199。反對的理由是,貿然納入不符合要求的人工智能生成物會破壞著作權法的內在統一性和合理性,其利益可以通過其他法律規則保護;保護基于同一算法邏輯得到的不同生成物會滋生人類創造惰性而背離立法宗旨[3]。但無論是否要納入著作權法保護,都要從法釋義學上尋找一個合理的解釋。受著作權法保護的“作品”要件通常包括:(1)屬于文學、藝術和科學領域內;(2)具有獨創性;(3)能以一定形式表現;(4)是智力成果;(5)是思想的表達參照《著作權法》第3條和《著作權法實施條例》第2條、第3條以及《與貿易有關的知識產權協定》第9條。。人工智能生成物顯然滿足第(1)、(3)條,但是否滿足“獨創性”“智力成果”屬性、是否為“思想的表達”則存在爭議。

在上述三個爭議要素的判斷當中,又屬獨創性判斷最為重要。因為獨創性是確定“作品”的必要條件如,吳漢東教授主編、北京大學出版社出版的《知識產權法學(第六版)》將獨創性、可復制性作為作品受著作權保護的兩個實質條件。又如,王遷教授著、中國人民大學出版社出版的《知識產權法教程(第六版)》認為應該從三個方面理解作品:(1)作品必須是人類的智力成果;(2)作品必須是能夠被他人客觀感知的外在表達;(3)只有具有獨創性的外在表達才是作品。,且討論獨創性在一定程度上也有利于探討“智力成果”屬性和“思想的表達”要件。“智力成果”屬性強調的是“作品”源于人類,不是純粹的自然產物[4]2526。而獨創性之“獨”通常解釋為“獨立創作、源于本人”,也有作品源于人類之意。對于“思想的表達”要件,可以拆分為表達對象是思想,以及思想已表達出來。而獨創性主觀標準說認為,獨創性判斷應延及創作過程中是否體現人格因素,人格因素即思想的表征。

雖然獨創性在判斷作品資格時如此重要,然而,在國際社會并無統一的標準。通常認為大陸法系的作者權制度更注重人格因素的參與,而英美法系下的版權制度獨創性要求相對要低。我國的著作權制度雖然深受大陸法系的影響,但是現行《著作權法》和《著作權法實施條例》也并未直接規定獨創性的法律含義和認定標準。2002年出臺的《最高人民法院關于審理著作權民事糾紛案件適用法律若干問題的解釋》第15條該條規定,由不同作者就同一題材創作的作品,作品的表達系獨立完成并且有創作性的,應當認定作者各自享有獨立著作權。被認為可能和獨創性的含義有關。實際上,這一條意在說明獨立創作是侵權抗辯事由之一,并未試圖展示獨創性的含義和標準。即使認為“獨立完成并且有創作性”是獨創性的解釋,但也因“創作”概念直接產生文學、藝術和科學作品的智力活動。本身依賴于“作品”和“獨創性”,陷入循環解釋[5],未給司法實踐帶來太多參考價值。

(二)人工智能生成物獨創性標準論爭的焦點

學界有關人工智能生成物獨創性標準論爭的焦點,主要集中在以下幾個方面:一是獨創性包括何種要素;二是獨創性之“獨”應如何判斷;三是獨創性之“創”的程度要求應否提高;四是獨創性應采納客觀標準還是主觀標準。

1.關于獨創性的構成要素

在獨創性標準中,獨創性所含要素是研究起點。主流觀點認為,獨創性構成要素包含“獨”和“創”兩方面,“獨”指“獨立創作、源于本人”,“創”指“最低限度創造性”。這種觀點的支持理由似渾然天成:一來,獨創性這一詞匯譯自英語“originality”,其英文本意包含“獨”和“創”兩層意思[4]2728;二來,這和獨創性的中文造詞法(含“獨”“創”)相吻合。

但近年來也不乏學者質疑。一方面,有學者認為獨創性僅包含“獨立創作”。如吳漢東教授援引世界知識產權組織解釋作品須具獨創性,即“作品是作者自己的創作,完全不是或基本上不是從另一作品抄襲來的”。,指出人工智能生成物“只要由機器人獨立完成”,就構成作品[2]。另一方面,有學者認為獨創性僅包含“最低限度創造性”。“獨立創作”是獨創性內涵的偽概念,應回歸其原來功能[67]。

2.關于獨創性之“獨”的判斷

假設同意“獨”是獨創性要素之一,就要考慮獨創性之“獨”如何判斷。學界存在以下兩點爭議:一是“獨”是否排斥基于已有素材整合。有學者認為,人工智能生成物的“創造性”是在已有邏輯和數據模式下的排列組合[8],所以,從本質上就不算一種獨立創作的作品。也有學者認為,獨立創作不排斥攝入、整合已有作品創作,只需要新作、原作間存在可以被客觀識別的差異[9]24。二是如何認定獨立“創作”行為的觀察主體。有的學者主張使人工智能成為著作權法上的新主體,享有人工智能作品的著作權[10]。有學者在此基礎上進一步論證,人工智能具有自主性、主動性,已非純受支配之客體,在法律上應設定為“電子人”[11]。有的學者認為,只有人才是創作主體,獨創性來源是人的行為,必須從人的行為出發判斷人工智能生成物獨創性[12]。

3.關于獨創性之“創”的高低

“創”指“最低限度創造性”。假設同意它為獨創性要素之一,亦要考慮如何判斷。最低限度創造性來源于美國的Feist案參見Feist Publications,Inc. v. Rural Telephone Company,Inc.111 S.Ct.1282。。該案中法院認定,Rural公司雖為電話目錄付出了勞動,但其遵循戶主姓名字母順序的編排方式是一種古老、傳統的習慣和做法,僅是機械性工作,無創造性可言,故以缺乏“最低限度創造性”為由否決了Rural公司的保護要求。在人工智能時代,有學者主張提高人工智能生成物的創造性高度標準。理由是,人工智能具有深度學習能力,已非人類活動機械延伸,提高創造性標準利于與其較人類更高的創作能力和創作效率相適應等[13]141。也有學者反對,認為提高創造性標準只會徒增交易、執行成本,沒有良好的法律效果,仍應采用傳統標準[14]106107。

4.關于獨創性之客觀標準與主觀標準

這是近來圍繞人工智能生成物獨創性標準產生的最大爭議,即除去考慮作為創作結果的表達本身是否具有獨創性,是否也應考慮創作過程中有無體現人格因素[1]197[14]102103。支持只考慮創作結果是否具有獨創性的學說,被稱為客觀標準說[15][13]139[14]102108。認為獨創性判斷延及創作過程中是否體現人格因素的學說,被稱為主觀標準說[16]150[17]。也有學者將人格因素抽出,與獨創性并列作為作品要件[7][9]2425,因為此種觀點亦考慮了創作過程中的人格因素,本文也歸類為主觀標準說的一種。

二、人工智能生成物獨創性構成要素的重新闡釋

(一)獨創性構成要素:兼采“獨”與“創”

本文認為,人工智能生成物獨創性要素包含“獨立創作”和“最低限度創造性”兩個方面。

1.證偽“獨立創作”之反駁

有學者提出,“獨立創作”是獨創性內涵的偽概念,將“獨立創作”作為獨創性的內涵有諸多不妥。具體來說,一是形式邏輯上,“獨立創作”描述的是作品和作者的關系,不是作品與其他事物的關系,不適宜用來定義作品的法定屬性;二是法律邏輯上,“獨立創作”指向的是作品著作權的來源和歸屬,強調的是著作權人基于創作行為(或者受讓)對作品享有著作權,但這一強調顯得“特殊”“奇怪”,例如,《民法典》物權編也沒有將所有者基于原始取得或繼受取得定義為“物”的基本內涵;三是價值論上,“獨立創作”承擔了過多的法律功能負擔;四是制度實踐上,剔除“獨立創作”有利于著作權法接受新客體[6]。

本文認為以上觀點有失偏頗。其一,“獨立創作”描述作品與作者關系的結果,就是描述了作品與其他事物的關系。正如德國學者雷炳德所言,“作品體現了作者的獨特性格,這種獨特性格是作品的標志,也就是獨創性”[18]。因為作品源于作者本人,不同作者創作的作品才帶有不同的個性特征,每件作品自身的個性特征構成與其他事物的區別。作品的法定屬性包含“獨立創作”,正是因為作品中蘊含的個性特征是大陸法系著作權法保護的核心內容,將其證偽、只留下“最低限度創造性”的觀點,忽視了這一重要的立法意圖。

其二,著作權法的法律邏輯不能直接和物權法類比。知識產權法調整的客體是無形的知識產品,相較于有形物,更難劃分其與公有領域的邊界。將“獨立創作”設定為作品獨創性的內涵,有利于避免創作者侵占公有領域資源,對源于作者自身的智力創造成果進行精確保護。

其三,“獨立創作”雖然承擔了“確定作者的權利主體地位”等使命,但這并不是“過多的法律功能負擔”。時至今日,我國著作權保護環境雖有改善,但侵權盜版的現象尚未形成根本性扭轉,此時仍需要“獨立創作”要件引導著作權嚴格保護,激勵創作者創作更多帶有獨特個性的作品,弘揚尊重知識產權的社會主義法治文化。

其四,不宜以有利于著作權法接受新客體為由剔除“獨立創作”。一方面,人工智能生成物等新事物尚處于發展之中,著作權法如何予以回應尚未得到充分論證;另一方面,我國受大陸法系影響,不僅注重作者的主體地位,而且強調法律內部體系完整、嚴密,為了接受新客體而貿然修法,有可能造成法律體系的混亂。

2.“最低限度創造性”同樣不可割舍

人工智能生成物獨創性要素包含“最低限度創造性”,符合司法實踐需求和著作權法立法宗旨。最高人民法院曾經明確指出,獨立完成和付出勞動本身并不是某項客體獲得著作權法保護的充分條件參見最高人民法院民事裁定書(2012)民申字第1392號。。從法理上看,著作權法的立法宗旨是鼓勵作品創作傳播、促進文化繁榮。這背后是功利主義激勵論的邏輯。而按功利主義的“成本收益”計算方法,并不是所有作品都值得花大力氣保護,只有那些具備最低限度創造性的作品被區分出來,才能提高激勵效率。國際趨勢也肯定“最低限度創造性”作為獨創性要件之一。德、法等大陸法系國家自不必說,美國自Feist案后也增加了最低限度創造性的要求。

(二)獨創性標準中“獨”之釋義

1.獨立創作不排斥基于已有素材整合

該問題實質上是一個老問題,不應因披上人工智能外衣就成為爭議。在我國,“獨立創作”通常與“源于本人”連用,指勞動成果源于勞動者本人,也即作品是由作者獨立完成的,并非抄襲結果[19]。日本法律中的解讀也具有借鑒意義,在日本法中,一部作品必須是原創的(original),而不僅僅是模仿別人的作品。如果一部人工智能創作的作品不依賴于其他作者的作品,那么,這個作品可以被認為是原創的[20]。本文將其概括為“非模仿、不依賴”標準。由此觀之,“獨立”主要從反面界定為非抄襲、非模仿、不依賴,比較對象是一作品與另一作品。某些人工智能生成物確實是數據庫中已有數據通過算法進行重新排列組合的結果,例如,人工智能生成的新聞系套用系統設定模板、嵌入扒取后依規律排列的數據形成,但如果最終產物源于人類獨立的勞動,并非抄襲或模仿他人作品形成,即可滿足獨立創作要件。

2.獨立創作應當以“人的行為”為研究基礎

一些研究在考察“獨立創作”要件時經常出現一個問題——以人工智能的“行為”為基礎來分析創作行為是否獨立。該做法默認人工智能存在“行為”且該“行為”可能產生權利,將人工智能視作潛在的權利主體,致使人工智能生成物可版權性的研究基礎陷入了迷障。

這一觀點忽視了人工智能技術發展有從弱到強這一階段性、遞進性的客觀情況。在不同的技術發展階段,人工智能技術有著不同的功能定位,其政策和法律的供給需求也不一樣。應該以正確的技術法學分析方法,客觀評估技術變化對法律制度所產生的影響[21]。從產業發展的現狀來說,人工智能領域取得的進步尚局限于弱人工智能階段。人工智能作為一種輔助創作的工具,“看似具有仿人學習、推理和適應能力,但是缺乏常識、智慧以及進行自我維護和復制的廣泛方法”[22]。目前尚無迫切需要去研究強人工智能時代如何賦予人工智能生成物著作權。因為若從“弱”轉“強”,“人工智能系統會對人類的自主性、自由乃至生存造成更為直接的威脅”[23],與之相比,著作權制度受到的沖擊可以忽略不計[16]155。一旦權利客體變為權利主體,倫理學和民法學應先于知識產權法學做出回應[12]。

總之,應以人的行為為獨立創作的研究基礎,堅持弱人工智能階段人工智能的工具地位,以人為主體視角觀察人工智能生成物的創作過程[12]。人工智能生成物獨創性源于人類,體現為人的意志滲透在人工智能生成物生成過程中的各個環節。比如,算法開發、訓練階段,研發者的個性化安排以代碼形式植入人工智能之中;人工智能“創作”階段,數據庫和模型本身無一不包含人類作者的創造勞動[24]。

(三)獨創性標準中“創”之高度

本文認為,人工智能生成物的創造性標準應該與傳統作品保持一致,依然采用“最低限度創造性”。雖然人工智能提升了人類的創作能力和效率,提高創造性標準有利于實現更好的激勵,但在操作層面并不現實。隨著人工智能技術越來越成熟,區分人工智能生成物和傳統作品的難度將越來越大。實踐中,人工智能生成物與傳統作品在形式上幾無差異,在不告知來源的情況下,難以辨別二者。而匿名情形下,人工智能生成物憑借其與傳統作品類似的藝術性外觀,已經足以得到司法上“孤兒作品”水平的保護[9]24。且人工智能使用者可能為了避開較高創造性標準,隱瞞產物為人工智能生成的事實[14]106107。雖然有學者提出給人工智能使用者施加標識義務,但缺乏監督制度恐難實現,而監督難度亦極大。此外,創造性提高到何種程度同樣沒有統一標準,把自由裁量空間留給法院只會帶來更大的不確定性,從而造成裁判尺度不一,損害司法公信力。

不過,本文雖然不建議從獨創性之“創”上提高人工智能生成物的版權保護標準,但是主張從獨創性之“獨”入手,采用獨創性主觀標準,強調只有人類干預達到一定程度的人工智能生成物才能滿足獨創性主觀標準,實際上賦予了人工智能生成物版權主張更高的證明義務,施以了人工智能生成物更高的保護門檻。

三、人工智能生成物獨創性主觀標準之選擇與理由

本文認為,判斷人工智能生成物獨創性,應采納主觀標準,即不僅考慮作為創作結果的表達是否具有獨創性,而且也應考慮創作過程中有無體現人格因素。

(一)獨創性客觀標準說的缺陷

獨創性客觀標準說主張對獨創性標準進行改造,宣稱其不考慮生成物生成過程中是否體現人格因素。然而,這一主張遠沒有考慮其可能帶來的邏輯矛盾與正當性隱患。其一,即使按客觀標準說的思路,只關注生成物本身是否具有獨創性,會不可避免地延及人格因素,因為人格因素就蘊含在獨創性之“獨”與“創”的要求之中。具言之,獨創性之“獨”意為“獨立創作、源于本人”,源于本人指的就是作品與作者在人格因素上的聯系;獨創性之“創”即“最低限度創造性”,但此“創造”指的是智力創造,智力為人所有,智力創造中也有人格因素的體現。其二,為了使客觀標準說不陷入考慮人格因素的自相矛盾之中,支持客觀標準說的學者對獨創性之“獨”和“創”的內涵進行了改造,但改造并不成功。有學者將“獨”解釋為生成物在外觀上不能是現有作品的復制,“創”解釋為生成物比之現有作品有“明顯可見”的變化,并排除顯然、唯一的事實性表達[14]104。這樣一來,人工智能生成物的獨創性判斷完全客觀化,剝離了作品源于作者本人智慧這一重要強調,給予人工智能生成物著作權保護也就失去了源于勞動財產論、人格權論的正當性理論根基,勢必招致外界對知識產權制度正當性更猛烈的批判。輕視人類干預,還難免會帶來技術倫理風險,長遠看來可能有害于人工智能產業的健康發展。

從實踐層面分析,獨創性客觀標準說在主流法域里并沒有實施良好、可以仿效借鑒的先例。客觀標準說往往會借鑒英國1988年《版權、外觀設計和專利法案》的相關條款,為保護沒有人類干預的作品提供示例。實際上,英國法的上述規定并沒有帶來應有的法律效果,英國內部也存在著爭議。其一,現實中是否存在無人類干預的人工智能生成物飽受質疑。其二,《版權、外觀設計和專利法案》第178條第b款將計算機產生作品定義為“沒有人類作者的參與而由計算機獨立生產的作品”。無人類參與的作品,同樣不符合英國原有獨創性標準規定的作品是“勞動、技巧或判斷”產物的要求[25]。其三,就人工智能生成物是否需要滿足獨創性,學者們的觀點存在明顯分歧。有的學者認為只是在理解人工智能生成物如何符合獨創性要求方面存在困難,也有學者根據立法過程中的一些意見建議人工智能生成物在獨創性要求上可獲豁免,還有學者認為人工智能生成物的獨創性只要求一作品沒有復制另一作品[26]。各家觀點都有不妥之處,導致客觀標準說內部并沒有統一方案。

(二)獨創性主觀標準說的合理性

從理論層面而言,獨創性主觀標準說不僅與作者權體系下的人格權論一脈相承,而且與版權制度下的勞動財產論相銜接。黑格爾人格權論將智力成果蘊含的人格價值作為財產權取得依據[27]。比照黑格爾“人把他的意志體現于物內,這就是所有權的概念”[28],人工智能研發者或使用者將自己的意志注入人工智能生成物的生成過程,這部分意志包含了他們獨特的人格、個性因素,使得最終產物也被打上了人格烙印,人工智能研發者或使用者基于此對打上了人格烙印的人工智能生成物主張著作權。而洛克創作《政府論》意在反駁當時為絕對君權辯護的理論,在論證私有財產正當性的勞動財產論中挑明勞動者、勞動和物之間的聯系,即勞動者基于自我所有權,擁有勞動,只要滿足充足限制和浪費限制,摻雜勞動的共有物就脫離共有狀態成為勞動者的財產。與之對應,人類作者基于自我所有權,擁有自己的勞動,混雜創作勞動的作品應成為作者的財產。雖然有觀點認為勞動財產論缺乏人格因素,僅能解釋知識產權中的財產權部分,但不可否認的是,勞動財產論亦以“人類作為智力成果創造主體和財產權利享有主體”為理論展開的前提[27],認為人類和物之間的聯系——私人勞動是私有財產正當性的源泉。也有學者直接指出,“人”通過勞動而擁有其勞動產品的所有權,是勞動者人格權的表現和擴張[29]。 “人”的地位和價值、人和作品的聯系,也是獨創性主觀標準說所關注和強調的。

從實踐層面分析,采用獨創性主觀標準說符合當今主流法域的通行做法。在大陸法系國家,德國《著作權法》第2條第2款規定“作品”只有在滿足是“作者自己的智力創作(the authors own intellectual creation)”的情況下才受到保護。只有源于人類頭腦的作品才能被認為是“智力創作”,這顯然考慮了作品生成過程中有無體現人格因素。“作品”這一概念內涵已經得到了歐盟法律的協調。根據歐盟法院在2018年Levola案中的說理,“作品”需要滿足兩個條件:其一,作品必須是獨創的,即它是作者自己的智力創作;其二,它必須是作者自己智力創作的表達,無論它的表達方式或形式是什么參見CJEU, dec. of 13112018, docketno. C310/17, Levola Hengelo BV/Smilde Foods BV (at no. 36 et seq.)。。歐盟法院在說理中將“作者自己的智力創作”和獨創性等同起來,由此觀之,德國法“作者自己的智力創作”概念指向的正是德國版獨創性內涵,其又蘊含作品源于人類頭腦之意,可見德國采用的就是獨創性主觀標準[30]5。日本《著作權法》中“作品”定義“作品”,是指用創作方法表現思想或者感情的屬于文藝、學術、美術或者音樂范圍的東西。要求作品“表現思想或者感情”,證明日本采用的也是獨創性主觀標準。

即使在獨創性要求較低的英美法系國家,同樣認可獨創性主觀標準。根據美國法律,滿足獨創性需要作品為“獨立創作”(independent authorship),“獨立創作”意味著一方面不得復制先前存在的作品,另一方面“創作”必須包含來自自然人的投入[31]。在Bleistein案中參見Bleistein v. Donaldson Lithographing Co.188 U.S.239。,美國最高法院指出,“一定程度的藝術總具有由人獨立完成的不可約減的內容,其可以對這些內容享有版權”,在司法實踐中體現了對自然人投入的嚴格要求。

值得關注的是,2019年9月,國際保護知識產權協會(AIPPI)就“人工智能生成物的著作權”問題通過了一項決議(以下簡稱“AIPPI決議”)[32]14。AIPPI決議第3條意即,人類干預是人工智能生成物獨創性的來源;第2條第1款意即,只有生成過程包含人類干預,且滿足其他條件的人工智能生成物才能受著作權法保護。這兩條強調了人類干預對獨創性和著作權法保護的必要性,顯見AIPPI所持的也是獨創性主觀標準。查閱AIPPI就同一議題披露的調查報告,接受調查的協會成員里有85%都贊成人類干預應該成為一項人工智能生成物受到著作權保護的條件[33]。AIPPI決議的立場反映了最新的國際趨勢,具有重要借鑒意義。

(三)獨創性主觀標準說的政策意義和可行性

1.政策意義:智能技術中的人類干預是引領科技向善的關鍵因素

近年來,告別技術中立主義、技術無罪論,加強人工智能倫理建設、促進科技向善的風潮席卷全球。例如,聯合國舉辦了“AI向善國際峰會”,推動建立“AI倫理國際對話”;OECD和G20一起推出了人工智能指導原則2019年5月,OECD成員國批準了全球首個由各國政府簽署的AI原則——“負責任地管理可信AI的原則”,包括包容性增長、可持續發展和福祉原則,以人為本的價值觀和公平原則,透明性和可解釋性原則,穩健性和安全可靠原則,以及責任原則。這些原則已被G20采納,今后有望成為AI領域的國際準則。;2019年,歐盟提出了人工智能領域系統的倫理框架;2019年2月,美國正式出臺了AI戰略,提出制定AI監管指南并設定AI治理標準,2020年1月,又發布了《人工智能應用的監管指南》,提出管理人工智能應用的十大原則等;中國也先后推出關于人工智能發展、自律、治理的系列政策文件政策文件如《新一代人工智能發展規劃》《人工智能行業自律公約(征求意見稿)》《新一代人工智能治理原則——發展負責任的人工智能》。[3435]。以上政策文件多次提到“以人為本”,這揭示了科技向善(tech for good)的根本追求。科技向善的含義可以從三個層面思考:一是哲學層面上,人應該是唯一的主體和目的;二是道德和倫理層面上,必須謹防新技術割裂人類社會,致使人類建立的基本價值觀和倫理體系崩塌,技術必須有利于提升人類福祉;三是實踐層面上,應當遵循兩個認知,即“人類共同體”和“人是文明最高、唯一的尺度”[36]。換言之,我們需要的不是“中立的科技”,而是“向善的科技”,且“向善”應該表現為增進人類福祉。

而實現科技向善,顯然不能期待技術未來“自發”產生保護人類的效果(例如,技術中立主義下算法放大了人類歧視,產生了更精準、隱蔽的算法歧視),而唯有靠人類在設計、使用時“自覺”限定技術目的、運行方式,將技術受保護的標尺定在促進人類福祉上——實質上是以人類干預引領和保障科技向善。“我們應當意識到,Artificial Intelligence一詞,關鍵的不是Intelligence,而是Artificial,是人類的自我反省意識和對科技的主動干預。”[37]

智能技術中的人類干預是引領科技向善的關鍵因素。采用獨創性主觀標準有利于倒逼產業界重視、解釋、合理化人工智能技術中的人類干預(生成物中有人格因素正是人類干預的結果),防范技術風險,引領科技向善。未來,“‘善意應成為技術產品的商業競爭力”[38]。

2.可行性:算法黑箱不妨礙解釋外觀上的人類干預

有學者擔心采用獨創性主觀標準會陷入人格因素解釋不清的困境。事實上,這是被人工智能的算法黑箱誤導了。算法黑箱指的是某些人工智能算法的技術原理存在黑箱。例如,典型的黑箱算法——神經網絡算法的原理是“給定一個帶有正確答案的訓練數據集,它們可以通過調整每個連接的強度而逐漸優化它們的行為,直到它們的頂層輸出是正確的”[39]。限于神經網絡算法中數據排布和數學表達都十分復雜,人類在利用算法輸出結果時難以理解算法內部結果如何產生。

然而,對內部技術原理的不解并不妨礙釋明外觀上的人類干預,外觀上的人類干預是可以被觀察、記錄、講述和監管的,也是獨創性主觀標準的關注對象。今日頭條資深算法架構師曹歡歡博士曾在交流會上公開今日頭條的算法原理,直言“算法分發并非是把所有決策都交給機器,我們會不斷糾偏,設計、監督并管理算法模型”[40]。在本文隨后討論的兩起案件“菲林訴百度案”和“騰訊訴盈訊案”中,技術上的算法黑箱并未影響法官從中提取司法裁判所需要的人類干預;判決書概括性地公開了人類干預,也不同于算法本身的透明化,沒有導致源代碼泄露等算法透明化的爭議后果。這是對人工智能工作原理可行、必要和適當的公開。

人工智能生成過程中的人類干預并非不能被解釋,更多情況下是因為缺乏監管文件、保護商業秘密等原因不愿被公開,或即使公開了,普通公眾缺乏算法素養也難以讀懂。隨著機器倫理學的發展,產業界漸起算法公開呼聲,未來以“可知”人工智能換取人類對人工智能的信任會慢慢成為潮流。我國2017年《新一代人工智能發展規劃》明確提出要“實現對人工智能算法設計等程序的全流程監管”,在監管倒逼下,算法公開也會明朗化。獨創性主觀標準建立在此基礎上,具備可行性。

四、主觀標準下人類干預之司法判斷模型的構建

相比于傳統作品,人工智能生成物的人格因素被機器智能大大沖淡,即使法院認同主觀標準而要求生成過程中體現人格因素,分辨人工智能生成物的生成過程體現了哪些人格因素(客觀化問題)、認定人工智能生成物受著作權保護時人格因素應達到何種程度(門檻問題)亦成為困擾法院的難題。盡管我國兩起涉人工智能生成物著作權保護的案例“菲林訴百度案”參見北京菲林律師事務所訴北京百度網訊科技有限公司著作權侵權糾紛案,北京知識產權法院(2019)京73民終2030號民事判決書。和“騰訊訴盈訊案”參見深圳市騰訊計算機系統有限公司訴上海盈訊科技有限公司侵害著作權及不正當競爭糾紛案,廣東省深圳市南山區人民法院(2019)粵0305民初14010號民事判決書。的判決書均長篇分析了涉案材料的獨創性問題,然而,目前在司法實踐中主觀標準的適用仍較為模糊,容易導致類案異判。在產業界推進算法黑箱透明化的同時,法學界有必要就主觀標準的細化做出努力,促進司法統一化。本文就此提出人工智能生成物中人類干預之司法判斷模型,從個案評價和類案保護門檻兩方面切入,分別構建了針對客觀化問題的人類干預評價模型和針對門檻問題的人類干預條件模型。

(一)客觀化基準:構建人工智能生成物人類干預評價模型

“人類干預”指人類在人工智能研發、使用全過程中實質性參與、介入的行為總稱。實際上,生成物中有人格因素是人類干預的結果,而人類干預是具象的行為,將度量人格因素轉化為分析人類干預所涉環節、情形,構建人類干預評價模型,即可化抽象為具象,解決人工智能生成物人格因素之客觀化問題。通過該模型,實踐中個案均能找到其人類干預在模型給定環節和情形上的定位,不同案件會有不同定位,即完成各個案件在同一標準下的客觀化區別評價。因為該模型旨在解決個案人類干預的客觀化評價,故名為人類干預評價模型。以下詳細闡述了該模型的構建過程。

參考AIPPI決議使用的人工智能工作步驟示例(以下簡稱“決議示例”)[32]2,人工智能生成物的生成過程可以簡化為三個環節:其一,創建人工智能系統,該系統能接收、分析、學習自外界輸入的內容,以及靈活采取相應行動,以便在一段時間內實現特定目標(簡稱“環節一:系統創建環節”);其二,選擇輸入人工智能系統的數據,該數據可以是已有作品,也可以是基于特定篩選標準而獲得的來自傳感器、攝像機或其他渠道的內容(簡稱“環節二:數據選擇環節”);其三,將所選數據輸入系統,系統通過生成區別于任何先前作品的“新生成物”以達成目標(簡稱“環節三:制造生成物環節”)。

人類干預滲透于以上環節之中。本文在參考決議示例AIPPI在決議示例中根據環節二、環節三人類干預的有無分別設定了情形2a(環節二中數據或數據的篩選標準由人類確定)、2b(環節二中數據或數據的篩選標準不由人類確定)和3a(環節三中人類基于質量或審美要求從若干“新生成物”中選出一件“最終生成物”)、3b(環節三從若干“新生成物”中選出“最終生成物”的過程不涉及人類干預)。(參見:AIPPI,Resolution—Copyright in artificially generated works,AIPPI,2019p2)和AIPPI流程圖AIPPI決議與AIPPI就同一決議的學習指南有些許差異。指南提供了一張總結人工智能生成過程中人類干預的流程圖(簡稱“AIPPI流程圖”),該圖里,情形2a、2b、3a、3b都有對應的、相同或實質相同的情形,但AIPPI流程圖較決議示例還多出一種特殊情形——決議示例的環節三被一分為二,當“人工智能制造生成物”步驟沒有任何人類干預時,才進入“生成物選擇/公布”步驟,出現情形3a和3b;當“人工智能制造生成物”步驟有人類干預時,直接生成最終生成物,本文將該種特殊情形命名為情形3c。(參見:AIPPI,Study Guidelines—Copyright in artificially generated works,AIPPI,2019p89)的基礎上,嘗試歸納出人工智能生成物的生成環節及人類干預情形流程圖(見圖1)本文除了創造性地綜合決議示例中的情形2a、2b、3a、3b和AIPPI流程圖中的情形3c外,為了研究的全面,還根據環節一人類干預的有無增加了情形1a(環節一里要實現的特定目標由人類選擇)和1b(環節一里要實現的特定目標不由人類選擇),并最終得到圖1。。

人工智能生成物生成環節中人類干預的情形闡釋如下。

(1)系統創建環節,根據人類干預有無分為:情形1a(人工智能要實現的特定目標由人類選擇);情形1b(人工智能要實現的特定目標不由人類選擇)。

(2)數據選擇環節,根據人類干預有無分為:情形2a(數據或數據的篩選標準由人類確定);情形2b(數據或數據的篩選標準不由人類確定)。

(3)制造生成物環節,有兩種運行路徑:其一,如果“環節三之一”沒有人類干預,則進入“環節三之二”,根據人類干預的有無分為情形3a(人類選擇和公布最終生成物)和情形3b(人工智能在沒有任何人類干預的情況下選擇最終生成物),此后產出最終生成物,宣告全流程結束;其二,如果“環節三之一”有人類干預,指向情形3c(人類通過向人工智能發出指令以修改生成物方式或徑直修改生成物方式直接參與生成物的創建),此后亦產出最終生成物,宣告全流程結束。

司法實踐中,單個案例均可被抽象為上述情形的組合,由此完成人工智能生成物人格因素的客觀化評價和統一度量。

(二)門檻問題:構建人工智能生成物人類干預條件模型

1.人工智能生成物“源于本人”的重新解讀

“源于本人”指勞動成果源于勞動者本人、作品人格因素源于作者本人人格,它與“獨立創作”共同構成獨創性之“獨”的內涵。人工智能生成物欲受著作權保護,同樣應符合“源于本人”的要求。重新審視“源于本人”的含義,有利于更好地解決主觀標準中人格因素的門檻問題。

其一,是否“源于人”是人工智能生成物受版權保護的邊界。傳統作品完全來自于人類貢獻,獨創性之“獨”的使命是認定作品源于作者本人而非其他人,“源于本人”的重點在于“本”字。在人工智能時代,作品產生還有人工智能的貢獻,這些貢獻人類難以預測、難以操縱。獨創性之“獨”的使命還在于認定作品源于人類而非人工智能,“源于本人”的重點轉移到“人”字。

換言之,原先已“預設了該創作行為由人類完成”,所以獨創性之獨的判斷更關注創作是否獨立;現在作品不再單純源于人類,“強調人類作者身份以指明創作行為由人類完成,這對界分人類作品與人工智能生成物尤為必要”[17]。

從邏輯上說,生成物是否有不“源于人”的可能,構成了傳統作品到人工智能生成物的本質跨越。是否“源于人”也是能否依據傳統作品的邏輯去保護人工智能生成物的邊界。邊界以外的人工智能生成物與傳統作品有本質差異,拒絕對其予以保護具有著作權法上的正當性。邊界以內的人工智能生成物“源于人”是出于何種條件,則需要進一步判斷。

其二,“源于本人”的程度即人工智能生成物人類干預程度的高低。在傳統理論中,“獨”是一種“有和無”的判斷,“創”是一種“高和低”的判斷[4]34。在人工智能時代,這種認識應該被更新,“獨”同樣具有“高和低”的判斷標準。人類干預程度越高的生成物,在獨創性之“獨”中“源于人”的程度越高,受著作權法保護的理由也就越堅實。人類干預的程度并不抽象,可以根據人類干預情形的組合情況進行度量。

2.人類干預所涉環節、情形與著作權保護可能的關聯性分析

解決人格因素門檻問題,可以轉化為分析人工智能生成物生成過程中人類干預應達到的程度。就此,有必要分析人類干預所涉環節、情形與著作權法保護可能之間的關系。針對上述關聯性AIPPI已經達成了部分共識參見AIPPI決議第2條:“AI生成物只有在其生成過程有人類干預的情況下,且在該生成物符合受保護作品應滿足的其他條件的情況下,才能獲得版權保護。對于生成過程無人類干預的AI生成物,其無法獲得版權保護。上述原則也適用于研究示例中各個步驟所描述的情形,具體結論如下。

針對步驟1,AI生成物不應僅僅因為其是人類創建的AI系統的輸出內容而獲得版權保護;

針對步驟2的情況2a,若用以輸入AI的數據篩選標準系人類選擇確定的,則AI生成物可獲得版權保護;

針對步驟2的情況2b,若用以輸入AI的數據或該數據的篩選標準完全不由人類選擇確定(或僅僅由非人類選擇確定),則AI生成物不能獲得版權保護;

針對步驟3的情況3a,AI生成物不能僅因為人類從“新生成物”中選出最終生成物而獲得版權保護;

針對步驟3的情況3b,AI生成物不能僅因為從“新生成物”中選出最終生成物的過程不涉及人類干預而獲得版權保護。,本文嘗試在其基礎上更進一步構建完整的司法判斷模型,以期為主觀標準的適用提供司法裁判指引。因為本部分討論旨在通過梳理人類干預所涉環節、情形與著作權法保護可能性之間的關系,篩選出人工智能生成物在滿足獨創性主觀標準時人類干預應當達到的條件,故命名為人類干預條件模型。下面將詳細闡述模型構建過程。

(1)針對系統創建環節,情形1a應為人工智能生成物受著作權保護的必要條件之一。這是科技向善、加強人工智能風險管控的必然要求。智能技術中的人類干預是引領科技向善的關鍵因素,而科技向善的重要目標之一即限制人工智能運用目的、增強人類福祉導向。在機器人倫理學領域,廣泛運用的“機器人三定律”由美國科幻小說家阿西莫夫于1950年在其科幻小說《我,機器人》中首倡,在科技哲學領域被普遍承認。包括:“規律一:一個機器人不能傷害人類,也不能夠在人類面臨受傷害風險時袖手旁觀;規律二:一個機器人必須服從人類的命令,除非這種服從會導致機器人違背定律一;規律三:一個機器人必須盡力自我保護,除非這種自我保護會導致它違背前兩條定律。”暗含人類福祉才是機器工作的最終目的之意。由人類確定人工智能系統實現目標與人類發明機器人的初衷相吻合,有利于將技術發展方向限制在增進人類福祉上。倘使一件生成物的目標脫離人類掌控,考慮到倫理風險,著作權法不宜予以保護。但必要條件不意味著唯一條件,好比AIPPI決議第2條第2款指出,人工智能生成物不應僅因為是人類創建的人工智能系統之輸出內容而獲得著作權保護[32]3。

(2)針對數據選擇環節,人工智能生成物若想獲得著作權保護,情形應為2a,且此時人類干預應構成關鍵的數據處理,而非創作的準備活動(preparatory action)。

其一,人工智能生成物若想獲得著作權保護,在環節二上情形應表現為2a。根據AIPPI決議第2條第2款[32]3的規定,環節二人類干預之存在與否和著作權保護之可能與否完全一致。AIPPI“人工智能生成物版權問題”德國工作組分析了德國在決議示例下的各種情況該段中文翻譯如下:將德國著作權法下的獨創性要求應用于工作實例:(1)累計包含步驟1(筆者注:此處步驟1在本文中指情形1a,參見本文第9頁腳注①)、2a和3a的人工智能生成物可以被稱為獨創作品,因為人類對結果作品的指導和控制影響很大,并且在使用人工智能創作作品的所有決定性階段都存在;(2)累計包含步驟1、2b和3b的人工智能生成物不符合獨創作品的資格,因為該作品是算法的產物,并且人類作者對結果作品的指導影響太小;(3)累計包含步驟1、2b和3a的人工智能生成物將不符合獨創作品的資格,因為人類作者根據步驟3對作品的最終選擇不能補償人類作者在創建所選作品時缺乏指導影響;(4)累計包含步驟1、2a和3b的人工智能生成物可以由于數據選擇而符合獨創作品的資格:人類作者通過選擇輸入數據對作品的指導影響越大,結果被限定為獨創作品的機會就越大。。由觀察可知,德國工作組列舉的第一種情形組合“1a+2a+3a”和第四種情形組合“1a+2a+3b”中人工智能生成物能獲得著作權保護,而第二種情形組合“1a+2b+3b”和第三種情形組合“1a+2b+3a”中人工智能生成物不能獲得著作權保護。能獲得著作權保護的情形組合在環節二上均表現為2a,不能獲得著作權保護的情形組合在環節二上均表現為2b,證明了情形2a對著作權保護有關鍵影響。與此呼應,德國工作組解釋道,“1a+2a+3b”情形組合下人工智能生成物可以由于(人類的)數據選擇而符合獨創作品資格[30]6,證明該情形組合受保護的關鍵原因就是情形1a和2a中情形2a的存在。

其二,單獨就情形2a而言,人類的數據選擇行為還需要根據干預深度進一步細分。一種是人類干預僅構成創作的準備活動,對最終生成物沒有顯著貢獻(significant contribution);另一種是人類干預構成關鍵的數據處理,對最終生成物有顯著貢獻,以至于人工智能只能被當作工具看待[30]4。恰如德國工作組對情形組合“1a+2a+3b”的解釋,人類作者通過選擇輸入數據實現的指導影響越大,生成物獲得作品資格的機會就越大[30]6。之所以情形2a如此重要,是因為人類干預構成關鍵數據處理時,人類對生成物的指導影響足夠大,能強力證明生成物“源于本人”。例如,研發者將畢加索在19151920年的畫作作為人工智能系統的輸入內容,指令人工智能生成類似風格的畫作,該選擇個性色彩鮮明,帶有一定的創作意圖,對最終生成物的風格影響巨大,就構成關鍵的數據處理,能支持生成畫作源于研發者本人。

值得注意的是,情形組合“1a+2a+3b”受著作權保護,還證明了僅憑“1a+2a”即足以構成人工智能生成物通過獨創性主觀標準考驗的充分條件,不需要情形3a來補強人類在結果作品上的指導影響。

(3)針對制造生成物環節,情形3a或3b不構成人工智能生成物受著作權保護的條件之一,但情形3c可以替代情形2a,使情形組合“1a+3c”也構成人工智能生成物通過獨創性主觀標準考驗的充分條件。

其一,情形組合“1a+2b+3b”的人工智能生成物不符合獨創作品的資格,因為該作品是算法的產物,并且人類作者對結果作品的指導性影響太小。情形組合“1a+2b+3a”的人工智能生成物也不符合獨創作品的資格,因為人類作者對作品的最終選擇不能補償人類作者在創建所選作品時所缺乏的指導性影響[30]6。所謂人類作者對作品的最終“選擇”不能補償人類作者在“創建”所選作品時所缺乏的指導性影響,指的就是情形3a不能補償情形2a的缺失。

其二,與情形3a、3b只涉及人類對生成物的“選擇”或“公布”不同,情形3c中人類直接參與了生成物的“創建”。本文認為,情形3c于一定程度上近似2a,情形組合“1a+3c”亦可構成人工智能生成物通過獨創性主觀標準考驗的充分條件。情形3c、2a和情形3a、3b的區別,在于人類干預是否導致最終生成物“本身”的變動。獨創性的判斷對象也應該是最終生成物本身,因為只有最終生成物本身的變化才能反映出人類的“直接”貢獻。

綜上,人工智能生成物通過獨創性主觀標準考驗的充分條件包括以下兩種情況:其一,符合情形組合“1a+2a”,即在系統創建環節由人類確定人工智能要實現的特定目標,以及在數據選擇環節由人類確定數據或數據篩選標準,且此時人類干預應構成關鍵數據處理,而非創作的準備活動。其二,符合情形組合“1a+3c”,即在系統創建環節由人類確定人工智能要實現的特定目標,在制造生成物環節,人類通過向人工智能發出指令以修改生成物方式或徑直修改生成物方式直接參與生成物的創建。

(三)人工智能生成物人類干預之司法判斷模型的實例檢驗

目前,我國法院判決的“菲林訴百度案”和“騰訊訴盈訊案”,均涉及了人工智能生成物著作權保護問題的判斷。本文嘗試根據前述人類干預評價模型和人類干預條件模型(合稱人工智能生成物人類干預之司法判斷模型)對涉案內容進行分析。

在“騰訊訴盈訊案”中,騰訊公司組織包含編輯團隊、產品團隊和技術開發團隊在內的主創團隊運行Dreamwriter軟件生成包含涉案文章在內的財經新聞類文章。騰訊主創團隊設定了Dreamwriter軟件工作的特定目標——生成財經新聞類文章,符合情形1a;選擇、安排了數據類型、數據格式、觸發條件、文章框架模板、語料等,符合情形2a,且行為屬于關鍵數據處理。由此,涉案文章屬于情形組合“1a+2a”,且在情形2a上行為構成關鍵數據處理,符合模型條件,能達到獨創性主觀標準。實踐中,法院亦認定文章的表現形式源于創作者個性化的選擇與安排,具有獨創性,屬于著作權法保護的文字作品。

在“菲林訴百度案”中,菲林律所根據法律統計數據分析軟件“威科先行法律信息庫”(以下簡稱“威科先行庫”)自動生成了《影視娛樂行業司法大數據分析報告——電影卷·北京篇》(以下簡稱“分析報告”)。從研發者角度分析,研發者設定了威科先行庫的工作目標——生成法律數據分析報告,符合情形1a。但研發者沒有參與確定分析報告的數據或數據篩選標準,也沒有就分析報告進行任何修改,不符合情形2a或3c,研發者的干預不符合模型條件,人格因素沒有達到獨創性主觀標準門檻,這與實踐中法院認定分析報告“并未傳遞研發者思想、感情的獨創性表達”一致。從使用者角度分析,其采用了研發者設定的威科先行庫工作目標——生成法律數據分析報告,符合情形1a。使用者提交了檢索關鍵詞,符合情形2a,然而,僅僅幾個關鍵詞的貢獻不能構成關鍵數據處理,而僅屬創作準備活動。因為使用者輸入的關鍵詞僅僅限定了案件范圍,而案由分布、行業分布、程序分類、裁判結果、標的額等分析報告的主要數據還需要威科先行庫自行提取法院勘驗筆錄顯示,在輸入關鍵詞“電影”,限定審理法院為北京市法院,審判日期為1995年1月1日至2017年12月31日后,威科先行庫生成的大數據報告1內容包括了數據來源、檢索結果可視化(整體情況分析、案由分布、行業分布、程序分類、裁判結果、標的額可視化、審理期限可視化、法院、法官、律師律所、高頻法條)和附錄。。使用者也沒有證據證明自己修改了分析報告,故不符合情形3c。使用者的干預不符合模型條件,其人格因素沒有達到獨創性主觀標準門檻,這與法院認定分析報告“并非傳遞軟件用戶思想、感情的獨創性表達”一致。綜上,分析報告既不源于研發者的干預,也不源于使用者的干預,也就如判決所言不能構成著作權法上的作品。

對比兩起案件,顯然異曲同工,法院均采用了獨創性主觀標準。前者因人工智能生成物體現了主創團隊個性化的安排與選擇,人格因素達標,肯定了生成物的作品資格;后者因分析報告并未傳遞研發者或使用者思想、感情的獨創性表達,人格因素不達標,否定了生成物的作品資格。可見,我國法院對獨創性主觀標準的應用并不存在本質上的分歧。

五、結論

一切新技術的發展,終將服務于人類對美好世界的追求。“獨立創作、源于本人”和“最低限度創造性”仍然是人工智能生成物獨創性的基本構成要素。

在獨創性之“獨”上,我們不應排斥人工智能生成物基于已有素材整合,且應強調以“人的行為”為研究基礎。在獨創性之“創”上,建議維持原有的創造性高度標準,但可以通過賦予人工智能生成物著作權主張更高的人類干預證明義務,施以其更高的保護門檻。

通過建立人工智能生成物人類干預之司法判斷模型,可以實現人工智能生成物獨創性標準的科學化、客觀化。其中,人類干預評價模型將單個案例抽象為人類干預情形組合,解決的是獨創性主觀標準之客觀化問題;人類干預條件模型歸納人類干預情形組合與著作權保護之間的關系,解決的是獨創性主觀標準之門檻問題。在此基礎上,凝聚共識,推進裁判尺度統一,必將對司法實踐起到更好的指導作用。

參考文獻:

[1]孫正樑.人工智能生成內容的著作權問題探析[J].清華法學,2019(6).

[2]吳漢東.論人工智能時代的制度安排與法律規制[J].法律科學(西北政法大學學報),2017(5):131.

[3]何煉紅.人工智能自主生成成果“作品觀”質疑與反思[J].貴州省黨校學報,2018(5):1523.

[4]王遷.知識產權法教程[M].北京:中國人民大學出版社,2019.

[5]金渝林.論作品的獨創性[J].法學研究,1995(4):59.

[6]喬立春.“獨立創作”作為“獨創性”內涵的證偽[J].知識產權,2011(7):3738.

[7]劉影.人工智能生成物的著作權法保護初探[J].知識產權,2017(9):4647.

[8]王小夏,付強.人工智能創作物著作權問題探析[J].中國出版,2017(17):3336.

[9]黃玉燁,司馬航.孳息視角下人工智能生成作品的權利歸屬[J].河南師范大學學報(哲學社會科學版),2018(4).

[10]袁曾.人工智能有限法律人格審視[J].東方法學,2017(5):5057.

[11]郭少飛.“電子人”法律主體論[J].東方法學,2018(3):3849.

[12]熊琦.人工智能生成內容的著作權認定[J].知識產權,2017(3):7.

[13]易繼明.人工智能創作物是作品嗎?[J].法律科學(西北政法大學學報),2017(5).

[14]盧炳宏.論人工智能創作物獨創性判斷標準之選擇[J].內蒙古社會科學, 2020(4).

[15]孫山.人工智能生成內容著作權法保護的困境與出路[J].知識產權,2018(11):6063.

[16]王遷.論人工智能生成的內容在著作權法中的定性[J].法律科學(西北政法大學學報),2017(5).

[17]何培育,蔣啟蒙.人工智能生成物的著作權保護路徑探析——兼評人工智能生成物著作權第一案[J].重慶郵電大學學報(社會科學版),2020(4):30.

[18]M.雷炳德.著作權法[M].張恩民,譯.13版.北京:法律出版社,2004:53.

[19]王遷.著作權法[M]. 北京:中國人民大學出版社,2015:20.

[20]HENRY G. Japan Report—Copyright in artificially generated works[C].London:AIPPI,2019:4

[21]何煉紅,王志雄.人工智能醫療影像診斷侵權損害賠償法律問題[J].政治與法律,2020(3):32.

[22]中國信息通信研究院,Gartner Group.2018世界人工智能產業發展藍皮書[R].上海:世界人工智能大會組委會,2018:44.

[23]RUSSELL S J, NORVIG P.人工智能:一種現代的方法[M]. 殷建平,祝恩,劉越,譯. 北京:清華大學出版社,2013:878.

[24]吳漢東.人工智能對知識產權法律保護的挑戰[J].中國法律評論,2018(2):14.

[25]GRIFFITHS J, BENTLY L, CORNISH W R. UK, §2〔b〕〔i〕[M]//GELLE RP E. International Copyright Law and Practice.? Miamisburg: Matthew Bender & Company,Inc,2015.

[26]HENRY G. UK Report—Copyright in artificially generated works[C]. London: AIPPI,2019:7.

[27]MERGES R P, MENELL P S, LEMLEY M A. Intellectual Property in the New Technological Age[M]. 6th ed. Alphon annden Rijn: Wolters Kluwer Law and Business,2012:6.

[28]黑格爾.法哲學原理[M].范揚,張企泰,譯.北京:商務印書館,1961:59.

[29]彭立靜.倫理視野中的知識產權[M].北京:知識產權出版社,2010:58.

[30]HENRY G. Germany Report—Copyright in artificially generated works[C].London: AIPPI,2019.

[31]Henry G. USA Report—Copyright in artificially generated works[C]. London: AIPPI,2019:4.

[32]AIPPI. Resolution—Copyright in artificially generated works[C].London: AIPPI,2019.

[33]JONATHAN P. OSHA Summary Report—Copyright in artificially generated works[C].London: AIPPI,2019:89.

[34]曹建峰. 2019年全球人工智能治理報告:從科技中心主義到科技人文協作[EB/OL].(20200206) [20210308] https://www.sohu.com/a/371067151_455313.

[35]中國信息通信研究院.全球人工智能戰略與政策觀察(2019)[R].北京:中國信息通信研究院,中國人工智能產業發展聯盟,2019:153.

[36]馬旗戟. 人類為什么思考技術善惡的問題&怎樣做? [EB/OL].(20190529)[20210330].https://mp.weixin.qq.com/s/3BtgKfFNcW6FRWWWdyqoqQ.

[37]賈平凡. 用“科技向善”理念引領人工智能發展[N].人民日報(海外版),20190506.

[38]騰訊研究院. 曼紐爾·卡斯特:“善意”應成為技術產品的商業競爭力[EB/OL].(20191015)[20210530].https://baijiahao.baidu.com/s?id=1647456602680452756&wfr=spider&for=pc.

[39]CASTELVECCHI D. Can we open the black box of AI?[EB/OL].[20210530].https://www.nature.com/news/canweopentheblackboxofai1.20731?from=singlemessage&isappinstalled=0.

[40]曹歡歡.今日頭條推薦算法原理全文詳解[EB/OL].(20180116)[20210530].https://36kr.com/p/1722189037569.

The Originality Standard of Artificial Intelligence? Products and the

Construction of Human Intervention Judicial Judgment Model

HE Lianhong1, DENG Tao2

(1. School of Law, Central South University, Changsha 410083, China;

2. Intellectual Property Research Center, Zhongnan University of Economics and Law, Wuhan 430073, China)

Abstract:

It is of great significance that the originality standard of artificial intelligence products directly affects the identification of their work qualification. We should take “independent creation, selforigin” and “minimum creativity” as the constituent elements of originality, adopt the subjective standard of originality, and guide and ensure the good of science and technology with human intervention. In judicial practice, constructing the evaluation model of human intervention and abstracting the case into the combination of human intervention situations can solve the objective problem of the original subjective standard. Constructing the human intervention condition model and summarizing the relationship between the combination of human intervention and copyright protection can solve the threshold problem of originality subjective standard.

Keywords:

artificial intelligence products; subjective criterion of originality; human intervention; judicial judgment model

(編輯:劉仲秋)

收稿日期:20210412修訂日期:20210531

基金項目:國家社會科學基金項目:人工智能知識產權法律問題研究(17BFX012);湖南省教育廳創新平臺開放基金項目:網絡服務平臺知識產權保護義務體系研究(18K002);中南財經政法大學中央高校基本科研業務費專項資金:閑置商標清理問題研究(202111516)

作者簡介:

何煉紅(1970),女,湖南韶山人,教授,博士生導師,主要從事知識產權法學研究;鄧韜(1998),女,湖南郴州人,碩士研究生,主要從事知識產權法學研究。

主站蜘蛛池模板: 久久久久亚洲AV成人人电影软件| 国产乱子伦视频三区| 国产97视频在线| 国产美女主播一级成人毛片| 伊人中文网| 国模私拍一区二区| 性视频一区| 欧美日韩午夜| 亚洲天堂网在线视频| 国产成人无码久久久久毛片| 激情综合图区| 国产成人精品视频一区视频二区| 日韩精品无码不卡无码| 亚洲精品黄| 欧美日本中文| 亚洲色欲色欲www在线观看| 免费国产小视频在线观看| 久久无码免费束人妻| 福利片91| 亚洲天堂免费观看| 99久久精品国产麻豆婷婷| 精品国产99久久| 日韩精品免费一线在线观看| 91小视频在线播放| 精品欧美一区二区三区久久久| 视频一区视频二区日韩专区| 丰满人妻中出白浆| 精品无码国产一区二区三区AV| 成年人视频一区二区| 久久中文电影| 99热这里只有精品5| 国产精品白浆在线播放| 99热国产这里只有精品9九 | 制服丝袜一区| 欧美成人影院亚洲综合图| 日韩第八页| 91小视频在线观看| 中文字幕在线不卡视频| 制服丝袜一区二区三区在线| 国产一级毛片高清完整视频版| 青青青国产视频手机| 中文字幕久久亚洲一区| 日韩在线视频网| 国产JIZzJIzz视频全部免费| 激情成人综合网| 亚洲色欲色欲www在线观看| 国产极品嫩模在线观看91| 爱色欧美亚洲综合图区| 2019国产在线| 久久不卡精品| 国产综合色在线视频播放线视| 波多野结衣一区二区三区四区视频| 国产亚洲一区二区三区在线| 一级毛片免费观看不卡视频| 国内老司机精品视频在线播出| 青青热久麻豆精品视频在线观看| 视频一区视频二区日韩专区| 精品五夜婷香蕉国产线看观看| 72种姿势欧美久久久久大黄蕉| 综合天天色| 欧美啪啪精品| 国产在线自在拍91精品黑人| 91啪在线| 毛片基地视频| 重口调教一区二区视频| 亚洲视频无码| 美女无遮挡免费网站| www.亚洲天堂| 日韩精品欧美国产在线| 日韩免费毛片视频| 欧美精品伊人久久| 日韩第九页| 精品三级网站| 在线另类稀缺国产呦| 亚洲欧美另类视频| 国产乱人伦精品一区二区| 国产jizzjizz视频| 日韩欧美在线观看| 久久精品国产亚洲AV忘忧草18| 国产成人精品一区二区秒拍1o| 四虎亚洲国产成人久久精品| 国产av剧情无码精品色午夜|