徐偉
關鍵詞:生成式人工智能;通知規則;避風港;網絡侵權;必要措施
中圖分類號:DF523.1文獻標志碼:A
DOI:10.3969/ j. issn.1001-2397.2024.03.10 開放科學(資源服務)標識碼(OSID):
隨著生成式人工智能的廣泛應用,人工智能生成損害他人合法權益的虛假內容(以下統稱為“致害內容”)的情況時有發生,如何為受害人提供及時有效的救濟成為生成式人工智能時代的難題。從制度供給來看,我國現行法應對網絡侵權最具特色的制度是通知規則。由此產生的問題是,通知規則能否適用于生成式人工智能侵權? 其應如何具體適用? 相較于傳統網絡侵權,生成式人工智能侵權中的通知規則是否需要作出調整? 筆者試圖對此作出回答,以期實現通知規則在人工智能時代的理論更新,并為實踐提供助益。
一、通知規則在生成式人工智能侵權中的可適用性
生成式人工智能侵權是由人工智能自動生成致害內容,這與通知規則的典型適用場景,即網絡用戶利用網絡服務實施侵權行為存在差異。故需厘清通知規則能否適用于生成式人工智能侵權。
(一)通知規則能否適用的理論爭議
關于通知規則能否適用于生成式人工智能侵權,學界存在分歧。第一種觀點認為可以直接適用,“在認定生成式人工智能虛假信息侵權責任時,仍然應當適用我國《民法典》第1195 條所規定的‘通知規則”,理由在于,“反對適用避風港規則實際上是將其作為一種直接侵權,一旦虛假信息構成誹謗等,人工智能產品的服務提供者就要承擔侵權責任,這顯然對其過于嚴苛”。① 第二種觀點認為不應適用,因為“《正當通信法》(Communications Decency Act)第230 條旨在保護第三方提供內容時的服務提供者,其并不保護參與內容提供的服務提供者。ChatGPT 發揮的功能并非第三方提供內容時的中介,而是自行提供內容”。② 第三種觀點認為雖然無法直接適用通知規則,但應當類推適用,“AI 生成虛假信息的侵權行為應當類推適用‘通知規則”。因為“AI 生成侵權信息并非‘網絡用戶利用網絡服務實施侵權行為,而是AI 自己生成的,因此在構成要件上不滿足《民法典》第1195條所規定的通知刪除規則”,但“由于AI 服務提供者一方面難以對AI 生成的信息進行實時審查,且根據用戶的通知進行刪除成本較低”,故應類推適用通知規則。③ 由此可見,影響通知規則適用的主要因素包括生成式人工智能服務提供者的類型、責任輕重以及采取刪除等措施的成本。
就理論層面而言,通知規則能否適用主要取決于兩個方面:一是通知規則的法律性質,即通知規則屬于免除網絡服務提供者侵權責任的免責條款,還是屬于認定其侵權責任的歸責條款。這會決定通知規則的適用條件和法律效果。二是生成式人工智能服務提供者的法律地位,即其是屬于網絡內容服務提供者、搜索鏈接服務提供者,還是屬于一種新型的網絡服務提供者。對于不同類型的服務提供者,通知規則在適用時存在區別。據此,筆者將主要從以上兩個方面展開分析。
(二)通知規則可適用的理論證成
1. 通知規則可適用的主要理由
厘清通知規則能否適用的前提是,明確我國通知規則的法律性質,即其應定性為歸責條款抑或免責條款。盡管不乏通知規則是免責條款的主張,但筆者認為在我國法律體系下通知規則應定性為歸責條款,理由如下:首先,從歸責原則來看,我國網絡侵權一般采用過錯責任原則,這決定了在認定網絡服務提供者侵權責任時,受害人應證明服務提供者存在過錯,而向網絡服務提供者發送合格通知正是認定其存在過錯的方式之一,故通知規則是歸責條款。這與美國版權侵權一般采無過錯責任原則,其通知規則應定性為免責條款不同。其次,從實證法來看,盡管2006年的《信息網絡傳播權保護條例》第22 條等條款采取了免責條款的表述,但自原《中華人民共和國侵權責任法》第36 條第2 款采用歸責條款的表述以來,我國通知規則在立法上便一直采用歸責條款的表述。最后,采用歸責條款的定性與我國法律內在體系相符。既然網絡用戶實施侵權行為的場合可適用通知規則,那么根據“舉輕以明重”的法理,在網絡服務提供者直接實施侵權行為的場合更應賦予權利人通知對方移除的權利。①
即使通知規則應定性為歸責條款②,也不應以該規則能避免網絡服務提供者承擔過重的責任使其可適用性正當化,因為能否適用通知規則與網絡服務提供者所承擔責任的輕重無關。認為通知規則能避免網絡服務提供者承擔較重責任的觀點建立在該規則是免責條款的基礎上,即網絡服務提供者在遵守了通知規則后,不必對通知前后發生的損害承擔責任。但事實上通知規則僅能影響通知后的責任,至于網絡服務提供者對通知前發生的損害是否承擔責任,則取決于其在通知前是否知道侵權內容的存在。因此,通知規則只是權利人用于證明網絡服務提供者主觀上存在過錯的方式之一。網絡服務提供者對通知前發生的損害是否承擔責任并不影響該規則的適用。
影響通知規則適用的另一因素是網絡服務提供者的類型。一般而言,網絡自動接入服務提供者、網絡自動傳輸服務提供者和網絡自動存儲服務提供者并不適用通知規則。但生成式人工智能服務提供者難以歸入這三類服務提供者。存有爭議的是,生成式人工智能服務提供者是否會因其被歸入網絡內容服務提供者而無法適用通知規則。筆者對此予以否定,因為生成式人工智能服務提供者不應定性為網絡內容服務提供者。雖然生成式人工智能生成內容的表現形式相當于直接提供內容,且《生成式人工智能服務管理暫行辦法》(以下簡稱《生成式人工智能辦法》)第9 條第1 款規定“提供者應當依法承擔網絡信息內容生產者責任”,但在侵權法意義上將生成式人工智能服務提供者定性為網絡內容服務提供者并不妥當,因為其無法完全控制具體的生成內容,即人工智能具有一定程度的“自主性”。③ 而對內容的控制力是決定義務和責任的關鍵因素之一。故生成式人工智能服務提供者與網絡內容服務提供者雖在形式上相似,但在本質上有所區別。同時,基于生成式人工智能服務提供者在控制力上的不足,其侵權規則應更多地參照搜索鏈接服務提供者。④
退一步而言,即使是網絡內容服務提供者,也可適用通知規則。因為通知規則屬于歸責條款,無論網絡服務提供者是否要對通知前發生的損害承擔責任,其在收到通知后,都應采取必要措施以避免損失的擴大。因此,不應以加害行為并非由網絡用戶直接實施來否定通知規則在生成式人工智能侵權中的適用。雖然《中華人民共和國民法典》(以下簡稱《民法典》)第1195 條在規定通知規則時提及了網絡用戶利用網絡服務實施侵權行為,但不應對此作反面解釋,即認為在加害行為并非由用戶直接實施時便不能適用通知規則。
此外,決定通知規則適用的關鍵因素之一是網絡服務提供者在收到通知后,其在技術層面能有效采取必要措施。在生成式人工智能侵權中,服務提供者確實有能力采取一定的措施,典型表現為生成式人工智能服務提供者在其平臺中自行表示其將遵守通知規則。例如,OpenAI“使用協議”中約定,“如果你認為你的知識產權受到侵犯,請發送通知到如下地址。我們會刪除或斷開涉嫌侵權的內容,并會終止重復侵權者的賬戶”。此外,《生成式人工智能辦法》第14 條等條款也對服務提供者發現違法內容后應采取的措施作出了規定,故服務提供者有能力且應當采取必要措施。綜上所述,作為歸責條款的通知規則可以直接適用于生成式人工智能侵權情形。
2. 否定通知規則適用的理由及其回應
否定通知規則可適用性的理由是,在生成式人工智能侵權中不存在反通知,這將導致利益失衡。通知規則的運作過程中可能出現錯誤通知,即向網絡服務提供者發送侵權通知的“權利人”可能并非真實的權利人,或通知所涉內容可能不構成侵權(例如屬于合理使用情形),而居中審查通知是否合格的網絡服務提供者無論在能力還是意愿方面都可能作出錯誤判斷,故為了避免錯誤通知乃至惡意通知對網絡用戶造成損害,通知規則須與反通知規則相配套,從而實現較好的利益平衡。①由此可見,受通知影響的網絡用戶應有權通過發送合格的反通知來恢復被采取了必要措施的內容。在生成式人工智能侵權中,因并不存在可能發送反通知的網絡用戶,故有必要檢視通知規則的適用是否會導致利益失衡。
就利益影響而言,若完全否定通知規則的適用,不僅將導致權利人失去重要的救濟途徑,由此獲得的收益(因反通知得到保護的用戶合法權益)也相對較少,畢竟實踐中用戶發送反通知的情形較少。② 兩相權衡,不宜以不存在反通知為由否定通知規則在生成式人工智能侵權中的適用,而應通過制度安排盡可能減少因錯誤通知對他人合法權益和社會公共利益造成損害。為此,可取的途徑是,提高生成式人工智能服務提供者對通知的審查標準,即對通知實行實質性審查。③
關于網絡服務提供者對通知的審查標準,一直存在形式審查和實質審查之爭。前者是指只要通知在形式上符合法律的要求,網絡服務提供者便應采取必要措施。后者則要求網絡服務提供者對通知內容是否真實、侵權是否成立展開實質性判斷。從司法實踐來看,我國對網絡服務提供者科以一定程度的實質審查義務。例如,《最高人民法院關于審理涉電子商務平臺知識產權民事案件的指導意見》第5 條第2 款規定,“通知涉及專利權的,電子商務平臺經營者可以要求知識產權權利人提交技術特征或者設計特征對比的說明、實用新型或者外觀設計專利權評價報告等材料”。之所以要求權利人提供專利侵權比對表等材料,是為了便于網絡服務提供者對通知所涉內容是否構成侵權加以審查。據此,我國傳統網絡侵權中存在要求網絡服務提供者對通知內容采實質性審查的做法。在生成式人工智能侵權中也應采實質性審查標準,一般而言,只有在通知所涉內容具有較大可能構成侵權時,才需采取必要措施。如此可在一定程度上減輕反通知缺失所帶來的負面影響。綜上,反通知在生成式人工智能侵權中的缺失不足以成為否定通知規則可適用性的充分理由,故通知規則可適用于生成式人工智能侵權情形。
二、生成式人工智能侵權中合格通知的判斷
權利人向生成式人工智能服務提供者發送侵權通知時,該通知需要滿足哪些要件? 根據《民法典》第1195 條第1 款第2 句之規定,合格通知的要件有二:一是構成侵權的初步證據,二是權利人的真實身份信息。其中,前者往往通過權屬信息和能夠準確定位侵權內容的信息(例如網絡地址)等加以證明;后者則須提供身份資料和聯系方式等。在生成式人工智能侵權中,合格通知的判斷與傳統網絡侵權在多數方面一致。此處僅探討在生成式人工智能場景中會發生改變或存在分歧之處。
(一)準確定位侵權內容信息的提供
合格通知的要件之一是構成侵權的初步證據,為此權利人須提供能夠準確定位侵權內容的信息。這在傳統網絡侵權中大多可通過提供網絡地址來實現。但在生成式人工智能侵權中,人工智能是通過對話方式生成侵權內容,該對話內容并不存在相應的網絡地址。故生成式人工智能帶來的問題之一是,權利人如何提供能夠準確定位侵權內容的信息?
在傳統網絡侵權中,搜索引擎自動生成檢索詞侵權具有一定的參考價值,因為其與生成式人工智能侵權的表現形式相似。在我國搜索引擎自動生成檢索詞糾紛中,定位侵權內容的方式是“檢索詞和截圖”。例如,在“任某玉案”中,在某度搜索引擎輸入“任某玉”,在頁面“相關搜索”處顯示有“陶氏教育任某玉”等。因“陶氏”口碑不佳,任某玉以“相關搜索”處的內容侵害其名譽權為由要求某度公司承擔侵權責任。訴訟前任某玉曾向某度公司發送通知,通知中說明檢索的關鍵詞是“任某玉”,并提供搜索結果的網頁截圖。人民法院認為,因某度公司未侵害任某玉名譽權,故“某度公司未履行‘通知-刪除義務無需承擔侵權責任”①,即人民法院認為該通知是合格通知。據此可知提供檢索詞和截圖是定位侵權內容的方式之一。生成式人工智能自動生成致害內容與搜索引擎自動生成檢索詞在表現形式上具有相似性,故在生成式人工智能侵權中,權利人也可通過提供“對話記錄和截圖”方式來定位侵權內容。生成式人工智能服務提供者在收到對話記錄后,可以通過輸入同樣的對話來發現致害內容。
此處面臨的問題是,對話內容有可能無法“再現”,即網絡服務提供者輸入同樣的提問但未得到致害內容。此時服務提供者是否有義務主動采用相近的提問方式來確認致害內容是否會生成? 該問題的核心是,查找侵權內容的成本主要應由權利人還是網絡服務提供者承擔。在權利人僅提供了侵權內容的線索時,網絡服務提供者是否負有主動查找侵權內容的義務,傳統司法裁判對此存在分歧。例如,在“花某參案”中,原告美國威州花某參總會在訴前向被告某寶公司發送了通知。一審人民法院認為,原告通知有侵權情況存在后,被告即應主動履行其監管義務,采取必要措施,而不能以商戶的數量眾多為由不予核查,消極等待原告提交具體鏈接地址。但二審人民法院認為,原告在向被告發出通知時并未將具體侵權鏈接告知被告,而在被告網站搜索花某參產品時出現的相關鏈接有27000 個左右,故原告怠于履行告知義務。② 總體而言,判斷權利人提供的定位信息是否充分的關鍵在于網絡服務提供者查找侵權內容的成本是否合理。若成本合理,則網絡服務提供者負有查找義務。① 我國司法裁判中的這一認識與比較法經驗一致。根據美國《數字千年版權法》第512(c)(A)(iii)條的規定,發現侵權內容的成本可否負擔(burdensome)是法院判斷通知中“指明侵權內容”是否得到滿足的重要考量。②
因此,權利人是否提供了足以定位侵權內容的信息,關鍵取決于網絡服務提供者能否以合理的成本找到通知所涉內容。在生成式人工智能侵權中,若生成式人工智能服務提供者根據通知所提及的對話方式提問后,未能生成致害內容,則除一般理性的生成式人工智能服務提供者應當想到其他相關的提問以外,生成式人工智能服務提供者不負有主動嘗試“再現”致害內容的義務,因為對其而言,超出理性人通常能想到的其他相關提問已經是不合理的成本負擔。
(二)通知人可以不是權利人
在傳統網絡侵權中,侵權內容往往在網絡上處于公開狀態,不特定主體均可以接觸到該內容,故通知人大多是權利人。生成式人工智能侵權的特點之一是,其生成的內容只有參與對話的使用者才能看到,而使用者未必是合法權益受侵害的權利人。故生成式人工智能侵權中可能出現通知人并非權利人的情形。若通知人并非受侵害的權利人,該通知是否合格?
通知人是否必須是權利人或權利人授權的主體(以下統稱為權利人)? 有學者認為只能是權利人,“從通知規則確立的目的考量,其就是要適當限制網絡服務提供者的責任,因此,在解釋上應當采用嚴格解釋,而不能任意擴張。如果任何人都可以‘通知,則網絡服務提供者的義務過重,不利于網絡事業的發展。更何況,網絡侵權大多是對名譽、隱私等人格權的侵害,既然受害人不通知,表明受害人能夠容忍此種損害,法律也沒有必要再給受害人提供保護”。③
這一理解存在諸多問題。首先,將通知規則的立法目的理解為“適當限制網絡服務提供者的責任”在我國并不成立。在我國通知規則是歸責條款,合格通知是證明網絡服務提供者存在“過錯”的方式之一,而非限制其責任。其次,任何人都可以通知,并不意味著會加重網絡服務提供者的義務,因為網絡服務提供者在收到一項通知并對通知所涉內容采取了刪除等措施后,后續同類通知便不會再產生,因為后續通知無法再提供“構成侵權的初步證據”。最后,在受害人未通知時,“法律也沒有必要再給受害人提供保護”這一判斷與我國立法價值不符。我國立法確立的“知道規則”表明,即使權利人未投訴,網絡服務提供者在知道或應當知道侵權內容時,仍負有采取必要措施的義務。綜上,主張通知人必須是權利人的理由均難以成立。事實上,從司法實務來看,也有判決表明人民法院并不在意通知人是否為本人。例如,在“雷某吉案”中,被告網站的用戶發表了侮辱性內容。原告委托律師向被告郵寄了刪帖通知,但被告并未刪帖。人民法院認為,“上訴人獲知該低俗、下流、侵犯他人權利的網帖存在就應當立即予以刪除,其稱不能明確是否系本人通知、不能確定律師是否接受委托等都不能成為其拒不立即處理的理由”。④
此時必須厘清的問題是,若通知人并非權利人,網絡服務提供者采取必要措施的義務是源于通知規則抑或知道規則? 相較而言,以通知規則進行解釋更為恰當,理由如下:(1)真實身份信息在通知規則中的核心規范目的是追究錯誤通知人的責任,而非溝通網絡服務提供者、網絡用戶和通知人,也不是用于證明侵權成立,故通知人是否為權利人并不影響提供真實身份信息規范目的的實現。① 據此,通知人身份信息,而非權利人身份信息,才是合格通知的必要條件。(2)若認為網絡服務提供者的義務源于知道規則,將導致因不當采取必要措施而受侵害的網絡用戶無從獲得救濟。易言之,若網絡服務提供者的義務源于知道規則,則意味著其是基于自身的判斷而對所涉內容采取了必要措施,受害人將難以向通知人主張全部賠償。同時,服務提供者是基于通知的提示而采取了必要措施,其也可基于沒有過錯或用戶協議中的免責條款而免于承擔賠償責任。這一結果將助長非權利人的通知人濫發通知的現象。因此,在通知人并非權利人時,將網絡服務提供者采取必要措施的義務解釋為源于合格通知是更為可取的選擇。
通知人不以權利人為限這一判斷在現行法上并無障礙,因為《民法典》第1195 條中的“權利人”應采廣義解釋。《民法典》第1195 條在兩處使用了“權利人”一詞:一是第1 款關于通知的規定,二是第3 款關于錯誤通知的規定。該條第3 款第1 句規定:“權利人因錯誤通知造成網絡用戶或者網絡服務提供者損害的,應當承擔侵權責任。”從規范目的來看,該規定是為了在通知所聲稱的事實與客觀事實不一致時,對遭受損害的網絡用戶和網絡服務提供者進行救濟。錯誤通知發生的情形,不應限于權利人(狹義)誤以為自己的權利受到了侵害,也應包括并無權利的主體自稱其為權利人的惡意通知。后者在實踐中更為常見,也是該款主要規制的對象。據此,第3 款中的“權利人”應作廣義解釋,不僅包括確有權利的主體,也包括并無權利但自稱有權的主體。
綜上,盡管合格通知以提供真實身份信息為必要,但這并不意味著通知人必須是合法權益受侵害的主體。只要通知提供了構成侵權的初步證據,就無須限制通知人的范圍。據此,在生成式人工智能侵權中,并不要求通知人必須是權利人。
三、生成式人工智能侵權中必要措施的認定
在網絡服務提供者收到合格通知且審查通過后,其應采取何種必要措施? 傳統網絡侵權中的必要措施能否適用于生成式人工智能侵權,有待檢視。
(一)傳統必要措施在生成式人工智能侵權中的變化
我國網絡侵權中的必要措施類型經歷了逐漸擴大的過程。在通知規則發展的早期,必要措施是指刪除、屏蔽、斷開鏈接等能夠直接避免損害擴大的措施。但隨著實踐的發展,尤其是最高人民法院指導案例83 號發布之后,必要措施的類型在我國逐漸多樣化。② 總體而言,我國必要措施可分為以下四類:(1)可以直接避免損害擴大的措施,如刪除、屏蔽、斷開鏈接、終止交易和服務等。這是傳統典型的必要措施。(2)發揮警示功能的措施,例如轉通知等。轉通知是較為緩和的措施,其無法直接避免損害擴大,適用情形主要有二:一是通知所涉內容侵權與否不易判斷,如專利侵權;二是網絡服務提供者(例如云存儲服務提供者)基于商業倫理不宜對通知所涉內容采取移除等措施。③④(3)凍結賬戶、提供保證金等發揮擔保功能的措施。這種措施以網絡用戶提供擔保的方式來避免其內容被刪除。這大多發生于通知所涉內容是否侵權不易判斷,或一旦錯誤采取了措施將對用戶利益產生重大影響的情形。(4)限制乃至停止向網絡用戶提供服務的措施,如臨時性甚至永久性停止賬戶的使用等。這大多適用于故意、多次侵權者或侵權造成嚴重后果的情形。我國現行法中并未明確規定該規則,但司法裁判中有人民法院將重復侵權作為應采何種“必要措施”的考量因素。①
上述傳統網絡侵權中的必要措施,并非都可以適用于生成式人工智能侵權。即便可以適用,其具體表現也發生了變化,對此分析如下:
第一,可以直接避免損害擴大的措施雖可適用于生成式人工智能侵權,但其具體表現與傳統網絡侵權有所不同。傳統網絡侵權中的刪除等措施,其處理的對象是過去已經發生的侵權內容,其功能主要在于“停止侵害”。在生成式人工智能侵權中,將人工智能與使用者對話中已經生成的致害內容刪除意義甚微,傳統上網絡服務提供者也并不負有此類義務。② 避免損害擴大的關鍵措施是避免致害內容再次生成,這才是生成式人工智能服務提供者應采取的措施,其功能主要在于“消除危險”。③ 可見,傳統網絡侵權中以“面向過去”為主的措施④在生成式人工智能侵權中需轉變為以“面向未來”為主的措施。
第二,發揮警示功能的措施從警示網絡用戶轉變為警示生成式人工智能使用者,這意味著警示措施的規范目的從提醒網絡用戶停止潛在的侵權行為轉變為提醒使用者相關內容可能存在不實。傳統網絡侵權中的警示性措施針對的是網絡用戶,希望通過向可能實施了侵權行為的網絡用戶發送通知等警示性信息,提醒侵權用戶主動停止侵權。但在生成式人工智能侵權中,并不存在直接實施侵權行為的用戶⑤,制止侵權行為也無須借助用戶之手來完成。生成式人工智能侵權中的警示信息只能提供給人工智能的使用者。該警示措施表現為:當通知所涉內容再次生成時,通過對該內容添加警示標識等方式來提醒使用者該內容可能存在不實。該警示義務不同于生成式人工智能服務提供者負有的一般性標識義務,后者是針對所有生成內容的普遍性義務,并非因通知人的合格通知而產生的義務。
有疑問的是,警示性措施在生成式人工智能侵權中是否有存在的必要。生成式人工智能服務提供者若要對生成的涉嫌侵權的內容添加警示標識,便意味著其需審查所有生成內容,而一般性審查義務一直為傳統網絡侵權規則所否定。⑥ 但這不足以否定生成式人工智能侵權中的警示性措施,理由如下:(1)傳統網絡侵權規則在否定一般性審查義務的同時,也認可特定情況下的特殊審查義務。目前逐漸出現的一種特殊審查義務要求網絡服務提供者采取技術措施對某些內容進行普遍審查,典型例證是版權作品過濾技術。隨著視頻指紋識別技術等版權過濾技術的成熟,產業界已能夠在技術層面普遍采用版權過濾審查技術。有學者據此主張網絡服務提供者應當負有采用版權過濾技術的義務。① 生成式人工智能侵權中對通知所涉致害內容的審查類似于通過版權過濾技術來審查版權作品。(2)審查技術本身的成熟度和成本是法律決定是否對網絡服務提供者科以審查義務的重要考量因素之一。② 生成式人工智能侵權中的內容系由人工智能自動生成,避免特定內容的生成技術可內嵌于算法的設計中自動實現,它并不會對生成式人工智能服務提供者造成較大的成本負擔。(3)在人格權侵權中,事實真偽不明是常見情形。若異議方發送通知,生成式人工智能服務提供者大多無法判斷事實的真偽。此時對生成的內容進行警示標識,而非直接禁止相關內容再次生成,是更可取的選擇。綜上,采取警示性措施仍有必要。當然,鑒于生成式人工智能的應用類型多樣,警示性措施的具體表現方式可結合相關技術特征予以確定。
第三,發揮擔保功能的措施無法適用于生成式人工智能侵權。此類措施主要針對涉嫌侵權的網絡用戶,但在生成式人工智能侵權中不存在直接實施侵權行為的用戶。
第四,限制乃至停止提供服務的措施從針對網絡用戶轉變為針對誘發致害內容生成的使用者。傳統網絡侵權中限制或停止服務措施一般針對反復侵權的網絡用戶。在生成式人工智能侵權中,引發致害內容生成的原因除了人工智能本身外,也包括第三人的不當誘導。根據《生成式人工智能辦法》第14 條第2 款的規定,生成式人工智能服務提供者發現使用者利用生成式人工智能服務從事違法活動的,應當依法依約采取警示、限制功能、暫停或者終止向其提供服務等處置措施。故生成式人工智能服務提供者可以對誘導致害內容生成的第三人采取限制性措施。③ 該義務與避免致害內容再次生成義務的差別在于,前者針對的是人(誘導者),其試圖避免出現“累犯”,影響的是某一使用者;后者針對的是內容,其試圖避免同一事件再次發生,影響的是所有使用者。對第三人采取限制性措施這一義務具有雙重屬性,其既是行政法上的義務,也是民事義務,違反該義務可能同時產生行政責任和民事責任。
(二)避免致害內容再次生成的義務
避免致害內容再次生成是權利人發送通知的首要目的。我國《生成式人工智能辦法》第14 條第1 款規定:“提供者發現違法內容的,應當及時采取停止生成、停止傳輸、消除等處置措施。”對于該義務,有兩方面問題需要厘清:一是該義務的正當性;二是該義務的限度。
避免致害內容再次生成的義務是一項面向未來的預防性義務,是否要對網絡服務提供者科以此種義務無疑會引發爭議。傳統網絡侵權中與之相似的爭議體現為“通知且保持下架”(notice andstaydown)規則,即網絡服務提供者在收到合格通知后不僅要下架通知所涉侵權內容,而且要確保該內容不會被再次上傳。一般認為,德國是采納了通知且保持下架規則的代表性國家④,歐盟則是采納該規則的代表性國際組織。① 但也有許多國家并未接受通知且保持下架規則。
學界對通知且保持下架規則本身的合理性存在較大分歧。支持者的主要理由包括:其一,通知規則會導致版權人陷入無休止的維權,即通知后侵權內容會再次出現。其二,高質量的版權執法自動化出錯較少,與此同時,版權執法自動化大大改善了版權保護現狀。其三,通知后僅移除的規則將使網絡服務提供者在與權利人談判時處于有利地位,不利于促進雙方合作。② 反對者的主要理由是:其一,通知且保持下架規則影響基本人權的實現。其二,該規則增加了企業的經營負擔,不利于中小企業發展,也不利于創新。其三,歐盟采納該規則是為了監管來自美國的互聯網企業,因為歐洲主要的大型互聯網企業都來自美國。其四,應將是否采取保持下架的選擇權交由平臺。例如,若通知較少,則平臺更傾向于人工審查處理;若通知較多,則使用自動化過濾會更有效率。其五,通知且保持下架規則對于過濾有更高要求,可能導致相關市場的經營者集中,市場的競爭性減弱。最后,從國際競爭的角度來看,采通知且保持下架規則將導致該國在國際競爭中處于制度洼地。③ 此外,也有學者主張是否應適用通知且保持下架規則取決于在技術層面能否達到較高的過濾精確度。通知且保持下架規則應適用于算法自動化處理的準確率不低于人工審查準確率的情形。④
在我國,鑒于必要措施在概念上的包容性,采取避免致害內容再次生成的義務在解釋上可被“必要措施”所涵蓋。盡管學界對普遍性的通知且保持下架規則持謹慎態度⑤,但在具體個案中,我國司法裁判已采納了該規則。例如,在“某度網盤案”中,人民法院認為“網絡服務提供者針對用戶侵權所應采取的必要措施,不應僅限于在侵權發生之后斷開鏈接一項,否則即便其做到了及時斷開,往往也會使侵權用戶、權利人和網絡服務提供者之間陷入‘侵權-通知-斷開-再侵權-再通知-再斷開的往復循環之中,難以有效制止用戶的持續侵權和權利人損失的擴大”。⑥ 隨后,人民法院比較了采取屏蔽分享鏈接這一預防措施導致用戶不能對其享有合法權利的內容進行正當分享造成的損害和不采取預防措施導致著作權人遭受的損害,以及屏蔽措施的技術成熟度和成本等,最終認定某度公司負有采取屏蔽措施的義務。據此,我國網絡服務提供者負有采取預防性措施的義務并無立法和實踐障礙,問題的關鍵在于綜合考量諸多因素后合理確定該義務的適用條件。
根據最高人民法院指導案例83 號裁判要點二,“‘必要措施應遵循審慎、合理的原則,根據所侵害權利的性質、侵權的具體情形和技術條件等來加以綜合確定”。據此,生成式人工智能侵權中是否要求生成式人工智能服務提供者負有避免致害內容再次生成的義務,需考量的因素如下:首先,被侵害權利的性質。一般而言,人格權較之知識產權等財產性權利應受到更嚴格的保護。但事實上在我國通知規則中,二者長期以來受到一體保護,故在生成式人工智能侵權中也沒有必要對二者進行區別對待。其次,從侵權的具體情形來看,生成式人工智能生成的致害內容僅參與對話的使用者可見,故較之傳統的網絡侵權,其侵權嚴重程度難謂更高。最后,從技術條件來看,生成式人工智能服務提供者能否以成本合理且準確性較高的技術來避免致害內容再次生成,是影響其是否負有避免致害內容再次生成義務的主要因素。如果服務提供者能夠以某種成本可負擔的技術來較為準確地避免致害內容的再次生成,其就應采取該措施。反之,若該技術成本高昂,或該技術在避免致害內容生成的同時會對諸多合法內容的生成造成負面影響(準確性較低),則不宜科以生成式人工智能服務提供者此義務。《生成式人工智能辦法》制定過程中的條文變化也表明,避免致害內容再次生成在技術層面可以實現,但也存在一定的難度。① 從比較法的視角來看,歐盟《人工智能法》第9 條第5 款也采取了類似的規定,即對于高風險的人工智能系統,其風險管理措施應“通過充分的設計與開發,盡可能消除或者降低風險”,同時“在適當的情況下,對于無法消除的風險,采取充足的緩解和控制措施”。此外,我國提供生成式人工智能服務的企業在用戶協議中也表明會根據權利人的通知而采取“停止生成、停止傳輸、消除等合理處置措施”。② 據此,生成式人工智能服務提供者在一般意義上確實負有避免致害內容再次生成的義務,但該義務的邊界需根據個案中的具體商業模式以及人工智能技術的發展狀況等因素綜合判斷。
此外,避免致害內容再次生成的義務應有期限限制,理由如下:其一,避免致害內容再次生成會導致相關內容無法再次出現,而相關內容是否侵權可能會隨著時間推移而發生變化,例如謠言可能在事后被證明是事實等。故對該義務設置一定的期限更有利于實現各方利益的動態平衡。其二,避免致害內容再次生成對言論表達造成了一定的限制,對該義務設置期限限制有助于保持生成內容的開放性和多樣性。其三,生成式人工智能會隨著技術和數據集的更新而不斷學習,進而自動糾錯,可能不再生成致害內容。其四,與避免致害內容再次生成義務相似的通知且保持下架規則在部分國家也有一定的期限限制。③ 其五,人格權侵害禁令和人身安全保護令都有期限限制。例如,人身安全保護令一般不超過六個月,人格權侵害禁令也應有期限限制。④ 經人民法院裁判確認的禁令尚且有期限限制,根據“舉重以明輕”的法理,因通知所產生的避免致害內容再次生成的義務也應有期限限制。至于該期限的長短,理想狀態是由生成式人工智能服務提供者根據具體情況自行判斷和決定,但為避免其基于自身利益考量而確定不合理的期限,也可由法律直接規定,例如,規定避免侵害人身權益內容再次生成的期限為六個月。
(三)致害內容無法再次生成時的告知義務
在生成式人工智能侵權中,權利人在通知中提供的是對話記錄,但生成內容的不確定性導致致害內容可能并未再次生成。此時生成式人工智能服務提供者是否負有告知權利人的義務? 該告知義務具有雙重意義:一是告知權利人該通知未能提供構成侵權的初步證據,因為生成式人工智能服務提供者未能再現對話記錄;二是若權利人認為致害內容確實出現過,則告知義務發揮的功能是告知權利人致害內容已經移除,因為其在生成式人工智能服務提供者處沒有再次生成。在傳統網絡侵權中,第一種情形屬于通知不合格,故一般納入不合格通知的法律后果中加以討論;第二種情形可納入必要措施的概念下進行討論,但傳統上網絡服務提供者一般不負有在采取必要措施后向權利人告知的義務。此處將兩種情形納入必要措施中一并討論。
對于通知不合格時網絡服務提供者是否負有告知義務這一問題,理論上存在分歧。有學者認為,“對于不合格的侵權通知,網絡服務提供者不予以回應,不采取措施的話,可以不承擔責任。”①不同意見則認為應告知權利人。② 從司法裁判來看,有判決直接否定了網絡服務提供者的告知義務。例如,在“阿某云案”中,人民法院認為權利人的通知因內容欠缺等原因不合格,且阿某云公司不負有主動聯系通知人進行核實和調查的義務,理由如下:其一,《信息網絡傳播權保護條例》并未規定該義務。其二,要求網絡服務提供者聯系和核實將導致法律對通知合格要件的規定落空。其三,要求網絡服務提供者對不合格通知主動聯系核實,將大幅增加其運營成本。其四,權利人在依法通知時應當本著對自身權利負責的態度準備通知書,不能因為權利人未全面盡到該義務,轉而向網絡服務提供者施加核實等義務。③ 可見,無論是通知不合格的告知義務,還是采取必要措施后的告知義務,都難以在我國現行法層面找到依據。
但在生成式人工智能侵權中,致害內容無法再現時生成式人工智能服務提供者應負有告知義務,理由如下:
第一,相較于生成式人工智能服務提供者,無辜的權利人應受到優先保護。致害內容無法再現的原因既可能是該致害內容本就不會出現(通知人偽造對話記錄),也可能是該致害內容在權利人處出現了但在生成式人工智能服務提供者處未能出現。而造成致害內容無法再現的原因在客觀事實層面往往難以查明。此時法律宜推定通知人系善意,即無法再現的原因是生成內容具有不確定性。因為該推定與客觀現實中的多數情況相符(可合理推測偽造對話記錄是少數),不應為了避免少量不實通知而罔顧對真實權利人的保護。在推定權利人系善意通知的前提下,對話記錄無法再現系由生成式人工智能的技術原因所致,而非權利人怠于查找和提供侵權初步證據所致,即權利人對致害內容無法再現并無過錯。另外,生成式人工智能服務提供者對致害內容無法再現并無過錯,因為這是人工智能自主自發的結果。但就技術層面而言,人工智能的自主性正是生成式人工智能服務提供者在技術上主動追求的結果。④ 從侵權一般原理來看,“被告企業應為自己特殊、不尋常和危險的特征付出代價”。⑤ 可見,盡管權利人和生成式人工智能服務提供者對致害內容無法再現均無過錯,但相較而言權利人更為無辜,其對致害內容無法再現缺乏控制力,故不宜由權利人承擔無法再現的不利后果。據此,宜要求生成式人工智能服務提供者告知權利人致害內容無法再現這一情況,以便權利人查驗并決定后續行為的選擇。
第二,對服務提供者科以告知義務與通知規則的規范目的相契合。通知規則的規范目的之一是促進權利人與網絡服務提供者之間的合作以減少網絡侵權。若網絡服務提供者不予告知,將導致權利人無從知曉自己發送的通知被如何對待。同時,生成式人工智能侵權與傳統網絡侵權的區別之一是,在傳統網絡侵權中權利人易于查驗網絡服務提供者是否采取了必要措施,但在生成式人工智能侵權中,若生成式人工智能服務提供者不主動告知,則權利人無從判斷其是否采取了必要措施,因為致害內容未再次生成未必是生成式人工智能服務提供者采取了必要措施后的結果。這些都可能引發潛在的后續爭議。例如,若致害內容再次生成,權利人將主張生成式人工智能服務提供者未采取必要措施,生成式人工智能服務提供者則主張權利人的通知不合格,進而引發雙方在責任承擔方面的爭議。因此,由生成式人工智能服務提供者向權利人告知通知情況有助于減少后續爭議的發生。
第三,生成式人工智能服務提供者的告知義務有助于權利人進一步查驗致害內容是否會再次生成,進而更好地維護自身合法權益。與傳統網絡侵權不同的是,生成式人工智能服務提供者的告知義務發揮的功能之一是告知權利人相關致害內容已經自然消失。鑒于生成內容具有不確定性,若致害內容在生成式人工智能服務提供者未采取任何措施的情況下未能再次生成,此時交由權利人來查驗致害內容將有助于確認該致害內容是否確實不再生成。同時,權利人在了解對話記錄無法再現后,其可能會進一步以其他提問方式來檢驗類似的致害內容是否會生成,因為作為利益最密切相關者,其更有動力查找致害內容。
第四,比較法經驗支持在一定條件下對網絡服務提供者科以告知義務。盡管我國法并未直接規定網絡服務提供者的告知義務,但美國法區分通知中欠缺事項的不同而對網絡服務提供者提出了不同要求。根據《數字千年版權法》第512(c)(3)(B)條的規定,不合格通知被分為兩類:一類是完全不合格的通知,網絡服務提供者收到后可不作回應。另一類是瑕疵通知,網絡服務提供者收到此類通知后,應積極聯系投訴人(complaining party),協助其補正缺失的材料。所謂“瑕疵通知”,是指通知至少滿足了合格通知的三項要件①,其缺失的只能是投訴人或被授權人的簽名、善意相信被投訴內容未經授權的聲明以及愿對虛假陳述承擔責任的聲明。美國的做法具有參考價值,因為在侵權并不明顯時,由投訴人而非網絡服務提供者承擔發現侵權內容的成本是通知規則的既有價值選擇,若投訴人的通知已基本上滿足了合格通知的多數實質性要求,只是欠缺部分非實質性內容時,網絡服務提供者仍對此置之不理,則對投訴人過于苛刻。參考美國的這一思路,若因人工智能本身的技術原因導致通知所涉對話記錄無法再現,此時生成式人工智能服務提供者的置之不理對權利人而言過于苛刻。
綜上,在致害內容無法再現時,生成式人工智能服務提供者應負有向權利人告知的義務。須指出的是,該告知義務限于致害內容無法再現的情形,并不意味著在所有通知不合格的情形中服務提供者均負有告知義務。
四、結語
通知規則在生成式人工智能侵權中的適用,既與通知規則本身相關,又受到生成式人工智能技術特征的影響。一方面,傳統網絡侵權中關于通知規則的諸多爭議直接影響了該規則在生成式人工智能這一新場景中的適用。同時,生成式人工智能讓傳統通知規則中的一些擱置問題再次凸顯。例如,通知規則的定性問題雖已討論多年,但因將其定性為歸責條款抑或免責條款對實踐中當事人利益的影響不明顯,導致該問題雖具有重要理論價值卻一直未有定論。與此相類似,通知人是否只能是權利人是傳統通知規則中未能引起學界關注的問題,但在生成式人工智能侵權中,這一問題的重要性進一步凸顯。另一方面,生成式人工智能也在一定程度上改變了傳統的通知規則,尤其是豐富了“必要措施”義務。由于生成式人工智能場景中并不存在網絡用戶,故傳統上針對網絡用戶的措施都發生了轉變。而傳統上針對內容的措施,也從主要面向“過去”(停止侵害)轉變為主要面向“未來”(消除危險)。這些轉變都表明,傳統通知規則需在人工智能時代進行理論更新!
本文責任編輯:黃匯