
摘 " "要:過濾技術發展在促進網絡版權治理的同時引起“通知—刪除”規則的適用困境,以及網絡平臺版權內容過濾義務之爭議。過濾義務本質上是注意義務的延伸,設立過濾義務有助于約束平臺權利濫用、發揮治理優勢,規制自發過濾行為。具體適用過濾義務時,應針對大型信息存儲與發布服務提供商的特定內容,制定明確合理的過濾標準并采取分類過濾措施。為保障過濾義務有效實施,應建立與“通知—刪除”規則的體系銜接機制、類型化成本分擔補償機制,以及算法運行全流程人機聯合審查機制。
關鍵詞:版權內容過濾義務;分類適用;銜接機制;補償機制;審查機制
中圖分類號:D 923.7;D923.41 " " " "文獻標志碼:A " " " " " " " " 文章編號:2096-9783(2024)02?0064?13
近年來,隨著我國數字經濟產業快速發展,數字技術使用門檻降低助長版權侵權行為,對網絡版權治理提出了新挑戰。2016—2020年,5年間網絡版權糾紛數量呈激增態勢,數量增長了4.6倍,年增長率高達54%[1]。以短視頻為例,12426版權監測中心10萬名作者監測數據顯示,平均每位作者有63件作品被盜版[2]。此外,ChatGPT 等生成式人工智能的發展,使得數字環境下版權侵權問題更加復雜,面對海量內容,版權人單憑自身力量難以發現和處理侵權內容。
過濾技術已經成為數字環境下網絡版權創新治理的重要手段,但隨著過濾技術的推廣應用,當前國內外理論與實務界對應否設立、如何適用并實施網絡平臺版權內容過濾義務問題存在較大分歧。2019年4月歐盟通過了《數字單一市場指令》(DSM)。該指令第17條雖沒有明確提及過濾技術的內容,但在線內容分享平臺為了符合要求,使用過濾器可能將不可避免[3]。2020年美國版權局對《數字千年版權法》(DMCA)第512條的研究已表明,避風港規則的危機不容忽視[4]。一些研究者認為,避風港應該被廢除或提出更高的要求,采用市場上最佳過濾技術的網絡平臺才能免于承擔版權侵權責任[5]。《中華人民共和國民法典》(以下簡稱《民法典》)采取“通知—必要措施”規則,已經大大提高了網絡服務商對版權內容侵權的合理注意標準,但是對于是否引入版權內容過濾義務仍存在較多分歧。學界相關爭議集中于技術維度、權利人與網絡服務商利益平衡維度、用戶利益保障維度,在過濾機制的設置上也存在“主動普遍過濾”[6]與“被動特定過濾”[7]兩類不同路徑。在司法實踐中,有法院認定平臺具有版權內容過濾義務, 也有法院認為不宜對網絡服務提供商苛以事先審查的義務1,甚至對于類似案情,同一地區、同一家法院在大致相同的時期所持的觀點還存在分歧2。因此,有必要進一步探討網絡平臺版權內容過濾義務的適用與實施問題。
一、網絡平臺版權內容過濾義務的發展與基本屬性
隨著理論研究和司法實踐的不斷深入,我國網絡平臺“注意義務—必要措施—過濾義務”的發展脈絡逐漸清晰。過濾義務本質上是注意義務的自然延伸,在國家和地方立法層面,相關條款為版權內容過濾義務的注意義務屬性提供了解釋依據。
(一)過濾義務的實踐發展
隨著司法實踐的不斷發展,網絡平臺應當承擔版權內容過濾義務已經逐漸明確,并在具體義務認定中以類型化分析作為解釋基礎。面對避風港規則的適用障礙,法院借助“必要措施”在判決中逐步認定網絡服務商應盡較高的注意義務或者“合理限度”的審查義務,“過濾”要求在必要措施的解釋中逐步明確化,體現出從語義暗示到書面明示的趨勢。
1.從“通知—刪除”到“必要措施”
隨著網絡普及以及網絡技術不斷發展,實踐中發現僅依靠 “通知—刪除”手段已無法及時遏制侵權行為,更無法防止重復侵權、多次侵權現象。 “必要措施”的立法設計便成為解決這一問題的突破點,部分法院也正是通過對“必要措施”的解釋以合理確定平臺義務范圍,但尚未明確過濾義務。2019年判決的新浪訴華多一案中,法院認為“平臺在收到權利人發送的預警函后應當承擔與其能力相符、適度的預防侵權發生的義務”3。此案所要求的預防侵權發生的義務即暗含有提前過濾的義務。在北京華藝匯龍公司訴快樂陽光公司侵害作品信息網絡傳播權糾紛一案中,一審法院認為“被告公司針對用戶侵權所應采取的必要措施,不應僅限于在侵權發生之后斷開鏈接一項,應基于其所提供服務的性質、方式、引發侵權可能性的大小以及其所具備的信息管理能力,積極采取其他合理措施”4。本案二審法院維持一審判決,并指出,“在收到權利人通知后,僅采取斷開鏈接一項措施,未及時對視頻內容及用戶名稱等關鍵詞進行篩選審查或采取其他合理措施,以避免持續侵權……上訴人以已履行平臺義務為由主張免責不能成立”5。再如,在愛奇藝與字節跳動案中,法院認為是否采取了必要措施應當從形式要件(合理的手段與方式)和實質要件(應有的效果與目的)兩個方面判斷。該案中字節跳動公司雖然開展了刪除、屏蔽等工作,滿足了形式要件,但并不符合有效制止、預防明顯侵權的實質要求,應當認定其在該案中所采取的相關措施尚未達到“必要”的程度6。本案亦未明確提出必要措施應當包含過濾機制,但學者在評論此案時認為,在技術和成本允許的條件下,服務商有義務采取類似于“關鍵詞”過濾的必要措施,以免陷入通知—刪除—再通知—再刪除……的死循環[8]。
2.從“必要措施”到“過濾義務”
在持續的司法實踐中,模糊的“必要措施”逐漸明確了過濾義務的適用。重慶市第一中級人民法院一份行為保全裁定書中指出,“必要措施的界定,則與技術發展密切相關。……但當該技術本身已成為可能且成本可承受時,則平臺……在刪除已有侵權視頻外承擔過濾、攔截義務則是理所當然”7。2022年10月26日,西安中院就騰訊訴抖音一案對于過濾義務的要求進行了全面深入的評價。該院認為,在侵權內容屬于一般性內容的情況下,平臺不承擔內容實質過濾和審查義務的抗辯確實合理。但是考慮被侵權內容屬于“大熱”劇集、權利人投入的高額成本、權利人及時提出預警與通知、社會文化產品供給等因素時,平臺對侵權作品的管理控制不能僅限于對“通知—刪除”規則的實現,還應采取更加積極管理、過濾、審查等管控措施的合理注意義務8。該案基于一般性內容的作品和知名度較高的熱門作品的二分,在分類適用的指引下實質上認為服務商對于熱門作品的注意義務中應當包含提前過濾和審查義務。
“必要措施”本身就是不確定概念,開放性解釋“必要措施”到何種程度,需要依據實踐需要決定。在“刪除、屏蔽、斷開鏈接”等無法適應防止平臺內容版權侵權、過濾措施早已自發應用且有效實踐,有必要考慮通過立法正式明確網絡平臺的版權內容過濾義務。在版權內容過濾義務的適用中,應當區分不同情形,采取類型化的思維進行適用。類型化既是法學研究的方法,也是解決司法實踐中疑難復雜案件法律適用問題的有效路徑[9]。為了便于法律適用,版權內容過濾義務在法律文本設計中應當吸收現有司法實踐中的有益經驗,對其予以類型化構建,保證版權內容過濾義務的解釋空間保持限縮與開放的平衡,保持法律規范的開放性和確定性的良性平衡[10]。
(二)過濾義務的定性依據
1.對《民法典》“必要措施”的規范涵攝
我國自2006年在《信息網絡傳播保護條例》中正式引入以“通知—刪除”程序為核心的“避風港”規則9,在《中華人民共和國侵權責任法》《中華人民共和國電子商務法》《民法典》中該程序的結構基本一致,但“通知”后的措施不斷擴展,《民法典》中實質上發展為“通知—必要措施”規則10。網絡服務商在接到權利人的通知后,由“刪除”或“斷開鏈接”的封閉措施發展成“根據構成侵權的初步證據和服務類型采取必要措施”的開放化措施,使得“必要措施”具有較大解釋空間。《民法典》第一千一百九十五條和第一千一百九十七條對于網絡服務商的類型和必要措施的種類都未進行限定,將版權內容過濾措施納入必要措施的范圍之內符合法律的文義解釋。《民法典》第一千一百九十七條網絡服務提供者“知道或者應當知道”侵權內容時應當主動采取必要措施的規定表明,在被動適用“通知—必要措施”規則豁免責任時, 平臺需盡到一定的“注意義務”,平臺注意義務與“通知—必要措施”互為補充[11]。當“通知—必要措施”可能過多偏袒平臺利益時,有必要延展平臺注意義務內涵以平衡平臺、權利人和公眾利益[12]。結合技術發展和被侵權內容的性質解釋“明知”和“應知”的情形以提高注意義務的要求、擴大注意義務范圍的方式兼容強制過濾義務。
過濾義務實際上屬于注意義務的涵攝范圍,是“必要措施”中更高層次的注意義務。吳漢東教授認為,雖然“網絡服務提供者不能對所有的網絡信息負有審查義務,但其應該采用一些過濾技術防止侵權性信息的傳播,或對于一些明顯的侵權性信息及時進行刪除。如果網絡服務提供者未盡上述應注意并能注意的義務,即要承擔過錯責任” [13]。此外,有法院在判決中所謂“更高的審查和注意義務”11實際也肯定審查義務和注意義務間的關聯,不過是礙于沒有明確法律依據而羅列連用。
2.對地方立法“預防侵權措施”的文本解釋
2022出臺的《北京市知識產權保護條例》《廣東省版權條例》等在地方立法明確要求網絡服務提供商落實“采取與其技術能力、經營規模以及服務類型相適應的預防侵權措施”的義務12。此類條款重點強調措施的預防性,并以技術能力、規模和服務類型等為考量要件,版權內容過濾具有預防侵權行為發生和擴大的天然功能,從中引申出過濾義務不存在文本解釋上的障礙。“預防侵權措施”作為一種開放式條款,為“必要措施”向“過濾義務”過渡預留了法律空間,為過濾義務的引出提供了立法文本依據,能夠解決司法實踐中對注意義務引申至過濾義務的做法與缺少法律支持的尷尬局面。
(三)過濾義務的設立意義
1.遵循權責一致原則,約束平臺權利濫用
隨著網絡平臺的快速發展和急劇擴張,其相對于用戶的優勢地位愈發明顯,平臺權力濫用引發侵權風險,理應承擔相應責任。其一,數字經濟的發展使在線內容分享平臺具有權利擴張的自身基礎。作為平臺經濟重要支撐的在線內容分享平臺在長期包容審慎政策的支持下不斷發展壯大,產生和發展了巨大的網絡效應和規模經濟,平臺用戶高度依賴平臺,進而形成鎖定效應[14]。也即平臺經濟可擁有遠遠超出傳統經濟的用戶規模[15]。因此,具有資金和技術等優勢的在線內容分享平臺會在市場競爭中持續占據有利地位,出現“強者恒強,弱者恒弱”的馬太效應。伴隨鎖定效應的加持,主流平臺便會無形地控制用戶的流動性,更容易形成寡頭平臺,出現“贏者通吃”的競爭格局[16]。一旦獲得較大市場份額,便會強化平臺對市場準入條件和用戶行為的控制。其二,平臺賦權加責模式近年來在世界范圍內呈現趨嚴態勢,在不同程度上授予平臺對用戶、商戶的管理權[17]。自2020年以來,我國政策層面“強化大型互聯網平臺責任”、落實平臺“主體責任”13的呼聲日益增多,將平臺企業確定為法律在事前、事中、事后介入干預各類治理問題的通用抓手[18]。網絡平臺日益成為信息內容生產傳播的重要渠道,兼具社會屬性和公共屬性,強化其主體責任,有利于彌合數字治理法律缺陷,發揮平臺能動性以實現預防式治理[19]。實際上,加責亦是賦權,且此類賦權往往較為寬泛,僅是原則性規定,至于如何制定細則或實施方案則由平臺自我裁度。由此形成了國家—平臺—用戶之間的復雜關系,平臺實質形成新的“私權力”主體。可見,平臺權力的膨脹使其逐漸從“治理受體”實現向“治理主體”的角色轉變[20],強化平臺主體責任符合權責一致原則。
2.彰顯公平效率價值,發揮平臺治理優勢
平臺在網絡版權治理過程中具備更大的主體優勢和更多的便利條件,在內容分享平臺尚不足以造成規模化危害的情況下,使其擔負較為寬松的主體責任更加公平、高效。
第一,平臺獲取經濟利益,理應承擔治理責任。誰獲利誰負責是民法一項的基本規則,平臺直接受益于其網站內容帶來的流量,如果平臺從使用侵權內容的產品或服務中獲得經濟利益,則平臺應對侵權行為負責。Web2.0時代之后,互聯網不再僅僅被視為數據管道,更多地表現為內容展示平臺,互聯網商業模式越來越多地轉向用戶生成的內容,平臺方的盈利取決于內容流量的大小。內容分享平臺不斷擴大和普及,避風港規則中的平衡已逐漸被打破,利益逐漸偏向于平臺,導致權利人不僅直接失去了部分經濟收益,還需在無休止“打地鼠”式的維權中額外支出巨額費用。“流量變現”的營利模式使得內容分享平臺具有忽視版權保護的動機[21],適時強化版權保護主體責任以履行過濾義務具有公平合理性。
第二,平臺具有管理優勢,便于承擔治理任務。平臺作為其內容政策的管理者,這使他們能夠防止其平臺上的版權侵權。因為平臺控制著內容的訪問,具有直接監控的信息優勢,進而能以更低的成本識別侵權內容。平臺是潛在的能夠以最低成本規避損害的一方,應該承擔比目前更多的治理負擔。
第三,法律治理力量不足,吸收技術治理合力。設置版權內容過濾義務將鼓勵在線平臺進一步投資改進內容過濾技術,促進法律規范與技術措施的良性互動。法律吸收技術成果作為治理手段,凸顯技術的必要性,推動技術升級以進一步提升網絡版權綜合治理能力。
第四,促進達成公平協議,緩解社會治理壓力。賦予平臺版權過濾義務將改善權利人在與平臺簽訂許可協議中的不利地位,為與權利持有人簽訂的許可協議提供更合理的條款。平臺為降低事前過濾不足的風險以及對言論自由侵害的影響,積極謀求與權利人簽訂授權協議以替代過濾責任的意愿將會增大。而采取協議解決的方式,可以更大程度上減少侵權糾紛、節約司法資源、緩解社會治理壓力[22]。
3.彌補法律制度漏洞,規范平臺過濾行為
在現行法律框架下,平臺自發過濾行為缺少規制而隱藏法律風險,錯誤過濾的法律后果不明確,用戶對平臺不當移除或限制其發布內容提出異議存在法律障礙。平臺利用算法進行自發過濾的“私人執法”模式容易在利益的驅動下被濫用,不論在算法設計還是應用等環節都會更多偏向于自身利益,忽視合理使用,最大程度壓縮版權公共領域。由于過濾行為的自發性和自利性,被過濾的內容往往被悄無聲息地刪除或屏蔽,上傳者不會收到侵權通知,也就無法針對通知行使反通知的權利,“通知—刪除”機制被架空[23]。即使存在過濾糾錯機制,也會因為程序繁瑣而無法保障用戶基本權益。
在憲法層面,用戶言論自由權利難以對抗平臺自發過濾行為。用戶尋求平臺濫用權力的救濟時通常援引憲法上的言論自由權利,中國言論自由雖也被視為公民憲法權利,但并未被明確納入民事權利的范圍,言論自由的民事救濟非常少見[24]。在侵權法層面,用戶因缺乏請求權基礎而難以糾正平臺錯誤的自發過濾行為。當用戶試圖讓平臺承擔不當移除所致損害的責任時,通常會面臨缺少請求權基礎的窘境。《民法典》和《信息網絡傳播權保護保護條例》不僅缺少對平臺錯誤過濾的責任認定規則,甚至還為平臺的刪除行為提供了合法理由。例如《民法典》第一千一百九十五條只規定權了利人錯誤通知的賠償責任以及網絡服務商未采取必要措施則應承擔連帶責任14,但并未規定網絡服務商錯誤采取措施的法律后果,因此很可能被誤解為過濾措施是當然合法的,只要采取過濾措施便可免除賠償責任,這將加劇錯誤過濾的平臺責任認定的模糊性。在合同法層面,用戶受限于平臺自治條款而難以約束平臺自發過濾行為。這一點在平臺自治規則的運行中表現得更加明顯。認可在線內容分享平臺服務條款是用戶進入平臺的前置條件,此類條款中通常包含平臺自身的責任豁免以及授予平臺自行決定以任何理由刪除內容的明確權限的條款15,即平臺在處理用戶發布的內容時具有廣泛的裁量權,而用戶基本上無能為力。用戶和平臺權利不對等,用戶只得認可這些“不合情理”的格式合同。倘若用戶向法院提起訴訟,由于沒有實體法規定平臺目前所采取的事先過濾機制的行為模式,缺少明確的法律后果,出于對合同自由的尊重,法院大都承認此類服務協議的合法性和可執行性。如在Song Fi訴Google一案中,原告指稱YouTube的服務協議是一項不合情理的合同,他們的弱小地位使得他們別無選擇,只能接受YouTube的條款和條件。法院駁回了這些論點,理由是YouTube不是唯一可用于共享視頻的平臺,用戶也可以在獨立網站上發布內容16。法院無疑認可了服務協議的可執行性。
版權內容過濾法定化是防止自發過濾行為失控,保障用戶權益的必然要求。“不反對網絡服務提供者自愿實施過濾機制”的態度固然正確,但“不贊成國家在法律中強制性要求網絡服務提供者實施過濾機制” [25]更容易造成不當過濾規制無力的局面。因此,面對現實中已較為廣泛應用的過濾技術和毫無控制的濫用時,立法應當充當處于弱勢地位普通用戶的砝碼,要求大平臺合理有序開展內容過濾,督促大平臺優化申訴渠道。過濾行為納入法律版圖之中,實質是為不當過濾行為的糾正提供明確的法律依據。當然,目前過濾技術尚未達到毫無錯漏的完美境地,對過濾錯誤的擔憂始終是反對過濾的有力說辭。但必須看到,風險永遠不可能完全規避,即使完全由人工審核也不能保證絕對沒有錯誤。即自動化是不可避免的,高質量的版權執法自動化能夠產生可以忽略不計的執法錯誤[26]。允許一定的錯誤率,盡量降低由錯誤而導致的危害才是現實要務。
通過進一步修改完善《信息網絡傳播權保護條例》(2013年修訂),在版權法律制度中設立過濾義務,可以彌補現行法律制度的漏洞、規范平臺過濾行為。具體來說,可以在現行網絡服務提供者責任條款(第二十三條)之后新增一條規定過濾義務,即“提供信息存儲空間與發布服務的大型網絡服務提供者,應當對重點作品版權保護預警名單內的作品采取與其技術能力、經營規模以及服務類型等相適應的內容過濾等預防侵權措施;權利人在提交本條例規定的通知書后可以提出特別申請,要求網絡服務提供者采取內容過濾等必要措施防止未經授權的內容再次被上傳。未采取內容過濾等必要技術措施導致相關侵權行為產生的,網絡服務提供者應當承擔侵權責任。”
二、網絡平臺版權內容過濾義務的具體適用探討
(一)適用主體:大型信息存儲與發布服務提供商
《信息網絡傳播權保護條例》中主要規定了三大類網絡服務提供商:信息存儲與發布服務商、信息定位服務商、網絡接入和傳輸服務商。是否能夠成為網絡守門人,關鍵在于網絡服務提供商是否有能力阻止侵權行為,以及阻止侵權行為的成本是否合理。對此,歐盟《數字市場版權指令》將可能采取過濾義務的主體限定為“在線內容分享服務提供者”,并對向公眾提供服務不滿3年、年營業額少于1 000萬歐元的初創服務商免除其“盡最大努力防止它們將來被上傳”的義務17。此規定可資借鑒,特定版權內容過濾義務的適用主體應限定為信息存儲與發布服務商,即在線內容分享平臺,并對初創中小服務商適當免除過濾義務。此類在線內容分享平臺以營利為目的為用戶上傳內容提供存儲、組織和推廣服務,對內容的控制性強,內容推廣的主動性明顯,傳播廣泛,是承擔過濾義務的合適主體。
1.擔責原因:直接穩定公開侵權內容
具有過濾必要性的內容應處在穩定公開狀態,直接進行內容公開是產生損害和承擔責任的原因。在三類服務商中,只有網絡內容存儲與發布服務提供商使其用戶內容產生穩定公開性,直接使不特定對象可被隨時獲取,使得侵權行為外顯化、擴大化。對于網絡接入和傳輸服務商而言,更多是充當橋梁作用,是網絡信息順暢流通必不可少的環節,特定內容處在流動狀態下,通常不具有終局性和穩定性,是否公開分享暫不確定。如用戶完全可能將內容上傳至網絡空間存儲自用或是點對點轉移存儲,很難直接認定侵權意圖。即使所上傳的內容確為未經授權獲取的內容,若僅是自我存儲,也很明顯可以歸為個人使用。對于信息定位服務商而言,其并不直接提供和公開網絡內容,而是海量信息中提供快速精確的內容指引。雖然指引功能客觀上有助于侵權內容的傳播,但其并沒有控制第三方平臺的內容,并不是過濾的最佳主體。若強行要求信息定位服務商采取過濾措施,一方面將極大削減信息定位功能;另一方面將不合理地增加過濾成本。正因信息存儲與發布服務提供商面對其平臺上穩定存在的公開內容具有高度的控制能力,并對直接侵權產生直接的幫助,使其承擔過濾義務具有合理性。
2.免責范圍:初級規模的信息服務商
不同規模的平臺所承擔的主體責任不同,規模越大主體責任范圍越大,對平臺進行分級符合公平競爭政策[27]。這一理念已體現在《互聯網平臺分類分級指南(征求意見稿)》中,指南綜合考慮用戶規模、業務種類、經濟體量以及限制能力等因素將平臺區分為“超級平臺”“大型平臺”“中小平臺”三類,分別落實平臺主體責任[28]。雖然目前過濾技術已經相對成熟,但對于初創階段的服務商而言仍然相當昂貴。2018年谷歌稱其在Content ID上投入了超過1億美元的資金[29]。對于類似谷歌、百度這類大型服務商而言早已擁有內容過濾系統,甚至從規模經濟中取得收益。相比之下,初創階段的小服務商在過濾義務之下必須事先增加大量投資,以建立符合要求的過濾系統。此外,初創服務商對侵權內容的識別和控制能力較差,且此類服務平臺用戶上傳內容少、受眾規模小,由此引發的侵權風險也基本在可控范圍內。因此,在適用過濾義務時考慮網絡服務商的類型、服務規模,實具必要,可以參考《互聯網平臺分類分級指南(征求意見稿)》的分類,免除“中小平臺”的過濾義務。
(二)適用對象:特定內容
版權內容過濾可以區分為普遍過濾和特定內容過濾。版權內容過濾義務應當避免普遍(一般)過濾,特定內容過濾有助于提升過濾義務的確定性,調和對用戶基本權利的影響,以實現版權保護與公眾基本權利行使的平衡。區分一般過濾與特定過濾的標準不在于審查是否及于所有上傳內容,而在于履行義務的主體、適用的對象和幅度是否特定。否則,一般過濾和特定過濾的區分將是偽命題,畢竟不對平臺內容進行全面審查無法實現過濾的制度目的。歐盟2000年《電子商務指令》第15條明確禁止一般監測義務,但允許國家法律在特定情況下規定此類監測義務。
禁止一般過濾義務的動因是為保障對基本權利和執法措施的最小損害。歐盟判例一般基于三個理由認定一般過濾義務無效:(1)當權利保護侵犯其他基本權利(包括用戶表達和接收信息的自由)時,要求對權利的保護達到公平的平衡,廣泛的一般監控要求未能通過此測試,不當損害了表達和接收信息的自由;(2)《電子商務指令》第15條禁止主動監控要求;(3)保護知識產權的措施不得過于復雜或昂貴。由于實施過濾系統的費用僅由服務商承擔,要求過濾的禁令過于昂貴,并且侵犯了服務商開展業務的自由[30]。即過濾措施和主動監測義務必須在版權和其他基本權利(包括用戶傳遞和接收信息的自由)之間取得公正的平衡,否則不得實施。
盡管2019年歐盟版權指令在實質確立過濾義務的同時強調不應導致一般監控義務,但其依然存在引發普遍過濾的擔憂。雖然指令過濾義務適用主體“在線內容共享服務提供商”的范圍有所限定,但對過濾對象并沒有分類規定,任何受版權保護的內容都被納入過濾義務的保護范圍當中,極容易受到實施普遍過濾的詰難。荷蘭、盧森堡、波蘭、意大利和芬蘭就他們的擔憂發表了聯合聲明,聲稱該指令未能實現其所謂刺激創新、創造力、投資和新內容生產的目標。這些國家明確表示,該指令展現了歐盟在創新方面的倒退,并對該指令適用的清晰度表示擔憂[30]。除此之外,創建普遍過濾機制需要花費大量資金,只有財力雄厚的平臺才能符合版權指令的要求,會影響自由競爭市場的發展,因為第17條為初創企業施加不必要的負擔[31]。特定過濾則有助于實現權利保護與損害的平衡。義務適用主體的特定考慮了過濾的必要性和過濾成本的承受能力,不至于對小平臺施加不適當的限制;保護客體特定有利于緩解平臺過濾壓力,給予平臺明確的過濾指向;特定過濾幅度的主要目的在于降低對言論自由等基本權利的損害。同一層次間權利的保護具有相對性,知識產權的保護更不是絕對保護,各自有限保護才能實現權利平衡,特定過濾義務正是為達致平衡的自我限制。因此,本文所構建的版權過濾義務在解釋上不應被歸為普遍過濾,因其適用主體、保護客體等有特定的條件,不會導致所有網絡服務商對全部版權內容進行普遍審核。
(三)適用標準:明確合理
版權內容過濾標準寬松抑或是嚴格,對于實現既減少錯誤過濾,又有效識別出侵權內容并重點減少對合法內容的不當干預的目的至關重要,應以合理的過濾標準平衡著作權人、平臺與用戶基本權益。
1.制定主體:行業協會
版權主管部門應指導行業協會科學合理制定標準,以平衡利益博弈,考慮行業發展需求,并保障用戶權益。
2.發布要求:事先統一
在對過濾義務適用主體有所限定的前提下,事前明確過濾標準不僅能夠實現個案公平,還能統一指引網絡平臺妥善開展過濾、指導各級法院統一裁判。
3.核心內容:明顯侵權
目前過濾技術有限,侵權內容和合法內容的空間此消彼長,為最大程度去除侵權內容,必然會不當阻礙合法內容的發布。在利益平衡視野下,開展過濾措施除有效識別侵權內容外,重點應為合法內容留下足夠的空間。合法內容被錯誤干預的情形主要為三類:一是公共領域的內容被錯誤識別;二是合法授權的內容被錯誤識別;三是合理使用的內容被錯誤識別。其中,第一類、第二類可以事先要求權利人提供有效的權利證明和授權名單的方法解決大部分錯誤,影響尚可控。內容過濾的關鍵在于適當的區分合理使用的內容,而合理使用歷來是版權法中最復雜的部分,法官尚且難以妥善處理,依靠算法確定可能更為棘手。法定合理使用因素主要是定性的,而不是定量的,并且合理使用的認定還需依賴于上下文,至少在當前的算法技術無法理解上下文的含義,這使合理使用難以被完全自動化[32]。因此,在技術不佳的情況下,過濾措施應當以“明顯侵權”為基本要求,對于一般侵權內容應當推定合法。在認定是否“明顯侵權”時可以從“絕對數量”和“相對比例”兩個方面設計過濾值[33],并且“數量”和“比例”的值不應過低,留足合理使用適用的空間。
(四)適用方式:區分類型
1.知名作品采取事先應知型過濾
事先應知型過濾是指網絡服務商在權利人尚未提出侵權指控前,主動對存在侵權風險的版權內容采取的一種過濾措施。《民法典》第一千一百九十七條規定網絡服務商“知道或應當知道”時的必要措施免責條件,其中“應當知道”的表述對網絡服務者課以注意義務,即表明立法者并不希望網絡服務提供者對侵權信息始終處于被動知曉的狀態[34],事前合理的過濾措施即包含其中。由于事前過濾義務對網絡服務商較為嚴苛,以免給予其過重負擔,事先過濾義務不應過于寬泛,過濾對象和范圍必須明確特定。依據《信息網絡傳播權民事糾紛案件適用法律若干問題的規定》(以下簡稱《規定》)第九條,認定“應知”的前提是侵權事實明顯18。在已要求網絡服務提供者采取過濾義務的前提下,應借鑒該條第(二)項中所考慮的上傳內容的類型、知名度及侵權信息的明顯程度等方面來確定過濾對象。因此,可將事前應知型過濾義務的過濾對象限定為知名作品。當然,知名作品在認定上仍然有極大的不確定性,無法提供明確的事前指引。因此,結合實踐做法,此類知名作品應進一步限定為“重點作品版權保護預警名單內的作品”。
知名作品與一般作品的區分保護模式有其理論和實踐合理性。從激勵理論觀之,給予知名作品重點保護能夠促進作者創作更優質的作品。雖然創作內容受版權保護的標準是獨創性的有無而不在于獨創性的高低,但并不排斥法律在給予普遍性保護的前提下對獨創性較高的作品實施強化保護,這與高質量作品所創造的價值相匹配。過濾義務作為更高層次的注意義務,相應的技術和人力成本較高,并不適用于所有作品。選擇對知名作品給予事先過濾的重點保護,更能實現激勵高質量創作的目的。此外,在立法和司法實踐中此類差別化保護已有體現。上述《規定》第九條第(二)項即將作品的知名度作為判定侵權事實是否明顯的因素,以及第十條和第十二條中對“熱播影視作品等”的特殊保護即體現對知名作品重點保護的態度。再如法院通常會認定“對知名度較高的涉案作品負有較高的注意義務”19,西安市中院在騰訊訴抖音一案中更對一般性作品和大熱劇集的差異性保護進行專門論證,對于大熱劇集“應采取更加積極的管理、過濾、審查等管控措施的合理注意義務”20。可見,為避免網絡服務商承擔不合理的過濾成本,將其主動過濾的對象限定為知名并被納入重點作品版權保護預警名單內的作品具有合理性和可行性。
2.非知名作品采取事后通知型過濾
事后通知型過濾是指網絡服務提供商在收到權利人的特別申請后為防止重復侵權而被動采取的一種過濾措施。事后通知型過濾措施與“通知—刪除”程序有機銜接,其目的是規制嚴重損害權利人利益、違背誠實信用和公序良俗原則的重復侵權行為。版權重復侵權行為一直是重點規制對象,如《“十四五”國家知識產權保護和運用規劃》要求“有效遏制重復侵權”。相關司法解釋以及地方性立法都將“重復侵權”作為侵權責任認定的重點因素,如《廣東省版權條例》第三十八條將重復侵權作為從重處罰的情形。在實踐中一些網絡服務提供者也在平臺內自發采取應對重復侵權的措施,如百度網盤服務協議中要求用戶同意公司“采用并實施適當的政策,……以期杜絕在相應條件下重復侵權” 21。可見,我國政策和法律雖然都意識到規制重復侵權勢在必行,但缺乏事前規制措施,多是通過事后加重處罰的模式進行震懾,無法主動規制重復侵權行為,應有專條應對 “重復侵權”行為[35]。
事后通知型過濾措施類似于歐盟《單一數字市場版權指令》第17條4(c)之規定:“在收到權利人發出的充分實質通知后,……盡最大努力防止它們將來被上傳”22。在該條規定下網絡服務提供商沒有裁量余地,只要接收到適格通知就必須采取措施防止將來的上傳。在此程序下,一方面如果缺少權利人的必要配合,如權利人不提供正版數據,過濾可能無法順利開展;另一方面只要接到通知就必須開展過濾措施,容易導致過濾義務一般化,不適當增加服務商負擔。因此,在事后通知型過濾措施中,通知后的必要措施應遞進式開展,即(1)適格通知—(2)即時性措施:刪除、屏蔽、斷開鏈接—(3)持續性措施:過濾。其中,由(1)到(2)即連貫性的“通知—刪除”程序,而由(2)即時性措施到(3)持續性措施則不是自然遞進,需要權利人做出特別申請才能啟動。具體運作要素如下:
第一,過濾對象。事后通知型過濾的對象是“被通知的作品”,主要為重點作品版權保護預警名單外的作品提供事后過濾保障。對于重點作品版權保護預警名單內的作品而言,既然已經要求網絡服務商主動提供事前過濾保護,侵權通知后的主動保護更是應有之義,不需權利人特別申請。
第二,特別申請。特別申請是啟動過濾措施的意思通知,其內容應在《信息網絡傳播權保護條例》第十四條三項內容要求的基礎上增加兩項要求,即在“(1)權利人基本信息、(2)已發現的侵權內容名稱和網絡地址、(3)構成侵權的初步證明材料”之外,另增加(4)可與用戶上傳內容進行對比的參考數據、(5)授權他人使用的情況等白名單”。第(4)項要求是過濾系統準確運行的關鍵,缺少對照樣本,過濾措施便缺少指向性。第(5)項要求是通過白名單的方式減少錯誤過濾,避免出現屏蔽具有合法授權的內容上傳。過濾程序的啟動需要接收到五項通知要求,當用戶接收到合格的特別申請后,應及時開展內容過濾措施。
三、網絡平臺版權內容過濾義務的實施措施
(一)建立過濾義務與“通知—刪除”的體系銜接機制
由于特定內容過濾義務的對象并不囊括所有作品,“通知—刪除”依然有較大適用空間。版權過濾機制應當與“通知—刪除”機制有機協調,從而清晰地指導網絡服務商履行過濾義務,如圖1所示。
從圖1可以看出,版權內容過濾義務與傳統的通知—刪除程序可以有機融為一體。
第一,傳統的通知—刪除規則依然適用于所有類型的作品,提供最基本的保障。無法要求過濾機制搜索出全部潛在侵權內容,“通知—刪除”規則依然是被過濾措施所遺漏潛在侵權內容的重要防范機制。
第二,對于普通作品而言,權利人可以選擇僅適用傳統“通知—刪除”或是進一步提交過濾特別聲明而請求開展過濾。
第三,內容過濾需要一個受版權保護的材料數據庫,以便內容識別技術與新上傳的內容進行比對。進入過濾程序之前還要求版權人提交適當的正版內容作為對比元素據。由于重點作品版權保護預警名單作品由國家版權局統一公布,此類作品的對比數據庫可由國家版權局牽頭統一建立,并要求相關權利人履行提交義務。于其他普通作品而言,由于過濾是經自愿申請啟動,提交相應的版權對比數據應是過濾申請啟動的后續條件。兩類作品數據庫合并后由國家版權局統一管理,網絡服務商經申請可使用。提交版權數據并不要求權利人提交絕對完整的內容,權利人可以選擇提交顯著部分等足以滿足過濾要求的內容即可。
第四,當統一進入過濾程序后,網絡服務商應將過濾所檢測出的潛在侵權內容通知權利人,權利人可以決定內容刪除或是保留并貨幣化。然后,權利人的決定將會被通知到內容上傳者,上傳者根據實際情況對上述權利人的決定予以認可或者提交申訴的反通知,進入申訴程序。
第五,在申訴程序中,內容上傳者認為該內容被不合理地刪除或獲利,可通過服務商向權利人發出反通知,明確說明對受版權保護內容的使用屬于合理使用或其他合法情形的原因;版權所有者接到反通知后應當及時處理或者可以選擇就直接侵犯版權對此類個人提起訴訟。在適當的爭議期間,刪除或者獲利的決定保持不變。相關通知、轉通知、錯誤通知和處理時限等可以參照傳統通知—刪除規則中的相關規定,實現真正的規則融合。
(二)建立類型化成本分擔補償機制
內容過濾技術的研發耗資巨大,過濾機制的部署成本更是持續輸出,此類成本如何承擔是過濾義務高效持續履行的保障。
1.過濾成本承擔主體與分擔方式
網絡服務商、權利人、“侵權人”三方是過濾措施直接相關方,對過濾成本具有承擔義務。對于網絡服務商而言,過濾措施既被定性為義務,特別是考慮其作為侵權風險源的引發者和控制者的地位時,由其承擔過濾成本是應有之義。但過濾措施一旦開展便并非一時,需要實時過濾的對象可能呈指數級不斷積累,運行愈久、負擔愈大。此外,由服務商完全承擔過濾成本易導致權利人濫發過濾特別聲明,導致需要過濾的作品過度增加。對于權利人而言,因其作為過濾機制的最大收益者而承擔過濾費用亦屬合理。特別在事后通知型過濾中,可以促使權利人慎重考慮是否應當發出特別申請、適時終止過濾措施,最大程度節約過濾成本。對于“侵權人”而言,其直接侵害著作權,產生過濾的需求,由其承擔過濾費用作為損害補償在理論上具有天然的正當性。但在實踐中,由于服務商的過濾并非最終的司法認定,且 “侵權人”可能數量巨大,賠償能力千差萬別,是否能夠落實費用補償更不確定。
針對事先應知型和事后通知型過濾義務并行的機制,可在網絡服務商負主要責任的模式下依據不同的過濾類型分別設計分擔方式。即事先應知型過濾中成本原則上由網絡服務商完全承擔,事后通知型中原則上由權利人適當支付一定費用。事先應知型過濾本就是網絡服務商主動啟動,且過濾對象特定、數量有限,由服務商完全承擔過濾成本不至于課以不可控的過濾成本。對于事后通知型過濾義務而言,因其由權利人的通知而被動啟動,由權利人支付一定費用也一定程度上保障過濾規模適度,防止制度濫用。但需指出的是,權利人支付的費用并不需完全覆蓋成本,其目的在于對服務商的過濾成本進行適當分擔,建議根據不同的作品類型和過濾周期等制定具體分擔比例。
2.過濾成本補償模式與利益分配
此外, YouTube的Content ID系統設置的內容貨幣化模式可資借鑒作為過濾成本的補償性機制,可產生過濾義務持續履行和創新內容擴大傳播的雙重效益。
第一,貨幣化模式實質上是一種變相的版權許可,能夠促進內容創新與傳播。在貨幣化模式下,一旦權利人同意“獲利”,則允許其侵權內容保留在內容分享平臺,實際上是批準了這些未經許可的使用。從結果上看,用戶可以在不事先獲得許可的情況下發布他們想要的版權內容,如同一開始就獲得版權許可一般,創建了事實上的版權許可。谷歌2018年的報告顯示,版權所有者選擇將90%的Content ID聲明變現獲利,為自己開辟了大量新的收入來源[36]。如此,該制度將在言論自由權與版權所有者對其作品獲得公平報酬的需求之間提供公平的平衡,從而激勵優質內容的創作與分享[37]。
第二,推動形成網絡服務商、權利人、用戶三方獲益的格局,促進過濾義務持續履行。Content ID系統的內容貨幣化是指YouTube進行內容過濾后并不直接將侵權內容刪除,而是通知權利人在“移除、跟蹤、獲利”等后續措施中進行選擇。若權利人選擇“獲利”,則侵權內容會被允許繼續傳播,但服務商將對侵權內容通過投放廣告等方式獲取收入,收入在權利持有人和YouTube之間分配,而用戶通常不會收到與視頻相關的任何款項。實際上,權利人在一般情況下因侵權行為所獲得的補償只能限于因侵權部分所造成的損失或收入,目的在于從侵權人那里追回因盜用權利人的知識產權而獲得的所有利益。而在Content ID系統中,用戶會因其上傳的內容中包含一部分侵權內容而失去整個內容的所有收益,這無疑是一種不公平的懲罰。尼古拉斯·卡爾(Nicholas Carr)將這種剝削模式稱為“數字佃農”,其中生產分布在許多人手中,但經濟回報集中在極少數人身上[38]。因此,要使得內容貨幣化模式作為一種公正的成本補償機制,在新的分配格局中內容侵權用戶的獲利權不應當然地被完全剝奪,限制版權主張方從獲利侵權內容中獲得的收入百分比,僅限于根據侵權人的版權內容占整個上傳內容中的比例而獲得收入的百分比。網絡服務商可以再從權利人和用戶所得利益中各抽出適當部分,以補償為履行過濾義務所付出的成本,促進過濾義務持續履行。
(三)建立全流程人機聯合審查機制
與人工內容審查不同,算法以表面價值對待網絡內容,無法依據上下文合理解釋內容的本意,所以算法過濾的誤報和漏報時有發生。算法并不完美,不能替代人工審查,更多的人工內容審核可確保平臺過濾侵權內容而不會錯誤地審查合法甚至對社會有益的內容。為保障人類在版權侵權內容審查中的必要干預,可從算法運行的全流程入手,在算法運行的各個階段增強過濾算法的可信性。
1.算法訓練階段控制數據質量
在過濾算法訓練階段,高質量的訓練數據極為關鍵,人工干預是提高數據質量的保障。過濾算法雖然可以根據參考內容片段的數據特征檢測內容片段之間的相似性;但僅憑內容間的相似性不足以確定作品是否侵權。需要人工干預確定內容片段是否不僅相似,而且侵權,然后在數據庫中正確標記該片段。如果用作訓練數據的內容片段被錯誤地標記為“侵權”或“非侵權”,則過濾算法將無法“學習”正確的分類,并在過濾實踐中表現出極大的偏差,系統的誤報很容易損害公眾對創新內容的訪問。
2.算法處理階段提高篩查精度
監管侵權內容并不是一個責任,而是兩個責任:識別潛在侵權內容的責任(可以通過技術完成)和評估該內容的合理使用的責任(目前必須通過人工審查來完成)[39]。因此,在算法過濾運行中,實際應當進行兩層審查:第一層是算法篩查;第二層是人工審查[40]。其中人工審查應當由網絡服務商和權利人善意協力完成。具體而言,在算法過濾后,對于侵權可能性較高的內容可直接由服務商通知權利人,此時權利人必須善意地評估其內容是否構成合理使用后方可做出決定。對于輕度可疑內容,首先由網絡服務商進行人工審核,若被認定為符合初步侵權的要件,服務商應在反饋中標注“人工復核”,以顯示平臺審查的善意與慎重,并提醒權利人慎重處理。
3.算法輸出階段保障監管透明
算法過濾系統要想獲得公信力,就必須使得過濾結果更加透明。如果沒有關于過濾下架以及用戶申訴的全面信息,那就很難評估過濾系統是否正常工作。因此,可以建立中立公開網站接受公眾評論與監督。具體而言,由網絡服務商或者第三方機構設立一個專門板塊,類似于“流明(Lumen)”系統的一個網站,過濾程序后的刪除通知和貨幣化請求將與權利人,內容被刪除或貨幣化的原因等信息一起發送到網站。更為重要的是,該網站應當允許公眾可以對刪除或貨幣化措施發表評論,以評估其結果是否符合社會預期。
四、結語
明確網絡平臺版權內容過濾義務是推動數字產業高質量發展的有效舉措。我國《民法典》中確立的“通知—必要措施”條款為過濾義務的引出提供了切口,司法實踐中網絡平臺版權內容過濾義務也有逐步類型化的傾向。盡管版權內容過濾義務一直受到損害自由表達與信息獲取、阻礙自由競爭等負面影響的批評,但通過在過濾內容、過濾標準、適用主體、適用措施等方面進行類型化取舍,確定合理的范圍,可以避免普遍過濾的詰難;通過與“通知—刪除”規則建立有機銜接機制,優化過濾成本分擔與補償機制,采取“算法+人工”的人機聯合審查措施,可以保障網絡平臺版權過濾義務有效實施。總體而言,網絡平臺版權內容過濾是智能時代版權保護的有效工具,積極利用、合理設計才是順應技術發展的理性選擇。
參考文獻:
[1] "“十三五”中國網絡版權治理白皮書 [EB/OL]. (2021-09-26)[2023-05-14]. http://www.caict.ac.cn/kxyj/qwfb/bps/202109/t20210926_390432.htm.
[2] 2021年中國短視頻版權保護白皮書[N].中國新聞出版廣電報,2021-05-20(8).
[3] BECHTEL M. Algorithmic notification and monetization: using YouTube's content ID system as a model for European Union copyright reform[J]. Michigan State International Law Review, 2020(2): 246?247.
[4] U.S. Copyright Office. Section 512 Study[EB/OL]. (2020-03-21)[2023-05-14]. https://www.copyright.gov/policy/section512/.
[5] HELMAN L, PARCHOMOVSK G. The best available technology standard[J]. Colum. Law. Review, "2011, 111: 1194.
[6] "陳星,梁龍坤. 影視類視頻分享平臺版權過濾義務研究[J]. 電影文學, 2022(7): 14?19.
[7] 徐家力,楊森. 算法時代網絡平臺版權責任芻議[J]. 中國出版, 2022(19): 18?22.
[8] 全國首例算法推薦案,能力越大責任越大[EB/OL]. (2021-02-19)[2023-03-16]. https://new.qq.com/rain/a/20220219A08L3800.
[9] 李玉林. 論以物抵債協議的類型化適用[J]. 法律科學(西北政法大學學報),2023(4):1.
[10] 張斌峰,陳西茜. 試論類型化思維及其法律適用價值[J]. 政法論叢,2017(3):118.
[11] 田小軍,郭雨笛. 設定平臺版權過濾義務視角下的短視頻平臺版權治理研究[J].出版發行研究,2019(3):66?69.
[12] 馮曉青,許耀乘. 破解短視頻版權治理困境:社會治理模式的引入與構建[J]. 新聞與傳播研究,2020,27(10):56?76.
[13] 吳漢東. 論網絡服務提供者的著作權侵權責任[J]. 中國法學,2011(2):38?47.
[14] 周漢華. 論平臺經濟反壟斷與監管的二元分治[J]. 中國法學,2023(1):222?240.
[15] 侯利陽. 平臺反壟斷的中國抉擇:強化反壟斷法抑或引入行業規制?[J]. 比較法研究,2023(1):32?48.
[16] 孫晉. 數字平臺的反壟斷監管[J]. 中國社會科學,2021(5):104?105.
[17] 馬平川. 平臺反壟斷的監管變革及其應對[J]. 法學評論,2022(4):174?183.
[18] "戴昕. 平臺責任與社會信任[J]. 法律科學(西北政法大學學報),2023(2):82?97.
[19] "劉權. 論互聯網平臺的主體責任[J]. 華東政法大學學報,2022(5):79?93.
[20] 黃嘉慧,黃漢章. 平臺生態時代的網絡版權治理新規則[J]. 出版發行研究,2017(1):61?63.
[21] 崔立紅. 區塊鏈視角下互聯網平臺的版權內容過濾義務[J]. 山東社會科學,2022(6):156?162.
[22] "GABISON G A, "BUITEN M C. "Platform liability in copyright enforcement[J]. Columbia Science and Technology Law Review, 2020(21): 247?248.
[23] "焦和平. 算法私人執法對版權公共領域的侵蝕及其應對[J]. 法商研究,2023(1):187?200.
[24] "崔國斌. 論網絡服務商版權內容過濾義務[J]. 中國法學, 2017 (2): 236.
[25] "萬勇. 著作權法強制性過濾機制的中國選擇[J]. 法商研究,2021,38(6):184?196.
[26] HUSOVEC M. The promises of algorithmic copyright enforcement: takedown or staydown? which is superior: and why[J]. Columbia Journal of Law amp; the Arts, 2018(1): 84.
[27] 王勇,呂毅韜,竇斌,等. 互聯網平臺的主體責任與分類分級——基于公共物品的視角[J]. 經濟社會體制比較,2022(5):27?37.
[28] 國家市場監督管理總局. 關于對《互聯網平臺分類分級指南(征求意見稿)》《互聯網平臺落實主體責任指南(征求意見稿)》公開征求意見的公告 [EB/OL]. (2021-10-27)[2023-03-17]. https://www.samr.gov.cn/hd/zjdc/202110/t20211027_336137.html.
[29] How Google Fights Piracy[EB/OL]. (2018-11-27)[2023-03-14]. https://www.blog.google/documents/27/How_Google_Fights_Piracy_2018.pdf/?hl=en.
[30] CLOUTIER M. Poland's challenge to Eu directive 2019/790: standing up to the destruction of European freedom of expression[J]. Dickinson Law Review, 2020(1): 185.
[31] SHIKHIASHVILI L. The same problem, different outcome: online copyright infringement and intermediary liability under US and EU laws[J]. INTELL. PROP. amp; TECH. L. J., 2019: 141.
[32] SHERWOOD M K. Protecting fair use from algorithms, internet platforms, and the copyright office: a critique of the § 512 Study[J]. St. John's Law Review, 2022(3): 930.
[33] 崔國斌. 論網絡服務商版權內容過濾義務[J]. 中國法學, 2017 (2): 234.
[34] 汪倪杰. 論網絡服務提供者安保義務的邊界及其構造——以《民法典》網絡侵權規則的解釋論為視角[J]. 法治研究,2022(1):102?117.
[35] "袁鋒. 新技術環境下信息存儲空間服務提供商“避風港規則”完善研究——兼論《信息網絡傳播權保護條例》第二十二條的修訂[J]. 中國出版,2022(5):46?50.
[36] How Google Fights Piracy[EB/OL]. (2018-11-27)[2023-03-14]. https://www.blog.google/documents/27/How_Google_Fights_Piracy_2018.pdf/?hl=en.
[37] BECHTEL M. Algorithmic notification and monetization: using YouTube's content ID system as a model for European Union copyright reform[J]. Michigan State International Law Review, 2020(2): 270?271.
[38] "GEDDES K. Meet your new overlords: how digital platforms develop and sustain technofeudalism[J]. Columbia Journal of Law amp; the Arts, 2020(4) : 480.
[39] "MICHAEL S. Sawyer, filters, fair use amp; feedback: user-generated content principles and the dmca[J]. Berkeley Technology Law Journal, 2009(1): 401.
[40] "華劼. 自動版權執法下算法合理使用的必要性及推進[J]. 知識產權, 2021(4): 34?44.
On the Application and Enforcement of Online Platforms' Copyright Content Filtering Obligations
He Lianhong, Dai Xin
(Law school ,Central South University, Changsha 410083, China)
Abstract: The development of filtering technology has given rise to the dilemma of applying the \"notice-and-takedown\" rule and the controversy over the obligation of online platforms to filter copyrighted content while promoting online copyright governance. Filtering obligation is essentially an extension of the duty of care, and the establishment of filtering obligation can help restrain the abuse of platform rights, give play to the advantages of governance, and regulate the spontaneous filtering behavior. When applying the filtering obligation, large-scale information storage and distribution service providers should formulate clear and reasonable filtering standards and adopt categorized filtering measures for specific contents. In order to ensure the effective implementation of the filtering obligation, a systematic connection mechanism with the \"notice-and-takedown\" rule, a typological cost-sharing and compensation mechanism, and a joint human-computer review mechanism for the entire process of algorithmic operation should be established.
Keywords: copyright content filtering obligation; categorical application; convergence mechanism; compensation mechanism; review mechanism