李哲
【摘 要】本文分析我國UGC網絡平臺內容審查實踐中立法沖突導致網絡平臺內容審查實施陷入兩難、“通知—刪除”制度規定不夠明晰、網絡服務提供者的技術性限制導致審查結果偏差等問題,借鑒國外UGC網絡平臺審查責任的立法經驗,提出完善我國UGC網絡平臺審查的建議:以審查內容范圍限制網絡平臺的審查義務、完善“通知—刪除”制度、健全網絡平臺技術性審查機制。
【關鍵詞】UGC網絡平臺 ?審查內容 ?審查責任 ?審查機制 比較分析
【中圖分類號】G ?【文獻標識碼】A
【文章編號】0450-9889(2020)05C-0066-03
隨著互聯網信息技術的不斷升級和完善,網絡用戶可以自己創作和生成內容上傳到互聯網,不再僅僅局限于從固定的用戶端獲取內容下載,這種方式稱之為UGC(User-generated Content)。隨著網絡用戶數量日益增長,用戶創作內容依托互聯網這個相對寬松自由的承載平臺得以更廣泛傳播,這個載體就是UGC網絡平臺。在我國,UGC網絡平臺主要有bilibili、抖音、百度、天涯社區、微博、豆瓣等。既然是以用戶本身為主體生成內容的網站,UGC網絡平臺就給了用戶很大的創作權限,提供了便捷的發揮空間,人人都可以成為內容的作者和傳播者,當人們接收到海量信息的同時也面臨著數據泛濫以及信息質量參差不齊帶來的系列法律問題。UGC網站平臺作為網絡服務提供者,面對龐大混雜的數據信息,要建立怎樣的審核機制篩選和識別非法信息,保障網絡信息內容安全,維護網絡生態健康?本文通過比較法分析UGC網站對用戶上傳內容的審查責任,提出完善我國UGC網絡平臺審查的建議。
一、我國UGC網絡平臺的審查現狀概述
網絡信息傳播速度快且繁多復雜,其中不乏色情、暴力、極端言論、詐騙、恐怖主義、謠言、邪教、種族歧視等對國家和社會的安全穩定極具危害性的內容,特別是UGC網站作為用戶自發創作內容的公共平臺,生成內容具有主觀性和不確定性,在公開分享于大眾過程中衍生出的不良信息給我國的國家治理和政治安全帶來了一定的困擾及挑戰。如果僅依靠網絡服務行業自治、市場監管和網民自律等民眾力量,遠不能夠消除不良信息的危害性,無法保障網絡環境的安全。因此,我國網絡審查的主體實施分層次管理,上設國家各級政府的強制力量引導,再到行業和市場聯合實施打擊傳播不良信息的犯罪行為。為維護互聯網生態健康有序發展,我國目前針對立法對象從不同角度實施了一系列立法保護,初步構建了法律體系。除《中華人民共和國民法典》《中華人民共和國刑法》《中華人民共和國侵權責任法》等含有互聯網信息相關條款的普通法,另有專門的《互聯網信息服務管理辦法》《中華人民共和國網絡安全法》《信息網絡傳播權保護條例》等法律法規,不同層面的法律均規定了網絡平臺的信息過濾和審核責任。2020年3月1日起施行的《網絡信息內容生態治理規定》特別針對用戶生成內容的管理,明確了網絡信息服務生產者、使用者和平臺三方在信息生成、采用和傳播過程中的義務與責任。
二、我國UGC網絡平臺內容審查實踐中的困難
盡管我國已從多方位、分層次對網絡平臺內容審查進行立法,試圖穩定和維持良好的網絡平臺信息及文化傳播態勢,但書面上概念性的條文在轉化為實際執行過程中的效果并非那么理想,尤其面對發展迅速的互聯網行業,計算機技術的日新月異衍生出許多具體問題無法預測,法律自然也不能直接用于解決這些問題,我國UGC網絡平臺內容審查的實踐仍然面臨不少困難。
(一)立法沖突導致網絡平臺內容審查實施陷入兩難。根據《中華人民共和國侵權責任法》第36條和《信息網絡傳播權保護條例》對網絡服務提供者的規定,不要求網絡平臺對內容進行事前審查,體現了美國《數字千年版權法》的“避風港”規則,即網絡服務提供者無須承擔網絡平臺內容審查的義務。然而,在刑法、行政法規等公法中卻確立了網絡服務提供者對平臺內容的審查義務,比如號稱最嚴網絡信息審核標準的《網絡信息內容生態治理規定》強調了網絡信息內容服務平臺應當履行信息內容管理主體責任,加強信息內容的管理,要求之一是健全信息發布審核。由此來看,這造成了公私法沖突的局面,也因此使得網絡平臺內容信息審查陷入兩難的困境。若網絡服務提供者依公法被賦予公權力作為用戶信息內容發布的審查監管者,直接對內容作出違法性判斷和處理,則會存在網絡平臺濫用公權力導致用戶發表自由和言論自由的權利受到威脅及侵害的可能;此外,每時每刻數以萬計的信息內容在更新,大量的審查工作量會給網絡平臺帶來沉重的負擔且難以實現精準核查,當平臺內容侵權行為發生時,嚴苛的審查義務會讓網絡平臺有可能與侵權行為人承擔共同連帶責任,或者被主張為賠償損害的直接責任人。另外,若網絡服務提供者依“避風港”原則免除審查責任,則有可能因為主觀過錯而承擔刑事后果,受到行政處罰。
(二)“通知—刪除”制度規定不夠明晰。“通知—刪除”制度是“避風港”原則的核心內容,網絡侵權事實發生后,網絡服務提供者在接到權利人的通知后應及時采取措施避免損害繼續,否則不排除承擔侵權責任,但該制度在實際運用當中仍然存在疑問。首先,《中華人民共和國侵權責任法》第36條規定“網絡服務提供者接到通知后未及時采取必要措施的,對損害的擴大部分與該網絡用戶承擔連帶責任”,條款中的“及時”并未有作具體說明,再看《信息網絡傳播權保護條例》第15條規定“網絡服務提供者接到權利人的通知書后,應當立即刪除涉嫌侵權的作品、表演、錄音錄像制品,或者斷開與涉嫌侵權的作品、表演、錄音錄像制品的鏈接”,兩個不同條款都規定了“通知—刪除”制度,那么是否可以理解“及時”等同于“立即”。在無須事前審查的前提下,若網絡服務提供者又未對通知的侵權內容先進行審查核實而是依法立即刪除或者斷開鏈接,就有可能錯誤損害到第三方的合法利益,尤其當今網絡環境下不缺少主觀惡意舉報者。再者,網絡著作權侵權事件不斷發生,網絡服務提供者對侵權內容采取的措施是否完全能保證權利人受到的損害實際停止不再擴散,若刪除或者斷開連接的方法并不能徹底將侵權內容移除網絡平臺服務器以及網絡存儲空間,則存在其他用戶再次使用侵權內容造成權利人利益遭受多次損害的可能,我國目前的法律法規也未對刪除相關措施作出具體的要求。
(三)網絡服務提供者的技術性限制導致審查結果偏差。網絡平臺作為提供網絡服務的中介,自身已具備了計算機技術操作上的優勢,技術人員可通過編程或者算法建立一套平臺自主內容審查系統,增大審查負荷能力以減少人工審查的負擔,提高處理違法信息內容的效率。但是,單純的自動化審查機制也可能出現不少漏洞,比如網絡平臺常用的關鍵詞或者違禁詞過濾,當用戶在平臺上發布含有違禁詞相關的內容時就會即時被屏蔽、刪除、無法上傳、賬戶禁用等,這樣就使得在視頻網站上上傳正確宣傳性教育的健康課程視頻被歸類為色情內容,戰爭紀錄片被歸類為暴力內容而不得播放。此外,違禁詞的固定設置也容易被用戶以其他方式替換內容來規避刪除或屏蔽,比如在網絡平臺上發布文字信息內容時,可以將原本的中文違禁詞替換成“拼音+中文”或者“中文+標點+中文”等方式來發布,這些替換并不影響原本內容意思的表達和理解。再有,對于未成年人登錄和使用網絡平臺獲取信息沒有起到有效的限制作用,平臺上的信息內容無分級公開化,算法推送內容夾帶垃圾廣告和非法程序,青少年用戶很容易接近和接收到違法信息及不良信息。
三、國外UGC網絡平臺審查責任的立法情況
如何平衡網絡用戶信息內容分享與信息內容安全之間的法律關系,這是當前國際環境普遍面臨的困難。各國政府已意識到網絡內容信息失控帶來的嚴重后果,原有立法目的不能完全適應信息技術發展產生的挑戰,需要調整為更合理適用的法律構架。各國做法不盡相同,但都開始建立更為嚴格的網絡信息內容審查制度。以下分別從網絡安全、版權保護和言論自由三個主要方面探討具有代表性的國外做法。
網絡安全首先要求是對信息內容的審查,實現對發表內容安全性的管控,另外要求對網絡系統和數據安全性的管控。一旦信息內容處于失控狀態,必由上至下沖擊國家安穩、社會秩序和個人利益。盡管在信息傳播管控過程中會觸碰公權與私權之間的敏感地帶,各國政府還是以國家整體價值為取向選擇設立“風險防控”的法律機制,實現對網絡平臺不良信息內容的過濾。在美國,成人色情內容傳播是合法的,但是堅決禁止傳播淫穢和兒童色情內容,對于UGC網絡平臺節目、影視、游戲等作品施行嚴格的分級制度,并且《兒童網上隱私保護法》(Childrens Online Privacy Protection Act,COPPA)要求網絡平臺限制未成年人接近和訪問有害信息。另外,有關宗教、種族歧視和極端恐怖主義的信息內容也屬于違法審查范疇。作為最高確立網絡信息內容審查的國家之一的澳大利亞,1999年實施的《廣播服務法》修訂案(BAS)明確了網絡服務提供者審查的“基于投訴”(Complaint-based)原則,政府規定審查內容除了色情、可傷害和騷擾未成年人信息、限制觀看等分級信息外,還包括垃圾信息,要求網絡平臺在收到通知和投訴后需要刪除法律規定的禁止性內容。即使網絡服務提供者是位于澳大利亞以外的國家地區,一樣適用該原則,通信和媒體管理局會通過軟件攔截的方式屏蔽網站,根據接收投訴的頻率和監管調查研判形成“黑名單”。大陸法系代表的德國,德國網絡信息內容的審查范圍較其他國家更具體細化,采用是否違反刑法規定作為界定標準。2017年通過的《改善社交網絡中法律執行的法案》進一步強化網絡平臺對在線信息內容違法性的監控責任,社交網絡平臺為典型的UGC網絡平臺,意味著平臺服務提供者對侵害刑法保護權益的信息內容需進行審查和處理,否則承擔較重的行政責任。
版權保護規則新變革。歐盟議會于2019年3月26日通過了備受爭議的《歐盟版權指令》,待該指令正式施行后各成員國需在兩年內立法執行。新的《歐盟版權指令》傾向于完全保護版權人的作品、權利和經濟利益,徹底改變了數字化環境中網絡平臺內容生成、分享和使用的規則,強調了平臺方作為網絡服務提供者[即“在線內容分享服務提供(OCSSSPs)”]需要承擔的審查過濾義務。《歐盟版權指令》的通過無疑給數字時代的互聯網產業帶來了一場革命,尤其是《歐盟版權指令》中爭議已久的第17條關于“上傳過濾器(upload filter)”的規定,意在解決長期存在于在線平臺和版權人之間由于版權內容實際使用量與作者事實版權收入額失衡而引起所謂的“價值缺口”問題,這打破了在線內容分享網絡服務提供者現行的運營機制,對Youtube、Google、Facebook等這些靠用戶流量盈利的UGC平臺而言是極大的沖擊,也有人認為會破壞互聯網的發展。在此之前的20余年,美國《數字千年版權法》的“避風港”規則一直為多國移植適用,原則考慮到網絡服務提供者不能實現對網站內容進行完全審查,采取“權利人通知—刪除”的措施來免除侵權的損害賠償責任,歐盟也采用這一規則。但《歐盟版權指令》第17條則顛覆了這一通行規則,要求以商業盈利為目的的網絡服務提供者對儲存于其服務器以及分享于其平臺上的第三方版權內容需獲得版權人授權、過濾侵權內容、移除侵權內容、充分告知過濾情況等義務。這意味新法規利于維護版權人的利益,加重了UGC網絡平臺的審查義務,不再受“避風港”規則庇護得以排除侵權責任以適應數字版權時代。
言論自由也是UGC網絡平臺監管過程中涉及的一個重點問題,對于言論自由的限制各國說法不一。以美國為例,美國憲法是國家的最高法律,其他法律或各州立法都需違憲審查,《美國憲法第一修正案》明確規定“國會不得剝奪言論自由或出版自由”,在司法實踐中眾多判例都堅持這一權威。美國著名的《1996年通信正派法案》第230條給陷入用戶內容引發糾紛的UGC網絡平臺提供了無比寬松的豁免權,該條款規定不應將網絡服務提供者(互動式計算機服務的提供者)看作由第三方內容信息內容提供者所提供的信息的出版或者發布者,從而可以免除網絡服務提供者對他人發布的非法信息內容的法律責任。這一規定并不強制網絡平臺對用戶內容采取監管措施且符合憲法保護,因此吸引更多用戶推動UGC網絡平臺不斷壯大發展。然而,自由的無限讓平臺上出現越來越多可引起混亂的危害性言論,第230條給了法院寬泛的解釋權,美國國會已開始著手修改,他們意識到不削弱該條款的保護性會帶來破壞性的社會后果。2018年3月,美國國會通過了《允許州和受害者反抗在線非法性交易法案》(Allow States and Victims to Fight Online Sex Trafficking Act,FOSTA),作為第230條的一個例外適用,要求網絡服務提供者對其平臺涉嫌推廣的非法性交易活動承擔民事和刑事責任。FOSTA打破了網絡服務提供者停靠“安全港”20余年的平靜,特定條件下用戶發表的不當言論和內容使UGC網絡平臺受到法律制裁。
四、完善我國UGC網絡平臺審查的思考
根據國內外UGC網絡平臺審查責任立法和做法的情況,我們可以借鑒國外現行較為先進的法律制度,結合我國互聯網實際探討網絡平臺審查的完善。
(一)以審查內容范圍限制網絡平臺的審查義務。參照德國網絡信息內容的審查范圍采用是否違反刑法規定作為界定標準,我國可將私法上不要求事前審查的違法問題與公法規定的違法內容相區分,私法問題不應納入公法審查義務的范圍。《網絡信息內容生態治理規定》已明確了十一類違法信息和九類不良信息的范圍,當平臺用戶所發布的信息內容屬于該規定所禁止的范疇,侵害了國家和社會的公共利益,網絡服務提供商必須立即積極主動采取相應措施制止發布,限制言論,防止信息內容傳播;若用戶所發布的信息內容侵害的是“不告不理”的民事權利或其他私法權利,則不需要網絡服務提供者承擔審查義務和行政責任,這樣可以避免公法與私法之間的干擾沖突,有助于形成政府監管、平臺履責、用戶自律的良性網絡生態環境。
(二)完善“通知—刪除”制度。我國目前的法律尚未明確網絡服務提供者在收到通知后的審查義務,僅強調了應當采取刪除或者斷開鏈接阻斷信息內容傳播的措施,不利于保障相關第三人的合法權益。為了實現法律效力和不失公平,增加網絡服務提供者收到通知后履行審查的義務是必要的。一方面要求權利人或者舉報者提供充分有效的侵權事實證據,另一方面要求平臺方有專業負責人員對侵權信息內容進行核實審查,并能夠對涉嫌侵權的行為作出專業評估和判斷后再采取相應措施。《歐盟版權指令》中對于“上傳過濾器”的新規定或許也可以給我們一些新思路,在網絡著作權問題上切實有效遏制和阻止侵權作品的流通,維護著作權人的利益,保證權利人的一切合法收入,平衡權利人、網絡平臺和公共利益之間的良好關系,提高創作者積極性,產出更多高質量作品,從而營造健康發展的網絡生態環境。
(三)健全網絡平臺技術性審查機制。關鍵詞過濾是網絡服務提供者普遍采用的技術型審查方式,為了最大化發揮智能審查識別和分析的功效,設定合理的關鍵詞十分重要,可盡可能減少誤刪用戶發布信息內容或者處理不當侵犯用戶權益的狀況。除了關鍵詞過濾外,還應配合完善圖像樣本數據庫,建立識別模型,以更具體直觀的畫面方式審查辨識圖片和視頻內容。另外,尋求具有專業背景與資質的第三方技術性審查機構共同合作也利于提高精準率,專門機構已構建了成熟的審查過濾體系,防止“插邊球”行為成為漏網之魚。同時,網絡服務提供者還應當健全自主推薦信息內容算法,嚴格管理平臺未成年人使用模式,引入平臺內容分級制度,審核用戶設立黑名單,為未成年人獲取有益身心健康發展的信息內容提供服務。
互聯網技術的發展異常迅速,便利我們生活的同時也帶來前所未有的挑戰,相對滯后的法律制度亟須不斷完善,為互聯網建設保駕護航。而網絡平臺作為人們溝通和分享信息的重要媒介,網絡服務提供者勢必要承擔相應的法律義務和社會責任,平衡公共利益與私有權利,為用戶創造和諧發展的網絡空間。
【參考文獻】
[1]宋明磊.當前我國網絡審查的必要性[J].法制與社會,2015(8).
[2]姚志偉.網絡平臺侵權責任之立法研究[J].法商研究雜志,2019(1).
[3]李丹丹.網絡平臺內容審查范圍的界定[J].信息安全研究,2019(9).
[4]馬民虎,霍永庫,馬寧.基于網絡審查的搜索引擎服務商信息過濾義務[J].人文雜志,2015(9).
[5]Jeff Kossef.First Amendment Protection for Online Platforms[J].computer law & security review,2019(35).
[6]馮詩怡.網絡服務提供者侵權責任研究[D].沈陽:沈陽工業大學,2019.
【作者簡介】李 哲(1985— )女,廣西宜州人,廣西財經學院法學院教學秘書,研究方向:知識產權法。
(責編 王 一)