張 路
(南京理工大學知識產權學院,江蘇 南京 210094)
從早期報刊等傳統媒介的有限發行,到互聯網初期門戶網站云傳播的渠道拓展,再到當下平臺媒體基于人工智能、大數據及云計算等為核心的智能算法推薦,信息傳播的分發環節愈發智能、精準和高效[1]。當前,智能算法推薦已經成為各大平臺媒體信息分發的主流模式,由“千人一面”式的點對面中心化傳統編輯分發模式到“千人千面”式的去中心化、個性化的信息適配,智能算法推薦已悄然成為主導用戶閱讀和觀看的無形力量。因復雜算法的不同編排應用輸出的結果附加主體性立場,如果用戶的選擇偏好正好涉及版權作品時,經算法推薦得以迅速傳播的可能就是用戶擅自上傳未經版權人同意的侵權作品。對于帶有價值偏向的算法推薦,平臺失去了專業編輯統一把關的核心價值與標準,此時,尋找介入算法推薦的規制路徑來防范侵權風險就顯得尤為重要。本研究旨在以算法推薦在平臺運行中發揮的作用為源頭,試圖建立由法律價值理性與規則影響平臺價值理性與規則的機制,使平臺算法推薦價值理性與技術工具理性相融合,探討對平臺媒體多層次監管的可能途徑,從而發揮平臺媒體在使用算法推薦時的價值判斷、風險預判和把關控制的作用。
算法本身的不確定性可能引發侵權風險。隨著算法內部結構的升級和功能性日趨復雜,影響因素增多,愈發難以確定算法的“技術中立性”。算法作為一門新技術,分析大量離散數據和繁復計算的能力比人工編輯更具成效,這導致算法推薦取代人工編輯成為新主流的分發格局,是主導用戶瀏覽方向的幕后力量。而在后臺設計的算法涉及模糊復雜的技術知識和科學基礎,無法讓公眾及相關部門對算法運行機制進行有效的監管,可能導致算法本身帶來技術不確定的侵權風險。
媒體平臺將流量至上和商業利益優先的算法價值觀嵌入算法分發的信息把關權,卻忽視媒體角色的價值初衷及需要擔負的社會責任和導向作用。根據拉圖爾對行動者的定義,行動者要能改變事物狀態并能造成差異[2],其認為必須到行動的過程中去找尋行動者。算法推薦能夠改變到達用戶的信息內容,算法因設計方法的差異,用戶接收的內容也就不同,并且算法本身也會隨著用戶接受內容的反饋而處于動態變化之中。可以說,算法推薦構成了非人類的網絡行動者,與平臺、內容生產者及用戶共同構成了一張內容分發之網。用戶的行為偏好總是相對穩定的,而算法主體行為的價值偏好使平臺媒體更多地關注算法帶來的效益價值,從而忽略使用算法推薦帶來的認知不確定性的侵權風險。
《民法典》侵權責任編中的“避風港”規則屬于以“通知-刪除”(事后獲知)和“明知或應知”為基礎的過錯歸責條款,在司法中形成了以版權注意義務為核心的網絡服務提供者的共同侵權責任體系。“避風港”規則理論預設的前提是“實質性非侵權用途”的技術服務[3],不介入網絡技術的具體使用,平臺在對侵權內容不知情的情況下不承擔版權責任,即“技術中立”。確立“避風港”規則的另一個重要理由是“技術不能”,“技術不能”指網絡服務提供者沒有有效且經濟的手段監測海量且實時更新流動的內容并清除版權侵權內容。但隨著技術的發展,算法成為人工智能技術的樞紐和基石。囿于平臺對算法的控制力及對推薦內容的干預,從而誘發版權侵權風險的發生,導致媒體平臺偏離“避風港”規則限制侵權責任的立法初衷。
智能算法推薦商業模式的運作機制為:綜合運用人工神經網絡、協同過濾和深度學習等計算方法,通過建立用戶畫像、構建內容模型和匹配內容資源等環節將分析篩選后的信息內容自動推送給用戶。算法構成非人類的網絡行動者,扮演著“編輯”的角色在平臺內容與用戶偏好之間建立交互式的動態聯系,然而算法與用戶對彼此的影響并非對等,算法技術已經偏離了媒體平臺在版權合規管理的“技術中立”立場。一是,算法推薦的應用使平臺在對內容分發傳播的過程中從被動的“中立者”轉變為主動的“參與者”角色。平臺雖不“生產”具體內容,但其內部設置的系統流轉通過分析用戶需求,對離散的信息進行編輯、排序和推送進而呈現在用戶面前的“傳播”行為對用戶接收到的信息具有更強大的干預作用。二是,平臺媒體以增加用戶黏性、開發流量經濟為目的,將個性化推薦與商業廣告的精準投放相結合,利用算法推薦機制將用戶傳播的內容實現商品的價值變現,實現了對信息與用戶需求之間的精準推送和有效消費。三是,個性化推薦干預用戶的信息自由和信息自決。大數據的算法統計為選擇性接觸提供了“土壤”,影響用戶認知過程。算法推薦精準迎合用戶喜好,讓受眾不斷接收同質化信息。此外,算法被平臺賦予了要完成的任務,算法對內容的“優先級”干預著內容生產者的創作取向與決策自由。為了遵循算法推薦背后的基本邏輯,內容生產者極有可能為了蹭熱度生產侵權內容(比如熱播劇)來獲得算法技術的優先推送和額外加權[4]。算法推薦這種非中心式編輯分發模式實質上“裹挾”了權利人作為信息生產主體自由創作的權利,倒逼生產內容適應分發規則,從本源上干擾著整體信息環境的構建。
此時,如若平臺算法推薦侵權內容,實質上是侵權用戶與算法推薦共同作用的結果,二者根據損害原因力理論共同構成了“多因一果”的共同侵權行為。從共同侵權人對損害結果所起的作用來看,因算法推薦擴大了侵權行為的發生風險與損害范圍,平臺的角色由中立的網絡服務提供者轉變成了潛在侵權風險的助推者。有學者指出,YouTube自愿采取Content ID版權保護系統,其中一個重要的原因是想降低定向投放商業廣告的版權侵權風險,因為商業廣告的定向投放選擇歸因于用戶上傳及觀看的平臺內容的計算輸出[5]。
當監管的職權和能力與算法內在的價值傾向和商業利益相互交織時,即使實際并未知曉版權侵害,讓部署算法意圖的收益者承擔追責之指向的版權責任,是得以實現版權法目的的一種良策。平臺作為算法的使用者甚至是開發者,具備對算法推薦的控制力應當承擔侵權風險的責任后果,作為侵權行為發生的場所,應當承擔與其信息處理能力相匹配的注意義務。根據風險控制理論,風險的管理者更了解風險,其在風險防范上更有能力、更有效率并且也更加具有治理侵權風險的成本優勢,因此對自身管理場所中存在的侵權風險具有無可轉移的義務[6]。具體到算法推薦機制的實際運作過程中,無論是對內容分析與用戶進行高適度性匹配,還是根據用戶反饋對算法進行修正,平臺始終具有識別和管理推送結果的契機與能力。實際上,平臺在進行算法推薦行為時,其服務范圍已經介入到軟件應用層[7],即使算法推薦內容是客觀既定的算法機械運作的過程,平臺對程序運作的過程也應該具有充分的管控能力。此時,從源頭解讀,平臺對推薦內容“控制力缺失”的抗辯值得被推敲。
事實上,平臺的反“技術中立”立場使“避風港”規則的局限性日益顯現,司法實踐中對平臺是否構成共同侵權的判定標準的變化就是針對這一局限的創新,突出體現在對“知道”與“應知”的解釋上。2012年《最高人民法院關于審理侵害信息網絡傳播權民事糾紛案件適用法律若干問題的規定》(以下簡稱信息網絡傳播權司法解釋)第九條第一項規定的判斷網絡服務提供者是否應知用戶的侵權行為進而苛責,應當考慮其對網絡內容的信息管理能力。該司法解釋其實是將版權責任匹配于技術能力的具體映射。2020年修正的信息網絡傳播權司法解釋對平臺的共同侵權的判定進行了進一步的詮釋,雖然該規定在第八條中否認了平臺一般意義上的審查義務,但是該規定第九條提出應當綜合考慮多重因素,比如傳播的作品知名度及侵權信息的明顯程度、明顯感知度等來認定“應知”的構成與否。可以看出,該司法解釋并沒有完全排除平臺在特定條件下的主動審查義務。在這種特殊情形下,如果平臺沒有進行審查則可能會構成未積極采取預防侵權的合理措施而被判定沒有盡到合理的注意義務。
權利沖突并非都由侵權行為產生,而是作為權利本質內核經過正當性程序證成的利益沖突[8]。算法推薦本質是對內容生產關系與傳播結構的革新而并非對內容生產的取代。算法推薦突破傳統“總編輯”式分發把關和壟斷格局,將內容生產與分發進行簡單粗暴的剝離。因此,需要明確的是算法推薦的內核是對傳統媒體編輯“向善分發權”進行取代的一種方式。對算法推薦的規制應當將侵權行為的預防及損害的救濟置于同等重要的地位。《民法典》侵權責任編第1197條中并沒有明確規定事前的積極責任,即并無法定的過濾義務,但算法技術正推動著平臺版權責任由事后的消極責任走向事前積極責任,逐步偏離了幫助侵權的框架,遁入不作為侵權。這一轉變雖淡化了“避風港”規則,但也要考慮相關利益的平衡,考慮平臺責任的適度性。
首先,算法推薦(非人類的網絡行動者)機制是在媒介傳播中與其他行動者(用戶)的聯動機制,其涌現特征使編輯行為不是單一的界域清晰的個體行為,而是復雜集體行為的演進結果。其次,算法推薦并不等同于算法可精準識別侵權內容進而進行深度過濾,即區分算法推薦與算法過濾。有侵權風險并不代表只能通過算法過濾這一條目前“可及性”值得商榷的路徑控制風險,這就要求不能將嚴格版權責任歸咎于平臺,如果將“被動移除”轉變為“主動過濾”,不僅很大程度上影響了用戶的合法權利,破壞自由創作的網絡環境以及包括合理使用的法定權利在內的作品權益,還會限制媒體平臺乃至整個技術產業的發展。最后,由于算法推薦的“內嵌式規則”,其技術背后的價值負載性導致算法推薦產生的問題實質引向監管的價值導向性偏差。算法編輯作為分發者和把關者,比以往傳統紙媒的人工審查分發更具復雜性,過錯的判斷及因果關系更加難以探知。公眾推動更多內容刪除的同時,法律規定的“通知-刪除”系統不可避免地有利于控告者。面對潛在的責任,平臺最簡單、便宜的做法就是從表面上接受指控,快速合規地避免了法律風險。而由于“避風港”規則的“反通知-恢復”的自身運行機制不完善[9],導致被錯誤刪除的權利人無法得到有效的救濟,使得公眾對平臺和言論的矛盾情緒一直存在足夠多新穎和爭議的問題。那么,以算法推薦在平臺運行中發揮的作用為源頭,建立平臺對算法推薦侵權風險防范機制具有正當性和合理性。
3.2.1 公權力與私權利平衡原則。算法本身是一種私權利,對平臺算法推薦權利法律規制的評價機理(證成)在于遵循數字技術革新的“避風港”規則基礎上,明晰權利(力)與義務(責任)畛域,通過嚴格層次性控制體系與程序規范,防止算法編輯權利的濫用并最大程度保護用戶私權利,實現在進行對算法平臺規制的同時保障公民在算法推薦平臺應享有的權益、自由及權利救濟。規制是在立法或者司法性“國家法律”的保障下架構實施的,權利體現的是私法中的意思自治。我國學者馬長山[10]將互聯網法治二分為“硬法之治”與“軟法之治”。為實現在算法推薦平臺的賦權與限權之間找尋到法律治理的動態平衡,應當沿循以公權力合理限制私權利,裨增私權利平衡公權力的規制思路對算法推薦編輯防范風險體系進行構建。
3.2.2 平等原則與效能原則的兼顧。算法推薦不僅是一次技術賦能,更是一次基于技術進步之下的賦權,而大眾所獲得的是一種平等的接收信息和吸收知識的權利。算法推薦可以直接影響內容的呈現頻率和傳播效果,依照諾依曼“沉默的螺旋”理論,用戶對推崇的“強勢”聲音采取趨同行動,隨之“弱勢”聲音就會陷入沉默失聲[11]。看似合理化的算法推薦技術實則阻礙了多元化信息的交流與呈現,用戶傾向于聚集大量的在線提示信號(推薦、轉發和評論等),此時平臺的向善引導分發功能也容易被輿論操縱所消解。為了防止平臺和公眾陷入價值迷失的困局,消除“群體極化”,從平臺的信息自由流動和言論自由表達這兩種途徑出發,基于“中立性”維度,由平等原則與效能原則協同調控,建立一個可以產生多邊協同效應的應對機制,提高對技術的應用審查效能,調整用戶與技術間的關系,讓技術能夠更好地協控平臺的發展。
權利博弈的背后隱含著算法推薦把關人制度構建的需求與空間。平臺采取相應的注意義務控制侵權行為的預防性安全措施,避免侵權行為的發生,是判斷行為可歸責性的重要因素之一。規范算法決策機制主要解決兩方面問題:其一是要解決算法黑箱帶來的技術不確定性而引發的不公開的侵權風險;其二是要彌補現有“避風港”規則單一事后監管層次過淺的現狀。一個可行的方案是,賦予平臺對算法的監測及解釋的義務作為“硬法之治”,如設計干預和嵌入安全機制,從而鼓勵平臺作出價值理性向善的正向引導。在算法推薦侵權風險防范中,平臺將其在審查涉嫌侵權作品時采用審查算法設計的合理性作為善意努力的證明,即承擔其對算法合理性的舉證責任。此外,算法推薦平臺的共治可以成為中堅力量,對使用算法推薦編輯的特定領域平臺注意義務設立最低的行業標準,在適當情況下作為行業組織規范的“軟法”體現在司法裁量中,但要結合平臺的成本和收益進行權衡,從而激勵平臺引入算法侵權檢測和審查,以靈活性和信息成本優勢彌補在應對技術不確定下的算法規制不足,更好地兼顧作品版權人的傳播利益[12]。
算法推薦對人們的影響是全方位的,由于算法推薦技術應用的廣泛性和多樣性,針對平臺的監管也應具有前瞻性、規范性、階梯性。同時除了對法治的重視以外,也應要引入社會化的評價機制來實現算法工具和價值理性的雙重平衡。可以通過賦予用戶監督權的形式,實現個性化和精準化的信息服務的同時優化信息質量,使用戶與算法推薦機制之間形成良性的互動從而在可實現的預設機制內消解認知不確定性帶來的法律風險。平臺在應對用戶的監督時應當及時審查推薦算法的應用效能,對推薦算法進行解釋,亦或對算法進行公開。
可行的方式之一是行業組織協會代表公眾,介入第三方評估的算法推薦健康運行的評價手段來加強算法的監督和監管。趨向于公開的分發原理和平等的算法決策機制,為此,可建立由公眾代表、專家代表和第三方代表等組成的算法審查團,通過建立算法推薦風險的專項評估機制,按照一定的程序,定期對算法推薦的安全系數、風險層次等進行綜合評估,并發布相應產品算法推薦的風險審查結果和評估報告[13]。平臺則可依照審查結果和評估報告中提出的糾正意見進行相應的算法整改。當因版權侵權涉訴時,法院也可以參考此評估報告進行綜合的認定,從而進行責任的認定。由此,多方位的激勵平臺發揮算法推薦編輯的正向功能,回歸“技術中立”。
在“算法泛在”的人工智能時代,技術不確定下的算法推薦機制內嵌主體價值偏好,沖擊著以“技術中立”為抗辯理由的“避風港”版權責任規則。考察算法推薦編輯的內在機制,作為版權內容分發平臺具有控制力與可責難性導致從事后消極的“通知-刪除”轉向事前積極的版權過濾傾向,但在目前算法過濾技術的“可及性”與“準確性”不足的情境下,算法無法做到判斷侵權和識別深層違法,那么此時則需要平臺理性并合理地進行回應,從而限制算法價值反“技術中立”立場帶來的負面效應。這種變革在立法上需要遵循謙抑性,對算法技術的注意義務通過在司法上引導“行業自治”,加強算法推薦平臺的行業自律,構建科學有效的行業規則,作為“軟法”與“硬法”的法律規制達到“共治”的結合與有效補充,建立對算法推薦平臺健全的監督準則,同時加強公眾的社會化監督和法律法規的完善,充分發揮價值理性對平臺發展和技術優化的引領作用,才能避免平臺和用戶成為技術主宰的客體。