【摘要】算法推薦新聞改變了傳統的新聞信息分發模式,實現了對用戶需求的精準推送,成為信息過載時代搜索信息的重要工具。從系統架構上看,算法推薦新聞主要分為三個要素:用戶、新聞與推薦引擎(算法),包括基于內容的算法推薦和協同過濾的算法推薦兩種模式。對于工具理性的過度依賴導致算法推薦新聞存在三個方面的潛在風險,即傳統監管理念乏力、侵犯用戶信息自決權、民事行政責任承擔不明確。在法律規制層面,應當采用事前“穿透式”監管理念、保障用戶信息自決權、完善法律責任規范體系,以確保算法推薦新聞價值理性的回歸。
【關鍵詞】算法推薦新聞;底層邏輯;潛在風險;規范路徑
隨著算法推薦技術的快速發展,引發了新聞傳播范式的變革,新聞傳播進入更加扁平化、精準化階段。算法推薦在推動新聞傳播革命式變革的同時,理論學界也提出一定的質疑。有學者從倫理角度認為,算法推薦技術會導致“信息繭房”,加劇群體極化現象[1];在法律性質上,有學者認為算法推薦行為屬于網絡服務行為[2],算法推薦技術會對用戶隱私權構成挑戰。[3]囿于算法技術自身的局限性,算法推薦新聞不僅造成一定的倫理問題,而且也存在部分法律風險。因此,應當對算法推薦新聞中的法律風險進行審視,管窺其中的困境與挑戰,同時采用法律規制路徑對算法推薦新聞進行治理,以保證算法推薦真正成為新聞傳播的有力工具。
一、算法推薦新聞的底層運行邏輯
算法推薦新聞的底層邏輯設計與傳統的新聞專業規范完全相反,傳統新聞專業規范中,新聞的選擇權由專業的編輯行使,由編輯對新聞內容進行價值判斷。但在算法推薦新聞機制下,通過對用戶行為習慣和社交圖譜的構建,實現對用戶需求內容的精準化推薦,閱讀何種新聞的選擇權不再依賴專業新聞工作者的價值判斷,新聞選擇權逐漸從新聞工作者轉移到算法與用戶,新聞推薦權利發生了轉移。
從系統架構上看,算法推薦新聞主要分為三個要素:用戶、新聞與推薦引擎(算法)。目前主要存在兩種算法推薦模式:基于內容的算法推薦(Content-based Recommend,CB)與協同過濾的算法推薦模式(Collaborative Filtering,CF)。基于內容的算法推薦模式主要考慮新聞的相似度;協同過濾推薦算法在新聞推薦領域應用更加廣泛,其本質是一種依據用戶與項目間交互行為數據來執行信息篩選的方法論。該算法細分為用戶協同過濾(User-based CF)與項目協同過濾(Item-based CF)兩大類別,在用戶協同過濾中,主要運用均方誤差、皮爾遜相關系數等度量手段來評估用戶間的相似程度,隨后通過設定閾值或采用Top-N推薦策略來確定社交矩陣的范圍,最終依據用戶間的相似性來實現新聞信息的交叉推薦,向用戶推送其可能感興趣的新聞內容。基于項目的協同過濾機制一般采用余弦向量方法計算新聞項目之間的相似度,獲取不同新聞項目之間的相似關系。但無論是基于內容的算法推薦,還是協同過濾的算法推薦,都無法解決數據稀疏性與冷啟動的難題。
隨著人工智能技術的進一步發展,深度學習開始逐漸運用到算法新聞推薦中。在新聞推薦中,深度學習技術不僅可以通過非線性網絡結構,提取新聞內容和用戶興趣的深層次特征,而且能夠融合蘊含用戶興趣的多源異構輔助性信息,從而緩解新聞推薦中的數據稀疏和冷啟動問題。在深度學習下,越來越多的權重因素被加入神經元之中,算法推薦新聞更好地擬合、預測用戶的行為和心理,分析預測結果的準確性得到大幅度提升。
二、算法推薦新聞的潛在風險審視
(一)算法推薦傳統監管理論乏力
在互聯網經濟迅速發展的浪潮下,為避免企業發展的創新性和法律標準滯后性之間的矛盾,我國始終采用包容審慎的監管原則,互聯網企業基于科技創新享受大量的政策紅利,監管的部分失位使互聯網企業攫取了巨額利潤。如從2012年起,我國P2P平臺開始迅速擴張,高峰期運營平臺達到5000家,但是非法集資、詐騙等現象層出不窮,導致居民財富流失,對我國金融生態造成強烈沖擊。在傳統監管理論下,算法推薦新聞主要存在以下三方面的問題。
其一,在監督治理節點上注重事后監督。從互聯網經濟發展至今,“先做后批”成為普遍現象。算法具有準公權力屬性,平臺操控輿論時常發生,并且算法本身的局限性,算法偏見使用戶陷入信息繭房,算法黑箱導致主流價值觀缺失。若一味注重算法平臺企業的事后監督可能會進一步導致算法損害的彌散化,出現不可控的局勢。
其二,重視平臺的行為監管,忽視了要素監管。傳統監管理論認為,應當以平臺的外部行為為直接監管對象,仍然遵循“主體—行為—責任”的傳統思路,但是在算法自動化運行的狀態下,算法平臺常以失去“控制力”等為由進行抗辯。僅以行為和損害后果為監管對象已經不能滿足技術發展的實際狀況,算法作為平臺的生產要素,已經深度嵌入企業的日常運營之中,算法監管的本質應當移位生產要素監管,加強算法審計、算法備案等相關工作。
其三,過度重視企業的內部自律。在互聯網監管的早期階段,平臺一直以企業的法律角色出現,政府始終呼吁企業自律,主張平臺的監管目標通過企業自律的形式完成,導致平臺和監管部門都認為,平臺內部的自我監管從效率、正當性上都要優于政府監管。雖然不能否認企業內部監管的優越性,但是過度重視企業的內部自律,缺乏外部監督,極易導致企業為了“利益”鋌而走險,造成重大風險。
(二)算法推薦侵犯用戶信息自決權
個人信息自決權是指個人依照法律控制自己的個人信息并決定是否被收集和使用的權利。[4]個人信息自決權始于德國“人口普查案”,并通過“IT-Grundrecht案”進一步補充確定。我國在個人信息保護上,一直堅持以個人信息自決為基礎,并創建了告知—同意的權利對稱機制。但就實際情況而言,我國目前個人信息自決權的基礎較為薄弱,無法形成有效代表個人自主意志信息收集和使用的判斷,不能體現用戶對個人信息的自主意識。對用戶信息自覺權的侵犯主要體現在兩個方面。
其一,推薦算法侵犯用戶個人信息。無論是基于內容的新聞推薦機制,抑或是協同過濾推薦機制,算法均需要訪問用戶的歷史瀏覽記錄以及相關數據,并通過數據進行建模,以實現新聞與用戶之間的匹配。在抓取數據過程中,一定程度上不可避免地會侵犯用戶的個人信息。在算法技術的介入下,平臺侵犯個人信息的方式較為隱蔽,用戶無法意識到新聞聚合平臺正在收集其個人信息,甚至當新聞聚合平臺利用大量的個人信息謀求巨額的商業利益時,用戶也毫不知情。對于用戶而言,甚至會主動貢獻自己的個人信息,以獲取搜索的便利。
其二,告知同意規則流于形式。告知同意規則是《個人信息保護法》賦予平臺處理個人信息的合法性基礎,在告知同意規則體系下,平臺應當告知用戶信息處理的范圍、方式和目的,并征得用戶同意,但現階段大部分平臺提供的個人信息保護條款類似于格式條款,用戶難以理解其中含義,概括性的授權和同意并不符合個人信息處理規則的相關規定。
(三)民事責任與行政責任承擔不明確
從規范角度看,我國《網絡安全法》所規定的平臺責任并不是嚴格責任,而是一種過錯責任,主觀過錯是平臺承擔民事責任或者行政處罰的基本構成要件。在民事責任認定上,當發生損害后果時,用戶追究平臺的法律責任必然審視平臺的過錯,但在主觀過錯的認定機制下,又存在“技術中立”與“主體責任分離”的困境。首先,追究過錯責任要面臨“技術中立”的抗辯,如“今日頭條”張一鳴始終強調算法并沒有價值觀,“今日頭條”不設立總編輯,試圖以技術中立、不存在主觀過錯為緣由避免承擔法律責任。國外也有研究學者認為,算法遵循的是預先選擇的程序,而不是及時的判斷[5]。其次,平臺始終主張,要注意區分內容服務提供者和網絡服務提供者,算法平臺屬于網絡服務的提供者,僅具有傳輸介質屬性。主觀過錯認定的障礙導致危害結果發生后對平臺追責的效果并不理想。
在行政監管領域,算法責任承擔亦不明確。法律法規層面,《算法推薦管理規定》在第三十一、三十二、三十三條中規定了算法推薦服務提供者應當承擔的法律責任,但是規定較為粗線條,并不具備實際的可操作性,進而導致在實踐中隨意執法、執法標準不統一,有的平臺被頂格從重處罰,有的平臺僅僅被責令限期改正。責任體系的混亂造成平臺與監管部門雙輸的局面,從平臺角度看,是否承擔法律責任在于是否開展了相關的專項治理活動,互聯網企業常擔憂不可預測的運動式執法帶來的行業寒冬,長期因恐懼而喪失創新動力[6],就監管部門的角度而言,運動式的隨意執法并不符合比例原則,喪失了執法的權威性。
三、算法推薦新聞的法律規范路徑
(一)采用事前的“穿透式監管”理念
穿透式監管概念來源于互聯網金融監管領域,在監管理念上主張由最少監管轉變為實質監管,穿透事物表象獲取真實信息和事實發現,以此彌補因創新帶來的監管漏洞。[7]從算法推薦新聞的底層運行邏輯看,算法技術在新聞推薦應用中具有底層架構地位,如果缺乏對技術運用的節制,技術運用的不規范和對技術的過于倚重,技術的副作用就可能被放大。[8]穿透式監管理念主張采用侵入式的監管措施穿透企業內部技術的外衣,直抵平臺的內部算法技術,增強推薦算法的透明度,一定程度打開了算法黑箱。對算法技術穿透式監管的本質要求算法推薦平臺將內部生產信息以可視化形式轉化為行政監管的決策信息,增強算法平臺內部信息披露與內部行為的干預,主要表現為在事前加強算法備案和算法審計。
在算法備案方面,注重核心算法備案。《算法推薦管理規定》第二十四條規定,具有輿論屬性的算法推薦服務提供者應當履行備案登記手續,備案信息發生變更的,應當在變更之日起十日內辦理變更手續。但算法每年的更新次數能達到成百上千次,苛求算法企業對每一次算法更新進行備案不僅會增加算法平臺的生產負擔,也會導致行政機關的監管負擔過重。因此,應當將備案的重點放在核心算法上,核心算法變更直接影響了算法推薦結果,且變更次數相對有限,例如谷歌在2023年對其算法完成了四次核心更新,2024年進行了三次核心更新,對核心算法更新進行備案更具有針對性和可操作性。
在算法審計方面,建立第三方算法評估審計機制。算法審計是在算法運行前對其合規性、正當性進行考察的活動,世界各國在立法中多次提及算法審計制度,美國紐約州立法明文規定,招聘算法必須進行年度算法審計;廣東省印發《廣東省首席數據官制度試點工作方案》,組建了由政府副職領導構成的首席數據官,并明確了首席數據官的職責范圍等。為此,可以建立由行業協會、公眾代表、算法工程師、法律職業人員組成的算法審查委員會,經算法委員會事前審查發現,新聞推薦算法存在侵犯用戶信息權益、算法偏見等法律風險時,有權要求算法平臺進行改正,拒不改正的將否定性的審計結果上報網信、市場監管等部門,對其依法作出處理。
(二)保障用戶信息自決權
作為新時代的一種新型權利,信息自決權在法律上逐漸獲得基本權利資格。在信息論視野下,個人信息并不是一組客觀的數據,而是一種信息化的能力,它具有封裝和支配數據的能力,可以不斷把數據轉化為信息,并且賦予其時代意義,保護公民個人信息自決權就是保護人的主體資格。用戶個人信息具有價值差異,若強調對所有用戶信息自決一視同仁,采用同樣的規制手段,無疑會極大增加平臺成本,降低企業運行效率,遏制產業發展,要采取區分原則,注重加強算法推薦中的用戶敏感信息自決權。《個人信息保護法》第二十八條對個人敏感信息作出規定,并將敏感信息類型化,對敏感信息保護提供強有力的制度基礎。《互聯網信息服務算法推薦管理規定》作為算法推薦的專門行政規章,其中并未對算法推薦領域的敏感信息進行專門界定,因此,應當以《個人信息保護法》為依據,在算法推薦新聞領域對個人敏感信息進行細化,區分算法推薦新聞中的一般信息和敏感信息。在算法設計階段,將保護用戶信息自決的價值理論與計算機代碼相結合,以嵌入式的方式將法律保護個人信息的基本理念植入算法設計中。堅持最小必要性原則,其是個人信息保護的重要價值理念,其中包括目的必要性和手段必要性。目的必要性要求算法新聞聚合平臺收集個人信息必須具有明確合理的目的,且限于實現目的的最小范圍,手段必要性要求新聞聚合平臺在收集個人信息的方式上盡可能減少對用戶造成的負面影響。通過法律價值理論對算法設計的指引,加強個人信息在技術源頭的法律保護。在算法應用階段,完善告知同意規則,針對個人信息類型,采用不同的告知同意規則。一般個人信息可以采用概括性告知和授權的方式,但是對于個人敏感信息,新聞聚合平臺應當履行嚴格的告知義務,保障用戶的知情權。在告知內容上應當包括算法推薦涉及的敏感信息類型,運用該類型敏感信息的目的,以及對公民可能造成的影響。在告知方式上,應當采用顯著的告知方式,對相關條款進行標紅、加黑等形式提醒用戶。
(三)完善法律責任規范體系
曾有多位學者對人工智能技術表示過擔憂,認為人工智能可能會對人類的生存空間產生威脅。算法作為人工智能的核心運作機制,如果采用過度苛刻的規制手段,可能會扼殺算法平臺的自主創新性,阻礙算法產業的發展,但過度的包容又會導致一系列的法律與倫理問題。因此必須在促進算法產業發展和規制算法之間找到平衡點,而平衡點的關鍵在于算法是否需要承擔法律責任。20世紀90年代,拉圖爾在卡龍的基礎上提出“行動者—網絡理論”,這里的行動者既可以指人,也可以指非人的存在或者力量。弗洛里迪和桑德斯基于行動者互動關系角度,將交互性、自主性、適應性作為智能技術是否應當承擔倫理責任的標準[9]。由于目前人工智能技術發展仍然處于弱人工智能階段,算法雖然滿足了交互性標準,但是并未滿足自主性和適應性的要求,因此從弗洛里迪和桑德斯的觀點看,算法并不能獨立承擔法律責任。
在民法規范責任體系下,算法不能獨立承擔法律責任是否意味著算法不需要承擔法律責任?答案自然是否定的,算法可以在責任能力內承擔有限責任。有學者認為可以賦予算法有限的法律人格,在二元權利結構中創造中間地位,根據代理理論,將算法視為新聞聚合平臺的智能代理人,明確智能代理人具有部分權利能力。智能代理人不是人,但是它仍然可以承擔與其服務職能相一致的部分權利能力。[10]賦予算法有限的法律人格是要求算法承擔法律責任的基礎。算法是由一系列的計算機代碼所組成,并不具備實體財產,那么算法如何承擔侵權責任?可以借鑒機動車交強險相關機制,要求新聞聚合平臺為算法購買強制性保險,在發生侵權案件后,由保險賠付算法所應當承擔的責任。新聞聚合平臺設立賠償基金進行補充,保險賠付不足以彌補被侵權人損害的,由賠償基金進行補足。這種設置有效避免了平臺所提出的“技術中立”抗辯,無論技術是否中立,新聞聚合平臺作為推薦算法的智能代理人都應當承擔侵權責任。從舉證責任出發,《侵權責任法》第六條、第七條確定了由過錯責任和無過錯責任組成的侵權責任規則體系。若適用過錯責任,被侵權人應當就算法和平臺的過錯承擔舉證責任,但是在技術限制下,被侵權人難以在復雜的代碼和算法中識別過錯,苛求被侵權人承擔舉證責任困難重重。因此,可以借鑒《個人信息保護法》中過錯推定的規定,轉移舉證責任,由新聞聚合平臺對自身行為的無過錯承擔舉證責任,減輕被侵權人的舉證責任壓力。
在行政法律責任規范體系下,追究平臺的責任主要表現為對平臺處以何種行政處罰。具體而言,《算法推薦管理規定》中的法律責任較為模糊,存在不確定法律概念。例如《算法推薦管理規定》第三十一條規定,拒不改正或情節嚴重的,責令暫停信息更新,并處一萬元以上十萬元以下罰款。行政處罰本質屬于行政機關的自我裁量,通常由要件裁量和效果裁量構成,在該條款中,拒不改正和情節嚴重屬于要件裁量,責令暫停信息更新與一萬元以上十萬元以下罰款屬于效果裁量,要件裁量是行政處罰的前提,拒不改正屬于明確的法律概念,但是其中的“情節嚴重”卻屬于不明確法律概念,應當如何界定?在效果裁量中,一萬元以上十萬元以下的處罰空間幅度賦予行政機關較大的行政處罰裁量權,極易造成行政處罰畸輕畸重的情形。李強總理在國務院第十一次專題學習中明確指出,要圍繞法治政府建設,建立健全行政執法標準規范,落實行政裁量權基準制度,針對基準覆蓋不全面的問題,抓緊完善相關領域的裁量權基準。隨意執法、運動化執法、行政執法責任體系混亂的本質原因在于缺乏明確的執法依據,對此網信、市場監管等相關部門應當及時在《算法推薦管理規定》的基礎上,考慮新聞聚合平臺違法行為和可承受能力范圍,依據“過罰相當原則”細化處罰限度,針對要件裁量中不確定法律概念進行解釋,明確處罰依據,從而建立明確的行政處罰責任規范體系。
四、結語
算法推薦技術引起了新聞傳播領域的重要變革,對用戶進行賦權,滿足了用戶的個性化需求,推動了新聞傳播向扁平化、精準化階段發展。盡管目前算法技術在法律層面存在諸多潛在風險,但是人工智能技術與新聞傳播深度耦合是未來不可避免的發展趨勢。因此在方針政策上對算法推薦新聞應當采取包容、審慎的態度,一方面要積極推動算法推薦新聞發展,另一方面要加強算法推薦新聞的法律規制,采用事前的穿透式監管理念、保障用戶的信息自決權、完善民事行政法律責任規范體系,以保證算法推薦新聞在合法的軌道上順利推進。未來,隨著強人工智能時代的來臨,算法的交互性、自主性、適應性水平進一步提高,人們接收新聞的途徑將更加便捷,法律風險也會更加多元,相應的法律規制措施應當與技術保持一致,進行動態調整。
[本文為2024年新疆維吾爾自治區高校基本科研業務費科研項目“人權保障視角下新疆數字法治政府建設的內涵、價值與路徑研究”(XJEDU2024J018)的階段性研究成果]
參考文獻:
[1]杜娟.走向人機協同:算法新聞時代的新聞倫理[J].新聞愛好者,2019(9):21-25.
[2]劉文杰.算法推薦新聞的法律透視[J].新聞記者,2019(2):22-29.
[4]張文祥,楊林.新聞聚合平臺的算法規制與隱私保護[J].現代傳播(中國傳媒大學學報),2020(4):140-144+154.
[4]王利明.論個人信息權在人格權法中的地位[J].蘇州大學學報(哲學社會科學版),2012(6):68-75+199-200.
[5]馬特·卡爾森,張建中.自動化判斷?算法判斷、新聞知識與新聞專業主義[J].新聞記者,2018(3):83-96.
[6]張凌寒.網絡平臺監管的算法問責制構建[J].東方法學,2021(3):22-40.
[7]張凌寒.平臺“穿透式監管”的理據及限度[J].法律科學(西北政法大學學報),2022(1):106-114.
[8]劉海明.算法技術對傳統新聞理念的解構與涵化[J].南京社會科學,2019(1):117-124.
[9]FLORIDIL,SANDERS JW.On the morality of artificial agents[J].Minds andMachines,2004(3):349-379.
[10]彭誠信.人工智能與法律的對話[M].上海:上海人民出版社,2020:148.
作者簡介:申艷紅,新疆大學法學院教授、博士生導師(烏魯木齊 830046);趙宣,新疆大學法學院博士生(烏魯木齊 830046)
編校:張紅玲