侯東德 張麗萍
摘 要:作為個性化新聞分發的底層支撐技術,算法推薦的科學技術特質決定了其并非中立,而是具有一定的意識形態屬性。算法推薦的利用若不受監管,將會對主流意識形態傳播、網絡信息環境和用戶的價值觀念帶來沖擊,引發意識形態安全風險:平臺流量至上的推送邏輯降低主流意識形態的引領力和凝聚力,以用戶偏好為中心的內容推薦加劇了價值分化和觀念隔離,過濾推薦引發價值迷失和信息操縱。有必要發揮法律的安全功能,通過強化網絡平臺的審核、監督義務和信息披露義務促進主流意識形態傳播升級;通過賦予用戶算法知情權、算法解釋權打破信息繭房,建立多元信息環境;通過限制算法推薦的適用范圍和算法審計監管構建“可信任”的算法,切實防范化解意識形態風險。
關鍵詞:算法推薦;意識形態風險;算法監管;風險防范
基金項目:教育部哲學社會科學重大攻關項目“人工智能發展中的重大風險防范體系研究”(20JZD026)。
[中圖分類號] D35,D64 [文章編號] 1673-0186(2021)008-0077-014
[文獻標識碼] A? ? ? [DOI編碼] 10.19631/j.cnki.css.2021.008.007
隨著騰訊新聞、今日頭條、微博、微信等頭部網絡信息平臺的崛起,其背后的信息分發方式——算法推薦引起學界注意。資料顯示,早在2016年算法分發已成為互聯網新聞的主要分發方式①。算法分發具有提升新聞分發效率,緩解信息過載危機、供需危機等優點。然而隨著信息傳播市場競爭加劇,平臺對它的利用目標逐漸從滿足用戶的個性化需求到謀求流量的最大化轉變,推薦算法逐漸成為平臺實現市場份額擴張的工具,由此引發技術理性和價值理性的失衡:它的廣泛使用給主流意識形態傳播帶來沖擊,影響著網絡空間的信息環境及信息傳播秩序,同時改變著用戶的信息獲取及閱讀習慣,蘊藏著意識形態安全風險。“意識形態關乎旗幟、關乎道路、關乎國家政治安全。”[1]我們必須正視、重視算法推薦給用戶信息獲取、閱讀習慣以及信息傳播秩序轉變帶來的影響,牢牢把守好意識形態建設的網絡空間陣地。
關于算法推薦引發意識形態風險的應對,學者們多從新聞傳播、技術倫理、政治安全等角度出發進行研究,鮮有從法學視角出發對算法推薦適用主體、適用對象、適用范圍的權責關系審視。本文以算法推薦與意識形態安全的關系為出發點,探討網絡平臺的商業價值與社會責任承擔、算法監管等內容,提出算法引發意識形態風險的法律防范路徑。
一、算法推薦:一種意識形態視角
作為一種信息分發方式,算法推薦何以引發意識形態風險?在研究展開之前,我們首先厘清算法推薦與意識形態安全之間的關系,這是進行風險防范路徑探索的前提。
(一)科學技術的意識形態面向
科學技術是生產力的重要組成部分這一觀點已經深入人心。作為經濟基礎的一部分,其似乎與意識形態、上層建筑關系甚遠。然而,我們在認可馬克思主義經典作家觀點的同時不能據此否認科學技術與意識形態之間的關系。相反,科學技術與意識形態總是有意無意地相互影響,特定條件下科學技術甚至會間接履行意識形態相關職能[2]。
馬爾庫塞曾明確提出“科學與技術成為意識形態”的思想。在他看來,發達工業社會中日益精密的生產設備、日漸精進的生產技術已經不僅單純地作為工具性存在來影響社會,而是作為系統性存在對整個社會產生影響。科學技術的發展不僅決定著社會發展需要的技能、工種,還影響著個人的職業發展規劃、個體發展的愿望和需要。它消除了社會需要和個人需要之間的矛盾,推動了個人與社會發展的一致化、推動社會控制和社會團結達到新的高度。“科學技術所引發的社會關系的變遷,外在的工具性掩蓋人的主體目的性成為一種常態,主觀的原則日漸被客觀原則所取代,主體能動性、價值、訴求的多元化在這種常態中日益被抑制和消解。”[2]67科學技術以它的生產效率和增長潛力來穩定社會,在此過程中技術進步的合理性不僅體現在經濟、社會活動過程中,而且深入拓展到整個社會統治制度之中。科學技術不再中立,而是具備了維護政治統治的功能。“技術的合理性已經變成政治的合理性。”[3]8在當代,技術控制體現出了“有益于整個社會集團和社會利益的理性”[3]10,它融入統治制度使自身永久化,并把思想意識吸收進社會現實之中,為統治制度中的其他權力提供合法性基礎。技術通過自身的發展,以解放雙手、減輕勞動、提高效率的名義合理滲透到社會生活和控制體制之中,為現存社會制度的合法性辯護。正是在這個角度,科學技術的運用使意識形態融入商品生產的各個環節,使技術合理性成為發達工業社會中近乎唯一的評價向度;科學技術承擔了意識形態功能,而且也正成為一種意識形態[4]。
哈貝馬斯關于科學技術是一種意識形態的認識更為系統全面。他認為,與傳統意識形態相比,科技意識形態更具廣泛性、辯護性和透明性,它使“科學的物化模式”滲透進廣泛的社會生活,并借助自身力量訴諸客觀的合理性以反對對現實的反思和批判[5]69。科學技術以一種高度合理化的方式在社會發展演進過程中將自身塑造成為“非政治化”的文明形象,以極隱蔽的方式模糊掉其所承擔的政治功能和自身攜帶的政治元素,讓個體簡單地相信自己能夠通過積極擁抱科技進步、創造科技成就實現自身價值。“人們一直試圖以科學技術和理性對抗迷信和信仰,結果卻突然發現,科學技術和理性本身也成了迷信,而蘊含在科學技術中的合理性則成了當代人普遍的信仰。”[6]科學技術正是通過這種方式將大眾對科技的忠誠轉化成為對政治制度的擁護和支持。由是觀之,科學技術不僅是一種意識形態,更是一種具有極強隱蔽性的意識形態,它的客觀合理性、非政治性和對社會發展進步的巨大推動功能常常讓人忽視其為政治統治背書的工具性。隨著科學技術逐漸被公認為是推動社會進步的變革性力量,在社會生活領域甚至衍生出一種“偶像化的技治意識形態”[2]67,科技理性在某種程度上已經成為一種權威性力量。對此,哈貝馬斯尖銳地指出,“技術理性的概念,也許本身就是意識形態。不僅技術理性的應用,而且技術本身就是(對自然和人的)統治,就是方法的、科學的、策劃好了的和正在策劃著的統治”[5]39-40。
(二)算法推薦的意識形態屬性
算法推薦在各信息應用終端的使用已成主流。作為一項科學技術,其在數據話語體系中意味著客觀和科學;作為一種內容分發的邏輯方式,其與意識形態關系密切。就運作機理而言,算法推薦的本質是在海量信息與用戶主體間實現“用戶價值主導下的場景化適配”[7],其核心邏輯是基于歷史數據尋找目標信息產品與用戶之間的關聯關系,通過探究用戶與人、物、信息的相關性去擬合用戶現在的和潛在的興趣偏好,進而完成信息的個性化推薦。一個完整的算法推薦流程通常包括數據獲取—數據處理—數據輸出這樣三個環節[8]。
作為科學技術延續發展的產物,推薦算法的技術屬性、自然屬性決定了其具有一定的意識形態屬性。首先是算法推薦的技術特質使然。算法推薦以新興科學技術的身份進入內容分發市場,以其“中立性”表象承襲了科學技術在社會諸領域的公信力:隨著算法推薦的適用范圍不斷擴張,其作為一種隱性的意識形態力量當然地被大眾所接受并不斷深入滲透進人們的思想意識之中。算法推薦承襲了科學技術的意識形態功能并形成了一種技術依賴的意識形態語境。其次,算法推薦技術以人的理性建構為基礎。作為設計架構的產物,算法在開發過程中不可避免會被嵌入研發者個體的價值觀念,會被慎重或無意地嵌入一定的規范標準、常規慣例及社會形態之中。而這些觀念、標準、慣例又以算法為依托在各網絡平臺一次次的信息推送過程中變成傳播的媒介,持續不斷地為人們編織著信仰、價值和集體認同,潛移默化地影響著人們的價值觀念和意識形態認知。
推薦算法的應用價值、社會屬性決定了其將持續發揮意識形態影響功能。推薦算法具有提高傳播效率、優化傳播結構的經濟屬性,其在參與信息內容分發過程中展現出巨大的生產力價值,內嵌在算法層面的價值偏向將在一次次的推送傳播過程中被不斷強化和放大。在應用層面,算法推薦結合用戶屬性進行精準化甚至引導性、傾向性內容推送,在人們每一次的瀏覽、轉發、評論等互動過程中,算法的推薦結果持續影響著人們對待事物的態度和習慣,影響著人們的思想、行為模式和生活方式。實踐中各平臺通常會出于某種目標導向或對傳播效果的把控而突出某種價值偏好或導向,在各平臺商業競爭的過程中推薦算法逐漸演變成為被資本、流量裹挾的工具,為特定的商業目的乃至政治目的服務的信息內容隱藏于信息收集、篩選、分發等環節和標準之中,展現出一定的價值導向和意識形態影響力。
二、算法推薦引發的意識形態風險
算法推薦的意識形態屬性決定了其在不受干預的自然狀態下蘊藏著一定的意識形態風險,這是對“技術中立”論的反駁和否定。
(一)主流意識形態引領力、凝聚力降低
主流意識形態引領力即主流意識形態“引導社會輿論和受眾的能力”,是主流意識形態在社會多層次思想認識的交流碰撞過程中逐漸打破認知差異,形成協調性、整體性認同的能力[9]。主流意識形態凝聚力是用馬克思主義、社會主義核心價值觀等主流意識形態思想標識來尋求價值認同、凝聚價值共識的能力。在傳統的中心化、自上而下的信息傳播結構中,官報、官媒占據強勢地位,依靠全方位、高頻次的曝光和推送給主流意識形態傳播提供了堅實基礎。算法推薦機制的引入帶來信息分發結構的改變,傳統官媒優勢地位不在,主流意識形態面臨凝聚力、引領力降低的風險。
首先,算法推薦對內容把關權力的“收編”擠壓了主流意識形態傳播空間。在傳統的科層制信息分發結構中,依照自上而下的垂直分工,主流意識形態可以低成本、高效率地實現傳播。借助互聯網技術賦權,信息分發機制迎來從人工分發到算法分發的改變,內容把關權力的轉移使得傳統官媒的精英屬性不在,權力漸趨式微,各類自媒體、百家號“粉墨登場”。互聯網的賦權改變了傳統的權力結構,內容把關權力不再僅僅依靠行政力量,而是通過算法推薦開辟了新的實現方式:價值凝聚人心。在個性化的信息推送機制之下,用戶散落在各個“隱秘角落”的非主流、個人化的信息產品需求經過算法的數據分析和深層挖掘后逐漸顯露,原本被忽視的海量的“長尾需求”得以高度適配。“汝之砒霜,我之蜜糖”,算法推薦極其高效地滿足了用戶的千萬種信息興趣需求,于是信息價值判斷的統一標準喪失,非主流信息傳播市場得以初步打開。借助新聞內容和用戶數據的精確導引,算法推薦能夠實現信息與用戶之間的高效適配,并且具備持續提升推薦結果、提高推送效率的能力。質言之,算法推薦具有持續滿足用戶需求的能力,同時也具備信息致癮的能力。當我們的目光在一則則“精彩”“絕妙”的信息之間流連忘返,當我們沉浸在信息消費、數字娛樂的世界中無法自拔,當我們的信息世界被碎片化、消耗性的信息無意識地填滿,這是算法推薦所支撐的“注意力經濟”的勝利,是以算法推薦為核心的信息分發機制市場份額不斷擴大、主流意識形態信息傳播空間不斷坍塌的結果。
其次,算法推薦機制下信息產品的微觀敘事方式消解了主流意識形態傳播效力,削弱了主流意識形態價值引領能力。缺乏人工編輯對信息產品的內容把關和質量篩選環節,無限制的個性化算法推薦將緊緊圍繞滿足用戶需求這一宗旨進行發力,其最終目標是實現用戶引流、增加用戶活躍時間以達到流量的最大化[10]。借助信息傳播結構和信息分發方式的轉變,以互聯網和社交媒體平臺為依托,我們已經進入了資訊信息的全民創作、全民生產時代。信息傳播權利的普及本應帶來網絡空間文化的蓬勃發展和空前繁榮,然而事實卻并非如此。和相對正統、嚴肅的主流意識形態信息產品相比,無關公共事務、無涉知識增益的大眾傳媒因其通俗性、“趣味性”更容易得到普通民眾的青睞。各類震驚體、標題黨新聞層出不窮,動輒十萬加、百萬級的傳播效果已不鮮見。更有亂象叢生的網絡直播,利用用戶的獵奇心理頻繁突破內容傳播底線。若網絡平臺對此并不加以干涉、矯正而是默許虛假、低俗、反主流的價值偏向并據此進行個性化推薦,算法便會“被錯誤的價值觀所捕獲”,各類非主流意識形態內容充斥網絡空間,并在無邊界的傳播過程中產生劣幣驅逐良幣效應:由商業利益和流量驅動生產的通俗內容驅逐有關主流意識形態和公共事務的嚴肅話題內容,主流信息產品中承載的莊嚴價值與嚴肅意義被無情地解構、消解,主流文化的精神內涵和教化功能也隨之喪失[11]。
(二)同類推薦、偏好推薦加劇價值分化
所謂分化,是指事物由同一性向多樣性、由同質性向異質性發展的過程[12]。作為一種價值觀念演變過程,價值觀分化即社會意識形態結構從同質、單向走向異質、多元,并出現不同價值偏向的過程。算法推薦在滿足不同用戶個性化需求“痛點”的同時,對不同群體、不同圈層意識形態的影響同樣不容忽視。從信息分發機制的演變視角觀察,從人工把關到社交過濾再到算法推薦,信息分發的效率不斷提高的同時伴隨著網絡用戶信息視野的打開,人們更容易在網絡空間找到與自己興趣相投的小組社區,但正是這種多元化小眾空間的存在在一定程度上加劇著社會價值和意識形態的分化和異化。
一方面,同類推薦編織的信息繭房加劇了圈層隔離,不同價值觀念之間的碰撞、交流漸趨減少。算法推薦圍繞用戶的興趣需求進行內容分發,只有用戶感興趣的、同類別的或具有潛在興趣的信息才得以被篩選呈現。“一千個人眼中擁有一千個信息世界”,用戶不感興趣的信息將不會被看到。又囿于人的主觀性和局限性,每個人感興趣的領域注定是片面的,借助算法推薦技術加持,長時間曝光于同質化信息氛圍將使用戶身陷信息繭房困境,視野逐漸狹窄。封閉的信息空間隔絕了多元信息穿透傳播的可能,同時也隔絕了異質意識形態傳播的可能,阻絕了開放、包容價值觀念的形成。擁有相同價值觀念和意識形態立場的用戶很容易相互吸引進入同類社群,又通過社群的頻繁互動進一步強化著自身固有的意識形態。群體內部同質化的信息傳播保護著人們生活在信息舒適圈之內,任何與既有意見相異的信息在圈層內部都將喪失傳播可能。與此相伴隨的是社群內信息多樣性的日漸減少,信息隔離逐漸形成,不同社群的認知觀念差異逐漸演變成為用戶群體借以相互區分的身份符號標簽,最終造成觀念差異的進一步加深和溝通可能性的喪失。
另一方面,偏好推薦產生的回音室效應不斷強化用戶的既有價值觀念認同,容易誘發群體極化現象。單一的信息環境是群體極化現象的誘因之一。在算法推薦場域及其所實施的協同過濾機制下,人們不斷接收到與自己興趣和價值觀念相吻合、相印證的內容,它們似乎是一種反饋,能夠在主觀上使用戶得到來自網絡空間的“認同感”。正是這種認同感不斷建立起網絡用戶之間的情感聯接,增進了小范圍互聯網社群的內部團結。但事實上,這些內容或許擁有不同的表達形式或論證手段,卻也僅是能夠強化既有觀點、固化既有認知的來自網絡世界的“回音”而已。隨著回音不斷出現,人們不斷接觸與自己價值偏好同質化的信息,并在這種情境中不斷反應延伸,用戶的認同逐漸增強并形成一個個相對封閉的信息回環空間,這便是回音室效應。來自網絡空間的認同感同時也是可能造成群體極化的傾向性因素之一,因為“如果互聯網上的人們主要是同與自己志趣相投的人進行討論,他們的觀點就會僅僅得到加強,因而朝著更為極端的方向轉移”[13]。推薦算法技術對于情感型群體的形成具有正向促進作用[14]。如于歡案、孫小果案無一不是經由大眾傳媒、主流媒體和活躍于各平臺的自媒體賬號在各自話語圈層范圍內多維度地討論、傳播后,不同的情感訴求和價值觀念碰撞加劇,對社會公平正義的關注和共同的情感傾瀉迅速凝聚起價值傾向性群體,群體極化現象開始出現。最近在網絡上引發廣泛討論的性別對立等熱點事件便是封閉的網絡信息環境滋生群體極化的最新例證。如今的互聯網似乎已不再是可以討論問題的場所,而只是情緒宣泄的空間而已。這也從另一個側面證實了在算法推薦主導而不加干涉的網絡環境中,群體極化現象的出現在一定程度上具有不可避免性。此外,如果不同社群間的觀念差異并非通過回音室效應自發形成,而是經由算法推薦被引導到越來越對立的方向,形成越來越極端的觀點,那么這種技術手段與信息的疊加不僅會推動群體極化形成,甚至還將滋生極端主義生長空間。
(三)算法過濾引發價值迷失和信息操縱
算法推薦對信息分發市場的介入是一場傳播領域的技術革命,傳播市場環境、市場格局隨之轉變,速度和流量成為新的最大利益追求。作為一種觀念的上層建筑,意識形態由經濟基礎決定并在很大程度上受到經濟基礎的影響。我們不能僅僅停留在意識形態層面尋找人們價值觀念相異的原因,因為價值觀念的分化更深層次源自不同經濟基礎利益主體的利益分化。有學者將價值觀的分化區分為差異、矛盾、沖突三種類型[12],當價值觀分化處于矛盾狀態時,人們在不同價值觀念間的選擇中容易出現價值錯亂、分辨力降低等諸多狀況,個體的迷失狀態給社會意識形態安全帶來巨大隱患。
其一,算法推薦及其所營造的過濾氣泡形塑網絡空間“單向度的人”,網絡空間意識形態面臨價值迷失風險。所謂過濾氣泡,是指算法推薦在進行數據處理和運作過程中實現了信息和內容的供需匹配,同時也幫助用戶篩選掉了興趣范圍外的大量異質信息,用戶處在推薦算法營造的信息和觀念的舒適氣泡當中。在這種過濾機制之下,“令人著迷的新聞娛樂產品帶來固定的態度和習慣,使消費者愉快地產生與生產者、進而與社會整體相聯結的思想和情緒上的反應。在這一過程中,產品起著思想灌輸和操縱的作用。”[3]12如今隨著算法推薦的廣泛使用我們人人處于算法統治確立的生活方式之中,算法過濾塑造著“單向度的思想和行為模式”,凡是超出既有價值和意識形態領域的思想和行為都將受到排斥或是被納入既有思想行為體系之中。尤其值得注意的是,這種二元對立的思想狀態在個體間出現了一致化的趨勢。當微信、微博、B站等頭部網絡平臺均被同質化的信息充斥,當我們每一次的瀏覽體驗均以探求新知開始而以理性喪失結束,網絡空間留給我們的將是一片貧瘠、狹隘、單調的精神荒原,這與我們融入網絡空間時懷抱的拓展、多元、交流的初衷不相吻合,與互聯網科技的開放、包容、共享精神背道而馳。“缺乏信心且不確信自己應當持何種觀點的人們,傾向于使自己的觀點變得溫和。”[13]30長此以往,人們精神世界空泛,價值信仰萎縮,辨別是非的能力和抵御反主流、反體制、反智識思想和行為的能力下降,意識形態安全面臨嚴重威脅。
其二,算法推薦營造的單一信息環境使網絡空間意識形態面臨信息操縱風險。算法推薦對信息的過濾使不同意識形態屬性的人們置身相互隔絕的信息繭房之中,長時期處于同質化的信息氛圍,“容易使人將自己的偏見當作真理,拒絕接受其他合理性的觀點和意見”[15]。這恰恰給網絡謠言和陰謀論的傳播提供了間隙。網絡謠言通常伴隨著突發公共事件出現,當有關職能部門的調查和信息公開不能滿足人們內心預期,就會有人利用信息不對稱和人們的固有認知框架及偏見或故意、或盲目地制造、傳播虛假信息,嚴重消減政府相關部門的權威性和公信力,擾亂網絡環境和公共秩序。尤其值得注意的是,算法的工具性特質讓有關主體利用算法對用戶的意識形態偏向實施影響成為可能[16]。算法推薦和社交媒體的技術偏向也給謠言傳播提供了天然的有利環境。在網絡空間已經成為意識形態斗爭的主陣地、主戰場的當下,我們必須高度警惕一些西方國家憑借其發達的科學技術優勢,惡意利用算法推薦機制及新媒體的傳播特性,結合熱點話題發表一些傾向性言論,企圖通過陰謀論對我國民眾進行意識形態滲透和思想操縱,詆毀、批判我國主流意識形態的行為。
三、算法推薦引發意識形態風險的法律防范路徑
算法推薦引發的意識形態風險問題,可以放在風險社會理論的研究范疇內展開探索。貝克認為,“風險可被定義為以系統的方式應對由現代化自身引發的危險和不安”[17]。對風險的防范,其重點在于防范風險帶來的負面效應,包括防范風險發生的危害和風險發生的可能性。現代法律通過發揮安全功能實現風險防范,此種安全功能的發揮不在于排除所有風險,而在于依照確定的防衛和補償規則來防止風險后果的外部化[18]。具體而言,法律通過主體、權利、義務、責任等制度的構建及其相互作用來保障安全和穩定。面對算法推薦應用領域的多樣性和意識形態風險分布的離散性、隱蔽性,我們要主動作為、積極應對,既要強化對意識形態風險的事后監管,也要做好對意識形態風險的事前防范。這就要求我們從網絡平臺的權責關系入手,一方面強化網絡平臺責任,通過用戶權利的賦予和平臺義務的約束實現商業價值和社會責任的良性互動;同時又要刺破算法推薦的工具“面紗”,通過對算法的監管和適用范圍的限制來實現技術理性和價值理性的平衡。
(一)平臺責任強化:促進主流意識形態傳播升級
網絡平臺作為算法推薦的利用者、受益方,作為互聯網信息傳播的把關人,在主流意識形態傳播引領方面應當有更大作為和更多擔當。網絡平臺責任的承擔有其理論基礎。其一,守門人理論。互聯網借助TCP/IP協議地址具備了數據傳輸功能,為信息傳播流動提供了物理基礎。事實上對信息流動擁有管理能力的是各個計算機終端的網絡平臺。換言之,網絡平臺利用其信息基礎設施、技術架構、服務形式等優勢資源,掌握著信息流動的關鍵節點,同時平臺算法也影響著用戶對內容的獲取,可以說,網絡平臺已超越純粹的服務提供者的被動性、中立性角色,而是以把關人的角色參與到信息流動控制中去,成為網絡空間中“看不見的手”。其二,外部性理論。外部性是對個人或企業活動對其他人或其他企業產生外部影響的評價。在網絡平臺是否應當對其所利用的技術引起的外部影響承擔責任的論證過程中一直存在著平臺是否可以因為技術的工具性而免責的問題。相較于傳統媒體平臺以人工編輯為主導的信息審核分發模式,各網絡平臺的信息傳播過程展現出了更強的技術特質和自動屬性,技術中立也常常成為平臺責任豁免的論據之一。然而,外部性理論的適用并非著眼于企業是否對其行為的外部影響擁有實質性控制,而是作為市場機制對資源配置調節失靈的補充規則而存在。在信息傳播領域,各網絡平臺對算法推薦的利用在客觀上造成了主流意識形態傳播風險,這反映出算法推薦存在一定的技術局限性:“當市場機制或技術體系無法實現資源的最優配置或社會福利的最大化時,應當由政府加以干預,要求受益的企業承擔一定的責任維護社會運行的公平性。”[19]對各網絡平臺而言,其有義務、有責任為公眾提供更加廣泛的信息來源,避免公眾完全被興趣引導而走向更加逼仄的價值視野中去。
第一,強化網絡平臺的審核、監督義務。網絡平臺既是信息服務的提供者,又是信息資源的調度者,在信息傳播、消費的各個節點均發揮重要作用。網絡平臺應當為其使用算法推送的信息盡到必要的審核和監督義務,確保信息傳播符合主流意識形態。網絡平臺本身可被視為一個大型的公共圖書館,讀者可根據自己的興趣愛好依照圖書類別索引找到自己感興趣的書籍。作為圖書館方,不僅要能夠滿足不同層次、不同興趣讀者的閱讀需求,還要保證其所提供的書籍內容健康向上,符合法律法規和社會主義核心價值觀等主流意識形態精神,這樣才與公共圖書館的地位、功能、價值相匹配。
在內容上,社交平臺的審核、監督義務包括信息傳播后果的預見義務和避免義務。前者要求平臺對其所分發信息的傳播效果有較為審慎、合理的認識;后者要求平臺在預見到其所推薦、分發的信息可能背離主流意識形態時,應積極采取措施縮減傳播范圍或斷開傳播路徑。在性質上,社交平臺的審核、監督義務應當是一種高度的注意義務,類似于學校對學生、商場對消費者的安全保障注意義務。理由在于,其一,網絡服務平臺作為信息傳播的載體向眾多用戶開放,信息傳播的空間大、傳播范圍廣;其二,網絡平臺在技術手段、管理經驗上擁有更強的風險防范能力。
網絡平臺可通過用戶協議、社群規范等文件將“符合主流意識形態”作為信息內容傳播的底線性要求,用戶擅自發布、傳播背離主流意識形態內容的,平臺可視情況采取拒絕發布、停止傳輸、刪除內容、禁言、關閉賬號等措施。對于平臺利用算法制作、推薦的信息,平臺應充分利用其技術條件切實履行審核、監督義務。平臺義務的履行應以技術可行性為基礎,如通過設置關鍵詞過濾檢索、引入機器學習算法進行語法語義分析、人工審核的經驗判斷等多維度的條件組合,讓非主流意識形態信息內容喪失傳播土壤。另一方面,對于未盡到合理的審核、監督義務及違反法律法規、故意制造算法偏見、傳播虛假信息的網絡平臺及相關主體,應當承擔相應的行政責任。
第二,強化網絡平臺的信息披露義務。隨著算法逐漸在信息資源配置中占據主導地位,其所引發的意識形態風險不斷擴張。傳統的事后監管路徑無法達到預期效果,我們的監管思路應當從結果監管向風險防范轉變[20]。對網絡平臺而言,數據內容輸出后傳播環節的審核、監督作為一種監管手段有其必要性,但我們不能忽視的是,網絡平臺作為連接用戶與信息間的媒介樞紐,作為媒介傳播結構中官方媒體和自媒體間的第二梯隊,其身份早已突破了單一的經營者角色,而是由于眾多用戶的選擇而具有了一定的管理和公共職能屬性。這就要求網絡平臺對意識形態風險的防范不能簡單停留在對信息內容的審核、監督上,應更進一步轉向能夠有效促進主流意識形態傳播的信息環境塑造上來。強化網絡平臺的信息披露義務旨在通過充分的信息公開喚醒用戶的權利意識,在一定程度上松動算法推薦的適用基礎。
一方面,關于平臺利用算法進行個性化推薦相關信息的披露。平臺應將其使用算法的類型、目的、運作機理,抓取推薦算法基礎數據的種類、條目、范圍以及推薦內容的價值偏向等內容通過用戶協議等文件進行公開,同時明確提示用戶擁有拒絕算法推薦的權利。另一方面,推進主流意識形態傳播升級。網絡平臺可以在擁有一定觀點傾向性的信息內容后附上不同觀點內容的推薦,或者隨機推薦主流意識形態相關內容,促進用戶對異質內容觀點、異質社群的接觸曝光。針對不實內容、片面化信息,可以用“本條內容可能含有虛假內容”“本條內容可能含有片面化觀點”等標語進行提示,并適當增加辟謠信息、官方調查報告等內容的推薦和鏈接。針對西方國家在網絡平臺發表的傾向性言論和對網絡用戶進行的意識形態滲透,同樣可以通過鏈接推薦的方法進行反擊,如針對言論涉及的某項事實在網絡平臺和官方媒體網站、政務網站之間增強互連互通,以個性化推薦或設置鏈接的方式確保用戶及官方媒體相互都能夠知道對方的觀點及內容。
(二)用戶權利賦予:形塑開放多元的信息空間
算法推薦的使用不僅成功幫助網絡平臺增加了用戶黏性和忠誠度,實現了資訊產品服務升級,而且也在逐漸改變著人們的信息獲取方式,影響著人們的意識形態認知。算法推薦之所以成為信息傳播產業發展的結構性力量,算法推薦信息流之所以獲得諸多擁躉,是與注意力經濟的發展分不開的。從電視媒體的興起到文字、圖片、短視頻內容的迭代更新,網絡平臺依托算法、大數據等技術進行數據抓取,針對用戶的關注偏好、基礎信息等進行解構分析,用戶的注意力被當作數據分析的對象并被不斷整合進推薦算法之中[21]。應當說,算法推薦是注意力經濟的催化劑、助推器。在這種經濟模式中,用戶的每一次閱讀分享、每一個點贊評論都能夠讓算法對你的畫像更加精準、讓算法對你的了解更加深入。看似免費的信息獲取其實早已在暗中標好了價格:用戶即商品。但是我們的身份,應當是網絡平臺的消費者,是擁有獨立判斷能力、思辨能力、完整人格的自然人,是網絡空間的公民。我們懷抱著新知、交流的愿景融入網絡空間,卻在無意識的情況下進入了自我意識形態的回音室。對各平臺而言,其設立的初衷是幫助用戶“隨時隨地發現新鮮事”,致力于實現“文明、理性、友善、高質量的意見交流”①,塑造一種成長型的文化生活方式②,其既應在主流意識形態傳播引領上有所作為,更應在多元信息環境的構建上發力。
第一,用戶應享有算法推薦、算法編輯的知情權。知情權關乎合同自由、關乎公平正義。哈耶克認為,“自由是指一個人在多大程度上能夠自行其是,在多大程度上能夠自由確定其行為方式,以及在多大程度上可根據自己所執著追求的目標,而不是根據別人為實現其意圖所設定的強制條件去行動”[22]。對用戶與網絡平臺間的關系稍加審視便會發現,用戶對平臺服務協議的“同意”是其接收信息服務的前置條件,用戶協議并未經雙方協商締結,而是平臺方單邊規制的結果。從經濟、信息、知識等方面看雙方間均存在著巨大鴻溝,這種不平等使用戶極易因錯誤或令人誤解的信息內容而作出非理性的選擇判斷。基于雙方合意“瑕疵”訂立的合同并不能夠在實質上滿足合同成立中“意思表示真實”這一要件,這在一定程度上是對合同自由原則的背離和違反。在合同的履行階段雙方地位上的不平等同樣在延續,用戶協議條款內容的改變、信息分發底層技術邏輯的更換等并未對用戶的知情權予以足夠保障,處于信息劣勢的用戶方的行為自由和意思自治并未得到充分尊重。在這個層面上,有必要賦予消費者即用戶一方以知情權,讓消費者在對相關內容充分理解、知悉的情況下自由判斷、自由選擇是否同意或接受信息服務,從而實現實質意義上的合同自由。
具體而言,其一,前述平臺信息披露義務中關于算法推薦的信息獲取、運作邏輯等內容應在用戶協議中以簡明、易懂的方式體現并獲得用戶的知情同意。其二,除用戶自主訂閱的偏好信息外,網絡平臺基于算法進行的個性化推薦內容應當逐條進行醒目提示,如在信息頂端或底部增加“本條內容由算法推薦”標簽,并設置關閉推薦、減少同類推薦按鈕,避免用戶陷入信息繭房而不自知。其三,如果某些信息內容中含有偏見、歧視、極端內容并經網絡平臺清除、編輯后向用戶呈現,也應逐條對用戶進行明確告知,如通過設置“本條內容經編輯后呈現”標簽對用戶進行提示。
第二,用戶應享有算法解釋權。算法解釋權是通過增加算法決策的透明度以提高用戶對算法的可理解性和問責性的一種請求權[23]。在算法推薦的法律規制中引入算法解釋權,是基于合同意思自治原則所必然衍生的權利,是對平臺和用戶之間巨大身份鴻溝、信息不對稱的有效糾偏,其作用在于實現信息從優勢一方向劣勢一方的流動而達到相對平衡的狀態。
其一,算法解釋權的主體和對象。在個性化新聞推送場景下,算法解釋權的權利主體是認為受到算法推薦不利影響的相對人,其往往在網絡平臺用戶中產生。算法解釋權的義務主體為推薦算法的使用者即網絡平臺,或在推薦算法使用者無法提供解釋時的推薦算法開發者。其二,關于算法解釋權的內容,不同學者擁有不同見解。張恩典聚焦于算法決策的形成過程,從算法決策的建模階段、自動決策階段的動態視角出發將算法解釋權區分為以算法系統功能為中心的解釋權模式和以具體決策為中心的解釋權模式兩種類型[24]。張凌寒則聚焦于信息披露和算法決策的事后救濟,認為算法解釋只能由算法決策的相對人在受到不利影響后提起,并認為算法解釋權的權利內容應當包括針對算法決策的具體解釋和事后的更新解釋兩個層次[25]。我們在此無意深究算法解釋權的一般內容設定,僅在前述觀點的啟發下結合信息個性化推薦場景下的算法解釋權利內容展開思考。具體而言,用戶有權知道其在使用網絡平臺期間的身份標簽、身份畫像等內容。畫像作為算法推薦的前置程序,用戶可以申請平臺解釋個人畫像形成的邏輯和進行畫像的依據,如平臺會抓取的數據類型、展開畫像的具體維度,各項數據的特征、類型和權重占比,以及不同維度數據的改變對可能接收信息內容的影響等,讓用戶對自己處于或將要處于的內容環境擁有合理預期。此外,如果用戶認為自己因為網絡平臺的算法推薦已經或正在遭受不利影響,有權要求網絡平臺針對該算法的具體決策過程如數據處理邏輯、信息推送邏輯等作出解釋,網絡平臺應及時予以答復。
(三)算法監管:建設“可信任”的算法
當前我國并未確立對算法的直接監管機制,現有的監管路徑更側重于對結果的審查,通過將算法產生的不利后果和法律責任分配給算法使用平臺以實現對算法的監管。在技術批判理論者看來,這種“基于終端責任原則的規制技術,寄望通過終端責任威懾以防止技術研究與應用所造成的損害,只是對風險轉化為現實的一種事后補救路徑,它顯然與風險社會理論所指引的事先預防理論相悖”[26]。作為風險治理的重要手段,法律應對技術研究及技術應用的效用予以必要關注,對算法技術規制、算法責任等的探索仍任重道遠。“技術規制是風險治理的重要措施。”[27]對算法推薦引發意識形態風險的防范亦不應僅停留在對平臺的治理和監管上,更應將監管的觸角延伸到“算法”這一底層技術層面。算法作為網絡平臺運行的底層技術邏輯,應當被納入監管范圍。
首先,可通過建立算法審計制度糾正用戶長期偏好性閱讀帶來的觀念極化。審計作為一種經濟監督機制長期存在,我們通過對公司的財務管理、經濟效益等進行審查以維護金融市場穩定和其他利益相關人的利益。這是因為對外界投資者而言公司的內部運營就像一個“黑箱”,給公司內部人員帶來巨大信息優勢的同時也存在著被濫用的風險。這與算法的作用機理相類似。算法審計旨在通過建設“可信任”的算法并通過其合理利用為用戶構建開放、多元的信息空間。《個人信息保護法(草案)》第53條初步確立了網絡平臺的定期自我審計和必要時的第三方審計制度,標志著監管部門穿透了網絡平臺的法人外殼,將監管之手直接指向平臺的內部運營活動,將監管對象擴大至平臺的算法運行層面[28]。這一監管思路契合了風險社會的預防性監管理念,平臺的自我審計有助于提前發現和預防算法可能產生的負面影響及風險,第三方專業機構審計又因其中立性對平臺產生一定的約束作用。這意味著平臺自我審計將構成監督和問責的基礎性依據。以此為基礎,其一,網絡平臺的自我審計可以內部進行,采取法律法規和倫理規范相結合的審計模式,通過綜合考察平臺使用推薦算法的設計目的、理念、設計規則、技術原理、合法合規性、價值偏向性等內容形成審計報告,并報相關監管部門備案。平臺應針對其使用算法可能產生的意識形態偏向及對用戶的價值觀念影響提供可行的解決方案。其二,政府部門可結合個性化新聞推薦的具體場景制定平臺使用推薦算法的技術標準作為推薦算法的市場準入要求,以打造政府監管、平臺自我審計、第三方審計相結合的貫通性、多元化治理體系。其三,審計報告作為政府部門的監督依據,一旦發現網絡平臺違背審計報告相關內容,惡意利用或未合理使用算法造成相關信息異常呈現的,或者存在虛假審計、違規審計情形的,可要求網絡平臺立即整改或介入平臺運營。
其次,可通過限制算法推薦在信息推送過程中的適用范圍以打破信息窄化。一方面,有必要對信息分發場域算法推薦的事實“壟斷地位”進行干預。政府對市場競爭機制的介入是為了應對市場機制的不完善、失靈等導致的資源配置無效率現象。算法推薦借助網絡平臺發達的基礎設施在信息傳播市場占據事實上的支配地位,其所引發的信息繭房、群體極化、價值迷失等意識形態風險已經表露出來,在這種情況下,不能完全放任信息傳播市場的自由競爭,讓政府管制和市場競爭作為兩種手段協同發揮作用才能更好地發揮算法推薦對意識形態傳播的正向影響,實現經濟效益和社會效果的協同。另一方面,主流意識形態急需更加廣闊的傳播空間。國家層面,信息窄化最本質的危害在于其阻塞了主流意識形態傳播的上通下達,存在著巨大的政治安全隱患。對用戶而言,算法推薦廣泛適用的危害在于,用戶所接收到的信息看似經過了自由選擇,其實僅是由傳統主流意識形態傳播者的把控、篩選替換成了網絡平臺更劣質的精心挑選而已。當我們被剝奪了接觸異質信息的機會,我們的思想自由就喪失了。從這個角度來看,網絡平臺應當發揮公共論壇屬性并為公眾提供一個開放自由的討論空間,讓人們在意外獲取的信息中不斷反思完善自我,因為“慎思明辨的力量勝過獨斷專行”[29]。因此,有必要對算法推薦的適用范圍予以合理的限制。其一,以主流意識形態為主要內容的信息推送應當排除在算法推薦的適用范圍之外,確保主流意識形態傳播路徑暢通。實踐中監管部門已嘗試實施這一舉措。例如,新浪微博曾因持續傳播炒作導向錯誤等違法違規有害信息被網信部門約談,其問題突出的熱搜榜、熱門話題榜等板塊被下線。整改后的熱搜榜新增“新時代”板塊及置頂功能,著重突出展示正向傳播導向內容①。其二,各網絡平臺除以用戶偏好為中心進行資訊推送外,以主流意識形態為主要內容的信息推送在用戶的有效接收內容中應當占有一定比例。網絡平臺可設定合理范圍(如5%~20%)并賦予用戶選擇權,確保主流意識形態傳播的廣泛性和有效性。
四、結語
算法推薦對個體、對社會、對國家的影響是全方位、多方面的,對其引發意識形態風險的防范也并非僅通過法律應對就能夠達致理想狀態。除法律途徑外,還迫切需要主流意識形態傳播理念、敘事方式、傳播方法的進一步轉變,迫切需要算法開發者及網絡平臺的倫理自律,迫切需要用戶的算法素養培育等多手段共同發力。我們身處數字社會的深度變革之中,算法經濟、平臺經濟的發展也在對社會治理方式產生著影響,社會治理效果的提升需要“軟硬協同”的共同治理模式,期待“政府與民間的相互賦權和相互塑造”[30]。期待本文的部分思考能夠在新發展階段為社會主義意識形態建設提供些微助益。
參考文獻
[1]? 中共中央文獻研究室.十八大以來重要文獻選編(中)[G].北京:中央文獻出版社,2016:301.
[2]? 沈江平.人工智能:一種意識形態視角[J].東南學術,2019(2):65-74+247.
[3]? 赫伯特·馬爾庫塞.單向度的人——發達工業社會意識形態研究[M].劉繼,譯.上海:上海譯文出版社,2006.
[4]? 田海艦.互聯網的意識形態屬性與我國社會主義意識形態建設研究[M].北京:人民出版社,2019:70.
[5]? 尤爾根·哈貝馬斯.作為“意識形態”的技術與科學[M].李黎,郭官義,譯.上海:學林出版社,1999.
[6]? 俞吾金.從科學技術的雙重功能看歷史唯物主義敘述方式的改變[J].中國社會科學,2004(1):132-143+208.
[7]? 喻國明,韓婷.算法型信息分發:技術原理、機制創新與未來發展[J].新聞愛好者,2018(4):8-13.
[8]? 張萌.算法推薦的倫理困境:技術邏輯基礎上的社會價值規范[J].今日科苑,2019(10):43-51.
[9]? 張林.智能算法推薦的意識形態風險及其治理[J].探索,2021(1):176-188.
[10]? 佟英.個人信息保護與風險治理[J].人工智能法學研究,2019(1):167-183+212-213.
[11]? 李凌凌.網絡民粹主義:風險與治理[M].鄭州:鄭州大學出版社,2020:91-93.
[12]? 廖小平,周澤宇.價值觀的分化探析——以改革開放以來中國社會為背景[J].北京大學學報(哲學社會科學版),2013(3):15-21.
[13]? 凱斯·R.桑斯坦.極端的人群:群體行為的心理學[M].尹宏毅,郭彬彬,譯.北京:新華出版社,2010:103.
[14]? 盧增智,高翔.社交媒體平臺群體極化的形成機理與引導策略研究.情報理論與實踐.[EB/OL].https://kns.cnki.net/kcms/detail/11.1762.g3.20210225.1827.004.html.
[15]? 薛永龍,汝倩倩.遮蔽與解蔽:算法推薦場域中的意識形態危局[J].自然辯證法研究,2020(1):50-55.
[16]? ADAM D. I. KRAMER, JAMIE E. GUILLORY & JEFFREY T. HANCOCK: Experimental evidence of massive-scale emotional contagion through social networks[J]. Proceedings of the National Academy of Sciences, Jun 2014, 111(24): 8788-8790.
[17]? 烏爾里希·貝克.風險社會:新的現代性之路[M].張文杰,何博聞,譯.南京:譯林出版社,2018:7.
[18]? 劉剛.風險規制:德國的理論與實踐[M].北京:法律出版社,2012:78-91.
[19]? 楊樂.網絡平臺法律責任探究[M].北京:電子工業出版社,2020:28.
[20]? 張凌寒.風險防范下算法的監管路徑研究[J].交大法學,2018(4):49-62.
[21]? 馬俊峰,王斌.數字時代注意力經濟的邏輯運演及其批判[J].社會科學,2020(11):111-120.
[22]? 弗雷德里希·奧古斯特·哈耶克.自由憲章[M].楊玉生,馮興元,陳榮,等譯.北京:中國社會科學出版社,1999:30-31.
[23]? 解正山.算法決策規制——以算法“解釋權”為中心[J].現代法學,2020(1):179-193.
[24]? 張恩典.大數據時代的算法解釋權:背景、邏輯與構造[J].法學論壇,2019(4):152-160.
[25]? 張凌寒.商業自動化決策的算法解釋權研究[J].法律科學(西北政法大學學報),2018(3):65-74.
[26]? 劉鐵光.風險社會中技術規制基礎的范式轉換[J].現代法學,2011(4):68-78.
[27]? 吳漢東.人工智能時代的制度安排與法律規制[J].法律科學(西北政法大學學報),2017(5):128-136.
[28]? 張凌寒.《個人信息保護法(草案)》中的算法問責制及其完善[J].經貿法律評論,2021(1):36-46.
[29]? 凱斯·桑斯坦.網絡共和國:網絡社會中的民主問題[M].黃維明,譯.上海:上海人民出版社,2003:28-31.
[30]? 馬長山.邁向數字社會的法律[M].北京:法律出版社,2021:271-301.
(責任編輯:易曉艷)