關鍵詞 算法污染 權力 人工智能
一、引言
算法是“一種有限、確定、有效并適合用計算機程序來實現的解決問題的方法”。① 算法作為概念被明確提出是在公元8世紀的波斯,之后,其逐漸成為數學學術討論的重要概念。從數學計算角度來看,算法是求解某類問題的一系列計算法則。作為一系列解決問題的清晰指令,算法天然就是程序。因此,隨著電子計算機的發明,算法開始與編碼發生關聯,成為程序設計的核心,并成為邏輯和規則的代言詞。②在算法技術的應用上,一方面,算法推薦信息使得用戶避免“瓦釜效應”的消極影響,提升用戶沉浸式體驗,增強用戶黏性;另一方面,算法存在算法黑箱的問題,制造算法污點,瓦解用戶對于技術的信任,阻礙平臺與媒體的發展。近年來,超級算法與超級算力的出現,加快機器計算速度的同時,也為技術治理帶來了挑戰。
對于算法問題的研究,國內外學者均有討論,具有針對性、持續性的特點,聚焦算法倫理、算法權力、算法正義等領域。其一,算法倫理問題涉及公共領域的話語表達,通過擬人化的算法系統自主做出決策,削弱人的自主性,代替人的主體性。算法社會化倫理利用算法技術,產生算法歧視、算法黑箱等社會化問題,擾亂秩序的構建。“算法價值化的現象可以通過算法自動化生成的藝術作品以及加密算法的數字貨幣等體現,成為實現社會價值的新形態。”①算法價zFQQgbrWGrjgXpnpM/CnkfxiaSFkQutgwlrS217reG4=值作為多元價值的組成部分,改變人的審美和意識形態,形成算法價值化倫理問題。其二,算法作為一種新的權力形態,有平臺與技術的雙重加持。平臺天然具有逐利性,利用算法技術實現利益最大化。“算法的運行過程不僅僅是智能技術運用的過程,在其技術的背后體現的是設計者的意志,在其工具的外表下暗藏的是權力的歸屬。”②其三,算法倫理與算法權力的異化呼吁算法正義,構建算法秩序。算法正義旨在設計合理程序,將定性正義向定量正義轉變。程序正義從結果出發,認為符合算法計算的程序,規避算法黑箱、堅持態度中立的原則,其產生的結果帶有正義的鐵律。“算法的邏輯呈現出簡明的悖論性質:算法的目的乃是‘使自動化’(automate),于是‘自動化’本身產生了‘正義自動化’的效果。”③
現代技術持續迭代,算法問題仍不斷凸顯。技術與權力異化導致倫理失焦,衍生出算法問題的新議題,不同于算法黑箱、算法歧視,將微觀權利侵擾擴大至中觀平臺秩序沖突,產生出對于“算法污染”的研究。“算法污染”的內涵是什么,如何生成,如何造成權力的失衡,又如何規制權力實現平衡仍然需要繼續探索。如果不清楚“算法污染”的內涵,就無法理解權力與技術平衡的邏輯;如果不對“算法污染”中的權力進行規制,就無法清楚權力的本質,無法構建算法正義。隨著元宇宙、ChatGPT技術的升級,算法能夠自主學習,污染更加隱蔽,更加具有針對性,將會給個體、網絡空間帶來高風險。本文將對“算法污染”的權力失衡進行初步探討,并提出權力規制建議。
二、“算法污染”的概念厘定及生成邏輯
算法技術是一把雙刃劍,它既能為用戶提供便捷化、智能化的服務,也會出現權力俘獲,污染個體的社交領域、網絡空間,造成“算法污染”。“算法污染”在理論上是技術與政治的結合;在實踐中,算法推薦、ChatGPT、Sora視頻都是算法技術的延伸,并不斷更新,“算法污染”也帶有融合性、拓展性、智能性的特征。
1.“算法污染”的概念厘定
“污染通常意味著污染水、骯臟的空氣或者其他環境危害。候選人利用政治金錢形成腐敗,污染政治系統。污染隱喻提出的最困難的問題:政府努力監管表達造成污染的合憲性。”④就環境污染的閾值而言,政治穩定一直是社會福祉的核心。政治環境不穩定會導致經濟效率低下,加大二氧化碳的排放量。從道德層面講,“厭惡是一般動機系統的一部分,該系統是為了保護個人免受疾病侵害而進化的。厭惡會激發對與污染威脅相關的行為的負面評價;對可能通過身體接觸構成污染威脅的陌生群體的消極態度;以及更多地支持某些將污染風險降至最低的社會和政治態度”。⑤ 從政治污染的角度出發,20世紀60年代,西方對其研究較為集中,包含黑人運動中的政治污染、利益污染腐化政治選舉,造成性別歧視。21世紀初,隨著新媒體技術的應用及普及,出現信息污染,公民的權利受限,進而影響制度運行的有效性。綜上,政治與污染有著表象與本質的關聯。表象是指我們可以觀察到的具體形態的污染,例如環境污染、氣象污染等。本質是對于具象污染究其本源,探討解決路徑。
“算法污染”是技術與政治的結合,它既從微觀污染個體的社交場域、污染網絡空間,影響信息傳播秩序,也從宏觀隱喻權力借助算法技術污染政治系統,侵擾公民權利。“算法污染”具體表現為信息污染、意識形態污染、商業污染,是用戶與技術平臺合力產生的結果。信息污染是平臺利用算法技術搜集用戶數據,提供相對應的信息。用戶數據的收集是偶然性與必然性的結合。機器不具有情感認知,機械化搜集信息,不能做到信息與用戶完全匹配,形成信息污染。算法工程師植入個體的意識形態、平臺逐利性交易傳播意識形態、意見領袖流量性傳播意識形態,合力形成意識形態污染。商業污染是指平臺為了盈利運轉,使用算法技術打造沉浸式、消費式的媒介環境,污染網絡空間。喬萬尼·薩托利在《民主新論》中講道:“目前對于民主制度中的信息過程所作的大多數批評,都指出傳遞信息的權力是少數人的權力,具體言之,它的分配是不平等的”。① 因此,算法技術發展需要兼顧傳播秩序、傳播權力的分配,避免信息極化污染政治系統。
2.“算法污染”生成的基本邏輯
第一,算法標簽與用戶標簽混合產生認知污染。如今,“數據處理者、算法掌控者已不再是普通的私主體,而是在擁有巨大技術優勢與數據資源勢能的基礎上,形成了相對于個人而言的、能夠輔助甚至替代公權力的數據權力、算法權力或平臺權力”。② 智能算法依托互聯網實時計算,利用數據模型進行數據分析,跟蹤用戶變化,產生個性化的算法標簽。在社交平臺中,用戶擁有不同的身份,被貼上高達上千種的社會化標簽,打破用戶對于現實個體的認知。算法標簽固化、僵化用戶形象,成為互聯網用戶的第二張名片。用戶將線下社交圈遷移至網絡社會,線下關系轉換至互聯網,或維系、或屏蔽或沉默。線下存在的標簽也會投射到線上,影響用戶點贊、評價的行為。用戶標簽產生的行為,向算法技術釋放出強烈的信號。算法技術不能完全靈活處理,使得用戶標簽與算法標簽混合,造成認知與標簽的盲目匹配,干預用戶的價值判斷。用戶自我標簽基于現實生活中的“鏡中我”理論凸顯,具有一定的情感性特征。機器判斷基于用戶有意識、無意識的行為數據計算,帶有片面理性的局限性。
算法工程師作為個體是情感本體的體現,一定程度上影響算法標簽。算法工程師將自己的認知導入信息傳播機制中,送至用戶端。算法標簽與用戶標簽或沖突、或重合、或不相干。算法標簽與用戶標簽沖突,將出現用戶信念體系坍塌,造成認知盲亂。群體急于在網絡空間自證觀點,引發網絡謾罵,造成網絡空間的認知污染。算法標簽與用戶標簽融合,用戶偏見由固化向僵化過渡,在網絡空間擴散,與主流認知形成反差,出現主流與非主流的認知錯亂,污染網絡空間。算法標簽與用戶標簽不相干,用戶標簽傳播一系列信息,算法標簽傳播其他信息,不論信息是否符合主流價值觀、是否能夠擴大政府的公信力,都在一定程度上造成信息轟炸。用戶認知水平有限,過多的信息加大用戶的認知負荷,降低用戶的辨別能力,污染社交平臺的信息承載空間。
第二,領域界限模糊引發用戶權利污染。在社交平臺中,用戶的權利包括看見與被看見權利、遺忘與被遺忘的權利以及話語表達的權利。智能媒體的出現,打破時空界限、人機界限,拓寬信息傳播的渠道。算法推薦以用戶為中心的同時,也會形成網絡的“巴爾干”化,出現網絡“去殖民化”到“再殖民化”的現象。用戶私人領域搶占公共領域。私人領域強調用戶個體空間,用戶處在舞臺的后端,展示真實的自我。公共領域強調社會價值的宏觀導向,用戶處在舞臺前端,打造人設。算法技術利用信息推送的功能,以用戶興趣導向為傳播模式。用戶群體分散于社會各地,認知能力與認知水平參差,出現興趣的低俗化、劣質化區隔的現象。低俗化內容成為娛樂大眾的首選,符合算法推送的一般條件。用戶在瀏覽、觀看、評論、轉發低質化內容的信息時,形成沉浸式體驗,縮小用戶權利的選擇。社交用戶將私人領域的興趣擴大,算法技術主動識別分配流量,占用公共領域,造成領域界限的模糊,以及前臺人設與后臺自我的混合。低質化內容成為用戶權利的導向,算法技術成為污染網絡空間的抓手,打破倫理綱常,影響網絡空間的傳播秩序。
第三,社交分發強化算法圈層污染。社會交往是生活的重要組成部分。人們通過社交獲取信息、傳播信息,形成社交分發。互聯網社交分發聚焦用戶群體之間強關系與弱關系、強情感與弱聯系之間的傳播。“當人們將算法推薦的內容分享到社交平臺時,算法分發也會影響到社交分發的內容。”①算法技術捕捉到用戶與好友的聊天記錄、轉發記錄,從而形成跨平臺的聯動,批量生產社交模式下的信息內容,造成用戶情感的排斥。即使用戶刪除社交內容,算法也會自動保留數據痕跡,持續向用戶推薦個性化內容。用戶所處的社會地位不同,交友范圍不同,信息傳播局限于用戶周圍的圈層。與之相應,信息形成近鄰推薦的傳播模式,占據了用戶的時間、精力,也使得算法模式中社交權重加大。用戶強關系網絡聯系緊密,直接或間接影響用戶的判斷,自覺或不自覺遵守強關系行為規范,勾勒出圈層模型。根據《第53次中國互聯網絡發展狀況統計報告》,截至2023年12月,中國網民規模達到10.92億。② 網民都有自己的社交圈層,算法滲透圈層內部,強化圈層信息污染。
第四,利益驅使刺激算法商業污染。“在幾乎實現算法‘全覆蓋’的數字化社會里,算法直接控制著人們的消費、思考、娛樂乃至情感活動,人成了資本權力支配的對象。”③商業利益是互聯網信息傳播的驅動力之一。商業利益刺激用戶的感官,反復誘導消費者買單,進一步提升平臺流量變現。信息內容涵蓋消費主義、拜金主義、娛樂主義的傾向,網民產生非理性消費的行為。算法技術的投入,使得商業化信息能夠精準匹配到用戶的訴求,造成用戶對于信息內容、商業內容上癮的結果。算法技術的野心不局限于商業信息的精準送達,還會根據用戶的消費水平進行“大數據殺熟”。算法商業信息的投入與商品價格的差異形成算法的商業污染。算法商業污染本質上是資本權力的體現。“網絡符號消費的媒介權力就是媒介所有者影響、操縱以及支配受眾消費行為與觀念的力量,是一種軟權力。”④平臺方有匯聚用戶的能力,商家有入駐平臺的資格,形成CtoC的商業閉環。資本不甘心單純成為用戶與商家的信息橋梁,利用算法權力獲取利益,掌握用戶的數據動向,甚至想要販賣用戶數據獲取更大、更多的利益。平臺在追求更大利益空間的過程中,忽略法律法規的束縛推送誘導性信息,形成用戶端更大范圍、更深層次的算法商業污染,技術“道德化”發展任重道遠。
第五,政府部門俘獲導致算法權力污染。民主與平等的關系是一個經久不衰的議題。有學者認為“僅有基本的政治身份平等、投票權的平等以及法律面前的人人平等,還不能令人滿意。完全意義上的實質性平等,則是任何社會難以企及的”。⑤ 平臺信息的審核模式包括機器初審與人工終審。機器初審能夠過濾掉大部分敏感內容,人工終審結合平臺運營標準,確定信息的發布。平臺結合商業、流量、內容、成本等因素,制定最低限度的運營標準。隨著媒體轉型的深化發展,政府部門想要分享平臺的用戶紅利,利用政務媒體進入信息平臺。流量成為平臺、政府的共需。除此之外,政府部門需要數據監測輿情,隱性介入算法的設置模式,干預算法工程師的算法推送模型,使得算法帶有一定的目的性與政治性。算法平臺想要與政府達成合作,則將用戶數據提供給政府。在美國大選時,政府能夠提前獲取用戶的數據,了解選民的政治傾向,制定針對選民的動員方案。在此過程中,平臺算法與政府部門交易處于公眾不被察覺的地方。權力被隱藏,出現用戶自主性偏移,產生算法權力污染,影響用戶對于政治的判斷與選擇。
三、“算法污染”引發的權力失衡
“算法污染”借助算法技術造成權力主體與權力客體在一定程度上對立,激發顯性與隱性的社會矛盾。
1.話語權力失衡
“算法污染”建立在算法標簽與用戶標簽基礎上,在用戶使用過程中被塑造,所產生的算法偏見不再局限于算法工程師的偏見價值觀,也包括用戶個體的偏見。一方面,算法偏見受算法工程師個體情感影響。比如女權、自由、國際新聞等的輸出,算法工程師分散于不同的意識形態群體,產生不同群體的認可結果。用戶本身就存在有意識與無意識的偏見,接收信息強化偏見認知,形成算法信息壁壘,造成官方話語權與算法話語權失衡。對于國際傳播而言,算法話語成為壟斷話語的形式之一。國際信息流的流向、流量仍然掌握在老牌媒體手中,國際信息秩序在趣緣化再結構的算法邏輯下再次固化。① 西方媒體植入算法偏見進行精準性傳播,形成算法推動下的話語霸權,造成國際話語權與算法話語權的失衡。另一方面,用戶個體本身就持有不同的意識形態,帶有不同的偏見性質。用戶根據個體的偏見檢索信息內容,算法設置推送用戶檢索的內容,強化偏見,污染網絡空間。“算法污染”實時捕捉用戶的行為習慣,在互聯網“全景監獄”中釋放大量意識形態信息,僵化用戶個體的算法偏見。算法偏見的僵化使得假新聞、反轉新聞增多,網絡個體間出現對抗與撕裂,導致意見領袖與個體之間的話語失衡。
2.信息權力失衡
算法馴化是“算法污染”的現實表現,也是信息權力失衡的直接原因。算法馴化經歷占用—客體化—納入—轉換的過程,信息流傳播擴散污染網絡空間。算法馴化包括平臺馴化、內容創作者馴化與用戶群體馴化。算法工程師是算法模型的建構者,其受到平臺文化的熏陶、行為理念的加固。“對于這一類平臺管理人員來說,適應職業生涯變遷的過程就是從接受算法思維馴化到馴化他人的過程。”②馴化后的算法工程師想要通過信息傳播馴化更多的人,使互聯網上的認知統一,掌握信息選擇與傳播的權力。被馴化了的算法工程師馴化算法模型,進行信息分類,控制信息的傳播端,產生平臺與用戶間的信息權力失衡。平臺推出內容創作者激勵計劃,構建優質內容職責聯盟。內容創作者撰寫自媒體文章,拍攝短視頻迎合用戶也馴化用戶,形成內容創作者與用戶間的信息權力失衡。意見領袖傳播者與用戶處在不對等的位置,用戶被動接收過濾后的信息。獲得馴化信息的用戶會二次或多次傳播馴化的信息,使得信息內容馴化范圍擴大。信息意識形態內容推動用戶的行為,營造集體行動的媒介景觀,污染網絡,固化信息壁壘,制造多層級的信息焦慮。
ChatGPT的誕生,使得“算法污染”更加隱蔽地深入用戶端,信息權力在機器、官方、用戶之間失衡。ChatGPT的輿論發展呈現出動態演化階段特征,可以分為緩慢萌發期、火爆出圈期、波動下降期以及穩定發展期四個階段。意見領袖以其獨特的創新視角、創新理念在一定程度上影響了輿論的傳播,進而影響了輿論中的關注主題和網絡中的公眾情感。① 機器將用戶作為節點式的存在,一對一進行馴化,馴化的深度、強度都在增加。機器與用戶間天然地存在信息鴻溝,官方信息難以一對一加工傳播,難以實時在線,進入用戶視野的難度增大。信息權力在機器、官方、用戶三方之間失衡。
3.技術權力失衡
“算法污染”的形成使得算法從神壇地位過渡到用戶焦慮、恐懼的處境。“算法神話”通過算法技術、算法平臺以及算法傳播的包裝,構建了人與技術不平等的想象。② 算法技術能夠為用戶提供個性化、精準化以及交互化的服務,降低用戶搜集信息的時間成本與精力成本。用戶對于平臺的黏性增強,將技術神秘化,最終產生“算法神話”的語境。“算法神話”夸大技術的使用權引起“算法污染”的問題。技術是把雙刃劍,算法技術既能夠提升用戶獲得信息的成就感、喜悅感、幸福感,也能夠根據用戶的習慣偏好進行大數據殺熟、大數據交易,造成技術權力的失衡。“算法污染”利用用戶信任,跨平臺聯動獲取精準的用戶畫像,從用戶的消費數據窺探用戶的收入水平,提供差異化價格商品,侵犯用戶的個人權利,產生技術與人的不對等的關系。用戶在算法權利污染的背景下,想要逃離算法陷阱,呼吁算法權力的規制。除此之外,“算法污染”讓用戶詬病的是算法背后的隱私數據被出賣,使得用戶處于被監控的“全景監獄”中,行為與情感被量化。用戶處于透明網絡環境中,收到騷擾信息增多,個人信息安全問題引起關注,算法技術的使用權失衡。算法技術即使識別到錯誤的數據信息,也會時時刻刻推送與錯誤信息有關的商業信息,使用戶淪為數據的勞工,人權價值被商業價值取代。
4.公權力失衡
“算法污染”是算法權力濫用的彰顯,也是公權力遷移的后果。算法權力遷移一方面涉及用戶個體權利,用戶能夠根據個人喜好選擇、建立信息群組,控制群組輿論,約束成員行為。倘若群組成員和主流價值觀相悖,會夸大個人權利、群體權利,從言論、行為等方面與公權力對抗,造成公權力與公民權利的失衡。另一方面,在政治選舉方面,選民的權利、資本的權力以及政府的權力發生沖突。資本借助算法操控選民,選民成為資本的俘虜。網絡空間中,用戶在匿名性的庇護下,言論表達權利化、暴力化,希望通過言論表達彌補現實生活的境遇,形成用戶權利的向后遷移。政治選舉涉及宏觀政治與微觀政治。“算法污染”依托平臺利用算法技術推送信息,造成算法權力前移。根據扎根理論,選民更傾向于以已有認知進行選舉。媒介環境營造非虛構的網絡空間,用戶在“算法污染”的作用下,難免成為技術的工具,權利選擇出現遷移。“新聞的分發權由大眾媒體轉移到了算法平臺,新聞的把關權由‘前置’變為‘后移’,新聞的選擇權由受眾部分轉移到了算法平臺。”③因此,算法平臺占據權力,導致政府與公眾之間的不信任,出現公權力與平臺權力的失衡。
社交媒體時代,政府與群眾由弱連接逐漸過渡到強連接,政府部門改變以往刻板嚴肅的形象,轉變信息傳播形式,利用算法推薦技術包裝權力,融入民眾生活。民主政治從宏觀轉向微觀,從線下轉向線上線下相結合的狀態。算法技術根據用戶閱讀習慣、視覺習慣、付費習慣,將政治信息以用戶喜愛的形式分發到用戶的社交賬號,讓用戶接受政治信息的滲透。公權力超過法律邊界,將用戶暴露在互聯網空間,干擾民間輿論場,使用戶被迫貢獻數據,使政治傳播變為政治營銷,民主走向崩潰。權力過多地介入民眾生活中,民眾的政治態度趨于中和,“沉默的螺旋”加大,政治權力裹挾政治情感,導致公權力與公民權利在網絡空間失衡,網絡秩序混亂。長此以往,民主在網絡空間出現網絡的“巴爾干”,內外部矛盾聯動,威脅國家主權。
總體而言,“算法污染”的現實表現在算法問題基礎上得以深化,權力平衡的邊界被打破,并伴隨著政治風險威脅。內部權力受到技術操控,外部敵對勢力時刻準備滲透意識形態。長此以往,權力失衡轉向權力失控,政治風險演變成政治危機,文化安全受到威脅。針對權力失衡需要找到對應權力相互抗衡,達到穩定的狀態,保證網絡空間風清氣正。
四、“算法污染”的權力抗衡
1.法治支撐:以行政立法權抗衡算法自主權
約翰·羅爾斯在《正義論》中提到“自由的優先性意味著只要基本自由能夠有效地確立,一種較少或較不平等的自由就不能與經濟狀況的改善相交換。”①行政立法權指立法機關行使立法權制定部門規章、法律法規,約束算法生成的內容以及分發信息的機制。算法自主權包含兩個方面:一方面是算法平臺的自主選擇信息,進行深度學習,不斷升級算法功能,進一步替代人的價值;另一方面是用戶以權利為借口,設置群組區隔群組外成員和信息,造成圈層式的“算法污染”。算法自主權超出法律法規控制范圍,不僅會造成技術發展的失控,使得負面輿論、謠言蔓延至網絡空間,而且還會加劇網民的認知偏見,阻礙主流價值觀的引導,形成網絡的“再殖民化”現象。
以行政立法權抗衡算法自主選擇權,重點在于官方制定算法相關的法律法規,平臺遵守算法規則,識別主流價值觀與非主流價值觀的內容,規范算法技術的應用范圍。用戶在此過程中沒有喪失自由的權利,而是擁有規則下的自由,共同構筑算法正義。以行政立法權抗衡算法的自主選擇權也并非剝奪平臺對于算法的合理應用,而是在合理立法權范圍內抗衡算法與用戶造成的圈層式污染。“網信部門需與國家數據局等機構充分考慮算法平臺的公私主體雙重身份,以法律制度為基礎,調和算法平臺商業逐利與公共利益間的價值沖突。”②行政立法權在算法制造端設定算法規則,保護用戶人權;在算法傳播端設置關鍵詞篩選,避免圈層式的“算法污染”;在用戶接收端設置隱私條款,保護用戶的數據痕跡。
“無論是宏觀上公共政策的選擇,還是微觀上具體規則標準的確立,行政行為的合法性是作出行政行為的最基本要求。”③行政立法權若過大,一定程度上會擠占用戶的權利空間,增加用戶選擇信息的成本。立法時需要考慮用戶自主選擇的權利,保證權力運行的適時性、適度性、適宜性,將用戶納入權力主體中,共同管理、運行算法技術。算法平臺提供權力渠道,用戶根據內容進行標記,標記最多的內容進入機器初審環節,信息內容倘若被機器再次標記則會進入官方人工終審環節,最終由官方進行信息內容的取締或保存。用戶與官方并不總是保持一致,需要對權力運行進行升級優化,構建統一規則和標準。行政立法權的權限由立法部門搜集民意,聽取專業人士的建議,形成草案,在網絡空間試行。
2.利益讓渡:以數據保護權抗衡數據交易權
數據的應用范圍廣泛,既包括官方輿情數據的全景監測,商業數據的分析、支撐、變現,還包括個人數據的計劃匯總。數據成為人們生活中不可或缺的存在,它既能帶來商業盈利,也會讓個人處于互聯網的“全景監獄”中,一舉一動都在掌控中。哈耶克認為“一個有效的競爭制度和其他制度一樣,需要一種明智規劃的并不斷加以調節的法律框架。強制力量的控制者是否應該將自己限制于籠統地創造條件,充分發揮每個人的知識和創造力”。① 數據化時代,用戶數據安全意識也在不斷提升,注意到數據顯性交易與隱性交易,渴望個人數據的刪除與被遺忘,避免成為商業的數字畫像。對于數據顯性交易的現象,可借助區塊鏈構建用戶數據的保護傘,強調數據的去中心化,保護每個用戶的數據,以安全保護防止數據污染,抗衡商業數據的不法交易權。對于數據隱性交易的現象,數據保護權抗衡隱匿的數據交易權,將權力賦能用戶。用戶可以選擇數據的公開或不公開,在互聯網設備上設置私密賬號,避免監聽的選項。除數據用于公共領域的維穩,用戶的數據安全需要得到政府部門的保護。
數據關乎用戶的權利,數據交易權關乎商家在互聯網生存的權利。數據保護還需要為數據交易權留有空間,達到權力平衡的狀態。“無論企業的生產經營活動還是國家機關履行法定職責,抑或公共機構提供公共服務,都需要進行個人數據的收集、存儲、加工、使用、提供等各種處理活動。”②數據交易權需要商家與用戶處于平等地位,尊重用戶的隱私。在用戶許可的范圍內,借助算法技術推薦相應的商品信息,降低用戶尋找商品的成本。商家也可以根據用戶購買習慣,推薦相應的購買平臺,建立與用戶之間的交往關系。數據保護權與數據交易權并不是沖突、對立的存在,而是權力抗衡、規制后,共存于網絡空間。若過分夸大數據保護權,就會讓用戶在互聯網空間“野蠻生長”,從而失去管理。若過分夸大數據交易權,就會讓用戶陷入消費主義的陷阱,“娛樂至死”將會蔓延至整個互聯網。數據保護權與數據交易權要在適度允許的范圍內規制雙方,既能夠讓用戶處于被保護的范圍,也能夠讓商戶獲取相應利益。
3.權利自衛:以信息公開權抗衡信息控制權
信息公開強調政府信息的公開表達,是保障公民知情權利的重要方式。“政策文件的制定可以反映出各機關部門權力和職責所在,即權力主體的所在。”③傳統媒體時代,公民獲取信息渠道有限,政府信息選擇性呈現,信息公開的權力主體更多針對掌控信息的政府而言。智媒時代,用戶數據形成用戶畫像,信息流、數據流被控制在資本方。政府議題呈現也受平臺推送制約,差異化的分發結果影響公共議題的傳播效率。“算法污染”本質上是資本方掌握了用戶數據、官方議題,植入商業利益,造成大數據殺熟以及數據污染的局面,是資本信息控制權力的體現。為了更好地傳播主流意識形態,打破資本對于信息的束縛,用戶需要信息公開,監督資本平臺的運營,維護個體權利。對于宏觀議題、重大事件,用戶擁有知情權,要求資本方設置公共議題,拓寬用戶參與公共話題討論的渠道,同時,用戶要合理利用官方創建的網絡學習平臺,了解中央以及各地市的重大新聞、政策,規避信息權力失衡。然而信息公開并不是指所有的信息都要暴露在互聯網空間,用戶個人的隱私數據仍需保護,避免因為商業污染造成用戶算法焦慮的后果。
算法技術既能污染網絡空間,也能夠維護網絡主權,增強網民的凝聚力、向心力。算法推薦根據用戶對于信息的接收程度進行個性化分配,影響網民的認知和行為。一方面,算法推薦主流信息以多種形式進行美化,間接傳遞到用戶端,被用戶所接受,建立用戶對于主流信息的信任;另一方面,算法推薦與信息公開存在對立關系。算法推薦將個性化的信息窄化傳播,注重信息的高接收率,期望產生“皮下注射論”的效果。信息公開是一對多或多對多的傳播,注重信息的傳播范圍、傳播廣度,決定用戶是否知曉信息,卻無法判定用戶是否采納信息。信息公開是用戶的需求所在,只有信息公開,用戶才能真實了解各領域的最新情況,也是抗衡權力的途徑之一。信息公開與算法推薦技術結合,能夠將官方信息個性化到達用戶界面,也同時實現了信息公開。以信息公開權抗衡信息控制權不單純是權力的規制,更是用戶權利自衛的結果,是維護信息秩序的需要。
4.三方共治:以技術監督權抗衡技術使用權
技術監督權規范技術的發展方向,追蹤技術的升級需求,糾偏技術的發展軌道。技術使用權是指在技術的操作層面,平臺擁有一定的自主選擇空間。機器具備自主學習的能力,意味著即使離開算法工程師,機器也能夠自己運行。弱人工智能時代,“算法污染”的表現停留在用戶數據的收集、整合、傳播方面。強人工智能時代,“算法污染”不僅是數據流侵蝕,還會帶有意識形態的滲透,強化用戶的認知偏見,激發社會矛盾,擾亂網絡秩序。“在某種程度上,技術帶來的很多問題其實都可以通過技術本身的進一步優化和完善而得以解決。”①官方聯合公民實時、全景監督算法平臺的運行,在平臺端開通公民舉報窗口,用戶發現自己被“算法污染”,通過舉報可以鎖定算法相關賬號。此行為既能保證官方權力的合法化,也能提升公民的參與感,將技術的發展過程展現在公眾視野之下。當然,算法機器具有隱匿性,用戶未必可以發現自己被算法污染,可聘用專業人員,鑒定算法傳播的內容,對出現算法污染的情況及時制止。官方也可培養自己的技術團隊,若發現平臺偏離運行方向,可隨時介入平臺的操作端進行修正。技術的監督權關乎技術的發展方向,也關乎用戶的數據安全、隱私安全、文化安全,需要官方與用戶共同參與。
技術監督權與技術使用權需要將權力細分,確定多主體的權力范圍,明確官方監督什么樣的算法內容,用戶監督什么樣的信息推送,平臺聘請專職人員監督什么樣的算法信息。技術監督權本質上是借助外力實現權力規制,技術使用權則是權力的自我規制。技術使用權能夠保證技術走在現代社會的前沿,探索服務人類的便捷化方式。算法技術的初衷并不是為了污染個體的社交場域和網絡空間,而是為了精準推送信息,提升用戶的體驗。算法技術使用權掌握在技術的生產方、運營方,就需要相關責任方遵守行業的基本原則,遵守社會發展的基本規律,進行權力的自我規制,實現刀刃向內的效果。權力自我規制并沒有實質性懲戒措施,僅僅是道德教化,在利益、權力面前,可能會超越法治的界限。我們對算法規制的討論越多,反而陷入技術控制的“科林格里奇困境”越深,即監管者對人工智能技術異化風險的規制存在明顯的遲滯與缺陷。② 以技術監督權抗衡技術使用權,將自律與他律相結合,“算法污染”的問題才能從根本上得以解決。
5.價值引領:以話語主權抗衡話語霸權
“話語不僅作為一種交往工具使用,而且被賦予了特殊的含義,具有越來越強大的社會功能。”③話語權體現在言論的轉發、復刻、傳播方面,本質上是一種影響權力。“算法污染”通過數據詞條制造言論、算法機制分發言論、“信息繭房”解釋言論,從而擠占官方話語通道,形成話語霸權,影響用戶心智。ChatGPT的研發弱化了人與機器的邊界,機器參與到用戶話題的討論過程中,傳播速度、傳播規模、傳播滲透力相繼擴大,話語傳播、引導難度加大,甚至出現權力遷移、言論失控的局面。以話語主權抗衡話語霸權,一方面要求主流媒體掌握議題的設置,借助網言網語,弱化官方的角色扮演,深入到民間輿論場中,引領主流價值觀,形成觀點的遍在效果。另一方面,應建立智慧政府平臺,監測輿論的形成,設置峰值等級。如果言論影響力不斷上升,并且有意制造性別對立、種族對立、民族對立等矛盾,需要以技術手段打破言論圈層,將話題隱藏縮小傳播范圍,明確官方態度,塑造主流認知。需要注意的是,話語主權抗衡話語霸權并不是形成一種新的霸權,而是通過權力制約實現技術向善。
在“算法污染”問題上,權力抗衡權力看似是權力間的對抗,實則是權力間的規制。權力理論將權力主體與權力客體對立,忽略權力在隱性議題中的影響力。算法權力可以引起網絡社會動亂,也可以打造和諧社會。本文以權力抗衡權力并在一定程度上約束、規制失衡權力,最終以權力平衡的狀態保護用戶的私人場域,維護網絡空間的秩序。
五、結語
“算法污染”是權力與技術合謀的結果,造成話語權力、信息權力、技術權力和公權力的失衡。為了規制“算法污染”造成的負面影響,應從法治、平臺、用戶、價值方面抗衡“算法污染”。隨著ChatGPT、Sora技術的應用,算法從弱污染向強污染跨越。權力對于“算法污染”的抗衡需要繼續深化,從技術制約人向人制約技術拓展。政府已出臺相關的算法約束條例,設置獎懲規則。例如,《互聯網信息服務算法推薦管理規定》第二章第九條要求算法推薦服務提供者應當加強信息安全管理,建立健全用于識別違法和不良信息的特征庫,完善入庫標準、規則和程序。發現違法信息的,應當立即停止傳輸,采取消除等處置措施,防止信息擴散,保存有關記錄,并向網信部門和有關部門報告。①
權力也需要自我規制。權力需要關進制度的籠子里,保證權力的合理合法。權力運用的過程中難免出現利益交換,政府權力俘獲的現象可引發政治僵局,進而造成政治危機。“算法污染”等人工智能技術的應用,將官方與公民聚合在同一戰線。但是,公民本身的認識水平有限,偏好不同、地域不同、地位不同,容易掉入算法設置的陷阱,削弱聯合權力主體監督算法的效果。權力的約束不可忽略,需要將法治與德治結合,在制度上給予權力支持,對于原則上的非正義進行取締。德治提倡社團道德,鼓勵公民角色性參與。約翰·羅爾斯在《正義論》中講到社團道德,社團是一個共同體,每個人在社團中擁有適合自己的角色和地位。② 法律與道德共同發力,從權力主導向全方位參與轉變,算法弱污染與強污染得到制約,技術向善成為一種可能。