胡萬鵬 孟佳林
摘要:在智能傳播中,算法偏見所產生的影響已逐漸延伸到社會生活的多個領域,而其溯源問題在問題導向和技術的逆向檢視邏輯之下卻難以深入。本文在建構算法新聞主體的基礎上,試圖以算法技術、人類和社會力量三個要素為邏輯起點,探尋算法偏見產生的根源。
關鍵詞:算法偏見;技術倫理;智能傳播
近些年,算法技術在新聞生產和分發環節的應用不斷走向深入,算法新聞對傳統新聞傳播活動的顛覆正在重構著人們的交往方式,其本身所攜帶的技術邏輯也逐漸嵌入到更廣泛的社會生活中。算法本身依托大數據和計算機程序,確實在一定程度上規避了人類主觀的新聞價值判斷,受眾的信息接收環節也從“應知”過渡到了“欲知”。然而,依靠“技術中立”編織的智能技術神話,并不能消弭人們對大數據以及計算機程序客觀性的質疑,算法技術存在的偏見正在損害著新聞的客觀性和公民的基本權利。針對算法偏見的溯源不僅是我們探尋治理路徑的前提,更是對人與技術關系的反思。
一、建構算法新聞主體:一種結構化的溯源邏輯
不同的社會群體對于還在形成變化中的技術存在較大分歧,關于算法技術的詮釋以及算法偏見的原因,要經過不同社會群體的討論和協商,才能最終被固定下來。目前來看,算法偏見的溯源一般存在兩種邏輯:
(1)基于問題導向的溯源邏輯。
即以確認存在的算法偏見現象為邏輯起點,進而通過分析其具體表現來詮釋算法偏見產生的原因。美國學者巴蒂婭·弗里德曼和海倫·尼森鮑姆將算法偏見的表現概括為“先存偏見”、“技術偏見”和“突發偏見”,以此來挖掘算法偏見背后的社會制度和技術限制等原因。這種溯源方式能夠將技術置于社會文化維度進行考量,并對算法偏見的起因有較全面的把握。但面對紛繁復雜的社會文化現象和被大量掩蓋的算法偏見,人們極容易浮于繁復的表象而不能深入探尋算法偏見的根源。國內學者劉友華則從被算法偏見所侵害的主體視角出發來歸納其具體表現:損害公民基本權利、損害市場競爭性和損害個體民事權益的算法偏見。這種溯源的方式已經有了建構算法新聞主體的意識,試圖通過被算法偏見侵害的幾個主體來挖掘算法偏見產生的根源,但從根本上來說仍然沒有突破以問題為導向的溯源邏輯。
(2)基于技術邏輯的逆向檢驗。
即通過反向工程方法檢視算法技術應用的各個環節,從而確認算法技術所面臨的風險和導致算法偏見的因素。這種溯源方式能夠明確算法技術應用過程各環節存在的問題,并證明其與算法偏見產生的直接關聯,因此可以加快推進算法問責制度的推行。但由于向算法平臺取證的難度很大,算法技術本身又具備很強的自主學習能力,因而算法黑箱很難被完全打開。從研究維度來看,這種溯源邏輯過于強調從微觀視角考察算法技術本身,將算法偏見問題局限于中觀媒介場域,沒能與更宏觀的社會文化場域聯系起來。
鑒于以上兩種算法偏見的溯源邏輯存在的缺陷,我們有必要以結構化的溯源邏輯來建構算法新聞主體,探尋制約算法新聞實踐的要素,全面觀照算法技術的應用及其與社會的交互活動。楊保軍認為,算法新聞中主要關涉三類主體,即算法創設主體、算法運用主體和算法收受主體,他們共同結構在一個新聞生態體系內。此種算法新聞主體建構方式強調了人類的主體性,主要將建構的視角聚焦于人類本身以及人與技術的關系,但并沒有明確算法新聞存在的社會場域。算法技術與新聞界結合的過程是在依托整體社會生活的基礎上,人類利用算法技術來獲得感官和智力的延伸,并以人作為最終目的的過程。因此,制約算法新聞發展實踐的主要因素不僅包含人和技術這兩大主體,社會力量對于媒介場域的基礎性影響也不容忽視。
我們從這三個制約算法新聞實踐的主要因素展開算法偏見的溯源,可以在一定程度上從千頭萬緒的問題導向邏輯中解脫出來,擺脫技術邏輯的限制,從而探尋算法偏見產生的根源,在根本上規避算法偏見的產生并將其限制于工具本位。
二、解構技術神話:算法技術的局限
算力有限性導致傳播偏見主要表現在以下兩個方面:
(一)算法技術對現實世界的還原
在算法技術還原現實世界的過程中,針對特定情境的量化雖有難度,但也能夠較為準確地實現。然而,整個現實世界的復雜性和人類自身的不確定性難以被大數據所表征,抽象化和定理化的數學模型和算法程序會將原本多元的世界簡化。在簡化的過程中必定會有諸多經驗世界的事實被篩去,這種算法技術的有限性造成的“視覺盲區”,會促使人們對世界的認知趨于窄化,對現實世界的呈現也將趨于扁平。因此,偏見必然會在受眾中滋生,真相為偏狹的想象所取代。譬如,由于“視覺盲區”的存在,我們在接觸媒介信息時,更多地關注發達國家和社會主要群體,而對發展中國家和社會多元文化卻視而不見。
(二)算法技術對人類多元變化狀態的模擬
算法利用受眾的個人信息、群體歸屬和在互聯網的交互數據,描繪出了一個能夠確認用戶屬性、用戶特征和用戶標簽的“用戶畫像”。算法會根據用戶畫像模擬個體受眾的認知維度,來營造個人專屬信息環境。
然而,由于用戶數量過于龐大,算法系統很難完整收集個體用戶的基礎數據,受眾的互聯網交互行為又具有很強的隨意性和偶發性,用戶畫像通常會被描繪得過于簡化、模糊甚至失真,算法對受眾認知維度的判斷也趨于著武斷甚至是錯位。算法會依照受眾被簡化的人格,將其置身于一個信息窄化且逐漸喪失流動性的信息回聲室中。這種逐漸封閉的信息環境讓受眾免受多元信息的干擾,輕松獲得偏狹的自我認同和對局部環境的適應。受眾被塑造成為算法“用戶畫像”所規定的形象,他們對于現實社會的態度、價值觀等逐漸偏離客觀現實,同時也喪失了諸多修正的機會。
三、失敗的自我否定:人類主體性主導算法
(一)算法偏見產生于新聞供給側
(1)在算法新聞的供給側,人類作為“主腦”負責做出決策,而算法技術則充當“中間人”的角色。雖然算法技術在一定程度上代替了人類的信息生產和分發活動,但并沒有擺脫人類固有偏見或主動或被動的干預。甚至,由于算法技術這個“中間人”的掩護,人類干預新聞生產和分發的負罪感和追責風險被大大降低,從而起到了推波助瀾的效果。
(二)算法程序在人機傳播中滋生偏見
隨著人工智能技術的發展,人與機器之間的差距逐漸縮小。頻繁的人機交互活動,讓算法技術和算法機器逐漸擺脫以往單純的“中間人”角色,成為能夠與人類交流的另一個傳播主體。算法機器人能夠實時處理與人類的交互信息,并可以通過自主學習以完成智能應對和決策,是具有模擬人格的虛擬人。但是,由于智能機器人在與人類的交互活動中,缺少能夠排斥人類偏見的價值觀判別系統,通常作為算法收受主體的普通受眾會將他們固有的偏見傳遞給智能機器人。
四、隱蔽的操縱:社會力量與算法技術的共謀
阿里爾·扎拉奇和莫里斯·E·斯圖克將社會政治或經濟力量為實現特有目的而對算法技術實施的操縱稱之為社會力量與算法技術的“共謀”。在算法新聞的生產和傳播活動中,代表性的共謀場景主要有兩種:其一是“信使場景”,即算法技術作為人類意志延伸的工具,通過執行人類設定的計劃進行共謀,在這一場景社會力量對算法的操縱較為直接;其二被稱為“代理人場景”,即無數參與者的信息傳播活動,都將圍繞同一個算法規則展開,其中主要的市場競爭者隱去自己合縱連橫的身影,利用算法充當代理人以實現自身的特定目的,由此產生的算法偏見將更加且隱蔽難以被追責。
(一)政治力量的嵌入
阿明·格倫瓦爾德認為:“人們常常以強調技術對民主的某些威脅的方式,來研究民主和技術之間的關系。這些研究者認為,技術給民主造成了很多麻煩,而非反之?!睂τ谒惴夹g的應用而言,已逐漸由這種技術決定論的論調轉向對算法使用主體的關注,尤其是對社會有決定性影響的政治力量。在兩種共謀場景下,政治力量已經嵌入算法,并使其在應用過程中背離了設計初衷。
(二)資本力量的操縱
算法技術的創造與發展是以功能作用和可行性為首要宗旨的,但是任何技術都不可能歸屬于某一單一的社會子系統,技術是一個跨領域現象,社會資本力量的干涉必然會使算法技術背離其創造的初衷。基于商業利益集團以盈利為主要目標的商業邏輯,資本對算法的操縱將作用于用戶的認知層面和行為層面。人民日報曾批評“馬保國現象”背后的助推者:“而對那些熱衷流量、推波助瀾的互聯網平臺,如果還有起碼的社會責任,就應該馬上停止再為這種‘丑行’‘鬧劇’提供傳播渠道。”
參考文獻:
[1]師文,陳昌鳳.馴化、人機傳播與算法善用:2019年智能媒體研究[J].新聞界,2020(1).
[2]阿明·格倫瓦爾德.技術倫理學手冊[M].易文波,譯.北京:社會科學文獻出版社,2017:223.
[3]許向東,王溪怡.智能傳播中算法偏見的成因、影響與對策[J].國際新聞界,2020(10).
課題來源:2021 年度河北省人力資源和社會保障研究課題《智能媒介時代的數字勞動研究》 課題編號JRS-2021-4006
作者簡介:
胡萬鵬,出生年月:1992-10-28,男,漢族,籍貫:河北衡水,所在院校:河北環境工程學院,職稱:講師?? 學位:新聞與傳播碩士,研究方向:新聞傳播理論與新媒體。
孟佳林,出生年月:1986-9-24,女,漢族,籍貫:吉林撫松,所在院校:河北環境工程學院,職稱:講師?? 學位:傳播學碩士,研究方向:會展經濟與管理。