沈 雪,李 欣
(1.倫敦大學學院人類學學院,英國倫敦;2.浙江傳媒學院新聞與傳播學院,浙江杭州310018)
互聯網、人工智能和大數據的勾連,顛覆了傳統新聞傳播業的業態、理念和規律,使新聞傳播業進入了嶄新的智媒時代,并大規模外溢到互聯網平臺。與此同時,霸權、隱私、偏見、不可控等倫理問題顯現出來,升級為智能技術與人類的關系問題,算法倫理成為傳播倫理討論中不能回避的環節。算法以技術的面貌出現,看似與倫理沒有關系,但事實上其各個步驟背后都映射著人類思想;在機器深度學習、遷移學習中還會出現超出人的意想,具備更大的決策能力,這些都暗示著算法具有權力。人工智能和大數據的倫理問題,很大部分演變為算法權力(power of algorithms)的產生、運用和效果問題,算法權力成為學術界研究的熱點話題。[1]
在Web of Science文獻庫中,以algorithm*、algorithmic power、power of algorithms、political of algorithm、algorithmic ethic為檢索條件,對新聞傳播學領域23種JCR一區SSCI期刊(Clarivate Analytics,2020)進行檢索(截至2021年8月18日),篩選后共有研究算法的學術論文273篇,較早出現的為2007年在JournalofComputer-MediatedCommunication發表的關于谷歌轟炸算法影響的研究論文,[2]其后幾年僅零星數篇出現,直到2015年以后大量論文出現,展開了關于算法的全面研究,并持續到當前。對算法權力展開專門討論的論文有26篇(部),較早出現的是2012年發表在InformationCommunication&Society的將研究視角從搜索引擎對社會的影響轉移到搜索引擎構建中涉及的社會實踐和權力關系的論文,[3]90%的相關論文集中在2016年以后發表。
在萬方文獻數據庫中,以“算法”“算法權力”“算法倫理”為檢索條件,對12種新聞學與傳播學CSSCI來源刊及擴展版(2021)進行檢索,篩選后涉及算法的學術論文共有332篇。較早出現的是2005年在《現代傳播》發表的關于搜索引擎搜索秩序算法的論文,[4]從2016年開始相關論文大量涌現,每年有60篇左右,對算法權力、倫理展開專門討論的論文有73篇。中國新媒體傳播學年會于2016年針對算法決定論提出有必要從算法倫理等方面展開研究。[5]此后,算法權力、倫理問題在我國成為研究熱點。
通過對上述研究文獻的綜合與分析,發現國內外對新聞傳播領域算法運用及其權力、特征、規律等研究在語境、方法、結果等方面不盡相同。國外對算法及其權力研究相對起步早,從一開始就以具體算法實踐為研究對象,進行實證研究,提出新的理論或理論化論證,如運用Purer的倫理多層責任體系研究自然語言生成的算法新聞;[6]研究智能手機記憶功能,提出算法部署概念;[7]研究策展算法,提出算法元資本概念[8]等等。采用這樣的研究范式是有客觀原因的,本輪新聞傳播領域的變革由構建在互聯網上的人工智能和大數據技術推動,該技術不像以前是以解決一個具體問題為主的硬件技術,規格指標固定,而是一項有復雜中間過程、可編程、有思想性的算法軟件,性能性狀可變可調,靠一般理性主義的推理演繹、邏輯判斷很可能誤判。
雖然在互聯網算法嵌入的服務決策階段開始,國內外研究的重點和演進幾乎是同步的,但國內研究主要側重在圍繞智媒時代重構技術,人與社會的關系,具體以傳播生態、傳播倫理和反制對策三條主線在實踐運用和理論探究上交織著向前發展。一是新傳播技術促使新聞傳播本體論和輿論生態發生深刻變化。新的傳播時空觀、人與技術的主客體界限、“人”的主體性、新生態機制、生態制衡力量、新聞新業態等成為研究重點;二是算法運用及其權力帶來的傳播倫理問題受到高度關注。數據主義形成、算法機制的邏輯及價值、傳播場景的空間正義、算法社會能見度、數字勞動、非真實與低透明度、偏見與極化等研究逐步達成共識;三是算法倫理規制和平臺媒體治理及其歸責凸顯為膠著問題。對算法治理、法律與技術雙重保護、算法倫理素養培養、國家主導制、平臺媒體責任、技術與用戶的倫理責任主體等話語開展多維度研究。[9][10]同時,在這幾個方向上,國內外都主要分兩個觀點展開:一是試圖證明一種不透明且難以控制的算法力量是如何違反道德價值觀并損害用戶的自主性;二是強調這種權力可能存在系統性,算法可能作為更廣泛的理性和看待世界方式的一部分被喚起。[11]這兩個觀點表面上看幾乎相反,其實質是從不同視角審視和揭示算法傳播和權力與人、社會的關系,以豐實算法傳播的研究,為優化治理提供不同依據。
然而,研究中內卷化問題依然存在,跨學科研究成果亮點不多,[9]特別在算法倫理規制和治理實證研究上還有不少空間。如趙瑜指出傳播學界需要更為細膩的技術問題邏輯描述,尤其是人工智能技術到底在哪些環節、哪些層面影響新聞倫理。[12]本文從國內外算法權力的傳播倫理視角出發,聚焦算法權力對媒介生態的改變,集中表現在對擬態環境的多模態式異化和對用戶的霸權及過度動員能力。通過結合算法權力傳播倫理的隱憂表現企圖凝練出算法權力的治理方案,提出算法權力的現實化、生態化規制策略,促使算法傳播和算法權力回歸科技向善、人文主義和生態平衡。
李普曼提出人們對客觀世界形成的特定傾向性圖景很大程度上受到新聞傳播業所構造的擬態環境(pseudo-environment)的影響。構架在內嵌算法互聯網上的新聞傳播業存在特征統計、數據過濾、挖掘提取、推理尋優等方法,以及深度學習中的卷積神經網絡等仿生算法,實現了機器寫作、精準分發、特征挖掘、信息過濾、自適應、矩陣排序等超人工功能,形塑了一個多變、失控和被綁架的多模態擬態環境。
1.算法重塑人們對世界的感知
擬態環境的多樣性正在形成,這與智能媒體、聚合類信息和社交平臺中算法的信息聚合與實時生產能力不無關系,“算法安置”正參與塑造人們與世界的接觸及其對世界的感知。[7]傳統的新聞專業生產已被算法生成“(AAC)+PGC+UGC”三者替代,人類對不知疲憊的AAC生產能力望塵莫及,美聯社每季度產出約300篇人工財經新聞,而算法機器人每季度可產出4400篇。算法幾乎涵蓋所有形式的文稿,包括生產結構化稿件與撰寫快訊快評、深度報道等。[13]算法更是彌散信息的聚合者,收集、聚合和處理海量內容與即時傳播,塑造不同對象、來源、角度的擬態環境。首先,從傳播者的角度來看,算法生成新聞拓寬了新聞發布的來源,使新聞發布不局限于新聞記者的工作。其次,從傳播內容的角度來看,由于算法的介入,拓展了信息生產中的信息來源,使豐富、海量、形態多樣的數據都成為新聞生產的原始材料,信息傳播的內容視角也更為多元。再者,從信息接受的受眾來看,由于算法技術帶來的精準化推薦,受眾獲取信息的主動性不再唯一,精準推送到受眾眼前成為信息傳播的新方式,受眾從主動接收到“被動喂養”,新受眾和邊緣受眾都可以成為輿論場中的一分子。因此,傳播來源、內容角度、受眾對象的豐富多樣,為構建多變的擬態環境提供了溫床。此外,算法實時性和敏捷性實現了新聞的時效性原則,寫稿速度最快可達到毫秒級。Facebook的“即時文匯”內容加載速度比普通網站頁面快10倍。[14]算法的信息聚合性和實時性為人類社會構建了一個多變的擬態環境,改變了媒體的公共性邏輯,算法成為信息的把關人。擬態環境的多變,進一步使得輿論場失去導向性和媒介生態的失衡。在一個媒體和代碼無處不在的社會,權力越來越存在于算法之中。[15]
2.被綁架的擬態環境
《今日頭條》的“推薦你喜歡的內容”,《紐約時報》驚呼“頭條已不重要”,兩者表達了相同的意思——“傳統意義上的頭條已死”,個性化信息定制時代已到來。[3]這其中,算法的精準匹配和模型自適應奠定了技術基礎。
傳統媒體“一點對多點”的“內容為王”單維線性生產模式已被算法解構。算法通過處理海量數據,可建立內容特征、“用戶畫像”、場景關照三者相關聯的多維立體結構。新聞客戶端“一點資訊”的創始人坦言:“比閱讀重要的是閱讀者的行為”,“你在看手機時,手機也在看著你”,算法正在悄然收集著用戶行為和場景數據,[11]通過特征提取的內容匹配實現精準分發,建立了一個“懂你”的擬態環境。各種不同目的的計算模型使算法具有超強適應能力,實現內容生產個體化、對象化,用戶黏性、滲透力實現突破性提高,形成全新的議程動態設置。[4]顯然,議程設置權力發生了質變,最終用戶通過算法的幫助成為核心的議程要素。[16]然而,算法推薦強調的是技術的強勢地位,個性化內容推薦違反了現實環境的客觀性,看似為用戶定制了一個“懂你”的擬態環境,其實也是一種“被綁架”的擬態環境,用戶被擬態環境進一步“綁架”,人的主體性也進一步消解。缺乏主體性的用戶仿佛置身于圓形監獄陷阱中,算法權力以一種全方位的監視器和跟蹤儀的方法,收集用戶的行為習慣,用戶沉迷于“精神鴉片”和“安慰奶嘴”帶來的滿足感當中,失去了批判性和抵抗力,形成了“單向度的人”。算法權力帶來的“個性化”或許是一種“偽個性化”,其本質是限制人的自由度。
3.失控的擬態環境
Web2.0的興起,社交平臺成為人們交流、傳播的重要渠道,內嵌在社交平臺中的算法賦予個體同等價值權重,平等分享傳播的互動權力,在用戶交互激蕩下形成了一個失控的擬態環境。
傳統媒體的議程設置、信息把關、傳播渠道固化,受眾在很大程度上是內容的“解碼”者,“知識鴻溝”導致受眾狹窄,無法逃脫“木偶”這一角色。[17]相反,算法的權力范式使用戶被平等地賦予了媒體主角的身份,并賦能和賦權,感應社會不再是“有文化”人的專利,通過協同和內容過濾算法,每個人都能搭建興趣角與加入社交群落,構建傳播平等。一篇文章被閱讀、點評、轉發、排序,它的影響力才能真正得到體現。[13]社交平臺在算法支持下驅動群體從互動走向合意,算法助長了內容交互、信息挖掘,更助長了觀點深化、群體合意,形成傳播的高階性,借助高階的擬態環境,有了干預事件進程、影響他人行為甚至制造事件的能力,[15]同時也會使傳播內容為迎合市場口味而失去其導向性,造成擬態環境的失控,傳播權力結構和能力發生了重大變化。失控的擬態環境可以為別有企圖的利益團體提供影響現實環境的機會和平臺,通過雇傭網絡推手、鍵盤水軍、非正規網絡公關公司等手段,來達成其操控權力和非合理盈利的意圖。近年來,有償刪帖案件頻發,造成刪除一個負面關鍵詞的價格高達數萬元的收費亂象。部分利益團體通過非法刪帖發帖業務,制造和放大負面網絡輿論,營造了一個失控的擬態環境場,嚴重損害國家形象和網絡信息安全,影響網友的認知、態度及其行為。
算法在新聞生產和傳播機制中起到顛覆性作用,成為邏輯和規則的“代言人”,社會正在見證算法的權力。[17]權力有兩面性,新的權力結構,構建新的正反面。算法可以促進客觀性的觀點,但大量使用時也和治理相關。新形式的權力產生什么作用并如何產生,這是一個迫切需要關注的問題。[13]
1.算法權力的用戶霸權
算法權力具有網絡化和彌散性,以至于“無法與生活本身區分開來”。算法權力的這一特性導致了用戶個體既是權力的持有者,又是權力的承受者。[12]群體性、外溢性、自發性的“用戶霸權”導致了用戶的表達任意。Web2.0協作下,“用戶霸權”體現在用戶表達的任意和外溢。算法把關機制的智能性無法覆蓋意識形態、公序良俗、藝術鑒賞等人類思想。用戶能突破定位于技術的算法把關而體現表達任意,言論者的結構化失衡更加劇了表達的失衡。微博、微信等社交圈表面為圈內行為,但圈與圈的重疊導致裂變式傳播,能在短時間內形成超級輿論場,言論通過社交圈外溢,影響輿論的客觀性,帶來輿論的誤解誤讀,甚至社交平臺可以影響總統大選。[18]
2.算法權力的過度動員能力
在Twitter上,任何人的話都很容易被放大。[19]協同算法權力實現的推薦排名、偏見爭議、評論拉踩等高階行為,導致過度動員,裹挾地進入后真相時代(post-truth)。傳播的話語研究聚焦傳遞、控制、權力等,其主要成分為動員話語。失衡、偏頗的傳播,產生過度動員,造成群體極化。粉絲們集體無意識地進入群體偏激、群體極化,這與算法權力的過度動員能力密切相關。情緒分化的置頂排序、定向分發、評論點贊等正反饋機制反向造成了過度的號召力、組織力,算法做出的判斷可能會產生強大的后果,導致傳播系統失穩和失控。算法權力的過度動員能力將真實與否降低到次要位置,當真相和假象同時呈現,假象并不一定被擊碎,有時還會在傳播中占據優勢,[20]因為在真相傳播開始之前就有了情緒和立場,能產生比真相更大的輿論場。社交媒體帶來的信息危機,[21]使新聞專業主義漸行漸遠。后真相時代的出現,動搖了人們追求真相的信心。
3.算法權力的數字霸權
人們對信息的主導權被“讓渡”給了算法。[22]換一個角度看,算法權力是一種數字的霸權。數字霸權易產生壟斷性和缺乏透明度,憑一己之力改變議程,產生用戶畫像的機械性。一種不透明且壟斷的算法力量是容易違反道德價值觀并損害用戶的自主性的。臉譜網以“商業機密”為由拒絕公開某些算法機制,缺乏透明度,使之可靠性受到威脅。[14]算法權力的數字霸權在于程序員、平臺改變若干參數即可產生重大影響,而公眾很難解碼其中的程序設置。Rodis研究了男性算法研制者對有色人種、亞洲女性歧視推特的影響關系,[19]以此證明數字化的算法權力可以被輕易挪用。同時,基于單一算法識別的方式易對用戶產生模糊化、簡單化定位,容易把用戶一次性、偶然性的表面行為解讀為用戶真實的、深層的興趣和心理需求,[22]由此造成用戶畫像的數字馬賽克,呈現出數字定性的機械性和片面性,形成數字霸權。同時,數據權利的財產權屬性,包括個人隱私權歸屬、行使限制權等問題,[23]引起公眾擔憂。
新媒體倚重的算法權力如此重要是因為其影響擬態環境的構建。社交平臺是在不同垂直領域的算法積極推動者,[24]聚合類平臺是算法的主體行動者,他們憑借其互聯網的核心節點地位和大數據資源成為算法權力的掌控者,構建起平臺所有者和用戶、算法之間的相互依賴關系,[25]資本化、平臺化和非專業化是算法權力的特質。因此,算法權力掌控者和算法權力需要規范與治理。但整體來看,目前對這一問題的探討還遠遠不夠深入。[26]
算法權力規制的現實化。算法權力為主構建的擬態環境大多以網上虛擬社會的形態出現,虛擬社會的實踐發展有時超越了當下認知,出現了認知困惑和治理真空,產生了一些社會問題。但從人類本體和人類社會治理的原理看,不管是虛擬社會還是真實社會,其基本準則相通相同,人類社會長期發展積累的治理理念、規律和方法是虛擬社會和真實社會共同的財富,“網絡空間不是法外之地”,對社交媒體的治理策略應該摒棄基于“國家—社交媒體”的二元框架。[27]因此,對算法權力掌控者和算法權力的規制應以遵循真實社會基本準則為根本原則,即規制的現實化。依循現實基本準則,可研制發言實名制、圍觀可視制、身份溯源制、算法公示制、數據檔案制等和真實社會治理同理的規則和制度。不少學者進行了這方面的研究,如新聞實踐重歸人工影響模式[28]、法律介人改善算法傳播公平性[29]、采用回溯機制查驗事實[30]、算法的生產性資源數據的收集和使用進行合理限制[31],以及算法抵消算法機制[32]等等。算法權力規制的現實化原則有利于撥開云霧消解虛擬社會的多種不正常行為,確保算法權力揚長避短。

圖1 新媒體生態聯結關系圖
算法權力規制的生態化。智媒系統是一個新的生態系統,不同于傳統媒體的單一線性關系,而是網狀地聯結著核心價值觀、平臺、傳統媒體、市場(市場秩序)、技術、用戶(社會群體)等眾多要素,互相之間具有方向、大小的影響關系,新媒體生態聯結關系(忽略一些弱影響關系)如圖1所示。從圖中可以看出:代表意識形態、政府治理的核心價值觀和代表人工智能、大數據的技術為系統的輸入者;代表新媒體主要掌控者的平臺媒介為核心節點,并有其明確的輸入、輸出通道;平臺媒介的影響方式主要通過算法。從生態系統的控制論出發,調節系統的輸入和輸出環節,可以改變生態主體;同時,生態性要求系統維持一定的平衡和可持續,不能過度和偏激。通過調節輸入可對算法掌控者進行規制,改變輸出可對算法權力產生過濾作用。通過改善市場規則、算法過濾等生態系統輸入輸出對平臺的資本化、平臺化和非專業化特質產生規范與控制,形成生態化引導和治理,實現平臺特質的抑揚。趙瑜詳細分析了人工智能時代新聞倫理的道德行動者:政府、媒體、公眾、新增新聞倫理行動者等的倫理行為,提出了調控對策。[33]輸出通道是算法權力發揮作用的路徑,是隱憂產生的主要環節,是算法權力規制的主陣地。算法權力通過市場規則至用戶(社會群體)或直接至用戶(社會群體),進而影響社會的核心價值觀。因此,應面向用戶和市場兩個維度展開算法權力的理論和實踐研究,厘清算法權力的利弊兩面,形成針對性的規制,建立市場規則和用戶群體生態圈,建設生態良好、符合人民利益的媒體環境。
在算法技術的推動下,以平臺媒體為頭部的智能媒體以顛覆傳統媒體的態勢橫空出世,智能媒體建立了更豐富、更實時、更多樣的擬態環境。同時,算法倫理成為智能媒體的隱憂共識,議程把關人改變,新聞專業主義退化,形成用戶霸權、群體極化、數字馬賽克、隱私經營等倫理拷問。很多學者提出了治理策略,推動了算法倫理的傳播話語研究。但總體上,智能媒體的實踐發展走在了理論研究和治理認識的前面,理論解釋和政策資政以亦步亦趨跟隨實踐發展為主,引領智媒發展的理論體系研究還有很多空間,主動抑揚算法權力的對策供給也有很多空白,亟待學界作出回答。
在國內外眾多學者研究基礎上,基于本輪媒體革命為技術推動引起的判斷,本文提出算法權力規制的現實化和生態化。從人類本體價值觀和社會治理的同理出發,剝去算法權力的技術外衣,回歸科技向善本源和人文主義傳統;以系統、生態的觀點和思路,沿著輸入、輸出通道,聚焦生態性,構建治理邏輯。由于智能媒體的產生和發展有多學科綜合和全球共同面臨的特點,未來更多應在新聞傳播本體、信息科學、社會學等多學科協同和國際融通方面加強研究和實踐,形成系統化的智能媒體理論研究體系和治理方案。