□ 向子旭
大數據時代,信息量快速增加,但海量內容不可能被受眾全部接收,因此把一部分信息選擇的權力讓渡給算法,使用機器和算法來識別和匹配內容,滿足用戶需求的信息分發方式逐漸成為一種新的傳播形態。學者方師師指出,算法的介入在一定程度上解決了海量的社會化信息與個人終端信息需求之間的“信息傳播效率”問題。
2017年,人民網針對今日頭條的算法推薦發表三篇評論:“不能讓算法決定內容”“別被算法困在‘信息繭房’”“警惕算法走向穿心的反面”。這一系列評論引發了學界和業界對于算法推薦的討論。
學者方師師認為,算法推薦是指網站平臺通過算法模型將用戶信息數據與內容信息數據進行匹配,實現內容高效聚合、精準分發的一種手段。現已廣泛運用在新聞客戶端、即時通訊工具、論壇社區、音視頻、直播等各類網站平臺。算法推薦作為一種越來越主流的信息分發方式,在提高內容分發效率、產生群體智慧、延伸專業主義理念等方面發揮了重要作用。
推薦內容個性化,提高內容分發效率。信息爆炸時代,我們不得不面對信息過載的問題,用戶常用的人工搜索遭受到阻力,在海量的信息面前感到無所適從。算法推薦技術顛覆用戶被動接受信息的傳統,讓內容生產者從用戶需求出發,“三微一端”“淘寶網”“知乎”“抖音”等平臺通過算法推薦技術,識別用戶的終端設備,計算用戶的過濾選擇行為,結合大數據呈現的用戶畫像和社交關系圖譜,為用戶匹配可能與興趣點相關聯的內容。比如搜索引擎的頁面答案排序,這是算法交給人們的答案,其對信息進行分類和先后排序,將重要信息前置,把次要內容后置,屏蔽不符合要求的信息,降低用戶接受不利信息的概率,節省時間成本,滿足用戶的個性化信息需求。
促進群體互動,實現“群體智慧”。一方面,算法推薦技術使具有相同特征和興趣的人更好地互動,公眾意見在碰撞、博弈和交融中向理性、正確的方向發展,促進公民在社會中的成長和發展,群體互動創造的力量帶來豐富的信息和知識,如同“維基百科”的協同模式,個體間的互補產生群體智慧,多元的認識視角和觀點聚合為遠超于個體智慧的強大能量。另一方面,群體互動的行為有助于增強個體的社會責任感,公民貢獻個體智慧又促進社會的整體發展。
推送相關信息,提高個體的專業性。專業主義是一種非常重要的職業價值和專業倫理。算法推薦技術和人工審核機制一樣,有著自己的專業標準和專業態度,它會基于用戶搜索過的信息領域,把所有可能相關、有價值的內容,毫無保留地、盡責地推送到用戶面前,使個體在某個專業領域可以掌握更多的知識,挖掘、領悟地更加全面和深入。算法推薦技術讓用戶在一個領域盡可能多地獲取有價值的信息,有利于提高個體在某方面的專業性。
算法推薦技術具有篩選、推送信息和記錄、存儲個人數據的特殊權力,但在算法掌權之后,其動機和執行結果并不都是“向善”的,也有著諸多的陷阱和漏洞,會對受眾、信息環境產生負面影響。
“數字圓形監獄”和個人信息泄露的風險。個性化信息資源的匹配在某種程度上節省了用戶的金錢代價、時間代價和精力代價,為用戶帶來許多便利,但不少平臺也借此掌握用戶的個人信息形成龐大的數據庫。當用戶被置于“數字化生存”的時代環境下,只要接觸互聯網和移動設備,后臺已經設定完成的算法就可以通過設備收集我們的實時數據,定位用戶所處的時間、空間及行為,了解用戶的狀態與需求、社交氛圍、生活習慣等。如果平臺在用戶不知情的情況下,將數據出售用于盈利或其他目的,無疑會給用戶和社會帶來不小的信息安全困擾和隱患。比如2018年的“Facebook泄密門”事件,用戶數據被劍橋分析公司利用信息操控和平臺偏向影響部分選民態度,直接影響大選結果。如果用戶溺于數字化網絡,被算法支配和統治,那個人自由、隱私安全和社會秩序將受到嚴重沖擊,因此在算法推動社會發展的背景下,保護個人信息安全的保護也需要被重視和采取必要措施。
陷入“信息繭房”和“回聲室效應”的桎梏。用戶被裹挾在基于自身屬性、瀏覽記錄、興趣、社交關系的“過濾氣泡”中,對相左意見不再關注和反思,對客觀世界的敏感性降低,個體在封閉的信息環境中固守符合自己信息和意見的圈子里,難以突破自身局限,陷入“回聲室效應”。比如今日頭條的個性化內容服務,本質上就是構建“信息繭房”,相對于交流觀點,接受信息才是頭條用戶的主要行為。此外,算法介入政治,多元化信息在算法設計過程中被篩除,以政治為目的的算法傳播通常提供與選民立場相符的信息,支持和反對的觀念涇渭分明,這很有可能塑造網民的政治偏執型人格。單一的算法推薦很可能讓人們變成“井底之蛙”,失去對環境的完整判斷。
死板的算法程序給用戶造成困擾。第一,信息的過度適配實際上是機器不斷修正偏差,使“讀懂用戶”的效果最優化,但這種“讀懂”不具有變通性。比如淘寶網頁上“推薦”板塊,根據用戶搜索過的關鍵字推薦商品,卻難以預測用戶不斷改變的喜好和需求,如果是用戶誤點和隨意瀏覽,那這種“死板”的機器思維反而會讓用戶與目標商品相距甚遠。第二,算法嚴格遵守人為設定的程序,難以像人腦一樣視情況靈活應對。比如抖音等短視頻后臺設置的內容審核系統,凡上傳內容中涉及敏感、違規內容,一律刪除或不通過,但算法往往只以個別參數為評判依據,在考慮整體內容的合理性和合法性上有所缺失,所以部分內容生產者通過使用同義詞或特殊符號避開審核,造成了含有低俗、暴力內容的視頻仍在平臺上流動甚至成為爆款的后果。
弱化用戶的主動性和自主性。美國傳播學學者施拉姆曾經提出過一個“選擇的或然率公式”,該公式表明在復雜的信息環境里,人們更傾向于用較少成本的方式來接收信息。用戶的懶是本性,是常態,而且還有很強的慣性,我們需要警惕——持續地依賴算法推薦技術是否會弱化個人主動選擇信息能力和自主判斷決策能力。比如,人們依賴手機導航,是否會弱化認路的能力;我們習慣于APP推送新聞,是否會沉溺于擬態環境;我們總是被動地接收信息,是否會失去快速搜集信息的檢索能力……這些都有可能弱化用戶的主動性和自主性,不利于個人的發展。
算法推薦技術能夠幫助解決信息過載與個人信息需求之間的“信息傳播效率”問題,但也要認識到算法推薦技術本身存在的缺陷。解決算法帶來的問題需要多方努力,第一,信息分發平臺要建立科學合理的算法推薦模型,不僅關注信息內容來源、自媒體信用等客觀要素,還要注意用戶瀏覽歷史、社交圈、評論量等主觀要素,避免機器算法和個人興趣的“雙重過濾”,承擔起一定社會責任,不持“流量至上”的態度,滿足受眾對于客觀世界的信息需求;第二,平衡好人工把關和機器審核的關系,使用新技術并不意味著人工推送和內容審核的全面退出,二者要相互協作,形成互補,更好地為用戶描繪現實世界的圖景;第三,受眾應提高媒介素養,不僅要有意識地接收多元化的信息,抵制過度娛樂化的內容,還要提高對各種媒介信息的解讀批判能力;第四,每個人都應認識到:在技術與人的博弈之中,人始終是占據主導地位的,因為對于媒體呈現的圖景的解讀,終究還是建立在人的判斷、分析能力上,要扭轉“強技術”與“弱公民”的不平衡,根本上是要突出人在技術社會革新中的主動和能動作用,堅守人的價值。只有多方協作,才能使技術真正服務于人。