李云蔚 李毓欣 梁譯丹 程柯妮 蔡思翔
(中央民族大學,北京 100081)
由于互聯網時代的到來,數據呈現出生產、累計、規模不斷擴大的正指數增長的趨勢。近年來,物聯網、云計算等相關技術不斷發展,展開了一場社會領域的數據革命,這場革命帶領著人們進入了大數據時代。時至今日,數據已然成為一種滲透到各行各業中的重要生產資源。
在互聯網用戶數量呈現指數飛增的背景下,以用戶為中心的信息生產模式造成了互聯網信息的爆炸式增長,因此“信息過載”問題日趨嚴重,算法推薦機制就是解決“信息過載”的一大途徑。機器越來越懂人類,人們關注的信息領域會習慣性地被機器分析得出的“興趣”所引導,進而產生信息繭房效應。信息繭房正逐步使人們更加容易被圈層化,難以接觸到多面性的信息。社交平臺過度收集用戶信息,也使用戶引發心理上的不安與困惑,甚至引發社會信源危機。
當今互動視頻平臺非常流行,成為青年社交、生活的常用軟件,為提高效率、吸引用戶,平臺的算法機制也十分普遍,因此研究算法推薦導致的信息繭房機制及其影響非常重要。[1]在算法數據的獲取與使用維度上,技術開發方、App運營方不能成為各自為戰的“數據孤島”,只求技術更迭,忽略信息繭房的風險,同時平臺也應考慮個體被剝奪信息選擇權的維度,兼顧到網絡信息時代下對用戶的信息引導。由此可見,現階段的算法推薦機制已被視為影響公民網絡健康安全的威脅,其導致的信息繭房效應更是成為禁錮人們思維、危害身心健康的利器,意識到信息繭房帶來的影響刻不容緩。
20世紀90年代,美國學者尼葛洛龐帝(1995)在他的《數字化生存》一書里預言了數字化時代個性化信息服務的可能,并將之命名為“我的日報”(The Daily Me),信息繭房的思想初具雛形。2006年,美國學者Sunstein(2008)在《信息烏托邦——眾人如何生產知識》一書中開創性地提出了信息繭房的概念,信息繭房意味著我們只聽我們選擇和愉悅我們的東西。[2]在更早出版的《網絡共和國》一書中,桑斯坦也表達了對科技力量帶來的消費者過濾所讀所看所聽的越來越強大力量的擔心與反思,由此學術界開啟了“信息繭房”效應的研究。
國內有關信息繭房的相關研究源于2009年,國內學者程士安、沈恩紹(2009)從科技進步與傳播規律演進的視角,結合數字化時代的信息聚合與信息繭房效應現象,對組織傳播學的相關理論進行解釋與重構[3];喻國明(2016)發表《“信息繭房”禁錮了我們的雙眼》,開啟了國內對信息繭房負面效應的研究。[4]后來另一研究者提出的“過濾氣泡”這一概念更是直接強調了信息過濾對用戶的影響。
雖然目前研究者對信息繭房的定義仍沒有達成共識,但基本上人們提到信息繭房時,都會涉及信息偏食導致的視野局限,以及由此對觀念、態度與決定等的影響。本文也是基于這樣的理解來研究信息繭房現象。
當前學界主要聚焦于討論信息繭房的負面影響。王慧芳(2018)認為信息繭房對大學生產生信息接收不平衡、碎片化閱讀和群體極化現象加劇等負面影響[5];朱春陽(2018)闡述了信息繭房對受眾信息接觸與群體意識的負面作用[6];吳霞(2019)基于今日頭條App指出了信息繭房導致受眾信息窄化的可能。[7]綜上所述,本研究將對信息繭房所引發的社會效應進行描述,試圖為信息繭房的社會層面影響提供一個更加全面、完整的分析框架。
本節內容將以用戶為主體視角,探究信息繭房效應帶來的社會影響。
3.1.1 減少信息超載負荷
卡斯特(2001)將20世紀90年代以來全球新經濟的興起歸因于網絡信息技術和全球化的發展。[8]電子行業的高生產力引發了數據爆炸式增長,而個體在應對海量信息時難以從中高效篩選出個人偏好的目標內容。算法推薦通過篩選、適配等技術,為個體打造了個性化的先進服務活動空間,針對消費者需求進行內容快速匹配。據訪談中一名大學生說,緊湊的課程安排讓自己在休息間隙時更加渴望看到感興趣的內容:“我在課間休息時間會點開bilibili網站(簡稱B站)放松一下,個性化推薦機制讓我能快速看到自己想看的視頻。如果沒有推薦功能的話很可能整個課間都被浪費在翻找內容上了。”
在由推薦視頻所構成的服務空間中,用戶與UP主實現了信息傳播鏈上的連接。UP主發布的視頻被精準推送給特定用戶群,個體找到了偏好內容的信息源。信息繭房效應一定程度上減少了個體篩選信息的壓力、提高用戶的平臺黏性、讓個體能夠被偏好內容包圍,實現平臺內容的高效投遞。
3.1.2 聯想思維弱化與創造力降低
信息繭房效應對個體所產生的最直接的影響就是用戶思維方式的改變。用戶在點開視頻后可以直觀地發現視頻關鍵詞下方的相關推薦,這些推薦幾乎都是在內容、創作者、主題等層面與用戶點開的界面有相似性的視頻。14/15的受訪者表示在點開首頁視頻之后會注意到關鍵詞下方的相關推薦,并且多數時候會被吸引。同樣地,推薦視頻的關鍵詞下方也有與該視頻在某些方面具有相關性的另一些推薦視頻,而它們不一定與用戶最初打開的視頻有相似性。
綜上所述,B站的視頻下方推薦內容是基于用戶協同過濾和內容協同過濾的雙重機制而產生的,用戶在一個接一個地打開算法推薦視頻的過程中逐漸偏離了自己最初感興趣的內容。這一過程對企業而言是作為增加用戶使用時間的盈利方式,然而對用戶而言,會在一定程度上損傷個人的聯想思維能力和創造力。有學者提到,算法推薦使用戶被動接收推薦頁的相關內容,從而逐漸降低了他們主動在搜索框中尋找更多相似信息的頻率,不利于大腦聯想思維能力的培養。此外,該學者還表示,創造力與相關性之間最顯著的區別在于聯想事物的方式:創造力來源于高度異質性事物的拼接,而相關性來源于相似事物的順序排列。若用戶習慣于在鏈條式相關的推薦鏈接中完成對某一信息的擴展了解,個人的創造力將會受到極大程度的抑制(帕里澤,2020)。[9]
一位UP主受訪者對上述觀點表示認同,盡管在6年的B站使用經歷中他并沒有明顯感覺到自己創造力的弱化,但他認為,在他構思視頻主題時算法推薦的確會對尋找靈感時的發散性思維有一定限制作用。受訪者用自身感受說明了算法推薦如何吸引用戶停留在平臺頁面,以及算法推薦引發的信息繭房效應對發散性思維的限制作用。不過,當下還沒有學者專門針對算法推薦程度與用戶聯想思維能力和創造力下降之間的關聯性進行量化實證研究,盡管伊萊·帕里澤(Eli Pariser)的觀點得到了部分受訪者的認同,但此結論仍有待后續實證研究數據檢驗。
3.1.3 隱私悖論現象的產生
信息繭房效應在大腦思維模式等生理層面給用戶帶來了一定程度的影響,與此同時,在人際互動、自我暴露、公民權利等社會互動與社會意識層面,該效應也在用戶群體中引發了隱私悖論的現象。
“隱私悖論”是指個體對隱私保護的認知與實際生活中對此采取的行動之間的矛盾,即用戶意識到隱私保護的重要性且具有較高的隱私擔憂水平,卻在使用網絡的過程中不斷采取暴露個人隱私的行為(徐敬宏,侯偉鵬,程雪梅等,2018)。[10]
在調查過程中研究者發現,大部分受訪者都具有一定的隱私保護意識,表現為生日的設置日期與真實生日不同、ID名稱與本名之間沒有明顯關聯等。其中,用戶的受教育程度越高,對隱私保護的認知水平越高。例如,幾位受教育水平為本科及以上的受訪者都明確指出了對平臺數據的保密安全度以及個人隱私權利的保障程度表示擔憂,對個人數據在平臺中的流向持懷疑態度。
然而研究者還發現,在隱私保護的實際行動層面,用戶對平臺的黏性越高,隱私披露的可能性越大、隱私披露程度越高。學界目前將隱私悖論現象的成因歸納為需求滿足、人際互動需要、自我印象管理等(Paul Haridakis&Gary Hanson,2009[11]; Jeffries&Szarek,2010[12];Bargh,Mckenna&Fitzsimons,2002[13])。大部分B站用戶受訪者將自己的隱私披露行為歸因于滿足觀看體驗的需求。
與非UP主用戶不同,對UP主用戶而言,在B站的隱私披露行為,如穿搭博主標記身高體重,可能是為了管理粉絲對于賬號的印象,也可能是為了增加視頻內容的豐富度,便于算法推薦將視頻精準推廣給潛在粉絲。
總而言之,B站大多數用戶和UP主都對個人隱私保護具有一定的認知水平,但在行動層面上,為了滿足觀看體驗的需求,用戶可能會允許平臺記錄并分析自己的使用習慣。而一些UP主可能出于自我印象管理和豐富視頻內容的目的允許自己在一定程度上的個人信息暴露。
3.2.1 個性化推薦內容市場的擴充
喻國明等(2018)認為,信息的生產和流動將市場分為共性需求市場、分眾化需求市場以及個性化需求市場。傳統媒體和官方機構的平臺賬號作為共性需求市場的主要生產者,為用戶提供整體性內容。而算法推薦技術則將零散、海量的自媒體生產方進行整理與統合,將內容與用戶進行匹配,建立為用戶量身打造的個體性內容市場。[14]
信息繭房效應為個性化內容市場提供了精準分發的環境,在多維化市場中擴充了消費的先進服務活動空間,實現了用戶的產品體驗優化和商品購買的信息適配。
3.2.2 網絡公共空間中的凝聚力建構困境
“公共空間”的概念意為獨立于國家政治權力與私人空間之外的社會空間(常晉芳,2013[15])。B站作為一個允許使用化名身份注冊賬號的網絡公共空間,使用戶能夠以匿名形式在平臺觀看視頻、點贊、投幣,以及與其他用戶互動,這在一定程度上增加了視頻留言區和彈幕中出現非理性、偏激觀點的可能性。這些態度較為極端的觀點在網絡公共空間得到認同者的支持,可在留言空間內形成集聚效應,造成認同者內部的群體極化現象。“群體極化”這一概念最早由美國學者Stoner(1961)提出,是指群體內的成員最初具有某一偏向,在互相之間討論過后使得這一偏向逐漸極端化的過程。[16]部分受訪者認為,信息繭房效應加重了群體極化的程度。算法推薦給用戶提供與他們的某種觀點一致的視頻,讓他們在信息繭房之中強化對該觀點的認同感,并對那些持相異觀點的其他用戶表示排斥,從而引發兩個群體之間的對立。
用戶受制于算法推薦的內容,大多數情況下只能接收到與自我偏好相符的視頻推送,由此強化了對原有觀點的認同程度,使用戶對持相同觀點的人群產生高度認同,同時對那些持相左觀點的其他用戶表示排斥。在信息繭房效應下,缺乏溝通與理解的不同群體之間難以就某事協商達成共識,導致群體極化程度加深、難以在社會范圍內構建穩定的凝聚力。研究者認為,此種情況不利于建設多元和諧的互聯網生態環境,同時會對維持社會穩定局面形成較大阻力。
3.2.3 網絡公共空間中的話語霸權現象
法國哲學家米歇爾·福柯(Foucault Michel,1972)曾就話語的意涵展開討論,他認為話語展現著社會中的權力關系,也再生產了支配與被支配的結構,這一觀點在網絡公共空間之中也得到了印證。據研究者觀察,在B站首頁排行前5名的熱門視頻中,平均有3個視頻的制作者身份為“百大”UP主;在全站排行榜前10個視頻的制作者中,約有7名UP主的粉絲數量超過100萬,且10名UP主的粉絲數量均在10萬以上。這體現出B站當前的話語權力的分配模式:粉絲數量越多的UP主,視頻熱度越高,所占有的話語權力也越大。
研究者發現,在視頻下方的推薦頁里,粉絲數量越高或播放量越高的視頻,越有可能出現在頁面前端位置。有12名受訪者表示自己在推薦頁里點擊視頻鏈接時,會更傾向于考慮那些排在頁面前端的視頻,而在其中自己更偏好播放量更高的內容,因為“大家都看的視頻,說明它做得很好、很有代表性啊”。
于是,播放量原本就很高的視頻,在算法的優先推薦下,不斷積累熱度,與那些制作者熱度較低、播放量較少的視頻逐漸拉開距離,使前者的影響力、傳播范圍、商業價值達到了讓后者無法企及的高度,令其制作者最終占有了網絡話語層面的霸權地位,并且信息繭房效應在一定程度上加速了這一權力結構的形成。這對B站UP主之間形成良性競爭環境以及視頻再生產質量而言將起到一定的負面作用。
2021年8月27 日,國家互聯網信息辦公室發布《互聯網信息服務算法推薦管理規定(征求意見稿)》(以下簡稱《意見稿》)并公開征求意見。國家主體在算法推薦的大背景下用法律來進行了各類算法推薦應用軟件的規定。研究者根據《意見稿》內容,對國家主體的立場和態度作出了法律法規制定、平臺監管與治理、社會輿論引導3個方面的探討。
4.1.1 法律法規制定
根據最近的政策規定,《互聯網信息服務算法推薦管理規定(征求意見稿)》已完成意見征集階段,于2022年3月1日起施行。官方報道指出,《互聯網信息服務算法推薦管理規定》(以下簡稱《規定》)出臺背景是基于兩大需要:深入推進互聯網信息服務算法綜合治理的需要,以及積極促進算法推薦服務規范健康發展的需要。國家及政府主體已然深刻意識到信息繭房背后的核心機制是算法推薦平臺,在法律法規制定時,主要是圍繞著算法服務規范來進行。在研究中,各個平臺的數據會存在一定的關聯性,因此在針對算法服務制定法規政策的同時,國家及政府主體還需要關注到用戶行為數據的安全性和私密性。
4.1.2 平臺監管與治理
由《規定》可知法律法規的實施根源是互聯網信息的算法備案,從而形成一套“備案—審核—實施—監管—治理”的運作模式,在算法執行之前便對其進行審核,能夠有效控制算法的使用。同時對已經在市場上使用的算法推薦模型,政府主體也應當對其跟進這套運作模式,實現算法推薦的復核,將相關涉及用戶權益的內容進行監管,如算法知情權、算法選擇權、多主體的算法治理。
4.1.3 社會輿論引導
《規定》的第十一條涉及了技術的非中立性:技術被人類利用與創造,在社會中運行,便必然會受到政治與經濟的干預。
在算法的作用下,負面信息在平臺的內容分發上被給予了遠超其在傳統媒體中內容分發的權重。Facebook為了提高用戶參與度,發現最好的參與方式便是向用戶灌輸恐懼和憎恨。在負面情緒的引導下,用戶會下意識地受到心理影響瀏覽更多相關信息,進而延長平臺的使用時間。對互聯網平臺而言,如果單純以商業利益為導向,其所采用的算法推薦必然會對負面信息的分發推波助瀾。再搭配“過濾氣泡”的作用,就會在某一群體內促成自我強化的偏見(self-reinforcing bias),并最終導致群體極化。這樣的干預對于國家主體而言會引起不穩定的社會治理因素,因此國家此時必須出臺一些法規來對此進行管理。
總體上來說,企業應優化算法推薦,捕捉用戶多元興趣點,提供用戶個人專屬“舒適圈”,提升用戶效益,但也應該意識到立足長遠,找到市場定位,具體措施如下。
4.2.1 算法推薦適當公開透明,提升用戶主動性
B站應當以顯著方式提示其用戶關于算法推薦服務的權益與當前情況,同時適度公開B站算法推薦的運行機制,提高信息透明度。此外,B站的推送應當不著重聚焦于用戶的個人特征,開發運行快捷的算法推薦關閉按鈕,讓用戶可以選擇、刪改用于算法推薦服務的用戶標簽,提升用戶對自身標簽的管理權。從功能設計的層面上提高用戶的主動性與選擇。
4.2.2 鼓勵多元向上信息的參與和擴散
B站需要提升算法推薦相關頁面的生態治理,完善人工過濾、干預不良信息機制,加強用戶自主選擇性,鼓勵多元向上信息的參與和不斷擴散。利用B站龐大的信息控制技術優勢,在繁雜的信息分配中著重強調“我應該知道”而非“我想知道”,加強不同社會群體間的交流,構建公共空間,凝聚社會共識。不定期審核、查驗、評定算法機制機理、模型、數據和應用結果的準確性和合理性,改良或是刪除誘導未成年用戶深度沉迷或者高額野蠻消費等不利于用戶身心健康的算法模型。
4.2.3 加強亂象監管
第一,B站應借助大數據和云計算的力量對即時監測到的廣大數據進行深度挖掘分析,降低風險與后患。第二,建立智能語料庫,囊括極端言論與敏感詞匯、人身攻擊語言等,通過技術手段監控、識別不同情境下的語意;追蹤最新熱點,掌握重大輿情和公眾焦點話題中用戶的不同派別觀點。第三,設定輿情預警功能,若是大數據判定某個熱點話題的轉發、分享、評論的次數達到一定的閾值,則立即設置風險提示窗口,研判輿情。第四,建立分眾化識別模式,識別各大網絡社區的信息接收與討論形式,甚至于極端言論的形成方式。合理回應不同群體的差異化多樣化訴求。在B站中設計簡便的投訴與舉報選項,完善用戶申訴的路徑,及時受理用戶意見并給出反饋,保障用戶合法權益。
4.3.1 調整心態,擺脫桎梏
算法推薦下的社會群體心態處于不斷調整、適應、分化、易變的動態過程中,引發一定程度上的群體極化,每一個B站用戶和小圈層群體都要從自身的現實條件出發,認識了解現有舒適圈是否成為信息繭房的回音室,主動跳脫出桎梏,最大化利用舒適圈的便捷,規避信息繭房效應的負面影響,合理評估自我目標,合理援引外界的評價標準,形成正確的對自己、對他人、對社會的期待。
4.3.2 提升網絡素養,保護個人信息
被紛繁復雜甚至意見相左的網絡評論包圍時,B站用戶必須時刻保持冷靜、理性的態度,提高在兼容異質人群和異質信息、意見等方面的素養,提高對算法風險的知覺意識與防范能力與對信息繭房的警惕與自省意識,提升自身的網絡信息鑒別能力與網絡媒介素養,樹立個人信息的保護意識。
4.3.3 及時合法維權
如用戶認為算法推薦服務提供者應用算法對其權益造成了重大影響,有權要求算法推薦服務提供者即B站平臺根據國家相關政策法規予以說明并采取相應改進或者補救措施,并追蹤監管。