許加彪 王軍峰
輿論作為一種人類社會的傳播現象,是多人合意的集合體。按照盧梭(Jean-Jacques Rousseau)的說法,眾意與公意之間經常有很大的差別,公意只是著眼于公共的利益,而眾意則是著眼于私人的利益,眾意只是個別意志的總和。①在現代傳播技術的史前時期,輿論以口口相傳或演講聚會的形式產生,譬如古希臘時期雅典公民在廣場上的演說,春秋時期鄭人聚在鄉村對公共事務的議論等。當現代傳播技術嵌入人類社會后,輿論就受到技術的形塑:印刷術使公眾輿論(pubic opinion)得以出現,廣播、電視則催生了大眾輿論(mass opinion)。隨著互聯網的普及,媒介賦權后的網民表達在網絡虛擬空間里洶涌澎湃,網絡水軍和社交機器人在特定利益團體的操縱下對特定議題推波助瀾。顯然,網絡輿論更接近于盧梭筆下的“眾意”,在特殊利益集團的操縱下更是變成了虛擬空間中一種“偽輿論”的呈現形態。
一般而言,輿論的形成是基于公眾對社會事實的一定認知和判斷。柏拉圖(Plato)在《理想國》中描述的洞穴寓言表明,囚徒依賴篝火之光看到的世界可能只是表象,這個困境成為人類認知的永恒悖論。傳統媒體時代輿論的主導權在主流媒體手中,而算法時代傳統主流媒體的輿論掌控權逐漸向操控社交平臺的算法程序轉移。在人工智能時代,一種新的輿論形態——算法輿論從虛擬空間涉入了現實空間。在新聞傳播中,作為解決問題的方案或程序的算法與網絡技術、大數據技術等融合,界定著現實的建構,深度影響著人們對世界的認知與態度,成為在社會知識生產、社會關系建構和社會結構維系中顯著或潛在的力量。作為一種全新的“機器讀心術”,算法對個人意見的型構、社會輿論的匯流和國際輿論的博弈的作用力超越以往任何媒介技術。算法如同洞穴寓言中的篝火,這束光對輿論的作用機制為何?算法的應用邊界在哪里?如何有效治理算法僭越導致的風險?換言之,如果算法推薦是洞穴寓言中的篝火,用戶是囚徒,那么,如何彌合眾意和公意之間的鴻溝?這些問題正是本文思考的方向。
輿論遠非自發形態的社會產物,網絡生態中有水軍、社交機器人、算法推送等機制催生網絡輿論。就算法輿論而言,既往研究多聚焦于算法偏見、算法權力、算法焦慮、社交(政治)機器人、人工智能等議題,指出了算法對輿論的可能影響。隋巖等認為,依托智能生成技術、算法推薦技術等生成和傳播的網絡敘事,實際上是一種形塑新話語權威的中介。②郭小平認為算法可能引發公共輿論風險。③胡月星指出算法影響公眾輿論導向把控,并指出其負面影響難以避免。④段鵬以算法權力為考察對象,強調網絡空間中公眾合意的形成與發酵受到算法權力的影響。⑤張洪忠等聚焦于政治機器人對社交媒體上輿論的干預和影響。⑥而師文和陳昌鳳則研究了Twitter平臺上社交機器人對涉華議題的干預。⑦上述研究從理論與實證層面為算法干預輿論的研究提供了必要的借鑒,本文將更深入地剖析算法背后的隱形機制對網絡輿論的影響,以及對這種由算法生成的偽輿論的有效治理等。
從輿論的構成要素而言,輿論的生成主體是公眾,輿論的客體是公共議題,輿論的本體是公共意見。算法顛覆了傳統輿論生成過程中“媒體—議題發布—公眾討論—意見融合—輿論生成”的基本邏輯,而是通過對輿論客體、輿論主體甚至輿論本體的直接動態控制和干預來制造輿論,因而算法輿論是人工智能時代個性化和智能化傳播的產物。算法輿論是基于可見性的內容呈現邏輯和智能適配的技術推薦邏輯而實現的,如果算法被特殊利益所操縱則算法輿論就成了偽輿論。
傳播學者丹尼爾·戴揚(Daniel Dayan)認為可見性是探討個體能否被他人看見,能否獲得他人注意力的權力問題。可見性是指能否被他人看見、能否獲得他人的注意力,當獲得的注意力達到了一定規模,即產生了可見性。⑧也有學者認為可見性具有“看見”和“獲得他人注意”的雙重含義,即除了“被他人看見,獲得他人注意力”外,還包括“看見他人”的權利。⑨由此,可見性是主體之間的交互,具有主體間性,而非一個主體對另一個主體的單向凝視。在算法平臺上,作為主體的人、作為客體的信息和作為本體的觀點相互激蕩交織,因而在“可見性”的層面上就具有了用戶交互可見性、信息交互可見性、意見交互可見性三種形式。
第一,作為輿論主體的用戶交互可見性。與傳統被看作是一個整體性概念且指向社會上大多數具有理性思考的概化人不同,算法時代的“公眾”被大數據和算法技術解析為具體的個性人,甚至社交機器人也可能成為意見表達和輿論參與的主體。作為整體性的“公眾”被作為個性化的“用戶”甚至虛擬的“機器人”所取代,而公眾那種捉摸不定的特質也被精準的用戶畫像所錨定。平臺空間為用戶增強自身的可見性提供了可能,但另一方面,用戶的可見性受制于平臺算法本身的運作邏輯,有時呈現出不可見性的特征,用戶搖擺于可見性與不可見性之間,或隱或顯,或沉或浮。就能否被他人看見而言,作為輿論主體的用戶多屬于沉默的大多數,偶有發聲和顯形,哪些用戶能夠被平臺賦權而授予其可見性,哪些用戶被平臺漠視而其可見性被弱化,這種平臺把關狀況就能影響到社會公眾的認知。就能否看見他人而言,表面上看是一種用戶主動選擇權的體現,但仍然有被算法裹挾的可能。比如,社交機器人賬戶作為一種新的“用戶”被創造出來充當“公眾”以混淆視聽,這些機器人還通過關注人類用戶、模仿人類用戶行為、轉發或者提及人類用戶發布的信息等方式以增強自身的可見性甚至是可信性。由此,算法通過對其可見性的控制而達到干預輿論的目的。
第二,作為輿論客體的信息交互可見性。算法作為一種新的中介化技術,掌控著信息的可見性。⑩信息的交互可見性包括作為傳播參與者的用戶發布的議題能否為他人所見,也包括一些其他公共議題能否為作為接收者的用戶所見。就前者而言,主要包括用戶發布的議題能否引發大量關注,而這也能夠通過算法程序進行前置干預,或者賦予其較大的權重而進入到其他用戶的推薦列表中,或者降低其權重而弱化其可見性。就后者而言,議題的可見性程度決定了用戶能否看到以及如何看到該議題,而算法強大的把關能力可以實現直接影響信息呈現概率、搜索排序和新聞熱度值。在人工智能時代,平臺算法對信息可見性的控制在很大程度上決定了用戶的注意力資源分配,而注意力資源分配成為引發輿論合意的必要前提。
第三,作為輿論本體的意見交互可見性。個體不同意見之間的激蕩、交鋒和辯解,求同存異、求真去虛,進而實現個體意見融合達到眾意或公意的形成。眾意輿論的母體不一定代表社會發展的進步方向,在沉默的螺旋機制作用下,其更容易被民粹主義或極端主義所綁架,為社會善治埋下禍根。在算法時代,公眾作為一個群體概念被還原為一個個獨立和異質的個體,這為算法直接參與“組織輿論”提供了某種技術上便捷的可能。如果算法通過對個體發布的意見的顯現和流向進行控制,某種意見的可見性程度就決定了社會關注的熱度,乃至決定最終能否形成社會意見的大合流。對那些不符合某些集團利益、不符合某些用戶立場的觀點,算法能夠實現自動化操縱、遮蔽,以壓制其聲音能量。當用戶無法感知真實的意見氣候時,由算法營造的虛假意見氣候就會影響用戶的判斷。其吊詭之處在于,算法的邏輯給不同觀點之間的正常交流加裝了一道防護墻,算法投其所好的推薦系統決定了用戶難以接觸到與其立場不一致的信息和觀點,所以所謂最終意見的合流多多少少帶有虛幻的色彩。
算法對輿論主體、客體和本體的“可見性”進行控制的過程是通過智能適配的技術邏輯實現的。智能適配強調基于用戶特定場景為特定的用戶匹配特定的議題和觀點,從而可能影響特定用戶的認知、態度和行為。在算法的世界中,輿論的主體、客體和本體都只是一串串或一行行冷冰冰的數據代碼或符號標簽,輿論的生成變成了基于輿論主體(用戶)數據對輿論客體(議題)和輿論本體(意見)的數據運算。通過對用戶自身網絡和社交平臺使用行為習慣的數據進行記錄、挖掘和分析,算法形成精準的用戶畫像,在確定用戶畫像的基礎上,針對不同用戶個體為其匹配其感興趣的議題或者推薦與其具有相同立場的觀點、意見等。
智能適配的迎合式信息和觀點推薦,很容易實現對用戶個體意見表達的潛在影響。在群體層面,由于算法推薦存在信息繭房效應,用戶的觀點也可能被繭房化,其觀點之間的互動缺少了不同立場之間的理性對話,而多了一些基于共同立場的觀點強化,很容易造成圈層化群體眾意的形成。商業平臺的智能適配邏輯是將“公眾”還原成“用戶”,又將用戶當作“消費者”來看待,它暗含了一種商業利益最大化的潛規則,因而導致商業平臺上算法眾意退化成為一種“偽公共性”的輿論。
如果存在繭房效應的話,要看繭房的大小。一套平臺算法是一間繭房,但是一套社會機制可能是一間更大的繭房。在人類信息傳播的歷史中,普通受眾的自主選擇權是有限的,他所能選擇的范圍是被劃定的,或者說是信息菜單上的有限選擇權。從編輯的把關選擇到媒體的議程設置,甚至文本隱含的新聞框架,這些理論都揭示出普通受眾的信息近用權無時無刻不受到層層的隱性控制和顯性控制。在柏拉圖構造的洞穴寓言中,篝火成為一套機制,限定了囚徒的信息接觸和認知方式。如果社會是一張網或一間房,每個人都是在網上或房中生存的生物。
傳統輿論的生成正如李普曼(Walter Lippmann)所揭示的,必須首先經過社會進步或精英力量的組織,然后再提供給新聞媒體去表達。但在人工智能時代,輿論的生成并未像李普曼所期望的那樣,相反,“組織”甚至“制造”輿論的力量從傳統媒體轉移到算法平臺。正如拉什(Scott Lash)所言:“在一個媒體和代碼無處不在的社會,算法生成規則在后霸權秩序的社會和文化生活中越來越普遍,權力越來越存在于算法之中。”在信息傳播的角逐場上,政治力量、資本力量和其他社會力量不可避免地附麗在人工智能的身上,這些力量的過度加載則會導致算法輿論遠遠偏離正常的社會軌道。在網絡的虛擬空間中,有許多“看不見的手”隱藏在網絡頁面的幕后,如影隨形,共同催生社會輿論的形成,人工智能和大數據作為其中重要的一支力量,把正常社會表達的“公意”輿論操縱為一種滿足特定需求的算法“眾意”的“偽輿論”。
在用戶畫像和需求滿足驅動下,算法推薦成為個體議程設置的隱性機制,它勾勒了用戶渴望看到的外部世界的圖景。大數據和算法技術的結合不僅能夠將人類有意識的行為進行算法化,而且能夠對無意識的行為進行算法預測和把控。正是從可被計算、被操控的角度,算法實現了對個人的重新定義,并將人物化。在算法加持下,“人”變成了“用戶”,其注意力成為重要資源,算法推薦建構的信息繭房成為用戶信息議程的判斷基礎和重要表征。正是基于被算法化的用戶形象,算法將不可描述的樣態紛呈的整體受眾轉化為可逐一標注的個體用戶,從而實現社會議程設置效果從受眾整體到用戶個體的矢量遷移。但算法推薦背后可能有一雙雙“看不見的手”在操縱,貌似冷冰冰的機器語言可能存在偏見、誘導、信息窄化等問題,算法成為扭曲現實的凹凸鏡。
機器的算法推薦看似是沒有靈魂的自動行為,沒有所謂的“機器幽靈”。實際上,算法背后總有一套程序規則、價值判斷、符號標注、信息選擇等思想或靈魂的體系。這個思想體系是算法背后“看不見的手”,從社會運行上無可厚非,但若被商業利益等特殊利益集團所綁架,成為一種“幽靈”的存在,則會使算法偏離社會發展公平正義的方向。
媒體議程、平臺議程、公眾議程三者之間也許有交叉的部分,但并非完全是重疊的,三者之間的互動有非常復雜的微妙之處,何者居于原初的推動地位并非容易辨認之事。在大數據和算法推薦的技術加持下,平臺議程深度影響了用戶議程,或者說平臺議程與用戶議程合流匯集成媒體議程和公眾議程。平臺利用算法推薦所建構的媒體世界迎合了用戶口味,但難以吻合真實的客觀世界,淪為用戶需求投射平臺的現實幻象,由此生成的“眾意”就不可避免地存在算法的“誘導”。國內的今日頭條注重對用戶、內容和環境特征的提取,在“你關心的,才是頭條”的口號指導下,沒有兩個用戶收到完全相同的新聞推薦頁面。國外的劍橋分析公司通過技術手段分析不同用戶群體的人格特質、潛在需求、性格和負面情感等特征,并根據社交媒體上的“點贊”傾向快速判斷用戶的性別、性取向和政治傾向,進而對用戶進行精準的信息推送和議程設定,以影響和干預用戶的思想觀點和判斷選擇,控制輿論走向。
社交機器人是一種利用算法生成并承擔特定任務的社交媒體賬戶,其應用已從早期的社交網絡商業營銷領域逐漸拓展到政治宣傳領域,成為影響公眾輿論和政治走向的手段。模仿人類用戶并執行特定任務的社交機器人,能夠以自動化算法程序建構社交網絡,如主動關注人類用戶和機器人用戶以增加自身的粉絲數量,通過模仿人類用戶的社交行為來塑造虛擬的人格形象,以此提升其在人類用戶中的可見性甚至可信性,實現機器人網絡向人類社交網絡中的深度嵌入。這使由“人”完全主導的社交媒體生態轉向“人+社交機器人”的共生生態,改變了社交媒體既有的信息交互結構,也使輿論生成面臨高度不確定性和復雜性。
既有研究發現少量社交機器人(占用戶總量的5%—10%)即足以引發沉默的螺旋,從而改變公眾輿論的走向。社交機器人參與網絡輿論帶風向主要是通過推送重復內容、轉發政客信息內容、制造虛假信息和垃圾信息以轉移用戶輿論焦點等方式實現的。在新冠肺炎疫情期間,Twitter有上大量社交機器人擴散“新冠病毒為中國政府在武漢病毒研究所人為制造的生化武器”的陰謀論,其中大量推文信息僅在一秒鐘或一分鐘內就被諸如@sonlaiklik、@fatihyedek等社交機器人同時轉發,實現了網絡聲量的增強和廣泛擴散。同時,社交機器人還通過設計話題標簽、@媒體等方式擴大自身信息的傳播力和影響力,增加特定信息的網絡聲量,實現干預輿論的目的。
由于網絡鍵盤俠的存在可以是匿名的,特殊利益集團試圖通過豢養水軍的方式來實現對輿論走向的干預和控制,以實現特定意圖。早期的網絡水軍主要是受雇于特定利益集團或組織的自然人,而在算法時代,“人+機器人”已經成為網絡水軍發展的新特征,水軍的功能也從早期被動“洗地”轉向主動“控評”,改變了輿論形成的自發形態和自然狀態。
特殊利益集團通過水軍制造熱點形成“偽公共意見氣候”,進而隱性干預輿論。特殊的政治人物、政治團體或組織等操縱輿論的方式既可能是直接部署算法,也可能通過將有關任務以項目形式外包給商業公司雇傭水軍來實現。在美國,從2012年奧巴馬的數據團隊幫助其實現了連任后,西方政治集團開始看到了數據分析的重要性,之后的候選人都將大量資源投入數據分析和操縱過程,如特朗普就直接招募劍橋分析師加入其競選團隊。
特殊商業機構通過水軍操縱社會信息流動,決定熱帖排序,沖擊了正常的信息秩序,干預了輿論走向。如2018年,某藝人微博轉發量過億引發圍觀,正是通過星援APP“人工干預+算法操縱”的結果。該APP允許用戶首先使用自己的新浪微博賬號登錄該客戶端,添加需要提高轉發、評論、點贊數據的微博鏈接,依次設置“內容”“隨機表情”“轉發內容”“周期時間間隔”“并發時間間隔”“轉發數量”“分組”等參數,最后點擊“啟動掄博”,即可自動實現批量轉發博文,自動提升微博相應數據。2020年5月,廣州市某小學因學生被老師懲罰跑步,引發家長不滿,家長偽造證據自行發布微博,意圖誤導輿論卻效果不佳,遂通過網絡推手進行微博擴散,僅花760元就實現了短短數小時相關微博被轉發140萬余次、評論46.5萬余次、閱讀5.4億次的傳播目標,導致涉事老師被人肉搜索,引發輿論圍觀。但公安機關介入后發現,這是由家長造假、資本助陣、算法助力的假事件。
毋庸置疑,技術整體上推進了現代社會的進步和發展,但技術這把雙刃劍,在給人類帶來福祉的同時,也不可避免地帶來了一些不容忽視的副作用。拉什認為風險社會中始料未及的風險不再是由工業社會的物質化生產過程中所產生的風險和危險,而是從信息領域、生物技術領域、通信和軟件領域所產生的新的風險和危險。張濤甫則指出,輿論風險已經成為媒介化社會中的“軟風險”。在技術的加持下,算法偽輿論的社會性風險的負面作用更廣泛、更深入且更隱蔽。
在算法全面介入人們日常信息獲取的環境下,人對算法形成了高度依賴,算法對人形成了高度控制,出現算法替代人去思考、判斷和決策的“技術壟斷”局面。算法被凱西·奧尼爾(Cathy O′neal)稱之為“數學殺傷性武器”,正在逐漸衍生出另一種霸權——算法霸權。算法霸權造成了對人的權利的壓制,其中,最重要的就是涉及公共事務的知情權和表達權。一個議題,用戶能否知情、如何參與、如何思考進而表達觀點,都受制于算法的內容呈現和智能匹配。正如荷蘭學者范·戴克(José van Dijck)所言,用戶需要平臺來發表他們的意見和創造性表達,而平臺需要用戶按照預先設定的格式化來匯集其表達。內容是自發形成的,卻受到控制,內容是無中介的,卻受到操縱。算法輿論切入人類社會的正常輿論生態之中,甚至在算法的推薦下引發巨大的網絡聲量,容易導致人類正常輿論空間受到擠壓。
一個健康的社會離不開主流的意識形態表達和主流的輿論建構,傳統的輿論引導主要通過主流媒體的議程設置來實現,而智能時代平臺算法推薦極大地消解了傳統主流媒體的議程設置功能。在傳播生態的迭代演進中,傳統主流媒體守望社會主流價值,但面臨各類APP平臺對受眾市場的爭奪,報紙的傳閱率和電視的收視率日趨走低。算法作為社會信息流動的基本技術邏輯,機器代替人力發揮著議程設置的作用和對信息的隱性把關作用。在國內,以今日頭條、一點資訊、抖音、快手等為代表的平臺,通過強大的算法推薦機制使其深深獲得用戶黏性,甚至扮演著傳統主流媒體信息傳播者的角色,直接挑戰了傳統主流媒體的輿論引導權。在國外,新興社交媒體(諸如Facebook、Twitter、YouTube等)事實上成為建構全球信息傳播流動的主要力量。在平臺算法推薦中,由于平臺的價值訴求更多地考慮其自身的商業利益等,對社會公共利益關注過低,因此在社會主流的輿論導向中難免偏離公意訴求。如果一個社會沒有核心的意識形態共識,或者說沒有一個主流媒體能夠維護核心意識形態合法化的功能,則這個社會作為一個系統的可持續發展就受到極大的挑戰。
社會成員結構多元復雜,各成員之間需要彼此對話和協同融合,才能使社會可持續良性發展。德國學者諾依曼(Elisabeth Noelle-Neumann)提出“輿論是我們的社會皮膚”。正因為作為皮膚的輿論,社會各機體得以交流和整合。算法具有“制造輿論”的特性,但使用不當容易引發輿論場結構性危機,破壞公眾感知社會現實的正常判斷,如同灼傷民眾的皮膚。輿論場的正常狀態應是民眾對社會事實的真實反映,但在算法“制造輿論”的情況下,輿論場為某些特定利益集團所控制,哪些議題能夠為公眾所見并不是由現實社會中話題的重要程度來決定的,而是由其背后的資本推手決定的。在商業邏輯主導下,一些關系國計民生的硬新聞、關系公共利益的議題通常難以進入公眾視野,反而一些娛樂八卦(如明星離婚、出軌、吸毒)等事件屢次沖上熱搜。在算法的干預下,一些看似引發公眾關注的輿論事件,實際上正是特定利益集團通過“人工+算法”等方式進行的針對性呈現和引導,小事件通過資本與算法的推動能成為大事件,假事件甚至由此變成萬眾矚目的真事件,并引發現實危機。輿論是社會共識得以形成的重要機制,這不僅是在個人意見的表達層面、個人與社會的關系層面,也是在輿論作為社會黏合劑層面的意義而言的,但算法偽輿論生態使社會“公眾”之間的理性對話和共識難以實現,由此導致輿論場面臨撕裂風險。
輿論是政府進行社會治理的重要依據。新聞、信息或者廣告的推送主要基于對用戶數據的收集,算法通過推斷用戶的偏好來呈現其可能感興趣的內容。越來越多的證據表明,算法被用于政治宣傳,從國家間的信息戰到國內競選與公投,無一不試圖充分利用臉書和YouTube等主流社交媒體的算法程序發起攻勢。一些特定利益集團的利益訴求,在算法的操控下形成社會的巨大輿論,并被當作真實的民意,介入到現實政治中。2016年美國大選期間,特朗普、希拉里競選團隊均借助“機器人水軍”在社交媒體中進行政治宣傳,推特上19%的大選推文來自“機器人水軍”。相比希拉里,特朗普的“機器人水軍”有其五倍的數量優勢,這在某種程度上也被認為是特朗普最終贏得勝利的原因之一。當算法輿論被用于一國的政治選舉時,算法操控民眾投票意向就成為某些政治集團攫取政治權力的手段,這時算法輿論就成為“陰謀政治的體現”。由此,政府治理賴以存在的基礎——輿論成為算法操縱的結果,在算法的加持下,盧梭所言的“眾意”和“公意”進行了合流,而普通民眾根本無法甄別其真偽。
隨著算法濫用引發的潛在社會風險加劇,對算法偽輿論的治理既是黨的新聞輿論工作的內在要求,也是保障國家算法安全、防范算法濫用帶來意識形態風險的有力舉措。這需要建立以政府為主導包括算法研發企業、新聞媒體和網民在內的多方協同參與的算法安全治理機制,形成合力,確保算法安全和意識形態安全。
算法促進社會善治,但算法濫用也給社會治理帶來挑戰,算法偽輿論更是對意識形態安全形成巨大挑戰。因此,政府應增強頂層設計,用完善的法律法規規制算法,積極引導多方利益主體參與治理算法,建立健全多方參與的算法安全治理機制。目前,已有國家通過法律形式對算法進行規制。2019年4月,美國出臺了《2019年算法問責法案》,規定企業對其人工智能工具和系統的“準確性、公平性、偏見、歧視、隱私和安全性”等問題進行自我審查。2019年5月,新加坡通過了《防止網絡虛假信息和網絡操縱法案》,該法案明確了具有“政治目的趨向”和“危害公共利益”這兩種最關鍵的網絡操縱行為,并對其進行了限制,提出了懲罰措施。我國相繼出臺了《網絡安全法》《數據安全法》《個人信息保護法》以及《互聯網信息服務管理辦法》等,在不同層面涉及對算法的治理問題。2021年9月,國家互聯網信息辦公室等部委發布的《關于加強互聯網信息服務算法綜合治理的指導意見》,規定要防止利用算法干擾社會輿論,防范算法濫用帶來意識形態、經濟發展和社會管理等方面的風險隱患。
商業公司是算法研發與推廣應用的重要主體,其研發的算法技術逐漸滲透到新聞傳播領域,成為影響輿論生態的重要力量。但企業過度的商業利益追求也讓算法的應用出現了偏差,甚至將算法導向異化的境地。為確保算法安全和意識形態安全,算法研發企業應堅持正確導向,強化科技倫理意識、安全意識和底線思維,堅持科技向善理念。企業的算法研發需要正確處理短期商業利益與長期社會效益之間的沖突,堅持社會效益第一的原則;要努力消除算法可能引發的偏見與歧視,堅持算法研發的公平公正、透明可釋原則;要對算法可能帶來的負面效應有相應的校正機制和優化方案,將算法潛在的負面影響降到最低,確保算法的自主、安全、可控。實際上,技術與產品服務的背后是人,人是衡量技術與產品的重要尺度。企業要認識到算法只有與社會實現良性互動,才能發揮科技造福人類的最大價值,要認識到算法應該用于造福人和社會,而不是讓算法成為操控人和社會的隱蔽工具。在中華民族偉大復興的征程上,要讓算法始終服務于黨和國家發展的戰略大局,服務于人民利益與社會進步,要規避利用算法危害國家安全、操控政治和意識形態的風險,不為利用算法推薦傳播負面信息、分裂社會共識提供可能。
在全媒體時代,媒體肩負著維護主流價值觀和意識形態的重要職責,作為算法推廣應用的重要主體,媒體需要用主流價值導向駕馭算法推薦的新聞內容,全面提高輿論引導能力。目前,在商業公司研發的算法之外,各類新聞媒體也自主研發了“黨媒算法”“主流算法”等各類算法,確保算法能夠傳播正能量、維護主流價值觀。其中,人民日報新媒體推出的“黨媒算法”探索個性化推薦與主流價值結合的新路徑;央視頻打造的“總臺算法”則在傳播量、瀏覽量、點贊量等常規流量指標外,加入價值傳播因子、動態平衡網絡、社會網絡評價體系等與正能量傳播相關的指標,探索算法服務正能量傳播的可能性;川觀新聞8.0版客戶端則推出了“主流媒體算法”,通過把控內容質量、加深內容認識、優化智能分發、追蹤傳播效果等措施,采用主流價值內容采集和質量審核系統,確保優質熱點新聞入庫,實現了對主流價值觀的賦予。主流媒體作為黨和政府聯系群眾的橋梁和紐帶,不僅需要傳播正能量,還需要充分利用算法來聚合信息,讓網絡成為收集社情民意的新平臺和凝聚社會共識的新空間。在根本上,主流媒體要以算法為中介,實現黨、政府和人民群眾等不同主體之間的良性互動,找到“民意的最大公約數”,讓算法成為新時期引導輿論、凝聚共識、治國理政的技術基石。
人是輿論生成的主體,即使是社交機器人帶動風向也要依賴自然人的實際行動才能產生相應效應。在算法將“公眾”化解成一個個“用戶”的過程中,“公眾”成為可以量化的測量指標。從這個層面來看,要確保算法安全,抵御算法偽輿論帶來的意識形態風險,還要提升網民的算法素養。算法素養脫胎于媒介素養,它的主要目標是培養人們與算法的共存能力。目前,算法與用戶呈現互動共生、相互馴化的關系。算法需要依賴用戶的數據資源優化自身推薦模型,而用戶需要依賴算法獲得個性化信息,因而呈現互動共生狀態。算法的個性化智能推薦對用戶的信息獲取方式進行了馴化,讓用戶依附于算法本身的邏輯,但同時用戶的使用行為又會影響算法推薦的效果,兩者呈現出相互馴化的過程。因此,網民的算法素養就包括認識到算法的存在以及它對人類信息獲取的干預。具體包括認識到算法已經構成了我們的基本環境,算法能夠對我們使用各類算法平臺衍生的數據進行收集并計算,對經由計算而產生的算法傳播信息偏向性有足夠認識,對算法機器人能夠進行感知和簡單識別,對算法可能干預輿論的風險進行識別。算法在馴化人的同時也被人所馴化。因此,網民的算法素養還應包括具備一定的馴化算法的能力,即在使用算法平臺中通過調整自身的行為,利用算法的實時優化與調整特性,對算法進行反向馴化。具體包括對算法平臺某類信息的忽視、減少點擊率、減少觀看時間等,以減少算法對此類信息的推送;還包括用戶通過算法平臺偶遇其他信息的能力,如增加對公共信息的關注度、對不同意見的接觸頻率等,減少算法同質化信息推薦,增加信息推薦的多元性。網民算法素養的提升,能夠增強自身對算法平臺信息的辨別能力,而不至于讓算法主導甚至控制,這為確保算法安全和意識形態安全提供了前提。
在洞穴寓言中,篝火作為一種工具,投射的是可感事物的影像,從而給“囚徒”帶來了認知困境。人們只有走出洞穴的羈絆,才能獲得認知上的突破。算法也許成為這個時代新的一堆篝火,其構筑的信息環境成為新的事物影像,而成千上萬的網民正似“囚徒”深陷其中。如何認識洞穴外的世界,讓自己參與到廣闊的社會活動中,而不至于對世界進行誤判,這有賴于人們不斷突破自身的局限和周圍環境的制約。
在以算法代碼為基本運行邏輯的“算法社會”中,人們成為一串串數字表征的透明體,在大數據的海洋中無法逃脫被捕捉的境況。無論是對外部信息的獲取,還是自我意見的表達,或是對周圍環境的感知與判斷,人們都被算法所捕獲。就輿論生成而言,算法通過對輿論三要素的“可見性”進行控制,并在其與用戶之間進行智能適配,進而影響用戶認知中的外部世界。當算法技術為特殊利益集團所操縱,社會輿論運行就會偏離正常的生成軌道,從而淪落為一種“偽輿論”。對算法“偽輿論”進行治理既是新時代黨的新聞輿論工作的內在要求,也是保障國家算法安全、防范算法濫用帶來意識形態風險的必要工作。如何建立科學、合理的算法輿論引導機制,確保算法安全,避免算法濫用,讓算法為公眾利益服務,成為算法時代的全新命題。
注釋:
① [法]讓-雅克·盧梭:《社會契約論》,何兆武譯,商務印書館2003年版,第35頁。
② 隋巖、唐忠敏:《網絡敘事的生成機制及其群體傳播的互文性》,《中國社會科學》,2020年第10期,第181頁。
③ 郭小平:《智能傳播的算法風險及其治理路徑》,《國家治理》,2020年第22期,第43頁。
④ 胡月星:《“算法焦慮”的生成機理及紓解之道》,《人民論壇》,2021年第Z1期,第23-24頁。
⑤ 段鵬:《平臺經濟時代算法權力問題的治理路徑探索》,《東岳論叢》,2020年第5期,第111頁。
⑥ 張洪忠、段澤宇、楊慧蕓:《政治機器人在社交媒體空間的輿論干預分析》,《新聞界》,2019年第9期,第20-25頁。
⑦ 師文、陳昌鳳:《議題凸顯與關聯構建:Twitter社交機器人對新冠疫情討論的建構》,《現代傳播》,2020年第10期,第50-56頁。
⑧ Daniel DaYan.ConqueringVisibility,ConferringVisibility:VisibilitySeekersandMediaPerformance,International Journal of Communication,vol.1,no.7,2013.pp.137-153.
⑨ 姜紅、開薪悅:《“可見性”賦權——輿論是如何“可見”的?》,《蘇州大學學報》(哲學社會科學版),2017年第3期,第147頁。
⑩ 羅昕:《算法媒體的生產邏輯與治理機制》,《人民論壇·學術前沿》,2018年第24期,第25頁。