徐霄揚 黃鎮如
摘?要:算法重構了新聞生產的流程,極大地提升了新聞的生產效率,但作為一個正在進化完善中的新生媒介,算法新聞誘發的認知風險也不容忽視。價值有偏內容引發的認知失調、算法黑箱導致的媒介信任缺失、虛假新聞自動化生成誘發的確認偏誤增強、過濾氣泡助推的輿論極化、隱私泄露產生的數字孿生公開,均是當前算法新聞領域已被確證存在的認知風險。在防范算法認知偏向的過程中,技術、法律和倫理的多維治理路徑為我們提供了重要啟示。回收算法把關權限,確保人在新聞生產中的核心作用,是維護新聞質量的關鍵。將風險感知、社會責任和倫理規范編碼進算法,是預防和減少算法偏差的有效途徑。構建算法透明機制,提高算法的可解釋性,是增強公眾信任和監管機構有效保證監督的基礎。
關鍵詞:算法新聞;認知風險;風險防范
中圖分類號:G210 ?????文獻標識碼:A????文章編號:1001-4225(2023)12-0033-09
引 ?言
習近平總書記2019年在《求是》雜志發表的重要文章中指出:“要探索將人工智能運用在新聞采集、生產、分發、接收、反饋中,全面提高輿論引導能力”。同年,習近平總書記提出了“全程媒體、全息媒體、全員媒體、全效媒體”的建設方案。這“四全”媒體成為我國智能媒體發展的指導目標。十九大報告中提出我國要“推動互聯網、大數據、人工智能和實體經濟深度融合”。近年來,傳媒業作為我國與人工智能技術深度融合的風口,在“四全”媒體的頂層設計目標指導下,高速向智能化轉型,傳媒業的發展已步入“智媒時代”。
人工智能已成為了新一輪科技和產業革命的主要驅動力,對政治、經濟、社會發展等多個領域產生了深遠的影響。在這一背景下,作為傳媒業人工智能應用的代表,基于大數據的自動化算法新聞生產及分發模式日趨成熟。“算法新聞”(Algorithmic Journalism)是運用算法自動生產新聞并實現傳播的方法或系統,包括采、寫、編、審、發、饋等業務的自動化實現。算法已由純粹的生產工具逐漸轉變,獲得了信息生產者的屬性。算法極大地擴展了媒體資訊的寬度和廣度,簡化了新聞生產的流程,豐富了受眾的信息個性化體驗。
然而,將內容生產的權利讓渡給算法這一行為,自其誕生之初就伴隨質疑。虛假新聞、錯誤認知導向可以出自人之手,同樣也可由機器生成。2016年Facebook宣布裁撤人工內容編輯部門,將編輯權利讓渡給算法,并聲稱此做法是為保證媒體內容的客觀及中立。但裁撤人工編輯后,Facebook平臺內容的可信性及中立性不升反降。其在美國各類政治事件中的偏見及虛假新聞的傳播引起了廣泛的爭議。隨著算法在新聞生產全流程的應用,相關的認知風險及其治理問題也日益凸顯。
皮尤研究中心關于公眾對計算機算法的態度報告指出,58%的人認為包括新聞生成在內的算法存在偏見,會誘發公眾的負面認知偏向[1]。算法新聞越多,人們了解真相的難度就越大。自動化內容在政治、種族等方面的認知偏見引起了公眾的擔憂。算法內生性的認知偏見可能源于資本介入,也可能源于其“學習”的樣本自身存在的社會結構性認知問題。這種向偏見內容“學習”的算法,生成的內容本身也帶有不良的認知導向,且此類內容又會被進一步“學習”。認知偏見的循環容易形成算法信息對真實有機世界的遮蔽。其自動化、個性化快速生產的特性,使其能快速占據受眾的認知渠道,從而將錯誤的內容傳播到公眾的大腦中,影響其對世界的真實認知。
現有算法新聞的研究大多著眼于自動化對業界的影響。學界已意識到算法的認知風險,但相關防范機制研究仍不足。現有研究也較少從認知角度出發探究算法新聞的心理影響,更多集中在可讀性缺陷的規避和可信度的檢驗上。
在新時代“四全”媒體的目標指引下,算法新聞是我國傳媒業在智媒時代必然要大力推廣的技術,保證算法新聞能為受眾所接受,保證其正確的認知導向,是提升我國新聞傳播能力建設的重要舉措。且由于算法新聞存在較高的認知風險,其防范研究也是大面積應用須解決的問題。因而基于新時代的傳播環境和前沿的傳媒人工智能進展,關注算法新聞的受眾認知和風險因素,并依此開展認知偏向防范研究,是保證這項技術健康地服務于“四全”媒體建設的題中之意。
一、算法與新聞生產
(一)算法新聞的源起
算法新聞,又稱自動化新聞、機器人新聞,是使用人工智能算法自動完成新聞生產并實現媒介運營的過程、方法或系統,它涵蓋了信息內容采集、存儲、寫作、編輯、呈現及數據分析等新聞業務的自動化實現[2]。算法新聞的發展歷史見證著新聞產業從傳統手工作坊式生產逐步向自動化、智能化的轉變。算法新聞的起源可以追溯到20世紀90年代末,算法開始被應用于新聞的聚合與生產領域。當時的自動新聞生成系統主要基于模板填充技術。這種自動化寫作技術使得一些標準化的新聞報道,如財經報告和體育新聞,可以實現快速自動生成。這種自動化不僅提高了新聞生產的速度和效率,也使得新聞機構能夠覆蓋更多的新聞事件,尤其是在數據密集型的報道領域。進入21世紀,隨著大數據和機器學習技術的發展,算法新聞開始融入更復雜的數據處理和自然語言生成技術,生成內容不再限于財經和體育等可模板化領域。其開始在新聞選題、編輯甚至專業寫作過程中發揮作用。Appelman等指出,算法新聞的興起改變了新聞的工作流程,使得新聞生產更加自動化和數據驅動化[3]。國內學者也強調了算法重構了新聞的生產流程[4]。新華社研發的“媒體大腦”就是人工智能在我國權威媒體應用的代表,其具備了專業化新聞內容的自動生產、智能分發與實時監測能力,實現了智能化的算法新聞生產與傳播反饋。
(二)算法對于新聞生產流程的重構
算法對新聞生產流程的重構體現在多個方面。首先,算法使新聞選題更加依賴于數據分析,算法可根據用戶興趣和行為模式來預測和選擇新聞內容。其次,融合了自然語言生成技術,算法可自動生成一些非標準化的新聞報道,大大提高了生產效率。算法還影響了新聞的編輯和校對,新聞機構開始利用自然語言處理技術來檢查語法錯誤和事實準確性。算法使得新聞生產過程更加高效,能夠快速響應社會事件和用戶需求,減少了對傳統記者和編輯的依賴,使得新聞報道更加迅速和廣泛。此外,算法個性化推薦系統能夠根據用戶的閱讀習慣和偏好來推送新聞,從而增強用戶體驗。張洪忠等指出,算法新聞正在重塑新聞生產與消費的關系,使得新聞生產更加以用戶為中心[5]。
目前領域內的研究主要著眼于大數據與算法的深入應用對傳統新聞生產的沖擊與形塑。范紅霞等指出,算法為新聞業帶來的變革主要體現在:傳播語境的轉換、算法改變公共輿論、過濾氣泡及社會隱喻的轉換四個方面[6]。新聞的生產模式在算法的影響下變更為“閉環新聞生產”[7],這可能意味著國內整個新聞產業的破格重生[8]。且這種影響已經不僅停留在新聞生產層面,相關影響會通過智能化媒介及算法生成的媒介內容滲透到人類生活和社會發展的各個層面。
新聞傳媒業界對于算法新聞的思考更多著眼于算法對于傳統媒體中人的功能的替代與形塑。何天平認為寫稿機器人的出現和應用,模糊了新媒體和傳統媒體的邊界,記者與編輯這類“人”的存在問題是智能化沖擊中的焦點[9]。基于媒體中權力轉換與讓渡的視角,ScottLash提出“在一個媒介和代碼無處不在的社會,權力越來越存在于算法之中”[10]。喻國明提出“算法即權力”,由于算法的存在,在新聞線索的獲取中,信息權已彌散;在新聞寫作與編輯中,算法已收編了把關權力;在新聞事實核查上,算法通過非制度性權力來構建“社會共識”[11]。彭蘭認為未來的媒體社會中,雖然智能算法的地位會繼續升高,“流行”于各類專業領域,但“人的價值比算法更為重要”[12]。無論從何種角度,算法對于新聞業的形塑已不可阻擋。
二、“進化”中的算法新聞
保羅·利文森的補救性媒介理論以及媒介進化三階段理論為我們提供了一個理解媒介發展的框架,強調了媒介演進是一個不斷進化和被補救的過程[13]。在這一視角下,每一種新興媒介的出現都不是終結,而是媒介演化史上的一個節點,它繼承了前一代媒介的優點,并針對其局限性進行了改進和優化。這一過程中,人類的主觀能動性和對媒介的控制力發揮了至關重要的作用。
算法新聞作為新聞傳播領域的新興媒介形式,其發展歷程體現了補救性媒介理論的核心觀點。算法新聞的起源可以追溯到精準新聞、計算機輔助新聞和數據新聞,這些前身媒介在信息收集、處理和傳播方面奠定了基礎。從精準新聞到算法新聞的發展過程,也是人類不斷發展的信息技術與媒介技術對于新聞媒介的修正過程。精準新聞強調以客觀數據為基礎進行新聞報道,計算機輔助新聞和數據新聞則利用技術手段提高新聞生產的效率和精確度。算法新聞在繼承這些優勢的同時,也致力于補足前序媒介專業門檻高、生產效率相對低下的缺點,實現了新聞內容生產的半自動化甚至全自動化,極大地提高了新聞的生產效率和分發速度。
然而,隨著算法應用的高速落地,算法新聞在實踐中也逐漸暴露出其內在的缺陷,其仍然是一個需要“進化”和被“補救”的媒介形式。盡管算法新聞繼承了精準新聞的“真實”“客觀”和“科學”的特性,但在算法的加持下,這些特性變得難以驗證。例如,Facebook聲稱為了內容的客觀中立而放棄人工編輯,但實際上卻陷入了認知傾向和政治議題的偏見爭議。
自動化的算法新聞生產過程中,新聞內容的偏見及對認知產生的不良影響并未得到根本解決,反而因為算法的介入而變得更加隱蔽。算法新聞的生產過程中缺乏人為監督和干預,使得潛在的歧視和認知偏見得以隱藏在算法的復雜性之后,不易被發現和糾正。這不僅對新聞的客觀性和公正性構成了風險威脅,也對社會的價值觀和意識形態產生了深遠的影響。
在傳播學領域,對于算法認知風險的討論可追溯到1996年。Friedman等在探討計算機中的偏見問題時指出,技術并非價值中立,算法作為技術的一種表現形式,不可避免地會反映出其設計者的認知傾向。換言之,人類的認知偏見和價值觀念可能通過算法,以多種形式滲透到應用層面[14]。這一觀點挑戰了技術決定論的假設,強調了技術與社會價值間的互動關系。
在不同的商業或政治目的驅動下,各類算法內容生產與分發平臺的運營者可能會在其算法中主動嵌入特定的認知傾向。這種行為直接影響著信息的篩選、組織和呈現方式。除了算法的發明者,使用者的立場和偏好也在算法偏見的形成中扮演著重要角色。使用者的互動行為、反饋模式和選擇傾向可能會在算法學習過程中被捕捉并加以利用,從而在一定程度上塑造算法的輸出結果。
根據Friedman的分類,機器中的認知偏見可以分為三種類型:“先在偏見”“技術偏見”和“突發偏見”[14]。先在偏見源自于社會現有的結構和制度,它可能在算法的發明者和使用者都不自知的情況下,被內化到算法中。這種認知偏見通常與社會文化背景緊密相關,反映了廣泛存在的權力結構和社會不平等。技術偏見則更多地體現在算法設計者或使用者在技術層面上設定的限制,是有意為之的,直接將特定的認知取向植入算法中。算法會因為設計者的主觀判斷而被編程以優先考慮某些類型的信息,或者在處理數據時有意忽略某些群體的聲音。突發偏見則是由算法使用的社會環境變化所引起的,這種偏見與社會認知、價值取向和文化品位的變化密切相關。隨著社會環境的演變,人們的期望和需求也在不斷變化,這要求算法能夠適應這些變化,以避免產生不公平或不恰當的輸出。然而,算法的更新和調整往往滯后于社會變遷,這可能導致算法在新情境下的不適應性,從而產生突發偏見。
作為新生媒介的算法新聞,其不斷的“進化”過程,就是其認知風險的排除過程,無論這類風險是先在的、技術的還是突發的,都會影響受眾對于真實世界的認知。
三、算法新聞的認知風險
在探討算法新聞的潛在認知風險時,學術界普遍采用了理論演繹的方法,構建了綜合性的假設框架。董天策等通過隱私權、技術倫理和認知價值取向三個維度,系統地識別了算法新聞的風險要素[15]。鄧建國強調算法新聞的風險主要體現在新聞價值的缺失、算法錯誤可能導致的廣泛影響、算法新聞生產過程中的不透明性,以及算法新聞質量與社會數據化水平的正相關性[16]。陸新蕾從算法偏見、信息傳播的狹窄化、新聞價值的異化等角度,分析了算法技術存在的認知風險[17]。具體而言,目前關于算法新聞的認知風險,學界主要從有偏的價值導向、算法黑箱、虛假新聞、過濾氣泡及隱私泄露幾方面展開討論:
(一)有偏導向與認知失調
在社會主義核心價值觀的涵育之下,公眾普遍形成了一套主流的核心價值體系。從認知失調理論的視角,帶有錯誤價值偏向的新聞會引起大眾的認知失調[18]。這是因為其挑戰了人們現有的認知體系,迫使人們在保持心理平衡和接受新信息之間做出選擇。這種選擇過程會導致受眾認知結構的改變、信息的選擇性接受或對信息源的重新評估,從而在個體和社會層面產生廣泛的影響。
算法新聞的開發者普遍強調算法的中立與無偏,但現有的大規模算法應用不斷誘發著認知偏向風險的爭論。人為操控的機器學習模型,在學習了有偏的訓練數據后自動生成的內容必難以達到中立與客觀的標準。這成為了算法新聞認知風險中對社會潛在危害最大的一點。錯誤的價值導向若在算法的掩護下被高效且精準地傳播,必然引起負面的社會意識反響。
周葆華等關注算法新聞的價值取向,認為新聞的核心任務是滿足受眾的認知需求而非欲求,算法新聞在迎合用戶興趣和需求、優化信息匹配的同時,可能帶來信息質量下降的風險[19]。陳昌鳳從價值導向角度出發,認為基于內容的推薦算法傾向于迎合用戶偏好,而非進行教育或引導,鑒于新聞產品的社會功能,大眾媒體應超越娛樂,承擔起更廣泛的社會責任,這要求對算法價值觀進行人文價值的外部調整[20]。王海燕關于數字新聞時間性的研究指出,過分強調技術和速度可能會削弱新聞的權威性和社會合理性,而算法新聞作為一種強調時效性的技術,其廣泛應用對新聞權威價值導向和社會正當性構成了潛在挑戰[21]。
(二)算法黑箱與媒介信任
從工作原理上看,算法是基于一系列復雜的數學模型和編程指令來處理數據并做出決策的。但這些決策過程對于新聞受眾來說往往是不可見的,受眾在接觸算法生成的新聞內容時,往往難以理解背后的機制和邏輯,這種“黑箱”特性增加了受眾對算法新聞的不信任感[22]。
對于新聞受眾而言,算法不僅是一個技術工具,更是一個價值判斷的主體。算法根據用戶的歷史行為數據,如點擊、瀏覽和分享等,來預測用戶的偏好,并據此調整新聞內容的生成和推薦。然而,受眾通常無法獲知算法是如何分析這些數據的,也不清楚算法在內容推薦中所采用的具體標準和權重。這種信息的不對稱性使得受眾在面對算法新聞時感到無力和困惑。
此外,算法新聞的不透明度還可能導致受眾對新聞機構的不信任。當受眾無法理解新聞是如何被生成和篩選的時候,他們可能會懷疑新聞機構是否在背后操縱信息,以服務于特定的目的。這種懷疑不僅損害了新聞機構的公信力,也對社會的信息環境造成了負面影響。
算法的高不透明度和低解釋性是受眾普遍可感的風險因素。在新聞領域,公信力是新聞機構生存和發展的基石。如果受眾對算法新聞的生成過程缺乏信任,那么無論算法多么高效和精準,都難以實現其應有的社會功能。
(三)虛假新聞與確認偏誤
受眾在處理信息時存在確認偏誤,即傾向于偏好、尋找、解釋和記憶那些與自己現有信念相一致的信息,同時忽視或貶低與之相悖的信息的現象。這種認知偏差普遍存在于人類的決策和判斷過程中,影響著個體對新信息的接受和處理。虛假新聞往往利用這一點,通過提供符合特定群體信念的信息來獲得信任和傳播。
算法新聞的興起為信息傳播帶來了革命性的變化,但其自動化特性也引發了關于內容真實性的深刻擔憂。張志安等提出,算法新聞在揭示事件深層真相及提供深度現實解析方面存在局限。相較之下,人類在事實甄別與復雜邏輯推理方面具有獨特價值,這不僅體現了記者的創造性,也突顯了算法所缺乏的人類特質,間接批判了算法新聞生產過程中價值異化的現象[23]。Allcott等的研究發現,算法新聞的自動化生產和分發機制降低了假新聞生成和傳播的門檻,使得虛假信息能夠迅速在網絡空間擴散。這種傳播方式不僅損害了新聞的公信力,也可能被外部群體利用,通過干預信息流動來影響公共輿論[24]。
在算法新聞的運作過程中,由于缺乏主觀能動性,算法本身無法對新聞內容的真實性進行判斷和篩選。正如Anderson所指出的,算法僅僅是按照預設的程序和規則執行任務,它無法主動提升新聞內容的質量,也難以識別和過濾掉假新聞[25]。但算法新聞能夠根據用戶的閱讀習慣和偏好提供個性化的新聞推薦,助推了受眾確認偏誤的形成與鞏固。這種局限性意味著,它在無法保證推薦內容的質量和真實性的情況下,就把符合受眾偏好的信息展示在受眾面前,很可能導致受眾對真實世界的認知產生偏差。虛假新聞與確認偏誤之間存在相互作用。虛假新聞可以引起或增強受眾的確認偏誤,而確認偏誤又可能導致虛假新聞的接受和再傳播。
(四)過濾氣泡與輿論極化
在算法對于新聞生產流程的影響研究中,算法帶來的智能化的精準分發是被討論最多的議題。過濾氣泡、信息繭房與回音室效應都是在討論算法重塑新聞分發過程時常被提及的概念。這些現象共同描繪了一個信息分發的圖景,其中個性化推薦算法可能導致用戶僅被投放與其現有觀點相一致的信息,從而形成了過濾氣泡。這種現象不僅限制了用戶的信息接觸范圍,也可能導致公眾對現實世界的片面理解。
隨著移動互聯網和智能設備的普及,新聞消費行為逐漸向移動端遷移。各類新聞應用程序通過收集用戶的信息偏好、生理節律等數據,構建了更為精準的用戶畫像。這些數據使得算法能夠更精確地推送符合用戶興趣和偏好的新聞內容,從而在一定程度上滿足了用戶的個性化需求。然而,這種個性化服務的另一面是加劇了過濾氣泡效應[26]。用戶在不知不覺中被限制在一個狹窄的信息空間內,缺乏對不同觀點和信息的接觸,為輿論極化提供了土壤。回音室效應是過濾氣泡效應的延伸,算法助推生成了一個相對封閉的信息環境,其中相似的觀點和信念不斷被重復和加強。在這樣的環境中,受眾被同類信息所包圍,異質性觀點難以進入,從而導致用戶的認知和態度進一步極化。這種環境不僅會使個體的態度、信念和決策變得更加極端,也可能在更廣泛的社會層面上引發問題,如社會分裂和極端主義思想的滋生。
(五)隱私泄露與數字孿生
從算法新聞的隱私風險角度,其自動化內容生產和分發的技術架構,依賴于大規模數據集內的用戶畫像和新聞資訊接觸數據。各個終端制造商及媒體服務平臺均建有收集用戶數據的數據庫,其中詳盡記錄了用戶的個人信息及網絡活動,包括性別和年齡等人口學信息、受眾主動的偏好設置、被動的信息偏好模式、消費習慣、其他行為模式和生理節律等,這類信息收集行為,在現實意義上生成了用戶的“數字孿生”。這一方面為算法新聞的生成提供了基礎素材,并精確定位了推送信息的目標受眾。另一方面,這些詳盡的個人信息,特別是過往內隱性的心理信息,通過數字孿生變為可測量、可計算、可復制和可利用的外顯信息,這對個人隱私權構成了新的威脅。
跨國互聯網巨頭如Google、Facebook以及國內的阿里及騰訊,由于其龐大的用戶基數,掌握了海量的用戶網絡行為數據,這些數據匯聚成可供算法分析的大數據資源。用戶在使用網絡服務,即是在不斷地貢獻數據,同時也在無形中暴露了個人隱私。在平臺服務器中存儲了無數用戶的“數字孿生”,這形成了算法助推下的一種全景式監控的格局,使得個人的認知、行為、態度和偏好均成為可被全面觀察的對象。如2012年Google繞過Safari瀏覽器的隱私設置,追蹤用戶瀏覽活動的行為等隱私侵犯事件仍屢見不鮮。個人信息的非知情記錄與公民對隱私的期望背道而馳,大數據的采集與個人信息隱私權的沖突日益顯著。從傳統的“私密領域”保護到對“信息自主權”的主張,及業界對“被遺忘權”的討論,隱私風險也一直是算法新聞及其內容源頭的大數據相關的認知倫理討論的核心。
四、算法認知偏向的防范
算法新聞的認知風險涉及有偏價值導向、算法黑箱、虛假新聞、過濾氣泡及隱私泄露等多個方面。要有效防范這些認知風險,需要從技術、法律和倫理等多個維度進行綜合考慮。目前學界與業界關于算法風險治理有三條明確路徑。
(一)回收算法把關權限
算法新聞有偏及虛假內容的生產,其根源在于“算法對把關權力的程序化收編”[11]。在傳統新聞業中,新聞制作者依據新聞價值標準,如事件的重要性、時效性等關鍵屬性,并結合其職業倫理自我認同,對新聞素材進行精心撰寫與編輯。在算法時代,面對便捷性、共享性以及信息碎片化等新興要求,傳統新聞工作者作為信息守門人的角色逐漸被數據驅動和算法決策所取代。
許加彪等強調了內容審核人員在確保新聞真實性中的重要性,提出在人工智能時代,應當建立一個人機協作的糾錯機制,即以人工審核為主,機器算法為輔。這種機制能夠有效地結合人類的專業判斷和機器的高效處理能力,確保新聞內容的真實性和可靠性。通過這種方式,可以在快速變化的信息環境中,保持新聞質量的高標準[27]。鞠宇恒通過對今日頭條的案例分析,揭示了算法驅動的新聞生產與分發平臺在內容審核機制上的不足。該研究指出,算法引發的一連串問題,源于人工編輯在算法決策過程中的缺位,這導致了算法審核的優先級超越了人工編輯。這種優先算法審核后人工審核的機制,可能會導致信息內容的質量控制不力。同時,算法審核標準忽略了傳統新聞價值觀念,致使其內容充斥著大量具有負面價值導向的內容,如色情、低俗和虛假信息。[28]
為解決算法對于把關權力的收編,圖靈獎得主Donald Knuth提出了一種整合技術邏輯與職業規范的策略,強調算法工程師與專業工作者之間應建立緊密的協作關系[29]。依據他的觀點,在算法開發過程中應該融入新聞職業的倫理和價值觀,以確保算法不僅遵循技術邏輯,同時也符合新聞傳播的真實性和公正性要求。
Jane Kirtley從法律和倫理的角度,指出算法固有的局限性可能無意中促成虛假新聞的產生與擴散,同時導致具有新聞價值的信息被邊緣化[30]。她提倡采用“人工影響模式”,通過人工干預來識別和阻止虛假新聞的傳播。Kirtley的論述強調了在算法新聞生產中人工監督和審查的必要性,以及在算法可能導致的偏差中發揮人的主觀能動性。
盡管算法技術在新聞傳播領域的應用帶來了諸多便利和效率提升,但其管理和規制的問題也日益凸顯。雖然算法新聞的自動化生產改變了傳統新聞業的運作模式,但人的參與在確保新聞內容的真實性和可靠性方面仍然不可或缺。隨著算法新聞的普及,對于算法可能導致的錯誤和偏差,需要明確責任歸屬,劃定把關責任的界限,以便進行有效的監督和管理。在這一過程中,媒體人、算法設計師、傳播學者需共同協作,探討如何在算法新聞的生產和分發中平衡技術自動化與人工把關的關系。
(二)嵌入風險感知規則
算法新聞產生過濾氣泡及隱私泄露等風險的核心,在于算法本身缺乏固有的道德判斷能力和自我糾正機制。算法設計者往往聲稱其產品是“價值中立”的,但這種中立性實際上為負面認知的傳播提供了空間。換言之,這種所謂的中立性反倒致其在處理信息時無法有效識別和抵制有害內容,從而產生了認知風險。
在流量為王的當下,各類算法新聞平臺及其背后資本將大量的算力資源投入內容生產及分發,以吸引廣泛的受眾注意并實現商業利益最大化。為了爭奪注意力,有些平臺將資源和流量導向那些能夠激發用戶興趣的價值有偏內容。基于用戶共性興趣,低俗和獵奇的新聞內容往往能吸引大量的流量。這種以迎合用戶偏好為標準的內容分發機制,短期內雖能迅速吸引用戶,實現流量激增,但從長遠來看,將引發算法新聞,乃至整個新聞行業的信任風險。算法平臺應積極履行媒體社會責任,將積極的社會態度和價值觀整合入算法模型和內容生成分發系統中,將法律、道德等社會規范和價值觀念編碼嵌入算法系統。
Daniel Neyland在其研究中指出,算法在悄無聲息中對我們的生活施加了限制,并對我們的隱私權造成了侵犯。他提出,通過將問責機制編碼整合進算法系統中,我們能夠構建一個算法自監督的體系[31]。這要求算法的設計者和運營者,不僅要關注技術的效率,還要考慮到算法可能帶來的倫理后果,并為此承擔責任。這意味著算法需要內置一種機制,能夠對其輸出的內容進行道德和倫理層面的評估,并在發現問題時及時進行調整。
陳璐瑛概述了一個三步流程:第一步識別并制定算法應遵循的倫理規范,規劃在價值沖突時的應對策略。第二步將這些規范轉化為代碼,自上而下修正算法,并通過投入人類社會真實樣本來讓算法學習價值判斷。第三步是對算法系統的工作成果進行評估[32]。
Betsy Williams提出了探索性歧視感知數據挖掘(Exploratory Discrimination-aware Data Mining)的策略,該策略的核心在于通過數據分析的過程,主動尋找和監測可能導致歧視的模式和趨勢,從而在算法決策過程中預防和減少不公平現象的發生。Williams的研究表明,社會類別數據,如性別、種族和年齡等,盡管在某些情況下可能被認為具有敏感性,但在揭示和對抗算法中的歧視性決策方面發揮著關鍵作用[33]。通過積極地使用這些數據,研究者和開發者能夠更準確地識別和理解算法決策背后的社會動態,進而設計出更為公正和透明的算法模型。
(三)構建算法透明機制
在學術界和產業界的共識中,提高算法的可透視性被視為確保算法新聞真實性的關鍵條件。這不僅有助于受眾辨別新聞內容的真偽,也便于對媒體機構的運作進行有效監管。然而,達到完全的開放和透明仍是一種理想化的追求。
張淑玲認為,為了建立算法的公開機制,應當從算法的構成要素、程序流程和運作背景三個維度進行明確[34]。多維度的透明度策略不僅有助于受眾理解算法如何運作,也為監管機構提供了監督和評估算法決策的基礎。可以確保算法新聞的生產過程更加公開,從而增強新聞內容的可信度和權威性。遵循透明度原則,新聞機構與算法開發者需從數據源、運算邏輯和算法背景三方面確保算法透明度。
數據透明要求新聞平臺對數據源的披露、數據處理的質量和方法進行詳盡的公開。這包括但不限于數據的采集方法、樣本的代表性、數據的可信度與準確性,以及數據處理過程中的關鍵變量。通過這種方式,受眾能夠對算法如何影響新聞內容的生成和推送有一個清晰的認識,從而提升對算法運作機制的理解。
運算透明強調設計者和工程師需向公眾闡明算法的工作原理、決策邏輯以及數據處理過程中可能存在的不確定性。這不僅涉及到算法的推薦機制,還包括算法在處理信息時所依賴的規則和參數。
背景透明要求新聞機構應明確算法設計者和人工編輯在內容篩選過程中的角色和參與程度,尤其是在處理涉及社會價值導向的新聞時。機構需要向受眾傳達算法設計的初衷和目標,以避免潛在的偏見和誤導,從而提升公眾對新聞內容生成機制的信任。
結 ?語
算法新聞作為一種新興的傳播形態,其在提升新聞生產效率和滿足個性化需求方面展現出巨大潛力,但其引發的認知風險也不容忽視。價值有偏內容引發的認知失調、算法黑箱導致的媒介信任缺失、自動化虛假新聞生成誘發的受眾確認偏誤增強、過濾氣泡助推的輿論極化、隱私泄露產生的數字孿生暴露,均是當前算法新聞領域已被確證存在的認知風險。這些風險的存在,提示我們算法新聞的發展不應僅追求效率的最大化,更應關注其對社會價值觀、信息真實性和公眾信任的影響。
在防范算法認知偏向的過程中,技術、法律和倫理的多維治理路徑為我們提供了重要啟示。首先,回收算法把關權限,確保人工編輯在新聞生產中的核心作用,是維護新聞質量的關鍵。其次,嵌入風險感知規則,將社會責任和倫理規范編碼進算法,是預防和減少算法偏差的有效途徑。最后,構建算法透明機制,提高算法的可解釋性,是增強公眾信任和監管機構有效監督的基礎。
面對算法新聞的挑戰,新聞機構、技術開發者和政策制定者需探索平衡技術創新與社會責任的新路徑。這不僅要求我們在技術層面上的創新,更需要在價值層面上進行深入反思。唯有如此,算法新聞才能在促進社會發展的同時,避免潛在的認知風險,真正成為服務于公眾及“四全”媒體建設的有益工具。
參考文獻
[1]SMITH A. Public attitudes toward computer algorithms[EB/OL].(2018-11-16)[2023-03-01].https://www.
pewresearch.org/internet/2018/11/16/public-attitudes-toward-computeralgorithms.
[2]SIM D H, SHIN S J. Implementation of algorithm to write articles by stock robot[J]. International Journal of Advanced Smart Convergence, 2016, 5(4): 40-47.
[3]APPELMAN A. The News Gap: When the information preferences of the media and the public diverge[J]. Journalism & Mass Communication Quarterly, 2014, 91(4): 848-850.
[4]彭蘭.智媒化:未來媒體浪潮——新媒體發展趨勢報告[J].國際新聞界,2016,38(11):6-24.
[5]張洪忠,石韋穎,劉力銘.如何從技術邏輯認識人工智能對傳媒業的影響[J].新聞界,2018(2):17-22.
[6]范紅霞,孫金波.數據新聞的算法革命與未來趨向[J].現代傳播(中國傳媒大學學報),2018,40(5):131-135.
[7]王佳航.數據與算法驅動下的歐美新聞生產變革[J].新聞與寫作,2016(12):38-42.
[8]楊舒涵.算法新聞生產中的把關機制研究[D].山東師范大學,2019.
[9]何天平,倪樂融.機器人新聞的迷思:“記者”將被淘汰?[J].東南傳播,2018(3):1-2.
[10]LASH S. Power after hegemony: Cultural studies in mutation?[J]. Theory, Culture & Society, 2007, 24(3): 55-78.
[11]喻國明,楊瑩瑩,閆巧妹.算法即權力:算法范式在新聞傳播中的權力革命[J].編輯之友,2018(5):5-12.
[12]彭蘭.機器與算法的流行時代,人該怎么辦[J].新聞與寫作,2016(12):25-28.
[13]保羅·利文森.軟邊緣:信息革命的歷史與未來[M].北京:清華大學出版社,2002.
[14]FRIEDMAN B, NISSENBAUM H. Bias in computer systems[J]. Transactions on Information Systems, 1996, 14(3): 330-347.
[15]董天策,何旭.算法新聞的倫理審視[J].新聞界,2019(1):27-33.
[16]鄧建國.機器人新聞:原理、風險和影響[J].新聞記者,2016(9):10-17.
[17]陸新蕾.算法新聞:技術變革下的問題與挑戰[J].當代傳播,2018(6):87-89.
[18]鄧勝利,趙海平.基于認知失調理論的偏差信息搜尋行為與認知的作用機理研究[J].情報科學,2019,37(1):9-15.
[19]周葆華,駱陶陶.人工智能重塑新聞業:進展、問題與價值[J].南京政治學院學報,2018,34(6):83-89.
[20]陳昌鳳,師文.個性化新聞推薦算法的技術解讀與價值探討[J].中國編輯,2018(10):9-14.
[21]王海燕.加速的新聞:數字化環境下新聞工作的時間性變化及影響[J].新聞與傳播研究,2019,26(10):36-54.
[22]CHENG X, LIN X, SHEN X, et al. The dark sides of AI[J]. Electronic Markets, 2022, 32(1): 11-15.
[23]張志安,劉杰. 人工智能與新聞業:技術驅動與價值反思[J]. 新聞與寫作,2017(11):5-9.
[24]ALLCOTT H, GENTZKOW M. Social media and fake news in the 2016 election[J]. Journal of Economic Perspectives, 2017, 31(2): 211-236.
[25]ANDERSON C W. Rebuilding the news: Metropolitan journalism in the digital age[J]. Digital Journalism, 2013, 2(2): 249-251.
[26]ROWLAND F. The filter bubble: What the internet is hiding from you[J]. Portal: Libraries and the Academy, 2011, 11(4): 1009-1011.
[27]許加彪,韋文娟,高艷陽. 技術哲學視角下機器人新聞生產的倫理審視[J]. 當代傳播,2019(1):89-91.
[28]鞠宇恒.大數據算法下新聞把關機制研究——以今日頭條為例[J]. 傳播力研究,2019,3(36):74.
[29]KNUTH DONALDE. 計算機程序設計藝術(第3版)[M].北京:國防工業出版社,2002.
[30]KIRTLEY J E, MEMMEL S. Rewriting the“book of the machine”: Regulatory and liability issues for the internet of things[J]. Minnesota Journal of Law Science & Technology, 2018, 19: 455.
[31]NEYLAND D. Bearing account-able witness to the ethical algorithmic system[J]. Science, Technology & Human Values, 2016, 41(1): 50-76.
[32]陳璐瑛.算法新聞的傳播倫理失范問題及對策研究[D].遼寧大學,2021.
[33]WILLIAMS B A, BROOKS C F, SHMARGAD Y. How algorithms discriminate based on data they lack: Challenges, solutions, and policy implications[J]. Journal of Information Policy, 2018, 8: 78-115.
[34]張淑玲.破解黑箱:智媒時代的算法權力規制與透明實現機制[J].中國出版,2018(7):49-53.
(責任編輯:孫碧玲)