【內容提要】數字技術的應用深刻地改變了新聞傳播的現有格局,算法參與到新聞生產與分發的全過程中,使新聞內容生產變得更快、更多、更客觀,內容分發也變得更精準。但在算法加持下的更快、更多、更客觀和更精準并未在職業倫理維度上實現算法向善,反而給新聞業帶來更多的倫理焦慮和現實困境,算法追求“成本-效率”的商業邏輯與新聞追求公共利益最大化的倫理邏輯之間存在著巨大的張力,必須在算法向善的維度上對技術進行必要的引導與規制。
【關鍵詞】人工智能" 數字向善" 算法新聞
號稱“史上最強AI”的ChatGPT,本質上是人工智能技術驅動的自然語言處理工具,其運行邏輯是依賴算法對海量數據的自動挖掘、處理與預測。作為一套準確而完整的解題思路,算法被應用于人工智能設計開發、后臺運行、場景應用等全過程,通過一系列清晰的解決問題指令,將符合一定規范的輸入數據在有限時間內生產出符合要求的輸出信息。在討論人工智能應用于新聞業的相關問題時,使用“算法新聞”比“人工智能新聞”、“機器人新聞”或“自動化新聞”等概念更準確,以算法為基本線索,突出了算法的核心地位,[1]更能揭示出人工智能時代新聞生產與分發的本質特征與基本規律。
2023年1月,美國科技新聞網站cnet悄悄上線了70多篇署名為記者實則由人工智能自動生成的新聞報道,這些報道中存在許多明顯的錯誤,引起了新聞業對人工智能技術的深刻憂思。隨著算法不斷深入新聞領域,倫理挑戰將持續出現。目前,算法新聞面臨算法權力、客觀性透明性危機、數據濫用、意識形態、隱私、版權、虛假新聞、個性化推薦等倫理挑戰,但缺乏整體認識論框架。早有外國學者提出運用道義論、功利主義、契約主義、美德倫理學或多層責任體系等宏大的道德理論去探討諸如上述問題,但是技術動態發展的復雜性使得僅僅關注新聞工作慣例和日常實踐活動的道德理論通常在負面事件出現以后才發揮作用,很難成為一套前瞻性的評判標準。因此,本文主張采用更為廣泛的方法——以向“善”這一直接觸及倫理學最初始和最基本概念的尺度,從微觀層面對算法新聞可能引發的現實問題進行分析,以其蘊含的道德意蘊和價值導向彌合技術話語體系與道德話語體系之間的裂縫,為進一步研究算法新聞倫理和規制提供邏輯起點。
“善”是對合乎規范和道德觀念的行為實踐的積極評價,是人與技術相處關系中得到滿足的正向價值。算法之善是以速度、規模、客觀、精準為目標的資本逐利策略,不可否認其為社會效率提升帶來了巨大驅動力;新聞之善是“公共善”——以公共利益為神圣使命,需要個體利益的最小犧牲而換取新聞之善的最大擴張。因此,以向“善”為尺度的評判,歸根到底是人類對于實現美好生活的想象,對算法新聞自身“趨惡”態勢導致人類對其失去控制,最終陷入蘭登·溫納所預言的“新奴役狀態”[2]的擔憂。我國首部“算法”規范性文件《關于加強互聯網信息服務算法綜合治理的指導意見》(以下稱《意見》)指出,算法的不合理應用影響了正常的傳播秩序,應當引導算法應用向上向善。“向善”理念作為數字法理的基礎概念和數字法治的第一價值觀[3],是本文對算法新聞向“善”邏輯展開批判的出發點和立足點,是數字文明時代人工智能風險預防和實踐指導的基本原則。
在人工智能與新聞傳播深度交融的環境中,算法嵌入了新聞生產與分發的全鏈條。在內容生產環節,算法將傳統新聞業追求的速度、數量、客觀推向極致,但這符合新聞業的倫理要求嗎?在分發環節,精準推送改變了受眾與新聞的固有關系,但更精準是人類所求的良善目標嗎?從更快、更多、更客觀、更精準這四個維度探尋算法的向善邏輯,剖析算法技術與新聞業深度交融所帶來的倫理焦慮和現實困境,對算法技術保持一定的審慎與清醒,也許并非壞事。
一、更快=善?
算法最強大的向善的邏輯便是速度,“快”是其作為一套解題思路所必須追求的目標。同樣,速度也是新聞的關鍵目標。強烈的時效性是新聞的特性之一,新聞工作就是在時間的機床上奔忙[4],追求時效性歷來都是新聞業“硬實力”的體現。在前AI時代,新聞時效性的保障主要依賴人力,而當算法深刻介入新聞生產的各環節后,依靠計算機高速的運行以及算法流程化的操作,新聞生產的速度實現了質的飛躍:在選題階段,算法敏銳地捕捉公眾興趣、閱讀習慣、時事熱點等信息,通過把關和決策將熱點事件轉化為新聞事件,如美國知名互聯網新聞博客Mashable開發的Velocity工具,就可以在極短時間內判斷出新聞的傳播趨勢和可能存在的爆點,相較于利用選題討論會等形式“苦思冥想”的傳統媒體人來說,算法選題的速度顯著提升;在數據收集階段,傳感器作為算法新聞的數據采集裝置,可實時捕獲海量信息,遠比記者趕赴現場進行調查、采訪要快得多;在稿件撰寫階段,算法的表現更為出眾,以ChatGPT為代表的自然語言處理工具進行內容生成的速度皆按秒計算,早在1998年,法國歐洲工商管理學院教授菲利普·帕克研發的算法出版軟件就可以在一小時內寫出一本書,后來韓國首爾大學研發的自動撰寫新聞的算法僅用0.3秒即可完成一篇股市行情的新聞報道。
但是算法的“更快、更快、更快”的向善邏輯嵌入新聞之后,導致新聞在過度追求時效的運作中產生了危險的偏差。
真實性消亡的危險。“搶新聞”的現象正面臨消亡,新的競爭局面不是搶新聞,而是誰能對新聞的闡釋更接近科學、更合理,誰才更能在媒體競爭中勝出。這也就意味著,一味圖快就可能遭遇新聞業最大的敵人——“假”,即由于內容失真而導致的假新聞泛濫。美國《洛杉磯時報》記者肯·施文克研發的報道地震新聞的智能機器人Quakebot,3分鐘內就能自動完成并發布新聞,但快掩蓋了真,報道將地震遇難者身份弄錯,導致NBA球員在地震中遇難的假新聞廣泛傳播。究其原因,算法的核心理念是“成本-效率”,為了減少成本、提高效率而設計出的規則必然優先考慮提高速度,而并不會將真實性放在優先考慮的地位。
把關人失守的危險。把新聞選擇的主導權讓渡給算法,算法由此便成了“把關人”[5]。記者總是用一套帶有犬儒主義色彩的集體話語“尋找一種既能在某一系統中生存,又不會讓自己的自信心受損的生活方式”來安慰自己失去把關人地位的受挫心情。實際上從算法將記者的署名從新聞報道中奪走的那一刻起,新聞的“層層把關”就淪為了“層層失守”,專業的榮耀被技術的“光輝”所掩蓋。與榮耀一同失守的還有新聞責任,傳播真相、提供導向、監督社會、重塑文化如此重要的責任正在丟失,傳統新聞的責任承擔者是其記者和編輯,但是現在這份沉重的責任落到了誰的身上?沒受過專業新聞訓練的程序員們,無法深刻認識新聞業所肩負的使命,他們編寫的算法如何能肩負起新聞第一責任人的神圣職責?新聞的署名權并不單單具有著作權法層面上的權利歸屬意義,更是把關人地位的宣誓和公眾信賴的基礎。
人文價值失格的危險。正如馬克思對機器化大生產的猛烈批判,“減輕勞動是一種折磨人的手段,因為機器不是使工人擺脫勞動,而是使工人的勞動毫無內容”,技術的進步使得勞動變成了流水線工程,工人們只不過是流水線上一個無生命的零件,無需感情和智慧的投入,只需要千萬次的機械重復,人的尊嚴和價值受到巨大沖擊,這是一種前所未有的“惡”。新聞不是刻板的、抽象化的語言組成的機械表達,它“是人的活動,是與生俱來的活動,是人與人之間的信息分享活動、精神交流活動、文化交往活動”[6],是一種純粹而天真的原始交流,是對話者之間言語和行動的交流,所以在新聞活動中人的主體性得到了充分發揮。而算法新聞則是一種抽象的機械生產,無需對災難表示悲痛和關懷,也無需對成就表示喜悅和贊嘆,只是在代碼中疾速穿行。從這點就能深刻理解為什么在“技術為王”的時代,總有那么多學者在吶喊“人工智能永遠不可能取代記者”。如果ChatGPT在撰寫災難新聞時,面對傷亡的慘狀時能落下炙熱的淚水、發出悲天憫人的長吁短嘆,學者們的堅守和吶喊才會顯得毫無意義。必須承認算法永遠無法向“善”,因為這種“善”是人類獨有的“溫度”,這種溫度無法和“快”一樣可以被算法轉化為數值。
在這個不斷追求可量化的世界里,或許最需要被保護的是人類屬性的不完美、次優、不完全有效率的能力,無休止地追求速度和效率,是人類已經被算法深刻影響的結果。邊沁從功利主義角度看,善就是趨樂避苦,若是技術進步能讓人們逃離痛苦而接近快樂,那么就是善的表現,如果短暫的快樂中蘊含著潛藏的、深遠的痛苦,必然是對善的悖離。從這個意義上說,算法新聞的“快”暗藏風險,提高新聞生產效率的同時,導致內容失真、把關人失守、人文價值失格,無論是對于受眾,還是對于新聞從業者來說,都沒有能夠逃離痛苦、接近快樂。
二、更多=善?
美聯社的機器人Wordsmith每周撰寫數百萬篇新聞報道,每秒生產2000篇文章;美國Automatic Insights在2016年制作了15億條新聞……據初步統計,2018年采用算法新聞軟件的美國傳統媒體就已超過了50家,由此人類進入了一個新聞業的高產時代——算法介入新聞生產環節極大地提高了新聞生產效率,創造了一個“新聞過載”的世界。表面看空前豐富的新聞信息使人類的決策依據顯著增加,但實際上人類若想真正享受這一利好,還必須有兩個重要前提:其一,這些新聞是高質量、非同質化的,否則這些新聞就是一堆“信息垃圾”;其二,“過載”的新聞提升了閱讀門檻,要求人們必須有更高的信息篩選力和信息辨析力。
一般而言,“新聞過載”并非指大量優質新聞造成的絕對過剩,而是指大量同質化、低質化的冗余信息造成的相對過剩,導致了新聞傳播大環境的冗雜和傳播資源的浪費,造成了“我們會比以往獲得更多信息,同時也更容易困惑;我們會更容易看見真相,同時真相也更難獲得”[7]的信息困境。在當前信息相對過剩加劇的傳播環境下,個體信息選擇雖然日益多元化,但有效信息的接受量卻僅維持在較低的量級上,很多新聞不是毫無價值就是無暇顧及,非但沒有為決策提供更多幫助,反而造成了巨大的閱讀負擔,令受眾產生了“新聞疲勞”。初級階段的算法新聞創造的海量靜態描述性新聞,高度依賴結構化數據[8],所以那些只能報道財經、體育、氣候等領域的新聞因缺乏生動的敘事和靈動的文筆,使得本就陷入“新聞疲勞”的受眾在枯燥和同質中更加精疲力竭。人在選擇過剩時很多行為都是非理性的,過多的選擇可能會讓人從“選擇者”(Chooser)變為“撿拾者”(Picker)。選擇者在決策前會積極思考各個選項,判斷孰輕孰重,評估所做決定的短期利益和長遠價值;而撿拾者則并非如此,他們往往懷著“撿到籃里就是菜”的心態,抓住什么就是什么,卻又希望自己抓到的是最佳選擇。新聞呈現碎片式分布,人們獲得有價值的信息的難度顯著增加,因此人們不得不付出加倍的努力去選擇、甄別,做認真挑選的選擇者而非撿拾者,才能拼湊出有價值的信息。
產生更“多”的新聞是需要傳出成本的,利用算法進行大規模新聞生產也并非輕而易舉,因為現代技術是大規模和高資源消耗的系統,需要投入大量的資金。正是由于硬件、軟件、技術、資本等多方面的制約,美國的算法新聞生產大都集中在美聯社、《紐約時報》、《華盛頓郵報》等大媒體集團,較小的媒體根本沒有經濟實力將算法深度融合到新聞傳播中。由于算法技術需要高額的資金支持,實際上也就導致算法新聞背負了“金元新聞”的嫌疑。資本是算法霸權的來源之一[9],在資本控制下的算法會封殺那些對資本不利的信息,這樣不但會影響信息的客觀真實性,更可能因算法新聞過于集中在大的傳媒集團手中,最終形成信息寡頭,影響信息的多樣化,對信息自由市場仍然是一個致命的打擊,算法生產的新聞越多,則離信息民主化會越遠。
在審核和核實環節,算法將新聞推入了“黑箱”之中,切斷了算法結論與事實之間的聯系,使得新聞成為“勿需推敲”的成品,在審稿環節對事實的核查、對真相邏輯鏈的追尋迷霧重重[10]。加之算法按秒生產的新聞數量過于龐大,遠超人力審核的極限,就算是像Facebook每年投入上萬人力進行內容審核,仍然避免不了各類侵權問題頻發,所以美聯社在采用Wordsmith之后就不再對其撰寫的財經報道進行人工核實。算法生產的新聞越多,問題和差錯也就越多。算法帶來了新聞生產量的紅利,但產量高不等于質量高,有質量瑕疵的新聞越多,對人類的價值就越少。
效率與產量至上的邏輯必然帶來新聞相對過剩的災難性后果。當信息自由市場被算法背后的資本邏輯破壞后,它所生產的龐雜的、冰冷的內容,令受眾產生厭倦。因為信息不再能消除人的不確定性,不再能給人帶來快樂與希望,而是帶來枯燥、乏味、甚至絕望。或許,人們厭倦的不是新聞本身,而是失去人文關懷和內心寧靜后的消極情緒。
三、更客觀=善?
何謂新聞的客觀性?就本體論看,客觀性指某事物不以人的意志為轉移的真實存在,即“什么是真實的”,這是新聞客觀性的邏輯起點;就認識論看,客觀性關心的是新聞的主觀認識形式,包含事實的準確性和解釋的合理性兩方面,即“如何知道這是真實的”;就方法論看,客觀性代表著一整套建立在正確核實的證據基礎上、不帶偏見的調查方法,即“如何保證這是真實的”。簡言之,在談及新聞客觀性時必須承認一個基本事實——人類永遠無法達到本體論上的客觀性。“客觀性的最初含義引入是新聞工作者無法做到客觀,但是在方法上可以做到客觀,所以關鍵在于規范和約束生產方式”。因此,“更客觀=善?”的問題就轉化為了算法作為新聞的生產方式,能否有助于方法論上的新聞客觀性原則的實現。
要回答這個問題,需先厘清算法新聞表現出的“客觀”是什么。首先,算法新聞的“客觀”是數據客觀。數據是客觀事實的數字化存在,代表某件事物的客觀描述,數據具有本體論上的客觀性,依賴于數據整合與結構化模板生成的算法新聞因此也具有了客觀性。其次,算法新聞的“客觀”是敘事客觀。算法能夠擺脫人類主觀認識、知識水平、價值差異等因素的制約,進行不帶偏見、客觀中立的敘事。再次,算法新聞的“客觀”是感知客觀。已有調查表明,人們普遍認為機器運算的結果比人工更客觀可信。技術理性塑造了人們對機器高度信賴的觀念,人們堅信CT掃描比醫生的望聞問切更精準、測謊儀比警察的訊問更有效,“這就是技術壟斷時代的魔法”。
然而,從技術理性的陷阱中跳脫出來,會發現二者呈現相互悖離的關系。首先,數據客觀是一種偽客觀。數據是世界的量化版本,被量化的過程就是以“效率”為價值判斷而進行的簡化操作,因此數據本身就會包含偏見。第二,敘事客觀是一種“客觀謬誤”。盡管哲學家布魯諾·拉圖爾稱密封完好的算法“黑箱”擺脫了虛構、表示、象征、近似與管理構成的世界,因此絕對正確,但實際上算法所謂的中立會重復和鞏固世界上已經存在的不公正,進而也就導致了算法新聞中的算法歧視、算法偏見等問題頻頻發生。算法本身就是人的意志的體現,是算法程序設計者解決問題思路的映射,深受程序設計者思維模式、認知水平甚至價值體系等因素的影響,形成了一種隱蔽而鮮明的“算法意識形態”。第三,感知客觀是一種靜態、片面、單向度的客觀。從傳者的角度來看,新聞工作追求的是動態的、發展中的事物變化過程,并不是將自身角色限定于盲目追求事實再現的工具。從受眾的角度來看,新聞本應幫助人們形成對社會完整而真實的認知,但是算法新聞卻在構建簡筆畫般的社會圖景。“算法主要是對復雜的新聞寫作過程的簡化和提煉,是一種‘以簡御繁’的化約主義,也就存在著‘掛一漏萬’的不足”[11],歸根到底算法新聞秉持的并非是以個人正義觀為核心的社會正義觀[12],而是一種以效率為核心的群組正義觀——建立在統計奇偶性基礎上的正義觀,這與傳統新聞再現新聞事實、呈現真實社會圖景以達到媒介公正的觀念相悖離。如果人們持續生活在算法新聞所塑造的簡化的“擬態環境”中,接受算法的操控而丟掉生活復雜的邏輯,那么可以想象人們終將與現實真相背道而馳。
另外,新聞客觀性原則在數字時代最為重要的體現就是透明性原則,要求“在新聞實踐中盡可能地透明”,如信息來源的透明性,開放編輯部供公眾監督、檢查,新聞生產中的公眾參與,公布采訪記錄和原始稿件等。然而,當算法介入后,新聞生產被置入更深的“黑箱”之中。尤其是在無監督式的算法模式中,算法通過深度學習使新聞生產成為相對獨立的、無需人工操作的自動化過程,新聞生產完全在密閉的“黑箱”中進行,新聞透明性被遮蔽。“如果你首先都做不到對受眾真誠,又如何能自稱追求和傳遞真相呢”?新聞對公眾保密的行為,只會使得公眾對新聞工作者愈加不信任,新聞工作將遭到更多的質疑和批評。
在數字科技善惡的論爭上,自然主義一直秉持善就是幫助人類進化的觀點。從這個角度看,算法新聞不僅沒有進一步開發大腦的智慧和增強人們認識世界的能力,反而通過使人類認識一個簡單化的世界促使懶惰、消極態度蔓延開來。算法新聞生產通過標準化、數據化處理,將主觀情感、認識水平、個人素養等方面的非標準化因素全面排除,最終達致技術理性的“客觀”,模糊了以呈現社會完整圖景為使命的新聞客觀性原則。在這一過程中,“神話般的算法”遮蔽了現實并以強大的提取和煉化能力塑造著人的命運,簡化和扭曲人的想象力,人們認識復雜世界的能力在技術助推下逐步退化了。尼爾·波茲曼對此早有警示,“魔法的厲害之處,在于將人們的注意力指向錯誤的地方,并通過這種做法,在我們心中喚起了一陣陣的好奇心,而不是理解力。在技術壟斷時代,我們被機器各種奇跡般的效果所折服,從而傾向于忽視其背后所蘊含的思想”[13]。
四、更精準=善?
早在20世紀90年代,尼葛洛龐帝有過一種“我的日報”(Daily Me)[14]的想象:您的報紙可以跟蹤您跳過和重讀的內容、您暫停的位置,它只會呈現您最關心的新聞,并通過洞察您的觀看不斷作出適應性的調整。今天,想象已成為現實,尤其是算法實現了新聞生產、新聞分發的同步,以及一對一精準化、個性化的推送,將“我的日報”推到了極致!“今日頭條”是國內最早實現個性化推送的新聞平臺,其上線時的口號是“你關心的便是頭條”,將“精準”作為最大的賣點。但卻因為過于“精準”而引發一系列問題,在2018年飽受爭議的情況下更改其核心口號為“信息創造價值”,從對精準的盲目追求轉向了注重新聞質量和傳播價值。所以,對于精準分發程度的不懈追求,真的會給人類帶來更大的福祉嗎?
《紐約時報》主筆尼古拉斯·克里斯托夫在十多年前提出的擔憂仍振聾發聵:自我選擇的“個性化”新聞具有麻醉作用,使人們陷入一種自信的昏迷狀態[15]。如今人們沉浸在算法推薦服務帶來的便利之中,卻很少為已然身處“一個人的社區”而感到憂慮,并且對此充滿了信心:對于新聞從業者而言,算法推薦服務大大提高了內容分發效率,更加有效地保障了公眾的知情需要,滿足了信息時代“千人千面”“各有所好”的需求;對于受眾而言,本因傳播資源有限而委托出去的新聞傳播權利又重新回到了自己手中,從“人找信息”的劣勢地位轉為“信息找人”的優勢地位,主體性地位凸顯。
但這種信心正發揮著“麻醉劑”的作用,使人陷入昏迷:在一個媒體和代碼無處不在的社會,權力越來越存在于算法之中[16],新聞從業者似乎并未意識到,或者是用那套犬儒主義的話術來遮掩事實,介入分發環節的算法正在“篡位奪權”——算法推薦服務將本該掌握在傳統媒體手中的分發權奪走了,其用流量、點贊、閱讀量等算法邏輯取代了新聞媒體對新聞價值的把控,由此導致娛樂獵奇新聞大行其道,經濟效益成為衡量新聞價值的標準。丟掉了專業判斷的權力,被充滿誘惑的算法所吸引,新聞“社會公器”的使命逐漸衰弱,開始麻木地迎合算法輻射出的市場邏輯和流量理念,以用戶的關注為標準,創造了越來越多隱私窺探、低俗趣味、無營養的感官刺激類新聞。澳大利亞是第一個在全國范圍內停止向平臺免費分發新聞內容的國家,新聞出版商聯合起來跟Google、Facebook談判商業模式,正在試圖將新聞生產和分發的權力從算法手中奪回來。
而受眾的“昏迷狀態”很早就被察覺到了,“信息繭房”“回聲室效應”“過濾氣泡”等概念的提出都旨在描述受眾因算法推薦服務而日益被剝奪信息選擇權的現實困境。桑斯坦提出的“信息繭房”雖然并非完全由算法而產生,早在互聯網出現前就已初顯端倪,“媒體會根據自身的政治或市場定位及角色擔當而以某種價值框架來選擇性地呈現和反映這個世界”[17],但是算法推薦卻在經濟利益的驅動下,塑造一種“成癮性繭房”,不斷發送類似信息以刺激用戶的神經[18],誘導用戶增加停留時長,從而在規制用戶中獲得經濟利益。Facebook自2016年深陷“趨勢話題”事件之后,一直在致力于完善自己的算法推薦服務,推出了News Feed新聞價值觀,包括社交優先、“有用的信息”是關鍵、不要忘記娛樂、推崇多元觀點、真實性很重要等[19],這些原則被量化后內嵌于算法之中,不僅塑造著新的新聞分發生態,也潛移默化地影響著人們的認知框架和價值選擇,這種生命化、日常化、個性化的服務作為一種軟控制往往更嚴重、更隱蔽。這“將用戶束縛在由興趣和先入之見所引導的狹隘的信息領域”,導致了新聞維度的“數字鴻溝”和“階層分化”風險。馬克思主義認為技術進步是促進人全面發展的重要杠桿,評價數字技術的善惡也必須從是否實現了人的自由與發展角度出發。算法推薦服務將飽受信息爆炸之困擾的受眾解放出來,使其在個性化推薦中擁有了更高的主體性。然而,算法在將人們從一種辛苦勞作中解放出來的同時,卻以極致的方式將人推向了另一種被算法“奴役”的束縛中,無底線精準的背后是對用戶主體性和自主權的掠奪。
需要強調的是,新聞價值具有一套既定的標準,比如關涉公共利益、真實客觀,這也正是新聞所存在的意義本身,而并非是由每一位讀者的興趣和偏好所決定。因而,真正有益的算法新聞推薦服務應當有選擇地嵌入量化的新聞價值指標,比如挪威的《晚郵報》推出Schibsted算法,內嵌專業的新聞價值標準而自動計算“重要新聞”版塊,并不是簡單由用戶閱讀量和興趣偏好驅動;再比如美國國家公共廣播電臺NFPOne程序的算法,它非常克制地僅僅對一小部分類型新聞進行個性化推薦,絕不會縱容個性化觸碰到與公民知情權實現有關的重要新聞。因而,如果算法對“精準”的詮釋是無底線地迎合人們的個性化需求,那新聞本身為“善”的意義將被泛娛樂化所取代;如果算法的“精準”是對新聞價值的展現,確保人們收到關于這個世界的重要信息,這才是算法嵌入新聞業所應當承載的使命。
五、加強數字向善的制度設計
針對算法推薦服務暴露出的問題,我國近年制定了一系列政策。《互聯網信息服務算法推薦管理規定》明確了算法推薦服務提供者應當向用戶提供不針對其個人特征的選項,或者提供便捷的關閉算法推薦的選項。此外,還規定了具有輿論屬性或者社會動員能力的算法推薦服務的備案制度。《電子商務法》對算法推薦服務做了初步規定,第十八條規定了算法自動化決策的自然結果展示義務。《個人信息保護法》則通過賦予信息主體算法解釋權和拒絕權的方式進一步緩解用戶無力對抗算法“黑箱”的局面。算法新聞日常理想狀態的公開是“新聞生產者主動將算法運行機制與設計意圖公之于眾,接受社會監督”,在這一點上“學習強國”上線算法新聞推薦服務并通過修改隱私權政策進行算法披露是一種較為合理可行的做法。
我國目前尚未形成新聞業算法披露制度,也缺失算法新聞推薦服務提供者的責任認定規則,對于算法介入新聞業的相關問題尚未形成行之有效的監督機制。人工智能的發展正在不斷逼近強人工智能的“奇點”——其努力方向是超越它們自己設計的邊界,算法權力正在成為社會權力結構的重要一級,技術與資本也有著天然的合謀關系,這些因素使得傳統法律以結果責任認定為核心的政府事后監管模式和以個人為中心的權利救濟模式逐漸失靈。在此情況下,有學者提出政府(法律)應適度抽離,引入“私人自主”來調和算法規制的難題的方案[20],在總體上以“數字向善”為基本引領,形成“總體計劃、分步監管”的中國特色算法規制路徑。《新一代人工智能治理原則》中將“和諧友好”放在人工智能發展原則的首位,“人工智能發展應以增進人類共同福祉為目標;應符合人類的價值觀和倫理道德,促進人機和諧,服務人類文明進步。《關于加強互聯網信息服務算法綜合治理的指導意見》指出,要“提高正能量傳播的精準性和有效性,規范信息分發行為和秩序,推動企業借助算法加強正能量傳播,引導算法應用向上向善”。《關于加強科技倫理治理的意見》指出“建立完善符合我國國情、與國際接軌的科技倫理制度,塑造科技向善的文化理念和保障機制”。2023年網信辦等七部門聯合公布的《生成式人工智能服務管理暫行辦法》,相比于征求意見稿的版本,新增了第二條“國家對利用生成式人工智能服務從事新聞出版、影視制作、文藝創作等活動另有規定的,從其規定”以及第五條“鼓勵生成式人工智能技術在各行業、各領域的創新應用,生成積極健康、向上向善的優質內容,探索優化應用場景,構建應用生態體系”的規定,并且要求新聞出版部門充分結合生成式人工智能技術特點及其應用,依據職責依法加強對生成式人工智能服務的管理。
在算法新聞中引入“數字向善”理念,本質是在制約個體善——算法之善而實現公共善——新聞之善的過程,充分發揮“向善”概念的倫理要求和價值導向作用,避免算法新聞因嵌入算法的逐利邏輯而使得新聞異化成為資本狂歡的場域。“向善”是一種“道德想象力”,可以超越僵化的法律條款和傳統新聞倫理,擁有更廣闊的倫理視角和道德力量,因此在算法的法律規制相對模糊,過度執著于主體責任或者個體賦權都容易打擊科技創新的活力的情況下,充分發揮“數字向善”理念的引領作用能夠起到前置性的規制作用,識別、預防、消除算法對新聞基本價值觀的悖離,再輔以配套的激勵機制,不僅能在一定程度上緩解算法專業性對政府傳統管控手段合法性沖擊的危機,也有助于煥發算法自身運行邏輯中治理機制的生成。
六、結語
從以上對算法新聞向善邏輯的四維度批判中可以看到,算法技術的內生性邏輯與新聞倫理邏輯相沖突。算法的運行依靠大量商業資本的支持,因此其必然遵循商業邏輯,維護資本的利益,以“成本-效率”框架消解新聞的價值體系。而新聞作為“社會公器”,旨在維護社會公共利益,傳播主流價值,與算法技術的內生性邏輯相沖突,因此導致了二者在向善邏輯上的內在張力:算法尊崇高速、高產、個性化的價值,而新聞作為“社會公器”,以探求事實真相、塑造共同價值、促進社會向善為目標。因此,新聞的“善”必然是新聞職業倫理基礎上更高層次的善,如果算法的介入折損了業已存在并發展至今的價值基礎和核心目標,那便是從根本上違背了新聞向善的使命。因此,在算法新聞中,“善”是一種底線倫理,不是人類外在的愿望與訴求,而必須是算法的內在要求與動力源泉。算法作為新聞業的工具,不僅要提供信息,更要承擔起發揚黨的新聞輿論工作優良傳統、傳播社會主義核心價值觀、維護社會公共利益、增進人類福祉的責任。我們呼吁并且期待法律對于算法的特性作出積極回應,對算法介入新聞業所產生的問題進行約束,并制定出一套應對未來的方案。但同時,我們也呼吁“技術的問題交給技術”,為智能算法的發展留足自由的空間,因為技術在自身發展過程中也會構建起內生的“法律”體系,起到約束和規制的作用。
新聞業的歷史本就是一段不斷適應新技術的歷史,如電報、攝像機、互聯網等技術的出現塑造著新聞業新的角色、任務和工作流程,但是從未撼動的是新聞向“善”的內在本質。當前,強勢的“算法轉向”[21]邏輯勢不可擋地侵入人文學科領域,“逼迫”新聞從業者必須“像程序員一樣思考問題”,給新聞業帶來巨大認同危機的同時,也帶來了全新的發展機遇——習近平總書記指出“要探索將人工智能運用在新聞采集、生產、分發、接收、反饋中,全面提高輿論引導能力”[22],創造數字向善引領下的“人機交融”新聞傳播新格局成為新聞業必須回應的時代議題。
【本文系教育部人文社會科學研究規劃基金項目“傳播權視角下全球互聯網治理的理論范式與秩序重構研究”(項目編號:19YJA860002)、國家社會科學基金重大項目“人工智能時代的新聞倫理與法規”(項目編號:18ZDA308)的階段性成果】
參考文獻:
[1]吳鋒.發達國家“算法新聞”的理論緣起、最新進展及行業影響[J].編輯之友,2018,(05):48-54.
[2]蘭登·溫納.自主性技術[M].楊海燕,譯.北京:北京大學出版社,2014:176.
[3]張吉豫.數字法理的基礎概念與命題[J].法制與社會發展,2022,28(05):47-72.
[4]陳力丹.新聞理論十講(修訂版)[M].上海:復旦大學出版社,2021:31.
[5]Bozdag E,Bias in algorithmic filtering and personalization[J].Ethics and Information Technology,2013,5(3),209-227.
[6]楊保軍,杜輝.智能新聞:倫理風險·倫理主體·倫理原則[J].西北師大學報(社會科學版),2019,56(01):27-36.
[7]比爾·科瓦齊,湯姆·羅森斯蒂爾.新聞的十大基本原則——新聞從業者須知和公眾的期待[M].劉海龍,連曉東,譯.北京:北京大學出版社,2011:214.
[8]Caswell,David,Konstantin D·rr,Automated Journalism 2.0:Event-driven narratives:From simple descriptions to real stories[J].Journalism practice,2018,12(4),477-496.
[9]范玉吉,李宇昕.從權力到權利:算法治理的路徑[J].西南政法大學學報,2022,24(01):86-95.
[10]仇筠茜,陳昌鳳.黑箱:人工智能技術與新聞生產格局嬗變[J].新聞界,2018,(01):28-34.
[11]鄧建國.機器人新聞:原理、風險和影響[J].新聞記者,2016,(09):10-17.
[12]鄭智航.人工智能算法的倫理危機與法律規制[J].社會科學文摘,2021,(04):74-76.
[13]尼爾·波茲曼.技術壟斷:文明向技術投降[M].蔡金棟,梁薇,譯.北京:機械工業出版社,2013:85.
[14]尼古拉·尼葛洛龐帝.數字化生存[M].胡泳,范海燕,譯.海南:海南出版社,1997:188.
[15]Nicholas Kristof,Automating the news: How algorithms are rewriting the media[M].Harvard University Press,195.
[16]Lash & Scott,Power after Hegemony:Cultural Studies in Mutation?[J].Theory,Culture amp; Society,2007,24(3),55-78.
[17]喻國明,曲慧.“信息繭房”的誤讀與算法推送的必要——兼論內容分發中社會倫理困境的解決之道[J].新疆師范大學學報(哲學社會科學版),2020,41(01):127-133.
[18]Bucher,T,The Algorithmic Imaginary:Exploring the Ordinary Affects of Facebook Algorithms[J].Information,Communication & Society,2017,(1),30-44.
[19]方師師.算法機制背后的新聞價值觀——圍繞“Facebook偏見門”事件的研究[J].新聞記者,2016,(09):39-50.
[20]許可.算法規制體系的中國建構與理論反思[J].法律科學(西北政法大學學報),2022,40(01):124-132.
[21]Napoli,P.M,Automated media:An institutional theory perspective on algorithmic media production and consumption[J].Communication Theory,2014,24(3),s340-360.
[22]習近平.推動媒體融合向縱深發展 鞏固全黨全國人民共同思想基礎[EB/OL].[2024-11-28].https://www.xuexi.cn/6ff24bdc40b7cea1be52e7bb846f8c35/e43e220633a65f9b6d8b53712cba9caa.html.
作者簡介:范玉吉,華東政法大學韜奮新聞傳播學院教授;張黃茜,華東政法大學韜奮新聞傳播學院碩士研究生
編輯:白" 潔