樊淑琴 周嘉賓 張榮芳
【摘 要】智媒時代,以算法為代表的人工智能,已經滲透了新聞報道的生產傳播與消費的各環節,同時瓦解傳統新聞價值倫理。算法提升了新聞生產效率,提高了新聞分發的精確度,卻忽視了深入挖掘人文關懷,并導致宏觀層面上的新聞失真。通過分析算法在新聞的生產和傳播過程中的運用,揭示其對于新聞真實性的影響及造成困境的原因,提出在算法的倫理和法律邊界尚未確立的情況下,傳統的新聞倫理規范仍需媒體和平臺共同遵守,相關法律亟待建立,受眾的媒介素養仍要提高等相應解決方案,以期有效提升算法新聞的人文價值,規避算法技術對于新聞真實性的隱藏風險。
【關鍵詞】智媒時代;算法技術;新聞真實性;解構
“無數據,不智能”,智媒時代以數據為基礎。在智媒傳播時代,人工智能深度參與信息的收集、分析、生產與分發,改變了傳統新聞的生產模式。與此同時,智媒傳播時代新聞生產與傳播主體的變化,暴露出新聞生產權已部分讓渡給人工智能的真相。傳統的新聞分發模式隨著算法新聞的盛行而改變,逐漸向智能化、個性化、自動化靠攏。算法技術對新聞的真實性產生一定影響。文章通過對算法介入新聞生產的具體過程進行研究,分析算法如何滲入影響新聞生產的各個環節,探討算法對于新聞真實性的影響所帶來的困境及緣由,并為算法新聞失真問題尋求應對策略。
一、算法技術與新聞生產
“算法”(algorithm)一詞是825年波斯數學家穆罕默德·伊本·穆斯·阿里·花拉子米提出的。20世紀30年代和40年代,算法已經深入人們的生活,算法思想成為數學素養的一部分。50年代,計算機科學家們開始研究和開發計算機算法。70年代和80年代,算法已經被作為計算機的信息生產和推薦工具應用到人們的日常生活中。那時,人們開始想象和嘗試用計算機來處理、分析和推薦各種信息,并且試圖利用算法來完成自動化的信息處理和推薦。90年代和21世紀初期,隨著互聯網的普及和數字信息的爆炸增長,算法被廣泛普及工業和商業領域。搜索引擎、電子商務、社交網絡和新聞服務等各種應用程序都使用了各種類型的算法來處理、分析和推薦數據。
關于新聞算法的定義,學界至今還沒有形成統一的概念,學者大多在新聞分類算法、新聞推薦算法和新聞生成算法這三種算法類型的基礎上,給出各自的定義。比如,學者喻國明提出:算法是指在沒有人工編輯干預的情況下,通過算法抓取內容,并且依據用戶的行為數據,為用戶建模,再將用戶可能喜歡或需要的內容推送給他[1]。學者郝雨和李林霞提出:個性化信息推送的最大特點在于其拋棄了傳統人工選擇、推送新聞內容的方式,轉而采用內容算法和協同過濾算法來進行信息的調取、過濾、聚合與分發[2]。因此,可以簡單將算法中針對個性化的信息推送稱作“算法推送”或“算法推薦”。而基于新聞生成算法的自動化新聞,學者唐錚和塔娜所著的《算法新聞》一書則給出這樣的定義:是建立在算法和人工智能程序平臺和自然語言處理技術的基礎上的新型新聞生產模式[3]。
二、算法技術介入新聞生產對新聞真實性的解構
算法技術介入新聞業之后,提升了新聞生產和傳播速度,同時拓寬了新聞傳播范圍。一方面極大提高新聞報道的效率和速度,減少人力資源的消耗;另一方面提升新聞服務的效率和個性化程度,為讀者提供更加優質的閱讀體驗。與此同時,算法技術在新聞業各個環節中的普遍運用,也暴露出造成新聞失真的弊端和隱患。智能時代,社交媒體、短視頻平臺不斷發展,一條朋友圈、一條微博經過大量的閱讀、點贊、評論和轉發后,也會成為大新聞。這些因算法介入的新聞存在偶然性和遮蔽性,因此,會經常出現數據不準確或者誤導,一定程度上瓦解了新聞的真實性,引發新聞失真的困境。
(一)算法技術影響公眾對新聞來源真實性的判斷
從新聞選題的來源、話語偏見、新聞價值的角度來分析,都可以發現新聞真實性遭到的挑戰。
第一,算法對于新聞來源的忽視。新聞的發布者不是均等的,PGC顯然比UGC的新聞來源更加權威和可靠。然而,一些人工智能算法處理新聞時,并未對新聞來源進行權重分配,可能會導致新聞失真。例如,2022年底,美國OpenAI發布的智能聊天工具ChatGPT一夜火爆。隨后,OpenAI首席技術官米拉·穆拉蒂(Mira Murati)表示,ChatGPT可能會被“危險分子”使用于編造事實。這是當下大型語言模型共同面臨的挑戰。因為ChatGPT在專業知識層面的回答存在的問題,不會輕易被普通的用戶受眾識破,只有專業人士才可能辨別出來。
第二,算法在進行選題時會優先選擇熱點話題,因此,一些非熱點但社會價值重大的新聞事件便容易被忽視。這會影響社會公眾的正常參與和關注。算法也可能會偏向點擊率高的新聞而非關鍵信息。許多新聞網站的推薦算法會根據大眾關注度對新聞進行排序,這可能導致某些重要新聞被忽視,而點擊率高的輕松故事會被放置在重要新聞前面,給用戶留下不真實的印象,以為某些事情重要度更高,而事實并非如此。
第三,算法可能會導致選題失去新聞價值。因為算法只能根據用戶過去的偏好來推薦新聞,無法挖掘并推薦新出現的、與用戶過去興趣不同的新聞。例如,2016年美國總統大選中,很多社交媒體和搜索引擎公司被指責在選舉期間不公平地處理新聞,因為這些平臺使用的算法無法正確而全面地評估原始新聞的真實性和重要性,從而導致某些候選人的新聞被忽視,或者出現“假新聞”。
(二)算法技術誤導公眾對新聞事件真實性的理解
從新聞生產、審核標準角度來看,算法技術介入新聞采編活動也會讓新聞真實性面臨更大的挑戰。算法介入新聞采編所造成的困境問題,具有偏向性、片面性。首先,新聞采編方式依賴自動化操縱新聞報道。一些新聞機構可能會使用算法來自動化編寫報道,以節省時間成本。然而,這些報道難以達到新聞工作者報道的深度或可信度。其次,采編過程可能會過度依賴社交媒體。一些新聞機構可能會使用社交媒體上的數據來輔助選擇新聞主題。這些數據很可能不包含其他當前具有影響力的要素,包括經濟、環境或地緣政治。而那些在社交媒體上發帖最活躍且熱門的事件可能會成為新聞的焦點,導致其他重要新聞被忽視。
算法面對的環境和人類所面對的環境雖然在空間上存在差異,但究其本質,面對社會的大環境,算法和人類所面對的世界都具有遮蔽性,具有邊緣性,并不是“一覽無余”。算法數據庫也并不完全“透明”、真實,造成這種問題的原因有兩種:一種是基于時間空間等各種條件下的“無能為力”的不透明,或因其所處地域的偏遠、個人認知水平的局限而產生的未知;另一種是刻意為之的策略式“不透明”。以“今日頭條”所屬的字節跳動公司按照執行的相應規范公開算法為例,也是其刻意為之,其中還隱藏了大量的有用信息。實際上,這樣的例子在生活中屢見不鮮。而這些被一貫刻意埋藏的信息,不管算法平臺抑或算法工程師都要花費很大的力氣去加以挖掘。
(三)算法生成的專業知識嚴謹性有待查證
算法也有自己的知識盲區,它只能基于已有的數據和經驗進行分析和判斷,而往往無法發現數據之外的隱藏部分,這會導致一些信息被忽略或誤判,因此違背真實性原則。比如,ChatGPT在日常生活中應用,幫助人們普及了知識,它不同于AI聊天機器人,在人們提出嚴肅的問題后,ChatGPT給出的內容往往邏輯清晰,重點突出,還可以跟用戶形成學術的對話活動。但是,ChatGPT使用了基于人類偏好的強化學習的機器訓練模型,是由技術人員預先給ChatGPT輸入海量語言數據,并根據人工標注的高質量答案,處理數據的速度雖然已經上升到了無法想象的地步,但面對日益復雜、時刻都在發生變化的社會環境,它無法像人的大腦一樣,能根據事實的變化,進行深入的推理和分析,這會導致結果相對片面,局部真實而缺乏全面性和深度。
三、針對算法技術引發新聞失真的對策
(一)以國家政策引導算法技術的可持續發展
算法成長于社會的大環境當中,離不開國家政策的引導。首先,國家應建立監督機制,對以算法生成為主的新聞進行標準化、精準化、實時化的監控與管理。早在2014年4月,我國互聯網信息辦公室就出臺了《關于規范搜索結果推薦秩序的通知》,要求搜索引擎企業要為用戶提供真實、準確、權威的搜索結果,不能隨意變更搜索結果的排序,不能將不良信息放在優先位置。
其次,國家應制定和完善相關法律法規,明確算法應用的標準和道德準則。我國先后實施的《互聯網信息服務管理辦法》《互聯網新聞信息服務管理規定》《中華人民共和國網絡安全法》,都是互聯網相關的法律法規。2022年3月又正式實施《互聯網信息服務算法推薦管理規定》,該規定明確表示,算法推薦服務提供者不得傳播非國家規定范圍內的單位發布的新聞信息,應當采取措施防范和抵制傳播不良信息。這些法律規定都是為了保證算法介入新聞失真權責分明,有效減少虛假新聞泛濫。
最后,應建立完整的信任評估體系。對媒體的報道進行信任評估,既可以提高媒體自身的聲譽和權威性,也可以幫助公眾對新聞內容進行判斷。例如,我國阿里巴巴集團旗下的新聞客戶端 UC頭條便建立了一個內容審核系統,對于發布的新聞進行排查和定性評估。這樣就像為平臺安裝了一個過濾網,使內容更加接近真實的同時,也為受眾掃除了一些認知上的障礙。
(二)加強算法技術平臺技術與規則的改進
1.將多方來源的規則引入平臺運行規則當中
多方來源的規則,即通過涉及多家媒體的主流新聞報道,減少由單一來源帶來的偏頗。在具體實踐中,首先,引入多方數據源,包括社交媒體、新聞網站、政府機構、專業機構,收集不同方面的信息,進行分析和比對,得出結論。其次,建立一個數據驗證機制,用來驗證數據的可靠性和準確性;也可以引入專家的意見,通過專家的經驗和判斷,對數據進行分析和驗證,優化規則。最后,可以結合人工審核,使信息更加真實可靠。
2.適當擴大透明性原則的適用范圍
透明性概念的廣泛普及會大大提高新聞真實率。透明性原則其實就是公開性,其約束的對象不能僅僅是機構媒體以及新聞工作者。然而,當今運用算法技術的主體是平臺型媒體及其算法工程師,這些平臺型媒體的頂層設計區別于傳統媒體,它們往往將商業利益優先于價值導向,在價值及制度層面,透明性原則似乎與所謂的經濟利益或者商業流量背道而馳,平臺因此而缺少執行的動力。所以,透明性原則不能只是針對算法工程師及單個算法平臺的要求,需要納入整個大環境當中,從整體到局部,從局部到個人的意識和操守均應貫徹始終。
(三)算法工程師責任意識的強化與引導
1.多項式模型助力算法工程師走出困境
多項式模型是由美國加州大學伯克利分校的一些研究人員提出的,值得借鑒。這個模型的提出是因為在人工智能算法中,有時會出現一些道德上的困境,例如,自動駕駛汽車應該如何做出決策、犯罪分析模型是否存在侵犯隱私的問題等。它突破了功利主義和道義論的局限,通過對結果敏感性、道德規范敏感性、個體的行為反應偏好三個維度的量化來構建道德判斷CNI(consequence、norm、inaction)模型。多項式模型通過在道德判斷中的多項式建模方法,可以幫助個人更好地解釋在道德兩難困境中的反應,可以幫助算法工程師及平臺把關人,解決他們在算法新聞中的個人局限問題。
2.引入算法與人工審核相結合機制
算法與人工審核機制相結合,可以避免算法失誤或者因為算法選題而忽視重大新聞事件。算法可以通過大數據分析等手段,及時捕捉并篩選出具有重大社會影響的事件,將其轉化為新聞報道。人工審核則可以進一步完善新聞報道,排除一些虛假、夸大、誤導等不實信息,保證報道的客觀性和準確性。人工審核還可以對算法處理后的新聞內容進行補充和深入挖掘,從而提升新聞報道的深度和廣度。算法可能只會收集和發布某些新聞事件的基本事實,而人工審核則可以通過采訪當事人和相關專家,對事件進行更深入的分析和評價,使報道更具有社會價值和意義。
(四)提升媒介素養,增強受眾的新聞判斷與監督能力
受眾作為最廣泛的新聞信息的接收者,對算法新聞的真實性的構建也有一定的責任。首先,推廣自媒體規范。自媒體作為新型媒體的代表,也要協同新聞從業者共同推廣規范化的自媒體行業,減少虛假信息和不良報道。例如,微信公眾號平臺加強了內容審核,增加了精準投放廣告,遏制虛假夸張信息的傳播。其次,用戶也要進行多源質疑。在接收到某一新聞或信息后,要多方面求證,不要相信單一來源的信息,這也可以有效減少信息繭房的形成。再次,關注多角度報道。經常關注不同來源的新聞報道,了解不同的角度和立場,并進行比較和分析。最后,加強監督評估。通過加強對新聞媒體的監督,對有質量問題的新聞媒體進行評估和處理,從而幫助用戶減少誤導和錯誤信息。潮
參考文獻
[1]喻國明,劉鈺菡,王暢穎,等.推薦算法:信息推送的王者品性與進階重點[J].山東社會科學,2018(3):142-147,192.
[2]郝雨,李林霞.算法推送:信息私人定制的“個性化”圈套[J].新聞記者,2017(2):35-39.
[3]唐錚,塔娜.算法新聞[M].北京:中國人民大學出版社,2019:270-271.
作者簡介? ?樊淑琴,湖北文理學院文學與傳媒學院副教授;周嘉賓,襄陽廣播電視臺新聞綜合頻道總監;張榮芳,湖北文理學院廣播電視學本科生
基金項目? ?湖北文理學院研究生教育優秀成果培育項目“襄陽廣播電視臺研究生工作站建設”(項目編號:YCG202401)階段性成果。