【摘要】生成式AI通過數據賦能創作、智能推薦革新和交互體驗升級,為新聞個性化提供了強有力的技術支撐。但新聞個性化亦可能引發“信息繭房”效應和過濾泡沫現象等,削弱新聞的多樣性和公共性價值。因此,剖析新聞個性化對公共性的影響,包括“信息繭房”效應、議程設置的重構以及倫理責任的考量,并提出平衡個性化與公共性的策略性建議,還有提升算法透明度、實施內容多元策略和強化公眾參與,對構建有效的反饋機制具有重要意義。
【關鍵詞】生成式人工智能;新聞個性化;新聞公共性
生成式AI是指基于算法、模型、規則,在沒有人為直接參與的情況下生成圖文、音視頻、代碼等內容的技術,從2022年OpenAI推出的ChatGPT,到2024年春節期間震撼發布的Sora,一系列技術突破不僅見證了生成式AI在文本、圖像、視頻等多模態內容生成上的飛躍,更深刻地影響著新聞生產、信息傳播及人類實踐的方方面面。生成式AI既能根據用戶的偏好和興趣提供高度個性化的新聞內容,增強用戶體驗和黏性。亦可能引發“信息繭房”效應與過濾泡沫現象,對新聞內容的公共性價值構成潛在威脅,進而挑戰新聞傳播的公共責任與社會功能。因此,在探索生成式AI技術在新聞領域的應用時,必須充分考慮其對新聞公共性的影響,努力尋求個性化與公共性之間的平衡。
一、生成式AI驅動的新聞個性化機制
(一)數據賦能創作:跨越數據洪流,精準塑造個性化內容
數字化轉型顯著壓縮了用戶從產生需求到獲得滿足的過程,而生成式AI技術的興起,則進一步加速了用戶需求向滿足端的滲透,催生了新聞內容生產模式的深刻轉變。這一轉變的關鍵在于AI系統能夠高效處理并深度分析龐大數據集的能力。以ChatGPT為例,它融合了多種信息資源,諸如維基百科的內容、網絡爬蟲所獲取的數據、學術期刊的論文成果、新聞媒體的報道、百科全書的豐富知識等。這些資源共同構成了一個數據量接近45TB的龐大集合,為構建一個強大而穩固的基礎模型提供了有力的支撐。借助這一模型,ChatGPT能夠深入挖掘用戶的興趣偏好、閱讀習慣及關注點等關鍵信息,進而生成高度個性化的新聞內容。ChatGPT在長篇文本摘要和主題提取方面也展現出卓越的能力。在特朗普被起訴的事件中,《內幕》總編輯卡爾森將購得的長篇文件輸入ChatGPT,由其快速生成了一個300字的摘要,這一功能極大地輔助了《內幕》在新聞報道上的迅速決策。[1]生成式AI憑借其強大的自然語言處理能力,將收集到的數據轉化為高質量的新聞內容。通過算法模型對新聞素材進行智能篩選、整合與創作,AI系統確保了生成的新聞內容既符合用戶的興趣偏好,又兼具高可讀性和可信度。
(二)智能推薦革新:個性化新聞推薦的算法邏輯與用戶體驗優化
隨著人機交互領域的持續進步,個人行為數據的收集日益廣泛,這一趨勢促成了一種以個體偏好為核心的信息分配機制,極大地增強了新聞消費的互動性和個性化體驗。眾多新聞機構已著手利用生成式AI技術來提供定制化服務。以ChatGPT為例,它能通過智能對話功能,拓展新聞的信息價值,提升用戶的參與度與積極性,為“公民新聞”“對話式新聞”以及“開放式新聞”的發展注入新動力。在新聞分發領域,ChatGPT同樣表現出色,其多標簽文本分類能力,結合實體識別和關鍵詞提取技術,極大提升了信息分發的效率和推送的精準性。同時,專用型插件的引入使得媒介能夠讀取場景數據,通過開發插件實現媒介與用戶場景的直接匹配,獲取更為精細的數據。ChatGPT-4已支持購物、餐飲、學習等多種場景的插件,而百度推出的文心一言大模型也在積極構建插件生態,提供直觀的可視化界面和API接口,方便開發者自定義模型和插件的開發。這些插件的加入,使用戶在使用過程中能更精確地定位自身場景,并通過行為數據反映對話語境,助力媒介更快、更準確地理解用戶環境,從而進一步優化個性化新聞推薦服務,提升用戶體驗。
(三)交互體驗升級:對話式新聞開啟個性化敘事新篇章
“對話”作為意義構建的核心環節,已跨越人際界限深入人機交互領域。在生成式AI的賦能下,“對話”成為數字新聞敘事的核心機制。[2]互動機制的增強使生成式智能能夠與用戶進行即時對話,提供個性化的新聞更新,并快速收集反饋信息,從而不斷改進用戶體驗。[3]例如,ChatGPT能夠借助諸如VoiceOver一類的插件實現高水平的語音交互與高度仿真的對話體驗。在與用戶進行連續對話的過程中,它能夠有效識別、逐步學習并綜合用戶的個性化偏好,進而將這些信息元素進行有序的組織與整理,最終以更加貼合用戶需求的形式進行展現。如為新聞報道提供情感分析及相應的指標,使讀者能夠輕松把握新聞的整體情緒色彩和基調,通過篩選內容來避免傳播夸大其詞或負面的信息,旨在為用戶創造一個更為輕松、低壓力的信息獲取環境,同時增強信息交互的便捷性與趣味性。個性化故事線的引入將新聞交互體驗推向了一個新的高度。這些故事線不僅涵蓋了新聞事件的核心內容,還通過豐富的細節和多元的視角,為讀者提供了更加全面、深入的新聞解讀。用戶可以根據自己的興趣和需求,選擇不同的故事線進行探索,從而獲得更加個性化、定制化的新聞閱讀體驗。
二、新聞個性化對公共性的影響剖析
(一)“信息繭房”效應:個性化機制下的認知與視野局限
ChatGPT作為一種基于概率模型和統計估算的工具,雖坐擁龐大的先驗知識體系,但在對外部領域適應性上存在局限性,對于新穎見解與創意構想的接納能力不足,這一特性在一定程度上催化了“AI繭房”現象的形成。[4]隨著AI生成內容的廣泛傳播,富含人文關懷的新聞報道日漸稀缺。ChatGPT憑借其“無所不知、無所不能”的形象,在塑造公眾認知現實方面占據了主導地位,這種認知不僅削弱了新聞媒體的公信力,還誘發了結構性的認知難題,加劇了新聞業面臨的信任危機。用戶認知被AI引導,局限于由AI構建的現實中,可能引發“認知收斂”,削弱人類創造性思維與人文關懷。AI能生成逼真的視覺影像,營造臨場感、沉浸式的視覺文化氛圍。如Sora能夠快速打造出宛如現實“鏡像”般的視覺場景。然而,這種高度逼真的模擬技術卻模糊了客觀實在與機器創作、真實世界與虛擬領域之間的界限,使得個體難以分辨。這一現象不僅動搖了人的認知基準,導致個體的認知框架陷入一種不確定和混亂的狀態,更潛藏著將人們從現實生活“拉入”虛擬夢境的危險。
(二)倫理責任的深度考量:新聞個性化推薦系統下的真實性、公正性與透明度隱憂
伴隨著人工智能的崛起,新聞傳播領域越發警覺于算法黑箱背后潛藏的隱私風險、社會管控隱憂以及輿論導向難題。生成式AI從數據和模式中學習,創建模仿人類行為和創造力的新內容,但存在系統性偏見、價值觀對抗、刻板印象、虛假信息等問題。由于用以訓練的數據集可能內含傾向性,所生成的新視頻內容可能非但未消弭偏見,反而加深了既有的刻板印象,加劇社會的不平等現象,甚至觸發了新的文化矛盾與沖突。以ChatGPT和Sora為代表的生成式AI,能根據用戶提供的文本和關鍵詞自動生成逼真的圖片或視頻,甚至能創造出看似“真實”且符合現實物理的動態模擬影像,生成式AI幻象如“AI幻覺”“模擬影像”和“深度偽造”等開始出現,但這些影像并非真實的再現,而是“真實的虛假”或“真實的幻象”。[5]這種技術使得自媒體創作者可能在利益或某種時效性驅使下制作并傳播虛假新聞,用于誤導公眾、操縱輿論或進行非法活動,導致公眾對新聞媒體的信任度下降。此外,多模態轉換還可能帶來意義損害和歪曲的問題。生成式AI為數字新聞敘事創建了過程性的內容界面,試圖以“透明性”代替“客觀性”建構新聞敘事的價值規范。然而這一技術愿景目前仍停留在理論構想階段,實際應用中,這種動態界面能在何種程度上真正實現“透明度”,尚需時間與實踐的進一步檢驗。
三、個性化與公共性平衡的策略性探討
(一)提升算法透明度:強化可解釋性與用戶信任
當前許多新聞算法推薦系統采用的黑箱算法,使得用戶無法洞悉其工作機制和決策流程,進而對推薦結果產生了不信任感。為了打破這一困境,提升算法的透明度和可解釋性成為建立用戶信任的關鍵。以Sora為例,其敘事算法的不透明性使得用戶在區分虛擬與現實影像、識別文化偏見以及評估倫理平衡方面遭遇挑戰。為了應對這一挑戰,首要任務是提升算法決策流程的透明度,清晰揭示“輸入—輸出”的運作機理及其背后的權力結構和價值評判準則。[6]這樣,用戶便能及時了解Sora即時敘事背后的價值導向,從而更加理智地審視和接納其推薦內容。其次,需加強視覺數據處理流程的透明度。Sora如何識別、解讀并轉化視覺訓練數據中的場景、情感等元素,以及這些因素如何塑造新的內容生成邏輯,都應向用戶明確展示。通過回溯和審視視覺數據的處理過程,用戶可以直觀地看到視覺元素如何被組合并賦予新意,從而穿透視覺表象,更深入地理解敘事邏輯,提高對內容真實性的判斷能力。最后,要確保Sora在視覺影像輸出上的邏輯具有高度的透明性。Sora應當公開其算法邏輯和數據處理的機制,包括它是如何選擇特定的鏡頭、畫面主體等視覺內容的內在標準。這樣個體能夠更清晰地洞察Sora在創造視覺奇觀時所依據的價值取向和文化意圖,這不僅可以促進用戶對推薦結果的深入理解,還可以提升他們對這些內容的接受度。
(二)內容多元策略的實施:從單一走向多元
為了規避“信息繭房”效應并維護新聞的公共性,需要采取內容多元化策略,推動生成內容從單一向多元轉變。首要措施是引入多樣化的算法模型和推薦策略,并結合“算法+用戶”的協同把關模式。借助生成式AI的力量不僅能更精確地滿足用戶的個性化需求,還能有力保障信息的多樣性和公正性。此外,利用生成式AI來激勵用戶主動探索多樣化的新聞內容也至關重要。系統可以運用AI技術深入分析用戶的歷史閱讀行為和興趣偏好,進而為其提供個性化的探索路徑和智能推薦策略。這種方法不僅可以有效激發用戶的好奇心和求知欲,還能夠引導他們主動接觸并了解不同的新聞觀點和立場。這一舉措不僅大幅提升了用戶的滿意度和忠誠度,還進一步促進了新聞的傳播和討論,從而顯著增強了新聞的公共性和社會影響力。
(三)公眾參與的強化:構建有效的反饋機制
公眾參與是新聞個性化推薦系統中不可或缺的一環。通過構建有效的反饋機制,可以促進新聞個性化中的公共參與,增強用戶對推薦系統的認同感和滿意度。以北京冬奧會為例,央視頻利用其先進的AI內容創作系統,針對冬奧會冰雪賽事新聞,實現了從視頻素材自動抓取、智能剪輯到內容合成的全流程自動化,從而迅速生成大量符合用戶需求的視頻新聞。該系統不僅高效,而且注重學習與進化,將用戶反饋視為寶貴的訓練資源,據此不斷優化其新聞敘事的構建邏輯,確保后續作品更加貼合用戶偏好。為了加強內容呈現與多元新聞主體間的緊密聯系,需要開拓多樣化的互動途徑,以此提升生成式AI在打造個性化、高貼合度新聞敘事方面的能力。在Sora的運行框架下,圖像的生成并非單純由程序指令所主導,而是植根于人與機器間的協同工作模式之中。傳統圖像的魅力在于人們能從其中辨識并提煉出富含象征意義的概念,這是一種“由圖像觸及概念”的修辭藝術。相對地,生成式AI在圖像創造上所展現的想象力側重于在“概念的形式化”層面上的創新與解釋,它實現了“由概念孕育圖像”的創造性轉化。[7]人們通過不斷輸入和調整提示語,積極地“摸索”大型模型的反饋機制,尋找人類認知與模型輸出之間最恰當的對應關系和優化匹配模式。通過強化公眾參與和構建有效的反饋機制,能夠在個性化與公共性之間找到最佳的平衡點,實現用戶滿意度和社會責任的雙重提升。
四、結語
當前,生成式AI技術的應用引發了廣泛的對新聞公共性、多元性和公正性的深刻思考。算法偏見、數據隱私泄露以及內容質量良莠不齊等問題逐漸顯現,成為技術發展過程中不容忽視的挑戰。然而,新聞傳播的核心始終應以人為本,而非以機器為主導。因此,無論是追求速度、效率還是便捷性,都應服務于人的需求,在致力于提升用戶體驗的同時,堅守新聞的公共性、多元性和公正性原則。在積極擁抱人工智能所帶來的大模型革命的同時,構建以人為本的人工智能大模型發展戰略。這包括為生成式AI大模型注入正確的價值觀,以及在易產生沉浸感的智能產品中嵌入干預和提醒機制,確保其發展軌跡始終朝向有益于“以人為本”的方向前進。
參考文獻:
[1]Manjoo F.ChatGPT is already changing how I do my job [EB/OL].https://www.nytimes.com/2023/04/21/opinion/chatgpt-journalism.html.
[2]何天平.從文本構造到界面連接:生成式人工智能對數字新聞敘事的重塑[J].新聞界,2023(6):13-21+61.
[3]陳昌鳳.生成式人工智能與新聞傳播:實務賦能、理念挑戰與角色重塑[J].新聞界,2023(6):4-12.
[4]陳昌鳳,袁雨晴.智能新聞業:生成式人工智能成為基礎設施[J].內蒙古社會科學,2024,45(1):40-48.
[5]經羽倫,張殿元.生成式AI幻象的制造邏輯及其超真實建構的文化后果[J].山東師范大學學報(社會科學版),2024,69(5):113-126.
[6]趙紅勛,王佳慧.擬造的“真實”:Sora的敘事邏輯及其倫理邊界[J].新聞愛好者,2024(7):22-26.
[7]劉濤.失聯的“蹤跡”:生成式AI圖像與圖像闡釋學的知識框架重構[J].南京社會科學,2024(8):86-100.
作者簡介:劉泓成,廣西藝術學院廣播電視專業碩士生(南寧 530022);張國偉,河南大學新聞與傳播學院副教授(開封 475001)。
編校:董方曉