蔣雪穎,許 靜
(北京大學 新聞與傳播學院,北京 100089)
生成式人工智能(Generative Artificial Intelligence,縮寫為GAI)能夠采用不同的技術和架構來學習數據中的潛在模式和依賴關系,并在此基礎上生成新的內容,通過人機交互的方式在新聞生產和傳播過程中發揮著關鍵作用。人機交互新聞從本質上來說是一種技術媒介的社會參與(Technology-Mediated Social Participation),涵蓋了社會參與、技術調整和創新的復雜過程[1]。通過人對算法的主動調整和修改,人機交互新聞實現了一種獨特的協同工作方式,旨在最大化人類的創造力和洞察力,同時借助GAI的高效計算能力,實現新聞生產和傳播的“自動化”。在早期階段,AI主要用于實現數據收集和基本報道等常規任務的自動化,隨著AI技術的發展,其在新聞業中的作用也在不斷擴大,出現了機器人寫作、大數據算法推薦、人工合成AI主播等多種應用。從機器學習到自然語言處理,新聞機構可以利用AI 將構成新聞生產鏈的大量任務自動化,包括檢測、提取和驗證數據、制作報道和圖表、發布以及自動標記文章。如今,GAI不僅可以直接生成新聞文本、圖像和聲視頻,還能分析大型數據集、識別趨勢。盡管取得了這些進步,但將GAI融入新聞業也引發了倫理和技術問題,其中包括新聞準確性、真實性、獨立性等問題,因此確保在新聞業中負責任地使用人工智能至關重要。
在智能時代,人機關系的研究已經超越了純粹的“人與物”的關系范疇,而成為“復合概念”,既包括作為客觀的“人機關系”的歷史和時代嬗變,也包括“人與機器”相互連接、彼此觸發的生產力和生產關系之間相互交合和循環維度[2]。人機關系既包括人與機器之間的具體交互行為,也包括人類對技術的認知和理解,二者相互作用,共同構成了人機關系的本質。在人機交互的視角下,新聞實踐中涌現多元主體,包括傳播主體(新聞工作者)、接受主體(新聞用戶)、實現主體(計算機工程師)、源主體(提供新聞信息源的主體)、影響主體(受新聞影響的個體和組織)和高位主體(企業管理者)[1]。這些主體之間相互交織,共同構建了一個復雜而豐富的新聞生態系統,其中傳播主體和接受主體是受到GAI 直接影響的關鍵主體。
本文旨在從人機交互的視角深入探討GAI對關鍵主體的賦能如何變革了新聞業的面貌,探討GAI引發的主體性危機,提出不同主體應對危機的路徑,并進一步思考人機關系的走向。理解人機關系的深層次內涵,有助于我們更好地把握GAI 技術在新聞業中的應用,確保技術的發展更好地服務于人類的需求和社會的利益,更有效地規劃未來新聞工作中技術與人的合作方式,以推動新聞業的可持續發展。
GAI在新聞領域的融合已經成為媒體創新的前沿,智能化和自動化作為這一趨勢的兩個核心方向,不僅改變了新聞生產的模式,也重新定義了人機關系。這意味著人類和計算機之間的交互不再是單向的,而是雙向的,計算機不僅能夠響應人類的指令,還能夠根據人類的需求和反饋進行智能化處理和自動化執行,從而更好地滿足人類的需求并提高工作效率。圖1展示了不同自動化程度下人機新聞生產的融合階段,強調了不同新聞編輯室在采取策略時的靈活性與差異性。從最初的新聞選題推薦到機器人編寫新聞報道草稿,再到機器人在高度自動化階段能夠自動生成發布新聞報道,整個過程呈現出復雜的非線性發展。這取決于不同新聞編輯室的資源、能力和戰略目標,以及其在不同時間采取的策略。

圖1 不同自動化程度下人機新聞生產的融合
GAI在新聞領域為編輯、記者、用戶等關鍵主體賦能,發揮了結構性優勢:數據驅動采集與自動內容生產、多重視角新聞與創新敘事形式、量身定制新聞與多維交互模式。筆者將通過對這些方面的深入分析,揭示GAI如何為新聞行業帶來更高效、多樣化、個性化的生產方式,推動媒體從傳統到創新的轉變。
GAI 通過利用算法分析大型數據集,識別數據并得出有意義的新聞見解,通過自動數據處理、可視化和解釋來深度挖掘數據驅動的新聞報道。人機交互改變了信息采集的傳統思維模式,機器的升級和人機交互方式的迭代,拓展了信息采集的維度與層面,降低了信息采集的人力成本,改變了信息采集的行為方式,促使新聞工作者形成新的信息獲取思維[3]。這一技術可以幫助記者觀察數據趨勢,在海量數據中找到線索和故事,并在異常情況發生時及時通知記者。微軟的Copilot 和谷歌的Bard 能夠從整個互聯網生態系統的實時數據中獲取回復,從而分析突發新聞。
GAI可以提供新聞背景知識與關聯性知識的自動生產,生成符合新聞標準和風格的連貫、準確的文本。它還可以協助完成轉錄、翻譯和日常新聞更新等任務,使記者能夠專注于更復雜的調查工作。人機交互不僅根據人類指令生成相應內容,提升內容創作者的效率和創造力,而且影響媒體內容的質量和可訪問性。美聯社使用名為“Wordsmith”的生成系統每季度生成數千份收益報告,《華盛頓郵報》則采用名為“Heliograf”的系統報道地方選舉和高中體育新聞。
GAI 可以為用戶過濾不必要的信息,提供多重視角并凸顯重要內容,優化新聞的社會性拓展。數字媒體“The Newsroom”首先從多個出版商處收集數據,旨在了解當前討論的新聞事件及參與者,其后通過預先建立的模型分析文章,依據存在的事實和偏見等標準評估報道質量,隨后確定共識要素以總結出主要內容的基本事實。同時,該平臺凸顯不同觀點,提供各種新聞源的鏈接,使用戶能夠從多個視角審視同一主題。英國廣播公司則采用名為“果汁機”(Juicer)的系統為其在線用戶生成量身定制的新聞源,該系統能夠篩選多個數據源并生成新聞文章的初稿。這契合了信息盈余時代用戶新聞消費的演變。
GAI 能為記者和編輯創造新型敘事形式,將文本、圖像、聲頻和視頻結合起來,并充分利用想象力、情感和交互性的力量。通過運用深度學習和生成式對抗網絡技術,GAI能夠合成逼真且多樣的媒體內容,包括照片、聲音、面孔或動畫等,從而提升新聞報道的敘事性和視覺沖擊力。路透社使用名為Wav2Lip的系統生成新聞主播說不同語言的唇語視頻,打破語言障礙,為用戶呈現多樣化的全球視角。
GAI可以分析新聞文章的內容和元數據以及用戶資料和反饋,并生成符合每個讀者需求和口味的定制摘要、標題、推薦和通知。人機交互的深化推動了機器對個性化行為數據的收集,形成了基于個人偏好的信息分發機制,新聞消費已成為一種更具互動性和個性化的體驗。新聞業的個性化發展促進用戶更多地參與新聞事務,并豐富整體新聞話語。《福布斯》的“Adelaide”通過學習和適應用戶的偏好,為用戶提供個性化的推薦服務。《紐約時報》利用名為“編輯器”(Editor)的系統為其訂閱者制作個性化的新聞簡報和推送提醒。
GAI還為用戶提供多維交互模式。新聞聊天機器人在模擬信息交互的場景中構建了一種多維自然語言交互模式,為私人信息定制服務和知識付費墻提供了發展機會。目前已有多個數字媒體平臺集成了GAI,比如“Bytes”為每篇文章生成情感和情感指標,使用戶能夠辨別新聞的總體情緒和基調。“OneSub”推出的新聞聊天機器人“Charlie”致力于支持情緒健康,避免聳人聽聞或負面內容,減輕用戶的壓力和焦慮,使信息獲取的過程更加簡單且互動性更強。在未來,配置不同人格屬性的新聞聊天機器人將根據不同情境優化語言表達,快速響應用戶提問,不僅能傳遞信息,也能滿足用戶對情感陪伴的需求。
GAI 在新聞領域的廣泛應用為記者、編輯和用戶等主體帶來了諸多優勢,然而,這種技術的發展也伴隨著一系列主體危機,如削弱了新聞傳統和專業價值、沖擊了新聞業務模式;減少了記者的職業崗位、貶低了新聞工作價值、侵占了記者和編輯的知識產權;科技公司的壟斷加劇新聞傳播權力的不平等,還在內容中植入特定的霸權價值觀;污染了信息生態系統、損害了用戶與新聞機構之間的信任。
GAI 可能包含多種風險,從虛假信息到偏見再現,再到AI 幻覺、泄露隱私、缺乏透明度等,削弱了新聞領域長期以來堅守的價值觀。新聞業的核心職能之一是促進新聞讀者參與民主活動,這種緊密參與有賴于用戶對新聞機構的信任,包括對新聞準確性、真實性和及時性的信任。如果新聞業因為廣泛使用GAI 降低了專業標準,將會破壞用戶與新聞機構之間的“社會契約”,進一步損害新聞機構在社會中的合法性和權威性。這一連鎖反應還將導致更廣泛的負面影響,例如降低公眾辯論的知情程度,從而削弱公眾對公共問題的參與。擁有十一家媒體品牌的美國公司G/O Media發布了人工智能生成內容(AI generated content,簡稱AIGC),引起了用戶的強烈批評,因為這些文章存在許多事實錯誤,缺乏人工編輯監督,而且整體寫作質量不達標[4]。
GAI 的技術壟斷可能損害新聞機構的獨立性。許多新聞機構的資金已經十分緊張,無法配置專屬GAI 新聞工具,只能使用現有工具。大多數研發GAI 的科技公司不會分享工作細節,也不允許新聞機構加入審查機制,它們所采用的眾多技術都缺乏可解釋性,因此所構建的“黑匣子”系統甚至令專業人士也難以對其進行準確解釋。這為新聞機構帶來了挑戰,使其難以全面理解所使用的工具,難以準確解釋系統的工作方式、為何以及如何生成特定輸出,也難以對底層的訓練數據、模型或算法進行審查和談判,這可能會損害新聞行業的獨立運作能力。
GAI還有可能沖擊傳統新聞業務模式。搜索引擎可能采用GAI 回答用戶查詢,這將減少外部新聞網站的網絡流量。一旦用戶降低通過谷歌點擊進入新聞網站的頻率,數字新聞機構就有可能降低在線知名度和用戶參與度并減少廣告收入的主要來源。如果數字新聞網站不能長期可靠地依賴搜索引擎流量,網站可能越來越依賴用戶訂閱付費來獲得獨立于大型技術公司的收入,但是訂閱資金的規模不足以支撐所有新聞網站,較小規模的新聞網站容易面臨關閉。新聞付費業務的日益盛行可能造成“收入而非地理上的新聞荒漠”,無力訂閱多份報紙的人可能更容易相信他們在社交媒體或搜索引擎上免費看到的錯誤信息和低質量內容。在一個更加碎片化的互聯網中,人們更有可能存在于信息繭房[5]。大量AIGC 還搶走了原本屬于新聞機構的數字廣告費用,新聞檢測工具NewsGuard 檢測到大量網站充斥著AI生成的廣告,這些廣告資金原本可以用來支持合法的新聞機構[6]。
GAI在新聞業的應用引發了人們對記者工作保障的擔憂。隨著GAI越來越有能力完成傳統上由人類完成的任務,可能對工作崗位的可用性和性質產生影響,同時也可能重新定義我們對與新聞業相關的人類勞動的估值方式。實際上,這一變革是否會帶來問題,是否會給記者和新聞業帶來不理想的結果,取決于新聞機構如何管理這一過程,包括在資源分配、質量保證以及新聞制作的編輯和倫理方向等方面優先考慮哪些價值觀和結果[7]。與此同時,人們目睹新聞編輯室不斷關閉、工作崗位日趨減少。美國西北大學梅迪爾新聞學院發布的報告顯示,2023年美國已有130多家報紙關閉或合并,倒閉速度將加快到每周2.5 家,到2024 年年底美國將失去自2005年以來三分之一的報紙[8]。在價值鏈的更上游,即內容標簽、過濾和審核方面,工作人員處于被剝削的狀態,這將損害新聞機構的聲譽。《時代》周刊的一份調查報告發現,OpenAI 與舊金山公司Sama合作標記數據集,后者將任務以每小時2美元的報酬外包給肯尼亞的一個團隊,來訓練聊天機器人標記攻擊性的內容[9]。這種低報酬和高強度的工作不僅削弱了新聞行業工作者的職業價值,同時也加劇了他們的身心壓力,損害了新聞行業的整體聲譽和可持續性。
目前從技術角度來看,人工通用智能仍無法與人類作家和編輯相媲美。類似于ChatGPT的大型語言模型更適用于自動執行特定任務,例如文件總結,卻欠缺高級編輯技能,例如建立與信息來源的深層聯系、進行原創分析思考、理解上下文或從事長篇創意寫作。盡管存在多方面的缺陷,一些新聞高管可能利用GAI 在短期內削減開支,或者在短期內證明裁員是合理的,而非僅僅是為了提升生產力或創造長期的新價值。AI 的問題并非在于是否真的能夠取代人類,而在于它是否會被用來為災難性的 商 業 決 策 辯 護。2023 年3 月,OpenAI、OpenResearch 和賓夕法尼亞大學的研究人員估計,ChatGPT的學習、轉化、創意能力可以取代19%的工作崗位及其吸納的80%的勞動力,其中作家、記者和新聞工作者最容易受到影響[10]。
GAI還侵占了大量編輯和記者的知識產權。《華盛頓郵報》和艾倫人工智能研究所的研究發現,在GAI 系統所訓練的信息來源中,數字媒體排名第三。在排名前十的網站中,至少有一半是新聞機構。而美國新聞/媒體聯盟(News/Media Alliance)發布的研究報告顯示,AI開發人員不僅在未經授權的情況下使用其成員新聞機構的內容來訓練其系統,而且使用范圍更廣,程度超過其他來源。大多數開發者沒有獲得使用此類內容所需的許可,技術平臺也沒有向新聞媒體提供任何補償。越來越多的網站從嚴肅的媒體上獲取新聞內容,使用ChatGPT 洗稿為新文章,而不注明原作者。拉丁美洲媒體協會同意采取嚴厲措施,防止新聞內容被GAI 平臺免費使用[11]。
GAI會加劇新聞業已存在的權力不平等。由于部署GAI 需要巨額投資和豐富的資源,如大規模計算基礎設施和訓練數據,這將導致資源和力量的集中更加不均衡,可能進一步造成某些科技公司的壟斷。而且,GAI在創建過程中,誰的世界觀被納入模型并被優先考慮,誰能使用和利用這些技術,誰能決定如何監管這些技術,這些決定都離不開權力發揮作用。當下大型科技公司正在進行激烈的競次(Race to the Bottom)游戲,以謀求主導地位和市場優勢。這種競爭環境可能導致過分夸大自身優勢、匆忙推出產品,而忽視了審慎考慮、平衡不同利益的重要性。GAI會反映開發者的價值觀以及訓練數據中潛藏的偏見、偏差和預設,可能導致歧視、偏見、種族主義和極端主義等問題,或者進一步強化某些社群的刻板印象,貶低其他社群。尤其是ChatGPT 偏向西方自由主義價值觀,無法在不同的背景下提供足夠的社會文化敏感性和特殊性,可能模糊和低估了非西方文化觀點的重要性。
GAI 可能被植入特定價值觀,影響用戶認知與態度。新西蘭的數據科學家David Rozado創建了一個名為“RightWingGPT”的GAI 模型,以表達美國政治右翼觀點,他還計劃創建表達美國政治左翼觀點的模型“LeftWingGPT”和一個旨在減少政治極端化的模型“DepolarizingGPT”。研究表明,語言模型可以微妙地影響用戶的價值觀,因此它們的任何政治偏差都可能產生嚴重后果[12]。大型語言模型(Large Language Model,LLM)數據往往是從極少數人的聲音中收集而來的,而且是按照技術專家的要求收集的,因此,只有極少數人有能力塑造全球使用的模型。牛津互聯網研究所專家Kirk指出,這些模型在不同人群中具有同質性,缺乏多樣性和民主性,這種情況之所以會造成嚴重后果,是因為人們錯誤地假定了這些模型的普遍性,即認為根據50多名審核員的喜好和反饋訓練出的模型能適用于使用該技術的人類的多樣性,這種模型蘊含了偏見和文化霸權[13]。這些偏見并不是架構本身的產物,而是由對其進行訓練的數據造成的。LLM 中的偏差反映了社會本身已經存在的偏差,甚至這些模型可能放大這些偏差。因此,在整理和預訓練數據時,關鍵是要思考我們希望賦予LLM 模型以什么樣的世界觀(即包括誰的聲音并優先考慮誰的聲音),以及如何通過人類偏好學習等方法對模型進行微調,需將更多不同的聲音和世界觀納入模型。
GAI可能污染信息生態系統。隨著GAI日益容易獲取,AIGC 的大規模傳播變得前所未有的便捷。這種便利也催生了一種令人擔憂的可能性,即某些廣告制造網站或者流量驅動型營銷號可能濫用GAI,將其用于針對特定用戶,散布未經核實的虛假信息,從而提高頁面瀏覽量和廣告收入。截至2023年11 月,NewsGuard 發現至少有557 家網站利用GAI 制造出大量虛構文章,涉及政治、技術、娛樂和旅游等一系列主題,其中許多文章包含未經證實的陰謀論、不可靠的健康建議或虛構的產品評論[6]。在過去二十年里,社交媒體平臺使出版民主化,允許任何人在國際上獲得病毒式傳播,將內容排名算法轉變為關注度和相關性的新把關人。如今,社交媒體平臺正在使用AI對帖子進行自動排序,這使得合法新聞媒體的優先級被大量取消,而轉向虛假、垃圾或操縱性的內容。歐盟執法機構“歐洲刑警組織”(Europol)的一份報告預測,到2026年,互聯網上多達90%的內容可能是AIGC[14]。這些大量制作的廉價且質量低劣的信息爭奪著用戶的注意力,扭曲了真實新聞市場,掩蓋了合法新聞編輯室作為信息集中來源的作用。當互聯網信息生態系統充斥著機器人時,人類記者傳播可信信息的難度將成倍增加。
GAI還有可能削弱用戶對媒體的信任,引發“真實性危機”,擴大“智能鴻溝”。用戶對新聞的期望是在沒有AI的時代發展起來的,因此對真實性和新聞完整性的理解在很大程度上是基于人類對新聞工作者的觀念。然而,新聞機構在使用GAI時,缺乏透明度可能破壞用戶的期望,從而損害用戶的信任。如果各新聞機構沒有及時披露GAI 的使用情況、解釋其在新聞制作中的作用以及特定的使用案例,也會引發用戶對新聞機構的質疑和不信任。這種信任危機可能對公眾評估和理解新聞的能力造成損害,同時還可能深化現存的數字鴻溝等不平等現象。GAI 在英語方面的效果明顯優于其他語言,同時也在滿足不同社群、文化和社會需求上表現不一。由于GAI更適用于那些擁有計算資源和相關技能的人,那些無法獲得這些資源或技術的人將會面臨更大的劣勢,這將進一步加劇社會的不平等現象,有可能擴大能夠獲取高質量和可信新聞的人與那些無法獲得的人之間的差距。
為了應對當前新聞行業所面臨的主體危機,新聞編輯部應制定使用指南和規范倫理原則,以維護新聞專業主義和用戶信任;新聞工作者需轉向深度創作,建立嚴格審核制度以確保合法性和準確性,并持續開展GAI職業培訓,及時更新技術知識;用戶應強化數字媒體素養,承擔相應責任。在人機關系的演變中,我們應將關系由簡單的輔助關系轉變為相互激發、共同進化的伙伴關系,從共存、協作向“共情和共同進化”發展。
GAI的引入為新聞業帶來了創新與效率,然而,隨之而來的倫理挑戰也不可忽視。當我們擁抱新聞制作的未來時,維護媒體的用戶信任仍然至關重要。新聞編輯部需要負責任地使用GAI,保持行業長期以來的誠信、透明度和問責價值觀。新聞編輯部應該確保采用的工具符合新聞編輯部和用戶的最佳利益,而非加大偏見、增加錯誤信息或威脅新聞編輯室的公信力。
在全球范圍內,多國媒體已經開始制定GAI 使用指南,為新聞編輯部提供資源、示例和指導,以應對挑戰。由學術界、民間社會、工業界和非營利組織的100 多個合作伙伴聯合成立的非營利性聯盟“人工智能伙伴關系”(Partnership on AI),于2023年8月發布了《新聞編輯室人工智能購買和使用指南》(The AI Procurement and Use Guidebook for Newsrooms)[15]。該指南旨在為無法自主開發AI 系統的新聞編輯部特別是規模較小的地方新聞編輯部提供詳細措施,以有效解決人工智能帶來的挑戰。該項目包括十個步驟:第一,明確添加AI 工具的目標和預期結果;第二,規劃新聞制作周期,考慮AI工具與現有系統的集成點;第三,明確工具類別,評估潛在的優勢和風險;第四,檢索AI工具數據庫,并對新聞編輯室在該領域的績效水平進行基準測試;第五,列出三到五個潛在的AI工具,同時明確向開發人員提出的問題;第六,選擇一到兩種欲購買的AI 工具;第七,概述實施所選工具的潛在優勢和不足之處;第八,建立適當的管理體系并確定合理的衡量標準,例如準確性、精準度、召回率、效率、用戶滿意度、成本效益、受眾參與度和轉換率;第九,了解AI 工具的生命周期;第十,明確何時應淘汰選擇的AI工具。
新聞業還應該建立一個代表不同背景的全行業委員會,為GAI 新聞規范倫理原則,包括治理性、可靠性、公平性、責任性、可追溯性、隱私性、合法性、自主性等原則。(1)治理性:新聞機構需要制定明確的指導方針來監控GAI 系統,以發現潛在的錯誤,以及通過進行交互來減少失誤。(2)可靠性:新聞機構需要制定可靠性標準,制定全面的評估和測試協議,確保開發出彈性和穩健的GAI 系統。(3)公平性:新聞機構采納的GAI不應加劇邊緣化、代表性不足、社會經濟地位低下、受教育程度低或健康狀況差等群體的這種不公平現象。(4)問責性:新聞機構需要合乎道德地使用GAI,并確保實施、部署和運行中都有人類的監督與參與,建立人類問責制。(5)可追溯性:新聞機構需要幫助工作人員了解GAI 的能力、工作原理和操作流程,包括其開發方法、數據來源、相關文檔、訓練機制等,了解系統的能力和局限性,從而優化人機信任問題。(6)隱私性:新聞機構需要定期開展GAI 的隱私泄露風險評估,防止數據泄露和網絡攻擊。(7)合法性:新聞領域的GAI 系統面臨著安全與有效性、網絡安全和知識產權法等方面的法律挑戰。(8)自主性:新聞機構不能讓GAI完全取代記者和編輯,應尊重人類控制信息系統和決策的能力。
新聞工作者應該調整角色定位,將工作重心從追求規范性和時效性轉向深度和真實性的新聞創作以及輿論引導。計算機在當前的編程邏輯中只能執行單一目標的邏輯,然而,新聞的生產并非僅限于數據和信息的傳達,輿論引導同樣十分重要,而這些是計算機無法自動完成的。即使在信息收集和消息類新聞的自動化生成過程中,也需要人類來完善收集邏輯、審核數據的真實性與準確性[1]。新聞工作者不僅需要在傳統的新聞生產流程中把關,還需要在審核端建立更為嚴謹和審慎的新聞審核制度。這種制度旨在確保GAI生成的新聞內容的合法性和社會效益,同時也需要對其準確性進行審核,避免基于概率計算而導致的事實錯誤[16]。
新聞工作者需要培養跨界整合能力,從發現新聞轉向整合新聞、配置新聞,促成內容生產領域“以生產為中心”到“以用戶為中心”的轉變。這包括整合品牌塑造、互動管理、關系建構、文化社交、線下活動等多元化的活動。基于人類經驗的策劃、組織和協調能力,依然是未來新聞工作者的核心能力素養。新聞工作者需要發揮其獨特的價值,人類特有的直覺、適應性、創造力和批判性思維等都是機器所不具備的。
新聞工作者還需要開展全面且持續的GAI教育和職業培訓。新聞工作者需要為人工智能提供的數據分析和知識生成進行“把關”與設置“邊界”,主動調適專業實踐的慣例和默會知識,也需要對技術入侵的邊界進行集體保護,例如為智能技術設置“標簽”與“準入領域”,以此鞏固共同體的權威與知識權力[17]。新聞工作者必須了解系統的能力和局限性,建立起對系統的適度信任,過于信任GAI系統會導致濫用,而信任度不足則會導致無法充分利用其潛力。
信息社會通過數字反饋行動可能將人類置于算法機器的控制之下,使社會陷入一種大規模監控的狀態。當系統擔任數據持有者的角色,吸收并應用人類的經驗以預測未來行為時,可能導致社會動態和人類決策過程對算法預測的過度依賴,有可能削弱人類的獨立思考和自主性。因此對于數字用戶媒介素養教育的需求十分迫切,必須發展出在日益數字化的時代生存或至少共存所需的一切合適的技能。隸屬于蓋茨基金會的全球非營利性組織“直面歷史和自己”(Facing History and Ourselves)已經開設了微課程“學習瀏覽GAI 內容:媒體素養策略”,向用戶介紹GAI 可能給媒體環境帶來的變化,幫助他們了解GAI 傳播虛假信息的可能性,指導他們采取步驟核實他們在網上看到的信息,并幫助他們了解GAI模型是如何創建圖像的[18]。麻省理工學院高級虛擬中心還推出了“深度偽造時代的媒體素養”課程,教育用戶識別虛假信息,解構基于事實的斷言,并辨識可信來源以應對錯誤信息和虛假信息,課程涵蓋從政策到技術干預等多個方面,專注于提升公眾的認知和理解水平[19]。
GAI 與傳統的互聯網信息服務不同,其輸出結果不僅由算法生成,更依賴用戶的積極參與。在這一過程中,用戶的作用愈發重要,他們的提問方式、引入關鍵元素以及對生成內容的迭代與選擇,直接塑造著最終的生成結果。GAI 與傳統搜索引擎不同,它更像是一個與用戶進行互動交流的系統,用戶的請求和行為直接影響著系統生成的內容,這就凸顯了用戶治理的重要性。在使用GAI驅動的新聞平臺時,用戶需要承擔相應的義務,例如學習新聞領域的提示詞規范,這有助于引導用戶的請求,并規范GAI的使用過程。這種治理方式能夠更好地指導用戶行為,使用戶在互動中更明智地引導和影響GAI的輸出結果。
隨著連續不斷的工業革命,人機關系實際上正在發生演變,被稱為5C模式:共存(Coexistence)、合作(Cooperation)、協作(Collaboration)、共情與共同進化(Compassion and Coevolution)[20]。在第一次和第二次工業革命期間,機器是工廠的設備,它們和人類形成了一種“共存”的關系,在這種關系中,機器是人類的簡單工具。在第三次工業革命期間,人類和機器處于“合作”關系,根據不同的流程暫時共享一個工作空間,并共享部分物理、認知和計算資源。在第四次工業革命中,智能機器與人類在共享的工作空間中進行“協作”,其具體目標是通過各方在共同的團隊身份下同步互動的聯合行動來完成任務[21]。在第五次工業革命中,人類與機器人組成團隊,共同完成任務。這種關系的核心是人類在這種環境中的感受、如何決策、由誰決策以及如何組建這種團隊,尤其是培養人機信任,由此讓人類感受到目標的一致性,消除機器取代自身的威脅感,并了解與機器合作時的決策過程,保證人類的最終決策權。
當前新聞業的人機關系還處于協作階段,因此一個極其重要的問題是,人機關系將朝著哪個方向變化。人們已不再單純視AI 為人類智能的輔助工具,而是意識到機器認知也在發展,它們不再只是執行預定程序,而是學會了通過試錯進行創新性探索,包括提出人類不曾想象的問題、目標、假設、分析。在認知發展的四個環節——信息獲取、信息加工、認知形成和認知影響中,機器認知與人類認知已不是并存式的“共生”,更不再是簡單的輔助合作,而是相互激發與演進,進而構成兩者之間的“互生”——當下社會已從“人機共生”邁入“人機互生”階段[22]。人類(生物智能)和機器(計算智能)以根本不同的方式工作,可以抵消彼此的缺陷,這使得它們不是在用戶-工具動態中兼容,而是在更先進和動態的伙伴關系中兼容。人機“共情和共同進化”超越了單一目的的服務,而是作為不斷變化的人類和機器生態系統的一部分。在未來的新聞業,以人為本的人機關系需要具備雙向共情、主動溝通和協作智能的特點,以建立可靠的人機共同進化關系,從而建立高性能的人機團隊。親密的人機交互最終將促進人類和機器能力的增長,在未來實現持續的人機共同進化。這種共同進化的發展使得新形式的關系不再以競爭為重點,而是為機器和人類創造更美好的新未來[21]。
生成式人工智能所帶來的變革力量顯現在個體、工作組織和社會結構的演變中,需要對數字技術、人類和組織等主體之間的相互聯系進行研究,以深刻反思可持續性和社會價值。新聞行業的健康和可持續發展需要超越技術解決方案,更需要建立多元主體之間可持續的信息生態系統。不同主體間的關聯可能重新定義信息傳播和消費的方式,而這些主體如何塑造自身角色將極大地影響新聞業未來的發展軌跡。對于GAI,我們需進行全面而有機的治理,通過適當的界定和監管,消除其潛在負面影響,朝著人機“共情和共同進化”的方向發展。