隨著生成式人工智能(以下簡稱“GAI”)在新聞生產各個環節的廣泛應用,其應用邊界及衍生的倫理問題日益受到關注。近年來,國外多家新聞媒體和管理機構圍繞GAI在新聞媒體中的應用開展調查研究。2023年4月至5月,世界報業和新聞出版協會與德國調研公司SCHICKLER聯合開展調研,收集了101名新聞從業者的觀點,以了解新聞機構對GAI的使用情況。調查發現, 20% 的新聞媒體已出臺正式的AI使用規范。2023年,牛津大學路透新聞研究所也在報告中指出, 16% 的受訪機構已制定GAI操作指南。筆者基于已有調查確定的機構名單,搜集到包括BBC、美聯社在內的35家新聞媒體、監管機構和行業自律機構制定的GAI使用指南,這些文本構成本研究分析的基礎(見表1)。新聞和管理機構如何“馴化”GAI技術?圍繞GAI催生的“元新聞話語”又如何表達出對既有新聞范式的修復與更新?這構成了本研究的核心。
一、新聞機構對GAI的采納與拒斥
面對GAI這種新技術,部分新聞機構已形成明確的取舍。
1.采納:作為效率提升與輔助生產的工具。在媒體收入下滑、成本壓力劇增的背景下,新聞機構普遍將GAI視為提升效率和內容質量的工具。以下三類應用場景獲得主流媒體的認可。
一是文本處理:基礎工作的效率優化。文本處理被視為GAI在新聞生產中的核心應用場景,可提升編輯效率與文本準確度。《商業內幕》支持借助GAI糾正文案錯誤、優化文章可讀性,從而節約編輯時間。拉普勒新聞網鼓勵在摘要生成、轉錄、數據整理、翻譯、語言校對、風格調整等方面運用GAI。Heidi.news則將AI視為類似Excel的輔助工具,可以輔助提煉原始數據來支持記者工作。

二是視覺優化:多模態內容生成與呈現能力增強。GAI打破了文本、視頻、圖像的邊界,能夠快速生成圖表、插圖等視覺內容,豐富報道形態。例如,《晚郵報》《世界之路報》充許記者使用AI制作插圖、圖形和模型;《金融時報》則探索AI在信息圖表及照片等視覺元素中的應用,以強化報道的視覺效果。
三是內容輔助生成:復雜創作的創意助手。GAI正被應用于更復雜的內容創作場景。據美聯社的研究,當前GAI最常用于社交媒體帖子、新聞標題及初稿生成等環節。《商業內幕》的內部指導原則允許記者使用GAI創建大綱、生成網頁標題標簽、設計采訪問題、解釋概念及舊聞綜述等基礎工作。《連線》雜志則允許編輯利用AI工具獲得標題建議,并為社交媒體帖子生成創意與基礎文本。
2.拒絕:對新聞價值與職業倫理的堅守。盡管多家新聞機構積極嘗試GAI的應用場景,但實踐中仍保持謹慎態度。在內容生產方面,多家新聞機構明確禁止由GAI“獨立”或“完全”生成新聞稿件。例如,《連線》雜志、《商業內幕》、巴西Nucleo網站等均禁正記者使用AI撰寫整篇報道;《人民報》更為嚴格,明確禁止GAI介入任何形式的新聞內容創作。
在圖像與聲音生成領域,多家媒體針對GAI應用制定了嚴格的使用禁令。加拿大廣播公司、《世界之路報》、《金融時報》均明確反對使用AI生成逼真影像;加拿大廣播公司明確規定,除技術演示、教育等特定場景外,不得使用AI復刻包括記者在內的自然人的聲音與肖像,同時禁止在新聞調查中使用A驅動的人臉識別、語音匹配等識別工具。
隱私與數據安全是媒體限制GAI應用的一項重要考量。多家媒體在內部指南中強調,禁止使用GAI制作侵犯他人權益的內容,并要求嚴守保密原則,防范隱私泄露。同時禁止將機密信息、商業秘密或個人數據輸入AI系統,從源頭防范信息泄露風險。上述“禁令”既體現了媒體對內容原創性、真實性及媒體公信力的堅守,也為GAI的合理使用提供了明確的規范指引。這種審慎態度不僅是對技術應用的理性約束,也是對新聞業核心價值的堅守。
二、GAI應用中的協商與調整:新聞機構內部的技術適應與整合
新聞機構在應用GAI時并非簡單地采取“采納”或“拒絕”的立場,而是在采納的基礎上,通過實踐行為的管理、調適及制度約束,使其符合新聞機構的社會文化價值與職業規范。
1.檢查與監督:確保內容質量與公正性。AI時代,知識生產經歷了從“本質性資料庫”向“或然率資料庫”的根本變革。用戶提問方式的差異、訓練數據的多樣性以及機器學習算法在概率運算中的動態調整,都可能導致知識生成結果的不可預測性,并導致信息偏差的出現。因此,各媒體均強調人工審核和事實核查的重要性,并在指導原則中引入“監督”要求。
《世界之路報》要求記者以“開放而謹慎”的態度審視AI生成內容,并按照傳統信息來源的標準進行核實。荷蘭綜合通訊社堅持“人一機器一人”的工作流程,確保思考和決策始終由人類主導。加拿大廣播公司承諾,只發布經過人工干預與專業審查的新聞內容。《連線》雜志與新西蘭數字媒體Stuff等也強調人工評估仍是保障內容準確性、促進受眾理解的關鍵環節。
除了對內容質量的堅守,防止偏見是新聞機構關注的另一重點。彭博社對StableDiffusion(AI繪圖工具)的測試以及清華大學于洋團隊對語言模型的評估均揭示了現有模型存在系統性偏差。對此,媒體一方面規定GAI的使用禁區,如芬蘭通訊社禁止GAI用于數據挖掘;另一方面通過技術手段防止偏見,如Mediahuis通過改進算法和用戶反饋雙管齊下控制偏見,巴伐利亞廣播公司通過優化方言模型及數據因果結構檢驗,優先生成無偏見的內容。
2.標識與透明:增強受眾信任與內容可信度。隨著GAI的迭代升級,人工生成內容與AI生成內容的邊界日益模糊。“透明性”在業內被普遍視為應對技術模糊性的重要解決方案,超過 90% 的新聞機構在指導方針中提出,應在新聞生產過程中公開GAI的使用情況。
透明性通常與內容標簽化要求掛鉤,即明確標識AI生成或輔助生成的內容,以幫助受眾識別AI的介入程度。例如,《衛報》要求主動向讀者公開相關信息,坦誠回應受眾關切。美聯社、湯森路透、BBC、《紐約時報》等媒體明確要求在顯著位置標注類似“AI輔助生成”的提示語。
當然,不同媒體對“透明性”的執行尺度存在差異。芬蘭通訊社主張全面披露AI在報道中的應用,要求對技術輔助制作、機器智能創建等進行明確標注。Ringier集團則規定,當AI工具僅用作輔助工具時可不作標注。德國記者協會更強調制度約束,認為僅靠行業自律不足以保障透明性,建議通過立法強制實施AI生成內容標識義務。
3.明確責任:強化職業規范與問責意識。在技術變革與倫理考量的驅動下,問責制已成為保障公眾信任、捍衛新聞誠信的關鍵。多家媒體表示對GAI產出內容承擔直接責任。《晚郵報》明確表態,對其網站上發布的所有內容負責,包括使用或基于AI及其他技術制作、屬于其發布權限范圍內的材料。湯森路透同樣高度重視問責制和數據倫理,表示“對數據使用以及AI產品和服務實施適當的問責措施”。
三、GAI驅動下新聞業范式的變革與重塑
文化權威并非預設的靜態存在,而是一個動態的、相互爭奪的過程。從麥卡錫主義時期“有聞必錄”的職業準則爭議,到戴安娜事件中媒介倫理邊界的震蕩,新聞業曾多次遭遇合法性危機。與歷史上偶發的“異質個案”不同,當前新聞業面對的挑戰已然是“異質常態”一門戶網站、社交媒體及AI技術的興起,正在重塑新聞生態的邏輯。在此背景下,單純通過剝離“越軌者”已不足以維護傳統范式,新聞業需通過徹底反思重塑公共理解。
1.新聞業的觀念更新與流程變革。在GAI的影響下,新聞業的觀念與流程正發生深刻變革。“把關人”角色的重新強化、透明性原則的新內涵,以及技術自主性的選擇,都是媒體范式修復的嘗試。
一是“把關人”角色的重新強化。大眾傳播時代,“把關人”是關鍵角色,由專業編輯承擔。互聯網時代,用戶與算法削弱了傳統“把關人”的權威。進入AI時代,新聞機構的應用指南顯示,媒體正通過強化編輯與記者的主體性,重塑“把關人”角色以應對技術挑戰。首先,新聞機構普遍堅持編輯與記者的最終決策權,要求其憑借專業知識和經驗對AI輸出內容進行審核、校正與完善,確保新聞的真實性與準確性。其次是推動“把關”的升級,相較于傳統把關的單一范式,AI時代的把關角色體現出技術與人類權威的動態博弈:在主體層面,個體編輯的判斷轉向人機協同的系統性治理;流程上,更強調內容生成后的審核,如荷蘭綜合通訊社堅持“人一機器一人”的流程;規則上,融入算法透明度、數據偏見治理等技術性考量。
二是“透明性”原則的內涵延伸。2001年,美國學者科瓦齊和羅森斯蒂爾提出“透明性原則”,主張以“信息披露”替代傳統“客觀性”原則,通過公開新聞的獲取與表達方式,抵御信源錯誤與欺騙。此后,“透明性”原則逐漸成為信息超載時代新聞機構建設權威性的核心策略之一,其本質是將“后臺”操作公之于眾,通過增進公眾對事實判斷過程的理解,強化社會共識。
GAI技術的普及使透明性原則面臨新的實踐挑戰。其內涵從傳統生產過程的公開,升級為技術應用的系統性披露。主要的實踐轉變為顯著標識及生成流程的詳細說明。例如,湯森路透要求記者披露AI使用細節并提供背景信息,以確保受眾理解AI在內容生產中的作用;德國新聞社承諾采用穩健AI系統,并提供解釋說明;新聞媒體聯盟則強調AI運行機制的透明性。這些實踐表明,透明性原則正從以人為中心的內容生產透明,邁向人機協作的技術治理透明。
三是新聞機構的技術自主性追求。GAI技術的快速發展推動了新聞生態的結構性變革。數據公司與AI技術提供商通過提供數據集和預訓練模型深度參與內容生成與分發。這一趨勢雖然提高了效率,但也暴露了新聞機構在數據控制與技術自主性上的脆弱性,使得部分新聞機構更加重視自主技術能力。
數據倫理和安全是新聞機構追求技術自主的核心關切。其中“自建大模型”與“定制化訓練”成為關鍵方向。一方面,專門為新聞生產設計的AI系統能夠通過定制化的訓練數據與算法優化,更好地契合新聞規范與話語習慣(如提供精準的選題策劃與內容生成支持)。另一方面,自主大模型的構建標志著新聞機構在AI時代重奪技術話語權,有助于擺脫外部依賴,鞏固公共傳播主體地位。例如,BBC正考慮利用其文本檔案開發自己的語言模型;德國記者協會倡導建立基于公共價值的數據體系,推動開放數據共享;湯森路透則表示“與在數據、內容和AI使用方面具有相似道德準則的組織合作”。
2.技術“他者化”與職業邊界的堅守。盡管已有研究探討智能機器作為傳播主體的可能性,并認為“人機融合”的新傳播格局正在形成,但在新聞業的技術倫理話語中,GAI始終被界定為工具性的“他者”,與記者編輯的主體角色有明確的邊界區隔。
“邊界工作”作為一種詮釋性話語實踐,貫穿于新聞業對GAI的規范與接納過程,表現為GAI“能做”與“不能做”的范圍。這不僅是技術使用的規范,更是新聞業對“新聞是什么”及“新聞應如何”的重新詮釋。例如,大部分媒體允許GAI從事文本處理、視覺優化等輔助任務,但嚴格禁正其獨立生成整篇文章或逼真圖片,以防虛假信息傳播。這種邊界劃定將準確性、真實性和客觀性等核心價值觀嵌入技術實踐,凸顯新聞作為社會公共品的功能與人類記者在深度報道、倫理判斷和公眾信任構建中的不可替代性。
新聞機構的官方敘事也反映了其對GAI的謹慎態度。據世界報業和新聞出版協會的調查, 70% 的受訪記者只在有限范圍內使用GAI, 61% 視其為效率工具,僅 8% 認為其提升了內容質量。可見,新聞界整體上對GAI保持克制,更愿意在既有范式內對其加以調適。
(作者單位山東師范大學新聞與傳媒學院)
本文系2023年山東省本科教學改革研究重點項目“黃河戰略背景下新聞傳播學科實踐教學的創新探索”(項目編號:Z2023131)、山東省社科規劃項目“智媒時代網絡與論共識的協同建構機制研究”(項目編號:23CWTJ90)的階段性研究成果。
參考文獻
[1]Adami M.Is ChatGPT a Threat oran Opportunity for Journalism?Five AI ExpertsWeigh In[EB/OL]. (2023-03-23)[2023- 04-10]. https://reutersinstitute.politics.ox.ac.uk/news/chatgpt-threator-opportunity-journalism-five-ai-experts-weigh.
[2]Henriksson T.New Survey Finds Half ofNewsrooms Use Generative AI Tools;Only 20% Have Guidelines in Place[EB/OL]. (2023-05-25)[2024-02-18]. https://wan-ifra.0rg/2023/05/newgenai-survey/.
【編輯:陳琦】