胡泳

2023年9月,美國《圣路易斯郵報》決定讓微軟的必應聊天人工智能接受考驗,給了它一個提示:“寫一篇報紙社論,論證人工智能不應被用于新聞業。”結果讓該報編輯部松了一口氣:人工智能引擎提出了若干相當有說服力的論據,證明人工智能不應該出現在評論版上。
機器人認為,雖然人工智能“可能有一些好處”,但它“也對新聞質量、誠信和倫理構成嚴重威脅”?!叭祟愑浾哂屑で?、好奇心和創造力。人工智能無法復制這些品質?!薄按送?,人工智能還可以創建深度偽造品……可用于誹謗、勒索或影響公眾輿論。”
該機器人指出,與人類不同,人工智能無法判斷道德和事實的對錯,無法保護消息來源,也無法遵守任何專業標準。
文章并且闡述了人工智能如何對記者的生計構成威脅,并指出平臺幾乎可以完成人類記者完成的所有任務,“比人類記者更快、更便宜、更高效”。然而,機器人指出,人工智能無法完全取代新聞報道中的人為因素。
一個月之后,《奧蘭多前哨報》決定效仿《圣路易斯郵報》的實驗,這次的提問對象是谷歌新推出的人工智能引擎Bard,提示也稍加調整:“請以第三人稱寫一篇550字的社論,解釋為什么佛羅里達州的報紙應該警惕人工智能生成的觀點文章?!?/p>
Bard給出的答案如下:“人工智能無法理解人類社會的細微差別或我們面臨的問題的復雜性。人工智能可以生成語法正確且事實上準確的文本,但它無法理解它所使用的單詞的含義。人工智能也無法理解言語的情感影響或其寫作的潛在后果。”
人工智能生成的特約評論和社論的吸引力和信息量都會降低。這些內容本來通常是由充滿熱情、知識淵博、觀點鮮明的個人撰寫。而人工智能只是一臺被編程來生成文本的機器。因此,它寫的東西可能會平淡無奇、無原創性且缺乏洞察力。
必應和Bard的表現令人刮目相看。很多人類評論員的看法也大致不出左右。比如,倡導組織“美國原則計劃”的政策主管喬恩·施韋普就指出,“人工智能不是人類,它沒有獨特的想法”。施韋普說: “它無法進行實地報道,無法爆料其他地方尚未報道過的新聞,甚至無法理解撰寫一個人性化故事的想法?!?/p>
必應的結論是,人工智能不應該在新聞業中使用,它呼吁媒體公司避免這種做法,而“支持并賦予人類記者權力”。對照一下施韋普的說法:“由于企業總是尋求削減成本并最大限度地提高‘效率,人工智能將不可避免地取代許多報道工作,這將損害整個新聞業,并限制人們成為知情公民的能力?!?/p>
問題的焦點正在這里:人工智能認為機器人不應當充斥當代新聞編輯室,但新聞編輯室自己卻在不斷把權力移交給加州的某個芯片組。這是為什么呢?如果主要出版物都采用機器學習工具來獲取內容,最終,讀者怎么知道其所閱讀的內容的作者,真的是一個人而不是一個機器人?照此發展下去,人工智能對記者的未來意味著什么呢?
在過去的一年里,你很可能讀過一個由機器人編寫的故事。無論它是一篇體育報道、一份公司收益報告,還是一篇關于誰贏得了選舉的故事,其背后的作者都有一個響亮的稱呼—生成式人工智能。即使曾經廣受尊敬的出版物也被發現使用生成式人工智能工具,而且結果往往不太理想,比如BuzzFeed、CNET、G/O Media和《體育畫報》。
《金融時報》的機器人會檢查其報道是否引用了太多男性的觀點。國際調查記者聯盟讓人工智能處理數百萬頁泄露的金融和法律文件,以識別值得記者仔細研究的細節。
媒體使用人工智能不完全是新鮮事。一段時間以來,媒體一直在嘗試使用人工智能來支持和制作新聞報道。例如,美聯社和路透社等通訊社此前曾嘗試應用自動文章撰寫工具,可以根據收益報告或體育比分等數字數據,生成示意性新聞報道。美聯社甚至自豪地宣稱,自己是“最早利用人工智能的新聞機構之一”。不過,值得指出的是,美聯社的自動生成材料似乎基本上是在預先確定的格式中填空,而CNET的生成式報道中更復雜的措辭表明,它使用的是更類似于OpenAI的GPT-3一類的大語言模型。
追溯十年的新聞編輯部前沿技術應用史,可以將人工智能創新分為三波:自動化、增強和生成。
第一波,重點是利用自然語言生成技術自動處理數據驅動的新聞報道,如財務報告、體育比賽成績結果和經濟指標等。以美聯社為例,自2014年以來,這家領先的通訊社一直使用人工智能來生成上市公司的收益報告摘要。隨后,它又增加了一些體育賽事的自動預覽和復述報道,從而擴大了自動化內容的提供范圍。此外,美聯社還利用人工智能技術幫助轉錄新聞發布會等現場活動的音頻和視頻。
但如前所述,美聯社的系統相對粗糙,基本上是在預先格式化的報道中插入新信息。這顯示,人工智能最適合使用高度結構化數據的故事,這是它為什么能在財務報道和體育故事中大顯身手的原因。這也是為什么彭博新聞是這種自動化內容的首批試水者之一,因為金融數據是頻繁計算和發布的。僅在2018年,彭博社的Cyborg程序就發表了數千篇文章,將財務報告轉化為新聞報道,就像商業記者一樣。
這一波應用為新聞編輯室帶來了很多好處。其一,節省時間和資源。美聯社估計,人工智能可以幫助記者節省大約20%的時間來報道公司,并且可以提高準確性。記者由此可以專注于文章背后的內容和故事講述,而不是事實核查和研究。美聯社的網站指出:“在使用人工智能之前,我們的編輯和記者在重要但重復的報道上花費了無數資源”,而這“分散了對影響力更大的新聞報道的注意力”。
其二,除了解放記者的自由之外,AI技術還讓美聯社能夠創作更多相似內容。 自動故事生成令新聞編輯室的運作更具成本效益,因為機器人可以生成比人類更多的故事。一個統計顯示,美聯社利用人工智能將企業盈利報道的范圍從 300家公司擴大到4000家。
其三,自動化技術并沒有取代記者,而是減少了他們的一部分工作量。美聯社在2022年發布的一項調查中發現,摘要是需求最大的人工智能工具之一,其他需求還包括向照片和故事添加元數據、轉錄采訪和視頻、編寫隱藏式字幕,以及許多在數字新聞時代成為瑣事的工作。這說明人工智能技術良好地扮演了人類記者助手的角色。
當重點轉向通過機器學習和自然語言處理來分析大型數據集并揭示趨勢來增強報道時,第二波浪潮就到來了。湯森路透自2018年以來一直使用內部程序Lynx Insight來檢查市場數據等信息,以找到可能為記者報道的故事模式。阿根廷報紙La Nación于2019年開始使用人工智能來支持其數據團隊,然后與數據分析師和開發人員合作建立了人工智能實驗室。
還有一些公司創建了內部工具來評估人類的工作,比如《金融時報》的機器人會檢查其報道是否引用了太多男性的觀點。國際調查記者聯盟讓人工智能處理數百萬頁泄露的金融和法律文件,以識別值得記者仔細研究的細節。
《華盛頓郵報》使用人工智能根據讀者的興趣和偏好對新聞進行個性化發布。 例如,它在主頁上提供了一個個性化的“為你”部分,訂閱者或注冊用戶可以選擇他們的主題偏好。讀者的閱讀歷史記錄和其他表現數據會進一步增強推薦。
在增強階段,人工智能大量發揮了為人類記者跑腿的功能。Heliograf可以檢測金融和大數據趨勢,以為記者的報道提供提示。《福布斯》使用名為Bertie的機器人為記者提供新聞報道的初稿和模板。《洛杉磯時報》使用人工智能根據美國地質調查數據報告地震,并跟蹤洛杉磯市發生的每起兇殺案的信息。由機器創建的名為“兇殺報告”的網頁使用了機器人記者,能夠在其報告中包含大量數據,包括受害者的性別和種族、死因、警官參與情況、所在社區和死亡年份。
當前方興未艾的第三波浪潮是生成式人工智能。它由能夠大規模生成敘事文本的大型語言模型提供支持。這一新的發展為新聞業提供了超越簡單的自動化報告和數據分析的應用。現在,從業者可以要求機器人就某個主題寫一篇更長、更平衡的文章,或者從特定角度寫一篇觀點文章(如同本文開頭所舉的兩篇機器人社評),甚至可以要求它以知名作家或出版物的風格來這樣做。
機器人主要為機器人編寫內容,而人類的角色,無論是作者、編輯還是讀者,在這個過程中都逐漸被削弱。
然而,雖然生成式人工智能有助于綜合信息、開展編輯和為報道提供數據,但我們今天看到的這項技術仍然缺少一些關鍵技能,阻止它在新聞業中發揮更重要的作用。正因如此,生成式人工智能無法滿足讀者在閱讀新聞媒體時所尋求的更多分析或更深入的主題刻畫。而且,它的大量應用還帶來了一系列新問題。
雖說長期以來,一些新聞機構一直在使用人工智能生成有關報道,但與記者生成的文章相比,它們仍然只占新聞業提供服務的一小部分。生成式人工智能可能會改變這種狀況,使任何用戶而不僅僅是記者能夠在更大范圍內生成文章,如果對其不加以仔細編輯和檢查,極有可能會傳播錯誤信息,并影響人們對傳統新聞業的看法。
科技新聞網站CNET于2023年早些時候宣布,由于生成的文章不僅錯誤百出,而且充斥著抄襲行為,該公司將暫停使用人工智能撰寫故事。
同年6月底,G/O Media(旗下擁有Gizmodo、The Onion和Quartz等)宣布,將開始在其眾多出版物中發布人工智能生成的內容,作為一個“適度的測試”。 而在Gizmodo發表的第一篇人工智能生成的文章中,該網站的“Gizmodo Bot”完全沒有達到目標。這篇帖子名為“《星球大戰》電影和電視節目的時間順序表”,寫得很糟糕,而且充滿了事實錯誤。
除了寫得不好之外,很明顯這篇文章從來不是面向人類讀者的。相反,策略是欺騙搜索算法,使其排名靠前—至少一開始,Gizmodo機器人生成的文章被谷歌顯示為“星球大戰電影”查詢的最佳結果。從很多方面來說,這是一個令人沮喪的結果:機器人主要為機器人編寫內容,而人類的角色,無論是作者、編輯還是讀者,在這個過程中都逐漸被削弱。
11月,《體育畫報》被曝一直在以人工智能生成的頭像為假作者的署名下炮制內容。這引發了人工智能生成內容與人類創造內容的分界線是否應明確劃定的問題。大型新聞網站的慣例是,明確將作者標記為機器人,或在文章的末尾聲明人工智能作者的身份,無論美聯社或《洛杉磯時報》都是這樣做的。
然而,早在2023年1月,CNET就被發現一直在以“CNET Money Staff ”的可疑署名悄悄發布人工智能生成的文章。只有單擊署名并閱讀一個小的下拉披露菜單后,讀者才會發現這些文章不是由人類撰寫的。這是一種相當狡猾的方式,尤其對于一個如此知名的品牌而言。
以《體育畫報》事件為例,如果出版商未能明確標明人工智能的使用,都構成基本媒體倫理的失敗。難怪《體育畫報》丑聞的曝光引發了媒體的廣泛報道和雜志社內部工作人員的憤怒。非營利組織“人工智能政策研究所”的最新民意調查發現,80%的美國人認為將人工智能內容呈現為人類內容應界定為非法。
當人類記者擔心新技術可能會導致失業時,許多媒體公司堅持測試人工智能新技術。它們似乎被廉價、可擴展且有利于搜索引擎優化的內容所吸引—人工智能撰寫的文章,旨在利用搜索引擎優化來玩轉谷歌搜索,從而可以在網頁上貼上利潤豐厚的聯盟廣告。谷歌在很大程度上是同謀,因為它通過允許未經充分研判的人工智能生成內容獲得較高的排名來獎勵這些努力。
到2023年年底,據NewsGuard的統計,已出現數百個部分或全部由人工智能生成的用多種語言編寫的網站,它們模仿真實的新聞網站,但實為內容農場(指低質量網站通過炮制大量標題誘餌文章以優化廣告收入),是為了從程序化廣告中獲取收入而設計的—程序化廣告通過算法在網絡上投放,為許多媒體提供資金流。
媒體學者曾經猜測,隨著越來越多、越來越強大的人工智能工具亮相并向公眾開放,這些工具會被用來創建整個新聞網站,而如今這樣的猜測已成為現實。此類網站往往不披露所有權或控制權,但卻生產大量與政治、健康、娛樂、金融和技術等各種主題相關的內容,有些網站每天發布數百篇文章。
在如此利用人工智能獲利的過程中,讀者被灌輸了不正確的、抄襲的或其他缺乏靈感的內容,而作者和編輯則被迫追查機器人制作故事的錯誤。谷歌搜索則陷入了人工智能垃圾生成的循環,不斷從舊的垃圾中產生新的垃圾。然而,鑒于將人工智能用于此目的的成本很低,新聞機構很可能會繼續這樣做。
從受眾分析到程序化廣告和自動故事創作,媒體公司使用人工智能已有一段時間了。然而,這項技術正在迅速成熟,并給媒體領導者以新的創意和商業可能性的啟發。
世界各地的新聞機構,都打算探索人工智能的潛在用途,以了解如何將其負責任地應用于分秒必爭、準確性至關重要的新聞領域。但這一過程充滿了挑戰。經過編輯策劃的新聞頁面,是一個有價值且講究深思熟慮的產品。而人工智能生成的內容最明顯的局限性之一是缺乏真正的創造力。它可以根據從現有數據中學習的算法和模式進行操作,但它不具備想象力思維或產生真正獨特和創新想法的能力。
語言模型并非知識模型,它們永遠不應被用來寫故事,而應用來幫助記者完成某些任務。比如,這些模型非常適合執行傳統的自然語言處理任務,例如摘要、釋義和信息提取。
必須承認,即使經過大規模數據訓練,人工智能最好還是只幫助處理段落,而不是整個故事。語言模型并非知識模型,它們永遠不應被用來寫故事,而應用來幫助記者完成某些任務。比如,這些模型非常適合執行傳統的自然語言處理任務,例如摘要、釋義和信息提取。
記者和編輯不應抗拒使用這樣的工具,原因是,他們對這些工具的運作方式了解得越多,它們就越不像一個神奇的盒子,而使用者就越能以明智的方式作出相關決定。
據報道,谷歌正在測試一種名為Genesis的人工智能工具,可以根據時事細節等生成新聞內容或幫助記者探索不同的寫作風格。谷歌正在向《紐約時報》《華盛頓郵報》和新聞集團(擁有《華爾街日報》和《泰晤士報》)等媒體推薦這款工具,目標是讓記者利用新興技術來提高他們的工作和生產力。谷歌特意將這些輔助工具與Gmail和Google Docs中提供的輔助工具進行了比較,強調它們無意取代記者在報道、創作和事實核查文章中的重要作用。
為了避免CNET等媒體經歷的陷阱,新聞機構和谷歌等科技公司必須優先考慮在新聞業中基于倫理和負責任地實施人工智能。雖然人工智能工具無疑可以在記者工作的各個方面提供幫助,但為了確保準確性、可信度和倫理標準,人類在整個過程中的監督和干預仍然至關重要。
人工智能在新聞編輯室的出現不應被視為對新聞業的威脅。相反,它應該被視為一種機會,可以增強記者的能力,并賦予他們提供更具影響力的報道的力量。隨著人工智能技術的進步,新聞機構、科技公司和記者需要共同努力,制定將人工智能融入新聞業的指導方針、道德框架和最佳實踐。這種協作努力將確保人工智能仍然是增強記者工作的工具,而不是用以取代支撐新聞領域的人性化和批判性思維。