胡碟 黃洪珍
[摘要]ChatGPT憑借較高的人機交互水平,成為現象級應用。自動化新聞是人工智能技術應用于新聞傳播領域的產物。當自動化新聞遇上ChatGPT,采寫編評等新聞生產環節會大幅提質增效,人工智能新聞生產實踐會深入發展,而自動化新聞也會面臨新聞質量和媒體公信力下降的可能,加劇新聞生產主體的不確定性,加大新聞倫理風險。文章闡述ChatGPT為自動化新聞帶來的機遇和挑戰,探究ChatGPT視域下自動化新聞的未來轉向:規范智能技術應用于自動化新聞,人機協同生成自動化新聞,增強自動化新聞人文關懷。
[關鍵詞]ChatGPT;自動化新聞;智能變革;人機協同
自動化新聞是將數據轉化為敘述性新聞文本的算法過程,也被稱為“算法新聞”或“智能化新聞”等。傳統新聞以記者和編輯為主導,自動化新聞則以寫作機器人為主體:對新聞線索的分析轉化為對大量數據的抓取,從人為的撰寫稿件轉換為根據自然語言模型處理稿件,由人工審核把關稿件變為程序自動分發[1]。
ChatGPT是美國人工智能實驗室OpenAI于2022年11月底發布的AI模型,在推出短短兩個月內就達到了1億的月活躍用戶數,一躍成為用戶數量增長最快的消費者應用[2]。與之前的智能寫作工具相比,ChatGPT不僅可以根據特定領域的結構化模板創建內容,產出符合標準的財經、體育、科技等方面的新聞報道,甚至可以作為主體融入新聞生產。2022年12月,BuzzFeed宣布裁員12%,并使用ChatGPT創作內容。亞馬遜也已經使用ChatGPT來回答客戶的問題,編寫軟件代碼,創建培訓文件等[3]。人工智能及相關技術全面滲透到媒體內容生產、傳播的各個環節,當自動化新聞遇上ChatGPT,會引發重大的變革性轉向。
一、ChatGPT為自動化新聞帶來的機遇
正如比爾·蓋茨所說,ChatGPT的問世不亞于個人電腦和互聯網的誕生[4]。ChatGPT所代表的人工智能的發展為自動化新聞創造了一個歷史性的機會,可以有效提高生產力,提升用戶滿意度和參與度,并全面賦能全產業鏈,加速媒體發展的深度融合。
(一)ChatGPT作為“代具”,使自動化新聞生產大幅提質增效
法國著名哲學家貝爾納·斯蒂格勒在《技術與時間》中提出人類“代具性”的理念。受普羅米修斯神話的隱喻啟發,斯蒂格勒用存在主義來說明人類是不完美的存在,并認為不完美是人類“代具性”存在的基礎。ChatGPT作為人工智能聊天機器人,可以在新聞、影視制作、自媒體運營等多方面充當“代具”,貢獻智慧。例如,《中國日報》采編系統各部門注重ChatGPT的工具性使用,將記者從機械編輯和前期基礎信息收集中解放出來,讓他們更專注于現場采訪和第一手資料的獲取。實踐證明,ChatGPT作為提高新聞生產力的“代具”,有助于減少新聞生產人員的體力輸出,提高腦力輸入。
(二)ChatGPT與虛擬數字人,賦能自動化新聞生產
ChatGPT可以生成虛擬數字人,提供自動語音播報等服務,為智媒時代的新聞生產提供技術支持。2023年2月,《中國日報》在微視頻、抖音等社交媒體上發布了一段短視頻,其中數字工作人員“元曦”與ChatGPT就中國傳統文化這一主題展開互動。ChatGPT自動生成了與中國茶文化相關的視頻腳本,并按要求順利地完成了中英互譯等工作。雖然ChatGPT數字播報還只是相對初步的新聞生產測試,但是這個短視頻獲得大量關注,虛擬數字人與ChatGPT的互動可以說是人工智能生成內容實踐中的又一進步。
(三)ChatGPT作用于采寫編評等生產場景,發揮自動化新聞功效
首先,ChatGPT可以對突發事件和突發新聞進行預編輯。ChatGPT可以在第一現場快速寫稿,隨即交由專業編輯團隊審核,并第一時間將相關新聞發布在網站和社交媒體平臺上。這在突發新聞、政府公告等特定情形下尤為重要和適用。ChatGPT也可以與編輯合作,增強新聞報道的實效性,確保新聞準確、及時地發布,保障受眾的知情權。其次,ChatGPT可以協助編輯修飾文稿。《中國日報》新聞采編業務的一個重要部分就是聘請外語專家對文章內容進行打磨和潤色。這不僅涉及文章的事實和質量,而且有關外國讀者的閱讀習慣和語言體驗。這項任務現在可以交給ChatGPT,它擁有多達1750億模型參數的訓練數據庫,囊括來自網站、書籍、社交媒體和其他平臺的文本語料,可以幫助優化新聞稿件,有效增強新聞文本的可讀性。最后,ChatGPT可以輔助編輯進行選題策劃,幫助抓取信息,并為記者提供創造性的解決方案等。
二、ChatGPT給自動化新聞帶來的挑戰
人工智能技術的不斷更新迭代,使自動化新聞在新聞生產上無限接近于職業創作,在新聞發布上更趨向于零成本。然而,自動生成內容傳播速度快,信息量大,也在一定程度上意味著網絡中短時間內有可能會充斥大量的虛假或誤導性信息。以ChatGPT為代表的人工智能技術如果被用來惡意生產、復制、傳播虛假內容,會帶來一系列負面影響。
(一)降低新聞質量,削弱媒體公信力
首先,新聞報道通常是不同表達形式的組合,如文字、音頻、視頻和數據等,雖然ChatGPT等人工智能生成內容及表達形式具有生產快等優勢,但是其在應用于特定場景或對自身整體邏輯進行分析時,會出現合成錯誤,甚至會存在因尚未完善的功能和技術而呈現低質量新聞和不良交互體驗的可能,從而降低公眾對自動化新聞產品的需求,削弱媒體公信力。其次,由于缺乏監管體系和專業新聞審核,ChatGPT等人工智能生成內容不僅可能在真實性方面存疑,而且可能摻雜隱蔽的表述偏差、傳播陷阱、價值觀扭曲等信息,而由新聞媒體背書的智能文本若出現失誤則會加劇媒體公信力危機。從長遠來看,ChatGPT等人工智能生成內容及表達形式有可能會給新聞質量和媒體公信力造成雙重危機,從而讓公眾重新評估新聞的可信度。
(二)消解專業邊界,加劇新聞生產主體的不確定性
當前,新聞的數字化引發新聞傳播方式的變化:混合、大規模、實時的內容傳播與正統、有組織、有界限的新聞傳播相融合;不同類型新聞媒體、內容形式和新聞渠道形成排列組合;新聞業邊界逐漸模糊,甚至可能會消失。這在一定程度上反映,智能技術可能會成為新的新聞生產主體。例如,“浙江之聲”一則報道,杭州地區的一個業主群討論ChatGPT,其中一位業主開玩笑說,他可以用ChatGPT寫一篇關于取消杭州機動車尾號限行的新聞稿,并在群里直播了ChatGPT的寫作過程,還將該稿件上傳到群聊,由此引發圍觀者截圖轉發,經過群聊、朋友圈、短視頻平臺的傳播發酵,信息來源產生模糊,該稿件內容被新聞化,導致錯誤信息傳播。可見,ChatGPT等人工智能有可能制造出看似有說服力的內容,并侵占公眾的注意力,進一步削弱專業新聞的權威性和消解專業邊界,擠壓專業記者新聞報道空間,加劇新聞生產主體的不確定性,甚至出現不合法的行為。
(三)模糊內容真實性,加大新聞倫理風險
目前,ChatGPT等人工智能雖然越來越善于理解和處理人類自然語言,人機交互的真實性模仿也在不斷推進,但是其生產內容的真實性和準確性偏差仍值得商榷。德國雜志Die Aktuelle在2023年4月用人工智能制作并發布了一篇對邁克爾·舒馬赫的“采訪”,引發舒馬赫家人不滿。隨后該雜志主編被解雇,且該雜志公開向舒馬赫的家人道歉。可見,ChatGPT等智能技術因自身算法邏輯而缺乏事實核查能力,很容易生產虛假內容,模糊內容真實性,使輸出的內容存在事實錯誤、知識盲區等問題和訓練數據源匹配、數據使用等偏差,加大新聞倫理風險,且目前這些問題尚未有可行的解決方案。
三、ChatGPT視域下自動化新聞的未來轉向
海勒等指出,“機器和人類共同成為一個二元體系,使得他們成為彼此的衡量尺度”[5]。在智媒時代,以ChatGPT為代表的人工智能生成內容應被正確客觀看待,其既具有優勢,也具有弊端。未來,新聞工作者要找準自己的定位,從技術邏輯的角度來理解人工智能技術。
(一)規范智能技術應用于自動化新聞
ChatGPT等智能技術參與新聞寫作,既要遵守法律法規,也要接受行業監管。一是新聞生產使用ChatGPT等智能技術要遵守國家法律法規。2023年7月,國家網信辦聯合其他部門印發了《生成式人工智能服務管理暫行辦法》,為我國生成式人工智能服務健康發展提供了重要法制保障。未來,政府有關部門還會出臺更多相應的政策。可見,新聞生產要在遵紀守法的前提下合理使用智能技術,切實提升人工智能服務的透明度,增強新聞生產內容的準確性和可靠性,進一步提高新聞傳播公信力。二是新聞行業要加強對ChatGPT等智能技術的監管。例如,新聞內容生產中使用ChatGPT等智能技術的場景、范圍、版權等方面應遵循相應的規定,盡可能避免智能技術引發的內容風險和媒體危機等問題。三是政府和行業相關監管部門應強化技術規范,完善新聞媒體內容評估標準,建立強有力的新聞媒體風險評估和預警機制,助力ChatGPT等智能技術應用于新聞內容生產乃至媒體轉型升級向善、向好發展。
(二)人機協同生成自動化新聞
當前,新聞生產模式主要表現為人機協同,一方面利用自動化技術實現大數據抓取和分析,另一方面結合記者的豐富經驗和敏銳判斷,將個體思維和自動化技術緊密結合。在自動化新聞生產中,記者和編輯作為新聞工作者應履行把關人的職責,強化在新聞選題、素材收集和輿論導向等方面的人工控制,有效利用ChatGPT,發揮人機協同的作用。具體而言,一是記者和編輯要對ChatGPT等人工智能生成的選題進行審核;二是記者和編輯要加強對ChatGPT等人工智能的訓練,使其輸出的內容與社會發展的主流觀點保持一致,積極發揮新聞導向作用;三是記者和編輯要學會判斷ChatGPT等人工智能給出的答案,加強對事實和來源的核實,避免錯誤信息誤導公眾。
(三)增強自動化新聞人文關懷
ChatGPT等智能技術應用于新聞生產,新聞倫理總是繞不開的話題。ChatGPT等智能技術自動化生成新聞可能會帶來侵權、侵犯用戶隱私等負面影響。因此,一是新聞工作者要把人類的價值觀和倫理規則植入ChatGPT等人工智能,尤其要將道德法律規范嵌入ChatGPT等智能技術自動寫作程序,并嘗試訓練ChatGPT自我學習機制來提高ChatGPT等人工智能水平,使其實現自我檢測、自我排除違法違規或不道德的內容,強化隱私保護。二是新聞工作者可以搭建專屬于記者的寫作數據庫,訓練ChatGPT等人工智能模擬真人寫作習慣,實現共情表達,讓新聞更有溫度、人情味和思想厚度。三是新聞工作者應最大限度地增強自動化新聞人文關懷,讓ChatGPT等人工智能具備情感傳播功能,可按照用戶情感等方面的實際需求來定制相應的內容,進一步優化用戶閱讀體驗。當自動化新聞遇上ChatGPT,用戶應擁有更多的主動權,讓ChatGPT等人工智能更好地服務于人本身。
四、結語
當前,ChatGPT等智能技術正在革新人工智能生成內容領域,在基于文本甚至多模態的AIGC應用領域具有重要意義。然而,目前ChatGPT等人工智能仍然依靠現有的知識和模型來回答和解決現實問題,它要成為強人工智能(Artificial Super Intelligence,ASI)還存在較遠的距離。當前,預防和規范ChatGPT等人工智能創建內容可能帶來的風險是十分必要的。
一方面,新聞工作者需要利用ChatGPT等智能技術去探尋更多新的技術應用,幫助解決新聞生產過程中存在的一系列復雜問題;另一方面,新聞工作者需要在自動化新聞的生產過程中,訓練和引導ChatGPT等人工智能,使其為人所用。未來,ChatGPT等人工智能會發展成為一個技術標志和時代烙印,并為新聞媒體行業迎來無盡的技術奇點和知識爆炸的盛景,從而使人類穩步邁向數字宇宙的漫長旅程。
[參考文獻]
[1]文希.自動化新聞的原生性失范及應對防治[J].青年記者,2023(05):46-48.
[2]劉禹良,李鴻亮,白翔,等.淺析ChatGPT:歷史沿革、應用現狀及前景展望[J].中國圖象圖形學報,2023(04):893-902.
[3]徐晨.ChatGPT下全媒體人才培養面臨的挑戰與機遇[J].傳媒論壇,2023(06):18-20,80.
[4]劉永謀,馬亮,孫宇,等.ChatGPT對公共治理的挑戰與機遇(筆談)[J].東方論壇,2023(03):1-24,165.
[5]N.凱瑟琳·海勒,黃斐.計算人類[J].全球傳媒學刊,2019(01):28-46.