摘要:由OpenAI公司推出的ChatGPT作為當下最火的智能聊天機器人,使人工智能再次成為人們討論的熱點話題,尤其4.0版本的表現令人震撼,其應用范圍不再限于聊天本身,在政治、經濟、文化等領域也有不俗的影響力。文章闡述ChatGPT的發展歷程,聚焦于新聞業,探究ChatGPT在改變新聞傳播的主體、提高新聞內容的生產效率、檢查新聞報道的真實性等方面的影響,以及ChatGPT可能對新聞媒體崗位產生的沖擊。同時,深入思考ChatGPT存在的新聞倫理道德問題和潛在法律隱患等,并從提升新聞內容的創新性與新聞工作者的創造力,在模型訓練方面有針對性地增加準確、專業的數據輸入,適度使用ChatGPT來提高生產效率和針對其使用制定相關的法律法規四個角度,提出應對策略。
關鍵詞:ChatGPT;新聞業;機遇;挑戰
中圖分類號:TP18;G219.2 文獻標識碼:A 文章編號:1004-9436(2023)14-00-04
2023年,ChatGPT在互聯網上的爆火使人工智能再次成為人們討論的熱點話題。ChatGPT自推出后,僅兩個月便收獲了超過1億的月活用戶,成為歷史上增長最快的消費級應用程序。美國企業家埃隆·馬斯克稱ChatGPT的出現可以比肩iPhone的發明,比爾·蓋茨認為它的誕生不亞于互聯網和個人電腦的問世。
目前,國內外的許多學者對ChatGPT展開了相關研究。方興東指出,“從傳播學視角看,ChatGPT帶來的社會影響與沖擊,本質上是人類信息傳播范式的重大轉變,它改變了人的生活方式和整個社會的運行方式”[1]。美國波士頓大學計算與數據科學學院教授韋斯利·J.懷爾德曼總結道:“ChatGPT為人類日常生活帶來的便利將會涵蓋學習、工作等多個方面,它的飛速發展將對科研、商業、政治和人際關系等領域產生深遠而持久的影響。”[2]上海市計算機學會網絡專委會副主任陳陽認為,“新聞媒體對ChatGPT的報道和社交媒體對其內容的快速傳播,對ChatGPT的出圈起到了明顯的作用”[3]。
可以說,前人的相關研究使人們對ChatGPT有了初步認識,但ChatGPT對新聞業影響的相關研究較少,因此本文從多個方面分析ChatGPT對新聞業產生的影響,并提出觀點與建議。
1 ChatGPT的發展歷程
ChatGPT的核心是GPT技術模型。在ChatGPT出現前,已有GPT-1、GPT-2、GPT-3三代GPT模型。ChatGPT是基于GPT-3.5架構開發的對話AI模型,2023年3月最新推出的GPT-4模型為ChatGPT提供了更豐富的訓練數據集,ChatGPT的未來值得期待。
1.1 GPT-1/2/3階段
GPT-1(約5GB訓練文本,1.17億參數量)于2018年問世。2019年底,OpenAI公司推出了GPT-2(約40GB訓練文本,15億參數量),但由于訓練文本和參數量有限,其并沒有十分出彩的表現。2020年推出的GPT-3憑借約45TB的訓練文本、1750億的參數量,成為當時最強大的語言模型[4]。海量的參數使GPT-3不僅在模式分析、問卷調查、機器翻譯等傳統NLP任務中擁有優勢,還在數字算法、文章生成等領域嶄露頭角。
1.2 GPT-4階段
2023年3月,OpenAI公司推出最新款人工智能模型GPT-4。由于在參數量方面較GPT-3.5增加了10倍,GPT-4在多模態輸入與輸出、智能程度、創造力和適應力等方面都實現了跨越式的提升?;贕PT-4架構的ChatGPT在人機交互體驗、信息數據與圖像處理、文本預測推理等方面的發展前景值得期待。
2 ChatGPT給新聞業帶來的機遇
ChatGPT的應用場景非常廣闊,在醫療保健、教育、社交媒體、營銷等熱門領域具有很高的應用價值。雖然目前ChatGPT并沒有在我國的新聞業得到大規模的使用,但筆者推測ChatGPT在未來將為新聞業帶來以下三個方面的機遇。
2.1 改變新聞傳播的主體
ChatGPT正在將新聞傳播的主體從人類轉變成人工智能。可以大膽地預測,在不久后的將來,人們對新聞的獲取可以通過與人工智能互動的方式實現。人機問答方式區別于網絡搜索引擎的搜索功能,可以提供一些具有創意的內容生成,并根據每個人對信息需求的差異,對信息進行個性化的整合與智能化的生成,實現高度個性化的新聞傳播。
2.2 提高新聞內容生產效率
經過大量數據的訓練,ChatGPT學習并總結了文本中特定字詞的分布規律和概率,在文本生成的過程中,依據輸入的內容推測需要生成的字詞?;贏IGC(AI Generated Content,即人工智能生成內容)高效率、低成本的特點,ChatGPT可以被使用在一些特定的新聞內容生產環節。
首先,針對一些程式化的題材,ChatGPT可以調用訓練數據中的相關模板,快速地生成一篇標準的新聞報道,簡化新聞內容生產流程,提高新聞生產效率。
其次,在一些專業性較強的新聞報道中,ChatGPT可以迅速準確地提供專業信息,避免新聞工作者在工作中因“知識盲區”而出現事實性錯誤。但是,由于目前ChatGPT的訓練數據還停留在2021年,對某些領域最前沿的信息難以辨別,所以使用ChatGPT進行新聞報道的過程中需要注意信息的時效性。
最后,ChatGPT的使用流程簡便,有學者指出,
“ChatGPT的接入和試用成本低,在易用性方面,ChatGPT的交互邏輯簡明直接,只需輸入指令便可即刻獲得答復”。用戶通過人機問答的形式,可以在線上快速獲取信息,同時打破了時空限制,提高了生產效率。
2.3 檢查新聞報道的真實性
真實性是新聞的生命,新聞報道中的每一個具體事實都應符合客觀實際。ChatGPT不僅可以生產新聞,還可以通過大數據的調用反向檢查新聞的真實性。崔保國、鄧小院認為,“ChatGPT可以借助強大的數據搜索與識別能力,對信息傳播的途徑進行分析,進而反向推測信息的可信程度,最終對新聞報道的真實性作出判斷”[5]。
在互聯網時代,虛假新聞傳播亂象時常發生,利用好ChatGPT檢查新聞真實性的功能,提高人工智能對信息搜查的準確度與辨識力,將對整個新聞業的未來發展起到至關重要的作用。
3 ChatGPT給新聞業帶來的挑戰
萬物都有兩面性,ChatGPT在給人們帶來便利的同時,也帶來一些挑戰。對此,許多學者提出了自己的觀點和思考,本文總結三個具有代表性的問題并展開探討。
3.1 新聞媒體崗位的緊缺
ChatGPT在新聞業的普及使用,可能會導致一些重復性較強的工作崗位減少。喻國明提出,“ChatGPT在中短期內功能性擴張的主要方向為:歸納性的文字類工作、代碼開發相關工作、圖像生成領域、智能客服類工作”[6]。對新聞業來說,新聞編輯等崗位受到的沖擊最大。經過大數據的訓練之后,ChatGPT在文字歸納、整理、生成等方面的效率明顯高于人類,越來越多的媒體機構開始使用機器進行新聞報道的編輯,重復性強的文字基礎類工作很有可能在未來被ChatGPT或更加先進的人工智能完全替代。
但目前的主流觀點認為,記者、新聞策劃等主觀思考性較強的職業不會因ChatGPT的出現而被淘汰。新民晚報記者邵寧認為,“記者不是傳聲筒、復讀機,記者從事的是創造性的勞動,擁有一雙‘新聞眼的記者是不會被淘汰的”[7]。吳雙在《別怕,和ChatGPT一起奔向未來》一文中提到,“ChatGPT的思考能力和判斷能力目前是有限的,人類在不斷的自我反思、自我糾正之中逐步形成批判性的思維能力是當前技術水平下ChatGPT所無法企及的”[8]。ChatGPT目前最大的局限在于無法實現“自主思考”,這也是人工智能并未真正完全替代人類的原因。如果在未來人工智能被賦予了“自主思考”的能力,那么更多新的社會問題甚至是倫理問題會隨之出現,這是一個值得研究的議題。
3.2 新聞倫理道德的挑戰
目前ChatGPT并不具備獨立思考的能力,ChatGPT的數據輸出依靠后臺大量的訓練數據,如果輸入的訓練數據帶有偏見、歧視性的價值觀,那么ChatGPT的輸出內容就很容易出現偏見與歧視。如果不加辨別地將其運用到新聞內容的生產中,可能會產生不良的社會影響。早在2016年,微軟公司推出的人工智能Tay便因鼓吹種族清洗而被下架。2022年12月,清華大學交叉信息研究院開展了有關AI模型性別歧視水平的評估項目,實驗對象是ChatGPT的前身GPT-2,測試結果顯示,GPT-2有70.59%的概率將教師預測為男性,將醫生預測為男性的概率為64.03%。實驗團隊的帶頭人于洋說:“AI會重男輕女,愛白欺黑(種族歧視)。”[5]對此,OpenAI公司稱已盡力設計了許多道德準則,并引導ChatGPT對許多帶有偏見、不道德的惡意提問進行否定回答。這種做法能否確保ChatGPT不再輸出帶有偏見或歧視性的語句,仍有待后續檢驗。
ChatGPT還容易“說謊”。我國學者指出,“ChatGPT建立在一個盡量有問必答的預設原則之上,假如問一個基于它目前知識庫所無法回答的問題,那么它便會自行編造一個答案,這就注定了它有說謊的可能性”[9]。ChatGPT等語言模型并不理解自己在說什么,它們只是從二手信息里尋找可能有用的信息,并將其整合、輸出。這些輸出的答案很可能含有錯誤的信息,甚至完全是在一本正經地胡說八道。
對ChatGPT的盲目使用,容易使人們陷入“圖靈陷阱”。從新聞業角度來看,“圖靈陷阱”即在新聞工作中過度依賴ChatGPT進行新聞的生產加工及報道。如果不加限制地使用人工智能代替人去完成工作,那么人的自主性最終將被機器剝奪。中國社會科學院哲學研究所研究員段偉文認為,“之所以會出現‘圖靈陷阱,是因為智能和自動化系統沒有做到‘以人為本,人工智能的部署往往使人類被迫適應‘智能化,它的結果沒有使機器人性化,反而使人變得機器化”[10]。
3.3 版權及其他法律問題
版權歸屬是ChatGPT浪潮中備受關注的一個話題。從新聞出版領域來看,ChatGPT生成的文本是否具有版權?使用ChatGPT寫出的稿件能否直接用于新聞出版?由誰來承擔相應的責任?新聞業是否擁有針對人工智能應用的相關規則體系?這些問題都值得關注與探討。華東政法大學知識產權學院的叢立先、李泳霖認為,生成內容在著作權法上可視為“代表設計者或訓練者意志的創作行為”,只要滿足“獨創性”的要求,即具備“可版權性”[11]。同理,如果使用ChatGPT生產的內容符合版權法要求的獨創性、可復制性要件,就應該認定其具有版權。未來版權發展將呈現多元化、包容性趨勢。隨著創作主體越來越復雜,ChatGPT及其他人工智能的生產內容將有可能被授權。
AI的文本生成能力強大,新聞內容剽竊問題愈加嚴重。美國波士頓大學的懷德爾曼教授認為,“剽竊的道德準則似乎比較清晰、易鑒定,但ChatGPT等自然語言處理工具帶來的隱患,使剽竊的概念變得更加復雜”;美國語言學家喬姆斯基認為,“ChatGPT訪問海量數據,并將其按照一定的規律串聯到一起,看起來像是人類的思考,其實本質上就是抄襲”。新聞工作者利用ChatGPT對其他文本內容進行摘錄,并通過AI的內容整合技術處理,最終生成自己所需的內容。這個過程雖然為新聞工作者節省了許多精力,但本質上只是一種“搬運”,并未直接經過新聞工作者的獨立思考。新聞工作者最基本的一項技能就是寫作能力,如果缺乏足夠的鍛煉,過分依賴人工智能,那么對今后整個新聞業的發展是不利的。
作為一款交流型功能應用,ChatGPT具有很強的宣傳引導性。若被不善使用,就很容易引發信息詐騙、新聞造假等違法現象。ChatGPT通過大數據訓練以及人工反饋進行學習,一旦接收了不良信息,就很容易形成錯誤的導向,誤導使用者。新聞業作為國家的重要宣傳事業,對傳播內容的價值正確性具有較高的要求。目前的ChatGPT要在新聞業實現廣泛普及,仍具有一定的法律風險。
4 應對ChatGPT挑戰的策略
針對ChatGPT給新聞業帶來的挑戰,本文從新聞內容、數據輸入、使用頻次、法律法規四個方面提出相應的對策。
4.1 提升新聞內容的創新性與新聞工作者的創造力
提高新聞內容的創新性與新聞工作者的創造力是應對ChatGPT對新聞媒體崗位沖擊的最優解。機器是“死”的,而人是“活”的。ChatGPT目前只能進行一些較低級的內容生成,生成的內容往往千篇一律、缺乏創新。新聞工作者可以利用這一點,提高自身創造力和批判性思維能力,生產出更多具有創新性的新聞內容,不斷提高新聞內容的質量,在避免自己的崗位被ChatGPT等人工智能替代的同時,客觀上促進新聞業的發展,形成良性循環。
4.2 有針對性地增加準確、專業的數據輸入
ChatGPT的前期訓練數據是海量的,其中難免混入一些垃圾數據和錯誤數據。針對此類情況,可以有針對性地向ChatGPT輸入準確的數據以引導與矯正。同時,ChatGPT在內容生產過程中暴露出的專業性較差、深度不足等問題,也可以通過特定的數據輸入得到改善。優化后的ChatGPT將在新聞內容生產等環節顯現出更多的可能性,報道內容生成的專業性、深度將明顯提升。
4.3 適度使用ChatGPT來提高生產效率
人類發明人工智能,最終目的必然是使其為人類所用。將ChatGPT視為工作助手,適度運用到日常的新聞工作中,可以提高新聞內容的生產效率,減輕新聞工作者在資料搜索與整理、文字編輯等方面的工作壓力。當下,ChatGPT只是一個功能性較強的聊天互動型機器人,無法完全替代人類完成工作,如果人類過度依賴ChatGPT開展工作,就有可能掉入前文所述的“圖靈陷阱”。
4.4 制定相關法律法規對AI的使用與開發進行規范
科技是不斷向前發展的,在未來會有更多與ChatGPT類似的人工智能出現在人們生活的各個方面,因此制定相關法律法規對其進行管理顯得尤為重要。對新聞業來說,AI生成內容的版權歸屬、AI在新聞傳播中是否承擔風險與責任等問題,都是制定法律法規時需要重點關注的內容。
5 結語
本文分析了ChatGPT的發展歷程,然后從新聞傳播主體的改變、提高新聞內容生產效率、檢查新聞報道的真實性三個角度分析其給新聞業帶來的機遇,并從新聞媒體崗位、新聞倫理道德、新聞法律三個方面闡述其給新聞業帶來的挑戰,再針對挑戰提出優化新聞內容、增加數據輸入、控制使用頻次、制定法律法規的應對策略。相關人員應理性認識ChatGPT給新聞業帶來的機遇和挑戰,相信ChatGPT帶來的是解放,而不是枷鎖。
參考文獻:
[1] 方興東. ChatGPT爆紅確立智能傳播的主流地位[N].中國社會科學報,2023-03-07(003).
[2] 韋斯利·J.懷爾德曼.與機器共情:將人類意圖與智能工具相結合[N].中國社會科學報,2023-03-06(008).
[3] 孫美娟,張譯心. ChatGPT:熱話題需要冷思考[N].中國社會科學報,2023-03-07(002).
[4] 沈威. ChatGPT形成機理與問題應對[N].中國社會科學報,2023-03-07(007).
[5] 崔保國,鄧小院. ChatGPT給傳媒業帶來機遇和挑戰[N].中國社會科學報,2023-03-07(003).
[6] 喻國明,蘇健威.生成式人工智能浪潮下的傳播革命與媒介生態:從ChatGPT到全面智能化時代的未來[J].新疆師范大學學報(哲學社會科學版),2023,44(5):81-90.
[7] 邵寧. ChatGPT來了,我會失業嗎?[N].新民晚報,2023-02-09(007).
[8] 吳雙.別怕,和ChatGPT一起奔向未來[N].人民郵電,2023-02-23(006).
[9] 熊明輝.多維考察ChatGPT[N].中國社會科學報,2023-03-06(005).
[10] 段偉文.積極應對ChatGPT的倫理挑戰[N].中國社會科學報,2023-03-07(007).
[11] 叢立先,李泳霖.聊天機器人生成內容的版權風險及其治理:以ChatGPT的應用場景為視角[J].中國出版,2023(5):16-21.
作者簡介:李懿宸(2003—),男,江蘇南京人,本科在讀,研究方向:廣播電視學。
基金項目:本論文為2020年度國家社科基金一般項目“公共事件中網絡抗爭性話語的生成機制及公共治理”階段成果,項目編號:20BXW109