摘要:ChatGPT是一款基于人工智能技術開發的聊天機器人,具有智能問答、自然語言生成等多種功能。隨著人工智能技術的快速發展和迭代,以ChatGPT為代表的多種AI應用開啟了文字、圖像、音樂、視頻等多模態的內容生產。
文章主要研究以ChatGPT為代表的AIGC應用將給信息傳播帶來怎樣的危機與機遇,將對傳播鏈條造成怎樣的影響,政府、產業、大眾應如何應對這些變化。文章運用觀察法、分析法、例證法,基于對ChatGPT的技術原理、發展現狀、應用場景等方面的分析,發現其在信息傳播方面的前景廣闊,AIGC提升了普通人的內容生產能力,增加了信息傳播中的內容供給,提高了信息傳播的用戶體驗,有望進一步打破人機界限,改寫傳播入口和界面,將給社會結構、人類生存環境、信息傳播帶來顛覆式影響。但同時,ChatGPT存在虛假回答、信息污染、數據隱私、路徑依賴、新型“信息繭房”和“智能鴻溝”等現實問題,AIGC可能給傳播帶來隱患甚至災難性的后果。基于對相關現象的分析研究,文章從傳播者、傳播過程、受眾等各角度出發,從發展促進和風險防范兩個方面提出對策建議。
關鍵詞:ChatGPT;AIGC;人工智能;信息傳播;聊天機器人
中圖分類號:TP18;F49 文獻標志碼:A 文章編號:1674-8883(2023)07-0001-03
麥克盧漢認為,每一種技術都立即對人的交往模式進行重組,實際上造就了一種新環境[1]。美國人工智能研究公司OpenAI于2022年11月30日上推出聊天機器人模型ChatGPT,隨后人工智能技術軍備競賽席卷全球。ChatGPT全稱為“Chat Generative Pre-trained Transformer”,可譯為“聊天生成器”,其具有聊天功能,能幫助使用者開展文本生成、開放域問答、分類、摘要、編寫等活動,甚至撰寫文案、廣告、詩歌、小說、論文[2]。推出僅兩個月,其月活躍用戶就成功過億,被稱為“史上用戶數增長最快的消費級應用”[3]。ChatGPT成為目前最熱的低門檻、高效率文字內容生產工具,對傳統的內容生產形態造成巨大沖擊,產生深遠影響。
ChatGPT實際上是一種新型自然語言處理工具。OpenAI稱其能根據用戶反饋改進輸出結果,根據用戶反饋持續化更新和學習,實現與真實對話無異的交流,這被稱為“從人類反饋中強化學習”(RLHF)[4]。眾多企業和風險投資商高度關注,研發類似大模型。谷歌2023年2月宣布推出聊天機器人“Bard”,次月,百度公開類似產品“文心一言”。此外,眾多企業紛紛在其應用中融入ChatGPT,如在2023年3月,更加“聰明”的ChatGPT4.0發布后,微軟迅速發布融入GPT4的新Office(Copilot)。隨著ChatGPT成為廣受關注的文字內容生產工具,圖像、音樂、視頻等多模態的AI內容生產都開始紛紛拓展。
技術的更迭將給社會結構、生存環境、信息傳播帶來巨大沖擊。可以預見,人工智能技術將深入應用于內容采集、內容生產、內容分發、用戶互動、內容運營等各環節。傳播鏈上傳播者、傳播過程、受眾反饋等主體和環節都將受到巨大影響。
(一)傳播者環節:AIGC賦能普羅大眾,科技巨頭把握優勢地位
傳播者是傳播過程中信息的主動發出者。互聯網時代,傳播者已歷經了三個階段:PGC(專業生成內容)、UGC(用戶生成內容)和AIGC(人工智能生成內容)。PGC時代,主要媒體是報刊、廣播、電視等傳統媒體,主要內容生產者是擁有專業技術和設備的媒體人。此時,傳播是單向的,互動性不強,時空局限顯著。UGC時代,除了擁有專業技術和設備的媒體人,任何擁有移動網絡條件并愿意發聲的人都可成為傳播者,傳受雙方角色逐漸模糊。AIGC時代,出現了各種“能力”非凡的AI生產者。比如ChatGPT,可以自動完成生成摘要、呈現數據、分析趨勢等眾多常規任務,這意味著其可以幫助用戶克服寫作障礙,提供系列有價值的內容。普通用戶可在AI幫助下跨越信息傳播“能力溝”,迅速掌握表達能力和資源使用能力,進行更加有效的內容生產和傳播。
但目前大部分知名AIGC產品是由OpenAI、微軟、谷歌、百度等少數公司制作,他們正將AI與自身既有業務融合,以強化自身優勢地位。少數國際科技巨頭掌控市場,“很可能會強化科技巨頭在市場上的壟斷”[5]。
(二)傳播過程環節:AIGC提高傳播效果,傳播入口和界面有望改寫
在技術層面上,ChatGPT基于自然語言處理、自然語言生成以及機器學習技術,依據用戶給定的上下文環境和用戶偏好按要求自動生成內容,能在各種時間、場景下提供個性化、多語種的服務,交互式地幫助用戶完成信息生成任務,且具備自我反思和評價的功能。
新一代AIGC技術普及后,內容傳播將擁有自動化生產、強大的數字分析等特點,大幅提高傳播效果和受眾體驗。互聯網的普及使傳播渠道更加多樣和廣泛,ChatGPT等AIGC將進一步賦能現有應用。“AI2.0將帶來平臺式的變革,改寫用戶的入口和界面,誕生全新平臺,催生新一代AI2.0應用的研發和商業化。”[6]
(三)受眾接收和反饋環節:即時反饋強化學習,傳受界限進一步模糊
ChatGPT可以迅速分析用戶的興趣和需求,模擬人類語言與人類交流。從傳播關系來看,人類在向ChatGPT提出問題、尋找答案時,也形成了對AI的自發投喂。ChatGPT由此進行強化學習,不斷獲得更好的連接能力和嵌入社會運轉系統的機會。傳者和受者的界限進一步模糊,實現人機共存、人機融合。
在賦能傳播者,大幅降低成本提高效率,縮短內容生產周期的同時,ChatGPT的出現也給傳播帶來了風險,甚至是災難性的后果。
(一)傳播者環節:AI虛假回答導致信息污染
ChatGPT將AI認為最符合受眾偏好的答案提供給受眾,呈現出“對答如流,無所不曉”的狀態,但細究其回答,存在真假難辨、查無出處的情況,有可能導致以訛傳訛。例如關于瑞信AT1先于普通股被減記,詢問 ChatGPT有關歷史案例時,得到回答稱,2016年的葡萄牙BCP銀行事件中也出現過。有專業人士質疑這一案例系ChatGPT編造,指出其給出的兩個信源查無出處[7]。此前關于某地取消限行的消息熱傳,經查系假新聞,是有受眾為展示ChatGPT功能鬧出的烏龍[8]。
造假的原因在于AI將語料庫中的內容重新組織、生成答案時,如果被虛構的前提引導,或被投喂的語料為假,或語料以錯誤邏輯組織,其生成內容就喪失了真實性、準確性。虛假答案一旦充斥社交媒體或被誤用,便會造成數據的污染。污染數據若進入AI語料庫,將形成信息污染閉環。有科技平臺提出問題:“如何才能確保AIGC的信源為真?無論是繪畫、聊天還是視頻,應該標注信息為make up(編造)嗎?”[9]
(二)傳播過程環節:AI“學習”引發安全隱患
AI也可能被惡意利用,造成不道德甚至違法的信息傳播,引發安全風險。面對“ChatGPT有沒有提供過假新聞呢”這一問題,ChatGPT回答:“作為AI語言模型,我不會提供假新聞,并且會努力提供準確、可靠的信息。但是,人類可能會因為各種原因故意或無意提供假新聞。”出于多種因素,各種價值導向可能被“投喂”給AI。也有人會通過多步提示、惡意引導AI給出犯罪問題的解答,引發安全隱患。
AI內容創作能力迅速提高,“學習”的數據庫愈發龐大,“產生了數據挖掘、內容生成與生成內容使用三個階段的版權風險”[10]。新聞集團旗下的道瓊斯公司今年2月指責OpenAI未授權使用《華爾街日報》[11]。此外,AIGC針對不同需求生產的內容涉及眾多領域,如何進行信息監管也是焦點。
(三)受眾接受和反饋環節:路徑依賴致新“繭房”“鴻溝”
路徑依賴是指受眾在新媒體環境下因不合理地使用路徑而出現的強烈的需求感和依賴感,包括對媒體工具、媒體內容等的依賴。AI參與內容生產給用戶帶來的快感將加強路徑依賴。有調查稱,美國超89%的受訪學生會使用ChatGPT完成作業。截至2023年1月底,國內社交平臺上使用ChatGPT完成作業的討論已超10萬條[12]。
巨大的信息量將淹沒用戶真正需要的信息,造成信息表面豐富,實則匱乏的局面。受眾或將身處新的“信息繭房”[13]。在AIGC浪潮中,應關注主動或被動排斥相關應用的群體,避免形成新型“智能鴻溝”。如何提高所有人的生活質量,給予人們更多選擇,而不是被科技所裹挾,這些問題有待研究解決[14]。
目前我國提出“國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作”,“提供生成式人工智能產品或服務應當遵守法律法規,尊重社會公德、公序良俗”[15]。強調堅持發展和規范并用,在擁抱新技術發展的同時主動思考風險防范策略,前瞻性地規范治理有關技術,采取措施盡量降低潛在隱患造成的損失。
針對傳播者環節,在促進發展方面,建議充分認識人工智能的結構性影響,做好正面引導。在風險防范方面,建議行業和企業樹立“技術向善”意識,統籌強化技術監管、人工審核與內容治理,引入有道德的數據風險控制模型,健全法律法規,對算法進行必要的節制。
針對傳播環節,在促進發展方面,建議政產學研各方協同合作,積極應對科技巨頭的“AI軍備競賽”,要努力把握AIGC行業發展規律,在核心技術上實現自主可控,同時加速AIGC模板、工具、應用場景聯合研發。在風險治理方面,完善人工智能倫理規范,加強行業自律,保持對個人信息收集的克制,引入隱私保護設計,重視相關法律問題和法律風險。
針對受眾環節,AIGC效能的發揮離不開使用者的問題提出、信息甄別和信息查證等能力。在促進發展方面,要利用各方力量幫助受眾了解人工智能,展現AIGC未來應用場景。在風險治理方面,建議全社會共同參與,通過制度安排、服務規范、媒體引導等方式,鼓勵受眾加強學習、提升技能,增強個人風險防范能力。
AIGC技術擁有十分廣闊的應用前景,既為信息傳播的未來展示巨大想象空間,同時也帶來了很多現實風險挑戰。筆者在與ChatGPT交流時,發現ChatGPT認為人工智能等技術無善惡,“人類則可能通過利用人工智能傳播信息作惡”。當前,已有部分國家、教育機構表示禁用相關應用,因此有必要從技術自主和產業自主、意識形態主導權等方面持續關注人工智能發展。在支持AIGC賦能信息傳播的同時,有必要在技術自主和產業自主的基礎上,實現人工智能算法倫理約束,把控意識形態領域的主導權。同時,引入隱私保護法律法規,不斷強化政府對AIGC的平臺監管,系統加強開發者的自律和他律,提高全民人工智能素養,營造AIGC良性發展氛圍。
參考文獻:
[1] 斯蒂芬妮·麥克盧漢,戴維·斯坦斯.麥克盧漢如是說:理解我[M].何道寬,譯.北京:中國人民大學出版社,2006:57.
[2] 斯托克爾·沃克.人工智能ChatGPT寫智能論文:教授們應該擔心嗎?[EB/OL].自然,https://www.nature.com/articles/d41586-022-04397-7,2022-12-09.
[3] 彭茜,黃堃.新聞分析:ChatGPT,變革與風險[EB/OL].新華社,http://www.news.cn/2023-02/13/c_1129359575.htm,2023-02-13.
[4] 陸偉,劉家偉,馬永強,等. ChatGPT為代表的大模型對信息資源管理的影響[J/OL].圖書情報知識,https://kns.cnki.net/kcms/detail// 42.1085.G2.20230224.1136.002.html,2023-02-26.
[5] 陳永偉.超越ChatGPT:生成式AI的機遇、風險與挑戰[J/OL].山東大學學報(哲學社會科學版),https://kns.cnki.net/kcms/detail/37.1100.C.20230303.1549.002.html,2023-03-06.
[6] 邵文.李開復:拐點已至,AI2.0將誕生新平臺并重寫所有應用[EB/ OL].澎湃新聞,https://www.thepaper.cn/newsDetail_forward_22290101,2023-03-14.
[7] @來去之間.知道胡扯,沒想到連信源也是胡扯的[EB/OL].新浪微博,https://weibo.com/1111681197/MyhhzghYn pagetype=profilefeed,2023-03-21.
[8] 常正尚.杭州3月1日取消限行?媒體稱系ChatGPT所寫,警方將發布調查結果[EB/OL].澎湃新聞,https://www.thepaper.cn/newsDetail_forward_21953693,2023-02-17.
[9] @微博科技.如何才能確保AIGC的新源為真[EB/OL].新浪微博,https://weibo.com/1864419143/Myh1624IW pagetype=profilefeed,2023-03-21.
[10] 叢立先,李泳霖.聊天機器人生成內容的版權風險及其治理:以ChatGPT的應用場景為視角[J].中國出版,2023(5):11-16.
[11] 吳天一.媒體指責OpenAI用新聞文章訓練ChatGPT:需獲授權[EB/OL].澎湃新聞,https://m.thepaper.cn/newsDetail_forward_ 21991880,2023-02-20.
[12] 劉胤衡. ChatGPT“橫掃”校園緣何遭封殺.[EB/OL].中國青年報,https://s.cyol.com/articles/2023-02/17/content_VYP7dYul. html,2023-02-17.
[13] 韓冰意,蘇中.“信息繭房”、隱私外泄,如何應對人工智能帶來的倫理風險?[EB/OL].新華網,http://www.xinhuanet.com/tech/20230119/849d98a850da4e6eba5a1d364f90adc3/c.html,2023-01-19.
[14] 彭蘭,安孟瑤.智能時代的媒體與人:2022年智能傳播研究綜述與未來展望[J].全球傳媒學刊,2023(1):3-18.
[15] 國家互聯網信息辦公室.關于《生成式人工智能服務管理辦法(征求意見稿)》公開征求意見的通知[EB/OL].網信中國,https://mp.weixin.qq.com/s/2-qP6qc_8NigbP7djv2k0w,2023-04-11.
作者簡介 李宏洋,記者,研究方向:新聞傳播、網絡與新媒體、傳媒經營管理。