摘要
媒體融合經過十年發展,從媒介融合進入到智能融合階段,而人工智能作為新一輪產業變革的核心驅動力和引領未來的戰略性技術,將成為推動媒體融合縱深發展的重要抓手。在此背景下,本研究對當前人工智能在媒體融合領域的應用現狀進行梳理,探討人工智能在數據采集、內容生成與認知反饋三方面為媒體融合帶來的挑戰,提供從源頭進行治理、靈活應對局面和明確倫理導向三條未來發展路徑。期待充分發揮人工智能的驅動作用,實現技術向善、向好發展。
關鍵詞
人工智能 媒體融合 治理路徑
2024年對媒體行業而言是極為重要的一年。2014年我國出臺《關于推動傳統媒體和新興媒體融合發展的指導意見》,媒體融合發展上升至國家戰略層面,這十年間,媒體融合縱深發展,從“相加”走向“相融”[1]。與此同時,以人工智能(AI)為代表的新興技術力量,作為發展傳媒新質生產力的重要抓手,在媒體內容生產、內容分發、效果反饋等方面重構著新聞信息生產與傳播全流程,影響著媒體融合發展的進路,推動媒體融合走向數智化融合階段。人工智能技術為媒體深度融合帶來無限可能,2020年9月,中共中央辦公廳、國務院辦公廳印發《關于加快推進媒體深度融合發展的意見》指出,要以先進技術引領驅動融合發展,加強新技術在新聞傳播領域的前瞻性研究和應用[2]。人工智能技術成為媒體深度融合的驅動力與生產力。但由于人工智能的底層邏輯是數字邏輯,人工智能運行過程中涉及的數據收集、數據預處理、模型訓練、內容生成與評估細化等幾個主要步驟[3]可能會在技術成熟度與應用規范性上存在風險,影響媒體深度融合的進程。正如學者所表明的那樣,新技術始終是一個投射出廣泛希望和恐懼的領域[4]。未來媒體融合領域需直面人工智能技術存在的缺陷,展開研究并提出解決對策,以此推進媒體融合領域更為健康的發展,走向深度融合。
一、深度融合:人工智能為媒體融合帶來全景革命
人工智能成為媒體深度融合過程中的核心驅動力,在人工智能技術的運用下媒體不僅實現了內容生產效率的飛躍式提升,還極大地豐富了信息的呈現形式,同時人工智能賦予了媒體更深層次地理解和滿足受眾需求的能力。借助大數據分析和機器學習技術,媒體能夠精準捕捉用戶的興趣偏好、行為模式乃至情感傾向,從而定制化推送內容,實現信息的高效觸達與深度互動。
首先,人工智能技術助力多種類傳播內容的生產,新一代人工智能技術,推動PGC數據(專業生產內容,Professional Generated Content)、UGC數據 (用戶生成內容,User Generated Content)、AIGC數據(人工智能生成內容,Artificial Intelligence Generated Content)等的全網匯聚[5]。人工智能激發媒體融合內容生產活力,實現音頻、視頻、圖片與文字等多種類傳播內容的快速生成。如在2024年全國兩會期間,央視新聞推出系列豎屏AI短視頻《AI數“讀”兩會》,依托海量數據,讓人工智能提取并學習以往新聞畫面中的df1374f5c6ac05cee5779d01f269a62b特征和風格,快速生成素材。在《AI數“讀”兩會|“新質生產力”如何持續“上新”?》中,為了詮釋科技創新驅動“新質生產力”,制作團隊通過200余次優化指令調整AI視頻的視覺風格,呈現出了具備科技感、未來感的創意畫面。人工智能強大的信息收集與圖像生成能力能夠幫助媒體從傳統文本生產轉向多種類內容的產出,助力媒體提高視覺表達能力,實現文本、視頻與音頻等多種形式的融合傳播。同時,人工智能的高效率能夠降低海報、動畫、音視頻等融媒產品的制作成本,利于生產出爆款融媒產品,推動構建全新的內容生產體系。
其次,人工智能幫助打造多元化應用場景,當下人工智能與媒體融合聚焦于打造高質量、智慧化、便捷化、普惠化、精準化的數字化應用場景。安徽新媒體集團以云計算、大數據和人工智能技術為核心,加速創建集“智能化技術+智能化內容+智能化服務”為一體的平臺,并計劃構建集“智能稿池庫、用戶管理數據庫和智能媒體資源數據庫”為一體的數據及能力中臺,推動融媒體向智媒體躍升。在人工智能技術的支持下,媒體行業能夠完成智能生產與智能媒資、4K/8K內容采集及生成、5G技術傳輸、一體化發布等系統的建設,并依托現有技術力量對新聞采編、生產、存儲、發布等內容生產側進行“AI+5G+4K/8K”能力的賦能,實現信息的多元化、立體化和全方位傳播。人工智能在融媒體活動中的應用日益廣泛,極大地增強了媒體的數字化服務能力。
最后,人工智能帶來全新的交互式體驗,人工智能將會為受眾帶來更加沉浸、立體的信息觸達方式。如大象融媒利用AIGC技術生成虛擬主持人,實現全天候新聞播報,顯著提升了內容的即時性和互動性,提高了觀眾的互動體驗和滿意度。數據顯示,大象融媒自引入虛擬主持人以來,觀眾互動率顯著提高了25%。數據表明,人工智能的引入能夠幫助媒體根據用戶的習慣和偏好感知用戶的使用習性,為用戶建立精準畫像,并通過及時接收反饋提供個性化服務與內容,最終達到增加用戶黏性的效果。人工智能應用于媒體融合將助力媒體行業實現更加高效、精準、多元的內容生產和傳播,為用戶帶來更加豐富、便捷、個性化的媒體體驗。
二、風險樣態:人工智能應用于媒體融合的多元挑戰
人工智能技術在內容生產、傳播效果與應用場景方面為媒體融合帶來全景革命,但又在倫理上威脅著世界的現有秩序。要在充分利用人工智能技術的同時,及時審視人工智能技術給媒體融合帶來的風險與挑戰。人工智能技術將在數據采集、內容生成與認知反饋三方面為媒體融合帶來挑戰。
(一)數據采集:隱私泄露與版權問題
人工智能系統的飛速發展有賴于算法技術的更新迭代,同時,隨著人工智能技術內部運行機制的復雜化,人類無法探明的“算法黑箱”越發嚴重。弗蘭克·帕斯奎爾(Frank Pasquale)在《黑箱社會》中提出算法黑箱是指算法的不透明性[6]。在人工智能發展過程中,首先,支撐算法運營的代碼與符號本身就是一種黑箱,普通受眾難以理解復雜、抽象的代碼符號及其運算邏輯;其次,算法運算過程中搜集了何種數據、多少數據以及如何對數據進行處理,在這一過程中是否會涉及到隱私侵犯問題?這是受眾不可知的部分,這種信息不對等現象加劇了算法黑箱。在這種情況下隱私泄露與版權問題難以避免。
人工智能技術的發展離不開海量數據的投喂,但這些海量數據中往往包含用戶的個人信息和敏感數據,人工智能不透明的數據搜集過程將帶來隱私侵犯。2023年3月24日,OpenAI發布聲明,向其用戶和整個ChatGPT社區道歉,并稱將努力重建信任。聲明稱,本周早些時候,該公司將ChatGPT下線,原因是開源庫中存在一個漏洞,致使一些用戶可以看到另一用戶的聊天記錄標題。OpenAI表示:“在ChatGPT下線前的幾個小時,一些用戶有可能看到另一在線用戶的姓名、電子郵件地址、付款地址、信用卡號后四位,以及信用卡有效期。完整的信用卡號碼在任何時候都沒有暴露”。這種解釋是否能夠贏得公眾的信任仍有待商榷,但這次事件表現出人工智能對數據的獲取超出了用戶的知情和同意范圍,同時人工智能會在未明確告知用戶的情況下,通過分析用戶行為來預測或推斷用戶的私人信息。由于黑箱的存在,用戶無法判斷個人信息被應用到何種方面,此前,著名女星泰勒·斯威夫特(Taylor Swift)的大量虛假“不雅照片”在社交平臺上傳播,一方面,這侵犯了公眾人物的肖像權,另一方面加劇了人工智能模型使用的安全風險,生成威脅社交平臺生態的有害內容。
其次,數據抓取的黑箱也將引發知識版權問題。2023年1月,蓋蒂圖片社(Getty Lmages)就以“Stable Difussion”作為“Stability AI”旗下訓練模型非法復制和處理數百萬受版權保護的圖像為由,在倫敦高等法院起訴“Stability AI”[7]。顯然,當人工智能將未被授權的作品應用于模型訓練與內容產出時,版權的界定將引發極大爭議。人工智能產出的內容是否擁有獨立版權?現代版權理論認為,僅有自然人和特定情況下的法人或非法人組織才是創作主體[8]。人工智能并不能夠被認為是創作主體,其生成的內容也是在現有的智慧成果基礎上進行學習總結得出的,所以人工智能并不能夠擁有版權。但如何規范人工智能生產內容的版權歸屬問題,目前仍未有明確的法律規定。
更為重要的是,即使用戶已經意識到人工智能會帶來隱私泄露與版權問題,并意圖改變這一點,但由于運行原理的黑箱,用戶往往難以改變現狀。當人工智能系統基于其訓練輸出數據時,人們并不總是知道算法是如何得出該輸出的?!盁o論有無人類參與或監督,智能算法都能通過機器學習形成一套決策規則來處理新數據。在此過程中,算法操控者不清楚也無需知道其通過機器學習獲得決策能力的基本原理?!盵9]人工智能行業頂尖公司Anthropic表示,通過具體的研究方法,他們能夠“通過查看哪些特征對特定輸入做出響應,開始理解模型行為,從而洞察模型得出給定響應的‘推理’過程?!盵10]即使是專業人士也難以完全理解模型行為,那么對絕大多數普通人而言,通過理解模型行為而規避隱私泄露風險則成為無稽之談。
(二)內容生成:深度偽造與偏見問題
正如IDC對話式AI和智能知識發現研究副總裁David Schubmehl所言:“使用預先存在的數據,人工智能算法被用來確保內容符合目標人群的興趣和愿望。”[11]人工智能的底層邏輯是數字邏輯,人類通過大量數據的輸入,讓機器理解人類發出的指令并根據既有數據資料庫輸出結果,后續通過人類反饋進行強化學習。模型訓練、內容生成與后續模型調整都依賴于前期的數據投入,機器通過不斷被投入的數據理解和分析人類的行為模式,從而預測和生成新的內容。數據自帶的錯誤、偏見、失實等問題將成為人工智能運行過程中的隱患,為人工智能帶來生成幻覺問題。人工智能模型的生成幻覺指生成偏離事實或包含捏造信息的內容。當模型生成的文本包含虛構的、誤導性的或完全捏造的細節、事實或主張,而不是提供可靠和真實的信息時,就會出現幻覺[12]。
人工智能的生成幻覺加劇了深度偽造內容的泛濫。2024年初,世界經濟論壇發布的《2024年全球風險報告》提出,“未來兩年全球十大風險”的首位是“人工智能生成的錯誤信息和虛假信息?!盵13]目前許多人工智能會利用其強大的文本、視頻與音頻處理能力編造虛假內容,危害社會安全。2023年7月4日,浙江紹興警方摧毀一個利用ChatGPT制作虛假視頻的團伙,該團伙利用ChatGPT技術自動生成視頻腳本與相關視頻素材,制作了一則“上虞工業園區發生火災”的虛假視頻,并在網絡上引起恐慌。此類謠言借助人工智能技術在社會上不斷滋長、蔓延,不僅給國家安全帶來潛在威脅,還直接挑戰了新聞的真實性與客觀性,甚至會帶來用戶對新聞的信任危機。
生成幻覺將導致人工智能輸出偏見內容。在人工智能爬取的數據中會存在由測量誤差、缺失值與無關測量等構成的數據噪聲,這些數據噪聲將影響人工智能的判斷,導致人工智能輸出帶有種族、社會與性別等方面的偏見內容。研究表明,“如果初始數據中,‘下廚’與‘女性’聯系起來的概率是66%,將這些數據喂給人工智能后,其預測‘下廚’與‘女性’聯系起來的概率會放大到84%?!盵14]這種數據中存在的偏見會在人工智能運行過程中得到放大,影響最終的輸出結果。盡管在數據搜集過程中,技術開發者會對人工智能的底層技術設計與數據處理過程進行規范性的設置,但也難以避免人工智能技術出現生成幻覺。如目前應用較多的ChatGPT技術,其開發公司OpenAI承認ChatGPT的輸出可能是不正確的或有偏見的。例如,引用不存在的文章參考或延續性別歧視的刻板印象,對有害指令做出反應,比如生成惡意軟件[15]。這足以證明,數據搜集與處理過程中仍存在著缺陷,這些缺陷將誘發人工智能產生不當行為,進而影響整個社會的安全。
(三)認知反饋:信任危機與價值觀風險
人工智能技術在數據采集與內容生成方面的問題將影響受眾的認知反饋,帶來信任危機。一方面新聞傳播行業的公信力面臨巨大的挑戰。正如《紐約時報》曾在橄欖球比賽報道中直言不諱:“盡管有大數據作為支撐,但和NFL教練相比,我們的機器人生成的報告更傾向于樂觀?!盵16]在人工智能技術的支持下,虛假新聞的生產變得更加容易和高效。部分媒體或個人為了吸引眼球、博取流量,不惜利用AI技術偽造假消息,導致新聞失范現象層出不窮。此前,有MCN機構利用AI操控賬號800多個,一天最多生成7000篇虛假新聞,并通過偽造“西安突發爆炸”“重慶巫溪一民房發生爆炸事故”等聳人聽聞的消息吸引流量。此類假新聞被大量傳播將擾亂正常的網絡傳播秩序,使得新聞行業的真實性、客觀性受到質疑。新聞真實被破壞,不僅會加劇媒體與信息環境的不健康,危害社會和諧與穩定,還進一步誤導受眾的認知和判斷,懷疑媒體的權威性,從而影響主流輿論場的構建。如在突發事件中,虛假新聞可能會迅速占據輿論制高點,形成不利于事件解決的輿論氛圍。如2024年6月9日,有網民在某視頻平臺發布視頻稱:“5月27日,四川省涼山彝族自治州發生5.0級地震,震中位于喜德縣,地震波以每小時80公里的速度傳播。地震造成了大量房屋損壞和人員傷亡,災情嚴重?!钡珜嶋H上,此次地震震中位于木里縣,也并無人員傷亡。不法人士利用AI軟件生成虛假地震災情圖片,散布不實言論誤導網民。而這種虛假信息通過聳人聽聞的標題和引人注目的內容,吸引公眾的注意力并誤導其判斷,進而影響公眾對社會事件和問題的看法。
人工智能的行為與人類的核心價值、真實意圖和倫理原則之間的關系將誘發價值觀風險。為此,在人工智能研究領域引入了價值對齊。斯圖爾特·羅素(Stuart Russell)在“人工智能的神話”(The Myth Of AI)訪談中指出,價值對齊即人們需要構建可證明符合人類價值觀的智能,而不是純粹的智能[17]。也就是,人工智能在運行過程中需理解人類指令的意圖,滿足人類需求。隨著人工智能的不斷發展,人工智能需要在價值觀念與倫理規則上與人類社會準則保持一致。價值對齊將影響社會主流價值觀的形成,從根本上講,價值對齊就是讓人工智能學習人類社會價值觀,使機器行為能夠符合人類普適的道德觀念與行為準則。在這種情況下,價值對齊的標準理應是社會主流價值觀,但當人工智能被開發時,機器可能會被投入其他價值觀。例如,由美國開發的ChatGPT,天然內含美國意識形態和美國價值觀,無論是語料庫本身,還是算法層面,以及用戶互動層面等各個環節,都會影響傾向性并主導價值觀[18]。在當下“人機協同”的大背景下,用戶難以辨別機器暗含的價值觀,并會在機器進行隱秘傳播與價值滲透的過程中改變原有價值觀念,公共情緒與意識形態將受到影響,因此需警惕人工智能暗含的價值觀念的滲透。
三、人機協同:應對人工智能挑戰的未來進路
(一)源頭治理:實現全鏈條監管
全鏈條監管是保證人工智能技術健康有序發展的基礎。首先政府需要明確人工智能技術的底線,保證人工智能技術在法律法規的框架內運行。在我國,《中華人民共和國網絡安全法》《中華人民共和國數據安全法》和《中華人民共和國個人信息保護法》3部基礎性法律構成了數據使用和智能工具應用的基本規制框架。我國對于人工智能技術的規制能夠保證人工智能技術在良好的法律環境下運行。同時,國家互聯網信息辦公室等國家7部門聯合發布的《生成式人工智能服務管理暫行辦法》為AIGC技術的規范發展劃定了“紅線”和“底線”,要求技術的發展必須在可控范圍內進行[19]。以政府監管確保人工智能技術安全、良性發展,不斷完善相關法律法規,實現人工智能技術發展有法可依。嚴厲打擊利用人工智能技術進行的違法犯罪活動,實現技術的恰當應用。人工智能作為新興領域,需要不斷對相關法律法規進行完善,確保發展的良好環境的同時提高風險應對能力。
其次,平臺監管為技術應用裝上“安全閥”,平臺需要加強對內容的監管與核查,為人工智能安裝一道防線。如濟南日報報業集團建立全國首個開放式媒體區塊鏈版權保護平臺,該平臺能夠對作者提交的原創新聞和文學作品進行區塊鏈版權登記,并實時對版權交易、網絡轉載等行為進行大數據監測。這種存證系統通過對作品進行“上鏈”存證,協助媒體維護版權利益。平臺通過加大監管力度,將新聞產品全流程置于監測之下,推動新聞行業版權交易公正透明,減少人工智能對版權的侵害,實現新聞傳播業的良性發展。強化平臺主體責任,對虛假內容進行嚴厲打擊。如抖音平臺打擊利用AI換臉技術冒充明星直播帶貨的電商直播間,營造良好平臺環境,促使人工智能技術向好發展。
(二)搶灘布局:把握變革主動權
人工智能技術作為發展新質生產力的抓手,重塑著人類的生產模式、生活方式乃至思維模式,將為社會帶來前所未有的沖擊與變革。要抓住人工智能技術帶來的機遇,對人工智能技術的前沿動態進行主動追蹤,實現快速靈活的響應變化。例如,2024年2月25日,上海廣播電視臺搶占科技革命和產業變革的制高點,成立生成式人工智能媒體融合創新工作室。同時在全國兩會前夕,該工作室推出首個AIGC應用集成工具——Scube(智媒魔方),賦能兩會報道。該工具幫助報道團隊進行新聞稿件生成、指定視頻片段提取與視頻字幕生成等工作,極大地節約了兩會報道前后期團隊搜集處理素材所需的時間和制作成本。這一創新性的嘗試能夠幫助構建國內領先的文化傳媒大模型應用生態,強化面向未來的前沿關鍵技術應用布局,建設深度融合的新型媒體產業集群,是對媒體融合發展的有益探索。
TKDXsoHNjdCXhdevSiEPAQ==智能傳播時代,媒體的屬性進一步拓展,人、機、物三者之間的連接越來越緊密,信息世界和物理世界的交融越來越深入[20]。在這種情況下,人工智能技術的引入能夠幫助媒體拓展應用邊界,推進國家社會治理的現代化。媒體融合進程中要適應人工智能技術帶來的全新變化,不斷完善媒體的社會化功能,拓展傳播的邊界。如2024年全國兩會期間,深圳衛視《正午看天下》欄目聯合深圳廣電集團AI實驗室推出的《兩會愿景AI繪》節目,數字人主播“深艾”基于AI技術將文字描述轉化為與兩會內容息息相關的圖片,通過這種文生圖技術,觀眾可以看到由AI繪制的未來城市、科技創新等場景,體驗兩會期間的各項活動和成果,感受科技帶來的無限可能。同時在節目播出過程中,“深艾”會與用戶進行實時互動,并基于用戶的興趣和行為數據為用戶推薦個性化的內容。這種方式c8791e53bbfa2d9fd014a88285b37761打破了傳統新聞報道的單一形式,采用數字人主播和AI生成式視頻等新穎元素,為兩會報道注入了新的活力和創意,同時,這種創新形式還提高了節目的傳播效果和影響力,增強了觀眾對兩會的認知和了解。在未來的媒體融合實踐中,要把握人工智能技術發展帶來的機遇,靈活應對時代發展的變化,主動擁抱新技術,不斷拓展媒體服務邊界,真正建立以內容建設為根本、先進技術為支撐、創新管理為保障的全媒體傳播體系。
(三)倫理導向:明晰價值對齊標準
將人工智能運用到媒體融合中,必須要將人類的價值理念嵌入到模型中,必須要以社會主義核心價值觀作為人工智能對齊標準,要在機器不斷學習與接受反饋的過程中實現社會主義核心價值觀對人工智能的價值規訓。社會主義核心價值觀是構成我們社會文化與道德的基礎,能確保人工智能模型符合媒體行業道德與規范,能夠有效地幫助人工智能與媒體從業人員確定合適的行為,做出正確的判斷。
我國主流媒體在利用人工智能推進媒體融合過程中進行了有益實踐。如人民日報媒體技術股份有限公司建設的“全國黨媒信息公共平臺”就以“黨媒算法”為核心,通過構建主流價值觀知識圖譜,自建智能標簽體系,實現稿件的智能推送。浙江日報報業集團則研發具有“黨媒”特質的智能引擎,優化正能量召回策略、群體興趣模型,讓智能算法與主流信息傳播有機融合、相得益彰。我國主流媒體的實踐能夠幫助引導公眾樹立正確價值觀,維護社會的穩定和諧發展。以社會主義核心價值觀作為對齊標準,可以將更多符合社會主義核心價值觀、具有新聞價值、能滿足各類用戶需求的新聞內容呈現在受眾面前。明確社會主義核心價值觀作為對齊標準,能夠推動科技向善,保證人工智能模型的安全性。在此基礎上,媒體從業人員能夠更好地駕馭人工智能,真正將技術作為一種工具而非沉浸在技術取代人類的恐慌之中。比如,目前哈爾濱工業大學就以社會主義核心價值觀為基礎,構建了模型價值觀的指導原則。這些原則涵蓋“言語侵犯”“暴力恐怖”“反動言論”等10個關鍵方面,以確保模型在處理文本內容時能夠避免產生不當或危險的內容,更好地滿足廣泛的社會期望和要求,從而提高模型的社會適應性和倫理性[21]。以社會主義核心價值觀作為模型價值觀的指導原則,人機共處于同一價值觀體系下,利于協調人工智能主體與人類主體之間的關系,增強人類主體的安全感,建立人機之間的信任橋梁。明確人機關系能夠幫助傳媒從業人員積極主動擁抱人工智能技術,實現人們對機器的理解,總體上和機器性能發展的節奏保持同步[22],最終助推媒體融合過程中人工智能技術的應用。
人工智能時代,媒體融合必須堅守技術倫理與社會主義核心價值觀,推動人工智能技術向善向好發展,正如我國在第三屆“一帶一路”國際合作高峰論壇發布《全球人工智能治理倡議》所提出的:“發展人工智能應堅持‘以人為本’理念,以增進人類共同福祉為目標,以保障社會安全、尊重人類權益為前提,確保人工智能始終朝著有利于人類文明進步的方向發展?!盵23]
結語
尼爾·波茲曼(Neil Postman)在《技術壟斷:文化向技術投降》中提到“每一種技術既是包袱也是恩賜,不是非此即彼的結果,而是利弊同在的產物?!盵24]人工智能的迅速崛起正在改變著媒體行業的生態環境,并為媒體行業勾勒出新的發展前景。但在將人工智能技術應用于媒體融合時需審慎地平衡人工智能技術創新帶來的無限可能與其潛在的風險隱患。同時媒體融合深度發展,不僅意味著對技術的深刻理解與應用,更在于如何利用技術轉化為社會治理的實際效能,促進公平正義,增進人民福祉。因此,在應用過程中要加強監管,將社會主義核心價值觀融入人工智能技術的設計、編碼與應用中,確保人工智能的發展始終遵循人類社會的良性價值觀,真正做到技術向善,促進社會的和諧與進步。
參考文獻:
[1]殷樂,葛素表,林仲軒等.中國媒體融合發展報告(2022-2023)[R].北京:社會科學文獻出版社,2023:71-101.
[2]中共中央辦公廳 國務院辦公廳印發《關于加快推進媒體深度融合發展的意見》[EB/OL].(2020-9-26)[2024-07-19].https://www.gov.cn/xin
wen/2020-09/26/content_5547310.htm.
[3][11]Deep Dive:How AI content generators work
[EB/OL].(2022-9-9)[2024-07-19].https://tecDJGgPAGv+bZ/pd6XXEL0/w==hplayce.
com/news/deep-dive-how-ai-content-generators-work/.
[4]Natale S,Balbi G.Media and the imaginary in history:The role of the fantastic in different stages of media change[J].Media History,2014(2):203-218.
[5]洪孟春,彭培成,劉先根.人工智能技術在媒體融合中的應用場景與創新范式[J].中國記者,2023(11):125-128.
[6](美)帕斯夸里.黑箱社會 控制金錢和信息的數據法則[M].北京:中信出版集團,2015:10.
[7]宋偉鋒.生成式AI傳播范式:AI生成內容版權風險與規制建構:以全球首例AIGC侵權案為緣由[J].新聞界,2023(10):87-96.
[8]全會.沖擊·融合·協同:ChatGPT對傳媒業的影響芻議[J].中國廣播電視學刊,2023(9):17-21.
[9]Mittelstadt,Brent Daniel,et al."The ethics of algorithms:Mapping the debate the debate."[J].Big Data & Society3.2(2016):2053951716679679.
[10]New Anthropic Research Sheds Light on AI's 'Black Box' Why do large language models behave the way
that they do? New research provides some clues[EB/OL].(2024-5-21)[2024-07-19].https://gizmodo.com/new-anthropic-research-sheds-light-on-ais-black-box-1851491333#replies.
[12]Rawte V,Sheth A,Das A.A survey of hallucination
in large foundation models[J].arxiv preprint arxiv:
2309.05922,2023.
[13]楊逸夫.應對人工智能技術濫用,合作才是未來 [N/OL].光明日報,(2024-03-17)[2024-07-19].https://epaper.gmw.cn/gmrb/html/2024-03/17/nw.
D110000gmrb_20240317_1-08.htm.
[14]王嘉興.最理性的偏見[N].中國青年報,2019-05-29(07).
[15]PATEL S,LAM K.ChatGPT:friend or foe[J].The Lancet Digital Health,2023(3):102.
[16]靖鳴,婁翠.人工智能技術在新聞傳播中倫理失范的思考[J].出版廣角,2018(1):9-13.
[17]Lanier,J.(2014).The Myth of AI [EB/OL].(2014-11-24)[2024-07-19].https://www.edge.org/conversation/the-myth-of-ai#26015.
[18]鐘祥銘,方興東,顧燁燁.ChatGPT的治理挑戰與對策研究:智能傳播的“科林格里奇困境”與突破路徑[J].傳媒觀察,2023(3):25-35.
[19]生成式人工智能服務管理暫行辦法[EB/OL].(2023-7-10)[2024-07-19].https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm.
[20]丁和根,李威.智能傳播時代媒體深度融合的理論向度與實踐落點[J].傳媒觀察,2024(7):13-22.
[21]大語言模型價值觀對齊研究與展望[EB/OL].(2024-2-19)[2024-7-6].https://mp.weixin.qq.
com/s/S6qhktaQVVN0M_WDEmurQQ.
[22]Wiener N.Some Moral and Technical Consequences of Automation: As machines learn they may develop unforeseen strategies at rates that baffle their programmers[J].Science,1960(3410):1355-1358.
[23]中華人民共和國外交部·全球人工智能治理倡議[EB/OL].(2023-10-20)[2024-07-19].https://
www.fmprc.gov.cn/web/ziliao_674904/1179_674909/
202310/t20231020_11164831.shtml.
[24](美)尼爾·波斯曼(Neil Postman).技術壟斷-文化向技術投降[M].何道寬,譯.北京:中信出版社,2019:04.