【內容提要】隨著人工智能技術的不斷發展,AIGC成為新聞傳播領域的一個創造性實踐,它的出現帶來了新聞生產模式和傳播方式的變革,但是由于它目前相對不太完善,無法規避一些新聞倫理方面的問題,帶來技術、內容和法律層面的沖擊。基于美國、歐盟和中國對于AIGC治理的現狀,思考在AIGC不斷發展的智媒時代,如何對人工智能生成內容進行新聞規范的引導,使其更好地發揮自身價值,不斷完善傳媒業的治理框架,實現AIGC的破局之路。
【關鍵詞】AIGC 新聞倫理 新聞業 新聞治理
在中國共產黨第二十次全國代表大會上,習近平總書記強調,在建設現代化產業體系中要“推動戰略性新興產業融合集群發展,構建新一代信息技術、人工智能……等一批新的增長引擎”[1]。隨著技術的不斷發展進步,智能化成為人類社會的主要特征,以ChatGPT為代表的AIGC(人工智能生成內容)越來越成熟并被廣泛應用,成為人們日益關注的焦點。保羅·萊文森的媒介進化論指出隨著技術傳播媒介的發展,它們更傾向于復制真實世界中的“前技術”或是“人性化”的傳播環境,不斷地接近人性需求是媒介進化的原動力。[2]在技術理性營造的媒介環境中,AIGC模式的出現對新聞傳播領域產生了深刻影響,再造新聞生產流程、豐富新聞報道形式、提高新聞傳播速率的同時,也帶來了深層次的新聞倫理失范問題。為了更好地把握AIGC在智媒時代的發展,需要新聞倫理規范的引導。
一、倫理危機:以新聞倫理審視AIGC發展
智能傳播時代,新媒體技術的深入發展使得輿論格局和媒介生態發生了深刻的變化,媒體傳播內容、方式、渠道、范圍也隨之發生變化,由此引發的新聞倫理失范問題越來越受到關注。ChatGPT的問世掀起了人工智能生成內容新一輪的浪潮,“文心一言”“盤古”“通義”等AIGC相關產品應運而生,顛覆了傳統的內容生產模式,給新聞傳播領域帶來新的發展機遇。AIGC在生成文本方面得以應用,通過運用深度學習來理解人類語言,不但能夠進行類人化交流,而且在創作文章、翻譯文本、編寫代碼等內容方面發揮著重要作用。然而,技術的變革總能引發新的挑戰,技術紅利往往與技術缺陷是相伴而生的,AIGC蓬勃發展的同時必然會引發潛在的技術風險、內容危機和法律隱憂,對新聞倫理造成沖擊。
(一)媒介依賴與數據偏見的技術風險
TEY3ktlpNx1LYCcshetQ6EvemuEH7x89Ketz08E7IRE=AIGC擁有強大的內容生產能力和數據分析能力,以其深度神經網絡和大規模文本訓練技術,能夠快速生成傳播內容,實現內容的跨模態融合,為新聞從業者帶來便捷、高效的服務,降低采編成本,提高工作質量和效率。但是每一種技術的出現,都既是恩賜,又是包袱,AIGC也不例外。與傳統的人工智能技術相比,AIGC更能夠準確把握使用者需求,做到“有問必答”,但在一定程度上削弱了人的思考能力和判斷能力,陷入盲目的算法崇拜,這使得使用者極易對AIGC表現出過于樂觀的態度,加深使用者對其的依賴。美國科技新聞網站Cnet就是一個典型的例子,由于過度依賴AIGC,借助ChatGPT自動生成了眾多新聞報道,然而他們不知道的是這些報道的內容破綻百出,有的甚至能夠引發“新聞災難”,這種由新聞從業者的自我惰性心理造成對AIGC的高度依賴嚴重損害了新聞的客觀性。
人工智能技術的不斷深入發展,致使傳統新聞報道的“客觀”“公正”“中立”已然得不到保證。眾所周知,AIGC的前提和基礎是數據,機器通過從這些數據中學習,生成模仿人類行為和創造力的新內容。其理論可以追溯到圖靈時代,圖靈把人的大腦看作離散態的機器,心靈實質上是信息處理過程,其后關于計算機科學、認知科學領域的相關論述成為21世紀人工智能的理論基礎。[3]以ChatGPT為例,基于傳統機器學習算法的行為,擁有一定的自主性,使用者的生活環境和知識背景不同,對AIGC的使用也會帶有價值傾向,會注入個人的主觀態度認知,如果數據不夠全面、多樣,那么其生成的內容也很容易出現偏差,可能會生成暗含政治偏見或帶有意識形態色彩的信息,導致輿論操縱行為的發生,影響公眾的認知判斷。ChatGPT誕生于美國,暗藏算法黑箱的人類反饋強化學習系統必然會更加強化美國的價值標準,體現美國的價值觀。ChatGPT不僅可以模擬人的思維,改變人類的學習方式和思維模式,而且可以直接進行信息生產和話語建構,容易產生意識形態方面的風險。例如它在回答使用者提出的問題時,首先對該問題中所包含的信息進行識別,借助算法程序進行信息的過濾篩選,對于符合意識形態的問題能以極快的速度予以回答,反之則會拒絕回答。這實際上是一種潛在的意識形態滲透方式,假如用戶缺乏正確的政治判斷力和政治敏銳力,多次使用ChatGPT就很容易被其所左右,進而產生意識形態上的風險。
(二)真實存疑與機械報道的內容危機
新聞真實性是新聞工作者進行新聞報道的一個基本原則,也是最重要的新聞倫理之一。新媒體時代,傳播主體的增多促進信息的海量傳播,信息來源復雜,基于人類反饋強化學習的AIGC以其信息生產速度快、信息生成自動化的特點,導致虛假信息難以識別并在網絡中快速傳播,公眾識別困難使得新聞真實性得不到保障。2023年2月,由ChatGPT自動生成的假新聞“杭州市政府將取消機動車尾號限行政策”在網絡上出現并被大量轉發,AIGC強大的內容生成能力使得信息偽造成本低下,傳播范圍極其廣泛,損害新聞真實性。此外,專業把關的缺失和事實核查能力的缺乏容易使AIGC傳播的信息存在事實錯誤或數據偏差等行為,專業媒體背書的新聞信息出現失誤,監管體系的不完善模糊了新聞真實的邊界,加大新聞倫理風險。2023年3月,廣州的一名女子在網上發布自己在地鐵上的照片,后被網友拿去用AIGC“一鍵脫衣”,虛假照片的廣泛傳播對當事人造成巨大傷害,人們對AIGC自動生成的信息難以分辨真偽,使得新聞真實性存疑。
由人工智能生成的內容通常是依靠人們原本設定好的程序和數據庫資源進行寫作,模式化程度較高,而且只是基于新聞報道的表面現象單純陳述新聞事實,缺乏深度思考和創新的能力,這也就導致生成的新聞內容難以揭示事件的本質,顛覆了新聞內涵的深度挖掘。再者,它們缺少新聞工作者所具備的專業能力以及文化素養,無法突破專業壁壘,也沒有辦法擁有人類的真情實感,這樣看來,人工智能生成的內容缺乏“情感溫度”,很難讓受眾產生情感共鳴,傳播效果受限。正如麥加所言:“人工智能的創作便利性越來越強,但令人擔憂的是,人似乎因此而變得依賴于機械化。”以AI虛擬主播為例,它的表情、神態、動作表達較真人主播顯得很生硬,在聲音表達上機械感較重,無法與用戶建立真實的情感連接,同時缺乏與用戶的實時溝通和雙向互動,一定程度上會降低用戶的參與度,這也就導致它們的適用范圍受到一定的限制。
(三)數據泄露與權力侵犯的法律隱憂
數據泄露是個人、組織或群體的私人信息或未經授權而公開的重要信息被暴露在危險空間之中。當前人類數字化生存成為現實,數據泄露是AIGC面臨的一大難題。AIGC需要依靠海量的數據庫來訓練和優化,以便能為使用者更好地提供服務,這個數據庫將用戶使用行為自動儲存并被納入其中,用戶通過輸入關鍵詞,小到個人的身份信息,大到國家的政治機密都能夠被記錄下來。基于人工智能技術的局限性,AIGC使得數據安全遭到威脅,帶來個人信息、國家機密等數據泄露的風險,進而給個人和國家安全帶來巨大危機。AI換臉、AI作畫、克隆合成數字人等可以迅速對個人信息進行搜集、抓取并進行分析,人們在互聯網上留下的“數字痕跡”加快了AIGC提供個人隱私的速度,信息的公開傳播使得用戶隱私暴露在網絡空間中,數據安全面臨嚴重的法律風險。
AIGC在內容生成方面對權利歸屬造成威脅,如著作權、隱私權、肖像權等。首先,AI合成產品是運用算法、人工智能等技術來對網絡信息素材進行抓取、合成的產品,在這個過程中所用的信息素材來源于互聯網中的數據庫,這些信息素材可能存在著版權風險,而計算機缺乏自主意識,它們不能對這些素材進行及時識別。當用戶輸入指令時,數據庫就會對該指令的相關內容進行搜索與編碼,進而生成內容,這極易侵犯他人版權,造成新聞倫理的失范。其次,網絡上流行的AI算命,用戶上傳自己的照片,并輸入自己的名字、生日等個人基本信息,系統提取面部信息并在后臺隨機組合,在識別過程中存在著隱私泄露的風險。還有網上爆火的AI孫燕姿,也恰恰說明AI變聲可以做到以假亂真。最后,隱私權的讓渡和非法采集給數據安全保護帶來一系列挑戰,一些不法分子極有可能利用用戶上傳的照片冒充照片本人進行一些非法活動。AI換臉被廣泛應用到短視頻的二次創作中,如將電視劇中主角的臉換成自己的臉并在短視頻等平臺大量傳播,還有一些主播利用AI技術換成明星臉進行直播帶貨等,這些行為都是侵犯肖像權的體現。由此可見,數據泄露和權利侵犯使得AIGC在法律層面面臨嚴峻挑戰。
二、探索創新:各國AIGC治理現狀分析
由于各國AIGC技術在發展過程、制度體系、文化背景和價值導向等方面存在顯著差異,對于AIGC的治理也呈現出鮮明的地域性特點,這導致了不同國家在具體治理原則和模式上都各有定論,尚未達成共識。聯合國教科文組織發布的《人工智能倫理問題建議書》中要求各成員國根據自愿原則建立本國人工智能倫理框架,確保人工智能技術不被用于大規模監控。針對AIGC帶來的新聞倫理風險,美國、歐盟、中國等都在積極探索適合本國的治理路徑。
(一)美國:先發展后監管的寬松型治理
美國是全球人工智能技術領域的開拓者,它奉行的是先發展后監管的治理原則,即優先鼓勵人工智能技術的發展,而后對人工智能技術所帶來的危機進行監管。美國十分注重AIGC的商業發展,2020年,美國發布的《行政部門和機構負責人備忘錄:人工智能應用監管指南》中指出聯邦機構必須避免不必要的監管,以免阻礙人工智能產業的創新。直至去年,美國又提出用1.4億美元來推動人工智能研究所的建設,以此來實現更多新興領域的突破,然而在AIGC技術發展過程中,美國對于其在國家安全方面的問題較為重視,認為它可能威脅本國利益,因此還成立了首席數字和人工智能辦公室,出臺了相關法律來確保自身在全球人工智能技術產業中的領先地位。美國出臺對AIGC監管的法律較為遲緩,而且主要采取分散化的監管模式。美國國會研究服務部(CRS)發布的報告顯示,建議立法明確生成式人工智能必須設置通知和披露機制、用戶退出機制、設立個人數據收集底線等。[4]美國頒布的《人工智能權利法案藍圖》《人工智能風險框架》形成了對人工智能系統的管理問責體系。此外,美國還對谷歌、OpenAI、Stability等多家人工智能生產商的AI產品進行評估,避免出現數據泄露的問題,使得人工智能生成內容更能符合法律法規,更好地促進商業發展。拜登發布e73fdf27f68d73db6ce70616ebcf70ee的“關于安全、可靠、值得信賴地發展人工智能的行政命令”,為人工智能的安全提供了保障,以便能夠更好地促進AIGC對商業的發展。由此可見,美國對于AIGC的治理模式相對來說比較大膽,更加側重于人工智能技術對商業的發展以及技術發展進程中如何能夠穩定自己的領先地位,從而滿足國家安全需求。
(二)歐盟:先監管后發展的強制型治理
與美國不同,歐盟國家更重視AIGC所帶來的數據安全問題,奉行的是先監管后發展的治理原則,高度重視AIGC在個人數據采集、隱私保護方面存在的問題。歐盟在全球推廣其人工智能倫理道德和法律框架,并敦促成員國出臺本國人工智能國家戰略,以歐盟價值觀捍衛歐洲在人工智能領域的領導地位。[5]在對AIGC治理時堅持“以人為本”的原則,遵循技術懷疑的前置邏輯,始終保持著較為審慎的態度。意大利對Open AI提供的ChatGPT服務是否侵犯用戶隱私展開調查,限制處理用戶的個人信息;加拿大數據保護機構也啟動對Open AI的聯合調查。歐盟早在2020年《關于人工智能:歐洲追求卓越和信任的方法》中就表達了對新人工智能技術的擔憂,并開始考慮立法問題。2023年6月,歐盟通過了《人工智能法案》,對人工智能采取分級分類監管原則,明確指出對ChatGPT此類生成式人工智能實行特別監管,力求“保證AIGC的安全性”和“促進AIGC進一步發展”兩方面的平衡。同時,歐盟還制定了高風險人工智能禁令,對其進行強制性治理,減少了數據泄露的問題,保障了數據安全。但是,AIGC的快速發展不斷沖擊著現有的監管框架,過分強調監管限制了AIGC的進一步發展,引發了部分行業的深度擔憂。
(三)中國:“軟”引導“硬”監管的謹慎型治理
相較于歐盟、美國的治理方式,我國對AIGC的治理一直抱有十分謹慎的態度,強調“軟”引導和“硬”監管相結合。一方面,對AIGC應用范圍與領域進行規范,通過制定合理的法律法規和政策監管AIGC的開發和應用;另一方面,為了應對AIGC帶來的新興挑戰,中國發布了《生成式人工智能服務管理暫行辦法》,對AIGC模型訓練、數據標注、模型輸出、用戶使用等關鍵環節進行了規范。該法規是中國首次對生成式人工智能研發與服務作出明確規定,也是全球首部針對生成式人工智能進行監管的法律文件。同時,中國還發布了《全球人工智能治理倡議》《新一代人工智能發展規劃》《新一代人工智能治理原則:發展負責任的人工智能》等文件,呼吁要加強對于人工智能的治理,引導人工智能技術應用向善發展,同時也要做好風險防范,不斷提升人工智能技術的安全性和可控性,力求實現AIGC發展和治理二者的統一。
放眼全球,各國在AIGC治理上普遍傾向于將法律法規作為主要手段,為人工智能生成內容的進一步發展提供了法律基礎,使其在合法和合規的軌道上得以廣泛應用。[6]但是法律法規一般存在著滯后性,不能完全應對技術日新月異發展所帶來的潛在危機與挑戰。AIGC的治理面臨著嚴峻的“科林格里奇困境”,也就是說,技術后果在最初階段難以預見,而消極后果逐漸明朗之時,技術已深度融入社會經濟的各個層面,因而管控變得十分困難。[7]基于這種情況,如何在保證AIGC倫理安全的同時又促進其穩定發展,是目前我們面臨的重要問題之一。
三、智媒向善:AIGC規范新聞倫理的破局策略
通過分析美國、歐盟、中國對于AIGC治理的現狀特點,我們可以看到,無論是美國的“寬松型”治理、歐盟的“強制型”管控,抑或中國的“謹慎型”規制,都無法避免AIGC在“技術發展”與“警惕風險”中不斷地糾偏。海勒等指出,“機器和人類共同成為一個二元體系,使得他們成為彼此的衡量尺度”[8]。AIGC的發展引發了其在新聞傳播領域中的倫理思考,應對AIGC對新聞倫理的沖擊,是促進AIGC在新聞傳播領域可持續發展的重要保障,也是使其更好地適應新時代媒體環境的重要舉措。我們要確保AIGC技術得以廣泛應用的同時,也要意識到其是否符合新聞倫理的基本要求。針對智能媒體時代AIGC的破局策略,我們需要從多角度進行分析,實現AIGC的創新發展。
(一)以主流價值體系為導向,加強AIGC風險防范
防范AIGC應用中的數據偏見和意識形態風險問題,最重要的是要符合當今社會的主流價值觀,這不但是技術應用必須遵循的價值原則,也是保障意識形態安全的重中之重。技術為善服務還是為惡服務,關鍵在于其使用者的價值偏好,因此,要把重視使用者的價值建設擺在首位。一方面,要提升使用者自身的媒介素養和技術素養,在利用AIGC提高新聞生產效率的同時,還要充分發揮創造力和主動性,以“人的智慧”牽引“人工智能”,提高自身的專業性。只有實現自身對AIGC的掌控,才能確保不被技術異化,使技術更好地服務于新聞內容生產的需要。另一方面,要增強使用者的技術風險防范能力,加強技術安全教育培訓,自覺提高自身的鑒別能力、判斷能力和把關能力,堅守算法透明性、可追責性等原則來使用AIGC。只有這樣,才能防范人工智能生成內容過程中產生數據偏見和意識形態風險問題的發生。
AIGC的治理面臨著嚴峻的“科林格里奇困境”,它必須符合為社會所公認的價值體系,這是因為AIGC所依靠的算法存在某些傾向,這些傾向直接影響了我們對于它的使用態度。我們不能僅僅因為AIGC具有數據偏見和意識形態風險就否定并拒絕使用它,相反,我們也不能因為AIGC在全球范圍內的廣泛應用就完全認同并應用它。因此,除了要重視AIGC使用者的價值建設外,還要加強對AIGC的倫理規范,對其算法進行優化,在這個過程中,要全面滲入“公正”“民主”的社會導向,提高算法透明度和準確性,能夠避免出現極端化的內容表達,通過建立可靠的數據保障防御機制來減少數據偏見的發生,使AIGC能夠真正為人類服務,而且能夠使他們享受技術優勢所帶來的便利和好處。
(二)以多方管理主體為依托,加強AIGC危機治理
信息的選擇與篩選是AIGC在內容生產方面對新聞倫理造成沖擊的主要原因,對于AIGC的危機治理,可以從技術、行業、新聞工作者三個角度來探討。
首先,從技術層面看,要明確AIGC在新聞傳播領域的應用范圍,借助技術手段對有害信息、敏感詞匯進行有效過濾,最大可能減少AIGC加持下虛假信息的傳播。技術供應商也要促進技術創新,適當公開算法的操作流程,及時對AIGC產品進行技術維護,不斷完善技術解決方案,避免出現技術落后于新聞生產的現象,如開發AIGC實時翻譯、AIGC信息標注等系統滿足用戶多樣化新聞需求。作為AIGC技術應用的服務對象——用戶,要樹立辯證思維,正確看待人工智能生成內容,重點關注內容的新聞價值層面,避免陷于技術構建的信息繭房而無法自拔。
其次,企業作為AIGC的開發者,需要做好對技術標準的制定,并對AIGC帶來的倫理風險問題進行嚴格審查,謹慎處理新聞信息收集過程的各個環節,始終堅守新聞專業性原則。如果技術出現問題,要對企業予以追責,并且要求企業對AIGC出現的錯誤和疏漏進行彌補,建立多維度的智能計算系統,優化算法模型,使其在處理過程中更加真實、客觀。除企業外,相關行業監管部門也要承擔起重要的角色,要完善管理運營模式,避免技術濫用造成更大的社會倫理危機。推動AIGC合理保障新聞業的發展,需要在推動技術應用的基礎上建立相應的技術規范,釋放技術活力,推動新聞傳媒業高質量發展。
最后,新聞工作者作為新聞活動的主體,要加強自律,秉持新聞真實性的原則,自覺對自身行為進行約束,在新聞報道時注入人文關懷,避免出現機械化報道。還要積極合理地將智能技術應用于新聞工作當中,可通過打造智能識別虛假內容的工具,例如運用anti-deepfake技術減少虛假信息傳播,加強在新聞內容的生成、審核、完善、發布這一過程的把關,使新聞內容經過人工和技術的雙重把關,以保證AIGC生成內容傳播的真實性和準確性。建立以新聞工作者為主體,與技術良性互動的共生協作關系,確保AIGC在遵循新聞倫理的基礎上得以應用。
(三)以倫理規范準則為核心,加強AIGC法律規制
技術發展總是先行于法律,隨著AIGC技術的應用與發展,以數據庫作為主要內容來源的AIGC能夠在潛移默化中引發新聞侵權現象的發生,目前我國關于規范AIGC的法律法規還不是很完善,AIGC生產的新聞產品歸屬權是歸誰所有,是否受著作權保護以及當其生產的新聞內容出現問題時又由誰來承擔責任,這類問題需要運用法律加以界定。《新一代人工智能發展規劃》將如何促進人工智能發展的法律法規和倫理規范視為核心問題,對于AIGC的規制需要法律的約束。針對AIGC應用于新聞內容生產的歸屬、場景、范圍以及追責機制等出臺相關法律,對已經出臺的相關法律進行細化,厘清相關主體責任,明確規定使用者利用AIGC創作的內容一經發布,必須對其侵犯著作權、隱私權、肖像權等行為承擔法律責任,最大程度上規制AIGC帶來的法律危機,推進新聞業責任意識的樹立和健康內容生態的建立,維護新聞專業性。例如在《中華人民共和國著作權法》中完善有關AIGC內容版權保護的法規,根據當前應用現狀在已有的法律基礎上進一步完善法律規范,為AIGC的進一步發展提供法律支撐。針對AIGC的數據采集,應健全預防算法偏見的法規體系,設置偏見評估系統,在內容輸出前對其進行偏見評估,從源頭上對內容進行規范。新聞倫理是法律法規制定的基礎,AIGC必須遵循為社會所認可的倫理規范,因此要促進倫理道德規范的建設,參照《人工智能倫理問題建議書》中的意見,堅持以社會主義核心價值觀為核心,堅持以人為本,智能向善作為基本準則,并將其滲透至AIGC的應用環節中,[9]使得AIGC最大限度回應使用者的基本訴求,促進良性發展。
Gartner曾預測,“到2025年,生成式AI產生的內容將從目前的1%提升到10%”[10],也就是說未來的AIGC擁有廣泛的發展前景。新聞業的發展離不開技術的推動,也離不開對新聞倫理的堅守。因此新聞業要堅持“工具理性”和“價值理性”二者相輔相成,既要強調AIGC的發展創新,也要重視對于AIGC的新聞倫理規范,更好地利用AIGC促進新聞業轉型升級。
【本文系國家民委共同發展司專項課題“構建現代傳播矩陣推動共同現代化”(項目編號:20231016000)的階段性成果】
參考文獻:
[1]習近平.高舉中國特色社會主義偉大旗幟為全面建設社會主義現代化國家而團結奮斗——在中國共產黨第二十次全國代表大會上的報告[Z].北京:人民出版社,2022.
[2]唐俊.對媒介進化論的再認識:基于感知和權力的雙重維度——兼論Web3.0媒介的平權結構[J].新聞界,2023(01):47-56.
[3]陳昌鳳,張夢.由數據決定?AIGC的價值觀和倫理問題[J].新聞與寫作,2023(04):15-23.
[4][5] 朱新梅,周菁.全球主要國家和地區人工智能治理研究報告[J].聲屏世界,2023(24):14-21+32.
[6]胡兵,鐘思悅.荷蘭預判性技術倫理思潮對AIGC治理的啟示[J].青年記者,2024(02):48-54.
[7]文成偉,汪姿君.預知性技術倫理消解AI科林格里奇困境的路徑分析[J].自然辯證法通訊,2021,43(04):9-15.
[8]凱瑟琳·海勒,黃斐.計算人類[J].全球傳媒學刊,2019(01):28-46.
[9]周鴻,熊青霞.AIGC賦能媒介生產的機遇、隱憂與應對[J].傳播與版權,2024(02):35-38.
[10]鄭滿寧.人工智能技術下的新聞業:嬗變、轉向與應對——基于ChatGPT帶來的新思考[J].中國編輯,2023(04):35-40.
作者簡介:孟艷芳,博士,北京印刷學院副教授;劉伊茗,北京印刷學院碩士研究生;范濤,揚州大學碩士研究生
編輯:徐 峰