欒軼玫
當下新技術更新迭代、媒介生態巨變,AIGC 給新聞生產帶來新可能的同時也蘊含著新風險,媒體在面對AIGC 協助新聞生產過程中應具備風控思維,制定風控策略,使新技術始終能為我所用。
新聞報道特別是重大主題報道涉及黨和政府的重大決策和社會熱點問題,在這一類型的新聞生產中需警惕AIGC 基于算法驅動隱藏的政治偏見風險。
首先,控制政治偏見風險。使用AIGC 工具自動生成新聞內容時存在難以察覺的政治偏見,媒體應加強對AIGC 生成內容可能具有政治偏見的認識,警惕并做好風險控制。雖然諸如ChatGPT 等AIGC 工具自稱是“態度中立沒有任何政治傾向性”“不會試圖通過任何方式影響或改變使用者觀點”的自然語言模型,但是不可忽視的是當它被廣大用戶不斷投喂、利用之后產生的“馴化性”,要警惕因投喂與馴化帶來的政治偏見。另外,數據庫和語料庫的意識形態將影響AIGC 生成的內容。數據是生成式人工智能的基礎,互聯網上的大量數據和語料存在多樣性、傾向性,并非完全中立,加之ChatGPT 難以百分百只學習其中中立的部分,而完全摒棄具有傾向性的部分,要警惕數據庫、語料庫的意識形態傾向性。同時,AIGC 生成內容還受到其背后算法工程師意識形態、個人背景的多方因素影響,雖然算法本身可能沒有意識形態問題,但其中的參數和賦值等可能會受到人為因素、個人價值觀的影響,要警惕算法實踐過程中隱蔽的意識形態操控。
其次,控制內容低信度風險。AIGC 模型生成的內容可能存在意想不到的事實性錯誤,從而帶來內容質量風險。客觀上,AIGC 生成的內容具有低準確性的可能,AIGC 工具所依賴的數據庫客觀上可能存在大量虛假信息,加之AIGC 模型對新聞報道所涉及的相關社會情景缺乏準確了解,即使AIGC 工具盡可能尋找正確的信息生成回答,但仍不可能保證生成內容的準確性與真實性。與此同時,AIGC 的設計思路使得它“主觀上”傾向于“有問必答”,它會“編造”“虛構”案例、故事等,一些生成的回答具有虛構性特征。例如有學者測試、分析AIGC 生成內容能力時發現,AIGC 提供的相關文獻根本不存在,它杜撰了所依據的文獻來源,這種生成內容與現實情形完全不符的情況無疑會影響信息生產的真實性。總而言之,無論是“客觀”還是“主觀”因素帶來的AIGC 生產中的低準確性與虛構性,都需要把關人對事實進行深入核實,加強對AIGC 生成內容的質量把關,做好風險控制。
AI 換臉、克隆合成數字人、虛假圖片及視頻生成等使AIGC 生成的虛假內容更加難以識別,內容造假進入深度造假階段。與此同時,媒介技術發展使媒介可供性增強,這使別有用心之人造假成本更低。加之,AIGC 讓造假形式更加多樣且難以察覺,新聞生成面臨深度造假的風險,輿論將更容易被有意操控。
首先,造假傳播更廣識別更難。在AIGC 工具的“協助”下,內容造假更加容易。AIGC 強大的內容生成能力,讓造假者更快地生產和傳播虛假內容。此外,AIGC 具有生成多類型、多介質內容的能力,造假者更便捷地生成文本、圖像、音頻、視頻的“多形態”虛假信息,降低了多介質內容的造假成本。與此同時,AIGC 生成的內容自身可能存在的虛假性,加劇了媒介素養不足的群體無意識地造假、傳假,從而使得真相越發難得,輿論生態更加復雜。
其次,深度造假識別與公眾引導。利用AIGC 生成大量的虛假信息散布于網絡中,可能造成三人成虎的現象,即虛假信息傳播聲量更大,從而使人們更愿意相信虛假信息,而忽視甚至不相信辟謠信息。公眾識別虛假信息的難度大大增加,媒體辟謠則需要更完整的證據鏈條。針對深度造假帶來的風險,媒體可通過打造識別造假內容并及時反饋的智能工具,強化智能技術在辟謠中的應用,例如anti-deepfake 技術。此外,還要加強對深度造假及其識別的科普宣傳,讓公眾了解相關技術是如何造假的。同時,大學可通過面向社會的新聞教育,促進公眾媒介素養的全面提升。
AIGC 對于數據的收集分析還會給新聞生產帶來數據隱私風險,管理部門應該加強管理和管制,防止數據濫用。首先,媒體在使用AIGC 協助新聞生產時,勢必要向AIGC 工具提供一些包含人臉、聲音等敏感性生物識別數據,這些數據的頻繁使用將帶來數據隱私風險,應加強自身對數據收集、數據隱私泄露可能性的意識,使用AIGC 進行交互時減少對高度敏感信息的使用。其次,算法脆弱易受攻擊的特性也會給數據隱私帶來風險。保護數據隱私安全需要加強立法、執法的預判性,做到立法先行,從而從根本上做好數據隱私的風險控制。