人們再一次被AI 假新聞騙走了眼淚。
1 月7 日上午,西藏日喀則市定日縣發(fā)生6.8 級地震。在眾多講述災(zāi)情和救災(zāi)情況的文字信息之中,一段視頻抓住了眾人的眼球:一個頭戴彩色帽子、身穿同款毛衣的小孩被壓在倒塌的建筑物下,臉和身子上布滿了灰塵。這樣一個具有強烈沖擊性的畫面,很難不讓人動容。
這個孩子讓我哭了一天。”“ 這個孩子現(xiàn)在還好嗎?”……視頻中受災(zāi)兒童的情況,牽動著無數(shù)網(wǎng)友的心。多家自媒體發(fā)布這段視頻時,帶上了日喀則地震的信息以及“祈禱震區(qū)朋友們平安無事”等語句。
但實際上,早在2024 年11 月,這一短視頻便已經(jīng)在互聯(lián)網(wǎng)出現(xiàn),其創(chuàng)作者聲明,它是AI 生成的內(nèi)容。創(chuàng)作者表示,創(chuàng)作視頻的初衷是為了反映戰(zhàn)爭背景下民眾飽受摧殘的生存狀況。只不過,經(jīng)過視頻和文字的移花接木,這一短視頻與毫不相關(guān)的日喀則地震產(chǎn)生了關(guān)聯(lián)性。發(fā)布者們用預(yù)制素材蹭上了災(zāi)難的熱度,收割了感動,也獲得了流量。
如果說AI 生成的廢墟下的兒童畫面被帶上地震信息是一種肆意拼貼,那么由AI 根據(jù)現(xiàn)有新聞素材生成的圖片、視頻內(nèi)容,則是另一種“無中生有”。當(dāng)?shù)貢r間2024年11 月7 日起,美國加利福尼亞州洛杉磯多地連續(xù)發(fā)生山火,一段視頻在社交媒體上廣為流傳——洛杉磯著名地標“好萊塢”廣告牌正被山火吞噬。事實上,據(jù)記者在現(xiàn)場確認,“好萊塢”未見損毀。網(wǎng)絡(luò)上所流傳的“好萊塢”燃燒的視頻,都是由AI 生成的。
AI 技術(shù)污染新聞內(nèi)容的現(xiàn)象,早在幾年前就顯露苗頭。“甘肅一火車撞上修路工人, 致9 人死亡”“ 五角大樓發(fā)生爆炸”……如果留意一下,會發(fā)現(xiàn)這些肉眼難辨的AI 假新聞經(jīng)常集中于城鄉(xiāng)發(fā)展、階層矛盾、性別對立、國際局勢等備受關(guān)注的議題。面對這些虛假新聞圖片和視頻帶來的強烈沖擊,人們的第一反應(yīng)是在情感上給予反饋。在或憤怒、或震驚、或悲傷時,人們往往忘記了追問那個最基本的問題:這一切都是真的嗎?
流量至上時代,虛假信息泛濫已經(jīng)成為世界性難題。“后真相”一詞曾當(dāng)選《牛津英語詞典》的“2016 年度英文詞匯”,它表明,在輿論面前, 事實不再是第一順位,個人的情感和態(tài)度才是最大的影響因子。在虛假新聞中,受困于廢墟的兒童有6 根手指,“好萊塢”廣告牌多了一個“D”,而這些明顯不符合常理的錯漏,卻并未引起人們的關(guān)注。
那么,究竟是誰在制造AI 假新聞?
在AI 技術(shù)的加持下,虛假新聞的制假成本和所需的技術(shù)條件,并不像人們所想象的那么高。
2023 年, 浙江紹興警方抓獲了一個制作虛假新聞的團伙,其中有一個此前從未接觸過電腦技術(shù)、僅有初中學(xué)歷的成員。她利用ChatGPT 技術(shù), 學(xué)會了自動生成“腳本”和相關(guān)視頻素材,最后一鍵生成有音樂、字幕的虛假視頻,需時最短僅1 分鐘。“有閱讀量就會有收益。”在被警方詢問時,其中一人如此回答。
2024 年4 月披露的一則案件中,涉案人員使用一款叫“翠綠筆墨”的寫稿軟件,先從大量社會熱點新聞中抓取用戶關(guān)心的內(nèi)容,再通過同義詞轉(zhuǎn)換、段落顛倒等方式,自動生成文稿,每日產(chǎn)出的文章數(shù)量可達19 萬篇。
AI 虛假新聞的牟利方式,簡而言之就是“降本增效”。如果要驗證一條新聞的真實性,須進行事實核查——一般需要經(jīng)過評估信源、上報可疑內(nèi)容、厘清核查點、追溯虛假信息的傳播路徑等過程。但要制造一條仿真度極高的AI 假新聞、一張AI 假圖片,只需借助AI 技術(shù),輸入指令,等待幾秒。
受眾的需求也讓AI 合成的假新聞有了持續(xù)產(chǎn)出的動力。在傳統(tǒng)媒體環(huán)境下成長的長輩,大多會默認媒體所發(fā)布的內(nèi)容是可信的。更何況,在他們的認知中,視頻不可能造假。因此,那些煽情的虛假新聞視頻總有自己的受眾。
AI 根據(jù)人類投喂的素材,創(chuàng)造出適配互聯(lián)網(wǎng)風(fēng)向和傳播趨勢的內(nèi)容。它足夠聰明,能迅速掌握觀眾會被什么樣的苦情情節(jié)打動,又會被什么樣的熱點事件牽引情緒。觀眾的所有反應(yīng),早已被AI虛假新聞提前預(yù)設(shè)。
當(dāng)我們被所見所聞的東西深深觸動,卻被告知它們可能都是虛假的產(chǎn)物,那么,就像“狼來了”的故事,下一次,因為不知真假,我們似乎不能保證自己還會對遠方的哭聲保持悲憫之心。最后的結(jié)果,可能就是人們逐漸變得麻木、冷漠。而這,或許是AI 合成的虛假新聞最令人后怕的一點。
(摘自“新周刊”微信公眾號,宮可可圖)