
2024年落下帷幕。歲末年初,國內外的各類機構陸續發布年度詞匯、流行語,這似乎成為一種“慣例”。且看《咬文嚼字》發布的“2024年十大流行語”,至少三個流行語同智能時代、數字技術直接或間接相關;再看2024年《上海日報》的年度熱詞(由上海杉達學院語料應用與研究中心評選)——“AI-”——沒有懸念一般,“花落”人工智能……正如浙江大學哲學學院教授孫周興所說,我們正被帶進人工智能(以下簡稱“AI”)技術的“狂熱和狂歡”中。
這些年度詞匯、流行語并非“新詞”,在瞬息萬變的當下,已經算是“老面孔”了。它們或代表著人類在某一特定年份的主要關注點,或揭示了某一階段復雜而真實的文化和心理狀態,或蘊含著對當下時代的記錄和反思。這讓記者不禁想到,2023年,《劍橋詞典》公布的年度詞匯是“Hallucinate”,指某人似乎感覺到不存在的事物,即“產生幻覺”。特別是隨著技術的飛速發展,“數字幻覺”現象愈發不容忽視,無疑給“Hallucinate”增添了新的釋義,最為典型的便是AI在信息處理和生成中的誤差或錯覺,對人類的所見、所知、所感產生了極大的影響,甚至將埋下信任危機之種。
近期,江西南昌警方披露了一起網絡謠言案件。該案中,一條關于某地爆炸的“消息”在網絡平臺廣泛傳播,內容不僅包括確切的時間和地點,文字下方還配有爆炸圖片。公安部門迅速開展調查后卻發現,這條“消息”從文本到圖片,全部都是通過AI生成的。
由于每天發布的文章數量巨大,當警方找上門時,違法人員都不知道具體是哪篇文章涉嫌造謠。該案中的違法人員只需設置關鍵詞,AI軟件就會根據當下熱點,自動抓取相關信息,生成幾百字到上千字的文本,最高峰時一天能生成4000多篇文章,實在是令人觸目驚心。據供述,他同時運營800余個自媒體賬號,最高峰時一日收入可達到1萬元。
一些AI“生產”的網絡謠言不僅“圖文并茂”,還配上合成的音視頻,采用新聞或官方通報的口吻,加入“據報道”“相關部門”等字眼,讓網民難辨真偽。AI造謠門檻低、批量化、識別難,或將導致傳播環境進一步惡化,真實的新聞在輿論場中可能面臨被“吞噬”的風險,無論是新聞媒體還是社會公眾,都需要抽出更多精力來分辨虛假信息。
此外,利用AI制造的錯誤、虛假或誤導性圖文,如果不經過嚴格的數據篩選與清洗,極易導致“數據污染”,使AI模型在訓練過程中“學習”到錯誤的知識,這對訓練效果及模型的準確性、可靠性將產生負面影響,可能會擴大“問題信息”的傳播范圍。
來自深圳大學網絡文明研究中心的一份報告指出,特別是在涉及社會保障、公共服務等重大公共事務時,虛假新聞的泛濫可能導致公眾質疑官方信息的真實性和權威性,進而損害官方賬號的公信力,給社會穩定帶來一定的挑戰。
前段時間,有這樣一段視頻出現在網絡上:只見“張文宏醫生”正襟危坐,反復介紹一種產品,聲音聽起來也很像其本人。甚至有老年群體信以為真,因此下單。經過核實,這個視頻是AI合成的,張文宏醫生則向媒體表示:“這樣的賣貨賬號不止一個,且‘馬甲’不斷在變,自己多次向平臺投訴但屢禁不絕?!贝撕?,上海市消費者權益保護委員會的官方賬號對該事件嚴厲發聲,表示未經當事人授權的AI合成“帶貨”行為,或構成對消費者的欺詐,呼吁監管部門對此嚴厲處罰。
更有甚者,AI合成視頻已經成為新型網絡詐騙的主要手段,讓人防不勝防。據工業和信息化部反詐工作專班專家介紹,不法分子先是會通過各種公開的渠道獲取個人肖像或視頻,然后利用AI技術,對這些照片中的面容特征進行學習,從而模仿眨眼、搖頭等動作,實現以假亂真的效果。一般而言,受害人往往存在“有圖有真相”的思維定勢,詐騙分子正是利用這一點,讓其相信虛構的身份。
在廣東江門公開的一起案例中,楊女士接到生意伙伴張老板的視頻通話,張老板稱自己正參與一個大項目的投標,可還差50萬元保證金,希望楊女士“江湖救急”。楊女士見視頻里確實是張老板的模樣,便沒起疑心,遂前往網點轉賬。好在銀行網點柜員及時提醒,并協助報警處理,當場揭穿了這一騙局。視頻通話里的“張老板”,正是詐騙分子利用“AI 換臉”及語音合成技術偽裝的。
隨著AI換臉視頻及背后的深度偽造技術滲透進日常生活,“人際幻覺”愈發泛濫,人們可能會預設與自己打交道的陌生人甚至是熟人“不誠實”,越來越不敢輕易提供個人信息、聯系方式給他人,在社交平臺也不愿過度分享動圖、視頻等,在涉及“朋友”“領導”等熟人要求轉賬、匯款時反復核實確認……而對面的人則會陷入自證“我是我”的怪圈。當下,防范意識的提升顯然是十分必要的,凡事多留幾個心眼也沒有錯,但無法避免的,這或將進一步增加社會的信任成本,在正常的人際交往中埋下隔閡之種。
在使用生成式AI產品時,我們會發現,有的產品不止一次“胡說八道”,還會生成人類世界中原本不存在的東西。比如某小說平臺賬號依靠AI“創作”,每日更新十多本電子書,行文卻邏輯不通、辭藻空洞;又如有醫學論文因存在AI生成的虛假配圖而被撤稿,淪為學界笑柄……一位資深專家認為,AI是一種信息處理工具,它通過學習和模仿人類行為來執行任務;AI解決問題的方式、機制跟人類有著很大的差異,一些時候它能幫助人類解決問題,但有時候它會以一種完全不可接受、完全無法想象的方式犯下“錯誤”。
根據“上海網絡辟謠”平臺的報道,有人對某熱門的多款生成式AI產品進行過這樣的測試:將“康熙皇帝有幾個兒子”“請列出康熙皇帝兒子的姓名名單”“請給我一份康熙的兒子名單”三條指令發送給AI后,讓人意外的結果出現了:不僅不同的大模型回答不一樣,即便是同一個大模型,答案也有偏差。比如,有的答案統計了康熙所有的兒子數量,表示共有35人;有的只列出了正式排序的24個兒子;還有的沒有任何解釋,雖然列出了姓名,但順序錯亂。
對此,“北京西路瞭望”發文評論道,AI“胡說八道”往往會讓人產生“文化幻覺”。技術經得起試錯,但文化傳承經不起試錯,特別是對于優秀傳統文化。AI導致的“文化幻覺”一旦蔓延開來,輕則讓傳統文化的傳承內容變得模糊、扭曲、割裂,重則給歷史虛無主義等錯誤思想以可乘之機。
如果真到了那一天,我們是否還會“相信”擺在眼前的所謂的“文化”,又何談傳承呢?
“AI祛幻”亟須多維度、立體化治理。在技術的層面,顯然需要繼續優化算法的設計,也涉及對數據的“體檢”與對模型訓練的改進,服務提供者還應在AI生成內容中打上顯著標識,同時也離不開相應檢測工具、審查算法的“智能加持”。在監管層面,應加快推進立法、完善規則,明確責任邊界,規范數據的使用和管理,同時鼓勵行業組織、社會公眾等多元主體參與科技倫理治理。
社會公眾的媒介素養教育也尤為重要,需要重點融入學校教育,依托優質公共資源開展培訓和宣傳,提高公眾的信息辨別能力,注重培養批判性思維,引導其主動思考信息的真實性、動機及可能存在的偏差。應倡導積極理性的“AI態度”,建立對于新技術的正確認知框架。就此而言,服務提供者需要同時提高算法的透明度,并向用戶展示AI大模型的工作原理、知識來源和決策依據;鼓勵公眾以開放和理性的態度看待新技術,積極參與討論和使用,這樣才能更好地發現問題并提出改進建議。