苗爭鳴
人工智能、大數據、深度學習等新興技術的廣泛應用深刻影響著國際安全的各領域:一方面,技術變革為國家間交流融合提供機遇;另一方面,新技術的不當使用沖擊現有國際秩序和規范。其中,借助機器學習系統、操縱圖像視頻和音頻內容,更改人臉、物體或環境呈現方式的“深度偽造”(Deepfake)技術,借助海量訓練數據,生成眾多虛假視頻和音頻新聞,使辨別信息真偽變得困難,人類已無法信任看似真實的視頻內容,若不能及時規范此類行為,國際信任體系面臨崩塌風險。
“深度偽造”是使用被稱作“生成式對抗網絡”(Generative Adversarial Networks)的機器學習模型,將圖片或視頻合并疊加到源圖片或視頻上,借助神經網絡技術進行大樣本學習,將個人的聲音、面部表情及身體動作拼接合成虛假內容的人工智能技術。這種技術能對聲音、圖像或視頻進行數字處理以模仿某特定人物,并且隨著輸入神經網絡的訓練樣本量不斷增加,訓練生成的數據和圖像會越來越逼真,以至于觀察者最終無法通過肉眼明辨真偽。
“深度偽造”已經成為“視頻換臉”的代名詞。一般來講,面部偽造分三個步驟:首先,提取來源圖像和目標圖像數據;其次,借助神經網絡編碼器和解碼器訓練面部替換模型;最后,生成偽造圖像。當前“深度偽造”技術主要有四種類型:第一種是借助軟件更換面部,也是目前為止用得最多的,例如已被我國禁用的換臉軟件“ZAO”;第二種是操縱人臉動作,重塑表情、口型和速度,讓其發表非其真實意圖的言論,如特朗普在推特上轉發并大加嘲諷的美國眾議長佩洛西說話結巴的偽視頻;第三種是借助深度學習技術,創建在現實生活中并不存在的面部圖像,如在職場社交平臺領英(LinkedIn)中被稱為“數字間諜”的凱蒂·瓊斯(Katie Jones),就是人工創造的虛擬頭像,目的是收集政府官員信息;第四種是將面部表情與聲音結合,借助深度學習,創建聲音模型,如最近有犯罪分子創建德國某集團公司總裁的聲音模型,成功騙取其英國分公司幾十萬歐元的案例。

美國一個視頻網站展示的使用“深度偽造”技術生成前總統奧巴馬發表談話假視頻制作過程。
面部偽造技術可追溯至20世紀60年代,當時計算機生成圖像首次出現,到80年代,好萊烏制片商開始使用“換臉”特效技術,比如在電影《阿甘正傳》中男主角受到肯尼迪總統接見的片段。1997年出現了視頻重構技術,能將音頻和視頻同步。2014年,美國蒙特利爾大學研究人員將兩個神經網絡放在模塊中競爭學習,一個是偽造圖像的生成模型,另一個是鑒別模型,在幾乎沒有人類監督的情況下,通過博弈相互訓練,極大地發展了“深度偽造”技術。目前“深度偽造”技術被情報部門、電影廠商和技術公司日益廣泛地使用,普通民眾也可借助軟件制作視頻在網上散播。
“深度偽造”技術能夠攪渾輿論場。社交網絡的信息傳播速度遠超傳統媒體,“深度偽造”的視頻借助病毒式傳播手段快速擴散,即使有關產品被中途封殺,也能在起初的很短時間內造成社會影響。研究表明,政治類假消息比經濟、科學、自然災害類更易被關注,而現在世界各國司法系統均已接受依賴視頻及音頻作為可采證據。這種技術如被不法分子利用,有計劃地進行虛假宣傳,將能把持輿論走向。“深度偽造”技術還可根據用戶偏好,有針對性地向特定目標推送加工過的合成視頻內容,塑造和加深標簽用戶的價值觀和態度,誘導其放棄區分事實真相的意愿。
“深度偽造”技術增加誤判幾率和戰爭風險。信息已成為新興資源和數字財富,網絡空間不斷發生著利益沖突和信息戰爭,加上網絡空間追蹤溯源技術仍比較弱,也就成為虛假視頻的溫床。未來,一條合成的虛假視頻可能撬動國際安全秩序,增加戰爭爆發的風險和對國際局勢誤判的幾率。比如,偽造白人虐待有色人種視頻可煽動起種族沖突,偽造一國政要和明星煽動性言論可激化國家間矛盾,散播關于生物病毒、核打擊和恐怖活動的假新聞可引發社會恐慌和動亂,甚至能在投票前夕最關鍵階段直接影響一國選舉結果。
“深度偽造”技術也能侵蝕國際信任體系。信任是國家和社會運行的根本,也是國家間交往的基礎,自音頻與視頻技術記錄了眾多歷史事件,塑造了社會價值觀和思想。欺騙者可以借助“深度偽造”技術制造傳播偽造的聲音、圖像及視頻,或將真視頻指鹿為馬為假視頻,以達到欺詐公眾、進行污蔑性宣傳、顛覆政府公信力的目的。當廣大民眾開始下意識地懷疑所看到的一切影像資料時,國家和世界信任體系的崩塌就開始了。
可借助技術手段進行前期甄別。如何跟蹤和驗證數據內容來源,是國家在網絡空間面臨的重大挑戰,掌握檢測、識別、追蹤溯源和打擊偽造數字內容的尖端技術能力至關重要。若通過可信的技術手段追蹤數字內容(包括虛假視頻、圖像、音頻等)的歷史,就能追溯并證明其原創性和真實性,幫助用戶進行識別。美國國防部高級研究計劃局已著手研究如何檢測虛假視頻,提出使用遞歸神經網絡和膠囊網絡技術檢測和鑒別偽造視頻,并借助區塊鏈技術,追溯視頻來源。也有網絡巨頭和視頻網站設置了檢測虛假視頻的算法,在視頻上傳時進行篩選和攔截,還通過設置視頻水印和“數字指紋”等辦法確定視頻來源。政府部門也可借助“數字取證”技術,如檢查視頻是否存在因修改視頻構建方式產生的生理性結構不一致現象,包括視頻中人物皮膚顏色和背景變化是否協調、所記錄的聲音與場景是否一致等。
必須依靠法律和規范來進行事先預防和事后懲治。技術使用的本身并無對錯,但必須有相關制度和法律配套。傳統的法律和政策無法及時懲治非法使用“深度偽造”技術的行為。2018年12月,美國國會定義了“深度偽造”概念,并通過《禁止惡意深度偽造法令》。2019年6月,美國國會眾議院情報常設委員會召開關于人工智能操縱媒體和“深度偽造”技術對國家安全挑戰的公開聽證會,專門了解“深度偽造”和其它人工智能合成數據的隱患。紐約立法部門也在推動一項將數字資源定義為個人財產的法案。新加坡最近通過立法,允許政府下令刪除社交媒體平臺上的虛假內容。
構建國際技術聯盟和共同維護網絡安全社會的文化。一國法律手段能夠對國內犯罪人員追究誹謗罪或傳播虛假信息罪,但對跨境散布的偽造視頻卻難有約束力。所以,應推動建立國際技術聯盟和區域性技術應急組織之類的機制,合作解決“深度偽造”可能帶來的問題,未雨綢繆布置跨國應對之策。
由于網絡空間的特殊屬性,追溯和定位視頻發布者存有難度,且由于視頻傳播具有時間空隙,無法及時消除虛假視頻帶來的危害,網絡空間防御的成本遠大于進攻,且防御措施未必能確保奏效,在信息化時代應對新技術給社會穩定和國際安全帶來的沖擊任重道遠。技術從業者,專注于解決工業界具體的需求和問題,對技術倫理和社會影響關注較少,面對技術的快速更新換代,明確新興技術對倫理道德和國際安全的影響,需要由社會科學工作者參與把控。計算機科學、社會科學和人文學科研究人員應跨越學科界限,協同營造技術文化的生態圈,把“深度偽造”技術的威力限制在籠子里。技術檢測和法律管控的手段必不可少,也需要科技巨頭以及各國間達成共識,促進數據和隱私保護,并推廣能夠鑒別虛假信息的系統,提高社會公眾的風險和防范意識。