劉新宇

互聯網時代,讀者并不缺乏信息,但一些真正具有傳播價值的內容,卻往往淹沒于信息洪流之中。力求將最有價值的信息,最有銳度、溫度、深度和多維度的思考與表達,最值得閱讀的網絡優質原創內容,快速呈現給讀者,是《世界文化》與騰訊《大家》建立合作的初衷與共同努力的方向。【“大家”閱讀】每期將臻選《大家》所匯聚的中文圈知名學者、專欄作家的最新文章,與讀者分享“大家”眼中的“世界文化”。

我們過去說,歷史是個任人打扮的小姑娘,那么現在,現實也是了。
幾個月前,以ZAO為首的換臉視頻在中國突然大火,上傳一張照片,迅速得到自己為主角的小視頻,這是廣大人民群眾跟深偽的第一次親密接觸。然而,馬上就有質疑指出其中對于個人隱私的潛在風險,以及深偽跟色情產業的微妙聯系,于是,我們跟深偽的“貼面舞”來去匆匆。
然而,根據我在美國華府所見,對于深偽,美國政界、學界的警惕遠超中國——近期,隨著美國總統大選的臨近,越來越多的媒體和智庫開始擔心基于選舉的民主政治制度,甚至可能無法承受這種技術之重。
一段在YouTube上走紅的、前總統奧巴馬爆粗現總統特朗普的視頻,可以看做是深偽的牛刀小試。視頻中,奧巴馬在疑似白宮辦公室的地方,以經典的奧巴馬腔,一本正經地說特朗普是個徹底的XX。
視頻不是真的,但美國人民的擔心確實是。


據CNN的報道,五角大樓為應對深偽,拉上幾家最牛的研究機構和實驗室,成立了“先進研發項目防御局”(DARPA)。甚至有官方聲音稱,這個技術具有武器級的重大威脅;Facebook據說也砸下重金,研發深偽識別技術。不管華盛頓還是硅谷,現在媒體也摻和進來,同聲合唱對這種造假技術的天大的擔心。那到底這個讓美國寢食不安的深偽是什么?
深偽(Deepfake),簡單說就是一種軟件技術,由AI執行,可以對被模仿者的面部建模,來合成天衣無縫的偽造視頻。深偽的神奇之處在于,即便你從未做過那些事,說過那些話,去過那些地方,碰到深偽,一切都不是問題,一切都能讓圍觀群眾的眼睛信以為真。除了奧巴馬,YouTube上還有一大票名人深偽,小布什、扎克伯格、尼古拉斯·凱奇……深偽,像黑暗中蟄伏的猛獸,正蠢蠢欲動。
一般來說,要深偽,首先要搜集被模仿者的原始素材,包括視頻、聲音和照片,然后通過專門的軟件,模仿你的表情、習慣、聲音、肢體動作,甚至說話節奏。在無人提醒的情況下,深偽很難被察覺,即便有人提醒,在高手制作的視頻面前,你也很難確認那是“真的假”。
深偽首次引起公眾注意是在2017年,Reddit的某些無聊用戶,把一位名人的臉和一部色情片深偽了一下。現在,隨著機器深度學習的推進,深偽技術一日千里——大量原始素材?漫長的制作時間?超強算法能力?這些以前的條件現在統統不需要了。這么說吧,通過開源軟件,即便不專業的人,也可以輕松深偽。當然,你極客,非要達到亂真的效果,那確實還需要點專業能力。但對比兩年前,深偽粉可以拍胸脯問,隨著技術的迅速成熟,這一門檻被踏平的日子還會遠嗎?
深偽的力量不僅取決于它們看上去有多真,更重要的是它們傳播得有多快。

人們深信自己的眼睛,這是進化賦予我們的本能。千百年來,我們就是靠著雙眼所見來判斷真偽,做出決定。但這種本能適應的是那個真實世界,那雙眼不會被輕易欺騙的世界。面對這個眼見不為實的新世界,人類的生物進化和認知能力已經被技術進化和AI耍得團團轉。
當一個爆炸性的深偽視頻通過互聯網和手機推送到你面前時,即便幾分鐘后就被澄清那是個假消息,但就在這短短的片刻之內,它可能就已經擴散給數以千萬計的人。在大眾心理學中,面對兩個截然相反的消息,那個不同尋常的更容易被接受。因此,即便面對澄清,我們也往往會認為那不過一種官方的掩飾手段。設想,當你面對兩個都說對方是假的視頻,而視頻本身看上去都如此真實,你會如何做判斷,而且,如果不是兩個,而是同時有三四個羅生門般的視頻,估計大部分正常人都會被徹底搞暈。
自媒體的興起是這一問題的催化劑,因為沒有“中間商賺差價”,理論上,所有人都可能把深偽視頻直接推給所有人。未來,真要深偽,根本不需要一個團隊,一人足矣!設想一下,一個不懷好意的深偽極客,躲在自己房間里就有可能引發一次現象級的信息海嘯,當無數海嘯以迅雷不及掩耳之勢鋪天蓋地而來時,一個充滿混亂和無所適從的時代必然隨后而至。
僅在2019年,1.5萬個深偽視頻已經上網,其中96%都是色情視頻。事實上,已經有人因此深受其害。
Rana Ayyu,一位印度女調查記者,因為報道觸怒了不少網民,她的穆斯林身份,更是給她帶來經常性的社交媒體暴力。去年4月,一名8歲的克什米爾小女孩被強奸,Ayyu在BBC的報道中,批評印度政府對頻發的兒童性犯罪打擊不力。第二天,先是有人偽造她的推特截圖,說“我恨印度和印度人”“我愛巴基斯坦”“我贊同兒童被強奸,只要是以伊斯蘭教的名義”。
更可怕的是第二天,當她約了朋友在咖啡館商量怎么對付這些事的時候,接到編輯的信息和一條鏈接,點開一看,是一部她做主角的色情片——別有用心者把她的臉深偽到了一部色情視頻中作為報復。Ayyu崩潰到進了醫院,之后即使她做了很多努力,但無論她如何澄清這一切,她的每一條社交媒體發言后永遠跟著無數的謾罵,其中夾雜著大量這部深偽色情片的截圖。
更有甚者,2018年6月,還是在印度,一部兒童被綁架的視頻引發了多起暴亂,8人被殺,其中5人僅僅是因為路過一個村莊,下車后跟一個當地女孩說了句話,就被隨后趕來的至少35個村民圍毆致死,隨后趕來的警察也沒能幸免,至少4名警察被打傷。而這部網上傳得沸沸揚揚的所謂兒童綁架視頻,其實是被深偽的一部巴基斯坦兒童安全活動的資料片,面對這種無中生有的荒誕悲劇,人們不禁在想,在未來這些會不會成為某種常態。

深偽不僅影響一些社會議題,甚至成為新型經濟犯罪的手段。根據《華爾街日報》報道,一家英國能源公司被犯罪分子利用AI合成技術,模仿公司CEO的聲音,騙走了24.3萬美元。設想,在電信詐騙如此泛濫的今天,如果你的家人,特別是老年人,聽到你“親口”說要轉賬多少應對某個“緊急”情況,他們會怎么做?或者你自己,聽到你孩子的班主任,或者你的愛人在電話里焦急地告訴你孩子“出了車禍”,讓你趕緊打一筆急救費,你會怎么做?電話不行,那深偽一個視頻電話又如何?普通人在深偽面前幾乎毫無還手之力。
美國即將迎來2020年總統選舉,情報部門發出警告,按照目前深偽技術發展的速度,很有可能政治對手之間會有沖動利用它,在“關鍵時刻”給對手致命一擊,特別是那些處于不利地位的候選人,精心準備一個足以讓對手翻盤的話題,然后搜集對手的照片和視頻(對于公眾人物來說,沒有任何難度),深偽一個含有某些真實的假視頻,然后在對手根本來不及辯解的時刻,比如投票前幾個小時,利用無法追蹤IP的技術上傳到所有的社交平臺,那將造成巨大的混亂,甚至顛覆性的結果。
這種改造其實并不是什么新東西。1990年代,Photoshop給了修圖師先進工具,從而使我們有了P圖的概念。而現在,正如一位研究者所言,也許人類正在跨入一個“真實世界崩潰的大時代”。

BBC的新劇《真相捕捉》講了男主陷入一場綁架和謀殺指控,而“作案的全過程”都是由街頭的視頻探頭被檢測中心當場看到的,而事實上,這一切不過是利用深偽技術合成的。這部新劇從法律角度發出了質疑:如果深偽能夠任意制作視頻,那么現在法庭的視頻采信證據將不足為憑,而這將深刻影響各國的審判體系。
怎么辦?
第一個辦法當然是增強識別能力,用AI去對付AI。五角大樓組織的DARPA事實上就是這個思路的產物。除了研發新型識別軟件,同時還需要改造硬件,比如在手機、攝像頭、錄像機,甚至圖形工作站等等涉及深偽制作的硬件中燒入隱含識別碼,這樣便于追蹤視頻的來源。然而,哈利·法瑞德,一位著名的圖像識別專家認為,目前的圖像識別技術已經被深偽遠遠甩出幾條街。我們現在更有可能的不是識別出哪些是假視頻,而是被假視頻愚弄,認假為真。
在10月底華盛頓著名智庫CSIS舉行的一次深偽研討會上,與會專家提出要加強對于公眾的深偽教育。但是,如上所述,即便所有人都知道深偽的存在,我們難道就有能力辨別么?充其量,我們會對所有的事情將信將疑,而日常生活中對于事實和確定感的喪失,最終結果就是我們將越來越憑借個人的喜好和主觀行事,自文藝復興以來建立的客觀和理性大廈,將逐漸被侵蝕,另一種“迷信”將彌散到人類社會中去。直到某一天,我們不借助AI就無法判別真相的時候,誰掌握了AI,理論上,誰就具備了左右真實世界的力量。
專家同時指出,辨別真偽要倚重消息源,這個提法跟倚重AI本質上沒有區別。互聯網本身是去中心化的產物,在它誕生半個世紀之后,我們要再次投靠中心化、權威和認證來保障真實嗎?這不僅是理念之爭,背后有著一個更本質的問題:如果我們只相信權威機構和平臺的信息,那么誰來監管它們?如果它們被操控,喪失了真實客觀,誰有能力來糾正,誰又有能力來告知我們真相——即便真相擺在面前,但因為它們不是來自權威和中心,因此真的也為假,沒有人會相信。到那時,我們就會成為傳說中那些永遠叫不醒的人。
還有學者提出要借助法律,也許吧。在美國弗吉尼亞州已通過法律,禁止深偽色情視頻;加州和德州更把用于選舉的深偽行為視為犯罪……然而,這真的行得通嗎?
在CNN的深偽專題中,專家們認為這種技術必將極大地影響世界,甚至改變歷史進程。
試想如果阿姆斯特朗時代有深偽技術,那么誰會真的相信美國人登上過月球?又或者,那段導致尼克松下臺的水門事件的電話錄音,也根本毫無說服力,那么這位開創了中美邦交正常化的總統,大概率不會被國會啟動彈劾,從而獲得連任。由此想到在“烏克蘭電話門”旋渦中心的特朗普,怪不得氣定神閑,也許官司真打起來,一段音頻恐怕已經很難像當初那樣有殺傷力。
借用深偽視頻里“奧巴馬”的話說,既然你的敵人可以讓你在任何時間、任何地點說任何話,那么你其實可以不認任何你說的話,無論真假。
