還記得火遍全網的換臉 APP《ZAO》嗎?這款應用一經上線就引爆了社交網絡,將換臉的門檻拉到新低,只要下載一個 APP 就能輕松玩轉換臉。
換臉一時爽,但一旦被濫用,可就不能一直爽了。本月中旬,推特正式發布了首個反 Deepfake 策略草案。該公司表示,如果 Deepfake 內容威脅到某人的人身安全或可能造成嚴重傷害,他們會將該內容從推特上刪除。目前,推特還在為這項草案征集公眾意見。

目前的 Deepfake 視頻 96% 仍為色情內容,會對廣大女性造成極大的困擾。此外,美國等國家的政客也擔心 Deepfake 會被用于抹黑政客、干預大選,所以一直非常警惕,并敦促各大科技巨頭出臺相應措施。
作為響應,推特公布了一版關于打擊 Deepfake 策略草案的細節。這家社交媒體表示,當發現有人上傳試圖引導大眾或者混淆視聽的 Deepfake 文件時,他們會考慮將該內容刪除。
目前,該公司正在進行一項調查,征集用戶的反饋意見。調查結果顯示,用戶認為,如果一個 Deepfake 內容對某人的心理健康、隱私、尊嚴、財產或其他方面造成威脅,該內容也應該被刪除。
名詞解釋:Deepfake是一種人工智能基礎的人物圖像合成技術。它用于使用稱為“ 生成對抗性網絡 ”(GAN)的機器學習技術將現有圖像和視頻組合并疊加到源圖像或視頻上。現有視頻和源視頻的組合產生假視頻,該視頻顯示在現實中從未發生過的事件中執行動作的一個或多個人。
在 AI 技術的加持下,Deepfake 視頻等內容數量激增,僅去年一年就翻了一番。這讓人們更容易制作以假亂真的音視頻文件,但當這種技術變得人人可用時,事情就越來越危險。因為它導致了“眼見不一定為實”。
2017 年底,Deepfake 剛剛在 Reddit 上火爆起來,網友們群起而入,短時間內就出現了大量 AI 換臉的視頻——但問題在于,這個“Deepfakes”社區慢慢變成了色情作品的聚集地,最后被徹底關閉。
今年 7 月份的時候,有一款叫做“DeepNude”的“自動脫衣”APP 一度火熱,但又迅速下架。它的功能很簡潔卻又很恐怖: APP 可借助神經網絡自動“脫掉”照片中女性身上的衣服,從而展現其裸體。
除了以上不可描述的應用,Deepfake 在政治上也容易被不軌之徒所利用。比如在選舉活動中,Deepfake 可以制作某位候選人從未說過或做過的事情的文件,無中生有或者歪曲事實,故意破壞該候選人的聲譽。

幾個月前,美國民主黨議員南希·佩洛西(Nancy Pelosi)在美國進步中心的一段演講視頻在 Facebook 上瘋傳。視頻中佩洛西的語速被降到了原版的 75% 左右,同時音調也被人為調高,陰陽怪氣,宛如醉酒一般。這條惡搞視頻對當事人的心理產生了很惡劣的影響,但當時 Facebook 拒絕下架該視頻。

該事件引發了美國政客對這些大型社交媒體的不滿。有消息稱,在 Facebook 決定保留佩洛西“醉酒”的視頻之后,扎克伯格曾試圖打電話給佩洛西,探討社交媒體假視頻的應對方案,但卻被佩洛西拒接。之后,美國政府不斷呼吁社交媒體加強對虛假視頻等內容的監管。
其實,除了推特之外,Facebook、亞馬遜、谷歌等科技巨頭也采取了一系列抵制 Deepfake 假視頻泛濫的措施。
今年 9 月份,Facebook 宣布將斥資 1000 萬美元,與微軟、Partnership on AI 及多所高校共同發起一場 Deepfake 檢測挑戰賽。他們通過用 GAN 等工具生成的假視頻來測試檢測工具的效果。
10 月份,亞馬遜也宣布支持這場挑戰賽,為機器學習專家提供“技術支持和指導”,并將向需要云服務以完成檢測工作的團隊提供 100 萬美元的 AWS 積分。他們還將為競賽提供數據集等幫助。此外,該項目還涉及來自康奈爾科技大學、麻省理工學院、牛津大學、加州大學伯克利分校、馬里蘭大學帕克分校和紐約州立大學奧爾巴尼的學者。
當然,在這種公益活動面前,“不作惡”的谷歌也不甘落后。今年 10 月份,谷歌宣布開源大型Deepfake 視頻數據集,以支持社區對 Deepfake 檢測的研究。為了制作該數據集,谷歌在過去一年中與多名有償和無償演員合作拍攝了數百個視頻。然后,他們使用公開可用的 Deepfake 生成方法,基于這些視頻創建出數千個 Deepfake 視頻。即使 Deepfake 代表著人物圖像合成技術的進步——但在監管和審查尚不夠給力的階段,大家面對的仍然是“泥沙俱下”。