
5月20日,好萊塢知名影星斯嘉麗·約翰遜發布聲明稱,盡管拒絕了向OpenAI(美國人工智能研究公司)提供聲音的邀約,但ChatGPT最新發布大模型GPT-4o仍然使用了高度類似自己聲音的Sky語音。
“在這個我們都在努力應對深度偽造,保護自身形象、作品和身份的時代,我認為,這些問題需要得到絕對的明確。我期待通過透明度和立法來解決這些問題,以確保個人權利得到保護。”斯嘉麗表示。
近日曝光的韓國第二起N號房事件中,61位女性在該事件中成為受害者,2名主犯涉嫌深度偽造首爾大學女生照片,大肆傳播不雅照片及視頻。
4月,英國司法部宣布:根據最新刑事司法修正案,未經他人同意,利用AI制作Deepfake(深度偽造,簡稱深偽)色情圖像,且廣泛發布的人將被定罪。英國成為全球第一個刑法規制深度偽造濫用的國家。
Deepfake一詞是由Deep learning (深度學習)和fake(偽造)而成。基于人工智能的人體圖像合成技術的應用,將現有的視頻圖像音頻疊加到目標視頻圖像音頻上,真假莫辨。
2017年11月2日,社交新聞網站Reddit用戶Deepfakes創立了一個好萊塢女演員色情換臉的子論壇。影片使用開放源代碼制作,只要具備基本知識,任何人都能效法。此后,Deepfake如脫韁野馬,一發不可收拾。學界公認2017年是為深度偽造元年。
作家妮娜·席克在《深度偽造:即將到來的信息末日危機》一書中,采訪了當初獨家報道該事件的記者薩曼莎·科爾。
“那天,我在Reddit網站閑逛,無意間發現Deepfakes登上了熱門版。事情就發生在我眼前。”薩曼莎深感震驚,“假如連一個Reddit使用者都做得到,又要如何阻止普通人們做出同樣的事?”因此,她第一時間聯系上Deepfakes,對方同意匿名接受訪談。
Deepfakes自稱不是工程師,也不是技術專家,只是“對機器學習感興趣的人”。無人知曉他的真實身份,也不知道他從事什么工作。
“我偶然發現了一種聰明的方法,利用開源AI工具,將女明星的臉置換到色情片演員臉上。”Deepfakes說。
站在AI肩膀上,他以一己之力創造了自己的弗蘭肯斯坦:電影《神奇女俠》主角好萊塢女演員蓋兒·加朵(Gal Gadot)的亂倫色情片。影片鏡頭中出現的不是她本人的身體,也不是她的臉,只是移花接木換臉而已,那些加工出來的色情片看起來就像由加朵本人演出的,影片在網絡上不脛而走、大肆傳播。
他究竟是如何成功做到的?通過Google圖片檢索圖片視頻庫和油管,Deepfakes建立了一個龐大的加朵數據集,訓練AI算法,讓它逐漸學會如何置換人臉。沒有細看的話,的確會相信片中女主角就是加朵。要是觀眾有耐心,仔細觀察,不出幾秒也能察覺事有蹊蹺——加朵的口型有時并未同步。
薩曼莎隨即發文,向全世界揭發色情片深度造假,引發公憤。Reddit以“包含未經同意制作的成人影片”為由,關閉了討論版。
Deepfakes從此銷聲匿跡,但他早已公開分享深度造假程序碼。潘多拉魔盒一旦打開,再無可能關上……
2019年,荷蘭DeepTrace公司發表報告,發現深度偽造影片的數量快速增加,原因無非是“相關工具和服務商品化,降低非專業人士制作深度偽造影片的門檻”。
截至2019年9月,有1.5萬部深度造假影片充斥著網絡,迎合部分男性最狂野的幻想。DeepTrace老板喬奇歐·派特尼(Giorgio Patrini)指出:“深度偽造影片中,高達96%都是色情片,當事人卻對此一無所知。”
2018年2月,全球第一個深度造假色情片網站成立,隨后這樣的網站越來越多。在這樣的網站上,只要按幾個鍵,就能免費觀看所有影片。這些網站的首頁毫不掩飾地宣稱:“色情片任君挑選,性虐支配、戀物癖、戀足癖……你想得到的,這里都看得到!”據統計,全球前四大深度造假色情片網站瀏覽次數超過1.34億萬次。
深度偽造的受害者絕大多數為女性。席克問薩曼莎在調查期間,是否看過任何以男性為對象的深度偽造色情片,她直率地回答:“沒有。”同一網站上,以女人為對象的深度偽造色情片動輒數百部,你能想得到的女明星、名人應有盡有。
對于女受害者而言,這一切都是駭人聽聞、踐踏尊嚴。早在2018年,女星斯嘉麗·約翰遜就告訴《華盛頓郵報》,對于這種行為,她無計可施,從網上完全移除這類影片基本上就是不可能的。
“很遺憾,這種情況,我經歷了太多。每個國家都有自己關于肖像權的法律規范。即使能在美國境內采取法律行動,關閉侵權網站,同樣的法規卻可能不適用于德國,徒勞無功。”她警告說,“很快人人都會成為目標,因為網絡是一個巨大的黑暗蟲洞,終將吞噬你。”
深度造假色情片的下一個目標是所有女性——每個妻子、女兒、姐妹和母親。
波士頓大學法學教授丹妮爾·西特龍(Danielle Citron)強調:“深度偽造技術正被用作針對女性的武器。”它將平凡的女性卷入其中,足以毀掉她們的人生。曝光、羞辱、恐懼,難以找到或保住工作,甚至不再感到安全。這侵犯了女性最私密的領域和人身安全。
早在2018年美國未來生命研究所發布的《人工智能的惡意使用:預測、預防和緩解》報告中就指出,人工智能技術存在被惡意使用的風險,深度偽造技術就是其中的一大代表。
你見過奧巴馬罵特朗普是“徹頭徹尾的白癡”嗎?見過扎克伯格吹噓自己“竊取了數十億人的數據,并玩弄于股掌”嗎?見過合成的“特朗普與逮捕他的警察搏斗”系列圖片嗎?如果你回答“是”,便是看到了政治性深度偽造。
2023年2月,美國芝加哥市長初選前夕,社交媒體上流傳一個模仿候選人保羅·瓦拉斯的聲音發表不實陳述的視頻,聲稱“警察可隨意射殺嫌疑人”,并呼吁削減警察預算。在瓦拉斯向社交媒體平臺發出投訴之后,社交媒體刪除了這段視頻,但該視頻在下架前已經被瀏覽了數千次。
2023年11月,一段印度總理“莫迪”身著傳統服飾、歡快跳著印度加爾巴舞的視頻在網上瘋傳,印度總理親自辟謠,稱贊視頻做得好的同時,對濫用AI技術深度偽造視頻表示擔憂,認為這可能引發一場大危機。
2024年1月底,美國新罕布什爾州檢察長辦公室發布一份聲明稱,發現新罕布什爾州出現機器人自動打電話使用由深度偽造技術制作的模仿拜登總統的聲音,敦促人們不要在新罕布什爾州1月23日民主黨總統初選中投票。該事件迅速在美國引起了廣泛關注,并激發了關于AI深度偽造對大選可能產生影響的討論。
2023年11月發布的一份民調結果顯示,參與調查的美國成年人中,有58%的人認為“AI將對2024年美國大選造成影響”,這一數字較2022年8月增長了5個百分點。此外,英國、印度、尼日利亞、蘇丹、埃塞俄比亞和斯洛伐克等國去年都發現了據稱利用AI制作并在網絡上傳播的虛假政客視頻。
“候選人的圖像或聲音可以被篡改,選民可能被有目的地引導,根據設計支持或遠離候選人,甚至放棄投票。”《衛報》認為,在誤導選民方面,深度偽造的潛在危害“難以預估”。偽裝成選民的社交媒體機器人、被篡改的視頻或圖像層出不窮,且更難被識破。
科技平臺需要承擔起阻止深度偽造浪潮奔涌的最大責任。《金融時報》報道,亞馬遜、谷歌、元宇宙平臺、微軟、TikTok和OpenAI等20家科技公司,2024年2月16日在慕尼黑安全會議期間表示,將共同努力打擊旨在誤導選民的內容制作和傳播,并針對這些內容以“迅速和適當”的方式采取行動。比如,在圖片中添加水印,以明確其來源以及是否曾被篡改。
科技行業普遍采用了“內容來源和真實性聯盟”(C2PA)的標準,該標準將用數字內容的來源和創建者的信息對數字內容進行編碼。2024年2月初,元宇宙平臺公司宣布將在其社交媒體平臺上標記AI生成的圖像;谷歌公司表示將為其生成式AI工具集成C2PA水印系統,OpenAI也作出了類似承諾。
對此,專家指出,添加水印的方式可能會有所幫助,但它們并不能阻止不懷好意者使用開源AI工具,也沒有解決那些飽受深度偽造影響的人保護其隱私權的問題。
3月,元宇宙公司宣布調整旗下臉書與Instagram平臺的數字創建和更改媒體政策,以遏制大選前利用AI制作的深度偽造的內容的傳播。這一新政策于5月生效,Meta平臺上發布的AI生成的視頻圖片音頻,打上人工智能制作標簽,便利用戶區分。
涉及深度偽造的金融犯罪,也浮出水面。2024年2月,香港媒體報道某團伙通過“變臉”冒充跨國公司CFO,騙走兩個億!
報案人為一家跨國公司香港分行的職員,1月,他收到英國總部首席財務官的信息,聲稱要進行機密交易,分別邀請數名財務職員進行多人視頻會議。對方在會議內顯示了與現實中相同的容貌,香港分行的職員上當了,應對方要求,前后轉賬15次2億港元,其后向總部查詢后方知受騙。這是香港首次涉及深度偽造“多人變臉”的詐騙案。
香港專業進修學校協理副校長林森表示,隨著人工智能生成引擎的種類愈來愈多,深度偽造技術持續進化,辨別真偽的難度也會越來越大,加上該技術門檻不斷降低,將誘使更多不法分子利用深度偽造技術進行詐騙、發布失實資訊、制造社會輿論等。
深度偽造內容帶來最大的挑戰是難以利用肉眼和耳朵識別。雖然人工智能生成的影像或許仍有瑕疵,例如,光線和陰影可能不太自然,影像邊緣模糊,但當大部分公眾以細小的手機熒幕觀看影像時,這些細節便不易被察覺。
“過去,制作假照片、視頻或音頻,需要大量人力、時間和金錢。現在,使用谷歌和OpenAI等公司提供的免費或低成本的生成式人工智能服務,幾乎每個人都能通過簡單的文本提示創建深度偽造內容。”美聯社稱。
2022年1月,歐洲議會修改了《數字服務法》,強制對深度偽造視頻使用標簽。《數字服務法案》于2024年1月1日生效。
2023年1月,中國國家互聯網信息辦公室發布的《互聯網信息服務深度合成管理規定》,發布了關于深度偽造和其他人工生成內容的管理方案,明確要求深度合成服務提供者和使用者不得利用深度合成服務制作、復制、發布、傳播虛假新聞信息,并規定了一系列監管制度。

早在2018年,美國參議院便提出《禁止惡意深度造假法案》草案,處罰制造欺詐視聽紀錄的犯罪行為,包括深度造假視聽影音媒體的電子紀錄、照片或電子影像等。
2019年,美國眾議院提出限制深度造假影片篡改技術的《深度造假問責法》草案,要求使用深度造假技術制作影片的人負起責任。違者將處罰款或可并處5年以下徒刑。受害者有權向行為人請求最高15萬美元賠償。無奈美國兩黨爭斗不斷,加之有人擔心法案侵犯憲法表達自由和創作自由,相關法案一直難以通過。各州議會于是決定自行立法!
2019年,弗吉尼亞州成為美國第一個針對未經同意的深度偽造色情內容課以刑責的州,違法者可處2年以下監禁,并處罰款。加利福尼亞州州長頒布法案,允許受害者向影片制作者提起損害賠償訴訟,最高可要求15萬美元的賠償。
2022年,佛羅里達州就修法,將未經受害者同意傳播深度偽造的色情圖像定為犯罪。2023年12月,邁阿密戴德警察逮捕兩名男中學生,指控二人犯有三級重罪——深度偽造女同學裸照。這起事件成為美國首例與深度偽造裸體圖像有關的刑事指控。
美國哥倫比亞大學法學院教授李本(Benjamin L. liebman)介紹說:“截至2024年1月,全美50州共提出211項與人工智能相關的法案,其中一半是關注深度偽造的。”
為何美國立法總是“常聽樓梯響,不見人下來”?弗吉尼亞理工大學傳播學院教授凱西·邁爾斯(Cayce Myers)解釋:“立法者不想制定一部新的監管人工智能的法律。制定一部太快的法律可能會扼殺人工智能的發展和增長,制定一部太慢的法律可能會為許多潛在的問題打開大門。保持平衡將是一個挑戰。”
3月13日,歐洲議會批準《人工智能法》,嚴格規范人工智能的使用。針對深度偽造現象,新法要求AI工具提供者有義務以允許檢測合成虛假內容的方式設計這些工具、增加數字水印。AI提供商必須建立有效的監督和問責機制,確保AI系統安全和可靠運行。開發人員和使用者必須對AI系統造成的損害承擔責任。對違反規定的行為進行處罰,最高可達公司全球營業額6%或3000萬歐元,以高者為準。
4月,英國政府推出新法草案。英國受害者和保護事務負責人勞拉·法里斯表示:“這是某些人企圖貶低他人的行徑,尤其是針對女性,假如相關內容廣泛傳播,很可能造成災難性后果,本屆政府絕不會容忍這種行為。”
英國《新科學家》網站報道,美國OpenAI公司的文本—視頻模型Sora橫空出世,讓普通人能更快捷、更廉價地制作出視頻,事實與虛構的分界線也愈加模糊,進一步加劇了人們對“深度偽造”內容的憂慮,擔心其引發虛假和錯誤信息泛濫。如何預防和阻止“深度偽造”內容誤導大眾,已成為擺在各國政府和科技巨頭面前的重大難題。
隨著深度偽造技術的迅速發展,恐怖分子可能利用這一技術進行跨國犯罪,深度偽造產品的泛濫對全世界來說都是災難,沒有哪個國家能夠獨善其身,推動對深度偽造技術的全球治理符合各國的共同利益。
假視頻、假音頻、假照片泛濫,有心人士使用電腦或手機等大眾電子設備制作出來,并通過社交媒體廣泛傳播,從而可能使全社會陷入一場真相與假象之間混雜不清的困境之中,造成“真相的終結”,推動人類社會真正進入“后真相時代”。
正如Deeptrace威脅情報主管亨利·阿杰德(Henry Ajder)所言:“世界越發人工化,深度偽造技術不會消失。”這場政府與技術的游戲遠未結束。