999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

論“深度偽造”智能技術的一體化規制

2020-01-09 12:18:30王祿生
東方法學 2019年6期
關鍵詞:深度

王祿生

2019年3月,技術人員利用“深度偽造”〔1〕“Deepfake”最初只是在互聯網上傳播“換臉視頻”作者的一個代號。在其后的發展傳播中逐步被作為此類技術的代號。技術“換臉”明星楊冪的事件在輿論上引起熱議。與部分粉絲稱贊技術“逆天”“毫無違和感”形成鮮明對比的是,被“換臉”的楊冪本人的回應卻顯得頗為低調和耐人尋味。盡管視頻制作者第一時間宣稱“主要用于技術交流,并無營利行為”,然而,該技術運用仍然引發各界對侵權甚至是在色情視頻中使用的擔憂。就在各界圍繞上述問題展開熱烈討論方興未艾之際,一款叫作ZAO的AI換臉軟件于同年8月底發布并迅速席卷了中國的網絡。實際上,“深度偽造”技術最初名聲大噪于2017年11月。當時,利用技術換臉明星生產的多部色情視頻在美國“紅迪網”上傳播并引發各界關注。〔2〕據不完全統計,艾瑪·沃特森(Emma Watson)、娜塔莉·波特曼(Natalie Portman)、加爾·加多(Gal Gadot)、米歇爾·奧巴馬(Michelle Obama)、伊萬卡·特朗普(Ivanka Trump)和凱特·米德爾頓(Kate Middleton)都是“深度偽造”技術的受害者。2018年1月,使用“深度偽造”技術的應用程序正式上線,普通公眾在沒有深厚技術背景的情況下也可以嘗試“換臉”,這進一步加劇了“換臉視頻”的傳播。“換臉”的對象也迅速由明星、政客擴展到朋友、同學、同事。由于“換臉視頻”的迅速傳播,“紅迪網”關閉了有關“深度偽造”技術的討論板塊。據稱該版塊注冊用戶已超過10萬人。其后,聊天應用程序Discord也明確禁止相關視頻傳播。〔3〕See Kevin Roose,Here Come the Fake Videos,Too,THE NEW YORK TIMES (Mar.4,2018),https://www.nytimes.com/2018/03/04/technology/fake-videos-deepfakes.html.與之類似,出道即巔峰的ZAO也在上線3天之后被微信屏蔽防問。伴隨“換臉視頻”傳播的加劇的是對“深度偽造”技術是否以及如何規制的激烈討論。在此背景下,系統地梳理該技術的技術邏輯、技術特征、應用風險以及規制方式就成為學術界迫切需要回應的問題。

筆者將從技術邏輯切入,闡述“深度偽造”技術特征及應用風險,分析現有技術規制和法律規制無法有效回應的根本原因,并從平臺責任、作者義務和信息素養三個方面構建新的一體化規制體系,力圖最終馴服技術的“巨魔”,將其限制在合理使用的范圍之內。本文探討的內容不僅適用于“深度偽造”技術及其實現的“換臉視頻”,同樣適用于未來具有高度真實性的音頻、圖片、視頻的系列處理技術。

一、“深度偽造”的技術邏輯

眾所周知,現階段主流的“換臉視頻”是通過“深度偽造”技術生成的。“深度偽造”是英文“深度學習”和“偽造”的合成詞。它實質上是一種聲音、圖像與視頻的智能處理技術,能夠以極度逼真的方式模仿特定人物或者讓特定人物看起來在做特定的事件,以至于未經過訓練的觀看者通常無法辨別其真偽。

如果拋開具體的稱謂不談,從技術邏輯來看,“深度偽造”依托的是“深度學習”技術,它是包括由相互聯系節點組成的多層神經網絡,可以根據輸入的數據進行自動的計算并完成特定的任務。“深度偽造”的過程就是將圖片、視頻等數據“喂”給“換臉算法”,然后由算法在訓練的基礎上自動完成換臉操作。〔4〕See Samantha Cole,AI-Assisted Fake Porn Is Here and We're All Fucked,MOTHERBOARD (Dec.11,2017),https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn.詳細而言,就是通過深度學習的算法,去識別目標人物(比如明星、政治家等)不同角度、姿態與表情的照片,然后不斷訓練從而自動生成偽造的圖片,并將其覆蓋到原有視頻人物的臉部,形成“換臉視頻”。其實質可以簡單理解為從現有“源數據”(目標人物)中通過算法生成“新數據”(偽造視頻)的過程。理論上,在足夠訓練數據和訓練時間的基礎上,“深度偽造”技術可以把任何人的臉“交換”成制作者想要的任何視頻。

當然,能讓“深度偽造”在短時間內名聲大噪,依靠的并非一般意義的深度學習技術,而是采用了其中的一種名為“對抗生成網絡”(簡稱為GAN)的模型。與傳統深度學習技術單鏈條相比,GAN引入了“對抗”機制,由兩組神經網絡共同進行。其中一組神經網絡的算法定位為“生成器”,它負責基于“源數據”創建目標圖像模型,從而生成偽造的圖像;另一組神經網絡的定位為“鑒別器”,它負責基于真實的目標圖像對“生成器”生成的偽造圖像進行驗證。每一種算法都在對另一種算法進行改進,從而加速訓練的速度,進而生成高逼真度的虛假視頻內容。可見,與傳統深度學習單組神經網絡相比,“對抗生成網絡”類似于不斷演變的貓鼠游戲,偽造者(生成器)與偵查者(鑒別器)之間不斷通過“對抗”自我優化。通過這種“無監督學習”的模式,訓練的數據越多,輸出的效果就越好。對于名人、政治家,由于互聯網上具備足夠多的訓練數據,這就導致“換臉視頻”以假亂真。

為了更好地說明“換臉視頻”的生成環節,筆者制作了技術示意圖。如圖1所示,“深度偽造”技術大致按照下列順序實現“換臉視頻”:第一,從互聯網(通常是搜索引擎或社交平臺)上獲取給定目標人物(“源”)的視頻、圖像,從而形成供人工智能技術訓練的數據集——“源數據”;第二,借助“對抗生成網絡”算法中的“生成器”,通過神經網絡的訓練,生成偽造的視頻、圖像(“偽造數據”);第三,“對抗生成網絡”算法中的“鑒別器”將真實的目標數據與“生成器”生成的“偽造數據”進行比對;第四,當判定為“真”時,〔5〕此處的“真”并不是我們日常意義上理解的真實,而是將偽造數據與真實數據對比之后的相似度。如果“鑒別器”認定高度相似,則輸出結果為1(true);如果鑒別后認為不相似,則輸出結果為0(false)。則可以作為下一步“換臉”的基礎素材;當判定為“假”時,則返回優化“生成器”的算法;第五,選擇合適的視頻并將視頻中原有人物的臉部圖像替換成目標人物的臉部圖像。具體而言,就是將視頻分解成數百甚至數千幀,然后將通過“鑒別器”鑒別的偽造臉部圖像(眉毛、嘴、鼻子和頭部的位置及其動作)一幀一幀地映射到視頻原有人物的臉部之上,從而完成“換臉視頻”。最初“換臉視頻”需要人工挑選合適的待替換視頻,但隨著技術的發展,已經可以通過目標人物的圖像特征自主選擇合適的視頻。

圖1 “深度偽造”技術GAN模型邏輯示意圖

二、“深度偽造”的技術特征

視頻、圖片的技術化處理或偽造并非新鮮的事項。近年來,隨著PS等技術的普及,對于圖像的修飾與篡改已經成為常規現象。“深度偽造”之所以令人擔憂,是因為它是高度真實性、泛在普適性與快速演化性的綜合。“深度偽造”的上述技術特征將使得潛在造假群體和視頻造假能力均呈現指數級躍升。

(一)高度真實性

與一般數字處理技術相比,“深度偽造”技術最為核心的特征就在于高度真實性,以至于極其難以被發覺。〔6〕See Robert Chesney,Danielle Citron,Deepfakes and the New Disinformation War:The Coming Age of Post-Truth Geopolitics,98 Foreign Aff.147,147—148(2019).在“深度偽造”技術出現之前,偽造視頻具有極高的可識別性。這是因為在很長一段時間內,對于圖像、音頻、視頻的處理存在技術瓶頸,偽造的圖像無法解決光線的細微變化,同時偽造視頻在篡改語音時也往往無法準確捕捉差異化人群的節奏和音調。然而,這些瓶頸隨著“深度偽造”技術的產生與發展,業已或正在或終將被攻克。前文在論及技術邏輯時已經強調,“深度偽造”技術是一種“無監督學習”,它通過“對抗生成網絡”在自我優化中生成偽造的數據。對于這種技術邏輯,只要有足夠的數據和運算速度,理論上生成模型會在“對抗”中持續自我迭代并不斷優化偽造視頻。那么一個顯而易見的結果便是,“更大的數據、更好的算法和定制的硬件”將很快讓這些虛假視頻真實得可怕。〔7〕See Derek B.Johnson and Susan Miller,The Danger of “Deep Fakes”,GLOBAL CYCLING NETWORK (Jul.18,2018),https://gcn.com/articles/2018/07/18/deep-fakes.aspx.普通人在未經過專業培訓的基礎之上,很難區分和發現。“楊冪換臉視頻”就是一位AI技術愛好者將港版《射雕英雄傳》(下稱《射雕》)中“朱茵版”黃蓉的臉換成楊冪。有媒體評論道:“視頻中,楊冪的五官與朱茵的表情幾乎全部融合,難辨真假。”〔8〕劉津寧:《AI換臉技術暗藏法律風險》,《北京日報》2019年3月20日,第14版。此外,瑞士科學家嘗試用最前沿的人臉識別系統去識別“換臉視頻”,結果錯誤率高達95%。德國和意大利科學家的聯合研究小組測試了1000段“換臉術”視頻后發現,普通人必須通過特殊訓練,才能鑒別真偽。〔9〕參見宣晶:《視頻“換臉術”走近大眾,引爆億級流量后為何令人擔憂》,《文匯報》2019年2月27日,第1版。

(二)泛在普適性

與傳統的人工智能技術相比,“深度偽造”技術還具有泛在普適性。長期以來,對視頻的深度處理技術壟斷在政府或實力異常強大的企業手中,社會公眾無從使用。一部以假亂真的視頻制作通常需要好萊塢式的技巧和預算。然而,“深度偽造”技術的出現則在根本上改變了這一格局,使得該技術開始向一般公眾普及。這又可以從三個方面展開:其一,“深度偽造”采用的是“無監督學習”。相較于“有監督學習”和“半監督學習”而言,“無監督學習”的訓練數據不需要標注。這一特性使得“深度偽造”技術具有極強的親民性。因為一般公眾個人不具備對海量數據實時精準標注的條件和能力。其二,“深度偽造”的“源數據”具有獲取便捷性。實際上,就技術邏輯而言,“深度偽造”是通過海量“源數據”的訓練自動生成“新數據”(偽造圖像)的過程。其生成精準度很大程度上取決于“源數據”的豐富程度。考慮到人工智能技術的飛速發展以及社交媒體上圖片資源的豐富性與易獲取性,制造“換臉視頻”的技術難度與成本在飛速下降。其三,“深度偽造”無須安裝編程語言和開源軟件庫就能運行,操作簡單。盡管硬件上需要GPU的支持,但通過短期租用云平臺的方式可以有效解決。其四,更為重要還在于,隨著一款免費、易于使用的應用程序的出現,這項技術迅速向一般社會公眾普及,其技術門檻進一步降低。普通民眾只需要一兩個目標人物的高清視頻,8-12小時就可以制作一部自動換臉的視頻。〔10〕參見李覲麟:《AI換臉技術的玩法還有很多》,《電腦報》2018年9月10日,第12版。

“換臉視頻”要達到以假亂真還需要音頻處理技術的支持。傳統上,偽造特定人員聲音存在明顯的技術瓶頸,機器合成聲音極易識別。隨著人工智能技術的引入,無論是谷歌、百度抑或是訊飛都已經具備了生成模擬語音的能力,其通過對特定人物音色、語言要素的采集與訓練,能夠模擬出足以以假亂真的任何內容的語音。〔11〕在科大訊飛公司2016年度發布會上,曾發布一段視頻。視頻中,美國時任總統奧巴馬用一段流利的中文預祝科大訊飛公司的發布會取得成功。這實際上就是用音頻處理技術模擬的奧巴馬的聲音。參見袁一雪:《讓奧巴馬用中文演講的“聲音魔術”》,《中國科學報》2016年12月2日,第4版。根據ASI數據科學公司的一項測試,通過語音生成算法,只需要借助兩小時的語料并訓練五天時間,就可以模擬一份以假亂真的特朗普向俄羅斯宣戰的語音。〔12〕Michael Chertoff and Anders Fogh Rasmussen,The Unhackable Election:What It Takes to Defend Democracy,98 Foreign Aff.156,160(2019).上述音頻處理技術的嵌入使得“深度偽造”技術的普及如虎添翼。

(三)快速演化性

前文在談及技術邏輯時已經論及,“深度偽造”技術使用的是深度學習中的“對抗生成網絡”,它在本質上是一種“無監督學習”,具有極強的自我適應性。一般認為,該模式不需要過多的人工干預,尤其適合以一般公眾為服務對象的應用。實際上,在最初“對抗生成網絡”主要局限于人工智能的研究群體,并未大規模在社會上運用。不過,“深度偽造”技術的出現打破了這一局限。研發者利用谷歌的開源學習軟件“TensorFlow”來構建“對抗生成網絡”在極短時間內就完成了“換臉技術”的升級換代并最終實現“換臉視頻”。〔13〕See Oscar Schwartz,You Thought Fake News Was Bad?Deep Fakes Are Where Truth Goes to Die,THE GUARDIAN (Nov.12,2018),https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth.在“深度偽造”技術發展的早期,盡管訓練過程是“無監督學習”,但訓練的“源數據”還需要通過人工尋找大量素材,比如目標人物的視頻、音頻、圖片,以及尋找合適的替換視頻。這在一定程度上降低了該技術的“親民”程度。知名的科技網站“主板”在2018年曾經預測“深度偽造”技術在尋找“源數據”方面的自動化至少需要一年時間,但事實上,這個自動化迭代只花費了一個月時間。現階段,制作者只需要通過程序上傳需要替換的目標人的照片,軟件可以進行人臉識別,并且海量視頻庫中自動匹配最為合適的身體。〔14〕See Samantha Cole,People Are Using AI to Create Fake Porn of Their Friends and Classmates,MOTHERBOARD (Jan.26,2018),https://motherboard.vice.com/en_us/article/ev5eba/ai-fake-porn-of-friends-deepfakes.“對抗生成網絡”利用海量的網絡資源不斷“無監督”地自我迭代與優化,使得“深度偽造”在整體上呈現出一種加速發展的態勢。換言之,“深度偽造”技術雖然處于早期階段,但其卻包含著巨大的潛力,由于技術的飛速發展,我們將很可能立刻面對無法區分真假的“換臉視頻”。

三、“深度偽造”技術應用的風險

科技哲學認為,技術是把雙刃劍,可能給社會帶來不同程度的風險。偽造他人的言行對于人類而言并不陌生。在不同的歷史時期,偽造行為可能以不同形式產生。然而,與傳統技術相比,“換臉視頻”的破壞力不僅僅在于“偽造”,而更在于“深度”。換言之,“深度偽造”的技術邏輯與技術特征的疊加使得對其應用可能產生不同于一般視頻偽造處理技術的風險。互聯網時代,尤其是自媒體的發展,打破了中心化的信息傳播模式。它一方面增加了信息傳播的效率,另一方面也降低了對虛假信息的控制能力。“深度偽造”技術的應用風險在互聯網傳播的特性之下被進一步放大進而可能產生不可控的局面。

(一)侵犯公民人身權利與財產權利

對“深度偽造”技術生成物(視頻、圖片、音頻)的應用最為直接的風險之一就在其對被偽造公民的個人權利產生影響。在“深度偽造”技術的起源地美國,該技術最初用以制作各類的色情換臉視頻——將明星的“臉”替換到其他的色情視頻中。其后,隨著技術的普及,“換臉”的對象也迅速由明星、政客向一般公眾擴展。可見,由于“深度偽造”技術的高度真實性、泛在普適性和快速演化性的基本特征,該技術生產的視頻高度逼真,且越發以低成本的方式普及,對于被“換臉”的明星或是一般公眾而言,其名譽權、肖像權等基本權利就不可避免地受到侵犯。“楊冪換臉視頻”在短期內微博的閱讀量就達到了1.1億,影響之廣,可見一斑。另據不完全統計,遇上“換臉”的明星還有至少劉亦菲、劉詩詩、趙麗穎等人。〔15〕參見前引〔9〕,宣晶文。此外,“換臉視頻”不僅將用于自我滿足,而且也可能被用來敲詐、羞辱、騷擾和勒索受害者。〔16〕See Douglas Harris,Deepfakes:False Pornography is Here and the Law cannot Protect You,Duke L.&Tech.Rev.99,102(2019).綜上所述,“深度偽造”技術所產生的“換臉視頻”最為直接的影響就在于公民的人身權與財產權。

(二)破壞社會穩定、國家安全與國際秩序

正如有專家預測的那樣,未來幾年,電腦將能夠快速生成令人信服的、偽造的音頻和視頻信息,這將把假新聞提升到一個全新水平。〔17〕See Hilke Schellmann,The DangerousNew Technology That Will Make Us Question Our Basic Idea of Reality,QUARTZ(Dec.5,2017),https://qz.com/1145657/the-dangerousnew-technology-that-will-make-us-question-our-basic-idea-of-reality/.“深度偽造”技術所產生的第二個直接風險就可能通過所謂的假新聞用以誹謗政客,破壞社會穩定、國家安全和國際秩序。設想在種族沖突嚴重的地區,一個政治人物發表種族歧視言論的“換臉視頻”可能直接引發不可控制的惡果。2018年4月,有技術團隊制作了涉及美國前總統奧巴馬的“換臉視頻”,在視頻中“奧巴馬”稱美國現總統特朗普為“徹頭徹尾的白癡”。〔18〕See Aja Romano,Jordan Peele's Simulated Obama PSA is a Double-edged Warning against Fake News,VOX (Apr.18,2018)https://www.vox.com/2018/4/18/17252410/jordan-peele-obama-deepfake-buzzfeed.同年5月,有人利用“深度偽造”技術制作了特朗普的視頻,批評比利時的環保政策。盡管視頻在制作上有明顯瑕疵,但仍然有比利時的民眾相信該視頻為真,并激烈地回應。這一影響大大超過了制作團隊的估計,使得他們不得不對評論者一一回應該視頻其實是一個假視頻。〔19〕See Oscar Schwartz,You Thought Fake News Was Bad?Deep Fakes Are Where Truth Goes to Die,THE GUARDIAN (Nov.12,2018),https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth.據不完全統計,現下成為該技術受害者的政客至少還包括德國總理默克爾、阿根廷總統馬克里。

正因“深度偽造”技術所可能導致的假新聞泛濫,美國國家情報總監丹·科茨在參議院情報特別委員會發表演講,提交了由美國情報界匯編的《全球威脅評估報告》。報告明確提到“深度偽造”技術,并指出戰略競爭對手可能會試圖使用“深度偽造”或類似的機器學習技術來創建令人信服的——但是虛假的——圖像、音頻和視頻文件,以此對美國及其盟友和伙伴產生負面影響。〔20〕See Daniel R.Coats,Worldwide Threat Assessment of the US Intelligence Community,Senate Select Committee on Intelligence(Jan.29,2019),p.7.英國《衛報》也認為,“深度偽造”技術可以造成任何人說過或做過任何事的假象,并不無擔憂地認為會引發新一輪信息戰。〔21〕關于“深度偽造”技術所可能導致的國際社會的“假情報戰”的討論可以參見Robert Chesney and Danielle Citron,Deepfakes and the New Disinformation War:The Coming Age of Post-Truth Geopolitics,98 Foreign Aff.147(2019).

(三)消解社會共同體的信任

眾所周知,我們對世界的經驗以及我們對世界作出自信判斷能力需要我們有一些證據來源。這些來源在形成共識的基礎之上,自動引導我們作出判斷。人們不可避免地依賴于超出他們直接感知的世界的可靠知識,這在本質上是一種知識生態系統。〔22〕See Marc J.Blitz,Lies,Line Drawing,and Deep Fake News,71 Okla.L.Rev.59,113—115(2018).“深度造假”技術的泛濫還可能導致公眾形成“眼見不為實”的心理預期。其直接結果是公眾對公有機構和私有機構的信任度遭遇侵蝕。一直以來,視頻都被視為真實性的基本標準,與容易失真的照片形成鮮明對比。“深度偽造”視頻技術的發展將破壞我們對視頻作為事件記錄的信任。該技術最大的威脅不是公眾會被欺騙,而是公眾會把一切都當作欺騙。隨著這種“深度偽造”技術的發展與普及,它潛在地可能造成一種信息無序的狀態,會對原有的要求我們信任外部信息來源的個人決策或集體自治構成嚴重的,甚至是無法克服的挑戰。〔23〕See Marc J.Blitz,Lies,Line Drawing,and Deep Fake News,71 Okla.L.Rev.59,110(2018).其最終結果有可能導向霍布斯提及的“所有人與所有人的戰爭”,“眼見為實”的提法將消逝在歷史之中。有研究表明,人與人的反復協作的基礎是彼此的信任。當一個群體內部彼此信任時,群體凈收益會提升。反之,彼此缺乏信任將導致群體的效益下降。〔24〕See Jeffrey Westling,Deception Trust:A Deep Look at Deep Fakes,TECHDIRT(Feb.28,2019).可見,“深度偽造”技術的濫用將使得人類加速邁入“后真相時代”。〔25〕“后真相”一詞最早見于美籍塞爾維亞劇作家史蒂夫·特西奇(Steve Tesich)1992年發表在美國《國家》雜志上的一篇文章,卻在誕生20多年后于2016年被《牛津詞典》評為年度詞匯。改詞用于形容“陳述客觀事實對民意的影響力弱于訴諸情感和個人信念”。參見王悠然:《警惕“后真相”時代的假消息》,《中國社會科學報》2017年1月6日,第3版。在“后真相時代”,由于“真相”被認為不復存在,“人們只相信自己愿意相信的東西”。〔26〕參見李軍:《“后真相時代”,凝聚共識靠內容而非流量》,《新華日報》2018年3月28日,第14版。由此,社會共識便難以聚合而成。

四、“深度偽造”技術應用的規制

“深度偽造”技術只是人工智能與視頻處理技術結合的必然產物,它不是第一個,也必定不是最后一個該領域的嘗試。盡管其動機可能從純粹的戲謔、模仿,到爭取商業利益,甚至是敲詐、勒索和政治操縱,但技術應用于以上述目的并非獨特的問題,而只是一個有待解決的問題。〔27〕See Ryan J.Black and Pablo Tseng,What Can and Should the Law Do About“Deepfake”:An Update,LEXOLOGY (Dec.5,2018),https://www.lexology.com/library/detail.aspx?g=09f3dc1a-d3c1-41d6-9029-1cb8794eb54f.現有的技術規制與法律規制手段無法完全覆蓋“深度偽造”技術的諸多應用場景,這就需要在現有技術與法律規制之外構建一種全新的“平臺-作者-受眾”三位一體的新規制模式。

(一)現有技術規制及其局限性

對于技術應用的風險,通常的邏輯是“以子之矛,攻子之盾”——用技術進行規制。實際上,隨著“深度偽造”技術的影響擴大,以技術進行“溯源防偽”和“反向破解”的理念與實踐也日益盛行。

“溯源防偽”是指通過溯源技術從根本上保證視頻的真實性。已有國外公司開始使用區塊鏈等技術,利用在分布式賬本上永久記錄元數據,在創建之初為音頻、照片、視頻內容添加水印。由此,對于視頻的真偽就可以便捷地識別。〔28〕See Robert Chesney and Danielle Citron,Deepfakes and the New Disinformation War:The Coming Age of Post-Truth Geopolitics,98 Foreign Aff.147,154(2019).該技術雖然在技術層面沒有顯著困難,但卻很可能會面臨成本和政策方面的難題而無法真正推廣。也有學者暢想,推出一項新服務——不可變的生命日志或身份驗證跟蹤,使“深度偽造”的受害者可以提供經過認證的不在場證明,可信地證明他或她沒有說或做所描述的事情。〔29〕See Bobby Chesney and Danielle Citron,Deep Fakes:A Looming Challenge for Privacy,Democracy,and National Security,107 Cal.L.Rev.(forthcoming 2019),available at SSRN.實際上,研究人員的靈感很可能來自美國作家戴夫·艾格斯(Dave Eggers)創作于2013年的反烏托邦小說《圓圈》(The Circle),小說中政客佩戴24小時的電子監控設備和流媒體設備來建立公眾信任——如果你不透明,那么意味著你一定在隱瞞什么。

“反向破解”則是通過技術對“深度偽造”技術生成的“換臉視頻”進行識別。美國國家標準與技術研究所和美國國防高級計劃局的研究人員一直在致力于開發能夠探測“深度偽造”的技術。〔30〕See Derek B.Johnson and Susan Miller,The Danger of“Deep Fakes”,GLOBAL CYCLING NETWORK(Jul.18,2018),https://gcn.com/articles/2018/07/18/deep-fakes.aspx.研究人員發現“換臉視頻”中人物眨眼次數較少、且極不自然。通過跟蹤視頻中人物的眼睛狀態,“換臉視頻”的識別準確率高達99%。〔31〕參見閆欣、華凌:《AI換臉也有 bug,看看人物眨沒眨眼》,《科技日報》2019年3月18日,第8版。還有團隊通過“換臉視頻”中血液進入皮膚時細微變化來識別。〔32〕See Oscar Schwartz,You Thought Fake News Was Bad?Deep Fakes Are Where Truth Goes to Die,THE GUARDIAN (Nov.12,2018),https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth.

然而,無論“溯源防偽”抑或是“反向破解”,在“深度偽造技術”快速演化性的特征之下,都顯得略顯蒼白。“道高一尺魔高一丈”,技術的進展速度往往高于技術的破解速度。舉例而言,隨著技術的發展,“深度偽造”技術可以收集海量的眨眼視頻進行訓練,由此就可以進一步優化“換臉視頻”中的眨眼細節,從而成功避開檢測工具。〔33〕參見馮衛東:《“換臉”也逃不過數字真探法眼》,《科技日報》2018年8月10日,第2版。因此,從某種意義上說,作為防守方的“鑒真技術”在作為進攻方的“偽造技術”面前往往處于落后挨打的地位。

(二)現有法律規制及其局限性

除了技術規制之外,對于高新技術應用規制的重要工具還包括法律。由于立法過快的回應甚至限制可能錯過技術發展的機遇和審視技術帶來問題的機會,因此對于“深度偽造”技術在內的前沿技術規制主要立基于現有的法律體系。實際上,無論從民事賠償、行政處罰、刑事追訴等方面來看,現有的法律體系都為規制“深度偽造”技術提供了可能。

首先,正如本文第三部分提及的那樣,“深度偽造”技術最為直接的風險就在于對公民的人身與財產權形成侵害。現有的民事法律體系內的相關制度可以對上述行為進行規制。具體來說,“換臉視頻”可能涉及肖像權和名譽權。在現有的技術框架之下,“深度偽造”技術需要海量的目標人物的照片、視頻作為“源數據”進行訓練,生成偽造的目標人物(受害人)的臉部圖像,并替換到選定視頻的人物臉部。此時,目標人物的肖像權就受到侵犯。更進一步,由于“深度偽造”技術的高度真實性特征,社會公眾可能形成對“換臉視頻”主角的誤解,認為其作出了他/她實際上并未做的行為或者發表實質上并未發表的言論,進而產生一種負面評價。在此過程中,“換臉視頻”使得公眾對目標人物形成了虛假或者誤導性的觀點,損害了其聲譽,進而給其造成精神和物質的損失。由此,在現有的侵權責任法的框架之下,受害人可以要求“換臉視頻”的作者承擔刪除視頻、賠禮道歉、消除影響和賠償損失等民事責任。

其次,“深度偽造”技術還可能侵犯視頻的知識產權。按照我國知識產權的相關規定,視頻作品的作者享有作品的完整權,不受任意修改的權利。當原始視頻被曲解、編輯、修改之后,原作者的知識產權就受到相應的侵害。可見,當使用“深度偽造”技術進行視頻“換臉”時,無疑就侵犯了原視頻所有人的版權和照片所有人的版權。無論“換臉視頻”制作者是否用于商業,只要不構成法定的例外情形,都已構成侵權。原始視頻和照片的版權人都可以要求刪除修改后的視頻與照片副本、禁止發布視頻并賠償相應損失。從國外的實踐來看,確實有版權人以侵權為由,要求網站刪除特定的“換臉視頻”。〔34〕See Leo Kelion,Deepfake Porn Videos Deleted from Internet by Gfycat,BBC NEWS (Feb.1,2018),https://www.bbc.com/news/technology-42905185.

再次,“換臉視頻”還可能觸發行政處罰,這主要體現在國家相關主管機構對視頻傳播平臺的管理。2018年3月22日,國家廣電總局發布《關于進一步規范網絡視聽節目傳播秩序的通知》(下稱《廣電通知》),明確規定“堅決禁止非法抓取、剪拼改變視聽節目”。通知原文規定,不得制作、傳播歪曲、惡搞、丑化經典文藝作品的節目,不得重新剪輯、不得截取片段拼接、不得傳播篡改原意產生歧義的作品片段。同樣以“楊冪換臉視頻”為例,盡管該視頻并不存在對原有作品的“惡搞”與“丑化”,但正如筆者技術邏輯部分指出的那樣,“換臉視頻”是將偽造的圖片逐幀映射到視頻之上,因此是一種對原視頻素材的重新分解和編輯,無疑構成“剪輯”。同樣,作者還將《射雕》作品中若干片段整合成一個新段落,也構成“截取片段拼接”。更進一步,將原視頻“換臉”,還涉嫌“篡改原意產生歧義”。因此,平臺對上述視頻內容具有管理責任。若怠于履行責任,則相關管理機構可以依法處罰。

最后,“換臉視頻”還可能構成相應的犯罪。如果將“偽造”和“傳播”作為核心要素,在現有的刑事法律體系之下,“換臉視頻”可能構成但不僅限于以下五大類的犯罪:第一,利用“深度偽造”技術傳播虛假信息的,涉及險情、疫情、災情、警情、軍情、敵情、恐情,根據情節不同可能構成編造、故意傳播虛假信息罪、編造、故意傳播虛假恐怖信息罪、編造并傳播證券、期貨交易虛假信息罪、戰時故意提供虛假敵情罪;第二,無論“換臉”的受害人是名人抑或是普通公眾,都可能因為“換臉視頻”所故意捏造和散步的虛構事實導致人格貶損與名譽損失。因此,該行為還可能構成誹謗罪。第三,利用“換臉視頻”進行威脅、要挾行為,可能構成敲詐勒索犯罪;第四,利用“換臉視頻”進行人臉識別進而秘密獲得或騙取公私財物,可能構成詐騙類罪或者盜竊罪;第五,利用“換臉視頻”編造虛假信息,在網絡散布或者組織、指使他人在網上散布,造成公共秩序嚴重混亂的,還可能構成尋釁滋事罪。如果不考慮“偽造”而只關注視頻“信息”本身,“換臉視頻”的傳播可能構成其他更多的罪名,諸如因為傳播的內容是色情視頻而構成傳播淫穢物品罪、組織播放淫穢物品罪,因為傳播內容是極端主義的言論而構成宣揚恐怖主義、極端主義、煽動實施恐怖活動罪等。如果我們將視角關注到視頻的制作本身,還可能構成制作、復制、出版、販賣、傳播淫穢物品牟利罪。

可見,盡管現有法律沒有針對“深度偽造”技術的專門立法規定,但就現階段的行政、民事和刑事三個領域的相關法律,偽造造成的后果在一定程度上可以被行政處罰、治安處罰、民事責任、刑事犯罪等既有責任體系涵蓋。然而,上述法律規制的缺陷也是顯著的:其一,民事責任規制領域,構成侵犯公民肖像權的行為,通常應具備兩個要件:未經本人同意且以營利為目的。若“換臉視頻”并未以營利為目的,則難以被肖像權的制度體系所涵蓋;另外,構成侵犯名譽權則根據受害人確有名譽被損害的事實、行為人行為違法、違法行為與損害后果之間有因果關系、行為人主觀上有過錯來認定。在實踐中,“換臉視頻”內容對“受害人”名譽的貶損可能難以證明。精神損害在沒有造成嚴重后果的情況下往往難以支持。再以“楊冪換臉視頻”為例,視頻作者并非以營利為目的,更大程度上只是一種“炫技”。其“換臉”行為也沒有對楊冪本人形成不當的貶損,精神損失無從談起。盡管《射雕》的視頻所有者可以主張侵犯知識產權,但實際上也很難以證明該視頻傳播對其造成的損失。同時,“深度偽造”技術所具備的泛在普適性也使得版權方需要面對海量分散、隨機的“偽造”行為,維權成本極高。其二,在行政責任領域,《廣電通知》實際上也無法充分規制“換臉視頻”。這是因為《廣電通知》規范的只是“視聽節目網站”,而無法涉及公眾個人行為。“深度偽造”技術的泛在普適性使得從事偽造行為的主要是公眾個人,而不是“視聽節目網站”。《廣電通知》確實強調網站要嚴格管理上傳節目,但對于如何管理、如何審查以及審查到何種程度則語焉不詳。因此,在實踐中這種管理更大程度上是一種事后的管理——在版權方投訴之后下線處理。換言之,在版權方沒有行使相應權利的情況下,“換臉視頻”就具有一定的傳播空間。其三,在刑事責任方面,盡管刑法為偽造傳播虛假信息的行為編織了貌似嚴密的法網,但實際上,只要視頻信息并非承載特定的內容(如軍情、險情、色情等),或直接從事違反犯罪(如詐騙、盜竊等),現有“換臉視頻”的絕大多數情形都在刑事法網之外。至少,“楊冪換臉視頻”以及現在越發流行的網絡直播平臺主播在直播時將自己的臉換成明星(明確向觀眾表明“換臉”)的操作就基本不在上述刑事規制之內。

法律規制更為顯著的不足還在于它往往是一種事后規制。由于“深度偽造”的高度真實性的技術特征,借助既有的網絡傳播平臺,其造謠的效應可能會成指數級放大。即使后續法律產生強有力的規制,但既有的傳播影響已然形成。這便是所謂的“造謠動動嘴,辟謠跑斷腿”。因此,對于“深度偽造”技術生成“換臉視頻”的規制就不能僅僅局限于事后的規制。這也決定了現有法律的規制體系更大程度上是一種權宜之計。此時,對于“深度偽造技術”應用的事前與事中規制就顯得尤為重要。

(三)“平臺-制作者-受眾”三位一體的新規制體系

實際上,無論是技術抑或是法律規制,都有一定的事后性。它們在特定領域和特定場景可以對“深度偽造”技術形成較好的規制,但同樣無法完全規避上述技術在應用中可能產生的風險。因此,對于“深度偽造”技術的規制還應該建立三位一體的事前與事中規制模式。在偽造視頻傳播產生不利影響之前有效將風險限制在最低程度。具體而言,就是強化平臺的審查責任、明確制作者的說明義務和培養公眾的信息素養。三種措施良性循環,每個環節彼此加強,形成一個閉環。

1.強化平臺審查責任

公民個人基于喜好或者研究需要而制作“換臉視頻”并不具有違法性。只有當期將該視頻傳播后才具有法律探討的空間。眾所周知,在互聯網時代,社交媒體與視頻平臺在“換臉視頻”的傳播中扮演著極其重要的角色。因此,平臺有責任呈現真實消息,審查一切疑似虛假、夸大、帶有煽動性的消息,尤其要防范假消息在平臺上的病毒式擴散。〔35〕參見王悠然:《警惕“后真相”時代的假消息》,《中國社會科學報》2017年1月6日,第3版。當然,平臺的審查責任也并非無遠弗屆。在“深度偽造”的“換臉視頻”的傳播中,平臺只要遵循“技術正當程序”〔36〕See Bobby Chesney and Danielle Citron,Deep Fakes:A Looming Challenge for Privacy,Democracy,and National Security,107 Cal.L.Rev.(forthcoming 2019),available at SSRN.即可被認為履行了審查責任。若怠于履行上述義務,造成相應后果,平臺需要承擔連帶責任。

平臺的“技術正當程序”包括以下幾個方面內容:第一,修改平臺的視頻傳播政策,對于“深度偽造”的“換臉視頻”采取特殊政策,禁止上傳利用“深度偽造”技術制作的未經授權的“換臉視頻”。事實上,在紅迪網事件之后,除了紅迪網自身關閉相應版塊之外,美國其他部分視頻平臺也修改網站政策,明確禁止上傳利用“深度偽造”技術制作的視頻,理由正是未經權利人的同意。回到“楊冪換臉視頻”的事件中,視頻作者既未獲得楊冪方的授權,亦未獲得版權方的授權。因此,他可以基于科學研究進行相應的訓練,但要將“換臉視頻”通過平臺公開則另當別論;因此,只要有權利人主張侵權,那么平臺有立刻刪除的義務。第二,開發“深度偽造”的識別技術。目前,不少互聯網平臺已經通過智能算法來識別問題內容、快速審查發布和賦予高質量內容以高優先度。〔37〕See Lili Levi,Real Fake News and Fake Fake News,16 First Amend.L.Rev.232,239(2017).這為平臺進行內容審查提供了技術可能。在“深度偽造”的應用場景中,平臺需要在傳統內容形式審查的基礎之上更進一步,實現對偽造視頻的技術審查。從世界范圍來看,大型的互聯網平臺已經推出相應的虛假信息識別技術。〔38〕See Jack M.Balkin,Free Speech in the Algorithmic Society:Big Data,Private Governance,and New School Speech Regulation,51 U.C.D.L.Rev.1149,1183(2018).因此,大型視頻傳播平臺推出對“換臉視頻”識別機制也是大勢所趨。第三,平臺在識別來自“深度偽造”的相關應用程序(如FakeApp)的搜索請求時可以嘗試提高其獲得特定圖片的難度。目前,“深度偽造”技術的“源數據”主要來自各大搜索引擎、社交網站,因此需要上述平臺在識別“深度偽造”搜索請求時提高獲取“源數據”的難度。谷歌就曾經通過算法修改特定搜索請求的返回結果,以增加查找某些資料的難度。〔39〕Dave Lee,Deepfakes Porn has Serious Consequences,BBC NEWS (Feb.3,2018),https://www.bbc.com/news/technology-42912529.只要平臺滿足了“技術正當程序”,則可以認定在“深度偽造”視頻的傳播中不負連帶責任。

2.明確作者的聲明義務

由于“深度偽造”技術的高度真實性、泛在普適性與快速演化性,導致可能偽造視頻的潛在群體劇增、視頻欺騙性增強。“換臉視頻”的行為可能呈現出分散、隨機、破壞巨大且難以主動規制的特征。此時,就勢必要建立一種全新的“換臉視頻”作者聲明義務。對于作者而言,需要遵循以下兩個要求:其一,在視頻的顯要位置以明顯的水印等方式聲明“換臉視頻”。其二,在通過平臺傳播時需要向平臺聲明該視頻的“換臉屬性”。如果生產者完成上述義務則推定為無過錯,如果沒有履行上述義務則推定為有過錯。這種規制類似于《產品質量法》中的警示說明。當然,其實法國的相關立法已經為這種聲明義務提供了參照。2017年法國政府就推出了一項法律規定,規定經過修圖處理的模特照片必須標注“已修圖照片”。此種作者主動的說明義務為有效規制“深度偽造”技術的生成物提供了可能。

3.培育公眾的信息素養

雖然“深度偽造”技術極大增加了虛假視頻的“可信度”,但更好的信息教育也是預防虛假視頻產生不當社會影響的重要途徑。與其期待通過禁止“換臉視頻”的方式來解決問題,不如關注如何提升公眾的“關鍵信息素養”,區分視頻的真假。因此,除了平臺的審查責任與制作者的說明義務之外,對于“深度偽造”技術的規制還有一個關鍵的環節——提升公眾“關鍵媒體/信息素養”。

所謂信息素養,是指公眾借助工具,理解新聞報道中的框架、偏見、不準確之處,并能夠評估事實真實性的能力。〔40〕See Lili Levi,Real Fake News and Fake Fake News,16 First Amend.L.Rev.232,309(2017).信息素養重點關注如何區分信息的真假。〔41〕Isabelle Courtney,In an Era of Fake News,Information Literacy Has a Role to Play in Journalism Education in Ireland,Irish Communication Review,Volume 16,Issue 1,2018,p.22.它指向“一組能力,要求個人識別何時需要信息,并具有定位、評估和有效使用所需信息的能力”,〔42〕Michelle H.Williams and Jocelyn J.Evans,Factors in Information Literacy Education,4 J.OF POL.SCI.EDUC.116,116(2008).“但它的意義遠不止于此:它還涉及充分利用信息和明智地解釋信息所需的能力、屬性與自信。包括批判性思維和意識,以及對與使用信息相關的倫理和政治問題的理解”。〔43〕Information Literacy Group,CILIP Definition of Information Literacy 2018,THE LIBRARY OF INFORMATION ASSOCATION(2018),p.3.媒體素養是信息素養的組成部分。它關注的是理解媒體、便捷使用媒體(傳統媒體、數字媒體)以及使用媒體創建或表達自我能力的知識。〔44〕See Caroline L.Osborne,Programming to Promote Information Literacy in the Era of Fake News,46 Int'l J.Legal Info.101,109(2018).當今社會圍繞新聞制作、信息傳播形成了越來越復雜的商業模式,這就使得信息素養顯得更加重要。

從整體而言,當今社會對于公眾信息素養的培養缺乏必要的關注。社會公眾在消費信息時,存在意識缺陷,在使用信息前,沒有保持必要的批判性和審慎性。斯坦福大學的一份研究顯示,年輕人對于互聯網信息進行推理的能力極度有限,極度容易受騙。〔45〕See Stanford History Education Group,Evaluating Information:The Cornerstone of Civic Online Reasoning:Executive Summary(Nov.22,2016),p.4.此外,由于“確認性偏誤”〔46〕所謂的“確認性偏誤”是指人們在主觀上支持某種觀點時,往往傾向于接收能夠支持上述觀點的信息,而排斥或忽視與觀點相沖突的信息。和“過濾氣泡”〔47〕“過濾氣泡”的概念由Eli Pariser在2010年提出,指的是在算法推薦機制下,高度同質化的信息流會阻礙人們認識真實的世界。參見Kalev Leetaru,Why 2017 Was the Year of the Filter Bubble?,FORBES(Dec.18,2017),https://www.forbes.com/sites/kalevleetaru/2017/2018/why-was-2017-the-year-of-the-filter-bubble/26146572746b。的存在,一個人傾向于接受自己支持的某種觀點,并不斷強化。因此,要在接受的基礎之上進行批判性的認知,是一個巨大的挑戰。僅靠理智和情感無法有效穿越“后真相”的泥潭。〔48〕有人認為,可以用理解和情感來穿越“后真相”的泥潭。參見夏遠望:《用理智與情感穿越“后真相”泥淖》,《河南日報》2018年1月15日,第6版。具體而言,信息素養的核心目標有兩個方面:第一,是讓公眾在接受信息之前習慣性地批判檢查,〔49〕Caroline L.Osborne,Programming to Promote Information Literacy in the Era of Fake News,46 Int'l J.Legal Info.101,103(2018).意識到“在這個數字時代,任何事情都不能盲目地看表面,因為那張臉可能是在欺騙你”。〔50〕前引〔31〕,閆欣、華凌文。第二,培養公眾使用相關工具對識別視頻來源、作者身份,評估視頻承載信息的準確性和客觀性,進而獲得對視頻內容進行批判性檢查和驗證的能力。這也是在“后真相時代”生存的必備技能。

結 語

智能技術的發展呈現出加速迭代的特征。諸多技術及應用常常令法律人應接不暇。進入大數據與人工智能時代,一個明顯的感受便是法律相對于前沿技術的滯后性越發凸顯。實際上,“深度偽造”技術及其產生的風險只是諸多智能技術發展的衍生品之一。法律固然是強有力的規制工具,但要充分降低智能技術的應用風險,唯有技術、法律與倫理規制協同。

猜你喜歡
深度
深度理解不等關系
四增四減 深度推進
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
深度觀察
芻議深度報道的深度與“文”度
新聞傳播(2016年10期)2016-09-26 12:14:59
提升深度報道量與質
新聞傳播(2015年10期)2015-07-18 11:05:40
微小提議 深度思考
主站蜘蛛池模板: 成人免费黄色小视频| 精品福利视频网| 精品国产欧美精品v| 国产福利不卡视频| 99精品视频九九精品| 国产中文在线亚洲精品官网| 在线观看热码亚洲av每日更新| 亚洲一区黄色| 伊人久综合| 欧美爱爱网| 日韩一区二区三免费高清| 中文字幕资源站| 国产欧美精品专区一区二区| 97一区二区在线播放| 日韩区欧美国产区在线观看| 国产靠逼视频| 人妻出轨无码中文一区二区| 日韩不卡高清视频| 99re在线观看视频| 曰韩免费无码AV一区二区| 四虎永久免费地址| 狠狠色噜噜狠狠狠狠色综合久| 亚洲欧美在线精品一区二区| 亚洲天堂2014| 国产精品欧美激情| 99人妻碰碰碰久久久久禁片| 久久人体视频| 亚洲综合天堂网| 全部毛片免费看| 99在线观看国产| 亚洲精品国产精品乱码不卞 | 免费Aⅴ片在线观看蜜芽Tⅴ | 91网在线| 亚洲成人一区二区三区| 日韩亚洲高清一区二区| 欧美视频免费一区二区三区| 无码免费的亚洲视频| 精品少妇人妻av无码久久| 成人自拍视频在线观看| 精品偷拍一区二区| 特级做a爰片毛片免费69| 亚洲精品成人片在线播放| 国产精品va| 日韩在线影院| 中文无码精品A∨在线观看不卡| 精品无码视频在线观看| 国产91小视频在线观看| 老司机久久精品视频| 国产免费一级精品视频 | 蜜桃视频一区二区| 美女视频黄频a免费高清不卡| 91青青草视频在线观看的| 特级aaaaaaaaa毛片免费视频 | 2020国产精品视频| 精品国产免费观看| 超碰色了色| 欧美一级色视频| 先锋资源久久| 4虎影视国产在线观看精品| 丰满的少妇人妻无码区| 成人年鲁鲁在线观看视频| 91香蕉视频下载网站| 亚洲婷婷在线视频| 永久免费av网站可以直接看的| 亚洲欧美精品一中文字幕| 久久伊人色| 亚洲免费成人网| 免费aa毛片| 国产迷奸在线看| 亚洲AⅤ综合在线欧美一区 | 青青操视频在线| 18黑白丝水手服自慰喷水网站| 国产一二视频| 色悠久久久| 波多野结衣的av一区二区三区| 亚洲制服丝袜第一页| 22sihu国产精品视频影视资讯| 色亚洲激情综合精品无码视频| 香蕉国产精品视频| 亚洲视频欧美不卡| a网站在线观看| 久久国产精品麻豆系列|