
[摘要] “深度偽造”是人工智能時代對“生物識別數據”進行偽造的一種新技術,即通過對“源數據”的學習,用特定人的聲音、外貌和動作拼接出虛假的聲音、圖片或視頻。這一技術的存在為社會生活提供了一定的便利,但同時也帶來了一些風險,例如利用“深度偽造”技術合成色情產物進行傳播從而挑戰個人隱私等。面對這些風險,不少國家和地區紛紛出臺了相應的法律進行規制,以歐盟和美國為例,分別從“生物識別數據”保護的單一路徑和“深度偽造”結合“生物識別數據”的雙重保護路徑對“深度偽造”帶來的個人隱私風險進行限制。目前我國采取了與美國類似的雙重規制路徑,在“深度偽造”的隱私風險規制方面取得了一定進展,但是在濫用者懲罰、平臺責任的平衡、行業自律規范等方面仍需要繼續完善。
[關鍵詞] 深度偽造" 人工智能" 風險規制" 技術中立" 生物性識別數據
[作者簡介] 黃家星,南開大學法學院博士研究生,研究方向為國際經濟法、數據法。
[中圖分類號] D997.1
[文獻標識碼] A
[文章編號] 1008-7672(2022)01-0127-09
一、 “深度偽造”的技術邏輯與規制起點
“深度偽造”(deep fake),是一種基于“生成對抗網絡”模型(GAN)實現的技術。它可以通過對“源數據”的學習,用特定人的聲音、外貌和動作拼接出虛假的聲音、圖片或視頻。
“深度偽造”的基礎模型是GAN技術,其核心思想來源于博弈論中的“零和博弈”。簡單來說就是GAN包括一個生成模型和一個判別模型。判別模型用于判斷一個給定的圖片是不是真實的圖片(從數據集里獲取的圖片),生成模型的任務是去創造一個看起來像真實圖片一樣的圖片。這兩個模型一起進行對抗訓練:生成模型產生一張圖片去欺騙判別模型,然后判別模型去判斷這張圖片是真是假,最終在這兩個模型訓練的過程中,兩個模型的能力越來越強,最終達到穩態。①“深度偽造”在獲取了大量原始圖像數據后,利用神經網絡算法對人的生物特征加以識別提取,通過不斷對比驗證,實現模仿對象和被模仿對象面部的完美嫁接。②在“對抗—辨別”模型的應用下(參見圖1),“深度偽造”視頻等產物的“真實性”被大幅度提升,很難單純以肉眼辨別其真偽。
圖1" "“深度偽造”技術的邏輯流程
“深度偽造”技術的出現為日常生活提供了很多便利。例如,技術人員可以讓已經故去的人物在電影中高質量地“重現”,此外大眾還可以通過“一鍵換臉”等應用程序制作表情包、小視頻等。但值得注意的是,“深度偽造”技術在為社會生活帶來便利的同時,也為個人隱私帶來了顯而易見的風險:自己的照片如果被“移植”到色情圖片或視頻中并被廣泛傳播,又當如何處理?國家是否應通過法律手段對“深度偽造”這一技術進行規制?
答案應當是肯定的。應用是人工智能的最終呈現。技術本身是客觀存在的,并沒有絕對的善惡之分,但技術的應用需要倫理道德規范來指導。數據和算法的互惠合作可以釋放無限的價值和技術潛力,但對欠缺數據收集和算法處理技能的主體而言,數據和算法的緊密依存將會導致未知的“黑箱效應”,進而衍生出難以預估的安全風險。③當前,對“深度偽造”造成的個人隱私風險進行分析和規制,已經成為一個刻不容緩的課題。
二、 “深度偽造”對個人隱私的挑戰
(一) “色情報復”等應用對個人隱私的破壞
“深度偽造”應用對個人造成的隱私風險包括諸多方面,其中“色情報復”是最為典型的風險類型之一。“色情報復”并不是一個新概念,傳統的“色情報復”通常是指“某人把手中掌握的他人的不雅照片(或視頻)放到網上公開展示,它多半是分道揚鑣的前伴侶所為”。④傳統的“色情報復”手段往往基于在親密關系中獲得的一手個人隱私信息或圖像。沒有這些私密資料,即使一方試圖采取“色情報復”的手段也很難成功。
然而“深度偽造”技術的出現,使得“色情報復”的手段更加豐富。實施“色情報復”的一方只要擁有對方的照片或視頻(這些材料在社交網絡極度發達的今天,即使是陌生人也很容易獲取),就可以在“深度偽造”的幫助下制作在現實中并不存在的色情照片或視頻,實施“色情報復”。
正如王利明教授所言,隱私權主要包括生活安寧和私人秘密兩個方面①,而通過“深度偽造”進行色情應用對個人隱私的破壞也主要表現于此。一方面,色情應用產物在網絡上的迅速傳播對當事人的社會評價和正常生活秩序會造成顯而易見的不良影響,破壞當事人的生活安寧;另一方面,“深度偽造”下的色情應用產物主要使用了受害方的面部外表進行拼接而非直接使用個人私密材料,在這種情況下,是否侵犯了個人秘密似乎有所爭議。但答案應當是肯定的。首先,私人秘密包括生理信息,而面部外表顯然屬于生理信息的范疇。個人在隱私權的保護下,有權決定何時、何處暴露自己的面部外表。在某一場合的公開展示并不能推斷在所有場合進行傳播的默示同意。其次,除面部特征之外,公開展示與受害方的面部進行拼接的裸露的身體部分也是對受害方私人秘密的侵犯。權利的行使和歸屬是在社會范圍之內進行探討的,真假難辨的拼接產物使受害方的身體隱私暴露于世(即使并不是受害方本人的身體),由此帶來的負面評價和傷害則直接歸屬于受害方本身。因此,事實上的“虛假暴露”與公眾眼中的“真實暴露”,則應以后者為準。
(二) 對特定人群帶來更大的隱私壓力
“深度偽造”技術的使用有可能對特定人群造成更大的風險和壓力,其中包括但不僅限于女性、公眾人物、特殊性取向者。在一份有關“深度偽造”的追蹤報告中,2019年6月和7月在線顯示了14698個“深度偽造”視頻,該數量在七個月內增長了84%。其中絕大多數(96%)包含以女性為特色的色情內容。②“深度偽造”也給明星帶來了巨大的隱私壓力,2019年的“楊冪換臉朱茵視頻”在短期內微博的閱讀量就達到了1.1億次,傳播速度遠比普通人的“一鍵換臉”視頻快得多,其影響之廣,可見一斑。另據不完全統計,遭遇“換臉”的明星至少還有劉亦菲、劉詩詩、趙麗穎等人。③
特定群體由于其特定的身份標簽,可能會“激發”制作者運用“深度偽造”技術的制作欲望。而當用這種應用程序“一鍵合成”的視頻在互聯網上被廣泛傳播后,其中“被露臉”的當事人不可避免地將會受到輿論、就業、人身安全等諸多方面的困擾,正常的生活秩序勢必被打破。“深度偽造”對普通女性造成的壓力在于,如果當一個人的名字在網絡搜索結果中關聯了“深度偽造”的色情輸出時,那么她可能會丟掉工作機會,進而影響其社會生活,降低安全感。①例如,印度女性作家Rana Ayyub發表了一篇具有挑釁性的報道后,網絡上開始流傳一段以其為主角的“深度偽造”色情視頻,并在Facebook、Twitter和WhatsApp上廣泛傳播。隨后Ayyub的家庭地址等個人信息被曝光在網上,她因此也收到了大量的強奸威脅。Ayyub的生活和工作都受到了極大的影響,遭受了極大的精神折磨。②另一方面,雖然公眾人物的隱私權范圍受到一定限制,但這并不意味著公眾人物的隱私權不應當受到保護。在不涉及公共利益的前提下,公眾人物人格尊嚴、人身自由與生活安寧的隱私權同樣應當受到法律的保護。
(三) 傳播的速度快與規制手段滯后間的矛盾
雖然“深度偽造”涉及的技術基礎,例如“機器學習”“GAN模型”,對于計算機技術領域以外的非專業人士而言知識壁壘較高,但是相較而言“深度偽造”的應用程序卻非常容易上手。如DeepFaceLab是“深度偽造”技術的一個開源軟件工具包,所有人都可以查看源代碼也能免費使用。它不僅安裝簡便而且使用方便,即使是初學者也可以順利下載使用。可見應用程序的易操作性也為“深度偽造”應用的規模制作和快速傳播提供了便利。
“深度偽造”所處的互聯網技術背景環境是“深度偽造”技術發展的有力依托。與此同時,“深度偽造”的互聯網傳播應用背景環境決定了一旦“深度偽造”的應用結果被上傳至網絡,傳播速度將十分驚人,即使造成了不良影響也很難通過迅速地“下架”或使用其他方式及時消除不良影響。“深度偽造”應用結果的規模制作、快速傳播和規制手段的滯后性之間的矛盾進一步加劇了“深度偽造”的傳播風險和對隱私的破壞程度。
綜上所述,“深度偽造”隱私風險主要基于互聯網技術背景進行迅速傳遞,通常被用作“色情報復”等手段,對個人隱私尤其是特定群體的隱私造成威脅,且很難通過迅速有效的手段控制傳播來降低影響。這一風險是人工智能發展帶來的新社會問題,有必要在法律的框架下得到合理的規制,而目前各國也已經開始認識到“深度偽造”的隱私風險并著手制定規則加以約束。
三、 各國主要規制路徑的選擇
(一) 美國實踐:“生物信息”保護與“深度偽造”直接規制的雙路徑
1. 既存規則體系簡介
美國是最早開始對“深度偽造”進行規制的國家之一。目前,關于“深度偽造”隱私風險的規則主要分為以下三類:第一類,對“深度偽造”技術進行規制,包括《2019年深度偽造報告法案》《2020年國防授權法案》《深度偽造責任法案》等;第二類,從“生物信息保護”的角度進行風險規制,包括伊利諾伊州在2008年頒布的《生物信息隱私法案》、得克薩斯州在2009年頒布的《生物識別信息獲取使用法》等;第三類,從“深度偽造”造成的具體隱私風險(如色情傳播等)角度進行規制,包括加利福尼亞州《犯罪:欺騙性記錄》、弗吉尼亞州2019年《非同意色情法》修正案、《非法傳播或出售他人影像》等。
2. 具體規則的安排與銜接
美國關于“深度偽造”的隱私風險規制策略內生于整體風險規制路徑,經歷了兩個階段的路徑變遷:在2019年以前,美國對于“深度偽造”的規制,主要是通過對“生物識別數據”的保護來實現的;而在2019年以后,美國對于“深度偽造”的規制,主要是通過直接規制來實現的。
造成這一情況的原因主要在于“深度偽造”技術雖然從2014年開始就獲得了技術上的突破,但是直到2017年才開始被廣泛應用。相對而言,“生物識別數據”的保護問題出現得更早,所以相應地,對于“生物識別數據”的保護規制也出現得較早。因而在“深度偽造”風險出現時,最及時有效的規制手段,顯然應當在既存規則中。但由于法律的滯后性,這一階段對“深度偽造”的規制存在諸多不完善之處。如伊利諾伊州在2008年頒布的《生物信息隱私法案》,其目的在于規范“生物標識符和信息的收集、使用、保護、處理、存儲、保留和銷毀”,但是卻明確地將“照片”等形式排除在該法的限制范圍之外。這樣一來,使用照片進行“深度偽造”就無法得到有效的規制。
而在“深度偽造”被廣泛應用并產生一系列問題后,美國選擇以“深度偽造”為規制對象,反映了美國對“深度偽造”帶來的巨大風險尤其是隱私風險的擔憂,以及直面風險、消滅風險的決心。①《2019年深度偽造報告法案》《深度偽造責任法案》等直接以“深度偽造”為主要規制對象,采用了“定期報告”與“自我披露”等方式對“深度偽造”的應用進行監督,并通過具體制度設計,完成了與其他法律部門的銜接。
美國對個人隱私的保護主要體現在規制“深度偽造”色情產物的傳播上。例如,弗吉尼亞州2019年《非同意色情法》修正案將“深度偽造”的色情產物納入非自愿色情禁令的禁止范圍。該法禁止“試圖脅迫、騷擾或恐嚇”他人傳播裸體圖像或視頻,否則可能構成一級輕罪,最高可判處12個月監禁和2500美元罰款。
與此同時,除直接立法之外,平臺治理層面也對“深度偽造”技術采取了直接的行動以規制隱私風險。如Facebook公司,直接將來自“深度偽造”的視頻產物進行標記,使用戶能夠有效進行區分,并宣稱加緊對平臺上“深度偽造”內容的審查,暫停任何未經平臺同意而制作發布“深度偽造”私密圖像的賬戶,以減輕個人隱私被侵犯的風險。
3. 評價
美國關于“深度偽造”的隱私風險規制采取了一種較為務實的補充立場,早期采用對“生物識別數據”的保護措施涵蓋“深度偽造”風險規制,后期逐步開始直接制定用于防范“深度偽造”隱私風險的各項規則。這種方式針對性較強,效果更加鮮明。但是從目前的規則來看,存在著以下兩點問題。第一,聯邦立法時間跨度過長,各州立法步調不一致,全美無法統一行動,但數據流動不受地域限制,這也帶來一系列跨地域數據治理的問題。①第二,平臺責任的認定不夠合理。盡管數字平臺主動采取了一些措施,但是從法律層面來看,平臺并不負有內容審查的義務。而從隱私保護的需求來看,僅僅依靠平臺的自身驅動是遠遠不夠的。目前批評之聲主要集中在《傳播凈化法》的第二百零三條,該條關于傳播平臺的免責認定助長了“深度偽造”不當應用的風氣,有學者提出可以以修正案的方式對此進行修改②,但目前在實踐上并無實質性進展。
(二) 歐盟實踐:以“生物信息保護”為主
1. 既存規則體系簡介
歐盟關于“深度偽造”隱私風險的規制,主要通過《一般數據保護條例》(GDPR)實現。其規制路徑主要為:“深度偽造”技術的應用,不僅需要符合一般情形下的個人數據處理原則,而且應當符合“生物性識別數據”的特殊保護規則,采取了一種較為嚴格的保護模式。
首先,“深度偽造”的使用者應遵循一般情形下的個人數據處理原則,即合法性、公平性與透明性。這三項基本原則之間相互區別并相互聯系。針對“深度偽造”的隱私風險,首先應當遵循合法性和透明性原則的要求,利用個人數據制作“深度偽造”作品之前,必須得到當事人的同意與許可,且當事人有權隨時撤回。即使在得到當事人同意之后,基于合理性要求,個人數據必須以與預期相稱的判斷獲得處理,不得超出初始目的的限制。違反以上原則的“深度偽造”應用,則將受到GDPR的負面評價。這種方式充分賦予了數據所有權人自主決定權,以更好地保護個人隱私。
其次,從“生物性識別數據”的專門保護規則來看,根據GDPR第九條的規定:特定識別自然人的生物性識別數據以及和自然人健康、個人性生活或性取向相關的數據,除非有某些特殊情形,否則應當禁止被處理。“深度偽造”應用對于個人隱私的侵犯,主要與特定識別自然人的生物性識別數據及個人性生活或性取向相關的數據的應用有關。GDPR第九條的規定,從類別和應用領域方面進行限制,將“深度偽造”應用對個人隱私侵犯風險最大的兩類數據應用納入“特殊類型個人數據的處理”,采用“一般禁止+例外允許”的方式,降低了“深度偽造”等技術應用對于個人隱私的侵犯風險。
另外,GDPR中有關“深度偽造”隱私風險事后補救措施的安排也較為完善,受害方可通過行使“被遺忘權”等方式降低對個人生活的影響;同時,受害方可通過主張司法救濟權、獲得賠償等方式保護個人利益,懲罰不當使用者。
2. 評價
歐洲的立法傳統與司法實踐一向注重對于個人權利的保護。即便到了大數據時代,歐洲人對數據的理解依然很像傳統時代對隱私權的保護,因為在歐洲人的理念中,經濟發展和科技進步本身并不能取代個體對隱私侵權的警惕;相反,技術進步本身反而可能對個人隱私帶來更大的威脅。①這樣的理念決定了面對“深度偽造”這一新的技術挑戰時,歐洲的立法重點仍然在于規制其對個人權利,尤其是個人隱私造成的風險。
但是這種對于“深度偽造”隱私風險的單一規制方式并不完善。畢竟GDPR被譽為歐洲“數字憲法”,雖然不是真正意義上的“憲法”,但也足夠說明其統領性與概括性。而統領性與概括性的另一面則必定以損失規則的細節為代價,若新型技術帶來的每一隱私風險均向GDPR求助,則不免有規制不周之處。就目前實踐來看,歐盟已經針對“深度偽造”的公共風險出臺了《歐盟不實信息實踐準則》,對于“深度偽造”隱私風險規制是否會出臺專門的法律法規則有待進一步觀察。
四、 啟示與建議
我國對于“深度偽造”的風險規制盡管處于初始階段,但是對于其中隱私風險的規制已經做出了一些有效的嘗試。我國采用的規制方式與美國較為類似:一方面,通過“生物信息”的保護以避免“深度偽造”的不當應用②;另一方面,直接針對“深度偽造”的不當應用做出限制(通常以“虛假音視頻”“非真實音視頻”等名稱指代)。這種方式相較于歐盟的單一規制手段來說更加務實,能更有效地應對“深度偽造”帶來的隱私風險。在信息收集階段,通過目的限制與征得數據收集主體同意等要求,使數據主體增強對個人生物特征信息的掌控。在“深度偽造”技術的使用階段,我國在安全評估、信息標識、違法違規信息處理、辟謠機制的建立等方面完善了網絡音視頻信息服務提供者的責任機制,以有效遏制“深度偽造”可能產生的負面影響。應該說,這樣的一種選擇路徑符合我國的現實情況,并且能夠使我國較為全面地應對“深度偽造”的隱私風險。同時,鑒于國外實踐經驗和我國現實需求,在未來關于“深度偽造”的個人隱私風險規制完善方面,我們應著重注意以下幾點。
(一) 需合理強調對濫用者的懲罰力度
目前對“深度偽造”濫用者的懲罰力度存在著一些質疑的聲音。例如,羅森伯格(Rosenberg)認為,“濫用者被抓到的概率很小。因為風險低,所以對他們而言幾乎沒有威懾力,這勢必會滋長‘深度偽造’濫用者的違法行為。”①當然為了扭轉這一局面,不僅需要法律規則的完善,同時還需要技術層面的配合,提高濫用者違法行為被識別的概率,改變“深度偽造”濫用低成本、低風險的現狀。
(二) 需積極明確平臺方的責任
技術公司在虛假信息辨別的問題上,扮演著重要的“守門員”角色。②美國由于《傳播凈化法》第二百三十條的免責規定,因而有關網站缺乏來自法律上的動力去應對“深度偽造”的產物,許多“深度偽造”視頻目前仍在網絡上被廣泛傳播。③與美國相比,我國在“深度偽造”風險規制方面的優勢在于明確了傳播平臺的法律責任。④但是正如有學者指出,行業內當前還沒有通用的、高準確率的視頻鑒偽手段,相應的鑒偽技術也都尚處在起步階段,還有很長一段路要走,不宜強制要求平臺對用戶上傳的或第三方的視頻是否屬于“深度偽造”或“自動合成”進行檢測識別。⑤關于傳播平臺的法律責任范圍界定,我們應當慎重把握,不宜對傳播平臺造成過大壓力,避免對我國互聯網技術的發展造成負面影響。
(三) 需要注重進一步發揮行業自治規范的效力
為了使檢測辨別方法更加有效,除了例如在《網絡音視頻信息服務管理規定》中強調的“深度偽造”內容主動標識義務,同時還應當促使有關辨別技術標準逐步完善,并充分發揮行業自治效應。目前臉書(Facebook)和谷歌(Google)等國外大型互聯網公司已經采取了一些積極的措施加以應對。例如:搜集視覺數據集,研究“深度偽造”的檢測技術,以幫助識別AI換臉視頻 ;聘請專業人員進行“深度偽造”內容識別工作等。
(四) 整個規制體系應進一步完善
盡管刑法的介入為打擊編造、傳播虛假信息的行為編織了嚴密的法網,但實際上,只要視頻信息并非承載特定的內容……現有“換臉視頻”的絕大多數情形都在刑事法網之外。①這一點與現實中對隱私保護的迫切需求形成了鮮明的對比,因而國家必須在政策層面做出回應,因為每個人都會是潛在的受害者。②與此同時,針對“深度偽造”的隱私風險進行規制,也必須考慮規制手段與其他價值的互動與界限,以避免損害規制手段的有效性。例如,立法機構必須對內容表達本身和內容表達中介或來源的特點劃清界限,以保證言論表達的自由。③是“深度偽造”不當應用還是“言論自由”,我們可以通過兩個步驟進行判斷:第一步,從所屬的行業領域來看,是否符合“正常性”的特征;第二步,從道德秩序來看,所合成的作品內容是否與社會秩序構成沖突。④
(責任編輯:亞立)