張詩曼 姚天沖
關鍵詞 換臉技術 深度偽造 法律風險 應對措施
作者簡介:張詩曼,東北大學文法學院法學系,研究方向:法學;姚天沖,東北大學文法學院法學系副教授,法學博士,研究生導師,遼寧省政府法律顧問。
中圖分類號:D920.4 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?文獻標識碼:A ? ? ? ? ? ?? ? ? ? ? ?DOI:10.19387/j.cnki.1009-0592.2020.07.002
近日,一款名叫ZAO 的換臉軟件打著“僅需一張照片,出演天下好戲”的名號在各大應用市場高分出道,上線伊始就受到了廣泛熱議,正如其所宣傳,用戶在下載該應用后,僅僅需要上傳一張符合較低要求分辨率的照片,人工智能技術便可以完整識別并提取照片中的信息,例如人臉的面部表情、言語動態和視線聚焦角度等,便可以用照片中的人臉替換掉任意一個視頻素材中任何人的臉。然而這場換臉熱卻逐漸變味,憑借其迷惑性在諸多領域興風作浪。
這樣的面部合成技術真的能做到天衣無縫嗎?實則不盡然,這些生成的圖片與視頻畢竟是算法拼湊的產物,技術師編寫的普適性技術應用在具體的場景中,在各個細節都做到以假亂真,一時迷惑眾人的同時,難免會有一些疏忽,也存在著一些漏洞。一家西班牙公司REGIUM通過 this person does not exist.com 這個造臉網站,利用人工智能GAN技術以及英偉達的模型合成了四個虛擬工程師,作為網站的開發者,但由于在照片背景處理和人臉眼鏡附近的扭曲失真而被投資方發現,然而這并非僅憑人眼或算法可以及時洞察的,需要依托一定的技術手段與生活經驗與靈活的思維加以辨別。
此項技術問世后一度引發爭議,甚至出現了將明星照片代入色情視頻的產業鏈條,即便封閉相關搜索,技術的流失與源代碼泄露猶如潘多拉盒子被打開,以深度學習算法(生成式對抗網絡)為基礎的技術不斷被修正,自動演進能力也出乎意料的演化。迫在眉睫的“真相危機”不斷涌現,不斷污染網絡空間,帶來視覺沖擊的同時,還有哪些潛在的社會危害?一系列違法與侵權代價、法律風險到底應該由哪些主體對此類危害負責?各個國家的政府組織對此態度如何?當下既問世的應對法是否具有實際效力?我們是否能夠尋得一條更加完善、更加周全的應對出路?
探求一項技術所引發的可能性社會問題,需要從技術本身入手,當下人工智能技術發展正處于由弱人工智能向強人工智能過渡的階段,深度學習技術的廣泛應用使人工智能的操作日趨自動化,換臉技術便是“深度學習+”的一種表現。
(一)換臉技術概念與原理
換臉技術,即所謂的“換臉術”主要是通過人工智能“深度偽造”技術實現的,“深度偽造”實質上是一個合成詞項,是“深度學習”+“偽造”的結果。①“人工智能深度學習”能力近年來突飛猛進,某種程度上來說已經形成了多層聯結的神經網,可以自動導入數據、自動計算并完成任務。技術的原理是通過一種密集光度一致性辦法(Dense Photometric Consistency measure),達到跟蹤源和目標視頻中臉部表情的實時轉換,由于間隔的時間很短,使得“復制”面部表情成為可能。實質上,就是通過深度學習識別“源數據”,提取素材中的面部特征、表情細節以及動態變化,在此基礎上經過大量的經驗積累與數據分析,就可以由系統自動形成偽造的動態人臉并將其覆蓋疊加到原素材上,以實現更新變換,創建的圖像模型作為新數據就是人工智能的算法產物。換臉技術的發展是人工智能學習發展到更高階段的彰顯,具有雙鏈條能力的“對抗生成網絡”模型才是“換臉術”的核心,優化與傳統的人工智能學習技術,對抗生成網絡模型具有雙鏈條,同時進行的神經網絡,各司其職,在生成新數據的同時又實現了對生成物的自動鑒別驗證,從某種程度上說“對抗生成網絡”實現了幾近于由單純完成人類命題進化到了自學自驗的“無監督學習模式”。
(二)換臉技術的流程
換臉技術涉及到兩個方面的操作。源數據開始輸入后,先從人臉的識別開始,從眾多元素中察覺檢測到需要更換的部分,即是對人臉信息的檢索與提取,圖像信息自然錄入系統數據庫之后再開啟,圖像信息進行分析與運算,換言之人臉識別是人臉轉換的第一階段。
接下來是對抗生成網絡(GAN)的運作,兩組神經網絡“生成器”與“鑒別器”是此項技術的靈魂所在,通過二者的對抗實現換臉任務的落實。所獲取的目標人物的照片與視頻信息匯總而成的數據集在“生成器”神經中制造出新的影像,又在“鑒別器”神經中進行新舊對比,檢測對比結果為真實時開展下一步的圖像替換。由單張的圖片到視頻轉換上,大體上需要經過以下步驟,首先是把源視頻素材以幀為單位切分,提取其中的待轉換面部區間與信息,導入到訓練模型中進行替換整合并生成視頻,經過系統后期制作,提高偽造視頻的清晰度與真實度。在整套系統運行,基本無需人腦分析、人工剪輯和再校對,實現了人類角色的轉變。
(三)換臉技術的應用
換臉技術的功能再強大,不過是人類思維概念的具象化與操作化,數據素材庫的填充離不開人類的資源提供,生成物用途也由人類意向主導。在技術實現途徑上,人工智能換臉技術常見的使用方式主要包括三種:一是將真人換臉成真人象;二是將真人換臉成尚可識別身份的虛擬形象;三是完全拋開真人形象設定把真人換臉后形成純虛擬形象,其他具體應用都是依托此三種基礎變形而來。
技術具有兩面性,人工智能的發展也難以脫離此定律。換臉技術的生成物最大特點就是虛構性,虛構內容不同、利用手段不同、用途目的不同都會產生不同的法律后果。人工智能換臉技術當下的三種應用形式具有的一個共性就是以真人為載體,輸出形象可能變化萬千,根據輸出形式的不同還會造成不同的侵權可能。換臉技術本質上是一種偽造手段,超脫娛樂功能,社會的危害程度不容小覷,濫用風險涉及方方面面,“深度偽造”的算法技術與學習能力加持應用,相輔相成進一步使得對其應用可能產生不同于一般視頻偽造處理技術的風險。從換臉算法的技術來看,依據步驟設計可以把此項技術的安全風險分類成人臉信息提取信息的安全隱患、人臉變換時的法律責任以及生成物應用不當的可能性風險三個方面綜合考慮。
(一)侵犯公民人身權利
1.個人信息泄露與身份偽造
面部識別是換臉的第一步,區別于其他生物識別方式,人臉識別方式具有自然性、不被察覺性和非強制性,大數據時代人臉信息具有的價值也越來越高,被泄露被交易的成本也越來越低,個人信息與數據的泄露可能性也大大提高。由于人臉識別技術與應用的發達,此類信息的易得程度大大提升,據不完整統計,2019年網絡商城中公開售賣的人臉數據達到17萬條(北京青年報)。當下網絡信息的互通,單張的照片中的面部信息背后將隱含著大量的身份信息。即便是合法的相關人臉數據庫開發的公司在收集前欠缺同意協議的簽訂,以“ZAO”的用戶協議為例② ,用戶在使用之前被強制簽訂換臉時同意或確保肖像權利人同意授予服務提供商肖像權的使用以及圖片視頻的使用和改造。換言之,在主動上傳照片的同時就是允許了應用平臺對個人敏感信息的采集,加入了系統的數據庫,由此就面臨著個人身份的公開與身份結構,個人信息被濫用后果的安全風險難以評估。面部識別已然成為身份認證的重要方式,面部表情動圖的偽造相當于身份盜用,通過對人臉識別的偽造,開啟惡性木馬算法的設備攻擊,入侵竊取使用者的個人信息的情況將一發不可收拾。除此之外,當下的規制只停留于事后的救濟措施,只能是刪除與下架,已流失的信息具有不可追回性,隱形危害輻射范圍難以控制。
2.對個人肖像權、名譽權和著作權的侵犯
換臉過程中,擅自進行利用他人的面部圖像或視頻素材時刻面臨著民事侵權責任。首先,在未經許可的情況下,擅自在“換臉”技術中使用含有他人外在真實容貌特征的照片,且以營利為目的,則認定構成肖像權侵權。若存在將他人肖像“換臉”到某些不雅視頻等行為,以致可能造成受害人社會評價降低的,則侵權人還涉嫌侵犯受害者的名譽權。在名譽權的損害認定上,一般采取推定的方法,只要能夠證明是虛假事實,且具有侮辱、誹謗性,并且該等事實可能為公眾所知,就可推導受害人的名譽遭受損害。其次,在未經許可的情況下,擅自在“換臉”技術中使用純虛擬形象,因虛擬形象本身不涉及肖像權、名譽權的問題,則涉嫌侵犯該虛擬形象著作權人的著作權。被訴侵權行為的內容、被告是否實施了被訴侵權行為、被告有無過錯、是否造成損害、被訴侵權行為與損害之間有無因果關系等均是審查范圍。同時,在未經許可的情況下,擅自在“換臉”技術中使用含有他人肖像的角色圖片,此時,既涉嫌侵犯肖像權、名譽權,也涉嫌侵犯著作權人的著作權。
(二)威脅社會倫理價值觀
1.身份結構與商品化
人類的面部與身份特征都被數字化,算法將人的身份拆解,傳統意義上的身份特質分解并與他人的身份特質再組合重構,人工智能再造的虛擬形象以擬制主體身份展現在真實的人類面前,在倫理上必然造成社會的恐慌與倫理重構。人的體貌特征融合后不再具體的某個人典型的身份,跨越了國界種族的限制,失去了辨識度,一方面容易造成社會角色混亂與身份特征混淆。另一方面,自然人的身份被商品化也并非當下社會倫理所能接受,在相關人員不知情情況下,復制、改造他人的面孔,甚至惡意融合不雅內容以謀求金錢利益,構成對他人尊嚴的損害,被解構整合身份特征的人淪為被消費的商品。
2.真偽信賴危機
現階段深度偽造的生成物所依托的技術手段足以達到以假亂真的程度,“眼見為實”的一般真理不再適用,人類難以在日常的社會生活中區分數字面孔與自然人,虛假內容輕易取得信任,真偽之辨難上加難,合理的猜測與過度猜忌的界限更加難以平衡,在新聞領域和司法領域必然造成更大的信賴難題,真偽界限被數字化操縱,娛樂的趣味性與真相的真實性在混淆視聽的人工智能生成物問世后更加模糊。“娛樂至死”的扭曲價值沖擊著當下倫理觀,進而引發一場社會信任危機。
(三)危害社會秩序穩定
1.輻射領域行業危機
模型建設能力已經能夠達到令人信服的程度,換臉技術制造的“假人臉”基本達到了應對人臉識別的要求,當下人臉識別在很多身份認證中已經成為了實名制身份定位的輔助手段,由此輻射的領域涉及方方面面。特別是金融系統中對動態人臉的認證承認度與本人親臨的效力幾乎對等,換臉技術使此認證邏輯徹底崩塌,高于照片認證的活體動態監測邏輯完全失效。顯然,當下社會各界并沒有做好應對措施,在自然人人臉的識別與擬制視頻的對比上,現有應用于社會生活的設備尚未具備這樣的能力,這為包括金融界在內的認證必須行業造成了極大地身份識別困難,公安系統、門禁簽到等社會生活領域也都會受到顛覆性的影響。
2.公共信息污染
公共信息及市場參與者互聯互通的共享信息,公共信息安全在信息時代的重要性不容小覷,人工智能深度學習與偽造技術的快速成長,制造音視頻與圖像為入侵病毒盜用公共安全信息創造了便利條件。一些企業為了在技術新興階段盡早占領先機,奪得市場份額,在技術應用上不能周全顧及安全隱患的規范,導致市場信息混亂,防治界定標準缺乏,現階段司法領域就涉嫌傳播、組織制作不雅視頻的行為給出了明確的懲治,以牟利為目的,制作、復制、出版、販賣、傳播淫穢物品的也將面臨刑事處罰,但除此之外的其他危害社會公共信息領域凈化安全的行為標準因市場準入標準和判定體系的規范化缺失,威脅市場信息共享和競爭的良性循環。
3.政治穩定與國際秩序破壞
宗教信仰、種族國籍、國際政治領域所涉及的問題具有敏感性,更加需要真實報道與平等人權的保護,肆意更換外貌特征與偽造具有特殊意義的視頻在這些領域的濫用,在社會穩定上的破壞力可能直接引發難以控制的后果。利用偽造技術生成政治領袖發表不當言論的音視頻,不符宗教信仰的行為,威脅國際關系的各種材料,將會大幅度增加社會關系復雜性,不利于社會穩定局面與國家長治久安。
換臉技術一經問世在國際范圍內引發了大量專家學者的思考,侵權行為與危害社會秩序的行為相繼發生,各國政府紛紛積極出臺應對措施,處理手段與實踐結果各有特色,政府、應用平臺與技術開發者都被賦予了相應的義務。
(一)加拿大
加拿大在對換臉技術在司法上具有明確立場,且已經確定了侵權責任問題的相關解釋。加拿大魁北克省《魁北克民法典》中規定了此類侵權的范圍和形式界定,有目的地使用他人姓名、圖像、肖像或聲音而非合法的公眾信息的行為均可視為侵犯他人隱私,以隱私侵犯為受人身權利侵犯的受害者提供司法保護,并且可依法獲得相應的救濟賠償。《諾維奇命令》就換臉技術所涉及的調查問題給出了具體的措施,法律與媒體相輔相成,二者聯袂共同針對換臉應用隱藏的違法違規行為進行調查取證,社交平臺作為信息的擁有者與數據存儲平臺必須配合法院,強迫相關平臺調取平臺使用者的真實信息,匿名身份不再是違法的保護傘,追根溯源依法追究侵權者侵權責任。
加拿大的法院命令出臺之迅速值得贊嘆,能夠在問題出現的短時間內及時出臺指導性命令,確定將媒體平臺在規制中的責任與義務,多主體聯動的治理局面構建,為其他國家的應對措施探索提供借鑒,具有啟示意義。
(二)歐盟
當下歐盟各國未出臺關于針對換臉技術的法律法規,尚且還處于破壞性威脅處理的論證階段。但一向對網絡安全相當重視的歐盟國家不可能無動于衷,尤其是涉及個人隱私與權益的部分,以《關于涉及個人資料處理的個人保護以及此類資料自由流動的指令》為核心,形成了較為完整規范的個人信息保護法律體系。并且相當重視對相關個人資料的掌握者的問題更加敏感,在法律中明確了這類群體的責任與義務,資源收集也有一系列規范,在公民的基本人權與第三方信息匯總與收集之間尋求最佳平衡點,否則構成違法行為。行政機關也發揮了較大的作用,歐盟各成員國國內都設有專門的數據信息安全保護部門與工作組,這類機構不僅僅可以為國民提供咨詢服務,還通過法律授權的方式擁有調查與接入法律技術的權力,擁有較強的執行力,以致力于為國民提供直接、專門的救濟渠道。
歐盟國家在網絡信息安全上基本形成了對個人信息保護的完整體系,對平臺的信息使用有一定的規制標準,個人信息泄漏后的救濟措施也很便民可行,為其他國家的網絡問題解決拓展了思路,起到了模范作用,網絡時代對個人信息的保護需要完備系統的法律規范。
(三)美國
美國的應對行為具有技術監管的顯著特征,以行業自律為主,但政府也發揮了一定的規制監管作用。美國已經明確認識到“深度偽造”技術對國家安全造成負面影響的嚴峻形勢,國家情報總監丹·科茨在《全球威脅評估報告》中表示“深度偽造”技術會生成虛假卻令人深信的影音產物,對美國以及其他國家安全都會造成不良威脅。2018 年,美國的技術開發者針對偽造人臉的算法創建了甄別分辨系統,通過構建包容海量的偽造圖像的數據庫訓練更強大的人工智能系統,以對抗現存的深度偽造算法③。2019年美國專就Deepfakes開展了聽證會,有學者建議國會對《通信規范法》中互聯網平臺無須為使用者的行為負責的規定進行修改,此項提議目前尚未落實,在法律法規上美國沒有做出實質性的應對措施,仍然滯留在輿論探討與不斷在眾議院提出議案的層面。但是,就實踐操作上,迫于各界的壓力,換臉技術在美國境內網站上已經被封,討論版被清除,開源代碼也被清除。
由美國的應對可見,用技術對抗技術,用更強大的技術約束技術,在人工智能時代的重要性與必要性,加快技術發展,研發一套能夠鑒別偽造視頻的新技術,人工智能時代需要創新規制手段,技術手段的應用在當今社會的治理中地位日趨重要。
按照當下人工智能技術的發展速度,有效科學的風險防范措施極為重要,我國在換臉技術的可能性危害爆發前,要充分吸取其他國家的經驗,從完善立法、促進防范技術發展、創新規制手段實現共治氛圍入手,積極應對挑戰。
(一)完善現有法律法規,增設人工智能領域立法
新興領域的出現必然帶來立法沖擊,個人信息的公開化在信息時代缺乏限定,侵權的司法界定也具有一定難度,并且人工智能的侵權主體界定復雜多元,當下對人工智能相關領域的人身權利保護缺乏足夠的法律法規規制,人工智能技術的開發者、平臺技術運營商以及技術使用者的責任分配混亂混淆。《中華人民共和國網絡安全法》和《互聯網電子公告服務管理規定》④是在司法技術中運用的主要專門性法律法規,對于互聯網與人工智能時代科技的不斷進步來說,一定程度上面對專業性問題具有立法空白。首先,應該從立法角度界定人工智能領域個人的人身信息范圍,以便明確人身權利具體保護內容。其次,建立人工智能產業鏈追責機制,應該形成覆蓋從算法開發階段到產出生成物的傳播利用階段的安全與責任標準,真正實現環環相扣的制度規范,以免問題發生時的相互推諉與問責主體不清。當下適用的《公共安全人臉識別應用圖像技術要求》作為行政法規,已經在對新問題的立法跟進中做出了第一步突破,除此之外,更具有普適性的生物信息識別等相關問題還需進一步強化立法規制,《中華人民共和國個人信息保護法》正在擬制,其中對此專題應該有些涉及,以便化解技術邏輯的倫理價值矛盾與定義模糊問題,真正實現對個人信息的保護。
(二)技術打假,開發破解系統
兼顧救濟的前提是甄別偽造圖像,通過技術破解深度偽造的產物不僅能夠助力司法調查中的舉證問題,還能解決公眾的真相辨別之疑惑。借鑒美國的對抗甄別系統,用更強大的人工智能對抗人工智能。區塊鏈程度就可以在此領域發揮優勢,區塊有公共密碼和設置私人密碼,密碼采用新函數編寫,幾乎不可破解,著重培養區塊鏈技術人才,利用其不可逆性進行人工智能變臉生成物的辨別。同時,一些技術研發人員提出構建以太坊智能合約技術出口和普適性思路,通過星際文件系統將所有的信息整合起來,復制全部數據,并跟蹤全部數據的使用情況,不斷對比分析原始數據的變換來尋找被偽造的成分。
(三)發揮媒介把關人作用,強化行業自律
根據“守門人”理論⑤,信息傳播同樣也設置了若干的“關卡”,信息傳播能否順利,主要取決于這些關卡之間的連結和彼此恪守的準則。強化平臺責任,對生成物進行篩選與衡量,做好把關,基于用戶個人的合理適度需求偽造的換臉結果可以得到認可,行業自身在“技術正當技術”層面約定自律規范,制定統一明確標準,在視頻的傳播、用戶信息采集、識別技術共同應用和檢索偽造成果資料,甚至是用戶的準入門檻等諸多方面約定行業規范,并增強行業規范的效力,在自我責任認定與履行上強化行業內部的規制,在行業內部建立完善的監督管理機制,用自我約束、自我監督的手段優化人工智能換臉技術的使用方式,搭建起人工智能領域,技術進化至強人工智能時代里行業自律的具體實施準則,凈化互聯網空間。
(四)剛柔并濟,豐富規制手段
平臺責任的承擔現階段以行政處罰為主,一概而論通過硬性的罰款或強制性清理已發生的服務漏洞只能是在事后進行補救,具有特事特辦色彩,不能從根源上形成具有一般性的規制措施。應豐富行政規制的手段,根據具體情況進行,如行政約談的柔性規制方式與硬性的行政處罰相結合。相關行政部門可以與技術開發方或應用服務提供者相關負責人進行定期行政約談,對階段性發生的或可能出現的安全風險加以整改要求限制,要求相關主體嚴格按照國家法律法規以及相關主管部門建議,組織進行內部自行調整,依法依規收集使用用戶個人信息,規范協議條款,強化網絡數據和用戶個人信息安全保護。更新條款與用戶協議,刪除具有漏洞的技術點或使用規則。剛柔并行,要求平臺方與使用者在用戶信息的收集與處理、素材庫的發布與使用標準、生成圖像視頻的導出等諸多方面,做出符合法律規范于一般社會倫理道德的約定規范。
換臉技術的應用不可避免的對人類社會生活呈現出了負面影響,不可從優劣角度直接定義深度偽造的換臉技術作為人工智能領域的衍生品的屬性,正確合法的應用技術尤為關鍵。應該以人工智能技術為工具,充分發揮政府、公眾、平臺的各自優勢,明確義務與責任,形成一體化的治理體系,降低換臉技術為社會造成的安全隱患,必須完善共治以著力破解真偽信賴危機,使換臉技術的應用與演化在道德倫理與法律法規的控制內,由此發揮人工智能時代的技術優勢。
注釋:
①“深度偽造”的過程就是將原始的圖片和視頻素材等數據遞給換臉技術,此后僅僅依靠算法的自身運算,在大量的訓練與演算運行基礎上自動完成換臉操作。
② ZAO的用戶協議顯示:用戶在使用“ZAO”的時候,如果把臉換成自己或其他人的臉,意味著同意或確保肖像權利人同意授予“ZAO”及其關聯公司全球范圍內完全免費、不可撤銷、永久、可轉授權和可再許可的權利,包括但不限于:人臉照片、圖片、視頻資料等肖像資料中所含的您或肖像權利人的肖像權,以及利用技術對您或肖像權利人的肖像進行形式改動。
③美國國防高級研究計劃局則發起了一項重大的媒體取證研究計劃,它借助Media?Forensics 技術來自動檢測換臉操作,提供如何執行這些操作的詳細信息,來確定視頻或圖像是否進行了深度偽造。
④《互聯網電子公告服務管理規定》第 12 條:“電子公告服務提供者應當對上網用戶的個人信息保密,未經上網用戶同意不得向他人泄露,但法律另有規定的除外。”《互聯網電子郵件服務管理辦法》第 9 條:“互聯網電子郵件服務提供者對用戶的個人注冊信息和互聯網電子郵件地址,負有保密的義務。互聯網電子郵件服務提供者及其工作人員不得非法使用用戶的個人注冊信息資料和互聯網電子郵件地址;未經用戶同意,不得泄露用戶的個人注冊信息和互聯網電子郵件地址,但法律、行政法規另有規定的除外。”
⑤守門人是一種理論的代稱,它是盧因在1947年提出來的,信息總是沿著包含有門區的某些渠道流動,在那里,或是根據公正無私的規定,或是根據'守門人'的個人意見,對信息或是商品是否被允許進入渠道或是繼續在渠道里流動作出決定。
參考文獻:
[1]陳盼.歐盟網絡隱私權保護模式研究——兼述歐盟對Facebook面部識別技術的調查[J].研究生法學,2013,28(4):135-143.
[2]王祿生.論“深度偽造”智能技術的一體化規制[J].東方法學,2019(6):58-68.
[3]王飛龍.人臉識別技術及其安全性綜述[J].信息記錄材料,2018,19(12):229-230.
[4]黨家玉.人工智能的倫理與法律風險問題研究[J].信息安全研究,2017,3(12):1080- 1090.