
本書從闡釋元宇宙的產生、發展的人文化意義與想象力價值入手,展開對元宇宙的憧憬,并進行了從文學描繪到學術討論、從技術應用到價值剖析、從機遇期待到風險預估的全方位解讀,希望與廣大讀者、行業同人、學者專家形成對元宇宙的感性化共鳴與理性化共識。
從深度合成看元宇宙的“創世”風險
如果說你我生活中無處不在的人臉識別是通過偵測人臉特征信息實現身份識別,那么深度合成則是基于包括人臉、人體在內的對象所具備的特征合成虛擬形象,并盡可能模擬所參照對象特征的真實性。從某種意義上來說,深度合成是構建數字孿生世界的重要方式。
作為AI合成內容(AI-Generated Media)技術的一種,深度合成最早主要被應用于電影制作中的數字特效,卻由于2017年有人利用該技術將美國成人電影中女主角的臉換成好萊塢知名女星的臉而受到公眾關注。也正因為此,該技術被推至輿論的風口浪尖,并受到多國政府網絡監管機構的監控與限制,但實際上AI換臉只是深度合成應用中的一小部分,深度合成包括人臉再現、人臉生成、語音合成等技術,且未來有望向全身合成、數字虛擬人的方向發展。
其中,最早進入公眾視野的“AI換臉”也就是人臉替換。作為目前應用較多的深度合成形式,它主要是將某源人物的臉部圖像覆蓋到目標任務的臉上,如ZAO、FakeApp等可實現最基礎的人臉深度合成,但不足以實現高精度深度合成信息。
“人臉再現”則主要涉及對目標人物的臉部表情驅動,包括目標人臉的嘴部、眉毛、眼睛和頭部的傾斜,以實現對目標對象臉部表情的進一步操控。不同于人臉替換,人臉再現不是為了替換目標身份,而是改變某個真實存在的人的臉部表情,從而模擬并讓其說自己從未說過的話。
“人臉合成”是用來創造媲美真實人臉的全新人臉虛擬圖像,甚至可以代替一些真實肖像用于廣告宣傳、用戶頭像等。
“語音合成”是創建特定的聲音模型,將文本信息轉換成接近自然語音和節奏的口吻進行敘述。
除此之外,當前深度合成技術已經不僅僅局限于對聲音、表情、人臉等特定生物信息的合成,而開始向全身合成與三維合成的方向發展,整合三維人臉和體態重建,結合文本、語音、口型上的自然模擬與神經網絡渲染等技術,利用生成對抗網絡實現對人體動作的模擬,這也是未來數字虛擬人技術的基礎。
盡管深度合成在最近幾年的發展有目共睹,并在影視特效和數字孿生等前瞻應用場景中大展拳腳,同時也成為了元宇宙的關鍵生產基礎。但由深度合成引發的一系列生物信息偽造的應用風險正在逐漸顯現,例如使用AI換臉制作色情視頻,通過合成的虛假政客視頻傳播有害信息等,引發了業界對利用深度合成技術作惡的擔憂。尤其是利用這些假冒數字媒體內容進行欺詐、假冒身份的非法活動,令信息安全與網絡攻防面臨新挑戰。
而深度合成背后的產業鏈所蘊含的諸多問題,包括隱私數據濫用、安全攻防等方面的系統性風險也不容忽視,例如基于深度合成技術,借人臉識別原理逆向部署的一些極具針對性的反人臉識別措施極大地動搖了人臉識別本身的安全性。深度合成的數據存儲、分發、應用、銷毀以及利用生物特征信息制作商業化虛擬角色背后所蘊含的法律合規風險等,同樣需要以更具前瞻性的眼光看待。
1.系統性風險研究
在信息化、智能化、數字化浪潮下快速推進的深度合成技術,其算法模型的迭代離不開大規模基礎數據集的保障。與傳統機器學習所使用的文本化數據不同,深度合成技術基于大量圖像數據,而數據作為應用最為廣泛的公民身份標識,直接決定公民在數字治理環境下參與公共活動的權利,一旦該數據被不法分子篡改或利用,不僅會侵犯公民肖像權、隱私權等權利,還會干預甚至剝奪公民參與社會公共活動的權利,甚至直接篡改一個人的身份與社會角色,其發生泄露、篡改的風險與造成的影響和后果非常顯著。這對承載深度合成技術的隱私保護、網絡與數據加密、安全攻防、標準規范建立等提出了相當高的技術與道德要求,加之基于深度合成的人臉偽造不斷挑戰人臉識別的安全認證機制,未來人臉識別的系統性風險不容忽視。
人臉數據作為每個人獨一無二的身份標識,其使用權,也就是肖像權,理應歸自然人本體。作為人格權的一部分,肖像權包括公民有權擁有自己的肖像,擁有對肖像的制作專有權和使用專有權,公民有權禁止他人非法使用自己的肖像權或對肖像權進行損害,或以營利為目的且未經肖像權人同意擅自使用其專有肖像。但以ZAO為代表的人臉識別結合深度合成的一系列應用,其在用戶協議中對用戶合法權益的侵害不容忽視,如ZAO用戶協議第1版第六條規定“其享有全球范圍內完全免費、不可撤銷、永久、可轉授權和可再許可對用戶內容進行修改與編輯,以及對修改前后的用戶內容進行信息網絡傳播以及《著作權法》規定的著作權人享有的全部著作財產權利及鄰接權利”,這種借助技術便利過度攫取用戶授權與隱私數據的行為,進一步引發了公眾對于ZAO以及人臉識別應用于安防、金融、身份識別與權限管理等敏感領域的安全性和可靠性的質疑。以基于人臉數據的深度合成為例,這種未經他人允許合成某個人的肖像并用于商業目的的行為,可對現有公民權益保護與司法保障機制帶來極大挑戰,其侵權界定模糊與侵權影響廣泛將直接威脅公民合法權益。
2.加劇社會不平等現象
深度合成技術產業鏈上集中了芯片、傳感器、算法、終端、行業應用、解決方案、安全加密、網絡傳輸等諸多相關方,技術濫用與不正當競爭的現象難以完全避免。一旦其中任何一方采取針對用戶或者其他相關參與者的歧視性策略或不正當競爭舉措,偏見與不平等最終會傳遞至終端消費者并損害其應當享有的公平權利;加之深度合成技術的硬件、算法、數據集等都具有較高技術壁壘,不公平一旦形成將難以被打破;最后,由于機器學習的黑箱特性,模型所得結果往往具有一定不可解釋性,算法透明度存在較大爭議,可能導致基于深度合成技術的用戶身份、行為分析結果與用戶性別、膚色、年齡之間的相關性無法得到科學有效的闡述,這一點可能被別有用心的人利用,從而進一步加劇性別與種族歧視現象。
尹巧蕊
中央司法警官學院法學院副教授,二級警督,中國法學會、河北省法學會立法學研究會理事,中央司法警官學院“習近平法治思想研究中心”執行副主任。專長于法治政府建設、“互聯網+社會治理法治化”、數據要素及其權益治理、智慧司法創新、新媒體法制宣傳等領域的研究與教學,承擔相關課題并發表論文若干篇。
劉志毅
數字經濟學家,主要研究領域包括數字經濟學、人工智能倫理與治理、計算法學等。現為商湯科技智能產業研究院主任,同濟大學人工智能與區塊鏈實驗室(AIBI)研究員,上海市人工智能技術協會專家委員會委員,中英教育合作交流特邀專家,人民郵電教育出版學術委員會專家委員。