李穎

點開直播間乍一看,賣貨的竟是當紅女星。再定睛一看,“明星”其實是使用人工智能(AI)實時換臉技術的普通主播……近期,“AI換臉”的應用范圍越來越廣,但存在濫用之嫌,甚至有人利用AI換臉實施犯罪,“AI詐騙正在全國爆發”沖上微博熱搜。
揭秘“換臉”騙局
“雙刃劍”效應明顯
張嘴、搖頭,攝像頭捕捉到人的動作后,屏幕上原本靜態的人像可以動起來,動作幅度和真人一致,還能眨眼和露齒微笑,仿真度頗高,幾分鐘內就能生成一段視頻,臉還能被任意替換。這就是“AI換臉”技術。
據了解,“AI換臉”背后采用的是深度合成技術,利用深度學習、虛擬現實等生成合成類算法,制作圖像、音頻、視頻等信息,目前在社交、影視、廣告、醫療等諸多領域不斷深化應用,有較大的技術價值和商用潛力,不過也存在著一定的安全隱患,“雙刃劍”效應明顯。
全聯并購公會信用管理委員會專家安光勇對表示,目前AI換臉技術主要通過深度學習和計算機視覺技術實現。它使用了深度神經網絡來分析和識別視頻中的人臉,并將一個人的臉部特征映射到另一個人的臉上。
在微信視頻中,犯罪分子可能會通過發送特制的視頻或使用特定的換臉應用程序,將自己的臉替換為受害者的臉,以獲取對方的信任并實施詐騙行為。
AI技術存在濫用風險
為規范人工智能發展,去年12月,《互聯網信息服務深度合成管理規定》正式發布,明確了合成數據和技術管理規范。其中提到:深度合成服務提供者對使用其服務生成或編輯的信息內容,應當添加不影響使用的標識。提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能的服務的,應當進行顯著標識,避免公眾混淆或者誤認。
近期,也有平臺和企業發布了“關于人工智能生成內容的平臺規范暨行業倡議”,明確禁止利用生成式人工智能技術創作、發布侵權內容,包括但不限于肖像權、知識產權等,一經發現,平臺將嚴格處罰。
對于個人而言,除了在形形色色的“明星臉”中保持清醒,避免陷入虛假宣傳,更重要的是面對花樣翻新的AI詐騙,必須保持防范意識。
中國質量萬里行提醒,涉及資金轉賬時,公眾要提高安全意識,通過見面、電話等多種方式核驗對方身份;可將轉賬到賬時間設定為“24小時到賬”,以預留處理時間;針對支付軟件以及網銀軟件,要使用多種登錄及轉賬驗證方式。
針對花樣翻新的智能AI詐騙,要提高防范意識,謹慎使用各類“AI換臉”“AI變聲”軟件;加強個人信息保護意識,避免注冊不需要的賬號、填寫不必要的個人信息,以防個人信息泄露;對不斷更新的網絡技術和詐騙方式,堅持不輕信、不透露、不點擊、不轉賬。
如不慎被騙或遇可疑情形,請注意保護證據,并立即撥打96110報警。