換臉人工智能(AI)應用Deep Fakes剛出現(xiàn)時曾引發(fā)一陣恐慌:當視頻都能輕易造假,人們該如何辨別真?zhèn)巍W畲蟮膿鷳n或許要數(shù)政要演講造假的擔憂。
為了驗證這種擔憂是否合理,麻省理工學院媒體實驗室從2020年4月至2022年1月間在其網(wǎng)站上開展了一項試驗。研究人員向5727人展示了16個真實的政治演講片段和16個被Deep Fakes替換過的演講片段。受試者被告知其中一半的內容是假的,并被詢問他們認為其中哪些片段是偽造的。
最終的結果顯示,僅閱讀文本時,受訪者辨認出謊言的比例是57%,只比隨機猜測好一點。當給出帶字幕的視頻時,受訪者的猜測準確率上升到66%。當能夠同時收聽收看視頻和音頻后,受訪者辨認謊言的準確率達到了82%。比起閱讀文字,人們在觀看視頻時更能辨別出謊言。
研究者表示,受試者的判斷基礎更多依賴于內容表達的方式而非內容本身。比如音頻、視頻中除了內容本身,還能展現(xiàn)出說話人各種微小表情、動作、語音模式等方面的細微差異,這有助于人們在一定程度上識別Deep Fakes制造出的不真實感。
但這種樂觀可能僅針對Deep Fakes。研究者稱,“真正危險的偽造視頻,可能并不是普通算法隨便生成的‘換臉’視頻,而是經(jīng)過精加工、極度以假亂真的單個視頻。”