Holly

你可能已經(jīng)對一些社交網(wǎng)絡上常見的騙局見怪不怪了,無論是早些年泛濫的短信詐騙,抑或是電話里冒充公檢法工作人員的詐騙等。隨著騙術的不斷曝光,受騙的人逐漸減少。但騙子們也沒閑著,既然AI(人工智能)技術已經(jīng)在不同領域蓬勃發(fā)展,何不搭上這趟順風車,對行騙方式進行一場“自動化改造”呢?
半年前,廣東警方搗毀了一個利用交友App進行詐騙的“公司”。該團伙制作了多款交友軟件,并設計出AI機器人假裝與目標用戶“談戀愛”騙取信任,再引誘其墜入事先安排好的“消費陷阱”。聽起來是不是有點兒悲涼?過去,無論如何,騙你的還是真人;現(xiàn)在,聊了十天半個月,你臆想中的“白月光”不過是個AI罷了。
類似的騙局不只出現(xiàn)在交友App中,據(jù)人民網(wǎng)報道,微信語音成了又一個被AI詐騙入侵的領域。有位姓趙的女士收到父親的語音留言,稱自己買菜沒帶錢,讓她轉200元過去。長了個心眼兒的趙女士問了一句:“爸,是你嗎?”在收到對方肯定的語音答復后便將錢轉了過去。誰料,雖然語音里的確是父親的聲音,但那段語音并不是來自父親本人……
如今的技術已經(jīng)發(fā)展到完全可以通過算法來生成人的全套語音,包括生氣、開心時的語氣都能模仿得惟妙惟肖,讓人難辨真假。
其實,早在2016年,谷歌的人工智能實驗室就開發(fā)出了一種聲音合成技術,并于2017年成立了Lyrebird公司。在公司的網(wǎng)站上,你能聽到官方合成版的奧巴馬和特朗普的聲音,幾乎和真的沒有什么分別。試想一下,這項技術如果被詐騙團伙掌握,他們完全可以通過給你撥打騷擾電話,提取你的聲音信息進行合成,從而制作出屬于你的音頻信息,再利用這一信息冒充你,對你的親朋好友實施詐騙。
答案是:臉可能也靠不住。
如今,AI已經(jīng)發(fā)展到可以給人換臉的程度了。別誤會,不是要給你整容,但它的確掌握了某種“移花接木”的能力,比如把A的臉換到B的身體上。
電影《神奇女俠》的扮演者蓋爾·加朵的臉曾被一名網(wǎng)友替換到了某電影的女主角身上,第一眼看上去竟毫無違和感,似乎這部電影本來就是她出演的。同樣遭此惡搞的還有比她更知名的女星,如安妮·海瑟薇、艾瑪·沃特森等。
當然了,這一技術的初衷并不是傳播這些短片,而是為了完善某些影視作品,例如讓保羅·沃克回歸《速度與激情7》,讓斯坦·李老爺子繼續(xù)出現(xiàn)在漫威系列電影中。但這一技術顯然在朝著失控的方向發(fā)展。
這位制作女星換臉電影的程序員,不僅免費發(fā)布了他所謂的“成果”,還將制作視頻的教程“無私”地分享了出來。教程公布沒多久,就被改造成一款人人都能使用的App,開發(fā)者表示,這是一款“普通人可以突破技術壁壘去使用人工智能技術”的程序。
被惡搞的不僅是上述知名女星,連奧巴馬和特朗普這些國家元首級的人物都未能幸免。馬丁·路德·金和奧巴馬實現(xiàn)了某種跨時空互換,尼古拉斯·凱奇的臉被換成了特朗普的……
之后,雖然很多平臺都對這項技術頒布了禁令,但未能阻止此類視頻的制作和傳播。就像是打開了潘多拉魔盒一樣,人們在短暫的惡搞發(fā)笑之后陷入某種恐慌之中。令人擔憂的是,起初遭殃的只是一些明星、政要,但如今,這一趨勢正一點點向普通人蔓延。
印度有一個名叫Rana Ayyub的記者,因為揭露了政府官員的黑幕,被不法分子利用這項技術將她的臉和其他人互換,并制作成了非法短視頻在網(wǎng)上傳播。令人心寒的是,不少人信以為真,甚至連她的家人也陷入困惑。在巨大的壓力下,她一度抑郁,甚至住進醫(yī)院。無獨有偶,美國一位家庭主婦在得知自己的臉被換到一名聲譽不佳的女演員身上后,每天活在恐懼之中。
以上事件無不指向一個殘酷的現(xiàn)實:在文字、語音、圖像可以被任意篡改的今天,我們連視頻的真實性都一并失去了。試想一下,如果這項技術繼續(xù)不受控制地發(fā)展下去,總有一天,你會連自己最親近的人都無法信任。現(xiàn)在,家人問你借錢,你尚可通過視頻通話的方式確認他們的真實身份,那倘若未來騙子將他們的臉合成出來,你要如何辨別?甚至一些原先要求提供照片的地方,比如貸款,都可以通過獲取你的照片來冒充你,你卻有口無憑。
我如何知道“你就是你”?我又該如何證明“我不是我”?這個看似荒誕實則十分日常的問題,在人類面對各種以假亂真的AI時變得分外緊迫。試想一下,某一天,當你打開社交軟件,需要時刻提防周圍熟識的人是不是假的時,光想一想,都不禁悲從中來。
AI技術的不當運用可能引發(fā)的不只是詐騙、誣陷、報復、勒索那么簡單,它所掀起的信任危機,將會把每一個個體都卷入其中。
過去對電信詐騙不堪其擾的人,未來在AI詐騙面前可能無處可逃。更可怕的地方在于,一旦AI技術被不當利用且與社交媒體結合,還可能造成假新聞泛濫。如果有不法分子控制了新聞機構的網(wǎng)站或賬戶,發(fā)布一些不實消息,則可能造成更大范圍的恐慌。
這可能正是法國哲學家鮑德里亞形容的后現(xiàn)代社會的典型特征之一:曾經(jīng)被當作“原初”的“真”已經(jīng)失去,人類社會進入復制時代,一切都在復制和再生產,一切都是“虛假”的,而“虛假”的已經(jīng)變成真的。
技術的問題,可能最終還得通過技術來攻克。為了規(guī)避AI技術存在的潛在風險,歐美的國家安全機構已經(jīng)致力研發(fā)一些“反AI”工具,力圖以AI攻克AI。美國國防部高級研究計劃局已找到一些突破口,研究人員發(fā)現(xiàn),通過觀察眼睛的狀態(tài),比如是否眨眼,可以檢測出哪張是AI合成的臉,哪張是真實的臉。
雖然如此,AI和反AI的角力大概會一直持續(xù)下去,各位研究人員應當銘記:技術本身無罪,但運用技術的人應該善良。