人工智能(AI )浪潮正以前所未有的速度推進。這是一個AI 新紀元,在AI 的幫助下,科研的邊界被不斷拓寬,解決復雜問題的速度越來越快,但必須警惕:AI 也能極大提高犯罪分子的“生產(chǎn)力”。
美國加州安全公司“趨勢科技”研究員文森佐·錢卡利尼表示,生成式AI 提供了一個新的、強大的工具包,使惡意行為者能夠比以往更高效、更國際化地開展活動。人們對此必須多加注意,以下就是目前惡意行為者最常用的五種方式。
瑞士蘇黎世聯(lián)邦理工學院的AI 安全研究員米斯拉夫·巴盧諾維奇表示,目前生成式AI 最大的濫用就是“網(wǎng)絡釣魚”,其試圖誘騙人們泄露敏感信息,再用于惡意目的。研究發(fā)現(xiàn),在ChatGPT(聊天機器人模型)興起的同時,也伴隨著網(wǎng)絡釣魚電子郵件數(shù)量大幅增加。
錢卡利尼表示,GoMail Pro等垃圾郵件生成服務已集成ChatGPT,這使得犯罪用戶能翻譯或改進發(fā)送給受害者的消息。OpenAI(美國人工智能研究公司)的政策限制人們用其產(chǎn)品進行非法活動,但在實踐中其實很難監(jiān)管。
OpenAI方面表示,他們將人工審核和自動化系統(tǒng)相結(jié)合,以識別和防止其模型被濫用,如果用戶違反公司政策,則會實施警告、暫停、永久關(guān)閉等措施。
還有一點值得注意,由于AI 翻譯工具的進步,世界各地犯罪集團的溝通變得更容易,他們可能開展大規(guī)模跨國行動,或在本國對其他國家用戶采取惡意行動。
生成式AI 使深度偽造的開發(fā)發(fā)生質(zhì)變。當前,技術(shù)合成的圖像或音視頻,看起來或聽起來比以往任何時候都更加真實,這一點犯罪分子也意識到了。
錢卡利尼團隊發(fā)現(xiàn),已經(jīng)有用戶在電報(Telegram)等平臺上展示他們的“深度偽造組合”,并以每張圖片100美元或每分鐘視頻5000美元的價格出售服務。
相較圖片,深度偽造視頻制作起來更復雜,而且更容易露出破綻。深度偽造音頻的制作成本低廉,只需幾秒鐘的某人的聲音(例如從社交媒體獲取),即可生成令人信服的內(nèi)容。
這樣的詐騙案例并不鮮見,人們接到親人打來的求救電話,稱自己被綁架并要求交付贖金,結(jié)果卻發(fā)現(xiàn),打電話的人是個使用深度偽造語音的騙子。
錢卡利尼建議,親人之間應商定一些秘密安全詞并定期更換,這有助于緊急情況下確認電話另一端的人的身份。
犯罪分子濫用AI 技術(shù)的另一種方式是繞過驗證系統(tǒng)。
一些銀行和加密貨幣交易需驗證其客戶是否本人。他們會要求新用戶在手機相機前持身份證拍攝一張自己的照片,但犯罪分子已經(jīng)開始在電報等平臺上銷售能繞過這一要求的應用程序。
他們提供的是偽造或被盜的身份證件,再將深度偽造的圖像強加在真人臉上,以欺騙手機相機驗證程序,該服務的價格甚至低至700美元。
如果有人向AI 詢問如何制造炸彈,那他不會得到任何有用的答復。這是因為大多4829e9feeac541f19dadd9477ec76fc8數(shù)AI 公司已采取各種保護措施來防止模型泄露有害或危險信息。
現(xiàn)在,網(wǎng)絡犯罪分子不再構(gòu)建自己的AI 模型,這種方式既昂貴、耗時又困難。一種新犯罪趨勢開始出現(xiàn)——“越獄”式服務。
比如上面得不到答案的問題,這顯示了模型都有關(guān)于如何使用它們的規(guī)則。但“越獄”允許用戶操縱AI 來生成違反這些政策的輸出。例如,為勒索軟件編寫代碼,或生成可在詐騙電子郵件中使用的文本。
為了對抗這些不斷增長的風險,OpenAI和谷歌等公司需時時堵塞可能導致緊急危害的安全漏洞。
巴盧諾維奇表示,AI 語言模型不僅是網(wǎng)絡釣魚的“完美工具”,對“人肉搜索”(在線泄露某人的私人身份信息)也是如此。這是因為AI語言模型經(jīng)過大量互聯(lián)網(wǎng)數(shù)據(jù)(包括個人數(shù)據(jù))的訓練,可推斷出某人位于何處。
巴盧諾維奇團隊2023年底發(fā)現(xiàn),大型語言模型,如GPT-4 、Llama2 和Claude,已能夠僅從與聊天機器人的日常對話中推斷出人們的種族、位置和職業(yè)等敏感信息。理論上,任何能訪問這些模型的人,都能以這種方式使用它們。
這些服務的存在,并不直接表明犯罪活動的存在,但我們必須看到可供惡意行為者利用的新功能。而防止這些事情發(fā)生的唯一方法就是加強防御。
巴盧諾維奇稱,對AI公司來說,應完善數(shù)據(jù)保護;對個人來說,提高防范意識是關(guān)鍵——人們應三思而后行,考慮他們在網(wǎng)上分享的內(nèi)容,并謹慎決定,自己是否愿意在語言模型中使用他們的個人信息。
(摘自《科技日報》)