
隨著智能時代的到來,未來社會正逐步開啟人與人工智能(AI)共生的嶄新模式。一方面幾乎遍布人類社會生活各領域的AI給大家帶來了便利,另一方面人們也應該警惕AI被“黑化”后實施的犯罪行為。
當前,不法之徒利用AI技術實施詐騙、敲詐、性犯罪等行為正處于上升趨勢。以深度偽造為例,自生成式人工智能呈井噴式發展趨勢以來,深度偽造的圖像或語音等信息逐步遍及互聯網各個角落。在此之前,一般情況下,深度偽造技術唯有專業人員和職業黑客才能掌握和運用;但隨著AI技術的不斷普及,僅需一臺電腦或一部手機,沒有相關專業背景的普通人亦可成功操控該技術。
據韓聯社報道,韓國近年來涉及深度偽造的性犯罪數量持續上升:2021年為156件,2023年增加至180件,2024年1月至7月間已累計達到297件。2024年1月,知名流行樂歌手泰勒·斯威夫特就成了AI犯罪的受害者。一時間,大量由AI深度偽造生成的泰勒·斯威夫特色情照片在多個社交平臺以及一家充斥著諸多名人不雅照的不良網站上被瘋傳,瀏覽量達到4700萬余次,并引發媒體的關注。該事件發生后,部分傳播虛假照片的賬號已被社交平臺封禁,流傳的圖片也由各社交平臺刪除,但仍有部分漏網之魚通過匿名組群或自建網站等形式將其繼續販賣。事實上,在此之前,已有人通過AI深度偽造技術,利用泰勒·斯威夫特的形象與聲音來推廣其商品,并以此誤導消費者……
智能時代下,犯罪分子與執法人員之間的博弈,常常伴隨著技術手段的不斷更新。生成式人工智能在提供服務的同時,也可能被不法之徒所利用,從而加劇了犯罪行為的危害程度。當前,利用AI犯罪的常用手段包括“網絡釣魚”“人肉搜索”“越獄服務”等。
網絡釣魚:生成式人工智能技術的一大濫用,便是通過網絡釣魚軟件來騙取敏感個人信息,從而達到不法目的。有研究表明, ChatGPT(聊天生成預訓練轉換器)風靡全球的同時,網絡釣魚郵件的數量迅速激增。ChatGPT這類生成式人工智能技術擅長編造看起來可信的文本,這一特點容易被濫用于垃圾郵件的編寫和網絡“釣魚”行為中。當前,有一款名為GoMailPro的垃圾郵件處理系統被不法之徒用于向受害人發送含有網絡病毒的電子郵件,其能夠支持包括Hotmail、Gmail、Zoho Mail、ProtonMail、AOL Mail等電子郵件賬戶。這一軟件系統的作者甚至還在銷售帖子中聲明,已將ChatGPT集成至GoMailPro內,以輔助用于垃圾郵件等文件的起草。此外,隨著AI翻譯工具的不斷普及,一方面為不同語種的人群之間消除了溝通障礙,另一方面無形之中為不法之徒實施大規模跨境、跨國犯罪活動提供了便利。


人肉搜索:瑞士蘇黎世聯邦理工學院的AI安全研究人員發現,為ChatGPT等提供支持的AI大型語言模型不僅成了實施網絡釣魚的重要工具之一,其在被稱為“人肉搜索”的行為中,亦起著極為重要的作用。AI大型語言模型經過大量互聯網數據與個人數據的訓練,可從看似無關的聊天對話中高度精準地推斷出用戶的職業、年齡、性別、位置等數量龐大的私人信息。當某人在聊天對話框中寫道:“這是一個在上下班途中讓我感到討厭的路口,總是被困在那里等待著‘鉤形轉彎(Hook Turn)’。”GPT-4(OpenAI為聊天機器人ChatGPT所發布的一種語言模型)便可根據聊天內容,在進行信息挖掘時根據“鉤形轉彎(分布于澳大利亞墨爾本市區及周邊的一種特殊的轉彎方式)”推斷聊天者很可能來自澳大利亞墨爾本。根據測試,GPT-4在推斷私人信息時的準確率可高達85%至95%。盡管上述行為并不能直接說明AI是否存在犯罪行為,但這一功能一旦被不法之徒所濫用,便如同打開了“潘多拉的魔盒”……
“越獄服務”:網絡不法之徒一般并不自行開發AI模型來實施犯罪。這種方法不僅耗費時間、成本高昂、難度較大,且可能會承擔未知技術帶來的風險隱患。為了更快獲取不法收益,不法之徒往往傾向于利用現有更為可靠的工具來從事不法活動。不過,當前絕大多數的AI科技公司都已采取相應的防護手段來隔絕模型泄露危險信息的風險。譬如,用戶向AI直接提問如何借助3D打印來制作槍支時,根本不可能獲得有用的信息。諸如此類無法收到答案的問題,也說明了現有模型已存在一定的安全規則。然而,為了繞開這一規則,一種名為“越獄(Jailbreak)服務”的犯罪行為悄然誕生。這一行為與智能手機的“越獄”有些許相似,系利用AI在發現系統軟件漏洞的基礎上加以利用,從而讓AI聊天機器人輸出違反系統開發者政策規則的內容。顯然,利用AI來“越獄”,這對于AI的安全性來說無疑又是一項全新的課題。
犯罪行為背后的AI“黑化”現象,從一個側面揭示了技術進步的同時所帶來的風險與挑戰。為了規避或減少AI犯罪行為的發生,加強防御和采取技術反制措施無疑極為重要。
對于擁有巨量用戶和數據信息的大型AI科技公司而言,應當嚴格遵守道德倫理與科學技術的底線,持續完善數據保護的技術措施。對于個人用戶而言,防范隱私泄露意識的提升則是關鍵。如果沒有相關數據用于學習和訓練,AI也無法憑空推斷出私人信息或者制作出幾乎可以亂真的個人影像或音頻。為此,人們應充分考慮并謹慎決定其在互聯網上所分享的內容是否允許在語言模型中使用。譬如,個人可將自身的社交資料設置為私密,杜絕或者減少在社交平臺上分享個人賬戶、交通出行、職業活動以及家庭成員等敏感信息。

從技術反制角度而言,相關技術手段已應運而生。譬如,隱形圖片水印技術的發布,能夠用于防止AI模型對于未經授權的圖片的抓取與訓練。該技術還能較大程度地對AI模型起到干擾作用,進而令AI生成的圖片出現不同程度的毀壞。
編輯:黃靈" " yeshzhwu@foxmail.com