李建偉 張書晉

ChatGPT可能被用于偽造虛假信息、攻擊社交系統
毫無疑問,ChatGPT作為一項互聯網領域的重大創新,開啟了人工智能的一個新階段。在世界百年未有之大變局和中華民族偉大復興戰略全局下,如何應對ChatGPT對于我國數據安全、科技安全、文化安全、經濟安全乃至意識形態安全產生的影響,以維護和保障相關領域我國的主權、安全和發展利益,是一項需要引起高度重視的新課題。
一是數據安全風險。ChatGPT作為自然語言處理模型,需要大量的數據資源作為其訓練基礎,同時在后續的交互中依然需要持續輸入數據才能保持系統的更新與數據的準確性。因此,ChatGPT的運作基礎在于全球海量數據,匯集如此之多的數據交由可自主學習的人工智能系統匯總、分析與處理,這其中存在的數據安全風險不言而喻。
ChatGPT因其具有的自然語言生成與理解能力,可能被用于偽造虛假信息、攻擊社交系統方面,同時還可能被攻擊者利用來生成相應的攻擊代碼、惡意軟件代碼、垃圾郵件等,黑客利用AI發起數據攻擊的可能性大幅提升。此外,用戶在使用ChatGPT的輸入端口提出問題時,該問題首先會被傳輸到美國的OpenAI公司,隨后ChatGPT才會給出相應的回答,因而在所提問題中有關國家安全、經濟運行、社會穩定、公共健康與安全的重要數據會被傳輸到境外公司,由此造成國家安全風險。同時,ChatGPT數據庫中存在著大量未經用戶知情同意的個人隱私數據,容易對用戶的個人信息、隱私安全造成威脅。
因此,使用ChatGPT蘊含著高度的數據安全風險。當ChatGPT被有關國家、機構惡意收集敏感信息與傳播不安全內容時,對我國國家安全將構成影響。
二是科技安全風險。眾所周知,科技革命會帶來進一步的產業革命。ChatGPT所用的“大型語言模型”訓練將在未來形成產業鏈的重塑,全球海量數據輸入ChatGPT中,直接導致各類商業組織、個人用戶對其依賴性越來越強,這好比芯片、操作系統是ICT(信息通信技術)生態的底層核心,如此重要的“卡脖子”技術對國家安全的重要性不言自明。盡管各國都在尋求利用AI模型獲得經濟、軍事和國家安全優勢,然而目前相關內容的主要參與者還是美國公司。當ChatGPT促進網絡攻防技術升維,AI對抗、AI網絡攻擊日后將會成為主流,來自科技安全領域的挑戰刻不容緩,已成為擺在我們面前亟須解決的問題。
三是文化安全風險。如前文所述,ChatGPT是通過開放數據與用戶不斷輸入數據來強化學習能力、完善數據系統的,這就意味著ChatGPT很容易面臨輸入信息錯誤而得出錯誤答案的情況,也就是“文化污染”問題。有網友用政治傾向(Political Compass測試題:涉及經濟、社會、文化、政治、宗教、情感等領域六十多道題,測試者需要對每道題進行回復,在“強烈贊同”“贊同”“不贊同”“強烈不贊同”四個選項中選擇一項,通過疊加得分,測出自己的政治立場和價值取向)對ChatGPT展開提問,ChatGPT表現出了非中立的文化傾向。由此可見,ChatGPT在文化領域也并非完全中立,當ChatGPT以自身文化立場對用戶的提問作出回答時,可能造成互聯網大范圍的知識體系及意識攻擊隱患。而意識攻擊具有深度隱藏、潛移默化的特點,一旦被別有用心的機構利用,將會對有關國家的文化安全造成潛移默化的影響。
四是經濟安全風險。ChatGPT從技術原理來看,屬于AIGC(人工智能生成內容)的新型商業化應用方式,是一種基于大型預訓練模型等人工智能技術,可通過已有數據尋找規律,并通過適當的泛化能力生成相關內容的AI賦能技術。除目前以ChatGPT為代表的文本生成式,還包括代碼、圖像、音視頻等類別,為工業、醫療、教育、金融、商業、文化傳媒等多領域帶來了顛覆性創新。因此,掌握AIGC技術,已成為新時代維護我國經濟安全的重要路徑。
把數據變成生產力,是當今科技革命發生的根本變化。我國有一定的數據優勢,近年來正在AI領域努力趕超發達國家,在此基礎上如何發展AI技術、借助這輪科技革命的“東風”,成為應對我國經濟安全風險的重點。
五是意識形態安全風險。美國新聞可信度評估與研究機構News Guards研究人員經過測試認為,ChatGPT存在陰謀論和誤導性敘述的問題。他們發現它能在幾秒鐘內改編信息,產生大量令人信服卻無信源的內容。需要引起重視的是,目前還沒有辦法可以有效解決這一問題,這或將導致ChatGPT成為傳播包括政治謠言在內的網絡謠言工具。
當前ChatGPT在回答一些涉及意識形態領域的問題時,帶有鮮明的政治立場。科技無國界,然而科技的擁有者、操縱者有國籍,他們不僅堅定維護所在國的利益,甚至可能不惜為此詆毀敵對國家。美國OpenAI首席執行官Sam Altman在國家AI安全委員會(NSCAI)2021年全球新興技術峰會期間表示:“將有多種全球努力來構建這些強大的人工智能系統,而在世界上獲得我們想要的結果的最佳方式,即與自由民主制度相一致的AI,將需要我們和我們的盟友首先構建它們。”因此,ChatGPT可能對我國意識形態安全構成負面影響。
為應對當前ChatGPT所可能引發的風險,我們當積極制定相應對策:
一是加快科技創新、突破核心技術。人工智能的發展建立在科技創新尤其是核心技術突破上,我國百度、騰訊等互聯網企業在此方面具有發展潛力,有望打破ChatGPT在此方面的壟斷。阿里巴巴、京東等中國企業也表示正在或計劃研發類似產品。未來的時代是AI的時代,面對AI對AI的戰略格局,我們必須掌握核心技術,不能將AI領域的話語權拱手讓給他國。
二是加強數據合規、維護數據安全,盡快建立健全數據合規體系。首先,要關注從互聯網收集的海量數據是否合規,ChatGPT作為一種商業產品,如果其從具有禁止第三方爬取數據條款的網站收集數據,可能違反相關規定,使用海量原始數據可能違反“最小數據”原則。其次,要注意數據處理合規,ChatGPT使用的訓練數據可能含有個人隱私數據,輸出的數據也可能涉及敏感信息,在數據上要保護其不被濫用或泄露。再次,要注意數據的完整性與準確性,確保其輸入學習的內容是正確的。最后,要注意訓練數據儲存的安全性,防止數據被黑客攻擊和竊取。
三是維護國家安全、健全相關立法。隨著人工智能領域的大力發展,有關推動數據保護、隱私保護的法律法規應當進一步完善,以確保具體社會問題出現時,可以有明確的政策與法律法規可以依循參考。歐盟已經在考慮設立規章制度規范ChatGPT的使用,確保向用戶提供高質量、有價值的信息和數據,我國應盡快將“人工智能法”提上立法清單,以應對日漸復雜的人工智能發展現狀。
我國應盡快將“人工智能法”提上立法清單,以應對日漸復雜的人工智能發展現狀。
四是適應社會發展、提升監管水平。ChatGPT技術的使用和開發必須符合監管的要求,應盡快健全監管備案和審批管理的相關法律法規。ChatGPT如果要進入中國,必須遵守相關監管手續要求:包括增值電信業務許可、算法備案、網絡安全等級保護備案與測評等。
總之,AI技術的發展正在影響世界各國的安全格局。我國必須抓住機遇、突破核心技術、建立自己的大模型項目,以應對當前AI新發展格局下的新挑戰,維護與保障我國相關領域的國家主權、安全與發展利益。
(作者單位:上海社會科學院法學研究所)