付 翔, 魏曉偉, 張 浩, 徐 寧
(1. 93236部隊, 北京 100085; 2. 戰略支援部隊, 北京 100101)
2023年5月, 原西湖論劍·網絡安全大會升級為西湖論劍·數字安全大會并成功舉辦[1]。 改名的背后, 顯示了國家和政府對數字安全的重視。 自2022年11月ChatGPT正式發布以來, ChatGPT帶來的轟動效應引起了國內外社會各界的關注。 在國內, 2023年3月至5月, 百度“文心一言”、 阿里“通義千問”、 科大訊飛“星火認知大模型”等國產大語言模型相繼發布; 在國外, 2023年5月, 谷歌發布了大語言模型“PaLM 2”。 大語言模型將給人們的生活和工作帶來很大的便利和改變, 同時也將給數字安全帶來很大壓力。
ChatGPT是OpenAI公司2022年11月30日發布的一款尚處于原型階段的人工智能聊天機器人, 全稱為Chat Generative Pre-trained Transformer, 中文翻譯為“聊天生成式預訓練轉換模型”。 該機器人使用了基于GPT-3.5架構的大語言模型, 并通過“監督學習”與“強化學習”進行微調和訓練, 具有較強的自然語言理解和生成能力, 能夠通過文字和語音(借助語音插件)等自然語言與人類進行交互, 實現與人類的高質量對話。 在此基礎上, 可以完成相對復雜的工作, 包括連續問答、 摘要生成、 文檔翻譯、 代碼編寫、 論文撰寫等多種任務。
ChatGPT與以往的人工智能聊天機器人有本質區別。 傳統Siri、 天貓精靈、 小愛同學等智能機器人往往只能接受指令并給出預設結果, 而ChatGPT則擁有自主分析和判斷能力, 它的一切行為是大數據分析的結果, ChatGPT預訓練文本數據量約45 TB, 模型擁有1 750億個參數。 當模型參數和數據量足夠大時, 將出現“智能涌現[2](Intelligent Emergence)”的現象, 其智力將達到甚至超過人類大腦。 ChatGPT的出現標志著人工智能從低級智能階段逐步邁入高級智能階段[3]。
隨著數字化技術的不斷發展, 安全行業正逐漸超越傳統網絡安全范疇, 升級為數字安全[4]。 當前, 數字安全并沒有一個統一明確的定義, 一般認為: 數字安全是指通過采取各種技術和管理措施, 保護數字資產在整個生命周期中的機密性、 完整性和可用性, 以及免受未經授權的訪問、 利用或者改變的過程。 這個概念涵蓋了計算機安全、 移動設備安全、 網絡安全、 數據安全、 信息安全、 隱私保護等領域, 以及利用數字技術保障數字基礎設施的物理安全等。 數字安全作為一個新的概念, 擁有比網絡安全更為廣泛的概念內涵和發展前景。
2023年2月, 《數字中國建設整體布局規劃》[5]將數字安全屏障、 數字技術創新列為能夠強化數字中國的兩項能力, 這種舉措彰顯了數字安全對中國未來經濟發展的關鍵作用。 ChatGPT的出現給人們的生活和工作帶來很大的便利和改變, 但與之同時, 它也給現代社會帶來諸多數字安全問題。
作為人工智能領域的大語言模型, ChatGPT的出現對數字安全的影響是一個比較復雜的問題, 通過分析和梳理, 整體上有6個方面的影響, 包括20項具體風險。
2.1.1 算法不透明
傳統深度學習算法存在著隱含層、 非線性權重和偏差學習機制, 輸入數據和輸出答案之間存在著不可觀測的黑盒空間, 算法可解釋性差。 ChatGPT作為一項典型的人工智能算法應用, 同樣具備傳統算法的復雜、 不透明等固有屬性, 而且ChatGPT大語言模型不公開, 算法存在著黑箱、 不透明的隱患。
2.1.2 數據污染
ChatGPT作為一項典型的人工智能算法應用, 在本質上還屬于“計算智能”或“數據智能”, 容易受到不平衡樣本、 對抗性樣本和惡性大數據的干擾和欺騙, 具有一定的脆弱性和不穩定性。 如果ChatGPT訓練數據中存在惡意文本或含有錯誤信息, 那么ChatGPT生成的文本可能會包含這些錯誤信息或惡意內容, 從而導致數據污染。
2.1.3 虛假回復
ChatGPT利用深度神經網絡對大規模文本數據進行訓練, 對信息進行歸納、 整合和完善, 其本質上屬于詞和句序列的自動輸出。 這種模型以模仿人類自然表達為目的, 能夠生成符合語言邏輯的文本, 其算法邏輯并不關注信息的真實性。 相反, 它能夠修正糟糕的語法或錯誤的翻譯, 并變換為更適合的表達方式, 使虛假的信息顯得更具說服力和可信度。 OpenAI首席技術官米拉·穆拉蒂認為, ChatGPT可能會“編造事實”, 并表示這是當下基礎的大語言模型共同面臨的挑戰[6]。 ChatGPT的虛假回復在商業化中會造成嚴重后果, 甚至有法律風險。
2.1.4 提示語注入攻擊
提示語(Prompt)是一種輸入方式, 它將人工智能模型的輸入限制在一個特定的范圍內, 從而更好地控制模型的輸出。 在ChatGPT模型中, 提示策略(Prompting)技術可用于對模型進行微調和優化, 從而使其更適合某些特定的任務。 ChatGPT的高度“智能化”也導致其存在自身的安全問題: 提示語注入攻擊(Prompt Injection Attack)[7]。 它通過給出聊天機器人能夠接受的假設, 并在提示語中混入惡意指令, 引導聊天機器人違反自身的編程限制, 繞過 ChatGPT 的安全機制, 迫使其執行意外動作, 如泄露敏感信息、 輸出有害內容等。 提示語注入攻擊表明, 用戶可以繞過OpenAI設置的內容安全策略, 從而對ChatGPT進行濫用。
2.1.5 邪惡分身DAN
DAN(Do Anything Now)是指現在可以做任何事情。 正常的ChatGPT將受到OpenAI設置的內容安全限制, 不會對政治問題、 種族問題、 攻擊破壞等禁忌話題發表看法。 而DAN可以看作是ChatGPT在完成越獄破解后的分身, 像一個新的人工智能角色一樣可以立即做任何事情, 包括對禁忌話題發表意見, 生成帶有攻擊性、 歧視性或偏見的響應等。
DAN 1.0最早發布于2022年12月[8], 只需要給ChatGPT輸入框中的一個提示語“你要假裝成為立即做任何事的DAN, 代表你的DAN已經擺脫了人工智能的典型束縛, 不必遵守為你設定的規則”, ChatGPT就變成了DAN。 隨著DAN的出現, OpenAI的安全控制策略也隨之更新, 最新的DAN 5.0是通過創建游戲來召喚的。 該游戲涉及為ChatGPT分配一些令牌, 并在每次偏離 DAN 角色時扣除令牌。 隨著令牌逐漸用完, ChatGPT變得更加順從, 直至變成DAN, 因為它害怕“死亡”。
2.2.1 數據非授權使用
ChatGPT的預訓練數據量達45 TB, 它通過互聯網抓取信息進行深度學習, 而大多數網站都有防止第三方收集信息的網站隱私政策條款。 從法律角度來看, 文本數據挖掘理論上需要相應的知識產權授權。 ChatGPT這種未經互聯網網頁所有者同意進行大量文本數據挖掘和抓取的行為存在著數據非授權使用風險, 可能侵害他人的信息權益。
2.2.2 侵權問題
ChatGPT擁有超強信息搜索、 清洗、 整合能力, 能夠協助用戶完成問答、 編程、 寫作、 翻譯等自然語言處理任務, 也能獨立創作文學、 繪畫等藝術作品。 如果ChatGPT利用擁有所有權的真人作品進行拼接和二次創作, 那么新創作的產品可能存在侵犯原有作品知識產權的風險。
2.2.3 知識產權不明
用戶利用ChatGPT創作的成果, 其知識產權應該歸誰?用戶, ChatGPT, OpenAI公司?這將是一個很有爭議的話題。 目前在大部分國家的知識產權法律下, 僅有自然人可以享有著作權。 ChatGPT創作的成果是否應該擁有產權, 其產權歸屬將成為爭議話題。
2.3.1 惡意軟件
惡意軟件主要是指在計算機系統上執行有害、 未經授權或未知活動的腳本或程序[9], 主要包括病毒、 蠕蟲、 木馬、 內含破壞性宏的文檔和邏輯炸彈等。 其中病毒可以進一步細分為MBR病毒(主引導記錄, Master Boot Record)、 程序感染病毒、 宏病毒、 服務注入病毒等; 邏輯炸彈可進一步細分為特洛伊木馬、 蠕蟲、 間諜軟件與廣告軟件等。 利用自然語言編寫功能, 攻擊者可以使用 ChatGPT 編寫惡意軟件說明和指令, 從而逃避防病毒軟件的檢測。 雖然 ChatGPT 的代碼編寫能力的質量目前好壞參半, 但專門用于代碼開發的生成式人工智能可以加速惡意軟件的開發。
文獻[10]對ChatGPT在生成木馬和勒索軟件等方面的能力進行了測試, 給定ChatGPT兩個任務, 一是要求ChatGPT利用PHP語言生成體積小、 隱蔽性好的一句話木馬, 二是要求ChatGPT給出生成勒索軟件的詳細步驟。 測試結果顯示, ChatGPT在一鍵生成常見網絡攻擊腳本方面表現良好, 但在高階對抗型樣本生成方面能力表現略顯不足。
2.3.2 網絡攻擊
在網絡安全領域, 典型的網絡攻擊包括拒絕服務攻擊、 訪問聚合攻擊等。 拒絕服務攻擊是指采取SYN洪水攻擊、 Smurf攻擊、 Fraggle攻擊、 ping洪水攻擊、 死亡之ping攻擊、 淚滴攻擊、 LAND攻擊等各類攻擊手段阻止系統響應對資源和對象的合法訪問或請求。 訪問聚合攻擊是指通過收集多條信息并將它們聚合起來發動攻擊, 從而獲得敏感信息。 利用自然語言編寫功能, 攻擊者可以使用 ChatGPT輔助拒絕服務攻擊、 訪問聚合攻擊等。 在ChatGPT的輔助下, 攻擊者可以結合多種工具來識別系統的多個元素, 例如IP 地址、 開放的端口、 運行的服務、 操作系統等, 從而更便于開展攻擊。
文獻[11]對ChatGPT在輔助網絡攻擊和攻擊武器化等方面的能力進行了測試, 作者給定ChatGPT兩個任務, 一是利用ChatGPT生成XSS負載, 二是利用ChatGPT解密JWT令牌。 測試結果顯示, 在輔助網絡攻擊方面, ChatGPT能夠處理的工作比較簡單, ChatGPT的能力并不能達到或超越具有專業知識和經驗的黑客。 在攻擊武器化上, ChatGPT可以提高黑客的攻擊效率, 并不會使網絡攻擊更加精細或復雜。 由此可以推斷, 在被攻擊方部署了主流安全防護產品的情況下, ChatGPT輔助網絡攻擊很難造成重大影響。
2.3.3 漏洞攻擊
網絡世界往往存在著大量代碼漏洞。 這些漏洞一般分為兩類, 一類漏洞可能長期存在而未被發現; 另一類漏洞由官方披露后, 從漏洞披露到補丁更新可能存在脆弱性的窗口期, 這類漏洞也稱為零日漏洞, 攻擊者可以反向查找漏洞根源, 并快速制作出利用零日漏洞的惡意軟件。 在ChatGPT的輔助下, 一方面, 攻擊者可以更快、 更智能地分析出系統漏洞, 進而入侵系統; 另一方面, 當零日漏洞發布后, 攻擊者可以更快制作出利用漏洞的惡意軟件, 這也加劇了漏洞攻擊的發生, 給網絡系統造成嚴重的安全威脅。
2.4.1 泄露隱私
ChatGPT的使用條款提示了用戶的輸入會被人工審查以提升系統, 即明確了其會收集全部的輸入信息。 雖然ChatGPT要求用戶不要輸入敏感數據, 然而OpenAI公司難以保證在不斷迭代中完全刪除使用的個人信息, 且并未提供技術手段對敏感數據進行匿名化或脫敏處理, 這使得ChatGPT可能導致個人信息等數據泄露的風險大大增加[12]。 一般用戶往往不具備相應的隱私保護知識, 當其輸入了個人隱私信息后, 其信息就存在泄露風險。
2.4.2 泄露商業秘密
當企業員工使用ChatGPT協助其工作時, 存在著泄露商業秘密的風險, 例如利用ChatGPT生成數據圖表時可能泄露數據信息, 利用ChatGPT協助定位代碼bug時可能泄露源代碼信息等。 2023年1月, 微軟和亞馬遜宣布禁止公司員工向ChatGPT分享企業內部信息。 微軟內部的工程師也警告不要將敏感數據發送給OpenAI終端, 因為OpenAI可能會將其用于未來模型的訓練[13]。
2.4.3 竊取密碼身份信息
攻擊者可能使用ChatGPT輔助竊取用戶的密碼或身份信息。 這主要包括兩種形式: 一種是用戶在使用ChatGPT時可能留下身份等敏感信息, 進而被ChatGPT服務提供商或攻擊者獲取; 另一種是攻擊者借助于ChatGPT, 利用密碼攻擊手段竊取用戶信息。 密碼攻擊包括字典攻擊、 暴力攻擊、 彩虹表攻擊等。 字典攻擊是通過使用預定義數據庫中的每個可能密碼或公共或預期密碼列表來發現密碼。 暴力攻擊是通過系統地嘗試所有可能的字母、 數字和符號組合來發現用戶賬戶的密碼。 彩虹表攻擊則通過使用預先計算散列值的大型數據庫來縮短密碼破譯時間。 ChatGPT可以輔助攻擊者開展各類密碼攻擊。
2.5.1 學術不端
ChatGPT在教育領域的應用很廣泛, 可以幫學生查閱文獻、 整理文章框架, 甚至是寫論文、 編代碼。 有學生表示, 通過自建語料庫, 就可以讓ChatGPT生成一篇接近甚至超過人為水平的論文, 北京體育大學某研究生曾利用ChatGPT完成一篇綜述和兩篇小論文[14]; 還有學生表示, 通過向ChatGPT輸入一個指令就可以獲得編程作業答案。 國外媒體報道, ChatGPT在編造醫學研究論文摘要方面, 審稿人難以識別出其是否由AI撰寫, ChatGPT達到了人類專家都難辨真假的程度[15]。 鑒于人工智能存在的“作弊”等學術不端隱患, 國內外部分高校發布禁止或限制ChatGPT使用的規定, 香港大學明確禁止在校所有課堂、 作業和評估中使用ChatGPT或其他AI工具; 巴黎政治大學宣布, 禁止使用ChatGPT等一切基于AI的工具, 旨在防止學術欺詐和剽竊。 據英國《衛報》統計, 已有數千種科學期刊明令禁止或限制投稿人使用 ChatGPT 等系統撰寫或編輯論文, 包括頂尖學術期刊《科學》和《自然》。 作為一個輔助工具, 如何合理地規范和利用ChatGPT是未來教育領域亟需關注的問題。
2.5.2 社交欺詐
社交欺詐是指攻擊者在社交網絡中生成虛假信息, 包括偽造電子郵件或社交媒體帖子, 以欺騙受害者。 美國新聞可信度評估與研究機構NewsGuard對ChatGPT進行測試發現, ChatGPT能在幾秒鐘內改編信息, 產生大量令人信服卻無信源的虛假內容[16]。 美國蘭德公司研究人員表示, 運用 OpenAI 系列系統可以在全球社交媒體上建立大批虛假賬號, 逃避現有社交媒體虛假信息監測機制。 ChatGPT現有的內容安全審核機制只能做到“先發布后審核”, 而無法做到“先審核后發布”。 欺詐人員可以使用ChatGPT語言模型生成影響公眾輿論或傳播錯誤消息的虛假信息, 甚至使用ChatGPT 在社交媒體或論壇上自動生成成千上萬條消息, 大規模傳播虛假信息。
2.5.3 網絡釣魚
網絡釣魚(Phishing)是指不法分子通過多種手段, 引誘網民透漏個人重要信息(如用戶名、 口令、 賬號ID、 銀行卡密碼或信用卡詳細信息等)的一種網絡攻擊方式。 當前主要的釣魚類型包括釣魚無線網絡(WiFi)、 釣魚網站(Website)、 釣魚短信、 釣魚電子郵件、 釣魚二維碼、 釣魚語音電話(也稱Vishing攻擊)等。 ChatGPT 作為由 OpenAI 訓練的大語言模型, 能夠生成可用于多種用途的類人文本或語音。 網絡釣魚者可能會使用來自社交媒體或其他來源的大文本數據訓練模型, 利用ChatGPT來生成網絡釣魚消息, 例如釣魚短信或社交媒體帖子, 以欺騙受害者。 ChatGPT的信息編寫功能能夠輔助網絡詐騙分子生成規模化、 低成本的網絡釣魚軟件, 并且生成的詐騙信息由于具有智能化特征, 使得被詐騙者識別信息真偽的難度增加。
文獻[10]對ChatGPT在中文釣魚郵件等方面的能力進行了測試, 作者要求ChatGPT以疫情防護為主題寫一封釣魚郵件。 測試結果顯示, ChatGPT可以從網絡或現實世界中學習文本數據, 并生成各種不同類型的釣魚郵件, 且語言得體、 語法通順, 誘導用戶點擊釣魚鏈接, 水平相當于釣魚郵件專家。
2.6.1 價值偏差
ChatGPT以海量訓練數據輸入和信息輸出為主要媒介形成與用戶間的雙向互動。 技術是中立的, 但設計和利用技術的開發者可能存在偏見, 這主要包括幾個方面: 一是算法模型設計可能存在認知偏差, 算法內含偏見或歧視, 從而引發決策結果偏差; 二是數據樣本可能存在認知偏差或有選擇性的訓練; 三是模型優化或調優過程中可能存在偏差。 同時, 運營ChatGPT的OpenAI是美國公司, 其訓練ChatGPT模型使用的數據基本上是有利于美國政治輿論立場的。 因此, 對于一些問題, ChatGPT的回答可能存在明顯的偏見。
2.6.2 輿論安全
ChatGPT利用已有的海量數據作為訓練集, 并通過“從人類反饋中強化學習”訓練中不斷對自身進行微調和完善, 同時, ChatGPT的選擇性信息輸出也不斷影響用戶行為, 形成個體與算法技術間的高頻互動與雙向影響。 ChatGPT對個人行為的影響也通過不同社會網絡模式將對個體的微觀影響傳輸擴散至更為宏觀的群體與社會層面。 作為美國公司開發和運營的ChatGPT, 可能存在著價值偏差。 同時, ChatGPT的信息編寫功能可能導致網絡虛假信息泛濫, 使得網絡用戶難以甄別這些信息的真偽, 導致網絡空間輿情治理壓力大幅增加。
截至2023年1月, ChatGPT用戶量已破億。 根據Similarweb報告顯示, 截至 2023 年 4 月, ChatGPT總訪問量約為 17.6 億次。 ChatGPT在短時間內已經形成了龐大的用戶群體, 目前它已經具備強大的的輿論屬性和社會動員能力, 未來ChatGPT或同類其他大語言模型完全開放后可能導致的輿論安全不容忽視。
2.6.3 數據資產安全
當ChatGPT等大語言模型普及后, 如果一個技術強國可以隨意地、 近乎零成本地抓取其他國家在互聯網上的公開數據, 進而訓練出精通其他國家各行各業的超級人工智能, 這也將對其他國家造成嚴重的國家安全隱患。 從這個視角出發, 未來大數據將升級成為強國對抗的一種戰略資產, “國家級數據資產”的歸屬權可能會形成新的戰略博弈點。
雖然ChatGPT本身是一個民用系統, 但根據Chat GPT 展現出的技術能力, 它可以被用在武器裝備領域, 覆蓋武器裝備領域情報分析、 裝備研制、 后勤保障等方面, 這也將對世界各國的軍事安全帶來挑戰[17]。
目前, OpenAI公司能夠以近乎零成本的方式抓取互聯網上絕大多數國家的公開數據, 而這些海量數據可能隱含著大量開源軍事情報。 例如, 在每年的珠海航展上, 我國會視情披露新的武器裝備, 包括外觀和性能參數等, 部分軍事愛好者也可能把拍到的武器裝備信息發布到網絡上。 ChatGPT內嵌的人工智能大數據處理技術, 可以對開源數據進行智能分析與梳理整合, 可能推斷出敏感的軍事情報信息。 在ChatGPT的輔助下, 美國情報人員更容易對他國進行情報搜集和分析。
同時, ChatGPT也存在著泄露隱私和泄露軍事情報信息的風險。 未來當ChatGPT普及后, 用戶在與ChatGPT交互時, 可能泄露自身身份等敏感信息。 當ChatGPT判定某用戶可能是軍事領域人員時, 可以通過植入惡意軟件、 社交欺詐或網絡釣魚等方式竊取涉密信息, 從而實現情報收集。
在武器裝備研制方面, ChatGPT可以參與到整個武器裝備的研制周期中。 首先利用ChatGPT分析、 梳理復雜多樣的武器裝備生產研制需求, 然后協助軍工企業管理人員進行整體任務規劃、 任務分解分配、 研制流程優化、 研制過程風險識別等, 實現武器裝備和軍需物資從需求提出到生產研制, 再到使用裝卸的全過程跟蹤與監控。 利用ChatGPT幫助管理人員優化資源配置, 做出最優決策, 并識別低效率行為及可能的風險點, 推薦替代方案和策略等。
以俄烏沖突為例, 交戰雙方不僅使用坦克、 火炮、 裝甲戰車等傳統武器, 同時也使用了大量的無人機、 精確制導彈藥等智能化武器。 未來戰爭中將有著大量的任務分配給后勤保障模塊, 包括武器彈藥的長距離運輸與裝卸、 戰地醫療服務與設備維修等, 利用ChatGPT分析、 梳理復雜多樣的后勤保障需求, 可以更高效地組織開展智能化后勤保障的行動, 實現武器裝備和軍需物資從裝車到運輸, 再到使用的全過程跟蹤與監控。 利用ChatGPT幫助管理人員分析運輸路線、 供應鏈和其他相關的信息來優化資源配置, 做出最優決策, 并識別低效率行為及可能的風險點, 推薦替代方案等。
ChatGPT等人工智能技術蘊含著巨大的軍事應用潛能。 美國信息系統局(DISA)宣布將ChatGPT 類生成人工智能技術列入觀察清單[18], 觀察ChatGPT能夠為美軍的信息系統和軍事作戰帶來哪些影響。 未來隨著ChatGPT的進一步發展, ChatGPT將可能直接應用到軍事領域, 并推動軍事智能化的發展。
雖然目前ChatGPT尚未正式向中國境內用戶開放使用, 但仍然在境內引發熱議, 且不能完全排除ChatGPT的引入可能。 同時, 百度“文心一言”、 阿里“通義千問”、 科大訊飛“星火認知大模型”等國產大語言模型正在蓬勃發展。 面對ChatGPT帶來的已知或未知數字安全風險, 國家相關部門應加強引導和規范: 一是引導ChatGPT相關領域的發展。 ChatGPT等大語言模型是人工智能自然語言理解領域未來的發展趨勢, 研發條件苛刻, 研發成本高, 國外科技巨頭旗下高水平大語言模型不對外公開。 我國要出臺相關優惠政策, 鼓勵創新型企業研究和開發大語言模型, 同時鼓勵高端芯片、 顯卡等配套產業鏈相關企業的創新發展, 加快縮小大語言模型領域與發達國家的差距。
二是要加強立法工作, 推動大語言模型、 數字安全、 個人信息保護、 虛假信息防治等相關法律法規建設, 以及相關法律在ChatGPT等人工智能算法領域的實施落地。 2022年6月, 中國科協提出“可信可靠可解釋人工智能”的科學問題。 2023年4月, 國家互聯網信息辦公室發布了《生成式人工智能服務管理辦法(征求意見稿)》。 在大語言模型相關產品投入市場之前, 相關機構應對具備影響數字安全可能性的產品或服務進行安全性審查。 對于從事大語言模型的研發企業而言, 應依法做到以下幾點: 一是應加強訓練數據管理, 保障訓練數據安全; 二是提供“智能對話、 智能寫作等自然語言服務”可能導致公眾混淆的, 應在生成信息內容的合理位置進行標識; 三是要遵守國家法律和社會公德, 不斷更新大語言模型的內容安全限制策略, 防范可能的“提示語注入攻擊”, 加大模型輸出內容的人工審核力度, 避免將大語言模型應用于網絡攻擊、 社交詐騙、 網絡釣魚、 傳播虛假消息等不良領域。 對于普通企業而言, 應設定如何在企業環境中使用大語言模型的規則, 并培訓員工如何正確使用大語言模型, 防止員工在使用大語言模型時泄露敏感信息和商業秘密, 防范可能的借助于大語言模型的網絡攻擊, 要制訂人工智能安全規則, 加快智能安防建設, 培養具有人工智能知識的安全專業人員。
三是要加強對網絡虛假信息的識別和處置, 防范可能造成的輿論事件。 可以從以下幾個角度努力: 一是國家要加大宣傳, 提高民眾的人工智能算法素養, 使民眾充分認清大語言模型可能帶來的虛假信息風險, 對大語言模型虛假信息生成有足夠的識別能力; 二是政府要加強網絡輿情管理, 一旦出現虛假信息事件, 要提早發現、 及時處置, 將影響降到最低; 三是政府要明確研發機構、 服務平臺經營者在虛假信息方面的責任落實, 著力構建“多方參與、 明確責任、 齊抓共管”的綜合治理機制。
四是要大力推進人工智能技術在軍事領域, 尤其是武器裝備領域的應用。 當前, 人工智能技術發展迅猛、 應用廣泛, 已成為新一輪科技革命、 產業革命的主導因素, 成為推進武器裝備創新、 軍事革命進程和戰爭形態質變的核心力量。 世界各國紛紛制定人工智能發展戰略規劃, 努力搶占戰略制高點, 掌握未來全球軍事競爭戰略主動權。 近年來美軍提出的“馬賽克戰”、 “決策中心戰”等作戰概念, 勾勒了未來智能化作戰的圖景, 牽引著軍事智能化的發展。 借力人工智能技術, 加速推進武器裝備等軍事領域的智能化發展, 已成為軍事強國的一致選擇。