近年來,以DeepSeek為典型代表的生成式人工智能技術呈現高速迭代發展態勢,其憑借關鍵詞輸入即可完成文本生成的高效特性,在多元辦公場景中的滲透率持續攀升。然而,這類技術在革新工作模式、提升工作效率的同時,也伴生了顯著的治理風險:一方面,其數據交互機制與智能生成邏輯,為涉密文件信息泄露埋下安全隱患;另一方面,可能弱化公職人員的責任意識,滋生瀆職隱患。由此可見,在生成式人工智能技術加速向政務領域滲透的背景下,亟須明確法律底線與紀律紅線,規范公職人員對大模型的使用,以實現技術賦能與風險防控的動態平衡。
一、大模型賦能政務的內在原因
隨著政務數字化轉型的深入,以DeepSeek為代表的大模型技術正逐步成為提升政府服務效能的核心驅動力。通過自然語言處理、多模態數據融合和深度學習等技術,大模型在智能問答、政策分析、城市治理等場景中展現出強大能力。目前,全國已有超過100家政府單位接入DeepSeek等大模型,覆蓋民生服務、城市管理等多個領域,顯著提升了政務服務的智能化水平。
高效處理復雜事務的政務要求是公職人員逐漸開始使用大模型的內在原因。日常公文處理工作繁瑣復雜,政策解讀、文件起草等環節需要耗費大量人力和時間。例如,一份重要政策文件的起草,從資料收集、內容撰寫到格式核對,往往需要多名工作人員協同工作數天時間,且容易出現人為失誤。而DeepSeek等大模型作為智能寫作助手,實現了政策解讀、文件起草和智能校對的全流程自動化,甚至能夠基于歷史數據和政策庫自動生成規范文本,并結合政務語境進行優化,快速生成高質量的公文。
二、大模型賦能政務的二元風險
隨著大模型技術深度融人政務場景,其在提升行政效率的同時,也衍生出數據安全與倫理道德的雙重風險。例如,基層村干部未經審核直接發布AI生成的工作通知引發輿情,涉密單位人員違規使用AI處理敏感信息危及保密安全。這些案例均暴露出亟待解決的潛在隱患,
從技術維度看,大模型的安全風險呈現多面性。一方面,大模型有數據泄露隱患。政務數據往往高度敏感,公職人員在使用時若將涉密文件、圖片等信息使用大模型進行處理,極有可能造成國家秘密泄露。這是因為DeepSeek等大模型是開源模型,其代碼的開放性使得模型可能被惡意竄改、漏洞利用,最終導致信息外泄。此外,從該類大模型運行原理也可知,其接收的國家秘密信息會被進一步作為訓練數據被利用。由此可見,大模型在數據獲取、處理、存儲、運算、傳輸各環節均存在泄密可能。另一方面,“算法黑箱”也可能導致生成公文的不可解釋性。大模型通過海量數據訓練生成復雜參數網絡,其決策過程猶如“黑箱”,難以拆解為清晰規則。這種不可解釋性不僅可能因算法通過非線性關聯捕捉產生隱含偏見,還會讓生成的公文缺乏邏輯支撐。
技術風險的蔓延直接引發了倫理層面的三大危機。首先是技術依賴導致公職人員的主動性喪失,即公職人員可能在沒有經過人工審核復查的情況下,直接采納AI生成的文本,這就導致“技術背書”代替專業判斷。若引發政策執行爭議,因決策邏輯的無法追溯可能導致追責無果。其次是“算法黑箱”的不透明與程序正義沖突,AI生成公文時缺乏明確依據鏈,其推薦的政策工具選擇邏輯無法被人工復核,這使傳統行政法上“過程性審查”這一用來控制行政機關政策性決定的工具無法發揮作用。最后是大模型輸出的內容真實性危機。AI可能生成看似規范但邏輯不通的表述,這是因為大模型無法理解公文背后的真實意圖,僅依據詞匯共現概率生成語句。倫理危機的持續發酵將步步削弱公眾對數字化治理的信任基礎。
三、公職人員應用大模型的底線思維
公職人員在應用大模型進行公文寫作時,必須要有底線思維和合規意識,緊繃保密之弦,使用合法合規的國產大模型,強化風險意識、規范使用流程。AI數據挖掘功能可基于海量原始數據進行多維推理和關聯分析,這就導致哪怕只是截取涉密文件片段,AI程序也會根據用戶偏好,在全網范圍搜集內容進行匹配、編輯。這些行為均在后臺通過算法完成,相關信息完全暴露在互聯網環境中,極易擴散外泄、被攻擊竊取或經關聯匯聚后泄密。因此,無論是在起草涉密文稿時,為提高質效,違規將涉密文件內容輸入AI寫作工具生成所需文章;還是將涉密素材上傳AI工具進行模型學習;抑或是在AI工具中錄入涉密身份信息增強個性化服務精準度,都將涉及違規并造成一系列問題。
因此,公職人員應該對應用于大模型的內容進行合法性控制,堅守法律底線。在嚴格遵守民法典對于信息處理的合法性要求的同時,也應遵守《中華人民共和國保守國家秘密法》的相關規定,即對于泄露后可能損害國家安全和利益的國家秘密,不得接入互聯網及其他公共信息網絡。《中華人民共和國數據安全法》也明確規定了數據分類分級保護制度,對于關系國家安全、國民經濟命脈、重要民生、重大公共利益等國家核心數據,不能隨意將其上傳大模型進行解析處理或用于進一步生成所需公文。
此外,公職人員應對經手工作內容履行保密義務,嚴守工作紀律。對于黨員,還需進一步遵守《中國共產黨紀律處分條例》。對于黨員違規使用大模型泄露國家秘密,應根據情節嚴重性進行判定,若涉嫌違紀,先由紀檢監察機關給予政務處分或由任免機關給予處分;若涉嫌違法犯罪,移送司法機關依法處理。
四、公職人員違規應用大模型的量紀分析
隨著2023年8月《生成式人工智能服務管理暫行辦法》正式實施,公職人員使用大模型的行為已被納入紀律審查重點領域。公職人員違規使用大模型的行為可依其侵犯的核心法益歸納為兩類:一是數據安全類違規,即明知或應知可能泄密,仍將涉密信息輸入大模型處理,直接威脅國家秘密安全;二是履職規范類違規,即未經授權或不恰當授權模型替代其核心職務決策、審批或關鍵文書生成等履職行為,破壞行政管理的正當性、審慎性與責任性。
對上述違規行為的量紀審查,需著重把握四個遞進維度的關鍵要素:首先,恪守合規性底線,嚴格依據《中華人民共和國保守國家秘密法》對輸入或處理信息準確進行“絕密、機密、秘密”三級密級定性與審查,這構成判定數據安全違規嚴重程度的客觀基礎;其次,聚焦行為性質,需精準甄別并區分主觀過錯程度,比如是明知故犯的惡意規避還是技術認知疏失導致的過失,這是劃分責任輕重、實現罰當其責的核心考量;再次,評估危害結果,深入核查違規造成的現實損失和潛在風險,如已泄露信息或對國家安全、公共利益構成的威脅等級,其損害程度是決定處分層級的關鍵依據;最后,考量領域及身份特殊性,對于涉及國家安全、重大民生或履職于紀檢監察、司法等高度敏感崗位的人員,因其失職瀆職行為的放大效應與示范作用,其違規行為在同等條件下可能導致更為嚴厲的紀律處分。除了上述必須依次考察的四個審查因素外,還需要綜合考量違紀次數和時間、技術手段與危害可控性等因素。
例如,對于數據安全類行為,如非故意輸入非密敏感信息且未造成實質損害的行為,或是疏忽使用未授權模型處理一般工作文件但及時糾正,通常適用警告或批評教育,依據《中華人民共和國公職人員政務處分法》第十二條“情節輕微可免予處分”的規定予以容錯處理。但涉及機密級以上數據處理時存在主觀過錯,包括擅自通過境外服務器運行大模型處理涉密信息,則需加重處分。若涉嫌違法犯罪的,同時啟動司法程序。對于履職規范類行為,如故意使用未經審核的大模型完成核心政務且形成錯誤決策,或未經批準用AI替代人工制定規范性文件,但未引發重大后果,應根據《中華人民共和國公職人員政務處分法》給予相應政務處分。對于黨員,則需進一步參照《中國共產黨紀律處分條例》進行紀律處分,若造成絕密信息泄露、重大公共安全事件的,按照頂格標準給予開除公職并移送司法機關依法處理。
大模型技術深度嵌入政務領域,既是提升治理效能的催化劑,也是引發安全與倫理危機的導火索。從技術層面的數據泄露隱患、“算法黑箱”困境,到倫理層面的主體性喪失、程序正義沖突,這些二元風險深刻影響著政務數字化轉型的可持續性。公職人員作為政務實踐的直接參與者,堅守底線思維、規范使用大模型,不僅關乎個體職業操守,更維系著政府公信力與國家信息安全。在此背景下,構建違規使用大模型的量紀標準,是將技術治理納入法治軌道的關鍵一步。它不僅為違規行為的懲戒提供量化依據,更能推動形成“技術賦能有邊界、政務創新有底線”的治理共識。
(作者單位:西安交通大學法學院)