999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能融入數字法治政府建設的現實挑戰與應對策略

2025-09-30 00:00:00尤雪寧
長春市委黨校學報 2025年4期

中圖分類號:D923;D630 DOI: 10.13784/j.cnki.22-1299/d.2025.04.007

隨著數字技術的蓬勃發展,政務生態正經歷深刻重塑,社會治理的轉型升級也隨之加速。黨的二十屆三中全會明確提出“促進政務服務標準化、規范化、便利化”。在這樣的大背景下,以數字化手段賦能政府治理來優化政務服務,已然成為不可阻擋的新發展趨勢。在這一趨勢中,推動數字法治政府建設,無疑是提升政府治理能力,實現國家治理現代化的關鍵路徑之一。生成式人工智能憑借其深度學習的模型架構,在數字法治政府建設中發揮著顯著作用。它不僅能夠提供更為準確、智能且高效的服務,還可以輔助政府決策,助力其探索新的發展思路。

一、生成式人工智能在數字法治政府建設中的應用價值

生成式人工智能代表著人工智能已發展到更高階段,尤其在應用領域,突破了以往與人工智能之間的溝通交流障礙,就數字法治政府建設中的具體應用而言,也有其獨特應用價值。

●提升行政決策的科學性與精準性

數字法治政府建設主要包括政務信息化、政務公開透明、完善的公共服務、民眾監督和參與等各方面的內容[1]。與傳統的政府行政方式相比,數字法治政府在應用決策、行動實施等方面具有顯著優勢,這無不得益于生成式人工智能的融入。生成式人工智能優化政府運行中的管理過程,減少人力資源的投入。能通過機器學習算法對海量的政務數據、社會經濟數據展開深度挖掘與分析,發現數據之間隱藏的關聯和趨勢,實現政府治理的智能化,為政府決策提供全面精準的數據支持。以公共交通安全為例,政府在制定城市交通規劃時人工智能系統能整合交通流量監測數據、居民出行大數據以及城市發展規劃信息,模擬不同交通方案的實施效果,預測未來交通狀況,幫助政府制定出更科學合理的交通政策,有效緩解交通擁堵。以應急管理為例,人工智能能幫助我們第一時間檢測受災地區、受災情況、潛在風險等信息,幫助政府第一時間作出科學決策和制定應對措施。充分運用數字技術能突破傳統治理模式的空間限制,使其成為現實地理空間中無處不在且隨處可在的強勢威權,從而提高政府執政能力[2]。

●優化政務服務的智能化與個性化

政務服務缺乏有效工具來深度獲悉民眾訴求是制約政務服務供給和需求匹配的重要原因。而生成式人工智能的嵌入能高效收集和整合各類政務數據和基層數據,打破傳統政務服務的“信息孤島”,實現智能化與個性化。具體來說,智能化是指法治政府能充分運用人工智能技術自動完成簡單、重復、機械化類別的日常工作,補足人力短板,極大程度上降低資源損耗,提高辦事效率和民眾滿意度。例如上海建設的“一網通辦”“一網統管”平臺、杭州打造的“城市大腦”、深圳市DeepSeek開發的AI數智員工上崗等智能化服務,能夠給予廣大市民在社保參保、稅務辦理、訴求應答等常規問題上的即時回復,并引導其完成業務辦理。個性化是指生成式人工智能擁有更為準確的內容理解與生成能力,能實時研判民眾服務需求,智能增設政務服務應用場景和模塊,滿足不同人群的非標準化需要,全面促進政府服務的變革與升級[3]。例如“智能合同”“ODR”平臺,借助人工智能技術的個性化推薦算法,為市民提供便捷的法律咨詢和法律服務。總的來說,生成式人工智能的嵌入讓政務服務突破傳統的程式化,在千絲萬縷的民生訴求中編織出智能與精細的服務脈絡。

●強化執法程序的規范性與合法性

習近平總書記曾多次強調“法規制度的生命力在于執行”“把嚴格規范公正文明執法落到實處”。因此,數字法治政府的建設離不開公眾的參與和監督,強化政府執法程序的規范性與合法性更是重中之重和必然之舉。生成式人工智能具有強大的圖像、視覺捕捉與語音識別功能,在執法過程中不僅能夠更高效地收集證據、識別違法行為,還能將執法過程以更加數據化、透明化的方式予以呈現[4]。例如,近幾年“非現場行政執法”模式的加速應用,包括行人闖紅燈系統的自動抓拍、AI視頻監控系統對違法行為自動識別、無人機巡查等組合執法形式,都充分發揮人工智能的技術優勢,以更加便捷、規范、合法的方式執行。與此同時,還通過對執法流程進行全程記錄和監督,確保執法行為依法依規進行,進而全面壓縮執法彈性,防止權力濫用,減少徇私舞弊的機會空間和灰色地帶。

二、生成式人工智能融入數字法治政府建設的現實挑戰

生成式人工智能技術的迅猛發展和廣泛運用給法治環境帶來了前所未有的深刻變革,充分展現了其在數字法治政府建設中的巨大潛力,但尚未成熟的技術手段和固有的技術特征使得眾多風險也隨之凸顯。

●數據安全與隱私保護

數據安全問題是人工智能賦能數字法治政府的一個重要技術風險[5]。在數字法治政府建設上,平臺會通過收集海量政務數據進行訓練和學習,在其開放、共享、利用的過程中難免會涉及公民個人信息隱私,給國家和個體帶來潛在安全風險。一旦數據遭受黑客攻擊、病毒侵入、程序“崩盤”等威脅予以泄露,將會把國家安全、社會穩定和公民權益都置于風險之中。更為重要的是,這種數據安全的風險不僅涉及公共安全議題,還往往與個人隱私、名譽保護、聲譽乃至人格尊嚴密切相關[。生成式人工智能在大數據采集過程中,盡管采集形式豐富多樣,但在獲取數據時,都難以避免地會抓取大量涉及個人隱私的數據,例如個人身份信息、健康狀況以及行為習慣等。用戶在與生成式人工智能不斷交互的過程中便會不自覺地透露個人偏好,“喂養”其數據計算模型。久而久之,人工智能會不斷增強用戶個人畫像,對其進行標簽化、類別化,形成完整的數據集,進而清晰了解用戶隱私,一旦這些信息遭到泄露,會給個人權益造成難以估量的損害,引發嚴重的倫理問題和法律爭議。從現有法律體系上看,當前法律法規在應對生成式人工智能帶來的隱私問題規制保護上相對滯后,個人信息的定義、數據主體的權利保障、所有權和使用權界定模糊等問題尚沒有答案。總之,生成式人工智能在融入數字法治政府建設過程中存在的系統性風險正在逐漸顯現,亟待構建具有前瞻性的法律規制框架與數據風險防控體系。

●算法風險與不可解釋性

與傳統人工智能技術不同的是,生成式人工智能通過一套獨特的算法邏輯運行思考而得出答案,其結果并非查詢所得,而是基于閱讀大量數據信息“推算”得來的。鑒于這種人為設計和計算機神經網絡學習的自主性,使得人工智能的深度學習呈現出不透明性與復雜性,其具體執行的中間環節往往難為外部所知悉,具備不可解釋性,進而呈現出一定的“黑箱”狀態[7]。“算法黑箱”是引發算法失控風險的關鍵因素。這種風險在于人工智能算法會由于訓練數據的偏差或算法設計的缺陷,導致其在決策過程中對不同群體產生不公平的結果。例如,在招聘、司法、金融投資等深度融合領域,算法偏見可能會導致歧視性決策,影響社會公平正義。在數字法治政府建設過程中,人工智能算法融入政務服務是基于復雜的神經網絡模型,其決策過程如同“黑箱操作”,難以充分解釋決策依據和邏輯,這使得公眾對政府基于人工智能作出的決策難以理解,也難以監督,必然會降低政府決策的公信力。再者,生成式人工智能的不可解釋性還可能會使政務服務的連續性和穩定性受到影響。在傳統政務決策模式下,行政責任主體明確作出的行政決策過程皆可追溯,但生成式人工智能算法的介入模糊了這一界限。例如,在社會保障福利分配的政務服務場景中,若因算法錯誤導致部分符合條件的民眾未能獲得應有的社會福利或福利保障分配不均時,很難在算法設計方、數據提供方及政府三方主體中確定應該由誰承擔主要責任。基于此,我們不可否認,在AIGC浪潮和人工智能的深度融入下,算法創新衍生的黑箱風險和不可解釋性難以被完全遏制甚至消除。若監管治理機構持完全放任的態度致使算法風險的蔓延,無疑也是另一個極端[8]。

●責任歸屬與界定模糊

生成式人工智能的不可解釋性給其運行過程罩上了一層薄紗,算法的復雜和自主讓人工智能的決策過程缺乏透明、決策依據難以溯源,從而導致責任歸屬的模糊化。這種責任界定的模糊,不僅影響問題的解決,也不利于對相關行為進行法律規制。學者高琳在《生成式人工智能的法律責任邊界一一以DeepSeek為例》一文中指出,當AI代替程序人員運行完成代碼任務時,這種自動生成代碼的模式是否讓生成式人工智能享有獨立法律人格,進而認定為“自主行為”水平,該問題仍然值得討論。因此,政策工具的選擇直接影響著政策的實施和執行[9]。法治政府的建設過程中,設定分類責任認定的規則是生成式人工智能工具融入數字法治政府建議的必然之舉。

●法律適配性難題

現行法律法規大多是基于傳統社會和技術背景制定的,難以適應生成式人工智能在數字法治政府建設中的應用需求,在數據權屬、算法監管、人工智能的法律地位等問題方面,存在大量法律空白。就自前而言,由于缺乏明確的法律規定來規范人工智能生成內容的著作權歸屬,這給政府在信息發布、文件處理等工作帶來了法律風險。以2024年廣州互聯網法院就某生成式人工智能服務提供者向公眾提供服務時生成的圖片涉嫌侵犯奧特曼著作權案(2024粵0192民初113號,以下簡稱“廣州奧特曼案”)和2024年杭州互聯網法院AI生成內容涉嫌侵犯奧特曼形象權案(2024浙0192民初1587號,以下簡稱“杭州奧特曼案”)為例,兩個案件都是關于生成式人工智能創作作品侵權的司法判決。兩個案件雖在認定平臺責任的裁判思路上有所不同,但共同關注點卻是一致的,都是關于人工智能技術的法律權益平衡。在這兩個案件中,廣州、杭州兩地法院均承認生成式人工智能的技術價值,主張在保護用戶權利的同時也要避免過度抑制產業創新。隨著人工智能技術的不斷發展,該領域的權責框架必然面臨新的挑戰,只有逐步完善人工智能技術的法律適用框架,才能真正解決法律適配性的難題。再者,對生成式人工智能技術融入法治政府過程中的數據安全和隱私安全的法律規制也是亟待解決的難題之一。前者是指數據來源的合法性,我國《生成式人工智能服務管理暫行辦法》中對服務提供者作出了嚴格要求,要求其應當依法展開訓練,尊重數據內容的知識產權,保障生成內容的準確和合法合規性,規避“空口白牙式內容”。后者是指個人數據隱私保護的安全性。我國在《憲法》層面并未規定數據的權利形態,主流觀點認為在憲法層面規定數據隱私保護有兩條路徑:一是通過憲法修正案予以確定數據權利;二是充分運用憲法解釋明確數據權利。主流觀點傾向于第二種路徑,即通過憲法條款解釋擴充隱私權的內涵來實現個人數據權利的保護。但是,鑒于概括性條款的解釋路徑也存在天然的弊端,此種路徑仍然存在較多亟待完善的適配性難題[10]。

三、生成式人工智能融入數字法治政府建設的應對策略

生成式人工智能的深度應用正在重塑公共治理的底層邏輯,并成為驅動數字法治政府不斷創新治理模式的核心引擎。在技術風險與制度滯后的雙重挑戰之下,剖析現實困境中存在的難點和痛點,能為生成式人工智能融入數字法治政府提供可行路徑。

●強化技術安全防護

數字法治政府體現了數字化與法治化的深度耦合,但二者之間并非天然自洽和融合,而是存在著內在的張力,這種張力極易放大數字技術的固有缺陷進而給公共行政帶來較大風險。換言之,法治政府的行政權本就攜帶著積極主動塑造社會秩序的特征,若無法改善亦或是減弱數字技術帶來的算法缺陷、安全風險等問題,將無法充分發揮“數治”效能。同時,生成式人工智能的算法風險、數據安全風險和法律適配難等問題也進一步導致其技術侵權難以問責。基于此,無論是從技術特性還是發展前景出發,都要求加強政務服務智能化的安全程度,從根本上回應依法行政的正當性拷問。一方面是要加強數據安全防護,另一方面則是要提高技術研發力度。就加強數據安全防護而言,應當清晰界定數據適用的邊界和使用的目的,強化對數據安全的全流程監管與審查。例如,在數據采集和處理階段,運用加密、權限控制、防火墻等技術手段,保障數據安全;在數據傳輸和存儲階段,采用安全協議、數據備份、災備等措施,防止重要政府信息丟失或泄露。總而言之,在數據安全防護處理的各個環節都需遵循《數據安全法》《個人信息保護法》《新一代人工智能倫理規范》等法律法規的相關規定,明確數據收集目的和使用范圍,平衡好數據利用與隱私保護的關系,只有這樣才能實現數字法治政府建設的可持續發展。就技術研發攻關而言,要加大安全技術的研發力度,切實踐行和維護國家和個人數據安全。通過設立專項基金來推進關鍵核心技術的突破,鼓勵高校與企業搭建產學研一體化的研發實驗室,擴大研發范圍。在研發過程中,要加強規范模型使用權限管理力度,防范人工智能模型被惡意濫用,重點研發在政務場景下對數據泄露、算法失控等危機情況預判的有效機制,建立一個跨層級、跨地域的智能安全系統。

完善算法治理體系

在信息大爆炸的時代背景之下,算法模型將信息獲取從“大海撈針”轉化為“精準澆灌”,極大地提升了信息分發的精準度。但這種操作也極易導致算法治理模型在大量的數字海洋中操縱信息、濫用數據、霸權侵害。因此,加強算法治理已成為構建數字法治政府需要面對的重要議題之一。

首先,借鑒歐盟在《人工智能法案》(ArtificialIntelligenceAct)中的“監管沙盒”制度。“監管沙盒”是2024年歐洲議會批準通過的《人工智能法案》第五章規定的人工智能全面監管措施。簡言之,“監管沙盒”旨在營造一個風險相對可控的“安全空間”,數據企業通過與監管機構協商獲取有限授權,在確保安全的前提下進行新技術、新制度、新方法的嘗試。雖然我國已在汽車安全監管領域設置了“沙盒監管”制度,但反觀整個人工智能領域,針對該監管制度的研究是明顯不足的[11]。借鑒“監管沙盒”制度可以擴容生成式人工智能技術融入數字法治政府的各領域參與者,破除參與主體較為局限的難題,形成多元共治的治理框架。

其次,通過引入數據標注和數據審計制度加強數據保護,確保數據投喂的質量和安全。在“喂養”個人信息的生成式人工智能的算法訓練過程中,研發人員需采取切實有效的數據保護措施,給予更加清晰、明確、公正的指導,消除可能導致生成式人工智能應用中歧視性結果的隱患和對數據的過度利用。

再次,加強算法解釋的透明性和可信性。雖然客觀上可能無法完全避免算法運行的不可解釋性,但仍可以通過提高算法模型的透明性來保證政府決策的公正和合法,打破“數據孤島”。例如,對政府使用的生成式人工智能算法進行定期審查和評估,檢測算法是否存在偏見,是否符合公平正義原則。借助價值敏感設計方法和感知歧視的數據挖掘技術,將基本倫理原則嵌入目標算法之中。同時,要求算法開發者提供詳盡的算法說明及可解釋性文檔,借助標準化流程評估算法性能,保證決策過程透明,以降低算法運行的不可解釋性,讓公眾能夠最大程度清晰了解算法原理,從而進行有效監督。

健全法律框架

生成式人工智能是否需要特別的法律予以規制,是當前數字法治政府建設熱議的話題之—[12]。我國雖已在《網絡安全法》《數據安全法》《個人信息保護法》及《生成式人工智能服務管理暫行辦法》《人工智能標準化白皮書》等法律法規中構建起了一個的初步規制框架,但該框架尚不足以應對和解決更迭變化的智能技術和變幻莫測的法律風險問題。為更好落實《法治政府建設實施綱要(2021一2025年)》中提出的“大力提升法治政府建設數字化水平”,應當加快健全生成式人工智能技術嵌入數字法治政府建設過程中的法律法規保障,及時修訂現行法律中不符合數字法治政府建設的相關條款,加快推進完善的生成式人工智能發展和管理相關法律法規,為新的技術發展及風險挑戰提供應對之策。

加強人權倫理約束

數字化進程的加速演進和技術權力的結構性擴張正衍生出多重治理困境,其中不僅存在技術安全風險,也存在算法偏見的人權威脅。值得注意的是,生成式人工智能運行的不可解釋性恰好成了AI技術中立的偽裝手段,一定程度上為數字場域中的隱性侵權提供庇護,導致對數字權利的剝奪變得更加肆無忌憚,加劇“數字鴻溝”的社會層級分化。壓縮人工智能主體的自由決策空間、加強人權倫理約束是有必要的。

人工智能運行算法技術本身并沒有道德品質,但是設計者在創建智能系統時可以將基本價值理念和倫理轉化為可實際操作的算法參數予以輸入[13]。就“豆包”“deepseek”“kimi”等生成式人工智能而言,在將算法融入數字法治政府建設過程中當遵循“以人為本”和公平公正的基本原則。設計者要建立涵蓋文化敏感性、社會公平性等指標的評估體系,從源頭上對數據進行糾偏,以文字、圖片、視頻、語音的方式對偏見歧視的詞匯進行替換和刪除。優化算法學習,以算法設置的倫理價值為基礎,通過對抗性測試識別潛在偏見,實施“倫理持續校準”,依靠人類反饋強化學習機制來動態糾正其中的偏差[14]。

●加強人才培養與觀念轉變

數字政府建設離不開公眾數字素養的有效支撐[15]。構建數字法治政府應當推進政府、高校、公眾等主體的多方協作機制,加強人才培養,促進公眾對生成式人工智能的觀念轉變。

首先,加強政府人員數字化培訓。通過現有工作人員的入職培訓和日常培訓,提高他們對生成式人工智能技術的認識和應用能力,充分發揮生成式人工智能在政府材料預審、政務信息問答、簡單公文處理等流程性、重復性工作中展現出的顯著優勢。同時,公職人員要轉變傳統政務服務依靠長期經驗積累的工作觀念,積極適應數字化時代的工作要求,引領政務服務從“被動響應”向“主動服務”的轉型。

其次,推進高等院校數字化教育。高校和職業院校作為立德樹人的根據地,要加強人才培養和技術創新,設置相關專業和實踐課程,用互聯網、大數據以及人工智能等技術工具,推動人才的跨區域流動,培育出一批既懂人工智能技術又熟悉法律和政務管理的復合型人才。

最后,加快公眾觀念轉變。建設數字法治政府不僅需要加強政府專業人員和高校人才隊伍的建設,還需要提升公眾數字化素養,各環節相輔相成才能實現數字法治政府與公眾的有機互動。可以通過宣傳教育,提高公眾對人工智能技術的認知和理解,增強公眾對數字法治政府建設的支持度和參與度。充分借助短視頻平臺、智能交通、在線醫療等手段,讓公眾轉變對傳統人工智能的偏見。通過有效的監督投訴渠道,拓展公眾舉報和督促政府依法行政的途徑,增加政府與公眾互動的積極性,真正做到想群眾之所想,行群眾之所囑。

參考文獻

[1]孫全勝.人工智能技術賦能數字法治政府建設的內在機理和優化路徑研究[J].人工智能,2023,(06).

[2]白太輝.數字資本主義的歷史邏輯批判[]理論界,2022,(05).

[3]袁建軍,陳錦.從“智”到“能”:生成式人工智能助推政務服務智能化的實踐理路[]中共天津市委黨校學報,2024,(06).

[4]喻少如,唐成余.邁向智能監察:人工智能賦能國家監察的邏輯與進路川].中共天津市委黨校學報,2024,(02).

[5]孫全勝.大數據技術賦能數字法治政府建設的作用機理、風險和應對策略[J].河南社會科學,2025,(02).

[6]蔣銀華.論數字法治政府建設的安全之維[J].法律科學(西北政法大學學報),2024,(04).

[7]孫書魁,范菁,曲金帥,路佩東.生成式對抗網絡研究綜述[J].計算機工程與應用,2022,(18).

[8]程雪軍.AIGC浪潮下超級人工智能平臺算法黑箱的治理路徑[A].《新興權利》集刊2023年第2卷——生成式人工智能法律問題研究文集[C].同濟大學法學院,2024:35-43.

[9]楊曉宏,李肖鋒,馬娟等.政策工具視角下的省級基礎教育信息化政策文本分析Ⅲ,現代教育技術,2023,(06).

[10]王彬,強蘊慧.生成式人工智能的人權風險及其法律治理[J].人權法學,2024,(06).

[11]張廣偉.歐盟人工智能監管沙盒制度的功能、局限及其啟示——基于歐盟《人工智能法》的解析[].德國研究,2024,(02).

[12]邱遙堃.生成式人工智能的規制挑戰與體系應對[J].南大法學,2025,(02).

[13]孫麗文,李少帥.基于倫理嵌入的人工智能新型風險治理體系建構及治理路徑解析[]當代經濟管理,2021,(07).

[14]施敏,楊海軍.生成式人工智能的算法倫理難點分析與探索[J].大數據,2025,(01).

[15]薛克鵬,楊汶濤.生成式人工智能彌合數字政府建設地方差異的路徑[].福建論壇(人文社會科學版),2025,(01).

尤雪寧,上海外國語大學賢達經濟人文學院助教。研究方向:法治理論。

作者簡介

責任編輯 李冬梅

主站蜘蛛池模板: 男人天堂亚洲天堂| 日韩欧美中文| 亚洲一级色| 精久久久久无码区中文字幕| 欧美日韩中文国产va另类| 91区国产福利在线观看午夜 | 伊人久综合| 欧美成人亚洲综合精品欧美激情| 国产精品va免费视频| 久久免费视频播放| 人妻丰满熟妇AV无码区| 国产成熟女人性满足视频| 日韩av手机在线| 91丨九色丨首页在线播放 | 三级毛片在线播放| 波多野结衣久久高清免费| 99这里只有精品在线| 三级欧美在线| 韩日免费小视频| 久久无码免费束人妻| 国产精品一区二区在线播放| 欧美日韩成人在线观看 | 一区二区欧美日韩高清免费| 最新无码专区超级碰碰碰| 亚洲欧美国产视频| 午夜不卡视频| 超清人妻系列无码专区| 欧美精品一区二区三区中文字幕| 中文字幕av一区二区三区欲色| 国产h视频免费观看| 成人小视频网| 国模视频一区二区| 国内丰满少妇猛烈精品播| 国产成人精品第一区二区| 欧美激情成人网| 亚洲国产精品久久久久秋霞影院| 99在线观看免费视频| 国产一级精品毛片基地| 一级爆乳无码av| 国产成人精品高清不卡在线| 91网红精品在线观看| 国产在线91在线电影| 国产精品不卡永久免费| 毛片免费观看视频| 亚洲中文字幕无码爆乳| 无码专区在线观看| 国产菊爆视频在线观看| 丝袜国产一区| 亚洲精品无码AV电影在线播放| 97在线免费| 久久特级毛片| 亚洲欧美日韩中文字幕在线| 亚洲精品爱草草视频在线| 91国内在线视频| 国产精品白浆无码流出在线看| 国产人成网线在线播放va| 久久香蕉国产线看观| 亚洲一级毛片在线播放| 国产h视频免费观看| 亚洲av无码人妻| 国产亚洲高清视频| 国产精品香蕉在线| 欧美国产日韩一区二区三区精品影视| 五月激激激综合网色播免费| AV熟女乱| 欧美国产在线精品17p| aⅴ免费在线观看| 无码久看视频| 欧美精品另类| 亚洲中文字幕在线一区播放| 在线观看国产精品日本不卡网| 在线国产你懂的| 国产日韩欧美视频| 不卡无码h在线观看| 亚洲激情区| 在线亚洲精品福利网址导航| 亚洲第一精品福利| 亚洲成综合人影院在院播放| www欧美在线观看| 91黄色在线观看| 啪啪啪亚洲无码| 午夜福利免费视频|