999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

風(fēng)險演化與系統(tǒng)響應(yīng):人工智能驅(qū)動基層治理的安全監(jiān)管機制研究

2025-11-09 00:00:00張輝冀紅梅
中共天津市委黨校學(xué)報 2025年5期

中圖分類號:D630 文獻(xiàn)標(biāo)識碼:A 文章編號:1008-410X(2025)05-0076-09

人工智能是人類社會發(fā)展的新領(lǐng)域,是驅(qū)動全球變革的決定性力量,也是造福全人類的公共產(chǎn)品。基層強則國家強,基層安則天下安。隨著智能技術(shù)的飛速發(fā)展,人工智能已深度融入我國基層治理的運作流程,內(nèi)化為推進(jìn)基層治理體系建設(shè)、提升治理能力現(xiàn)代化的重要組成部分[1][2]。人工智能驅(qū)動基層治理存在明顯的雙刃劍效應(yīng),技術(shù)應(yīng)用在推動基層治理變革的同時,也引致治理安全問題[3],應(yīng)基于安全監(jiān)管目標(biāo)、主體角色定位與職責(zé)、制度、體系等要素,針對技術(shù)普及驅(qū)動的基層治理結(jié)構(gòu)性變化搭建多主體協(xié)同監(jiān)管框架,助力基層治理創(chuàng)新及推進(jìn)基層治理現(xiàn)代化。

一、人工智能驅(qū)動基層治理的安全風(fēng)險演化

人工智能技術(shù)在基層治理中的深度滲透,推動治理模式從經(jīng)驗驅(qū)動向數(shù)據(jù)驅(qū)動轉(zhuǎn)型,并引發(fā)內(nèi)生性風(fēng)險和系統(tǒng)性風(fēng)險,二者相互助推共同構(gòu)成衍生性風(fēng)險的基礎(chǔ)。

(一)人工智能驅(qū)動基層治理產(chǎn)生內(nèi)生性風(fēng)險

內(nèi)生性風(fēng)險源于算法偏差、數(shù)據(jù)質(zhì)量低下和模型不可解釋性等技術(shù)本體缺陷,內(nèi)嵌于基層治理的運作流程中,具有隱蔽性、專業(yè)性、快速迭代性等特征,是安全風(fēng)險的起點,對安全監(jiān)管形成“溯源難、穿透難、把控難\"的根源性制約。

第一,算法黑箱產(chǎn)生透明度風(fēng)險。人工智能技術(shù)驅(qū)動基層治理的過程也是算法深度融入基層決策服務(wù)的過程,但算法的運行機制往往很難做到透明,特別是一些復(fù)雜的多模態(tài)大模型算法,即便是專業(yè)人員也需要投入較大精力才能更好理解。算法黑箱讓公眾難以理解決策背后的邏輯,易誘發(fā)信任危機[4]。從算法構(gòu)建的基礎(chǔ)邏輯看,任何程式都可能存在不確定性因素。算法的安全性和可靠性直接影響人工智能系統(tǒng)的安全。由于現(xiàn)行安全監(jiān)管工具難以穿透算法內(nèi)部邏輯,監(jiān)管部門也缺乏強制性算法備案審計標(biāo)準(zhǔn)。算法還可能存在漏洞,遭到外界的侵?jǐn)_和攻擊,導(dǎo)致偏見植入,輸出錯誤結(jié)果。例如,隨著DeepSeek等人工智能大模型在媒體領(lǐng)域的運用,內(nèi)容質(zhì)量提升與幻覺率攀升的新聞屢見報端。

第二,數(shù)據(jù)質(zhì)量引發(fā)管控缺位風(fēng)險。數(shù)據(jù)質(zhì)量低劣引發(fā)系統(tǒng)性風(fēng)險,已成為人工智能治理領(lǐng)域一項嚴(yán)峻挑戰(zhàn)[5]。人工智能依賴科學(xué)的數(shù)據(jù),訓(xùn)練數(shù)據(jù)的質(zhì)量直接決定人工智能技術(shù)應(yīng)用的效能。在實際工作中,基層工作對象、內(nèi)容千頭萬緒,公眾行為形成的海量數(shù)據(jù)需要被記錄、分析和應(yīng)用?;鶎又卫頂?shù)據(jù)具有多源異構(gòu)、質(zhì)量參差、歷史偏見嵌人等三重特性,導(dǎo)致基層治理的數(shù)據(jù)現(xiàn)實與數(shù)據(jù)驅(qū)動的技術(shù)范式存在結(jié)構(gòu)性矛盾。訓(xùn)練數(shù)據(jù)還面臨攻擊者篡改、注入錯誤、誤導(dǎo)數(shù)據(jù)的“投毒\"風(fēng)險,“污染\"模型的概率分布,進(jìn)而造成準(zhǔn)確性、可信度下降。目前,缺乏數(shù)據(jù)全生命周期監(jiān)控機制,從采集時的知情同意形式化、存儲時的加密等級不足、使用時的超范圍分析到銷毀時缺少自動遺忘機制,數(shù)據(jù)處理利用的各環(huán)節(jié)均存在安全監(jiān)管漏洞。

第三,算力安全導(dǎo)致運行韌性不足風(fēng)險。算力是支撐技術(shù)平穩(wěn)運行的關(guān)鍵,人工智能技術(shù)應(yīng)用必須以強大的算力作為支撐。基層治理主體由于缺乏足夠的算力資源,沒有能力進(jìn)行海量數(shù)據(jù)的并發(fā)處理,甚至儲存數(shù)據(jù)的介質(zhì)普遍不足,無法有效開展記錄存檔,一旦出現(xiàn)具體事務(wù)的集中辦理,服務(wù)器設(shè)備輕則運行不暢,重則直接宕機,給基層工作造成負(fù)面影響?;鶎硬块T對因算力不足引發(fā)的區(qū)域性運行風(fēng)險,尚未建立跨層級算力支援聯(lián)動預(yù)案等風(fēng)險機制?,F(xiàn)行《關(guān)鍵信息基礎(chǔ)設(shè)施安全保護(hù)條例》未能覆蓋人工智能算力節(jié)點,對云平臺、邊緣計算節(jié)點的服務(wù)連續(xù)性指標(biāo)、安全防護(hù)等級、災(zāi)備機制缺乏強制性要求。關(guān)于算力等基礎(chǔ)設(shè)施韌性標(biāo)準(zhǔn)體系缺位,后期的安全監(jiān)管工作缺少政策支撐,不同程度地加重了算力安全風(fēng)險。

(二)人工智能驅(qū)動基層治理產(chǎn)生系統(tǒng)性風(fēng)險

系統(tǒng)性風(fēng)險主要源于技術(shù)系統(tǒng)與既有科層體制、權(quán)責(zé)結(jié)構(gòu)及制度系統(tǒng)之間的適配矛盾6」,這種矛盾會引發(fā)協(xié)同失效與責(zé)任虛化,導(dǎo)致安全監(jiān)管面臨“跟不上、合不攏、管不全\"的結(jié)構(gòu)性滯后現(xiàn)狀。

第一,主體性缺失致使權(quán)責(zé)真空風(fēng)險。當(dāng)人工智能系統(tǒng)成為基層治理的重要工具時,人的治理主體地位可能被削弱,一定程度上會引發(fā)基層工作人員的“主體性喪失\"問題,使治理過程異化為技術(shù)主導(dǎo)的\"非人格化決策”,導(dǎo)致“技術(shù)利維坦\"與\"數(shù)據(jù)暴政\"的雙重危機[7],基層工作人員面臨角色空心化風(fēng)險。當(dāng)人工智能參與決策出現(xiàn)失誤時,由于政府、企業(yè)與技術(shù)供應(yīng)商之間責(zé)任界定存在模糊區(qū)間,基層治理會出現(xiàn)“責(zé)任主體割裂風(fēng)險”[8]?,F(xiàn)有法律體系建設(shè)和管理體系設(shè)計在智能政務(wù)服務(wù)責(zé)任事故中難以明確劃分主體責(zé)任?;鶎又卫磉^程中,民生保障與安全維護(hù)工作流程難以標(biāo)準(zhǔn)化,基層工作人員自由裁量權(quán)較大,進(jìn)一步加劇了責(zé)任主體缺位問題,甚至造成責(zé)任向技術(shù)一推了之的情況。當(dāng)政府把本應(yīng)由人掌握的決策權(quán)交給算法后,算法直接行使公共權(quán)力,會對傳統(tǒng)權(quán)責(zé)關(guān)系提出挑戰(zhàn)。2025年9月,全國網(wǎng)絡(luò)安全標(biāo)準(zhǔn)化技術(shù)委員會和國家計算機網(wǎng)絡(luò)應(yīng)急技術(shù)處理協(xié)調(diào)中心發(fā)布的《人工智能安全治理框架2.0》,提出“設(shè)計安全控制閾值、設(shè)置安全終止開關(guān)、預(yù)留人工干預(yù)有效窗口等內(nèi)容”要求[6]。但是,由于缺乏系統(tǒng)化、可執(zhí)行的人工介入閾值與決策日志保存規(guī)范,導(dǎo)致責(zé)任認(rèn)定難以厘清技術(shù)缺陷與行政失察之間的界限。“一些基層干部為了展示其政績,過分推廣多個 App 和在線平臺,并要求基層工作人員進(jìn)行日常打卡和報告\"[9]。這種“數(shù)字形式主義\"進(jìn)一步放大了技術(shù)濫用危害,傳統(tǒng)“誰決策、誰負(fù)責(zé)\"的權(quán)責(zé)鏈條面臨失效風(fēng)險。

第二,制度供給碎片化誘發(fā)協(xié)同梗阻風(fēng)險。人工智能是解決問題的自動化工具,具有扁平化管理要求,與現(xiàn)有行政管理層級設(shè)計不完全適配。當(dāng)人工智能技術(shù)與基層工作融合時,自動化處理的效率受到關(guān)注,進(jìn)而滋生數(shù)字效率本位傾向,削弱對少數(shù)公眾訴求的關(guān)注。科層制作為常規(guī)的基層政府體系的運行基礎(chǔ),具有理性、專業(yè)化和高效率等優(yōu)勢,但也存在結(jié)構(gòu)僵化、部門割裂等問題。與傳統(tǒng)的基層治理模式相比,技術(shù)成為鏈接治理主體與治理對象的平臺,數(shù)據(jù)成為基層工作處理的紐帶。政府部門之間條塊分割治理的現(xiàn)狀,在某種程度上加劇了“數(shù)據(jù)孤島\"的形成。目前,一些地方政府投入巨資建設(shè)智慧城市、城市大腦等智能中心,但各部門數(shù)據(jù)分割,不能完全投入運營,僅作為參觀展示窗口,資源浪費巨大??绮块T風(fēng)險協(xié)同監(jiān)管機制不完善,使安全監(jiān)管有效性下降。

(三)人工智能驅(qū)動基層治理產(chǎn)生衍生性風(fēng)險

衍生性風(fēng)險是風(fēng)險的質(zhì)變,系統(tǒng)性風(fēng)險失控后超越傳統(tǒng)治理范式的管控極限,導(dǎo)致公私邊界消解、虛實空間風(fēng)險交織、數(shù)字鴻溝加劇等根本性的秩序挑戰(zhàn)?!叭斯ぶ悄芗夹g(shù)具有顯著的高速迭代、通用性、顛覆性和重塑性等特性\"[10],其安全風(fēng)險的生成機理迥異于傳統(tǒng)技術(shù)風(fēng)險,會導(dǎo)致\"范式性失靈”。

第一,私有空間消融導(dǎo)致隱私暴露風(fēng)險。公眾生活涉及數(shù)據(jù)龐雜,數(shù)據(jù)聚合效應(yīng)在很大程度上瓦解了傳統(tǒng)隱私屏障。“人工智能技術(shù)進(jìn)一步縮短了數(shù)字空間與物理空間之間的距離,形成以‘虛實融合'為特征的新型社會空間格局”[11]。無論是瀏覽政務(wù)中心網(wǎng)頁還是辦理公共服務(wù)事項,只要試圖在技術(shù)平臺上獲取相關(guān)服務(wù),個人信息就必須通過“注冊、面部識別、填表\"等形式與技術(shù)平臺共享。沒有明確的隱私保護(hù)政策和用戶協(xié)議,被采集對象在不知情的情況下,被動接受隱私數(shù)據(jù)的采集、分析。大量用戶的個人信息脫敏難度大,一旦系統(tǒng)出現(xiàn)故障或者面臨外在威脅,個人信息隱私將面臨泄露風(fēng)險。人工智能平臺匯集個人社保、就業(yè)、教育、家庭等信息,加上基層社區(qū)、農(nóng)村加裝的攝像頭等監(jiān)控設(shè)備,可生成失控的全息畫像。算法技術(shù)存在安全漏洞,個人數(shù)據(jù)可能被竊取用作他途,導(dǎo)致隱私風(fēng)險從“單點泄露\"升級為“全景暴露”,使傳統(tǒng)風(fēng)險防控工具效力下降,安全監(jiān)管難度不斷增加。

第二,虛擬與現(xiàn)實空間互嵌出現(xiàn)異化風(fēng)險。基層治理中人工智能技術(shù)的應(yīng)用,依托物理空間構(gòu)建智能虛擬空間,但智能虛擬空間并不完全是物理空間的鏡像,數(shù)字與物理空間之間實現(xiàn)快速無縫切換,虛擬與現(xiàn)實的邊界愈發(fā)模糊\"[11]。由于技術(shù)的泛在性,虛擬空間會對現(xiàn)實世界構(gòu)成威脅,甚至成為風(fēng)險策源地。物理空間的風(fēng)險生成機理比較簡單,傳播速度慢,遏制風(fēng)險傳播的成本比較低。但在虛擬空間,風(fēng)險以毫秒級別的指數(shù)速度裂變傳播,生成式人工智能偽造的視頻、圖像、文件更難以辨別真?zhèn)?,遏制風(fēng)險擴散的成本更高。對于虛擬空間的安全監(jiān)管技術(shù)短板更為明顯,生成式內(nèi)容水印、偽造視頻等溯源技術(shù)匱乏,虛假信息裂變速度遠(yuǎn)超網(wǎng)絡(luò)風(fēng)險核查周期,造成虛假信息監(jiān)管成本激增。

第三,智能普惠過程存在數(shù)字鴻溝擴大風(fēng)險。老年人、行動不便者等群體由于數(shù)字能力與素養(yǎng)較低等原因,逐漸被數(shù)字技術(shù)屏障阻隔,成為數(shù)字貧困群體。人工智能技術(shù)賦能不均引發(fā)社會分化,數(shù)字貧困群體不斷被邊緣化,甚至成為基層治理決策中的\"失語者”,引發(fā)該群體的社會疏離感,一定程度上導(dǎo)致了公共服務(wù)的可及性不充分、服務(wù)包容性不足等問題。數(shù)字貧困群體對人工智能決策缺乏有效異議權(quán),安全監(jiān)管在效率提升與權(quán)利保障間存在價值抉擇的困難。同時,地區(qū)間經(jīng)濟發(fā)展的不平衡導(dǎo)致人工智能投入不均,將擴大民生保障、營商環(huán)境等競爭差距。當(dāng)技術(shù)成為公共服務(wù)獲取的門檻而非橋梁,便會從技術(shù)賦權(quán)演變成技術(shù)排斥,形成數(shù)字服務(wù)差異。

二、構(gòu)建人工智能驅(qū)動基層治理的安全監(jiān)管體系

為應(yīng)對人工智能技術(shù)驅(qū)動基層治理過程中引發(fā)的技術(shù)、管理和系統(tǒng)等多維風(fēng)險,基于應(yīng)對高度動態(tài)性和不確定性的內(nèi)外部環(huán)境的要求,安全監(jiān)管必須廣泛吸納所有受安全風(fēng)險影響主體的意見,形成政府、市場、社會組織和公眾等四方互嵌的多主體監(jiān)管格局。通過安全監(jiān)管目標(biāo)設(shè)計、主體組織結(jié)構(gòu)、制度體系構(gòu)建及行為策略選擇的框架視角[12],構(gòu)建“目標(biāo)錨定、多元參與、制度重構(gòu)、機制互動\"的安全監(jiān)管體系。

(一)錨定人工智能驅(qū)動基層治理的安全監(jiān)管目標(biāo)

人工智能驅(qū)動基層治理的安全監(jiān)管目標(biāo)在于實現(xiàn)工具理性與價值理性的有機統(tǒng)一,將抽象價值原則轉(zhuǎn)化為具體清晰的監(jiān)管要求。在操作層面,提高技術(shù)應(yīng)用的可靠性、透明性與可控性;在制度層面,保障權(quán)責(zé)配置的合理性、規(guī)則體系的適應(yīng)性與跨部門協(xié)同的有效性;在價值層面,維護(hù)公民基本權(quán)利、促進(jìn)社會公平包容、增強治理系統(tǒng)韌性。

第一,工具理性與價值理性的調(diào)適。工具理性強調(diào)通過技術(shù)手段提升工作效率,而價值理性著眼于保障公共利益、維護(hù)社會公平與公民權(quán)利[13]。人工智能技術(shù)的內(nèi)在運作機理是基于工具理性的算法設(shè)計,而基層治理要求堅守價值理性。兩者之間的張力構(gòu)成安全監(jiān)管的核心命題,既要充分發(fā)揮人工智能在提升治理精度、降低行政成本方面的技術(shù)優(yōu)勢,又需警惕\"技術(shù)至上\"導(dǎo)致的治理異化風(fēng)險。通過梯度化部署、場景化適配與差異化施策,在具體治理情境中實現(xiàn)“善智”與“善治”的協(xié)同互構(gòu)[14],如在社會救助資格審核中,系統(tǒng)通過多源數(shù)據(jù)比對實現(xiàn)高效初審,同時設(shè)立“低置信度預(yù)警一人工介入復(fù)核\"機制,確保技術(shù)效率與個案公平的有機結(jié)合。

第二,技術(shù)賦能與治理價值的融合。人工智能驅(qū)動基層治理需建立技術(shù)賦能與公共價值的制度化鏈接,警惕“技術(shù)錯配\"風(fēng)險,將基層治理推向“技治主義”,“與社會治理強調(diào)的平等、民主、多元參與等主張相抵悟\"[15]。協(xié)同監(jiān)管主體需將“人民至上\"\"公平正義\"等核心價值嵌人算法設(shè)計準(zhǔn)則,作為系統(tǒng)評估標(biāo)準(zhǔn),使價值理性成為技術(shù)應(yīng)用的內(nèi)在約束。同時,在人工智能決策的關(guān)鍵節(jié)點保留人文價值評判空間,防止技術(shù)賦能異化為對治理價值的侵蝕。

(二)再造人工智能驅(qū)動基層治理的安全監(jiān)管制度

構(gòu)建人工智能驅(qū)動基層治理安全監(jiān)管制度的核心在于,明確公共價值目標(biāo)與多元主體結(jié)構(gòu),創(chuàng)設(shè)促進(jìn)主體間持續(xù)、高效互動的運行規(guī)則,確立安全監(jiān)管工作程序的合法性與協(xié)作過程的規(guī)范有序。

第一,硬法約束與軟法引導(dǎo)協(xié)同配合。我國人工智能領(lǐng)域的法律規(guī)制主要是對生成式人工智能技術(shù)、算法推薦技術(shù)等進(jìn)行規(guī)范,監(jiān)管對象聚焦數(shù)據(jù)內(nèi)容,尤其是數(shù)據(jù)安全[16]。中國信息通信研究院連續(xù)多年發(fā)布《人工智能發(fā)展報告》,在全景式追蹤產(chǎn)業(yè)規(guī)模、技術(shù)賽道與場景落地的縱向演進(jìn)同時,逐年增設(shè)“安全治理\"專章,對算法可解釋性、數(shù)據(jù)合規(guī)、深度偽造、模型攻防等議題展開量化評估與案例剖析,為政策制定者提供了動態(tài)風(fēng)險地圖。然而,成文法固有的審議周期和程序剛性與人工智能技術(shù)的“摩爾式\"迭代速度不匹配,導(dǎo)致監(jiān)管制度供給滯后于人工智能技術(shù)進(jìn)步,需強化企業(yè)自律與社會監(jiān)督。在企業(yè)層面,建立算法倫理審計委員會、漏洞賞金計劃等措施,將安全指標(biāo)納入績效考核與可持續(xù)發(fā)展報告中,形成“合規(guī)即商譽\"的內(nèi)部約束。在社會組織層面,行業(yè)協(xié)會、第三方實驗室定期發(fā)布技術(shù)白皮書、測評基準(zhǔn)可信認(rèn)證,為安全監(jiān)管部門提供執(zhí)法參考。

第二,縱向路徑與橫向路徑交叉設(shè)置。我國對通用人工智能應(yīng)用的安全監(jiān)管制度建設(shè)側(cè)重于“保障急用先行\(zhòng)",追求治理效率最優(yōu)[17],重點的監(jiān)管領(lǐng)域涵蓋自動化決策、隱私安全、數(shù)據(jù)利用、深度合成等,重視對公眾安全訴求的回應(yīng)[18](P53-54)。我國對人工智能治理堅持“技術(shù)主義\"路徑和場景化邏輯,對人工智能的安全監(jiān)管在治理架構(gòu)、治理對象和治理工具方面具有明顯的先發(fā)優(yōu)勢[16]。然而,縱向的、以場景為界的安全監(jiān)管模式難以完全適應(yīng)通用人工智能技術(shù)安全監(jiān)管需求。從各國人工智能安全監(jiān)管實踐看,橫向綜合性安全監(jiān)管制度對人工智能安全監(jiān)管同樣具有重要作用。2024年歐盟頒布《人工智能法案》采用“基于風(fēng)險\"的橫向立法模式,依據(jù)安全風(fēng)險等級對人工智能應(yīng)用進(jìn)行統(tǒng)一分類,并匹配差異化義務(wù),構(gòu)建分級監(jiān)管體系。我國需在完善現(xiàn)有縱向場景化安全監(jiān)管的同時,積極探索適用于人工智能通用技術(shù)的橫向統(tǒng)一性安全監(jiān)管框架,最終編織一張縱橫交錯的安全監(jiān)管網(wǎng)絡(luò)。

(三)協(xié)同人工智能驅(qū)動基層治理中主體的角色邊界及權(quán)能配置

構(gòu)建人工智能驅(qū)動基層治理安全監(jiān)管體系,首要任務(wù)是明確主體職責(zé)與權(quán)限。在協(xié)同監(jiān)管框架內(nèi),政府、企業(yè)、社會組織及公民等利益相關(guān)方,依據(jù)自身資源稟賦和能力優(yōu)勢,共同構(gòu)成一個去中心化的安全監(jiān)管決策網(wǎng)絡(luò),協(xié)同應(yīng)對風(fēng)險,奠定安全監(jiān)管的組織基礎(chǔ)。

第一,政府在安全監(jiān)管體系中扮演“元治理者”與制度引導(dǎo)者角色,居于治理網(wǎng)絡(luò)的核心協(xié)調(diào)位置。面對人工智能技術(shù)在基層治理中的融合應(yīng)用,政府需構(gòu)建縱向貫通、橫向聯(lián)動的主體協(xié)作機制,吸納企業(yè)、社會組織和公眾參與,充分發(fā)揮多元主體在安全監(jiān)管中的功能。政府應(yīng)建立明確的人工智能技術(shù)應(yīng)用安全標(biāo)準(zhǔn)體系,制定算法透明度、數(shù)據(jù)采集邊界與應(yīng)急響應(yīng)機制等強制性要求;負(fù)責(zé)制定人工智能應(yīng)用分級分類清單,明確高風(fēng)險場景的強制性審計與人工介入要求;建立區(qū)域性人工智能監(jiān)管云平臺,集成備案、測試與預(yù)警功能,并向基層提供標(biāo)準(zhǔn)化工具包;牽頭設(shè)立由技術(shù)專家、倫理學(xué)者與公眾代表組成的人工智能倫理評審委員會,對重大人工智能治理項目進(jìn)行前置評估,并持續(xù)監(jiān)督。同時,政府強化基層治理“人民至上\"的公共價值理念,增進(jìn)安全監(jiān)管的協(xié)同意識,在全社會范圍內(nèi)營造安全監(jiān)管的氛圍。

第二,企業(yè)不僅是人工智能技術(shù)的核心供給者,也是安全監(jiān)管的責(zé)任共擔(dān)者。企業(yè)在設(shè)計、研發(fā)、部署、維護(hù)人工智能治理系統(tǒng)過程中,盡可能消除模型算法存在的安全缺陷、歧視性傾向,提高系統(tǒng)魯棒性。企業(yè)必須保障人工智能技術(shù)的可靠性,履行全生命周期安全責(zé)任,包括每季度向監(jiān)管機構(gòu)提交算法安全自檢報告等資料,披露模型迭代、偏見檢測、攻防測試及漏洞修復(fù)記錄。對高風(fēng)險應(yīng)用建立終身責(zé)任追溯機制,在系統(tǒng)設(shè)計中內(nèi)置可解釋性模塊及異議反饋通道,保證決策邏輯可回溯、爭議可復(fù)核。企業(yè)還需大力推進(jìn)數(shù)據(jù)倫理實踐,堅持“數(shù)據(jù)最小化\"原則,采用聯(lián)邦學(xué)習(xí)、邊緣計算等技術(shù)減少集中式數(shù)據(jù)存儲風(fēng)險。

第三,社會組織承擔(dān)獨立監(jiān)督與行業(yè)自律職能,是安全監(jiān)管體系中的關(guān)鍵制衡力量。作為獨立第三方,社會組織組建“人工智能算法安全審計協(xié)會”,制定人工智能倫理公約與行業(yè)標(biāo)準(zhǔn),定期發(fā)布“基層人工智能系統(tǒng)公平性評估報告”,對存在偏見、歧視或隱私侵權(quán)威脅的人工智能技術(shù)予以“紅榜\"披露并限期整改。公益性科技倫理組織面向數(shù)字貧困群體提供數(shù)字權(quán)利教育,開展法律援助,面向數(shù)字貧困群體開展數(shù)字幫扶,提供算法解釋、數(shù)據(jù)刪除、損害賠償?shù)纫徽臼椒稍?;對?shù)據(jù)濫用、算法歧視等行為開展獨立調(diào)查,通過公益訴訟、媒體曝光等措施形成多元威懾。

第四,公眾在安全監(jiān)管中既是參與者,也是監(jiān)督者。在基層治理語境下,公眾不再是被動“受眾”,而是參與公共事務(wù)決策、執(zhí)行與監(jiān)督的能動主體,深度嵌入公共事務(wù)全鏈條。人工智能技術(shù)驅(qū)動基層治理需通過搭建政府服務(wù)智能平臺,拓寬公眾獲取信息的渠道,提高公眾表達(dá)訴求的能力,激勵公眾直接參與選舉、監(jiān)督、協(xié)商、意見表達(dá)等治理環(huán)節(jié),“體現(xiàn)以公民為本的理念,尊重群眾需求的差異性與復(fù)雜性\"[15]。公眾通過算法決策異議通道,對人工智能應(yīng)用的績效進(jìn)行評價,促使政府、企業(yè)重視人工智能安全問題,推動相關(guān)法律法規(guī)的制定與完善。公眾通過監(jiān)督平臺及時報告系統(tǒng)異常等風(fēng)險行為,形成廣泛的社會監(jiān)督網(wǎng)絡(luò)。

(四)健全人工智能驅(qū)動基層治理安全監(jiān)管機制

人工智能驅(qū)動基層治理安全監(jiān)管的協(xié)同運行機制,旨在整合政府、企業(yè)、社會組織與公眾的分散化資源與差異化能力,圍繞基層服務(wù)事項,以數(shù)據(jù)為紐帶,構(gòu)建運轉(zhuǎn)高效、響應(yīng)靈敏的風(fēng)險監(jiān)管網(wǎng)絡(luò)。

第一,多元協(xié)同驅(qū)動人工智能安全監(jiān)管機制轉(zhuǎn)型。我國企業(yè)、社會組織和公眾的公共事務(wù)規(guī)劃依賴政府牽頭,公共活動執(zhí)行依靠政府主導(dǎo)。在“大政府、小社會\"的治理模式下,容易產(chǎn)生“基層社會治理理念薄弱、治理主體的參與路徑缺失、多主體間協(xié)同性弱\"[19]。面向人工智能安全監(jiān)管的需求,應(yīng)建立由政府、企業(yè)、社會組織、公眾多主體參與的監(jiān)管機制,以權(quán)責(zé)分層、資源整合,強化協(xié)同意識,形成風(fēng)險識別、評估與處置的閉環(huán)機制,持續(xù)推進(jìn)機制創(chuàng)新,提升多元主體的協(xié)同程度,加快響應(yīng)速度,最終實現(xiàn)人工智能安全監(jiān)管由單點式滅火轉(zhuǎn)向系統(tǒng)性免疫的目標(biāo)。

第二,構(gòu)建以政務(wù)數(shù)據(jù)共享為基礎(chǔ)的主體互動機制。政府主導(dǎo)的安全監(jiān)管模式,由政府安全監(jiān)管部門依據(jù)安全監(jiān)管法規(guī)履責(zé),強調(diào)對行業(yè)整體監(jiān)管,體現(xiàn)監(jiān)管職責(zé)的層級劃分,凸顯政府的權(quán)威性,對人工智能技術(shù)在基層治理中的應(yīng)用形成嚴(yán)格監(jiān)管。但是,政府主導(dǎo)的安全監(jiān)管模式手段單一、應(yīng)急反應(yīng)速度慢,無法有效應(yīng)對技術(shù)引發(fā)的系統(tǒng)安全風(fēng)險。2025年8月實施的《政務(wù)數(shù)據(jù)共享條例》,要求建立健全政務(wù)數(shù)據(jù)共享安全管理制度?;鶎又卫頂?shù)據(jù)的獲取、溝通、整合是多主體識別和診斷潛在安全風(fēng)險的必要前提,直接影響協(xié)同安全監(jiān)管機制的實施效果。政府需主導(dǎo)搭建協(xié)同主體的主動交互機制,打造契合不同基層治理安全監(jiān)管場景的多主體政務(wù)數(shù)據(jù)共享網(wǎng)絡(luò),開展對基于政務(wù)數(shù)據(jù)互動的安全監(jiān)管,引導(dǎo)企業(yè)、社會組織、公眾自發(fā)參與監(jiān)管,實現(xiàn)制度約束、行業(yè)自律與社會監(jiān)督的有效結(jié)合,優(yōu)化安全監(jiān)管機制。

三、人工智能驅(qū)動基層治理的安全監(jiān)管實施路徑

人工智能驅(qū)動基層治理不僅是技術(shù)應(yīng)用過程,更是制度創(chuàng)新與公共價值深度融合的實踐,需多方協(xié)同參與,從主體協(xié)同、技術(shù)治理、制度適配與價值嵌入等多維度系統(tǒng)推進(jìn),建立安全性、有效性與規(guī)范性相統(tǒng)一的基層治理現(xiàn)代化路徑。

(一)重塑多元共治的安全監(jiān)管“協(xié)同網(wǎng)絡(luò)”

人工智能驅(qū)動基層治理的本質(zhì)是融合“算法速度”與“科層慣性”,實現(xiàn)多元主體在同一治理時空中的“異質(zhì)同步”。從“結(jié)構(gòu)、流程、文化\"三個維度同步發(fā)力,提升主體間的協(xié)同效能,打造運轉(zhuǎn)高效、權(quán)責(zé)明晰、價值共享的安全監(jiān)管組織結(jié)構(gòu)。

第一,人工智能驅(qū)動基層治理的安全監(jiān)管場域,政府不再包攬所有監(jiān)管環(huán)節(jié),而是借助“技術(shù)賦能十制度激勵”雙重杠桿,把企業(yè)、社會組織與公眾由“被動應(yīng)答者\"轉(zhuǎn)化為“監(jiān)管責(zé)任共擔(dān)者”,構(gòu)建多元共治的安全監(jiān)管組織結(jié)構(gòu)。政府作為協(xié)同監(jiān)管體系的引導(dǎo)者,依托技術(shù)賦能和協(xié)同機制激勵,激活企業(yè)、社會組織和公眾參與治理的內(nèi)生動力。同時,政府主動引導(dǎo)企業(yè)、社會組織和公眾參與安全監(jiān)管,加強對公眾關(guān)切的社會訴求的制度性吸納。政府、企業(yè)、社會組織與公眾等多元主體共同聚焦數(shù)據(jù)過度采集、算法歧視及資源濫用等關(guān)乎群眾切身利益的安全風(fēng)險點,構(gòu)建數(shù)據(jù)互聯(lián)互通的聯(lián)合安全監(jiān)管機制,從根本上破解“數(shù)據(jù)孤島”和“系統(tǒng)冗余\"帶來的監(jiān)管盲區(qū)。例如,2025年7月樂清市承接浙江省“外賣食品安全\"微改革試點,上線“明廚慧眼\"平臺,依托多模態(tài)AI技術(shù)構(gòu)建基于圖像識別的餐飲風(fēng)險四色分級評估體系,實現(xiàn)精準(zhǔn)化風(fēng)險畫像與分類監(jiān)管,形成了“風(fēng)險預(yù)警、政企聯(lián)動、社會參與\"的多元主體智慧安全監(jiān)管新范式[20]。

第二,人機協(xié)同是讓“算法速度\"融入“治理溫度”,促進(jìn)人工智能技術(shù)為基層治理賦能、提質(zhì)和增效,也是防范“技治主義\"的關(guān)鍵機制。建立科學(xué)合理的人機分工體系,在低收入家庭資格認(rèn)定、社區(qū)矯正評估等涉及重大民生權(quán)益的行政決策環(huán)節(jié),設(shè)置“人工復(fù)核閥”,保留人類決策者的最終決定權(quán)。在日常數(shù)據(jù)采集、數(shù)據(jù)初篩等操作性任務(wù)中,充分發(fā)揮人工智能的效率優(yōu)勢,形成“機器處理流程、人類把握決策\"的良性分工。構(gòu)建靈活響應(yīng)的人機交互流程,能夠在算法置信度不足、輸出異?;蛴龅竭吘増鼍皶r,自動觸發(fā)人工介入程序,形成人機互補、相互校驗的協(xié)同標(biāo)準(zhǔn)。

第三,以“智治\"推進(jìn)“善治”,構(gòu)建人本導(dǎo)向的安全監(jiān)管文化。智能技術(shù)具有效率至上的工具屬性,而良政善治需要錨定人文價值,人工智能技術(shù)治理與人文治理必須實現(xiàn)良性互動[21]?!吧浦牵戳忌频娜斯ぶ悄埽仁且环N倫理價值標(biāo)準(zhǔn),又內(nèi)含技術(shù)開發(fā)和應(yīng)用的準(zhǔn)則,為人工智能開發(fā)和應(yīng)用描繪一種最佳狀態(tài)\"[22]。在基層治理搭載人工智能技術(shù)應(yīng)用的過程中,必須堅持“以人民為中心\"的根本立場,將“善智”作為技術(shù)應(yīng)用的基本倫理準(zhǔn)則。積極推進(jìn)安全監(jiān)管文化建設(shè),提升企業(yè)、社會組織和公眾安全監(jiān)管的自覺意識,逐步沉淀風(fēng)險共擔(dān)、錯誤共修、成果共享的安全監(jiān)管文化。

(二)構(gòu)建“剛?cè)岵鶿"的安全監(jiān)管規(guī)則體系

健全的安全監(jiān)管制度是人工智能驅(qū)動基層治理的基礎(chǔ)保障。通過剛性法規(guī)劃定底線,安全標(biāo)準(zhǔn)提供規(guī)范,倫理準(zhǔn)則注入向善價值,共同將技術(shù)不確定性與權(quán)力運行轉(zhuǎn)化為可預(yù)期、可復(fù)議、可追責(zé)的穩(wěn)定秩序,使人工智能技術(shù)在基層治理中安全可控。

第一,實行兼具公正性、隱私性與可追溯性的剛性規(guī)范,將算法黑箱轉(zhuǎn)化為透明決策鏈。治理主體制定全面具體的人工智能倫理法規(guī),規(guī)范指導(dǎo)人工智能系統(tǒng)的設(shè)計、開發(fā)和應(yīng)用。法規(guī)應(yīng)明確透明度、隱私保護(hù)、安全性等原則,防范算法偏見和數(shù)據(jù)不當(dāng)使用??紤]人工智能決策的可解釋性要求,保證決策過程能夠被理解和追溯。加強隱私保護(hù)法律框架,在數(shù)據(jù)收集,存儲和處理過程中切實保護(hù)個人隱私權(quán)。建立透明、可操作的數(shù)據(jù)流轉(zhuǎn)規(guī)定,關(guān)注跨部門、企業(yè)流轉(zhuǎn)數(shù)據(jù)的保護(hù),促使安全監(jiān)管多方主體在法規(guī)、倫理和技術(shù)標(biāo)準(zhǔn)方面達(dá)成共識,降低由于政策法規(guī)不一致性帶來的風(fēng)險。

第二,推進(jìn)國家標(biāo)準(zhǔn)、行業(yè)協(xié)議與韌性規(guī)范協(xié)同耦合,用標(biāo)準(zhǔn)規(guī)范筑牢安全監(jiān)管規(guī)制基礎(chǔ)。實現(xiàn)技術(shù)專業(yè)用語向監(jiān)管通約的轉(zhuǎn)譯,建立“基礎(chǔ)共性標(biāo)準(zhǔn)、行業(yè)應(yīng)用標(biāo)準(zhǔn)、安全保障標(biāo)準(zhǔn)\"三位一體的標(biāo)準(zhǔn)框架?;A(chǔ)共性標(biāo)準(zhǔn)聚焦人工智能技術(shù)的通用要求,包括術(shù)語定義、體系架構(gòu)、機器學(xué)習(xí)模型質(zhì)量標(biāo)準(zhǔn)等;行業(yè)應(yīng)用標(biāo)準(zhǔn)針對基層治理的具體場景,制定社區(qū)管理、民生服務(wù)、公共安全等領(lǐng)域的人工智能技術(shù)應(yīng)用指南,明確性能指標(biāo)、接口規(guī)范和適配性要求;安全保障標(biāo)準(zhǔn)則涵蓋數(shù)據(jù)安全、算法可靠、系統(tǒng)韌性等方面,可制定推廣人工智能系統(tǒng)安全風(fēng)險評估指南等規(guī)范流程文件。

第三,前置算法全生命周期中的倫理審查,形成“道德嵌入\"機制,使代碼中立讓位于智能向善的價值導(dǎo)向。推行“倫理融入研發(fā)\"安全監(jiān)管原則,要求在人工智能模型設(shè)計、訓(xùn)練與優(yōu)化階段實施強制性倫理審查。加強技術(shù)開發(fā)人員的倫理意識,在人工智能的設(shè)計、訓(xùn)練和部署中引入倫理審查機制,推動\"道德算法\"與治理模型融合,要求相關(guān)應(yīng)用滿足社會預(yù)期、符合道德準(zhǔn)則。在基層治理關(guān)鍵系統(tǒng)招標(biāo)采購中,明確將倫理審查合格作為技術(shù)供應(yīng)商的準(zhǔn)入前提。同時,積極發(fā)揮“軟法\"的柔性規(guī)范作用,支持行業(yè)協(xié)會制定自律公約、企業(yè)發(fā)布社會責(zé)任報告、專業(yè)機構(gòu)推出倫理認(rèn)證,形成多層次、社會化的規(guī)范體系,引導(dǎo)技術(shù)開發(fā)者、使用者踐行“智能向善”理念。

(三)培育“彈性監(jiān)管一社會共信一公眾參與\"的安全監(jiān)管環(huán)境

安全監(jiān)管環(huán)境是技術(shù)發(fā)展生態(tài)、社會接受程度與公眾參與能力等多維度的系統(tǒng)性培育,是一種“包容性基礎(chǔ)設(shè)施”,旨在形成一種支撐技術(shù)創(chuàng)新與安全監(jiān)管良性互動生態(tài),促使社會接受度與技術(shù)進(jìn)步步調(diào)相對一致。

第一,探索彈性安全監(jiān)管措施容納技術(shù)創(chuàng)新,營造穩(wěn)健包容的技術(shù)發(fā)展環(huán)境。監(jiān)管并非抑制創(chuàng)新,而是引導(dǎo)技術(shù)走向安全、可靠、可控的發(fā)展路徑。安全監(jiān)管主體探索建立包容審慎的監(jiān)管試點機制,在一定范圍內(nèi)引入“監(jiān)管沙盒”。在時空維度為技術(shù)與監(jiān)管同步演化提供“緩沖帶”,允許新技術(shù)在真實場景中測試運行,同時為其劃定安全空間和風(fēng)險閾值,在實踐中積累監(jiān)管經(jīng)驗,完善安全監(jiān)管規(guī)則[23]。北京市人工智能數(shù)據(jù)訓(xùn)練基地創(chuàng)新推行\(zhòng)"監(jiān)管沙盒\(zhòng)"機制,通過設(shè)立彈性準(zhǔn)入規(guī)則與動態(tài)合規(guī)底線,在風(fēng)險可控環(huán)境中支持新技術(shù)實驗,有效增強了監(jiān)管體系對創(chuàng)新風(fēng)險的包容能力,提升了社會信任水平,為人工智能在基層治理中的合規(guī)落地提供了重要的實踐路徑[24」。

第二,建立算法透明機制消解“黑箱\"疑慮,營造對人工智能技術(shù)應(yīng)用的社會信任環(huán)境。公眾對人工智能的信任是智能技術(shù)得以廣泛應(yīng)用的社會心理基礎(chǔ)。通過建立算法備案、信息披露和邏輯說明制度,用“白話文 + 圖示\"方式生成公眾版說明書向社會公開算法機理,減少公眾對“黑箱”決策的疑慮。建立有效的風(fēng)險溝通機制,針對人工智能應(yīng)用可能帶來的社會影響,及時開展民意調(diào)查與社會對話,對涉及算法決策的投訴進(jìn)行“風(fēng)險熱詞云\"分析,定期推送給技術(shù)研發(fā)方和監(jiān)管部門,實現(xiàn)安全風(fēng)險早發(fā)現(xiàn)、早預(yù)警,用安全監(jiān)管看得見的速度回應(yīng)公眾看不見的焦慮,防止公眾負(fù)面情緒在社交媒體上裂變式擴散,在安全監(jiān)管對話中筑牢社會信任環(huán)境。

第三,激活多元主體責(zé)任與自覺意識,營造有序的公眾參與環(huán)境。拓寬制度化的參與渠道,在基層治理算法應(yīng)用評估中引人公眾代表評審環(huán)節(jié),確保公眾意見能夠被實質(zhì)性地采納。通過科普宣傳、專題培訓(xùn)和實踐操作等多種形式,增強公眾對人工智能基本原理、運作邏輯和潛在風(fēng)險的認(rèn)識,促使公眾成為積極的參與者。鼓勵公眾通過便捷渠道報告發(fā)現(xiàn)的技術(shù)故障、算法歧視和數(shù)據(jù)濫用問題,將分散的社會感知轉(zhuǎn)化為協(xié)同監(jiān)管信息源,彌補專業(yè)安全監(jiān)管力量的不足。

(四)打造技術(shù)“內(nèi)生安全\"的安全監(jiān)管屏障

人工智能驅(qū)動基層治理,若缺乏同步的內(nèi)生技術(shù)安全監(jiān)管,極易演變?yōu)榧夹g(shù)權(quán)力放大器,需系統(tǒng)構(gòu)建覆蓋全流程的精細(xì)化安全監(jiān)管體系,以規(guī)范的工作流程防范內(nèi)生性風(fēng)險,真正為基層治理筑牢可驗證、可度量、可演化的安全屏障。

第一,將“事后滅火\"轉(zhuǎn)化為“過程免疫”,構(gòu)建“注冊、評估、監(jiān)測、退場”全鏈安全監(jiān)管機制。所有高風(fēng)險人工智能技術(shù)在上線前完成屬地安全監(jiān)管機構(gòu)備案,備案內(nèi)容包括核心算法功能、訓(xùn)練數(shù)據(jù)分布、性能基準(zhǔn)及風(fēng)險處置預(yù)案。引人國家認(rèn)定的第三方算法審計機構(gòu),定期對基層治理場景中使用的算法開展對抗性測試、偏見檢測和魯棒性評估,對民生服務(wù)、公共信用評價等高風(fēng)險領(lǐng)域?qū)嵤┠甓葟娭茖徲?。人工智能技術(shù)進(jìn)入使用階段后,安全監(jiān)管端一旦監(jiān)測到系統(tǒng)偏移,立即啟動熔斷機制,自動切換為人工復(fù)核模式。建立算法失效追溯和漏洞修復(fù)限期整改制度,對發(fā)生重大錯誤的模型強制開展技術(shù)溯源,并在規(guī)定期限內(nèi)完成優(yōu)化迭代或整體下線,防止累積成系統(tǒng)性風(fēng)險。

第二,用安全監(jiān)管強度精準(zhǔn)匹配風(fēng)險量級,實施基于風(fēng)險等級的分級分類。借鑒歐盟《人工智能法案》提出的人工智能應(yīng)用風(fēng)險分級監(jiān)管措施,根據(jù)應(yīng)用場景的社會敏感性將人工智能系統(tǒng)劃分為高、中、低三個風(fēng)險等級[25]。在社會救助資格認(rèn)定、執(zhí)法評估等高風(fēng)險場景強制采用可解釋的人工智能技術(shù)、實時運行監(jiān)測及人工復(fù)核機制;公共服務(wù)推薦、輿情分析等中風(fēng)險場景定期進(jìn)行合規(guī)性自查,并提交風(fēng)險評估報告;低風(fēng)險場景實行備案制管理,重點進(jìn)行事后監(jiān)督。同時,建立跨部門人工智能風(fēng)險評級委員會,動態(tài)調(diào)整風(fēng)險分類標(biāo)準(zhǔn),避免“一刀切\(zhòng)"過度監(jiān)管。

第三,將技術(shù)專業(yè)能力植入安全監(jiān)管,構(gòu)建技術(shù)風(fēng)險監(jiān)管工具鏈。推動建設(shè)區(qū)域性人工智能安全監(jiān)管云平臺,集成算法備案、測試評估、風(fēng)險預(yù)警等功能,為基層監(jiān)管提供標(biāo)準(zhǔn)化工具鏈。鼓勵政府與技術(shù)企業(yè)共建人工智能安全實驗室,開展漏洞挖掘、風(fēng)險模擬與攻防演練。研發(fā)適用基層治理場景的輕量化監(jiān)管技術(shù),包括數(shù)據(jù)加密驗證工具、模型水印追蹤系統(tǒng)和決策日志分析平臺,降低安全監(jiān)管技術(shù)門檻。建立人工智能事故報告共享數(shù)據(jù)庫,要求各應(yīng)用主體定期上報系統(tǒng)異常與處置情況,形成行業(yè)級學(xué)習(xí)反饋機制。

參考文獻(xiàn):

[1]方陵生.中國智慧城市發(fā)展報告[J].世界科學(xué),2020,(9).

[2]袁建軍,陳錦.從“智”到“能”:生成式人工智能助推政務(wù)服務(wù)智能化的實踐理路[J].中共天津市委黨校學(xué)報,2024,(6).

[3]張輝.人工智能對基層治理現(xiàn)代化的影響:機遇、困境與應(yīng)用策略[J].北京聯(lián)合大學(xué)學(xué)報(人文社會科學(xué)版),2024,(5).

[4]許浩,胡曉藝.人工智能賦能城市安全風(fēng)險治理的運行機制與治理困境[J].城市問題,2024,(4).

[5]秦書生,高琦珈.監(jiān)督監(jiān)察體系智能化的驅(qū)動邏輯與困境紓解[J].中共天津市委黨校學(xué)報,2025,(3).

[6]梅傲,陳子文.總體國家安全觀視域下我國數(shù)據(jù)安全監(jiān)管的制度構(gòu)建[J].電子政務(wù),2023,(1).

[7]王小芳,王磊.“技術(shù)利維坦”:人工智能嵌入社會治理的潛在風(fēng)險與政府應(yīng)對[J].電子政務(wù),2019,(5).

[8]徐敏寧,羅鵬.人工智能嵌入基層治理的風(fēng)險生成及規(guī)避[J].行政管理改革,2022,(7).

[9]唐任伍,史曉雯.人工智能賦能基層治理的運行機制與風(fēng)險規(guī)避[J].探索,2024,(1).

[10]容志,任晨宇.人工智能的社會安全風(fēng)險及其治理路徑[J].廣州大學(xué)學(xué)報(社會科學(xué)版),2023,(6).

[11]董波.人工智能賦能社會治理:人機共生的全新圖景[EB/OL].[2025-09-16].https://www.ndrc.gov.cn/xxgk/jd/jd/202508/t20250826_1400071.html.

[12]劉鵬,郭戈英.走向適應(yīng)性監(jiān)管:理解中國金融監(jiān)管機構(gòu)改革的治理邏輯[J].學(xué)海,2023,(3).

[13]徐青.價值理性的本真與建構(gòu)[J].河南師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2017,(4).

[14]許 勇,黃福壽.人工智能賦能國家治理:定位、邏輯與實踐[J].哈爾濱工業(yè)大學(xué)學(xué)報(社會科學(xué)版),2022,(3).

[15]翟云,吳旭紅,范梓騰,等.數(shù)字化轉(zhuǎn)型背景下“高效辦成一件事\"改革的系統(tǒng)性探索:理論邏輯、實踐創(chuàng)新與治理躍升[J].電子政務(wù),2025,(9).

[16]張璐.通用人工智能風(fēng)險治理與監(jiān)管初探——ChatGPT引發(fā)的問題與挑戰(zhàn)[J].電子政務(wù),2023,(9).

[17]張凌寒.深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國路徑[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2023,(3).

[18]朱欣遠(yuǎn),黎侃,張華榮,等.走向主動監(jiān)管:政務(wù)數(shù)據(jù)監(jiān)管體系探索與實踐[M].北京:人民郵電出版社,2024.

[19]劉丹,張昱.中國社會的治理實踐及其優(yōu)化[J].領(lǐng)導(dǎo)科學(xué),2021,(18).

[20]樂清市人民政府.商家后廚怎樣?AI先來把關(guān)樂清創(chuàng)全國首個外賣餐飲智能評價處置系統(tǒng)[EB/OL].[2025-09-14].http://www.yueqing.gov.cn/art/2025/7/4/art_1322069_59291946.html.

[21]孫賓,章榮君.融合工具理性與價值理性:社會治理數(shù)字化的實踐省思[J].湖湘論壇,2024,(2).

[22]顏佳華,王張華.以“善智”實現(xiàn)善治:人工智能助推國家治理的邏輯進(jìn)路[J].探索,2019,(6).

[23]楊豐一.人工智能“監(jiān)管沙盒”:理論溯源、實踐考察與制度構(gòu)建[J].中國行政管理,2024,(12).

[24]北京數(shù)據(jù)基礎(chǔ)制度先行區(qū)建成全國首個人工智能數(shù)據(jù)訓(xùn)練基地[EB/OL].[2025-09-15].http://bj.people.com.cn/n2/2024/0705/c14540-40902939.html.

[25]黃海瑛,楊旭.基于《人工智能法案》的歐盟人工智能監(jiān)管制度解讀[J].圖書館建設(shè),2025,(3).

責(zé)任編輯:崔正賢

Risk Evolution and Systemic Response : A Study on Security Supervision Mechanisms for AI-Driven Grassroots Governance

Zhang Hui,Ji Hongmei

Abstract: In the digital leap driven by new quality productive forces,“Artificial Intelligence Plus” has become a national strategic pillar for modernizing grassroots governance. The application of AI in grassroots governance is accompanied by complex security supervision risks, posing new challenges to governance security regulation. Security supervision must achieve organic integration of instrumental rationality and value rationality, promoting the fusion of technological empowerment and governance values. To strengthen AI security supervision, it is essential to reshape a multistakeholder“collaborative network” for safety governance, establish a regulatory framework that “combines rigidity and flexibility”,develop mechanisms for stakeholder interaction based on government data sharing,cultivate a safety supervision environment characterized by “resilient regulation-social trust-public participation”,and build endogenous security technological barriers. These measures will enhance the modernization of grassroots governance systems and capabilities.

Key words: artificial intelligence, grassroots governance, digitally disadvantaged groups,institutional adaptation,system resilience

主站蜘蛛池模板: 亚洲人成电影在线播放| 亚洲天堂高清| 波多野结衣久久精品| 黄色网在线| 日本a级免费| 日韩精品专区免费无码aⅴ| 色妞www精品视频一级下载| 欧美日韩精品在线播放| 国产人妖视频一区在线观看| 黄色网页在线播放| 国产女人在线| 在线精品欧美日韩| 91九色视频网| 香蕉久久国产精品免| 国产99免费视频| 色哟哟国产精品一区二区| 日本影院一区| 九色在线观看视频| 成人福利视频网| 在线亚洲精品福利网址导航| a天堂视频| 久久精品国产国语对白| 女同国产精品一区二区| 亚洲h视频在线| 亚洲一区二区视频在线观看| 久久精品中文字幕少妇| 国产精品视频观看裸模| 婷婷综合缴情亚洲五月伊| 无码日韩精品91超碰| h网站在线播放| 精品国产91爱| 日韩黄色大片免费看| 人妻中文久热无码丝袜| 欧美午夜理伦三级在线观看 | 国产成人1024精品| 刘亦菲一区二区在线观看| 福利一区在线| 欧美日韩福利| 国产波多野结衣中文在线播放| 99re在线观看视频| 国产亚洲第一页| 99在线视频免费| 国产成人精品一区二区免费看京| 婷婷色婷婷| 国产打屁股免费区网站| 久久人体视频| 99久久国产综合精品女同| 国产精品视频猛进猛出| 国产日产欧美精品| 国产欧美视频在线观看| 中文字幕亚洲另类天堂| 久996视频精品免费观看| 国产伦片中文免费观看| 天堂在线亚洲| 特级毛片8级毛片免费观看| 国产成人精品视频一区二区电影| 国产天天射| 久久精品嫩草研究院| 久久午夜夜伦鲁鲁片不卡| 国国产a国产片免费麻豆| 亚洲第一成网站| 精品無碼一區在線觀看 | 免费A∨中文乱码专区| 久久精品丝袜高跟鞋| 97国产精品视频自在拍| 97亚洲色综久久精品| 亚洲av无码牛牛影视在线二区| 国产精品人莉莉成在线播放| www.亚洲天堂| 久久99国产综合精品女同| 国产日韩欧美精品区性色| 亚洲精品成人7777在线观看| 激情综合网址| 国产SUV精品一区二区| 国产自无码视频在线观看| 久久综合九九亚洲一区| 亚洲综合片| 中文字幕无线码一区| 美女亚洲一区| 国产高潮视频在线观看| 国产精品免费p区| 欧美日韩国产一级|