999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能引入數(shù)字政府建設(shè)的規(guī)制路徑

2025-01-31 00:00:00傅建平

[摘 要] 數(shù)字技術(shù)的迭代發(fā)展與能力躍遷契合了數(shù)字政府轉(zhuǎn)型中的多維需求。生成式人工智能技術(shù)能夠為數(shù)字政府的建設(shè)提供在政府決策科學(xué)性與前瞻性強化、政府運作效率優(yōu)化與成本降低、政務(wù)服務(wù)的親切度與參與度提升等方面的助力。從風(fēng)險社會的理論出發(fā),信息時代的風(fēng)險網(wǎng)絡(luò)更為復(fù)雜、治理更加困難,需要引入三維視角從而綜合施策?;貧w到生成式人工智能引入數(shù)字政府建設(shè)的場景來看,存在著復(fù)雜算法引發(fā)的數(shù)據(jù)安全與信息保密風(fēng)險、資本力量解構(gòu)行政權(quán)力公共屬性的風(fēng)險、數(shù)據(jù)處理導(dǎo)致的公民數(shù)據(jù)權(quán)利被侵犯風(fēng)險。數(shù)據(jù)分類分級、算法倫理審查、技術(shù)問責(zé)能夠成為應(yīng)對上述風(fēng)險的有效規(guī)制路徑,而針對上述路徑,能夠以數(shù)據(jù)多維審視為基點、以行政機關(guān)義務(wù)為途徑、以算法應(yīng)用監(jiān)管為場景,提出可操作性更強的細(xì)化對策。

[關(guān)鍵詞] 生成式人工智能;數(shù)字政府;風(fēng)險社會;法治對策;算法治理

[中圖分類號]" D63"" [文獻(xiàn)標(biāo)識碼] A"" [文章編號] 1008-1763(2025)01-0124-09

The Regulatory Path of Introducing Generative

Artificial Intelligence into Digital Government Construction:

From the Perspective of Risk Society

FU Jianping

(School of Marxism, Central South University, Changsha 410083, China)

Abstract:The iterative development and capability leap of digital technology align with the multidimensional needs in the transformation of digital government. The" generative artificial intelligence technology can provide significant support for the construction of digital government by enhancing the scientific and forward-looking nature of government decision-making, optimizing government operational efficiency and reducing cost, and improving the friendliness and participation in government services. However, from the theoretical perspective of risk society, the risk network in the information age is more complex and governance is more challenging, requiring a three-dimensional perspective for comprehensive policy implementation. Returning to the scenario of introducing generative artificial intelligence into digital government construction, there exist risks such as data security and information confidentiality breaches caused by complex algorithms, the risk of capital forces deconstructing the public nature of administrative power, and the risk of citizen data rights being infringed due to data processing. To address these risks, effective regulatory paths include data classification and grading, algorithmic ethics review, and technical accountability. Regarding these paths, we can propose more operational and detailed countermeasures based on multidimensional data review as the foundation, administrative agency obligations as the pathway, and algorithm application supervision as the scenario.

Key words: generative artificial intelligence; digital government; risk society; legal countermeasures; algorithm governance

在全球信息技術(shù)日新月異的浪潮中,數(shù)字政府的概念已由前瞻性的構(gòu)想躍升為世界各國政府機構(gòu)改革的核心策略,這既是政府職能的數(shù)字化轉(zhuǎn)型,也是通過融合先進(jìn)信息技術(shù),全面提升公共服務(wù)效率、透明度與響應(yīng)速度的新型治理范式。在此進(jìn)程中,生成式人工智能(AIGC)以其卓越的數(shù)據(jù)分析、決策輔助及個性化服務(wù)能力,正逐步成為加速政府服務(wù)智能化、精準(zhǔn)化升級的強勁引擎。

然而,正如風(fēng)險社會理論所揭示的,任何技術(shù)革新都伴隨著一系列挑戰(zhàn)與風(fēng)險。生成式人工智能技術(shù)的應(yīng)用增加了數(shù)據(jù)泄露、濫用乃至被外部勢力操控的可能性,對既有社會秩序和導(dǎo)向產(chǎn)生了深遠(yuǎn)的影響。數(shù)據(jù)安全和個人隱私保護(hù)也引起關(guān)注[1]。首先,是數(shù)據(jù)主權(quán)風(fēng)險的加劇。在大數(shù)據(jù)時代,數(shù)據(jù)是驅(qū)動經(jīng)濟(jì)與社會發(fā)展的重要資源。政府機構(gòu)作為海量數(shù)據(jù)的持有者,對數(shù)據(jù)的利用直接關(guān)乎國家的安全與利益。其次,社會文化秩序的維護(hù)與文化傳承問題浮出水面。算法偏見和信息繭房效應(yīng)可能加劇社會分化,影響社會共識的形成。最后,個人數(shù)據(jù)安全與隱私保護(hù)成為亟待加強的重點。非法數(shù)據(jù)獲取、不當(dāng)數(shù)據(jù)使用和隱私泄露事件頻發(fā),引發(fā)了公眾的廣泛擔(dān)憂。

在風(fēng)險社會框架下,深入剖析生成式人工智能在數(shù)字政府體系內(nèi)融合的風(fēng)險架構(gòu),制定行之有效的應(yīng)對策略,是一項兼具緊迫性和前瞻性的課題,需要從風(fēng)險社會理論的視角,全面審視該技術(shù)在政務(wù)服務(wù)中的潛在威脅,從宏觀到微觀、從制度到執(zhí)行,全方位地構(gòu)建響應(yīng)策略,在技術(shù)革新與社會治理之間找到最佳平衡點,共同構(gòu)建一個既高效又安全的數(shù)字政府生態(tài)。

一 風(fēng)險社會理論于信息時代的引入

隨著工業(yè)化浪潮、市場經(jīng)濟(jì)擴(kuò)張及全球化進(jìn)程加速,現(xiàn)代社會正逐步演變成為一個充滿不確定性和風(fēng)險的世界??茖W(xué)是萬事萬物運轉(zhuǎn)的重要因素,但其往往只會求助于決策,而忽視后果[2]293。公眾逐漸意識到,源自市場經(jīng)濟(jì)的波動、科技進(jìn)步的雙刃劍效應(yīng)以及官僚體系僵化所帶來的風(fēng)險,已遠(yuǎn)遠(yuǎn)超出了個體或單一組織的控制范疇,演化成了一種具有全球影響力、深層次結(jié)構(gòu)特征的社會現(xiàn)象。全球威脅導(dǎo)致已知的風(fēng)險規(guī)律基礎(chǔ)受到削弱甚至失效[3],應(yīng)當(dāng)探索新的風(fēng)險治理方案。

(一)信息時代的風(fēng)險網(wǎng)絡(luò)與治理

隨著科技的飛速發(fā)展和全球化的不斷推進(jìn),人類社會所面臨的風(fēng)險已不再單一,而是一個錯綜復(fù)雜、多元交織的風(fēng)險網(wǎng)絡(luò)。當(dāng)前,數(shù)據(jù)安全已經(jīng)成為一個不容忽視的風(fēng)險點,一旦數(shù)據(jù)泄露或被非法獲取,將對個人、組織乃至國家安全造成重大影響。更為復(fù)雜的是,隨著人工智能、大數(shù)據(jù)等技術(shù)的廣泛應(yīng)用,技術(shù)系統(tǒng)的自主性越來越強,技術(shù)失控的潛在風(fēng)險隨之而來[4]。

對此,亟須從社會整體性和系統(tǒng)性角度出發(fā),對社會現(xiàn)實風(fēng)險進(jìn)行全面治理。具體而言,這需要整個社會共同參與,形成一套覆蓋廣泛、響應(yīng)迅速且具有高度適應(yīng)性的綜合管理體系,需要構(gòu)建一套靈敏的風(fēng)險預(yù)警系統(tǒng),及時捕捉潛在的威脅信號。提高風(fēng)險應(yīng)對能力是風(fēng)險管理機制中的關(guān)鍵環(huán)節(jié),不僅要制定詳盡的應(yīng)急計劃,還要具備快速反應(yīng)和靈活調(diào)整的能力,以適應(yīng)不斷變化的風(fēng)險環(huán)境。在社會整體性和系統(tǒng)性的視角下,風(fēng)險管理的有效實施離不開跨領(lǐng)域的緊密協(xié)作,政府、企業(yè)、科研機構(gòu)、非政府組織以及普通民眾,都是風(fēng)險管理生態(tài)系統(tǒng)中的重要組成部分。

(二)三維視角綜合施策的引入

隨著信息技術(shù)的迅猛發(fā)展,特別是人工智能、大數(shù)據(jù)、云計算等前沿技術(shù)與政務(wù)的深度融合,在重塑公共服務(wù)模式,提升治理效能的同時也催生了一系列新型風(fēng)險,包括數(shù)據(jù)泄露、算法偏見、網(wǎng)絡(luò)攻擊等直接威脅,以及數(shù)字鴻溝加劇、個人隱私侵蝕、社會信任度下降等深層問題,挑戰(zhàn)著傳統(tǒng)治理體系的邊界。

風(fēng)險識別與評估、風(fēng)險管理與應(yīng)對、風(fēng)險溝通與公眾參與是數(shù)字政府建設(shè)中不可或缺的三個支柱。當(dāng)前,人們對于科學(xué)技術(shù)迅猛發(fā)展帶來的副作用和負(fù)面效應(yīng)所釀成的自然風(fēng)險的察覺和認(rèn)知程度大大提升[5]。在數(shù)字政府的構(gòu)建過程中,風(fēng)險識別與評估是推動其穩(wěn)健發(fā)展的首要步驟,應(yīng)對數(shù)據(jù)安全漏洞、系統(tǒng)穩(wěn)定性隱患、隱私泄露風(fēng)險、算法偏見及技術(shù)失控等環(huán)節(jié)進(jìn)行全面排查,精準(zhǔn)定位潛在風(fēng)險點。隨后,通過定量與定性相結(jié)合的方式進(jìn)行評估,分析其可能造成的損害程度及發(fā)生的可能性,為后續(xù)的風(fēng)險管理提供科學(xué)依據(jù)。同時,需要建立健全的風(fēng)險預(yù)警機制,對風(fēng)險進(jìn)行實時監(jiān)測與評估,以期盡早識別并采取干預(yù)措施。在數(shù)字政府建設(shè)中,風(fēng)險溝通與公眾參與不僅是提升政府透明度的關(guān)鍵,也是增強社會整體風(fēng)險意識與應(yīng)對能力的重要途徑。政府應(yīng)主動與公眾展開對話,采用多種渠道和形式,鼓勵公民和社會各界積極參與,形成風(fēng)險共治的良好局面。

風(fēng)險社會理論與生成式人工智能安全風(fēng)險具有高度的契合性[6]。為有效應(yīng)對這些風(fēng)險,社會性治理策略可以從以下幾個方向展開:在數(shù)據(jù)制度方向,可以利用區(qū)塊鏈技術(shù)標(biāo)識所有參與者的貢獻(xiàn),授予收益憑證,借助鏈上記賬的隱私存證方案,建立“以鏈治鏈”的“法鏈”機制,優(yōu)化流通記錄存證方式,實現(xiàn)記錄的安全可信可驗證[7];在責(zé)任配置方向,明確多節(jié)點責(zé)任邊界,建立責(zé)任追溯機制;在科技倫理方向,強化科技倫理教育和宣傳,提升公眾和科技工作者的倫理意識。

二 生成式人工智能引入數(shù)字政府

建設(shè)的效能

生成式人工智能的引入,標(biāo)志著數(shù)字政府架構(gòu)從信息化向智能化時代轉(zhuǎn)向,這不僅是一種技術(shù)上的迭代,更是治理理念與模式的根本轉(zhuǎn)變。生成式人工智能作為核心驅(qū)動力,重塑了數(shù)字政府的整體架構(gòu),直擊數(shù)字政府在服務(wù)民眾過程中的痛點,通過精準(zhǔn)交互,實現(xiàn)了動態(tài)行為的質(zhì)變。

(一)政府決策的科學(xué)性與前瞻性強化

在數(shù)字化轉(zhuǎn)型的浪潮中,生成式人工智能改變了數(shù)字政府的整體架構(gòu)與運作模式,推動其向智能化邁進(jìn)。在城市規(guī)劃、交通管理等復(fù)雜社會治理領(lǐng)域,人工智能通過對人口流動、交通流量、環(huán)境變化等多維度數(shù)據(jù)的綜合分析[8],能夠預(yù)測未來的趨勢與潛在需求,使政府決策具備更強的科學(xué)依據(jù)與前瞻性。同時,模式識別技術(shù)能夠提升生成式人工智能賦能政府治理效率,為政府提供更加高效、靈活的服務(wù)方案。例如,在公共服務(wù)領(lǐng)域,生成式人工智能可以識別市民最頻繁使用的服務(wù)類型與時間,自動調(diào)整資源分配,實現(xiàn)服務(wù)供給與需求的精準(zhǔn)匹配;在面對突發(fā)事件或政策制定時,可以快速整合各類信息,包括歷史數(shù)據(jù)、實時反饋、專家意見等,為決策者提供全面、客觀的分析報告與建議。

隨著技術(shù)的不斷進(jìn)步,智能系統(tǒng)能夠通過持續(xù)收集與分析反饋數(shù)據(jù),自動調(diào)整算法模型,優(yōu)化決策邏輯,從而不斷提升政府服務(wù)的效率與質(zhì)量。動態(tài)優(yōu)化機制保證了數(shù)字政府能夠與時俱進(jìn),適應(yīng)不斷變化的社會需求與挑戰(zhàn)。公民可以使用自然語言與ChatGPT等智能系統(tǒng)交互,完成問答、分類、摘要、翻譯、聊天等從自然語言理解到自然語言生成的任務(wù)[9]。在追求效率與智能化的同時,生成式人工智能也可以協(xié)助構(gòu)建更加透明和可信賴的政府服務(wù)體系,自動生成詳細(xì)的流程日志和決策依據(jù),保障每一項行政操作都有跡可循,易于審計。

(二)政府運作的效率優(yōu)化與成本降低

生成式人工智能正悄然重塑著政府機構(gòu)的運行版圖,有效降低了行政成本,增強了公共服務(wù)的準(zhǔn)確性和及時性。以往政府機構(gòu)面臨大量繁瑣且耗時的常規(guī)工作(如文件審核、許可證發(fā)放、數(shù)據(jù)錄入等)時,往往依賴于人力處理,效率低下且容易出錯。智能系統(tǒng)能夠快速準(zhǔn)確識別并驗證各類文檔的內(nèi)容,自動比對數(shù)據(jù)庫中的相關(guān)信息,保障審核過程既高效又準(zhǔn)確。對于許可證發(fā)放等標(biāo)準(zhǔn)化流程,人工智能可以根據(jù)預(yù)設(shè)的規(guī)則和標(biāo)準(zhǔn),自動完成審批流程,避免人為因素可能導(dǎo)致的延誤和錯誤,其以數(shù)字技術(shù)和算法為工具進(jìn)行自動化操作和決策的過程就是推進(jìn)算法行政的過程[10]。同時,智能撰寫功能不僅能夠提高文件的一致性和專業(yè)度,還能增強政策傳達(dá)的清晰性和準(zhǔn)確性,增強政府的公信力。此外,政府財務(wù)審計是一個耗時的過程,涉及大量文檔和交易記錄。為此,可以引入“審計跟蹤”工具,保留每一個算法行政決定案件的全部歷史記錄[11]。利用智能算法自動執(zhí)行初步審計工作,識別異常交易、驗證賬目一致性等基礎(chǔ)操作,幫助審計人員專注于更復(fù)雜的分析和調(diào)查。基于此,生成式人工智能促進(jìn)了政府動態(tài)行為的自動化,提高了政府機構(gòu)的響應(yīng)速度和運營效率,同時也降低了人力成本和錯誤率,使政府能更有效地履行職責(zé)。

(三)政務(wù)服務(wù)的親切度與參與感提升

從解決傳統(tǒng)服務(wù)痛點到開創(chuàng)全新交互體驗,生成式人工智能為政府服務(wù)注入了創(chuàng)新活力。與民眾交互是政務(wù)服務(wù)中的一個傳統(tǒng)痛點,政府服務(wù)的信息往往較為復(fù)雜,專業(yè)術(shù)語多,普通民眾可能難以理解和獲取所需信息。傳統(tǒng)的政務(wù)服務(wù)依賴于實體窗口或電話咨詢,民眾的訪問受時空限制,導(dǎo)致問題難以及時解決。政府機構(gòu)的官僚體系可能導(dǎo)致決策和執(zhí)行過程緩慢,不能及時響應(yīng)民眾的問題或請求,影響服務(wù)體驗。而在數(shù)字政府建設(shè)過程中,智能問答系統(tǒng)憑借自然語言處理與理解能力,能夠迅速響應(yīng)民眾的各類咨詢,提供準(zhǔn)確、專業(yè)的解答,極大地緩解了政府服務(wù)窗口的壓力,縮短了民眾等待時間。同時,通過語音識別技術(shù),無論是視力障礙者還是對電子設(shè)備操作不熟練的老年人,都能輕松通過語音指令完成服務(wù)請求,享受平等、便捷的政府服務(wù),體現(xiàn)了數(shù)字包容性原則,彰顯政府致力于提升公共服務(wù)質(zhì)量的決心。

借助生成式人工智能的深度學(xué)習(xí)能力,數(shù)字政府能夠?qū)崿F(xiàn)對用戶的個性化服務(wù)推薦。系統(tǒng)通過分析用戶的行為模式、興趣偏好等數(shù)據(jù),能夠進(jìn)行定制化的智能推送。智能系統(tǒng)可以分析用戶的歷史記錄和偏好,提供個性化的辦事指南,指導(dǎo)用戶更快地完成申請流程,或提前預(yù)警可能出現(xiàn)的問題。生成式人工智能打破了傳統(tǒng)服務(wù)渠道的局限,無論是通過官方網(wǎng)站、移動應(yīng)用,還是社交媒體平臺,民眾都能無縫接入政府服務(wù)網(wǎng)絡(luò),享受便捷服務(wù),全方位、多觸點的服務(wù)體系提升了政府服務(wù)的可達(dá)性和民眾的參與度,增強了政府與民眾之間的緊密聯(lián)系。

三 生成式人工智能引入數(shù)字

政府建設(shè)的風(fēng)險

無疑,新一代的人工智能技術(shù)利用自身獨特的優(yōu)勢為數(shù)字政府治理領(lǐng)域帶來了前所未有的創(chuàng)新機遇。技術(shù)是中性的,其本身不具備威脅屬性,而當(dāng)它與人類意圖相結(jié)合時,技術(shù)風(fēng)險便相伴而生[12。與許多突破性技術(shù)一樣,新一代人工智能同樣伴隨著一系列風(fēng)險,包括數(shù)據(jù)主權(quán)風(fēng)險、文化秩序風(fēng)險以及數(shù)據(jù)安全風(fēng)險。

(一)復(fù)雜算法引發(fā)數(shù)據(jù)安全與信息泄露風(fēng)險

在生成式人工智能參與數(shù)字政府建設(shè)的浪潮中,現(xiàn)代國家儼然成為超級“數(shù)字利維坦”。數(shù)據(jù)主權(quán)賦予了國家對數(shù)據(jù)資源、軟件技術(shù)、標(biāo)準(zhǔn)制定、服務(wù)供應(yīng)等數(shù)字基礎(chǔ)設(shè)施的法定掌控權(quán)和最高管轄權(quán),也包括在全球數(shù)據(jù)治理中的自主決策與合作治理權(quán)益。自2013年“棱鏡門”[13事件被公開后,數(shù)據(jù)安全在推動國家數(shù)字政府進(jìn)步中的關(guān)鍵性日益受到重視。首先,生成式人工智能可能引發(fā)技術(shù)霸權(quán)以及壟斷現(xiàn)象。技術(shù)創(chuàng)新與自主性對于國家數(shù)據(jù)安全至關(guān)重要。AI Now的研究報告指出,生成式人工智能技術(shù)主要集中在少數(shù)幾家大型科技公司手中,這無疑鞏固了其市場地位。以O(shè)pen AI公司為例,其通過不斷推動技術(shù)革新與通過擴(kuò)充數(shù)據(jù)集和精細(xì)調(diào)整參數(shù),ChatGPT-4利用多模態(tài)模型[14,大幅提升了其性能。與此同時,Google也積極推出了PaLM API一系列相關(guān)工具和平臺。掌握生成式人工智能核心技術(shù)的企業(yè)還可能通過技術(shù)獨占來謀求霸權(quán)地位,西方霸權(quán)國家可能為了維護(hù)自身利益對我國實施技術(shù)封鎖。雖然我國的百度、阿里、華為等企業(yè)也推出了與ChatGPT類似的生成式語言模型,但相較于國外的科技巨頭,我們的技術(shù)發(fā)展起步較晚,因此面臨著相當(dāng)大的競爭壓力。一旦這些國外科技巨頭在生成式人工智能領(lǐng)域占據(jù)主導(dǎo)地位,他們可能會利用生成式人工智能來影響意識形態(tài),從而加強其在全球的政治和軍事影響力。基于此,實現(xiàn)技術(shù)的全面自主研發(fā),將成為我國未來在人工智能模型領(lǐng)域的重要目標(biāo)。

其次,還應(yīng)當(dāng)警惕生成式人工智能利用其敏感信息抓取能力對國家安全形成的威脅。數(shù)字政府的核心數(shù)據(jù)庫中往往包含了與國家安全和國家利益密切相關(guān)的敏感信息,這些信息若未經(jīng)嚴(yán)格篩選和脫敏處理便被直接用作人工智能的訓(xùn)練數(shù)據(jù),其泄露風(fēng)險將顯著增加。人工智能的工作原理依賴于對大量數(shù)據(jù)的深度學(xué)習(xí)和語義分析,以生成新的、具有創(chuàng)造性的內(nèi)容。期間,語義分析模塊有可能在未經(jīng)意間捕獲到與國家安全情報高度相關(guān)的敏感信息。這些信息一旦進(jìn)入人工智能的處理流程,就可能通過算法和模型被提煉、分析和重組,進(jìn)而以某種形式被輸出或暴露。更為嚴(yán)峻的是,由于網(wǎng)絡(luò)空間的開放性和互聯(lián)性,這些被處理過的敏感信息可能輕易地被國外情報機構(gòu)發(fā)現(xiàn)、截取和利用。這種信息泄露不僅可能損害我國的國家安全利益,還可能對我國的數(shù)據(jù)主權(quán)安全構(gòu)成嚴(yán)重威脅。

(二)資本力量解構(gòu)行政權(quán)力公共屬性

生成式人工智能所攜帶的資本力量暗藏著對行政權(quán)力公共屬性的潛在解構(gòu)風(fēng)險。隨著該技術(shù)的廣泛應(yīng)用,其背后的資本實體正逐步在各領(lǐng)域擴(kuò)大其影響力和控制力,若此趨勢持續(xù)演進(jìn),政府等公共權(quán)力機構(gòu)的權(quán)威性可能會受到前所未有的沖擊。

在傳統(tǒng)的人工智能應(yīng)用領(lǐng)域,國家有能力實施有效的監(jiān)控措施,從而確保國家利益與安全不受資本的過度侵蝕。然而,生成式人工智能的獨特運行機制打破了這一平衡。該技術(shù)的核心數(shù)據(jù)大多源于用戶與互聯(lián)網(wǎng)的實時交互,可能在極短的時間內(nèi)便被相關(guān)科技公司捕獲與分析。這一全新的數(shù)據(jù)生成與獲取模式,從根本上改變了傳統(tǒng)的行政法律關(guān)系格局,使得原本“行政機關(guān)—行政相對人”的二元結(jié)構(gòu)逐漸讓位于“智能系統(tǒng)—行政相對人”的新型關(guān)系模式[15]。在此背景下,資本在生成式人工智能領(lǐng)域內(nèi)的優(yōu)勢地位日益凸顯,無疑加大了國家監(jiān)管的難度,同時也為資本向數(shù)字政府領(lǐng)域的滲透提供了契機。此種變化不僅可能重塑國家行政部門與其他社會主體之間的權(quán)力動態(tài),更可能在深層次上影響國家政權(quán)的基本運作模式,從而對我國的社會穩(wěn)定構(gòu)成潛在威脅。

(三)數(shù)據(jù)處理導(dǎo)致公民數(shù)據(jù)權(quán)利被侵犯

生成式人工智能作為一種前沿的大型語言模型,它的訓(xùn)練與優(yōu)化離不開海量的數(shù)據(jù)“喂養(yǎng)”。然而,在對OpenAI等企業(yè)公布的隱私政策進(jìn)行研究時可發(fā)現(xiàn),生成式人工智能在數(shù)據(jù)收集方面存在顯著的合規(guī)問題,其未經(jīng)數(shù)據(jù)所有者明確同意,便已經(jīng)大規(guī)模地、系統(tǒng)地采集了個人數(shù)據(jù)。更令人不安的是,這些數(shù)據(jù)很可能包含了大量的個人隱私和敏感信息,如個人身份信息、財務(wù)狀況、健康狀況等。

在數(shù)字化時代,數(shù)據(jù)已經(jīng)超越了原始的信息屬性,成為一種具有巨大經(jīng)濟(jì)價值和社會影響力的生產(chǎn)要素。高價值的數(shù)據(jù)資源,不僅在經(jīng)濟(jì)領(lǐng)域被視為寶貴的資產(chǎn),更在社會治理、公共服務(wù)等多個領(lǐng)域發(fā)揮著舉足輕重的作用。對這些數(shù)據(jù)的掌控和利用,無疑會形成一種新的權(quán)力結(jié)構(gòu),甚至可能影響到社會的公平與正義。大型語言模型及其研發(fā)企業(yè)憑借其在技術(shù)和信息方面的顯著優(yōu)勢,已經(jīng)實現(xiàn)了對信息數(shù)據(jù)的高效集中和深度利用。這種集中效應(yīng)不僅加強了企業(yè)在市場中的競爭地位,更在無形中構(gòu)建了一種“準(zhǔn)權(quán)力控制”的格局。當(dāng)這種技術(shù)與數(shù)字政府進(jìn)行深度合作時,可能會為生成式人工智能的數(shù)據(jù)收集行為披上“合法”的外衣,從而為其對個人數(shù)據(jù)的過度采集和濫用提供便利。

四 生成式人工智能引入數(shù)字

政府建設(shè)的規(guī)制路徑

進(jìn)入現(xiàn)代社會后,“被制造出來的風(fēng)險”逐漸取代傳統(tǒng)的自然風(fēng)險,成為“我們在沒有多少歷史經(jīng)驗情況下所必須要面對的現(xiàn)實問題”。生成式人工智能嵌入數(shù)字政府一方面需要在“法律AI”的路徑上探尋其賦能政府的可能性與路徑,另一方面亦要在“AI法律”的路徑上對其可能帶來的風(fēng)險進(jìn)行分析、研判,進(jìn)而采取法治化的方式來化解風(fēng)險。

(一)分類分級:以數(shù)據(jù)質(zhì)量保障算法的安全運作

生成式人工智能嵌入數(shù)字政府建設(shè)的底層邏輯在于利用大數(shù)據(jù)分析并通過機器學(xué)習(xí)數(shù)據(jù)背后所體現(xiàn)的一般性規(guī)律,借助預(yù)測、研判、提供建議等方式輔助政府決策。人工智能的運行邏輯是利用計算機和數(shù)據(jù)進(jìn)行推理、模式識別、學(xué)習(xí)或其他形式的推斷[16]22。目前生成式人工智能可獲取的數(shù)據(jù)存在不清晰、不明確的問題。由于數(shù)據(jù)質(zhì)量和算法安全密不可分,數(shù)據(jù)質(zhì)量直接影響算法的決策結(jié)果,而算法的安全運作又需要高質(zhì)量的數(shù)據(jù)作為支撐,因此,需要從源頭確保數(shù)據(jù)的準(zhǔn)確性和可靠性,對數(shù)據(jù)進(jìn)行嚴(yán)格的分級分類。

數(shù)據(jù)分級分類對于生成式人工智能模型訓(xùn)練與算法應(yīng)用的重要作用在于明確AI能夠?qū)畏N數(shù)據(jù)加以收集、分析以及利用。這既需要通過數(shù)據(jù)分級分類為AI提供高質(zhì)量、標(biāo)準(zhǔn)化、結(jié)構(gòu)式的數(shù)據(jù),減少AI應(yīng)用可能產(chǎn)生的算法偏見、算法歧視等問題;同時也需要限制生成式人工智能借助“政務(wù)服務(wù)”或“社會治理”之手而無限制地收集與利用數(shù)據(jù)。為此,法律制度中應(yīng)嵌入倫理要求,以確保算法的運作符合社會價值觀和倫理標(biāo)準(zhǔn)。我國可以借鑒國際上的經(jīng)驗和標(biāo)準(zhǔn),例如歐盟的《通用數(shù)據(jù)保護(hù)條例》(GDPR)等明確算法的透明性、公平性、可解釋性等倫理要求。

一方面,通過數(shù)據(jù)分級分類為AI提供高質(zhì)量的數(shù)據(jù)。生成式人工智能的模型訓(xùn)練需要不斷地進(jìn)行數(shù)據(jù)“喂養(yǎng)”以提高算法的精確度,同時在后期亦需要數(shù)據(jù)反饋以實現(xiàn)算法模型的自適應(yīng)與自調(diào)整。具體而言,第一,提升模型性能,通過將數(shù)據(jù)按照相關(guān)性、復(fù)雜度或特征進(jìn)行分類,根據(jù)每一類數(shù)據(jù)的特點優(yōu)化模型參數(shù),提升模型對特定類型數(shù)據(jù)的處理能力。第二,資源優(yōu)化,高級別的數(shù)據(jù)(如高分辨率圖像或復(fù)雜的文本)可能需要更多的計算資源來處理。通過數(shù)據(jù)分級,可以優(yōu)先使用高性能計算資源處理這類數(shù)據(jù),而低級別的數(shù)據(jù)則使用較少的資源處理,實現(xiàn)資源的合理分配。第三,增強模型的泛化能力,確保模型能夠接觸到不同類型的數(shù)據(jù),提高其在未知數(shù)據(jù)上的表現(xiàn)力。

另一方面,通過數(shù)據(jù)分級分類為生成式人工智能設(shè)立行為邊界,平衡其與數(shù)字政府建設(shè)相結(jié)合過程中可能產(chǎn)生的價值沖突。數(shù)字政府建設(shè)具有提升行政效能、促進(jìn)政府轉(zhuǎn)型等多重效能,若要實現(xiàn)生成式人工智能對數(shù)字政府的技術(shù)賦能,便不得不面對秩序、行政效能提升與自由、個人隱私等價值之間的內(nèi)在張力問題。為此,需要從事前、事中、事后三個方面入手建立一套完善的數(shù)據(jù)質(zhì)量評估體系,以確保數(shù)據(jù)的準(zhǔn)確性和可靠性。事前需要對數(shù)據(jù)進(jìn)行嚴(yán)格的審核和驗證,確保其來源的合法性和真實性;事中需要對數(shù)據(jù)進(jìn)行定期的監(jiān)測和評估,確保其質(zhì)量和安全;事后需要對數(shù)據(jù)的運作結(jié)果進(jìn)行評估和反饋,以便及時發(fā)現(xiàn)問題并進(jìn)行改進(jìn)。

(二)倫理審查:以法治方式引導(dǎo)公共價值的回歸

倫理審查是確保科學(xué)研究和技術(shù)開發(fā)符合社會倫理標(biāo)準(zhǔn)的重要機制。從事前角度出發(fā),在生成式AI系統(tǒng)設(shè)計和開發(fā)階段引入倫理審查,可以更有效地預(yù)防潛在的倫理風(fēng)險。當(dāng)前,世界各國積極組建倫理委員會以應(yīng)對人工智能發(fā)展引發(fā)的倫理困境,如Google、Lucid AI、微軟等,我國也正式宣布組建國家科技倫理委員會,旨在將科技發(fā)展控制在人文倫理許可的范圍內(nèi)。具體而言,可以從以下幾個環(huán)節(jié)制定倫理審查方案。

第一,政府要建立明確可行的倫理準(zhǔn)則和框架。技術(shù)的開發(fā)要遵循明確的倫理原則,如尊重隱私、重視公平性、透明度、責(zé)任性和安全性等,并以此指導(dǎo)行業(yè)標(biāo)準(zhǔn)的制定和執(zhí)行。政府可參考國際標(biāo)準(zhǔn)組織和專業(yè)團(tuán)體指南,制定或采納適合本地文化和法律環(huán)境的倫理標(biāo)準(zhǔn)。第二,企業(yè)要強化設(shè)計階段的倫理考量。在項目初期,企業(yè)要考慮倫理影響,識別潛在的偏見來源和敏感場景,確保設(shè)計目標(biāo)符合倫理原則。此外,還可組建多元化的項目團(tuán)隊,吸納不同背景的專家和社會科學(xué)領(lǐng)域的顧問多角度審視倫理問題。第三,政府和企業(yè)要強化模型評估與監(jiān)控。在模型開發(fā)階段,要注重模型的可解釋性,使決策過程透明,便于外部審查和內(nèi)部審計。同時,還要持續(xù)監(jiān)控模型輸出,定期評估其性能和倫理影響,以及時調(diào)整和優(yōu)化模型運行過程。第四,政府要鼓勵用戶參與培訓(xùn)和反饋。強化知情同意規(guī)則的應(yīng)用,確保用戶了解AI系統(tǒng)的工作原理及其可能的影響,獲取必要的同意。政府還應(yīng)當(dāng)建立有效的用戶反饋機制,鼓勵用戶提供關(guān)于AI行為的感受和建議,作為持續(xù)改進(jìn)的依據(jù)。第五,政府要推進(jìn)跨學(xué)科合作。例如,可以設(shè)立由倫理學(xué)、法學(xué)、心理學(xué)等多領(lǐng)域?qū)<医M成的倫理委員會,對AI項目進(jìn)行獨立審查;還應(yīng)當(dāng)通過研討會、公開論壇等形式,強化公眾參與,增加決策的民主性和透明度。

(三)技術(shù)問責(zé):以明晰的責(zé)任體系實現(xiàn)權(quán)利救濟(jì)

生成式人工智能嵌入數(shù)字政府建設(shè)提升了政府行政效能,但也有可能引發(fā)“算法卸責(zé)”[17]問題。為此,必須要明確生成式人工智能嵌入數(shù)字政府的責(zé)任體系。而技術(shù)問責(zé)是確保技術(shù)發(fā)展與應(yīng)用過程中能夠符合倫理和法律要求的重要機制,應(yīng)在技術(shù)開發(fā)和應(yīng)用前,考慮其可能帶來的社會影響和倫理問題,通過法律制度嵌入倫理要求,形成一套明晰的責(zé)任體系,以實現(xiàn)權(quán)利救濟(jì)。

一般而言,政府不具有開發(fā)AI模型算法的技術(shù)能力,其往往傾向于通過“外部采買”的方式開展數(shù)字政府建設(shè)。但是,若生成式人工智能因其內(nèi)容導(dǎo)向錯誤或者自動化決策等侵犯公眾權(quán)益,明確相關(guān)責(zé)任主體則成為首要問題。對此,應(yīng)當(dāng)明確AI模型算法的角色地位,論證其是否具備責(zé)任能力。盡管目前生成式人工智能所展現(xiàn)出來的能力顯示,其已然具有某些“類人性”的特質(zhì),尤其是在思維邏輯、話語表達(dá)等方面,可以做出與人類類似的情感表達(dá)。但是,其本質(zhì)仍然是模仿,是通過計算機對情感的分析,進(jìn)而將情感符號轉(zhuǎn)化為計算機賦碼進(jìn)行輸出的技術(shù)性過程。而從法律技術(shù)或者便利的角度而言,是否可像法人一般將生成式人工智能擬制為法律主體,目前無論是在理論上還是技術(shù)上都面臨著重大的爭議或者難題[18]。因此,生成式人工智能當(dāng)前并不具備獨立承擔(dān)責(zé)任的能力。

基于此,在生成式人工智能嵌入數(shù)字政府造成行政相對人權(quán)益受損時,可能的責(zé)任主體包括政府以及模型算法的技術(shù)開發(fā)者,這需要區(qū)分不同情形來明確二者承擔(dān)何種責(zé)任。一方面,絕大多數(shù)情況下,政府需要對相對人的權(quán)益受損情況承擔(dān)責(zé)任,并不存在如民法上的連帶責(zé)任。其緣由在于,在數(shù)字政府建設(shè)中,科技公司、研發(fā)機構(gòu)等提供的是技術(shù)性開發(fā)服務(wù),即便其技術(shù)造成了相對人的權(quán)益侵害,也難以構(gòu)成共同侵權(quán),并不存在連帶責(zé)任的適用空間。另一方面,技術(shù)開發(fā)者亦可能承擔(dān)責(zé)任,但往往要承擔(dān)與政府及其部門之間通過合同約定的民事責(zé)任,如其在提供技術(shù)性服務(wù)過程中,負(fù)有對技術(shù)工具進(jìn)行提前檢查、審核以及后續(xù)的調(diào)適義務(wù),若因此而造成后續(xù)的侵權(quán)事件發(fā)生,技術(shù)開發(fā)者應(yīng)當(dāng)根據(jù)合同約定承擔(dān)民事責(zé)任,包括但不限于經(jīng)濟(jì)賠償、單方解除協(xié)議、納入政府采購黑名單等。

五 生成式人工智能引入數(shù)字

政府建設(shè)的對策細(xì)化

政府在風(fēng)險治理理論框架中扮演新治理理念倡導(dǎo)者、風(fēng)險治理的核心樞紐、風(fēng)險治理制度的建立和維護(hù)者、風(fēng)險信息的疏導(dǎo)者、公民權(quán)利的維護(hù)者[19]的角色。因此,在生成式人工智能嵌入數(shù)字政府建構(gòu)中,除了宏觀層面的理論建構(gòu),還需要制度層面的微觀填充,以全流程完善生成式人工智能賦能數(shù)字政府建設(shè)。

(一)以數(shù)據(jù)多維審視為基點的分級分類

為滿足數(shù)據(jù)在市場應(yīng)用中的靈活需求,充分發(fā)揮數(shù)據(jù)的市場價值,在國家數(shù)據(jù)安全工作協(xié)調(diào)機制指導(dǎo)下,我國頒布了《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國個人信息保護(hù)法》及相關(guān)規(guī)定,細(xì)化數(shù)據(jù)分級分類標(biāo)準(zhǔn)體系,根據(jù)數(shù)據(jù)管理和使用需求和數(shù)據(jù)在經(jīng)濟(jì)社會發(fā)展中的重要程度,來兼顧數(shù)據(jù)安全和發(fā)展。

1.關(guān)注數(shù)據(jù)特性與相關(guān)利益的分級分類展開

構(gòu)建數(shù)據(jù)分級分類標(biāo)準(zhǔn)不能忽視數(shù)據(jù)的復(fù)雜性和多樣性。數(shù)據(jù)類型不同,所涉及的權(quán)益和潛在風(fēng)險也存在差異。因此,構(gòu)建數(shù)據(jù)分級分類標(biāo)準(zhǔn)應(yīng)以數(shù)據(jù)本身特性和相關(guān)利益為核心,而非僅依靠數(shù)據(jù)分析的責(zé)任主體。目前,我國數(shù)據(jù)分級分類已經(jīng)構(gòu)建起基本的框架體系,但是責(zé)任主體不同會涉及不同的利益訴求和風(fēng)險承受能力,導(dǎo)致實踐中分級標(biāo)準(zhǔn)碎片化。對于重要數(shù)據(jù)的判定,應(yīng)放棄從“誰掌握數(shù)據(jù)”來著手(即“自下而上”的數(shù)據(jù)分類),而是從數(shù)據(jù)可能影響的價值、利益來判斷[20]。

2.注重內(nèi)在屬性與應(yīng)用過程的數(shù)據(jù)價值評估

構(gòu)建數(shù)據(jù)分級分類標(biāo)準(zhǔn)需要對不同的數(shù)據(jù)展開價值評估。這一過程不僅要參考其內(nèi)在屬性,還應(yīng)注重數(shù)據(jù)應(yīng)用過程的價值。一方面,數(shù)據(jù)產(chǎn)生所固有的屬性往往不變,與數(shù)據(jù)所屬類型直接相關(guān),例如個人身份信息和國家安全信息因關(guān)乎隱私和國家安全而需要確保數(shù)據(jù)安全、合規(guī)使用。另一方面,重靜態(tài)而輕動態(tài)的數(shù)據(jù)安全保護(hù)模式無法應(yīng)對日益凸顯的數(shù)據(jù)流通需求所產(chǎn)生的新型數(shù)據(jù)安全風(fēng)險。動態(tài)價值是關(guān)注數(shù)據(jù)應(yīng)用過程中的價值,數(shù)據(jù)的價值可能隨著時間、環(huán)境、使用方式等因素的變化而變化。

此外,對數(shù)據(jù)價值的評估還應(yīng)當(dāng)考慮政府大數(shù)據(jù)與人工智能技術(shù)的應(yīng)用特征,以及科技治理的倫理化趨勢。生成式人工智能研發(fā)、設(shè)計等“上游”,要基于設(shè)計原則性、程序性要求,推動倫理考量結(jié)構(gòu)化嵌入生成式人工智能研發(fā)過程,確保其研發(fā)不僅僅考慮工具性價值,也要關(guān)注復(fù)合性的科技倫理探究。同時,法律需要對“下游”涉及的生成式人工智能使用行為進(jìn)行回應(yīng)性規(guī)制,促成技術(shù)的工具價值與社會價值間的持續(xù)對話和不斷調(diào)適,促使生成式人工智能更好地賦能數(shù)字政府建設(shè)。

(二)以行政機關(guān)義務(wù)為途徑的倫理審查

生成式人工智能引入數(shù)字政府時,以行政機關(guān)義務(wù)為途徑的倫理審查,是確保生成式人工智能在政府治理中合理、公正、透明運行的關(guān)鍵。因此,行政機關(guān)需要建立一套完善的倫理審查機制,對生成式人工智能系統(tǒng)的設(shè)計、開發(fā)、部署和運行進(jìn)行全過程的監(jiān)督和評估。

1.以倫理風(fēng)險評估確保技術(shù)中立

在深入探索生成式人工智能技術(shù)的行政應(yīng)用中,行政機關(guān)首先應(yīng)當(dāng)在技術(shù)層面保證生成式人工智能的開發(fā)和運營可靠、安全并合乎倫理[21],并細(xì)致排查可能潛藏的倫理爭點與風(fēng)險區(qū)域。這一過程要求行政機關(guān)全面審視生成式技術(shù)的潛在影響,包括隱私保護(hù)、算法偏見、責(zé)任歸屬等多個維度,強化算法設(shè)計中的倫理嵌入,強化數(shù)字政府建設(shè)整個生命周期的倫理規(guī)制[22]。其次,行政機關(guān)基于詳盡的評估報告,理應(yīng)構(gòu)建一套涵蓋廣泛、操作性強的倫理指導(dǎo)原則與行為規(guī)范體系,以將倫理考量深度融入生成式人工智能系統(tǒng)的設(shè)計、開發(fā)、應(yīng)用等生命周期,確保每一步操作都能堅守倫理底線,促進(jìn)技術(shù)健康發(fā)展。最后,行政機關(guān)理應(yīng)積極拓寬對話渠道,深化與社會各界的交流互動,在廣泛吸納公眾意見、專家見解及非政府組織建議的同時,強化公眾對生成式人工智能技術(shù)的認(rèn)知與信任,為技術(shù)的廣泛應(yīng)用奠定堅實的社會基礎(chǔ)。

2.以數(shù)據(jù)隱私治理筑牢信任基石

在生成式人工智能技術(shù)的廣泛應(yīng)用中,數(shù)據(jù)是核心驅(qū)動力,而隱私保護(hù)則是不可逾越的倫理紅線。首先,應(yīng)建立健全數(shù)據(jù)管理制度,明確數(shù)據(jù)采集、存儲、處理、共享及銷毀的全鏈條責(zé)任主體與操作規(guī)范,確保每一環(huán)節(jié)都符合法律法規(guī)與倫理要求。這包括但不限于對敏感數(shù)據(jù)的加密處理、訪問權(quán)限的嚴(yán)格控制以及數(shù)據(jù)最小化原則的貫徹實施,從而有效遏制數(shù)據(jù)泄露與濫用風(fēng)險。其次,行政機關(guān)還需推動建立透明化的數(shù)據(jù)使用機制,要求人工智能系統(tǒng)的開發(fā)者與運營者公開數(shù)據(jù)處理邏輯、算法模型及決策依據(jù),增強公眾對技術(shù)運行過程的信任與理解。最后,應(yīng)鼓勵采用差分隱私、聯(lián)邦學(xué)習(xí)等先進(jìn)技術(shù)手段,在保證數(shù)據(jù)有效利用的同時控制數(shù)字技術(shù)發(fā)展對隱私的侵犯,最大限度地保護(hù)個人信息[23]。行政機關(guān)還應(yīng)設(shè)立獨立的隱私保護(hù)監(jiān)督機構(gòu),負(fù)責(zé)對數(shù)據(jù)治理措施的執(zhí)行情況進(jìn)行定期檢查與評估,及時發(fā)現(xiàn)并糾正任何違反隱私保護(hù)原則的行為。為進(jìn)一步提升公眾的數(shù)據(jù)保護(hù)意識與參與度,行政機關(guān)應(yīng)積極開展數(shù)據(jù)保護(hù)教育與宣傳活動,普及數(shù)據(jù)隱私保護(hù)知識,引導(dǎo)公民合理行使數(shù)據(jù)權(quán)利,共同營造安全可信的人工智能應(yīng)用環(huán)境。

3.以算法透明公開消除技術(shù)偏見

算法作為生成式人工智能技術(shù)的核心,其設(shè)計與應(yīng)用直接關(guān)系結(jié)果的公平與公正。行政機關(guān)應(yīng)制定嚴(yán)格的算法審查標(biāo)準(zhǔn),對算法模型進(jìn)行全面的公平性評估,識別并糾正其中可能存在的偏見與歧視因素。例如,對算法訓(xùn)練數(shù)據(jù)的多樣性審查、模型預(yù)測結(jié)果的公平性驗證以及針對不同群體影響的分析等;也可以借助價值敏感設(shè)計方法(VSD)和感知歧視的數(shù)據(jù)挖掘技術(shù)(DADM)等將基本倫理原則嵌入目標(biāo)算法等[24]。同時,行政機關(guān)應(yīng)推動算法透明度的提升,要求開發(fā)者與運營者公開算法的基本原理、邏輯結(jié)構(gòu)及關(guān)鍵參數(shù),使公眾能夠了解并評估算法決策的過程與結(jié)果;通過建立算法可解釋性標(biāo)準(zhǔn)與機制,促進(jìn)公眾對算法決策的信任與接受度,減少因技術(shù)不透明而引發(fā)的誤解與擔(dān)憂[25]。此外,行政機關(guān)還需建立算法審計與問責(zé)制度,對算法的運行情況進(jìn)行定期審計與評估,對發(fā)現(xiàn)的偏見與歧視問題進(jìn)行嚴(yán)肅問責(zé)與處理。通過引入獨立的審計機構(gòu)或?qū)<覉F(tuán)隊,對算法進(jìn)行全面、客觀的審查,確保算法在公平、公正的原則下運行。

(三)以算法應(yīng)用監(jiān)管為場景的技術(shù)問責(zé)

數(shù)字技術(shù)的快速發(fā)展和多樣化應(yīng)用需要政府制定靈活和有效的管理機制,以適應(yīng)不斷變化的環(huán)境和需求。

1.算法應(yīng)用各主體的權(quán)責(zé)明晰

算法決策的偏見和歧視等問題對個人權(quán)利和社會公正構(gòu)成了潛在威脅。因此,法律制度必須適應(yīng)這一新情況,將倫理要求納入監(jiān)管框架,確保技術(shù)發(fā)展與社會價值相協(xié)調(diào)。一方面,正視生成式人工智能帶來的技術(shù)、倫理問題。算法設(shè)計者和開發(fā)者需承擔(dān)評估和測試責(zé)任,確保其符合公共利益和社會價值。另一方面,監(jiān)管的責(zé)任體系應(yīng)當(dāng)在多方參與下協(xié)力建構(gòu)。數(shù)字政府的構(gòu)建涉及多個監(jiān)管主體,包括政府部門、監(jiān)管機構(gòu)、行業(yè)組織和社會公眾等,各自可以發(fā)揮不同的監(jiān)管優(yōu)勢,如政府部門為生成式人工智能的嵌入制定相關(guān)法規(guī)和政策,明確生成式人工智能監(jiān)管標(biāo)準(zhǔn)和指導(dǎo)原則;監(jiān)管機構(gòu)負(fù)責(zé)審查和監(jiān)督生成式人工智能的應(yīng)用;行業(yè)協(xié)會可以為生成式人工智能的應(yīng)用提供專業(yè)支持。

2.政府內(nèi)部各層級的權(quán)責(zé)明晰

中央和地方政府在數(shù)字政府的構(gòu)建中扮演著不同的角色,中央政府關(guān)注生成式人工智能嵌入數(shù)字政府的頂層設(shè)計,地方政府注重實際管理和服務(wù)提供。因此,應(yīng)明晰政府內(nèi)部各層級的權(quán)責(zé)。首先,中央政府需要制定生成式人工智能應(yīng)用的政策框架,明確數(shù)字政府的發(fā)展方向,確保生成式人工智能的應(yīng)用符合國家安全和倫理道德。在具體應(yīng)用層面,中央政府應(yīng)統(tǒng)一基礎(chǔ)標(biāo)準(zhǔn)和規(guī)范,促進(jìn)技術(shù)應(yīng)用的標(biāo)準(zhǔn)化和規(guī)范化。我國各地方的利益主張不同,因此也需要中央政府協(xié)調(diào)各地方部門之間的協(xié)作,促進(jìn)政府間的信息共享與合作,避免形成“信息孤島”,阻礙數(shù)字政府建設(shè)。其次,在中央政府規(guī)劃指導(dǎo)下,各地方政府需要因地制宜,結(jié)合本地區(qū)的實際情況制定生成式人工智能應(yīng)用的具體方案,推動技術(shù)落地。最后,數(shù)字政府的打造離不開中央和地方政府的緊密配合,中央和地方需要共同努力,推動數(shù)字化的順利轉(zhuǎn)型。

六 結(jié) 語

在信息時代,風(fēng)險社會理論仍有重要的現(xiàn)實意義與價值,尤其是就生成式人工智能在數(shù)字政府建設(shè)中的應(yīng)用而言,該理論得以進(jìn)一步擴(kuò)展和驗證。本文以風(fēng)險社會理論為出發(fā)點與分析工具,以信息時代為背景,分析了生成式人工智能在參與數(shù)字政府建設(shè)過程中的多重效能以及在其間伴生的多重風(fēng)險,并分別從規(guī)制路徑的宏觀方向與細(xì)化對策的微觀要點出發(fā),論證了如何有效規(guī)制生成式人工智能引入數(shù)字政府建設(shè)中的潛在問題。由于受研究體量與視角的局限,上述路徑、對策無法盡善盡美。未來,技術(shù)的外觀與運作邏輯必然加速迭代,但其背后所蘊含的權(quán)利、責(zé)任、義務(wù)等核心本質(zhì)仍將保持動態(tài)恒定,科技必然要遵循法治建設(shè)要求才能夠?qū)崿F(xiàn)科技向善。

[參 考 文 獻(xiàn)]

[1] 張凌寒.生成式人工智能的法律定位與分層治理[J].現(xiàn)代法學(xué),2023(4):126-141.

[2] 貝克.風(fēng)險社會:新的現(xiàn)代性之路[M].南京:譯林出版社,2018.

[3] 貝克,郗衛(wèi)東.風(fēng)險社會再思考[J].馬克思主義與現(xiàn)實,2002(4):46-51.

[4] 高亮華.技術(shù)失控與人的責(zé)任——論弗蘭肯斯坦問題[J].科學(xué)與社會,2016(3):128-135.

[5] 拉什,王武龍.風(fēng)險社會與風(fēng)險文化[J].馬克思主義與現(xiàn)實,2002(4):52-63.

[6] 陳嘉鑫,李寶誠.風(fēng)險社會理論視域下生成式人工智能安全風(fēng)險檢視與應(yīng)對[J].情報雜志,2025(1):128-135+171.

[7] 黃尹旭,楊東.“利益-權(quán)利”雙元共生:“數(shù)據(jù)要素×”的價值創(chuàng)造[J].中國社會科學(xué),2024(2):51-74.

[8] 曹冬松,方雷. 數(shù)字時代的“網(wǎng)紅城市”:生成形態(tài)、流量效應(yīng)與治理轉(zhuǎn)型——基于典型城市的案例考察[J].電子政務(wù),2025(1):52-64.

[9] 馮志偉.從ChatGPT到Sora發(fā)展中的術(shù)語問題[J].中國科技術(shù)語,2024(2):88-92.

[10]王貴.算法行政的興起、挑戰(zhàn)及法治化調(diào)適[J].電子政務(wù),2021(7):2-14.

[11]王懷勇,鄧若翰.算法行政:現(xiàn)實挑戰(zhàn)與法律應(yīng)對[J].行政法學(xué)研究,2022(4):104-118.

[12]甘鈞先.意圖孿生:人工智能軍事化的國際安全挑戰(zhàn)與治理路徑[J].長沙理工大學(xué)學(xué)報(社會科學(xué)版),2024(1):106-116.

[13]王玥.試論網(wǎng)絡(luò)數(shù)據(jù)本地化立法的正當(dāng)性[J].西安交通大學(xué)學(xué)報(社會科學(xué)版), 2016(1):54-61.

[14]于文軒.ChatGPT與敏捷治理[J].學(xué)海,2023(2):52-57.

[15]馬長山.數(shù)智治理的法治悖論[J].東方法學(xué),2022(4):63-74.

[16]盧格爾.人工智能:復(fù)雜問題求解的結(jié)構(gòu)和策略[M].郭茂祖,劉揚,玄萍,等譯.北京:機械工業(yè)出版社,2010.

[17]高童非.論自動化行政中的“算法卸責(zé)”[J].電子政務(wù),2023(2):115-128.

[18]雷磊.ChatGPT對法律人主體性的挑戰(zhàn)[J].法學(xué),2023(9):3-15.

[19]趙華,陳淑偉.論政府在社會風(fēng)險治理中的價值追求與角色變革[J].天津行政學(xué)院學(xué)報,2013(3):51-54.

[20]洪延青.國家安全視野中的數(shù)據(jù)分類分級保護(hù)[J].中國法律評論,2021(5):70-78.

[21]孫那,鮑一鳴.生成式人工智能的科技安全風(fēng)險與防范[J].陜西師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2024(1):108-121.

[22]薛桂波,燕茹.科技倫理治理戰(zhàn)略下顛覆性技術(shù)的倫理挑戰(zhàn)及其應(yīng)對[J].科技管理研究,2024(10):205-211.

[23]林愛珺, 章夢天.基于數(shù)據(jù)多粒度的隱私差序保護(hù)[J].蘇州大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2024(2): 182-192.

[24]陳銳,王文玉.算法嵌入政府治理的權(quán)力異化風(fēng)險及其規(guī)制方案[J].理論探索,2022(6):81-90.

[25]王文玉.算法嵌入政府治理的優(yōu)勢、挑戰(zhàn)與法律規(guī)制[J].華中科技大學(xué)學(xué)報(社會科學(xué)版),2021(4):26-36.

主站蜘蛛池模板: 亚洲AV成人一区二区三区AV| 亚洲一区二区三区麻豆| 国产69精品久久久久孕妇大杂乱 | 日韩在线网址| 欧美人与动牲交a欧美精品| 亚洲天堂.com| 91成人试看福利体验区| 丰满人妻久久中文字幕| 国产精女同一区二区三区久| 亚洲男人的天堂在线| 精品小视频在线观看| 日本免费a视频| 国产手机在线观看| av在线5g无码天天| 久久中文字幕av不卡一区二区| 嫩草国产在线| 日韩无码一二三区| 美女一级毛片无遮挡内谢| 国产黄色视频综合| 国产精品亚欧美一区二区三区| 国产丝袜啪啪| 亚洲天堂网在线播放| 99热这里只有精品免费国产| 欧美视频在线不卡| 精品亚洲国产成人AV| 欧美亚洲国产精品久久蜜芽| 欧美日本在线观看| 亚洲AV永久无码精品古装片| 成年人视频一区二区| 日本三区视频| 九九香蕉视频| 欧美一区二区三区香蕉视| 精品久久综合1区2区3区激情| 国产精品深爱在线| 国产中文一区二区苍井空| 国产精品久久久免费视频| 人妻精品久久久无码区色视| www亚洲精品| 国内毛片视频| 国产午夜精品一区二区三区软件| 熟女成人国产精品视频| 亚洲性日韩精品一区二区| 四虎永久免费网站| 亚洲福利一区二区三区| 国产一级毛片yw| 国产视频欧美| 人妻无码中文字幕第一区| 午夜国产理论| 午夜高清国产拍精品| 国产精品无码在线看| 成人在线不卡视频| 色偷偷一区二区三区| 日韩精品一区二区三区视频免费看| 成人免费午夜视频| 国产日韩精品欧美一区喷| 亚洲av片在线免费观看| 精品欧美一区二区三区久久久| 色精品视频| 亚洲日韩高清在线亚洲专区| 极品尤物av美乳在线观看| 日韩欧美中文字幕在线精品| 香港一级毛片免费看| 中文字幕亚洲专区第19页| 最新亚洲av女人的天堂| 天天操精品| 国产乱人激情H在线观看| 色综合成人| 国产香蕉在线视频| 制服丝袜一区| 亚洲二三区| 国产一级一级毛片永久| 亚洲AV无码一二区三区在线播放| 欧美福利在线| 国产欧美日韩在线在线不卡视频| 伊人网址在线| 日本不卡视频在线| 欧美a级完整在线观看| 日韩人妻少妇一区二区| 亚洲视频无码| 国产国语一级毛片在线视频| www亚洲精品| 在线亚洲精品自拍|