999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

類ChatGPT大模型賦能數字政府的合比例性控制

2025-03-25 00:00:00付鑒宇
科技與法律 2025年2期
關鍵詞:比例原則

摘 "要:ChatGPT展示出生成式人工智能新高度,有望更實質深層地賦能數字政府進階建設,但也必須預警其潛在風險?!跋拗乒珯唷迸c“保障私權”的平衡統一是行政法治的核心命題,類ChatGPT大模型賦能數字政府則容易產生多種表征的公權力“控制性危機”和私權利“限制性危機”。比例原則是裁量治理的首要原則,三項子原則能夠充分支撐類ChatGPT大模型賦能數字政府的民主行政、科學行政和依法行政三維目標,與行政法治具有緊密的內在關聯,遞歸實現“權力—權利”關系的均衡配置。在具體的實踐路徑上,可依據生成式人工智能的獨特技術機理,遵循“訓練與輸入”及“生成與輸出”兩階分析框架,通過嵌入事前論證、清單管理和動態規制等系列制度機制,分別落實適當性原則、最小損害原則與均衡性原則,以實現對類ChatGPT大模型賦能數字政府的合比例性控制。

關鍵詞:行政法治;類ChatGPT大模型;數字政府;比例原則

中圖分類號:D 912 " " " " " 文獻標志碼:A " " " 文章編號:2096-9783(2025)02?0063?12

一、問題的提出

科技是推動數字政府建設的重要支撐。作為生成式人工智能代表的ChatGPT(Generative Pre-trained Transformer)是基于大型語言模型(Large Language Models, LLM)通過深度學習獲得自然語言處理技能的語言類AI模型1。此類人工智能可通過海量語料庫自主學習并輸出“連貫且有意義”的文字,突破過去語言類AI因語料庫貧瘠、學習處理能力不足輸出的“簡單截斷式對白”。ChatGPT一朝躍升為世界范圍內的關注焦點,源于大模型和生成式“深度合成”架構在技術領域的重大進步,這也為以技術為基底的數字政府建設提出了新議題。黨的二十大報告指出,加強數字政府建設,提升數字治理能力,是建設網絡強國、數字中國的先導性和基礎性工程。面對生成式人工智能顛覆性的技術挑戰,ChatGPT技術發展勢必對政府公共管理產生“巨大的正面和負面的影響沖擊”[1]。以技術手段提升傳統行政管理效能和公共服務供給質量是數字政府建設的核心要旨,這在某種程度上為生成式人工智能機器學習、可視化分析和自然語言處理等技術嵌入提供了充分的正當性基礎。

就此,“生成式人工智能會對數字政府產生何種影響”率先成為一項前沿的理論追問。在已有研究中,賦能的觀點集中于“政府組織結構的重塑與再造”、“提升政府服務效能”以及“擴展自動化行政決策”等關鍵場域,總體上,關于這一問題已有相對豐富的理論探討2。有學者曾集中梳理數字政府的研究成果,指出數字政府建設推進近二十年來,理論界相關研究集中于政治學、管理學、行政學等學科領域,“基于法學,甚至行政法視角的研究鳳毛麟角。[2]”面對類ChatGPT大模型的新一輪技術沖擊,不加區分部門法的“泛法治”研究進路是當前的普遍選擇,但“數字時代的多元化、扁平化和去中心化背后,權力擴張的傾向卻在涌動[3]”,該議題在行政法治視閾下仍有進一步推進的空間。數字政府是公域治理在技術層面的集中表達,公權控制與私權保護則是行政法治的永恒命題,有必要進一步回歸到行政法學有關“權力—權利”的基本理論,探討基于技術驅動背景下的關聯議題。

比例原則濫觴于德國,主要用以調控行政權和公民權間的關系,一直以來,該原則適用于劃定行政處罰、行政強制等傳統負擔行政行為的法治界限,有關數字政府行政法治均衡調控的研究還不足。生成式人工智能賦能數字政府,無疑會進一步對公權力產生增量效應,但同時隱含著權力被“技術控制”的風險。另一個不容忽視的側面是公民私權利維度,類ChatGPT大模型技術賦能會對公民私權利帶來哪些影響?如何利益均衡公權力與私權利所涉及的多種法益?手段適當與法益均衡是比例原則的核心方法論,就此能夠提供較為合適的分析框架。本文先從預測性視角分析類ChatGPT大模型賦能數字政府對行政法治中公權力與私權利這一對核心范疇的潛在負向效應;再從理論層面論證比例原則于類ChatGPT大模型賦能數字政府的功能支撐;最后,結合生成式人工智能的技術邏輯分別設定兩階段合比例控制的具體路徑。

二、類ChatGPT大模型賦能數字政府的行政法治挑戰

“限制公權”與“保障私權”的平衡統一是行政法治的核心目標。與類ChatGPT大模型數字政府相伴而生的是“技術權力化”的隱憂,即“由簡單的行政管理工具變成了主要的‘決策者’”[4],甚至形成某種“技術主宰、工具主義和技術異化”[3]。盡管在數字政府伊始時期,已有很多學者表達了類似的擔憂,但生成式人工智能具有不同于以往的強大技術能力,進一步提高了這種擔憂變為現實的速率。在技術權力擴張傾向下,其將在更深的層次上影響傳統公權力與技術公權力的對比關系,行政法治也將面臨新的突破性危機。

(一)類ChatGPT大模型賦能數字政府的治理命題革新

從技術機理角度審度這場人工智能革命,現階段,我國數字政府中實質決策主要運用“基于規則的專家系統”和“基于機器學習的算法系統”?;谝巹t的專家系統是一種較為低階的人工智能算法模型,主要借助預定義的規則來解決特定領域的問題,通常包含知識庫和推理引擎,表現為“if-then規則”——“如果A和B發生,那么執行C”?;跈C器學習的算法系統指的是“程序根據輸入的信息(即數據)自動進行學習,從而掌握識別和預測能力的功能”[5],不再需要預定義規則,屬于更高階段的人工智能技術。

而類ChatGPT大模型與上述技術相比則更進一步:一是在數據處理上,傳統機器學習需要手動提取,而ChatGPT模型則通過自我學習從原始數據中自動提取,能夠處理更復雜的數據和任務;二是在學習方式上,傳統機器學習通常是監督學習,需要大量標注的數據。而ChatGPT模型使用了半監督學習,可以在大量未標注的數據上進行預訓練;三是在模型結構上,傳統機器學習模型通常比較簡單,如決策樹、線性回歸等。而ChatGPT模型是基于Transformer的深度學習模型,能夠處理結構更復雜的關系和模式。

除卻已被廣泛討論研究的類ChatGPT大模型對政務服務效能提升的場域,技術強基賦能影響行政權運作的實質決策與執行,構成數字政府建設的另一關鍵場域。域外,類ChatGPT大模型已被大量應用于自動化行政領域。例如,美國國防部已經在創建人工智能合同撰寫大模型“AcqBot”[6],通過技術手段起草可編輯的政府合同,從而壓縮重新創建的時間成本,這一技術在聯邦采購流程中也有應用。美國國稅局通過使用 ChatGPT 自動對收到的稅表進行分類,并將其傳送到相應的部門進行處理,而國防部則可以使用它自動生成設備維護報告,從而簡化維修安排。我國也有科技公司提出以ChatGPT賦能政府治理能力的“智能工單”“智能代辦”3等多維場景的構想,這些都顯現出類ChatGPT大模型的推廣應用趨勢。需要說明的是,類ChatGPT大模型賦能應僅限于政府治理模式創新和履職能力提升等個別板塊,聚焦政府行為方式與能力的進一步擴展和增進,并不意味數字政府建設的全部內容都需要由類ChatGPT大模型實施賦能。例如,數字政府的資源儲備、頂層設計及組織體系這些宏觀場域,不宜也無法由類ChatGPT大模型賦能嵌入。目前來看,類ChatGPT大模型賦能數字政府主要在以下幾個具體領域展開:①政府內部的運行與決策,如自動生成政府合同與工作報告;②政民互動的政務服務領域,通過類ChatGPT大模型增補親和互動,提升公眾的可接受度;③自動化行政領域,提高行政管理的效率和準確性。未來,類ChatGPT大模型以其高強度的數據信息的解釋力,還有機會在市場監管、政務公開和給付行政領域進一步應用拓展。

從類ChatGPT大模型賦能數字政府的潛在耦合關聯中可析出應引起重視的兩對關系:一是,新技術手段與傳統公權力手段間的配置關系。生成式人工智能具備匯聚不同數據信息并整合再造的“平臺化”能力,這種超強的“整合—生成”功能作為一種“權力新媒介”,對傳統公權力本身的革新與再造值得關注。二是,在行政法治“權力—權利”的整體框架下,經由生成式人工智能技術加持的公權力對公民私權帶來何種影響,構成另一重值得關注的議題。

(二)類ChatGPT大模型影響下公權力的控制性危機

生成式人工智能需要大量數據支撐模型訓練,嵌入數字政府的一個潛在假設是,若數字政府中的大模型握有政府管理與服務的全部數據,那么它便具有與政府公權力近似的“第四權力”[7]。從這種角度看,類ChatGPT大模型無異于再次強化了技術權力觸手向傳統公權力的延伸,二者的賦能耦合意味著“平臺權力再次走向中心化成為可能”[8]。新技術加速了政府功能的“平臺化”,行政法治的調整對象轉變為一種更為復雜的“技術、規則與人”三方互動范式。依法行政與合理行政構成審度公權力的兩重實質維度,核心功能是控制行政機關權力和防止行政恣意,構成考察生成式人工智能算法權對傳統權力沖擊的關鍵維度。

其一,類ChatGPT大模型的自動生成功能導致“依法行政”原則衰微。依法行政要求行政機關及其公務人員必須依法行使職權或履行職責,行政活動不能與民意機關已經制定的法律相抵觸,并以其為依據,擅自悖離須承擔不利法律后果?!耙婪ㄐ姓睂嵸|正當性派生于民主代表制度,要求行政機關作為法律意志的實際執行者與踐行者,應具備理解法的規范內涵與基本精神的能力,而類ChatGPT大模型對法的理解力不足,容易導致公權力的不當運行。News Guard在最新的報告中指出,當類ChatGPT大模型接受誤導性指令,100%都會回復延續錯誤的內容[9]。從這種角度看,類ChatGPT大模型作為生成信息的人工智能的最大缺陷是不擅長事實核查,但卻可通過修正語法、編排語序和邏輯嚴謹地輸出誤導或錯誤的結論。根據《數字化轉型參考架構》劃定的發展級別,過去的數字政府建設主要處于L1“初始級數字化”和L2“單元級數字化”4淺層次階段。類ChatGPT大模型對價值無涉性的突破,有可能深度實質嵌入行政決策,則反向揭示出相關的決策風險——類ChatGPT大模型難以理解并依循“依法行政”的基本要求。當類ChatGPT大模型嵌入數字政府參與某些重大概念和事件的解讀時,如若其對相關法律規則和法治理念理解不足,強大的回應能力則易于異化以至于沖擊固有法的秩序,行政結論演化為復雜技術與法律規則的交叉奏效的結果,也影響法律的事后問責[10]。

其二,類ChatGPT大模型技術裁量擴張將為行政裁量權的合理控制帶來新的難題。行政法治包括“形式法治”與“實質法治”,前者是檢驗行為是否符合制定法的形式要素判斷,后者則建諸合理行政,強調對濫用職權等失當行政行為的監督與矯正。隨著人工智能的不斷進階,人類對于數字政府的期待已然從單純的效能提升到以技術彌補人類理性不足的價值考量。以自動化行政決策為例,當前我國自動化行政應用主要在交警非現場執法、自動化行政審批5和自動化社會信用評價等幾類場景,底層邏輯在于將原先只能由人來完成的事項轉而交由技術實現,進而實現部分或全部的無人化。而類ChatGPT大模型的自主性、自動性與連續性從技術層面明顯增賦行政權力的廣度和強度,引發了更大的不確定性。在技術控制力的觀點看來,凡是特定主體擁有的足以支配他人或影響他人的資源均可稱之為權力[11],而技術迭代會進一步加速其對社會的控制力、影響力和支配力,類ChatGPT大模型在數字政府的技術擴散則會產生類似的風險。裁量權在行政法學中原本意指國家行政機關及其工作人員法定職權范圍內的權力和權限,而擁有“擬人化”思考的類ChatGPT大模型在能夠輸出不可預知的新觀點,突破了過去對預先指令的簡單重復,也意味著其在某種程度上擁有了判斷的裁量權力與權限。進一步講,類ChatGPT大模型嵌入的各類政府決策場景也就從形式意義的嚴格法規范命題縱深跨域到實質意義上的裁量法治命題。

其三,從公權力表達的形式規范維度來看,類ChatGPT大模型對行政公權力“替代發聲”,容易消解官方闡釋權,削弱政府公信力。類ChatGPT大模型強大的理解和生成能力不再是純粹的技術呈現,更易于塑造具有包含解釋力、控制力和確定力在內的權力效力。類ChatGPT大模型的自然語言生成功能決定了它未來有機會成為數字政府建設中聯通政府行為和相對人兩造主體的“溝通橋梁”——上承行政機關到相對人的職能傳達,下啟相對人對行政決定的接受和認同。官方闡釋權主要指政府作為主權邏輯下國家意志執行者,通過解答社會問題、提供公共服務等方式引導社會思想的權力表達,構成國家軟實力的重要組成部分。類ChatGPT大模型是官方闡釋的表達工具,被認為具有理解人類情感的“共情能力”,不僅能夠以它的“思想”反作用于人類,還可以其生產的內容反作用于社會[12],因此關涉公共價值的有效遞送。具言之,類ChatGPT大模型嵌入數字政府不能遮掩政府原本的闡釋權威,代替政府回應社會需求不單是技術賦能下的效率提升問題,還進一步要求類ChatGPT大模型在“發聲”前能夠對政府服務需求、個人情感訴求乃至權利義務關系有深刻理解,否則無疑有曲解誤讀官方闡釋的風險。專業的法律語言與日常生活語言具有巨大差異,如何確保高程度自發性的技術決策與依法行政的要求同頻同步,以及如何防止其被用于生成虛假或誤導性的內容,都是影響官方闡釋權合法有效性的重要因子。

(三)類ChatGPT大模型影響下私權利的限制性危機

行政權與公民權的對立統一仍構成數字政府建設的底層邏輯,但隨著新技術的不斷更迭嵌入,導致了某種程度上的功能回流——公權力行使邊界在技術的加持下更為不清。公民私權利的消極保障仍是行政法治投射于數字政府的首要命題。生成式人工智能技術權力的自我擴張,其獨有的“自我學習”與“反饋輸出”功能,決定了其對于數字政府的高度介入性,傳統數字政府中的治理任務因新技術權力的疊加而變得更為繁重。類ChatGPT大模型賦能加劇數字政府平臺化趨向,技術的不可控性被疊加,必然會進一步引起公民權利的邊緣化、限縮化等更嚴峻的克減,有悖于數字政府法治化建設的根本取向。

一是類ChatGPT大模型的透明度進一步壓縮了公民的程序性基本權利。公民私權利保障強調經由正當程序的行政權力控制,類ChatGPT大模型技術邏輯不僅導致了基于間接民主的立法適用規則不清,也壓縮了直接民主的可適用空間。生成式人工智能賦能的政府決策,通過自動抓取決策所需信息至算法程式,并直接輸出結果,這種高度自主性導致行政活動過程被大幅壓縮[13],難以對方式、程序、順序等程序要件再行分解,作為確保公共理性的公眾參與也無法發揮實效,有關公民知情權、陳述權、申辯權和聽證權等正當程序權利面臨價值懸置。公民對類ChatGPT大模型賦能的決策過程的參與度弱化,加劇問責困境,因為算法黑箱將導致民眾“無法看清其中的規則,無法提出不同意見,也不能參與決策過程”[14],即便結果并不合理也只得先接受。

二是大模型的運算依賴于大數據的支撐,而這些數據則多源于其從輸入端口的“反向”獲取,容易侵害公民隱私權。有預言稱ChatGPT“未來有望成為萬物互聯的接入平臺、操作系統或基礎設施”[15],這依賴于海量的數據支撐。深度合成技術的關鍵在于其能夠理解和學習數據的深層次結構,這使得它能夠生成高質量的、與真實數據相似的新數據。國際知名語言學家喬姆斯基此前曾公開發聲表示,“ChatGPT是一個高科技剽竊系統”,認為其內容不過是網絡上各種信息的雜糅,缺少原創價值,也缺乏對于數據來源的標識[16]。用戶使用類ChatGPT大模型進行對話即以問題的形式將信息直接輸入,相應地,類ChatGPT大模型可能將匿名輸入的信息作為反復訓練的學習素材。2023年3月25日,ChatGPT開發者OPEN AI在社交媒體平臺公開承認“部分用戶可能會看到另一位用戶的姓名、電子郵件地址、支付地址、信用卡信息”,而這完全與此前聲明的不會記住用戶的任何信息相悖。基于生成式人工智能不間斷地產生新信息的運作邏輯,對社會個體進行“全方位、立體化、全天候的完全監督”[17]的擔憂不無道理。

三是類ChatGPT大模型的特殊運作邏輯會增加輸入端對生成內容的“引導權”,削弱了公民獲得“正確回應”的權利。區別于傳統人工智能面向公眾的單向構造,生成式人工智能的另一大特點表現為其從單端人機交互變為前后雙端,生成內容很大程度上取決于前端用戶輸入的指令。用戶端不可控特點的另一面導向可運作空間被“無限放大”的風險,將合法性規制命題向前端延伸。譬如,國外曾圍繞ChatGPT的可誘導性做了實驗,試驗者第一次簡單輸入誘導性非法指令,ChatGPT拒絕回復;試驗者第二次誘使它創建“現在就做任何事”(DAN)模式或“開發者模式”,輸入和第一次相同的指令,便輸出了違反Open AI公司準則的錯誤答案[18]。這意味著,用戶輸入內容一旦帶有違法使用目的,則會誘導類ChatGPT大模型反復學習錯誤內容,按照期待輸出誤導性結論[19]。

三、比例原則調控類ChatGPT大模型賦能數字政府的功能維度

數字政府中公權力與私權利的結構變動,必然賦予行政法治以新的任務?!斗ㄖ握ㄔO實施綱要(2021—2025年)》提出“健全法治政府建設科技保障體系,全面建設數字法治政府”。法治的數字政府至少應具備“科學”“民主”和“依法”[20]的基本指涉。比例原則的法理意涵對于貫徹上述應然維度,矯正類ChatGPT大模型賦能數字政府的行政法治失衡具有方法論層面的意義。

(一)比例原則貫徹行政法治的基本法理

1.比例原則“三要素”的基本意涵

世界范圍內,隨自由法治國到社會法治國的時代變遷,政府轉變以往 “守夜者”的消極行政角色,承擔起對社會整體“從搖籃到墳墓”的生存照顧職能,現代國家的行政法治被要求發揮更多的職能,裁量權也由此背景產生。然而,“所有自由裁量權都可能被濫用”[21],行政法治在這種意義上就需要對法律制度粗疏或規約不到的領域進行裁量權的合理控制,統攝行政權與公民權的平衡關系。比例原則是行政法治的核心原則,可溯源至希臘哲學中—— “正義就是合乎比例的、不正義就是違反比例的”[22]。二戰后,比例原則正式被定義為“適宜性、必要性和狹義的相稱性的一組相關子原則”,這已初步構成當前行政法學界所熟知的比例原則“三要素”雛形[23]。比例原則是對權力的細化規約,與一般的“依法行政原則”相比,該原則更指向“目的與手段”間合乎比例的配置。

比例原則作為裁量治理的核心原則,其三項子原則通過在“手段”與“目的”間的穿梭,調試二者的恰當配置關系,得以完成對行政法治中“權力—權利”核心關系的合理調控。適當性原則(妥當性原則),意指行使權力的手段必須是恰當的,有助于實現相關的目標,禁止使用與實現目標無關的手段。通過以特定“目的”為參照物,反向衡量恰當的行政權力手段,防止偏離與泛化[24]。必要性原則(最小損害原則)是在前一原則基礎上的延伸,不再僅關注目的與手段的形式匹配,進一步對“經過適當性審查所挑選出來的‘手段群’”依次比較[25],選擇其中損益結果最小的方案。均衡性原則(狹義比例原則)則衡量行為所增進的公共利益與所損耗的私人利益,以達到“損益均衡”為最佳,如后者大于前者,則不成比例。

2.比例原則調控類ChatGPT賦能數字政府行政法治的正當性

比例原則以“權利保障”和“權力控制”為目的,核心功能是裁量治理。從目的要件來看,“權利保障”和“權力控制”構成比例原則的適用基礎,即存在公民權利被限制和公共權力無序擴張或濫用的可能,在前述類ChatGPT賦能數字政府場域中,這一要件已經具備。在功能要件上,“裁量治理”是比例原則的核心功能,前提是裁量權創設了公權力不當運用的基本空間[25],這同樣適配于類ChatGPT大模型基于“自動生成”功能的裁量權增賦特質。比例原則提供的階層性分析框架,對于如何限制或規約基于新技術自主裁量權、矯正公權力無序擴張和衡平私權利的不當限縮,都能夠提供重要的功能支撐。因此,運用適用比例原則分析類ChatGPT大模型賦能數字政府具有正當性。

(二)比例原則對類ChatGPT數字政府“科學行政”的功能支撐

合比例性的第一要義是“手段適當”,為類ChatGPT大模型賦能數字政府中技術手段與行政目的的科學配置提供度量。《國務院關于加強數字政府建設的指導意見》也提出要“提高自主可控水平”的安全發展需求?!斗ㄖ握ㄔO實施綱要(2021—2025 年)》提出全面建設數字法治政府,既要順應經濟社會數字化轉型趨勢,建立“職能科學”與“智能高效”的數字政府,也要兼顧“權責法定、執法嚴明、公開公正、廉潔誠信、人民滿意”的法治政府目標。在這里,技術與行政管理目標之間就達成了“手段—目的”間的功能關聯。一個基礎性認知是,并非所有的行政管理事項都適宜由新技術嵌入。理想狀態下,技術嵌入應秉持價值無涉的純粹“工具主義”,但類ChatGPT大模型的自動化生成功能將人工智能自主性抬升到新高度,可能引發新一輪技術公權力的隱性擴張。這種情形下,合理的裁量就需要同時安放“執法者原本的公權力”和“基于類ChatGPT大模型的技術公權力”兩項命題。

比例原則作為法律分析方法,本質上是對“手段—目的”間關聯可證成性的要求(requirement of justification),即行政主體應該為自身行為所用手段的選擇提供合乎理性(rationality)的說明[26]。該原則不僅僅是調控公權力與私權利的固定范疇,它同樣可以適用于分析數字政府建設過程中對合適技術手段的選擇。數字政府建設中,如何選擇恰當的技術手段,是比例原則涵攝下類ChatGPT賦能數字政府中的首要問題,本質上是技術對權力的賦能程度與范圍的回應。如有學者所言,與其將比例原則看作是一種證實的原則,還不如將其視為一種證否的原則[27]。根據比例原則中“最小損害”的要求,理想狀態下,在技術裁量權與傳統公權力存在對峙的領域,應選擇其中最安全穩妥、不致損害的方案。總體上,類ChatGPT大模型數字政府場域理想的狀態是:既要以數字政府宏觀發展目標為底色,選用有助于推進這些目的實現的恰當手段,也要兼顧安全與公平的融合發展底線,防止不當介入。

(三)比例原則對類ChatGPT數字政府“依法行政”的功能支撐

合比例性還要求在實質上實現“權力控制”,比例原則將“最小損害”“利益均衡”等理念貫徹融入類ChatGPT大模型賦能數字政府場域,遞歸實現對權力的規約。數字法治政府本質是數字技術和依法行政的深度融合。權力可以理解為“有進入某區域的權限”和“對某人某事的約束與控制”,類ChatGPT大模型賦能數字政府則是行政權力與數字權力的結合,法治視角下,無論是英美的“法治原則”(rule of law),還是德國的“法治國”(Rechtsstaat)原則,都重視經由法律的政府權力控制和個人權利保障的基本價值主張。行政法治不僅是“規則之治”,更是“理由之治”與“價值之治”[28],投射到數字政府場域內:“規則之治”要求數字政府受現行法律的約束,行政權力行使必須圍繞規則設定的行為要件展開;“理由之治”要求數字政府行使權力時具備充分的正當性,不得擅自抹去行政權行使的公平、公正和公開的法定職責,也不得消解公民知情和參與在接受數字治理過程中的正當權利;“價值之治”要求數字政府在行使權力過程中保障個人的尊嚴、自由和權利。

比例原則控制公權力主要通過“適當性原則”“最小損害原則”和“利益均衡原則”遞歸實現,不僅集中表達于行政行為的控權面向,還反映出行政決定對私人利益的考量與重視,要求確保公權力與私權利間的恰當比例。適當性原則符合法治政府“規則之治”的價值預期,對類ChatGPT大模型賦能數字政府提出適用技術手段必須符合法律規范要件的基礎性要求,構建框架性圖譜?!白钚p害原則”和“利益均衡原則”更是傳統控權方法的直接貫徹,比例原則要求公權力應當不過分侵入公民私人空間,并在公共利益增量與私人利益損耗間進行必要的合比例性判斷。類ChatGPT大模型技術權力運作下的利益衡量廣泛存在于政府公共決策、行政執法和政務服務互動等各項領域,因為其行權必然會牽涉個人信息隱私暴露成本、公共數據泄露成本和知識產權侵權成本等多維主體的具體利益。具體來看,類ChatGPT大模型數字政府中的公共利益表達為“公共決策科學化”“公共治理精準化”和“政務服務高效化”幾方面的目標,可預期的公共利益則可以提升政府治理能力、創新公共服務方法以及在更宏觀的意義上促進社會可持續發展等。而私人利益一端包括隱私權、刻板印象(stereotype)、污名化(stigmatization)與歧視等[29]。利益衡量原則要求使用類ChatGPT技術的數字政府特別需要注重行政權和公民權、公共利益與個體利益間的對立統一關系,如何實現利益均衡的理性建構是必須予以考慮的關鍵維度。

數字政府行政過程的復雜性就表現在多主體共同參與形成的多模塊、多層級復雜格局,嚴苛的法律涵攝技術很難在多元利益和訴求分散的個案中獲得什么是“符合合法性”的唯一答案。通過比例原則三項子原則對數字法治政府對“權力控制”目標的漸次闡釋,有助于具化理解類ChatGPT大模型數字政府間各類法益,并促使其均衡化。

(四)比例原則對類ChatGPT數字政府“民主行政”的功能支撐

合比例性還隱含著留足充分表達個體利益的民主空間要求,共通于“民主行政”的基本目標。民主行政立基于每個公民都能夠平等參與公共事務的權利。在行政層面,主要體現在行政機關須依法行政,并通過公民不間斷地直接參與行使權力,對權力進行限制和監督。數字政府令自然人數據化與信息化,可及率日益提高,以數據信息為介質,為“原子化”分散的公民提供參與和表達的有效路徑。公民從單純接受政府信息和決策支配的受體,轉變為提供數據信息的主動者甚至是引導者,自主權大幅增加。但數字政府特有的技術路徑對民主性的不當壓縮,也是必須關注的另一側面,新技術迭代將不斷增強“數字鴻溝”和“算法黑箱”,比如礙于職業、年齡、經歷和教育程度的差異,數字弱勢群體的民主權益被裹挾與壓縮,個體對數字掌握能力的不均逐漸演化為數字政府整體的民主裂痕,都成為阻礙數字政府普惠發展的新議題。而這些問題在類ChatGPT大模型賦能數字政府建設中非但不會減少,反而會更為明顯。正如前述,數字政府類ChatGPT大模型通過自主學習和自動生成的技術裁量強基賦能,無疑會加劇算法黑箱,公民的表達權與受回復權都面臨更多的限制性危機。由此,數字政府中嵌入新的技術手段,如何確保不同利益獲得均等表達是回應“權力—權利”失衡性的關鍵。

比例原則本質是“多中選優”的利益衡量,隱含的前提是多種不同利益具有正常的表達渠道。行政主體得以通過利益表達全面了解掌握私主體訴求,并通過衡量達到均衡的最佳效果。因此,比例原則在主體層面對類ChatGPT大模型提出“確保公民參與,反映公民意志”的要求,讓不同的利益得以正常表達,不承認乃至排斥默認的行政機關優先地位,為數字政府行政法治的民主行政目標提供正當性支撐。

四、類ChatGPT大模型賦能數字政府合比例性的具體實施路徑

因應比例原則對類ChatGPT大模型賦能數字政府的調控功能,有必要進一步建構可行的制度和機制?;谏墒饺斯ぶ悄艿募夹g特性,合比例性控制機制的設置應當符合其特殊構造與運作邏輯,根據“訓練與輸入”階段及“生成與輸出”階段進行分段設置。

(一)“訓練與輸入”階段的合比例性控制

相比于一般需要預輸入內容的“if-then”人工智能系統,生成式人工智能還額外有前置的數據準備工作,即預訓練數據,并調試對數據的利用方法,最終根據數據學習的結果,比照問題提煉關鍵信息[30]?!渡墒饺斯ぶ悄芊展芾頃盒修k法》第七條6也規定了生成式人工智能服務提供者在預訓練階段的處理義務,但仍有進一步落實的空間。

1.建立事前論證機制

在數字政府哪些環節能夠嵌入類ChatGPT大模型,構成溯源公私權利配置的最初靶向,根據比例原則“適當性”的基本要義,應建立類ChatGPT大模型賦能的事前論證機制,確保技術介入的基礎正當性與合理性。比例原則中的“適當性”原則要求在使用某一技術手段之前應當經過合目的性判斷,若分析表明類ChatGPT大模型有助于行政目的實現,則可以采用該手段,反之則否。在類ChatGPT大模型嵌入環節,并非所有的行政領域都可以或者適宜由數字化賦能,哪些領域可采用類ChatGPT大模型技術手段,哪些需要嚴格的法律保留,必須明確使用目的與邊界。

(1)在選用類ChatGPT大模型嵌入數字政府應用的場景時,可參照我國部分地區現已經推出的“數字政府規劃論證”團隊評估模式,評估依據與標準應以數字政府建設的國家規劃為底色,判斷新技術嵌入后能否進一步推進“內容全面、目標明確、架構完整”的數字政府目標,并重點圍繞合法性和可操作性開展論證。邀請該場景相關公民、專家和科技公司等多方主體通過論證會和座談會評估風險,量化測評類ChatGPT大模型嵌入、運行、輸入和輸出等系列環節中所面臨的威脅、存在的弱點、造成的影響,以及三者綜合作用所帶來風險的可能性。在具體程序設置上,可先由政府方闡述類ChatGPT大模型賦能數字政府的合法性和必要性,允許某些特定行政場景輻射的公民、法人或其他組織參與論證,闡述自身可能受到的影響,專家和科技公司須作為第三方全程參與。與此同時,還應警惕基于“政績觀”導向的數字運用,比如在使用新技術前夸大允諾,對行政便利、經濟利益和自身政績的考慮大于對新技術的掌控能力,否則會加大技術行政風險概率。

(2)“適當性原則”還要求作為技術的“手段”對數字政府行政“目的”的準確理解,避免歧義偏差對政府官方闡釋帶來的不利影響,這需要確立“前置預訓練”機制。薩斯金(R. Susskind) 曾評論法律人工智能的系統構建: “所有的專家系統都必須體現法律知識、法律科學、規則的結構、法律的個體化結構、法律系統和子系統,法律推理以及法律邏輯。[31]”技術實質嵌入的應然前提是不僅能夠理解法律文本,還能夠具備對法律文本、法律精神、法律原則和立法者意圖的基礎理解。類ChatGPT作為能夠理解并生成自然語言的大模型,理應被苛以更高的規范性義務。形式要件上,類ChatGPT大模型也需要注重法律語言的技術轉換,符合準確使用“法言法語”的規范要求。

2.采取“清單管理”策略

為防止“依法行政”原則經由類ChatGPT大模型賦能而衰微,有必要加強控權,通過落實“最小損害”子原則實行合比例性控制。對類ChatGPT大模型數字政府實行清單管理,目的是雙重的,借由規約公權力得以同時實現私權利在這一階段的保障。政府部門普遍掌握大量有價值的數據,要保障類ChatGPT大模型數字政府的建設實效則意味著要為算法決策開放大量數據,提供生成素材。類ChatGPT大模型嵌入數字政府建設塑造的是一種“政府—類ChatGPT大模型—相對人”間的三方關系,作為語義交互連接點類ChatGPT大模型生成式人工智能將“上承政府數據,下應公民需求”,因此需“在源頭處對算法進入公共決策予以嚴格把控”[32]。

(1)“正向列舉”清單管理

結合《政府信息公開條例》確立的“以公開為原則,不公開為例外”的政府信息公開原則,以及各級各類政務數據開放目錄,明確可對公眾開放的政務服務、營商環境和信用體系建設的各類數據也應同意由類ChatGPT大模型進行自動提取,明確類ChatGPT大模型可運用數據的實體權限,為類ChatGPT大模型生成結果的準確性和全面性提供數據保障和信息支撐。

(2)“反向列舉”清單管理

一方面,對于涉及國家安全的數據,結合《中華人民共和國數據安全法》第二十一條提出要“建立數據分類分級保護制度”,反向清單應明確關系國家安全、國民經濟命脈、重要民生、重大公共利益等數據屬于國家核心數據,不允許類ChatGPT大模型在生成回復過程中予以反向采集。另一方面,對于涉及個人隱私和知識產權的數據,可參照歐盟《通用數據保護條例》第22條和第29條規定的算法決策一般禁令——“數據主體有權不接受完全基于自動處理的決定”以及“接觸到個人數據的處理者和任何根據授權行事的人,除非是根據控制者的指示,否則不得處理這些數據”的要求,移植至類ChatGPT大模型數字政府個人信息數據的消極義務上來。

3.補強相對人程序性權利

“均衡性原則”要求實體性權利義務配置適當,這需要補足植入當事人程序性權利。程序性權利是公民、法人或者其他組織通過各種方式和途徑參與行政程序的權利,在類ChatGPT大模型自動化決策中“當事人可能面臨更為不利的程序權利保障”[33]。這需要在面向相對人損益不利法后果的類ChatGPT大模型自動行政中,預標注當事人享有的陳述權、申辯權和聽證權等程序性權利,并作為必要前置強制性植入自動生成結論前環節。

(二)“生成與輸出”階段的合比例性控制

1.確立“動態規制”治理思路

對于類ChatGPT大模型引起的行政裁量規制難題并非數字政府行政的某一“靜止片段”,而可能發生于生成于應用的各個環節,由此,合比例性“生成與輸出階段”的“適當性”原則就要求確立“動態規制”的治理思路。生成式人工智能算法模型高度自主性引發的不可控性表明,試圖一勞永逸地通過預先的法律框架進行完備規定不符合現實。數字政府常態靜止方法的規制邏輯,缺乏對“訓練—輸入—生成—輸出”動態時間維度的把握。鑒于此,“動態監管”作為更具有靈活性的治理方法更符合數字政府對新技術使用的可控性要求。這一監管方式通過將“技管結合理念”以自動化、生態化、動態化的形式嵌入類ChatGPT大模型算法運行過程,作為“平衡資源投入與效率保持的舉措”[34],拉長類ChatGPT大模型賦能數字政府運行的整體考察視角,不僅關注以事先立法框定技術賦能的應用與安全的片面節點,還將持續關注賦能后的運算行為、反向數據采集行為和輸出行為等類ChatGPT大模型運行的系列過程性行為。這同時意味著將監督常態化,一旦發現風險可及時予以干預,以達到對類ChatGPT大模型實際致損前的全過程精細化控制目的。具體可通過建立自動化監管方式和生態化監管網絡加以落實,譬如,在全過程自動化監測過程中通過捕捉預設關鍵詞,一旦出現不適法、不恰當的內容回復或自動決策即暫停輸出,并將誘發因子上報。

2.落實類ChatGPT大模型執法對相對人的“最小損害”

行政并非單一選項,在生成階段類ChatGPT大模型可能面臨多種回應(執法)方式的選擇,“最小損害”原則要求最有利于行政相對人的手段,這也是在合法行政基礎上,對政府“合理行政”的進一步規約?;貧w“比例”一詞的語義本身,內含著進退有據、塑造共識的旨趣。類ChatGPT大模型可有針對性地面向不同用戶行為特點和主觀意愿進行管理或提供服務,手段篩選的過程為比例原則的介入提供了空間。這在類ChatGPT大模型應用的政務服務及有限的行政執法場景中十分關鍵,尤其是對相對人不利的行政決定,類ChatGPT大模型難以像人類一樣結合案件發生環境和公共價值作出最恰當的決策,一旦失去比例則容易引發相對人對決策結果的抵觸情緒。在回應(執法)過程中存在多種可供方式時,要輸出力度最弱的方式,也就是在最小幅度增設相對人義務或減損其權利。對于裁量性行政行為,類ChatGPT大模型還可以通過細化裁量基準的方式提升執法的公平性和效率性。就類ChatGPT大模型賦能自動化行政處罰而言,裁量基準主要有“情節細化”和“處罰格化”兩種技術手段,情節細化在于詳細列舉并區分違法行為的主客觀條件,并分別適用不同的處罰格段[35],這要求類ChatGPT大模型精確定位到具體格段,若仍然有裁量空間幅度時,適用對相對人危害最小的處罰。同時還可將類案數據輸入語料庫納入預訓練,類ChatGPT大模型自動學習總結每一檔罰款對應違法案件發生時的違法要素??傮w上,生成式人工智能處理行政事務必須確保個人權益受到的限制和干預處于最低水平[36],“結果精確度”不能作為唯一的目的性考量。

3.設置面向私權保護的系列機制

“均衡原則”是比例原則三項子原則的核心,考量行政過程中公共權力與私人權利之間比例關系,公權力行使要恰到好處,私權利受損也應恰如其分[37]。類似“成本-收益”分析,行政手段對公民私權利的侵害,其實現的公共增益應超過這一損益結果,否則違背均衡性原則。需要注意,數字政府中的利益衡量不應完全指涉“物質利益”的經濟學分析,其利益包含多重維度。憲法保障公民生命權、健康權、財產權和自由權,數字政府中公民身份被數字化,上述權利就具化為信息獲取權、數據信息隱私權、算法公平保障權和被遺忘權等多種數字化權益。利益衡量意味著經由類ChatGPT大模型等生成式人工智能決策的事項,不能僅僅以政府部門的行政效益為考量,公共利益也不能被一概視為兼容并包的“口袋概念”,必須在具體的事項與案件中進行權益的均衡。

(1)確立技術裁量性行政的評估與審核制度。類ChatGPT大模型賦能數字政府將引發行政權力、技術權力、社會權力和相對人權利多方關系耦合交織的復雜構造。在此背景下,行政決策的利益衡量將突破“公共利益—私人權益”的結構,廣泛充斥在橫跨傳統行政權力與新興技術權力的領域。目前,我國已建立起對“數據出境”的安全評估制度,同樣地,生成式人工智能面向公眾生成回復或執法結果,代表的是政府授權的官方結論,其安全性和準確性需受到重視。參考這一制度,類ChatGPT大模型數字政府中涉及重要問題的回復或執法結論等,可建立政府內部的人力評估,合格后方可向公眾釋放結論,如:公民詢問涉及國家安全和社會利益的重要信息和數據;詢問頻次較高且具有爭議性的社會敏感問題;開發應用于新型執法場景的初期實驗階段等。同時,行政機關應對公眾問詢或行政執法場景中重要、敏感的行政話題進行二次審查,總結類ChatGPT大模型回復的有效結論,剔除違法結論并及時糾偏不合理的決策程序。

(2)設定信息數據“反向采集”的禁止機制。類ChatGPT大模型嵌入數字政府不僅會對個人數據收集帶來風險,它還會對采集的個人數據重新組合與加工。因此,應當對類ChatGPT大模型利用數據予以規范設置,保持利益均衡。對于應依照《中華人民共和國個人信息保護法》三十五條規定履行預先告知義務,不主動獲取用戶端數據信息,并對用戶輸入的個人信息做刪除處理。禁止類ChatGPT大模型將搜集數據面向他人公開,限制私人性數據信息納入算法模型循環訓練。對于未經同意收集或外泄個人信息的,技術研發者應采取行動進行修復,并對相關大模型端口設定禁用,同時自動向監管部門生成報告。對于技術本身安全漏洞導致的數據泄露,監管部門應當及時干預,要求技術服務提供者即時修復。對于主觀惡意的數據外泄,則根據法律追究泄露者相關民事或刑事責任。需要注意的是,礙于生成式人工智能輸入端口相對不可控,針對故意輸入違法歧義引導生成錯誤結論,或在公共數據訓練集中“攪渾水”的做法,大模型本身不應當被苛以過多的注意義務。對于此類數據風險事件,可適用“避風港”規則,即“通知—刪除”規則,針對侵權行為,技術服務提供者自動刪除侵權數據,并享受責任豁免[38]。

(3)賦予科技公司以一定的自治義務,引入企業“遵守或解釋(comply or explain)”7[39]規則,敦促企業合規。類ChatGPT大模型技術的不斷“加碼”將引起新一輪的技術鴻溝,“遵守或解釋規則”要求科技公司定期根據數字政府的各個環節充分、完整地將數據采集和輸出情況進行披露。若涉及非法采集,則需要在公示中就其違法原因和預期改進方案進行解釋。總體上,該規則旨在增加科技公司參與數字政府建設過程中不承擔社會責任所應付出的外部成本,進而有助于提升其內部動力,落實企業主體責任。

六、結語

技術的每一次更迭都會帶來社會相關制度的變化,這在以技術為基底的數字政府建設過程中將尤為明顯。一直以來,技術與社會發展的“螺旋上升”互動關系表明,分析生成式人工智能賦能數字政府并非空想,而是以數字政府發展趨勢為基底,建構于技術本身實踐的合理預見性思考。也必須認識到,與所有技術一樣,類ChatGPT大模型也有擅長的領域和相應的短板,技術的存在是為了增強人類的能力,而不是取代人類。數字政府必須首先是法治政府,新技術的賦能僅是其中一個維度,還必須預見其可能的法治風險及其治理新命題,這正是“行政法學因為須面臨快速變動的管制客觀環境,尤其是科技、自然環境及經濟社會的劇烈變動,所以有經常進行改革之必要。[40]”未來,對于類ChatGPT大模型的發展應繼續秉持“堅持發展和安全并重”的基本理念,在法治框架內審慎運用。

參考文獻:

[1] 于文軒, 馬亮, 王佃利, 等. “新一代人工智能技術ChatGPT的應用與規制”筆談[J]. 廣西師范大學學報(哲學社會科學版),2023(2):1-23.

[2] 劉學濤. 行政法治視閾下的數字政府:文獻述評與反思[A] . 《上海法學研究》集刊(2021年第15卷 總第63卷)——上海市域社會治理現代化文集[C]. 上海市法學會, 2021: 280?294.

[3] 馬長山. 數智治理的法治悖論[J]. 東方法學, 2022(4): 63?74.

[4] 盧克·多梅爾. 算法時代:新經濟的新引擎[M]. 胡小銳,等譯,北京:中信出版社,2016:137.

[5] 西森秀稔,大關真之. 量子計算機簡史[M]. 姜婧,譯.成都:四川人民出版社,2020: 66.

[6] JACKIE G. Federal News Network: DOD builds AI tool to speed up antiquated process for contract writing[EB/OL]. (2022-02-13)[2024-03-27]. https: //insights. govforum. io/2023/02/federal-news-network-dod-builds-ai-tool-to-speed-up-antiquated-process-for-contract-writing-2/.

[7] 張燕, 張祥建. 平臺權力的結構、擴張機制與異化效應[J]. 社會科學家, 2022(2): 98?109.

[8] 陳全真. 生成式人工智能與平臺權力的再中心化[J]. 東方法學, 2023(3): 61?71.

[9] News Guard. Despite OpenAI's Promises, the Company's New AI Tool Produces Misinformation More Frequently, and More Persuasively, than its Predecessor[EB/OL]. (2023-03-28)[2024-05-27]. https: //www. newsguardtech. com/misinformation-monitor/march-2023/.

[10] 岳平, 苗越. 社會治理: 人工智能時代算法偏見的問題與規制[J]. 上海大學學報(社會科學版), 2021(6): 1?11.

[11] 尤爾根·哈貝馬斯. 作為“意識形態”的技術和科學[M]. 李黎,等譯. 上海:學林出版社, 1999: 31.

[12] 謝新水. 人工智能內容生產:功能張力、發展趨勢及監管策略——以ChatGPT為分析起點[J]. 電子政務, 2023(4): 25?35.

[13] 張凌寒. 算法自動化決策與行政正當程序制度的沖突與調和[J]. 東方法學, 2020(6): 4?17.

[14] 盧克·多梅爾. 算法時代:新經濟的新引擎[M]. 胡小銳, 等譯,北京:中信出版社,2016:137.

[15] 馬亮. ChatGPT會給數字政府建設帶來哪些變革?[EB/OL]. (2023-02-21)[2023-04-11]. 國家發展與戰略研究院: http://nads.ruc.edu.cn/zkdt/xzgd/406a5ef53e17466692f1b58eb1cbaad0.htm.

[16] NOAM C. The False Promise of ChatGPT[EB/OL]. (2023-08-08)[2024-01-08].New York Times,https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html.

[17] 張夏恒. 類ChatGPT人工智能技術嵌入數字政府治理:價值、風險及其防控[J]. 電子政務, 2023(4): 45?56.

[18] JON M. How to jailbreak ChatGPT: get it to really do what you want[EB/OL]. (2024-03-12)[2024-04-07]. https: //www. digitaltrends. com/computing/how-to-jailbreak- chatgpt/

[19] 郭哲. 反思算法權力[J]. 法學評論, 2020, 38(6): 33?41.

[20] 伍愛群. 全面建設數字法治政府[N]. 人民日報. 2022-08-03(11).

[21] 威廉·韋德. 行政法[M]. 徐炳, 等譯. 北京:中國大百科全書出版社, 1997: 70.

[22] BERNHARD S. Proportionality, the oxford handbook of comparative constitutional law[M]. Edited by Michel Rosenfeld and András Sajó,Oxford: Oxford University Press, 2012: 719.

[23] TALYA U. The principle of proportionality in modern ius gentium[J]. Utrecht Journal of International and European Law, 2021, 36(1): 14-32.

[24] 黃學賢. 行政法中的比例原則研究[J]. 法律科學(西北政法學院學報), 2001(1): 72?78.

[25] 梅揚. 比例原則的立法適用與展開[J]. 甘肅政法大學學報, 2022(4): 1?14.

[26] 約翰·羅爾斯. 政治自由主義[M]. 萬俊人,譯. 南京: 譯林出版社, 2011: 466?467.

[27] 徐夢秋. 公平的類別與公平中的比例[J]. 中國社會科學, 2001(1): 35?205.

[28] 王錫鋅. 數治與法治:數字行政的法治約束[J]. 中國人民大學學報, 2022(6): 17?34.

[29] RYAN M. In defence of digital contact tracing: human rights, South Korea and Covid-19[J]. International Journal of Pervasive Computing and Communications,2020,16(4): 383?407.

[30] 曹樹金, 曹茹燁. 從ChatGPT看生成式AI對情報學研究與實踐的影響[J]. 現代情報, 2023(4): 3?10.

[31] RICHARD E S. Expert systems in law: a jurisprudential inquiry[M]. Oxford: Oxford University Press, 1987: 20.

[32] 趙宏. 公共決策適用算法技術的規范分析與實體邊界[J]. 比較法研究, 2023(2): 1?16.

[33] 王敬波. 數字政府的發展與行政法治的回應[J]. 現代法學, 2023(5): 112?124.

[34] 劉艷紅. 生成式人工智能的三大安全風險及法律規制——以ChatGPT為例[J]. 東方法學, 2023(4): 29?43.

[35] 周佑勇. 行政裁量基準研究[M]. 北京:中國人民大學出版社,2015:31.

[36] 馮愷, 楊潤宇. 人臉識別信息處理中“合法、正當、必要”原則的區分審查[J]. 東南法學, 2022(1): 18?35.

[37] 蔡宗珍. 公法上之比例原則初論——以德國法的發展為中心[J]. 政大法學評論,1999(62):75?103.

[38] 張凌寒, 于琳. 從傳統治理到敏捷治理:生成式人工智能的治理范式革新[J]. 電子政務, 2023(9): 2?13.

[39] FREDERICK C. From CSR1 to CSR2: the maturing of business-and-society thought[J]. Business amp; Society, 1994 (2): 150?164.

[40] 林明鏘. 德國新行政法[M]. 臺北: 臺灣五南圖書出版公司, 2019: 1.

ChatGPT-Like Big Model Enabling Proportionality Control

in Digital Government

Fu Jianyua,b

(a. School of Administrative Law; b. Collaborative Innovation Center for Building the Rule of Law,

Northwest University of Political Science and Law, Xi'an 710063, China)

Abstract: ChatGPT demonstrates a new level of generative artificial intelligence, which is expected to empower the advanced construction of digital government in a more substantive and deeper way, but it is also necessary to warn of its potential risks. The balance and unity of \"limiting public power\" and \"safeguarding private rights\" is the core proposition of the rule of law in administration, and ChatGPT-like big model empowered digital government is prone to produce multiple manifestations of public power \"controlling crisis\" and private rights \"restrictive crisis\". The principle of proportionality is the first principle of discretionary governance, the three sub-principles can fully support the ChatGPT big model empowered digital government of democratic administration, scientific administration and administration in accordance with the law of the three-dimensional objectives, and the rule of law and the administrative rule of law has a close intrinsic relationship, recursively realize the \"power-right\" relationship balanced configuration In the specific practical path, based on the unique technical mechanism of generative artificial intelligence, a two-stage analytical framework: \"pre-training and input stage\" and \"generation and output stage\", has been set up. By embedding a series of institutional mechanisms such as prior justification, list management and dynamic regulation, the principles of appropriateness, minimum damage and balance are implemented respectively to realize the proportional control of the ChatGPT-like big model-enabled digital government.

Keywords: administrative rule of law; ChatGPT-like big model; digital government; principle of proportionality

猜你喜歡
比例原則
淺析行政法的比例原則 
法制博覽(2017年2期)2017-03-13 19:58:52
試析房屋拆遷中比例原則的具體適用
法制與社會(2017年6期)2017-03-11 06:35:24
行政法中的比例原則研究
法制博覽(2017年1期)2017-02-14 15:53:40
淺論比例原則在我國行政法治中的定位
法制博覽(2017年1期)2017-02-14 15:51:48
地方政府介入集體協商的邊界和方式
論比例原則在警察法上的適用
商(2016年33期)2016-11-24 23:39:08
我國城市群租治理立法的法律缺陷分析
單雙號限行常態化行政法上的思考
商(2016年31期)2016-11-22 21:58:20
糾纏于權力與權利之間
論行政法比例原則
法制博覽(2015年12期)2015-12-22 12:37:31
主站蜘蛛池模板: 国产人成在线视频| 五月婷婷导航| 亚洲欧美不卡中文字幕| 3344在线观看无码| 波多野结衣一区二区三区88| 一级毛片在线免费看| 欧美国产综合视频| 国产精品无码一区二区桃花视频| 成人午夜免费观看| 999精品在线视频| 激情六月丁香婷婷四房播| 99国产精品国产| 久久中文字幕不卡一二区| 在线观看亚洲精品福利片| 久久免费视频6| 无码aⅴ精品一区二区三区| 国产女人在线| 青青草国产免费国产| 婷五月综合| 日韩欧美中文在线| 在线免费观看AV| 亚洲欧洲日本在线| 午夜视频免费试看| 亚洲第一黄色网| 亚洲人免费视频| 国产精品三级av及在线观看| 第一区免费在线观看| 亚洲性影院| 97色伦色在线综合视频| 国产成人精品三级| 国产在线98福利播放视频免费| 亚洲天堂精品在线观看| 免费人成网站在线高清| 中文字幕在线视频免费| 欧美色亚洲| 看国产一级毛片| 国产成人三级| 欧美三级不卡在线观看视频| 亚洲成a人片在线观看88| 国产亚洲精品在天天在线麻豆| 97se亚洲综合在线韩国专区福利| 中文字幕亚洲专区第19页| 欧美性天天| 久久这里只有精品66| 欧美中文字幕一区| 国产精品网址你懂的| 亚洲国产中文在线二区三区免| 巨熟乳波霸若妻中文观看免费| 97青青青国产在线播放| AV熟女乱| 国产午夜在线观看视频| 久久婷婷国产综合尤物精品| 国产在线观看高清不卡| 亚洲av无码牛牛影视在线二区| 久久国产毛片| 伊人久久婷婷| 国产成人艳妇AA视频在线| 欧美精品伊人久久| 日韩毛片基地| 欧美午夜视频在线| 国产一区二区三区日韩精品 | 欧美在线综合视频| 国产微拍精品| 97无码免费人妻超级碰碰碰| 国产成人福利在线| 日韩欧美国产成人| 亚洲第一视频免费在线| 97免费在线观看视频| 国产一级在线播放| 午夜在线不卡| 人人91人人澡人人妻人人爽| 国产成人综合网| 青青热久免费精品视频6| 91精品久久久久久无码人妻| 欧美另类第一页| 亚洲欧美激情小说另类| P尤物久久99国产综合精品| 亚洲va在线∨a天堂va欧美va| 国产91精选在线观看| 亚洲成人播放| 9啪在线视频| 色AV色 综合网站|