999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

自動行政答復的合法性偏離及其優(yōu)化進路

2025-08-02 00:00:00孟李冕
法治研究 2025年4期
關(guān)鍵詞:信賴合法性自動

《法治政府建設(shè)實施綱要(2021-2025年)》提出,要“健全法治政府建設(shè)科技保障體系,全面建設(shè)數(shù)字法治政府”。關(guān)于數(shù)字法治政府的現(xiàn)有法學研究,主要集中于使用人工智能作為執(zhí)法的輔助手段。例如,研究行政處罰、行政許可和行政命令等領(lǐng)域的人工智能應(yīng)用,特別地,關(guān)注裁量自動化等問題。但人工智能在政務(wù)服務(wù)中的應(yīng)用——自動行政答復,較少被研究關(guān)注。近年來,國家陸續(xù)發(fā)布政策推動發(fā)展自動行政答復。早在2017年,國務(wù)院辦公廳印發(fā)的《政府網(wǎng)站發(fā)展指引》(國辦發(fā)[2017]47號)就明確提出,“通過自然語言處理等相關(guān)技術(shù),自動解答用戶咨詢,不能答復或答復無法滿足需求的可轉(zhuǎn)至人工服務(wù)”。2019年,國務(wù)院辦公廳秘書局印發(fā)《政府網(wǎng)站與政務(wù)新媒體檢查指標、監(jiān)管工作年度考核指標》,將“實時智能問答”作為加分項,以鼓勵提供自動答復。

作為數(shù)字政府建設(shè)的一部分,自動行政答復因快速的特點,已然得到了國內(nèi)外廣泛應(yīng)用。早在2019年9月底,開通自動行政答復的國內(nèi)政府門戶網(wǎng)站已400有余。不少國家也推行自動行政答復。美國公民和移民服務(wù)局的互動聊天機器人Emma,可通過它了解所需要的移民信息(入籍的形式、費用、說明和資格要求);美國陸軍和陸軍后備隊的虛擬向?qū)?Sergeant Star,可以回答關(guān)于軍隊的任何問題,例如是否符合年齡、身高、體重和其他要求。此外,澳大利亞稅務(wù)局所創(chuàng)的聊天機器人Alex,幫助納稅人解決稅務(wù)問題。新加坡政府推出聊天機器人,及時答復用戶的問題。?

然而,自動行政答復無法確保答案完全正確。這一合法性偏離的問題,引發(fā)了與傳統(tǒng)行政答復錯誤的救濟異同等問題。本文將圍繞自動化行政答復所引發(fā)的合法性偏離問題展開研究,以期實現(xiàn)自動行政答復的法治化。

一、法律屬性:無拘束力的自動行政答復

行政答復,有著不同的細分類型,并匹之以不同的法律拘束力。通過類型適配等分析,可知自動行政答復不具有法律拘束力。

(一)前提:行政答復的類型劃分

行政答復,可從問題屬性和答復效力兩個層次進行類型化構(gòu)建。以問題屬性為標準,行政答復可分為事實問題和法律問題的答復。本文只研究關(guān)于法律問題的答復。以答復效力為標準,關(guān)于法律問題的行政答復,可分為行政解釋、事先裁定和狹義行政答復。三者的法律拘束力,呈逐級遞減趨勢。行政答復的類型化圖示見圖1。

圖1行政答復的類型化

首先,答復類行政解釋,指行政機關(guān)應(yīng)法院、其他行政機關(guān)或公民等不同主體以咨詢、請示或詢問等形式發(fā)出的請求,以\"答復\"“復函\"等形式進行的相關(guān)法律規(guī)范解釋。例如《生態(tài)環(huán)境部辦公廳關(guān)于惡臭氣體超標排放法律適用有關(guān)問題的復函》(環(huán)辦法規(guī)函[2020]122號)對企業(yè)事業(yè)單位和其他生產(chǎn)經(jīng)營者未采取措施防止排放惡臭氣體,導致惡臭氣體超標排放的行為進行了法律解釋。由于這一違法行為同時違反兩個以上法律條款,復函明確了具體適用的法條。又如,環(huán)境保護部辦公廳針對廣東省環(huán)境保護廳作出的《關(guān)于高污染燃料禁燃區(qū)管理中對直接燃用生物質(zhì)等問題的復函》等。對行政機關(guān)在其執(zhí)法權(quán)限范圍內(nèi)作出的、內(nèi)容合法的答復類行政解釋,雖然并無法源意義上的規(guī)范拘束力,但具有一定的說服力。換言之,答復類行政解釋,具有事實上的普遍法律拘束力。

其次,事先裁定,亦稱為\"行政事前答復”,作為因應(yīng)法律不確定的制度化例外,僅具有約束行政兩造的拘束力。盡管法律越織越密,法律不確定性問題依然存在。因此,作為一種因應(yīng)法律不確定性問題和提高合法預期的非正式手段,事先裁定類答復有著存有必然性。事先裁定是一種制度化的例外,僅在法律特別規(guī)定時存在適用。我國也有一定的制度化嘗試。例如,2000年修訂的《海關(guān)法》正式創(chuàng)建了海關(guān)行政裁定制度,2015年《稅收征收管理法修訂草案(征求意見稿)》也曾試圖創(chuàng)建稅收事先裁定制度。通常認為,事先裁定具有拘束特定當事人的法律效力,但不能拘束第三人。即,事先裁定不得被其他相對人或行政機關(guān)工作人員作為先例。

最后,狹義行政答復,指完全依照法律、法規(guī)、規(guī)章和規(guī)范性文件回答問題,并無摻雜自身的意思解釋。在此類行政答復中,“被答復\"之內(nèi)容是明確的,沒有自我設(shè)立、取消和變更權(quán)利義務(wù)關(guān)系的機關(guān)意思表示。狹義行政答復,是關(guān)于認識表達的答復,沒有拘束力,僅為事實行為。此類行政答復的出現(xiàn),源于解決法律條文難以查找的現(xiàn)實需要。截止2025年4月30日,我國現(xiàn)行有效法律有306部,遑論行政法規(guī)和規(guī)章的數(shù)量。隨著法律體系的日臻完善,公民越來越難以查找所需條文,更不必言及法律的理解和應(yīng)用。長此以往,可能會造成公民權(quán)益保護的疏漏,以及法律實施的不暢。為了保護公民權(quán)益以及促進法律良好實施,行政機關(guān)會提供行政答復,幫助公民理解和應(yīng)用法律。這一要求不僅源于規(guī)范層面,有時還被寫人法律文本。例如,《中小企業(yè)促進法》第2條規(guī)定,縣級以上人民政府及其有關(guān)部門應(yīng)當通過政府網(wǎng)站、宣傳資料等形式,為創(chuàng)業(yè)人員免費提供工商等方面的法律政策咨詢。

(二)定位:無拘束力的自動行政答復

自動行政答復,指行政機關(guān)使用計算機科技來實現(xiàn)行政答復的自動化。自動行政答復,其技術(shù)依托為聊天機器人,也被稱為(自動)問答機器人、自動問答系統(tǒng)、專家問答系統(tǒng)和人機對話系統(tǒng)等。自動行政答復的技術(shù)原理,主要分為早期的檢索原理式和后期的大模型式。無論是基于何種技術(shù)原理,自動行政答復都不具有拘束力。

1.基于檢索原理的定位:無拘束力

基于檢索原理的自動行政答復,落人“狹義行政答復\"的類型,僅是法律、法規(guī)、規(guī)章和規(guī)范性文件的“復制”,不具有拘束力。

首先,聊天機器人的構(gòu)建方式有多種。聊天機器人,可追溯到圖靈在20世紀50年代對智能機器的“圖靈測試\"設(shè)想。 年,世界上第一個聊天機器人ELIZA發(fā)布。從技術(shù)構(gòu)建角度,聊天機器人可以分為基于人工模板、基于檢索和基于深度學習三種。人工模板式,根據(jù)輸入在模板庫中匹配問句模板,然后按照對應(yīng)的應(yīng)答模板生成答案,準確度高但擴展性較差。檢索式,在數(shù)據(jù)庫進行基于規(guī)則的模式匹配,或應(yīng)用較為復雜的深度學習算法進行模式匹配,對數(shù)據(jù)庫要求高但回答質(zhì)量高。深度學習式,基于深度神經(jīng)網(wǎng)絡(luò)構(gòu)建端到端的對話模型,來學習輸人與回復之間的對應(yīng)模式,不斷更新升級知識庫,然后根據(jù)對話模型計算輸入語義向量生成新的回復內(nèi)容,擴展性好但回復可能有語法錯誤。現(xiàn)有的自動行政答復,多數(shù)采用檢索原理,從已有知識庫中檢索相關(guān)答案。②

其次,自動行政答復的技術(shù)基礎(chǔ)在于,基于政府業(yè)務(wù)邏輯,構(gòu)建知識圖譜形成完善的知識庫。就本質(zhì)而言,知識圖譜是一張語義關(guān)系的數(shù)據(jù)網(wǎng)絡(luò)圖,是以圖的形式表現(xiàn)客觀世界中的概念和實體及其之間關(guān)系的知識庫,是智能問答等服務(wù)的基礎(chǔ)技術(shù)之一。完善的知識庫,是自動行政答復內(nèi)容的水之源、木之本。具體而言,自動行政答復的關(guān)鍵支撐為,在對政府業(yè)務(wù)進行邏輯梳理的基礎(chǔ)上,通過對職能部門的政策法規(guī)、辦事指南、信息數(shù)據(jù)進行知識圖譜梳理,形成專門知識庫;此外,還需要綜合利用自然語言處理技術(shù)、多輪對話技術(shù)、標簽關(guān)聯(lián)技術(shù)和機器學習技術(shù),準確理解用戶輸入語義。

最后,結(jié)合技術(shù)依托可知,自動行政答復只發(fā)揮\"復制\"功用,被定位于狹義行政答復。暫且不論自動系統(tǒng)對事實問題的答復,僅關(guān)注對法律問題的答復。通過將法律、法規(guī)、規(guī)章和規(guī)范性文件等信息梳理為知識庫,自動系統(tǒng)依據(jù)知識庫進行應(yīng)答。在這一限域內(nèi),自動行政答復,僅是法律、法規(guī)、規(guī)章和規(guī)范性文件的“復制”,等同于狹義行政答復,不具有行政解釋和事先裁定的可能空間。從法律效力的角度,行政機關(guān)以電腦語音等方式自動答復民眾查詢時,因不具有法效意思及規(guī)制效力,性質(zhì)上為行政機關(guān)之提供咨詢。“自動\"的添附,并未改變“狹義行政答復”的性質(zhì)。

2.基于大模型的定位:消解的拘束力

基于大模型的自動行政答復,有著基于法律、裁判文書等的“自我解釋\"空間,可歸入“事先裁定”的類型,具有拘束力。但為規(guī)避可能的風險,行政機關(guān)可能會主動消解拘束力。

首先,隨著生成式人工智能的出現(xiàn),聊天機器人也有了跨越式發(fā)展。2020年,人工智能開始從“小模型 + 判別式\"轉(zhuǎn)向為“大模型 + 生成式”。就應(yīng)用而言,從人臉識別、語言翻譯、文本分類,拓展至文本生成、圖像生成和視頻生成等。生成式人工智能依靠大語言模型來實現(xiàn)其生成能力。就原理而言,大模型可分為預訓練、指令微調(diào)和價值對齊三個階段。預訓練,指給一個輸入,通過預測下一個單詞來訓練底座大模型,通過大量的訓練來提升精準度,最終實現(xiàn)問題-答案式對話。指令微調(diào),指在底座大模型的基礎(chǔ)之上,通過由《指令,輸出》對組成的數(shù)據(jù)集進一步訓練。價值對齊,指實現(xiàn)大模型與人類價值觀的對齊,可通過人為設(shè)計和自動生成的獎勵函數(shù)進行強化學習加以實現(xiàn)。

就算法而言,生成式人工智能的底層算法主要分為循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、變換器(Transformer)和生成式對抗網(wǎng)絡(luò)(GAN)三種。循環(huán)神經(jīng)網(wǎng)絡(luò),屬于遞歸神經(jīng)網(wǎng)絡(luò),通過使用帶自反饋的神經(jīng)元處理序列數(shù)據(jù),使其可以利用之前的輸入信息影響當下輸出。變換器,是一種基于自注意力機制的深度學習模型,能夠從文本的上下文中找到需要注意的關(guān)鍵信息,處理長序列的能力更強。生成式對抗網(wǎng)絡(luò),是一種基于對抗學習的生成模型,其包含生成模型和判別模型,二者相互對抗進而提高生成數(shù)據(jù)的能力。此外,生成式人工智能的語料體量巨大。以ChatGPT為例,其語料主要來源于可以公開訪問的互聯(lián)網(wǎng)數(shù)據(jù)。GPT-3的參數(shù)量達到了1750億,GPT-4訓練模型的參數(shù)量更是達到了1.8萬億,遠超傳統(tǒng)人工智能的語料體量。

基于算法的迭代和語料的擴充,生成式人工智能有了迥異于傳統(tǒng)人工智能的性能和應(yīng)用。傳統(tǒng)的人工智能主要用于數(shù)據(jù)分析和預測,生成式人工智能可以使用原始數(shù)據(jù)創(chuàng)建新內(nèi)容。生成式人工智能可以處理多領(lǐng)域任務(wù),可以生成文本、圖像、音樂、代碼和視頻等。基于生成式人工智能技術(shù),以ChatGPT為代表的聊天機器人實現(xiàn)了飛躍發(fā)展。

其次,行政機關(guān)趨向于基于大模型開發(fā)自動行政答復。2023年12月,安徽省發(fā)布《安徽省數(shù)字政府大模型場景應(yīng)用清單(第一批)》,該清單列舉了18個場景應(yīng)用。法律咨詢助手,作為場景應(yīng)用之一,指運用大模型的知識問答、邏輯推理等能力,基于裁判文書、法律法規(guī)、法律知識問答庫等數(shù)據(jù)學習、訓練,打造法律咨詢助手。2023年,深圳市龍華區(qū)推出“龍知政\"GPT大模型,應(yīng)用場景之一就是自動行政答復,基于知識庫學習,結(jié)合訴求自身和上下文的理解,實現(xiàn)信息服務(wù)的智能轉(zhuǎn)變。越來越多的行政機關(guān),開始基于大模型開發(fā)自動行政答復。2023年,貴陽市政府利用大模型開發(fā)自動答復,提升智能問答服務(wù)水平。 ?2024 年4月,寧夏發(fā)布了安全生產(chǎn)政策法規(guī)領(lǐng)域的大模型智能應(yīng)用“安全生產(chǎn)政策法規(guī)咨詢AI助手”,該應(yīng)用涵蓋了安全生產(chǎn)領(lǐng)域知識、政策法規(guī)、典型案例以及監(jiān)管報告,旨在提供準確的法律法規(guī)及政策解答。

政務(wù)咨詢類大模型,旨在提供特定領(lǐng)域的問答服務(wù),是生成式人工智能嵌合行政機關(guān)的應(yīng)用場景之一。由規(guī)劃布局可知,基于大模型的自動行政答復,不同于基于知識庫的檢索,而是基于裁判文書、法律法規(guī)、法律知識問答庫等數(shù)據(jù)學習、訓練。因此,以大模型為技術(shù)支撐的自動行政答復,不再僅僅是法律、法規(guī)、規(guī)章和規(guī)范性文件的“復制”,而是有了自我創(chuàng)造、自我解釋的可能。根據(jù)這一技術(shù)特性,依循前文的學理分類,可知此類自動行政答復有著事先裁定的可能空間,應(yīng)當被賦予一定的法律拘束力。

最后,為了規(guī)避可能出現(xiàn)的爭議,行政機關(guān)極有可能作出“無法律拘束力\"的聲明。當下,基于檢索原理的可知可控式自動行政答復,都進行了免責聲明。例如,商務(wù)部智能問答機器人提示到,“若回答與事實有所出入,最終解釋權(quán)歸商務(wù)部網(wǎng)站所有。機器人回復內(nèi)容不代表商務(wù)部官方立場,任何截屏、轉(zhuǎn)發(fā)不具備法律效力,商務(wù)部不對此承擔任何責任。\"舉輕以明重,基于大模型的不可知、不可控的自動行政答復,極有可能突破現(xiàn)有法律規(guī)定進行無權(quán)法律解釋,則更應(yīng)被賦予“無法律拘束力”免責聲明。換言之,行政機關(guān)會在使用時進行特定聲明,強調(diào)此類答復不具有法律拘束力,僅供參考。例如深圳市龍華區(qū)的智能答復系統(tǒng),雖然并未明確表示答復無法律拘束力,其免責聲明表達了相似含義。

二、實然表現(xiàn):合法性偏離

通過提供快速、準確的答案,自動行政答復減輕了公民的行政負擔。然而,自動行政答復并非無缺點。基于檢索原理的自動行政答復具有簡單性,不免與準確性角力。基于大模型的自動行政答復,具有復雜性,同樣會與準確性產(chǎn)生角力。與準確性的角力,意味著合法性偏離的可能。

(一)簡單性:基于檢索原理的合法性偏離

1.簡單性:法律的簡單解釋

何為簡單性?簡單性,指行政機關(guān)對法律進行簡單的解釋,但沒有強調(diào)法律的潛在復雜度,也沒有通過正式的修改程序來降低復雜度。換言之,簡單性是將復雜的事物簡化理解,并不是指事物本身是簡單的,也并未降低事物的復雜度。不可否認,簡單性有助于公眾理解法律。在一定的場域中,簡單性與準確性是相契而非相沖突的,這為法律的簡單性解釋提供了合理基礎(chǔ)。以完全民事行為能力人為例,其簡單性理解為

18周歲以上的成年人。

然而,簡單性會減損精度。法律中有許多但書和例外,是法律體系的精密構(gòu)成。忽視這些但書和例外,會與準確性產(chǎn)生角力。仍以完全民事行為能力人為例,其存在兩種例外情形:第一,十六周歲以上的未成年人,以自已的勞動收人為主要生活來源的,視為完全民事行為能力人;第二,不能辨認自己行為的成年人為無民事行為能力人。忽略這兩種例外情形,則不能準確地理解、應(yīng)用法律。

2.適用:基于檢索原理的簡單解釋

自動行政答復具有簡單性,原因在于其可能會對復雜的法律進行簡單解釋。具體而言,法律體系繁雜,知識圖譜的構(gòu)建難免有疏漏之處。當自動行政答復未能構(gòu)建完善的知識圖譜時,則具有了簡單性。或者即使構(gòu)建了完善的知識圖譜,未能將但書和例外等細節(jié)之處及時呈現(xiàn)給用戶時,自動行政答復同樣具有著簡單性。用戶輸入方式是多樣的,當自動行政答復沒有準確掌握用戶輸入語義時,可能無法呈現(xiàn)細微之處。

3.導向:合法性的偏離

自動行政答復的簡單性,意味著法律精度的減損,進而導致合法性的偏離。美國稅務(wù)機關(guān)適用的互動式稅務(wù)助理ITA(\"Interactive Tax Asstant\")可為例證。ITA向公民解釋稅務(wù)法律,雖然可以提供與法律相一致的答案,但是有時也提供偏離法律的答案。這些偏離可能是有利于公民的,也可能是不利于公民的。

其一,偏離合法性的答復可能是對相對人有利的。例如,一位模特意圖通過手術(shù)替換美觀人造牙齒,以期助益事業(yè)發(fā)展,在ITA系統(tǒng)中選擇了“我能否扣除我的醫(yī)療和牙科費用?\"通過一系列的問題確認后,ITA接著問道:“你問的是哪種類型的支出?”該模特選擇了“人造牙齒支出\"后,ITA的答復為“你的人造牙費用是合格的可扣除費用。”然而,ITA的答復與法律規(guī)定并不一致。ITA通過簡單詢問費用類型來獲取輸入信息,但沒有詢問法條中更加細化的條件,導致其提供了一個對納稅人有利的錯誤答案。

其二,偏離合法性的答復也可能是對公民不利的。例如,若一名因長期化療導致了牙齒變色的癌癥患者意圖美白牙齒,通過詢問ITA,在醫(yī)療和牙科費用問題類別下點擊“牙齒美白費用”,得到的回復為“牙齒美白費用不是可扣除費用。”然而,該答復與法律規(guī)定亦非一致。在2003-57的稅收裁定中,國稅局表示,如果牙齒美白費用不治療“因毀容疾病或治療引起的\"變色,則不可扣除醫(yī)療費用。換言之,如果手術(shù)是因為疾病或疾病治療,而非為了改善納稅人的外表,則屬于可扣除的醫(yī)療費用。然而,ITA未詢問過相關(guān)事實,導致其提供了一個對納稅人不利的錯誤答案。

綜上可知,自動行政答復這種簡單性信息供給,使公眾難以知悉法律的細微之處。失之毫厘,謬以千里。錯過法律的細微之處,可能會導致合法性的偏離。聊天機器人的錯誤答復并非臆想。當然,導致偏離答復的原因是多樣的。但不論原因為何,基于檢索原理的自動行政答復都有偏離合法性的可能。

(二)復雜性:基于大模型的合法性偏離

1.復雜性:法律的創(chuàng)造解釋

所謂復雜性,指對法律進行從無到有、從簡到繁的創(chuàng)造性解釋。法律有限而現(xiàn)實無窮,將抽象的規(guī)范適用于具體的現(xiàn)實離不開法律解釋。由于法律條文的模糊、疏漏或不一致,立法機關(guān)、行政機關(guān)和司法機關(guān)皆會進行創(chuàng)造性解釋。上述機關(guān)以文義解釋、體系解釋、目的解釋和歷史解釋等方式,對法律條文進行合法解釋。隨著模糊之明確、疏漏之補足、不一致之協(xié)調(diào),法律體系的復雜度則進一步提升。

例如,《行政處罰法》第33條規(guī)定了首違不罰。即對于初次違法且危害后果輕微并及時改正的,可以不予行政處罰。為了解決“首違不罰”過于抽象的問題,各地各部門以出臺首違不罰事項清單等方式進行了明確,如《稅務(wù)行政處罰“首違不罰\"事項清單》。又如,《行政訴訟法》第15條第3項規(guī)定,中級人民法院管轄的第一審行政案件,包括本轄區(qū)內(nèi)重大、復雜的案件。《最高人民法院關(guān)于適用lt;中華人民共和國行政訴訟法gt;的解釋》第5條對“本轄區(qū)內(nèi)重大、復雜的案件\"進行了解釋。此類案件,可解釋為社會影響重大的共同訴訟案件;涉外或者涉及香港特別行政區(qū)、澳門特別行政區(qū)、臺灣地區(qū)的案件;以及其他重大、復雜案件。在行政答復領(lǐng)域,答復類行政解釋和事先裁定,皆為法律的創(chuàng)造解釋,增加了法律規(guī)范的復雜度。

2.適用:基于大模型的創(chuàng)造解釋

基于大模型的生成式人工智能具有涌現(xiàn)性,模型能夠生成原始訓練數(shù)據(jù)中沒有的新模式和特征。這一特性的原理,是當模型的訓練數(shù)據(jù)和參數(shù)不斷擴大,超過臨界值后,可能表現(xiàn)出一些未能預測的能力和特性。換言之,不存在于較小模型而存在于較大模型之中的能力,就是涌現(xiàn)能力。這一涌現(xiàn)性,等同于創(chuàng)造解釋,可能產(chǎn)生意外之喜,也可能會帶來意外之憂。

基于大模型的自動行政答復,歸屬于生成式人工智能,立足涌現(xiàn)性特征,可知其可進行創(chuàng)造解釋。基于裁判文書、法律法規(guī)、法律知識問答庫等語料的學習,特別是裁判文書的學習,決定了生成式人工智能可能進行創(chuàng)造解釋,增加法律規(guī)范的復雜度。

3.導向:合法性的偏離

自動行政答復的創(chuàng)造解釋,存在將“行政解釋”逕行“注人”自動答復系統(tǒng)的可能。這一行政解釋,可能是未經(jīng)公開的和任意的,甚至是違法的。自動行政答復的創(chuàng)造解釋,不僅不具有內(nèi)容合法性,還不具有主體合法性。

首先,自動行政答復所進行的創(chuàng)造解釋,不具有內(nèi)容合法性。生成式人工智能會產(chǎn)生虛假內(nèi)容,可被稱為模型幻覺(hallucination)。幻覺,分為事實性幻覺和忠實性幻覺。事實性幻覺,指生成式人工智能生成的文本在語言流暢性、語法結(jié)構(gòu)上看似無可挑剔,但模型生成的內(nèi)容具有事實錯誤。例如,谷歌推出的對話機器人Bard,它基于一個大型語言模型構(gòu)建,在回答有關(guān)詹姆斯·韋伯太空望遠鏡的問題時出現(xiàn)了事實性錯誤。忠實性幻覺,指模型生成的內(nèi)容與輸入指令和上下文不一致。

從生成式人工智能的技術(shù)原理剖析可知,其生成結(jié)果并非絕對正確。生成式人工智能,在沒有被標注的數(shù)據(jù)上進行自監(jiān)督式學習訓練,進而生成與上下文相符的內(nèi)容。產(chǎn)生模型幻覺的原因有三,數(shù)據(jù)源、訓練過程和推理。就數(shù)據(jù)源而言,當訓練語料存在缺陷時,生成式人工智能可能會出現(xiàn)事實錯誤和虛假陳述等;當訓練語料有限時,生成式人工智能的結(jié)果同樣可能會出現(xiàn)錯誤。就訓練過程而言,當預訓練階段存在架構(gòu)缺陷和曝露偏差,以及對齊階段存在能力錯位和信念錯位時,大模型可能會產(chǎn)生幻覺。就推理而言,固有的抽樣隨機性和不完美的解碼表示,同樣會導致大模型幻覺。此外,當用戶提示詞過于模糊,又或者根據(jù)安全準則無法響應(yīng)時,人工智能模型可能會自行填補空缺內(nèi)容。

雖然可采取基于人類反饋的強化學習技術(shù)等改進文本生成的準確性,但是這一問題尚未被根本解決。當OpenAI推出其最新的大規(guī)模語言模型GPT-4時,該機構(gòu)明確表示:盡管與之前的版本相比,GPT-4在減少知識幻覺現(xiàn)象方面取得了顯著進步,但該模型仍然不是絕對可信的,有時仍可能生成錯誤答案。

大模型的幻覺特性,意味著自動行政答復錯誤的可能。出現(xiàn)幻覺的主要原因之一,是訓練語料中包含了錯誤事實。以知假買假的過往裁判為例,因?qū)ο嚓P(guān)法律和司法解釋的理解和適用尚不一致,導致類案不類判。在“類案非類判\(zhòng)"語料之中所習得的規(guī)則,即可能會違反法律體系和法律原則,以及誤用或濫用各類法律解釋方法。當法律法規(guī)修改廢止之時,還會帶來法律知識的更新迭代。關(guān)于相同法律問題,法律修訂后的答案可能與修改前相差甚多。例如,2024年修訂的《公司法》,將認繳制改為“自公司成立之日起五年內(nèi)繳足”。

進一步而言,答復內(nèi)容的錯誤意味著可能會對權(quán)利或義務(wù)進行增加或減損。此外,基于大模型的問答系統(tǒng)對相同問題可能有不同答復,意味著自動行政答復可能進行前后不一的創(chuàng)造解釋。

其次,除內(nèi)容不合法外,這一創(chuàng)造解釋的主體亦不合法。法律解釋權(quán)天然屬于實施者。由此可知,從屬于行政執(zhí)法權(quán)的答復類行政解釋權(quán),其有權(quán)解釋主體是行政執(zhí)法機關(guān)。在法定層面,就目前的法律而言,機器尚未能跳出\"主體一客體\"的二元區(qū)分,獲得法律主體的資格和地位。作為使用工具的自動行政答復系統(tǒng),不具有行政法上的法律主體資格,不是行政執(zhí)法機關(guān)。公務(wù)員既是自然人,也是國家工作人員。民法上的法律主體資格,是成為公務(wù)員的基礎(chǔ)。自動行政答復系統(tǒng),不具有民法上的法律主體資格,即無法等同于作為國家工作人員的公務(wù)員。在理論層面,關(guān)于是否賦予人工智能體法律主體地位的問題,學界眾說紛繪,未能形成定論。反向論之,將自動行政答復當作有權(quán)解釋主體,不具有行政權(quán)運行的憲法正當性,還可能會導致行政權(quán)的隨意處分。由此可知,自動行政答復不是有權(quán)解釋主體。內(nèi)容不合法和主體不合法的疊加,意味著自動行政答復之內(nèi)容對合法性的偏離。

綜上可知,不論是基于檢索式的“簡單性”,還是基于大模型式的“復雜性”,都有導致合法性偏離的可能。合法性的偏離,分為對相對人不利的答復和有利的答復。無論答復是否有利,合法性的偏離都將相對人置于不利境地。對于不利答復,其直接減損了相對人的合法權(quán)益。對于有利答復,表面看似增加了相對人的權(quán)益,但后續(xù)可能是同樣將相對人置于不利地位的行政處罰。不具有拘束力的自動行政答復,卻可能導致合法性偏離,誘發(fā)相對人進行違法行為,將相對人推至不利境地。如何給相對人提供適宜保護,如何平衡“無拘束力\"和“合法性偏離”之間的張力,成為一個亟待解決的問題。為了解決合法性偏離問題,可從制度因應(yīng)和技術(shù)改進兩個方面人手。前者是基于檢索原理和大模型的共性優(yōu)化進路,后者是基于檢索原理和大模型的個性優(yōu)化進路。

三、應(yīng)然優(yōu)化:基于共性的制度因應(yīng)進路

若相對人遵循對其不利的錯誤答復,受有損失,能否得以救濟?如果能夠救濟,則又該如何救濟?若相對人遵循對其有利的錯誤答復,做出了違法行為,行政機關(guān)應(yīng)不應(yīng)該給予處罰?

(一)對相對人不利之答復

若相對人遵循對其不利的錯誤答復,做出了偏離合法性的行為,在糾正行為后,即可彌補相對人所受損失。關(guān)于不法行政行為的糾正,這一點并無爭議。正如上文提到的ITA,因沒有詢問相關(guān)事實,導致因長期化療而牙齒變色的癌癥患者無法享有原本應(yīng)當享有的醫(yī)療費用扣除,相對人可在知悉扣除規(guī)定后,向行政機關(guān)申請糾正錯誤行為,進而彌補所受損失。

在糾正行為后,若其受有損失,仍有權(quán)請求賠償。問題聚焦于后者,即若相對人遵循對其有利的錯誤答復,做出了違法行為,行政機關(guān)是否應(yīng)予處罰?

(二)對相對人有利之答復

以私法領(lǐng)域的合理準確性期待為鏡鑒,可以信賴保護之原則進路和《行政處罰法》之規(guī)則進路,解決對相對人有利答復所帶來的困境。經(jīng)由信賴保護原則和《行政處罰法》的分析可得,相對人因遵循對其有利的錯誤答復而進行的違法行為,行政機關(guān)應(yīng)該減輕或免除處罰。

1.鏡鑒:私法領(lǐng)域的合理準確性期待

基于檢索原理的自動商業(yè)答復,同樣有著合法性偏離的表現(xiàn)。在祖母去世當天,一位乘客立即在加拿大航空公司的官網(wǎng)上訂購了機票。由于該乘客不確定加拿大航空公司的喪親費率政策,于是通過官網(wǎng)上的聊天機器人進行問詢。這一案件發(fā)生于ChatGPT出現(xiàn)之前,該聊天機器人是基于傳統(tǒng)檢索原理的答復系統(tǒng),并非是生成式屬性的。此外,加拿大航空公司并沒有在該聊天機器人中設(shè)置免責聲明。聊天機器人明確告訴該乘客可以在飛行后的90天內(nèi)要求退款,但這一答復與加拿大航空公司的政策是不符的。加拿大航空公司的政策明確規(guī)定,在航班預訂后,該航空公司就不會為喪親旅提供退款。

加拿大民事仲裁庭認為,自動商業(yè)答復應(yīng)當滿足合理準確性期待,支持了乘客的請求。具體而言,該乘客按照答復內(nèi)容在飛行后申請退款,但遭到了航空公司的拒絕,隨后訴諸仲裁。雖然加拿大航空公司辯稱,其對聊天機器人提供的信息不承擔責任。但加拿大民事仲裁庭認為,作為網(wǎng)站的一部分,聊天機器人所提供的信息應(yīng)與其他信息渠道滿足同等準確性要求。因此,裁決要求航空公司按照聊天機器人的\"幻覺”內(nèi)容進行賠償。

對于自動商業(yè)答復的合理準確性期待,為自動行政答復的合法性偏離問題提供了有益之解決借鑒。私法之合理準確性期待,類似于公法之合理信賴保護,即信賴保護原則,亦類似于違法性認識錯誤不可避免。

2.原則進路:信賴保護原則

信賴保護原則,指行政機關(guān)所實施的行為導致一定法律狀態(tài)的產(chǎn)生,若私人因正當?shù)匦刨囋摲蔂顟B(tài)的存續(xù)而安排生產(chǎn)生活,國家對于這種信賴應(yīng)提供一定形式和程度的保護。信賴保護原則,包括信賴基礎(chǔ)、信賴表現(xiàn)和信賴值得保護三個部分。所謂信賴基礎(chǔ),指足以產(chǎn)生特定法律狀態(tài)的事實或行為。所謂信賴表現(xiàn),指私人基于信賴進而對自己的生產(chǎn)生活進行了處分。所謂信賴值得保護,指信賴必須具有正當性。正當,指私人對法律狀態(tài)深信不疑,以及對信賴基礎(chǔ)的成立為善意且無過失。據(jù)此,可從信賴保護原則的適用條件層面,對有利偏離答復加以檢視。

首先,自動行政答復之內(nèi)容,可成為信賴保護原則之信賴基礎(chǔ)。從公法角度,信賴基礎(chǔ)可以是國家作出的任何行為和意思表示。無論是基于檢索原理還是基于大模型的自動行政答復,本質(zhì)都是現(xiàn)有法規(guī)范的定向呈現(xiàn),是一種咨詢解答行為。自動行政答復,有著行政機關(guān)的公權(quán)力背書。對相對人而言,其對二者抱有合理的準確性期待,這種咨詢行為與人工進行咨詢解答無異。即使沒有法律拘束力,也產(chǎn)生了事實上的拘束效果,可成為信賴保護之信賴基礎(chǔ)。

此外,無論是有利還是不利的行政答復,都可成為信賴基礎(chǔ)。通說認為,信賴利益保護原則僅限于授益性行政行為。然而,作為信賴基礎(chǔ)的“授益性”,應(yīng)當是相對而非絕對的。對于負擔行為而言,若其作出更不利于相對人的變更情況下,變更行為的實際效果等同于授益行為的撤銷或廢止。因此,對于錯誤答復所造成的有利偏離,若后續(xù)據(jù)此對相對人進行處罰,則將其置于更加不利的狀態(tài)。因更加不利狀態(tài)的推置,有利偏離之行政答復,能夠成為信賴基礎(chǔ)。若相對人基于信賴進而對自己的生產(chǎn)生活進行了處分,同時善意且無過失,則滿足信賴保護的條件。

其次,在保護方式的選擇方面,可通過不予處罰實現(xiàn)對有利偏離答復的信賴保護。信賴保護的方法,可分為存續(xù)保護和財產(chǎn)保護兩種。前者指保證信賴基礎(chǔ)的存續(xù),后者指對相對人因信賴原法律秩序所受的損失予以補償。對有利偏離答復的信賴保護,顯然不宜也沒必要采取存續(xù)保護的方式。若采用存續(xù)保護方式,則自動行政答復的效力等同于事先裁定,具有了約束兩造的法律效力,不符合設(shè)定初衷。因此,只能采取財產(chǎn)保護的方式。在通常授益情形中,財產(chǎn)保護是對“減損授益\"進行補償。同理可知,在例外負擔情形中,財產(chǎn)保護是對\"加重負擔\"進行免除。不予處罰,可成為對有利偏離答復的信賴保護方法。

綜上可知,在滿足信賴基礎(chǔ)、信賴表現(xiàn)和信賴值得保護的要求后,可通過不予處罰的方式對獲致有利偏離答復的相對人加以信賴保護。

3.規(guī)則進路之一:首違可不罰

除了信賴保護這一原則進路外,還可通過《行政處罰法》的規(guī)則進路,進一步論證“不予處罰”的正當性。因信賴行政機關(guān)的答復而陷入違法性認識錯誤,可經(jīng)由首違可不罰或主觀過錯條款,對相對人進行減輕或者免除處罰。

首先,刑法中違法性認識錯誤是責任阻卻的正當理據(jù)。在刑法中,自然犯和法定犯是兩個相對的概念。自然犯侵犯了憐憫和正直兩種人類最基本的道德情感。因此,行為人基于常理常情便可以認識其違法性。法定犯,又稱為行政犯。行政犯在倫理道德上通常是價值中立的,只是由于法律的專門規(guī)定而被視為非法行為,如非法經(jīng)營罪等。不同于人身犯罪和財產(chǎn)犯罪等清晰易辨的“自然犯”,“法定犯”與特定時代和社會的需求相關(guān),因而呈現(xiàn)較大的非自然性、立法規(guī)制性和變易性。對于“法定犯”,行為人很可能認識不到行為的違法性。在自然犯的語境推演下,誕生了“不知法者不免責”。在行政犯的語境沖突中,進化出“不知法者不為罪”的責任主義。

在\"不知法者不為罪”的責任主義與“不知法者不免責”的刑事政策的角力之中,違法性認識錯誤的可避免性判斷成為了調(diào)停者。所謂違法性認識錯誤,指行為人認識不到自身行為的違法性。刑法實踐中有不少案例,如老太擺射擊攤獲刑案、出售兩只鸚鵡獲刑案等。當違法性認識錯誤不可避免時,即行為人已盡力認識法律卻依舊陷入錯誤,或者有合理依據(jù)相信自身行為的合法性,則行為人可不承擔刑事責任。特別地,若相對人因信賴或咨詢行政機關(guān)的答復而陷入違法性認識錯誤,應(yīng)當視作難以避免。當違法性認識可以避免之時,則導向“不知法者不免責”。

其次,違法性認識錯誤,為行政法中的責任阻卻提供了有益借鑒。違法性認識錯誤,既出現(xiàn)在刑法中的行政犯中,也出現(xiàn)在行政不法中。與刑法中的行政犯不同,行政不法出現(xiàn)違法性認識錯誤的概率會更加高。究其原因,在于除典型的秩序罰法外,不少行政法規(guī)范與社會倫理等關(guān)聯(lián)極弱,指向的行政不法行為也不具有強烈的道德可責性。實踐中,也有著諸多違法性認識錯誤的案例。例如,上海一市民修剪自己購買的香樟樹,被行政機關(guān)認定屬于砍伐行為,并對其作出了14.42萬元的行政處罰。行政機關(guān)對該市民進行處罰的依據(jù)為《上海市綠化條例》第43條第2款。該款規(guī)定:“違反本條例第二十九條第一款規(guī)定,擅自砍伐樹木的,由市或者區(qū)綠化管理部門處綠化補償標準五至十倍的罰款。”關(guān)于“砍伐\"的認定,來自上海市綠化和市容管理局制定的《上海市居住區(qū)常見樹木修剪指南》。暫且不論該市民的行為屬于修剪還是砍伐,修剪自己購買的樹木可能引發(fā)行政處罰,這一“法定犯\"實難為普通公眾所知悉。又如,有市民郵寄48條中華煙用作喜煙,構(gòu)成“無證運輸煙草”,被處罰了10080元。郵寄48條煙的行為,違反了《國家煙草專賣局郵電部關(guān)于恢復煙草及其制品郵寄業(yè)務(wù)的通知》的規(guī)定,即\"郵寄卷煙、雪茄煙每件以二條(400 支)為限(二者合寄時亦限二條)”。再如,浙江臺州的一家農(nóng)戶宰殺售賣了自家養(yǎng)的一頭豬,違反了《生豬屠宰管理條例》,被當?shù)剞r(nóng)業(yè)局罰款5萬元。《生豬屠宰管理條例》第2條規(guī)定,“國家實行生豬定點屠宰、集中檢疫制度。除農(nóng)村地區(qū)個人自宰自食的不實行定點屠宰外,任何單位和個人未經(jīng)定點不得從事生豬屠宰活動”。該條例第31條第1款規(guī)定了相應(yīng)的責任,即“未經(jīng)定點從事生豬屠宰活動的,由農(nóng)業(yè)農(nóng)村主管部門責令關(guān)閉,沒收生豬、生豬產(chǎn)品、屠宰工具和設(shè)備以及違法所得;貨值金額不足1萬元的,并處5萬元以上10萬元以下的罰款…”。諸如此類,不勝枚舉。隨著行政立法的日臻完善,行政違法此類“法定犯\"的立法激增,相對人更加難以全面知悉。

在\"不知法者不為罪”的責任主義與“不知法者不免責”的行政政策的角力之中,違法性認識錯誤的可避免性判斷同樣成為了調(diào)停者。當違法性認識錯誤不可避免時,相對人可以不承擔行政責任。

再次,我國《行政處罰法》雖然沒有納人獨立的違法性認識錯誤條款,但“首違可不罰\"等規(guī)范已經(jīng)為其在行政處罰中提供棲身之所。換言之,《行政處罰法》第33條第1款所規(guī)定的“首違可不罰”同樣可提供免責支撐。首違可不罰”,即初次違法且危害后果輕微并及時改正的,可以不予行政處罰。相對人因有利答復而進行的違法行為,是對法律理解有誤,為\"初次違法”。若同時滿足“危害后果輕微”和\"及時改正”,則有不承擔行政處罰的可能。

最后,隨之而來的問題是,如何判斷違法性認識錯誤是否可避免。這一判斷,可轉(zhuǎn)化為行為人是否已經(jīng)盡力去查明法律。當相對人通過咨詢行政機關(guān)這一有權(quán)機關(guān)了解法律時,表明其已努力去查明法律。即使被咨詢機關(guān)提供了后續(xù)被證明錯誤的法律說明,鑒于行政的公信力,也應(yīng)認為行為人已經(jīng)足夠努力去了解法律,進而可認為此項違法性認識錯誤是不可避免的。刑法也同樣吸收了這一認識。《關(guān)于辦理涉互聯(lián)網(wǎng)金融犯罪案件有關(guān)問題座談會紀要》規(guī)定,犯罪嫌疑人提出因信賴行政主管部門出具的相關(guān)意見而陷入錯誤認識,不應(yīng)作為犯罪處理。對于不可避免的違法性認識錯誤,應(yīng)當減輕或者免除處罰。行政機關(guān)的答復,頗似“得承諾的行為不違法”,成為了行政處罰的違法性阻卻事由。

4.規(guī)則進路之二:主觀過錯

《行政處罰法》主觀過錯條款,同樣可提供免責進路。《行政處罰法》第33條第2款規(guī)定,“當事人有證據(jù)足以證明沒有主觀過錯的,不予行政處罰。法律、行政法規(guī)另有規(guī)定的,從其規(guī)定。”違法性認識錯誤,是有責性要件而非構(gòu)成要件,因此不宜定位于《行政處罰法》的主觀過錯條款。主觀的心理狀態(tài)判斷,轉(zhuǎn)化成了客觀的注意義務(wù)審查。相對人通過自動行政答復尋求法律指引,可認定為其盡到了注意義務(wù)。在法律法規(guī)沒有相反規(guī)定的前提下,答復內(nèi)容可作為證明沒有主觀過錯的證據(jù)。

5.對比分析:進路選擇的境遇區(qū)分

無論是原則進路,還是規(guī)則進路,皆可將自動行政答復作為不予行政處罰的辯護依據(jù)。然而,并非所有的進路都同等適用。原則和規(guī)則進路根據(jù)境遇不同,共同構(gòu)成了三階適用方法。

具體而言,在原則進路和規(guī)則進路的選擇之中,優(yōu)先適用規(guī)則進路。從行政機關(guān)的角度出發(fā),其會優(yōu)先適用具體之規(guī)則而非抽象之原則。在規(guī)則進路的雙重選擇上,同樣有著境遇區(qū)分。首違可不罰,適用便捷,只需要查明相對人之前有無相同的違法記錄即可。但首違可不罰的適用,還需同時滿足“危害后果輕微\"和“及時改正”。若相對人的危害后果不屬于輕微,又或沒有達到及時改正,則首違可不罰的規(guī)則進路難以發(fā)揮功用。此外,首違可不罰之“可”,表明了其為裁量行為而非拘束行政。相對人依舊有著承擔行政處罰的風險。但主觀過錯的適用不需要滿足額外的條件,且屬于拘束行政而非裁量行政。然而,“足以證明”沒有主觀過錯的,科以相對人以舉證責任,增加了相對人的行政負擔,且依舊存有被行政處罰的風險。

綜合上述進路的優(yōu)缺點可知,首違可不罰的規(guī)則進路優(yōu)于主觀過錯的規(guī)則進路,但若不滿足前者的“危害后果輕微”和“及時改正”構(gòu)成要件時,則宜適用主觀過錯條款。規(guī)則進路優(yōu)于原則進路,但當相對人舉證困難等導致難以證明時,宜擇取原則進路。

四、應(yīng)然優(yōu)化:基于個性的技術(shù)改進方案

為了減輕相對人的舉證難度,以及減少合法性偏離的可能等,還需要在技術(shù)方面加以改進,包括但不限于獲取記錄的功能增設(shè)和轉(zhuǎn)譯準確度的提高等。

(一)獲取記錄的功能增設(shè)

為減輕相對人證明信賴基礎(chǔ)的存在或無主觀過錯的舉證難度,自動系統(tǒng)需要進行功能增設(shè)。不同于商業(yè)答復系統(tǒng),自動行政答復系統(tǒng)多為清屏式而非長久記錄式。換言之,下一次進入系統(tǒng)時,上一次的溝通記錄都會被清理,如北京市政府官網(wǎng)的智能問答系統(tǒng)等。特別地,對于基于大模型的自動答復系統(tǒng),先前的溝通樣式可能難以再現(xiàn)。由此可知,公民難以在事后獲取或重現(xiàn)溝通記錄,進而難以證明信賴值得保護或無主觀過錯。這一問題可通過增設(shè)系統(tǒng)功能加以解決:其一,在問答結(jié)束后,公民可提交個人身份信息,進而獲得有日期標記的溝通記錄;其二,自動系統(tǒng)從單次清屏式改為長久記錄式。換言之,過往的溝通記錄都能被長久保存。

這種改造還可確保自動行政答復的聊天記錄真實性。隨著深度偽造技術(shù)出現(xiàn),截屏、錄屏等形式可能無法作為互動記錄的真實證明。深度偽造(Deepfake)為deep learning(深度學習)和fake(偽造)兩個詞的合成詞。“超逼真\"的深度偽造源自于人工智能的應(yīng)用,它能夠通過技術(shù)手段創(chuàng)建新的圖片、視頻以及音頻等。通過上述改造,可確保聊天記錄的真實性,進而避免了深度偽造的可能。

值得注意的是,還需要給行政機關(guān)保留質(zhì)疑相對人“善意且無過失\"或“沒有主觀過錯”的空間。具體而言,若有利偏離之自動行政答復成為信賴基礎(chǔ)或無過錯證明,進而免于后續(xù)處罰,則可能會招致別有用心者的反向設(shè)計。即,相對人可能故意在自動行政答復系統(tǒng)中操作,以獲得可以作為證明\"善意信賴”或“沒有主觀過錯”的證據(jù)。為規(guī)避相對人的反向“算計”,行政機關(guān)應(yīng)保留質(zhì)疑空間。

(二)轉(zhuǎn)譯準確度的提高

提高轉(zhuǎn)譯的準確度,有助于減少合法性偏離的可能。為了提高轉(zhuǎn)譯的準確度,行政機關(guān)需要投入各類人力資源。這些人力資源不僅包括代表各專業(yè)知識的外部資源,還包括代表行政機關(guān)專業(yè)知識的內(nèi)部資源。

1.基于檢索原理的轉(zhuǎn)譯準確度提高

在技術(shù)設(shè)計方面,提高從法律轉(zhuǎn)譯至代碼的準確度。轉(zhuǎn)譯,指將法律規(guī)定轉(zhuǎn)化為計算機語言。轉(zhuǎn)譯不準確,指代碼內(nèi)容未能與法律規(guī)定完全相一致。轉(zhuǎn)譯不準確,不僅體現(xiàn)于單一法條的轉(zhuǎn)譯,還體現(xiàn)于法律邏輯整體勾連的轉(zhuǎn)譯。具體而言,指程序員在轉(zhuǎn)譯時遺漏了細節(jié)之處,這一細節(jié)是載于其他法律文本的關(guān)聯(lián)條款。由于轉(zhuǎn)譯不準確,使得系統(tǒng)答復時未能將復雜的事實“涵攝”于正確的法律規(guī)范,出現(xiàn)合法性的偏離。由此可知,可通過更細致的轉(zhuǎn)譯,梳理系統(tǒng)化精細化的知識庫,使得系統(tǒng)內(nèi)容與法律規(guī)定更為相契,減少系統(tǒng)合法性偏離的可能。

如果說陽光是最好的防腐劑,那么陽光也是最好的糾錯機制。良好的規(guī)則需要集眾人之智加以完善。更進一步,各機構(gòu)應(yīng)采用明確的程序來設(shè)計、維護和審查自動行政答復工具內(nèi)嵌的內(nèi)容,并應(yīng)在其網(wǎng)站上公布這些程序。這些程序應(yīng)包括定期的用戶測試和由內(nèi)部和外部研究人員進行的其他形式的評估,以確保可訪問性和有效性。

2.基于大模型的轉(zhuǎn)譯準確度提高

提高大模型的轉(zhuǎn)譯準確度,指減少模型幻覺的出現(xiàn)。針對不同的幻覺原因,可從技術(shù)方面減少幻覺出現(xiàn):針對數(shù)據(jù)相關(guān)的幻覺,可通過收集優(yōu)質(zhì)數(shù)據(jù)加以解決;針對訓練相關(guān)的幻覺,可對有缺陷的模型架構(gòu)進行完善,例如,通過完善預訓練策略和確保豐富的上下文,以解決模型預訓練階段的模型缺陷等;針對推理相關(guān)的幻覺,可通過事實增強解碼和譯后編輯解碼等,以解決不完美解碼的問題。

特別地,對于基于大模型原理的自動行政答復,機構(gòu)應(yīng)該發(fā)布與如何開發(fā)以及如何維護和更新有關(guān)的信息。各機構(gòu)應(yīng)在其網(wǎng)站的適當位置發(fā)布這些信息。使用自動行政答復的機構(gòu)應(yīng)向用戶提供反饋或報告錯誤的能力,使錯誤能全面及時得以糾正。

3.人力資源的投入

行政機關(guān)還應(yīng)投入多學科、多方面的人力資源。僅憑程序員的能力,提升轉(zhuǎn)譯準確度的邊際成本可能是巨大的。可在轉(zhuǎn)譯過程中加入法律專業(yè)的人力資源。通過加強法律與技術(shù)的聯(lián)動,提升法律至代碼的轉(zhuǎn)譯能力。在一般層面上,自動答復系統(tǒng)乃至其他算法系統(tǒng)的更好運行,都需要多種專業(yè)人才的共同推動。除了程序員和法律人士外,政府還需要其他人力資源來負責任地設(shè)計和評估算法系統(tǒng)。這種人力資源是多方面、多學科的,例如數(shù)據(jù)分析方面的專業(yè)人員、算法規(guī)制的體系思考者、促進公眾參與的專業(yè)人員和組織小規(guī)模測試的專業(yè)人員。

同時,行政機關(guān)還應(yīng)當重視內(nèi)部人力資源的建設(shè)。報告顯示,雖然美國許多行政機關(guān)依靠私人承包商來建立人工智能系統(tǒng),但 53% 的系統(tǒng)都是行政機關(guān)內(nèi)部努力的產(chǎn)物。行政機關(guān)內(nèi)部建設(shè)人工智能系統(tǒng),可能出于安全性、保密性的考量。但不可否認的是,內(nèi)部的專業(yè)知識促進了人工智能工具更好地適應(yīng)復雜的治理任務(wù),更有可能以合法、符合政策和負責任的方式設(shè)計和實施。建設(shè)內(nèi)部能力,而不是簡單地接受技術(shù)能力外包的默認做法,將是實現(xiàn)算法治理的承諾和避免其危險的關(guān)鍵。

五、結(jié)語

當下,行政機關(guān)被期望用越來越少的資源做越來越多的事情,對于復雜法律和規(guī)制計劃的有效管理而言,人工智能帶來了希望。自動行政答復,則為一束希望之光。然而,自動行政答復伴隨著合法性偏離的可能。本文嘗試從制度和技術(shù)兩個方面提出解決之道:在制度方面,通過不予處罰違法行為,以減輕合法性偏離的影響;在技術(shù)方面,通過增加獲取記錄的功能以減少相對人的舉證難度,以及通過提高轉(zhuǎn)譯的準確度以減少合法性偏離的可能。在尋求不予處罰的制度進路之中,自動行政答復與傳統(tǒng)行政答復的救濟邏輯并無過多的不同。換言之,方式載體的不同,并未改變行政答復錯誤的救濟方式。

此外,自動行政答復可能的無盡引問和答非所問,與便利相對人的初衷相悖。為應(yīng)對這一問題,在自動行政答復無法準確回復問題或用戶使用系統(tǒng)遭遇困難時,應(yīng)及時接入人工答復。從商業(yè)環(huán)境中得到的教訓是,自動答復服務(wù)不是一種\"一刀切\(zhòng)"的模式;開發(fā)混合模式是有好處的,它結(jié)合了人工智能“高科技”和人類\"高接觸\"的優(yōu)點。隨著自動行政答復的技術(shù)迭代更新,如何進行更好的規(guī)制,還需要持續(xù)的觀察與進一步研究。

Abstract:Automatic administrative response refers to the use of computer technology byadministrative agencies to automate administrative responses.Whether based on retrieval principles or large model principles,automatic administrative responses are not legally binding.However,the simplexity based on retrieval principles and the complexity based on large model principles may lead to deviations in legitimacy.Specifically,deviations in legality that benefit the relative may lead to administrative penalties.To addressthis issue,optimization can be carried out from both institutional and technological perspectives.Optimization in the institutional aspect,with the goal of protecting the interests of the relevant party,focuses on scenarios where therelevant party commits illgal acts by following a mistaken response that is favorable to them.Through the principled approach of trust protection and the analytical approach based on the rules of the'Administrative Penalty Law',it can be determined that administrative authorities may be exempted from or have their penalties mitigated.In terms of technological optimization,with the aimof enhancing thecapabilities of administrativeauthorities,it mainly includes adding functions to obtain records and improving the accuracy of translation.

Keywords:administrative response; artificial inteligence; simplexity; complexity; legality

猜你喜歡
信賴合法性自動
關(guān)于自動駕駛汽車法律問題的思考
公民與法治(2025年8期)2025-08-24 00:00:00
新的社會階層人士聯(lián)誼組織規(guī)范化建設(shè):現(xiàn)實意義、體系框架、主要內(nèi)容與實踐路徑
自動駕駛汽車交通事故侵權(quán)法律適用分析
戰(zhàn)爭與和平
自動翻土機
媒體使用、情境感知與青年政治信任
信賴讓世界更加美好
自動駕駛的“信任危機”
百科知識(2025年12期)2025-07-24 00:00:00
國有股權(quán)能加速民營企業(yè)融入全球創(chuàng)新網(wǎng)絡(luò)嗎:逆向混改視角
財產(chǎn)權(quán)限制的憲法釋義學重構(gòu)
主站蜘蛛池模板: 亚洲天堂免费在线视频| 国产00高中生在线播放| 怡春院欧美一区二区三区免费| 四虎永久在线| 国产成人一区在线播放| 欧美在线网| 色呦呦手机在线精品| 2021亚洲精品不卡a| 午夜无码一区二区三区| 美女高潮全身流白浆福利区| 国产三级精品三级在线观看| 日韩精品专区免费无码aⅴ | 伊在人亞洲香蕉精品區| 亚洲成年人网| 中文字幕va| a级毛片一区二区免费视频| 亚洲国产亚综合在线区| 狠狠色狠狠色综合久久第一次| 99中文字幕亚洲一区二区| 高清色本在线www| 国产成人精品高清不卡在线| 国产区网址| 亚洲第一极品精品无码| 精品久久久久久久久久久| 超薄丝袜足j国产在线视频| 国产无人区一区二区三区| 午夜三级在线| 狠狠色丁香婷婷| 高清不卡毛片| 久青草国产高清在线视频| 国产日本一线在线观看免费| 国产精品免费p区| 亚洲午夜久久久精品电影院| 国产成人亚洲精品蜜芽影院| 亚洲综合专区| 免费人成网站在线观看欧美| 蜜桃视频一区二区三区| 久久久久久高潮白浆| 婷婷亚洲最大| 就去色综合| 久久亚洲国产视频| 99热这里只有精品免费| 久久国产精品电影| 免费A∨中文乱码专区| 找国产毛片看| 国模私拍一区二区三区| 久久综合一个色综合网| 亚洲无码高清视频在线观看| 国产微拍精品| 在线无码私拍| 在线观看精品自拍视频| 香蕉久久永久视频| 久久国产精品国产自线拍| 18禁高潮出水呻吟娇喘蜜芽| 亚洲第一视频免费在线| 日韩资源站| 国产精品永久不卡免费视频 | 亚洲AⅤ永久无码精品毛片| 高清无码手机在线观看| 亚洲国产综合精品中文第一| 成人综合久久综合| 激情六月丁香婷婷四房播| 亚洲视频欧美不卡| 久久香蕉国产线看观| 欧美69视频在线| 99热免费在线| 国产高清在线丝袜精品一区| 亚洲欧美精品在线| 日韩天堂网| 亚洲视频免费播放| 国产91在线|中文| 国产福利免费视频| 亚洲欧美成aⅴ人在线观看| 亚洲AV成人一区二区三区AV| 国产精品成人一区二区不卡| 亚洲不卡影院| 国产精品女熟高潮视频| 熟女日韩精品2区| 国产精品永久不卡免费视频| 久久99精品久久久久久不卡| 99在线观看国产| 午夜一级做a爰片久久毛片|