張欣 高天書
[摘要]探討ChatGPT輔助行政決策的可能性,提前預判其可能帶來的危機并提出相應的治理對策。以文獻分析為方法,就ChatGPT輔助行政決策進行了可能性分析,并基于其技術特性探討ChatGPT輔助行政決策可能導致的算法危機。ChatGPT存在雙面性,可能引發行政決策的安全性、科學性與公正性危機,因此要從多個層面防范其應用于行政決策當中的風險。為了規范ChatGPT在實際中的運用,要從強化ChatGPT輔助行政決策的監督機制、優化ChatGPT輔助行政決策的技術保障機制、搭建ChatGPT輔助行政決策的主體機制三個方面著手,引導ChatGPT輔助行政決策走上良性健康的發展軌道。
[關鍵詞]ChatGPT;生成式人工智能;行政決策;數字政府;算法危機
一、 引言
十九屆四中全會提出,“建立健全運用互聯網、高新科技手段、生成式人工智能等技術手段進行行政管理的制度規則”1,數字政府建設的持續推進需要不斷利用新的技術革命成果。2022年11月Open AI公司推出聊天機器人程序ChatGPT引起了廣泛的社會關注。根據國家互聯網信息辦公室于2023年4月11日發布的關于《生成式人工智能服務管理辦法(征求意見稿)》第二條的規定,所謂生成式人工智能,是指生成文本、圖片、聲音、視頻等內容技術以回應提示工程的一種人工智能系統。從目前來看,學界關于生成式人工智能的探討主要圍繞兩大方面:一是生成式人工智能在各行各業的應用前景,目前討論最多的是生成式人工智為教育領域革新創造的機遇[1-3];二是生成式人工智能的應用可能引發的風險,主要有著作權風險[4]、國家安全風險[5]、法律規制風險[6-7]等等。總體來看,目前關于生成式人工智能的研究較少關注到行政治理領域,部分研究數字政府建設與ChatGPT相結合的文獻雖對此有所涉及2,但是未深入至行政決策的各個子系統當中。實際上,行政決策內部程序控制嚴格,以信息為手段,行政決策可分為幾個不同的部分,每個部分都可能涉及對信息的收集、分析與運用,而ChatGPT正是一個超強的人工智能算法系統,其所有的外部功能表現實質上都可歸于其背后對數據或信息的強大分析能力。在此背景下,探討如何利用ChatGPT輔助行政決策,為新時代國家治理現代化提供最新的技術驅動具有重要意義。
二、 ChatGPT輔助行政決策的理論邏輯
從系統論的角度看,現代行政決策系統包括四個子系統,即行政決策中樞系統、行政決策咨詢系統、行政決策信息系統和行政決策審批控制系統,其最終目標旨在提升政府行政決策質效、實現社會公共利益。隨著以ChatGPT為代表的生成式人工智能的迭代與完善,數字技術在輔助行政裁量、收集決策信息、配置行政資源等方面為算法行政決策的發展提供了新視野。
1. ChatGPT優化行政決策中樞系統的運行
ChatGPT的應用有助于提升行政決策中樞系統運行的科學性。行政決策中樞系統在行政決策過程中居于核心地位,主要負責識別決策內容,確定決策過程的可行性和可能性,明確決策目標,組織、協調決策過程的展開和決策方案的設計,評估、選擇決策方案以及監督決策執行。行政決策中樞系統類似于人類的“大腦”,負責領導、組織、協調行政決策的全過程,而ChatGPT具有高度的擬人性,能夠在配合行政決策中樞系統運行的同時提升其科學化程度。
一方面,ChatGPT能夠提升行政決策程序的科學性。在傳統的行政決策活動中,決策主體需要搜集大量相關信息,經過反復推理與論證才能作出決策。并且,由于決策主體認知差異、主觀偏好和程序差異等因素,行政決策程序繁冗復雜,決策內容也極易帶有主觀色彩。ChatGPT能夠利用預訓練語言模型(LM)生成初始文本,再通過數據訓練打分模型(RM)對其進行判別、標注,以模型回答和人類滿意程度為內容對標注語料進行微調,進而使用強化學習(RL)以打分模型為借力繼續優化初始語言模型,最終輸出較為精準且符合人類要求的文本內容。另一方面,ChatGPT能夠實現行政決策內容的科學性。ChatGPT擁有海量的預訓練數據庫,GPT-3 的參數量為 1750 億個,GPT-4的參數量增加至約一萬億個[8]。相較于GPT-3,GPT-4的數據庫規模更大,可參考的數據信息涵蓋范圍更廣。并且,ChatGPT依托于大型語言模型(LLM),能夠進行自主學習,依托于底層的預訓練數據庫對決策問題進行系統性認識,并基于已有的人類偏好數據和關聯政務數據科學確認決策目標,依據打分模型進行微調,以模型對生成文本的評判能力為評估決策方案提供數據支撐。
2. ChatGPT優化行政決策咨詢系統的運行
ChatGPT的應用有助于提高行政決策咨詢系統運行的民主性。行政決策咨詢系統可以理解為行政決策智庫,系統組成人員主要是專門領域的專家學者,其以自身科學的專業知識、專業技能以及豐富的實踐經驗為行政決策主體提供智識支持,為制定和優化行政決策方案提供專業建議和理論參考。民主性是重大行政決策程序的價值目標之一[9],是維護行政相對人利益和社會公共利益的重要手段。
一方面,ChatGPT能夠有效提升咨詢系統的獨立性,減少政府部門和行政機制的干預。ChatGPT具有一定的技術門檻,在GPT-3模型中包括96層Transformer解碼器,以下一個詞預測的方式進行無監督生成式預訓練,以此獲得文本自動生成能力[10]。在ChatGPT的算法設計架構中,政府部門和舊有的行政體制無法從中途對行政咨詢過程進行不當干預,在一定程度上保證了咨詢系統的獨立性和自主性。另一方面,ChatGPT能夠增強行政咨詢過程的交互性,保證智庫人員的民主參與。行政機關可以借助Codex模型生成代碼,通過Insert&Edit模型對已生成的文本內容進行插入或修改,智庫人員可以借助InstructGPT模型進行微調,生成合理性程度更高的答案。相較于現有的智能平臺和智能對話方式,ChatGPT的擬人化程度更高,更能夠增強行政機關和智庫人員參與咨詢的具身化體驗。
3. ChatGPT優化行政決策信息系統的運行
ChatGPT的應用能夠有效提升行政決策信息系統運行的準確性。行政決策信息系統的主要功能是為決策收集、儲存、加工、傳遞信息,為決策方案的制定和決策結果的產生提供信息基礎。首先,在信息輸入階段,ChatGPT能夠打破“信息孤島”,實現數據信息的共建共享。在政務服務過程中,各層級、各區域部門之間的信息來源互相無關聯、信息平臺之間保持獨立的信息庫,在信息處理方面聯動性較差,加上有關信息的運用只能在單一的平臺中應用,從而使信息不能夠被互相傳遞,進而出現“信息孤島”[11]。ChatGPT的介入能夠有效破除舊有技術系統的掣肘,將政務數據、社會數據和網絡數據納入預訓練數據庫,以信息共享機制和通過一站式服務平臺為行政決策提供信息數據集參考。其次,在信息處理階段,ChatGPT能夠憑借強大的算力提升信息處理速度。ChatGPT使用GPT-3.5模型訓練的總算力消耗約3640 PF-days(即按每秒一千萬億次計算,運行3640天)[12],相較于舊有的信息處理系統而言,擁有更強的算力和更快的數據處理速度。在超級算力加持而產生的量變下,ChatGPT擁有更優質的信息處理能力和更強大的創造能力[13]。最后,在信息輸出階段,ChatGPT的上下文關聯能力和預測能力能夠提高信息輸出能力和決策預測能力。GPT-3模型利用Zero-Shot、One-Shot和Few-Shot,可以理解自然語言并據此進行推理,進而誘導模型輸出答案[10]。當前,基于信息處理任務類型的不同,上述模型的應用場域和輸出結果也存在差異。ChatGPT基于Transformer這一生成式預訓練轉換器,在決策信息處理過程中,能夠利用解碼器(Decoder)根據已有的信息參數預測數據的變化態勢和決策結果,從而提升信息輸出的效率和可用性。
4. ChatGPT優化行政決策審批控制系統的運行
ChatGPT的應用有助于實現行政決策審批控制系統運行的高效性。行政決策審批控制系統是行政決策的終端子系統,其主要負責依法對行政決策的有效性進行審查批準。傳統的行政決策審批活動涉及多個行政機關,且各個行政機關的決策審批程序存在差異,以及相關行政機關的審批權限受到嚴格限制,上述因素嚴重降低了行政決策審批效率和行政決策執行效率。伴隨民主政治和公共治理需求的變化,我國行政決策模式逐漸由管理主義模式向參與式治理模式轉變[14]。
一方面,ChatGPT能夠輔助簡化行政決策審批流程,縮短審批時間,提高審批效率。在傳統行政活動中,信息不對稱和信息溝通不暢成為影響行政治理效能的重要因素。伴隨算法自動化決策的產生,上述問題得到有效緩解,政府權力運行的廣度、深度和密度得到增強[15]。例如,上海市實施“一網通辦”改革后,接入事項3600項,累計辦件量達3.07億,讓三省一市企業群眾享受到了“同城服務”1。順應這一發展趨勢,運用ChatGPT將進一步提升政府服務效率。ChatGPT能夠實現信息共享,有助于行政決策審批主體與審批事項相關主體進行溝通、協調;同時,ChatGPT具備自然語言理解與生成能力、上下文學習能力,能夠不受物理時間與空間的限制,輸出符合人類需要的高質量結果,在一站式服務平臺中加快完成行政決策審批流程。另一方面,ChatGPT能夠增強行政決策審批的民主化參與,提高執行效率。InstructGPT模型相較于Transformer或GPT-3,具備更加自然、真實、中立的內容生成特性[10]。依托該模型,行政決策審批內容能夠在最小程度上受到審批主體的主觀偏好等因素的不當襲擾。同時,利用ChatGPT的高度擬人性和交互性,可以增強社會公眾對行政決策的認知和理解,促進行政決策的貫徹執行。
三、 ChatGPT輔助行政決策的算法危機
ChatGPT等自然語言處理模型的出現,為決策者提供了強大的信息抓取和處理能力。然而這種強大的能力也引發了行政決策的算法危機。具體而言,可以分為三方面的危機:決策的安全性危機、決策的科學性危機以及決策的公正性危機。
1. ChatGPT強大的信息抓取力引發決策的安全性危機
在使用ChatGPT進行決策輔助的過程中,由于ChatGPT抓取信息的能力十分強大,可能導致信息過度收集、信息產生泄露等安全性危機,具體如下:
ChatGPT輔助行政決策時具有信息泄露的風險。ChatGPT在處理信息時,需要從各種數據源中抓取和分析大量的信息,同時這種信息抓取的過程也帶來了信息泄露的風險[16]。如果未能妥善保護抓取的信息,可能會被未經授權的人員訪問、使用或泄露,從而導致決策的隱私和安全受到威脅。當代的信息環境智能化與自動化高度結合,從而加大了ChatGPT在數據過程中的安全風險,包括數據來源、提取、展示等[17]。首先,關于數據來源方面,只要用戶啟用了ChatGPT的應用,就會產生公司敏感信息方面的痕跡也就可能面臨數據泄露的風險。假如這些敏感信息源屬于國家級別,泄密的可能性將會是100%。比如據《Economist》報導,三星半導體員工疑似因使用ChatGPT,導致在三起不同事件中泄露公司機密。調查原因皆因員工將公司機密資訊輸入ChatGPT而導致。其次,在數據提取的階段,ChatGPT利用大數據功能將所錄入的數據信息存儲至系統內再在需要使用的時候進行隨時提取,這就有可能導致在錄入之時已經被相關用戶所獲取,從而導致這種非授權共享出現數據泄露的風險。所以不要把ChatGPT當作可靠的“機器人”。例如,亞馬遜公司律師曾警告員工在進行與數據有關聯的工作時不使用ChatGPT,原因在于ChatGPT會將接觸到的錄入數據視為訓練信息,進而導致數據被動泄密的可能性以及削弱公司的核心競爭力。最后,ChatGPT在輔助行政決策時會受到信息虛假的干擾。由于ChatGPT的信息抓取能力強大,它可能會從各種數據源中抓取虛假或失實的信息,并在決策過程中誤導決策者。虛假信息的干擾可能導致決策的錯誤和不準確,進而影響決策的結果和效果[18]。ChatGPT的特性中最突出的就是與高含金量偽造技術的結合。這種高含金量偽造技術整合文本、音頻、視頻等格式進行聯想、模仿與學習功能進而產出以假亂真的政府文書,通過網絡載體進行誤導,引發輿情。假如心術不正的人利用ChatGPT現有的強大數據功能將其與高含金量偽造技術整合使用,輕則影響個人的信息安全問題,重則帶來政治、經濟、法律、社會等多領域的危害。比如,在學術領域,抄襲率是一項非常重要的指標,假如大量的學生只是把ChatGPT當作寫作論文的工具,那么學術造假現象會越來越嚴重,不僅影響學術論文的質量,而且帶來的潛在性社會風氣危害是必然的,而且將會是巨大的。
ChatGPT在輔助行政決策時會面臨惡意攻擊和篡改的風險。惡意攻擊者可以通過篡改抓取的信息,操縱決策的過程和結果,從而達到其自身的目的。以一個普通上班族為例,ChatGPT所具備的強大編碼功能可以使一名普通上班族變成熟練的程序員。這就會加大安全風險,因為幾乎任何人在ChatGPT的“協助”下都能熟悉地操作數據系統達成個人目的。如果運用ChatGPT的目的是不道德的,那么將會加大泄密的機率,影響社會安全。有證據顯示,一部分網絡攻擊者利用ChatGPT創建新的木馬實現信息竊取,然而這一過程并不需要攻擊者具備編程的技能。他們利用ChatGPT對數據庫強制性竊取,一般方法是通過已公開的用戶名和不斷調試的密碼組合進行撞庫。除此之外,他們利用ChatGPT編寫的網絡釣魚郵件進行惡意攻擊。考慮到ChatGPT是智能生成式軟件擅長模仿人類思維方式,通過編寫網絡釣魚郵件以正常的文本格式就能避開掃毒軟件的檢測,經過編寫的網絡釣魚郵件所隱含的欺騙性是非常大的。
2. ChatGPT弱化的信息鑒別力引發決策的科學性危機
ChatGPT輔助行政決策不僅會引起安全性危機,ChatGPT強大的能力也引發了決策的科學性危機。由于ChatGPT弱化的信息鑒別力,存在著信息準確性、可信度和科學性的問題[19]。具體如下:
首先,ChatGPT自身具有局限性。ChatGPT是基于大規模訓練數據的生成式模型,其輸出結果是通過學習大量文本數據得出的。然而,根據技術自身的風險屬性,任何技術的使用都會導致安全和不安全這兩種結果趨向。因此,這種生成式模型存在一定的局限性,包括對數據質量的依賴、對語義理解的限制以及對背景知識的不完全掌握等[20]。這些局限性可能導致ChatGPT在決策中產生錯誤的結論,從而引發科學性危機。因為ChatGPT的回答是基于已有的文本數據,這意味著它的回答受到數據集的限制。如果數據集中存在偏見、錯誤或不準確的信息,模型可能會重復這些錯誤或偏見,給出錯誤的結果[21]。這對需要準確和可靠信息的領域,例如醫學、法律或金融等,可能會帶來風險,并且ChatGPT沒有真正的理解能力。它只是通過觀察大量文本數據中的模式和概率來生成回答。因此,當遇到復雜的或需要深入理解的信息行為時,ChatGPT提供的答案準確率會降低。它只能根據已有的模式和知識進行推理和回答,而無法進行創造性思考或靈活應對。此外,ChatGPT也容易受到輸入數據的影響。如果用戶提供的問題或語句存在歧義或不完整,模型可能會給出模棱兩可或不準確的回答。這是因為模型沒有直接與現實世界進行交互,無法主動尋求澄清或進一步的信息。
其次,ChatGPT信息鑒別力存在缺失問題。由于ChatGPT的生成式特性,它在處理復雜問題時容易受到信息的誤導和不準確性的影響。ChatGPT可能會無法準確理解問題的關鍵點,或者在生成回答時受到特定數據集的偏見影響。這種缺失的信息鑒別力可能導致決策者在面臨復雜問題時無法得到準確、全面和可靠的信息支持,從而影響決策的科學性。
再次,信息的準確性存在問題。由于ChatGPT是通過大量的訓練數據來生成回答的,它的回答往往是基于統計概率的推測而非準確的事實。這就帶來了信息準確性的問題。在決策過程中,如果依賴ChatGPT提供的信息進行決策,可能會受到錯誤和不準確信息的干擾,導致決策的不準確和錯誤。比如輸入“如何做魚香肉絲”這個問題,搜索引擎是找到已經存在于互聯網上的做法,并把結果排序,而ChatGPT給出的是看起來像“做法”的一段文字,與搜索引擎給出的做法不同,它不是從一個完整的做菜秘籍得來的,而是算法根據每個字的概率和上下文,重新排列一個字一個詞而產生的。用戶看到了一個完整的做法,但這個做法卻從來沒有存在過。這意味著ChatGPT只是創造了一段做菜的文字,并不一定具有準確性。ChatGPT模型綜合使用了in-contextlearning、RLHF等模型,其中一部分模型是用類似對英語完形填空的方法來訓練的。所以,ChatGPT是文字編碼和概率組合的游戲,不是準確的事實信息,其準確度存在一定的可質疑性。
此外,信息的可信度存在問題。ChatGPT模型是基于大量的訓練數據而生成的,它可能會從不可靠的數據源中抓取信息,并將其作為回答提供給用戶。這就帶來了信息可信度的問題,用戶很難判斷ChatGPT提供的信息是否可信。比如,人們之間進行交流的時候,不會重復問對方同一個問題。人的思想是一致的,說出來的話是一致的。ChatGPT則不同,如果問了一個問題,覺得它回答得不好,你可以重復問同樣的問題,直到得到滿意的答案。ChatGPT算法的隨機性,讓它每次給出的答案都不一樣,會有完全相反的觀點。這也就導致信息具有不可信的可能性。
最后,決策的科學性存在問題。ChatGPT的訓練數據主要來自互聯網,其中包含了大量的非科學性和誤導性的信息。這就帶來了科學性的問題。如果決策者依賴ChatGPT提供的信息進行決策,可能會受到非科學性信息的誤導,導致決策的不科學和不合理。
3. ChatGPT強大的技術吸引力引發決策的公正性危機
ChatGPT作為一種強大的自然語言處理基礎模型,在決策過程中的應用越來越豐富[22]。然而,也正是由于其技術優勢,ChatGPT可能引發決策的公正性危機。
第一,信息的偏見與歧視問題。ChatGPT是基于大規模預訓練的神經網絡模型,具有強大的語言生成和理解能力[23]。它可以通過學習大量的文本數據,自動生成準確、流暢的回答,并提供有關問題的詳細解釋。這種技術優勢使ChatGPT在決策過程中成為一種強大的工具,吸引了廣泛的應用。但是ChatGPT的訓練數據通常來自互聯網,其中可能存在信息的偏見和歧視,這些偏見和歧視可能會影響ChatGPT的回答結果,導致決策結果的不公正性。
第二,特定數據集的影響。ChatGPT的回答結果可能受到特定數據集的影響,缺乏對多樣性和包容性的理解。ChatGPT是通過學習大量的文本數據進行訓練的,如果訓練數據集缺乏多樣性和包容性,模型在生成回答時可能會存在偏見,對某些群體或議題的回答結果可能不公正。首先,訓練數據集中的偏見和歧視可能會被模型學習和反映出來。如果數據集中存在對特定群體的歧視性觀點、刻板印象或偏見,模型可能會學習到這些信息,便可能形成數字時代的“數據歧視”[24],并在回答問題時產生不公正的結果。例如,如果訓練數據中存在性別歧視的言論,模型可能會在回答與性別相關的問題時傳遞這種歧視。有論者提出,一旦某一算法承擔了過量的個人價值和偏好,那么依托于這一算法而實現的統計分析結果就很難確保其正義性[25]。其次,模型通過觀察大量文本數據中的語言模式和概率分布來生成回答。如果在訓練數據中存在某些群體的不平衡表示,模型可能會在回答問題時偏向于這些群體的觀點或立場。這可能導致對其他群體的歧視或偏見,從而產生不公正的回答。此外,模型也可能受到社會和文化偏見的影響。訓練數據通常是從互聯網上收集而來,而互聯網上存在各種各樣的偏見和歧視觀點。模型可能會在回答問題時重復這些觀點,而不考慮其是否公正或準確。
第三,隱私和安全問題。ChatGPT的模型結構和算法可能存在潛在的隱私和安全問題。如果未能妥善管理和保護用戶的個人信息和敏感數據,可能會對決策的公正性產生負面影響[26]。首先,如果個人信息被不當地用于決策,可能導致對不同個體的不平等對待。例如,如果根據個人信息做出決策而忽視其他相關因素,可能導致特定群體或個人被不公正地排斥或限制他們的機會。其次,個人信息的不當使用可能會侵犯用戶的隱私權。如果個人信息被濫用、泄露或未經授權地使用,用戶可能會感到被侵犯,從而對決策系統失去信任。這可能會對決策的公正性產生負面影響,因為用戶不再愿意提供準確和全面的信息。最后,如果決策系統只依賴于特定類型的個人信息,而忽視其他重要的數據來源,可能會導致決策偏差。個人信息的不完整或不準確可能會導致決策的不準確性和不公正性,從而對用戶產生負面影響。
四、 ChatGPT輔助行政決策中算法危機的治理路徑
“任何事物都有兩面性”的特質在ChatGPT這一新興人工智能技術上體現得尤為明顯。雖然ChatGPT有助于協調運行行政決策的各個系統,并對其進行技術賦能,但是因為其自身的技術特性,ChatGPT在輔助行政決策過程中可能引發諸多危機。但也不能“因噎廢食”,而是要針對其可能引發的危機進行有效的治理,將風險發生的可能性降至最低。
1. 強化ChatGPT輔助行政決策的監督機制
第一,應該制定和完善相關法律法規,以規制人工智能(ChatGPT)帶來的包括國家數據信息和個人數據信息的安全風險。近年來,我國陸續頒布了《網絡安全法》《數據安全法》《個人信息保護法》等法律規范,但關于數據權屬、價值和交易規則等數據要素的基礎性法律制度還有所欠缺。人工智能領域欠缺專門規范,尤其是相應的設計規范和預防規制,相關部門對人工智能的法律、法規、規章和技術標準應該進行合理規劃,以避免ChatGPT帶來的潛在風險。此外,相關部門也應該出臺相應的文件,以彌補監管制度的空缺。比如,在輔助行政決策的過程中,根據我國《中華人民共和國個人信息保護法》第13條的規定,信息處理者方需要征得個人同意才能處理個人信息。然而,相關部門對“個人做到知情同意”的認定存在不確定性,因此,除了制定和完善相關法律法規,應加大對ChatGPT所屬科技巨頭的監管力度,才能更好地治理ChatGPT輔助行政的工作。
第二,如果網絡公開環境中的數據存在虛假,錯誤和誤導性的信息,會導致ChatGPT呈現不準確的內容,從而對ChatGPT輔助行政決策產生消極影響。因此,凈化網絡環境是確保ChatGPT呈現準確內容的重要一環。一方面,相關部門應繼續加大對網絡環境的監管力度,從源頭上預防虛假、錯誤信息的流入。另一方面,中國公民的網絡道德意識需要強化。除了聯合政府、網絡運營商以及學校等多個渠道的力量作用在讓公民意識到在上網過程中要以積極的、開放的、公平公正的、客觀的心態進行網絡活動,有關方要借助科技、行政、法律等手段為用戶提供健康的上網環境,使每位公民把道德意識放在上網活動中的首位。另外,還應加強對ChatGPT所屬開發者的監督管理以及出臺相關的監管制度,明確責任情形以及追責形式,強化ChatGPT的追責建構。尤其是要監管由ChatGPT產生的錯誤信息而造成嚴重后果的情況,加大對違法違規行為的懲罰力度,以起到監督和警示的作用。這一措施也可以間接鼓勵和督促開發者對ChatGPT的完善,比如提高ChatGPT對網絡信息和數據的鑒別和篩選能力,最大限度避免ChatGPT產生錯誤的信息從而誤導行政決策。
第三,我國應對相關部門的運行和管理進行優化(人員規劃,責任劃分等),以確保行政決策結果的公正性。我國目前對人工智能的監管為多部門監管。人工智能涉及領域多,不同領域和部門在實施監管的過程會有所交集,但是,監管主體過多則會導致,各個部門只注重在與自身利益關聯大的情況下參與監管以及執法工作;相對地,當面對與自身利益小的或者是復雜的情況,相關部門則出現工作懈怠或者是避而不談的情況。如果ChatGPT出錯導致決策失誤,在輔助行政決策中直接取代政府人員進行判斷,也會導致各部門以ChatGPT運行失誤而推諉責任。因此,除了對相關監管部門進行優化,有必要建立一套監督機制對各部門進行監管,防止工作資源分配不均。此外,我國也應當加大相關政府從業人員對ChatGPT知識、技能的專業培訓,防止工作人員在行政決策上過度依賴ChatGPT,以規避行政決策結果缺乏公正性等問題。
2. 優化ChatGPT輔助行政決策的技術保障機制
當前,為了對有關人工智能技術和信息數據進行完善的監管,我國根據自身的信息化成熟度建立了較為完備的法律體系,例如《新一代人工智能倫理規范》《個人信息保護法》《互聯網信息服務算法推薦管理規定》等。即在當前的法律框架下,ChatGPT輔助行政決策過程中產生的技術風險能夠得到有效管理。然而,法律法規的嚴格監管尚未被證明是最為有效的技術保障機制,僅一味地監管和懲處,也會制約ChatGPT人工智能技術的發展進步。因此,完善的ChatGPT輔助行政決策保障機制是不可或缺的,應當堅持以技術高質量發展為導向,研發出更高水平的技術保障機制,將算法保障、技術保障、嵌入保障相關的法律法規融入ChatGPT模型、算法和應用程序的各個環節,將技術風險進行前置管理。因此,ChatGPT輔助行政決策的技術保障機制應當重點關注技術源頭。
ChatGPT技術企業應當發揮技術“急先鋒”作用。目前來看,研發ChatGPT人工智能技術的企業多為資金和技術實力雄厚大型企業,它們擁有充足的資本積累和鮮明的技術優勢,在完善ChatGPT技術保障方面反應較為及時,因此技術企業應當堅持底線意識,嚴格堅持有關法律法規。技術企業在對ChatGPT模型、算法、數據庫進行更新時,應當加強對信息內容的篩選,必要時通過第三方介入的方式對ChatGPT技術進行實時監督。例如,在ChatGPT輔助行政決策的實踐中涉及個人信息安全問題時,技術企業和相關第三方應當主動進行技術風險評估,并出具風險評估報告,踐行法律法規規定的權利義務,堅守技術底線。同時,ChatGPT技術企業還應當定期開展審查工作,對ChatGPT模型、算法、數據庫進行核驗,以確保在技術層面上不出現違反倫理道德和算法歧視的問題。
在ChatGPT行政決策人機交互過程中,行為人應當梳理技術安全意識和個人信息保護意識,杜絕在人機交互的過程中輸入敏感信息、在ChatGPT自我學習時將敏感信息和行政決策相融合,干擾ChatGPT輔助行政決策數據庫的更新,進而引發技術風險。因此,ChatGPT輔助行政決策中的行為人也應當堅守底線意識,合法合規地使用ChatGPT,不得在使用過程中輸入違法違規、涉密涉險的信息,也不得誘導ChatGPT生成錯誤的、歧視的、違法的行政決策。
3. 搭建ChatGPT輔助行政決策的主體機制
搭建ChatGPT輔助行政決策的主體機制是為了明確ChatGPT和行政主體在行政決策治理中的角色定位和功能,并確保ChatGPT的輔助性質,以保障行政機關及相關從業人員在行政決策中的主導地位。
首先,要明確ChatGPT的輔助性質。作為人工智能輔助工具,ChatGPT的目的是提供信息和分析的支持,以輔助行政決策的制定。ChatGPT并不具備決策權和決策能力,其作用是提供數據和分析結果,為決策者提供參考和建議。
其次,要保障行政機關及相關從業人員在行政決策中的主導地位。行政機關承擔著行政決策的責任和權威,應保持對決策的主導權和對決策過程的控制。ChatGPT的角色是為決策者提供信息和分析,而非替代決策者的角色。在建立主體機制中,應明確ChatGPT的使用范圍和限制,確保其在輔助決策過程中的合法性和合規性。同時,要建立ChatGPT使用的規范和準則,以確保其輸出信息的準確性、客觀性和可靠性。
再次,確保行政決策的透明和公正也是主體機制的重要方面。決策者應清楚披露ChatGPT在決策過程中的使用情況,包括輸入的數據、分析的方法和結果等,以保障決策的公正性和可追溯性。同時對ChatGPT的算法原則進行披露,包括每次升級更新后說明。提升大眾對ChatGPT決策過程和結果的認知。
最后,建立跨學科的專家團隊,由相關領域的專家包括法學、計算機科學、經濟學、心理學等,組成團隊對ChatGPT進行監督和評估。這樣可以確保ChatGPT在輔助行政決策中的合理應用和持續改進。同時政府在使用ChatGPT輔助決策的過程中,應持續對其決策過程和結果進行反思,社會公眾也應具有反饋和建議權。通過多主體參與監管和評估,促進ChatGPT輔助行政決策能力不斷提升。通過打造這樣的主體機制,我們可以確保在行政決策過程中,ChatGPT的輔助作用能夠被合理運用;保障行政主體及相關從業人員的主導地位;提高行政決策的透明性和質量,為公共治理提供更好的支持。
五、 結語
盡管以ChatGPT為代表的生成式人工智能是弱人工智能時代的一次重大技術躍遷,但是,它所具有的弱人工智能本質決定了其對行政決策的影響并非顛覆性的,因而也不必夸張其應用的意義。在具體應用層面,應當結合具體情況探索其在行政決策當中的應用領域、應用目標和應用路徑。要秉持務實理性的觀點認識生成式人工智能參與行政決策的技術躍遷、可能危機與治理路徑,加快我國自主的生成式人工智能在數字政府建設領域的應用培育。
參考文獻:
[1] 高琳琦.生成式人工智能在個性化學習中的應用模式[J].天津師范大學學報(基礎教育版),2023(4):36-40.
[2] 曹輝,趙梓含.ChatGPT的特質研判,教育審思與風險應對——基于“知識—主體—立場”的視角[J].現代教育管理,2023(7):75-84.
[3] 姜華,王春秀,楊暑東.生成式AI在教育領域的應用潛能,風險挑戰及應對策略[J].現代教育管理,2023(7):66-74.
[4] 王遷.再論人工智能生成的內容在著作權法中的定性[J].政法論壇,2023(4):16-33.
[5] 黃日涵,姚浩龍.被重塑的世界?ChatGPT崛起下人工智能與國家安全新特征[J].國際安全研究,2023(4):82-106.
[6] 王惠敏,許峰,蔡士林.ChatGPT應用的風險迭代與法律因應研究[J/OL].電子政務,(2023-06-29).https://kns.cnki.net/kcms2/detail/11.5181.TP.20230628.1331.008.html.
[7] 王遷.再論人工智能生成的內容在著作權法中的定性[J].政法論壇,2023(4):16-33.
[8] 吳清.ChatGPT熱度下滑OpenAI推安卓版“續熱”[N].中國經營報,2023-07-31(C03).
[9] 江國華,梅揚.行政決策法學論綱[J].法學論壇,2018(2):58-69.
[10] 錢力,劉熠,張智雄,等.ChatGPT的技術基礎分析[J].數據分析與知識發現,2023,7(3):6-15.
[11] 陳文.政務服務“信息孤島”現象的成因與消解[J].中國行政管理,2016(7):10.
[12] 朱光輝,王喜文.ChatGPT的運行模式,關鍵技術及未來圖景[J].新疆師范大學學報(哲學社會科學版),2023,44(4):113-122.
[13] 令小雄,王鼎民,袁健. ChatGPT爆火后關于科技倫理及學術倫理的冷思考[J].新疆師范大學學報(哲學社會科學版),2023,44(4):123-136.
[14] 王錫鋅,章永樂.我國行政決策模式之轉型——從管理主義模式到參與式治理模式[J].法商研究,2010(5):3-12.
[15] 張凌寒.算法自動化決策與行政正當程序制度的沖突與調和[J].東方法學,2020(6):4-17.
[16] 杜昕怡,肖澤晟.人工智能算法輔助行政決策的法治風險及其化解路徑[J].學習論壇,2023(3):122-130.
[17] 周智博.ChatGPT模型引入我國數字政府建設:功能,風險及其規制[J].山東大學學報(哲學社會科學版),2023(3):144-154.
[18] 宋華琳,孟李冕.人工智能在行政治理中的作用及其法律控制[J].湖南科技大學學報(社會科學版),2018,21(6):82-90.
[19] 趙覺珵.ChatGPT是顛覆性突破?專家:它提供的答案在準確性等方面還有局限[EB/OL].[2023-02-10](2023-08-10).https://world.huanqiu.com/article/4BdfQl1qcAM.
[20] 黃璜.賦物以“智”,賦治以“慧”:簡論ChatGPT與數字政府建設[J].學海,2023(2):35-40.
[21] 王懷勇,鄧若翰.算法行政:現實挑戰與法律應對[J].行政法學研究,2022(4):104-118.
[22] 於興中,鄭戈,丁曉東.生成式人工智能與法律的六大議題:以ChatGPT為例[J].中國法律評論,2023(2):1-20.
[23] 蘇明,陳·巴特爾.數據驅動下的人工智能知識生產[J].中國科技論壇,2021(11):51-56.
[24] 黃雨晴.中國數字鴻溝的成因與賦權式治理[J].學習與實踐,2022(9):23-33.
[25] 陳偉光,袁靜.人工智能全球治理:基于主體、結構和機制的分析[J].國際觀察,2018(4):23-37.
[26] 李茜.智媒時代在線政務服務的ChatGPT化研究[J].武漢工程職業技術學院學報,2023,35(2):53-57.
作者簡介:張欣(1981-),男,河北公安警察職業學院副教授,研究方向為警務指揮與戰術專業;高天書(1997-),男,中國政法大學“2011計劃”司法文明協同創新中心博士研究生,研究方向為司法文明。
(收稿日期:2023-06-06? 責任編輯:蘇子寵)