摘要:智慧司法建設促使人工智能量刑系統逐步介入審判活動,對實現“同案同判”具有重要意義。然而,人工智能量刑系統在司法領域應用時存在適用性不良的問題,從而降低其應用價值。因此,確定人工智能量刑系統介入審判活動的限度可以提高司法實踐價值。為此,可以從理念、制度和技術等多層面的配套措施為其劃定應用邊界:在理念層面拓展應用外部邊界;在制度層面合理限縮應用邊界;在技術層面挖潛應用內部邊界。但必須明確的是,人工智能量刑系統的應用不是以促進司法公正為主要目標,而是以提升司法效率為主要目標。
關鍵詞:人工智能量刑系統;司法公正;倫理價值;應用限度
中圖分類號:D916 文獻標志碼:A 文章編號:1007-9092(2024)03-0142-015
一、問題的提出
類似案件判決結果差異過大是損害司法公信力的重要原因,而統一裁判標準的缺失和法官的主觀裁判,是造成“同案不同判”的主要原因。隨著法學界和實務界對該現象的重視,人工智能量刑系統被引入,其特殊性體現為技術規范性而非計算性或預測性。①其封閉性和穩定性的特點使得裁量不受法官主觀裁判和其他外部因素的影響,產生相對統一的結果。(《人工智能走進法院“判案子”》,2021年5月3日,http://www.ce.cn/xwzx/gnsz/gdxw/201707/14/t20170714_24209496.shtml。)人工智能量刑系統雖然在一定程度上有利于“同案同判”的實施,但由于對“同案同判”存在不同理解,對其如何適用也有不同認識,因此對人工智能量刑系統介入司法應用的限度也有不同立場。
在國內外司法實踐中,不乏將人工智能嘗試應用于刑期、賠償數額等量化判決。例如,湖北省檢察院開發的“智能量刑輔助系統”綜合了量刑實務中所有關鍵要素,將其納入量刑算法的設計之中。(《智能量刑輔助系統——讓認罪認罰從寬“看得見”“落得實”》,2024年1月3日,https://www.spp.gov.cn/spp/llyj/202008/t20200822_477552.shtml。)該系統的開發旨在充分利用案例數據和權威要素,提供基于實證的量刑建議,為司法決策提供有力支持。又如美國的COMPAS系統通過對犯罪人的畫像和評估,得出犯罪人的人身危險指數,為量刑提供參照。但將人工智能應用于司法實踐必須回答一些必要的基本問題:人工智能量刑系統是否能夠得出客觀公正的裁量結果?其在何種程度上能夠規范法官自由裁量權的行使?從司法倫理的角度來看,人工智能量刑系統是否會影響法官的主體地位甚或取代人類法官進行裁量工作?應當允許人工智能量刑系統介入到怎樣的廣度和深度?有何配套的技術和制度為其劃定應用邊界?
上述問題的實質是在思考人工智能量刑系統介入審判活動的公正性、倫理性和應用限度的邊界問題。這要求我們在關注其適用性的同時,也要分析人工智能在司法場域中的不適性,這種不適性既包括對司法公正的損害,也包括對司法倫理的侵蝕。由于人工智能應用于審判實踐并非有百利而無一害,甚至在某些環節上還可能弊大于利,所以應當根據人工智能量刑系統在適用過程中暴露的問題進行探討,確定人工智能在司法活動中的適用邊界,包括人工智能在審判活動中的地位、作用、應用目標及其危險區和禁區等。同時,也要找到人工智能與司法過程有機結合并趨利避害和提升質效的方案。
二、人工智能量刑系統的公正性之辯
人工智能量刑系統作為司法技術的創新,為量刑提供了更精確的數據支持,但其運作機制仍需審慎評估。引入這一系統的出發點旨在支持法官行使裁量權,并實現判決結果的統一性,但結果統一與公正審判是有區別的,公正審判還需考慮罪刑相適應、程序公正等要素。目前,人工智能量刑系統面臨諸多挑戰,包括對量刑情節賦值標準不明確、司法數據量與質的缺失、量刑模型生成的未知性以及環節安排對程序公正的影響等,這些問題限制了人工智能系統實現公正量刑的能力。在探討人工智能量刑系統的適用可行性時,需要深入考慮這些挑戰對公正審判所構成的影響。
(一)人工智能量刑系統的原理和方式
厘清人工智能量刑系統的運作原理和方式是討論其介入審判活動的可行性與限度的基礎。當其在運行過程中存在的固有缺陷與公正審判的要求相悖時,則其應用的可行性將被削弱,適用范圍也應受到限縮。
1.運作原理
人工智能量刑系統運作原理的核心在于量刑的規范化。它結合傳統量刑理論和方法,利用智能預測技術挖掘司法大數據中的量刑規律與經驗,并超越傳統個體性或經驗式量刑預測的限制。人工智能量刑系統的運作原理主要包含四部分內容:其一,智能量刑算法的主體性邏輯、量化規范邏輯以及經驗規范邏輯是智能量刑算法的核心構造。(張玉潔:《智能量刑算法的司法適用:邏輯、難題與程序法回應》,《東方法學》,2021年第3期。)
通過提取法律文書要素,系統進行類案識別模型訓練。(程龍:《人工智能輔助量刑的問題與出路》,《西北大學學報》(哲學社會科學版),2021年第6期。)其二,數據匹配與智能量刑情節的規范化。(楊鼎晨、張克強:《論人工智能輔助量刑系統:一種實踐理論的重構》,《黑龍江省政法管理干部學院學報》,2022年第4期。)系統通過數據輸入與計算規則匹配,智能輸出預測性參考意見,并將傳統量刑方式智能化。其三,智能匹配與量刑校正。(孫道萃:《人工智能輔助量刑的實踐回視與理論供給》,《學術界》,2023年第3期。)系統利用智能分析對海量案例進行比對,提供最具系統性的校正參考意見,提高量刑預見的準確性。其四,智能監督與裁判糾錯。(周靜、楊玲燕、劉喆等:《人工智能輔助法官決策研究——基于量刑偏差識別視角》,《經濟管理學刊》,2023年第2期。)系統自動檢測和糾正量刑建議的重大偏離,以此保持審判監督的有效性。這些功能基于量刑原則、法律數據與智能分析,旨在提高量刑預測的準確性與有效性,并維護刑罰裁判的公正性。
2.運行方式
人工智能量刑系統的運行方式是基于數量刑法學與深度學習法展開的。數量刑法學具有提升司法效率、精確刑罰配置等功能,隨著大數據和人工智能的應用,罪刑均衡可以通過科學精確的配刑模型得以有效實現。(儲槐植、何群:《論我國數量刑法學的構建》,《中國法學》,2019年第3期。)基于深度學習的模型化量刑方式是結合自然語言處理和神經網絡技術,并通過大量案件數據學習量刑情節與判決結果之間的關系來不斷優化量刑模型,以提高量刑的規范性和公正性。
目前司法實踐中已出現多種量刑應用系統,例如智審輔助量刑裁決系統、量刑建議輔助分析系統和智能研判系統等。這些系統的運行方式大體可分為兩類:其一是相對專門或特定的輔助應用系統,例如智審輔助量刑裁決系統、貴州省檢察院的量刑建議輔助分析系統等;(《探索構建大數據法律監督模型建設“貴州模式”!貴州數字檢察創出七個“全國率先”》,2023年10月11日,https://dsj.guizhou.gov.cn/xwzx/snyw/202310/t20231011_82726953.html。)其二是建立在機器學習技術之上,以類案智能推送為主的輔助辦案系統,如上海的刑事案件智能輔助辦案系統、(《上海刑事案件智能輔助辦案系統調研報告》,2024年2月26 日,https://www.pishu.com.cn/skwx_ps/multimedia/ImageDetail?SiteID=14amp;ID=9512926amp;ContentType=MultimediaImageContentType。)最高人民法院的類案智能推送系統等。(《以智能化服務共建共享 促智慧法院建設轉型升級》,2022年11月30日,https://ipc.court.gov.cn/zh-cn/news/view-2118.html。)在數量刑法學和深度學習方法的支持下,人工智能量刑系統利用大數據處理、語音識別等技術生成量刑建議或類案推送并為司法人員提供量刑參考,使判決結果更具統一性,從而提高司法效率和公正性。
(二)結果統一與公正審判辨析
結果統一與公正審判不是同一概念。同案同判并不是機械要求法官在類似案件中追求相同的判決結果,而是為規范法官自由裁量權提出的一般性、抽象性的理論。事實上,基于個案在具體情節和社會基礎等方面的差異,“同案”無法也不能機械地理解為相同案件,其實質是“類案”(最高人民法院《關于統一法律適用加強類案檢索的指導意見(試行)》第一條規定:本意見所稱類案,是指與待決案件在基本事實、爭議焦點、法律適用問題等方面具有相似性,且已經人民法院裁判生效的案件。)概念的通俗化;“同判”也不能簡單認為是結果導向的要求。根據Schild教授的觀點,量刑支持的計算機系統可能有助于司法機構作出更為統一的判決,但這并不意味著要損害原本的自主性和獨立性。(Michael A., Belfer I., Schild U.J,etc.,“Quantum States and Disjunctive Attacks in Talmudic Logic”, FLAP,vol.3,no.3(December 2016),pp.847-876.)人工智能量刑系統的研究開發要了解司法決策者如何行使自由裁量權,并在此基礎上建立行使自由裁量權的認知模型,以此開發計算機軟件來模擬和支持決策制定。(Zeleznikow J., “The Benefits and Dangers of Using Machine Learning to Support Making Legal Predictions”,WIREs Data Mining and Knowledge Discovery,no. 4 (July 2023),pp.1-21.)從實踐角度看,在法官秉承公正司法理念并準確認定案件事實、適用法律、完成推理的前提下,類案判決結果的適當差異也在公眾的可接受范圍之內。因此,同案同判理論并不否定因法官合理行使自由裁量權而產生的同類案件判決結果的適當差別,適當差異也不會否定人們對公正審判的判斷。
同案同判的理念與人工智能輔助量刑的深層次目標都是為了達到公正審判。無論是同案同判理念的司法表達,還是人工智能輔助量刑的應用,雖然二者的直接目的都是實現類似案件處理結果的整體統一,確保法律適用的穩定性,但其深層次的目標都是服務于公正審判。而公正審判還包括罪刑相適應、考慮相關因素、程序公正等內涵,因此,在引入人工智能解決量刑統一問題時必須檢視其存在的固有缺陷以及在公正審判的其他層面可能帶來的不利影響。
檢視罪刑相適應是指刑罰的輕重應當與所犯罪行和承擔的刑事責任相適應。(張明楷:《刑法學》,法律出版社2016年版,第544-546頁。)對于某個特定的案件客觀上必然存在符合量刑公正要求的平衡點,只有以該平衡點作為同一類案件量刑的標尺,才能避免判決結果畸輕畸重。考慮相關因素原則要求法官在量刑時將與案件直接相關的法益侵害性、人身危險性和再犯可能性因素納入考慮范圍。檢視程序公正問題是除了前述關于審判的實體公正內涵外的公正審判的重要組成部分,其內容集中體現在聯合國《公民權利及政治權利國際公約》第十四條,主要表現為在法院或法庭面前的平等權利,確保被告有權獲得辯護,并規定了原被雙方有權上訴和進行復審的權利。(陳坤:《論法律解釋目標的逐案決定》,《中國法學》,2022年第5期。)在適用人工智能量刑時,必須特別注意這一環節在審理流程中的位序和實際操作的簡捷性。因此,在人工智能量刑系統算法的編制和學習數據的篩選方面需要特別謹慎,必須綜合考慮上述影響公正審判的內涵要素。
(三)影響人工智能量刑系統公正性的原因分析
人工智能與司法領域的融合包含三個層面的內容:解決人工智能與司法活動的適配問題、應對人工智能進入司法領域后所帶來的新問題和通過人工智能解決司法實踐中的既有問題。討論是否應用人工智能量刑系統不能只著重考慮最后一個層面而忽略作為基礎的前兩個層面。僅從最后一個層面來看,目前的人工智能量刑系統也難以較好地完成均衡量刑、規范自由裁量權的任務,其原因至少包括以下四個方面。
1.量刑情節賦值標準的不明確性
量刑情節賦值標準的不明確性可能導致量刑結果的不確定性,從而影響量刑建議的客觀公正性和權威性。國外一些研究表明人工智能量刑系統的公正性和可靠性受到了質疑。(袁偉英:《喚醒案例數據?促進量刑規范》,2022年4月13日,https://www.spp.gov.cn/llyj/202204/t20220413_553883.shtml。)例如,美國的 COMPAS 系統被指控存在種族歧視問題。(Supreme Court of Wisconsin. STATE of Wisconsin, Plaintiff–Respondent, v. Eric L. LOOMIS, Defendant–Appellant. No. 2015AP157–CR. Decided: July 13, 2016. https://caselaw.findlaw.com/wi-supreme -court/1742124.html.)為了解決這個問題,有研究者提出了一些解決方案,如使用更多的數據來訓練模型或者使用更加公正的算法。(自正法、袁紫藤:《合理利用人工智能 助推司法審判更加公正高效》,2023年7月22日,https://www.chinacourt.org/article/detail/2023/07/id/7413416.shtml。)申言之,量刑情節賦值標準的不明確性是影響人工智能量刑系統公正性的原因之一。
以數量刑法學為基礎的公式化量刑方法,其量刑模型的構建及其科學性完全取決于算法編制人員對量刑情節的列舉、賦值和函數關系的對應,(高舉成:《數字法律與司法人工智能概論》,華齡出版社2020年版,第43頁。)這是一種完全量化的、極具精確性的人工智能量刑系統開發模式,量刑模型的任一要素發生細微變動都可能對最終輸出的量刑結果產生根本性的影響。一般情況下,法官會大致評估各個量刑情節對最終刑期確定的影響,但基于個案差異,法官難以對這種影響進行縝密的量化,最終的量刑往往是一種實證主義的選擇。例如同一類的刑事案件中自首情節對刑期的影響可大可小,這種影響通常與犯罪的嚴重程度呈負相關,甚至對于達到一定程度的惡性犯罪,法官并不將自首情節作為減輕刑罰的理由。但對于其中的惡性程度標準、負相關的具體表現等,法官可能均無法作出精確的解釋。數量刑法學的本質就是將法官的經驗轉化為精確的數量關系,這就不可避免地要回答以下幾個問題:其一,為什么對某一特定的量刑情節賦予這樣的權重值,不同量刑情節在相應類型案件中的優先性是如何判斷的?其二,通過建構函數模型確定量刑情節與刑期之間的關系具有相對固定性,這是否能夠適應社會條件和法律認知的不斷變化?對上述問題回答的模棱兩可會導致公正審判的尺度實際上把握在算法編制者手中,從而使量刑傾向“科技化”而非“科學化”,并在結果上與罪刑相適應原則相悖。基于以上原因,該研發思路盡管盛極一時,但目前不再受學界或研發界青睞。
2.司法大數據量與質的缺失性
基于深度學習生成量刑模型的人工智能,其量刑模型的生成和優化都必須以輸入大量優質數據為基礎。人工智能量刑系統技術應用的關鍵在于兩點:一是能否獲取海量法律知識,二是能否將這些法律知識轉化為計算機可識別的形式。(Ebers M., Hoch V.R., Rosenkranz F.,etc., “The European Commission’s Proposal for an Artificial Intelligence Act—A Critical Assessment by Members of the Robotics and AI Law Society (RAILS)”,Multidisciplinary Scientific Journal, vol.3,no. 4 (April 2021),pp.590-604.)這種技術的有效性取決于系統能否有效地收集、整理大量的法律數據和知識,并將其轉化為計算機可處理的形式用以支持司法決策和法律分析。然而,當前我國司法數據量與質的缺失現象卻是普遍存在的。
從量的角度來看,司法數據存在缺失。首先,用于訓練人工智能的數據樣本來源較為受限。目前我國尚未建立與人工智能量刑系統配套的統一、完整的司法數據庫。基于司法公開的相關規定,法院系統在中國裁判文書網等網站上傳的判決書等司法信息并未及時更新,之后還會轉成只供內部查閱的數據庫,(2023年11月21日,最高人民法院辦公廳發布一則通知,全國法院裁判文書庫將于2024年1月上線,該文書庫僅支持“全國法院干警在四級法院專網查詢檢索裁判文書”。)加之法律允許特定情形案件不公開,使司法數據樣本的完整性大打折扣。即使各個法院內部可能貯存了較為完善的本院案件判決信息,但在不同地區、不同級別的法院之間司法數據并不互通,“數據孤島”現象普遍存在。其次,新類型與小頻率案件的案例樣本數量偏少。如前所述,人工智能需要大量數據來進行訓練和學習,如果數據量不足就會影響到結果生成的準確性和可靠性。(李寧:《司法人工智能的實際應用與展望》,2023年2月23日,https://www.chinacourt.org/article/detail/2023/02/id/7157402.shtml。)由于不同類型案件發生的頻率不同,對于某些發生數量較少的案件類型僅依靠深度學習不足以形成具有普遍指導意義的量刑模型。最后,司法大數據的內涵并不只限于判決書。法官在作出判決時考慮的情感、社會、政治等因素通常不會表現在判決書中,甚至難以體現在審理案件所形成的任何材料上。雖然有學者將司法大數據的內涵表述為“各種意義上法律信息、司法規律、司法人員集體經驗的深度實證分析”,(白建軍:《法律大數據時代裁判預測的可能與限度》,《探索與爭鳴》,2017年第10期。)但由于這些信息具有隱秘性和不確定性,使得人工智能難以準確發掘這些數據。
從質的角度來看,司法數據也存在缺失。數據的準確性和完整性是人工智能量刑系統運行的基礎,(Gulimila A., “A Summary of the Research on the Judicial Application of Artificial Intelligence”,Chinese Studies, no. 6 (January 2020),pp.46-58.)不準確或缺失的數據可能導致錯誤的判斷,影響判決的公正性。而事實上,司法數據的質量會在多個維度上受到影響。在時間維度上,即使不考慮錯判案件數據,但由于受不同歷史時期的政策、經濟等因素的影響,與量刑有關的司法數據會有一定幅度的變動,從而影響司法數據的穩定性和普適性;在空間維度上,不同地區對同類案件的判決結果也存在差異,這使得選取具有代表性的基準數據、建立相對統一的量刑模型變得更加困難。在數據來源維度上,由于人工智能深度學習所使用的數據需要經過人工處理,而數據的質量不僅與基礎數據有關,還與“人工智能背后的人工” 緊密相連,(黃瑜、曠軼丹:《人工智能背后不可或缺的“人工”——關于貴州自動駕駛汽車的圖像數據標注員的調研》,《清華社會學評論》,2023年第2期。)數據處理由誰完成、以何標準、如何進行都有待商榷。因此,用于深度學習的數據必須要經過繁復的篩選、清洗和標注程序。如果遵循現有的準入門檻低、人工來源廣、培訓周期短的數據標注產業模式,則可能對人工智能量刑系統的公信力產生威脅。
3.人工智能量刑模型生成的未知性
由于智能量刑模型的生成過程存在未知性,則可能會影響人工智能量刑系統的公正性。當前的司法實踐與社會反饋表明,算法歧視、暗箱裁判等問題并非是智能量刑司法適用的最大難題,反而是公眾的可接受性、經驗歸納的周延性以及“系統性偏差”等難題極大地困擾著算法裁判的實踐效果。(馬皚、宋業臻:《人工智能犯罪風險評估“算法歧視”現象及其規制路徑》,《江淮論壇》,2022年第2期。)歸納起來,未知性主要包括兩個方面,即“司法過程對研發過程的未知”與“研發過程對學習過程的未知”。
“司法過程對研發過程的未知”是指研發人工智能量刑系統所采用的基礎算法、研發人員在人工智能學習中所進行的引導和監督等內容不對司法活動參與者公開。研發人員在編制基礎算法、監督機器學習的過程中必然體現其專業知識和選擇,也可能主動融入其自身的理解甚至偏見。而當前的系統開發工作往往是由商業主體或其他科研機關承擔而非司法系統內部承擔,如果司法者不明確人工智能量刑系統的原理,也就無法知曉并監督研發者的研發過程,更無法識別潛在的歧視性因素,而僅是作為被動的使用者。還要注意的是,“司法過程對研發過程的未知”不僅包括法官對科研人員的未知,也包括司法當事人對人工智能量刑系統的未知。在威斯康辛州訴盧米斯案中,COMPAS系統基于盧米斯的個人信息作出評估報告屬于商業秘密,因而通過訴訟方式要求公開算法存在法律上的困境。(Supreme Court of Wisconsin. STATE of Wisconsin, Plaintiff–Respondent, v. Eric L. LOOMIS, Defendant–Appellant. No. 2015AP157-CR. Decided: July 13, 2016,https://caselaw.findlaw.com/wi-supreme-court/1742124.html.)在我國現行法體系下,訴訟當事人對人工智能量刑系統基本屬性的知情渠道是缺失的,只能作為運算結果的被動接受者,無法對算法本身的權威性提出質疑。為了解決這個問題,一些國家和地區已經開始探索開放算法。例如美國的《公開算法法案》要求聯邦機構公開使用的算法以及算法的相關數據和代碼。(參見Open Algorithms Act of 2017 (H.R. 2433)。)我國的一些學者也提出了類似的建議,認為應該建立人工智能算法審查制度并對人工智能算法進行審查和監管,(孔夢娜:《社會主義核心價值觀融入司法審判的機制研究》,2021年12月31日,https://www.chinacourt.org/article/detail/2021/12/id/6464688.shtml。)但目前相關制度與實踐尚不成熟。
“研發過程對學習過程的未知”指研發人員不能完全控制人工智能在司法領域的深度學習過程。在人工智能的輸入端和輸出端之間存在人類所不能探知和理解的“隱層”,這是通常意義上對人工智能深度學習進行批判的理由,又被稱為人工智能的“黑箱”特性。批評者認為,人工智能的深度學習過程無法使人工智能領會法官據以作出判決的合理但非法律因素,如情感、經驗、政策等。(Ayelet S.,“E-Nudging Justice: The Role of Digital Choice Architecture in Online Courts”,Journal of Dispute Resolution,vol. 2019,no. 2 (July 2019), pp. 123-135.)另外,未知的問題不僅限于人工智能對學習內容的遺漏,還可能在于其過度學習。人工智能深度學習的精細化程度是人類無法想象的,它可能將某一案件中的任何信息加以解構和建模,其中包括人類自身都尚未意識到的信息。如果人工智能過分精細地將本不應當考慮到案件中的因素作為算法模型的基礎,則會違背考慮相關因素的量刑原則。如此,基于上述不可控的過程構建的不具透明性的模型可能會導致法官難以解釋或審查其判決,這對于確保司法決策的公正性也構成潛在威脅。
4.環節安排不當影響程序的公正性
人工智能輔助量刑是在傳統刑事司法活動的基礎上,為了實現公正價值而額外增加的步驟,除了在實體上可能影響最終的刑期結果外,在程序上的環節安排也可能影響量刑的公正性。
一方面,對案件信息數據輸入職權的分配可能影響到量刑的結果。有觀點認為,出于司法效率的考慮,案件信息的錄入應該由公安機關在立案時完成,(張富利、鄭海山:《大數據時代人工智能輔助量刑的定位、前景及風險防控》,《廣西社會科學》,2019年第1期。)如此可以避免法官在案件審理階段進行重復性勞動,減輕法官的工作強度。但是,法律事實是在控辯雙方的交鋒中形成的,如果僅以公安機關所掌握的案件信息為準輸入,實質上是默許控方立場,變相剝奪了被告人的權利。相較于司法效率,維護控辯式庭審的中立是更值得追求的價值。而如果換由法官在庭審的基礎上認定案件事實、制作并輸入案件信息,則會產生大量的規范成本,也可能造成審判流程的過分拖延。
另一方面,我國現行兩審終審的審級制度可能會由此受沖擊。從公正價值來看,我國采用兩審終審制的目的是糾正一審判決的錯誤,其立足點是級別更高的法院相較于下級法院具有更高的司法水平。然而,在推行人工智能輔助量刑的大環境下,在某一較大的行政區劃甚至更大范圍內,所采用的很可能是同樣的人工智能量刑系統,從而導致上下級法院的量刑結果不具有實質性差異。在這種情況下,如果量刑結果不合理,當事人將無法通過上訴獲得有效救濟。
假設以上論述的難題隨著技術發展最終、或者在一定程度上得到破解,即人工智能可以提供公正的裁量結果,但其應用限度問題依然需要關注。尤其是法律倫理、工程倫理方面的學者開始討論人工智能量刑系統的深入應用是否會導致司法人文關懷的缺失?是否會削弱甚至是取代法官的主體地位?是否會導致人類主體的目的性與人工智能的工具性的倫理沖突?(黃辰、潘留杰:《人工智能審判的倫理沖突與基本立場》,《河南工業大學學報》(社會科學版),2020年第4期。)上述問題也是新技術革命伴隨而來的對倫理價值的反思。
三、人工智能量刑系統的倫理價值思考
目前的理論界對司法大數據與人工智能技術應用的新風險、新倫理這一關鍵問題的探討仍須加強,而“算力即權力”的新型權力形態可能將更隱蔽的技術權力的侵蝕納入到司法實踐中。(王祿生:《司法大數據與人工智能技術應用的風險及倫理規制》,《法商研究》,2019年第2期。)數據前置性和算法依賴性的技術特征使得人工智能量刑系統的應用極易形成“數據主義司法觀”,(高兆明:《“數據主義”的人文批判》,《江蘇社會科學》,2018年第4期。)其潛在的結果是導致司法決策由“法官為中心”轉向“以數據為中心”,并且這種轉向是十分隱蔽的。正如有學者所說,與傳統信息技術的影響相比,人工智能技術對司法的影響可能是內部的、全面的、本體意義上的。(王祿生:《司法大數據與人工智能技術應用的風險及倫理規制》,《法商研究》,2019年第2期。)這種隱蔽性技術所介入的程序依然影響著當事人對司法結果的理解和信任,并對當事人感知正義的體驗發揮作用,進而對公正性產生質疑。因此我們要反思人工智能量刑系統可能對感知正義、對判斷過程公開性和透明度的影響;法官也要警惕在應用人工智能量刑系統時被技術“操縱”“奴役”,應當堅守主體地位保留適當的自由裁量。
(一)訴訟當事人的感知正義問題
人工智能輔助量刑是否會影響訴訟當事人的感知正義?即當事人對正義的主觀感受是否會受到影響?在傳統的司法過程中,人類居于完全的主體地位,當事人對司法公正的信任源于司法人員的共情能力、專業能力和職業素養,源于實體法和程序法的良善規定以及對司法過程的內外部監督等因素,這些因素往往是顯性的。在人工智能介入司法過程的背景下,當事人對司法過程公正性的認知不僅取決于以上因素,還包括對人工智能量刑系統的理解。訴訟當事人接受人工智能量刑系統的關鍵不僅在于系統數據質量和算法的可靠性,更在于其是否能夠建立對系統產生公正結果的信任。(Mann T., “Mario and the Magician”, Comparative Critical Studies, vol. 15, no. 1.(September 2018) ,pp.103-112.)由于對人工智能原理和運作規則的了解普遍不足,以及人類與具有未知性人工智能之間的天然隔閡,使人們難以對人工智能建立普遍信任和公正認同,進而對裁量結果的公正性產生質疑。
為何當事人的正義感知度會天然地受到影響?首先,人工智能與人類邏輯思維體系是不同的。人工智能是通過歸納計算而非法律推理方法完成裁判的,它不能像人類法官那樣承擔起使法院判決最大限度地發揮其教育作用和社會效力的角色。(塔妮婭·索丁:《法官Ⅴ機器人:人工智能與司法裁判》(王蕙、李媛譯),《蘇州大學學報》(法學版),2020年第4期。)因此,當人工智能入侵人類公權力領域時,需要司法人員作為協調、緩沖角色。其次,人工智能和法官在司法程序中不同的功能也會對此產生影響。即使公眾接納了人工智能量刑系統在司法過程中的地位,其裁判結果也不能完全離開法官的干預。從法官與訴訟當事人之間的關系來看,現有的人工智能量刑系統通常僅具有刑期預測、偏離預警、類案推送等功能,而不可能對量刑情節與刑期確定之間的邏輯關系進行論理性的闡述,目前這些功能或能確保量刑結果的合理性,但無法使其具有可解釋性。(劉謝慈、黨婷婷:《智慧法院應用人工智能的風險規制》,《南華大學學報》 (社會科學版),2020年第4期。)而不具有可解釋性的判決,一方面易引發當事人對判決內容的曲解和對判決公正性的懷疑,降低服判息訴的比率;另一方面又切斷了當事人對判決結果提出質疑的路徑。因為一旦人工智能量刑系統掌握了其裁判結果的“最終解釋權”,當事人將無法知曉哪一案件事實在何種意義上對量刑結果產生了決定性的影響,更無法對此采取對應的訴訟策略、提出有效的辯護理由。與理由隱蔽的人工智能量刑系統相比,法官以“公開的形式”(潘庸魯:《人工智能介入司法領域的價值與定位》,《探索與爭鳴》,2017年第10期。)向被告人傳達判決依據和邏輯,能夠在更大程度上取得訴訟當事人對判決結果的理解,從而實現公正的可視化。
對正義感知度的變化或降低又會帶來哪些問題?可以說不能被民眾感知到的正義難以稱之為真正的正義,因為如果沒有建立起對司法程序的信任,就無法自發、自愿地接受相應的司法結果。有學者將法院的目標分為三個層次:首先是提供一個讓當事人在法律框架下獲得正義的平臺;其次是解決當事人的問題并引導他們接受和遵守法院的判決;最后是維護并加強當事人對法官、法院和法律的信任和信心,(Burdziej S., Guzik K. and Pilitowski B., “How Civility Matters in Civil Matters: Procedural Justice and Court Legitimacy in the Midst of a Legitimacy Crisis”,Law amp; Social Inquiry,vol.47,no.2(May 2021),pp.558-583.)這種信任和信心是法律系統合法性的關鍵所在。另外,從法官與社會其他主體之間的關系來看,雖然法院判決的法律效力只限于訴訟當事人,但其社會效力的輻射范圍所及更廣。法院判決是社會公眾了解法律知識、邏輯和司法權運作方式的最直接途徑。(徐琨捷:《民國初年民事“第一法源”的確立——民初大理院對“現行律民事有效部分”的形塑》,《北京理工大學學報》(社會科學版),2024年第1期。)在公眾法律意識逐步增強、主體地位逐漸覺醒的今天,公眾往往通過自身對公平正義的樸素理解來對熱點案件的判決結果進行解釋和評論。當法官的決定與公眾的思維相悖時,公眾信任的缺失是對司法公信力的侵蝕。因此,提高算法透明度和提供裁量的必要解釋將有助于提升人們對人工智能量刑系統的信任感和接受度,并對其正義的感知度產生正向影響。
(二)法官的主體地位及其自由裁量權問題
司法實踐中,如果人工智能量刑系統的法律規范作用被技術的規訓作用所取代,法官對人工智能量刑系統從被動接受發展至主動依賴,則其主體地位會被削弱,自由裁量權亦會被不當壓縮甚至排除。從思想史來看,“法官才是法律世界的王侯”,(德沃金:《法律帝國》,李常青譯,中國大百科全書出版社,第361頁。)其主體地位是人類尊嚴和司法尊嚴的體現。而保留法官自由裁量權,是保障其主體地位、實現個案正義和感知正義的需要。
適當保留法官的自由裁量權是有積極意義的。一方面,法官的自由裁量權是合理的法外因素介入司法過程的渠道。人工智能量刑模型是基于現有的算法和過去的數據生成的,(周翔:《司法數字化中的法律專家地位和參與方法》,《浙江大學學報》(人文社會科學版),2023年第3期。)即使是具有最高水平的人工智能量刑系統,其所反映的至多也不過是過去司法實踐的綜合,而不是具有預測性和創制性的判決結果,因此難以適應社會生活和法律政策的快速變化。在司法實踐中,很多具有量刑指導意義的規范性文件是服務于特定的公序良俗、經濟發展環境等目標并反映當時歷史情境下的情感與道德判斷的。人工智能量刑系統對此理解能力較為有限,這是其最根本的局限之一。另一方面,在不損及司法公正的前提下,保留法官的最終話語權是維護法官主體能動性、提高法官司法積極性、確保司法改革穩步推進的有效措施。人工智能量刑系統介入審判領域帶來的可能影響是,法官工作逐漸由能動化向機械化轉變,司法活動逐漸向行政性轉變。(栗崢:《人工智能與事實認定》,《法學研究》,2020年第1期。)一旦人工智能掌握了量刑過程的主導權和最終決定權,量刑將淪為完全機械化的程序性活動,法官將成為人工智能的抄錄員。量刑改革的目標原本是為了規范法官的自由裁量權,實踐中卻可能產生隱性負向功能。本應充分發揮法官主觀能動性的工作,卻成為不得不重復的操作,導致法官作為能動“人”的價值受到挑戰、制度設計的初衷被違背、司法改革的正當性受到質疑。特別是當某種新制度以改革之名造成侵蝕法官固有職權之實時,很難保證此種改革能夠不受法官的敵視和抵觸。
當然,自由裁量權也有限度。雖然有學者曾引征拉倫茨教授《法學方法論》中的觀點并將其概括為“法學的基礎任務之一乃是盡可能縮小法官的自由裁量權”(倪震:《量刑改革時代人工智能泛化之批判》,《人民論壇》,2020年第7期。)。但這一論述對拉倫茨思想的理解是片面的。拉倫茨教授雖然同意盡可能縮小法官的“決定空間”,但他并不排斥法官在“窮盡法律性考量可以提供的所有具體化手段”后作出“‘可認為正當的’決定”。(拉倫茨:《法學方法論》,陳愛娥譯,商務印書館2003年版,第174-177頁。)換言之,公正并不是只能有一個確定的結果,若在一個合理的區間內遵循法律精神和原則,按照法定程序作出的裁判結果,都可以被認定是公正的。即使是在對精確性要求極高的量刑領域,拉倫茨教授也認可通過“發展出一些清楚實際的量刑標準,使法官對刑罰范圍的決定盡量可以理解”,而不是將裁量結果束縛在一個固定的點上。然而從現實情況來看,人工智能輔助量刑的效果似乎不在于劃定具體量刑情節與裁量權行使之間的關系或明確裁量的合理區間,而更多的是在于用精確的數量結果束縛法官的能動性。
四、人工智能量刑系統在審判活動中的邊界
既然人工智能量刑系統在司法公正和司法倫理方面存在局限性,那么在量刑活動中人工智能量刑系統就不能無限入侵而要確定其應用邊界。
根據人工智能量刑系統介入審判活動的目標與要求,應依據性質、實施主體和作用對象等標準,從理念、制度、技術三個層面來框定其應用邊界。理念層面的措施是對應用邊界的外部拓展,該措施主要由法官等司法人員來實施,意在通過提高民眾的接受度,為人工智能量刑系統進一步介入司法奠定基礎。制度層面的措施是對應用邊界的限縮,其本質是人工智能量刑系統使用流程的指南和說明,通常以法院內部規范性文件或法律形式呈現。制度措施是將人工智能量刑系統擋在人類法官專屬的職權之外,盡可能減少其對司法活動的不當干涉。技術層面的措施是對應用邊界的內部挖潛,其核心主體是系統的研發者,旨在通過技術手段加強人工智能輸出結果的精確度,提高其參考價值。
(一)理念層面:應用邊界外部拓展
在理念層面,先要努力轉變公眾對于人工智能介入司法的不當理解,從而建立公眾對人工智能量刑系統的信任。系統應用的前景與公眾對它的包容度有密切聯系,應當通過解釋原理、回應質疑、宣傳實踐成效等方式消減公眾對此的不當理解和抵觸心理。具體而言,為了破除這種技術恐懼必須明確:其一,人工智能量刑系統的引入是司法實踐不可避免的趨勢。研究顯示,引入人工智能量刑系統可以加速對案情的分析和裁決制定,從而提高司法效率并為法官提供更全面的信息。(王亦偉:《論人工智能在法律判斷領域的應用》,《北京郵電大學學報》(社會科學版),2021年第1期。)其二,人工智能量刑系統主要依賴于大量的歷史司法數據進行學習和預測。(朱明婷, 徐崇利:《 人工智能倫理的國際軟法之治:現狀、挑戰與對策》,《中國科學院院刊》,2023年第7期。)由于其不具備人類法官的情感、道德判斷和法律解釋能力,法官仍然需保持對法律的最終解釋權和對案情的獨立判斷。其三,人工智能量刑系統與人類法官各有所長。研究表明,人工智能系統在處理模糊、復雜的法律情境時存在局限,對于一些需要深刻理解和道德判斷的案件仍需要人類法官的介入。(顧培東:《人民法院改革取向的審視與思考》,《法學研究》,2020年第1期。)其四,即使在某些情況下人工智能量刑系統無法得出公正合理的結果,法官仍具備獨立判斷權并有責任確保最終判決合理公正。
除了讓民眾對人工智能量刑系統產生基礎的、概觀的認識之外,還應當在實際審判中使案件當事人感知正義,重點是增強算法的透明度以消除當事人對量刑公正性的質疑。實際上,基于上游研發端到下游應用端之間的帷幕和人工智能深度學習本身的特性,算法的可解釋性不可能達到百分之百。當事人知情權的內涵并不是事無巨細地予以透明化,當事人也并不希望從中獲得極為專業的、全面的算法信息,他只尋求以最簡潔易懂的方式獲知算法的公平性。歐盟《算法責任與透明治理框架》將此類信息概括為“算法選擇、決策的核心概念”“標準化算法的強制披露內容”。(A Governance Framework for Algorithmic Accountability and Transparency, December 25, 2023,https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624262/EPRS_STU(2019)624262_EN.pdf.)對此,司法機關可以在發放給當事人的知情同意書等文件中加入相關的解釋條款,但條款不能局限于司法機關制作的格式化教程,而應當以當事人的理解程度作為評判標準,且不斷修正其解釋方式。必要時,應當視當事人的特殊狀況和特別要求進行個性化的解釋。
(二)制度層面:應用邊界合理限縮
人工智能量刑系統介入司法領域的邊界需要有合理的制度劃定。合理的制度必須保證系統在服務于公正價值的同時充分發揮法官的能動性和獨立性,避免人工智能實質上占據司法主動權;同時,盡量降低新程序引入司法過程所帶來的人力和時間成本。通過法院內部規范性文件或法律,明確人工智能量刑系統的使用流程,并限定其在法定程序中的具體角色。(程龍:《論大數據證據質證的形式化及其實質化路徑》,《政治與法律》,2022年第5期。)這有助于防范潛在的不當干涉,從而確保法官在整個司法決策過程中擁有主導權。人工智能系統的使用應當受到法官的審查和控制,以保障司法的獨立性。(華劼:《自動版權執法下算法合理使用的必要性及推進》,《知識產權》,2021年第4期。)
因此,本文就人工智能量刑系統的制度安排提出以下設想:第一,在一審階段運用人工智能輔助量刑時應當具有斷后性和被動性。就正在審理的案件,法官必須首先根據其通常的量刑方式給出刑期的預判并生成裁判文書,當法官給出的裁判結果落入到經人工智能運算得出的合理范圍內時,人工智能不主動在司法過程中扮演任何角色,而使審判活動按照正常的流程繼續進行;僅在裁判結果逸出合理范圍時,人工智能向法官提出偏離預警,并推送與本案較為相似的案件和運算得出的合理量刑范圍以供法官參考。第二,人工智能量刑系統不應當成為一個獨立的校驗系統。為了提高程序效率,更合理的方式是將其內置于文書生成系統或其它辦理程序性事項所必須使用的系統中。第三,人工智能的運算結果不應當成為限制法官自由裁量的紅線。雖然輔助量刑系統給出了量刑的參考范圍,但不應當要求法官必須遵循量刑的參考數值,對法官自由裁量結果的評判應該由當事人作出而不是由人工智能量刑系統來完成。這就要求法官進行嚴謹的釋法說理,提高訴訟各方對量刑結果的認可度。同時也應當賦予當事人對量刑偏離的知情權,即法官的說理內容應當包括本案與所推送的類案的區別、具體量刑情節對刑期的影響等。第四,二審程序不宜再適用人工智能輔助量刑。若訴訟當事人對量刑結果不服提出上訴或抗訴,法官應當掌握完全的量刑權限。第五,法官不能以遵循人工智能量刑系統的結果作為免責理由。對于一審裁判結果確有錯誤的,在后續的法院系統內部考核與追責流程中,不能以此免責,以此防止法官為求避免出錯而產生對機器運算結果的主動依賴。
(三)技術層面:應用邊界內部挖潛
從技術層面來看,大數據和算法是人工智能量刑系統運作的根基,提高裁判質量的直接途徑是提升司法大數據的質量、優化量刑算法,實現運算結果的精確化。在大數據角度,需要明確司法公開的范圍與司法大數據庫的范圍,而不能簡單認為前者的范圍窄于后者。司法公開的對象是符合法定條件的歷史案件判決信息、執行信息等,并不注重公開信息的時效性;而司法大數據的收錄條件不需區分相應案件是否屬于司法公開范圍,(當然,對符合不公開條件的司法大數據應當做好保密工作,避免侵害案件當事人的隱私、商業秘密等重要權利和其他權益。)并且應當時刻保持有價值信息的輸入和舊信息、無效信息、錯誤信息的剔除。同時,對于無法直觀體現在判決信息中的規律性、經驗性數據,應當由專門人員進行調研、整理和分析,以補充判決文書信息的不足。在算法角度,研發重點應集中在完善機器學習,加強對學習過程的控制以及對算法模型生成的必要監督、糾偏和校驗,嚴格遵循考慮相關因素的量刑原則,避免潛在地得出歧視性結果。
在科技因素之外,必須回歸制度框架,警惕人工智能量刑系統開發的權限淪為商業市場的競爭標的,避免商業主體掌握開發的絕對主動權。智慧司法作為近年來的新興領域,其實踐范例有限、理論體系尚不完備、學科交融程度較低,整體上仍呈現出“法律+人工智能”而非“法律×人工智能”態勢。從當前的智慧司法實踐來看,法學家是研發思想的主導者,負責勾畫人工智能量刑系統的研發方向、要點和目標,但對研發過程卻鮮有介入。研發人員雖然能在相當程度上把控人工智能的研發過程,但其對于法律事實、政策、規范和公正司法內涵的理解難以到位。因此,只要引入人工智能量刑系統,司法權的部分讓渡便不可避免,而問題的關鍵在于如何將它對司法獨立的影響降到最低。商業主體將經濟利益置于首位,開發權待價而沽的背后,無論有意無意,都潛藏著商業主體借公共司法表達個體訴求的風險。在現階段無法找到技術中立開發主體的情況下,如果只能遵循研發外包的方案,就必須確保通過法律界與研發界的良好溝通以及第三方對研發者的監督,盡量消解對司法獨立的損害。歸根結底,技術中立的實現有賴于智慧司法獨立體系的建構和交叉學科的理論發展與人才培養。(左衛民:《熱與冷:中國法律人工智能的再思考》,《環球法律評論》,2019年第2期。)
五、結語:回歸人工智能量刑系統的效率導向
如前所述,人工智能與司法公正和司法倫理存在雙重不適。無論從司法公正角度還是司法倫理角度來看,量刑都不是一種機械性的程式化操作,而是凝結人類法官特有智慧和經驗的審判活動。人工智能量刑系統的作用有限,不宜對其司法實效持過分依賴的態度。對于人工智能介入審判活動,應從理念、制度和技術等多層面的配套措施為其劃定邊界。
另外,對人工智能量刑系統應用邊界的探索不應止步于此。人工智能原初的設計目標并不是在自然人之外人造人,而是為了通過發揮計算機在存儲、運算、識別等方面的優勢幫助解決人類所無法解決的問題,或以更高的效率完成繁瑣的任務從而解放人力。(孫笑俠:《論司法信息化的人文“止境”》,《法學評論》,2021年第1期。)因此,人工智能量刑系統能夠真正充分發揮作用的領域不在于維護司法公正,而在于提升司法效率。現有的智慧司法盡管表面上都是為了司法公正性服務,但深究之下不難得見大多不過是拓展了人力所不能及的領域,即通過更強的算力完成了更精確的審查任務,而公正性僅是在效率提升基礎上的副產品。以此來看,人工智能量刑系統的工具性價值顯露無遺。在兼及公正和效率兩方面的審判環節,應用人工智能量刑系統不可偏廢,而在人工智能量刑系統能力未逮領域,人類法官應當把握主動權。□
(責任編輯:蘇騰飛)
收稿日期:2023-12-27
作者簡介:鄭海味,杭州電子科技大學知識產權研究院院長、副教授;賴利娜(通信作者),杭州電子科技大學法學院講師;章奕寧,湖州市中級人民法院法官助理。
基金項目:浙江省法學會項目“基于區塊鏈的數字版權保護模式研究”(編號:2023NC13)。
① 丁曉東:《人機交互決策下的智慧司法》,《法律科學(西北政法大學學報)》,2023年第4期。