999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能輔助量刑的證據化改造

2025-04-29 00:00:00程龍
現代法學 2025年2期

摘 要:人工智能輔助量刑已在我國刑事司法中實現常態化應用,以達到統一量刑標準、確保量刑公正的預期目標。然而,其深度介入量刑裁判存在正當性風險,亟待構建符合法治原則的規制體系。對此,學術界提出了輔助司法論與算法正當程序論兩種不同方案,但均存在一定局限,即不當賦予人工智能輔助量刑系統以裁判主體地位,忽視了辯方的程序參與權,以及缺乏證據裁判的制度空間。鑒于此,應當將人工智能輔助量刑納入司法審查對象范疇,對其進行證據化改造以滿足訴訟化和可裁判化的基本要求。具體路徑可依托現行刑事訴訟制度框架,將人工智能輔助量刑建議作為專門性報告,從證據規則、舉證主體、證據形成階段、質證認證,以及司法責任承擔五個方面進行規制。

關鍵詞:人工智能輔助量刑;算法;審判權;證據;專門性報告

中圖分類號:DF73

文獻標志碼:A

DOI:10.3969/j.issn.1001-2397.2025.02.12 開放科學(資源服務)標識碼(OSID):

目 次

一、人工智能輔助量刑的實踐邏輯與正當性風險

二、輔助司法論與算法正當程序論的局限

三、人工智能輔助量刑的證據化改造

四、結語

綜觀全球,人工智能正在全方位滲透到人類社會的各個領域,我國人工智能的司法應用已走在世界前列。【參見李訓虎:《刑事司法人工智能的包容性規制》,載《中國社會科學》2021年第2期,第44-46頁。】在刑事司法中,量刑規范化改革和量刑建議制度的興起,也蘊含著從傳統司法走向智慧司法的結構轉型動因。【參見張玉潔:《智能量刑算法的司法適用:邏輯、難題與程序法回應》,載《東方法學》2021年第3期,第188頁。】當前學術界關于人工智能輔助量刑的研究主要集中在人工智能輔助量刑的風險【參見朱體正:《人工智能輔助刑事裁判的不確定性風險及其防范— —美國威斯康星州訴盧米斯案的啟示》,載《浙江社會科學》2018年第6期,第76-85頁;黃京平:《刑事司法人工智能的負面清單》,載《探索與爭鳴》2017年第10期,第85-94頁。】、人工智能輔助量刑的應用場景【參見孫道萃:《人工智能輔助精準預測量刑的中國境遇— —以認罪認罰案件為適用場域》,載《暨南學報(哲學社會科學版)》2020年第12期,第64-78頁;姚夢瑩:《“未來審判”:AI輔助定罪量刑的場景構想與進路探索》,載《數字法治》2023年第4期,第70-80頁;熊秋紅:《刑事司法中的人工智能應用探究》,載《上海政法學院學報(法治論叢)》2022年第6期,第99-116頁。】、人工智能輔助量刑的司法適用與法律規制【參見豐怡凱:《人工智能輔助量刑場景下的程序正義反思與重塑》,載《現代法學》2023年第6期,第98-117頁。】等方面。鑒于人工智能在司法中的運用日趨深入,我們有必要思考人工智能輔助系統參與量刑是否正當?如果不正當,我們應如何規制?本文并不意圖重復已有研究關于人工智能輔助量刑技術與法理缺陷的論證,而是還原刑事司法場景,提出并論證對人工智能輔助量刑進行證據化改造的基本觀點,以期為實現合法、有效規制人工智能輔助量刑貢獻初步的智識成果。

一、人工智能輔助量刑的實踐邏輯與正當性風險

(一)人工智能輔助量刑司法應用現狀

在司法實務中,根據開發主體的不同,可將人工智能輔助量刑系統區分為三類:第一類是國家層面統一規劃開發的,適用于全國司法機關的法律人工智能。具有代表性的是全國檢察機關統一業務應用系統、最高人民法院司法知識服務平臺、“上海刑事案件智能輔助辦案系統”(“206系統”)等;第二類是各地司法機關根據自身需求,自主與技術開發公司合作研發的系統,典型的有海南省人民法院量刑規范化智能輔助辦案系統、湖北省人民檢察院智能量刑輔助系統等;第三類是企業自主研發的人工智能法律服務平臺,如“小包公”智能法律平臺。

從功能聚合程度及系統預設目標來看,人工智能輔助量刑又可分為相對具有針對性的輔助量刑系統與涵蓋輔助量刑功能在內的綜合性輔助辦案系統兩類。前者是指圍繞精準量刑、同案同判目標,整合類案推送、法律知識推送、量刑智能輔助、量刑偏離預警等功能構建的針對性較強的輔助量刑系統。后者則是建立了具備復合性功能的人工智能輔助辦案系統,人工智能輔助量刑通常是該綜合性辦案系統中的子系統。

實踐中,人民法院是人工智能輔助量刑的主要“消費者”。最高人民法院在2021年第一次網絡安全和信息化領導小組會議上提出了“建設以司法數據中臺和智慧法院大腦為核心的人民法院信息化4.0版”。目前,這一司法知識服務平臺已集成包括規范量刑智能輔助、類案智能推送在內的33項優質服務,面向全國3470家人民法院累計服務超8億次,服務能力覆蓋100%的高級人民法院和中級人民法院,以及97%的基層人民法院。【參見最高人民法院信息中心:《以智能化服務共建共享 促智慧法院建設轉型升級》,載中華人民共和國最高人民法院知識產權法庭官網,https://ipc.court.gov.cn/zh-cn/news/view-2118.html,2024年12月4日訪問。】與此同時,檢察機關也廣泛運用人工智能輔助量刑系統確保量刑建議的精準化,并以此協助案件質量評查。例如,湖北省人民檢察院自2018年以來,持續研發智慧刑檢辦案系統的子系統— —智能量刑輔助系統,2020年,該系統已經在湖北全省部署應用。該系統能夠支持23個常見罪名的規范化量刑和60個罪名的大數據量刑,其中,對危險駕駛罪、故意傷害罪、販賣毒品罪這3個罪名能夠提供精準量刑建議。【參見《智能量刑輔助系統— —讓認罪認罰從寬“看得見”“落得實”》,載中華人民共和國最高人民檢察院官網,https://www.spp.gov.cn/spp/llyj/202008/t20200822_477552.shtml,2024年12月4日訪問。】又如,貴州省人民檢察院“智慧檢務”系統通過建立案件“要素—證據—量刑”的關聯模型,對案件風險、要素偏離度、量刑偏離度等方面進行全流程數字“畫像”,分析并對比類案數據,為案件質量評查提供精準依據。參見《貴州:大數據點亮“智慧檢務”》,載中華人民共和國最高人民檢察院官網,https:∥www.spp.gov.cn/dfjcdt/201705/t20170531_191786.shtml,2025年3月13日訪問。

(二)人工智能輔助量刑的法理邏輯

人工智能輔助量刑的實踐運用具有通過技術保障司法質量的邏輯基礎,其根本目的在于通過有效力的量刑建議,彌補法官裁判中的不足,最終實現“同案同判”的精準化司法正義。

第一,從內容上看,人工智能輔助量刑提供的是有效力的量刑建議參考。實踐中,人工智能輔助量刑的主要內容是類案智能推送和量刑建議參考。【參見孫道萃:《人工智能輔助量刑的實踐回視與理論供給》,載《學術界》2023年第3期,第115頁。】類案智能推送其實是為量刑建議提供正當性依據,而量刑建議參考是人工智能輔助量刑的最終結果。有學者認為,在科技崇拜的影響下,過度依賴量刑建議參考會削弱法官的主觀能動性,致使其主動放棄量刑裁判權。【參見卞建林:《人工智能時代我國刑事訴訟制度的機遇與挑戰》,載《江淮論壇》2020年第4期,第153頁。】人工智能輔助量刑的設立初衷就是為了合理限制法官的自由裁量權,避免法官的任意性。【參見李立豐、齊弋博:《數字算法時代的量刑公正及其構建》,載《學術探索》2022年第4期,第90頁。】因此,如果無法形成對法官裁判權的約束,就難以實現其規范量刑裁判的目的。

第二,從正當性基礎來看,人工智能輔助量刑具有“同案同判”的先天正義。在傳統司法模式下,由于司法官員在數據掌握、研判和利用方面的“先天不足”,“同案同判”成為一個不斷追求但難以企及的目標,但在大數據加持下的人工智能輔助量刑算法卻能使“同案同判”具有現實可能。截至2018年,江蘇省人民法院系統的“同案不同判預警平臺”已經在鹽城、南京、蘇州等城市的兩級人民法院系統共計50余家單位中部署,被超過350名法官使用,成功預警高偏離度案件120多起,總預警案件占總案件數量的3.3%,準確率達到92%。【參見王祿生等:《江蘇法院“同案不同判預警平臺”調研報告》,載李林、田禾主編:《中國法院信息化發展報告No.2(2018)》,社會科學文獻出版社2018年版,第362頁。】法官對輔助量刑算法結論的任何變更,都可能被視為對“同案同判”的違反,這就進一步限制了法官的量刑權。

第三,從系統邏輯上看,人工智能輔助量刑是為了彌補法官的能力缺陷。有研究認為,算法介入司法決策可能由于算法無法進行價值判斷而導致法律適用上的差異【參見李立豐、齊弋博:《智能量刑算法決策與刑事自由裁量權的差異與融合》,載《科技與法律(中英文)》2022年第1期,第12-13頁。】;機器難以建立類似排除合理懷疑、內心確信的一般信念;人類的信念以及影響人類信念的各種因素被簡化為數字,這削弱了人工智能介入司法的有效性。【參見栗崢:《人工智能與事實認定》,載《法學研究》2020年第1期,第128-130頁。】筆者贊同上述判斷,但關鍵在于,如果人工智能介入司法的邏輯本來就是為了消除人的價值判斷和個體因素對司法的影響;運用人工智能輔助司法本身是一種“結果思維”,即“我們不再關注人類如何做事,而是思考機器產出的判決結果是否能達到甚至超出人類法官標準,不必復制法官思考和推理的方式,而是發揮機器特有的能力(強大計算力、海量數據、高超算法)”【[英]理查德·薩斯坎德:《線上法院與未來司法》,何廣越譯,北京大學出版社2021年版,第284頁。】,那么上述問題也就不再是問題。從這個意義上看,人工智能輔助量刑具有“代具化”的哲學意蘊,所謂“代具化”,就是認為人類可以創造工具彌補自身的不足。人工智能輔助量刑其實就是一種“非植入版”的“大腦芯片”,通過外設裝置彌補“人類法官”量刑決策的不足。

第四,從使用目的上看,人工智能輔助量刑還有技術規訓司法的目的。所謂技術規訓司法,是指“決策者或司法管理者通過技術(包括大數據、人工智能等現代信息技術)將司法人員的思想、決策與行為,乃至個人榮譽、獎勵或集體司法經驗等都整合進科技系統當中,將法律規范的要求轉化為技術可執行的標準,進而要求司法人員的決策與行為都按照特定技術標準設定展開。”【左衛民、潘鑫:《通過技術規訓司法:進步與挑戰》,載《法學評論》2023年第4期,第58頁。】人工智能輔助量刑為了實現約束法官自由裁量、彌補法官個性化量刑不足之目的,其最終功能還不止于成為事實上的審判主體之一,更為關鍵的是它能反過來評價、監督“人類法官”的審判權。例如,貴州省人民檢察院運用“智慧檢務”系統對全省人民檢察院2016—2017年辦理的1.4萬余件故意傷害案件進行分析,發現并整改了要素偏離案件2332件、量刑偏離案件2395件、證據風險案件674件。參見《貴州:大數據點亮“智慧檢務”》,載中華人民共和國最高人民檢察院官網,https:∥www.spp.gov.cn/dfjcdt/201705/t20170531_191786.shtml,2025年3月13日訪問。

第五,從實踐預期來看,人工智能輔助量刑具有“AI法官”的基本樣態。左衛民教授指出,域外業已出現“AI法官”作出實質性司法決策的先例,但我國尚無相關實踐。【參見左衛民:《AI法官的時代會到來嗎— —基于中外司法人工智能的對比與展望》,載《政法論壇》2021年第5期,第4-7頁。】現實中,法官往往難以承受科技帶來的正當性壓力,但基于一貫存在的“科技至上”信念,法官對技術性意見和法庭科學的依賴程度也在不斷加深。【參見[美]米爾建·R·達馬斯卡:《漂移的證據法》,李學軍等譯,中國政法大學出版社2003年版,第200頁。】更加激進的觀點認為,智能量刑算法完全勝任法官角色,而并非僅僅拘泥于“輔助人”角色。【參見張玉潔:《智能量刑算法的司法適用:邏輯、難題與程序法回應》,載《東方法學》2021年第3期,第189-190頁。】

(三)人工智能輔助量刑的司法正當性風險

學術界對于人工智能輔助量刑的缺陷分析已達成共識。在技術方面,“當前 AI 輔助量刑系統公正取向的困境主要體現在自然語義識別技術的精準化不足、算法歧視的縮小化機制不順暢、類案推送的精細化不夠,以及偏離預警的適應性不高四個方面。”【馮文杰:《人工智能輔助量刑公正取向的雙重構建》,載《華東理工大學學報(社會科學版)》2020年第6期,第116頁。】算法黑箱也會造成正當程序的貶損。【參見李本:《美國司法實踐中的人工智能:問題與挑戰》,載《中國法律評論》2018年第2期,第55頁。】在法理方面,主要存在訴訟結構失衡、影響法官獨立裁判、沖擊司法裁判合法性、司法責任制失焦、新法定證據主義、顛覆審級制度、證據審查形式化等多方面的問題。【參見胡銘、張傳璽:《人工智能裁判與審判中心主義的沖突及其消解》,載《東南學術》2020年第1期,第215-218頁。】

與此同時,盡管人工智能輔助司法具有緩解案多人少壓力、司法賦能、彌補人腦不足和司法風險可視化等優點【參見孫道萃:《我國刑事司法智能化的知識解構與應對邏輯》,載《當代法學》2019年第3期,第20-23頁。】,但學術界普遍對人工智能過度干預審判權存在疑慮。既往研究主要從原理、技術和價值三個方面進行分析【參見羅維鵬:《人工智能裁判的問題歸納與前瞻》,載《國家檢察官學院學報》2018年第5期,第20-21頁。】,認為在原理上,人工智能難以模仿“人類法官”進行思考;在技術上,現有人工智能技術尚無法實現裁判功能【參見左衛民:《AI法官的時代會到來嗎— —基于中外司法人工智能的對比與展望》,載《政法論壇》2021年第5期,第10頁。】;同時,人工智能也難以還原人類情感【參見盛學軍、鄒越:《智能機器人法官: 還有多少可能和不可能》,載《現代法學》2018年第4期,第78-81頁。】,會削弱司法權的官方性、法定性和儀式性等。【參見孫道萃:《我國刑事司法智能化的知識解構與應對邏輯》,載《當代法學》2019年第3期,第17頁。】上下級人民法院共用一套量刑輔助系統沖擊審級制度【參見李訓虎:《刑事司法人工智能的包容性規制》,載《中國社會科學》2021年第2期,第52頁。】等程序性缺陷也被充分揭示。本文不再重復上述研究內容,轉而以正當性為視角,審視人工智能輔助量刑參與審判的風險。

首先,無論是輔助還是參與審判,人工智能輔助量刑都缺乏憲法正當性。在人機協同的觀念引導下,“法官不再是唯一的承擔量刑工作的主體:隨著人工智能介入量刑程序,量刑工作不再由法官‘壟斷’,而是部分交由智能量刑輔助技術分擔。”【豐怡凱:《人工智能輔助量刑場景下的程序正義反思與重塑》,載《現代法學》2023年第6期,第102頁。】人工智能輔助量刑導致審判主體多元化,但沒有進一步回答審判主體多元化是否符合憲法。《中華人民共和國憲法》(以下簡稱《憲法》)第131條明文規定:“人民法院依照法律規定獨立行使審判權,不受行政機關、社會團體和個人的干涉”。人民法院行使審判權具有排他性,《憲法》并沒有允許審判主體的多元化。況且,人工智能輔助量刑并非獨立個體,若其輔助審判權行使,實質上相當于算法設計者、商業生產者、系統部署者都參與了審判工作,這種有悖《憲法》基本規范的實踐不能成為我們研究一切人工智能輔助司法系統的前提。

其次,“同案同判”的正當性本身值得討論。筆者曾經認為,拒斥“意義之網”和“地方性知識”的“同案同判”并不具有正當性,同時,“同案同判”的判斷標準本身也是可疑的。【參見程龍:《人工智能輔助量刑的問題與出路》,載《西北大學學報(哲學社會科學版)》2021年第6期,第165頁。】筆者進一步認為,算法其實是通過司法大數據對類似案件處理意見的相同性來界定“同案同判”的。“同案同判”的邏輯在于具有相似要素的案件在統計學意義上的趨同性,即多數法官在類似案件中處理意見相同的概率,在此基礎上,要求少數派法官向多數派法官靠攏。可問題在于,多數不意味著正確。況且,司法大數據是對司法實踐的記錄,而司法實踐客觀上存在錯案可能,數據頻率意義上的“同案同判”也可能是“一錯再錯”。因此,不能以適用某種具體規則的案件多寡或主張某種規則的司法官比重來判斷案例規則的對錯。所以,在案例規則層面,“同案同判”或“類案同判”的要求是欠妥當的,是違背司法規律的。【參見黃京平:《刑事司法人工智能的負面清單》,載《探索與爭鳴》2017年第10期,第87-88頁。】

再次,人工智能輔助量刑的非準確性因缺乏辯論機制而難以被揭示和消除。依靠司法大數據為基礎的量刑,只能提示量刑事實與量刑結果的相關性、概率性,而非因果性;同時,忽視了罪犯個體化因素的影響。算法預測應被視為概率,不具有準確性,這是至關重要的。事實上,大多數科學證據均存在上述問題,但在司法過程中可以通過控辯對抗機制將可能存在的佯謬予以揭示,同時在辯論中發現真實。然而,人工智能輔助量刑在司法實務中往往由法官、檢察官單方生成并加以使用,缺乏控辯對抗與辯論的程序設計,其中的謬誤難以得到有效揭示和消除。

最后,同樣重要的是,彌補法官能力不足與監督司法也不能為人工智能輔助量刑參與審判提供正當性依據。由于人工智能輔助量刑算法生成時可能涵蓋我國司法不同階段的數據【參見蔡立東、郝樂:《司法大數據輔助審判應用限度研究》,載《浙江社會科學》2022年第6期,第53-54頁。】,這些司法大數據必然包含著人類過往的錯誤,因此,人工智能輔助量刑彌補法官審判能力不足的功能尚有待檢驗。即便人工智能輔助量刑系統可以彌補法官在數據掌握、思維廣度、經驗歸納方面的不足,也不足以論證其參與審判乃至監督司法的正當性。事實上,所有科學技術在司法中的運用都能彌補法官知識和能力上的缺陷。例如,DNA技術的引進極大彌補了法官對于親子關系認定能力的不足,但是,我們會認為DNA技術可以享有親子關系審判權進而規訓司法嗎?相反的是,司法恰恰要求將上述科學手段還原為證據,必須通過人類的舉證、質證和認證方可成為裁判依據。人工智能輔助量刑的邏輯基礎在于:法官缺乏量刑的能力,所以需要通過算法這一科學媒介,對量刑公正這一法律專業問題提供“鑒定”。但問題在于:其一,即便法官量刑能力不足,選擇算法予以補足就一定是正當的嗎?其二,人工智能輔助量刑如何能成為參與審判乃至規訓司法的超級權力?事實上,由于法律的全面性和至上性,算法不可能成為法律,只能是法律針對的對象。【參見陳景輝:《人工智能的法律挑戰:應該從哪里開始?》,載《比較法研究》2018年第5期,第138-139頁。】同時,法律也不應當算法化,除非令人信服地證明“法律和算法是同類事物且算法比法律更好”。【參見陳景輝:《算法的法律性質:言論、商業秘密還是正當程序?》,載《比較法研究》2020年第2期,第122-123頁。】司法正當性的根源或許也不完全在于裁斷準確性之一端,更在于由人類解決自身的糾紛,而不是由人類之外的其他主體主宰人類命運。【參見潘庸魯:《人工智能介入司法領域路徑分析》,載《東方法學》2018年第3期,第112頁。】

二、輔助司法論與算法正當程序論的局限

為實現對人工智能輔助司法的規制,學術界主要有兩種不同的思路,即輔助司法論和算法正當程序論。二者的共同點在于肯定了某種程度上人工智能輔助量刑的量刑決策權,甚至認為人工智能輔助量刑本身就意味著裁判主體的更換【參見孫道萃:《我國刑事司法智能化的知識解構與應對邏輯》,載《當代法學》2019年第3期,第24頁。】,而這種裁判主體的更換,又會帶來裁判主體的復數化【參見季衛東:《人工智能時代的司法權之變》,載《東方法學》2018年第1期,第132頁。】,也將程序設計者和數據處理商引入司法決策之中。【參見姚夢瑩:《“未來審判”:AI輔助定罪量刑的場景構想與進路探索》,載《數字法治》2023年第4期,第73-74頁。】同時,二者共同堅持了“以司法規制算法”而非“以算法規制司法”的基本主張,它們的區別更多在于技術策略的不同,但均有局限。

(一)輔助司法論及其局限

筆者最初也是持輔助司法論的基本立場。【參見程龍:《人工智能輔助量刑的問題與出路》,載《西北大學學報(哲學社會科學版)》2021年第6期,第172頁。】輔助司法論具有如下規制內容:(1)人工智能輔助量刑系統不能僭越司法權,法官不得任由算法替代自己進行裁判【參見江溯:《自動化決策、刑事司法與算法規制— —由盧米斯案引發的思考》,載《東方法學》2020年第3期,第86頁。】;(2)不得強制性地要求司法機關及法官必須使用人工智能輔助量刑系統【參見黃京平:《刑事司法人工智能的負面清單》,載《探索與爭鳴》2017年第10期,第92-93頁。】;(3)人工智能輔助量刑提供的僅是量刑建議,而非具有法定效力的裁判依據。【參見孫道萃:《人工智能輔助精準預測量刑的中國境遇— —以認罪認罰案件為適用場域》,載《暨南學報(哲學社會科學版)》2020年第12期,第77頁。】輔助司法論正確地指出了對人工智能輔助量刑之于司法權的干預應予限制,但是,其局限在于僅僅提出了一種理念性的指導方針,沒有提供具體可操作的實施方案。

首先,輔助的概念不具有規范上的可操作性。如果輔助司法論意圖建構一套規制人工智能輔助量刑的規范,那么就必須保證“輔助”這一核心概念在規范上的明確性。事實上,“輔助”一詞具有多義性,如果不從輔助范圍、輔助深度和輔助效力三個層面對輔助司法論進行規范建構,那么輔助司法論就只是一種理念,而非規范。事實上,輔助辦案與輔助裁判僅有一線之隔【參見王玉薇:《智能裁判風險的技術正當程序控制》,載《求是學刊》2022年第4期,第127-128頁。】,所有庭審技術都具有輔助司法的功能。例如,庭審自動化記錄、庭審多維示證技術、庭審數字化監督巡查等。如果這樣寬泛地界定輔助,那么輔助司法論就等于什么也沒說。問題的關鍵在于,人工智能輔助量刑究竟是一種工具輔助還是決策輔助?工具輔助是指將輔助主體視為一種工具,它只是為司法工作提供便利。如果人工智能輔助量刑僅是一種工具輔助,也就不存在前述所闡明的諸多問題。然而,目前量刑算法事實上承擔著決策輔助功能,影響著法官心證的形成。輔助司法論的核心思想在于將人工智能輔助量刑從決策輔助轉為工具輔助,然而,這必然包含著根本性的悖論:既然量刑是一種決策,而系統又是為了輔助量刑,它又怎么可能僅是工具輔助呢?幾乎所有人工智能輔助司法系統都存在這樣的矛盾:一方面希望它替代法官;另一方面又不能讓它絕對替代法官。【參見張保生:《人工智能法律系統: 兩個難題和一個悖論》,載《上海師范大學學報(哲學社會科學版)》2018年第6期,第36-39頁。】在強大的科學技術裝置面前,法官有無可能反對人工智能?如果難以反對,則輔助必然成為決定。

其次,即便輔助角色得以確立,也無益于責任劃分與承擔。即使法官有勇氣不采納人工智能輔助量刑的建議,可一旦發生錯誤,是否應當追究法官責任?又或是法官采納人工智能的量刑建議導致裁判出錯,究竟追究何者之司法責任?追究責任的前提在于法官能夠識別人工智能輔助量刑系統的風險,如果法官根本沒有該能力,那么責任就不應由法官承擔。【參見江溯:《自動化決策、刑事司法與算法規制— —由盧米斯案引發的思考》,載《東方法學》2020年第3期,第81-82頁。】輔助司法論其實暗含了人工智能輔助量刑系統司法責任的“豁免”。如果人工智能輔助量刑僅僅是輔助角色,真正的裁判主體仍是法官,那么對于輔助角色的輔助話語是否采納完全在于法官,“誰決定、誰負責”,因此,司法責任應當由法官完全承擔。于是,在法官無法識別算法風險,又暗含人工智能輔助司法責任豁免的情形下,法官的最優處理方式就是任由人工智能代替自己進行決策。這其實是一種錯誤概率的選擇,畢竟人工智能是能夠保證相當程度的準確性的;即便不準確,法官也無法有效識別,那么還不如全盤接受— —至少在不幸產生錯誤的時候,法官還能拉上人工智能系統這一“墊背的”。這樣的責任劃分與承擔困境,進一步使人工智能輔助量刑系統的輔助定位難以落實。

最后,輔助司法論僅站在法官角度看問題,忽視了對控辯平等、庭審實質化的保障。有學者認為,人工智能“侵入”刑事司法會造成信息不對稱,進而導致訴訟風險不確定。【參見孫道萃:《我國刑事司法智能化的知識解構與應對邏輯》,載《當代法學》2019年第3期,第17頁。】在實體方面,人工智能輔助量刑會強化報應刑和威懾刑,不當忽略教育刑的人道價值。【參見張燕龍:《人工智能時代量刑的價值追求與挑戰》,載《中國政法大學學報》2022年第2期,第271-274頁。】技術公司的商業機密特免權導致刑事訴訟當事人難以獲知算法信息【參見衛晨曙:《刑事審判人工智能的權力邏輯》,載《西安交通大學學報(社會科學版)》2021年第3期,第145頁。】,這就進一步阻礙了辯方對量刑信息的獲取,以及針對量刑的辯護的開展。參見盛豪杰:《腦機接口對刑法產生的挑戰及其應對》,載《西南政法大學學報》2024年第2期,第138-151頁。此外,目前人工智能輔助量刑的啟動權完全掌握在檢察機關和人民法院“手中”,當事人不僅沒有能力獲知人工智能輔助量刑的信息,就連是否啟動人工智能輔助量刑、能否自行使用人工智能系統提供有利于辯方的量刑建議都缺乏規范支撐。于是,“訴訟參與人更像是司法大數據技術的被適用者,只能被迫接受嵌入司法機關意志與規則設計的應用系統,處于較為弱勢的賦權地位,不可避免地淪為技術賦權場域的弱勢群體。”【蔡立東、郝樂:《司法大數據輔助審判應用限度研究》,載《浙江社會科學》2022年第6期,第57-58頁。】至少在量刑程序中,針對量刑的辯護會被極大削弱,針對量刑的庭審難以實質化,鑒于此,人工智能無助于實現審判中心主義,也無助于保障控辯平等。【參見謝澍:《人工智能如何“無偏見”地助力刑事司法— —由“證據指引”轉向“證明輔助”》,載《法律科學(西北政法大學學報)》2020年第5期,第113-115頁。】

(二)算法正當程序論及其局限

由于輔助司法論的可行性論證不足,當下更具理論影響力的規制進路是算法正當程序論,亦可稱為技術正當程序論。算法正當程序論是在承認人工智能已經享有部分司法權的基礎上提出的規制方案。算法正當程序論認為現有正當程序理論已經不足以應對人工智能的挑戰。首先,量刑主體的參與性難以實現,被追訴人選擇人工智能量刑的自愿性難以保證。【參見豐怡凱:《人工智能輔助量刑場景下的程序正義反思與重塑》,載《現代法學》2023年第6期,第104-105頁。】其次,在訴訟程序上,算法偏見、數據偏差影響裁判中立;算法黑箱、商業秘密保障影響程序公開;算法壟斷、數據鴻溝影響程序對等。【參見余鵬文:《現象、原理和規制:人工智能司法與刑事程序正義的融合之路》,載《天府新論》2023年第1期,第111-114頁。】最后,在可問責性上,算法結果不受監督沖擊了公正原則。【參見郭春鎮、勇琪:《算法的程序正義》,載《中國政法大學學報》2023年第1期,第170頁。】另有研究從技術角度論證了傳統正當程序理論在人工智能時代的應對乏力:(1)對數字時代的虛擬審判空間規制不足;(2)機器、技術人員、AI生產商、系統部署者等司法實質參與者被忽略;(3)數字化程序規則闕如;(4)上述問題導致裁判可接受性下降。【參見劉金松:《數字時代刑事正當程序的重構:一種技術性程序正義理論》,載《華中科技大學學報(社會科學版)》2023年第2期,第19-21頁。】因應上述傳統正當程序理論的不足,算法正當程序論建構了一套系統性的“技術性程序正義理論”,該理論強調人工智能司法技術的透明性、準確性、參與性和可問責性。【See Danielle Keats Citron amp; Frank Pasquale, The Scored Society: Due Process for Automated Predictions, 89 Washington Law Review 1,20(2014).】總體上看,算法正當程序論實現了對輔助司法論的超越,部分應對方案具有可行性,但問題在于,它是否構成了對傳統正當程序理論的超越?換言之,它是否是“新瓶裝舊酒”?

首先,算法正當程序論的實質要求在于算法的可審查性,但這并不必然屬于新的正當程序理論。有研究指出,人工智能輔助量刑的算法正當程序,就是要求實現對算法的訴訟化改造。具體而言,就是要設置:(1)被追訴人自愿選擇權;(2)類案量刑信息大數據審查權;(3)算法解釋、發表意見、質證等實質性參與權;(4)AI輔助退出申請權。【參見豐怡凱:《人工智能輔助量刑場景下的程序正義反思與重塑》,載《現代法學》2023年第6期,第112-113頁。】本文完全同意上述訴訟化改造方案,可問題在于這是否形成了一種全新的訴訟內容,進而需要用全新的正當程序論予以規制?事實上,正當程序理論面向的是審判程序與構造,而非審判對象。換言之,是否構成對傳統正當程序理論的沖擊,關鍵在于新生訴訟現象是否沖擊了現有審判程序和構造,而不是以是否出現了新的審判對象和內容為判斷標準。參見王彬、強蘊慧:《生成式人工智能的人權風險及其法律治理》,載《人權法學》2024年第6期,第58-63頁。以鑒定為例,它的出現同樣為刑事審判提供了新的對象與內容,如新的多元主體參與(鑒定人、鑒定機構)、新的自愿性判斷(當事人是否自愿選擇)、新的訴訟風險(鑒定的科學性和鑒定的神秘性)、新的訴訟不對等(辯方難以有效應對鑒定質證),但法學理論并未因此建構一套“鑒定正當程序理論”,因為現有訴訟結構和方式完全可以實現對鑒定的裁判。相反,在認罪認罰從寬程序中,盡管審判對象和內容沒有發生改變,但由于控辯結構、辯審結構發生了重大改變,因此,學術界提出了“協商式程序正義”等新理論。由此可見,僅以算法屬于全新的審判對象和內容為由論證算法程序正義理論的必要性,顯有不足。

其次,算法正當程序論對算法的正義要求可以通過現有科學證據審查規則實現。所謂算法的正義,就是指作為技術的算法如何保證其生成上的準確性、穩定性。算法正當程序論中的原理公開、技術透明的要求其實針對的是算法的正義而非程序的正義。可問題在于,司法是否需要審查算法的正義?如果需要,這種審查需要達到什么程度?司法對科學證據專業性、科學性的要求從來沒有達到真理的高度,而只需要科學證據的提出者對使用的科學技術做出鋪墊性證明,足以使一個持懷疑態度的理性主義者確信其準確性即可。【參見[美]愛德華·J.伊姆溫克爾里德:《科學證據的秘密與審查》,王進喜等譯,中國人民大學出版社2020年版,第145-154頁。】因此,在現有條件下,對算法自身科學性的審查完全可以通過對科學證據的審查實現,即將算法作為科學證據之原理對待,要求人工智能輔助量刑建議的提出者、使用者對該算法的科學性做出鋪墊性證明即可;算法正當程序論對原理公開、技術透明的要求并未超出現有科學證據的審查規則范疇。

再次,算法正當程序論中關于對算法在司法審判中的程序正義要求也未超出現有程序正義范疇。前述人工智能、算法在審判中的程序正義核心要求就是:一方面,避免秘密使用人工智能輔助量刑;另一方面,避免人工智能輔助量刑成為不可質疑的對象,防止量刑建議成為“新法定證據”。然而,這一規制方案也并未體現出“新”在何處。當下刑事審判中對科學證據的審查完全是遵循上述要求進行的。申言之,當事人對人工智能輔助量刑系統使用的知悉權是司法公開、自愿性保障的必然要求;人工智能輔助量刑建議可質疑、可聽證又是證據裁判、控辯對抗的必然要求。算法正當程序論針對算法及其衍生意見、信息的程序規定其實也是模仿傳統正當程序理論設計的。相較于傳統正當程序理論而言,算法正當程序論的規制思路沒變,變的只是規制對象而已。

最后,算法正當程序論一直在規制算法裁判和規制算法被裁判之間搖擺。學者提出算法正當程序論的初衷其實是為了規制算法裁判。例如,在論及為何需要用程序正義理論規制人工智能時,有觀點認為這是維護人類尊嚴和司法公信力的需要【參見余鵬文:《現象、原理和規制:人工智能司法與刑事程序正義的融合之路》,載《天府新論》2023年第1期,第117-119頁。】;在批評人工智能司法運用時,亦有學者指出人工智能會破壞司法親歷性。【參見羅維鵬:《人工智能裁判的問題歸納與前瞻》,載《國家檢察官學院學報》2018年第5期,第29頁。】有研究認為應當建立算法量刑說理機制【參見孫道萃:《人工智能輔助量刑的實踐回視與理論供給》,載《學術界》2023年第3期,第126-127頁。】,更細致的設計還包括量刑算法只應適用于可能判處3年以下有期徒刑的輕罪案件,同時應強化人工智能輔助量刑的裁判文書說理等。【參見豐怡凱:《人工智能輔助量刑場景下的程序正義反思與重塑》,載《現代法學》2023年第6期,第114-116頁。】從以上論述可以看出,算法正當程序論其實是把算法當作了量刑裁判主體,要求其必須強化審判公信力、正當性、說理性等。但是,算法正當程序論又要求算法可質疑、可聽證,似乎又將算法當作被審查對象對待,其制度安排又是以證據開示、證據質證、證據裁判為原型展開的。這體現出算法正當程序論本身固有的重大缺陷,即沒有對算法享有司法權進行正當性論證,因此,在以正當程序規制算法時就產生了究竟是將其視為審判主體進行規制,還是作為被審查對象進行規制的猶豫。參見許娟:《生成式人工智能的“三經九緯”法治新模式》,載《西南政法大學學報》2024年第3期,第140-158頁。這種猶豫對于一項旨在證立的理論而言是致命的,但對于學術的推進卻是有益的。它啟發我們,將人工智能輔助量刑還原為可被裁判的對象,并利用現有證據規則予以規制,方可實現人工智能輔助量刑的程序正義。

三、人工智能輔助量刑的證據化改造

為實現對人工智能輔助量刑的正當性、合理性規制,需要將人工智能輔助量刑還原為被審查對象,納入既有刑事訴訟規范體系,進行證據化改造。具體而言,就是將人工智能輔助量刑報告定位為訴訟證據,接受訴訟“兩造”舉證、質證和法庭審查認證。

(一)規制目標

證據化改造的根本目標,就是將人工智能輔助量刑還原為被審查對象,供控辯雙方質證,同時,法官對其心證之產生,必須受到證據裁判規則的約束。需要注意的是,算法正當程序論也強調算法的可審查性,但這與證據化改造中的將人工智能輔助量刑作為司法審查對象有所不同。其一,算法的可審查性側重于從知識層面對人工智能輔助量刑建議的審查,是一種實質性的證明力審查;而證據化改造的司法審查強調對人工智能輔助量刑的全面審查,既包括對生成原理、技術保障層面的證明力審查,也強調對人工智能技術主體準入、建議公開透明、控辯平等質證等進行程序性審查。其二,算法正當程序論是將人工智能輔助量刑建議作為獨特的對象展開研究并進行法律規制,但筆者認為沒有必要另辟蹊徑,可將人工智能輔助量刑建議納入現有證據法體系進行審查。其三,算法正當程序論是將算法作為裁判主體,對其輔助裁判行為進行程序性規制;而證據化改造則是將人工智能輔助量刑轉化為被裁判對象,并對控辯“兩造”如何質證和法官如何認證進行規制。

(二)規制原則

對人工智能輔助量刑的規制應當遵循科技包容性和可裁判性兩個基本原則。所謂科技包容性原則,是指應當對人工智能、算法等輔助司法的科學技術采取與時俱進、適度寬松的準入態度。不應否認人工智能輔助司法帶來的巨大紅利,對人工智能輔助量刑的規制不是為了“削弱”它、“扼殺”它,而是為了使其更加穩健地發展。首先,司法應當與科技發展同頻共振,對司法和科技的互動應當持肯定、善意的基本立場。其次,人工智能輔助司法系統的運用應當確保其成熟性、安全性,不應在司法活動中進行科技產品測試、檢驗。司法機關不得使用未經測試和檢驗的人工智能產品,司法不是科技公司的“試驗田”。最后,法律對人工智能、算法的規制不是為了限制科技的發展,而是為了讓科技在規則中有序適用。參見黃海、王帥:《人工智能去風險原則下的分級治理》,載《人權法學》2024年第6期,第74-89頁。

所謂可裁判性原則,是指對人工智能輔助量刑系統而言,不能將其作為裁判主體,不能賦予其實質性的審判權。是否采納人工智能輔助量刑的建議,應當由法官裁斷。可裁判性是人工智能輔助量刑正當性的基本保證,尤其在我國,在以審判為中心的刑事訴訟構造尚處于“正在發生”階段時,貿然引入人工智能這一“超級法官”有可能帶來審判功能和情境的異化。將包括人工智能輔助量刑系統在內的所有輔助司法系統納入被審查對象范疇予以規制并接受訴訟檢驗,是目前相對較優的選擇。

(三)證據法體系納入

對人工智能輔助量刑進行有效的法律規制并不需要“另起爐灶”,現有法律制度已經能夠實現,打開“規制大門”的鑰匙就在于將人工智能輔助量刑形成的相關材料重構為有專門知識的人提供的專門性報告。

作為稱謂的“有專門知識的人”首次出現在1979年《中華人民共和國刑事訴訟法》(以下簡稱《刑事訴訟法》)中,2012年《刑事訴訟法》修改時對這個概念進行了充實和革新。最初,有專門知識的人被定位為當事人聘請的專門針對鑒定意見進行質證的專業輔助力量。有學者認為,有專門知識的人僅是對鑒定的輔助質證人員。【參見章禮明:《比較法視野中辯方專家輔助人的角色定位》,載《證據科學》2022年第3期,第272頁;左寧:《我國刑事專家輔助人制度基本問題論略》,載《法學雜志》2012年第12期,第150頁。】不過,司法實踐中存在悖論:一方面,強調有專門知識的人的意見不是證據,而是鑒定意見的輔助認定;另一方面,又將有專門知識的人的意見與鑒定意見混同,適用共同的程序規則。【參見胡銘:《鑒定人出庭與專家輔助人角色定位之實證研究》,載《法學研究》2014年第4期,第193頁。】鑒于此,2021年《最高人民法院關于適用〈中華人民共和國刑事訴訟法〉的解釋》第100條第1款規定:“因無鑒定機構,或者根據法律、司法解釋的規定,指派、聘請有專門知識的人就案件的專門性問題出具的報告,可以作為證據使用”。這一規定明確了有專門知識的人出具的專門性報告可以獨立作為證據使用,同時,在該條第2款中進一步規定了專門性報告參照鑒定意見的相關規定予以適用。

從制度構造上看,有專門知識的人出具專門性報告有三個基本要件:鑒定例外、專門知識和專門性問題。其一,專門性報告與鑒定意見不可競合適用。專門性報告只能在該專門性問題沒有對應鑒定機構或難以進行鑒定的情況下方可提出并使用。其二,必須使用專門知識。有別于證人證言,對于一般人能夠通過感官、社會經驗、常識進行判斷的問題,沒有出具專門性報告的必要。其三,必須針對專門性問題出具報告,不得超越專門性問題的范疇出具報告。

人工智能輔助量刑建議應當被納入不脫離于鑒定人的專門性報告的制度體系之中。首先,量刑問題沒有鑒定可能,但可以成為專門性問題。現代司法的一個基本預設在于法官是法律問題的最權威解釋者,這就意味著對于純粹的法律問題,法官就是最佳“鑒定人”。有爭議的是,量刑可否成為專門性問題?從表面上看,量刑是法律判斷而非事實判斷。然而,現代刑罰理念并不認為量刑是一個單純的法律適用問題,還要考慮被追訴人改造難度、教育可能、社會復歸等事實因素,故存在事實判斷的內容。在司法實踐中,也存在以往認為是法律判斷的內容,但卻因其復雜性而需要鑒定或出具專門性報告的情形。例如“快播案”中對于“淫穢”的判斷就產生了是否需要,以及是否可以鑒定的問題。【參見李學軍:《訴訟中專門性問題的解決之道— —兼論我國鑒定制度和法定證據形式的完善》,載《政法論壇》2020年第6期,第37頁。】這是因為:一方面,“法律本身的不確定性為法律專家進行法律解釋留出了空間”【陳桂明、吳如巧:《“法庭之友”制度及其借鑒》,載《河北法學》2009年第2期,第96頁。】;另一方面,在社會因素衡量上又常常需要超越法律對犯罪進行細致分析。縱博教授認為,是否具有必要性是判斷專門性報告關聯性的重要方面,而對于必要性的判斷就是看該專門性報告是否包含了普通人沒有的知識,以及是否對裁判者有幫助。【參見縱博:《論刑事訴訟中專門性報告的證據能力》,載《內蒙古社會科學》2023年第3期,第108-109頁。】人工智能輔助量刑不同于法官量刑,它是基于全方位的大數據【此處的“大數據”既包括司法大數據,也包括針對犯罪人個體特征的大數據。】掌握,利用復合性算法進行的量刑。從這個角度看,人工智能輔助量刑中的大數據使用和算法生成包含了普通人沒有的知識,其做出的量刑建議對裁判者助益很大。如果認可專門性問題不僅僅是自然科學技術問題【參見邵俊武:《論專門性問題的訴訟證明》,載《現代法學》2000年第6期,第98頁。】,也包括人文社會科學知識的觀點【參見韓旭、羅維鵬:《刑事訴訟中“有專門知識的人”爭議問題的實踐反思》,載《證據科學》2020年第5期,第536-537頁。】,那么就不得不承認,利用這些人文社會科學知識做出的量刑建議具有專門性報告的基本屬性。

其次,人工智能輔助量刑系統可以“成為”有專門知識的人。如果將人工智能輔助量刑建議定位為專門性報告,那么人工智能輔助量刑系統就相當于有專門知識的人。這面臨著是否可以將人工智能視為訴訟參與人的問題,限于本文主題,這一問題無法進一步展開,但至少可以肯定的是,應當對專家資格構建更具包容性的審查標準。【參見吳洪淇:《刑事訴訟專門性證據的擴張與規制》,載《法學研究》2022年第4期,第182-183頁。】這種包容性既體現在對于專門知識的包容性上,不需要過分要求專門知識的深奧性和真理性【參見宋東:《有專門知識的人之意見能作為證據嗎?— —基于刑事訴訟的思考》,載《證據科學》2021年第4期,第430頁。】;也體現在有專門知識的人的形式標準上,即“人”是對提供專門性報告主體的概稱,意指專門性報告須由可獨立思考的主體做出,并不一定必然是“人類”。將人工智能輔助量刑系統作為有專門知識的人對待,并未超出現有人工智能輔助司法研究的基本共識。

最后,將人工智能輔助量刑建議作為專門性報告并予以適用有利于法官獲取量刑信息,進而有助于法官準確量刑。人工智能輔助量刑系統可以在很大程度上保障量刑結果的準確和可靠。法官通過人工智能輔助量刑報告可以獲取更加全面的量刑信息以確保量刑裁判的公正性,這與法庭使用專門性報告以確保審判信息多元、全面和準確的功能預期相契合。

綜上,人工智能輔助量刑建議可以納入現有專門性報告制度之中。人工智能輔助量刑系統提出的量刑建議是針對量刑專門性問題的專門性報告,可稱為“人工智能輔助量刑報告”。

(四)具體規則

明確了人工智能輔助量刑建議的專門性報告定位,就可以展開具體規則的構建。其中包括證據規則、舉證主體、形成階段、質證認證與司法責任承擔五個方面。

1.人工智能輔助量刑報告的證據規則

(1)證據生成的準入資格

能夠獲準進入刑事訴訟的必然只應是那些精心設計、嚴密測試、原理可靠、數據可信、結論準確的輔助量刑產品。為確保上述基本條件的審查,建議司法行政機關設置人工智能輔助司法系統的審查部門,由司法行政機關、國家標準化管理部門會同最高人民法院、最高人民檢察院共同制定包括人工智能輔助量刑在內的所有輔助司法系統的國家標準,只有滿足標準的人工智能輔助司法產品才可以進入司法活動之中。當然,有專門知識的人不必與鑒定人的準入資格一致。【參見吳洪淇:《刑事訴訟中的專家輔助人:制度變革與優化路徑》,載《中國刑事法雜志》2018年第5期,第82-83頁。】在規定人工智能輔助量刑系統準入資格時,避免以絕對準確量刑為判斷標準,而應以概率上的預測準確度作為標準。同時,還要建立“黑名單制度”,即對被當事人大量質疑且法官采納率明顯過低的人工智能輔助量刑系統應當除名,不得在庭審中使用。設計、生產、部署“黑名單”中人工智能輔助量刑系統的商業機構或科技組織,在一定時間內不得向司法機關和當事人提供相關產品,使用不符合國家標準或“黑名單”上的系統生成的人工智能輔助量刑報告,在庭審時應當予以排除。

(2)人工智能輔助量刑報告的開示與自愿性保障

當下,人工智能輔助量刑缺乏透明性,嚴重損害了刑事被追訴人的知情權和程序選擇權。故此,無論是控方作出的還是辯方提供的人工智能輔助量刑報告,一律應當公開。可以考慮在庭前會議中增加“應當公開人工智能輔助量刑報告”這一規定,讓控辯雙方均可在庭審前獲知對方提供的人工智能輔助量刑報告信息,避免“算法突襲”。在開示人工智能輔助量刑報告時需要注意,盡可能降低被開示方閱覽該報告時的資源和知識負擔【參見裴煒:《數字正當程序— —網絡時代的刑事訴訟》,中國法制出版社2021年版,第237頁。】,不得直接開示“裸”的數據和程序代碼,必須以可理解、可視化的方式開示,既要公開報告內容、依據和結論,也要公開技術原理信息。

應當明確,人工智能輔助量刑不是刑事訴訟的“必選項”。一方面,這是司法權獨立行使原則的必然要求,司法機關必須同科技機構、商業公司保持必要距離,不得強制司法機關進行人工智能“消費”;另一方面,這也是保障被追訴人自愿性的要求。具體來看,在刑事訴訟中是否使用人工智能輔助量刑系統應當告知被追訴人及其辯護人,并征求他們的意見。另外,被追訴人也有權自行選擇人工智能輔助量刑系統進行量刑辯護。

2.人工智能輔助量刑報告的舉證主體

(1)控方舉證義務

量刑裁判中的證明一般采自由證明模式,依據“誰主張、誰舉證”的一般舉證規則,應由控方承擔提出人工智能輔助量刑報告以證明量刑事實成立和量刑意見正確的舉證責任。由于人工智能輔助量刑報告的特殊性,除舉示出該報告本身外,控方還應承擔人工智能輔助量刑系統原理的披露義務。盡管以目前的技術而言還難以有效解決算法黑箱問題,但并不意味著人工智能輔助量刑系統全部技術原理不可披露。首先,算法生成的過程應當披露。例如,構建算法的數學、計算科學等科學原理,以及算法生成所使用的技術裝備應當予以披露。其次,算法所依據的大數據情況應當披露。從源頭上確保算法生成的可靠性,避免錯誤數據“污染”算法。最后,應當將原理披露作為閱卷權內容之一加以保障,確保實現對技術本身的“閱卷”。尤其需要注意,大數據整合進司法裁判時,需要排除系統設計者、使用者計算偏差和主觀控制可能。【參見李茜:《大數據時代司法裁判的路徑探索— —以大數據分析證明方式的提出與規范為視角》,載《財經法學》2019年第2期,第39頁。】由于人工智能在刑事證明中的主要程序性挑戰在于算法公開、算法評估和使用者培訓三個方面【參見熊秋紅:《人工智能在刑事證明中的應用》,載《當代法學》2020年第3期,第88頁。】,因此,人工智能輔助量刑系統的設計者、生產者和部署者也應當對算法原理性信息予以披露,為訴訟各方合理評估人工智能輔助量刑報告的準確性提供支持。

(2)辯方舉證權利

除控方可以提出人工智能輔助量刑報告以支撐量刑建議外,辯方也可以舉證反駁控方量刑意見以求得更輕的刑罰,這是辯方的舉證權利而非義務,因此,需要改變當前司法機關壟斷人工智能輔助量刑的局面。人工智能輔助量刑系統應當向全社會開放,類似私主體化的鑒定機構,可以向被追訴人、被害人提供量刑預測和建議服務。這樣還能顯著拓寬相關科技機構的業務范圍,增加商業收入,提高研發動力,形成良性循環。由于專門性報告參照鑒定意見進行規制,因此,對于控方提出的人工智能輔助量刑報告,辯方可以通過自行選擇的人工智能量刑系統提供反駁性專門性報告予以反駁,或者申請重新作出輔助量刑報告。

(3)禁止法官單方主動使用

必須明確的是,根據證據法原理,法官不是證明主體,不承擔任何證明責任。為實現人工智能輔助量刑的證據化改造,人民法院應當僅作為人工智能輔助量刑報告的審查機構,而非生成機構。因此,本文認為應當全面取消人民法院內的人工智能輔助量刑系統,法官不得主動使用相關技術產品輔助辦案。法官應還原為中立、消極的裁判者,將人工智能輔助量刑報告作為證據看待,不預設專門性報告天然的證明力,也不在沒有質證、審查的基礎上主動使用輔助量刑報告。是否采納,以及在多大程度上采納人工智能輔助量刑報告的意見,應當由法官在法庭審理過程中根據庭審情況形成心證。法官也可以部分認可人工智能輔助量刑報告的意見,通過對相關量刑報告的編輯、校準功能保留司法自由裁量權。【參見王燃:《以審判為中心的訴訟制度改革:大數據司法路徑》,載《暨南學報(哲學社會科學版)》2018年第7期,第71頁。】此外,法官對人工智能輔助量刑報告的心證應當在裁判文書中加以闡釋,法官不能因其科學證據屬性而放棄對該專門性報告的實質審查,不得使人工智能輔助量刑系統與其設計者、使用者等成為事實上的“影子法官”。【參見鄭飛:《論中國司法專門性問題解決的“四維模式”》,載《政法論壇》2019年第3期,第75頁。】

3.人工智能輔助量刑報告的形成階段

對人工智能輔助量刑報告進行證據化改造的關鍵在于禁止法官主動生成并使用該報告作出司法決策。因此,應當在審前階段由控辯雙方生成人工智能輔助量刑報告。具體而言,檢察機關應在提起公訴前,通過委托聘任方式,選取符合條件的人工智能輔助量刑系統生成專門性報告,并依照前述證據開示規則,告知被追訴人及其辯護人并披露相關技術信息。檢察機關在向人民法院提起公訴時,應將人工智能輔助量刑報告作為隨案證據移送人民法院。辯方若意圖使用人工智能輔助量刑報告,也應在開庭前向人民法院提交。需要注意的是,在庭審時控辯雙方可以要求補充或重新作出人工智能輔助量刑報告。因此,在控辯一方對人工智能輔助量刑報告的準確性、可靠性有異議,法庭認為有必要補充報告或重新作出報告時,也可以在審判階段委托、聘任原有或新的人工智能輔助量刑系統方補充原報告或生成新報告,并重新組織質證。法庭不得自行生成人工智能輔助量刑報告,也不得在未經控辯雙方質證的基礎上徑行采信人工智能輔助量刑報告。

4.人工智能輔助量刑報告的質證與認證

人工智能輔助量刑可裁判性的要點在于真正實現有效質證,使任何影響法官心證的因素都得到庭審質證和司法審查。為實現有效質證,控辯雙方還可以另行申請有專門知識的人出庭,針對人工智能輔助量刑報告這一專門性報告進行質證。該有專門知識的人及公訴人、律師可以圍繞人工智能輔助量刑報告的原理科學性、數據可靠性、法理正當性、報告明確性等內容展開質證。與此同時,如果控辨雙方對上述事項有異議,需要人工智能輔助量刑系統的設計者、生產者、部署者出庭說明情況,且人民法院認為有必要的,應當要求上述人員出庭接受質詢,如果沒有正當理由拒不出庭,該人工智能輔助量刑報告應予排除,不得作為法官量刑時的參考。

法官在認證人工智能輔助量刑報告時應主要從兩個方面進行審查。其一,審查人工智能輔助量刑系統的可靠性和科學性。當然,法官對算法技術未必了解,因此,目前可以考慮主要從形式上進行審查,即審查生成報告的算法系統是否滿足前述準入條件。如果在審理過程中,通過控辯質證可以明確算法系統不具有可靠性或科學性,也可以直接排除該輔助量刑報告。其二,審查人工智能輔助量刑報告的程序正當性,即是否滿足前述自愿選擇、知情告知、報告開示的程序性要求。與此同時,在裁判文書中也應載明本案是否使用人工智能輔助量刑系統,如果使用,還需要公開法官對于該輔助量刑報告的認證情況并予以裁判說理。

5.人工智能輔助量刑報告的司法責任承擔

將人工智能輔助量刑報告作為證據納入刑事訴訟中后,由誰承擔司法責任這一問題便迎刃而解。首先,法官是量刑的第一責任人。人工智能輔助量刑報告僅作為證據進入庭審,法官享有對其采納與不采納的權力。法官是否承擔司法責任應當以其量刑是否正確為標準,而不應以其是否采納人工智能輔助量刑報告為基準。其次,人工智能輔助量刑系統被視為有專門知識的人,如果出具的量刑報告誤導法官作出錯誤裁判,也應承擔相應責任。在責任承擔方式上可采取強制退出、列入“黑名單”等形式。最后,出具低質量或錯誤人工智能輔助量刑報告的系統設計者、生產者、部署者不承擔司法責任,但應當承擔相應的產品質量責任。如果在設計、生產、部署人工智能輔助量刑系統時故意或嚴重不負責任導致量刑報告錯誤,造成重大影響的,可以追究相關人員的刑事責任。

四、結語

基于技術、法理和正當性等方面的綜合判斷,目前人工智能輔助量刑不應被界定為深度輔助法官裁判的工具,而應還原為被審查的對象。對此,學術界提出的輔助司法論和算法正當程序論的規制策略均存在不足。本文的核心主張在于將人工智能輔助量刑作為被審查的對象納入刑事審判程序,從而揚棄輔助司法論、算法正當程序論所構筑的將人工智能輔助量刑作為事實上享有審判權的主體的理論模型。當然,本項研究并不是對輔助司法論和算法正當程序論的全盤否定,而是基于“弱人工智能”的現實,堅持“不可過度信賴人工智能參與司法”的立場,強調運用現有規范資源,將人工智能從審判主體轉化為被審查的對象,使其接受審判程序的審視及控辯對抗的檢驗。

The Evidence-Based Transformation of AI-assisted Sentencing

CHENG Long

(Law School, Yunnan University, Kunming 650500, China)

Abstract:Artificial intelligence assisted sentencing has been routinely applied in China’s criminal justice system to achieve the goals of unifying sentencing standards and ensuring fair outcomes. However, the deep integration of AI in sentencing adjudication raises legitimacy risks, highlighting the urgent need to construct a regulatory framework that aligns with the principles of the rule of law. Current academic discussions have proposed two distinct approaches: the auxiliary justice theory and the algorithmic due process theory. Both approaches have limitations, primarily inappropriately granting the AI-assisted sentencing system the status of a judicial decision-maker while neglecting the procedural rights of the defense and lacking institutional space for evidence adjudication. To address these issues, AI-assisted sentencing should be included within the scope of judicial review, necessitating an evidence-based transformation to fulfill the fundamental requirements of litigation and adjudication. The path forward should leverage the existing framework of criminal procedure, treating AI-assisted sentencing opinions as specialized reports. Regulation should encompass five critical aspects: evidence rules, subjects of proof, stages of evidence formation, cross-examination certification, and judicial responsibility.

Key words:artificial intelligence-assisted sentencing; algorithm; jurisdiction; evidence; specialized report

本文責任編輯:周玉芹

主站蜘蛛池模板: av天堂最新版在线| 国产无人区一区二区三区| 中文字幕有乳无码| 日韩精品免费在线视频| 97超级碰碰碰碰精品| 爱爱影院18禁免费| 亚洲av无码片一区二区三区| 国产不卡国语在线| 99热这里只有精品2| 日本不卡在线视频| 人妻中文字幕无码久久一区| 日韩欧美在线观看| 久久人搡人人玩人妻精品一| 无码免费视频| 激情乱人伦| 免费激情网站| 亚州AV秘 一区二区三区| 欧美色视频网站| 亚洲永久色| 久久精品国产在热久久2019 | 国产av剧情无码精品色午夜| 精品久久久久成人码免费动漫| 久草视频精品| 日韩人妻无码制服丝袜视频| 久久免费精品琪琪| 国产一区二区三区在线精品专区| 黄色国产在线| 欧美午夜性视频| 国产精品13页| 好吊妞欧美视频免费| 国产精品无码制服丝袜| 日韩成人在线网站| 国产成人精品高清不卡在线| 国产美女在线免费观看| 高清无码一本到东京热| 国产精品一区二区国产主播| 三上悠亚一区二区| 免费人成在线观看视频色| 妇女自拍偷自拍亚洲精品| 国产高清无码麻豆精品| 亚洲欧美另类中文字幕| 欧美亚洲综合免费精品高清在线观看| 国产精品久久久久无码网站| 中文字幕1区2区| 亚洲AV一二三区无码AV蜜桃| 国产精品美女自慰喷水| 人妻一区二区三区无码精品一区| 国产福利微拍精品一区二区| 亚洲精品桃花岛av在线| a网站在线观看| 又猛又黄又爽无遮挡的视频网站| 激情综合五月网| 一级毛片免费高清视频| 999国内精品视频免费| 欧美色99| 欧美yw精品日本国产精品| 在线国产毛片| 中文字幕天无码久久精品视频免费 | 亚洲精品天堂在线观看| 丝袜亚洲综合| 日韩一区二区在线电影| 久996视频精品免费观看| 综合网久久| 99精品国产高清一区二区| 高清无码不卡视频| 色有码无码视频| 国产视频久久久久| 啪啪免费视频一区二区| 毛片在线播放网址| 亚洲成A人V欧美综合| 国产精品永久久久久| 欧美a√在线| 97国产精品视频自在拍| 蜜桃视频一区二区| 久久频这里精品99香蕉久网址| 日韩第八页| 少妇精品久久久一区二区三区| 男女性色大片免费网站| 曰AV在线无码| 熟女日韩精品2区| 国产免费a级片| 久久久久无码精品|