999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能輔助量刑的正向效應、異化風險與應對方案

2025-08-15 00:00:00王文玉
貴州大學學報(社會科學版) 2025年4期
關鍵詞:量刑法官輔助

中圖分類號:D914;TP391.41 文獻標識碼:A 文章編號:1000-5099(2025)04-0114-11

國際DOI編碼:10.15958/j.cnki.gdxbshb.2025.04.11

隨著大數據、云計算、深度學習等技術取得突破性發展,人工智能開始被應用于教育、醫療、政府治理等領域,從而為這些領域的智能化轉型提供了強勁的驅動力。受此影響,人工智能開始介入司法裁判領域,其被視為提升司法裁判高效性、公正性和透明性的技術變革手段。利用人工智能系統展開量刑無疑是人工智能介入司法裁判領域最具代表性和挑戰性的改革嘗試:一方面,人工智能量刑具有結構化、可計算的特質,其通過量化賦值展開決策的技術特征具有天然的契合性,被認作是司法人工智能技術應用的主要突破領域;另一方面,量刑不但關系到被告人的人身自由、財產等基本權利,還關系到人權保障、社會穩定等與國家長治久安密切相關的重大問題,呈現出高度的專業化和嚴肅化特質。因而,將人工智能應用于量刑領域也是充分考驗人工智能的科學性、穩定性與可信賴性。

我們分析相關研究發現:一方面,絕大多數學者的關注焦點都集中于人工智能在司法領域的運用這一相對宏觀問題層面,僅將人工智能輔助量刑問題作為整體分析的簡單例證。這樣的分析顯然無法幫助我們較為深人和精準地把握人工智能輔助量刑的特質及其實際應用中所面臨的具體困境。另一方面,少數專門研究人工智能輔助量刑的文章往往關注人工智能輔助量刑在某一具體方面的問題,如違背程序正當性要求[1、量刑系統應用邊界如何設定[2、與人類法官的主體性沖突[3]等。由于這些研究沒能從可信賴角度系統審視人工智能輔助量刑的意義與風險,因而,所提出的應對人工智能輔助量刑風險的方案往往缺乏全面性和可行性。鑒于此,本文從量刑這一典型的司法人工智能決策領域入手,系統研究人工智能輔助量刑可能發揮的空間與發展瓶頸并努力提出具有針對性、系統性和全面性的應對方案,從而希望能夠為人工智能輔助量刑的良性發展提供有益的路徑引導。

一、人工智能輔助量刑的正向效應

早在2004 年左右,我國山東淄博、江蘇姜堰等地區法院就開始探索使用電腦輔助量刑以規范法官的量刑活動。彼時的電腦量刑系統通過以代碼復刻法律規范中相應量化指標的方式建構量刑模型,并將這一模型用于待決案件,以此實現自動量刑的目的。但是,這種單純復述規則的量刑系統無法有效應對法律概念、規則和原則的開放性、歧義性、流動性,以及量刑情節的多樣性、新穎性、變動性,最終因過于機械化的電腦量刑嘗試逐漸走向沒落4]。近年來,以算法、算力和大數據為基礎的新一輪人工智能浪潮的興起為建構更加完善的人工智能量刑系統帶來了新契機,人工智能量刑系統建構路徑的基本原理是通過神經網絡技術和深度學習技術對海量的裁判文書展開深度學習,發掘文書中法官量刑的規律,并以此為基礎建構用于對待決案件展開量刑的決策模型。在這一系統建構完成后,設計者還會通過實踐調試以及輸人新的數據集的方式,不斷更新迭代算法的運算邏輯,從而提升人工智能量刑系統量刑結論的準確性和可靠性[5」。實踐表明,人工智能量刑系統在提升量刑的中立性、高效性、精準性等方面優于法官量刑,這些優勢表現在以下三方面:

其一,人工智能量刑能夠有效提升量刑的中立性和客觀性。由于個案的具體性和特殊性,無論是刑法條文還是量刑規范,都只能規定一個量刑區間。在這一區間內,法官需依照案件的具體情節展開裁量以確定刑期。由于沒有明確的裁量參照,在具體量刑實踐中,法官不但容易受到人情、金錢等外部因素的影響,還可能會受到個體的道德觀念、知識背景、情感偏向等隱性因素的影響,從而做出具有偏向性的量刑抉擇。對此,拉倫茨指出,“對于量刑而言,當遭遇司法裁判不確定的法律概念或評價標準的判斷余地時,法學的主要任務之一便是盡量縮小法官決定的空間,也即在此范圍內,法官只需做出決定”[6]。

人工智能量刑具有自動化的特質,一旦待決案件信息被輸入,便會以一套事先確定的、經過可靠性驗證的標準對案件展開自動化量刑。這樣的量刑方式能夠有效杜絕人為干預司法量刑的可能性,從而以技術理性規制了司法自由裁量,保障了量刑的中立性和客觀性。例如,斯凱姆和洛文坎普在對美國用于評估罪犯再次犯罪可能性的人工智能系統(Post Conviction Risk Assessment,PCRA)是否存在歧視現象展開研究后指出,“證據表明,和具有不透明、不一致、不準確的人類法官以及已經被證明會助長種族歧視的量刑指南相比,PCRA程序不會導致對高風險罪犯判處更多的刑罰。并且沒有任何證據表明,當前讓人類法官抑或通過量刑指南評估再犯風險比應用一種經過充分驗證的、不帶偏見的風險評估工具更加明智和可取”[7]。

其二,人工智能量刑具有高效性和精準性的特質,能夠有效提升司法量刑的效率和質量。對于量刑工作,法官不但需要遵循繁瑣的量刑程序,還需要投人大量的時間用于重復性、機械性的刑期計算和說明。這不但降低了司法效率,也增加了訴訟參與人員的訴訟負累。人工智能系統憑借數據存儲和算力優勢,通過機器學習的方式復刻規范化的法官量刑過程,將這一模型應用于待決案件,可以在短時間內自動得出量刑結論,有效提升司法量刑的效率。司法實踐中,海南高院運用“量刑規范化智能輔助辦案系統”裁判案件和制作法律文書,其數據表明,這一系統將15家試行法院量刑規范化案件的裁判時間縮減了約 50% ,程序性法律文書的制作時間更是縮短近 90%[8]

人工智能在實現高效性的同時,還憑借其科學化量刑的優勢,保障量刑的確定性和精準性。司法實踐中,刑期往往不是根據單一的情節確定的,而是多種量刑情節綜合考量的結果。限于立法的概括性、簡潔性和包容性,其只能列舉出單一的量刑情節區間,而不可能對海量的量刑情節組合作出規定。規則的真空決定了法官的量刑多是一種具有模糊性的估堆行為,法官在自由裁量活動過程中充滿隨意性和偶然性,由此造成具體刑期的不確定。人工智能系統的量刑邏輯是依靠強大的算法和算力,對裁判文書海量數據展開深度學習,并通過多元線性組合模型的建構,全面考量各量刑情節在量刑結果中應當占有的比重。在此邏輯下,人工智能系統能夠精確量化被告人犯罪行為和刑期之間的關系,從而有效避免法官估堆量刑的不確定性和非理性化風險。例如,白建軍以十四萬余份的道路交通肇事案件為樣本,利用多元線性回歸法建構了法定量刑情節與量刑結果之間關系的統計模型,其結果表明,這一關系模型可以有效預測具有多個法定量刑情節的交通肇事案件的量刑結論,其將量刑的確定性由原來的 30.5% 大幅提升到了 73.4% [9]。

其三,人工智能量刑具有預測性,可以有效發揮量刑在實現一般預防與特殊預防中的作用,從而降低羈押率和犯罪人的再犯風險,減少社會相關犯罪行為發生的概率。對于特殊預防,法官不但需要考察犯罪人犯罪前后的相關表現,還要考慮其人格、知識水平、家庭狀況等因素;對于一般預防,法官則需要關注量刑是否能夠有效抑制民眾對相關犯罪行為的模仿心理、能否實現民眾對法律規范的信賴感和對犯罪報應的滿足感最大化。司法實踐中,由于刑事司法的被動性、司法資源的匱乏性、法官認知的有限性以及司法裁判的時效性,法官往往很難全面發掘、科學評估與犯罪人的人身危險性相關材料,也無法獲得和參照“刑期輕重與一般預防效果之間相關關系”的科學模型,因而多數情況下法官只能憑借經驗展開模糊量刑,這就容易造成量刑的不確定性,進而削弱量刑的預防效果[10]。

隨著信息社會的到來以及人工智能技術的發展,人工智能輔助量刑算法能夠對量刑對象展開全面和深人的數據追蹤,并依照這些數據科學評估量刑對象的犯罪行為、生活環境等可能影響其人身危險性的數據信息,從而做出綜合研判,確定合理的量刑結論。同時,人工智能算法還可以依照大數據建立刑期區間和社會犯罪率之間的關系模型,從而劃定不同犯罪的合理量刑區間,最大限度地提升量刑的一般預防效果。當前以再犯風險評估算法為代表的量刑風險精算預測模型已經被應用到許多國家的輔助量刑工作之中,實踐表明其對于預防犯罪的發生具有積極效果。例如,伯克、索倫森等人使用一種隨機森林算法對28646 起因家庭暴力被指控和保釋的罪犯在未來兩年內是否可能實施新的家庭暴力犯罪展開預測。結果表明,依照現行做法,在獲釋的人中,約有 20% 會在兩年內因新的家庭暴力犯罪而被捕。如果使用目標算法,只釋放那些預計在兩年內不會因家庭暴力被捕的罪犯,那么失敗率可以減少近一半,也即可以避免超過2 000起家庭暴力再次犯罪案件[1]。

二、人工智能輔助量刑的異化風險

當前,人工智能相關技術在司法領域的發展和應用還處于探索階段,其在提升量刑的中立性、高效性、精準性帶來變革性契機的同時,也面臨著一系列技術、法治和倫理上的異化風險。由于量刑關系到被告人的基本權利以及社會的長治久安等重大問題,因而,我們有必要細致梳理人工智能輔助量刑的相關風險,從而為提出具有針對性和可行性的應對方案奠定基礎。

(一)人工智能輔助量刑的技術困境

1.人工智能量刑系統受裁判文書的全面性和優質性影響

作為人工智能量刑系統建構的基礎性資料,裁判文書的數量和質量直接關系到量刑系統建構的科學性和可靠性。然而,當前相關裁判文書的全面性和優質性卻無法得到有效保障,究其原因有三方面:

首先,人工智能量刑的精準性和所學習的大數據樣本數量息息相關,“喂養”人工智能系統的裁判文書越全面,人工智能系統所能提取的量刑要素就越精細,其量刑結果也就越精準。雖然我國裁判文書的公開取得了顯著成績,但是受不同法院的公開意愿、公開能力、公開風險等因素影響,我國裁判文書的公開率總體上并不如意。有學者統計了某省各級法院的裁判文書發現,已公開裁判文書占應公開文書的比率僅為 50% 左右,且不同級別法院裁判文書公開率有很大的差異,而比率最低的法院僅為 26% [12]。

其次,已公開的裁判文書的質量難以得到有效保障。由于裁判文書公開規定不明確、相關考核指標不科學,以及為了減少政治、輿論、追責風險等原因,我國已公開的裁判文書存在著選擇性公開、重復公開、簡化公開,以及有意隱去對酌定情節考量的相關內容等問題[13]。可供學習的裁判文書的隨機性、重復性、片面性、偏向性特質使得人工智能量刑系統不但無法全面掌握法官的量刑經驗,還有可能被裁判文書誤導而116

出現選擇性偏誤的風險。

最后,由于地域之間的經濟、政治、文化、習俗等存在差異,為了保障人工智能量刑系統的區域適用性,便需要將可供人工智能量刑系統學習的裁判文書予以限定。但是,這又會引發人工智能量刑系統的適應性與精準性悖論:建構量刑模型的數據來源范圍越小,其量刑結果越符合本地實情,這也意味著數據的顆粒化程度越低,偏離同案同判目標的可能性也就越大。反之,用于建構量刑模型的數據來源范圍越大,數據要素的顆粒化程度就越高,但量刑結論就越無法兼顧地域差異,便容易造成量刑的系統性偏差[14]。

2.人工智能量刑系統存在量刑不當的風險

由于關涉當事人的重大利益、社會長治久安以及司法整體公信力的建構,民眾對于人工智能輔助量刑的結論正確率要求往往高于人工智能系統在其它領域的應用。而與法官基于因果量刑邏輯得出的結論相比,基于相關關系建構的人工智能量刑模型在理論上存在更高的決策偏誤風險。維克·托邁爾-舍恩伯格等人指出,由于算法所注重的數據和結論之間的相關關系僅僅是人為建構的一種認知方式,這種認知方式會忽略一些與決策相關的、具有豐富性和偶然性的社會、經濟等因素,從而容易造成算法模型片面地以實然推測應然,根據過去而預測將來,最終出現決策疏漏的風險[15]。和人工智能在其它領域的應用不同的是,由于量刑領域涉及被告人的人身自由、生命、財產這些最基本的權利,因而,無論是對被告人還是社會民眾來說,該領域的容錯空間極低。基于統計學意義上相關性概率而建構的算法量刑模型并不能保障百分之百的正確率,并且由于人工智能量刑系統自動化和黑箱化的決策特質,使其存在大規模量刑不當的風險,而這樣的風險顯然是社會民眾難以接受的。

(二)人工智能輔助量刑的司法難題

1.被告人的程序性權利難以保障

由于算法黑箱的存在,被告人深度參與量刑過程、全面獲取量刑解釋、及時得到有效救濟等程序性權利都會遭受到一定程度的侵害,從而會降低量刑的可接受性。

一方面,人工智能輔助量刑削弱了法官和當事人在司法量刑過程中的親歷性,尤其是對于辯護律師和被告人,他們可能既無法參與相關證據的質證、對相關量刑情節的認定工作,也無法就被告人的主觀惡意性、人身危險性,以及相關法律條文的理解等和法官展開有效溝通。研究表明,在對司法程序正當性的認知中,當事人對親歷性、過程控制性以及裁決者是否有耐心傾聽的重視程度往往要超越裁決者的中立性[16]。通過人工智能輔助量刑便意味著原有遞進式的訴訟程序被階段化量刑結論取代,進而當事人和法官之間的聯系被削弱甚至阻斷。失去了對量刑過程的參與感和控制感,當事人對量刑結論的認可性和接受度也將隨之降低。

另一方面,由于算法專業壁壘和算法黑箱的存在[17],甚至是算法開發人員也難以全面和清晰地闡明不斷自我迭代和更新的量刑系統的數理結構。這就造成缺乏計算機相關知識的法官往往只能告知當事人量刑系統得出的量刑結論,卻無法給出量刑決策的依據、原理、影響量刑的實質因素等信息。而法治是理由之治,不能展開釋法說理、缺乏可驗證性的量刑結論對于當事人往往也是缺乏可預測性、可信賴性和可接受性的[18]。此外,由于缺乏對量刑結論的解釋,被告人也無法認定相關判決在事實認定、法律解釋、裁量傾向等方面是否存在問題,進而其通過質疑人工智能在量刑中存在裁量情節認定不當、法律適用畸重而提出上訴、申請再審等獲得有效救濟的權利也面臨被架空的風險。

2.量刑權力的專屬性受到挑戰

采取技術外包方式建構的人工智能量刑系統存在著引發司法量刑權被技術公司俘獲,法官被算法馴服的風險。

一方面,量刑系統的技術專業性可能引發法院無形中將量刑權力移轉給技術公司的風險。當前,諸多法院使用的量刑系統都是采取外包或合作的方式由科技公司建構的,如上海刑事審判輔助系統是由上海高院和科大訊飛公司合作開發的,北京“睿法官”是由北京高院和華宇元典合作開發的,被數百家法檢機關使用的“小包公\"智能定罪與量刑系統則是由廣東博維創遠科技有限公司聯合刑事法官、檢察官、人工智能專家等創建的。在創建過程中,科技公司往往會主導量刑變量選取、算法邏輯架構、要素量化標準確定甚至裁量浮動比例調整等工作,并且由于法學知識和人工智能知識的專業性和精細化,這種由于知識體系分野、科技知識滲透以及權力和知識相互勾連[19]所造成的科技公司無形中獲取司法量刑權的趨勢在短期內將持續加劇,甚至可能造成科技公司無形中主導司法量刑的局面。

另一方面,受“從眾心理”“認知吝嗇法則”“自動化依賴心理”“責任隔離思維”的影響,法官時常會過度依賴人工智能量刑系統的量刑結論,而喪失批判或質疑人工智能量刑合理性的能力。研究表明,人類很難擺脫習慣性依賴機器決策的心理,“雖然自動化決策系統明確地只被用來作為人類決策的輔助工具,但出于對自動化邏輯的信任、缺乏時間、追求便利以及推卸責任等原因,即便參與者明確認識到自動化決策系統并不完全可靠,但仍更傾向于遵循自動化決策系統的指令”[20]。雖然當前人工智能量刑系統還被定位為量刑輔助的角色,但是這種名義上的“輔助”在實踐中時常會異化為實質上的“主導”,人工智能輔助量刑的結論不但可能會對法官的量刑產生“錨定效應”,甚至還可能產生支配風險。然而,司法量刑權是法院和法官通過民眾和法律授權獲得的專有權力,人工智能量刑系統在未經過正當程序以及法律授權的背景下,攫取專屬于法院和法官的量刑權的正當性和合法性都將遭受質疑和挑戰。同時,并未實質參與庭審的人工智能及其背后的科技公司決定量刑幅度還將違背量刑中的直接原則和言詞原則,其與庭審實質化的改革目標是背道而馳的。

3.責任分配難題

合理的責任制是保障司法量刑公正性的前提和基礎,在完善的司法責任追究機制下,法官為了避免因量刑行為違法或不當而被追責的風險,往往會努力確保量刑的公正性。當引入人工智能量刑之后,原有的責任承擔機制便面臨新的挑戰:首先,由于人工智能是否能夠成為法律主體就存在極大爭議[2],具體到量刑領域,替代法官展開量刑的人工智能系統是否能夠成為量刑違法或不當的擔責主體問題將伴隨司法人工智能法律主體地位的爭議而持續存在。其次,由于頂層設計的粗疏、具體追責規范的缺失等原因,我國現有司法責任機制的建構和實施面臨著諸如追責標準模糊、追責程序和追責主體不明確、擔責方式繁雜、追責實施機制行政化等諸多難題[22]。在這樣的背景下,人工智能對法官量刑的介人無疑進一步加劇了追責機制建構的復雜性和爭議性。例如,由于人工智能輔助量刑的專業性、技術性和黑箱化,如何發現并界定人工智能輔助量刑是否存在違法或不當的情形將成為難題。最后,雖然受制于當前人工智能量刑技術的局限性以及原有司法制度的慣性,人工智能只能為法官提供一些量刑建議。正如上文所指出,實踐中法官往往會過于依賴人工智能系統提出量刑建議,從而盡量限縮自身的裁量空間以減少量刑出錯而擔責的風險。當面對這種名實分離的復雜情境時,無論是法官還是人工智能的開發者,都將有充足的免責理由,這無疑進一步加劇了責任界定和分配的模糊性和爭議性。

(三)人工智能輔助量刑的倫理挑戰

1.算法歧視風險

用于量刑的算法系統在建構和維護的過程中難免會受到數據和算法設計目的的影響而將人類的偏見映射其中,從而造成算法偏離預設的客觀中立立場,出現量刑畸輕或畸重的風險。

一方面,由于自身知識結構偏差、個體內在偏見、對司法量刑規律理解不足等原因,算法設計和維護人員在根據法院的委托建構基礎函數、對樣本判例相關要素打標簽、修正和優化量刑算法模型等的過程中,難免會忽視或強化某些可能影響量刑公正性的因素,最終造成人工智能量刑模型存在歧視少數群體、弱勢118

群體等的風險。

另一方面,用于建構量刑系統的數據本身不可避免地內涵人類偏見,受“偏見進,則偏見出(bias in,bi-as out)”[23]定律的影響,人工智能量刑算法難免會學習到內含于數據集中的人類法官的量刑偏見。法律文書是人工智能量刑系統建構的基礎性材料。然而,受法官個體的年齡、性別、受教育程度、生活環境,以及被告人的經濟水平、律師的辯護能力、地區的法治環境等因素影響,供人工智能量刑系統學習的裁判文書往往會存在一定的歧視傾向,并反映到量刑結果之中。擁有深度挖掘、要素關聯聯想、數據抽象和概括能力的人工智能量刑系統在對這些裁判文書展開學習時,便難免會習得隱含于裁判文書中的歧視因子,從而做出具有歧視性的量刑決策。例如,參考了數十年相關量刑案例而建構的用來評估被告人再犯風險的COMPAS系統已經被廣泛應用于美國亞利桑那州、科羅拉州等地法院,以幫助法官決定是否對被告人判處更輕或更重刑罰。而非盈利機構ProPublica在對COMPAS系統展開測試后發現,這一系統存在對黑人再次犯罪的評估中不當地給出過高分值的風險[24]。

2.價值判斷難題

在量刑的過程中,無論是對責任刑中行為人非難可能性的考查,還是對預防刑中行為人的人身危險性的判定,都需要裁決者展開一定的價值判斷。因而,價值判斷問題是量刑過程中必須要考慮的核心問題之一,而以數字化的方式還原問題情境的人工智能系統往往難以有效應對量刑中的價值判斷問題[25]。

一方面,量刑主要是為了通過刑罰制裁的方式以實現懲罰和預防犯罪的目的。無論是對行為人社會危害性的評價,還是對其人身危險性的評價,都會涉及到價值判斷問題,量刑結論只有充分考量處罰目的和處罰效果,才能夠滿足社會對司法裁判的實質正義訴求[26]。但量刑時需要考慮諸如社會環境、情境變遷、文化傳統、犯罪背景、價值觀念等非規范性價值評價因素具有多元性、流動性、地域性、開放性等特質,往往難以被人工智能量刑系統予以量化和通約,從而會造成人工智能量刑系統難以處理個案中特殊的、具體的、豐富的酌定量刑情節,最終造成其無法滿足個案量刑的實質公正性要求。

另一方面,在對犯罪行為的社會危害性以及行為人的人身危險性的相關酌定量刑情節展開篩選、權衡時,難免會涉及到價值選擇和排序問題。但是,由于人工智能量刑系統是通過預設價值排序或復制人類價值決斷實踐經驗而開展價值抉擇的[2],這就決定了其只能處理符合預設情境下的價值排序問題,而無法針對個案尤其是新類型個案的具體情境做出具有個性化的價值選擇。人工智能量刑系統的這一特質就將其可適用范圍限縮在了那些知識結構特定且封閉、是非對錯明確、潛在可能單一易辨的刑事案件之中[28]。

三、人工智能輔助量刑異化風險的應對方案

面對人工智能輔助量刑應用中的諸多新挑戰,我們應當在其尚未形成“技術鎖定效應”之前,積極提出具有針對性、前瞻性、全面性和可行性的風險應對方案,從而在最大限度發揮人工智能輔助量刑正向效應的同時,盡可能減少相關系統落地應用可能引發的危及量刑正義的風險。

(一)明確人工智能輔助量刑案件的適用范圍

鑒于人工智能量刑系統在正確率、責任承擔和價值判斷等方面的不足,有學者提出將其視為法官量刑的輔助性工具:人工智能系統可以憑借自身技術優勢提出量刑建議,而是否被采納還需要斷案法官做出最后決定[29]。本文認為,我們應當基于當前人工智能量刑系統的發展現狀和改進趨勢,為人工智能量刑系統劃定合理的案件適用范圍以及長期發展的方向,從而最大限度地發揮技術革新在提升刑事量刑質效中的變革性作用。為此,當前我們可以將人工智能輔助量刑適用于那些較為簡單的案件,而復雜案件則更多地需要交給法官處理。這是因為:

其一,簡單案件往往意味著更少的裁量、更少的價值判斷、更完善的案卷材料、更低的量刑偏誤風險和更高的民眾接受度。在與法官的量刑相比,機器決策在保障簡單案件量刑的準確性方面更具優勢。對此,文森特指出,“即便法官相較于機器能夠做出更加細致入微且經過準確校準的裁決,但并非所有的案件,尤其是在較低級別的犯罪中,法官并不愿意投入大量的時間和注意力以保障決策的準確性,因而,算法決策在刑事司法中最大的優勢就在于提高日常案件決策的準確性”[30]。

其二,將存在較大爭議、需要展開自由裁量以及價值判斷的疑難、復雜、新型案件交由法官處理表明法官的量刑權并未被算法或技術公司俘獲。這是因為人工智能量刑系統處理的簡單案件僅是重復法官的量刑經驗,而那些涉及規則發展、規則創制以及自由裁量的疑難的、復雜的、新型的案件則屬于經驗的創制活動,由法官主導這些案件的處理說明法官仍然掌握刑事量刑權。

其三,將簡單案件交由人工智能量刑系統處理還能夠有效提升民眾對量刑結論的接受程度。這是由于簡單案件往往事實明確、法律清晰,因而發現人工智能系統量刑的誤差也較為容易,且糾錯成本較低。這會降低民眾對人工智能量刑系統黑箱化和大規模錯判的擔憂,從而提升民眾對人工智能量刑系統高效性和公正性的認同感。

在明確了人工智能量刑系統的適用范圍之后,還需要解決如何在具體司法實踐中區分出簡單案件和復雜案件的問題。對此,本文認為將認罪認罰從寬的輕罪案件作為人工智能量刑的主要適用對象是比較合適的,其原因在于:一是從前期試點和當前實踐經驗來看,認罪認罰從寬案件占刑事案件總量的比重較大。在試點法院中,適用認罪認罰從寬審結的刑事案件占審結刑事案件總數的 50% 左右,并且適用認罪認罰的案件也以三年以下有期徒刑的輕罪案件為主,占比達到 90% [31]。最高人民檢察院發布的《刑事檢察工作白皮書(2024)》指出,2024年適用認罪認罰從寬制度的人數為 1698902 人,適用達率 86.9% [32]。這些數據表明,當前認罪認罰從寬的輕罪案件占刑事案件的比例較大,如若將這些案件應用人工智能予以量刑,將會大幅降低法院量刑的工作量,從而有助于節省司法成本、緩解法院案件多人少的矛盾。二是輕罪案件往往事實清楚,爭議不大,從而易于形成結構化、類型化、確定性的裁量數據,符合人工智能決策標準化、模塊化、統一化、流程化的特征。三是輕罪案件的刑期具有較強的可預測性。因而,即便出現人工智能量刑偏誤的情形時,發現和糾正量刑偏誤的成本也更低,這意味著其對司法裁判整體公信力可能產生的潛在危害也更小。此外,由于輕罪案件的刑期較低,和重刑案件相比,民眾對于此類案件出現誤判的接受度也相對更高[33]。

可以預見,隨著人工智能量刑相關技術的迅速發展和完善,以及相關應用實踐的不斷深化,通過人工智能展開量刑的案件范圍將逐步擴展。對于人工智能量刑系統適用案件的擴張前景而言,今后我們還可以考慮進一步將法定量刑情節較多而酌定量刑情節較少、規范性評價較多而道德評價較少的法定犯納入人工智能輔助量刑的案件適用范圍內。

(二)有效應對算法難題

算法是人工智能系統開展量刑的核心,積極應對相關算法決策可能引發算法黑箱、算法歧視、算法漏洞等問題,也是保障人工智能量刑結論可預測性、可接受性和公正性的前提和基礎。因此,應當從以下兩方面著手有效應對算法難題。

其一,設立算法審查委員會,采取定期和不定期的方式展開事前、事中和事后審查,從而保障人工智能量刑系統的公正性、安全性和穩定性。隨著人工智能技術發展和應用的不斷深化,設立專業的監管機構對其展開全面審查監管已經是大勢所趨。因此,在統一的人工智能審查機構中下設司法人工智能審查機構對用于量刑的人工智能算法展開審查也具有必要性和可行性。在人員的組成上,對人工智能量刑系統展開審查的司法審查機構應當由法官、法學專家、律師、算法工程師、社會公眾代表等組成,從而保障機構人員的專業性、代表性、權威性。在職能上,審查機構不但應當對人工智能量刑系統的數據來源是否合理、量120

刑結論是否存在偏差、量刑算法是否存在安全漏洞等展開技術性審查,還應當就不同量刑要素加權依據、量刑結論是否存在歧視、量刑結論能否適應不同地域實際需求等展開實質性的內容審查。

對于審查的方式和流程,在人工智能量刑系統投人使用前,審查機構應當就算法設計建構過程中樣本案例的篩選、知識圖譜的設計、特征的選擇和樣本標注等工作展開審查,從而確定算法設計的科學性和合理性。在人工智能量刑系統建構完成后,審查機構還應當就輸出結果展開測試,以確定量刑結果是否符合算法設計目的以及量刑偏差是否在可接受范圍內。在量刑算法投入使用后,審查機構可以采取定期抽查、隨機抽查、依申請檢查等方式,對人工智能量刑系統展開長期和動態監管,從而保障人工智能量刑系統的適應性和可靠性。

其二,建立完善的案例篩選和公開制度,為人工智能量刑系統提供優質且全面的數據學習集。首先,我們可以借助現有的案例指導制度和優秀案例評選制度等機制,選擇那些較為優質的案例作為建構和矯正人工智能量刑系統的基礎性素材來源,從而保障該系統的科學性和可靠性。其次,為了保障相關案例數據的完整性,我們可以充分利用法院數字化、信息化改革的成果,通過電子化、自動化的方式,實現相關案例從立案到裁決的全過程、全方位信息化,從而為人工智能量刑系統提供司法量刑的全樣本數據。最后,還可以通過算法自主清洗、法官在量刑實踐中標注以及審查機構定期審查等方式,對相關案例集不斷進行優化和更新,從而保障用于建構人工智能量刑系統相關案例的優質性[34]。

其三,我們還應當注重相關技術手段的應用,從而以技術治理技術,以代碼規制代碼。例如,面對人工智能輔助量刑中可能產生的歧視風險,我們不但可以通過“歧視感知數據挖掘技術”以自動化的方式及時發現人工智能量刑系統中可能存在的歧視風險,還可以通過調整數據特征的方式將歧視因素予以中立化處理,從而保障人工智能量刑系統的中立性。在實踐中,克里斯托·楊等學者就通過調整統計方式等技術手段,對其所設計的預測犯罪算法中的種族因素展開了中立化處理,這一算法在紐約市預審系統的實地應用結果表明,其可以得出比一般算法更加契合平等保護條款的計算結論[35]。

(三)積極保障當事人的訴訟權利

刑事訴訟權利旨在確保當事人在刑事訴訟過程中能夠受到公正對待,防止其受到不公正的指控和懲罰。因此,運用人工智能輔助量刑系統應當從三方面保障當事人的訴訟權利:

其一,應當保障當事人對于人工智能量刑系統的知情權和選擇權。賦予當事人對于法官使用人工智能系統量刑的知情權和選擇權是保障當事人訴訟權利的基礎和前提。因而,如若法官選擇采取或參照人工智能展開量刑時,不但應當事先明確告知當事人相關量刑結論是通過人工智能量刑系統得出的,還需要告知當事人擁有拒絕法官使用這一系統以及提出異議和獲得救濟的相關權利。當被告知后,當事人便擁有了選擇或拒絕人工智能輔助量刑的權利,其一旦拒絕人工智能輔助量刑,相關量刑工作只能由法官承擔。

其二,明確被告人擁有要求法院就人工智能的量刑結論做出合理解釋的權利。算法代碼的公開涉及商業秘密相沖突以及公眾缺乏相關專業知識無法理解的問題,因而將以民眾可理解的方式對量刑系統的設計目的和運行原理做出解釋被認為是更具可行性的公開方案[36]。當前,通過研究人員開發的“概念激活向量測試”(TCVA)算法,可以將不同要素對決策結論的影響程度以一種量化和直觀的方式予以顯示,從而能夠以一種對用戶友好的方式解釋算法的內部運行狀態[37]。由此,我們也可以利用這一算法,將人工智能量刑系統的數據來源、核心變量值、特征權重比值、誤差范圍、工作原理以及量刑規律等信息以圖片、視頻等可視化、友好化的方式在法院官網或裁判文書公開網中予以展示。

其三,還應通過審級制度和專業援助的方式為當事人提供有效的救濟渠道。首先,由于二審或再審刑事案件往往涉及爭議較大、案情也更為復雜,因而不宜在這些案件中應用人工智能輔助量刑,這也就意味著只能將人工智能量刑系統應用于一審案件。同時這也是保障審級制度順利開展的前提和基礎。其次,如若當事人對一審中人工智能輔助量刑的結果有異議而申請二審或再審時,二審或再審便只能由人類法官審理。這是因為,人工智能量刑系統的量化邏輯和經驗邏輯具有較高的一致性,如若仍然采取人工智能輔助量刑實質上便意味著當事人的上訴和申訴權利被剝奪。最后,人工智能量刑系統高度的專業性使得和檢察官、法官相比,被告人往往會因為相關專業知識的缺乏而在訴訟能力上處于劣勢。為了保障被告人獲得相對平等的訴訟能力,應當賦予被告人及其律師擁有申請獲得專業人員幫助的權利,從而避免人工智能量刑系統應用可能造成的控辯雙方在訴訟能力上嚴重失衡的風險。

(四)探索合理的責任分配機制

對于人工智能輔助量刑出現錯判、誤判的責任分配方案,本文認為對于那些需要由法官主導量刑的疑難的、復雜的、新型的案件責任仍然由法官承擔并不存在較大的爭議。而對于人工智能量刑系統處理的簡單案件而言,主要存在由建構人工智能量刑系統的企業擔責、法官擔責、法院擔責、設立保險機構擔責等方案。本文認為,將法院作為人工智能輔助量刑出現錯判、誤判的責任承擔主體更為合理。這是由于:一是法院作為擁有刑事懲罰決定權的國家機關,其權威性是由國家公權力背書的,人工智能量刑系統得出的量刑結論只有經過法院的認可才能具有相應的法律效力。因而由其承擔賠償責任更加契合我國訴訟權力的構造機制,也更具合法性。二是從遭受錯判、誤判的受害者的角度來看,由于技術能力、技術認知壁壘的存在,無論是由技術公司還是由人工智能量刑系統擔責,都會增加其舉證和維權負擔,進而增大敗訴風險。因此,從維護受害者權利的角度出發,由法院擔責也更具合理性。三是相較于企業和個人,法院在賠償能力上也更具優勢。同時,法院作為使用人工智能量刑系統的直接獲益者,由其承擔量刑出錯的成本也更具正當性。

在法院承擔相關賠償責任之后,其可以通過向算法建構和維護平臺追償的方式以合理約束算法建構和維護人員的行為。同時,法院在購買相關人工智能量刑系統時,還可以要求算法建構和維護機構購買一定數額的保險,以保障追償工作的順利展開。此外,我們還應當注意到相關刑事責任分配的問題,對于算法建構平臺和設計人員,應當查明其是否出于故意或重大過失而致使量刑系統出現錯判,對于當事法官,則應當查明法官是否盡到一定的注意義務,從而確定是否追究算法建構平臺、設計人員和案件法官的刑事責任。

四、結語

從刑事量刑這一具有較高的結構化、計量化、審慎化的領域入手,全面分析人工智能量刑系統的應用優勢、風險,并針對風險提出具有前瞻性和系統性的風險應對方案不但有助于量刑領域的優化改革,而且也將為人工智能在整個司法領域的應用提供參照經驗和路徑指引。當然,本文在對人工智能輔助量刑相關異化風險及其應對方案的分析中還存在諸多不足:如人工智能輔助量刑算法審查機構在現有司法審查監督體系中的定位問題還不清晰;對于界定人工智能輔助量刑出現違法或不當的標準還有待進一步明確,等等。因而,我們應當認識到對于人工智能量刑系統發展前景的展望并不是一勞永逸的,還需要我們隨著實踐的探索而不斷提出更具場景化、精細化和系統化的調整方案,最終才能不斷提升人工智能量刑系統的公正性和可信賴性。

參考文獻:

[1]洪濤.正當程序視角下人工智能輔助量刑的挑戰與重塑[J].東北大學學報(社會科學版),2025(2):111-120.

[2]鄭海味,賴利娜,章奕寧.人工智能量刑系統應用的公正性、倫理價值及限度[J].治理研究,2024(3): 142-156+160

[3]甄航.智慧量刑的主體沖突、技術供給與方法回應[J].江蘇社會科學,2024(2):175-184.

[4]季衛東.電腦量刑辯證觀[J].政法論壇,2007(1):124-128.

[5]JIMS.,ROBYNS.,ALEXA..Transparencyand Fairness inMachine Learning Applications[J].Texas Aamp;MJournalofProper-ty Law,2018(5) :443-463.

[6]卡爾·拉倫茨.法學方法論[M].陳愛娥,譯.北京:商務印書館,2003:177.

[7]JENNIFER L.S.,CHRISTOPHER T.L..Risk,Race andRecidivism:Predictive BiasandDisparate ImpactJ].Crimiology,2016 (4) :680 -712.

[8]方茜.海南法院大數據人工智能助力司法改革[N].人民法院報,2017-7-27(01).

[9]白建軍.基于法官集體經驗的量刑預測研究[J].法學研究,2016(6):140-154.

[10]張明楷.論預防刑的裁量[J].現代法學,2015(1):102-117.

[11]RICHARD A.B. ,SUSAN B.S.,GEOFFREY B..Forecasting Domestic Violence: A Machine Learning Aproach to Help In-form Arraignment Decisions[J]. Journal of Empirical Legal Studies,2016(1) :94-115.

[12]BENJAMINL.L.,MARGARETE.R.,RACHELE.S..MassDigitizationof Chinese Court Decisions:How to Use TextasDatain theField of Chinese Law[N].21st Century China Center Research Paper,2O17-O1-01(01).

[13]周佑勇,王祿生.智能時代的法律變革[M].北京:法律出版社,2020:104.

[14]王祿生.司法大數據與人工智能開發的技術障礙[J].中國法律評論,2018(2):46 -53.

[15]VIKTOR M.S.,KENNETH C..Big Data,ARevolution that Will Transform from HowWe Live,Work,and Think[M].Boston:Houghton Mofflin Harcourt,2013:73 -77.

[16]湯姆·R.泰勒.人們為什么遵守法律[M].黃永,譯.北京:中國法制出版社,2015:282.

[17]JENNA B..HowtheMachine Thinks:UnderstandingOpacityin MachineLearning Algorithms[J].Big Dataamp;Society,2016(1):1-12.

[18]陳銳,王文玉.論司法裁判中后果主義的適用定位與論證路徑[J].河北法學,2021(6):22-40.

[19]福柯.規訓與懲罰[M].劉北成,楊遠嬰,譯.上海:上海三聯出版社,2012:20-25.

[20]LINDA J.S.,KATHLEENM.,MARK D.B..Accountabilityand Automation bias[J].International Journal of Human-Com-puter Studies,2000(52) :701 -717.

[21]劉洪華.論人工智能的法律地位[J].政治與法律,2019(1):11-21.

[22]方樂.法官責任制度的功能期待會落空嗎?[J].法制與社會發展,2020(3):78-92.

[23]SANDRA G.M.. Bias In,Bias Out[J].Yale Law Journal,2019(8) :2218-2300.

[24]JULAA.,JEFFL.,SURYAM..Machine Bias:There’sSoftware UsedAcrosstheCountrytoPredictFuture Crimi-nals.And It's Biased against Blacks[EB/OL].(2016 -05-23)[2025-02-10]. htps://www. propublica.org/article/ma -chine - bias -risk - assessments - in -criminal -sentencing.

[25]黃春燕.法官量刑的自由裁量權與量刑公正的實現[J].山東師范大學學報(社會科學版),2021(3):136-145.

[26]彭文華.量刑的價值判斷與公正量刑的途徑[J].現代法學,2015(2):102-117.

[27]MICHAELA.,SUSANL.A..Machine Ethics:CreatinganEthical Inteligent Agent[J].AImagazine,207(4):15-26.

[28]HARRYS..Artificial Intellgence andLaw:AnOverviewJ].Georgia State UniversityLawReview,2019(4):304137.

[29]程龍.人工智能輔助量刑的問題與出路[J].西北大學學報(哲學社會科學版),2021(6):163-174.

[30]VINCENC..Fiess,ccoutabilityandTansparencyotesongorithicDecisionmakinginriminalJusticeJ].tenational Journal ofLaw inContext,2019(15):126-139.

[31]胡云騰.認罪認罰從寬制度的理解與適用[M].北京:人民法院出版社,2018:271.

[32]最高人民檢察院.刑事檢察工作白皮書(2024)[EB/OL].(2025-03-09)[2025-07-01].htps://www.spp.gov.cn/spp/xwfbh/wsfbh/202503/t20250309_688590.shtml.

[33]孫道萃.人工智能輔助精準預測量刑的中國境遇——以認罪認罰案件為適用場域[J].暨南學報(哲學社會科學版),2020/10).6478

[34]王文玉.算法嵌入政府治理的優勢、挑戰與法律規制[J].華中科技大學學報(社會科學版),2021(4):26-36.

[35]CRYSTALS.Y.,WILLD..Equal ProtectionunderAlgorithms:ANew StatisticalandLegalFramework[J].MichiganLawRe-view,2020(2) :346-350.

[36]CARY C.,DAVID L.. Transparency and Algorithmic Governance[J].Administrative Law Review,2019(1):1-55.

[37]BEEN K.,MARTINW.,JUSTNG..InterpretabilityBeyondFeature Aribution:QuantiativeTesting withConceptActiva-tion Vectors(TCAV)[EB/OL]. (2017-11-11)[2025-02-10].https://arxiv.org/pdf/1711.11279.pdf,2018.

(責任編輯:蒲應秋)

Positive Effects, Alienation Risks and Mitigation Strategies of Artificial Intelligence - Assisted Sentencing

WANG Wenyu1,2

(1.Law School of Southwest University,Chongqing,China,40O7OO;2.Post-doctoral Research Station. NorthwestUniversityofPolitical ScienceandLaw,Xian,Shaaxi,China,710000)

Abstract:Inrecentyears,theriseofanew waveofarticial intellgence basedonalgorithms,computing power,and big data has providedanewopportunitytoestablishamorecomprehensiveartificialintellgencesntencingsystem.Artificialintellgnceassistedsentencingnotonlyenhancestheobjectivityeficiency,andaccuracyofsentencingbutalsooptimizescrimeprevention effects.Howeerartialintellgnssistedntengstsestlliaeofcalexploaondfgf technologicalgal,andicalalienatiosks.Inesponse,itisimperativetorifeopeofassaplicabletticial intellgence-asistedsetening,enrustingthesytemwithanding minorofenseswhileleavingcomplex,hallenging,andnovel casesforjudicialsntencing.Toadresstheissuesarisingfromalgorithicdecision-makingelated toartificialintellgence,itis necessarytotakemeasuresasfolows:establishanalgorithmreviewcommiteetoscrutinizethesentencingalgorithmsystem; establisharobustsystemforcaseselectionanddisclosure;applyrelevanttechnological means togovern technology,ffectively enhancingthefaimessandreliabilityofartficialintellgencesentencingalgorithms.Litigants’proceduralrightsshouldbe safeguarded,astheyshouldbegrantedtherightstoinformation,choice,andalgorithmexplanation.Weshouldleveragethe appelatesymfoorrio;euldlsoprvdeproessoalssancetants,suinghefullproteoft proceduralrights.Courtsbearprimaryresponsibilityforerorsresultingfromartificialintellgence-sstedsntencing,thereby enhancing the rationality of the accountability mechanism.

Key Words:artificial intelligence;assisted sentencing;sentencing patterns;algorithm regulation

猜你喜歡
量刑法官輔助
貪賄犯罪終身監禁適用條件的完善
AI換臉詐騙案
實體處分主義的適用限度
江淮論壇(2025年4期)2025-08-13 00:00:00
二審終審制蘊含的法律命題及其制度展開
依據“最大張角”構造輔助圓的策略詳解
滾動數學的“魔環”
“構造輔助圓”在初中數學解題中的靈活運用
像保護大熊貓一樣保護黑土地
槌不離幾
萬松浦(2025年3期)2025-08-03 00:00:00
HepatologyResearch丨輔助經導管動脈化療栓塞術未能提升真正根治性切除后高危復發肝細胞癌患者的生存率:一項目標試驗模擬研究
主站蜘蛛池模板: 国产噜噜噜| 国产人免费人成免费视频| 51国产偷自视频区视频手机观看| 国产午夜无码专区喷水| 午夜爽爽视频| 国产另类视频| 91精品国产一区自在线拍| 乱系列中文字幕在线视频| 国产成人一区二区| 成人午夜久久| 91在线中文| 国产福利在线观看精品| 自偷自拍三级全三级视频| 中文字幕亚洲综久久2021| 91九色最新地址| 国产精品99r8在线观看| www.精品国产| 亚洲国产在一区二区三区| 人妻21p大胆| 美女国产在线| 国产亚洲精品精品精品| 精品国产Av电影无码久久久| 国产无吗一区二区三区在线欢| a级高清毛片| 中国精品久久| 国产丝袜第一页| 人人艹人人爽| 国产乱子伦手机在线| 国产精品99久久久| 精品国产网站| 亚洲第一黄片大全| 一本一道波多野结衣一区二区 | 国产无码网站在线观看| 日韩性网站| 日韩免费毛片视频| 特级aaaaaaaaa毛片免费视频| 国产91视频观看| 不卡视频国产| 91青青草视频在线观看的| 精品福利网| 久久亚洲高清国产| 国产91久久久久久| 综合人妻久久一区二区精品 | 成人亚洲视频| 国产亚洲欧美在线视频| 亚洲国产理论片在线播放| 成人一级黄色毛片| 成年片色大黄全免费网站久久| 影音先锋丝袜制服| 国产精彩视频在线观看| 国产三级精品三级在线观看| 国产特级毛片aaaaaaa高清| 国产屁屁影院| 欧美在线视频a| 尤物特级无码毛片免费| 无码免费试看| 精品国产美女福到在线直播| 国产激爽大片高清在线观看| 精品国产电影久久九九| 精品夜恋影院亚洲欧洲| 高清久久精品亚洲日韩Av| 夜夜爽免费视频| 成人午夜亚洲影视在线观看| 婷婷成人综合| 99久久婷婷国产综合精| 欧美日韩高清| 国产女主播一区| 精品国产黑色丝袜高跟鞋| 亚洲国产中文精品va在线播放| 日韩久草视频| 亚洲三级a| 尤物午夜福利视频| 欧洲精品视频在线观看| A级毛片无码久久精品免费| 欧美综合成人| 欧美激情,国产精品| 久久狠狠色噜噜狠狠狠狠97视色 | 香蕉eeww99国产在线观看| 日本伊人色综合网| 99伊人精品| 高清亚洲欧美在线看| 亚洲精品福利视频|