[摘 要] 再犯風險評估工具的應用與迭代,在有效避免司法裁決的主觀性風險的同時也對程序正義原則、法官獨立審判原則和有效辯護原則造成一定沖擊。一方面,使用算法驅動技術進行再犯風險評估可以根據預期危險對不同風險等級的對象實施差異化的管理,以實現刑罰個別化和犯罪治理精準化的治理目標,進而完善刑事司法資源優化配置。另一方面,算法模型存在的隱形歧視、不可解釋性、隱私侵犯等潛在漏洞引發侵犯個人權益的擔憂。為在刑事司法中推廣應用再犯風險評估工具,須從優化程序透明度的角度提升,通過建立獨立的監督機制以完善外部審查,減少算法偏見風險,為未來應用做好法律風險預防。
[關鍵詞] 再犯風險;人工智能;精算正義
[DOI編號] 10.14180/j.cnki.1004-0544.2024.09.014
[中圖分類號] D922.17;D922.16 [文獻標識碼] A [文章編號] 1004-0544(2024)09-0142-11
基金項目:最高人民檢察院檢察理論研究課題“相對不起訴的社會治理質效提升機制研究” (GJ2023C08)。
作者簡介:肖瀟雨(1996—),女,中南財經政法大學法學院博士研究生。
一、問題的提出
刑法的謙抑性是刑法學者所奉行的根本原則,因此刑罰一般被視為社會治理的最終手段。隨著風險社會的來臨,危險犯的大量出現使刑法的預防性功能進一步受到關注,刑法從懲戒性向預防性轉型逐步成為社會治理體系中的重要組成部分1。從我國刑法的修訂來看,刑法的預防機能逐漸凸顯。《刑法修正案(八)》和《刑法修正案(九)》都規定了對預備犯和未遂犯等未完成形態犯罪的處罰。隨著預防刑法的擴張和“寬嚴相濟”刑事政策的推行,刑罰本身有了愈發豐富的內涵和價值選擇,刑罰的適用愈發凸顯科學與效率相結合的要求。刑罰的目的究竟應當側重于報應還是功利,已不是僅靠形而上學的思辨所能解答,討論所依憑的標準也不再僅是“正義”“安全”“全體的福祉”等抽象價值。刑罰的追求在多大程度上得到了實現,刑罰所涉及的種種關系和利益是否達到平衡,正義或功利的目的是否實現,在很大程度上取決于這樣一個基本事實: 刑釋者回歸社會后是否再犯罪。因此,評估再犯風險至關重要,但評估和控制本身又是最不確定、最困難的,因為再犯風險是一種未然的可能狀態,其評估不僅依賴于客觀外顯的犯罪事實,也取決于主觀內在的人身危險性。所以,判定再犯風險就成為控制再犯的首要和核心問題。
人身危險程度被界定為犯罪行為人在未來再次犯罪的潛在危險性,即再犯可能性1。人身危險性的概念誕生于犯罪學,后來才成為刑法學共用的一個概念。從理論研究來看,我國對再犯可能性體系化的研究還要追溯到1992年司法部預防犯罪研究所李均仁主編的《中國重新犯罪研究》,該書著重于對影響再犯的因素進行提煉總結,而非研究如何對再犯可能性進行評估2。從實證研究來看,目前的研究重心是在對監獄釋放人群進行長期的跟蹤調查的基礎上進行人身危險性量表的研發3。整體而言,我國對再犯可能性的研究還停留在初級階段。相較于我國,西方國家再犯風險評估工具歷經了百年發展,目前已經形成了四代再犯風險評估工具:一是以臨床風險為核心的第一代評估工具。它主要由專家運用理論知識與臨床經驗來評估再犯風險,其局限性在于缺乏精確的基礎或標準,依賴于專家的主觀直覺與經驗,其可靠性和有效性無法得到驗證。二是以靜態風險因素為指標的第二代精算方式。它根據罪犯的性別、犯罪的性質、以前被定罪的次數和受害者等因素來評估累犯,通過標準化測算表幫助刑事司法專業人員相對評估個人在特定時期內與參照群體相比所表現出的風險指數。三是以靜態風險因素與動態風險因素相結合的綜合考察模式為主,以專家判斷為輔的第三代精算方式。它主要包括動態風險因素,如藥物使用、精神問題和反社會心理病態人格特征。四是以智能化分析為指標的第四代精算方式。它主要依賴于機器學習和大數據分析技術,能夠自動分析并學習大量的數據,并從中識別出影響個體再犯行為的關鍵因素4。這些因素包括犯罪者的年齡、性別、教育程度、家庭背景、犯罪記錄等,還涵涉更為復雜、微妙的因素,如犯罪者的心理狀態、生活壓力、社區環境等動態評估因素。算法驅動的再犯風險評估作為一種主動的風險評估形式,是通過人工智能和機器學習技術對大量的數據進行分析以評估個體的再犯風險,再根據預期的危險性,使用各種技術來識別、分類控制不同的群體和對象,從而達到評估和管理罪犯的效果5。在我國,人工智能技術在司法領域的應用已經取得了顯著的進展,以“206系統”為代表的多個智能輔助辦案系統廣泛應用于全國各地的法院,以實現對案件的高效、精準處理。雖然這些系統也初步涉及對人身危險性的評估,但并非專門的再犯風險評估工具。相較于西方國家的廣泛應用,在再犯評估中運用算法驅動技術在我國還處于起步階段,難以為我國再犯預防(特別是刑罰個別化)提供強有力的技術支撐。
隨著信息技術的迅速發展,特別是在國家以重點專項(司法專題任務) 資助智能化司法技術研發的大背景下,我國的再犯風險評估發展正迎來新的機遇。在研發我國再犯評估工具時需要充分認識到在再犯風險評估中運用算法驅動技術的運用前景與潛在風險,仍需要審慎地考慮幾個問題:一是,以對未來再犯風險的評估對人身自由進行限制是否具有正當性;二是,再犯風險預測工具的使用對程序正義、法官獨立審判等刑事訴訟基礎理論的沖擊;三是,算法工具本身存在的隱形歧視、算法“黑箱”問題會不會進一步引起刑事司法不公;四是,算法驅動的再犯風險評估在我國推廣可能面臨的技術困境以及如何以此為基礎推動智慧司法。
二、算法驅動的再犯風險評估的運用前景
算法驅動的再犯風險評估是指通過人工智能和機器學習技術構建準確高效的評估工具,對大量個人和社會數據進行分析以評估再次犯罪的風險1。其主要包含五個要素:第一,運用機器學習、數據挖掘與人工智能技術。構建算法模型以實現對大數據的智能化分析與挖掘,產生更加精細化的再犯評估結果。第二,評估過程的自動化與智能化。通過算法工具實現對數據的自動采集、清洗、分析與挖掘,降低人工操作的難度與工作量。第三,科學、精準與高效的評估工具。以算法為基礎,以數據為資源,構建能夠產生精準評估結果與科學判斷的評估工具,實現對評估對象風險因素的全面考量2。第四,跨部門協同。在數據采集、信息共享與結果應用等方面實現高效協同,這需要相關部門通力合作,共同推進評估工具的構建與應用。第五,兼顧人工審核。在司法實踐中運用再犯評估結果時必須提供必要的人工判斷、審核與監管,以防范算法誤判與偏差,為最終決策提供全面的判斷依據。
(一)算法驅動的再犯風險評估的應用場景
傳統臨床評估模式下,再犯風險的評估依賴于專家個人的臨床經驗,由于評估準確性較低和專業人員的缺乏,再犯風險評估主要應用于有限的緩刑、假釋等個案。隨著精算評估表的出現,再犯風險評估的準確性得到進一步提升,再犯風險評估開始擴大至預防刑的適用,但仍依賴于專家的評估,因此實際應用再犯風險評估的案件仍舊較為有限。而算法驅動的再犯風險評估的主要優點在于其評估的準確性和高效性,機器學習算法在同等時間內可以處理更多數據,并從中找出復雜的關聯因素和關聯模式,所以再犯風險評估結果通常比傳統的人工評估方法更準確。同時,自動化特性也大大提高了評估的效率,能夠在短時間內評估大量的個體。因此,在再犯風險評估中運用算法驅動技術可以突破傳統再犯風險評估的模式,進一步提高評估的效率和準確度,拓寬并豐富了再犯風險評估在刑事司法中的應用場景。
再犯風險評估在刑事司法中的應用場景較為多樣,根據刑事訴訟的進展階段可劃分為以下四大應用場景:(1)強制措施的適用。在審前羈押階段,檢察官和法官可以使用再犯評估工具來評估被告人的再犯風險,更全面地考慮其再犯可能性,根據必要性原則綜合考慮是否需要對被告人采取強制措施,確保合理地對待犯罪嫌疑人。(2)量刑決策。在判決過程中,再犯風險評估結果可以作為一個輔助證據,讓法官對被告的人身危險性有更準確的認識。檢察官在出具量刑建議書時,可以借助評估結果來提供更科學、客觀的建議,有助于法官做出更符合實際情況和社會安全考量的量刑決定。(3)社區安全管理。司法行政部門可以對刑滿釋放的人員進行再犯風險評估,進而采取必要的監管措施以確保社會的穩定。(4)社區矯正措施。在社區矯正機構中,再犯風險評估工具可以用于監測和評估矯正對象的再犯可能性,為制定矯正計劃和分配資源提供科學依據,從而提高矯正效果。由此可見,算法驅動的再犯風險評估工具在刑事司法應用中有廣泛的潛力,但其應該被視為輔助決策的工具,而非單一的決定性因素,刑事司法決策仍須由法官和檢察官等專業人員根據法律和證據作出。
(二)算法驅動的再犯風險評估的應用價值
提升評估效率,推動司法資源的經濟性利用?!斑t到的正義非正義”這句話揭示了效率在法律領域的重要性。算法驅動的再犯風險評估不僅是技術進步的體現,而且更深層次地凸顯了效率在犯罪治理中的價值。算法驅動的再犯風險評估主要是對復雜化的犯罪模式、高再犯率、公平正義的需求以及社會資源有效配置等問題所作出的反應。隨著科技的發展,犯罪方式和手段日益復雜化,例如網絡犯罪、金融犯罪等新型犯罪,使得犯罪預防和控制工作的難度增加。算法驅動的再犯評估通過自動化處理大量的犯罪數據,利用機器學習和其他數據分析方法,提升再犯風險評估的效率。與傳統的再犯風險評估相比,算法驅動的再犯風險評估工具能夠自動閱覽大量的法律文件,縮短人工審閱的時間,大幅提高工作效率1。
強化公正性原則,降低司法人員在裁決過程中的主觀偏倚。傳統的再犯風險評估主要依賴于法官、法醫、臨床心理工作人員的經驗和判斷2。他們通常會參考嫌疑人的歷史紀錄、家庭背景、職業等因素進行評估。然而,這種方法存在一定的主觀性,可能會受個體偏見的影響。例如,法官可能會因為過于保守而高估了嫌疑人的再犯風險,而其他法官可能會因為個人價值觀的影響而低估了嫌疑人的風險,這種主觀性可能會導致“同案不同判”的現象發生。與人工判斷相比,算法驅動的再犯風險評估可以有效減少主觀誤差與判斷偏差,提高判斷的準確性。有研究表明,算法驅動的再犯風險評估的準確性要高于臨床心理工作人員和司法人員的判斷3。這主要由于算法只根據事實和數據決策,不會受到個人價值觀、情緒或其他主觀因素的影響,同時算法可以綜合考慮更多變量,識別再犯因素之間復雜的交互作用4。因此,從理論層面看,其可提供更客觀公正和前后一致的風險評估。此外,算法驅動的再犯風險評估還可以進行持續學習和改進,以便更準確地評估再犯風險。但算法過度依賴歷史數據也存在局限,在提高準確性的同時如何避免算法偏差與不公平仍需探討。為實現再犯風險評估的廣泛適用,需要開發具有公平性與透明度的算法模型,并結合專家判斷不斷優化與完善5。
優化刑事司法資源配置,提升犯罪治理精準度。算法驅動的再犯風險評估可以產生更精準的再犯風險評估結果,為合理配置有限司法資源提供科學判斷的基礎,提高資源配置的準確性與效能。首先,傳統的資源分配方式往往受制于人為的判斷和經驗,導致資源使用效率不高。而算法驅動的再犯風險評估能根據個體的犯罪歷史、社會經濟背景等多元數據評估其人身危險性,有針對性地進行資源配置。因而,無論是治安執勤的警力投入,還是社區矯正機構的矯正資源,都能更精確地投向需求更迫切、風險更高的個體或群體,大幅提高資源利用效率。其次,基于精細化的評估結果,可以對不同再犯風險程度的對象制定差異化的監管與干預措施。將更多資源投入給風險較高的對象以采取更嚴密的監管,而對風險較低的對象則采取相對寬松的管理,以精準化運用資源。通過自動識別與分級管控高風險對象,實施個性化精準干預,以有效防范再犯風險,最大限度減少犯罪活動和危害。同時,基于精準的評估,可以設計更加個性化與針對性的矯治方案。這需要對不同對象采取差異化的教育、治療與社會引導措施,進而能更好地改善其心理與行為問題,降低再犯動機與可能性,提高矯治資源的使用效益1。最后,傳統的犯罪治理模式下,由于缺乏對個體差異性的深入理解,導致監獄行刑個別化的效果不甚理想。從預防性治理角度看,算法驅動的再犯風險評估能提前識別和管理可能的風險,使得犯罪治理能夠從事后處置轉向事前預防。這種模式的轉變不僅可以減少犯罪的發生,減輕社會負擔,也可以在一定程度上避免目標人群走上重新犯罪的道路。
及時反饋以修正刑事政策,降低再犯率。在再犯風險評估中運用算法驅動技術,能夠為刑事政策的評估與修正提供科學的判斷依據與參考框架。精細化的評估結果能用以檢驗現行刑事政策的有效性、針對性與公平性,為刑事政策調整與完善提供信息支撐,以滿足刑事政策科學化的要求。同時,高頻次的評估能促使主管部門及時發現刑事政策在實施過程中存在的問題并進行修正,其實時性與敏捷性也更能滿足現代治理的要求,有利于刑事政策的長期穩定實施與持續完善。再犯風險評估工具為刑事政策的修正提供科學判斷的基礎,是實現“一體刑”理念的重要手段。通過跨部門合作與管理創新實現再犯評估工具的系統化構建與規范運轉,這也是深化司法改革的重要內容與路徑選擇。
三、算法驅動的再犯風險評估的應用風險
算法驅動的再犯風險評估作為技術工具,在提升效率和中立性等方面具有顯著意義。通過利用歷史數據和算法模型,再犯評估工具可以區分風險等級,協助公安機關和司法機關制定應對措施,對社會整體安全和公共秩序的維護具有促進意義。盡管如此,再犯風險評估工具的應用也不可避免地引起了法律與倫理的爭議,如:通過評估的統計學結果來限制個人自由是否正當,使用歷史數據是否會加強已經存在的偏見,收集海量數據是否侵犯個人隱私等問題。算法驅動的再犯風險評估對刑事訴訟原理、刑事司法公正性以及評估對象權益保護的問題都存在一定程度的沖突,因此須審慎地檢視可能帶來的法律風險。
(一)沖擊刑事訴訟原理
算法驅動的再犯風險評估打破了傳統的懲罰模式,進而轉向對犯罪的預防性治理,但這也為法律制度帶來了重大挑戰。具體而言,應用評估技術需對現有刑事政策進行調整,這關涉對法律理論的重新理解和應用。
再犯評估算法被用于決定是否限制人身自由是對正當程序原則的突破。例如,評估結果被用來回答這樣的問題:“如果個體在審判前被釋放,會不會再次犯罪?個體是否應該在審判前就被采取強制措施?”和“個體在假釋期間應該受到多嚴格的監督?在假釋期間再犯的風險有多大?”
再犯評估算法預測結果會影響緩刑和假釋的監管級別,而且對審前羈押決定和量刑建議的影響也愈發凸顯。即使能夠建立一個完美而公平的再犯風險評估工具,仍需考慮個體因為尚未犯下的罪行而受到懲罰(要么被拘留,要么被監視)是否符合道德和公正。莫里斯和米勒認為,由于對未來行為的評估而增加的懲罰,只有在增加的懲罰是在不考慮評估的情況下自然合理的范圍內,才是可以接受的2。
就預防刑法的立場而言,刑罰不僅僅是一種報應刑,更是用來確保未來安全的預防刑罰。從報應刑到預防刑的發展,意味著刑事司法行動從被動向主動轉變。懲罰不僅基于個體罪行,還基于個體在未來社會的危害風險。因此個體不僅要為其所做的事情承擔懲罰,還要為將來可能做的事情承擔懲罰。事實上,個體不是因為自身可能會做什么而受到懲罰,而是根據統計學上的預期,具有類似特征的“平均”罪犯會做什么。當對自由的限制是基于再犯風險評估的結果,程序法定原則在一定程度上就被突破,監禁不再被看作是最后的手段而是使社會更加安全的工具。
應用算法驅動的再犯風險評估工具會削弱法官獨立審判原則,涉及算法科學性、證據可信性、決策“黑箱”、量刑權轉移以及潛在的偏見等認知難題。首先,再犯評估工具通常基于復雜的機器學習算法,其決策過程具有高度的技術性和復雜性。法官在有限的時間內很難深入理解和評估細節,難以對其進行全面的審核1。一方面,高效標簽產生信任依賴,這是因為對技術細節的盲從可能導致法官過度依賴再犯風險評估結果2。另一方面,即便法官采取客觀中立的立場全面審查評估結果,其技術封閉性仍有可能導致法官無法發現其中的隱性歧視。其次,再犯風險評估工具所使用的歷史數據非常龐大,涉及大量的個人信息和案件數據,難以逐一審核,尤其是開發者可能不愿透露全部數據,導致難以核實數據的完整性和準確性。此外,再犯評估工具的算法和數據處理過程通常被視為商業機密,開發者可能不愿公開技術細節。以上要素導致難以全面審查再犯風險評估工具的決策過程,從而限制了對證據的深入了解和有效評估。再犯風險評估工具在量刑決策中的使用,也引發了學術界對量刑權的轉移問題的探討,法官的決定權被算法開發者以工具的形式“竊取”轉移3。如果再犯評估技術在量刑決策中發揮重要作用,且由私人公司提供,則可能通過技術手段“壟斷”量刑權,從而影響到法官自主評估案件的能力,進而侵犯了法官的獨立裁量權4。因此,在應用再犯風險評估工具時,須進一步探討如何平衡科學技術與司法決策的關系,以保障法官的獨立審判權,并避免評估算法對司法決策的不當干預。同時,還需加強對再犯評估技術的研究,提供更為可信和可解釋的評估證據,以提高其透明性和公正性。
應用算法驅動的再犯風險評估工具會消解有效辯護原則。有效辯護的核心要義在于雙方對證據進行有效質證5。在美國人工智能化刑事司法應用第一案——盧米斯案中,再犯風險評估工具的應用導致對有效辯護的限制。盧米斯案中被告人Eric Loomis因搶劫和被吊銷駕照等罪名而被判刑。在此案中,法庭使用了COMPAS系統來評估被告人的再犯風險,但被告人Eric LoomisBjw3FBpCsdb4wtNJD1bmbQ==未能獲得COMPAS系統對其個人風險評估的詳細說明6,導致其在受審時對評估結果的知情權受到限制,無法全面了解該工具如何對其風險進行評估,進而影響到對該項證據的有效質證。由于COMPAS系統的算法和數據處理過程被視為商業機密,辯護律師無法對其細節進行深入了解,導致辯護律師難以掌握評估結果的科學性和可信性。因此,辯護律師無法對這些證據進行有效質證,從而影響辯護的效果。由于評估結果直接影響被告人的刑期,上述限制可能導致被告人無法有效地行使知情權,進而影響辯護策略的制定和執行7。
盧米斯案凸顯了再犯風險評估工具對知情權和辯護權的潛在限制。由于被告人和辯護律師無法充分了解評估工具的算法模型和數據處理過程,從而難以對評估結果進行有效質證,進而影響辯護效果8。在算法“黑箱”效應下,受評估人對評估結果難以提出有效質疑或申辯,如果無法理解形成評估結果的機制與理由,則難以指出評估過程中存在的問題或提供相反證據,被告則位于信息劣勢地位,無法獲得公平的辯護機會。因此,當應用再犯風險評估工具時,需要平衡科技進步和司法公正之間的關系,確保被告人和辯護律師能夠獲得對評估工具的充分了解,充分保障被告人的知情權和辯護權。
(二)算法評估技術引發的刑事司法不公
算法驅動的再犯風險評估工具中的隱形歧視會損害司法公正。數據是人工智能技術的基石,是人工智能技術運行的原料性基礎1。再犯風險評估模型通常是基于大規模歷史數據訓練,包括個體的犯罪記錄、社會經濟背景等多類信息。歷史數據中蘊含的社會結構性的歧視可能會被模型吸納,并在評估結果中表現出來。比如,某特定族群由于已經存在的歧視而受到不公正的對待,且數據被記錄并使用,可導致該族群在評估模型中被不公平地判定為高風險。這些工具的評估結果可能被作為假釋決定等刑事司法決策的參考,產生對特定族群的歧視性影響,放大社會不平等現象。這不僅是理論的擔憂,已有證據證明該歧視是客觀存在于算法邏輯內的,例如COMPAS系統更有利于白人被告,類似條件下白人被告的再犯風險評估結果總是優于黑人被告2。美國前司法部部長埃里克·霍爾德認為,風險評估可能會加劇在我們的刑事司法系統和社會中已經非常普遍的無端和不公正的差異3。隱含在數據中的歧視所導致的不公平的司法決定會進一步挑戰公平原則。如果再犯風險評估模型的結果存在偏見,影響法官的自由心證,將加劇社會不平等,對司法公正性產生損害,從而破壞公眾對司法系統的信任度。
算法驅動的再犯風險評估工具的算法“黑箱”會降低評估結果的證據效力。算法“黑箱”效應對評估結果的準確性與可靠性產生直接影響。如前文中提到COMPAS系統可能對特定族群存在隱形歧視,但是公司以算法基礎運行邏輯是商業機密為由拒絕公開算法原型,這使得“算法評估規制”成為“未公開的秘法”。一方面,算法“黑箱”效應導致使用者無法基于對算法基礎運行邏輯的理解來預測再犯風險,也無法檢驗評估結論產生過程是否客觀,所以難以檢測評估結論的準確性,因此再犯評估結果的證據資格將在法庭上受到質疑。另一方面,如果無法公開算法的判斷機制,則難以對漏報或誤報情況及時進行檢測和糾正,評估結果的準確性和公正性無法得到保障,進而影響其證據效力。準確性難以判斷、無法進行有效辯護以及說服力不足等問題,可能導致評估結果喪失證據資格。解決算法“黑箱”效應需要發展可解釋的人工智能技術,通過揭開算法“黑箱”以增強結果的透明度,有助于判斷準確性和公正性,提高其作為證據的接受度和社會認可度。
算法驅動的再犯風險評估可能存在結果誤差,誤差率的高低直接影響到評估結果的準確性和公正性,進而關聯個體權利和社會公正。誤差主要來自兩個方面:假陽性誤差和假陰性誤差。假陽性誤差指的是將實際不會再犯罪的個體評估為高風險;假陰性誤差則是將實際會再犯罪的個體評估為低風險4。兩種誤差都會對個體和社會造成負面影響。對個體來說,假陽性誤差可能導致個體受到不必要的刑罰或限制,損害其人權;假陰性誤差則可能使潛在的再犯者漏網,對他人和社會造成威脅。當假陽性誤差較高時,可能會導致過度投資在對高風險個體的管理和防控上,而忽視了對真正需要幫助的低風險人群的投入。這不僅是資源分配的問題,更可能引發公眾對刑事司法系統公正性的質疑和不信任,進而影響到社會的穩定和諧。
(三)敏感信息收集侵犯個人權益
從個人信息保護的角度來看,再犯風險評估工具的數據采集和使用涉及個人信息的收集、傳輸、儲存和處理等環節,這些環節都需要符合隱私保護的相關法律規定。再犯風險評估工具的數據采集和處理往往涉及大量敏感個人信息,更重要的是這些信息并非由個人自愿提供,而是經由社會組織、行政執法機關和司法機關多方收集而來,因此可能存在個人信息在未經許可的情況下被使用的問題,進而侵犯個人的知情權和同意權1。此外,再犯風險評估工具中的算法和模型設計也可能導致個人隱私權受到侵害。由于再犯評估的算法復雜性和封閉性,個體難以了解個人信息在算法評估過程中是如何被使用的。此外,由于再犯風險評估工具通常由公權力機構掌控,從而加劇了個人隱私權受到侵害的可能性。從更長遠的角度來看,再犯風險評估工具的應用可能導致個人在社會中受到過度監視,進而對個人的社會形象和機會產生長期負面影響。當被歸類為高風險群體時,該個體可能會受到更頻繁、嚴格的監視,甚至在沒有實際犯罪行為的情況下受到不公正對待。這種過度監視和不公正對待可能導致個體陷入被歧視和排斥的境地,限制其在教育、就業和居住等方面的機會。因為被再犯風險評估歸類為高風險群體,即使尚未再次犯罪,也可能受到機會的剝奪和社會的歧視,形成“評估決定命運”的局面2,突破比例原則的限制,引發社會對再犯風險評估工具合法性和公正性的質疑。
四、算法驅動的再犯風險評估的規制進路
我國作為一個幅員遼闊的國家,面臨著復雜多樣的社會問題,因此需要更加高效和精確的手段來進行犯罪預防和治理。算法驅動再犯風險評估工具作為一種技術工具,可以利用大數據和算法分析有效識別高再犯風險的人員,在推進慎捕慎訴慎押的刑事政策中發揮積極作用,以符合我國的發展目標和治理需要。同時,在刑事司法中引入算法驅動的再犯風險評估工具也伴隨著一系列技術、倫理和法律上的挑戰。因此,須客觀看待再犯風險評估工具的價值及技術局限,保障法官的獨立審判權,嚴格保障被告人的正當程序權利,適當兼顧當事人隱私權和個人信息權。在引入新技術的同時,必須構建配套的法律監管體系,以實現技術應用的規范化,確保司法制度的公正性不受侵蝕。
(一)構建多源數據共享平臺
算法驅動的再犯預測工具的推行在數據方面存在三重困境:從數據獲取與共享維度看,數據獲取是推行再犯評估算法的基礎,但由于涉及個人隱私和敏感信息,數據獲取和共享面臨多重困境。從數據質量維度看,犯罪數據的質量和準確性對評估結果至關重要。數據來源的不一致性、錄入錯誤和信息遺漏可能導致數據質量差異。不同的地區或部門可能使用不同的標準對犯罪類型進行分類,導致犯罪數據不具備可比性,從而影響算法模型的訓練和評估的準確。從跨部門的數據收集壁壘維度看,算法驅動的再犯評估需要整合來自公安、法院、監獄等不同部門的數據。部門之間在數據存儲和格式方面存在不同的標準,因此難以直接共享從而造成信息孤島。解決這一系列問題須制定統一的數據標準和共享機制,以促進跨部門數據協同和整合,確保評估模型的全面與準確。因此,建立跨部門信息共享平臺是開發算法驅動的再犯風險評估工具的基礎任務,平臺的構建必須充分考慮數據的多樣性、可靠性和合法性,以確保評估模型的準確與公正。
為建立跨部門數據共享平臺,首先,須明確共享的目標和范圍,確定所需的數據類型和來源,收集涵蓋廣泛要素的數據以建立全面的評估模型,包括個人檔案、犯罪記錄、社會再適應情況等,同時融合來自不同部門的數據,形成全面多角度的數據視角以便綜合評估個體犯罪風險。面對數據標準化不足、一致性和質量較差等挑戰,在整合不同數據源時須進一步運用數據科學、信息技術和數據治理等學科的理論和方法進行深入研究與應用。其次,確立安全可靠的數據共享平臺至關重要。平臺應遵循數據加密、身份驗證和權限管理等原則,保障數據傳輸和存儲的安全性,防止未經授權的訪問和數據泄露風險。在數據共享過程中,制定明確的規則和標準是不可或缺的,即確保數據共享合法、合規且透明,并設立數據審查和審核機制。為保護個人隱私權,對敏感信息進行脫敏和匿名化處理,以對共享數據風險進行審查和評估,排除可能存在的偏見數據。再次,有效的人員培訓和公眾宣傳也是建立跨部門信息共享平臺的重要一環,員工培訓將提高工作人員對數據共享規則和標準的認識與理解。持續改進和優化是確保平臺穩健運行的關鍵,通過監測和評估及時發現問題并進行改進,保障跨部門信息共享平臺的高效可行。通過不斷完善平臺構建機制,再犯風險評估工具在為司法決策提供更可靠支持的同時也推動了智能化技術在司法領域的進一步發展和應用。
(二)建立可解釋的再犯風險評估算法模型
構建全要素且可解釋的再犯風險評估模型是一項綜合性的任務,其考量的因素至少包括評估算法的透明性、評估結果的可解釋性、評估模型合法性審核這三個基本點。
首先,評估算法的透明性是可解釋性的基礎。從各國實踐來看,由于算法工具往往由公權力機構委托私人公司開發,在庭審中,開發者往往以知識產權保護為由拒絕算法的內部結構和運作方式,因而導致算法的不透明1。如果預測算法的評估過程不被公開,那么無法對其進行有效理解和質證。英國模式的再犯風險評估工具實踐開發為國際借鑒提供了思路,其Hart系統選擇了公安與高校聯合開發的模式,將再犯風險評估工具的核心代碼和結構完全公開,打破了私人算法代碼對可解釋性的壟斷2。
其次,再犯風險評估結果作為一項參考性的證據,其生成過程能否被解釋將直接影響對此項證據的理解和有效質證,因此算法的可解釋性至關重要。故在模型選擇方面應優先考慮邏輯回歸、決策樹、隨機森林等可解釋性更強的模型3。這些模型能夠提供對評估結果的清晰解釋,使法官能夠理解評估結果背后的推理過程,透過這些解釋性較強的模型,能夠深入了解評估中所參考的各因素的權重,從而更好地理解再犯風險評估結果。同時,可運用解釋性技術如局部可解釋性方法(LIME)4、SHAP值5等解釋模型的評估結果,幫助理解評估的依據和影響因素。為決策者提供交互式界面,使其可以調整特征權重或查看不同評估結果,增加模型可接受度。最后,在評估工具中加入可解釋模塊是另一關鍵步驟。該模塊可以輸出各個再犯風險因素對評估結果的貢獻度,通過這些解釋信息,法官和專家輔助人可以更深入地審查模型的評估依據,從而提高評估結果的信任度和可靠性。
最后,定期對再犯風險評估工具進行合法性審核。對再犯評估模型的算法、數據采集和處理過程進行審查,以確保其準確性和可靠性。審查規則還應確保評估模型的建立和使用符合相關法律法規和倫理標準,防止模型受到歧視或偏見的影響1。例如,歐洲議會和理事會 (EU) 2016/679號條例第五條確立了收集數據時須遵循的原則2,第十條確定了為刑事審判收集數據時的主體限制。在歐洲刑事法院使用再犯風險評估工具之前,必須評估是否可以通過對數據主體的權利侵害較小的方式實現處理目的,以及處理特殊類別數據是否會對數據主體構成歧視風險。在評估過程中,須嚴格遵守相關的法律和倫理標準,保護個人隱私和權益。通過對構建的再犯風險評估工具進行評估和驗證,確保其在實際應用中具有良好的性能,從而為社會安全和犯罪預防提供有益的幫助。
(三)完善被告人知情權和辯護權保障制度
保障被告人的知情權,須從數據訪問權和算法公開兩個關鍵方面著手。一方面,以權利限制權力,確保被告人對用于再犯評估的個人數據擁有訪問權,充分告知其數據使用情況,并允許查看和驗證數據的準確性。數據隱私保護也是必要的,要確保再犯評估只使用合法獲取的數據,并遵循相關的隱私保護法律和政策,以保護被告人的個人隱私權。另一方面,以公開保障公平,通過算法公開,使被告人、律師、專家和公眾有機會審查和理解評估過程,保障模型的透明性和可解釋性??山忉尩乃惴軌蚴贡桓嫒撕拖嚓P人員理解評估的依據和影響因素。同時,算法和模型需經過獨立審查,由獨立的專家或組織評估其準確性和可靠性,公開審查結果有助于保障被告人知情權,透明性和數據隱私保護保障了使用數據合法和尊重隱私權,算法公開和獨立審查則增加了評估模型的可信度和可靠性,增強了被告人對評估過程與結果的信任。
保障被告人的辯護權應當充分發揮專家輔助人的作用。面對算法驅動的再犯風險預測評估結果,由于專業知識的缺乏,被告人及其辯護律師難以從數據角度進行有效辯護。被告人可以聘請具有專門知識的人,特別是聘請在數據科學、評估模型等方面有專業知識的人提供針對再犯評估工具的專業辯護支持。這些專家可以從技術角度評估模型的準確性和可靠性,為被告人提供有效辯護3。首先,專家輔助人可以幫助被告人理解再犯評估模型的運作原理和評估結果的解釋。這些模型通常涉及復雜的算法和數據處理,專家解釋有助于被告人理解模型運作原理與機制,增強被告人對評估過程的理解和信任。其次,專家輔助人可以核實用于再犯評估的個人數據的準確性。數據的準確性對評估模型的有效性至關重要。專家可以對數據進行審查,確保被告人的數據沒有錯誤或不實之處,避免因數據錯誤而影響評估結果。再次,專家輔助人的參與有助于解決評估過程中的爭議。專家輔助人可以提供專業意見和證據以幫助解決相關爭議,確保再犯評估過程的公正性和合法性。最后,專家輔助人還可以審查再犯評估模型的算法是否存在歧視,這種審查有助于確保評估模型不偏向特定人群,避免因民族、性別或其他因素而對被告人的評估結果產生負面影響。
(四)強化對法官獨立審判原則的保障
明確再犯風險預測結果作為輔助性證據的定位。在再犯風險評估工具的使用中,需要明確再犯評估結果只是輔助證據而非決定性的證據①。再犯風險評估結果作為輔助證據,供法官在司法決策中參考,而不應成為單一或決定性的因素。明確再犯評估結果作為輔助證據,可以確保再犯風險評估工具在司法決策中的適當應用,避免過分依賴評估結果影響量刑決策的公正性。
建立對再犯風險預測結果的獨立證據審查標準。再犯評估結果作為證據,其證據資格和證明能力都要接受法官的司法審查。在外國刑事審判實踐中,再犯風險評估結果被視為新型科學證據并由法官在法庭上進行審核②。強調法官在審判中依法采納量刑證據也是關鍵所在。法官應當在決策過程中全面考慮各類證據,包括再犯評估結果,才能確保決策的公正性和合法性,避免過度依賴評估結果而導致不當的量刑結果。通過明確再犯評估結果的參考性作用,建立嚴格的審查規則,強調法官依法審核再犯風險評估結果,可以確保再犯風險評估工具在司法決策中的正確應用,保障被告人的權益與決策的公正性,為司法系統提供更科學和公正的支持。
五、結語
人工智能在刑事司法中的應用具有廣泛的潛力,數字技術在司法領域深耕融合趨勢的廣度和深度不斷擴展。從各國司法實踐來看,人工智能在刑事司法領域的應用已經呈現出不可逆轉的大趨勢,但必須謹慎處理與其應用相關的法律和倫理問題,以避免在司法領域產生負面影響并最大程度地提高正義和公平。算法驅動的再犯風險預測工具的應用,秉持中立性和準確性的基本內核,為評估犯罪分子的再犯風險提供了有效手段,并可以根據不同風險等級進行差異化管理,從而進一步優化刑事司法資源的利用。然而,在廣泛應用算法驅動的再犯風險預測工具之前,必須認識和界定可能存在的法律風險,厘清其對刑事司法制度帶來的沖擊和挑戰,界定其對司法正當性、公正性、準確性、可解釋性的侵犯可能性,防范化解風險。在推動數字技術在司法領域運用的同時消解其對現行司法運作機制的沖擊,提高對被告人人權保障,維護法官獨立審判原則,確保數據采集的全面性、合法性與共享性,在數據獲取方面建立原則性的法律框架,為司法系統公正高效運行提供科學和公正的支持。
責任編輯 楊 幸