余鵬文
在數字技術發展日新月異的背景下,大數據、人工智能、區塊鏈等新興網絡信息技術在司法領域不斷得到深化運用,使得我國刑事司法制度和訴訟程序迎來前所未有的發展機遇和現實挑戰。正如英國學者理查德·薩斯坎德在《法律人的明天會怎樣?——法律職業的未來》一書中提到,隨著信息技術和互聯網適用場域不斷擴大,將產生龐大和難以計算的海量數據,相應地需要人機交互來幫助人們應對大數據帶來的挑戰,同時利用好其中蘊含的豐富價值。大數據的顛覆性在于,重要的法律見解、關聯性,甚至算法可能會在法律實務中和法律風險管理中獲得核心地位。(1)理查德·薩斯坎德:《法律人的明天會怎樣?——法律職業的未來》,北京大學出版社,2015年,第62-63頁。從國家發展戰略和司法實踐情況來看,大數據加上算法,已經成為智能刑事司法的中心議題,并且在預測警務、犯罪風險評估、量刑建議輔助、量刑決策輔助等事項上得到深度運用,從而有效發揮人工智能技術在重復性、規律性工作中的效率優勢。但同時也要注意,在刑事司法中使用人工智能來代替法官裁決,從理論上看有可能使得憲法和刑事訴訟法規定的程序正義基本原則變得面目全非,而算法歧視、算法黑箱等背離程序公開性和公正性的技術特質亦與刑事正當程序相互沖突和抵牾,可能對社會結構和司法體系造成不可逆轉的持續性損害。(2)Adrian Zuckerman, “Artificial Intelligence-Implications for the Legal Profession, Adversarial Process and Rule of Law,” Law Quarterly Review, Vol.136,No.9, 2020.
作為大數據和算法技術的結合體,人工智能在法律實踐中的應用已經成為全面推進依法治國,建設法治國家、法治政府、法治社會以及實現國家治理體系和治理能力現代化的必要路徑。2016年11月,在世界互聯網大會智慧法院暨網絡法治論壇上,我國最高人民法院院長周強提出:“推動人工智能技術在司法活動中的應用……通過推進深度學習、大數據算法等在審判執行工作中的深度應用,大力開發人工司法智能,為法官辦案提供智能化服務。”(3)周強:《建設智慧法院 努力讓人民群眾在每一個司法案件中感受到公平正義》,2016-11-17,https://mp.weixin.qq.com/s/unJznriWfLJp6d0YaD7CTA,訪問日期:2022-07-16。受到實踐需求以及政策導向等因素的影響,預測警務、智慧檢務和智慧法院建設是我國人工智能司法應用的重點發展領域,也逐漸成為現代化司法應用發展的新趨勢。
一是,在偵查階段,以預測警務為核心的犯罪風險防控機制成為各地警務工作的重要組成部分,從而實現對犯罪活動的高效、精準打擊。例如,2013年江蘇省蘇州市公安機關已經積極探索運用大數據思維和方法研發犯罪預測系統。該系統學習了蘇州市10年來發生的1300萬條歷史警情數據,記憶了包括居民收入水平、娛樂場所地點等7.8億條數據,并且輸入關于實有人口和特殊人群地理信息等382種相關變量數據,能夠通過自主關聯計算向基層民警推送重點巡防區域信息。(4)湯瑜:《大數據時代,“互聯網+警務”升級社會治理模式》,2017-01-04,http://www.mzyfz.com/cms/benwangzhuanfang/xinwenzhongxin/zuixinbaodao/html/1040/2017-01-04/content-1243792.html,訪問日期:2022-07-16。二是,在檢察系統中,最高人民檢察院提出的智慧檢務建設重大戰略主要在于推進智能輔助支持系統、案件管理應用系統、遠程提訊系統以及監獄檢察信息指揮系統等體系建設,為檢察機關提出精準量刑建議、評估社會危險性等檢察工作提供智能輔助,也能統籌優化檢察機關“人、事、財、物、策”等各項管理事項,全面提升檢察機關現代化管理水平。(5)李訓虎:《刑事司法人工智能的包容性規制》,《中國社會科學》2021年第2期。三是,人工智能概念的引入對智慧法院建設起到積極的推動作用,其涉及司法管理和實際辦案流程的智能化。針對大量審判數據的智能分類、提取、整合、分析,以及對相似數據的有效檢索,人工智能為刑事審判中的法官認定事實和適用法律等決策提供資源推薦、案例研判以及實證分析等智能服務。2017年5月,由上海市高級人民法院牽頭研發的代號“206”的上海刑事案件智能輔助辦案系統是典型的智能應用軟件。該系統集成了法律文書自動生成、電子卷宗移送、輔助庭審、類案推送、量刑參考等多項功能,大大地提高了法院辦案質量和效率,節約了司法資源和成本。(6)崔亞東主編:《世界人工智能法治藍皮書(2019年)》,上海人民出版社,2019年,第122-124頁。此外,美國的COMPAS風險評估工具在大量刑事案件中通過預測再犯可能性來輔助法官量刑判決。該系統通過將犯罪參與作用、違反法規程度、暴力性質、犯罪牽連、毒品濫用、經濟困難、職業或教育問題、社會環境、失業情況、固定住所、社會交往、認罪態度和犯罪人格等相關信息轉化為數字進行評估,并給出一個再犯風險系數,法官可以據此決定犯罪人所應遭受的刑罰或是否允許保釋。(7)Brennan, Tim, William Dietrich & Beate Ehret, “Evaluating the Predictive Validity of the Compas Risk and Needs Assessment System,” Criminal Justice and Behavior, Vol.36, No.1, 2009.
從上述信息技術的實踐應用情況來看,以大數據分析為基礎的犯罪風險預防機制不斷擴張,并且影響后續刑事訴訟程序,而人工智能也開始深度介入社會危險性和再犯風險的評估和預測。對此,當從更為宏觀的視野審視當下刑事訴訟制度正在經歷的種種變化,審視數字技術引發的刑事司法權力格局變動以及傳統和新型公民基本權利面臨的技術沖擊。(8)裴煒:《數字正當程序——網絡時代的刑事訴訟》,中國法制出版社,2021年,第1頁。
1.犯罪控制:自動化司法作為司法機關的“力量倍增器”
當下大數據、算法等信息技術在司法當中能夠得到深度運用和迅速落地,盡管具有為當事人、訴訟參與人及社會公眾提供便捷化、可及化訴訟服務的目標導向,但主要推動力還是在于新型技術手段在犯罪控制方面能夠發揮令人驚嘆的作用,尤其是針對利用新技術的網絡犯罪。(9)張建偉:《司法的科技應用:兩個維度的觀察與分析》,《浙江工商大學學報》2021年第5期。具體表現在以下三個方面:一是自動化司法需要與具體的任務、應用場景結合,因而其中算法決策在設計時所嵌入的公共價值是單一的,即通常考慮的只是司法效率。例如,人工智能引導下的預測警務和人臉識別,能夠通過挖掘、學習和分析疑難復雜犯罪信息,準確地鎖定和追蹤犯罪嫌疑人的身份,有利于提升案件的偵破率。二是刑事案件智能輔助決策系統作為人工智能司法應用的創新發展,通過制定公檢法共同適用的證據標準和證據規則指引,實現公檢法辦理刑事案件網上運行、互聯互通、數據共享,進一步強化公檢法機關之間的相互配合,使得刑事案件辦理更加流水線化,相應地提高刑事案件的辦案效率。(10)李訓虎:《刑事司法人工智能的包容性規制》,《中國社會科學》2021年第2期。三是借助大數據與算法的技術優勢建立的案件管理系統和智能輔助支持系統,其中內設的法律文書自動生成、電子卷宗一鍵傳送、類案推送、量刑參考等附加功能能夠分擔司法人員大量日常的事務性工作,極大地提升案件辦理的質效。(11)卞建林:《人工智能時代我國刑事訴訟制度的機遇與挑戰》,《江淮論壇》2020年第4期。
2.正當程序:自動化司法可能侵犯法律正當程序基本原則
人工智能能提升打擊犯罪的司法效率,也能在一定程度上保障正當程序,如通過類案推送和量刑參考等功能實現同案同判、類案類判,有助于實現法律平等適用。但從刑事訴訟法的限權視角出發,刑事司法中過度關注技術賦能,在加強國家對社會的控制力的同時,也可能損害司法制度中嵌入的程序正義基本原則,侵犯憲法和刑事訴訟法允諾保障的公民基本權利。對此,大數據在助力犯罪風險評估從而優化刑事司法資源配置的同時,也產生與刑事正當程序的激烈沖突。比如犯罪治理提前啟動、數據獲取分析能力差距以及第三方介入參與,上述特征與無罪推定原則、控辯平等原則和權力專屬原則之間產生矛盾。(12)裴煒:《個人信息大數據與刑事正當程序的沖突及其調和》,《法學研究》2018年第2期。而在司法實踐中,美國COMPAS軟件不僅在輿論上受到批評,在法庭上也受到挑戰。在State v. Loomis一案中,被告人對威斯康星州使用來源封閉的風險評估軟件作為判決其6年監禁刑的依據提出質疑,聲稱這一做法違反了美利堅合眾國憲法第十四條修正案規定的正當法律程序條款。被告人Loomis針對量刑時法官使用COMPAS工具提出三點反對意見:第一,該軟件侵犯了被告依據案件準確信息判刑的權利,因為COMPAS涉及商業秘密保護使得當事人無法評估其準確性;第二,侵犯了被告享有個性化判決的權利;第三,在量刑時審理法院將性別作為一項風險評估因素。(13)State v. Loomis, 881 N.W.2d 749 (Wis. 2016).該案例也反映出以大數據和算法為代表的新型信息技術在介入刑事司法運行過程中,將對傳統程序正義理論產生沖擊。
新型信息技術在對刑事訴訟基本理念和價值帶來沖擊時,是否在一定程度上重新塑造我國刑事司法樣態?在“技法沖突”情況下,傳統程序正義理論又將遭遇哪些適用困境?而在當前弱人工智能時代,對于刑事訴訟程序的規制究竟是以技術為核心還是以人為本?作為部門法學的研究人員,我們應當秉持一種什么樣的學術態度來重新調試數字化時代刑事程序正義理論?
大數據和算法共同構成人工智能發展的兩大核心驅動力,其中大數據主要是指規模龐大的數據存量和數據來源,而算法則是指數據分析的指令、程序和步驟。從技術層面來看,將大數據和算法應用到司法場域,輔助司法決策,甚至在特定情況下可以直接依據人工智能做出司法決策,能夠使得司法裁判機制獲得處理海量信息的能力,有助于增強司法機關辦案能力、提高司法效率。但是,大數據和算法本身存在的風險也將對傳統程序正義理論產生技術性沖擊。(14)鄭飛主編:《中國人工智能法治發展報告(1978—2019)》,知識產權出版社,2020年,第126頁。
在目前的法學研究當中,程序正義理論的基本要素尚未形成統一的認識。有論者認為,程序正義主要包括訴訟程序的公開性、裁判人員的中立性和獨立性、當事人地位的平等性、訴訟過程的參與性、訴訟活動的合法性以及案件處理的正確性。(15)譚世貴主編:《刑事訴訟原理與改革》,法律出版社,2002年,第29-36頁。也有論者認為,法律程序的設置應符合以下基本的程序公正要求:一是程序的參與性,二是裁判者的中立性,三是程序的對等性,四是程序的合理性,五是程序的及時性,六是程序的終結性。(16)陳瑞華:《刑事訴訟法》,北京大學出版社,2021年,第45-49頁。基于此,本文從傳統程序正義理論的諸多要素中提取出受自動化司法影響較為深刻的四大基本原則來予以深入探討,即裁判中立原則、程序公開原則、程序對等原則和程序參與原則。
無論是人工決策程序還是算法決策程序,邏輯本身隱含著歧視的風險,在一定程度上,算法偏見是一個不可避免的問題。從人類文化偏見、算法本身的特性來分析大數據算法歧視的內涵,可以發現即便在技術層面上算法設計者沒有將偏見植入大數據算法的主觀意愿,但由于“GIGO 定律” (Garbage In,Garbage Out)、數據樣本天然的權重差異以及大數據的擴展屬性,大數據算法也存在偏見或歧視的必然性。(17)張玉宏、秦志光、肖樂:《大數據算法的歧視本質》,《自然辯證法研究》2017年第5期。而當人工智能技術引入司法裁判,受限于錯案責任追究制的壓力和趨利避害的本性,法官在利用刑事案件智能輔助決策系統來強化裁判結果的論證力時,毫無疑問會受到算法偏見的污染,對案件當事人形成偏見或預斷,自然有違裁判者中立原則。(18)陳俊宇:《司法程序中的人工智能技術:現實風險、功能定位與規制措施》,《江漢論壇》2021年第11期。例如,在威斯康星州的Loomis案中,黑人被告主張使用算法作出的量刑判決違憲。盡管威斯康星州最高法院最后認定算法并未違憲,但卻對該事件的法官進行了書面“警告”,要求其不能全盤接受人工智能的評估結果,而最多只能將其作為判斷依據之一,并要求其意識到測評結果中可能包含錯誤和偏見。(19)State v. Loomis, 881 N.W.2d 749 (Wis. 2016).
而對于算法偏見的具體成因,通過借鑒萊普利·普魯諾(Lepri Bruno)的三分法,將算法歧視產生的根源概括為數據中預先就存有偏見、算法本身構成歧視和數據抽樣偏差及其權重設置差異三個方面。(20)劉培、池忠軍:《算法歧視的倫理反思》,《自然辯證法研究》2019年第10期。一是算法歧視是對人類社會中既有偏見的反映,即當下社會是充滿偏見的,人工智能在學習和理解了社會現狀之后,以此為基礎進行人物側寫,將會把這些既存的偏見保存在算法之內。(21)福田雅樹、林秀彌、成原慧:《AI聯結的社會——人工智能網絡化時代的倫理與法律》,社會科學文獻出版社,2020年,第314頁。例如,犯罪風險評估工具中存在種族差異的原因在于,不同種族之間的逮捕率是不相等的,而算法只是簡單地重現了一種嚴重不平衡的社會現狀。除非所有群體都具有相同的逮捕率,否則這種算法偏見就難以避免。(22)Fry, Hannah, Hello World: Being Human in the Age of Algorithms, New York: W.W. Norton &Company, 2018, p.69.二是算法本身構成一種歧視。因為算法分類是基于歷史數據進行優先化排序、關聯性選擇和過濾性排除的,以此來對特定人員貼上數字標簽,將其劃入某一片區并與某一類概率性的群體關聯起來,但這種分類所依據的要素可能并沒有考慮到是否合法或者合乎道德,從而產生算法歧視。(23)Vries, K.D., “Identity, Profiling Algorithms and a World of Ambient Intelligence,” Ethics & Information Technology, Vol.12, No.1,2010.例如,一個評估再犯概率的算法可能會將種族或膚色作為再犯的評價指標,僅僅是因為訓練樣本中有較大比例是有色人種,因此在統計學上種族和膚色具有顯著意義,但在司法決策時將種族作為保釋、假釋或者量刑的判斷依據,顯然會招致諸多批評。(24)Jon Kleinberg, et al., “Human Decisions and Machine Predictions,” The Quarterly Journal of Economics, Vol.133, No.1,2018.三是編程人員在設計算法過程中植入自己的偏見,或者算法實際控制者可能在輸入數據時產生偏差或對不同因素的權重分配不當,導致產生相應的算法偏見或歧視。由于當前在法律知識圖譜領域,機器學習主要還是采取監督學習的方法,即人工標記數據提供給機器,訓練機器學習,告訴機器這些標簽數據的含義(25)葉衍艷:《法律知識圖譜的概念與建構》,載華宇元典法律人工智能研究院編著:《讓法律人讀懂人工智能》,法律出版社,2019年,第27頁。,因而算法不可避免地融入程序編寫人員的價值偏好。
“在人工智能系統輸入的數據和其輸出的結果之間,存在著人們無法洞悉的‘隱層’,這就是算法黑箱。”(26)徐鳳:《人工智能算法黑箱的法律規制——以智能投顧為例展開》,《東方法學》2019年第6期。算法黑箱與程序正義理論對司法決策的透明性要求明顯不符,導致人們可能無法理解人工智能機器是如何得出結果的,無法確定當事人的論點是否得到公平考量,影響人們對刑事司法人工智能的認同感。即便拋開公平性不談,算法決策程序缺乏透明度可能導致過度信任自動化司法結論的可靠性和科學性,從而產生“自動化偏見(Automation Bias)”,即人類具有一種認知傾向,就是會過于相信電腦自動作出的判斷,并且囫圇吞棗地全盤接受這些判斷。(27)Danielle Citron,“Fairness of Risk Scores in Criminal Sentencing,” 2016-07-13, http://www.forbes.com/sites/daniellecitron/2016/07/13/unfairness-of-risk-scores-in-criminal-sentencing/#6d8f934a4479, 訪問日期:2022-07-17。
對于算法缺乏透明度的問題,可以歸納為主觀不愿和客觀不能公開兩種情形。主觀不愿公開算法決策程序主要是兩方面原因:一是設計算法的公司從維護自己商業秘密的權利角度出發竭力掩蓋其算法的內部邏輯。(28)Rebecca Wexler, “Life, Liberty, and Trade Secrets: Intellectual Property in the Criminal Justice System,” STAN. L. REV. , Vol.70, No.5,2018.例如,在威斯康星州的 Loomis案中,法官將COMPAS犯罪風險評估工具的算法看作商業秘密,從保護知識產權的角度出發來豁免算法擁有者公開算法代碼和說明算法工作原理的義務。(29)State v. Loomis, 881 N.W.2d 749 (Wis. 2016).二是從國家安全的角度考慮,為保證司法機關在算法決策程序當中的支配性地位,防止犯罪分子反向學習自動化決策系統,因而大多數刑事司法人工智能的算法是不對社會公開披露的。例如,在斯洛文尼亞,警方在所謂的“占領運動”期間創建了一個Twitter分析工具,用來追蹤“嫌疑人”并進行情緒分析,而警方認為該分析活動屬于“偵查戰術和方法”,不允許公眾訪問。(30)Ale? Zavr?nik, “Algorithmic Justice: Algorithms and Big Data in Criminal Justice Settings,” European Journal of Criminology, Vol.18, No.5,2021.但這種“黑箱”效應也在客觀上增加了司法決策不公的風險,甚至加劇司法機關在算法上濫用權力的可能。而在我國,根據《中華人民共和國反不正當競爭法》《中華人民共和國政府信息公開條例》等規定,算法也通常被認為是受到法律保護的商業秘密或者國家秘密,因而刑事司法人工智能應用的算法黑箱問題依舊沒有得到解決。(31)雷剛、喻少如:《算法正當程序:算法決策程序對正當程序的沖擊與回應》,《電子政務》2021年第12期。
另一方面,從技術角度來看,即便法院將對所有人開放源代碼和算法公式作為使用犯罪風險評估工具的先決條件,但連軟件開放者或許都無法解釋某些算法決策是如何做出的。例如,人工神經網絡(ANN)的機器學習算法通過一個復雜的分層結構進行學習,其決策規則沒有經過先驗編程,通常對人類來說是無法理解的。(32)Liu, Han-Wei, Ching-Fu Lin & Yu-Jie Chen, “Beyond State v. Loomis: Artificial Intelligence, Government Algorithmization, and Accountability,” International Journal of Law and Information Technology, Vol.27, No.2,2019.相較于人工司法決策是根據法律、事實和經驗來進行演繹推理,算法決策是依據大數據的相關性而非因果關系,因此無法提供理由說明。(33)張凌寒:《算法自動化決策與行政正當程序制度的沖突與調和》,《社會科學文摘》2021年第2期。隨著時間的推移,算法的機器學習難度將不斷提高,使得法院更難評估每個因素與機器結論的相關程度,這可能違反法律面前人人平等和程序公開原則。
在自動化司法中,算法和大數據都在司法機關的完全控制之下,而司法機關通過運用刑事案件智能輔助系統來強化自身的數據獲取和數據分析能力,加之披露義務和信息溝通規則缺位,加劇了司法機關與辯方之間的信息不對等。具體而言,一是在數據信息資源分配上,控辯之間存在“數字鴻溝”,即一方是有能力收集、儲存、挖掘海量司法數據的政府機關和網絡信息從業者等,另一方則是被收集數據的對象,僅享有受到嚴格限制的數據訪問權利。(34)Mark. Andrejevic, “Big Data, Big Questions: The Big Data Divide,” International Journal of Communication, Vol.8, No.1,2014.緣于國家安全和個人信息保護的考量,立法將追訴犯罪活動中的相關信息和數據列入國家秘密,導致辯方向有關部門申請獲取相關數據時遭遇數據準入障礙。相反,偵控機關能夠通過政府部門共建的大數據綜合一體化平臺交換獲取海量司法數據,也可以依法要求網絡信息業者等私人機構協助執法,大幅度提升信息獲取能力。(35)裴煒:《數字正當程序——網絡時代的刑事訴訟》,中國法制出版社,2021年,第89頁。二是即便控辯雙方獲取到同樣的原始數據,但在數據應用方面雙方依舊存在“數據分析鴻溝”。即面對海量司法數據,只有擁有相關基礎設施和大數據分析技能的控方,才能從數據碎片中獲取有價值的信息資源。(36)林曦、郭蘇建:《算法不正義與大數據倫理》,《社會科學》2020年第8期。在2009年的Skilling案中,美國聯邦法院認為政府可以通過向辯方開放對原始數據庫的文件訪問權限來履行證據開示義務而無須考慮文件數量龐大,因為被告能夠像政府一樣搜索文件。這種不考慮控辯雙方數據分析能力差異的“文件傾倒”(document dump)行為,進一步加劇了控辯雙方的實質不平等。(37)United States v. Skilling, 554 F.3d 529, 577 (5th Cir. 2009).
當公共法院系統越來越依賴刑事司法人工智能應用時,實體法院似乎在不斷消亡中,未來實踐中可能難以看到控辯雙方在法庭上公開推進辯論、發表量刑意見和論點的過程,也無法使得當事人確信其所認真發表的觀點得到法官充分的考量,則司法權威性和司法公信力也會相應地減弱。(38)Adrian Zuckerman, “Artificial Intelligence - Implications for the Legal Profession, Adversarial Process and Rule of Law,” Law Quarterly Review,Vol.136, No.9,2020.對此,可以從兩方面來分析大數據算法可能惡化當事人參與訴訟程序的問題。從被追訴人的角度來看,當前的刑事案件智能輔助系統是由政府和私營網絡信息企業共同合作設計完成的,即算法權力是由政府部門所壟斷的,因而辯方無法了解人工智能應用的底層代碼和算法邏輯,難以評價和質疑算法的準確性和偏差度,始終處于算法信息劣勢的境地。事實上,算法自動化決策程序消解了訴訟程序中當事人陳述和申辯的環節,造成了程序參與原則的缺失。(39)張凌寒:《算法自動化決策與行政正當程序制度的沖突與調和》,《社會科學文摘》2021年第2期。而從司法機關的角度來看,犯罪預測工具、刑事案件智能輔助系統的引入和推廣將加劇偵查人員形成有罪推定的判斷,并且通過連鎖反應傳遞到法官,使其形成未審先定的預斷和偏見,則當事人通過參與訴訟來影響裁判的相關權利實質上受到損害。(40)李訓虎:《刑事司法人工智能的包容性規制》,《中國社會科學》2021年第2期。
程序參與原則缺失的直接后果是導致司法裁判的可接受性明顯下降。司法領域中決定當事人是否相信訴訟程序公正的因素主要有四項:一是審判人員在與當事人進行互動時是否尊重個人尊嚴,二是審判人員是否中立,三是審判人員是否值得信賴,四是當事人是否有機會參與訴訟程序。(41)Tom R. Tyler & Hulda Thorisdottir, “A Psychological Perspective on Compensation for Harm: Examining the September 11th Victim Compensation Fund,” DEPAUL L. REV. , Vol.53, No.2, 2003.但在人工智能司法當中,首先,理想狀態下當事人可能并不是直接與司法機關人員進行交互,而是由計算機程序來確定量刑方案,導致當事人作為人的尊嚴價值事實上被消解了。其次,對大數據算法的主要批評之一是其可能強化司法系統中已經存在的偏見和歧視,并且算法的不透明和復雜性也導致當事人對計算機程序難以產生信任和認同。最后,如果當事人能夠參與到訴訟過程中,并向裁判者表達自己的觀點,那么其更有可能相信程序是合法、合理的,尤其是能夠直接向法官講述自己版本的故事,就更有可能認為訴訟程序是公平的,這通常被稱為“過程控制”。在刑事司法系統中,由于被告人往往是由律師代理,很少在庭審程序中與審判人員進行直接交談,因而在過程控制上本來表現不佳,而大數據算法進一步惡化了該問題。即在傳統司法模式中,被告人在量刑時可以向法官做最后陳述,請求法官從輕判決,但在自動化司法中,被告人已經知道最終量刑判決實際上在庭審前已由計算機程序預測作出,其最后陳述并不是與真正的審判人員進行對話。(42)Alexandra Natapoff, “Speechless: The Silencing of Criminal Defendants,” N.Y.U.L. REV., Vol.80, No.5, 2005.人工智能司法決策可能導致機器法律與人類的正義觀之間的鴻溝不斷擴大,甚至司法機關也會開始失去公眾的認同和支持。
在刑事司法中,人工智能、大數據分析和機器學習通過技術賦能有效提升司法機關的辦案效率,但同時人工智能司法的迅速發展也引發關于技術與法治的激烈討論,即現行的程序正義理論是否能夠適應人工智能刑事司法。通過深入分析刑事司法人工智能應用實踐和現實技術發展水平,可以發現人工智能對法律行業的影響才剛剛嶄露頭角,應當以弱人工智能為現實語境來探討數字時代正當程序規制原理,才符合數字化刑事訴訟程序發展方向。
1956年,在美國達特茅斯會議首次提出人工智能的概念后,超強運算能力、大數據的出現和發展以及算法的持續改進,使得學術界在討論人工智能司法時思維發散,以至于把合理的想象和預期變成當下的真實。(43)李則立:《人工智能全面進軍法律界?先做好這三件事!》,載華宇元典法律人工智能研究院編著:《讓法律人讀懂人工智能》,法律出版社,2019年,第344頁。
1.兩種模式:強人工智能司法 VS 弱人工智能司法
根據人工智能所呈現的自主意識和能力的不同,可以將人工智能的發展階段分為弱人工智能和強人工智能,即“機器能夠智能地行動(其行動看起來如同它們是有智能的)”被稱為弱人工智能假設,而“能夠如此行事的機器確實是在思考(不只是模擬思考)”則被稱為強人工智能假設。(44)羅素、諾維格:《人工智能——一種現代的方法》,殷建平、祝恩、劉越等譯,清華大學出版社,2013年,第851頁。強人工智能相比于前一階段,能夠通過程序算法獲得自主意識,獨立思考問題并制定解決問題的最優方案,也被稱為人類級別的人工智能。(45)蔣佳妮、堵文瑜:《促進人工智能發展的法律與倫理規范》,科學技術文獻出版社,2020年,第6頁。事實上,令社會廣泛擔憂的機器人和人工智能屬于強人工智能,但到目前為止人工智能技術尚未出現“奇點” (Singularity)突破和爆發,因而人工智能的語義理解能力和識別人類情感能力尚落后于人類。(46)王瑩:《人工智能法律基礎》,西安交通大學出版社,2021年,第24頁。
在此前提下,判斷刑事司法人工智能應用實踐情況究竟是強人工智能司法還是弱人工智能司法,其核心依據是“法官是否已經能被人工智能所取代”。對于人工智能司法應用的定位,學界主要存在“智能替代說”和“有限智能說”兩種觀點。前者認為人工智能的本質是對人的意識與思維的信息過程的模擬,隨著技術的發展,人工智能會實現“替代法官實現非規范判斷”直至最終“代替法官直接作出裁判”。(47)黃京平:《刑事司法人工智能的負面清單》,《探索與爭鳴》2017年第10期。而后者認為在人工智能適用于司法的過程中,容易出現海量數據的殘缺性悖論;同時,算法的“程序剛性”和“不透明性”與司法實踐的“復雜性”和審判程序的“公開性”相沖突。以毫無節制的“人工智能+”方式改造審判空間后,法官定位勢必發生極大的動搖,甚至造成審判系統乃至司法權的全面解構,(48)季衛東:《人工智能時代的司法權之變》,《東方法學》2018年第1期。因此人工智能目前被定位為“法官辦案輔助工具”(49)潘庸魯:《人工智能介入司法領域的價值與定位》,《探索與爭鳴》2017年第10期。。而從司法實踐情況來看,目前廣泛應用的人工智能司法產品大多是將通用化的技術移植到部分司法活動中,但對于疑難案件的事實認定、證據的證明力評價和法律解釋等司法問題依舊難以通過人工智能來解決,還需要將法律知識、經驗邏輯、裁量理性等非形式因素與人工智能進行深度融合。
2.實踐分析:以人為本的刑事司法人工智能應用場景
認知科學家瑪格麗特·博登(Margaret Boden)區分了三種不同類型的創造力:一是基本創造力,主要處于探索可能性的邊緣,其占創造力的97%且適合用于日常計算;二是混合不同概念構造而組成的創造力(如曲線美的建筑),可能由人工智能來執行;三是變革性創造力,包括自行改變游戲規則,比如畢加索的立體主義畫作。(50)Margaret A. Boden, AI: Its Nature and Future , Oxford: Oxford University Press, 2016, pp.68-72.在強人工智能時代,智能體系是由感知、記憶、決定和行動等子系統構建而成的,而且可以自主開發概念和獲得技能,與人類最初的數據輸入和算法設計只存在微弱的關聯。此時以人類思維為基礎的程序正義理論對于強人工智能司法而言將毫無參考意義,因為人工智能具有人類難以企及的信息收集、分析和判斷能力,而人類的認知能力難以揭示、解釋機器學習和算法決策的內部邏輯。那么,法律訴訟的參與者將被視為糾紛根源,AI技術則被視為超越人類的問題解決方案。這種基于人工智能的超人類主義可以將所有的現實都簡化為數據,得出“人類不過是信息處理對象”的結論。(51)Sarah Spiekermann, Peter Hampson, Charles Ess, et al., “The Ghost of Transhumanism & the Sentience of Existence,” 2017-07-19, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3617635, 訪問日期:2022-11-09。
但在弱人工智能時代,大數據和算法技術應用于刑事司法當中并沒有降低人的主體性地位。具體表現為以下四個方面:一是在編程目標上,當下的自動化司法決策的算法設計和編程都是為了追求特定的任務,不具有一般人類智能水平。換而言之,人工智能仍然以任務為導向,它作為技術工具,是為人類設定的特定目標和具體的對象而設計的,而不是正常地思考、判斷和行動。(52)Turner, Jacob , Robot Rules: Regulating Artificial Intelligence, London: Palgrave Macmillan, 2019, pp.6-7.二是在算法邏輯方面,采用深度學習的人工智能是通過提取海量數據中的特征點來形成預測函數模型,并且隨著數據量的增大不斷試錯來調整模型參數。(53)劉東亮:《技術性正當程序:人工智能時代程序法和算法的雙重變奏》,《比較法研究》2020年第5期。但在司法實踐中,即使有極其微小概率的司法錯誤也會造成社會秩序混亂,所以需要由人類對自動化司法全過程進行持續監督和檢查。三是在訓練策略上,刑事司法人工智能應用是以監督學習為主,即人工標記訓練數據提供給機器,機器再根據人工標簽數據進行學習和預測。編譯數據庫和創建用于預測的算法都需要由人類做出判斷,涉及開發人員和管理人員的決策行為,因而可能出現輸入數據時存在偏差或者編譯代碼時植入偏見的錯誤。四是在自然語言處理上,從原則上講,機器可以執行自然語言處理,但其目前尚未完全理解和掌握自然語言。語言按照復雜性可以分為語法、語義和語用三個組成部分,其中語法決定語句的結構,語義關注語句的意義、詞語之間的關系以及所代表的含義,而語用學關注上下文之間的關系和意義。目前計算機科學已經整理了語法,在語義學方面也取得了長足的進步,但要完全掌握語用學還需要較長時間。(54)Brian Sheppard, “Incomplete Innovation and the Premature Disruption of Legal Services,” Mich. St. L. Rev., Vol.2015, No.5,2016.尤其是現有法律語言存在模糊性,不同學者對法律概念的內涵和外延認知有差別,對某一法律問題的理解可能在法律職業共同體內部有多種解釋。法律術語和法律解釋的標準化難題無疑使得司法領域中大部分難題仍然需要由人類來處理。
結合人工智能司法應用實踐情況,為構建專門針對刑事司法人工智能的規制機制,需要注意以下三點:一是規制對象主要是國家專門機關與被追訴人之間的權力(利)義務關系,大數據和算法只是國家機關延伸其能力的一種工具,而刑事司法中公民所享有的不受國家專門機關任意侵犯的消極權利和獲得司法機關司法救濟的訴訟權利都應當得到保障;二是規制依據依舊是程序正義理論當中關于中立性、公開性、對等性和參與性的法治原理,但需要考慮大數據和算法的使用不僅僅是提高國家機關的司法效率,還需要獲得公民對于訴訟程序的認同;三是規制重點并非大數據和算法技術本身,而是背后人的意志及其行為。正如杰克·巴爾金所言,“在算法社會,規制的核心問題不是算法,而是使用算法的人及允許自己被算法支配的人。算法治理是由人使用特定的分析和決策技術對人進行治理。”(55)杰克·巴爾金:《算法社會中的三大法則》,劉穎、陳瑤瑤譯,《法治現代化研究》2021年第2期。
那么,為什么要在刑事司法人工智能應用中堅持程序正義理論?在數字化時代刑事訴訟中,實現程序正義的基本要求,究竟可以產生哪些積極效果?從政策角度來看,黨的十八大以來,習近平總書記多次強調要推動大數據、人工智能等科技創新成果同司法工作深度融合,同時也要求讓人民群眾在每一個司法案件中感受到公平正義。在人工智能司法中貫徹程序正義是改革方向。而從理論角度來看,可以從尊嚴理論、司法公信力理論以及分布式道德責任理論的角度做出解釋。
1.尊嚴理論
在現代社會,我們每個人的個性和特征受到尊重,這一點與《中華人民共和國憲法》中被定位為“基本原則”的尊重和保障人權原則相符合。但在人工智能刑事司法當中,過度關注技術賦能、大數據算法黑箱和算法歧視以及嚴格司法的特點都可能會侵蝕這一原則。
第一,立法者、執法者和利益集團推動人工智能刑事司法的動機往往是對司法效率和司法精確性的追求,但狹隘地為了偵查犯罪、判定有罪和懲罰罪犯而追求智能司法可能威脅到尊嚴價值。(56)安德烈亞·羅思:《論機器在刑事審判中的應用》,載趙萬一、侯東德主編:《AI法律的人工智能時代》,法律出版社,2020年,第204-205頁。正如前述內容,執法部門已經開始運用預測性警務工具來破除立案程序的限制,并監督和約束不確定群體和個人,具有侵犯隱私和損害人的主體性的特殊風險。比如,“9·11”事件后德國立法機關根據已知恐怖分子的個人心理狀態等相關信息,創造出“恐怖分子潛伏者”的概念。這種國家大范圍監控的預測性算法根據與犯罪關聯并不緊密的精神狀態等因素,對信仰伊斯蘭教的人員進行提前篩選,并將未被公開的穆斯林原教旨主義人員定位為“恐怖分子潛伏者”,推斷出其未來可能發生的犯罪行為。(57)Ale? Zavr?nik, “Algorithmic Justice: Algorithms and Big Data in Criminal Justice Settings,” European Journal of Criminology, Vol.18, No.5, 2019.這種拉網式調查的預防性篩查行為事關公民的隱私和尊嚴,若只是從經濟合理性和效率性出發考慮,則會導致在實踐中脫離刑事訴訟程序的嚴格規制,使得偵查機關實際上處于一種恣意濫權的狀態。對此,需要通過貫徹程序正義理論來重新考慮數據和算法資源的分配正義問題,通過抑制公權力機關的恣意行為,加強訴訟中的人權保障,來為刑事司法中的個體提供平等參與訴訟的機會。
第二,人工智能司法中的算法偏見、算法黑箱等問題加劇侵蝕個人的尊嚴自主空間。具體而言,犯罪風險評估工具可能列入虛假相關性作為犯罪風險預測評估的基礎,并且將現實中已經存在的偏見和錯誤認識混入算法,導致預測的準確度下降,得出對被告人不利的風險評估結果。如果社會中的某些群體更有可能因為種族或居住的社區而被定罪,那么將前科或家庭住址作為決定刑期長短的關鍵因素的量刑算法將加劇現有的不平等。(58)Ric Simmons, “Big Data and Procedural Justice: Legitimizing Algorithms in the Criminal Justice System,” Ohio State Journal of Criminal Law, Vol.15, No.2, 2018.此外,算法黑箱會導致被評價對象無法預測對自己的評價結果,無法有意識地自主選擇和改變自身的不當行為,這相當于變相地剝奪被告人的自我改造機會。以Loomis案為例,被告主張做出再犯風險評估的智能系統無法保證準確性也不具備驗證可能性,侵害了其受憲法保障的正當法律程序權利。由此也會產生諸多問題,比如算法黑箱導致無法說明做出此種預測結果的理由;相關評價只是預測具有類似屬性人員實施再犯的一般可能性,而非預測被告人實施再犯的具體可能性;該系統還存在著種族歧視傾向,即將黑人再犯的風險可能性估算為白人的兩倍。(59)State v. Loomis, 881 N.W.2d 749 (Wis. 2016).對此,在人工智能司法中貫徹程序正義理論,要求法官不能將犯罪風險評估結果作為最終評價結論,而需要在程序上批評性地斟酌AI所做的預測評價,秉持客觀態度、冷靜地側耳傾聽被告人自身所言的故事,對被告人說明裁判的理由,以及賦予當事人對相關預測評估提出異議的權利,如此才能防止系統對個人做出概括性評價所導致的算法不公。
第三,即便能夠排除算法偏見和算法黑箱,追求內部一致性和預測有效性的自動化司法也可能侵犯人的尊嚴和主體性。一方面,刑事司法中法律文本并不能完全體現正義,需要一定程度的自由裁量權作為法律體系的必要補充部分,尤其是法官在緩和刑事處罰和個別化處遇方面能夠發揮重要作用。
但自動化司法是較為固定地應用法律規則,因為軟件預先確定了一組事實對應的法律后果。(60)James Grimmelmann, “Note, Regulation by Softiware,” The Yale Law Journal, Vol.114, No.7,2005.而隨著時間的推移,為克服裁判的不確定性,法官越發依賴通過咨詢人工智能來幫助他們做出決策,則算法將可能成為法律,甚至有效地取代法官。(61)⑥⑧Adrian Zuckerman, “Artificial Intelligence-Implications for the Legal Profession, Adversarial Process and Rule of Law,” Law Quarterly Review, Vol.136, No.9,2020.這將削弱法官的自主性和尊嚴,使得法官淪為真正意義上的“橡皮圖章”和“自動售貨機”。另一方面,對于被告人而言,過度自動化的司法模式對于司法自由裁量權的限制可能導致其在庭審之前就已經被判處刑罰。被告人所提出的證據、事實和主張無法在法庭上由法官進行慎重地分析、考量和論證,也對裁判結果無法產生有效的影響力。被告人最終淪為人工智能任意擺弄和處置的訴訟客體,而非獨立的權利主體。畢竟法官不是“黑箱”,他必須在公開法庭上將事實調查結果記錄在案和聽取控辯雙方意見,并受上訴法院審查。
當然,也有反對意見認為,若是能夠盡可能詳盡輸入關于被追訴人的相關數據,則特征點就會相當細微,所得出的預測結果更加接近于被追訴人的現實狀態,也更加準確和公正,這似乎是將被追訴人作為個人來尊重。(62)山本龍彥:《機器人、AI剝奪了人的尊嚴嗎?》,彌永真生、宍戶常壽主編:《人工智能與法律的對話3》,郭美蓉、李鮮花、鄭超等譯,上海人民出版社,2021年,第78頁。但以提高預測精度為目的來增加輸入數據,則可能與隱私權保護之間產生緊張關系,甚至過于精細的AI人物側寫會追溯和記憶關于被告人犯罪前科的相關信息,陷入“數字污名”困境,與尊重個人原則相互沖突,危害其重新獲得的社會生活的平穩性。(63)山本龍彥:《AI與“尊重個人”》,福田雅樹、林秀彌、成原慧主編:《AI聯結的社會——人工智能網絡化時代的倫理與法律》,宋愛譯,社會科學文獻出版社,2020年,第320-321頁。因此,程序正義理論要求合理限制AI獲取數據的整全性,將其從特權地位驅趕下來,由中立的裁判者通過綜合考量和自由裁量來最終量刑,以確保人們獲得主體性。
2.司法公信力理論
程序正義理論可以通過兩種方式建構司法公信力:一是參與者感覺到與決策者有個人聯系,比如參與者與決策者來自于同一群體;二是決策者詳細解釋了其做出的決定。(64)Tom R. Tyler & E. Allan Lind, “A Relational Model of Authority in Groups,” Advances in Experimental Social Psychology, Vol.25, No.1, 1992.在第一種情況下,之所以人們相信法院裁判的道德權威,是因為法官和當事人都共同分享著一般理性和常識推理,當事人也熟悉行使司法自由裁量權的法官主觀上的信仰、感情、抱負、忠誠、社會觀等道德觀念。⑥但就人工智能司法決策而言,其可能很好地反映了法律的邏輯推理,但目前為止無法理解和執行任何道德判斷,所作出的判決不一定能反映當事人的期望,難以促使公民對司法裁判形成制度上的信任。正如威爾莫特·史密斯所言,人們關心的不是法律的權威,而是法律機構的權威。(65)F. Wilmot-Smith, Equal Justice, Cambridge, Massachusetts: Harvard University Press, 2019, p.1.在第二種情形中,在法庭上對相關利害問題進行辯論時,律師不僅僅發表抽象的專業意見和提供獨立代理,也會傾聽當事人的意見和理解其主觀感受、情緒反應,因而能夠提供相應的情感支持,最關鍵是能向法官傳達當事人復雜的主觀立場。而法官也能夠與訴訟當事人進行溝通,在作出判決時說明理由,從而鞏固法庭的合法性以及裁判的公信力。但是人工智能缺乏第一人稱的主觀視角,其算法不透明和難以理解,無法形成由正義司法官、公開的法律程序所構成的庭審權威圖景。⑧因此,根據自然公正(Natural Justice)的核心原則,任何一個案件都需要用充分的理由解答其決策邏輯。相應地,通過確保自動化司法決策具有一定的透明度,或者由特定領域的專家來解釋數據的輸入和輸出,能夠使得所有訴訟參與者充分了解算法決策的前因后果,消除算法黑箱下隱藏的程序不正義,提升最終量刑裁判的司法公信力。
3.分布式道德責任理論
正如福柯所言,現代社會的秩序主要不是由國王或國家權力維持的,而是由遍布社會的類似毛細血管的權力維持的,其權力結構并非中心式的集權統治,而是由分布在社會基層人際關系中的各種微觀權力組成。(66)米歇爾·福柯:《規訓與懲罰(修訂譯本)》,劉北成、楊遠嬰譯,生活·讀書·新知三聯書店,2019年,第230-231頁。同理,在數字化時代下,在一個代理系統中,道德行動是由道德中立或者至少道德上可以忽略的人、機器或者雜合體等多個代理間的交互行為產生的。比如數據畫像是數據生成者、數據采集者、數據分析者、數據使用者、數據擁有者以及數據平臺等多個主體的交互行動聚合而成,才能對單獨個體的行動軌跡、行為模式、偏好等進行數據畫像。此時出現錯誤或不法時,需要對分布式行動的道德責任進行厘清。(67)閆宏秀:《數據時代的道德責任解析:從信任到結構》,《探索與爭鳴》2022年第4期。而在數字技術嵌入刑事司法活動后,由人類和機器混合做出司法決策將成為司法常態。當發生錯誤決策時,則涉及司法機關、數據提供人員、開發設計人員、系統維護人員、系統部署者以及軟件使用者等多個主體的責任鏈條分配問題。(68)張凌寒:《智慧司法中技術依賴的隱憂及應對》,《法制與社會發展》2022年第4期。此外,由于自動化司法決策系統的隨機性以及算法運行過程的復雜性和不透明,司法人員無法有效審核評估大數據算法的合理性,但又受制于司法追責壓力,則可能在越發借助和依賴人工智能司法決策的同時,將錯案責任推卸給機器。(69)高童非:《數字時代司法責任倫理之守正》,《法制與社會發展》2022年第1期。對此,為避免產生阻礙技術發展的數字化道德責任分配困境,在技術上需要實現決策程序全過程留痕,同時有必要依據程序正義理論來為決策錯誤追責設定一個合理的閾值,在必要時才能將刑事司法人工智能應用系統的研發者、設計者、維護者和部署者納入追責體系當中,避免將人類自身的決策錯誤推卸到智能技術身上。
傳統程序正義理論在提出時并未考慮到人工智能技術在司法領域當中的廣泛運用,因而針對算法歧視、算法黑箱、數據偏差等自動化司法決策程序出現的問題往往無能為力,導致程序正義理論中強調的中立、公開、對等、參與等核心要素都受到一定程度的侵蝕。但值得慶幸的是,弱人工智能時代的智能司法的價值選擇是在堅持以人為本的基礎上盡可能發揮人工智能的功能,因而程序正義理論依舊是規制刑事司法中大數據和算法技術的核心理念。“人工智能法律規則應堅持以人為本,發揮技術的正價值,規避技術的負價值,秉持人工智能局部替代人類、整體增強人類的價值理念。”(70)于海防:《人工智能法律規制的價值取向與邏輯前提——在替代人類與增強人類之間》,《法學》2019年第6期。
對此,2007年,希特倫教授提出了“技術性正當程序”(Technological Due Process)的概念,在堅守正當程序關于中立性、公開性、對等性和參與性的司法理念的同時,也要求兼容發展技術理性以助力技術創新,因而強調通過優化設計提高自動化決策程序的公平、透明和可問責性。(71)Danielle Keats CitronI, “Technological Due Process,” Washington University Law Review, Vol.85, No.6,2008.盡管“技術性正當程序”一詞往往適用于自動化行政程序當中,但其在刑事訴訟當中也具有一定的適配性,因為兩者實際上都是借助于對個人權利的嚴格保護來實現程序正義。而下文將進一步圍繞“技法兼容”的思路來探討刑事司法中技術性正當程序的基本內涵。
算法黑箱和算法偏見是威脅裁判中立原則和程序公開原則的兩大風險要素,其中算法黑箱有可能導致算法偏見,但算法偏見也可能來自算法開發者及其開發過程。整體而言,算法黑箱與算法偏見都是刑事司法人工智能應用中需要認真對待的重要風險。2019年6月,我國新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,強調了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理八條原則。其中,第二項“公平公正”原則要求在數據獲取、算法設計、技術開發、產品研發和應用過程中消除偏見和歧視,第五項“安全可控”原則要求人工智能系統應不斷提升透明性、可解釋性、可靠性、可控性。對此,排除算法偏見和確立算法透明原則是技術性正當程序的應有之義。
1.排除算法偏見
算法偏見的具體成因包括數據中預先就存有偏見、算法本身構成一種歧視、數據抽樣偏差及其權重設置差異等,導致的直接后果是平等權保護危機。對此,依據算法偏見形成的不同階段,在數據收集、算法設計以及應用階段應當采取不同的規制措施來抑制算法偏見問題。一是在數據收集階段,機器學習算法是根據其訓練中使用的歷史數據進行預測操作的,可能由于司法數據的體量和質量缺陷,影響人工智能司法應用的精準性與普適性。對此,需要司法機關打破內部信息壁壘,實現司法數據共享,由適合對各司法機關進行統籌引導的部門牽頭完善跨區域、跨部門的統一司法數據庫建設。(72)程凡卿:《我國司法人工智能建設的問題與應對》,《東方法學》2018年第3期。二是在算法設計階段,實踐中人工智能司法應用是由司法機關聯合技術公司共同研發的。為防止在算法編碼過程中植入設計者的偏見或者轉化既存的社會偏見,司法機關應當向編程人員詳細闡釋模型設計整體意圖和價值取向,排除經濟文化社會中不公正的偏見進入到決策程序的可能性。三是在軟件應用階段,應當對最終決策的公安司法機關人員進行風險提示和警告,要求其認識到算法可能混入錯誤和偏見,因而需要批判性地考量智能司法應用所做的預測評價。在Loomis案中,威斯康星州最高法院從憲法上正當程序的角度出發,書面警示法官COMPAS所作預測評估存在不完整性,比如其中算法考慮的諸多要素因為知識產權保護無法得到公開,評估工具只以威斯康星州的人口構成為前提的調查(未交叉驗證)以及將少數族群歸類為再犯風險更高人員的歧視行為,因而需要法官秉持懷疑態度來審視預測結果,不能將其作為最終評價。(73)State v. Loomis, 881 N.W.2d 749 (Wis. 2016).但這些告知和提醒公安司法人員的程序性保障措施,通常是無效手段,因為忽略了相關人員的評估能力、盲從心態以及職業壓力。對此,需要結合算法透明原則,要求算法設計者或維護者告知機器預測結果的邏輯關系和正當理由,確保公安司法人員有能力進行審查和評估。
2.算法透明原則
算法黑箱問題既可能是基于保護商業秘密和國家安全的人為因素,也可能是因為大數據算法的復雜性。在刑事司法中確立算法透明原則需要做到兩點:一是通過算法公開來揭示人工智能司法的運作原理來確保決策具有可監督性,二是要完整記錄算法運行過程中所依據的事實和規則來確保決策具有可追溯性。對于前者,學界當前存在關于算法公開方式的爭議,即“完全公開說”和“限制公開說”。“完全公開說”認為任何用于司法或執法的基本算法都應該是公開的,算法運算的“商業秘密”不能對抗公共利益,政府應當重視公共領域中算法的透明度,通過立法要求相關主體公開源代碼,使其接受公眾監督。(74)李婕:《壟斷抑或公開:算法規制的法經濟學分析》,《理論視野》2019年第1期。“部分公開說”則認為公開底層數據和代碼既不可行,也無必要。一方面,從技術角度的層面來看,算法和數據在大多數人看來都是宛如“天書”的錯亂代碼,要求強制公開所能發揮的公眾監督作用非常有限;(75)劉東亮:《技術性正當程序:人工智能時代程序法和算法的雙重變奏》,《比較法研究》2020年第5期。另一方面,依據比例原則,算法設計人員和維護人員向公安司法人員和當事人公開披露系統算法和數據代碼,可能威脅到我國的數據安全和信息保護。而在刑事司法系統中,公檢法機關人員和當事人并不需要對算法的底層代碼有深刻的理解,只需要知道算法使用的因素、權重分配以及算法結果的歷史準確性,而這些信息對于技術部門而言較為容易提供。(76)Ric Simmons, “Quantifying Criminal Procedure: How to Unlock the Potential of Big Data in Our Criminal Justice System,” Michigan State Law Review, No.4, 2017.因此,在其他法律領域確立保障商業秘密和國家安全的適當舉措后,制作預測警務和風險評估軟件的公司應當生成并保留一段時間內的輸入數據和輸出結果以及犯罪預測因素,同時賦予外部各方受控的、有限的訪問權限,保障被告人在訴訟中不因種族、性別、收入等因素而受到歧視。此外,自動化司法應當生成審計追蹤記錄,用于后續說明支持其決策的事實和規則,但由于涉及算法決策程序的過程控制,將在下文詳細論述。
程序正義理論的基本要求是受裁判直接影響的人員能夠獲得平等參與審判過程的機會,從而對裁判結果的形成發揮有效的影響。但在自動化司法決策程序當中,由于算法和數據被國家機關壟斷,被追訴人受制于技術壁壘和數據獲取分析能力有限,司法實踐中辯方可能沒有機會和能力在訴訟活動中對決策結果進行質證、反駁和發表辯論意見。對此,為保障辯方充分參與自動化司法決策過程,需要構建和完善以算法審計為核心的過程控制機制,為被追訴人對算法邏輯和預測結果表達自我見解提供前提要件,同時也需要公檢法機關在訴訟過程中履行向辯方說明依據智能輔助系統做出決策的正當理由,聽取辯方的反饋意見并及時進行合理解釋。
1.以算法審計為核心的過程控制機制
“算法審計”和“算法透明”都是對算法黑箱所引發的潛在問題的回應。但與全面公開人工智能源代碼不同,算法審計是由可控的、非特定專業專家小組來執行監督,對不當的決策規則進行干預和糾正,而不會向公眾全面披露代碼和其他專有信息。(77)Susskind, Jamie, Future Politics: Living Together in a World Transformed by Tech, Oxford: Oxford University Press, 2018, p.355.算法審計機制主要分為審計追蹤和專家審計兩個關鍵步驟,前者要求軟件開發人員創建一種溯源技術,用于記錄支持算法決策的事實和規則,即在每次運行算法時對非特定被告人數據、特定被告人數據以及合并前兩類數據以產生評估的具體運算邏輯過程進行存檔,詳細說明系統所做的每一個關鍵決策中所應用的實際規則。這為之后對算法決策進行正當性分析和技術推理提供可能性,也有助于公檢法機構向當事人說明裁判理由,明確利用自動化司法系統對其重要權利做出決策的緣由。(78)Danielle Keats CitronI, “Technological Due Process,” Washington University Law Review, Vol.85, No.6,2008.此外,審計追蹤制度的建立能夠覆蓋軟件編程設計、實施和應用整個流程中所有人員的行為活動,為所有涉及的角色構建一個完整連續的責任鏈條,以便于對算法決策全流程進行持續監督和檢查。(79)雷剛、喻少如:《算法正當程序:算法決策程序對正當程序的沖擊與回應》,《電子政務》2021年第12期。而在專家審計階段,考慮到被追訴人和律師的技術分析能力有限,則可以結合我國《刑事訴訟法》第一百九十七條規定的專家輔助人制度,將辯方聘請的具有專門知識的人列入算法審計專家小組當中。公檢法機關應當在庭審之前組織專家小組對人工智能司法系統進行評估和審核,而專家小組對決策系統的準確性和偏差值所發表的意見應當隨案移送并允許辯方進行查閱、摘抄和復制。同時,參與算法審計的辯方專家可以在庭審時就相關技術問題作出說明,以便控辯審三方更為有效地理解自動化司法決策結果的價值和限度。
2.權利保障的兩個關鍵:說明理由和聽取意見
人工智能介入刑事司法的最大危機是在不斷消解當事人參與訴訟的行動空間、影響范圍以及救濟渠道,導致被追訴人所享有的知情權、參與權、異議權以及救濟權處于名存實亡的境地,從而動搖司法裁判的公信力和實效性。對此,應當明確技術融入司法活動當中不能只是強化國家機關偵查、控訴和定罪的能力,而是應當通過技術來進一步保障被告人依法享有的訴訟權利,調試控辯不平衡問題。簡而言之,一方面,公檢法機關在使用預測警務軟件和犯罪風險評估工具時,應當根據具體的案件情況,在明確清楚自動化司法決策是可能出錯的前提下,向被追訴人及其辯護律師詳細說明作出決策時所依賴的計算機生成的事實或法律調查結果。我國《個人信息保護法》第二十四條第三款也規定,“通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。”只有算法決策對受影響的當事人來說是透明和可理解的,算法才顯得可信。(80)Ric Simmons, “Big Data and Procedural Justice: Legitimizing Algorithms in the Criminal Justice System,” Ohio State Journal of Criminal Law, Vol.15, No.2,2018.
但公檢法機關在說明決策理由時,應當明確以下兩點:一是注重說明理由的重點內容在于生成特定決策結果的算法邏輯,而非對于算法決策系統的設計、數據、邏輯等進行寬泛解釋。(81)周尚君、羅有成:《數字正義論:理論內涵與實踐機制》,《社會科學》2022年第6期。因為對于公安司法人員而言,其并不擅長對智能司法系統的底層代碼和算法模型進行技術性解釋,而是應當結合具體適用場景以一種可理解的方式來闡釋決策結果的依據。《關于加強互聯網信息服務算法綜合治理的指導意見》第十三條也規定做好算法結果解釋,消除社會疑慮,推動算法健康發展。二是針對法院系統由于司法鑒定制度改革導致內部缺乏專業技術人員的難題,可以借鑒知識產權訴訟的技術調查官制度,在特定刑事案件當中引入輔助法官的技術專家人員。在法官審理特定刑事案件遇到難以理解的技術問題時,技術調查官可以運用專業技術知識為法官答疑解惑,協助法官斟酌評估和詳細說明自動化決策的合法性和合理性,并依法做出裁判。(82)楊秀清:《我國知識產權訴訟中技術調查官制度的完善》,《法商研究》2020年第6期。
此外,依據我國《刑事訴訟法》第八十八條、第一百六十一條、第一百八十七條以及第一百九十五條等相關規定,公檢法機關在審查逮捕、偵查終結前、審查起訴、庭前會議以及審判過程中都應當聽取當事人及其辯護人的意見。而2016年歐洲議會及歐盟理事會發布的《歐盟一般數據保護條例》第二十二條第三款規定,“數據控制者應當實施適當的措施保護數據主體的權利、自由和合法利益,至少獲得對控制者部分的人為干預權,表達數據主體的觀點和同意決策的權利。”(83)中國信息通信研究院互聯網法律研究中心、京東法律研究院主編:《歐盟數據保護法規匯編》,中國法制出版社,2019年,第71頁。對此,刑事案件中只要公檢法根據AI的預測結果來進行決策,對當事人的權利產生法律影響的,都應當積極聽取當事人及其辯護人對自動化司法決策結果的意見;若被追訴人對決策結果持有反對意見,認為公安機關、人民檢察院、人民法院及其工作人員不當使用或過度依賴智能司法系統,阻礙其依法行使訴訟權利的,可以向該機關或者其上一級機關投訴,也可以向同級或者上一級人民檢察院申訴或者控告。
沒有制裁則沒有義務。當人工智能司法工作發生錯誤時,原有的歸責制度沒有考慮到算法決策或人機協同決策的情況,無法妥善解決現有的分布式道德責任分配問題,因而有必要建立相應的算法問責機制,來防止智能司法系統出現監管缺位和權力濫用的風險。對此,可以從以下兩個角度出發來完善算法問責機制:一是以保護當事人權利為優先確立公安司法人員優位追責原則。因為在刑事司法當中,公安司法人員與當事人的利益聯系最為緊密,對于被告人訴訟權利的侵害也最為直接,同時公安司法人員在使用人工智能時還負有監督審核并在第一時間進行問題矯正的義務。(84)程凡卿:《我國司法人工智能建設的問題與應對》,《東方法學》2018年第3期。此外,為鼓勵信息技術的創新發展和新技術在司法領域中的深化運用,應當明確只有算法決策程序出現系統性、結構性錯誤時,才可以對技術人員進行追責,原則上不能將司法工作錯誤無正當理由推卸給算法設計者、開發者或者維護者。(85)高童非:《數字時代司法責任倫理之守正》,《法制與社會發展》2022年第1期。二是在追責前應當明確技術人員的配合司法義務。對于設計和搭建智能司法系統的技術人員而言,無論是軟件開發者、系統架構師還是應用維護人員,也不管是出于善意還是出于惡意,其都應當嚴格執行公安司法機關告知的設計需求和目標,不得嵌入影響用戶權利義務的非正式規則,即不得讓編程變成立法。(86)理查德·薩斯坎德:《線上法院與未來司法》,何廣越譯,北京大學出版社,2021年,第162-163頁。尤其是當事人的訴訟權利是通過民主的立法過程在我國《憲法》和《刑事訴訟法》中予以明確規定的,這種立法過程提煉了特定時期社會的公共利益和主流價值觀,不得降級為計算機科學專家們在實驗室中的編程工作。(87)Ale? Zavr?nik, “Algorithmic Justice: Algorithms and Big Data in Criminal Justice Settings,” European Journal of Criminology, Vol.18, No.5,2019.此外,上文提及的技術人員構建審計追蹤機制以及協助使用者解釋算法和說明理由的配合義務,可以由最高人民法院、最高人民檢察院、公安部聯合相關技術監管部門共同出臺規范性文件來統一規定研發標準和法律責任。