劉 妍
(中國政法大學 刑事司法學院,北京 100088)
眾所周知,人工智能(Artificial Intelligence,簡稱AI)的發展已是當代顯學,世界各國的政府、企業、學校等無不爭相投入人力、物力和財力,希望在未來人工智能應用領域占得先機。 機器是否有智慧,與人類之間應當如何展開互動的情境,已從科幻小說變為現實。 在法律領域,人工智能與司法之交互關系,同樣成為眼下的熱門話題。 早在2013 年,牛津大學的研究人員就發布了《未來職場:哪些工作將可能被電腦取代?》的調查報告。 該研究以702 種職業為對象,認為在未來不確定的時間里,有47%的職業將因人工智能的發展而面臨被電腦化(computerisation)的風險。 其中,涉及法律職業的研究結果顯示:律師有30%—50%的被替代風險,或者可以理解為有30%—50%的工作可以交由人工智能來處理,而不需要人力親為;法官有40%的被替代風險;法官助理、書記員等司法輔助人員有41%的被替代風險;仲裁員、聽證程序員等崗位則有64%的被替代風險[1]。
與這一發展趨勢相對應,“人工智能+司法”的嘗試在目前我國法院系統深入推進,江蘇、上海、河北、貴州等地法院已經開始應用一批智能化輔助辦案系統。 從具體類型來看,這些人工智能輔助系統不僅可以將訴訟信息轉化為電子數據,實現紙質卷宗電子化,同時,也可以從海量裁判數據中提取類似的情節與要素,進行關聯案件的定罪和量刑預判。 整體而言,對于提高司法效率、提升審判質量、規范辦案流程起到了積極的促進作用。 但從研究的角度來講,與新技術迅疾發展、實務界對技術適用熱情高昂相比,法學理論的研究則顯得后知后覺。 雖然已有不少論者圍繞著人工智能司法適用的問題、界限、未來發展等進行了較為豐富的論證,但整體上仍趨于宏觀。 特別是在人工智能司法應用的現狀和局限問題上,沒有進行較為完整的系統化梳理,相關對策研究也未抓住問題之要害。 基于此,本文認為,我們在堅持人工智能司法輔助地位的同時,必須要將其應用和局限進行體系化考察,并在此基礎上提出我國未來人工智能司法應用的完善路徑。
目前,人工智能配合類神經網絡、自然語言處理、大數據等技術,通過大量資料的積累,可以對輸入的數據、信息進行快速和科學化分析,找出特定模式進而輸出預測的結果。 可以說,人工智能技術最大的優勢就在于效率,其能夠在快速分析的同時,保證一定程度的準確性,因此受到司法實務部門的偏愛(1)例如:2019 年6 月底,北京市高級人民法院推出了“睿法官”智能研判系統,為法官提供辦案規范和量刑分析;上海市高級人民法院研發了“刑事案件智能輔助辦案系統”(206 系統),該審判輔助系統包含了單一證據校驗、逮捕條件審查、全案證據審查判斷、社會危險性評估、量刑輔助等內容,為案件的審理提供全面支持。。 總體而言,其主要應用領域有三。
當下,人工智能系統司法應用的一個主要領域便是輔助辦案人員檢索法律、辦案規范、關聯案例以及其他相關資料。 其中,最常用的是法律檢索系統(legal research system)。 該類系統主要以法律、法規和案例為主要儲存對象,并在此基礎上進行整理與編碼。 早在20 世紀60 年代,美國匹茲堡大學便研發了阿斯潘系統(Aspen System),通過計算法律文獻中字詞出現的頻率來對法律資料進行分類,使用者在搜索欄輸入關鍵字后,會立即出現包含該關鍵字的法律法規[2]。 在此基礎上,人工智能技術進一步設計了關聯因素檢索系統。 這類系統不再以字或詞的機械重合為分類標準,而是以字詞間的相似度或相關性為基礎,匹配具有關聯性的法規或判決。 如此,大大提高了搜索的匹配概率。
與一般意義上的法律檢索相比,司法中人工智能技術被頻頻提及的是其風險評估效用。 風險評估算法(risk assessment algorithms)是一種方程式,被用來收集一個行為人過去刑事犯罪的大量信息,以及其他的生平和心理信息,基于這些信息計算出一個得分,用以表明行為人處于何種不同的風險等級狀況。 按照使用主體的不同,這一系統被用來作出假釋決定、恢復性司法項目安置(例如戒毒康復計劃),以及判決被告人的量刑幅度[3]。 2016 年,美國便因法院將風險評估系統用于被告人量刑而引發了著名的States v.Loomis 一案。 該案中,原審法官在確定被告人Loomis 的最終刑罰時借助了COMPAS 量刑系統。 COMPAS(Correctional Offender Management Profiling for Alternative Sanctions,中文直譯:替代制裁的罪犯矯正管理分析),是一家叫作Northpointe 的私營企業產品,用于預測人們未來犯罪的可能性并給出具體的監禁年限建議。 這份測試中一共有137 道題,分別有現行指控、犯罪記錄、家庭背景、教育水平、工作等15 個板塊。 完成測試后,COMPAS 會基于一定的算法和數據庫,給出0—10 分的危險系數,其中10 分為高危,表示再次犯罪可能性極大。 對此,被告人Loomis 以法院使用這一風險評估系統違反了其正當程序權利為由提起上訴。 最后,美國威斯康星州最高法院認定風險評估算法,即COMPAS 系統可以被用于量刑,并且闡述了幾項提示性規定,意在防止法官量刑時過分依賴該系統的結論[4]。 這一點,筆者會在后文中提及。 目前,美國包括紐約州、弗吉尼亞州、猶他州等很多州都建立了自己的“危險評估系統”,COMPAS 只是眾多暢銷全美的AI 工具中的一個而已。 相較而言,美國刑事司法中的風險評估系統主要以社會危險與再犯可能性的“危險評估”為重點,而我國人工智能主要以“智能辦案系統”的辦案綜合體的角色存在。 雖然監獄系統也在用類似COMPAS 的評估系統來評價在押罪犯的改造情況,但其功能定位主要是輔助性的,檢測結果僅作為參考。 而法院系統的風險評估則是一種程序層面的審判監督管理,通過審判風險防控系統,將包括審限在內的案件流程細化為80 至125 個風險點不等,實現風險點一鍵監管,嚴格控制超限超期案件數量。
“9·11”事件后,包括美國在內的世界上大部分國家開始投入相當多的資源用于反恐事業,與此同時,犯罪預防也一并納入其中。 各國司法執法部門開始與人工智能技術企業合作,開發資料收集、分析、定位與共享系統。 通過對這些數據的整合,來達到預測及防止犯罪發生的效果。 例如:通過分析最有可能發生犯罪的主體、犯罪區域、犯罪事件,有針對性地部署有限的司法資源。 美國聯邦層面提出了“智慧警察”(Intelligence-led policing)概念,整合各執法部門和情報部門的資源,以有效部署警力。 倘若這些分散在各個部門的數據和資料由人工來進行整合,不僅會面臨效率低下的困擾,還會因信息不全面而導致犯罪預測失誤。 但人工智能技術則不同,它可以結合社會學、心理學以及行為模式對收集到的包括恐怖活動在內的犯罪信息進行預測、分析,甄別情報的可能度,以此來提高預測的準確性和效率。 地方層面,美國圣地亞哥地區早在2000 年便推出了“地區自動化司法信息系統”(Automated Regional Justice Information System)。 這是一個由檢警機關共享的系統資料庫,系統每24 小時更新犯罪活動定位、通緝犯名單以及犯罪信息,還囊括了警察執法、法院司法矯治信息[5]。
以時下熱議的人臉識別技術為例,美國已經有近30 個州的立法允許執法部門建立自己的搜索系統,隨時查閱州內公民的駕照和身份證照片。 聯邦調查局也可以通過這些系統直接獲取18 個州的公民照片信息。 通過這種實時人臉識別技術,警方可以從已有數據庫中(包括靜態照片和動態視聽資料)提取有犯罪嫌疑或犯罪記錄者的面部信息,然后將此放入目標資料中進行匹配。 這種數以萬計的匹配工作,對于智能面部識別工具而言,只需要非常短的時間就可以完成,讓警方能夠在犯罪或恐怖事件發生之前,及時采取應對措施。
在這種預測性執法(predictive policing)機制中,人工智能技術扮演著司法預警的角色,它可以預測出人類行為的走向,進而知道目標對象下一步會做什么。 正因為如此,偵查機關才能通過動態攝影追蹤系統,在多人的動態場合也能夠鎖定可能犯罪之人。 目前,這類技術被警方廣泛運用于球賽、大型會議、運動會等活動的安全防控與監管領域。 順應世界趨勢,我國公安系統將人臉識別和深度算法系統廣泛地應用到日常治安管理和犯罪調查中。 特別是在新冠肺炎疫情的影響下,智能識別技術扮演了不可或缺的角色。 與此對應,法院采取的則是預測性司法,現有量刑偏離分析系統和智能模擬判決系統,不僅能讓法官將預設判決與系統生成的同類案件判決進行比對,得出判決的偏離度,為法官同案同判提供參考,也可以根據涉案情節的分類和表述,自動匹配案由模型,并隨之生成一個模擬的判決結果,讓當事人對案件的走向和結果有一定的預期。 不僅如此,法院現有的大數據智能分析系統還可以自動提取現有案件數據的潛在價值,為將來的司法裁判提供參考。
證據開示制度是美國民事、刑事訴訟程序中雙方自主交換證據資料的司法程序。 與以往紙質交換不同的是,隨著數字科技的發展,信息化滲透到民眾生活的每個面向,有關的資料和證據多以電子形式存儲。 控辯雙方如何對這些資料進行開示,法院以何種方式對這類證據進行認定和評判,都成為訴訟中非常現實的問題。 特別是在涉及公司企業的金融犯罪類型案件中,當警方進行查證或扣押后,往往會獲得數量龐大的數據信息和材料。 偵查機關所要面臨的問題是如何在最短時間、耗費最少人力的情況下,迅速提取出與本案相關的證據,從而盡快制定下一步的偵查方向,或是進行對嫌疑人的羈押必要性判斷。 對此,2006 年美國修正了聯邦民事訴訟規則,為電子證據的開示提供了明確且完整的規范。美國司法實務中也開發了技術輔助查閱(technology-assisted review)系統,其目標就是在合理的時間內,在海量信息中盡可能搜尋所有可用的相關證據[6]。
那么,通過這類輔助系統所獲取的數字資料,是否可以作為證據來使用? 對此,2012 年,紐約州聯邦法院在一個女性員工起訴雇主勞動歧視的案件中,首次賦予了通過電腦輔助提取的數字證據以法律效力。 法官Andrew Peck 在判決意見書中指出:電腦輔助查閱和提取證據應當被允許使用在這類案件中,從而確保數字證據開示程序的公正、迅速和不昂貴[7]。 類似的情況也發生在英國。 2016 年,英國法院通過Pyrrho Investments Ltd v. MWB Property Ltd[8]. 和David Brown v. BCA Trading Limited and Others[9]兩個案件,陸續在判決中認可了借助人工智能技術進行證據開示的法律效力。 前一個案件中,涉及的電子文件多達300 萬份,而后一個案件中牽涉的電子證據也有50 萬份。 在第二個案件中,原告提出了一個很直觀的經濟分析:如果采用傳統人工關鍵字搜索的方式篩選證據,成本大概在25 萬到34萬英鎊之間,而使用智能關聯系統進行匹配與選擇的話,成本會縮減到13 萬英鎊左右。
同樣,在刑事案件中,當偵查人員搜集到大量的電腦硬盤或芯片,其中存儲著大量的電子郵件往來、通信、聊天記錄、賬戶資料甚至是視聽證據,司法人員便需要在盡可能短的時間內,從這些海量信息中找到與案件相關的證據資料。 特別是在案情混沌不明之際,通過這些技術輔助手段來尋找潛在的證據,是非常可行的方式。 此外,這類技術還大量應用在法院對于專利、商標進行審查的案件中[10]。 在我國,人工智能技術正在逐漸改善司法權運行的外在環境,通過“智能語音”“電子卷宗”“案件管理”方式等在司法實踐中發揮重要作用。 電子卷宗隨案生成系統,可以將紙質材料同步轉換為可復制讀取的電子資源;庭審語音智能轉寫系統通過語音采集、實時轉寫的方式進行電子質證,革新傳統舉證、質證方式。 以庭審語音識別系統為例,目前已經有法院借用自然語言處理技術(NPL),提取訴訟各方之陳述,并將其自動轉換為文字(2)我國法院人工智能應用的分析樣本主要來源于:一是《法治藍皮書·中國法院信息化發展報告NO.1(2018)》中關于地方法院信息化實踐的調研報告;二是通過搜索引擎獲取的東中西部地區法院各種智能應用實例。。 如蘇州法院利用該系統,實現了普通話庭審筆錄完整度接近100%,帶有口音的普通話語音識別正確率高達90%。
目前,對人工智能技術應用到司法領域尤其是司法裁判領域會存在哪些風險,已為不少論者所關注。 例如,有學者明確指出,人工智能技術會沖擊公正之價值、影響當事人訴訟權利、與法官獨立審判原則發生沖突[11]。 可以看到,這是一種在基本原則層面的概括性分析,還需要進一步落到實處。 對此,筆者欲結合具體的司法實務,對人工智能技術的負面效應進行微觀層面的展現。
歧視問題是人工智能技術應用到司法領域所面臨的最大的質疑。 正如上文中所提到的風險評估算法COMPAS 一樣,其帶來效率的同時,也帶來了量刑階段威脅正當程序保護的風險,即為了“顯擺”技術的先進性,將大量的個性化信息總歸于一個過于簡化的分數。 這類算法由風險量化和需求量化兩部分構成[12],用于預測哪些行為人會再犯,而哪些不會[13]。 算法輸出的結果最后會轉化為十分位分數,從最低分1 分到最高分10 分。 按照COMPAS 設計者北點公司的解釋,十分位分數與相應的規范組相對應,其中,1 分意味著行為人的量化分數處在規范組最低的10%以內,而2 分則意味著行為人處于規范組高于10%而低于20%的水平,以此類推。 正如《COMPAS 從業指南》所解釋的那樣,通常,1—4分為低危險系數,5—7 分為中危險系數,而8—10 分為高危險系數。 然而,算法將這些分數與監獄、假釋機構以及緩刑機構的評估方案聯系起來。 目前,存在著八個標準分組:男性監獄/假釋、男性拘留所、男性緩刑、男性復合措施、女性關押/假釋、女性拘留所、女性緩刑以及女性復合措施。 北點公司是基于“從2004 年1 月至2005 年11 月之間,在美國監獄、假釋、看守所和緩刑點進行的超過3 萬份COMPAS分數評估”[14]得出這些結論模型的。 當某一特定的機構要使用COMPAS 技術時,北點公司也會相應地調整規范系數,以反映該機構所在區域人口的具體情況。
對此,一個名為ProPublica 的媒體(3)ProPublica 是一家關注公共事務的非營利性調查媒體。 他們是一家十分嚴格的無黨派機構,標榜著“不游說”以及“不會與任何政客或者宣傳團體結盟”。 他們圍繞著諸如過量吸毒、負債以及檢察官不當行為以及其他關涉公共利益的問題,創設了許多調查項目,并將研究和文章匯編在一起,在官網上公布。進行了深入調查,結果顯示,該算法會偏見性地將黑人被告人列為高風險人群,而白人被告人則為低風險。 這項研究收集了7000 余名行為人的數據,這些人在2013年和2014 年被捕后接受了風險評估,檢查他們在之后的兩年里是否會被重新起訴。 研究結果表明,暴力再犯比例實際上只占到20%,而之前的系統數據卻認定具有再犯風險的行為人比例高達61%。ProPublica 指出,這種結果僅僅“稍微比擲硬幣準確些”。 然而,普遍缺乏準確性這一點僅僅只是ProPublica 在研究COMPAS 算法時,發現問題的開端。 該調查著重指出的問題在于,算法在分配白人被告人和黑人被告人分數時的不對等。 盡管黑人被告人在整體上再犯率會高一些,但是當調整一下這些差異和其他因素后,他們居然比白人被告人的再犯率要高出45%。 至于暴力再犯系數,黑人被告人獲得一個高危險分數的概率要比白人被告人高77.3%。 在評估有多少被告人被標記為高風險,但之后兩年卻沒有再犯罪時,ProPublica 發現,白人被告人被錯誤標記的比例為23.5%,而黑人被告人被錯誤標記的比例則為44.9%。 相較之下,白人被告人更傾向于獲得低風險評價。 準確來講,有47.4%被標記為低風險的白人被告人繼續進行犯罪,而同參照的黑人行為人只有28%再犯[15]。
特別是在智能技術高效率運行的情況下,這種潛在的歧視會被無限的重復,進而被不當強化。 實踐中還出現了數名議員被面部識別技術不當識別為犯罪嫌疑人的荒唐現象。 此處需要指出的一點是,歧視問題不僅會在審判中出現,前述預測性執法過程中也會存在。 例如:警力資源會被不當調配至少數族裔社區,進而忽視白人社會本身會發生的毒品或暴力問題[16]。
從技術角度來講,人工智能算法本身就是一個“黑箱”(black box),這本來無可厚非,因為技術創新本身也是一種商業秘密,屬于知識產權保護的范圍。 但是,“黑箱”一旦應用到司法中后,這種優勢本身也會令人詬病。 因為,不論是將人工智能技術用于判決檢索和犯罪預防,還是證據評判與量刑基準,人們都無法對其進行監督。 以量刑為例,被告方對于人工智能量刑的結果無法進行有效質疑,因為外行人無法了解技術本身存在的算法規律,即便可以申請專家鑒定,該技術也很可能基于商業秘密的考量而無法提供源代碼。 或者,即便是基于公權力的監督和公共利益的考量,技術創新的商業利益必須退讓,技術算法得以揭露,當事人的監督也有可能會落空。 監督的前提是能夠有效厘清技術運作的程式碼,明確輸入資料和輸出結果之間的關聯性,以此來判定通過技術產生的結果是否恰當,是否存在偏差或者是否有歧視。 然而,人工智能算法的運作不一定具有嚴格的邏輯關系,對于輸入的樣本,很可能只是因為大量資料都指向某種可以獲得最佳利益的選擇,其背后不必然存在一定的邏輯性或因果關系。因而,有論者犀利地指出,“黑箱”里的人們,就像是奴隸一樣被算法操控著[17]。
算法越復雜、越不透明,將會直接導致人們的社會活動,小到社交活動,大到工作求職,甚至是司法裁判所涉及的一連串自動化決策中,無可避免地存在秘密決策和歧視。 正是這種不透明性,給司法公開與司法監督帶來了嚴峻挑戰。 司法公開是一項由來已久的訴訟原則,只有公開,才能將權力之運作充分暴露于陽光之下,充分保障當事人和民眾的知情權與監督權。 但是算法的不透明就意味著監督無法實現。 不僅如此,當事人的訴訟權利也會因此受到侵害。 民事案件原、被告雙方的權利義務關系,以及刑事案件當中被告人的人身自由權利,皆由司法裁判所決定。 試想,在案件的證據開示、證據認定甚至是量刑都借助了人工智能算法的情況下,當事人如果不服,其所享有的包括上訴在內的程序救濟權利,也會因為“黑箱”問題難以得到實質性的行使。 這無疑會讓訴訟流于形式,與司法公正和權利保障相去甚遠。
人工智能技術應用到司法實務中還要面臨的一個挑戰是,技術的判斷結果總是機械、僵硬的,無法適應靈活的司法裁判要求。 這也是如今研究者們堅信法律職業不會被人工智能技術完全取代的一個最重要的原因。
第一,法律并非一種極致意義上的形式理性,適用法律絕非一種簡單的文本輸入至結果輸出過程。實踐中的司法人員,尤其是法官,在判決案件的過程中往往面臨著邏輯思考、事實認定、常識判斷、人性尊嚴、個案平衡、價值抉擇以及國家政策等問題。 判定過程可謂極為復雜,而這些過程是否能為人工智能所模仿或借鑒? 答案顯然是否定的。 目前的人工智能雖然已經取得技術上的突破,但算法的深度學習水平還遠未達到“強人工智能”的程度。 也就是說,人工智能在處理常識、意圖、觀點等自然語言交流與理解方面,仍然遭遇著巨大瓶頸。 最直觀的例子便是,當我們與所謂智能機器人進行語音對話時,其只能應付簡單的信息檢索和最基本的日常交流,對于稍顯復雜的問題,其回答往往令人啼笑皆非。 究其原因,目前人工智能技術的資料庫中無法完全覆蓋人類所有語言、生活信息,同時,技術對語言往往只能基于早就設定好的模式進行程式化分析,無法全面、系統地消化所有證據和當事人提出的訴求。
第二,人工智能技術的應用無法實現個案正義。 從技術運作的基本方式來看,人工智能程式追求的是網格化、類別化,即標準化。 換言之,其追求標準化的輸入以及標準化的輸出。 在此情況下,個案中出現的特殊情形、特殊因素會因為對標準化分析毫無意義而被系統忽視,導致最后無法輸出個別化的結果。 系統判斷往往體現出一種機械化、公式化特征。 但是,司法所追求的是一種衡平正義(equitable justice)而非絕對的法律正義,因此賦予了裁判者相當大的自由裁量權,允許其在一定范圍內根據案件的具體、特殊情況作出符合個案正義之裁判。 退一步來講,即便將來技術會發展到具有一定思維能力的水平,但由于人的情感、成長、自由、尊嚴等本身就無法量化,因而能否被設計為一種算法程式,還有待考量。
第三,人工智能技術無法處理新型案件。 在人工智能技術的原始資料庫中,信息的存儲是有限的,不僅如此,有限的信息還存在著一個致命性的缺陷,那就是無法處理新信息。 這就導致技術在面對司法中的新行為、新證據或者新事實時,無法做出判斷甚至做出錯誤的判斷[18]。 從司法效果角度來看,人工智能算法結果的得出是基于對以往裁判分析的經驗,如果某一項事實、某個情節甚至某一個參數發生變動時,系統本身頂多將其視為一個運行障礙。 例如:對于刑事司法而言,可能某一段時期,程序會追求訴訟效率,而另一段時期,政策又會傾向于在大多數案件中查明案件事實真相,這無可避免會耗費更多司法資源。 此類政策性變動對于已經有固定的參考模式以及參考參數的智能技術而言,是無法掌握與分析的。 除非從技術源頭重新儲存新資料,修改運行程式。
可以看到,在司法實踐中,人工智能技術能夠耗費較少的時間與資源,為司法人員提供較為準確、穩定的裁量標準和參考結果。 如此,彌補現行司法中訴訟“大爆炸”的困境,讓國家能夠投入更多的資源去解決那些案情復雜、具有重大社會影響的爭議性案件。 但同時,人工智能技術在司法中的適用有其局限,帶來了挑戰與質疑。 因而,司法人員不能形成過度的技術依賴。 這在目前的學術研究領域已經形成共識。 基于此,不少論者主張和提倡一種對人工智能技術“審慎而樂觀”的立場,將智慧司法下的人工智能定位為“司法輔助人”,以“工具主義”作為其功能定位[19]。 筆者十分贊同這一論點。 但針對司法應當如何化解人工智能應用挑戰的問題,本文意在提供以下新的思路。
通過上文的論述,不難看出人工智能技術遭受質疑的種種局限與挑戰主要有兩個來源:一是技術本身所帶來的缺陷,二是技術在人為使用過程中所暴露的弊端。 因此,完善人工智能的司法適用也需要從以下兩個層面著手。
第一,從技術本身的缺陷來說,首當其沖的便是對技術本身的改造。 當然,囿于知識儲備,筆者無法從技術角度提出人工智能算法的優化方案,只想就技術與司法的交互角度,闡明技術中立的立場。不可否認的一點是,技術原本是中立的,但是這種中立性在具體應用過程中總是會出現這樣或那樣的偏差。 不論對于技術程式的設定者,還是司法人員而言,在創設或使用技術的過程中,都或多或少、有意無意地帶入了自身的偏見。 畢竟,人總是社會中的人,有著固定的生活圈,每天也會通過網絡接收到各種社會新聞與信息。 當某種特定的偏好或傾向性立場一旦帶入技術中,便會從“少數意見”搖身一變成為“多數觀點”,進而通過技術的反復適用不斷得到強化。
第二,從技術在人為使用過程中暴露出來的弊端來看,實際上,類似的問題早在人工智能司法適用尚未被人們關注時就已經出現過。 早在20 世紀80 年代,美國立法者發現,刑事司法中的量刑夾雜著明顯的歧視,即同等條件下,少數族裔的刑期普遍較重。 一開始,立法者認為產生這一問題的原因在于法官們缺乏一個普遍適用的量刑標準作為參考[20]。 因而,美國國會在1984 年成立了美國量刑委員會,以追求消除歧視,達到較為一致的量刑結果。 不僅如此,委員會還發布長達600 頁的一系列量刑指導標準,試圖將量刑進行公式化。 該標準雖然沒有強制性的法律拘束力,但對于裁判者而言,多以此作為參考。 但即便是如此精細的量刑標準公布之后,以往存在的量刑歧視問題依然存在,沒有辦法完全消除[21]。 對此,有論者認為,公式化量刑導致法官喪失了原本可以依據個案作出裁判的空間,使得個案的特殊情況無法準確被估量,隨即進一步加深了原本的歧視循環而已[22]。 由此觀之,在矯正人工智能技術歧視的問題上,這種“等者等之”的形式平等立場不可取。
對此,筆者認為,可以從實質平等的角度出發,用中性的程式設計去檢視技術中是否存在對特定人群、特定地域或特定性別的歧視因素,進而通過個性化而非標準化的參數設定來對其進行矯正。 例如,Airbnb 在2015 年時發現,其平臺程式在統計上有種族歧視的傾向,系統可能會拒絕將房屋出租給特定族裔或特定群體的房客。 該公司隨即成立專門小組,研究在何種情況下系統會觸發歧視因素。 后查明,消除歧視的方法在于,知曉歧視隱患的存在,在此基礎上重復、定期地檢查數據分析之結果[23]。 以此類推,該方法完全可以借鑒到司法實務對人工智能技術的應用領域中來。 如此,可最大限度地保證技術本身的中立性。 我國不存在種族歧視的問題,這種實質平等框架下的技術中立主要體現在如何防范人工智能的失誤。 總體來說,人工智能的失誤大致可分為兩種類型:一是案件實體判斷的錯誤,例如風險預警不準確、量刑預測出現偏差等;二是不涉及案件實質的判斷失誤,如電子卷宗的生成錯誤、電子數據的轉換錯誤、實時語音識別的瑕疵。 對此,我們應當從源頭出發,提高算法本身的準確程度。 一是司法機關將智能輔助系統進行外包時,應當與技術公司進行充分且明確的溝通,在尊重技術創新和商業秘密的基礎上,要求技術提供方對于算法決策過程、數據模型和采集等承擔必要的說明和公開義務,以接受公眾監督。 在重視解決糾紛的同時,也要以風險防范為導向,注意調整算法的運行規則,消除因算法歧視造成的潛在風險。 二是要聯合技術專家、法律專家和社會公共團體等主體,成立常設或非常設的算法監督機構,對算法的設計、應用和結果進行全方位的監督。 監督的方式可以是隨機檢查,也可以是定期抽查,以彌補技術應用過程中的算法漏洞。 同時,也要暢通公眾的反饋渠道,及時糾正已經出現的算法錯誤。
對于技術在人為使用過程中所暴露的弊端,是“技術使用者”而非“技術”層面的問題。 對此,如何進行應對,應當抓住要害。 誠然,有學者曾明確指出,“司法人工智能不可本末倒置”[24]。 不能在“向信息化要人力、要物力”的潮流中,將人工智能系統全面用于案件審理,甚至是替代法官的裁判。 進而主張人工智能規制的要點在于限制其適用范圍、保證裁判者的獨立權威地位、保障訴訟當事人的合法權利。 這些應對之策皆屬有理,但并未看到現象后面問題的本質——將人工智能應用在司法中,實際上是一種實體利益和程序利益之間的平衡與抉擇。
人工智能技術本身代表的就是一種對高效率的價值追求,而司法則是在追求公正、保障權利的同時“順帶”兼顧訴訟效率。 因此,不管提出任何的應對方案和解決措施,不管主張要在司法中將人工智能技術應用到何種程度,都不能突破的一個底線就是:司法在任何時候都不能將“效率”置于“公正”之上。 人工智能技術是一種形式上、程序上的平等,因為作為其判斷標準的程式是預先設定好的。 對于所有的資料輸入,都是通過同一個程式來進行分析,進而得出結果。 可以說,呈現出一種整齊劃一的“流水線”特征。 也正是因為如此,技術的應用能大幅提高司法程序的運作效率。 但與技術所能處理的靜態信息相比,司法實務完全是動態多變的,涉及復雜的案情評判和利益權衡。 如何在現行法律框架下,結合個案的具體情況,正確適用法律,甚至在法無明文規定的案件中,尋找定分止爭的正確方法,指向的是一種正確劃分權利、義務關系的實體利益的方式,具言之,就是需要實現實體利益與程序利益的平衡。
第一,公正和效率的平衡實際上也是人之理性與技術理性在司法領域的平衡。 對于技術理性而言,其追求的是功能性、有效性,講求效率和效益。 而司法裁判更多的是一種人為理性,注重的是價值理性和人文精神。 人工智能應用到司法領域,實際上是通過模仿和模擬司法裁判者的邏輯思維來提高審判效率。 但是這種簡單的模仿只會僵硬地適用法律條文,不僅忽略法律適用和個別正義間的考量,將預設的裁判結果格式化,同時也會剪斷公民通過參與案件同司法人員之間形成的良性互動紐帶,因為當事人是無法與一個冷冰冰的系統進行對話的。 因此,在目前的弱人工智能應用階段,要堅持法官的審判主體地位,讓整個案件的審理過程的最終決定權掌握在法官手里,使人工智能的運行過程處于法官的監督之下。 如此,一方面可以避免技術的偏差帶來的機械適用,暢通能動司法渠道;另一方面,也可以體現權責統一,避免因智能技術的使用導致“責任推諉”,防止法官將司法責任推卸為技術責任。
第二,雖然存在差別,但實際上,正如公正和效率兩者可以并行不悖一樣,程序利益與實體利益之間并不是截然兩分的關系。 那么,人工智能的司法應用,如何兼顧公正與效率? 從形式層面講,人工智能的司法應用應當對訴訟相關人,特別是刑事案件的被告人進行程序上的告知。 此種告知目的有三:第一,利害相關人可以借此了解人工智能系統應用于司法的具體過程;第二,利害關系人可以針對有關的結果提出自己的異議,以便技術使用者(司法人員)查證系統是否存在錯誤分析的情況;第三,利害相關人可以在知情權的基礎上對技術的應用行使程序救濟的權利。 從實質層面出發,在司法的所有環節,即便是有技術作為加持,也必須要有最低限度的人類參與。 同時,在與人民生命、自由、財產息息相關,或者涉及司法的本質與公正的案件中,審判者或者執法者應當承擔起作出司法決定主宰者的角色。此時,通過智能技術所獲得的結果只具備參考價值,裁判不能受制于技術。
首先,從法律層面出臺規制人工智能技術的法律規范。 應當看到,不論是在本文,還是在其他研究者的探討中,人工智能技術的種種風險都具有以下三個典型特征。 一是潛在性。 即所列之風險由于技術水平的差異化發展,并非在任何國家或任何司法環境中都存在著這些應用問題,風險處于一種正在發生或者尚未完全發生的狀態。 二是模糊性。 即技術侵害的對象不具有指涉性,不針對具體個人。 三是難以量化。 當技術造成損害時,這種損害的因果關系難以確定,即便可以確定,損害結果也難以量化。 應當看到,當前所有國家的現有刑事、民事和行政法律規范責任體系都無法有效覆蓋對智能技術的規制,法律規范完全呈現出“留白”狀態。 因而,我們需要在法律層面出臺回應人工智能技術的法律依據,或者更確切地說,是規制人工智能技術的法律規范。 有了法律依據,才能從“強硬”層面上有效防止技術應用會造成的司法屬性被消解、法官權力被僭越、當事人訴訟權利被架空等風險。 這也是眼下許多論者提出應對方案時會考慮到的層面。
其次,制定人工智能倫理準則。 人工智能在司法領域取得了突出成效,也暴露出來不少倫理問題。在司法場域,人工智能引起的倫理風險具有獨特性。 第一,與司法活動參與者尤其是當事人的人身自由、財產權利密不可分。 第二,算法歧視原因往往難以捕捉,想實現完全程度上的“算法公開與透明”,實現算法歧視的“全無”也無可能。 第三,司法人工智能系統的設計是多方利益的博弈過程,而“資本家的逐利性”又容易放任智能技術對司法公正的侵襲,比如“風險評估算法COMPAS”在帶來司法效率的同時,也引起量刑階段威脅正當程序的風險。 第四,基于新興科技基礎上產生,具有技術倫理與司法倫理之綜合特征,且有一定程度的公共利益價值。 具體來說,對待人工智能技術的發展保持積極態度,考慮人工智能在司法場域的倫理特性,加強對人工智能技術的倫理審查,以確保人工智能技術在正確的倫理軌道上運行。 參照人工智能倫理的相關原則,如2019 年歐盟委員會發布的人工智能倫理準則,確保人工智能真正具有安全性、可靠性,完善人工智能司法適用的倫理規范,既重視算法的相關管理機制,也在法律方面明確相關司法問責、隱私、安全等要素,建立統一、規范、公認的“指導性原則與倫理”,針對法律規范的“留白現象”,以軟法的方式先行彌補法律規范的缺位與不足。
最后,實現法律規范與道德規范的結合。 然而,作為一種“時髦”的技術形態,眼下人工智能技術和司法大數據正處于創新發展的重要階段。 如果只是一味強調要進行法律規制,用嚴格的法律規范來扼住技術咽喉的話,無異于因噎廢食。 因此,人工智能的司法適用需要道德的“軟”控制。 具體來說,道德雖然只是一種對風險的評價能力,其自身不具備當然的法律效力,但是道德往往可以為人們提供一種技術發展和技術適用的參考準則。 也就是說,無論是負責技術發展的程序員、網絡公司、數據處理者,還是負責技術適用的司法人員,其都會有共同的行為和評判標準。 這也是為何近幾年有關人工智能技術倫理規制話題的討論急劇增加的原因,截至目前,至少有83 個有關人工智能技術的倫理規則面世(4)Thiel,V.(2019,June 20).“Ethical AI guidelines”:Binding commitment or simply window dressing? Algorithm Watch. Retrieved from https:∥algorithmwatch.org/en/ethical-ai-guidelines-binding-commitment-or-simply-window-dressing/,2021-05-03。。其中較為有名的當屬會聚計算機科學及工程人才的電氣與電子工程師協會和歐盟執行委員會下設的人工智能高級專家組所發布的倫理準則。 從內容來看,這些準則無疑都包含了以下共同的道德追求:尊重權利、造福人類、技術的設計和使用者應當可追責、技術操作的透明性、技術使用的最小化風險、建立追責的法律框架、使用技術應當承擔何種道德義務等。 應該說,這是目前針對人工智能技術使用的普遍性道德要求,其對于司法領域同樣適用。 因此,法律規范與道德控制互為補充、不可偏廢。 顯而易見,道德控制與“僵硬”的法律規范相比更具有靈活性,在規制人工智能司法應用的問題上會有更大的彈性。 法律和道德的雙向規制不僅可以有效地作用于技術使用者,而且能夠對技術本身產生積極影響,也即在技術程式本身的設計上,不僅需要考慮到法律規范的禁止、強制性規定,而且還要參考道德倫理準則中的建議性要求。 如此,道德因素的注入能在很大程度上以其本身的靈活與公正化解智能技術應用中的機械和歧視問題。
此外,筆者想要強調的是,對于人工智能技術而言,其積累資料需要大量時間,運算程式也要因時因勢不斷調整。 在司法這一獨特領域中,如何科學適用人工智能技術還有待完善,可以預見的是,陣痛與過渡不可避免,改革與反思仍須前行。