內容提要 隨著各行業智能化水平不斷提升,我國司法系統在面對時代的劇烈變化時,展現了對智能化建設和司法改革的魄力與決心。人工智能可以在“類案類判”和“及時公正”等維度促進可視化的司法公正,但同時也在與司法活動交叉結合的過程中產生了諸如數據算法缺陷弱化公正基礎、技術的價值中立性無法真正滿足公民個案公正的訴求、技術的工具性消解司法公正本意的風險。為應對以上風險,可以采取大數據與算法規范、制定人工智能融入司法的倫理規范以及將法律論證嵌入司法人工智能系統等措施,在展現司法人工智能優勢的同時,實現司法公正的最大化。
關鍵詞 人工智能 司法公正 算法 風險防范
李婷,南京信息工程大學法政學院副教授
本文為江蘇省社會科學基金項目“新就業形態下勞動者權益的法律保障研究”(21FXB009)、2019年南京信息工程大學教學改革研究課題“科學主義理念下‘三元區分法學教育模式的構建”的階段性成果。
一、研究背景
科技的迅猛發展使各行業各領域的信息化、智能化水平不斷提升,我國司法系統在面對時代的劇烈變化時,展現了信息化、智能化建設和司法改革的魄力與決心。理論界對于人工智能和司法互動的研究,最早可以追溯到1970年Bruce G. Buchanan與Thomas E. Headrick共同發表的文章“Some Speculation about Artificial Intelligence and Legal Reasoning”,該文重點研究了人工智能系統在法律推理過程中的應用和問題[1]。我國理論界對計算機數據系統參與司法過程的最早設想可以參考龔祥瑞、李克強于1983年發表的《法律工作的計算機化》,該文預見了我國未來法律工作計算機化的必然趨勢以及法學研究和法律工作現代化、信息化的必要性。在之后的理論研究中,“網絡化”“信息化”“電子計算機”等詞語也越來越多地出現在法學研究領域。隨著人工智能技術的完善和成熟,理論界許多學者從各個角度對人工智能參與司法展開熱烈討論。例如季衛東嘗試從司法權轉變的角度探討人工智能在司法過程中扮演的角色[1],鄭戈以“算法”為切入點,強調人在算法中的地位和作用[2],左衛民基于中外司法人工智能的對比,對AI法官在我國的應用前景做了展望[3]。
在實務中人工智能的發展也取得了長足的進步。最高人民法院于1999年頒布《人民法院五年改革綱要》,明確提出了信息技術、在線審判等關鍵詞,并以此作為司法現代化改革的重點步驟。之后的種種延續性政策也反映了我國對相關技術保持著積極態度。當前,在我國大力推進“智慧司法”這一背景下,除了大家熟知的文書制作電子化(即將證據材料等紙質卷宗以電子文書的形式呈現)、司法信息數據化(即網上辦案平臺和在線庭審等)、電子數據的生成和審查(即文字、圖像和聲音的識別技術)等輔助性司法工作以外,各級“智慧法院”在立案、審判與結案環節都努力促成人工智能與司法活動的結合。在立案環節,人工智能系統可以整理案件事實并對其進行初步“畫像”;在審判環節,人工智能系統可以提取案件爭議焦點、生成庭審提綱;而在結案環節,人工智能可以自動生成裁判文書、提供預測結果與量刑建議,甚至劃定量刑標準、發出量刑預警[4]。
學者們對人工智能介入司法提高司法活動效率、解決“案多人少”矛盾方面的積極意義幾乎沒有爭議,有疑義的是,司法人工智能能否實現司法公正這一目標?又可以在何種范圍和程度上促進司法公正?面對司法人工智能的迅速發展,部分學者對人工智能司法的前景持相對樂觀的態度,認為如果可以進一步升級計算機硬件和算法,司法人工智能在未來將獲得更廣泛的使用。同時,他們還認為,在司法獨立與公正價值方面,人工智能司法相較于法官司法更具優勢。因為人工智能司法可以毫無偏見、毫無感情地運作,排除影響人類法官司法裁決的一切干擾[5]。
當然,更多學者對人工智能司法的態度較為謹慎。左衛民教授認為,盡管智能化技術已經為突破司法服務的困境提供了可能性,但與域外人工智能的運用相比,我國人工智能還處于“弱形式”階段,還未運用在審判決策的重要環節,尤其是未在量刑環節發揮實質性作用。加上我國人工智能司法是基于知識圖譜式算法而缺少定量實證方法的使用,計算模型是規范取向而非經驗模式,“最終產出的不是實踐理性的AI法官,而是被‘訓練了的AI法官”[6],這樣的AI法官無法真正實現實質正義的司法價值。雷磊教授從實體公正與程序公正的區分入手,結合人工智能運行的基本原理與人工智能技術的封閉性、被動性和價值中立等特點,認為人工智能介入司法在實現司法實質公正方面具有不可克服的缺陷[7]。
基于此,我們需要思考的問題是:司法人工智能的運用現狀與樂觀主義者的預期是否吻合?就目前而言,“弱形式”的人工智能實踐在何種范圍與形式上能夠促進司法公正價值,以及面臨何種障礙與挑戰?思考人工智能介入司法大趨勢的當下,追求司法公正這一古老話題能否在新技術革命的激勵下獲取新能量,科技的變革如何與人們對崇高價值的追求產生良性互動,是本文寫作的主旨。
二、人工智能促進司法公正的價值效用
在法律與諸多價值交融的過程中,公正始終被認為是與法律聯系最為密切的價值。在研究法律應當體現哪些價值或法律應當保護哪些價值的問題上,公正“占有最為顯赫之地位”[1]。習近平總書記就法治問題談道:“法治不僅要求完備的法律體系、完善的執法機制、普遍的法律遵守,更要求公平正義得到維護和實現”[2]。因此,談論人工智能對司法活動的影響首先就是要理清人工智能與司法公正之間的關系,人們在對新時代、新技術感慨萬千的同時也要守住法的核心價值,這也是本文的基本論調。
司法公正可以從廣義和狹義兩個維度上來解釋。廣義上的司法公正包含司法程序的各個領域和各個方面,與司法的權威性、司法活動被社會倫理的認同程度、司法制度的宏觀構架,以及司法程序的合理性相關[3]。由于廣義的司法公正范疇過大,本文在討論人工智能對司法公正的影響時,將采用狹義的司法公正觀,即主要討論司法裁判活動是否符合公正的價值訴求。而(狹義)司法公正又包括兩種類型:司法結果具有公正價值和司法程序具有公正價值。前者——實體公正是司法公正的根本目標,后者——程序公正則是司法公正的重要保障[4]。
1.程序公正維度:類案類判
在司法公正價值的眾多表現中,“依法裁判”是其核心內容。這也就是說,法官必須依照事先頒布的一般性規則來處理案件,即適用“可視化”的規則進行“類案類判”,人工智能對司法公正的良性影響在此處可供發揮的空間很大。
其一,法律要求普遍性。依照人工智能算法的邏輯,每一種結果的產出總是伴隨著相關聯性的依據,而這種依據作為數據已經提前輸入系統中。一些給當事人帶來不利影響的標簽可以在這種運作過程中達到去標簽化,這使得具體案件的個人能夠真正被當作一般人來對待,同時對某些人的優待因為缺乏相應的依據(特權顯然是被排除在外的標簽)而得到限制。其二,法律要求穩定性,這是“類案類判”最直接的體現。人工智能在司法中一個重要的活動就是為法官提供決策服務,即通過對數據庫的比對,推送案情相似的判決,這使得法官的恣意受到限制。相似案件判決結果相差過于懸殊將使當事人在上訴的過程中獲得更多的依據,法官也需要考量明顯不合理判決所帶來的問責風險。
人工智能參與司法另一顯著特征就是它能夠預設一套智能化的程序系統,在這樣一個程序下,人工智能充當的角色與其說是決策的輔助者不如說是管理者和監督者。司法人工智能融入司法改革有其法理意蘊,“數字正義”是司法人工智能與司法改革相融合的法理表達[5]。多元化的在線糾紛解決模式構建了更加簡便、快捷、高效的法律程序以“接近正義”(access to justice)[6]。信息技術的發展,加之與互聯網和司法活動相結合,使司法的價值更多地體現為線上的可視化“數字正義”。司法人工智能借助新科技的技術優勢,讓科學技術的“法外”形態介入司法活動,充分挖掘和釋放司法實踐的程序正義。人工智能技術的司法應用,開啟了從“接近正義”邁向“可視正義”的歷史進程[7]。
2.司法效率維度:及時公正
波斯納的經濟分析法學給司法正義帶來的啟發集中在他的《正義/司法的經濟學》一書中。書中特別提到了“法本身——包括它的規范、程序和制度,都在于促進效率的實現”,從而提出了“財富最大化”理論。同時,針對批評者認為波斯納在正義和效率之間忽視了正義,他回答道:“財富最大化之所以是一種更可得到辯解的道德原則,還在于它為分配和校正正義提供了一個堅實的基礎。”[1]波斯納把效率看作正義的一個層面的觀點提醒我們不得不重視經濟效益在司法過程中的內涵。它要求盡量減少司法資源的浪費,以有限的司法資源投入獲得最大的司法效果反饋,從而達到司法資源優化的目的,人工智能在此處依然發揮著重要的作用。
首先,作為司法決策的輔助者,人工智能并不像人類那樣由于精力的有限、閱讀內容數量的局限而容易發生錯誤的判斷,它只需按照既定的算法,采用高效數據計算的方式去運作。即便是人數再多、時間跨度再復雜的案件,人工智能也很難產生錯誤。這樣法官可以將有限的精力投入到真正需要自由裁量的領域,案件的產出符合公平正義又符合社會期望的可能性大大增加。其次,有限制地使用強人工智能可以使得司法資源得到最大化的合理分配。這里的強人工智能是相對于弱人工智能而言的,理論和實務界對司法人工智能的定位多為輔助性角色,畢竟技術只能是人的工具,而不能代替人。但從節約司法成本的角度來看,對于某些案件事實清晰、爭議不大,適用簡易程序、速裁程序以及調解結案的案件,人工智能或許可以通過適當擴大自主性,減少對此類案件的過度糾纏,這對于那些亟需處理和社會影響重大的案件來講,反映出某種“財富最大化”的正義。
2021年《最高人民法院工作報告》顯示,在信息化建設與司法改革相融合的背景下,2020年全國智慧法院建設成果充分顯現。如裁判文書和在線庭審直播方面,“裁判文書上網公開1.2億份,庭審直播1159萬場”,智慧法院在線執行方面,“網絡查控案件1464.5萬件,網絡拍賣成交金額4027億元,同比均有大幅增長”;也有一些較難量化的成果,如“疫情期間,無接觸式訴訟服務廣泛應用……審判執行不停擺、公平正義不止步”,以及“通過構建中國特色、世界領先的互聯網司法新模式,為全球互聯網法治發展積極貢獻中國方案”[2]。在探討基于司法效率的公正問題時,雖然我們必須正視司法成本與效益不能完全通過“數字”體現出來的現實,但也不能放棄人工智能對司法效率推動的研究探尋。
三、人工智能介入引起的司法公正風險
不可否認,人工智能介入司法可以顯著提升司法信息化水平,推進司法審判能力和司法體系的現代化,對于促進司法程序公正、提高司法效率具有重要的意義。但與此同時,我們不得不重視其在價值判斷中的局限性。人工智能是基于龐大的數據庫、強大的數據整合分析能力、不斷優化的算法推理能力等為司法裁判者提供決策參考。但現有人工智能運行中司法數據收集處理環節標準的缺失、算法法律地位的界定不明以及缺乏有效約束機制等都將弱化司法公正的技術基礎;同時,人工智能作為一項智能技術,無法具備人類法官的理性思維能力,也無法準確把握法律規范背后深刻的立法價值基礎,而這種價值的中立性恰恰是人工智能司法無法真正實現司法實質公正的核心因素所在。
1.技術維度:數據算法缺陷弱化司法公正基礎
任何一種科技的發展都必然伴隨著一定的風險,風險防范對于司法公正的實現具有至關重要的影響。人工智能的核心部分是它的數據和算法,這兩者直接決定了人工智能所提供的司法結論,必須重視這方面的建設工作。
其一,數據的數量質效不高,明確化和層次化不足。司法人工智能必須建立在足夠的有效數據基礎之上,精確的判斷也必須以大量優質的司法數據作為基礎。然而我國法律數據信息離完備還有一定差距,相應的法律數據質量也參差不齊。我國僅僅是法律規范數據建設就任重而道遠,此類基礎性的數據由于過于復雜,其明確性、合理性大大降低。同時,法律術語往往一詞多義并需要加以解釋。如果在對數據進行學習時不加以明確區分,便會造成結果上的偏差。此外,由于參與訴訟的主體并不能準確表達每種術語,在進行數據處理的過程中要先把主體描述的語言轉化為人工智能可以識別的語言,這就無形中加大了人工智能學習的難度,并且極易產生混淆。除了法律術語,法律規則和法律原則在效力層級上的差異加大了數據檢索的困難。人工智能在這方面的判斷很可能產生數據上的交叉重合,而這種數據的不當應用很有可能造成案件性質和結果的偏差與疏漏。
其二,算法“黑箱”易導致司法隱形歧視。算法作為技術的核心,科技公司并不會去主動公開算法的運行方式;與此同時,司法工作人員很少會對這方面的技術有深刻的理解,他們在判斷人工智能系統合適與否時,更多地是看其是否有助于高效辦案,這就使得算法“黑箱”成為一種可能。當司法工作人員習慣于享受算法帶來的便捷卻又缺乏對算法的理解,人對算法的控制便處于一種不可知的狀態,這種狀態使得人工智能帶來了程序的公開卻又使得程序的運行原理被另一種帷幕所籠罩。同時,數據的累計和關聯性的不斷強化,使不受監督的算法很可能在不斷的學習過程中產生標簽化的歧視,因此中立的人工智能可能因為算法的“黑箱性”變得不中立,這種歧視往往處于很隱蔽的狀態。絕大多數案件也許不容易產生明顯的誤判,但這種潛移默化的處理方式卻可能使得弱勢群體的權益得不到合法的保護,這種隱形歧視往往引導社會對一部分被貼上標簽的群體產生排斥,而更不利于真正地解決社會中特定群體性問題。
其三,技術缺陷易導致司法缺乏實質合理性。就目前人工智能的發展狀況來看,司法領域主要使用的技術為知識圖譜(mapping knowledge domain)+深度學習。所謂“知識圖譜”,簡單來講就是以可視化的方式將知識資源的關聯性表現出來。這種方式對數據的完備程度非常依賴,可以說如果一個案件相關的因素儲備得越多,那么所得出的結論也就越符合大部分法官將做出的判斷。對于案件爭議焦點較少以及一些基礎性的結論,人工智能確實能夠很好地作出反應,并且準確性一般不會有問題。但是并不是所有案件都能夠從有限的知識資源中發掘判斷思路。尤其是在不同的裁判依據產生競合的情況下,法官會依據道德、政策、社會等多方因素考量,而并非將每一項裁判依據進行完整的闡明。這種情況下人工智能算法的學習將不能準確反映現實裁判的思路。究其根本原因還是法官裁判和人工智能裁判特點的差異性:法官的裁判在依據事實情況和條文規定并在兩者之間往返查看的基礎上,還需要通過辯論、論證以達到說服其他聽眾的目的;人工智能的判斷僅僅按照相關度進行,雖然從數據層面上看具有結論的合理性,但缺乏了說服的過程,而這種過程正是算法設計的困難之處,最終將導致判決的正當性、合理性遭受削弱。
2.倫理維度:技術的中立性無法滿足公民個案正義的訴求
司法活動與立法活動不同,法官在適用法律規則的同時,又對法律進行了“逐案塑造”[1]。“法學所關心的不僅是明確性及法的安定性,同時也致力于在具體的細節上,以逐步的工作來實現‘更多的正義。”[2]因此,法官僅僅依照法律的“一般性規則”進行“類案類判”還不足以體現司法實體公正的全部。司法裁判中的實體公正涉及實質價值或道德考量,是與一般正義、抽象正義相對應的個案正義與具體正義。當然,個案中的正義并非法官的個人公正觀,它是受到一定社會或地區主流價值觀或公正觀限制的,是一種“同理心正義”——一種多元的、動態的正義[3],難以明確表述為或“編碼”為一套明確的規則。在此,個案情境非常重要,它決定了不同情境下法官的同理心,從而也造就了司法公正呈現出愈發復雜的內涵。
其一,司法人工智能無法避免裁判中的價值偏見風險。從表面上看,司法人工智能裁判將統一的法律規則、類似的案件事實輸入智能計算系統,應當能夠避免法官先入為主的價值偏見。但事實上,司法人工智能本身并無法真正達到我們希望的客觀與中立。司法人工智能在展開司法裁判工作之前,會深入學習和挖掘先前司法裁判的數據,并以此為基礎進行司法預測。在這個實踐過程中,人工智能既有可能學到先前司法裁判的有效經驗,也不可避免地被動學習到先前司法裁判中帶有法官價值偏見的不合理經驗,即“偏見進,則偏見出”[1]。
其二,司法人工智能缺乏主觀能動性,無法及時根據個案場景、情境或社會發展需求“因時制宜”“因地制宜”“因事制宜”。而蘊含于其中的司法智慧、權益考量和共情能力,正是司法活動中實質公正的重要表現。司法裁判并不僅僅是將案件事實與法律規則簡單疊加,而是需要裁決者充分發揮司法裁判的溢出性效用,能動地展開適當的裁量,以契合司法改革的時代目標和司法實質公正理念。然而“無須滿足任何更多的條件即可生成‘是與‘否的二元選項代碼”[2]的司法人工智能,并不具備展開價值判斷和規則創新的能力。司法人工智能的價值中立性和被動性特征使得其應用領域被限縮在那些是非對錯明晰、知識需求單一、潛在模式簡易可辨的場景之中[3]。
其三,現代司法訴訟的重要功能之一,是為民眾提供一個釋放訴說、尋求救濟的途徑,即司法的疏導功能[4]。由于人工智能介入司法活動,原本溝通民眾與司法的橋梁——法官的作用被弱化,生硬的程序算法無法解讀民眾的切實情感需求與非理性訴求。與人類法官裁判相比,人工智能在尋找配比法律規則方面或許更為準確快速,裁判程序與結果也合乎規則,但缺乏疏導功能的司法活動會使得民眾對司法的參與感降低,從而引起民眾內心對司法公平正義感受的弱化,造成司法公信力的削弱。
3.法理維度:技術的工具性消解司法公正本意
前面講到,人工智能引入司法的一大優勢就是其作為一種智能技術,并不像人那樣會面臨各種情感、利益上的影響,而具有相當的客觀性、中立性。這里所說的對司法中立產生的風險不是從算法運行程序本身而言的,更多地還是由上述算法黑箱、工具性局限所帶來的實質結果上的公正風險。人工智能程序的開發本身不是由法院自身獨立完成的?,F實中,絕大多數法學教育是較少涉足自然科學和信息技術的,法學家也很少能夠精通這一領域。由于法院自身缺乏人工智能技術專業人員,多數人工智能法律系統都是由專業科研技術人員研發的,技術人員自身原有的價值偏見等便有可能被寫入司法人工智能算法中。
其一,司法系統與科技服務提供者之間交流存在障礙。司法人員在對人工智能算法設計提出要求時往往很難精確地表達服務需求,以目前的學科交叉程度來看,也只能夠通過一些寬泛的語句進行溝通。這樣不充分溝通下產生的業務系統很可能背離了司法主體的初衷,或者說僅僅在效率、數據匯總等弱人工智能應用層面能夠產生良好的互動。也許法院本身需要的系統是按照某種價值評判標準去運行的,而現實卻可能反映不出司法過程的內涵。溝通的失誤便使得人工智能系統算法設計從一開始就沒有契合司法的特點,從而失去其客觀中立的特點。
其二,智能系統擁有者易對司法結果做出干擾。隨著信息時代的發展,科技本身成為一種專利,數據資源本身成為一種財產?;谶@種特性,智能系統和數據往往都不會公開,這無形中形成一種“黑箱”,上文主要是對這種“黑箱算法”的隱蔽性所帶來的未知從微觀角度進行分析,這里更多地是從宏觀角度來探究。當今時代,擁有核心技術以及大量的數據,就有可能擁有足夠大的能量去影響社會、改造各種社會關系。在司法領域,掌握著技術、數據的主體在本身陷入到糾紛時,由于其本身對算法的熟悉,在應對各種法律風險時,顯示出較強的預測能力,這種優勢地位的形成很難讓相對方感受到真正的司法中立;更有甚者,由于算法實際上難以做到公開,那么對算法的篡改或者說有傾向性的引導可能會對司法結果產生干擾。
其三,不加限制的智能技術將會使司法逐漸工具化。我們在法治建設中強調對法的公平正義、司法獨立健全的呼吁,這種呼吁可以為公民樹立一種“法律信仰”,正所謂“沒有信仰的法律將會退化成僵死的教條”[1]。也正因如此,學界和實務界對司法人工智能的發展持謹慎態度,他們普遍認為不加限制的技術發展以及過于激進的應用會使得司法逐漸工具化,這種工具主義將會對司法的獨立性帶來沖擊。因為工具必然導致信仰的弱化,而這種弱化會使得技術、數據的實際控制者將司法過程理解為簡單的判決工廠,從而崇尚技術的獨立價值,貶低司法的獨立價值。司法機關若陷入工具主義思維,過分注重數據、算法的管理功能,則通過對數據的操控和調整便可能實質上使得法院的數據資源獲取受到有意識地限制,法官的自由裁量權被過度削弱,從而弱化司法的獨立性,獨立性的減弱直接使得公正裁判的基礎遭到威脅。
四、人工智能影響司法公正的風險防范
人工智能技術運用于司法領域勢必會帶來雙重影響,既給司法改革帶來了前所未有的發展機遇,同時也會引起司法不公的風險?;诖耍仨殬嫿ㄈ斯ぶ悄苡绊懰痉üL險的防范體系,盡可能地預防和應對人工智能介入司法引起的不良后果,推動司法改革向更深、更遠的方向進行。
1.強化司法大數據管理,規范算法決策
其一,強化司法大數據管理。大數據的共享和流通不可忽視,司法人工智能在進行學習和關聯性排列的過程中亟需充足的優質數據,前文已經詳細論述過。這里主要強調全國公、檢、法系統的數據互通與及時更新。通過共享和數據的篩查可以最大限度地減少由數據內容的瑕疵所帶來的判決紕漏。數據庫就像是技術的養分,只有定期的清理、排列,才能使得其生成的內容富有實踐指導意義,而首先要做的就是把法院裁判文書數據及時上傳。據統計,中國裁判文書網上的裁判數據與全國法院系統數據總量相差甚遠,并且除了上傳文書,對文書的數據格式統一化也必須同步進行。在確保法院系統數據充實的前提下,司法系統外的其他部門也應當對數據進行甄別和引進。在這個信息爆炸的時代,數據的來源不應當過于閉塞,而應當加強合作構建共享型數據庫,在此基礎之上對數據的研究與學習將更有參考價值。
其二,數據資源的安全性也必須作為法律的重點領域加以保護。我國近年的立法不斷強調對個人信息的保護,雖然數據的共享和流通是必要的,但是這不能被理解為數據可以隨意流轉給他人。數據一旦被不法分子或者具有優勢地位者利用,司法過程的雙方實質力量將會產生巨大差距,因此需要進一步明確數據使用和保存的規范。一方面,數據的使用不可隨意。另一方面,要從技術上采用更強力的數據保護舉措,防止數據流失所帶來的隱患。同時,應提前進行遭受數據攻擊的演練,對破壞數據的行為要進行行政法乃至刑法上的嚴厲處罰,并對數據管理主體建立問責制度。
其三,規范算法決策。首先,需要建立事前評價和事后檢查的機制。在將算法應用于司法實踐之前,應嚴格規范數據收集、信息挖掘等一系列程序,以保證算法規則的合理性和合法性。相關專家評審應在仔細研究算法規則后進行公示,使社會各界詳細了解算法決策的運作機制,增加算法規則的透明度與合理性,維護司法公信力。在做出算法決策后,還應該建立相應的算法評審和測試機制,保證算法決策機制的高度合理性和關鍵過程的透明性。算法應用的每一個環節都需要相關領域專家的不斷檢驗和論證,使其盡可能不受無意識的歧視和個人偏見的干擾,保障司法的公正價值。
最后,法律賦予公民監督司法活動的權利,以促進司法程序的公正。但是,在算法“黑箱”的缺陷背景下,算法的隱藏性在一定程度上侵犯了公民的知情權,更勿論對司法活動的監督權。因此,需要從制度上確立與完善算法的解釋規則,防止人工智能融入司法實踐而帶來的不確定性風險。建立算法解釋規則的目的是實現決策主體與社會公眾的有效溝通,這種溝通可以概括為以下兩點:一是實然層面的解釋,即算法規則是什么,全面說明人工智能司法決策的規則,消除其中的歧義和沖突。二是應然層面的解釋,即規則為什么,為適用規則本身提供充分的理由。
2.推進“有限智能化”,制定司法人工智能的倫理規范
人工智能技術作為現代科學技術發展的前沿方向之一,強化其于司法領域之中的應用能夠大力推動司法智能化改革。但針對人工智能在司法活動中的角色,可采取“有限智能化”態度推進[1]。具體來說,首先應肯定司法工作人員的主體地位,司法人員應當始終掌握系統運行的整個流程,不應一味追求司法人工智能系統的高度自洽性。根據司法人員和人工智能的能力,結合兩類角色在司法活動中的不同特性來分配權限和責任。當智能化系統的預測結果可能與人類法官的決策不相同時,人類法官應享有最終決定權。同時,司法工作人員應當監督人工智能的司法活動。正如法國學者克羅齊耶所言,相比于有關國家理論的建構,人際關系的發展更有利于獲取成功,同程序相比,人更加值得信賴依靠[2]。
前文已述,人工智能介入司法會產生影響司法公正價值的特有倫理問題,需要建立以倫理規范為主的監督機制。司法人工智能本質上是數據和算法的司法活動,而數據和算法又是人工智能研發者的科技成果。因此對人工智能介入司法的倫理規范本質上仍然是對人的規制。算法除了“黑箱”和隱形的“歧視”等自身的問題,還可能包含人工智能研發者的主觀惡意。算法的監督除了前述對技術自身的事先事后規制外,還要確立人工智能研發者的倫理行動規范。
對人工智能研發者的倫理行動規范,應當包括尊重基本人權、安全性、可追溯性、包容性、預防原則、隱私權保護、效益最大化和危害最小化等[3]。人工智能的倫理規范不僅以尊重和保障人類基本權利為價值目標,還要規范參與人工智能各環節工作人員的行為,如研究、設計、生產和使用過程的人員的行為。同時,需要建立必要的監管機制,使其在可控、低風險的環境中發展。司法人工智能要繼續堅持技術中立、價值無涉原則,恪守技術倫理,結合司法改革任務的實際情況,創造人工智能在司法領域的技術應用規則,劃定人工智能技術的應用邊界和限度,在享受司法大數據紅利的同時,保障個人信息安全,維護司法公正。
3.將法律論證嵌入司法人工智能系統,降低工具主義風險
論證是法律人必備的素養,也是法律人實現結論為人信服所必要的過程。司法過程的法律論證可以被理解為法官通過說理來使其聽眾確信某種法律評價或者某個案件的合理性。論證真正需要發揮作用的地方往往也是人工智能處理薄弱的環節,即復雜疑難案件中對爭議集中點做出裁決的合理性重構。法律論證的內容主要包括論證所要滿足的標準、法官對規則解釋的必要性以及法律規則、法律原則以及一般道德公理之間的關系。而實現最終論證結果的合理性則需要一套對判決結果的標準或規范,這種規范并不是當下僅依靠“是”或“否”和進行標簽化處理的人工智能所能夠完全承擔的,因此法律論證的任務就在于提供合理性依據并將工具主義傾向遏制住。
其一,最大化尊重“聽眾”的能動性,維護個案實質公正。在法律論證中有一種修辭學方法,它是與邏輯方法相對應的一種方式,其屬于對內部論證方法尋找具有說服力的規則的外部論證方式之一。這種方式注重論述內容的可接受性,突出論證的修辭特征和策略安排,而可接受性則取決于論證的說服力,具有代表性的觀點是佩雷爾曼的新修辭學理論[1]。他將論證與正義論結合起來為我們討論司法人工智能如何促進正義提供了思路。按照佩雷爾曼的觀點,形式邏輯并不能代表正當性,最終案件的價值判斷要歸結到對話式的討論,人工智能在作為論證助手的過程中承擔著定位論證主體的功能。主體可被分為三類“聽眾“,即普泛聽眾(討論中除自己以外所有人)、實際談話中的特定聽眾、思辨過程的聽眾。論證輔助系統在程序設計中可確定一種時間流程,給予每類聽眾發表自身觀點的時間,保障聽眾的意見充分錄入智能系統之中,最后通過總結聽眾共識以達成最終價值評判的結果。這使得人的能動性得到最大化尊重,在面臨人工智能難以評判的實質公正內容時,通過聽眾角色的設置可以提升裁判內容的說服力。
其二,規范參與者對話規則,維護司法程序公正。人工智能輔助論證的過程不能僅僅停留在確定時間維度上的對話流程,而必須對對話內容采取一定程度的規制,以保障對話的效率以及結果的正確性。首先,當論證主體提出自己的主張后,需要輸入證明內容。缺乏證明支持的主張,在算法程序中應當被評定為低合理性。同時也允許相對方主體的批評和質疑,將這一系列對話內容綜合記錄于輔助程序中,為運算提供數據支持。其次,約束法律商談結果的規則。這一規則對解決司法人工智能局限性的啟發在于,司法數據的龐雜使得智能系統對各種規范的優先層級較難判斷,而此種程序性規則要求證立法律判決必須事先從一個總體性規則出發,這個規則在論證輔助系統中占最高優先級。例如在民事案件論辯過程中,如果有制定法、特殊法的規定,就不應當越過這些規定而直接以民法原則和一般法作為論證大前提(作為論證的合理性的支持觀點是可以的),否則就意味著對法律規則的違背,那么這樣的論辯是不能被評價為合理有效的??偠灾鲜稣撟C方法在智能系統算法中的設立,實質上都是為了保證司法過程中人的存在,當人真正主導了司法過程的合法性、合理性,所謂工具主義對司法主體物化的風險將被控制到最低;同時,數據優勢者及算法獨裁所帶來的負面影響將會在追求公平正義的論辯中得到消解。
五、結語
司法人工智能在目前的學界和實務界的定位傾向于司法輔助角色,顯然,綜合目前科技發展水平、數據質量結構、法治建設水平等因素,這種看法是恰如其分的,過于激進地對待技術將會給司法公正以及諸多傳統價值倫理帶來威脅。不過這并不意味著面臨技術沖擊需要抑制甚至停止它的引進和發展,畢竟在當今信息化和智能化時代,科技生產力越來越成為改革的重點。從經驗論來看,智能技術總體而言對人類社會的進步起到積極的促進作用,現實中我國司法系統也一直注重法院的智能化建設。因此在以一種適當的節奏發展司法人工智能的過程中,法律人要保持理性審慎的態度,使目光往返于技術和公正之間。人工智能是方式而不是目的,我們有必要把握這樣一個基本的原則,那就是公正永遠是司法的目的和歸宿,任何智能化技術的發展都應當以此為風向標。
〔責任編輯:吳玲〕
[1]參見Bruce G. Buchanan, Thomas E. Headrick, "Some Speculation about Artificial Intelligence and Legal Reasoning", Law Review, 1970, 23(1).
[1]參見季衛東:《人工智能時代的司法權之變》,《東方法學》2018年第1期。
[2]參見鄭戈:《人工智能與法律的未來》,《探索與爭鳴》2017年第10期。
[3]參見左衛民:《AI法官的時代會到來嗎——基于中外司法人工智能的對比與展望》,《政法論壇》2021年第5期。
[4]孫慶春:《人工智能司法決策研究》,重慶大學博士論文2021年,第85頁。
[5]參見David J. Walton, Litigation and Trial Practice in the Era of Big Data, Litigation , 2015, 41, pp.55-58.
[6]左衛民:《AI法官的時代會到來嗎——基于中外司法人工智能的對比與展望》,《政法論壇》2021年第5期。
[7]雷磊:《司法人工智能能否實現司法公正?》,《政法論叢》2022年第4期。
[1]哈特:《法律的概念》,張文顯、鄭成良等譯,中國大百科全書出版社1996年版,第155頁。
[2]中共中央宣傳部:《習近平新時代中國特色社會主義思想學習綱要》,人民出版社2019年版,第103頁。
[3]姚莉:《司法公正要素分析》,《法學研究》2003年第5期。
[4]何家弘:《司法公正論》,《中國法學》1999年第2期。
[5]魏斌:《司法人工智能融入司法改革的難題與路徑》,《現代法學》2021年第3期。
[6]參見M. Ethan Katsh,Orna Rabinovich-Einy, Digital Justice: Technology and the Internet of Disputes,Oxford University Press,2017, p.40。
[7]馬長山:《司法人工智能的重塑效應及其限度》,《法學研究》2020年第4期。
[1]波斯納:《正義/司法的經濟學》,蘇力譯,中國政法大學出版社2002年版,第69頁。
[2]周強:《最高人民法院工作報告》,2021年3月8日,http://www.court.gov.cn/zixun-xiangqing-349601.html。
[1]克里斯蒂安·施塔克、趙靜:《論法律的價值證立之必要性》,《蘇州大學學報(社會科學版)》2022年第1期。
[2]卡爾·拉倫茨:《法學方法論(第六版)》,黃家鎮譯,商務印書館2020年版,第253頁。
[3]雷磊:《司法人工智能能否實現司法公正?》,《政法論叢》2022年第4期。
[1]S. G. Mayson, "Bias in,Bias Out", The Yale Law Journal, 2019, 128(8), pp.2122-2473.
[2]盧克·多梅爾:《算法時代:新經濟的新引擎》,胡小銳、鐘毅譯,中信出版社2016年版,第220頁。
[3]王文玉:《司法人工智能的可能空間、內在限度與前景展望》,《東北大學學報(社會科學版)》2022年第3期。
[4]強世功:《法律人的城邦》,上海三聯書店2003年版,第23頁。
[1]伯爾曼:《法律與宗教》,梁治平譯,商務印書館2012年版,第59頁。
[1]陳靈峰:《司法人工智能的技術效應與應用邊界》,《求索》2021年第6期。
[2]米歇爾·克羅齊耶:《法令不能改變社會》,張月譯,格致出版社2008年版,第96頁。
[3]雷磊:《中國特色社會主義智慧法治建設論綱》,《中共中央黨校(國家行政學院)學報》2020年第1期。
[1]參見海姆·佩雷爾曼:《新修辭學》,楊貝譯,商務印書館2021年版,第25頁。