姜萌萌
摘要:人工智能技術在法院的應用可以提升司法效率,緩解當前法院案多人少的局面,提高司法過程的標準化,促進司法公正。同時人工智能技術也是一把“雙刃劍”,在為我們帶來便利的同時也可能帶來一系列風險。本文探討了人工智能進法院的現實需求,分析研究了未來人工智能可能給法院帶來的風險。
關鍵詞:人工智能;智慧法院;算法;風險
中圖分類號:TP18 文獻標識碼:A 文章編號:1007-9416(2020)03-0222-02
0 引言
近年來通過發展高效的人工智能技術將迅速普及,同時人工智能技術具有網絡化效應,一旦系統出現漏洞,則可能出現系統性的風險。由于人工智能技術準確性遠超人類法官,法官可能在辦案過程中形成路徑依賴,同時由于司法責任制,法官要對案件結果負責,再加上在互聯網發達的今天,任何案件都可能在網絡發酵,引發輿論危機,法官為了規避風險,更有采納人工智能給出的答案的沖動,這可能使法官失去辦案主動權,淪為系統的助手。人工智能系統的標準化結果,會使兩審終審制以及公檢法的相互制約關系變得形同虛設。人工智能辦案結果更正確、更標準,但是對標準的追求可能導致社會多樣性的缺失,導致社會價值觀的一元化,從而影響社會的發展,甚至造成社會風險,多樣性是社會發展的保證,因此應允許法官有不同意見,允許法官犯錯,使司法活動有人味兒。
1 人工智能進法院的現實需求
2016年3月到2017年5月,谷歌旗下人工智能系統阿爾法狗Alpha Go及其升級版Master對決人類頂尖棋手并取得完勝后,人工智能開始被普通大眾所熟知,一時間全社會掀起了一場對人工智能思考及討論的熱潮。目前人工智能已經在醫療、自動駕駛、金融等多個領域得到廣泛應用,并且在某些方面已經有了比肩甚至超越人類頂尖專家的能力。與此同時,“法律+人工智能”的模式在法律界也已經成為一個新的發展方向,美國一些州法院已經開始將人工智能技術普遍用于審前保釋或判決后的假釋風險評估中,加拿大科技公司開發的ROSS法律人工智能項目利用IBM Watson的平臺進行技術開發與升級,能夠識別用戶自然語言問題,并給予精確、快速的回答,目前ROSS已經在國際上獲得多家知名律師事務所客戶[1]。案多人少、錯案頻出一直是困擾我國司法審判工作的難題,近年來人工智能技術的飛速發展似為我們解決這一難題指出了一條道路,2016年7月由中辦國辦印發的《國家信息化發展戰略綱要》中提出“建設智慧法院,提高案件受理、審判、執行、監督等各環節信息化水平,推動執法司法信息公開,促進司法公平正義。”將“智慧法院”建設作為我國信息化發展戰略的重要組成部分,拉開了我國法院人工智能審判系統建設的序幕,于是各地法院紛紛上馬了自己的人工智能項目,目前上海、北京、浙江、江蘇、廣東、貴州等地法院均已推出了自己的人工智能辦案系統,其中比較成功的有上海法院的“206”刑事案件智能輔助辦案系統,北京法院的“睿法官”智能研判系統及江蘇法院的智能辦案工具。在審判方面,人工智能可以以現有的大量司法案例數據為基礎,通過深度學習,基于智能算法,對海量案件進行分析,做出相應的法律判斷,實現“大數據”與“專家經驗”完美結合[2],當前智能審判已經能夠對法律關系簡單的案件做出相對準確的判斷,可以想見,隨著技術的進步,人工智能在法院必將更有用武之地。
2 未來人工智能可能給法院帶來的風險
與其他學科不同,信息技術的發展具有發展速度迅猛,更新迭代快速的特點,人工智能亦處于高速的發展之中,與此同時,近年來人越來越多的人開始對工智能的迅猛發展表示擔憂,特斯拉汽車創始人艾倫·馬斯克及著名科學家霍金都曾公開表達過對人工智能的發展可能對人類社會帶來威脅的擔憂,雖然能夠完全取代人類的所謂強人工智能目前還遙遙無期,但是任何一項新技術的廣泛應用都會改變人類現有的生產工作及交往方式[3],技術是一把雙刃劍,司法作為正義的最后一道防線,所以在司法人工智能的應用中更應對其所能帶來的相應影響保有充分警覺并盡力規避,總體來說,以下問題需要注意:
2.1 系統性錯誤風險
2018年前文提到的智能醫生Watson就被爆出給多名癌癥患者開錯了藥,給有出血癥狀的癌癥病人開出了易出血的藥物,無獨有偶,美國亞馬遜公司的人臉識別軟件也曾鬧出過將多名國會議員識別成罪犯的笑話,上述例子在人工智能領域并不罕見,通常情況下,人工智能的效率及準確率是遠超人類的,但是是系統就難免出現漏洞,一旦出現漏洞,人工智能則可能出現錯誤。人工智能出錯和人類出錯有一個區別,就是人類出現差錯往往體現在個案上,比如醫生可能因為一時疏忽等原因為某個病人開錯藥,但其結果往往只影響到具體的患者,但人工智能如果存在漏洞,其出錯則是成批出錯,最后可能造成大錯。另外,所有的人工智能系統都是網絡化的,每一個終端都與系統相連并相互影響,而計算機的思維是不會變通,不會反思,它只會以設定好的目標為方向繼續執行指令,美國股市曾經多次出現過因為計算機系統而引發的股災,因為人在設計計算機操作股票時,為了確保在暴跌時他們的委托人能夠立即止損,會瞬間拋售掉手中的股票,而這種操作會觸發另一臺計算機的止損條件,于是形成雪崩式的鏈式反應,造成股災。司法人工智能領域當然也存在上述的風險,更為嚴重的是,隨著司法人工智能的發展,在信息交流極度通暢的今天,最有效的智能算法會迅速的被各地法院運用,此時一旦算法出現漏洞,則可能出現大面積的錯誤,而此時的錯誤就并非個案錯誤,而是系統性的類案錯誤。司法活動對當事人乃至對社會都有著巨大的影響,鑒于此,人工智能與法院工作的結合更應采取保守的態度,穩扎穩打,不宜冒進,確保引進的是經過市場考驗的成熟且可靠的技術,同時應密切監視系統的運行狀態,建立高效的系統故障響應機制,確保將風險降到最低。
2.2 法官主體性喪失風險
雖然當前司法人工智能系統還很不成熟,但是隨著技術的不斷發展,智能閱卷、智能證據審查、智能庭審系統、智能文書起草、智能案例及法條推送甚至智能裁判結果建議等人工智能功能將逐漸完善,法官收到案子后拿到的是經過系統提煉過的案件報告,證據亦經過系統的智能篩查及認證,系統再向法官智能推送類案案例及相應法條,法官需要做的工作似乎就是依據人工智能給出的上述材料順理成章的作出裁判,如此一來就會產生一個疑問,這樣形成的裁判結果究竟是法官作出的還是人工智能系統作出的?當系統作出的判斷正確率遠高于人類時,人類法官面對系統給出的判斷時將很難有產生不同意見的自信,由此產生的風險就是法官可能在辦案過程中形成路徑依賴,過于信賴系統給出的判斷從而怠于自主積極的思考,以致業務能力生疏,甚至淪為系統的助手。另一方面,在司法改革的今天,司法責任制要求法官對案件的結果負責,而互聯網的發展使任何一個判決都可能在互聯網上迅速發酵,最后形成輿論危機,在這種情形下,法官具有天然的風險規避傾向,此時,人工智能系統給出的標準化答案無疑將成為其最穩妥的方案。因此,如何厘定法官與人工智能系統的關系,保證法官的辦案主導權,這也將是我們今后將要面對并不斷探索的課題。筆者認為,在法院人工智能系統的建設過程中,我們要明確人工智能系統“為法官節省體力而非腦力”的原則,確立人工智能的輔助性地位,防止系統的越俎代庖。