999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

論司法場景下構建算法可解釋機制的思路與原則

2022-03-18 02:20:54徐寅晨陶懷川
四川職業技術學院學報 2022年3期
關鍵詞:機制

徐寅晨,陶懷川

(西南政法大學 人工智能法學院,重慶 401120)

一、問題的提出

在技術的推動下,算法作為人工智能時代的基石,正深刻地影響著社會治理的方方面面。新時代社會治理的現代化離不開司法治理的現代化,我國司法系統選擇以開放包容的心態主動將算法納入司法運行體系,以期引導算法良性參與司法活動,助益糾紛解決。自2015 年最高人民法院提出“智慧法院”建設伊始,以算法為底層技術的智慧法院建設正式試點布局,其旨在憑借算法技術的強勁發展,提升司法參與社會治理的效能,達到“破解改革難題,提升改革效能”之目的。最高人民法院更是在2019 年發布的《人民法院第五個五年改革綱要(2019—2023)》中提出:“建設現代化智慧法院應用體系”。目前典型的已有最高人民法院“類案智審推送系統”、貴州法院“政法大數據系統”、上海法院“刑事案件智能輔助辦案系統”等成果。以算法為基礎的智慧法院建設將逐步邁向縱深。

然而,以審慎著稱的司法領域自然將不可避免地受到來自于算法技術的沖擊。算法是指,在數學和計算機科學之中,一個被定義好的、計算機可施行之指示的有限步驟或次序,常用于計算、數據處理和自動推理。廣義的算法作為一種決策運行方式與程序,其概念早已滲透人類社會治理數千年,而狹義的算法與人工智能技術相結合便顯現出一定的技術壁壘,尤其是在算法技術于司法領域中應用熱潮方興未艾之時,需要關注到算法自身特性對司法領域帶來的沖擊。由于技術的高度專業性和算法構成的復雜性,司法領域的算法呈現出算法設計者與算法使用者相分離的特點,法院所應用的底層算法系統大多采用外包方式,通過“技術專家+法律專家”的方式進行設計和構建。技術的高度專業性以及構成的復雜性使得算法一經成型便具有了黑箱特性,在事件輸入和決策結果的輸出之間存在著人們無法洞悉的隱層,也因此無法向當事人完整解釋決策過程。由此帶來算法輔助決策過程與法官心證過程混同,算法黑箱特性與司法公開沖突,算法決策結果問責機制不明確等問題。是以,因此需要探究一套行之有效的方式,以平衡算法運行的“難以捉摸”與決策出現的“不可接受”之間的矛盾。針對司法領域算法運行的法律規制,包括從算法技術層面的算法公開、從當事人角度的個人數據賦權以及法律規則抑制算法歧視等維度進行,但上述進路的問題也尤為突出,算法公開對司法裁判領域個人當事人心理特質考慮甚少,而個人數據賦權進路,通常當事人在數據收集之時就含混不清,在數據處理之時更加難以行使其反對權,審視抑制算法歧視進路,發現其在數據層面存在著有效數據匱乏和算法使用與設計分離的問題。

從司法場景的應用需求出發,算法可解釋性機制可以發揮維護法官主體性、保障當事人公正需求、提升司法權威的功效,在此前提下,算法可解釋性機制作為司法場景中算法法律規制的一種方法被學界所注意。作為一種有效手段,人工智能研發者對算法作出必要解釋被特別強調[1],在司法裁決中,凡涉及自主研制系統,都應提供一個有說服力的解釋[2],由此觀之,這一原則已經為越來越多的人認可和接受。在司法領域糾紛解決語境中,“可解釋”意在向受自動化算法決策影響的相關人釋明為該算法決策的合理性和正當性,使決策結果被相對人信服和接受。2018年,歐盟《通用數據保護條例》(GDPR)以1995 年歐盟數據指令為藍本,在“鑒于”部分第71 條和正文第22 條針對基于算法的“自動化決策”賦予個人干預的權利,允許其表達的觀點,在評估后獲得該決策的解釋,以及對決策提出質疑[3]。歐盟會議智庫2019 年發布《算法決策:機遇與挑戰》報告,將“可解釋性”視為決策系統中的關鍵議題。在全球范圍內影響深遠的《伯克利對人工智能面臨挑戰的系統性觀點》,亦將“可解釋性”視為人工智能算法“適時、穩健、安全”的核心要素。在司法領域糾紛解決語境中,“可解釋”意在向受自動化算法決策影響的相對人或相關人釋明為該算法決策的合理性和正當性,使決策結果被相對人信服,達致可接受的目的。

司法領域中算法可解釋性機制的構建是一項系統工程,需要結合算法技術未來發展趨勢和司法領域自身特質兩方面的情況進行構建,對可解釋性機制構建的總體思路與原則依循進行清晰界定,是司法場景下算法可解釋性機制具體路徑形成的基礎。 本文立足于算法技術與司法決策的融合,明確算法在司法決策中的輔助性定位,探討算法司法輔助決策的解釋理念及方法原則,以期為算法技術助益司法治理科學路徑的形成提供參考。

二、算法可解釋性機制構建的總體思路

(一)以場景化規制為核心理念

場景理論從社會學中發展而來,原是為研究和解釋后工業經濟社會的諸多現象而設立。場景理論不斷發展、完善和更新,具有更強大的理論包容性,成為了一套新的學術范式,用于社會問題分析的諸多領域。例如針對個人信息保護發展出了場景公正理論,在算法法律規制問題上,提出根據不同場景建構不同的規制方法。以場景化規制為核心理念,符合當前算法法律規制的發展趨勢。算法規制應立足于場景化規制理念基礎之上,因為算法之法律屬性會因具體應用場景的不同而有所變化[4]。在民事案件場景中,諸如機動車交通肇事案件、房屋租賃案件、勞動爭議案件等案情簡單、爭議不大的案件解決過程中,算法能夠進行深度地介入,甚至自動生成預測裁判結果;然而,刑事案件中的定罪量刑場景,比如刑法種類的確定、有罪或者無罪判決的作出,需要由法官獨立進行判斷。原因在于,從技術層面考量,算法技術并不能準確實現此種需求,從當事人以及社會層面考量,定罪量刑由機器作出難以被接受,此外,此種決策將對傳統司法體系帶來的巨大沖擊。司法場景下應用的算法有可能生成算法司法決策,有可能對當事人權利造成重大甚至決定性的影響,此時,算法的法律屬性更接近于正當程序。然而,當算法不介入公權力機構,僅在一般私人領域應用時,其法律屬性又接近于商業秘密。由此可見,不宜武斷的直接確立算法的法律屬性為何,而要根據應用的具體場景,綜合算法發揮的具體作用、對社會的影響等因素進行綜合考慮。

(二)以可信任為首要目標

實現算法的可信控制是算法治理的核心任務[5],算法司法決策要真正獲得司法工作人員、當事人、社會大眾的理解和接受,必須是可信任的。算法可解釋性機制構建的目標即是:當算法司法行為或者決策被質疑之時,經由可解釋性機制闡明算法決策的合理性和正當性,同時在解釋的交互過程中,向用戶展現算法是可理解、可靠和可控的。當用戶感覺到該算法更公平、更負責任、更透明、更易于解釋時,他們便會認為它更值得信賴和有用[6]。常見的三種信任機制分別是,基于行動者自身特征的信任、基于交往經驗的信任和基于制度的信任[7]。事實上,法律作為一種以國家強制力為后盾的社會治理機制,本身也是一種制度信任機制[8]。社會民眾在基于制度權威的認同和信任理解的認同的基礎上[9],不斷增強對司法的制度信任。但此種信任也具有脆弱性,從當事人角度觀之,算法司法行為或者決策也是司法權運行的一部分。決策結果的正當、正確與否關系著法院司法公信力和司法權威,而司法公信力很大程度上源自司法的確定力和說服力,然而即使是實現案卷電子化、提取卷宗文字等事務性工作也可能在功能實現中出現錯誤,導致司法形象和司法公信力在當事人信念中的削弱。更遑論算法深入介入司法應用場景,進入到事實認定環節。如果沒有充分的信任,算法司法決策在應用過程中會爭議不斷,故而,算法可解釋性機制構建應當以可信任為首要目標。個案當事人追求紛爭高效、公平的解決,對公平正義的追求是當事人提起訴訟的重要動因。通過算法解釋與當事人對話溝通能夠有效提高當事人對算法司法決策的信任度。

三、算法可解釋性機制構建的原則依循

算法司法決策可解釋性機制的構建,需要將技術與司法制度資源充分融合,結合司法領域的場景化需求進行設計。從算法可解釋性機制的目的和司法現實出發,我們認為,支撐算法可解釋性機制運行的原則包括以下方面:

(一)解釋的公開性原則

“司法公開、透明是現代司法的基本原則,并對現代司法公信力、司法權威有著決定性影響”[10],一般來說,司法公開是國家機關主導的自上而下的向公眾公開的司法活動,推進司法公開是人民法院的重要工作,是保障人民群眾知情權、參與權、監督權和表達權的重要途徑和方式。司法公開的核心要義是揭開人民法院司法活動的“神秘面紗”,把司法的過程和環節同其結果一起“曬”出來,讓民眾看得清楚和明白[11]。算法可解釋性機制與司法公開具有天然聯系,算法司法決策可解釋性機制構建是司法公開原則的必然要求,也可以說是以用戶需求或者當事人需求為核心的互聯網思維推進來司法公開工作。目前,各級人民法院以建設“智慧法院”“電子法院”為契機,大力推動司法公開與“互聯網+”的跨界融合,算法可解釋性機制與司法公開具有價值目標一致性的特點,二者致力于用最低的成本,展現復雜決策的過程,使司法審判的結果更具合理性,保障民眾的信息知情權,進而對決策的質效進行控制[12],以回答算法決策相對人對算法生成決策結果的正當性拷問,并增強當事人對司法審判的結果更具可接受性。以此方式,公眾方可了解司法運行的過程,知曉審判結果的由來,不僅有益于維護司法權威,亦對公眾起到了教育、警示的作用。從技術融合應用發展的角度看,司法決策中的算法是司法決策數據化的需求與計算機程序相結合的產物[13]。公眾對司法的信任建立在司法公開的基礎上,隨著智慧法院體系建設的縱深發展,算法司法決策應用場景的不斷擴展,受到當事人質疑與挑戰的可能性也將不斷增加,故此,穩定的算法可解釋性機制將成為算法司法決策不可或缺配套措施。

(二)解釋的輔助性原則

輔助性原則是充分權衡算法技術應用特質和算法可解釋性機制構建目的得出的結論。首先,算法依據特定計算模型將數據轉化為可預期結果,以精確的編碼程序和高效的識別、運算能力體現出極大的工具價值[14],且算法作為基礎設施逐步嵌入各平臺和社會治理之中,將不同要素相鏈接,扮演運用于不同場景下供人類進行決策依據選擇的中介性角色[15]。故而,出于算法本身所具有工具價值、算法運用于現代社會各領域所發展出的中介性角色,以及算法無法理解決策者精神性、價值性內涵的考慮,算法的解釋自然也居于結果作出解釋的一部分而非全部,且是輔助性的一部分,目的在于銜接機器提供決策依據與最終結果之間所不被常人理解之處。故在智慧司法場景下,算法可解釋性機制應定位于發揮“輔助性”之功效,其是基于與如今、乃至較長一段時間內人工智能技術介入司法的有限性相適配所做的考慮。如此,輔助性原則下的算法可解釋性機制可起到助益現今智慧法院體系建設,提高司法效能,提升審判質效之用。其次,算法黑箱是算法技術的最大特點,構建算法可解釋性機制事實上是為了打開算法黑箱而做努力,但在技術上必須考慮的現實問題是,對于算法決策的解釋不能一味追求技術上的庖丁解牛,因為司法領域中的算法可解釋性機制必須慮及糾紛解決成本,節約司法資源。算法自身的黑箱特性及其在現今和較長一段時間內運用于智慧法院場景下的輔助性定位,對于算法參與的結果解釋場景中,不宜過度消耗社會資源和司法資源。算法解釋的目的是讓當事人在其權利義務受影響時,知曉提供決策的算法是如何運作和對結果如何產生的影響即可,并非“事無巨細”地告知當事人在理解上存在天然鴻溝的技術細節。事實上,法律只關心有關權利、義務、責任的問題,故而法律上所需要的解釋只是對人工智能的部分重要內容進行解釋[16],故算法可解釋性機制服務于司法場景的智能提升要以法院需求和當事人接受度為界。在當前以及未來一段時間內,當事人和社會對人工智能技術和機器審判的接受還需要長期的過程,故而將算法技術運用定位于司法輔助工具是準確和適宜的[17]。

(三)解釋的相對性原則

相對性是指,可解釋性機制框架下的算法解釋保持“相對透明”即可,這是技術發展現狀與司法現實需要決定的。算法的不透明性是與生俱來的,任何人工智能都不是完全不具有可解釋性的,它們都是在一定范圍內具有相當程度的可解釋性[18]。囿于技術壁壘,法官及當事人均不一定能理解算法原理和計算細節,一味地公開算法,使之達到絕對透明的程度,不僅無益于算法對象(當事人)的權利保護,亦增加訟累。試圖解釋算法內部運行的每一處細節機制和作用成因的做法在司法領域并不適用。原因在于,其一,隨著算法領域的核心技術日益更新、不斷加深,即使是算法的設計者也很難說清數據輸入與結果輸出這一中間過程具體是如何作用以及發生的。其二,即使從技術層面作出了解釋,但程序意義大于實質意義,算法細節對法官與當事人來說仍然是難以理解的。算法解釋的側重點在于相對人或社會公眾對算法決策的可理解性,解釋的難點更多在于以通俗易懂的方式解釋算法決策的原理、決策樹和邏輯關系等[19]。其三,技術解釋時間上遷延日久,技術上成本較高,與使用算法追求效率的初衷不符。鑒于算法的特性,即便強制要求算法公開,也只能做到有限度的算法透明[20]。在“司法公開”視野下,尚有因涉及商業秘密、個人隱私、未成年保護等內容而不予公開,作為公開程度弱于司法公開、且天生打著商業秘密保護傘的算法[21],更毋庸做到詳盡的解釋、苛求徹底的公開。

(四)解釋的層次性原則

“層次性”是指,算法的解釋之于不同場景、不同對象以及具體解釋時,所需面向的具體范圍。算法解釋的內容涉及數據的抓取、數據的運算、各數據對結果的輸出影響所占的比重等,有學者指出,依照全樣本數據原理,數據體量越大,越容易對不確定的事項作出判斷,也就越能總結出結構化的規律[22],故而數據選取的體量也用在層次性的考慮范圍之內。算法解釋不同于因果關系解釋,其更多的是一種“相關性”解釋[23],是對多因素作用下各環節、各要素所起不同比重的解釋,且不同場景,解釋范圍亦多有不同,因此算法的解釋應當有一定的“層次性”。算法的解釋對象也分為向當事人解釋(主要)、向法官解釋、向社會公眾解釋等;而“層次性”即要求算法在進行解釋時,應當根據不同主體、不同時機,層次分明地進行解釋,而不是以“什么都說,大鍋燉”的方式進行解釋,正如有觀點指出,算法解釋應當區分解釋權的權利主體——自動化決策使用者與相對人,且當自動化決策使用者無法提出具體解釋時,算法開發者具有解釋義務等,并將算法的解釋分為事后的具體解釋和事后的更新解釋等[24];具言之,層次性原則下的算法解釋應注意如下方面:一是數據抓取層次,要求真實、全面地闡明被質疑案件的初始數據,包括事實要素和法律要素、對應之法律規范、相應的法律特征等;以及對數據提取的體量進行說明,以免不同地區不同數據而適用了同一套解釋方法,進而導致算法解釋的實質不公。二是作用比重層次,要求準確解釋主要數據要素對算法結果所產生的影響何在,各要素所占權重比例以及關聯度和相互關系。三是具體解釋層次,根據解釋場合和解釋對象的不同,落實解釋的專業性。各級人民法院進行細化解釋時,在專業性方面,可以定期組織專家進行專業解答,或在系統設計之初,留有備案進行說明,仍解決不了的疑難問題,由定期舉行的專家論壇處理解決。

四、結語

可以預見到,在未來的數十年中,科技與司法將進行更深程度的融合,算法也必將從工具型定位向分析型定位邁進。我們認為,人工智能有可能出現“五過之疵”,與人類串通、勾結,進行權力尋租,司法場景下的算法輔助決策必須在監管之下運行,算法可解釋性機制即是監管運行的重要組成之一,以場景化規制為核心理念,以可信任為首要目標作為可解釋性機制構建的總體思路,以公開性、輔助性、相對性、層次性為可解釋性機制的原則依循,將有助于消除智慧法院建設路途上關于智能系統介入裁判領域的疑慮,同時為具體的算法可解釋性機制的構建打下基礎,形成程序保障與實體規范并重,解釋主體、解釋標準、解釋內容明確的可解釋性機制。算法可解釋機制原則的確立,不僅保證了算法司法決策場景下相對人的正當程序性權利,亦將大大提升相對人對裁判結果的可接受度,這無疑將從較長一段時間的視野里助力于智慧法院的發展,使算法輔助決策真正成為助益于司法闊步于新時代社會治理領域的車之輪、鳥之翼。

猜你喜歡
機制
構建“不敢腐、不能腐、不想腐”機制的思考
自制力是一種很好的篩選機制
文苑(2018年21期)2018-11-09 01:23:06
“三項機制”為追趕超越蓄力
當代陜西(2018年9期)2018-08-29 01:21:00
丹鳳“四個強化”從嚴落實“三項機制”
當代陜西(2017年12期)2018-01-19 01:42:33
保留和突破:TPP協定ISDS機制中的平衡
定向培養 還需完善安置機制
中國衛生(2016年9期)2016-11-12 13:28:08
破除舊機制要分步推進
中國衛生(2015年9期)2015-11-10 03:11:12
氫氣對缺血再灌注損傷保護的可能機制
注重機制的相互配合
中國衛生(2014年3期)2014-11-12 13:18:12
打基礎 抓機制 顯成效
中國火炬(2014年4期)2014-07-24 14:22:19
主站蜘蛛池模板: a免费毛片在线播放| 中文字幕亚洲精品2页| 国产丝袜无码精品| 97国产精品视频人人做人人爱| 国产精品自拍合集| 国产v欧美v日韩v综合精品| www.日韩三级| 久久一日本道色综合久久| 久久五月视频| 亚洲欧美精品在线| 国内黄色精品| 香蕉视频在线观看www| 精品1区2区3区| 亚洲动漫h| aⅴ免费在线观看| 少妇精品久久久一区二区三区| 欧美天天干| 国内视频精品| 无码福利视频| 一级毛片不卡片免费观看| 精品久久久久久中文字幕女| 丰满的少妇人妻无码区| 久久特级毛片| 欧美www在线观看| 欧美国产日本高清不卡| 国产成人精彩在线视频50| 成人亚洲视频| 毛片大全免费观看| 午夜精品福利影院| 色久综合在线| 免费又黄又爽又猛大片午夜| 99热这里只有精品免费| 国产福利在线观看精品| 亚洲成人高清无码| 欧美97欧美综合色伦图| 四虎成人在线视频| 小说区 亚洲 自拍 另类| 青青草91视频| 国产精品99r8在线观看| 色窝窝免费一区二区三区| 性视频一区| 都市激情亚洲综合久久| 国产男女XX00免费观看| www亚洲精品| 国产在线精品香蕉麻豆| 亚洲人视频在线观看| 干中文字幕| 天堂网亚洲系列亚洲系列| 久久综合色视频| 国产三级成人| 成AV人片一区二区三区久久| 久草视频精品| 无码中文字幕精品推荐| 538国产视频| av免费在线观看美女叉开腿| 2020极品精品国产| 激情亚洲天堂| 国产女同自拍视频| 亚洲中文字幕久久无码精品A| 国产美女一级毛片| 婷婷综合缴情亚洲五月伊| 特级毛片免费视频| 亚洲欧洲日韩综合色天使| 精品视频一区二区三区在线播| 日韩黄色大片免费看| 国产成人1024精品下载| 456亚洲人成高清在线| 黄色片中文字幕| 不卡网亚洲无码| 国产一区二区福利| 亚洲成A人V欧美综合天堂| 少妇高潮惨叫久久久久久| 国产精品人人做人人爽人人添| 亚洲人成网站观看在线观看| 国产精品污视频| 日本欧美一二三区色视频| 性色生活片在线观看| 国产激爽爽爽大片在线观看| 亚洲第一精品福利| 国产内射在线观看| 99精品在线看| 九九九久久国产精品|