999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能司法應用的基本共識、關鍵分歧與發展趨勢

2024-11-02 00:00:00呂士哲

摘 要:目前,人工智能與司法制度正在走向深度融合發展階段。然而,關于法律人工智能的討論愈演愈烈,卻始終無法達成共識,不利于人工智能司法應用的深入研究和學術創新。應在人工智能司法應用的制度目標、角色定位、倫理考量三大論題上達成最基本的共識。在此基礎上,應進一步針對算法黑箱與決策透明、智能裁判與法官裁判、信息保護與案件查明這三個關鍵沖突點展開協調,進而形成科學的且具有可操作性的制度規范。未來,法律人工智能深度嵌入司法制度會對法律職業群體的知識技能提出新的要求。同時,法律人工智能仍需要與國際標準化組織接軌,制定統一的規范標準和應用框架。如此,司法制度方能穩妥穩慎應對人工智能掀起的數智化浪潮。

關鍵詞:法律人工智能;司法裁判;基本共識;規則構建

一、引言

近年來,人工智能、區塊鏈、大數據以及云計算等前沿信息技術正深刻影響著國家治理理念與治理模式的變革,引領社會治理朝著數智化方向邁進。智慧司法改革作為數智化改革浪潮中的關鍵一環,具有舉足輕重的地位。早在2017年,習近平總書記就前瞻性地提出了“要遵循司法規律,將深化司法體制改革與現代科技應用緊密結合”的重要論斷[1]。同年,國務院發布的《新一代人工智能發展規劃》明確將智能化法庭建設納入其中。隨后,最高人民法院亦發布了《關于規范和加強人工智能司法應用的意見》(以下簡稱《司法應用的意見》),為智慧司法改革提供了明確的指導評估藍本。2023年4月,為進一步規范并引導生成式人工智能服務的健康發展,國家網信辦發布了《生成式人工智能服務管理辦法(征求意見稿)》。同年7月出臺的《通用人工智能AGI等級保護白皮書》以及《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》)均為通用人工智能的發展提供了明確的規范與指引,也揭示了人工智能與司法制度正在走向深度融合發展階段。

目前,國內外既有學術成果大多聚焦于司法人工智能的正當性論證、功能機制探討、潛在局限性分析以及功能異化后果等方面[2]。這些研究為人工智能的司法應用提供了頗具洞見的理論探討和制度構想,但亦存在三個方面不足:首先,研究焦點過于集中,缺乏多維度、多層次的綜合性分析;其次,既有討論的整合度不足,尚未形成基本共識,缺少基于共識的司法人工智能現實困境和發展趨勢的相關闡釋;最后,承繼性研究較為匱乏,缺乏對既有成果進sEA2jU/EZD+r3ZJxVBy/zg==行針對性學術觀點交鋒和批判性繼承,導致研究脈絡的斷裂和理論觀點的散化。此種情形可能導致“學說越繁榮,其對理論共識破壞性越大,一些學說甚至還可能給違法裁判提供理論注腳”的不利后果[3]。因此,應立足既有研究,加強理論整合,在此基礎上梳理人工智能司法應用的基本共識和關鍵分歧,并針對分歧提出應對之策,最后討論法律人工智能的未來發展趨勢,從而為法律人工智能的研究創新和實踐應用提供相應的理論準備和制度供給。

二、理論前提:人工智能司法應用的基本共識

(一)制度6HnI0q4FtX/llxopVkaPng==目標:人工智能司法應用旨在實現“數字正義”

自古以來,公平正義便是人們普遍的價值追求,其在數字領域表現為“數字正義”這一具體面相。在《數字正義——當糾紛解決遇見互聯網科技》中,伊森·凱什與奧娜·拉比諾維奇·艾尼首次提出數字正義(Digital Justice)的理論,并強調該理論旨在促使人類于數字世界中實現公平正義[4]。智慧司法背景下,對于“數字正義”的保障是學界及實務界達成的首要共識。譬如《暫行辦法》在第四條第二款中明確規定,設計、訓練模型、數據選擇、提供服務的同時須得采取有效措施“防止產生民族、信仰、國別、地域、性別、年齡、職業、健康等歧視”。《司法應用的意見》第四條亦提出“保證人工智能產品和服務無歧視、無偏見”的要求。

除卻上述條款,為了實現“數字正義”這一目標,我國在司法實踐中主要從實體和程序兩個層面對“數字正義”理論進行了本土化引介與改造,希冀通過發揮人工智能的技術優勢來為司法正義的實現提供有力支持。換言之,智慧司法背景下,人工智能司法應用所實現的是技術理性與司法理性的融合,以法律大數據和人工智能的綜合運用來提升司法質效、優化司法程序,進而實現“數字正義”[5]。

在實體層面,“數字正義”表現為法律人工智能在智能立案和智能審判環節的超強分析能力。其通過法律大數據和自然語言處理(NLP)技術,自動對案件進行分類與編號,極大提升了立案效率和準確性。在法庭審判階段,大數據與機器學習技術被應用于案件信息的深度分析與判決預測,進而輔助法官作出更為公正合理的判決。根據筆者之前在河南中部地區Z市的調研,當下智能審判系統已具備多項功能,包括但不限于及時預測裁判結果、揭示訴訟風險、推送類似案例以及提供輔助證據等功能。這些功能既能夠從根本上提高司法審判的質量與效率,也有助于群眾及時獲得應有的法律救濟,從而紓解“正義遲到”(Justice Delayed)的司法難題。

在程序層面,“數字正義”表現為司法程序的智能化和規范化。如此可約束限制法官之恣意裁判,即借助人工智能減少法官個人因素對裁判的影響。通過統一的算法設計,避免因個體差異或“先前理解”(前見)導致同案不同判,最終促成司法裁判的客觀性、公正性和一致性。例如,“上海刑事案件智能輔助辦案系統”在刑事司法辦案機關的數據化辦案系統中嵌入了統一的證據規則和證明標準,有力推動了刑事案件程序的規范化改革進程[6]。同時,法律人工智能可以自動化和便捷化司法流程,降低公眾參與司法的門檻。法律人工智能協同ODR(在線糾紛解決)系統以及“移動微法院”等軟件系統,不僅提高了司法便捷性和司法效率,還使得法律服務更加貼近民眾。在此基礎上,配合案件信息庫、電子卷宗庫以及司法區塊鏈等技術的應用,可進一步推動司法數據的全面可視化[7]。通過法律人工智能整合并展示“要素”,為司法工作人員、律師以及社會公眾提供更為直觀、全面的案件信息和司法數據,以“可視化正義”推動我國司法體系的現代化和智能化發展。

(二)角色定位:人工智能司法應用應居于輔助性地位

法律人工智能只能居于輔助性地位而不能取代法官。一方面,人工智能缺乏人之意識和社會性,其價值判斷、道德評價以及責任承擔的能力均存在不足,因而不具有作為權利義務主體的倫理底色和現實基礎。另一方面,人工智能難于應對現實司法決策之復雜性,其法律解釋能力亦無法媲美法官。誠如拉倫茨所言,法學的核心目標在于針對不同的案件情境將規范加以具體化[8]。在此過程中,若由人工智能主導則必然面臨三個問題:其一,人工智能無法兼顧個案的特殊性;其二,人工智能無法解決規范競合、規范沖突的難題[9];其三,人工智能無法應對規范空白的難題,無法進行“法之續造”,而這些對于法官來說則屬于“基本功”。因此,人工智能在司法領域更適合作為法官的輔助工具而非替代法官審理案件。

實際上,從規范演進視角出發亦可對人工智能的輔助性地位予以佐證。2021年,國家新一代人工智能治理專業委員會在《新一代人工智能倫理規范》中,將人工智能明確定位為“產品”,并著重強調了其“可控”與“可信”的特性。隨后,在2022年的《人工智能白皮書》中,人工智能被進一步描述為“新型戰略技術”。2023年,我國出臺的《暫行辦法》將生成式人工智能界定為“技術”,并認為基于這種技術所提供的服務可視為“產品”。歐盟頒布的《人工智能法案》作為全球首部針對人工智能的立法,亦采用了以產品監管為主的思路來管理人工智能[10]。

因此,應將法律人工智能視為一種具有語言交互功能的智能產品。在追究責任時,仍應當追溯到產品背后的個人或組織。不論其被視為產品還是技術,本質上仍屬于“物”的范疇,并不具備法律上的主體資格,在司法審判中自然也不具備主體性。實際上,將人工智能作為“產品”或“技術”來定義,在我國司法實踐中有著明確體現。例如,在人工智能造成損害的情況下,往往是依據產品侵權理論來追究生產者、制造者、銷售者的責任。當然,在某些特定情況下,還需要結合技術的使用者和具體的應用場景來進行深入分析[11]。如果否認人工智能的輔助地位,即不將其視為產品,那么在處理人工智能涉訴案件時,責任主體的確定將變得異常困難。

隨著智慧司法4.0版本的深入推進,人工智能在司法審判中的角色定位愈加清晰。最高人民法院在《司法應用的意見》中明確了人工智能的司法輔助地位,強調法官具有不可比擬性,而人工智能則“永遠”無法替代人類法官。盡管,當下生成式人工智能(LLMs)為法律人工智能的語言理解和表達提供了便利,但其仍屬人工主導下的智能。筆者之前在Z市“基、中、高”三級人民法院信息處進行了實證調研,在問及人工智能的智能化程度時,法院工作人員皆做了類似回答:只有重復性、事務性的工作可以被人工智能取代,而在目前人工智能只能是輔助法官斷案的工具。盡管理論上,關于人工智能的主客定位問題仍有少部分學者主張賦予人工智能法律主體地位的“電子人格說”[12]和主張將人工智能視作新物種的“人機共生說”[13]抑或“自為主體說”[14]等不同觀點,但智慧司法場域下主流觀點依然是客體說下的司法輔助論。

(三)倫理考量:人工智能司法應用須遵循“倫理先行”

倫理關系往往先于法律關系而產生,法律則是對符合社會普遍利益的社會倫理的正式確認。然而,法律人工智能日新月異、持續演進,人們對其本質和運作規律的認知始終處于“摸著石頭過河”的狀態,在此探索過程中充斥著不確定性。因此,法律應當在“審慎包容”的指導原則下,跟隨倫理的步伐漸次前進[15]。換言之,法律人工智能需要堅持“倫理先行”的治理理念,即將倫理道德的約束作為其技術表達的首要考量因素,進而再將社會大眾所能普遍接受的且需要法律予以規制的行為上升至國家規范層面。

由于倫理道德的調整范圍要遠比法律的調整范圍寬泛,因此在“倫理先行”的理念下,法律人工智能的設計、開發、部署和應用過程應盡可能確保每一步都符合社會的一般倫理道德標準。譬如有學者指出,在設計算法之初應當關注算法的安全性、可解釋性、公正性和透明度等基本的倫理風險[16]。筆者認為,除了算法本身,數據作為法律人工智能運行的關鍵,亦應當避免偏見和歧視,保證公平公正,因此需要確保數據采集、存儲、流通和利用的正當性。

構建法律人工智能的倫理規范框架是一項復雜而艱巨的任務,需要綜合考慮技術、法律、倫理等多方面的因素。為了防范人工智能在應用過程中可能產生的倫理風險,聯合國教科文組織大會在2021年審議并通過了《人工智能倫理問題建議書》,強調了各國政府應重視人工智能的倫理問題。為響應這一國際倡議,中共中央、國務院在2022年發布了《關于加強科技倫理治理的意見》,明確提出了“倫理先行”的要求,同時指出要將科技倫理要求融入科學研究、技術開發等科技活動的每一個環節。在推進數字司法的進程中,最高人民法院對司法人工智能的倫理問題亦給予了高度重視,并在《司法應用的意見》中強調人工智能在司法領域的應用不得違背社會公共道德和倫理。可以說,實施司法人工智能倫理治理并貫徹“倫理先行”理念已成為當前之共識。

目前法律人工智能的倫理治理主要采取“外部約束+行業自律”的模式。一方面,我國建立了司法人工智能倫理治理的多級聯動協同機制。根據相關規定,最高法院負責制定司法人工智能的倫理安全規范,各級法院則設立人工智能倫理委員會負責監督執行。另一方面,行業組織正在積極開展行業自律管理,引導和督促企業遵循倫理安全規范。例如,許多司法科技企業也自覺將遵守倫理安全規范納入單位職業規范,并加強員工的倫理安全風險教育。

三、彌合沖突:人工智能司法應用的關鍵分歧及其協調

在對人工智能司法應用的基本共識進行探討后,應當圍繞人工智能司法應用的關鍵分歧展開論證。經梳理可知,當前關于人工智能司法應用主要在算法黑箱與決策透明、智能裁判與法官裁判、信息保護與案件查明三個方面存在不同認識。

(一)技術緯度:協調算法黑箱與決策透明的沖突

人工智能具有一定規則,但這些規則是數學和統計學的規則,且隱藏在專有的“黑匣子”中以至于使用者無法閱讀、無法討論、無法分析、無法推理[17]。換言之,算法黑箱導致使用者處于被動地位,后者始終“無法看清其中的規則,無法提出不同的意見,也不能參與決策過程,只能接受最終的結果”[18]。針對法律人工智能的算法黑箱問題,有學者批評,“封閉黑箱或訓練樣本依賴算法裁判將產生天然歧視”[19]。還有學者質疑,如果算法核心數據的所有權和控制權被發明它的私人技術公司壟斷,其他人對算法進行監管的內容及方式受到限制,易導致公眾對司法權力產生信任危機[20]。反對公開的學者則認為,算法公開缺乏實質意義,因為人工智能算法的深度學習功能和復雜機理就算是開發者本人也未必掌握[21]。同樣地,即使企業將算法運行程序公開,但由于算法設計與運行的高度專業性,專業壁壘使得社會公眾難以全面理解和評估算法的運作機制及其潛在影響[22]。

上述爭議的表象是算法是否應當公開并予以解釋。結合法律人工智能的制度目標可知,問題的本質在于:算法公開和解釋是否有利于實現“數字正義”?若此舉有利于實現“數字正義”則應當公開并予以解釋。實際上,法律人工智能算法公開的要求源自“司法公開”這一公認的法律原則。司法公開是司法公正的前提,若要在數字世界中實現公平正義、“數字正義”,亦必須遵從司法公開的基本原則,即在審判過程中盡可能地向公眾展示信息并做出合理解釋,讓當事人和社會大眾能夠理解判決的依據和過程。

不過,由于人工智能審判確實涉及大量數據和復雜的算法模型,其決策過程相對晦澀難懂。因此,算法不僅要公開而且要以用戶得以理解的方式公開。這需要算法在公開的同時被合理地進行解釋,可解釋的算法是算法公開要求的升級,該種算法所應用的人工智能也被稱為“可解釋的人工智能”(Explainable Artificial Intelligence)[23]。譬如,我國人工智能《司法應用的意見》第六條規定的透明可信原則(亦稱透明性原則)就是司法公開原則在法律人工智能領域的延伸。可見在人工智能審判的場域中,算法公開具有重要意義。司法公開項下的透明性原則除了算法公開這一基本要求外,還包括以下三重意涵。

第一,透明性原則要求人工智能系統以可解釋、可測試、可驗證的方式呈現其司法數據采集管理模式、法律語義認知過程、輔助裁判推定邏輯、司法服務互動機制等關鍵環節。這意味著智能審判系統的決策過程應該能夠被解釋和理解而不僅僅是“黑匣子”。透明性原則還意味著人工智能審判的應用過程和結果能夠實現可預期、可追溯和可信賴,以提高公眾對人工智能技術的司法信任,進而促進其與司法制度深度融合。

第二,透明性原則是人工智能審判實現“數字正義”的重要保障。通過使整個系統的運作過程變得透明可信,進而更好地解釋和解決系統潛在的偏見或錯誤,并提高審判結果的可預測性。同時,透明可信原則也有助于促進人工智能技術在司法領域的應用,推動司法系統向著更加智能、高效且公正的方向發展。保持司法公開原則有助于監督和評估人工智能算法的公正性和合理性,確保其不會對特定群體造成歧視或不公平待遇,也有助于促使司法公正原則的實現。

第三,盡管司法公開原則天然地要求算法公開透明,但是人工智能輔助審判中過程的公開并不意味著將所有的細節和算法模型一并公之于眾。一旦涉及國家安全、個人隱私和商業機密等問題時必須妥善平衡公開和保密的關系。此外,對于某些復雜的技術細節,可能并不適合一般大眾理解,但仍應盡力向公眾解釋決策的基本原理。質言之,人工智能審判中的司法公開原則應當是有限度的,通過建立適度的信息披露說明機制,向公眾提供判決依據、審判過程和結果的解釋,同時確保個人隱私和商業機密的保護,才能實現人工智能輔助審判的公正、公平和可信。

(二)人機權重:協調智能裁判與法官裁判的沖突

盡管《司法應用的意見》已經明確了法律人工智能的司法輔助地位,并且多數學者贊成將法律人工智能視為輔助工具,但是法官在使用時仍可能存在“技術依賴”的情況[24]。譬如有學者指出,人工智能對司法的影響往往呈現出一種不易察覺的隱蔽性。在當前司法實踐中,由于技術門檻的限制,司法人員可能難以及時糾正技術的不當使用,由此人工智能是在實質上“間接行使”“影響”司法權,從而對司法過程造成實質性的干預[25]。還有學者認為法律人工智能會在潛移默化中弱化人類法官的審判者地位和當事人的參與主體地位[26]。筆者認同此觀點,實際上司法人員未必有足夠的信息技術知識去全面理解和評估算法決策的準確性、公正性。法官可能只是機械地運行程序并由于自身數理知識的局限性而不得不唯智能裁判結果馬首是瞻,進而導致司法人員過度依賴算法決策,盲目信任算法裁判結果而忽視其局限和風險。因此,甚至有學者宣稱,人工智能審判造成“法官職業理性思維的減退、加深了法官思維的價值偏見、助長了法官的機械思維、遮蔽了法官思維的獨立性”[27]。

那么,在堅持人工智能司法輔助論的前提下,法官應當在何種程度上聽取AI之意見?審判庭應當賦予AI多少話語權重?應用法律人工智能時又該如何有效化解主體弱化和主體異化的風險?筆者認為,可以根據不同場景和案件類型來差異化地賦予人機權重,同時在技術層面予以規制。

在審理一般(常見)類型的案件時,可以賦予人工智能較高的權重。譬如,在審理借款合同糾紛、物業服務合同糾紛、交通事故責任糾紛、民間借貸糾紛以及盜竊、侵占、醉駕等輕微且構成要件較為簡單的案件時,借助法律人工智能有利于實現“同案同判”“類案同判”的基本要求。

而在面臨新型、重大疑難復雜案件時,應當保證法官的絕對控制地位。這類案件通常具有新穎性、復雜性、爭議性抑或較大的社會影響力,智能化輔助系統難以替代法官的角色。譬如對于一些數據樣本匱乏、訴訟主體眾多、法律適用爭議較大或者社會影響力巨大的案件,法官不僅需要進行“字斟句酌”的實體權益的衡量,還需要進行系統性的事實考量,運用自由裁量權進行價值判斷,以實現法律效果與社會效果的統一。同時,針對不公開審理、先行調解和財產保全類等特殊類型的案件,應排除人機協作的模式而完全由法官主導。因為這類案件涉及國家秘密、個人隱私等敏感信息,需要嚴格保密,因此需要排除信息泄露的風險。先行調解案件則多是婚姻家庭糾紛、繼承糾紛,受制于人的情感抒發,機器介入恐難以達到預期效果,而法官主導下的面對面溝通則更有利于化解矛盾、定分止爭。總而言之,協調人工智能與主體弱化的沖突需要根據不同場景和案件類型來差異化地賦予人機權重。

除了類型化考量之外,在技術層面上亦可予以規制。算法設計應確保系統能正確識別材料,并在設定的“權力界限”內行使權力。譬如有學者指出,在算法投入運行之前,需要事先輸入眾多算法“越權”于合理使用的材料,通過反復測試觀察合理使用材料能否被允許以及“越權”材料能否被過濾[28]。算法應以過濾“越權”內容和辨別合理使用作為核心程序,并且需要進行測試和驗證以確保算法在不同類型的案件中都能“安分守己”。

(三)個體保護:協調信息保護與事實查明的沖突

法律人工智能因其超大規模的數據處理能力和生成能力,在法律摘要、法律文書校對和生成、法律預測等任務上有突出的表現,對于實現司法的實體正義和程序正義具有至關重要的作用。但是也正因為人工智能以數據和信息“為食”,其收集大量個人信息的同時便肩負妥善保護信息之義務。況且,法律人工智能所涉信息往往更為緊要,若產生技術外溢則會引發公民涉訴信息、國家秘密、商業秘密的泄露,進而產生一系列社會問題[29]。

然而,目前我國出臺的《暫行辦法》關于信息保護的規定具有模糊性,其中第十一條和第十九條的信息保護主體只有“提供者”和“安全評估和監督檢查的相關機構和人員”兩類。產品或者算法的設計者是否屬于“提供者”?算法設計者對于自己的產品可謂處于一種“全知全能”的角色,完全有可能通過所設計的產品侵犯他人隱私或者是進行隱私計算二次利用他人隱私。此外,提供者為多方時究竟由哪一方承擔責任?例如,立案庭獲得當事人基本信息的輸入,開庭時審判庭獲得了審判信息的輸入,二者的信息存在交叉關系,倘若信息泄露何者承擔責任?然而,《暫行辦法》對于何為“提供者”沒有一個清晰的定義很大可能會造成實踐中責任主體缺位和責任分配不明的問題。

有鑒于此,筆者認為人工智能輔助審判的場域下應建立算法設計者的追責制度并建立信息數據授權脫敏規則,在算法的使用過程中應對國家安全、個人隱私、商業機密做脫敏處理。在必須使用上述信息時,應當在操作可視的環境中使用,如此倘若日后信息泄露,則既方便責任追溯也方便信息保護。有人可能指出,算法一旦通過備案和研發階段的監督就不應該再追究研發者的責任了。這種觀點有待商榷,以一鍵生成裁判文書系統為例,實際上往往是在投入運行階段發現了大量問題并在實踐中不斷校正的。

四、未來如何:人工智能司法應用的趨勢前瞻

(一)技術迭代:法律職業群體技術知識素養的提升

一方面,法律職業群體須不斷提升自身之技術知識素養。隨著人工智能技術的飛速發展及其在法律實踐中的廣泛應用,法律知識的生成模式正經歷著前所未有的變革。研究表明,法律人工智能所依托的大數據、NLP等技術使法律知識得以在法律生態系統中以更加均衡、即時的形態存在[30]。這不僅預示著知識更新的步伐將愈發迅速,更意味著傳統法律知識的“黏性”特征將減弱,信息在網絡世界中會更為自由、廣泛地流動。面對這一現實變革,法律從業者需要調整學習策略與工作方法,持續更新自身的專業知識,尤其需要掌握最新的技術性知識。如此方能在日新月異的法律變革中保持專業知識的即時性和實用性。也唯有如此,法官才能掌握庭審話語權而不至于喪失其主體性、律師方能更好地服務于客戶從而保持其競爭優勢。

另一方面,法學教育需要持續培養復合型法律人才。隨著生成式人工智能與司法實踐的深度融合,人工智能的司法應用需要持續進行跨學科的人才隊伍建設。為確保智能化司法建設的順利推進,應支持具有計算機、統計學、數學等理工科背景的學者投入法學研究和法律實踐。在理論教學上,需注重跨學科思維模式的培養,提升其復雜問題的綜合分析能力。而在實踐教學上,法學院應加強與法律人工智能等科技公司的合作,為學生提供豐富的實踐機會,深化其對生成式人工智能在司法實踐中應用的理解。此外,司法機關內部的職業技能培訓亦應著重于復合型法律人才的培養。培訓內容應涵蓋生成式人工智能、大數據以及區塊鏈等前沿科技的基本內容,以及上述技術在司法實踐中的應用場景。通過培訓,司法工作人員應能準確把握技術背后的原理及其對司法決策的影響。同時,應加強對司法機關專業技術骨干的培養,鼓勵其參與人工智能科技公司對核心算法的研發,以確保智慧司法決策的公正合理。

(二)法律適應:司法制度對法律人工智能的適應性變革

除了上文論述之透明性原則、根據場景配置人機權重、建立算法設計者的追責制度、建立信息數據授權脫敏制度等規則、原則,為適應智慧司法之變革,筆者在此針對法律人工智能的算法規制補充兩點制度構想。

1. 構建司法人員參與研發規則

司法人員參與算法設計是“數字正義”的內在要求。司法人員無須像技術人員那般對算法的每處細節了如指掌,但要像產品經理一樣能將產品需求娓娓道來,并要時常將基本的法律原則、規則、法律意識灌輸于技術人員心中,使其設計出的算法以此為基準和底線。理由:其一,司法人員作為智能審判系統的最終責任主體,有必要參與司法審判算法的設計。在人工智能與司法的技術融合中,司法人員的參與可以確保算法的合法性、公正性和符合司法正義的價值。其二,有學者認為由于技術具有鎖定性和難以逆轉性,如果司法人員不從一開始就參與算法設計,很難在后期對其進行有效的調整和控制[31]。此觀點有一定道理,司法人員常年工作在司法領域,了解司法活動的要求和價值,可以將法律知識和倫理原則融入算法的底層設計中,參與設計算法有助于智能審判系統遵守正當程序原則,消除算法歧視進而保證算法合規合法。與此同時,還需要包括技術專家和其他利益相關者的多方參與,只有充分融合法學家們的法律功底和技術專家的技術能力,才能設計出能夠真正服從于法官主體性思考和價值判斷的智能審判系統[32]。

截至目前,無論是《暫行辦法》還是《司法應用的意見》均未直接規定司法人員參與算法設計,這是否意味著在人工智能審判算法的場域下也無須司法人員參與呢?答案顯然是否定的,原因在于《暫行辦法》和《司法應用的意見》都是針對大類的通用人工智能進行規制,而本文研究的是細化后的人工智能審判算法;大類的通用人工智能缺乏司法審判語境的嚴肅性,其他場合下一般不涉及人身、自由、生命等重要權益,而審判結果往往直接關涉到當事人的人格名譽、重大財產、生命健康、自由等利益。況且,雖然《暫行辦法》沒有直接規定司法人員參與,但也在第八條要求對標注人員進行必要的法律培訓,提升其“尊法守法”等基本法律意識和法律素養,同時“監督指導”標注人員規范開展標注工作以確保標注工作合法進行。縱使該條沒有明確指出“監督指導”的主體,但能夠對標注人員進行培訓的必然是具有相應司法工作經驗或技能的人,實質上暗含著司法人員參與通用人工智能研發過程的要求。

2. 構建算法的備案審查規則

在設計人工智能審判算法后進行備案審查是一項至關重要的措施,其目的在于確保算法的合法性、透明性、公正性和安全性,從而消解人工智能司法應用的潛在風險。我國《暫行辦法》第十七條專門規定完成算法設計后需要依照《互聯網信息服務算法推薦管理規定》進行備案。

首先,算法的備案審查需要保證該人工智能審判算法的設計、實施和使用均符合國家法律法規的要求,即其適用須有明確的法律依據和授權。通過此種“事前審查”的方式來規避算法濫用抑或算法侵犯個人權益的問題。

其次,如前所述,從司法公開原則出發要確保算法的透明性和可解釋性。備案審查亦要求人工智能審判算法的設計和運行過程必須透明,讓相關部門和社會公眾能夠了解算法的基本運行原理、數據來源、決策過程等。透明性能使監管機構和公眾對算法的公正性和合理性進行評估和監督,有助于增加公眾對算法的司法信任。

再次,從司法公正原則出發要確保算法的公正性。備案審查需要核實算法在設計和運行中是否具有公正性,即是否對不同個體、群體一視同仁,避免算法的偏見和歧視。公正性是確保人工智能審判算法在司法領域得到合理運用的基礎。備案審查要求算法具備較高的安全性,包括數據安全、信息安全、隱私保護等。特別是在涉及敏感信息和個人隱私的司法領域,增加信息安全性、減少算法偏見性是不容忽視的一環。

最后,制度完善備案審查不僅是一次性的過程,還需要建立健全長效的備案制度。隨著技術的發展和算法的不斷更新,備案制度也需要持續優化和完善,保持與時俱進。

(三)國際合作:跨國法律人工智能應用框架與合作機制的建立

在國際合作的舞臺上,法律人工智能的應用框架與合作機制愈發受到重視。有學者指出可以仿照國際原子能機構(在聯合國框架下運作的自治組織)進行國際合作和人工智能聯合監管的途徑[33]。基于此,則可以借鑒歐洲核子研究中心、人類基因組計劃或國際空間站(ISS)的組織規范制定全球通用的法律人工智能制度框架。

法律人工智能在開展國際合作時面臨的挑戰與機遇并存。尤其在當前全球政治經濟格局下,大國競爭和地緣政治的緊張關系為國際合作帶來了諸多不確定性。因此,現有的國際組織在推動法律人工智能國際合作方面就發揮著重要作用。聯合國高級別咨詢機構可以對人工智能技術的國際治理進行深入研究和分析,提出政策建議;國際標準化組織可以制定統一的法律人工智能標準和規范;國際勞工組織和世界衛生組織等可以關注人工智能對勞動就業和公共衛生等領域的影響,提出相應的應對措施。法律人工智能國際合作的持續性和穩定性,需要建立長期穩定的合作機制。譬如,建立國際論壇和合作平臺,加強信息交流和技術合作;設立聯合研究項目和實驗室,推動法律人工智能技術的創新和發展;加強人才培養和交流,提高各國在法律人工智能領域的專業水平。

總之,法律人工智能的國際合作面臨著諸多挑戰,但也有著廣闊的發展前景。需要摒棄“零和博弈”的思維,加強合作與交流,共同推動法律人工智能的發展和應用,為人類社會帶來更多的福祉。

五、結語

如今,人工智能已經在司法實踐中找準了自己的“生態位”,那么就需要進一步對其司法輔助標準進行廓清和厘定,以防止法律或者司法人員“屈膝”于算法而對當事人權利造成損害。《暫行辦法》與《司法應用的意見》雖頒布卻缺少系統論證,應在夯實法理依托的基礎上探尋規則之適用,為人工智能審判算法的規則之治提供注腳。

從伊賽的“直覺”研究、波斯納的“前見”論述、拉倫茨的“法感”討論,到如今人工智能輔助司法審判且能一鍵生成裁判,人類經歷了從感性認識到理性認識的偉大飛躍。但在技術理性的強大“誘惑”面前要謹防陷入技術至上主義的陷阱。司法工作人員以及技術人員要始終牢記人工智能只是司法輔助的工具,不論是開發還是使用均要遵循既定的規則、原則,不得逾越人工智能審判算法之邊界。在立法層面,透明度規則、場景配置人機權重、建立算法設計者的追責制度、建立信息數據授權脫敏制度、司法人員參與研發規則、算法備案審查等規則的綜合運用可維護法官和司法參與人的主體地位,有力解決算法黑箱的“頑疾”并有效規避信息泄露之風險。

參考文獻:

[1] 習近平:堅定不移推進司法體制改革,堅定不移走中國特色社會主義法治道路[EB/OL].[2017-07-10].https://www.gov.cn/xinwen/2017-07/10/content_5209357.html.

[2] 鄭澤宇.國內外司法人工智能研究熱點與前瞻[J].南京郵電大學學報(社會科學版),2024(1):51-63.

[3] 任重.論中國民事訴訟的理論共識[J].當代法學,2016(3):38-51.

[4] 伊森·凱什,奧娜·拉比諾維奇·艾尼.數字正義:當糾紛解決遇見互聯網科技[M].趙蕾,趙精武等,譯.北京:法律出版社,2019:4.

[5] 魏斌.司法人工智能融入司法改革的難題與路徑[J].現代法學,2021(3):3-23.

[6] 張燕龍.美國的版權犯罪刑罰制度及對我國的啟示———兼論人工智能時代我國的量刑規范化改革[J].中國政法大學學報,2019(3) : 154-169.

[7] 周尚君,羅有成.數字正義論:理論內涵與實踐機制[J].社會科學,2022(6):166-177.

[8] 卡爾·拉倫茨.法學方法論[M].陳愛娥譯.北京:商務印書館,2003:120.

[9] 楊帆,呂士哲.論規范競合下先訴抗辯權適用之沖突與選擇[J].河南財經政法大學學報,2023(5):126-134.

[10] 曾雄,梁正,張輝.歐盟人工智能的規制路徑及其對我國的啟示——以《人工智能法案》為分析對象[J].電子政務,2022(9):63-72.

[11] 王利明.人工智能時代對民法學的新挑戰[J].東方法學,2018(3):4-9.

[12] 郭少飛.主體論視域下人工智能侵權責任承擔構想[J].地方立法研究,2023(3):64-80.

[13] 吳錚.生態轉換與人機共生:人類與人工智能存在的關系研究[J].人民論壇·學術前沿,2020(11):108-111.

[14] 唐代興.從GPT-4看人工智能的進化約束和倫理邊界問題[J].倫理學研究,2024(2):81-92.

[15] 宋華琳.法治視野下的人工智能倫理規范建構[J].數字法治,2023(6):1-9.

[16] 張玫瑰.司法裁判中人工智能應用的限度及規制[J].政法論叢,2023(5):128-138.

[17] GREENSTEIN,S. Preserving the Rule of Law in the Era of Artificial Intelligence[J].Artificial Intelligence and Law ,2022(3):291-323.

[18] 多梅爾.算法時代:新經濟的新引擎[M].胡小銳等,譯.北京: 中信出版社,2016:139.

[19] 羅洪洋,李相龍.智能司法中的倫理問題及其應對[J].政法論叢,2021(1):148-160.

[20] 譚九生,范曉韻.算法“黑箱”的成因、風險及其治理[J].湖南科技大學學報(社會科學版),2020(6):92-99.

[21] 樓伯坤,鮑博.刑事司法中風險評估的算法風險與規制措施[J].學術交流,2024(3):60-73.

[22] 周學榮.算法共謀下反壟斷的規制困境與路徑選擇[J].行政論壇,2024(1):116-124.

[23] 丁曉東.論算法的法律規制[J].中國社會科學,2020(12):138-159.

[24] MIRKO BAGARIC,et al.The Solution to the Pervasive Bias and Discrimination in the Criminal Justice System: Transparent and Fair Artificial Intelligence[J].American Criminal Law Review,2022(59):95-148.

[25] 王祿生.大數據與人工智能司法應用的話語沖突及其理論解讀[J].法學論壇,2018(5):137-144.

[26] 單純,葉茂.智慧司法異化風險的反思與規制[J].江西社會科學,2023(3):160-168.

[27] 焦寶乾,趙巖.人工智能對法官思維的影響[J].求是學刊,2022(4):115-125.

[28] 刁佳星.算法時代合理使用制度的困境與紓解[J].中國出版,2023(3):33-38.

[29] 張凌寒.智慧司法中技術依賴的隱憂及應對[J].法制與社會發展,2022(4):180-200.

[30] 王祿生.從進化到革命:ChatGPT類技術影響下的法律行業[J].東方法學,2023(4):56-67.

[31] 鄭戈.司法科技的協調與整合[J].法律適用,2020(1):3-11.

[32] 魏斌.智慧司法的法理反思與應對[J].政治與法律,2021(8):111-125.

[33] 肖恩·杜利特爾.人工智能需要全球合作[EB/OL].[2024-4-14].https://lawmagazine.bc.edu/2024/04/ai-requires-global-cooperation.

基金項目:中南民族大學研究生創新資金項目“智慧司法背景下人工智能輔助地位與審判主體異化風險的研究”(3212023yjssq006)

作者簡介:呂士哲(1998- ),男,河南鄭州人,中南民族大學法學院碩士研究生,研究方向為數據法方向。

主站蜘蛛池模板: 啦啦啦网站在线观看a毛片| 成人福利一区二区视频在线| 丝袜高跟美脚国产1区| 欧美日本中文| 人妻丰满熟妇啪啪| 欧美亚洲国产日韩电影在线| 亚洲天堂啪啪| 亚洲第一区欧美国产综合| 久久综合结合久久狠狠狠97色| 亚洲AV无码一区二区三区牲色| 欧美成人第一页| 欧美一区二区自偷自拍视频| 国产人人射| 亚洲欧美另类专区| 九九视频在线免费观看| 一本久道久久综合多人| lhav亚洲精品| 久久国产香蕉| 中文字幕亚洲无线码一区女同| 成人精品视频一区二区在线 | 蜜桃臀无码内射一区二区三区 | 人妻中文久热无码丝袜| 免费看av在线网站网址| 国产第二十一页| 国产成人h在线观看网站站| 国产日韩欧美一区二区三区在线| 久久久精品久久久久三级| 国产乱子伦无码精品小说| 欧美无遮挡国产欧美另类| 在线免费观看a视频| 国产91小视频| 久久人搡人人玩人妻精品| 日韩天堂网| 国产激爽大片高清在线观看| 中文字幕久久亚洲一区| 欧美日韩另类在线| 1769国产精品免费视频| 亚洲福利一区二区三区| 色噜噜综合网| 国产成人AV综合久久| 天天操天天噜| 日本高清视频在线www色| 99999久久久久久亚洲| 中文成人无码国产亚洲| 久无码久无码av无码| jizz亚洲高清在线观看| 国产亚洲精久久久久久久91| 亚洲国产看片基地久久1024 | 美女毛片在线| 2021国产精品自拍| 色欲综合久久中文字幕网| 伊人中文网| 免费一级α片在线观看| 激情六月丁香婷婷四房播| 欧洲亚洲欧美国产日本高清| 国模粉嫩小泬视频在线观看| 亚洲国内精品自在自线官| 久久亚洲国产一区二区| 潮喷在线无码白浆| 欧美日韩福利| 亚洲日韩欧美在线观看| 四虎永久免费地址| 亚洲无线观看| 国产成人a毛片在线| 日韩在线视频网站| 在线播放真实国产乱子伦| 日本影院一区| 成人蜜桃网| 国产无人区一区二区三区| 婷婷午夜影院| 色偷偷男人的天堂亚洲av| 又大又硬又爽免费视频| 亚洲国产精品日韩av专区| 欧美在线国产| 免费Aⅴ片在线观看蜜芽Tⅴ | 久草青青在线视频| 久久中文字幕不卡一二区| 超碰91免费人妻| 国产精品吹潮在线观看中文| 国产成人无码综合亚洲日韩不卡| 亚洲人成影院在线观看| 欧美一区精品|