999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能司法決策的合法性辨疑

2021-11-29 23:49:01孫慶春
關鍵詞:人工智能人類

陳 銳,孫慶春

(重慶大學 法學院,重慶 400045)

人工智能技術的發展使一些原本被認為只能由人類才能完成的工作開始由人工物來補充或替代,這種情形不斷地將人們對人工智能的認知向更加確信的方向推進。在司法領域亦是如此,人工智能技術方法的改進使得人們對司法人工智能有了更多的期待——使用人工智能進行司法決策。然而,人工智能參與司法決策不可避免地會面臨這樣一個問題,即其應否被允許?這關涉到司法人工智能與社會合法性(legitimacy)判斷系統的兼容性問題,是人工智能參與司法決策首先需要解決的問題。對此,學界往往從道德主體性、權力合法性、司法錯誤歸責以及程序正義等方面質疑其合法性,進而反對人工智能參與實質性的司法決策。那么,人工智能參與司法決策不具有合法性嗎?本文旨在對這種論斷進行反思,以澄清一些關于司法人工智能的認識誤區,從而為司法人工智能參與司法決策掃清理論上的障礙。

一、人工智能司法決策的合法性質疑

從司法人工智能的簡史來看,合法性追問幾乎與人工智能的司法應用是同步的,并伴隨著人工智能技術的發展而起伏。在法律專家系統階段,雖有學者持續致力于司法人工智能的建模工作,但皆沒有達到與其初衷相匹配的法律論證系統。在這樣的技術水平上,人們普遍認為,司法人工智能是不可能的也是不被允許的。近年來,在大數據與機器學習技術的支持下,新一代的司法人工智能逐漸克服了規則推理與小數據時代案例推理的技術局限,通過將原有的司法經驗應用于待決案件,使得“基于不完全、不確定或不一致的知識而進行的法律推理”變得可能與有效起來。在法律實踐領域,法律人工智能系統的層出不窮便是一個證明。

然而,這并沒有改變學界對人工智能司法決策合法性判斷的結論。從現有文獻來看,學者們對于人工智能參與司法決策仍表達了一種普遍的質疑與擔憂,即人工智能不應被用于實質性的司法決策,即使其具備了相應的司法能力[1-3]。這種否定性觀點無疑為司法人工智能的應用設置了一道“先驗”屏障,使得人工智能參與司法決策無論如何都不被允許。考慮到司法人工智能合法性判斷的兩個特性:一是技術指向性,即合法性判斷的對象是人工智能技術及其方法論,技術方法在一定程度上決定了合法性判斷的結果;二是認識導向性,即不同的認識論前提會導致不同的合法性判斷結果。本文認為,在新的技術時代條件下,這種論斷不僅缺乏對司法人工智能技術方法的考察,而且存在一種錯誤的認識論指導。因此,無論是從致知還是從致用的角度看,都應認真對待。

在詳細評判之前,有必要簡單介紹支持該論斷的理由及其理論假設。約略而言,這種論斷主要包括以下四個方面的論證:(1)若準許人工智能進行司法決策,將引起人類法官的主體性危機。該論證假定了在司法決策的可能性與道德主體性之間存在可通約性,即認為若肯定人工智能可進行司法決策,則實質上等于肯定了人工智能的道德主體地位,那必然會引起法官的主體性危機。有學者甚至憂心忡忡地提醒人們:人工智能司法決策可能意味著機器的統治與人類文明的終結,其無異于“開門揖盜、引狼入室”[2]。(2)若準許人工智能進行司法決策,會產生權力的合法性危機。該類論證大多從“權力論”出發,質疑人工智能司法決策的權力淵源與權力運行的合法性。它認為,從權力的來源看,法官的司法權有明確的法律授權,而人工智能司法決策卻沒有法律上的根據,故其合法性高度成疑;就權力的運行而言,若由人工智能取代法官進行司法決策,可能會偏離司法的公共屬性,并影響司法權的獨立運行[4]。(3)若準許人工智能進行司法決策,在出現司法錯誤時,會帶來歸責難的問題,甚至會引起明顯的責任真空。由于人工智能進行司法決策,遵循的是一種相關性與概率論的邏輯,因此,它不僅無法確保個案裁判的“穩當熨帖”,而且會產生概率性錯誤[5-6],此時就會面臨司法錯誤無法歸責的窘境[7]。(4)若準許人工智能司法決策,會危及程序正義的實現。持這種觀點的學者傾向于將司法人工智能的算法解釋為“黑箱”,認為其因缺乏透明性而極易產生“先天”或“人為”的偏見[8-9],或因形式上的不透明而減損了必要的司法程序[6],進而損害程序正義。

上述論證顯然延續了人文主義看待技術哲學問題的一貫路徑,帶有濃厚的倫理論色彩。不可否認,在這種人文或倫理的批判中包含有真理的成分,它極大地深化了人們對科學技術意義的思考。但人工智能司法決策并不是一個純理論的思辨性問題,它更多的是一個工程實現的問題,單純的倫理批判并不會產生有效的建議。基于此,本文將重點對上述四個論證進行逐條辨疑,并探討一種有關人工智能司法決策的可能路徑,以破除上述否定性觀點為人工智能司法決策設置的“先驗屏障”。

二、人工智能司法決策會引起人類法官的主體性危機嗎?

反對或批判人工智能司法決策的大多數論證首先是從倫理的層面展開的,它們主張,若準許由人工智能進行司法決策,實質上等于肯定了人工智能的道德主體地位,進而會危及人類法官的主體性地位。

持上述反對意見者大多傾向于將人工智能視為一種威脅人類主體性的“類人”的存在。這一理解顯然受到了心靈哲學(例如Searle的“中文屋論證”)對人工智能批判的影響,以及早期人工智能學家對人工智能模糊定義的影響。Turing在著名的“圖靈測試”中,將一個系統具有智能性的標準定義為:如果該系統的回答和反應與人類的無法區別,那么,該系統便是智能的。客觀地說,該定義不僅無法反映人工智能的真正本質,而且因其模糊性而制造了一個理解的誤區,即人工智能是對人類智能的模仿或復制。根據這一理解,人工智能就是一種人類模仿計劃,以期在機器上再現人類的自然能力,其結果就是:人們必然會追溯到心靈、意識與主觀性來認識與評價人工智能。

但實際上,作為工程科學的分支,人工智能的研究很少與人類思維的運作有關,它“與生物有機體的關系主要是隱喻性或啟發性的”[10]16,因此,理應更多地從工程技術哲學的角度對其進行認識與評價。工程技術哲學主張從工程學的角度認識技術,從抽象的理論知識回歸到具體的技術實踐。工程技術哲學認為,技術本質上是一套改造自然世界以滿足人類需要的方法或產物。根據這種解釋,人工智能只不過是一個通過工程技術有效而自動地解決問題的方法或系統。作為人類制造活動的產物,人工智能系統并未超出人工物的范疇,它的存在完全是心智依賴性的,它是什么或即將成為什么完全取決于人類[11]225。這決定了人工智能對人類的依附關系,也決定了司法人工智能不可能成為一種“類人”的存在。

一些學者可能會以“人工智能的自主性日益加強”為據而反對上述觀點。由于人工智能的自主性日益增強,使得人工智能的行動范圍會超出人類意向的范圍,因此存在擺脫對人的依附、進而成長為獨立道德主體的可能性。但這一觀點明顯建立在對“自主性”的多義解釋或隱喻性修辭之上。當我們使用“自主性”一詞時,通常意味一種完全的自由、獨立或主導,其不僅體現在計劃的執行方面,更體現在計劃的制定與目的的自我確立方面。盡管人工智能已超越那種對具體行動進行直接編程的技術階段,但所謂的人工智能“自主性”仍只是在計劃執行的意義上而言的,與目的生成、行動規劃無涉。也就是說,人工智能只能在人類預先設定的程序或算法規則內運行,就像僵住癥患者需要借助別人的意識來行動一樣,對于這種意義上的“自主性”,更合適的表述或許是“自動性”。即使人工智能借助所謂的自主學習獲得了一定的環境自適應性——根據不同的經驗數據生成不同的規則前提,但它不會產生超出經驗數據范圍之外的規則,更不會改變“加工數據”的目的本身。這種意義上的“自主性”并不構成對人工智能工具本質的真正挑戰,更不會派生出所謂的“主體性”擔憂。

仍有學者會質疑為什么作為工具的人工智能可以進行司法決策?尤其是在這些司法決策關涉人類主體該如何行動之類的問題時,這一質疑就變得特別嚴肅起來。正如本文論證的,人類與司法人工智能的關系只是一種使用與被使用關系,人們之所以設計出司法人工智能,有著明確的目的,那就是服務于人類的司法需要。在上述關系中,人工智能只是在司法事務上分擔了法官的負擔,是對法官的一種功能強化,就像工業機器人分擔工人的勞動一樣,我們并不會由于工業機器人逐漸分擔了人的勞動,將人從繁重的勞動中解放出來,而擔憂人的主體性會喪失。盡管司法人工智能從事的是腦力勞動,其本質及其與人類的關系并未從根本上改變,其存在的意義在于擴展人類的能力。因此,人工智能只是強化了人類的主體性,而非削弱更非危及其主體性。

三、人工智能司法決策存在權力合法性危機嗎?

質疑人工智能司法決策合法性的第二類論證意在表明人工智能不具備權力上的合法性。這一合法性質疑主要包括兩方面內容:其一,在權力的淵源方面,人工智能司法決策未獲得公共授權,若準許人工智能司法決策,將會與人民主權原則相抵觸;其二,在權力運行方面,若準許人工智能進行司法決策,由人工智能所代表的技術權力將侵蝕或重構司法權力,并因而可能會從根本上消解司法的獨立運行。下文將對上述兩方面內容進行剖析。

(一)權力淵源的合法性問題

現代法治國家是以人民主權為基礎的,人民授權是一切權力的根據,同時也是司法權的合法性源泉。在對人工智能司法決策表示質疑的人看來,若準許人工智能進行司法決策,就存在權力淵源的合法性問題,因為人工智能未能獲得人民的公共授權。而且,若由人工智能取代法官進行司法決策,無異于變相地為公民強加了“服從于人工智能的法律義務”,繼而會偏離司法的公共屬性[4]。

這一質疑明顯混淆了“作為國家職能的司法權”與“法官的司法職權”。雖然二者在權力淵源上都可追溯到人民主權,但法官的司法職權與作為國家職能的司法權存在本質區別:與立法權、行政權相對的司法權是國家職能劃分的結果,具有明顯的外部性;而法官行使的司法職權更多的是法院內部分工的結果,具有明顯的內部性。作為國家職能之司法權通常由法院來行使,其直接淵源為憲法或組織法;而作為法官之司法職權則通常由法官個體來行使,其直接淵源為法官法。若從公共授權的角度看,審判權應屬于國家審判機關——法院,而非法官個人,法官只是具體行使而已。例如,我國憲法與法院組織法均明確規定,人民法院依照法律規定獨立行使審判權。這種權力隸屬關系也表現在司法責任的分配方面,即司法錯誤的責任主體主要是法院(或國家)。由此可見,司法權的直接主體是法院,法官的職權及其合法性均源于法院的內部分工,司法人工智能并不會改變這種權力隸屬關系。在這個意義上講,即使由人工智能替代法官進行司法決策,也不會破壞司法權的公共屬性,更不會引起司法權的合法性危機。

顯然,在這種權力結構與隸屬關系中,人工智能司法決策并不會將“服從人工智能的法律義務”強加給公民。司法裁判的權力屬于法院,其直接表現就是:裁判文書只能以法院的名義進行制作、發布,且因此具有法律效力。因此,在司法裁判中,是擁有司法權的法院而非法官個體賦予司法裁判以權威性的,在某種意義上講,公民服從的是法院的權威、法律的權威,而非法官個人的權威,因此,所謂的“服從人工智能的法律義務”只不過是危言聳聽罷了。

(二)權力運行的合法性問題

運用人工智能進行司法決策會威脅司法權的獨立運行嗎?一些學者質疑人工智能司法決策會威脅司法權的獨立運行:一方面是私權力(技術平臺)對司法獨立的影響;另一方面是一般國家權力對司法權的控制或消解[12]。但本文認為,在合理的規制框架下,運用人工智能進行司法決策不是威脅而是保證了司法權的獨立運行。

從一般意義上而言,人工智能技術本身不會影響司法獨立。眾所周知,獨立性是保障司法公正的必要條件,這為各司法文明所普遍認可。但司法獨立不是絕對的,而是需要進行必要的規制。在人工智能進行司法決策時,算法恰恰起到了必要規制的作用,它不僅規范著人工智能的運行,而且規范著司法決策的過程,既可以摒除法官基于偏私的主觀判斷而濫權,又可以極大地屏蔽其他權力對司法權的外部干預。因此,司法人工智能在排除外部干擾與規制司法權力的內部運行兩個方面都具有明顯優勢。就此而論,關于人工智能會消解司法獨立性的論斷顯然難以成立。

但是,一些學者從“技術即權力”的假設出發對此進行質疑,認為人工智能代表的技術權力本身對法律的權力構成了挑戰。本文認為,盡管這種泛化的權力論在一定程度上揭示了權力演化的本質,但其并不適于解釋制度性權力。以司法權為例,其首要特征在于制度性,即在特定的司法制度框架下產生與運行。泛化的權力則不然,其不具有制度性與規范性,僅僅是一種泛指的可能性。“技術即權力”并沒有比“糧食即權力、石油即權力、金錢即權力”表達更多的內容。人們如此談論的權力,并不包含司法權所具有的那種制度性意義。在“技術即權力”這一命題之下,人工智能技術代表了一種權力,也可以說電力技術代表了一種權力,二者沒有本質區別。司法的技術史表明,每一次技術變革都是對司法權運行基礎的更迭,是對司法獨立的保障而非破壞。如果沒有理由指責歷次的技術革新破壞了司法權的獨立運行,也就沒有理由指責人工智能。

當然,這種質疑可能從另一角度提出,如“代碼即法律”[13]6。在人工智能司法決策的情境下,它以“算法即法律”的形式呈現出來。根據其解釋,代碼或算法作為一種必然的、根本的規制對網絡空間或人工智能情境的參與者施加規則,而代碼或算法的設計者或控制者(科技平臺)則獲得了施加規制的權力。有代碼或算法的地方,必然有施加這種權力的科技平臺,它們以制定“法律”的方式從根本上影響著司法權的獨立運行。但是,本文認為,這種解釋基于一種錯誤的認識過分夸大了科技平臺對司法獨立的影響。或許這一理論準確地捕捉到了代碼或算法在規制參與者行為方面的實際效用,無論是對網絡空間還是對人工智能來說都極具洞察力,然而它僅僅是一種社會學意義上的觀察,沒有超越這一層面的效力。就像語言之于語言學一樣,其語義與語法形成了社會生活深層的結構限制,超越這個層面便不再具有這種規制力。因此,不能因為這種社會學觀察就將科技平臺排除在司法人工智能的建設之外。這一方面是因為法院受自身技術能力的限制不可能獨立建設司法人工智能,另一方面則是這種絕對的獨立可能會導致司法濫權。更重要的是,法律可以為司法人工智能的運行構筑必要的制度基礎,以規制代碼或算法,繼而規制其背后的權力。這恰恰體現了法律超越代碼或算法的一面,也破除了“代碼即法律”這種社會學觀察所引起的規范混淆。

此外,一些論者持“技術權力將消解司法權”的消解論,即司法人工智能所依賴之算法不過是一種控制司法權的工具,它會為一般國家權力干預司法提供端口。這一論調顯然建立在算法“黑箱論”基礎之上,即只有當公眾處于對算法的“無知”狀態時,這種“邪惡”才是可能的。正如Susskind所說,“哪里有不透明和神秘化,哪里就有不信任和缺乏責任感”[14]37。但是,只要通過算法透明原則來確保算法的公開、可解釋與可責性,就可以解決上述問題,就像可以通過制定一些程序性規則以確保人類法官在決策中保持透明一樣,同樣可以制定規則保障人工智能司法在陽光下運行。

四、人工智能的司法錯誤會導致責任真空嗎?

質疑人工智能司法決策合法性的第三類論證主要集中在司法錯誤及其責任的分配方面。一些論者認為,人工智能不僅無法在個案裁判中實現“公正合理、穩當熨帖、讓人心悅誠服”[7],而且,其存在統計學意義上的概率性錯誤,這本身讓人難以接受,即使其能保持99%的正確性,亦是如此[3]。一些論者擔憂,若準許人工智能參與或主導司法決策,將導致司法錯誤難以歸責,甚至產生責任真空。以下對此進行具體分析。

(一)司法錯誤是不可接受的嗎?

那些質疑人工智能司法決策合法性的人們對人工智能可能做出錯誤的判決持零容忍的態度,這種要求人工智能司法決策絲毫不能出現偏差的做法顯然過于嚴苛。就個案例裁判而言,司法決策并不追求“真理符合論”意義上的絕對正確,而只尋求一種可接受的結果。這是因為法律本身是有價值負荷的,任何一條法律規則的產生、存在與適用都是價值權衡的結果。在這種意義上,法律是與價值有關的規范,司法是處理與價值有關的活動。但由于價值往往潛在于規范背后,因此,很難說清楚價值到底是什么。價值的這種不可或缺且又難以捉摸的特性使得法律適用過程不可能是簡單的邏輯推理過程,法官通常需要訴諸“價值權衡”這一權宜方法來追求司法裁判的可接受性。通常,學者們傾向于將法律適用過程理解為完全主觀的過程,如德沃金認為法律推理是一項建構性的解釋活動。但其實,法律適用過程是一個將價值與事實相結合的過程,是一個主觀見之于客觀的活動。這與人工智能通過處理經驗數據、解決價值問題的方式并無本質區別。如果以此來指責人工智能,在人類法官同樣無法保證司法決策百分百正確的情況下,為何不以同樣的標準苛責人類法官呢?

而且,從法律適用的結果看,無論是人類法官,還是人工智能,都不可能使所有的司法決策都正確。因為它(他)們總是在真實的環境中行動,而不是在理想環境或實驗環境下發揮作用,這意味著,司法裁判的正確性不僅會受到理性水平的限制,而且也會受到法律規范是否明晰、案件事實是否清楚等因素的影響。那些追求裁判結果絕對正確的人無疑將法官想象為一個全知全能的人,他們能了解一切、掌控一切,因此能做出完美的裁決。但實際上,法官只能通過有限理性,在有限的時間、有限的空間以及有限的價值之內做出相對正確的判決。而且事實表明,即使這種有限的理性也會因諸多現實因素的影響而無法充分實現。因此,從實踐理性的角度看,司法決策不過是在多個備選方案中選擇較優的方案而已。如果我們研究司法人工智能的目的是為司法實踐服務,而不是追求純粹的理論思辨,那么我們就沒有理由要求司法人工智能具備完全的理性,更不應苛求其決策百分百正確。

因此,對待人工智能司法決策可能產生錯誤的問題,應持一種現實的態度,既不能敷衍塞責,又不能苛求。如果人工智能法官能在正確率方面不低于人類法官,并在經濟、效率、質量與可預測性等方面達到比較理想的狀態,那么我們就沒有理由對其提出過高的要求。正如杰西·休斯所說的,“如果它(工程)作為實踐推理的方法是成功的,那么它就是成功的”[11]375。誠然,“人類法官同樣不完美”并不能構成一個支持人工智能進行司法決策的充分理由,但也不能因噎廢食,不能因為人工智能法官不完美就否定其作用。

(二)人工智能決策會產生責任真空嗎?

除情感因素外,很多人對人工智能法官可能會引起司法錯誤表示擔憂的重要原因與歸責困難有關,即當人工智能司法決策出現錯誤時,該由誰來承擔責任?以及該如何劃分責任?由于會產生歸責難的問題,以致一些學者對人工智能司法決策的合法性產生了懷疑。針對這一質疑需要區分以下幾個層次的問題。

第一,人工智能司法決策如果出現了錯誤,是否難以劃分責任?其實,若是人工智能法官出現了司法錯誤,反而比人類法官出現錯誤更容易被發現,因為人工智能不像人類法官那樣,善于掩飾錯誤,其會錯得明明白白,技術人員只要對人工智能的推理過程進行檢視,就能發現這些錯誤到底是由軟件的程序問題造成的,還是因法律存在模糊、含糊等原因造成的,以及因事實認識存在錯誤造成的,因此,責任劃分上不存在困難。所謂的“算法黑箱”只是針對外行而言的,且有過分夸大之嫌。正如監視飛機飛行狀態的“黑匣子”,對于外行來說可能很神秘、不透明,但在技術人員面前,它卻是透明的,可以通過一定的技術手段進行解讀,并以之作為解決飛行事故的客觀依據。

第二,若人工智能法官做出了錯誤的判決,該由誰承擔責任?毫無疑問,該由人類自己承擔責任。因為人工智能是人類有目的活動的產物,它并沒有超出人工物的范疇,故人類該為人工智能的設計、生產與使用負責。無論人工智能具有多么強大的功能,它總是人類有意向活動的結果,在出現司法決策錯誤時,明顯應由人類而不是人工智能來承擔責任。就這一點而言,人工智能在責任問題上“并不像許多人所說的那樣具有革命性”[15]。在廓清這一點之后,散布于眼前的倫理迷霧便去了一半。但在澄清人類的責任主體地位后,并沒有完全解決“由誰來承擔具體責任”這一問題,因此,我們需要回答第三個層次的問題。

第三,對于由人工智能引起的司法錯誤,具體承擔責任的應是“誰”?對于這個問題,本文的基本觀點是:只要滿足歸責條件,法官個體、法院與國家都可能成為人工智能司法錯誤的責任主體。自亞里士多德以來,責任理論就突出強調了責任兩個方面的條件:“控制”條件和“認知”條件。“控制”條件是指行動者對由其所引起的行動具有足夠程度的控制;“認知”條件是指行動者知道自己在做什么[16]12-14。如果同時滿足這兩個條件,那么該行動者就負有責任。雖然這種責任理論是針對理性行為人提出的,但作為理性行為人集合的法院與國家同樣獲得了這種資格。在設計、部署與使用司法人工智能的過程中,法官、法院與國家都可能在某種情形下對其進行某種程度的“控制”,這實質上構成了人工智能錯誤行動的原因;而且在履行各自的角色職能時,三者都具有相對獨立且充分的“意志”自由。因此,從“引起司法錯誤這一后果”的“原因”來看,三者都滿足司法錯誤歸責的條件要求。當然,考慮到可歸責性(作為責任來源或原因的能力)與可懲罰性(實際承擔不利后果的能力)的分離,三者在具體的責任分配方面可能存在某種歸責與實際承擔的不一致。但總體來說,這并不影響歸責的實施,若人工智能在司法決策時產生錯誤,法官個體、法院與國家都應該而且能夠在各自的責任范圍內承擔某種性質的責任。

綜上所述,在人工智能司法決策中,司法錯誤并非不可歸責,其責任主體仍然是人類,或是法官個體,或是法院,或是國家。而且就避免司法錯誤而言,人工智能可能比人類法官做得更好。只要進行合理的案件分流與制度安排,我們完全可以找到一種有效的責任分配方案來化解所謂的“責任真空”這一阻礙。

五、人工智能司法決策會損害程序正義嗎?

質疑人工智能司法決策合法性的第四類論證是從程序正義方面展開的。一方面,一些學者認為,人工智能算法的“黑箱”屬性可能遮蔽程序的透明性;另一方面,一些學者擔憂,人工智能決策的形式性可能會減損必要的司法程序(如法律論辯),進而損害程序正義。但本文認為,從總體上看,人工智能在司法中的運用有利于維護而非損害程序正義。

(一)透明的算法決策有利于實現程序正義

作為主導人工智能司法決策的技術規則,“算法”實質地影響著司法決策的過程與結果,因此,其重要性不言而喻。但算法的“不透明性”卻引發了學者們對其可能損害程序正義的擔憂[9]。顯然,這類擔憂將人工智能司法決策的爭論焦點轉移到了“算法透明”上來,而且在他們看來,保證和維護算法的透明似乎極其困難。從現有文獻來看,常見理由有三:一是算法的技術專業性使普通公眾往往難以有效認知,從而極大地影響了公眾對人工智能算法的公平感知與信任;二是商業秘密原則為供應商拒絕公開算法提供了正當理由;三是既使公開算法,在算法設計、部署與使用過程中,工程師、供應商甚至是法院也難免有意或無意的植入價值偏見[17]。不可否認,這些問題是客觀存在的,而且會給人工智能司法決策帶來透明度障礙,但卻不是不可解決的,完全可以通過必要的制度設計與調整來消除這些阻礙。

首先,對于算法決策缺乏公平感知的問題,可以通過設置必要的公開與解釋責任來解決。司法實踐史表明,公開通常是司法公平的必要前提,而解釋(給出理由)則構成了裁判可接受性的理性基礎。在人工智能司法中,算法公開與解釋同樣可消除社會公眾對基于秘密規則決策的擔憂。當前學界已經提出了一些解決方案,其中“運行透明方案”得到越來越多的認可,其基本原理是公開算法實際的運行規則。這使得算法決策的依據與理由得以公開,從而使算法運行及其結果更具可解釋性。實際上,許多現有的治理框架正是基于這種思路展開的。雖然這些原則性規定尚需完善,但卻恰當地指出了維護算法透明的正確方向,可以在相當大的程度上化解人們對人工智能算法決策的信任危機。

其次,對于因商業秘密而產生的算法公開豁免問題,也可因司法的公共屬性而重新調整對私主體利益的保護邊界而維護司法的公正性。研究者擔憂商業秘密可能成為算法公開的阻礙,例如著名的“State v.Loomis上訴案”就涉及到該問題。該案判決書中,威斯康星州法院認為巡回法院使用未披露算法信息的COMPAS系統來評估Loomis再犯風險的做法,并不侵犯其正當程序權利。在一些學者看來,這顯然賦予了科技公司拒絕披露算法相關信息的正當理由,從而使算法透明難以實現。但值得注意的是,該判決還有另外幾項重要的決定或意見:一是Northpointe公司必須在公開文件中告知法院關于算法商業秘密的注意事項;二是在使用COMPAS時,必須闡明它在判刑時考慮的因素以及這些因素如何影響它所判處的刑罰;三是法院在使用COMPAS時應“闡明一個有意義的推理過程”,從而提供一個透明且可理解的解釋。這些決定或意見表明,商業秘密作為豁免理由并不是絕對的,在涉及司法公正時可以被限制與調整,以平衡科技公司與社會公眾之間的權力不對稱。

最后,對于算法存在價值偏見的問題,則可以通過必要的程序設定進行發現、阻止與糾偏。算法系統的設計部署不可避免地嵌入某些倫理假設與價值植入,而偏見可能存在于設計者對倫理與價值的理解之中,正如伽達默爾所說的,偏見植根于我們對世界的理解之中。就此而論,人工智能算法決策固有的偏見確實難以消除。但人類的倫理實踐表明,價值偏見可以被有效抑制,方法就是通過倫理對話努力促成公共理性。這種方法也可以移植到算法偏見的治理中來,即在算法的設計階段吸納更多的公眾參與與對話。這有利于在算法中植入更廣泛的、更多元的價值考量,從而平衡不同群體的道德直覺與道德情感,以抑制價值偏差與失衡。作為司法領域應用的公共算法系統,司法人工智能也應如此。雖然這種方法可能無法實現一些學者隱晦表達的那種“完全無偏見”的理想追求,但倫理實踐表明,這是抑制偏見的有效方法。

總而言之,盡管司法人工智能的算法決策可能存在不透明的問題,但人們已找到了解決問題的正確方向并正在接近或完善解決問題的方法,這意味著滿意的算法透明是可能的,基于這種透明算法的人工智能決策將為實現司法的程序正義提供重大保障。

(二)人工智能決策不必然減損司法程序

該類反對意見的第二個方面是:人工智能的形式化特性可能會減損必要的司法程序,從而損害程序正義,這尤其體現在法庭辯論上。人們擔憂當事人法庭辯論中言說的權利可能無法完整地嵌入人工智能決策中,從而影響司法的程序正義。

司法人工智能會取消當事人言說的機會與權利嗎?依正當程序提出并論證自己的訴求與主張是當事人重要的程序性權利,也是法庭辯論的核心內容。正如哈貝馬斯所說的,司法裁判不是一種法官獨白式的活動,而是一種通過反思性的交互機制合理地推動同意的過程,因為法律帝國不只有法官,還有共同體成員。因此,充分的法庭辯論往往是程序正義的構成性條件。基于此,一些學者擔憂人工智能的結果導向式決策可能無法充分地捕捉到法庭辯論的實踐性,進而影響甚至剝奪當事人言說的機會與權利[6]。但是,人工智能司法決策并不意味著取消或減損必要的司法程序,也沒有任何證據表明,司法人工智能的效用是建立在對司法程序的不當簡化與對當事人權利的剝奪基礎之上。更重要的是,在法律辯論中,司法人工智能并不排斥當事人的訴求表達與對話,恰恰相反,人工智能需要通過法庭辯論來確保其決策前提的“正確性”。一方面,法庭辯論要想達到說服的效果,論辯者需要充分地展開其理由;另一方面,法庭辯論有利于言明司法案件的內在邏輯,從而滿足司法人工智能對事實的“可表達性”需求。可以說,人工智能司法決策的形式性是建立在法庭辯論的實踐性基礎之上的,法庭辯論越充分越有利于司法人工智能發揮作用。因此,人工智能不會剝奪當事人言說的程序性權利。

此外,還有學者擔憂法庭辯論的形式替代可能會折損法官親歷性的程序性價值,從而影響人工智能決策的合法性。但是,在人工智能司法決策中,以親歷性來衡量程序正義可能并不適宜,因為司法人工智能存在的意義就在于部分或全部地分擔或替代法官的工作,以緩解司法壓力。從親歷性的含義看,其本質要求是進行決策的法官應該親歷決策前程序。顯然,這種程序性要求是建立在人類法官司法決策的情形之上的,但在人工智能司法決策中,這種衡量程序正義的標準將因技術革新而失去了存在的意義。就此而論,人工智能將重塑司法的面貌,或許我們應該對這類反思本身進行反思。誠如反對觀點所表明的,人工智能技術介入司法實踐必然會引發一系列倫理思考,但更全面的倫理反思理應包括人工智能技術對司法倫理的重塑。

六、結語

技術本質上是人類解決自身問題并實現理想生活方式的活動,其不斷革新的原動力正在于人們對美好生活的追求,這展現在人之為人的基本特征之中。通過賦予人類以滿足自身需求的工具、方法與能力,技術的價值才得以實現。司法人工智能最鮮明地體現了這一點。在人工智能技術日益成熟的今天,將其運用于司法實踐的原動力最直接地體現在司法系統所面臨的“案多人少”的壓力方面。因此,司法人工智能并非單純的智力游戲,而是有其深刻的現實必要性。隨著技術的不斷革新,這種現實必要性逐漸轉化為司法人工智能實現的可能性。大數據與機器學習為司法人工智能開辟了新的道路——有限理性的經驗進路。在這種進路中,人工智能擺脫了理論進路的局限與機械主義的指責,以自下而上的方式實現了人類司法經驗的未來面向,并且在有限理性的框架下化解了浪漫主義的主觀性問題。盡管這種進路面臨著經驗主義承受的傳統指責,即經驗的可靠性問題(過去對未來是否具有必然的指導意義),但是在實踐理性中不必追求這種必然性與絕對性,而只需滿足必要的相關性與有限的可接受性即可,其余的則交由例外原則來處理。

也許有人認為人類可能就此失去在司法領域的獨特性與控制力,但事實并非如此。盡管人工智能可以把人類從占大多數的簡單案件中解放出來,但那些疑難案件的有效解決可能仍無法完全脫離人類智慧。更重要的是,人類將集中關注那些更具創造性的工作以確保人工智能決策的前提,包括技術規則的制定、案件的合理分流、數據可靠性與信息環境的保障、錯誤糾偏以及責任承擔。相對于司法決策的具體運行,這些工作才具有根本的重要性與決定性。總而言之,在司法實踐領域為人工智能設置“先驗屏障”既無必要也不應該,雖然司法人工智能是有限度的,但這個限度不應限定在司法輔助性工作。

猜你喜歡
人工智能人類
我校新增“人工智能”本科專業
顫抖吧,人類
哈哈畫報(2022年4期)2022-04-19 11:11:50
人類能否一覺到未來?
人類會成長起來嗎?
英語文摘(2021年2期)2021-07-22 07:56:54
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
主站蜘蛛池模板: 亚洲一区国色天香| 伊人婷婷色香五月综合缴缴情| 国产欧美日韩资源在线观看| 91在线中文| 欧美.成人.综合在线| 亚洲婷婷六月| 58av国产精品| 欧洲日本亚洲中文字幕| 亚洲精品高清视频| 老司机精品久久| 国产欧美高清| 中文字幕av一区二区三区欲色| 日本欧美精品| 精品少妇人妻一区二区| 日韩欧美中文在线| 99免费在线观看视频| 中国成人在线视频| 国产中文一区二区苍井空| 国产成人精品视频一区视频二区| 国产毛片高清一级国语 | 久久久久无码精品国产免费| 久青草国产高清在线视频| 国产在线自揄拍揄视频网站| 综合网天天| 欧美怡红院视频一区二区三区| 国产精品粉嫩| 国产免费人成视频网| 中文字幕 91| 就去吻亚洲精品国产欧美| 亚洲熟妇AV日韩熟妇在线| 青青草原国产| 国产成年无码AⅤ片在线 | 99久久精品国产麻豆婷婷| 五月天在线网站| 另类重口100页在线播放| 久草青青在线视频| 精品人妻系列无码专区久久| 91久久夜色精品国产网站 | 日韩欧美中文亚洲高清在线| 国产亚洲视频播放9000| 久久精品国产999大香线焦| 久久 午夜福利 张柏芝| 99re这里只有国产中文精品国产精品| 99视频全部免费| 国产91特黄特色A级毛片| 老司机久久精品视频| 久久久波多野结衣av一区二区| 精品欧美视频| 精品色综合| 有专无码视频| 亚洲天堂网2014| 国产一级精品毛片基地| 制服丝袜一区二区三区在线| 欧美精品另类| 欧美日韩成人| 国产乱子精品一区二区在线观看| 自拍偷拍欧美日韩| 国产午夜福利片在线观看| 四虎成人免费毛片| 亚洲水蜜桃久久综合网站 | 亚洲日韩精品无码专区97| 亚洲人成网站18禁动漫无码| 国产成人亚洲精品蜜芽影院| 免费人成视网站在线不卡| 日韩欧美国产综合| 成人免费午夜视频| 在线国产综合一区二区三区 | 亚洲天堂免费在线视频| 日本人妻丰满熟妇区| 视频一本大道香蕉久在线播放 | 色婷婷综合激情视频免费看| 亚洲色图欧美视频| 国产97视频在线| 欧美一级在线播放| 国产美女主播一级成人毛片| 人妻无码中文字幕一区二区三区| 青草午夜精品视频在线观看| 高清久久精品亚洲日韩Av| 亚洲人成网站色7777| 国内丰满少妇猛烈精品播| 国产精品亚洲αv天堂无码| 亚洲三级成人|