在第三次人工智能發展的浪潮中,以大數據為依托的人工智能因其深度學習和強化學習能力的提升不斷沖擊著人們的想象空間,也開始深刻地影響人類現實生活。我們需要在構建人工智能法律規則時考慮如何實現算法的透明性和可解釋性、算法的正義問題,以及是否應給予人工智能系統以獨立的法律地位及其對個人隱私、自由尊嚴等的影響。從人工智能法律規制整體建構的角度來看,應從立法、司法裁判和法律效果評價環節嵌入倫理性考量因素,將具體的道德考量因素轉化為可以實施的法律原則乃至法律規制,同時發揮人在司法裁判過程中的主觀能動性,防止過度依賴人工智能輔助系統,從而保障司法裁判結果的公平公正。
作為一個專業術語,“人工智能”可以追溯到20世紀50年代。美國計算機科學家約翰·麥卡錫及其同事在1956年的達特茅斯會議提出“讓機器達到這樣的行為,即與人類做同樣的行為”被稱為人工智能。[1](P4)不同于以往的其他技術,人工智能由于其特有的深度學習①能力,“技術樂觀派”認為 “未來的超級人工智能可能與人類智慧媲美甚至超越人類智慧,擁有與人類相同的價值觀”。同時,“技術懷疑主義者”堅信“建造超人類水平的通用人工智能實在太困難了,沒有幾百年的時間,根本無法實現,擔心人工智能的崛起,就好像擔心火星出現人口過剩一樣”[2](P41)。我們無意去做技術發展進程中的“盧德分子”②,因為無論人工智能未來發展的進程如何,可以肯定的是技術賦予了生命一種進化的力量,讓我們去面對技術進步帶來的一次次驚喜與考驗。
具有道德和倫理意識是我們人類區別于其他生命體的特征之一,人工智能目前乃至未來是否具有自我意識,我們尚不可知。人類在面對人工智能帶來的各種挑戰時,連最基本的何為“智能”的概念都無法達成共識。但是,當我們面對人工智能技術的迅猛發展,例如“電車難題”③這樣的倫理問題在以技術為驅動的無人駕駛汽車領域成為程序設計者們不得不面對的倫理拷問。當我們人類面對這樣的倫理難題無所適從時,如何在算法中嵌入我們認為普適的人類價值觀,從而引導人工智能作出符合人類法律倫理準則的決策。除此之外,算法引發的種族和性別歧視、算法殺熟等問題如何解決都是需要我們直面的法律和倫理困境?,F有的法律體系和法律框架可以解決由人工智能引發的部分法律難題,例如自動駕駛引發的責任分配等問題可以在現有的侵權法和產品責任法框架內找到部分答案;人工智能創作物是否可以受到法律的保護,依賴著作權法的法律路徑可以部分得以解答。但是,人工智能技術對現有法律體系的沖擊引發的最棘手的問題是法律倫理的考量,當理性的法律面對需要拷問人性本真的道德和倫理時,如何在現有的法律框架中進行適時的調整,是本文待解之題。
人工智能因其自主性和學習能力帶來不同于以往任何科技的新的倫理問題,對人類社會各方面將帶來重大影響。讓人工智能符合人類社會的各種規范和價值并實現全球普惠發展,是構建普惠人工智能和有益人工智能必須解決的問題。2016年以來,人工智能倫理問題日益得到重視。2016年8月,聯合國下屬的COMEST(科學知識和科技倫理世界委員會)發布《機器人倫理初步報告草案》,認為機器人不僅需要尊重人類社會的倫理規范,而且需要將特定倫理準則編寫進機器人中。同年9月,英國政府發布的人工智能報告《機器人學與人工智能》呼吁加強人工智能倫理研究,最大化人工智能的益處,并尋求方法以最小化其潛在威脅。之后,美國白宮在其發布的《國家人工智能研發戰略計劃》中提出開展人工智能倫理研究,呼吁研究新的方法來實現人工智能與人類社會的法律、倫理等規范和價值相一致。2017年1月,人工智能研究機構——未來生命研究所(Future of Life Institute)召集人工智能、法律、倫理、哲學等領域眾多專家和學者召開阿西洛馬會議并形成了23條人工智能原則,作為人工智能研究、開發和利用的指南。[3](P22)此外,各國政府及產業界已經斥巨資設立了多個研究基金,推進對人工智能倫理問題的研究。
但是,也有觀點對人工智能發展過程中倫理因素考量的必要性存疑。例如斯坦福汽車研究中心的執行總監Stephen Zoepf認為,對電車難題的討論是沒有意義的。德國汽車制造商梅賽德斯公司更是直接給出自己對于電車難題的答案即梅賽德斯公司將優先保護車上人員的安全。計算機編程無法完全模仿人類的心理活動,例如情緒等因素無法量化衡量,因此無法實現真正意義上的倫理編程。人類的道德判斷和決策并非完全基于理性、經驗,更多的是一種感性且隨機的直覺反應。因此,整個社會的道德框架一般是穩定的,但是當不同的主體面對利益取舍時,卻會因人、因事的差異而作出不同的選擇,也就是說,人類的道德決策過程本身就兼具有意識性和無意識性的特征。人工智能發展過程中,我們必須要考慮的倫理問題概括來說包括以下內容。
人工智能系統進入人類社會,必然需要遵守人類社會的法律、道德等規范和價值,做出合法合道德的行為。易言之,被設計、被研發出來的人工智能系統需要成為道德機器。在實踐層面,人工智能系統做出的行為需要和人類社會的各種規范和價值保持一致,也即價值一致性或者說價值相符性。由于人工智能系統是研發人員的主觀設計,這一問題最終歸結到人工智能設計和研發中的倫理問題,即一方面需要以一種有效的技術上可行的方式將各種規范和價值代碼化,植入人工智能系統,使系統在運行時能夠做出合倫理的行為;另一方面需要避免研發人員在人工智能系統研發過程中,將其主觀的偏見、好惡、歧視等帶入人工智能系統。2015年谷歌公司的圖片識別服務錯誤地將某些黑人標記為大猩猩后,被批評種族主義事件的谷歌公司立刻采取措施在搜索結果中刪除了這一標簽。
算法如何作出這樣的匹配我們尚不可知,可以肯定的是這種算法歧視與算法本身的構建和其基于的數據樣本數量及樣本性質密不可分。算法歧視問題其實取決于底層數據的積累,數據積累越多算法計算就越準確,對某一人群的算法描述就越精準。同時,隨著算法復雜性的增加和機器學習的普及導致算法黑箱問題越來越突出。美國計算機協會公共政策委員會在《算法透明性和可問責性聲明》中提出七項基本原則,第一項基本原則即為解釋,其含義是鼓勵使用算法決策系統對算法過程和特定決策提供解釋,并認為促進算法的可解釋性和透明性在公共政策中尤為重要。未來人工智能系統將會更加緊密地融入社會生活的方方面面,如何避免諸如性別歧視、種族歧視、弱勢群體歧視等問題,確保人工智能合倫理行為的實現,這需要在當前注重數學和技術等基本算法研究之外,更多地思考倫理算法的現實必要性和可行性。
依托于深度學習、算法等技術,從個性化推薦到信用評估、雇傭評估、企業管理再到自動駕駛、犯罪評估、治安巡邏,越來越多的決策工作正在被人工智能所取代,越來越多的人類決策主要依托于人工智能的決策。由此產生的一個主要問題是公平正義如何保障?人工智能的正義問題可以解構為兩個方面:第一,如何確保算法決策不會出現歧視、不公正等問題。這主要涉及算法模型和所使用的數據。第二,當個人被牽扯到此類決策中,如何向其提供申訴機制并向算法和人工智能問責,從而實現對個人的救濟,這涉及透明性、可責性等問題。在人工智能的大背景下,算法歧視已經是一個不容忽視的問題,正是由于自動化決策系統日益被廣泛應用在諸如教育、就業、信用、貸款、保險、廣告、醫療、治安、刑事司法程序等諸多領域。[4](P60)從語音助手的種族歧視、性別歧視問題,到美國犯罪評估軟件對黑人的歧視,人工智能系統決策的不公正性問題已經蔓延到了很多領域,而且由于其“黑箱”④性質、不透明性等問題,難以對當事人進行有效救濟。例如美國的人工智能軟件系統Entelo可以幫助招聘公司搜索社交網絡上的信息,尋找到那些在公共場合表達想要跳槽的潛在員工。又如HireVue等系統能夠通過分析面試視頻數據評估應聘者的人格特點以及合適度,在視頻面試的情境下,這類智能系統可以迅速對應聘者的面部活動、表達以及肢體語言進行分析,并且與其他的應聘者進行比較,為招聘公司找到“最合適的人選”。像Mya、JobBot等智能系統甚至可以實現面試環節完全自動化,通過讓應聘者與智能聊天系統互動來安排面試時間,即時產生應聘者排名,節省超過75%的時間,大幅度地提高招聘效率。但是效率的提升并不意味著公平。智能系統中潛存著多種類型的偏見,可能會對應聘者帶來決定性的負面影響。在很多情形下,應聘者甚至不知道自己正受到機器偏見導致的不公正對待。
美國很多州的法院嘗試基于智能的犯罪管理分析系統(Correctional Offender Management Profiling for Alternative Sanctions,COMPAS)預測作出關乎罪犯命運的司法判決,例如量刑輕重、保釋金數額、是否允許以及在何時假釋等。系統對關押的一萬多名刑事罪犯的刑事判決展開了對比分析。這些罪犯在被關押進監獄之前,需要填寫一份COMPAS問卷,他們的回答將會被錄入COMPAS軟件中,隨即系統會得出某一罪犯在若干方面的分數,例如累犯的風險、暴力犯罪累犯的風險,等等。將這些系統得出的預測累犯率與在兩年內這數萬名罪犯實際發生再次犯罪的情形進行了對比分析后,發現COMPAS算法的準確率達到了60%左右(其中白人罪犯是59%,而黑人罪犯是63%)。其中,由于機器偏見導致白人與黑人的犯罪率產生了鮮明的對比。一方面,在錯誤預測的情形中,黑人被錯誤識別為高風險再犯的幾率要比白人高出幾乎兩倍。另一方面,實際發生再犯的白人被標識為低風險再犯的幾率要比黑人高出20個百分點。[5](P74)這一事實很好的驗證了羅爾斯在其《正義論》中提及的觀點:“正義是社會制度的首要價值,某些法律和制度,不管他們如何有效率和有條理,只要他們不正義,就必須加以改造或者廢除。”[6](P3-4)以往的法律體系中我們通過程序正義保證實體正義,那么進入人工智能時代,我們不得不考慮如何實現“數字正義”。數字正義本身比任何的規制和原則范圍更廣,它對法律的各個領域都帶來了挑戰。它的目標不僅僅限于澄清技術的發展如何引發各種新問題,更在于運用技術來解決新問題,從而使得社會中的每個個體都可以運用技術來解決糾紛。[7]
技術的發展使得人工智能系統的外在表現形式和內在機理方面越來越像人,如何在未來的法律框架體系中看待人工智能系統,其是否可以享有一定的道德地位或法律地位至關重要。主張不能賦予其道德和法律地位的群體,他們的觀點主要基于兩大理論:道德主體和道德痛苦。前者是普遍人權的基礎;后者則是動物權利的基礎,因為動物被認為可以感受到痛苦,所以需要給予一定的道德權利,而人工智能系統不具有道德痛苦的感知力,因此不應賦予其獨立的道德和法律地位。早在17世紀,隨著人文主義和啟蒙運動的興起,圍繞自然人的主體意志和法律行為,創設了主客體兩分的法律人格理論,以此打破了羅馬法體系下根據實踐的需要設置不同的法律人格的傳統。[8](P74)但是工業革命的進程促進了機械大工業的發展,具有擬制法律人格的法人的出現,一定程度上可以說是復興了羅馬法關于不同法律主體的法律地位。法人的出現讓非自然人以外的主體開始擁有法律主體地位。
人工智能時代,大量電子契約的成立及由人工智能引發的各種侵權行為的發生,對我們如何規制人工智能的侵權問題提出了挑戰。美國法學家大衛·弗拉德克認為,如果無人駕駛汽車發生了交通事故,應由汽車自己對其行為負責。他提出應該允許無人駕駛汽車持有相應的保險,安全記錄良好的無人駕駛汽車可以支付較低的保險費用,相反,安全記錄不好的無人駕駛汽車則需要支付高額的保險費用,從而抬高該種車輛的整體價格,被市場淘汰。如果我們認為可以讓無人駕駛汽車擁有保險,那么是否意味著我們同時應該允許他們擁有相應的財產?進一步,如果人工智能可以擁有財產,也就意味著法律上賦予其獨立人格具有理論和實踐意義。在現有的法律框架下各國立法都有法律擬制主體“法人”的存在,其獨立存在的意義在于其很好地完成了從封建社會以個人為本位的社會法律體系到資本主義社會以資本為核心的公司制法律體系的重構。那么,我們有理由相信人工智能這一擬制主體的出現會促使我們重新審視現有的法律主體類型。在現有的法律框架中意圖為人工智能體設立獨立的法律地位,其首先需要滿足“道德行為體”即該主體必須有能力感知到他們行為后果中與道德相關的部分,而且必須有能力在行動方案之間作出選擇。[9](P78)目前人工智能體尚沒有能力感知其行為后果并作出相應的選擇,但是隨著人工智能體硬件和軟件的不斷進化與發展,未來法律的建構需要為其預留相應的法律空間。
人工智能系統對數據的大量收集、利用,數據分析的自動化、智能化,以及隱私與數據保護提出了挑戰。當前基于機器學習的人工智能系統在訓練和運行過程中,需要使用大量的數據,其中很多是個人數據,在人工智能時代,如何重新定義隱私顯得尤為重要。一方面,人工智能由于有大數據作為學習和分析的基礎,可以清晰分析出個人的消費習慣、收入狀況等隱私內容,基于這些數據分析形成的“算法殺熟”現象會導致不同人在獲得相同服務時花費不同的價格,加劇了社會不公平現象。人工智能系統對個人數據的自動化智能化的分析和決策,可以形成個人畫像或者形象,進而影響個人的投資和收益。例如基于人工智能技術的智能投顧,可以根據客戶的財產狀況等提出合理化的投資建議。但是如果投資失敗,客戶的權益如何保障,銀行等商業性金融機構如何實現數據商業利用與個人數據管理之間的平衡,就成了新的難題。另一方面,在司法活動過程中,機器學習技術可以通過分析腦部傳感器收集的大腦數據,尤其是在測謊等方面的能力變得越來越強。在司法審判過程中,現有的還原案件真實情況的過程將極大地簡化,但隨之而來的問題是我們的思想是否應該接受司法的檢查,我們的人格尊嚴和個人權利隨著技術的進化是否會逐漸喪失。人工智能時代我們個人身份范式已經從現實空間延伸到數字空間,每個人在以數字身份生存的時候,個人尊嚴和自由如何獲得保障,在人類決策受到人工智能左右時,我們的選擇自由或許會受到威脅,從而威脅到我們人類之所以為人的尊嚴問題。
法律與技術的雙向互動性,要求技術對倫理的考量轉化為法律的內在道德。人類有偏見,機器也有偏見。最近美國的一個網站設計了一系列無人駕駛汽車設定程序時需要回答的道德問題,面對這樣的難題,功利主義者認為,實現最大多數人的最大幸福是判斷是非的標準;自由主義者認為,違背一個人的自由意志而讓其犧牲是不可接受的。[10](P117)這些道德問題是人類需要預先設定并回答的,但是倫理問題因各國文化、宗教和信仰等的不同而存在差別。如何研究出新的算法從而確保人工智能作出的決策與現有的法律、社會倫理一致,是一項具有挑戰性的任務。
技術倫理走入人工智能研究者的視野,谷歌、臉書公司、亞馬遜等硅谷企業也開始關注技術倫理問題,紛紛在其公司內部成立專門的倫理中心或倫理委員會進行相應的研究。更有部分的美國高校將技術倫理課程引入校園,例如哈佛大學和美國麻省理工學院合作開設了“倫理與治理”課程,德克薩斯州大學創設了名為“計算機科學的倫理”基礎課程,此外,斯坦福大學、紐約大學、康奈爾等大學也設置了類似的課程,從而引發下一代技術人才對人工智能倫理問題的關注和思考。如果說在人工智能技術的研究和開發過程中嵌入倫理學的考量是保證技術中立、無歧視的先前步驟,那么在法律活動中對技術倫理的考量則更需要考驗法律人的智慧。我們需要從以下幾個方面著手來建構人工智能的法律倫理規則。
人工智能系統對于人類而言就像是一個黑匣子,我們只能看到其通過復雜運算得到的 “最優”結果,但是對于結論是如何作出的我們卻毫無頭緒。2017年初,英國政府的獨立評估小組對人工智能在英國的發展進行評估并發布了一份名為《發展英國人工智能產業》的報告。報告中提出,治理人工智能的主要目標是保障所使用的算法足夠的公平、公正和透明。在這幾項治理目標或原則當中,算法的透明度無疑是保障算法結果的公平和公正的前提。這份報告提出了十八條建議,其中一條就是建立一個人工智能的解釋機制,讓編程者提供必要的信息,解釋人工智能系統的構造和機理,幫助公眾了解這些智能系統是如何得出結論的。為了解決這個認知難題,很多學者提出了這樣的治理方案:我們首先需要讓算法的創造者幫助我們理解算法的形成以及運行邏輯。要滿足這樣的需求,解釋權制度應運而生。歐盟在其《一般數據保護條例》(GDPR)中首創該制度,即公眾有權要求與其個人相關的自動決策系統對其算法決策作出必要的解釋。[11](P104)通過行使這種權利,個人在理論上就可以了解算法是怎樣運行的,也就可以利用法律賦予的其他權利來調整算法在個人生活中所扮演的角色。
算法雖然可以在司法活動中輔助司法并進行決策,但是算法決策也存在著算法目標不確定、使用的數據不完整以及算法對偏差的固化和放大等問題。因此,有必要在算法進入司法決策過程之前就進行干預,也即如何在立法前置階段解決人工智能所帶來的法律難題。分析法學派的奠基人約翰·奧斯汀就曾說過“立法科學是倫理學的一個分支,其作用在于確定衡量實在法的標準以及實在法為得到認可而必須依賴于其上的原則”[10](P132)。因此,立法活動也是將倫理學中的道德因素轉化為實然法的過程。目前,雖然全球各主要國家和地區如美國、歐盟、英國、日本等都出臺了相應的人工智能國家戰略和前沿立法,但是目前的立法中并沒有明確嵌入倫理和道德規范。美國著名法學家德沃金認為:“原則是一個社會中人們所公認的政治理想和道德觀念,是規則背后把分散的規則聯結為一個整體的東西。”[12](P18)我國在人工智能相關的立法過程中,可以將人工智能的倫理原則和道德規范通過法律原則的形式體現。將人工智能倫理建構中的普遍原則轉化為立法形式,需要運用法律原則、法律規則等形式指導立法,而這些法律原則、法律規則也必須是各國立法中所共同承認的、可以普遍得到遵守的基本法律原則。
我國在2017年發布的《新一代人工智能發展規劃》中指出:“建設集審判、人員、數據應用、司法公開和動態監控于一體的智慧法庭數據平臺,促進人工智能在證據收集、案例分析、法律文件閱讀與分析中的應用,實現法院審判體系和審判能力智能化?!保?3](P53)英國倫敦大學學院、謝菲爾德大學和美國賓夕法尼亞大學的最新研究成果顯示,人工智能已經可以進行法律證據與道德問題的判斷,從而協助法官提高庭審的準確性。我國也在智能輔助審判方面積極探索,根據最新公布的統計數據,北京法院智能輔助系統的應用將法官的案情分析效率提升75%以上,文本檢索的案例匹配度從20%提升到基于法律知識圖譜與事實相似的90%,同時,基于該系統對相似案例結合裁判尺度的分析,可以將法官的裁判尺度偏差降低一半以上。[14]而在2016年末,美國數據科學家設計出能夠預測案件的新型人工智能系統。研究人員將歐洲人權法院近年的584個案件作為測試數據,測試人員將這些案件交由人工智能系統學習,并且獨立對判決結果作出預測即回答究竟哪一方可以勝訴的問題。結果顯示,人工智能系統預測的準確率高得驚人,可以達到79%。雖然人工智能系統預測成功率令人滿意,但是人工智能的司法裁判是基于規則理性的推理,而無法像人類一樣運用超越規則進行價值判斷。人工智能的預測更多地依賴于非法律事實,而非人類創設的法律規則。
此外,更多目前人工智能預測系統的主要問題在于,研究人員使用的數據范圍相對有限,現階段基于大數據的類案推薦大多數采用的是自然語言識別技術進行海量文書的關鍵案情的提取,導致人工智能對判決的理解僅僅局限于訓練數據[15](P142),而對于案件的背景知識知之甚少,所以常常無法理解判決與判決之間的細微差別,可能會導致案件判決的偏差。馬爾庫塞說:“當技術成為物質生產的普遍形式時,就制約著整個文化,人的體力和智力不得不依附于越來越復雜的機器,從而使人失去了其應有的創造性,成為機械系統的奴隸。”[16](P77)當法官在司法裁判中越來越多的運用人工智能作為輔助裁判工具時,人工智能審判輔助系統分析產生的結果會對法官的自我判斷產生一定的導向性。當個案中出現一些需要給予特別考量的道德因素時,輔助審判系統可能會出現偏差。如果法官不對這些因素進行個案衡量,而是導向性的依賴輔助審判系統給出的結果,可能會產生裁判的不公正。長此以往,以人工智能為依托的輔助審判系統會導致法官產生技術上的路徑依賴⑤,縮小司法的自由裁量權的適用空間,最終影響審判的公正性。因此,在司法裁判過程中,我們需要在算法決策之外,發揮人對技術的主觀判斷,避免形成以人工作智能為核心的技術上的路徑依賴。具體來說,在人工智能輔助司法決策過程中,應要求輔助法官直接審判決策類的算法必須提供決策解釋,鼓勵其他影響法官決策的算法盡可能提高算法的可解釋性,以促進司法決策的透明和公開,保證案件判決結果的公平公正。
制定有效的人工智能治理規則往往依賴于我們對人工智能的正確理解。然而在作出任何有意義的治理決策之前,擺在人類面前的首先是一道認知難題:我們對于人工智能的認知有限,也缺乏了解人工智能的工具。在現實生活中,人工智能產生的成果關乎著人類各方權利義務的分配和利益的衡量。例如微軟小冰創作的詩集,其法律性質如何,可否定義為作品,從而獲得著作權法的保護。如果能獲得保護,參與小冰創作的各方包括小冰算法的工程師、人工智能小冰及后續參與創作的人類創作者之間如何分配相應的權利義務。這些新型法律問題的解決依賴于我們合理考量這些法律問題背后所帶來的社會影響和法律實施效果。在評價法律實施效果的過程中我們需要選擇合理的分析路徑。
首先,我們必須為機器進行雙重意義的編碼:也就是說我們需要將人類所要實現的法律目的寫入法律,同時寫入控制機器的軟件。因為只有將現存的第一層編碼,也就是法律編碼里所有不清楚和不確定的因素完全排除,我們才能進行第二層編碼的編寫。而在這個階段,明確的法律目的至關重要。具體來說,就是要運用法律分析工具具體衡量各方利益及由此帶來的社會效果。以小冰詩集為例,對于人工智能生成物是否應該納入法律保護范圍,需要運用成本效益分析的法經濟學分析方法,分析比較將其納入法律保護框架中的社會效果。人工智能產生的大量創作成果在滿足了獨創性要求的情況下,如果不對這些成果給予著作權法上的保護,其后果是大量的具有獨創性內容的成果將會進入公有領域,人類使用者將會有大量的免費優質內容可以使用,不用再需要通過付費獲取內容,從而損害創作者的版權獲利,挫傷版權人的創作意愿。我們可以將其歸結為創作成果的“激勵”與“接觸”之間的交換平衡被打亂,沒有法律保護復制的發生,則創造知識財產的激勵也受到破壞。[17](P14)著作權法所設定的鼓勵創作、激勵創新的法律目的就難以實現。
其次,如果我們將法律條文編程輸入智能機器,在第二次編碼的編寫過程中,軟件代碼不允許含混,因此代碼必須表意明確,這樣機器才能按照代碼執行。[18](P138)這種輸入過程一方面要求我們對法律條文的理解具有準確性,另一方面還需要為法律條文的法解釋學留有一定的空間。面對不斷涌現的新興事物,司法過程中需要運用法解釋學對新情況、新問題作出回應,這就需要我們在將法律條文輸入的過程中將該法律條文背后所蘊含的法律目的和法律原理等內容進行轉換,幫助人工智能在輔助司法決策過程中可以更好地服務于特定的法律目的,實現對各方權利義務的合理配置。
人工智能被譽為是當代創新技術“工具箱”中的極為重要的一種。過去的半個世紀以來,技術創新成為推動各行各業轉型發展的基礎性要素,從中央處理器、個人電腦、互聯網絡、智能設備、移動通信,到云計算、大數據、物聯網、區塊鏈等,新興技術的日趨成熟,不斷激活新一輪的創新浪潮,引領社會經濟生活多個領域的深刻變革,但這些技術的變革與更新是以人的思想創新為根本。法國思想家布萊茲·帕斯卡曾說過:“人不過是一根蘆葦,是自然界里最脆弱的東西;但他是一根會思想的蘆葦?!保?](P1)我們人類進步與創新的源泉在于思想,而人工智能時代我們引以為傲的思想也可能會被取代和復制。
哲學家溫迪楚指出,從基因密碼到市場看不見的手,從意識形態到文化,程序將會成為一切不可見的卻又有著巨大影響力的事物的強有力的“隱喻”。我們的基因密碼也是數字化的,正如電腦代碼一般。我們的文化也是可以再編程的,我們的大腦就是一臺由神經元構成的電腦,進化就是對我們的編程,而基因密碼每天都在被不斷寫入。我們人類進化的過程也伴隨著技術的不斷發展,而技術的進化過程中,也必然會從最初的只關注技術本身的發展逐漸過渡到將人類的價值觀和倫理觀納入其中,更好地促進和引導技術的發展朝著有利于人類自身發展的方向演進,而人工智能便是這股技術進化浪潮中的典型代表。有人說:“人工智能,是西方式法治的大敵?!保?9](P190)因為即使是我們人類看起來繁雜的程序、與日俱增的法規案例,人工智能系統可以迅速掌握。所有這些法律人引以為傲的知識和身份,連同多年積累的辦案經驗、人脈資源,被人工智能取代,成為算法與數據。我們在面對人工智能帶來的機遇與挑戰時候,不應盲目地否定或認可,應更加冷靜客觀地分析其背后的技術原理和算法實現過程。在法律實踐的全流程中將技術與道德、倫理因素緊密結合,將人類的價值觀和法律的目的性納入人工智能的實現過程中,使其更好地為法律服務,構建一套人工智能在法律領域特有的并在各國具有普適性的法律倫理框架。
注釋:
①機器學習是人工智能的一種類型,允許計算機在沒有特別的程序指導下可以自主學習,使計算機可以通過大數據可以進行適應性學習。See Andrew Arruda,An Ethical Obligation to Use Artificial Intelligence?An Examination of the Use of Artificial Intelligence in Law and the Model Rules of Professional Responsibility,40 Am.J.Trial Advoc.443(2017).
②常被用作貶義詞,形容那些站在歷史對立面、反對技術進步和必然變革對新技術持仇視態度的人,這些人被概括稱為“盧德分子”。參見:王闖《盧德分子》,《視野》2017年第19期第32頁。
③電車難題,是一個倫理學的思想實驗。英國哲學家菲利帕·芙特在1967年首次提出這個問題。在1996年,朱迪斯·湯姆遜、彼得·昂格爾等人重新提出這個問題,使這個問題為人所熟知。大致內容是假設你看到一輛剎車壞了的有軌電車,即將撞上前方軌道上的五個人,而備用軌道上有一個人,如果你什么都不做,五個人會被撞死,如果你按下一個按鈕,車會駛入備用軌道,只會撞死一個人。你是否會犧牲一個人的生命而拯救另外五個人的生命?
④黑箱是指一個系統,該系統只能得到它的輸入值和輸出值,而不知道其內部結構。黑箱可以是任何系統,只要是僅根據其外部性質的研究來對它進行判斷的系統。參見:高奇琦《人工智能:馴服賽維坦》,上海交通大學出版社2018年版第23頁。
⑤路徑依賴的概念最早來源于生物學界,用來說明偶然性隨機因素對物種進化路徑的影響,之后美國經濟學家David將其引入經濟學的研究范疇,用于解釋技術變遷中的問題。See P.A.David,Clio and The Economics of Qwerty.American Economic Review,1985,75(2).