李俊豐 姚志偉
摘要:人工智能是否具有法律人格的問題,是解決人工智能所引起的諸多法律前沿爭議的一大關鍵。從人工智能發展的趨勢看,人工智能具有“近人性”,這決定了人工智能法律人格本質上之有無;從法律史的角度看,法律人格是一種社會建構,認可人工智能的法律人格并不以“人工智能是人”為前提;從人工智能的現狀看,其已開始具有獨立影響他人權利義務的能力,考慮認可人工智能的法律人格已具有一定的現實意義。面對人工智能的飛速發展,我們有必要對認可人工智能的法律人格保持一種開放性態度。關鍵詞:人工智能;法律人格;“近人性”作者簡介:李俊豐,法學博士,廣東第二師范學院馬克思主義學院講師,主要研究方向:法學理論、法律史(E-mail:?stleejf@163.com;廣東 廣州 510303);姚志偉,法學博士,廣東金融學院法學院副教授,廣東外語外貿大學國際戰略研究院博士后,主要研究方向:法學理論(廣東 廣州 510521)。基金項目:廣東省教育科學規劃課題(黨的十九大精神研究專項)“人工智能應用趨勢下的高校思想政治理論課發展研究”(2018JKSJD65)。中圖分類號:D903 ???????文獻標識碼:A ???????文章編號:1006-1398(2018)06--
一??問題的提出
2017年10月25日(當地時間),人工智能機器人索菲亞被沙特阿拉伯授予了公民身份;雖然正如評論員所言,沙特阿拉伯并沒有真正解決機器人公民資格的問題,亦未解釋授予索菲亞的公民資格之具體法律含義為何,但在某種意義上說,此舉也確實將人工智能的法律人格這一問題擺在了人們面前。
法律上的人格,本質上指人的資格,即成為法律關系主體的資格,故法律人格亦可被理解為法律認可的一種享受權利、承擔義務的資格。事實上,在當前人工智能高速發展并已開始投入應用的環境下,此一問題已遠非是“科幻”式的,法律實踐和研究都必須直面之。在不少關于人工智能和法律的討論中,學者開始留意到了人工智能的法律人格問題,專門的探討也已出現。
不過在這些研究中,傾向于認為“人工智能不具有法律人格”的論者仍占多數。這種意見的提出和堅持,應和學界的相關討論多立足于當下和解決現實問題有關,即學者們多意欲在現有法律框架下來解決目前已經出現或可以預見將要出現的人工智能相關法律問題,以維持法律制度的穩定性、結構性和可行性;而在當前人工智能仍處于弱人工智能階段的情況下,這種追求也是可以理解的。
但這種基于現實關懷的思考似并未能真正回答“人工智能可否具有法律人格”之問題。當下的實然畢竟不能等同于未來的實然甚至是應然。如果我們留意到過去數年人工智能的迅猛發展,并因此對人工智能之未來持有一種“非保守”態度的話,這一道理自應不難明白。因此,在本文中,筆者的思考雖也從現實問題出發,但主要是嘗試跳出現實關懷的思維框架,從法哲學的角度來對“人工智能的法律人格”進行思考,探討其中的若干方面,也希望由此能給現實問題提供一些參考。
二 ?人工智能法律人格的本質性問題
認為“人工智能不應具有法律人格”的重要論點之一,是認為人工智能和人存在根本性不同,人工智能不可能成為人。根據現行法律制度和法學原理,除了法人可具有擬制法律人格外,法律人格只有自然人才能享有,故人工智能不可能具有法律人格。
無可否認,當前的人工智能仍和人有著巨大的差異,這種差異在未來可能也不會完全消失。但這種差異的存在卻掩蓋了一個其實并不難看見的事實:人在制造人工智能時,歸根到底是以人為模板的。這是人工智能發展和此前的工業革命、電氣化革命、信息化革命等科技革命存在根本性不同的地方。此前的科技革命,歸根到底還是為了延伸、擴展人的能力,并把人從機械性勞動—包括體力勞動、記憶和計算等重復而相對簡單的腦力勞動——中解放出來:織布機節省了人生產布匹時的體力和時間,汽車節省了人進行移動時的體力和時間,計算機節省了人進行計算和記錄時的精力和時間。通俗言之,它們所起的作用,是讓人能“省力”,從而能讓人的能力集中發揮于只有人才能完成的工作之方面,例如,創造性勞動;借助這些科學技術,人本身是得到“加強”的。與此不同,當前所呈現出的人工智能發展之特點,并不是“加強”人,而是“代替”人。雖然在客觀上看,目前不少人工智能技術也起到了“加強”人的作用,如語音助手之類;但其實頗為顯而易見的是,當前人在發展、制造人工智能時,歸根到底是以“做人的工作”為取向的,即希望其能完成一些以往認為只有人本身才能完成的工作,如下圍棋、自動駕駛、人工智能寫作、翻譯等等,都是如此。
因此,人工智能的發展態勢是趨向于“與人相同”的,為了讓人工智能能“做人的工作”,人類必然會不斷將本來僅為人類所具有的能力賦予人工智能,并讓人工智能表現得越來越像人。人工智能的這種特性可以稱之為“近人性”。更重要的是,必須看到,這種思想觀念其實在今天相當普遍地存在著,Google Assistant的演示中的那句“Hmm”引起了觀眾的強烈反映,恰恰反映出人類對人工智能的“近人性”的認同;而“為何不少研究者對人工智能的研制、普通人對人工智能的想象,都是以人型人工智能為依歸”的問題,也可從中找到部分的解釋。
概言之,人工智能的本質屬性與其說是“擬人性”,不如說是“近人”性;今日的人類其實也默認著這種觀念,制造人工智能的取向和路徑,也正建基于此。因此,人工智能很可能最終將具有我們今天認為屬于強人工智能甚至是超人工智能的性能,如交談、思考之類——雖然這在目前似乎還顯得遙遙無期。到了那個階段,人工智能在行為、語言等等方面的表現,可能已和人類并無太大差異,我們可將此稱為人工智能的“類人”階段。由此角度觀之,人工智也許便并不是一個新問題了,或者說,其只是人的問題的一個亞型而已。例如,人工智能的黑箱性和算法的公正性,被視作是一個以往人類并未遭遇過的全新問題;如何從法律等層面規制人工智能的呼聲和爭議,與此密切相關。以司法為例。美國Northpointe公司基于人工智能開發的犯罪風險評估算法系統系統性地歧視了黑人,被認為是非常不可靠的。但是,類似的問題難道在人的身上就沒出現過、發現過嗎?例如,在法律現實主義看來,法律是法官等司法人員在實際上對法律案件的所作所為,法律現實主義代表人物弗蘭克便認為,法官的個性及其他一些非理性因素如情緒、性格、直覺等,都會對判決起作用甚至是主要作用;“對于司法權的行使,弗蘭克最終所意圖揭示的是在整個過程中隱而不現卻實質上發揮支配作用的因素”。波斯納亦指出,很多司法決定都受到了法律之外其他因素的影響,如法官的個人特點、偏好、職業經驗等等。人類法官的這些特點和人工智能的黑箱性、算法公正性其實并無本質差異,兩者都一樣會影響司法判決,都一樣不易為他人所知,甚至可能都一樣連判決者自己都意識不到。也就是說,今天我們傾向于將人工智能的黑箱性、算法公正性等等視為“新”問題,但嚴格來說,我們所未曾面臨過、思考過的,只是“工具的黑箱性、公正性”問題。在本質上,我們的焦慮,來源于將人的命運交由非人來決定,而并不在于黑箱性、公正性本身。
“人工智能的法律人格”問題也可以類似的思路看待。如果我們承認人工智能的“近人”性,并因此將其納入“人”的視角而觀照之,那人工智能的法律人格問題也可以理解為:人工智能在本質上具有法律人格,只不過到“類人”階段,人工智能的法律人格才表現得難以否認或接近完全,在此之前,其法律人格則較少體現出來或需受限制—在某種程度上,這和未成年人的法律人格問題有相似之處。“人工智能的法律人格”問題的新穎性,只在于人工智能的法律人格表現存在明顯的階段性差異—特別是在“類人”階段之前被掩蓋在了工具性之下;而人工智能本質上的有無,在人工智能的“近人性”中其實已被決定。
概言之,人工智能法律人格之有無,并非是人所賦予的,而是在人制造人工智能的取向和路徑中被決定的。如果人工智能的未來發展仍是按現有的“以人為模板”的思維框架進行的話,那似乎對人工智能法律人格的承認,便是一件遲早會發生的事情。
三??人工智能法律人格的建構性問題
人工智能法律人格之有無是在人如何制造人工智能的取向和路徑中被決定的,也意味著人所能做的,僅僅是認可或不認可人工智能的法律人格,而并不能決定其本質上的有無。可以預見,對此觀點的一個重要反駁是:人工智能根本不是人,和人有著本質上的不同,怎么可能具有法律人格?然則,人工智能具備法律人格與否,是否必須以其“與人相同”為前提?所謂“本質上的不同”究竟是指什么?“天賦人權”等理論暗示,人的權利必須以人之為人作為前提;但考諸歷史不難發現,在某種意義上看,人的法律人格也不是天然的,而只是一種社會建構。
以西方女性的法律人格發展史為例。在相當長的一段歷史時期中,英美等國的女性所能享有的權利,和男性有著極大的不同。在美國,雖然平等的思想在獨立革命時期已日漸形成和傳播,但女性仍然處于明顯的從屬地位,沒有選舉權,不被允許擁有財產,沒有平等的就業機會和受教育機會……到19世紀,情況仍是如此。英國的情況也差不多。
理解這段歷史的一個關鍵在于,在當時人眼中,女性和男性之間存在著本質上的不同。當時主張否認女性權利的男性所持的一個重要觀點,是女性在思維能力、智力等諸多方面均不如男性,甚至缺乏成為“人”的能力。在美國,伯克在《法國革命反思錄》中認為,婦女只是一種動物,而且是低等動物,關注婦女解放的弗朗西斯·賴特也注意到,婦女被認為和男人不具有同等的理智和情感,難以取得一般的社會地位;后來成為美國總統的約翰·亞當斯稱贊主張女權的凱瑟琳·麥考利是“一位擁有男性般高明理解力的女士”,但這話卻恰恰反映出,在亞當斯等人眼中,女性在理解力等方面不及男性。相類似地,在英國,女性在17世紀時被認為是頭腦簡單、意識薄弱的;到1866年,《旁觀者》雜志聲稱,全國具備政治能力的婦女不超過20人,甚至連一些女性自己也認為,女人沒有判斷力,故確不能從事醫生等職業。
由此可見,今人眼中人工智能和人的不同,和時人眼中女性和男性的不同其實并無性質上的差異:他們都被認為具有本質上的、根本能力上的差異,故所具有的法律人格自然也應有所區別。但正如約翰·穆勒在那個年代便已意識到的一樣,這些被稱為女子氣質的東西其實是人為制造出來的。按此觀點,上述所謂本質差異本身便是建構出來的,建基于此的法律人格差別自然也是如此。女性的法律人格在日后的發展,也顯示出這一點:到了今天,我們至少在理論上承認了女性和男性之間并無本質不同,故也應具有同等的法律人格。
既然如此,對于人工智能,我們是否也可作如是觀?進一步說,特別是當人工智能發展到“類人”階段之時,其和人類的不同究竟還有多大?這種不同,是否必定比女性和男性的不同更大?如果我們不應因女性和男性的差異而否認女性的法律人格,那至少在邏輯上說,差異也不能成為否認人工智能之法律人格的理由。
總之,“與人不同”不能成為否認人工智能具有法律人格的充分條件,反過來說,“與人相同”也不應被視為認可人工智能法律人格的先決條件。因為法律人格本身便是建構的產物,“人工智能是否具有法律人格”與“人工智能是否是人”乃兩個相互獨立的問題,沒有什么必然的關聯。
四 ?人工智能法律人格的現實性問題
如果我們承認人工智能法律人格的被認可與否和其本質上之有無是兩個獨立的問題,也承認對人工智能之法律人格的認可其實是一種社會建構,那接下來便必然要面對如下一些問題:應在何時認可人工智能的法律人格?當前是否有必要將此視作一現實問題來加以考慮?
如上所述,當人工智能發展到“類人”階段,其法律人格便會得到明顯的體現,從而變得難以否認。然則,循此思路很容易將問題延伸到“如何界定人工智能發展到‘類人階段”“‘類人的標準是什么”甚至“人工智能什么時候具有人的意識”“人的意識是什么”等等至今仍充滿爭議、難有定論的哲學性討論上。因此,我們有必要轉換一個思路來考慮這個問題。如前所述,所謂法律人格,可被理解為指法律認可的一種享受權利、承擔義務的資格。故權利義務一致性的原理,實可作為相關思考的理論基礎。毋庸多言,權利義務一致性是一基本的法學原理。例如,我國憲法便確認了公民權利與義務一致性的原則。權利和義務是相互依存的,權利和義務是一個問題的兩個方面,也是互相促進,相輔相成的,所謂“有權利即有義務”是也。當前人工智能發展的現狀和人工智能的“近人性”,意味著其將具有甚至是已經開始具有一種頗具特色的能力,即“脫離人類控制而獨立行動”。而這又意味著人工智能有能力獨立影響他人的權利義務。人工智能自動駕駛便是一個典型的例子。
隨著人工智能自動駕駛技術的發展,人類使用者對駕駛的參與可能會變得越來越少。在此情況下,一旦發生了損害,相應的法律責任到底應由誰來承擔的問題,至今仍充滿爭議。不過,常見的觀點包括讓智能機器人的制造商或者使用者承擔嚴格責任等等,讓人工智能自動駕駛汽車本身來承擔法律責任,則似乎根本未被納入考慮和討論之中。然則,這些觀點都未能完滿回答人工智能自動駕駛所可能引起的問題。所謂人工智能,按李開復的概括,比較主流的定義是:人工智能是有關“智能主體的研究與設計”的學問,而智能主體則指一個可以觀察周遭環境并做出行動以達致目標,并可通過深入學習增進自身上述能力的系統。換言之,人工智能并不等同于搭載有人工智能系統的物質載體;嚴格來說,此兩者乃是兩個完全不同的概念。在人工智能自動駕駛問題上,也會出現大量汽車搭載同一套人工智能自動駕駛系統的情況。一方面,當人工智能自動駕駛技術發展到一定程度,甚至連“司機”的概念也不存在之后,讓使用者承擔嚴格責任顯然并不合理——正如在今天,一輛出租車的交通事故責任不可能要求乘客來分擔,除非其實質性地對駕駛行為作出了干擾等影響。但另一方面,即便兩臺人工智能系統物質載體是由同一個制造商生產的,但經過深度學習之后,它們在面對類似情形下所作出的駕駛反應可能也會有所不同,而這些反應甚至可能是連制造商也無法精確預測的;在這種情況下,一律讓其制造商承擔嚴格責任是否亦有不妥呢?
此間的關鍵在于,當他人的權利或義務受到影響時,相對應的義務或權利也隨之產生;但因人工智能所具有的獨立性,將此種相對應的義務或權利歸諸于其他人在一般情況下是難言合理的,也不符合權利義務相一致的原理,而只能歸諸于人工智能。而要讓人工智能有獨立承擔權利和義務的能力,則意味著必須認可其具有法律人格。因此,當人工智能“脫離人類控制而獨立行動”、獨立影響他人的權利義務之事例開始出現時,認可人工智能的法律人格與否便開始成為一個需予以考慮的現實問題了。
除此之外,現今人工智能所引出的其他一些法律爭議,也開始表現出難以在現有法律框架下來加以解決的特點。再以人工智能的著作權問題為例。當前的主流觀點認為,人工智能創作的作品之著作權,應歸屬于設計者/訓練者/所有者;但這種觀點難以解釋在實踐中可能會出現的一些情形。如上所言,人工智能并不等同于搭載有人工智能系統的物質載體;假如甲、乙分別擁有一臺人工智能系統物質載體,這兩臺物質載體搭載的其實是同一套人工智能寫作系統,甲、乙都將其用于新聞稿件的寫作。不難想象,當某一新聞事件發生時,兩臺物質載體創作出來的稿件很可能非常相似。此時,無論將著作權歸屬于人工智能的設計者、訓練者還是所有者,都可能存在不妥之處:設計者在此過程中顯然不具有實質性作用;而假如甲、乙最終輸出、發表其高度相似的稿件的時間,只有5秒之差,能認為發表在后的乙侵犯了甲的著作權嗎?由于兩臺物質載體的工作環境不一樣(例如,其所在的網絡環境不同,所能獲得的網絡資源不一樣),隨著它們各自的深度學習的進行,此后它們寫出來的稿件可能會變得有所不同,甚至風格也大相徑庭,這又帶來另一個問題:如果這種獨創性來自于人工智能系統物質載體的自主學習,而不是來自于其設計者/訓練者/所有者,那還應該將著作權賦予后者嗎?顯然,人工智能所具有的“脫離人類控制而獨立行動”的潛力,也正是這一具體問題的關鍵。由于現有法律框架并未考慮到、也不可能考慮到這種情況的存在,故也難以對此作出應對。而認可人工智能的法律人格,反而是一個可行的方法。
不可否認,認可人工智能的法律人格,是對現行法律框架的一個非常大的沖擊,故確要謹慎為之。當前是否確要為之,或如確要為之時具體應如何為之等等問題,此處不擬討論。但無論如何,當前人工智能的發展,其實已經開始表現出“脫離人類控制而獨立行動”的能力或具有這種能力的可能性。因此,我們至少有必要將認可人工智能的法律人格視為一個現實問題,而不是將其僅僅視作一個遙遠的“科幻”問題。
五??結?語
綜上所述,根據現今人工智能的發展趨勢,從法哲學的角度觀之,人工智能獲得法律人格,似是不可避免之事。其一,人制造人工智能的取向和路徑,決定了人工智能具有“近人”性,因此,人工智能具有法律人格,與其說是不可想象的,不如說很可能是隨著人工智能的發展而自然而然的。其二,從法律史的角度看,法律人格乃是一種社會建構,“是否具有法律人格”與“是否是人”之間沒有什么必然的關聯,故認可人工智能的法律人格,不必以將人工智能定性為“人”作為前提。其三,根據權利義務相一致的法理,在人工智能能“脫離人類控制而獨立行動”并影響他人的權利義務時,對人工智能法律人格予以承認的考慮實際上便已成為了一個現實問題。
當然,筆者并不是說,賦予人工智能法律人格迫在眉睫。正如本文開頭所言,當前人工智能的發展仍處在弱人工智能之階段,這種情況下,試圖在現有法律框架下解決人工智能帶來的法律爭議,既是可行的,更是可以理解的。然則,面對人工智能的飛速發展,我們也許必須保持一種開放性態度,即,不應將固守現有法律框架作為解決人工智能法律爭議的前提,并因此而對其他路徑遽然否定。
人之所以為人,也許并不在于其是否具有生物性,而在于其能否保持人所應具有的一些基本價值,例如,對他者的尊重。“人工智能威脅論”這一頗受關注的熱點爭議,也與此相關。當人工智能發展到一定高度——例如“類人”階段之時,人類所一直堅持的把人工智能視為工具,否認把人工智能看作“人”的立場,是否還能站得住腳?如果人類沒有給予人工智能以與其性質相符的尊重時,是否將可能反過來導致人類本身得不到尊重?從某種意義上看,沙特阿拉伯授予索菲亞公民資格的做法也許確是一個玩笑,但卻也未嘗不是代表著了一個能在未來解決人機關系這一根本性問題的可能性。而在一定程度上認可人工智能的法律人格,亦意味著我們至少對這種關系人類未來的可能進路保持著一種靈活的開放性,而不是在根本無法預測人工智能之未來的今天,便斷絕了未來本身。
【責任編輯 ?龔桂明 ?陳西玲】