崔雅倩 魯家鵬 薄濤 張生杰
摘 要:現階段的人工智能技術若一定要劃分等級,那么在筆者看來當前只勉強算的上人工智能技術的初級階段,在一定程度上講人工智能還不具備真正哲學意義上的人格。然而卻有越來越多的呼聲要賦予人工智能在法律上的人格,使其成為獨立的個體。在人工智能的現階段看來是沒有必要的,在弱人工智能時代的今天人工智能機器人仍然還是人類的工具,并不具有真正意義上的法律獨立地位,所以當前并不應當賦予人工智能人格權。
關鍵詞:人工智能;人格;人格權
伴隨著科技飛速發展,越來越多的新生事物出現在人們的日常生活中,同時也帶來了越來越多的新型法律問題。在2017年,國務院正式印發《新一代人工智能發展規劃》,其對我國人工智能的發展規劃及目標作出了系統性的概括與明確,這標志著人工智能會越來越多的進入到我們的日常生活中與我們發生更多的日常交際。人工智能技術的發展雖然為我們的日常生活帶來更多的便利,但我們也應看到對于越來越發達的人工智能技術引起的意外或者說因人工智能所誘發的不確定性隱患伴隨著該技術應用范圍的擴大也逐漸走入人們的視野當中。由于人工智能的法律人格概念不明,導致其法律地位并不清晰。作為具有獨立思考能力的客體,人工智能可以“深度自主學習”、使用“神經網絡”,人工智能具有此種類人特性,是否應當賦予人工智能以人權?從法哲學的角度分析,是否應當認同“人工智能等同于人”?如果不能,人工智能技術應當作為何種法律主體、具有何種法律地位?人權,是作為個體的人對于自己基本利益的要求與主張,這種要求或主張是通過某種方式得以保障的,它獨立于當事人的國家歸屬、社會地位、行為能力與努力程度,所有的人平等享有人權是人之為人最基本的權利,是一切利益和權利的前提和基礎。[1]
一、社會影響與問題提出
人工智能的發展源自于人類對于更高產能的需要,機器人可以高產出低投入的為人類提供自身所需的生產力。正是由于人類對于生產能力與范圍更大的需要,機器人被制造的越來越具有“認知性”與自主性,筆者在此處的“認知性”概念并不是對人工智能技術人格的直接肯定,更多的是指對知識的學習積累能力。就如同Alpha GO的圍棋學習能力,其學習更多的指對規則的學習與運算,并根據不同的情況作出不同的判斷。但人工智能中其智能化是否能理解為意識?其是否應被賦予人的權利這在現實中與學術界都存在著爭論。然而當前多數國家的法律還沒有對人工智能的法律地位做出較為明確的界定,故在不同的地區與國家也有著不同的做法。在2014年5月,我國香港的Deep Knowledge Ventures公司將計算機算法軟件任命為董事會成員。2017年10月,在沙特阿拉伯舉辦的“未來投資計劃”會議上,沙特政府授予人工智能機器人索菲亞公民身份。其公民身份的賦予意味著在法律上對于其身份的承認,即使其不同于自然人但在一定意義上可以理解為法律所擬制的另一種不等同公司的新型法律擬制人。這就標志著法律對于該人工智能機器等同于人的保護,其他人不得侵害該主體的權利,是對該機器人人格權的認同。但這兩個例子在現實法律問題解決層面并沒有什么實質性的影響,至少在現階段是這樣的。當問題產生,新技術與人類的現行生活發生矛盾或沖突時才真正看出問題的本質。以Uber公司的無人汽車測試為例,2018年3月,美國加州發生全球第一起營運中的無人駕駛汽車撞傷路人致死事件。2017年5月,微軟人工智能機器人“小冰”的原創詩集《陽光失了玻璃窗》正式出版,這是人類歷史上第一本由純人工智能所創作的詩集。其后微軟讓人工智能機器人“小冰”在多個社交平臺以不同筆名發表創作,但沒有人發現這是人工智能所創作的作品。伴隨著人工智能技術的進步,這種人工制作的機器智能體愈來愈具有智能性,甚至出現了一種類似人的思維,這就使得賦予人工智能人格這一呼聲越來越高,甚至有激進者已經嘗試通過不同方式論證使公眾認同人工智能的人格。但應當注意的是世界各個國家都還沒有出臺一部完整的對于人工智能進行規范的法律甚至是準則,盲目地過早承認人工智能的類人化人格必然導致現行社會制度的混亂。如前文中提到過的無人汽車撞擊路人致死的案件,對人工智能主體人格的承認必然意味著其有獨立的思考判斷力,可以承擔法律責任享受權利,那么在承認人工智能之后是否就會發生公司無責這種情形呢?既然是這個獨立的人格主體的行為所產生的法律后果,那么在嚴格意義上講公司無需對被害人承擔任何責任,但這顯然是一種詭辯與對法律公平、正義的踐踏。
如果對人工智能人格承認,一些性質較為惡劣的事件可能要對相關責任人追責就顯得極為困難。在筆者看來,就如同沒有《公司法》規制的商事領域,實際控制人可以借用這個法律擬制的人格面具為所欲為。
有些學者把對人工智能的分析起步之初就歸為科技進步這一大類,甚至不在少數的學者甚至把其和生物科學技術進步的產物“克隆技術”作類比,認為既然同為科技進步產物我們已經看到“克隆技術”雖然在一些方面有違道德但不可否認其為人類帶來的幫助,所以可以類推人工智能也是一樣,所以我們要賦予人工智能人格。這一推導過程明顯存在著極大漏洞。首先,雖然兩種技術都屬于科技進步但分屬兩個不同的科學領域并不具有較強的相關性與相似性。其次,從克隆人的倫理類比人工智能機器人的人格顯然行不通,我們先不談生物學上的克隆人是否符合人們的倫理道德這一問題,僅從人工智能機器是否屬于生物學上的生命體這個問題展開,必然可以得出否定的回答,至少在當前階段是這個答案。所以以該種觀點出發認為人工智能給人提供便利我們就要為其賦予人格顯然是站不住腳的說法。但在法律上如何界定這個“智能體”是否為人,存在著較大爭論,對人工智能的人格性的法律肯定與否必然會引起巨大的社會影響,最為直接的就是人工智能的行為產生法律后果之后的規則問題。
二、人工智能人格權現狀與評析
法律人格,是指法律認可的一種享有權利、承擔義務的資格。包括自然人主體、法律擬制主體兩種形式。對于任何自然人,法律均承認其法律人格,民法上分為無民事行為能力人、限制民事行為能力人與完全民生行為能力人,但法律人格伴隨自然人終生。對于法律擬制主體的人格,則需要經過法律規定的程序方可取得,例如有限責任公司的設立等。[2]簡單來說,法律上的人格就是成為法律上擬制人的資格,其有無直接決定了其能否成為一個獨立的個體,享有權利承擔義務與責任。但在當代法律體系下,對人工智能的研究剛剛起步,現實適用困難,如果采納一些極端的觀點可能對現行的社會體系造成負影響。筆者通過對人工智能人格法學類文章的梳理,得出現行關于人工智能人格的認定主要有以下三大類。
(一)法律人格否認說
持該觀點的學者普遍持工具說與代理說。持工具說的學者都認為人工智能無獨立的意思表示能力,人類的生活工具是其最根本的屬性,其不具有獨立的法人人格。人工智能無法成為法律關系的主體。人類可以制造人工智能,也可以毀滅人工智能,人工智能屬于勞動工具。勞動工具為人所造、為人所用,其不可能替代人類。持代理說觀點的認為人工智能的所有行為均是為人類所控制,其作出的行為與引起的后果最終必須由被代理的主體承擔。機器人無論以何種方式承擔責任,即使提出了“電子人”的概念,最終的責任承擔者都是人。這使得它的“法律人格”顯得多余和毫無必要。[3]。“電子代理人”一詞最早見于美國法學會和美國統一州法全國委員會擬訂的《統一計算機信息交易法》,1999年8月美國統一州法全國委員會通過的《統一電子交易法》(修訂稿)第2條也有關于電子代理人的定義,“電子代理人”系指非經人的行為或審核,全部或部分獨立地發起某種行為或應對電子記錄或履行的計算機序、電子手段或其他自動化手段。該等法案所稱的“人”指個人、公司、商業信托、信托、合伙、有限責任公司、協會、合資企業、政府部門和機構、中介或代理、公共法人、或任何其他法律或商業實體。
(二) 法律人肯定說
持肯定說的具體來講分為廣義的肯定說與一定限度上的肯定說,即狹義的肯定。2016年5月31日,歐盟委員會法律事務委員會提交一項動議,要求歐盟委員會把正在自動化智能機器“工人”的身份界定為“電子人”的身份,并賦予這些機器人依法享有著作權等特殊的權利與義務。人工智能具有獨立自主的行為能力,有資格享有法律權利并承擔責任義務,人工智能應當具有法律人格。但由于人工智能承擔行為后果的能力有限,人工智能應被賦予特殊的法律地位,運用專門適用于人工智能的規范與侵權責任體系安排,其具有的法律人格是有限的法律人格。[4]但將人工智能界定為“有限”法律人格并不能闡明人工智能法律人格的根本屬性,因為人工智能是人類的創造物,要把它的法律人格同人類主體的法律人格進行區別,就如同自然人和商主體的人格一樣類似但并不完全相同,而不僅是在既有法律框架內通過對自然人權利能力限縮的方式實現。
(三)法律人格否認說
Aishwarya Limaye認為,即使是最超前的機器人責任政策立法也沒有將自主性機器人作為責任主體,原因是因為機器人的法律地位并不明確,若要確定機器人的責任,首先要確定機器人的憲法基本權利,比如美國憲法第二修正案的攜帶武器的權利和憲法第一修正案的言論自由權。吳漢東認為,“受自然人、自然人集合體——民事主體控制的機器人,尚不足以取得獨立的主體地位。”[5]在人類的管控之下就喪失了其所謂的獨立性,沒有獨立性在一定意義上是人的工具,沒有自己的主動權利和思維,賦予這樣的主體以人格沒有任何實質性的意義,只會讓簡單的關系更為復雜,為逃避責任提供空間。
前文中所羅列的三大類觀點在筆者看來各有利弊,或者說是在不同時期不同階段應當執行的處理原則。不可否認人工智能的類人化水平會越來越高,甚至在未來的某一天會產生真正的自我意識或超越人類,用同一標準去界定人工智能是不切實際的。就如同有人把人工智能劃分為弱人工智能、強人工智能、超人工智能三個時期一樣,如果把強人工智能、超人工智能這種類似于人或超越與人的個體定義為物,不賦予其人格是不現實的。但在現階段我們賦予人工智能以法律人格在筆者看來是毫無必要的,這只會極大的浪費法律資源,與為違法人員提供“法律的保護傘”一樣。當前學界對于人工智能人格認定的不同觀點在我看來其實都是合理的,這些觀點應當是對應人工智能不同發展時期的不同觀點,這是一個動態變化的評價標準。
三、人工智能人格權認定標準與賦予
通過上文對于人工智能人格相關資料的收集整理,對于人工智能人格的探討,筆者主要把當前階段是否應當賦予人工智能人格與現階段賦予人工智能人格的前提作為闡述的關鍵點,而不是著重于能不能賦予人工智能人格權與其合理性的論述。
(一)人格賦予的標準
對于法律人格的傳統賦予標準一般可分為堅持以是否具有理性特質為判斷標準的理性主義學派與以是否具有人性為標準的人文主義學派。
1.理性主義學派認為,區分人與非人的標準在于觀察實體是否具有人類的基礎理性特質。所謂理性特質,即在辨別私益、養成道德觀、進行復雜推理、做出最優選擇、擔負責任等方面不可或缺的特質。其對人格的判斷標準又因其所側重的評判點不同分為多種。認知能力說,以人對世界的認知為基本出發點,不具有認知能力的以及具有認知能力的非人類都不具有法律人格,其認為法律人格的本質取決于人類推理性特質,而認知能力是人類推理性特質的基礎,不具有認知能力的人類必然不具有法律人格;道德能力說,該說認為,理性生于道德自抑,法律源于道德。因此所有法律上的人首先應當是道德上的人,沒有道德能力的人類(心智喪失的病人)和非人類(人工智能等虛擬實體、非人類動物)都不應當享有法律人格。因為法理源于道德,而只有人類才享有道德,那么必然得出只有具有道德的人類才享有法律人格;意思能力說,其認為理性通過意思表達的方式展現,能通過自己運用意思表示實現自己目的的人才是法律上的人。法律上的人是能夠自治的主體,而意思能力作為實現自治的重要因素,不具有意思能力必然不是法律承認的人。
2.人文主義學派認為,人和非人的區別在于觀察其實體是否具有人性的具體特征。具體而言分為生命神圣說、感知痛苦說與生命脆弱說。生命神圣說認為,只有人類才是法律上的人,所有非人類實體都是物(人工智能等虛擬實體、非人類動物),既是因為人類基于與生俱來的生命神圣性高于任何物種而存在,也是因為人類是世界的主導者;生命脆弱說,區分法律上人和非人的意義不僅在于可以令被承認為法律主體的社會主體有權利追求利益、有渠道維護利益,更在于能夠補足或增強脆弱的社會主體抵御外界傷害的能力,由此可以推導人工智能不屬于生命亦不具有人格;感知痛苦能力說,在感知痛苦的能力方面,沒有任何一個物種比其他物種更高級。雖然相較于其他動物,人類在進化上處于更高等的階段,卻并不比非人類動物處于更高級的地位。但凡擁有感知痛苦能力的實體,都應當被認可為法律上的人。
(二)人工智能人格權的賦予
通過上文對于人格賦予的標準來看當代社會中被賦予了所謂人格的人工智能機器人,我們可以發現在當今的世界上仍沒有符合真正意義上人格條件的人工智能機器人個體。無論從人文主義學派的出發點來看還是理性主義學派的出發點來看,當前時期的科技水平很難制造出真正類似于人類思維、情感、道德的人工智能機器。退一步僅從法律的層面上分析,承認人格就意味著獨立的法律地位,既然賦予了人工智能人格,其所謂的制造商或者是擁有者也是不存在的,如果人工智能存在著擁有者或者收益人的存在,那么它永遠只是一件工具而不是獨立的個體,如同奴隸制社會中的奴隸一樣屬于物。在現階段賦予人工智能獨立的法律人格只會徒增司法與立法成本,是一種為并不存在的客體立法規制的行為。
參考文獻:
[1]甘紹平.人權倫理學[M].北京:中國發展出版社,2009.第2頁.
[2]葉欣.私法上自然人法律人格之解析[J].武漢大學學報(哲學社會科學版).2011(6).
[3]鄭戈.人工智能與法律的未來[J].探索與爭鳴.2017(10).
[4]袁曾.人工智能的有限法律人格審視[J].東方法學.2017(5).
[5]吳漢東.人工智能時代的制度安排與法律規制.[J].法律科學.2017(5).
作者簡介:
崔雅倩(1992-)女,漢族,山西晉城人,四川省社會科學院法學研究所,碩士研究生,主要從事民商經濟法研究。
魯家鵬(1993-),男,漢族,河南平頂山人,四川省社會科學院法學研究所,碩士研究生,主要從事經濟法與對策研究。
薄濤(1994-),女,漢族,河南南陽人,四川省社會科學院法學研究所,碩士研究生,主要從事訴訟法與司法制度研究。
張生杰(1995-),女,漢族,重慶墊江人,四川省社會科學院法學研究所,碩士研究生,主要從事民商經濟法研究