摘 要:在民事法律關(guān)系理論的視角下,人工智能的定位應(yīng)該基于民事主體的基本理論展開。現(xiàn)有的主體理論以自然人為核心,主體具有權(quán)利歸屬和行為作出兩種功能,以滿足不同的價值或需求。由于人工智能的“自主性”在產(chǎn)生機(jī)制、適用范圍和運(yùn)作方式上都不同于人之理性,以人工智能作為行為主體也欠缺價值支撐,因此,人工智能并非行為主體。人工智能具有成為權(quán)利主體的可能,但是制度收益有限,體系成本很高,而且現(xiàn)有制度足以解決人工智能責(zé)任承擔(dān)的問題,人工智能不宜成為權(quán)利主體。人工智能和法人并無相似之處,也不能“借”法人之“殼”而成為權(quán)利主體。所以,人工智能并非主體,只需作為法律關(guān)系的客體看待。
關(guān)鍵詞:人工智能 法律關(guān)系 民事主體 權(quán)利主體 行為主體
人工智能是研究開發(fā)能夠模擬、延伸和擴(kuò)展人類智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué),可以分為專用人工智能和通用人工智能。世界主要國家均高度重視人工智能的發(fā)展,我國也不例外。2017 年國務(wù)院的《新一代人工智能發(fā)展規(guī)劃》、2021 年的“十四五”規(guī)劃以及2022 年習(xí)近平總書記在中國共產(chǎn)黨第二十次全國代表大會上的報告,均提到要推動人工智能發(fā)展。
作為新生現(xiàn)象,人工智能必然會對現(xiàn)行法律規(guī)定和法學(xué)理論提出問題。自2017 年起,法學(xué)界關(guān)于人工智能的討論如火如荼,主要圍繞四個主題展開:人工智能的主體資格有無、人工智能生成內(nèi)容的著作權(quán)保護(hù)、自動駕駛中的侵權(quán)責(zé)任承擔(dān)、生成式人工智能的規(guī)制。其中,主體資格的有無是前提性問題,會顯著影響其他問題的解決思路。
關(guān)于人工智能是否具備主體資格,以及相應(yīng)選擇的后續(xù)技術(shù)處理,已經(jīng)有頗多的討論。對于人工智能的定位,存在彼此相異的觀點(diǎn)實屬正常。但是,無論保守處理,還是有所創(chuàng)新,都應(yīng)基于現(xiàn)有體系展開。目前關(guān)于人工智能是否具有主體資格的不少討論,對主體的功能、目的和技術(shù)多有誤解與誤用,既不利于解決人工智能所生的新問題,也會潛在干擾“舊”問題的妥當(dāng)解釋。為此,本文首先梳理關(guān)于人工智能地位的各種觀點(diǎn),明確這些觀點(diǎn)的線索和脈絡(luò);之后論述民事主體的基本理論,闡明現(xiàn)有以自然人為中心的主體理論所回應(yīng)的需求和所采用的技術(shù);然后分別在行為主體和權(quán)利主體的層次分析人工智能,確定人工智能的合理定位。
一、人工智能地位的觀點(diǎn)地圖
關(guān)于人工智能的定性,國內(nèi)學(xué)者的討論已經(jīng)較為全面,依據(jù)主體資格的有無和程度,形成了涵蓋有主體資格、有部分的主體資格、無主體資格等多種觀點(diǎn)的完整譜系。這些討論已經(jīng)自成體系,雖仍有借鑒比較法之處,但已經(jīng)獨(dú)立發(fā)展,甚或有所超出。
(一)人工智能具有主體資格的觀點(diǎn)
1. 完全人格論
觀點(diǎn)譜系的一極,是人工智能具有完全主體資格。人工智能所具備的人格,被稱為電子人格。有的學(xué)者將電子人格和自然人相區(qū)分,因為人工智能的實體基礎(chǔ)是電子芯片而非類似于人類的生物循環(huán)系統(tǒng),以電子能量作為能源支持。也有學(xué)者認(rèn)為,具有電子人格的人工智能具有生命權(quán)、自由權(quán)和追求幸福的權(quán)利,這看起來將人工智能和自然人等同對待。
大多數(shù)認(rèn)為人工智能具有完全人格的學(xué)者,討論的是強(qiáng)人工智能或通用人工智能。這些觀點(diǎn)認(rèn)為,由于機(jī)器人自主意識方面的技術(shù)飛躍和其在社會生活中的重要地位,人工智能獲得主體地位是必然趨勢,會取得有別于自然人和法人的新的主體資格。對于現(xiàn)階段的弱人工智能或?qū)S萌斯ぶ悄軄碚f,更主流的觀點(diǎn)認(rèn)為其僅具有有限人格。少數(shù)學(xué)者似乎認(rèn)為,弱人工智能也具有完全人格,因為人工智能所依托的算法具有獨(dú)立性、明確性、客觀性和動態(tài)性的特征,能夠兼具法律人格的標(biāo)準(zhǔn),而且賦予人工智能以主體資格,才能分析法律關(guān)系的效力、舉證、責(zé)任等。
2. 有限人格論
在肯定人工智能具有人格的觀點(diǎn)中,更多學(xué)者走的是“一小步”,認(rèn)為人工智能雖具有人格,但只是有限人格。有限人格論下包含了技術(shù)人格說、工具性人格說、電子代理人說等不同學(xué)說。不過,學(xué)者們關(guān)于“有限”的理解其實各不相同,體現(xiàn)為人工智能的范圍、所享有權(quán)利的范圍、與自然人的關(guān)系三個層面。
從人工智能的范圍來看,由于強(qiáng)人工智能一般被認(rèn)為具有完全人格,因此具備有限人格的主要是弱人工智能。有學(xué)者還作進(jìn)一步的限縮,認(rèn)為弱人工智能主要應(yīng)作為客體對待,但是在特殊情況下,如果人工智能已經(jīng)具備創(chuàng)造能力,或者由于其自身的決定導(dǎo)致?lián)p害發(fā)生時,應(yīng)該將人工智能視為主體,這主要是指可以創(chuàng)設(shè)作品的人工智能和能夠完全自動化的無人汽車。
就所享有的權(quán)利而言,有限人格論多認(rèn)為人工智能的權(quán)利能力和行為能力是有限的。人工智能只享有經(jīng)濟(jì)性的權(quán)利,權(quán)利能力限定在財產(chǎn)法領(lǐng)域,主要體現(xiàn)為締約能力和獲利能力。俄羅斯的《格里申法案》將人工智能作為電子代理人看待,也贊同人工智能此時只具有特別權(quán)利能力,在占有和使用財產(chǎn)的范圍內(nèi)承擔(dān)責(zé)任。也有學(xué)者在財產(chǎn)權(quán)外,還認(rèn)為人工智能享有隱私權(quán),以及受人類尊重的權(quán)利。有學(xué)者還限定了人工智能所具有的義務(wù),即在可控范圍內(nèi)從事指定勞動,同時此義務(wù)還有不得傷害人類的絕對性限制。
在和自然人相比較時,有限人格說一般認(rèn)為人工智能的人格低于自然人的人格。人工智能雖然可以具備主體地位,但是應(yīng)當(dāng)以人類為中心。基于保護(hù)人類、維護(hù)人類利益的理由,機(jī)器人的倫理地位最多只能是限制性主體。
人工智能只享有有限人格的觀點(diǎn),建立在兩個遞進(jìn)的命題上:一是人工智能享有人格,二是這種人格是有限的。學(xué)者們的重心在前者,理由主要有本質(zhì)原因和實踐需求兩個方面。人工智能可作為主體的本質(zhì)原因,在于其近人性,人只能認(rèn)可或者不認(rèn)可人工智能的人格,卻不能在本質(zhì)上決定人格的有無。也有學(xué)者認(rèn)為人工智能的“技術(shù)理性”雖然不同于人的理性,但仍能使其成為主體,參與社會交往。實踐需求方面的理由則主要出自在技術(shù)上更好地調(diào)整法律關(guān)系的需要。人工智能因其自主性而具有獨(dú)立性,并可能通過智能合約、侵權(quán)等影響他人的權(quán)利義務(wù)。他人的權(quán)利義務(wù)受影響時,會隨之產(chǎn)生新的權(quán)利義務(wù)。這些新的權(quán)利義務(wù)難以歸屬于其他人,因此歸屬于人工智能更加合適。特別是在責(zé)任承擔(dān)上,如果將人工智能視為客體,那么由于人工智能介入而發(fā)生的責(zé)任主要由投資、研發(fā)或使用人工智能的自然人或法人承擔(dān),路徑則可能為產(chǎn)品責(zé)任、動物或機(jī)動車保有人責(zé)任等。但是,人工智能具有的自主性或者作出獨(dú)特決策的能力,使得生產(chǎn)者或者保有人承擔(dān)責(zé)任并不合理,還可能導(dǎo)致人工智能的研發(fā)投入不足、發(fā)展受阻。而以人工智能作為主體,可以輕松解決人工智能侵權(quán)、智能合約簽訂、權(quán)利與義務(wù)的自動運(yùn)行等多重復(fù)雜問題;可以掃清其參與民事法律活動的制度性障礙,使其能夠最大限度地參與到民事法律活動中。
在論證人工智能應(yīng)當(dāng)具有主體資格后,關(guān)于這種資格的有限性,學(xué)者們并未著力過多。似乎是因為這多少是不言自明的。一方面,基于其性質(zhì),很難認(rèn)可人工智能享有倫理性的人格權(quán)與身份權(quán)。由于其僅能參與財產(chǎn)法律關(guān)系,因此權(quán)利范圍和權(quán)利能力也是有限的。另一方面,學(xué)者們普遍認(rèn)可人工智能應(yīng)該遵循阿西莫夫提出的機(jī)器人三定律,以人類為尊。既然人類與人工智能并不平等,那么人工智能的人格就只能是受限的。有學(xué)者指出,人工智能權(quán)利能力和行為能力的有限,是因為其獲得相應(yīng)能力依賴于人類的賦權(quán)。
(二)人工智能作為客體的觀點(diǎn)
觀點(diǎn)譜系的另外一極,則認(rèn)為人工智能只是法律關(guān)系的客體。這包含了兩種程度不同的細(xì)分觀點(diǎn)。一是認(rèn)為人工智能并沒有什么特殊性。如應(yīng)依據(jù)人工智能的具體情況來判斷其性質(zhì),若人工智能是有體的,則屬于物;若將人工智能作為一系列算法之集合,當(dāng)歸屬于知識產(chǎn)權(quán)的客體。俄羅斯的《格里申法案》則將人工智能視為與動物具有特定相似性的財產(chǎn)。另一則認(rèn)為人工智能具有特殊性,不能視為簡單的物。如認(rèn)為物可以分為倫理物格、特殊物格和普通物格三個類型,人工智能是最高類型即倫理物格的物。
人工智能只能作為客體,而不能“進(jìn)階”為主體的理由,既有價值層面,也有技術(shù)層面。從價值層面上看,人工智能客體論以人類利益保護(hù)為基礎(chǔ)。人工智能作為主體,會貶損人類的價值;還可能淪為自然人轉(zhuǎn)移責(zé)任、逃避法律制裁的工具。人工智能的超強(qiáng)智能蘊(yùn)含風(fēng)險,也必須處于人類的支配和控制之下。從技術(shù)層面上看,人工智能達(dá)到權(quán)利義務(wù)相統(tǒng)一的法教義要求幾乎不可能,體系性思考的缺失只會顧此失彼,不可能拼湊出一個法律上的新主體。基于上述考慮,人工智能只能作為客體對待。
(三)人工智能雙重屬性論
除了上述觀點(diǎn)外,還有學(xué)者提出雙重屬性論,即人工智能特別是商用人工智能既是主體,也屬客體。商用人工智能是獨(dú)立的行動者,能夠自行決策,參與人類社會生活,可以成為主體,而且以商用人工智能作為主體,還具有明顯的制度收益;同時,人工智能具有經(jīng)濟(jì)價值,是由多個單獨(dú)的財產(chǎn)和某些事實關(guān)系構(gòu)成的、組織體化的商事客體。
也有學(xué)者認(rèn)為,無論是將人工智能認(rèn)定為主體還是客體,都無法兼顧智能體內(nèi)含的主體性價值與工具性價值。這實質(zhì)上仍然會走向雙重肯定的結(jié)果。人工智能既然已經(jīng)進(jìn)入法律的世界,那么在民事法律關(guān)系的理論下,總要在主體、客體和內(nèi)容的三要素中確定其立身之處。人工智能本身并不是權(quán)利或義務(wù),因此只能作為主體或客體,而不能既非主體,也非客體。如果單純作為主體和客體都有不足,那就只能兼為主體和客體。
(四)小結(jié):價值、需求與技術(shù)
現(xiàn)有關(guān)于人工智能定位的討論,囊括了完全主體、有限主體、普通客體、特殊客體、既為主體也為客體等觀點(diǎn),幾乎包含了譜系內(nèi)的所有可能,堪稱豐富。不過,這些彼此相異的觀點(diǎn)背后有一些共同的脈絡(luò):不同觀點(diǎn)的核心爭議,在于人工智能是否應(yīng)成為主體,而具體回答是基于需求、價值和技術(shù)做出的。
人工智能是否為主體是核心與首要的分歧。這一核心爭議的確立,也意味著人工智能雖然為新生事物,但法律人仍然是在民事法律關(guān)系理論下解決問題,法學(xué)體系和法學(xué)方法并沒有革命性的變動。
這一核心問題的回答雖然多樣紛呈,但都是沿著價值、需求與技術(shù)來展開論證。價值包含兩個層面,即人工智能的“超人”能力以及自主性,是否導(dǎo)致對人工智能主體資格只有承認(rèn)與否的問題;以及如果承認(rèn)主體資格,是否要以自然人為中心,否認(rèn)人工智能與自然人、法人具有平等地位。需求,即人工智能定位所要回應(yīng)、解決的實踐需求。在法律關(guān)系有人工智能參與時,賦予人工智能以主體地位是否能夠更加輕松地解決因果關(guān)系、過錯、責(zé)任承擔(dān)等問題,還是現(xiàn)有的私法規(guī)則經(jīng)適當(dāng)調(diào)整就足以應(yīng)對。技術(shù)則是指如何實現(xiàn)價值目標(biāo)、回應(yīng)實踐需求。如果否定人工智能的主體地位,那么應(yīng)該如何調(diào)整現(xiàn)有制度。如果肯定人工智能的主體地位,需要進(jìn)一步考慮人工智能的人格是比照現(xiàn)有的自然人或者法人人格,還是創(chuàng)設(shè)全新的電子人格,以及人工智能的人格是否是有限的。
二、民事主體的基本理論
要確定民事法律關(guān)系理論下人工智能是否為主體,有必要先行梳理民事主體的基本理論,確定主體背后的價值、所要回應(yīng)的問題和為此采用的技術(shù)手段。這種梳理具有兩方面的意義。一是明確現(xiàn)有理論體系的能力和界限;二是探討關(guān)于人工智能的討論是否對現(xiàn)有理論有所誤解,導(dǎo)致一些似是而非的結(jié)論。
(一)以自然人為中心的主體理論
如《民法典》第2 條所言,“民法調(diào)整平等主體的自然人、法人和非法人組織之間的人身關(guān)系和財產(chǎn)關(guān)系”。而在民事法律關(guān)系中,主體是必不可少的要素。主體和“人”是同義等價、交互定義的。我國法和比較法的學(xué)者都普遍認(rèn)為,民法上得為民事權(quán)利主體者,稱為“人”。也是因此,“人格”與“權(quán)利能力”也是等同的。人格就是得為民事權(quán)利主體的資格,也就是民事權(quán)利能力;不享有人格,也就不能成為民事主體。
在大陸法系的民事立法和理論上,主體或者人進(jìn)一步劃分為平行的兩種類型,即自然人和法人。我國的《民法典》雖然將民事主體三分為自然人、法人和非法人組織,不過這并不構(gòu)成二分法的例外。在我國法中,法人和非法人組織的區(qū)分,其實主要在于是否能夠獨(dú)立承擔(dān)責(zé)任。而且,《民法典》所規(guī)定的法人中,有一些其實也不具備獨(dú)立的責(zé)任能力,甚至不具備獨(dú)立財產(chǎn),典型即為機(jī)關(guān)法人。因此,從主體的角度看,法人和非法人組織具有共性,都是具有權(quán)利能力的組織體。為方便表述,后文中的法人包括法人和非法人組織。
自然人和法人區(qū)別明顯,前者的基礎(chǔ)是有血有肉的生物人,后者的基礎(chǔ)則是無法直接感知的組織體。兩者是并行的主體顯得理所應(yīng)當(dāng)。不過,形式上區(qū)別顯著,背后其實另有隱情:法人理論是對自然人理論的模仿,自然人才是民事主體的核心。
在我國法中,法人本質(zhì)主要有擬制說和實在說兩種觀點(diǎn)。實在說是學(xué)理上的主流觀點(diǎn),也是我國民事立法從《民法通則》到《民法典》一以貫之的觀點(diǎn)。在實在說外,也有學(xué)者認(rèn)為擬制說更加合適。作為通常被認(rèn)為是對立的學(xué)說,兩者存在多方面的差異。最根本的區(qū)別是,實在說認(rèn)為法人是一種真實的存在,組織體的事實人格先于國家法律的承認(rèn);擬制說則認(rèn)為法人只是法律擬制的產(chǎn)物,只有在國家的認(rèn)可下法人才能產(chǎn)生。基于這一根本區(qū)別,實在說和擬制說在法人意思有無、法人行為能力、對外行為機(jī)制、人格權(quán)的有無和范圍等問題上做出了全然不同的回答。實在說下,法人是一種真實存在,有自己的意思和完全的行為能力,通過機(jī)關(guān)來實施行為,具有人格權(quán)。甚至有學(xué)者將法人人格權(quán)的內(nèi)容擴(kuò)張及于生命、身體等物質(zhì)性人格權(quán)。擬制說不認(rèn)可法人的真實存在,作為擬制主體的法人沒有自己的意思,行為能力上比照無行為能力人,通過代理人實施法律行為,沒有人格權(quán)。
雖然擬制說和實在說存在諸多差異,但是,兩者其實都是將法人視為一種原子式的個體。人格與法律的關(guān)系、意思能力與人格權(quán)的有無等問題,都是將法人作為整體看待。而代表與代理的爭議,也是法人作為個體如何與外界進(jìn)行交往的問題。正是在此意義上,有學(xué)者指出,法人理論的任務(wù)是構(gòu)造民事主體,而非內(nèi)部關(guān)系。
一旦將法人視為原子式的個體,就會導(dǎo)致法人的理論和制度受到自然人相關(guān)制度、理論的強(qiáng)烈影響。實在說其實是以具有完全行為能力的自然人為模型而構(gòu)建法人。如《民法典》第57 條就規(guī)定,法人具有民事權(quán)利能力和民事行為能力。法人也能夠自己實施各類行為,享有包括人格權(quán)在內(nèi)的諸多權(quán)利。擬制說直接認(rèn)同自然人是唯一真正的主體,擬制成為主體的法人作為無行為能力的自然人對待,同樣彰顯了法人和自然人的密切關(guān)系。而且,擬制說和實在說對具體問題——顯然不是法人面臨的全部問題——的回答雖然差異巨大,但這些問題本身來自于自然人,是自然人作為主體時必然要面臨的問題。
可見,自然人是法人理論的底色。不少學(xué)者已經(jīng)指出,法人人格是對自然人人格在私法主體資格意義上的模仿,法人理論只是將適用于自然人的規(guī)范以某種“有限度的類推”方式轉(zhuǎn)適用于法人。而一旦明確法人理論以自然人為模型,那么法人和自然人就不再是兩類不同且平行的主體了。民事主體實質(zhì)上是以自然人為原型構(gòu)建,以自然人為中心的。
(二)功能視角下的主體區(qū)分
雖然法人理論是對自然人理論的模仿,自然人才是民事主體的核心,但自然人和法人仍然是不同的兩類主體。要深入理解兩類主體的不同,以及這種不同在價值、需求和技術(shù)上的反映,需要一個合適的切入點(diǎn)。這就有必要在功能視角下進(jìn)行主體類型的區(qū)分。
之所以強(qiáng)調(diào)功能,是因為作為概念,人以及主體都有漫長的演變歷史,含義幾經(jīng)變遷,僅從形式角度入手,很容易迷失。例如,“ 人”(persona)的概念最初是指演員所佩戴的面具。persona 不在任何意義上指代生物人,而是指角色,戴著面具就是為了表明不是本人。羅馬古典法時期,persona 從面具轉(zhuǎn)用于指代法律上的人,此時,人成為抽象術(shù)語,不再考慮性別、年齡等方面的差異,已經(jīng)不等同于生理意義上的人(homo)。從中世紀(jì)以降,人也被用于描述組織體,出現(xiàn)了擬制人(persona ficta)、虛構(gòu)人(personaimaginaria et repraesentata)、道德人(persona moralis)和法人等表達(dá)。最后至現(xiàn)代法,人成為自然人和法人的上位概念。主體的概念更晚出現(xiàn)。從羅馬法到中世紀(jì),使用的主要是身份(status)。每個人的權(quán)利義務(wù),取決于自己在家庭中、部落中以及社會中的身份與地位。在這樣的體系中,并不需要也不會存在統(tǒng)一的主體資格問題。《法國民法典》廢除了不同社會等級的區(qū)別,而使用唯一的法律主體,即公民取而代之。人人平等,皆可為主體,才會進(jìn)一步產(chǎn)生法律上的主體,以及背后的權(quán)利能力等概念。
人和主體概念的內(nèi)涵與外延雖然多有變遷,但一直維系著兩類功能,即權(quán)利歸屬和行為作出。權(quán)利歸屬,是指主體是權(quán)利的享有者、義務(wù)的承載者。原則上,沒有無主體的權(quán)利。法學(xué)以及哲學(xué)上的很多論斷,其實都需要從主體作為權(quán)利主體的角度才能理解妥當(dāng)。例如,在討論法人本質(zhì)時,有觀點(diǎn)認(rèn)為“法人就其宗旨而言被視為歸屬載體”,這其實就是指法人是權(quán)利義務(wù)的集合。類似的見解,如凱爾森認(rèn)為“人”只是在具有義務(wù)和權(quán)利時才存在,由此推之,人就是權(quán)利和義務(wù)的集合。馬克思也指出,人的本質(zhì)并不是單個人所固有的抽象物,而是一切社會關(guān)系的總和。行為作出,則強(qiáng)調(diào)主體可以基于自己意思作出各類行為。尤其對于生物人而言,人作為行為主體的層面顯而易見,無需多言。
對主體進(jìn)行功能區(qū)分能夠很好地契合民事法律關(guān)系理論。民事法律關(guān)系中存在動靜兩類要素。靜的要素是主體與客體,動的要素是權(quán)利義務(wù)及其變動。46權(quán)利主體和行為主體對應(yīng)動的要素。權(quán)利的本質(zhì)是一種利益,或者至少不能脫離利益來理解,權(quán)利主體也就是特定利益的歸屬對象,由此產(chǎn)生了強(qiáng)調(diào)歸屬的權(quán)利主體。權(quán)利義務(wù)的變動是由民事法律事實所導(dǎo)致。法律事實可以分為自然事實和人的行為兩類,而行為是指人有意識的活動,必須有主體方能產(chǎn)生行為。
區(qū)分權(quán)利歸屬和行為作出兩種功能,能夠更好地理解自然人和法人及兩者差異,也能夠進(jìn)一步證明民事主體其實以自然人為中心。自然人和法人都可作為權(quán)利主體。所有的生物人由于其肉身的存在,可以天然錨定和自身相關(guān)的權(quán)利義務(wù),因此“自然”可為權(quán)利主體。法人具備獨(dú)立的財產(chǎn)和非財產(chǎn)利益,也可以這些獨(dú)立利益為基礎(chǔ),成為權(quán)利主體。而在行為主體上,由于行為的作出建立在意思之上,具備相應(yīng)辨識能力的生物人可成為行為的主體,但法人則有所不同。擬制說直接否認(rèn)法人能夠具有自己意思。實在說通過機(jī)關(guān)和代表構(gòu)建的法人“自己”意思,建立在擔(dān)任機(jī)關(guān)的自然人權(quán)限之上。如果沒有權(quán)限,無論是法律行為還是事實行為,代表人行為都無法視為法人行為。因此,代表技術(shù)背后仍然隱藏著歸屬問題。正是這種不同,突出了自然人是民事主體的中心:在行為作出上,法人不是真正的行為主體,只能借助自然人才可行為;在權(quán)利歸屬上,法人雖然可作為權(quán)利主體,但其享有的利益是為了服務(wù)自然人。
(三)主體背后的價值、需求與技術(shù)
在區(qū)分主體的權(quán)利歸屬和行為作出功能后,可以發(fā)現(xiàn),行為主體只能是自然人,而權(quán)利主體既可以是自然人,也可以是法人。以此為基礎(chǔ),可以進(jìn)而討論生物人或者團(tuán)體成為主體的價值、需求,以及為了實現(xiàn)相關(guān)目的而采用的技術(shù)。
對行為主體進(jìn)行規(guī)制,是社會必然會產(chǎn)生的需求。要作出具有法律意義的行為,需要主體具備一定的判斷能力。在不同的領(lǐng)域中,判斷能力的具體表現(xiàn)不同,但至少要求當(dāng)事人能夠認(rèn)識行為本身,能夠預(yù)見行為的法律或事實效果。這種認(rèn)識和預(yù)期的能力,是生理達(dá)到一定年齡、具備一定社會經(jīng)驗的生物人所必定會具備的。法律不可能忽視這種事實。換言之,法律無法否認(rèn)具有相應(yīng)判斷能力的生物人能夠作出法律意義上的行為。存在奴隸制度的羅馬法堪為例證。奴隸不是法律上的人,但其行為仍然會產(chǎn)生法律效果,只不過效果由其主人部分承受。
對于已經(jīng)具有判斷能力的行為主體而言,他們的行為是否受到限制,確實可能產(chǎn)生不同的立法選擇。這是價值層面的問題。現(xiàn)代民法建立在康德哲學(xué)的基礎(chǔ)之上。康德強(qiáng)調(diào)人的理性,理性不僅指人類感知世界和其規(guī)律的能力,而且包括人類識別道德要求處世行事的能力。沒有理性的東西只具有相對的價值,只能作為手段,是物;有理性的生靈才是人。這就是人依照其本質(zhì)為目的本身,而不能僅僅作為手段的由來。對于存在理性的人而言,自由是一切理性存在者的意志的屬性。正是出于對理性、自由等價值的強(qiáng)調(diào),產(chǎn)生了現(xiàn)代民法的行為主體制度。這一思路甚至影響到了法人。基爾克正是基于康德的理性或自由意志來思考法人,進(jìn)而認(rèn)為團(tuán)體人格的發(fā)展和自然人人格的發(fā)展可以相提并論,同為道德目標(biāo)。
為了實現(xiàn)上述價值和需求,現(xiàn)代民法采用的技術(shù)手段是行為能力和責(zé)任能力,只依據(jù)是否具備相應(yīng)的判斷能力而決定人是否可以作為行為主體,而不考慮其他標(biāo)準(zhǔn),不會為不同身份的人構(gòu)建不同的規(guī)則。
和行為主體不同,權(quán)利主體這一概念具有非常強(qiáng)的技術(shù)性。權(quán)利主體作為權(quán)利與義務(wù)的承載者,是諸多權(quán)利義務(wù)的統(tǒng)一連接點(diǎn)。在法律上,這種連接點(diǎn)很多,但并非每個連接點(diǎn)都會成為主體。不同時代、不同地域的選擇并不相同。每個生物人基于其人格、親屬關(guān)系、勞動等因素,都適于成為權(quán)利主體,但法律上也有否定的時刻,如曾經(jīng)的奴隸;反過來說,即使生物人還不存在,也可能將其作為主體看待,如尚未出生的胎兒。對非生物人的權(quán)利義務(wù)連接點(diǎn)而言,最主要的是獨(dú)立的、區(qū)分的財產(chǎn)。一旦財產(chǎn)取得獨(dú)立性,基于該財產(chǎn)的維護(hù)、增減而發(fā)生的權(quán)利義務(wù)也就可以與其他財產(chǎn)上的權(quán)利義務(wù)相區(qū)分。因此,商業(yè)信托可以成為法人;在遺產(chǎn)的取得需要繼承人接受的立法例中,繼承開始后、繼承人接受前的待繼承遺產(chǎn)(hereditasiacens),可作為法人看待。但是,信托和待繼承遺產(chǎn)也可僅作為具有獨(dú)立性的財產(chǎn)。
無論自然人還是法人,其成為權(quán)利主體都是法律選擇的結(jié)果。將法人作為權(quán)利主體,出自法律技術(shù)的構(gòu)建。自然人作為權(quán)利主體,并不是因為其理性或意志,而是因為其可以作為復(fù)雜、大量權(quán)利義務(wù)的中心,同樣是技術(shù)構(gòu)造的后果。在這個意義上,“自然人”其實也是“法人”,需要經(jīng)過法律的認(rèn)可才能成為權(quán)利主體。正如有學(xué)者所指出的,民法上的自然人并非物理意義上的自然人。
在權(quán)利主體為技術(shù)手段的前提下,自然人和法人所要回應(yīng)的價值、需求并不相同。自然人普遍成為權(quán)利主體,主要是基于席卷現(xiàn)代社會的平等原則,具有倫理性的價值。法人成為權(quán)利主體,無關(guān)倫理或尊嚴(yán),不涉及價值,根本上是為了滿足特定的經(jīng)濟(jì)與社會目的。或者說,從經(jīng)濟(jì)效果、社會價值、行為與財產(chǎn)監(jiān)管等諸多因素來看,將組織體人格化、主體化是否更為有利。
三、并非行為主體的人工智能
人工智能是否應(yīng)當(dāng)或者是否適合作為主體,應(yīng)該在前述民事主體的基本理論下考察。我國學(xué)者在討論人工智能的主體地位時,很多都沒有明確主體的具體內(nèi)涵和條件。有些學(xué)者雖然注意到應(yīng)先確定成為主體的條件,但所列條件不夠全面。例如,有學(xué)者認(rèn)為,獨(dú)立的人格應(yīng)該具備能夠自主作出意思表示并得到法律的確認(rèn)這兩個條件;有不同觀點(diǎn)認(rèn)為,獨(dú)立人格的實質(zhì)性要件為意志能力,擁有從事活動所需要的財產(chǎn)。這些條件其實有的是行為主體的要求,有的是權(quán)利主體的要求,不可混為一談。
人工智能是否可以作為主體,應(yīng)該分別回答人工智能是否能作為行為主體和是否應(yīng)作為權(quán)利主體兩個問題。本節(jié)首先考察行為主體的層面,主要思路是先討論人工智能是否具備如同自然人一樣的“理性”;如果不具備,應(yīng)繼續(xù)思考人工智能的能力是否足以使其成為新主體。不過,這兩個問題的回答都是否定的。
(一)人工智能的“自主性”并非人的理性
人工智能的“自主性”,或者“技術(shù)理性”,是人工智能地位產(chǎn)生爭議的重要原因。肯定人工智能具有人格的觀點(diǎn),都會強(qiáng)調(diào)人工智能具有類似人類的創(chuàng)造力,具備獨(dú)立的意志,能夠做出意思表示。反對的觀點(diǎn)認(rèn)同人工智能具有一些自主判斷和自主選擇的能力,但并不認(rèn)為人工智能具有與人類一樣的理性能力,不能將工具的“自動化決策”和人的主體性相混淆。由于獨(dú)立意思是具備理性、作出行為的前提,這顯然在討論人工智能是否為行為主體。
從產(chǎn)生機(jī)制、適用范圍、運(yùn)作方式等方面來看,人工智能的“自主性”并不等同于自然人的“理性”。
從產(chǎn)生機(jī)制來看,對于生物人來說,自由、道德、意志等都建立在生理基礎(chǔ)之上,也就是下丘腦、自主神經(jīng)系統(tǒng)、中樞神經(jīng)系統(tǒng)組成的神經(jīng)系統(tǒng),而神經(jīng)系統(tǒng)進(jìn)一步由神經(jīng)元和神經(jīng)膠質(zhì)細(xì)胞兩類細(xì)胞構(gòu)成。人工智能則是通過程序來執(zhí)行任務(wù),程序由特定的語言(如Python)編寫、運(yùn)行于硬件之上,硬件是集中制造在半導(dǎo)體晶圓表面上的電路。簡言之,生物人的理性建立在細(xì)胞上,人工智能的技術(shù)理性建立在電路上,兩者全然不同。
適用范圍上的差別毋庸多言。理論上講,生物人可以實施所有的行為,無論法律行為亦或事實行為、合法行為亦或違法行為。畢竟,現(xiàn)行的法律規(guī)則正是以自然人為模型而構(gòu)建的。人工智能的“行為”領(lǐng)域則有所不同。專用人工智能只面向特定任務(wù),有些行為甚至不具有法律意義,如下圍棋、駕駛汽車等。強(qiáng)人工智能是通用人工智能,預(yù)期可以像人一樣從事多種用途。不過這種人工智能尚不存在。
更關(guān)鍵的區(qū)別是兩者的運(yùn)作方式。自然人的理性,在于對行為及其后果的認(rèn)識預(yù)見,這一預(yù)見因人、因時、因地而各不相同。在決定是否要實施某種行為時,主體固然要考慮經(jīng)濟(jì)上的利害得失,卻并非總是趨向最大利益而行為。人在行為時,存在著系統(tǒng)性的偏好逆轉(zhuǎn)、損失厭惡、后悔厭惡、框架效應(yīng)、時間偏好不一致等;人們在處理相互關(guān)系時,也經(jīng)常違背經(jīng)典博弈論的自利假設(shè)。由于生物人并存理性系統(tǒng)和直覺系統(tǒng),行為偏好上也會有自利偏好和社會偏好的共存。人工智能的決策作出,則是基于算法運(yùn)行的結(jié)果。在現(xiàn)階段,深度學(xué)習(xí)和蒙特卡洛樹搜索是人工智能常見的算法。深度學(xué)習(xí)下產(chǎn)生了深度神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、多模型融合的神經(jīng)網(wǎng)絡(luò)等模型,廣泛運(yùn)用于圖像、語音、視頻、文本、數(shù)據(jù)等領(lǐng)域的分析。這些方法的思路是設(shè)置多層網(wǎng)絡(luò),上一層對所提煉的數(shù)據(jù)會進(jìn)行抽象,再次初始化后投入到下一層網(wǎng)絡(luò)。這必然就產(chǎn)生依據(jù)數(shù)據(jù)來訓(xùn)練人工智能,同時還要避免人工智能過分依賴數(shù)據(jù)或未充分學(xué)習(xí)到訓(xùn)練數(shù)據(jù)的問題。蒙特卡洛樹搜索適用于決策,包含了四個步驟,首先從根節(jié)點(diǎn)R 出發(fā),向下選擇至一個葉子節(jié)點(diǎn)L ;如果L 處尚未確定輸贏,那么創(chuàng)建一個或者多個子節(jié)點(diǎn),選取其中一個節(jié)點(diǎn)C ;從C 節(jié)點(diǎn)開始用隨機(jī)策略進(jìn)行游戲;根據(jù)隨機(jī)游戲的結(jié)果,更新從C 到R 路徑上的節(jié)點(diǎn)信息,以此選出最優(yōu)策略。蒙特卡洛樹搜索算法也是通用博弈系統(tǒng)的主流算法。由此來看,自然人在作出行為時,可以利己、可以利他,具有復(fù)雜的偏好和考慮;人工智能則總是在“自動”追求最優(yōu)決策。或者說,自然人決策的“最優(yōu)”標(biāo)準(zhǔn)是多元的,而人工智能則是一元的。
因此,自然人的理性和人工智能的“自主性”并不相同。兩者可能的相似主要是在結(jié)果上,人工智能能夠?qū)崿F(xiàn)類似生物人理性的結(jié)果,甚至可以作出遠(yuǎn)優(yōu)于自然人的決策。這不僅表現(xiàn)在圍棋等非法律的領(lǐng)域,在投資等涉及法律行為的領(lǐng)域也是如此。當(dāng)可能性足夠集中、數(shù)據(jù)足夠充分、算法足夠復(fù)雜時,人工智能甚至還能偏離傳統(tǒng)的人類認(rèn)知過程。但是,僅僅是結(jié)果上的類似或者優(yōu)越,只能證明人工智能作為工具的強(qiáng)大,卻并不能反推人工智能應(yīng)該作為行為主體。人工智能可能偏離傳統(tǒng)的認(rèn)知過程,同樣不能得出人工智能是行為主體的結(jié)論。認(rèn)知過程是否傳統(tǒng)完全不是行為主體的認(rèn)定依據(jù),人類對于自身認(rèn)知的了解同樣不充分。即使不了解過程,自然人也仍然能夠理解人工智能的產(chǎn)出或者決策。
因此,人工智能的“自主性”并非生物人所具有的理性,也就談不上基于理性而產(chǎn)生的判斷能力和意思能力,人工智能無法據(jù)此成為行為主體。
(二)人工智能作為主體缺乏價值基礎(chǔ)
以自然人作為行為主體,是為了尊重人的理性,實現(xiàn)人的自由。人工智能則不然。不少學(xué)者已經(jīng)指出,人工智能并不具備人的心性和靈性;無法區(qū)分善與惡、對與錯、好與壞等復(fù)雜的道德觀念。人類的主體地位,在于團(tuán)結(jié)協(xié)作的群體性實踐“類能力”的廣泛能力體系,而非僅僅依靠某特定行動者的某種具體實踐能力的片段,人類可以改造自然,而機(jī)器則不然。適格的法律主體要具有欲望,抽離了欲望的人會喪失行為的動因。這些觀點(diǎn)都表明,以人工智能作為行為主體欠缺價值基礎(chǔ)。
如果以技術(shù)理性為依據(jù),勉強(qiáng)認(rèn)可人工智能作為行為主體,就會立刻陷入背后價值上的難題:既不能以自然人的自由作為最終價值,也不宜以人工智能的自由作為價值目標(biāo)。這種兩難境地,反過來印證了人工智能的非主體性。
若認(rèn)為以人工智能作為行為主體,是為了實現(xiàn)自然人的理性與自由,可能會得到很多人的認(rèn)可。有學(xué)者認(rèn)為機(jī)器人也具備道德,因為人類可以將人類的基本道德原則以算法的形式加入其中。既然執(zhí)行的是人類的道德,體現(xiàn)的就是以人為本,自然人才是法律的核心主體。此外,人類也可能對人工智能進(jìn)行一定的情感投射。如人工智能剝奪人類酬勞時,會遭受道德譴責(zé);一些士兵無法忍受人工智能拖著殘骸清理路面炸彈的畫面;軍隊把一些人工智能提升到一等兵的地位,并授予其勛章,甚至有觀點(diǎn)指出人工智能具有受到人類尊重的權(quán)利。這些和對動物的保護(hù)類似,本身要保護(hù)的是人類自身的倫理價值。
但是,這會陷入價值背反的境地。因為此時,人工智能本身并非作為目的,只是自然人實現(xiàn)自己價值的一種工具和手段。作為手段而存在,意味著此時人工智能是一種無理性的存在。因為不可能設(shè)想一種理性,它會在其判斷上自己有意識地從別的什么地方接受操縱。這和人工智能具有理性、是行為主體的前提矛盾。如果人工智能確實擁有理性,那么這種只作為他人目的的工具而存在的狀況是難以想象的,難以為人工智能接受,注定無法長期存在。
如果以人工智能為主體,是為了實現(xiàn)人工智能自身的自由,會導(dǎo)致更嚴(yán)重的內(nèi)在價值體系分裂。現(xiàn)行法下,主體在外在體系上分為自然人和法人兩種類型,但是在內(nèi)在體系上卻仍然是統(tǒng)一的,因為主體以自然人為核心。這也暗合法人沒有自己理性,只是技術(shù)工具的論斷。法人的存在,是為了實現(xiàn)自然人的目的。而和自然人不同的人工智能如果確實能夠作為和自然人并列的行為主體,會使主體真正二元化。此時,必然要探討人工智能的自由與自然人理性的關(guān)系。而在人工智能和自然人的理性與自由均是目的,而非僅為對方手段的前提下,彼此不能相容的二元主體,只能導(dǎo)致內(nèi)在價值體系的分裂。
(三)無法匹配的外在體系
強(qiáng)行以人工智能為行為主體會導(dǎo)致法律內(nèi)在價值的沖突與分裂,這反映在外在體系上,就是人工智能沒有匹配的制度與規(guī)則,因為既不宜為其專門制定行為規(guī)范,也不應(yīng)將現(xiàn)有規(guī)則適用于人工智能。
人類為人工智能制定專門的行為規(guī)范,本身就是矛盾的。如果人工智能是和人類一樣的行為主體,那人工智能理應(yīng)為自己立法。畢竟,人工智能的“思維”方式和人類并不相同。如果人類不能理解人工智能“思考”的過程和結(jié)果,也就無法制定規(guī)則。對于不可說的東西,應(yīng)當(dāng)保持沉默。如果人類真的要為作為行為主體的人工智能立法,不考慮可能存在的利益沖突問題,也應(yīng)該首先征得其同意。如果人工智能不能有效表示同意,就意味著人工智能并非真正的行為主體,只需將其作為客體看待。
將以自然人為對象的行為主體規(guī)則適用于人工智能,也是方枘圓鑿之舉。權(quán)利主體和行為主體的分類,會區(qū)分《民法典》中涉及主體的條文。能夠適用于行為主體的規(guī)則,主要是行為能力制度,以及法律行為、事實行為等行為類法律事實相關(guān)的條文。這些規(guī)則無法、也不應(yīng)適用于人工智能。
行為能力和法律行為相關(guān)的規(guī)則就是典型。行為能力制度無法適用于人工智能。人工智能以處理器為硬件、以算法為軟件,本就以處理任務(wù)為優(yōu)勢,實在談不上限制行為能力或者無行為能力的問題。而且,無完全行為能力人的監(jiān)護(hù)制度,由于要全面保護(hù)行為能力欠缺的人,為了保證監(jiān)護(hù)人有足夠的動機(jī)來履行職責(zé),通常需要監(jiān)護(hù)人和被監(jiān)護(hù)人之間具有親屬關(guān)系。這無法適用于硅基的人工智能。法律行為的各個規(guī)則也是如此。法律行為制度的一個重要目的,在于維護(hù)當(dāng)事人意思表示的真實、自由與合法。而人工智能的意思表示很難受到欺詐、脅迫、錯誤等瑕疵的影響。這已經(jīng)顯露端倪。當(dāng)下,人工智能已經(jīng)以智能合約的方式參與到法律生活之中。有學(xué)者認(rèn)為,智能合約本質(zhì)上仍屬合同。但是,智能合約以自動履行和自我履行為特征,這就意味著智能合約只能非常有限地適用法律行為成立的規(guī)則,亦即意思表示一致時合同成立,但是諸如反要約、要約的撤回與撤銷、遲到的要約等規(guī)則都很難適用。而且,由于智能合約一旦締結(jié),后續(xù)的履行就無可避免,因此,智能合約會限制當(dāng)事人對合同的撤銷、變更、解除等權(quán)利,當(dāng)事人無法依據(jù)自己的意思決定民事法律關(guān)系的變更和終止。可見,現(xiàn)行的法律行為規(guī)則很難適用于人工智能。
事實行為似乎稍有不同。由于人工智能具有自主性,可以“獨(dú)自”實施行為,引發(fā)相應(yīng)的法律效果,看起來有適用事實行為的空間。認(rèn)為人工智能具有主體地位的主要場景,如創(chuàng)作作品和侵權(quán)事故,也都是事實行為。由于真實意思的欠缺,相關(guān)規(guī)則是無法適用于人工智能的。就作品而言,雖然普遍認(rèn)可人工智能創(chuàng)作的作品具有知識產(chǎn)權(quán),但是,知識產(chǎn)權(quán)的重要目的在于通過授予創(chuàng)作者排他權(quán)以鼓勵創(chuàng)新。人工智能并不能受到這種激勵,因此并無授權(quán)保護(hù)的必要。即使人工智能的算法考慮了激勵問題,考慮其可能導(dǎo)致的無節(jié)制的創(chuàng)作傾向,也不宜以其為行為主體。畢竟,效率或者財富最大化在踐行明智、勇敢和節(jié)制的德行限度內(nèi)才有規(guī)范價值。就侵權(quán)行為而言,過錯是非常重要的要件。即使是采嚴(yán)格責(zé)任的侵權(quán)行為,當(dāng)事人如果具有過錯,構(gòu)成一般侵權(quán)行為,也會導(dǎo)致責(zé)任限額的突破。而對基于算法行事的人工智能而言,很難說有疏忽大意或者過于自信的問題。人工智能執(zhí)行的是算法得出的“最優(yōu)”結(jié)果,這意味著其或者沒有預(yù)見到損害,因而沒有過錯;或者放任損害的發(fā)生,因而總是故意。這就完全打破了侵權(quán)法的價值平衡。
四、人工智能不宜成為權(quán)利主體
前文述及,權(quán)利主體具有很強(qiáng)的技術(shù)色彩。只要能夠成為諸多權(quán)利義務(wù)的統(tǒng)一連接點(diǎn),就有成為權(quán)利主體的可能。至于最終是否被賦予權(quán)利能力,則要考慮將其作為主體的必要性。對于人工智能而言,其確實具有成為權(quán)利主體的可能,但是全無必要。
(一)人工智能作為權(quán)利主體的不必要
現(xiàn)行法下,自然人和法人成為獨(dú)立權(quán)利主體的條件并不相同。每個自然人由于其生理上的現(xiàn)實存在,天然地適合成為權(quán)利義務(wù)的核心。即使是剛出生的嬰兒,也享有廣義財產(chǎn),如要求父母撫養(yǎng)的權(quán)利。法人能夠成為權(quán)利主體,則來自于法人的獨(dú)立財產(chǎn)。
相比之下,即使不考慮強(qiáng)人工智能,弱人工智能也具有成為權(quán)利主體的可能,而且在具體的連接點(diǎn)上還有多種選擇。例如,雖然人工智能的初始算法是一致的,但是在加載于具體的運(yùn)行硬件或平臺后,由于學(xué)習(xí)內(nèi)容的不同,會導(dǎo)致人工智能后續(xù)的運(yùn)行方式出現(xiàn)差異。此時,可以基于已然彼此不同、相互區(qū)別的具體人工智能而連接權(quán)利義務(wù)。再如,可以為具體的人工智能分配財產(chǎn),該財產(chǎn)本身以及后續(xù)增減,會成為權(quán)利義務(wù)的連接點(diǎn),人工智能可依托該筆財產(chǎn)而成為權(quán)利主體。
人工智能雖然可以成為權(quán)利主體,但以其為主體卻并不必要。或者說,作為一種技術(shù)工具,是否主體化要考量其制度收益。如果主體化后,能夠更便利地進(jìn)行制度的解釋和適用,而不主體化會導(dǎo)致適用的困難和矛盾,產(chǎn)生社會與經(jīng)濟(jì)層面上的負(fù)效果,那么主體化就是必要的選擇。反之,就應(yīng)該用現(xiàn)有制度處理問題,不要貿(mào)然主體化。
對于人工智能而言,支持其為主體的學(xué)者的重要目的,是為了解決責(zé)任承擔(dān)的問題。這一觀點(diǎn)認(rèn)為,以人工智能作為客體,現(xiàn)有的產(chǎn)品責(zé)任或保有人責(zé)任可能存在問題,那么不如將其作為主體,以清晰地解決責(zé)任歸屬問題。既然討論的是責(zé)任或者義務(wù)的歸屬,那就處于權(quán)利主體的層面,而不是人工智能是否為行為主體的問題。
然而,為了解決責(zé)任歸屬問題將人工智能視為權(quán)利主體,所采用的手段和所欲實現(xiàn)的目的完全不成比例。承認(rèn)一個新的主體,茲事體大,會導(dǎo)致和權(quán)利主體相關(guān)的權(quán)利能力、具體權(quán)利義務(wù)的范圍,以及不涉及行為的法律事實類規(guī)則的全面適用。但以人工智能為主體的目的,卻局限于責(zé)任領(lǐng)域。這確實方便了責(zé)任主體的認(rèn)定,卻完全沒有考慮對整個體系的影響。例如,既然人工智能能夠承擔(dān)義務(wù)和責(zé)任,那是否可以享有權(quán)利,享有哪些權(quán)利;人工智能所享有的權(quán)利是否也要受到訴訟時效和除斥期間的限制等。
以人工智能作為權(quán)利主體,雖然在技術(shù)上有助于責(zé)任歸屬的確定,但技術(shù)并不是唯一的考慮。從受害人的角度看,賠償能力同樣不可忽視,甚至更為重要。這也是雇主責(zé)任等替代責(zé)任改變承擔(dān)責(zé)任主體的原因之一。以人工智能作為責(zé)任主體,也就意味著人工智能要承擔(dān)賠償責(zé)任。但是,在闡述人工智能的責(zé)任財產(chǎn)時,學(xué)者們普遍提到的都是責(zé)任保險、責(zé)任基金、共同儲備基金等。這基本上是限額賠償?shù)哪J剑⒉蛔阋猿浞直Wo(hù)受害人。而且,即使不以人工智能為主體,同樣可以為人工智能的致害責(zé)任設(shè)立保險、基金等。畢竟,保費(fèi)和賠償金的計算與確定,考慮的是損害的概率和嚴(yán)重程度,和人工智能是否為法律主體并無關(guān)系。
另外,雖然可以區(qū)分權(quán)利主體和行為主體,但是兩者仍然有密切關(guān)系。如果僅為權(quán)利主體,而無行為主體的資格或配合,權(quán)利主體就只能靜待時間來變動權(quán)利,這樣的權(quán)利主體并無實際意義。正如法人雖然只是權(quán)利主體,但是可以通過擔(dān)任機(jī)關(guān)的自然人實施行為,參與法律生活。人工智能則恰恰可能陷入這樣的窘境,因為人工智能自身并非合適的行為主體。
從另一面看,現(xiàn)有的責(zé)任規(guī)則也并非不能解決問題。以自動駕駛為例,對現(xiàn)有的產(chǎn)品責(zé)任、機(jī)動車交通事故責(zé)任稍作改造,其實就能有效解決問題。至少相比以人工智能為主體的路徑而言,其對體系的干擾要小得多,也更聚焦于問題的解決。更何況,即使以人工智能為權(quán)利主體,在智能汽車致人損害的情形,也仍然不能避免產(chǎn)品責(zé)任的適用。部分學(xué)者所設(shè)想的能夠更輕松地確立責(zé)任主體的目的,未必能夠?qū)崿F(xiàn)。
因此,以人工智能為權(quán)利主體,雖然技術(shù)上是可能的,但并不必要。雖然這能在一定程度上簡化責(zé)任主體的確認(rèn)過程,但是并不能充分保護(hù)受害人,可能成為投資人、研發(fā)人規(guī)避責(zé)任的手段,而且必然會造成強(qiáng)烈的體系影響。相反,即使不以人工智能為主體,仍然可以使用責(zé)任基金、保險等方法,而且現(xiàn)有的侵權(quán)法有足夠的能力來解決責(zé)任問題。
(二)借法人而成為主體的質(zhì)疑
在人工智能是否可為權(quán)利主體的問題上,有一類不能忽視的觀點(diǎn),即認(rèn)為人工智能可以借助法人而成為權(quán)利主體。這體現(xiàn)為兩種方式。一是認(rèn)為人工智能和法人具有相似之處,兩者的法律地位無異。因為兩者都圍繞核心協(xié)議——一為章程,一為算法——設(shè)立,都有對核心協(xié)議和意思表示的執(zhí)行能力。將人工智能作為主體時,也應(yīng)該和法人一樣進(jìn)行登記。另一則認(rèn)為人工智能可以借用公司而成為法律主體。例如自然人或者公司設(shè)立一人公司,并通過決議規(guī)定該一人公司的一切行動均由人工智能確定,之后將和人工智能系統(tǒng)相關(guān)的財產(chǎn)均轉(zhuǎn)讓給該公司所有,然后設(shè)立該一人公司的自然人或者法人退出,這樣就會在實質(zhì)上以人工智能為主體,實現(xiàn)主體資格上的“借殼上市”。
如果人工智能和法人相似,或者可以“借殼”,那么人工智能就可以直接借助現(xiàn)有的法人制度成為權(quán)利主體,甚至基于同等情況同等對待的考慮,應(yīng)當(dāng)承認(rèn)人工智能為法人。但是,這兩種方式都存在問題。
就人工智能和法人而言,兩者其實并無多少相似之處。法人或者公司的章程,與人工智能的算法并不相同。兩者的成立方式不同,章程是發(fā)起人制定,多數(shù)決修改;算法則是程序員編寫。兩者的內(nèi)容也沒有什么相似之處,章程有很多法定記載事項,如名稱和住所、經(jīng)營范圍、注冊資本、股東信息、公司治理結(jié)構(gòu)、法定代表人等;而算法則是用系統(tǒng)方法描述解決問題的策略機(jī)制。
從表示和執(zhí)行能力來看,法人和人工智能也相差很大。所謂法人的“意思”與“行為”,在現(xiàn)實中是通過作為法人機(jī)關(guān)的自然人而實現(xiàn)的;在技術(shù)上是通過將這些自然人的行為視為法人行為,或者將自然人行為的效果歸屬于法人而實現(xiàn)的。這也是法人治理結(jié)構(gòu)所要解決的重要問題。通過設(shè)立法人內(nèi)部機(jī)關(guān)、分配權(quán)限、確定議事規(guī)則等,法人得以借助自然人而運(yùn)行并參與法律和經(jīng)濟(jì)生活。而以人工智能作為主體,則不存在自然人為其擔(dān)任機(jī)關(guān)的情況,否則就不是“人工智能”了。有學(xué)者就認(rèn)為,算法法人以智能體替代自然人或排斥中心化組織機(jī)構(gòu),以人為中心的傳統(tǒng)法人組織機(jī)構(gòu)不適合算法法人。但是,人工智能又不能成為行為主體,因此導(dǎo)致人工智能落入類似無監(jiān)護(hù)人、且無法尋得監(jiān)護(hù)人的無行為能力人的狀態(tài)。因此,人工智能和法人并不相像,不能類推法人而直接獲得主體資格。
至于人工智能“借殼”公司的思路,則面臨技術(shù)和價值上的問題。從技術(shù)上看,在現(xiàn)階段,我國法并不允許全部股東退出公司后,公司仍然存在。即使如有些學(xué)者的建議,引入更為靈活的LLC(limited liabilitycompany),也難以解決這一問題,因為按照美國《統(tǒng)一有限責(zé)任公司法》第701 條(a)(3) 款規(guī)定,無成員的LLC 只能存續(xù)90 天。既然設(shè)立公司的股東或者自然人不能退出公司,那么即使股東、董事、監(jiān)事等尸餐素位,放任人工智能管理公司的運(yùn)行,負(fù)責(zé)公司的投資決策——人工智能很可能還頗擅此道——這也仍然是一個傳統(tǒng)構(gòu)造的法人。
事實上,在以自然人為核心的法律體系下,并不會存在完全脫離自然人控制和干預(yù)的法人。團(tuán)體之所以能夠被承認(rèn)為主體,是為了實現(xiàn)自然人的利益和需要。自然人是目的,法人只是實現(xiàn)目的的工具。因此,對于法人而言,總是需要為人類介入預(yù)留空間,以使法人實現(xiàn)自然人的目的。完全排除人類介入、運(yùn)營和收益都和任何人無關(guān)的算法實體,如果不是出于純粹的興趣愛好或者犯罪目的,幾乎不可能被設(shè)立。退一步而言,出于興趣愛好或犯罪目的,也還是為了實現(xiàn)自然人的利益。所以,人工智能并不能“借殼”法人而成為真正的權(quán)利主體,這時候的權(quán)利主體,仍然是法人。法人內(nèi)部當(dāng)然可以使用人工智能,以期實現(xiàn)更有效率的管理和決策,但人工智能并不因此而成為主體。
五、結(jié)論
在民事法律關(guān)系理論的視角下,人工智能的定位需要明確其是否能夠成為主體,而這應(yīng)該基于民事主體的基本理論來討論。現(xiàn)行法下的民事主體,包括自然人和法人兩類。但兩者其實并非平行關(guān)系,而是以自然人為中心。基于法律關(guān)系的兩個動態(tài)因素,可以發(fā)現(xiàn)主體的兩種功能,即權(quán)利歸屬和行為作出。行為主體以意思為基礎(chǔ),只有自然人才能充當(dāng)。行為主體背后的價值是人的意志自由。權(quán)利主體是一種技術(shù)工具,可以滿足不同的需求,如倫理性、目的性、經(jīng)濟(jì)性等。法人和自然人都可以為權(quán)利主體。
人工智能既非行為主體,也非權(quán)利主體。人工智能不能作為行為主體,是因為人工智能的“自主性”和人的理性在產(chǎn)生機(jī)制、適用范圍和運(yùn)作方式上都不相同。以人工智能作為行為主體,會陷入價值難題:既不能以人工智能的自由為目的,也不能只作為自然人意志自由的工具。現(xiàn)有的法律制度也無法適用于人工智能。人工智能雖然有成為權(quán)利主體的可能,但是并無此必要。如果僅強(qiáng)調(diào)責(zé)任的承擔(dān),改進(jìn)現(xiàn)有的侵權(quán)責(zé)任體系是更有效、更有針對性的做法,而不是貿(mào)然采取會強(qiáng)烈擾動體系的人工智能主體化思路。人工智能和法人并無相似之處,也不會“借”法人之“殼”而成為權(quán)利主體。
因此,人工智能無法成為行為主體,也不宜成為權(quán)利主體。人工智能擁有完全人格、有限人格或者人工智能具有雙重屬性的觀點(diǎn)都不恰當(dāng)。人工智能應(yīng)該作為法律關(guān)系的客體。