□文/王 歡
(西南石油大學 四川·成都)
[提要] 如今,人工智能已參與至交易的各個環節,經營活動取決于人工智能的運用已趨于現實,為破解責任縫隙,賦予其法律人格已成為時代必然。目前,各國普遍認為人工智能實施輔助性商事行為的模式,伴隨著弱人工智能向強人工智能的轉變,人工智能具有被賦予新型法人人格的拓展空間。有鑒于此,從商主體資格的視角對其進行探討,并以公司制人工智能模式為其實現路徑甚為必要。
人工智能的概念可肇始于1956 的達特茅斯會議,但由于算法等方面的限制,對人工智能的研究未能突破“有多少人工便有多少智能的”的桎梏。隨著算法黑箱以及深度學習等技術的突破,引發了一系列問題,諸如人工智能技術自動生成作品是否可以享有著作權保護?如何對人工智能機器人進行征稅?而諸多問題得以解決之關鍵在于界定人工智能是否享有法律人格,若享有,享有何種法律人格?
法律人格是私法中最基本的問題,法律人格的擁有意味著法律主體地位得以確認,從而成為權利的享有者與義務的承擔者,意味著“生物人”向“法律人”的轉變。就人工智能而言,1992年,Lawrence B.Solum 提出賦予人工智能以法律人格的觀點,此后該觀點成為學術研究、立法建議和司法實踐中普遍關注的話題。近年來,賦予人工智能以法律主體地位更是成為了發展的趨勢,如歐盟議會法制委員會于2017 年2 月16 日通過了“賦予機器人電子人”以法律地位的議案;2017 年10 月26 日,沙特阿拉伯給世界上第一個人工智能機器人“索菲亞”頒發公民身份;2017 年11 月4 日,日本東京都澀谷區宣布名為“澀谷mirai”的人工智能(定為7 歲男孩)可進行特殊居民登記。
借助我國政策的東風,特別是2017 年出臺的《新一代人工智能發展規劃》要求厘定人工智能法律主體以及相關權利、義務和責任,激發了法學界對于人工智能時代的“法學思考”,對其法律人格也不再囿于民法、刑法、知識產權等領域,而是伴隨著市場競爭科技化、法人類型細分化的推動,人工智能被賦予新型法人人格的拓展空間并嘗試從公司法解釋論的路徑實現人工智能的法律人格。因此,商事人格的拓展空間是探討人工智能法律主體地位的核心。
人工智能是否應當被賦予法律人格以及應賦予何種法律人格并非是一個科幻問題或主觀假設,而是在深度學習背景下必須加以考量的話題。目前,就人工智能的法律人格的支持觀點主要為:權利主體說、擬制主體、法律人格說、代理人說以及電子人格說;反對的觀點主要為工具說、道德能力缺乏說等。然而,上述無論是肯定人工智能的法人主體資格抑或是持有否定觀點,上述爭論均是置于同一前提之下的,即是否有必要賦予其法律人格,因此有必要首先對其必要性進行詮釋。
(一)責任分配視域下授予其法律主體資格的必要性。技術變革推動人工智能迅速得以發展,按照人工智能的發展進程,可將其劃分為三個發展階段。第一階段為人類控制性,即直接或者間接由人類加以控制,其具有自主性缺乏的特點。第二階段為輔助自主型,該階段主要體現為人工智能具有一定的自主性,其在多數場合可自行加以運行,但在特殊場合仍需由人類加以控制。第三階段為自主型,該類型下又可細分部分自主型和全面自主型,前者是指在特定領域,人工智能可獨立于人類控制,實現獨立運行,若超出該領域,則不具有自主性;后者是一種強人工智能,其具有與人類相同的自由,其自主性不再受制于特定領域,可自主從事社會活動。
法律人格尚未確認之前,對因人工智能造成的責任承擔是按照產品責任規則原則加以處置,該種方法應對初級階段的人工智能尚屬有效,但對于中級階段的人工智能而言卻難以發揮作用,更逞論強人工智能。具言之,傳統產品在制造、使用過程中的狀態是比較穩定的,人工智能在運行過程中是封閉的,因而在制作過程中制造商以實時連線的方式對其具有排他性的控制權,可排除其他主體的干預,因而將人工智能的責任直接歸于該主體較為合理,但是強人工智能下,多主體協同,開放式支撐是其顯著特征,與前者封閉式人工智能的運行不同,強人工智能的運行易受到諸如硬件制造商、軟件制造商、網絡服務商等多種因素的影響,特別是在存在“算法黑箱”的情形下,無法判斷何種關系需要法律對其進行調整,無法判斷其原因,導致難以認定責任主體,產品責任便難以發揮作用。若承認人工智能的法律人格,便可由其直接承擔責任,從而避免各主體之間的責任推諉,受害人也可快速得到相應的補償。
然而,上述論述從理論層面探究賦予人工智能法律主體資格的必要性,僅僅能用于證明人工智能“可能”具有必要性,VITAL 的出現,則從實踐意義上解釋了賦予人工智能以法律人格的必要性。2014 年為克服人性在投資決策時作出非理性判斷,英國公司Aging Analytics 啟動VITAL 并授權香港的風投公司將此人工智能用作該公司投資委員,借此,一方面可以避免因人性而作出非理性判斷,另一方面人工智能可依托于大數據,通過算法的應用,擴展投資決策的考量范圍作出正確判斷。事實上,VITAL 投資的Silico Medicine 項目與Pathway Pharmaceuticals 項目均證明其投資的正確性。值得注意的是,VITAL并非一般意義上的投資輔助工具,而是與投資委員會其他委員具有平等地位,然而香港地區的《公司法》并不承認“非人”董事,由此VITAL 雖然享有與其他董事平等的權利,但卻身份不明,此時若VITAL 投資失敗,責任難以清晰認定,若賦予其法律人格,則可以合乎法律邏輯的方式進行責任認定。
(二)商主體的特殊性視域下授予其商事主體資格的必要性。與普通人工智能只需在民法維度上對其加以考量不同,本文討論的對象為強人工智能,因此應擴展其考量范圍,以尋找最優解。經上文論述可知,人工智能具備法律人格具有應然性,但人工智能的法律人格應該賦予其商主體資格則是時代所必須,其原因在于較民事主體而言,商事主體具有獨特之處并很難被民事主體所吸納。具言之商主體從產生之初就因其實施營業行為的特殊性而作為社會的特殊階層受到不同程度的差別對待。商主體在經濟實力、組織能力、專業素質等方面較普通民事主體而言有極大差別,若將人工智能視為民事主體,機械適用民法的意思自治及平等原則,則會導致實質上的不公平。因而,法律課以商主體更多的注意義務與嚴格責任,如格式條款的不利解釋。
(一)合目的性視域下的可行性分析。法律主體和法律規范體系不是自然物而是“人造物”,是法律擬制的產物。該擬制并非狹義的擬制,而是對主體身份、模糊不清的事實等的厘定。首先,自然科學意義上的人與法律意義上的人之間并非等同,民法上的法人、自然人等概念均是民法為調整各主體之間的社會關系進行的擬制,即所有的法律人格均具有擬制性。而擬制的出發點不在于與人類的相似性,而在于人類需要,若賦予主體以法律人格可促進人類社會向良善發展,則該擬制行為具有其合理性。因此,就人工智能而言,是否可以賦予其法律人格,其核心不在于人工智能與人之間是否具有同質性或者具有多大程度上的同質性,而在于擬制的目的,看是否有助于調整人工智能產生的法律關系或有助于進行其產生的權利義務關系的配置。只要賦予人工智能能夠符合:其一賦予本身具有正當性;其二賦予的結果具有良善性,即可表明擬制行為符合特定的目的,進而表明擬制行為具有可行性。
(二)商主體構成要件下的可行性分析。法律選擇法律主體的標準存在不同,法律并未對生物人(自然人)添加特別限制,其可直接成為法律主體,但是對于生物人之外的主體,只有在借助法定條件的基礎上方可將其擬制為法律主體。而法定條件的背后便隱藏著法律所意欲實現的特定目的,因此人工智能并非生物人,其需借助法定條件方可被擬制為法律主體,即人工智能只有在符合商主體的構成要件時,才具有法律人格。就我國而言,我國并沒有針對普遍意義上的商主體的特定立法,在民商合一的特定背景下,《民法典》第76 條營利條件、第77 條登記條件、第79~82 條組織條件等并非是提取公因式的立法構造,而是《公司法》相關規定的“挪用”,其并沒有擺脫《公司法》固有思維的桎梏,并未意識到公司這一具有高度強制性的商主體與其他商主體之間的顯著差異。因而,直接比照《民法典》的相應條件對人工智能加以判定不盡合理。
關于商主體的構成要件,我國學者普遍認為應當具有登記要件、營業要件、名義要件。
其一,就登記要件而言,登記是幾乎所有的商主體成立的必要條件,但是商事登記的效力應更多的在于確認主商事主體資格,而非創設商事主體資格,否則有違市場經濟營業自由的初衷,正如公司資本制度改革,降低準入門檻并沒有導致“皮包公司”大量出現,相反改善了原資本制度下抽逃出資的惡疾。就人工智能而言,其商事主體資格的取得只需進行登記確認即可,而非進行嚴格審查,因此應認為人工智能符合該標準。
其二,就營業要件而言,其意指持續從事某種活動并以此為業,據此可將其視為行為條件與職業條件的結合。但實踐中,隨著交易活動的不斷創新,傳統職業之間的界限已經被打破,各職業間的界限日益模糊,因而可對該條件忽略不計,但是行為條件在商法從商人主義轉向商行為主義的背景下以及商事外觀原則的指引下,顯得尤為重要,只有從事特定商行為才能被賦予商主體地位,相反即使并非是商主體,也可因實施某種特定商行為而被賦予商主體地位。
在當下,人工智能尚未發展至強人工智能的階段下,人工智能已參與到合同評估、法律數據調查等商事活動中,其在合同上的應用范圍也已經擴張到起草、訴訟和咨詢等所有領域。隨著強人工智能時代的到來,人工智能的自主性進一步加強,并通過深度學習具有超過人類的水平,從而代替人類進行幾乎所有的交易行為,因此人工智能的營業能力主要取決于其數據的數量與質量以及分析學習能力,只要人工智能具有相應的技術條件與程序,便可認為其具備行為能力。
其三,所謂名義條件是以自己的名義獨立實施商行為,此即為與商事輔助人的區別,也是第三人識別商主體,也是接受政府監管與征稅的前提。伴隨著人工智能自主性的提高,其在具備了法律人格之后,即可以自己的名義獨立實施商行為。
在肯定賦予人工智能以法律人格的前提下,其實現路徑問題再次引發學界的爭論與質疑,對此筆者認為,可在我國對于公司的相關規定中,尋找人工智能的解釋空間。由于本文討論的主體是強人工智能,自主性是其顯著特征,為保證其獨立自主性,公司應當僅保留人工智能主體,其余主體應退出,但是我國《公司法》規定公司至少有一名股東,《合伙企業法》規定全部合伙人退出,合伙企業解散,因此就目前現行規定而言,仍無法承載人工智能的法律主體地位。
對此,美國的LLC 為避免上述弊端,為人工智能的法律主體地位提供了新的路徑,可為我國提供相應的借鑒。具言之,美國《統一有限責任公司法》規定即使全體成員退出,在90 天內公司仍可以繼續存在。更有甚者,有些州將該期限進一步延長,如根據紐約州《有限責任公司法》第701 條(a)(4)款該存續期限被延長至180 天,因此在該期限延長的情形下,無成員LLC便可承載人工智能的法律人格。就此,貝恩教授提出根據LLC的運營合同規定,無成員的公司也可以存續,甚至可以委托人工智能運營。即雖然LLC的內部管理模式分為成員管理和經理管理但二者均受運營合同的約束,《統一有限責任公司法》規定LLC可僅僅依據經營協定進行治理,這意味著在設立之初,若將LLC的經營準則轉換為相應的算法、程式記載于運營合同之中,在無成員的情形下,LLC仍可由人工智能進行運轉,在此情形下LLC即成為人工智能法律人格的承載體。除美國之外,日本和韓國規定成員離席,LLC不能繼續存續,但是對于諸如開發源之類的公司,允許其以人工智能為唯一成員的LLC。
關于是否可以將LLC作為人工智能的載體,學術界尚未達成一致意見:持有反對意見的學者認為,現行的法律制度并不承認“零成員公司”“有限責任公司”的立法意圖是保證人類對于該公司的最終控制,人工智能主導下的“零成員公司”超出了其立法意圖。支持的學者,如肖恩·拜仁在2014提出了公司制人工智能主體模式,認為人工智能的主體模式可以借助公司制度得以實現,并進一步提出了該方案得以實施的四個步驟。同時,對上述反對學者的意見進行反駁,其認為解釋公司法不能囿于字面意思,現行法律已承認諸如清算階段等的特殊情形,因此應當承認“零成員”公司的存續性。
目前正值《公司法》改革之際,對于是否引進LLC的爭議頗大,對于我國是否應當構建公司制人工智能主體模式,筆者認為公司制人工智能主體模式是在傳統法律制度不足以應對的時代變遷情形下作出的擴張解釋,其以合同架構為依托,通過技術、公司制度從而實現對人工智能法律人格的構建。就目前而言,對于是否進行企業組織形式的變更尚未達成一致觀點,若急于將LLC引進并加以全面推廣,難免出現水土不服的狀況,因而可選擇性構建LLC,待相關基礎成熟后再考慮是否全面引進LLC。具言之,應區分有無成員,LLC引進的首要目的在于構建人工智能的主體地位的載體而非構建新型的組織模式。若公司存有成員,人工智能仍需受制于成員的控制,難以獨立自主發揮作用,該種情形下,只需按照正常的商事規則對其進行調整即可。在無成員的情形下,LLC制度的構建才能實現其意欲實現的目的,即為人工智能的法律人格提供載體。同時,無成員又可分為初始無成員以及有成員轉換為無成員兩種模式。對于前者而言,因自成立便無成員,因此可直接適用LLC的相關準則,但對于后者而言,應避免成員將此作為逃避債務的手段,因此應當規定轉換后適用LLC的相關規則,但是對于轉換前發生的債務等,轉換前的成員仍應承擔相應的責任。
誠如上文所述,人工智能導致的責任分配難題是賦予人工智能以法律主體地位的必要考量因素,公司制人工智能模式下,人工智能是否可以獨立擔責,對此有學者認為人工智能體既無能力也無財產予以賠償,因而不具有履責能力,若由人工智能體進行賠償,則可能導致各主體間出現“責任甩鍋”的逃避行為。
筆者認為,人工智能具有履責能力,并能通過多種方式履行其職責,具言之,人工智能可依托儲備金、保險金、人格否認等制度構建完整的履責體系。首先,人工智能可購買責任保險,憑借其產生的利潤支付保費,從而實現風險的分擔;其次,選擇以何種主體承擔責任是按照效率和有效性之間進行判斷的,并非在任何情形下均只由人工智能承擔責任,正如《日本公司法》第597條、《韓國民法》第681條所言,母公司以支持人工智能運行的方式獲得報酬與利益分配,承擔有限責任,但若其選擇的業務執行成員在履責時有惡意或者重大過失的情形,母公司仍應對其承擔責任,就此而言,當人工智能背后的主體在一般情形下承擔有限責任,但是當其實施不當行為后即應參照適用人格否認理論,要求其承擔無限責任。
綜上,在實踐中,人工智能對人類進行語言或者人身攻擊的案件頻發,諸如1989年機器人在圍棋比賽敗北后電死冠軍,又諸如2016年Tay在公眾場合發表了性別歧視、種族歧視等言論,此時責任分配成為爭論的焦點,但由于人工智能尤其是算法黑箱的存在導致其具有極強的不可預見性和不可解釋性,并進一步導致了“責任縫隙”,即不承認人工智能作為主體的情況下,無法依據傳統的普通歸責規則進行責任劃分與問責確定。因此,賦予人工智能以法律人格具有了極強的必要性。其次,一方面相較于民法而言,商法具有更強的時代適應性,因而賦予其商主體資格更為適宜;另一方面因其符合商主體構成要件,賦予其商主體資格具有合理性。再次,就人工智能的商主體資格如何實現的問題,新主體說或擬制說均具有其弊病,通過選擇性引進LLC構建公司制人工智能主體模式或是最佳選擇,最后賦予人工智能以法律人格之后,其可通過責任保險、法人人格否認等制度獨立承擔相應的責任,同時采用雙罰制,以期保證其處罰效果。