隨著ChatGPT的廣泛應用,如何對人工智能進行制度設計的議題成為當下熱點。筆者認為,首要任務便是明確人工智能在法律框架中的定位。當前,學術界對此議題的討論大致分為肯定論、中間論及否定論。其中,持肯定論者頗多,且出發點各異;持中間論者則觀點集中于有限人格說,該理論實質上暗藏對人工智能法律主體地位的否定之義;持否定論者雖結論趨同,但僅有權利義務說直指要害,揭示了人工智能法律人格缺失之癥結。因此,本文將圍繞三個維度——對肯定論的批評、對中間論中有限人格說與否定論中自然人說和理性說的辨析,以及對否定論中權利義務說的認可與思考展開對現有理論的思辨,對人工智能法律主體資格予以否定證成。鑒于弱人工智能與一般的計算機技術不存在本質區別,而超人工智能的誕生將有可能對現有的制度與社會秩序產生重大影響,故文章僅圍繞當前技術發展階段及制度體系下的強人工智能法律地位問題展開辨析。
一、關于肯定論中相關觀點的批評
(一)法律主體范圍的確定取決于人類需要
部分學者基于法律主體范圍不斷擴大的歷史趨勢,提出法律主體資格是法律以服務人類生活為目的而創設的概念。他們認為以人工智能不具備權利能力為由否定其主體地位是“因果倒置的認知方式”。該觀點僅停留在法律主體內涵擴展的“形式”層面,未能觸及其實質核心問題。基于法律屬性上的本質差異,現階段的人工智能不應被涵蓋于法律主體范圍。
從奴隸制時期的奴隸不具備法律主體資格,到現代法律制度賦予法人與自然人同等的法律地位,可見法律主體范圍的不斷發展的深層動因在于經濟的發展、思想的解放以及社會關系的日益復雜。人類對于法律主體的核心要素——權利能力的理解在不斷深化。而在涉及人工智能的法律現象中,設計者和制作者是主體,相關智力成果是客體,人工智能則是承載客體的對象。無論智能化程度如何,人工智能的本質始終是科技應用和算法運算的現代化成果,其可能展現的類人化表象,所反映的依然是人類科技水平與智識能力的不斷進步,而并非其法律屬性的實質性轉變。
(二)關于意志能力及責任能力的觀點
有學者通過類比不具備意志能力的無民事行為能力人,以及需由意思機關作出意思表示的法人,提出法律主體資格應以責任能力和意思能力為要件,而非意志能力,并由此認定人工智能應為法律主體。而針對責任能力問題,部分觀點認為,當人工智能自主意識支配的行為造成嚴重社會危害時,應認定其具備刑事責任能力;部分觀點則認為人工智能欠缺主動犯罪能力,但民事責任不以主觀過錯為前提,故可賦予其民法主體地位,并配置獨立財產。
上述觀點過分割裂了意思能力與意志能力,于法律主體而言,兩者缺一不可。同時,法律主體還需擁有承擔義務與行為后果的責任能力,而人工智能本質上并不具備這類能力。一方面,自然人之間的意志能力雖因個體差異而有所不同,但在法律概念上仍屬于統一的類別,具備辨認、反思與調整行為的意志能力,而不僅是意思能力。而法人依賴于其意思機關,能完成所有意思表示和行為的作出,故其同時擁有意思能力和意志能力。相較之下,人工智能的“判斷”與“選擇”完全依賴于算法的預設與運行,缺乏自主思維能力,因而不可能真正具備意志能力。
另一方面,責任能力要求主體能理解其行為后果,而人工智能對其行為的社會危害或民事后果缺乏主觀認知。故,其既不具備刑事領域的主觀犯意與再犯可能性,也無法通過承擔民事責任實現對被侵害權益的保護,其行為后果理應由其背后的開發、使用等主體承擔。同時,人工智能的財產耗費與財富創造最終也歸于具體的個人所有,故相應財產責任應由個人承擔。
(三)人工智能與法人的概念對比
盡管論證思路各有偏重,但肯定論的多數觀點都類比法人來主張人工智能的擬制人格說。有學者以ChatGPT為例,認為人工智能在研發者的“訓練”與“喂養”下已呈現“近人性”特征。這與法人基于多方參與人的共同作用完成行為異曲同工,他們由此主張賦予人工智能主體地位并無法理障礙。然而,這類觀點未能充分認識到自然人在法人制度與人工智能領域截然不同的角色定位。法人的權利義務的真正執行者為相關自然人,故自然人在為一定行為負責時會產生評價其行為責任歸屬于該自然人或其所在法人的現實需要。由此,法學創設了法人概念與制度,賦予法人獨立的權利能力和行為能力。人工智能則是人類創造的工具性事物,其行為實際上屬于發明者研發成果的外在表現。故,相關自然人理應對該等行為負責,通過制度安排區分行為后果的責任承擔者缺乏客觀必要。
二、有限人格說、自然人說與理性說
(一)中間論即有限人格說及其辨析
中間論的觀點主要聚焦于有限人格說,主張人工智能應被賦予“準人格”,享有部分權利與義務,可以成為特定范圍內的權利主體,與其所有者共同承擔法律責任。然而,一方面,該觀點誤判了人工智能所謂“行為”的本質;另一方面,其沒有認識到能力或資格是“質”的問題而非“量”的問題,但基于其不對人工智能作出具備擬制人格的定性,可見其實質上并不認可人工智能具備法律主體資格。
中間論關于人工智能享有部分權利能力的觀點,實際上是對其智能水平的一種反映。即使人工智能能在一定程度上作出意思表達和行為表示,但這些僅構成獨立人格核心要素的一小部分,不足以使人工智能在法律地位上發生質的變化。相反,法人雖權利義務有限,但已具備獨立行為能力和責任能力,故而才能被賦予法律人格。此外,從司法實踐的角度出發,若賦予人工智能有限范圍內的權利、義務及責任,反而會增加現實糾紛處理的不確定性和爭議。
(二)否定論中的自然人說及其辨析
否定論雖然在“人工智能不屬于法律主體”的結論上達成共識,但部分說法顯然并未觸及爭議焦點的本質。自然人說認為,法律體系以自然人利益為中心,故法律人格只屬于自然人或與之相似的物種。該觀點看到了自然人與法律主體的共通性,但忽視了自然人并不天然為法律主體,而是因其具備獨立的自由意志,能辨認、控制自己的行為,賦予其法律主體地位在客觀上才有意義。筆者認為,在判斷人工智能應否為法律主體的問題上,以是否與人類相似這種表層、外觀的特征為依據在一定程度上有失偏頗。
(三)否定論中的理性說及其辨析
德國古典哲學家康德強調,理性存在者因其內在價值,即尊嚴而被賦予人格,因而具有可歸責性。理性說以康德的理論為基礎,提出人工智能僅有技術理性,而不具備獨立意識與行動自由,無法成為理性主體。上述其他觀點關注到法律主體的內在特性,并將其總結為具備理性和尊嚴,但該觀點對人格問題的探討更多是從哲學角度出發,欠缺從法理層面對法律人格的分析。相對于抽象的理性,賦予法律主體以法律人格,更多的是基于對其權利義務配置的考量。同時,理性說過度聚焦哲學理性,無法為法律責任的認定與歸屬等問題提供指引與論據,在處理人工智能法律問題的實踐中顯得捉襟見肘。
三、基于權利義務說的否定證成
(一)否定論中的權利義務說
該觀點認為,法律通過權利、義務來調控行為,而只有具備意志能力的個體才能享有權利和履行義務,這是擁有法律主體資格的前提。這清晰地揭示了法律人格的核心要素,并指出人工智能不能成為法律主體的根本原因,其所實施的行為并非權利與義務的表現形式。
(二)人工智能法律主體地位的否定證成
盡管人工智能能夠進行深度學習,展現出為達成特定目標而自行設計行動路徑的自我意識,以及在出現錯誤時調整路徑的能力,但其行為并非基于對規范的認知,而是基于算法對規律的遵守。這是內部算法所傳達的“做”與“不做”的信號的外在表現,反映的是編程中0和1的差別。即使人工智能在技術上不斷進步,可能呈現出類似人類的外觀,但其所謂的自主行動實際上是基于數據分析得出的客觀結論,人工智能對此并不提供主觀的情感或思考,這樣的意思表達構不成獨立意志。
此外,人工智能缺乏承擔行為后果的責任能力,它既無“應當”與“不應當”的意識,也無對“不能為”行為的悔悟能力。雖然它能通過修正算法避免重復錯誤,但這種調整并非出自主觀反思,而是設計者對研發失誤的回應。法律設置責任制度旨在通過懲罰和教育預防違法犯罪,這些功能對無自主意識的人工智能無法實現。沒有責任,就沒有義務,法律中不可能也不應存在只享受權利而不承擔義務的主體。如果讓人工智能在責任承擔上獨立于自然人,將可能導致責任逃避的后果。
(三)從司法實踐看權利義務說
從實踐層面分析,現有法律能夠滿足評價人工智能相關法律事實的需要,作為科技運用的產物,人工智能因技術缺陷作出在法律或道德上應受懲罰的行為,相應責任應由設計和制造者承擔。在我國首例AI聲音人格權侵權案中,被告通過AI技術處理原告的配音作品,向用戶提供文本轉語音服務。法院最終認定被告侵害了原告的聲音權益。顯然,該案不需要也不應當通過懲罰該語音生成平臺以實現定分止爭。在全球首例AI致死案中,Character.AI的未成年用戶模型的技術缺陷造成了悲劇,但該聊天機器人既無主觀惡意,也無因未盡注意義務而產生的過失。因此,該致人死亡的刑事責任應由聊天機器人的研發公司承擔。
由此可見,在既有法律體系的框架下,認定人工智能引發的侵權事件實為相關自然人或組織以人工智能為工具實施侵權行為,是合乎法理的正當評價。相反,將人工智能定性為法律主體并增設其財產及責任制度,既無法為維護司法秩序提供便利,還將造成不必要的制度繁冗。
結 語
2024年3月,《中華人民共和國人工智能法(學者建議稿)》發布。其規定了在人工智能造成損害時,開發者和提供者需承擔相應責任,而有過錯的使用者亦需承擔相應責任。由此看來,在當前及未來可預見的時期內,對于強人工智能的發展,以權利義務說為邏輯基礎的法律主體否定論仍是解決人工智能問題責任主體的主導思路。在排除其主體地位后,立法和司法實踐還要更多地關注人工智能應用各類存在及衍生的問題,諸如人工智能的客體類別、責任劃分等課題,不斷完善以人為本的法律制度的理性構建,進而為智能科技革命提供與時俱進的強有力的法治力量保障。
(作者單位:廣西大學法學院)