居茜 錢宇婷
1. 蘇州市職業(yè)大學 江蘇 蘇州 215009;2. 蘇州大學 江蘇 蘇州 215301
機器人可以創(chuàng)作詩歌、駕駛汽車等,機器人已經(jīng)可以從事目前很多種類的民事活動。在未來,機器人成為人類伴侶也將成為可能。2020年,微軟小冰團隊宣布啟動人工智能框架Avatar Framework小規(guī)模測試,即按照每個人類用戶的需求,為其定制創(chuàng)造各種類型的AI虛擬人類,首批虛擬人類的身份限定為情感陪伴型女性戀人。微軟小冰的對話引擎可以實現(xiàn)“主導對話”,這類機器人具有共情能力,可以進行意思表示。在機器人替代人類扮演社會角色的過程中,對于人工智能民事活動的規(guī)制成為法律亟須解決的問題。機器人人身損害責任,自動駕駛汽車發(fā)生的交通事故責任、人工智能生成物的著作權(quán)歸屬問題等,需要法律予以明確。2017年國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》提出,各地要開展與人工智能應(yīng)用相關(guān)的民事與刑事責任確認,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責任等。毫無疑問,明確人工智能的法律問題,是推進人工智能發(fā)展和未來法治建構(gòu)的重要內(nèi)容。而在討論對機器人進行相關(guān)規(guī)制時,首先討論的則應(yīng)是機器人法律主體的問題,機器人在法律關(guān)系中究竟為權(quán)利主體,抑或為客體。這是探討人工智能問題的前提性和基礎(chǔ)性問題,在此確認的基礎(chǔ)上進行人工智能相關(guān)權(quán)利、義務(wù)以及責任的分配。
目前學界對人工智能體法律主體問題的探討如火如荼,各家學者各抒己見,進行了充分的論證,無論是從傳統(tǒng)理論,還是從實踐中尋求經(jīng)驗以求解決問題。在理論上,學者對此問題看法不一,大體上可分為兩類,即肯定說和否定說。本文將對現(xiàn)有的主要觀點進行梳理和評析,以探討相關(guān)的問題。
持此立場的學者認為應(yīng)賦予機器人法律主體地位,機器人具有法律上的人格。具體到對機器人人格的認定上則各有差異。有“部分法律主體說”“電子法人說”“有限人格說”“電子人說”等諸多不同的觀點。
彭誠信認為,在現(xiàn)行法律下,部分弱人工智能體應(yīng)被認定為權(quán)利客體,但若出現(xiàn)需要對特定的人工智能主體予以保護或承擔責任的具體情形,通過法律的擴張解釋將部分高級人工智能體認定為法律主體。他認為現(xiàn)如今的司法實踐可將人工智能作為一類“弱勢群體”解釋進《民法總則》第128條的“等”字,通過擴張解釋把人工智能認定為主體。在未來則通過意志能力的認定和具體的物質(zhì)性條件來確定人工智能的主體地位。
張志堅認為,人工智能并非完全受人類控制的工具,其本質(zhì)是財產(chǎn),可以被買賣、處分,是一種會說話、會思考、會自主行為的財產(chǎn)。人工智能具有意思能力和責任能力。具有財產(chǎn)性人格,但無人身性人格,其意思能力和責任能力僅限于財產(chǎn),其背后的人的意志是一種混合意志,所以應(yīng)歸入法人的范疇。將機器人以財產(chǎn)性人格的進路擬制為電子法人。
郭少飛認為,從自然人法律主體的歷史演化、動物法律主體的歷史經(jīng)驗以及無生命法律主體的歷史梳理來看,“電子人”具有法史基礎(chǔ)。人工智能具有自主性、規(guī)范性,已非純受支配之客體,在法律上應(yīng)設(shè)定為“電子人”。
袁曾認為,人工智能是具有智慧工具性質(zhì)又可作出獨立意思表示的特殊主體,享有法律權(quán)利和必須承擔的法律責任。人工智能雖然具有法律人格,但享有的是有限的人格,并非完全的法律人格,運用“刺破人工智能面紗”來確定責任主體,其造成的侵權(quán)損害賠償根據(jù)實際情況由其設(shè)計者、開發(fā)者、制造者或使用者承當,通過強制投保責任險,確立以人為本的監(jiān)管體系。
許中緣認為,智能機器人應(yīng)當定義為“理性代理人”,雖然具有法律人格,但歸根結(jié)底是由人類創(chuàng)造并服務(wù)于人類社會發(fā)展的智慧型工具,其具有工具性人格。
郭劍平認為,理性能力是作為主體的基本能力,是法律主體和法律客體相區(qū)別的實質(zhì)所在。人工智能具有法律主體地位的實質(zhì)要件,即理性能力,其能夠生成自由意志,高度智能化的人工智能可以進行情感的表達。人工智能也具有法律主體地位的形式要件,即權(quán)利能力,可以享有權(quán)利和承擔義務(wù),以及負有相關(guān)的責任。
葉明認為,智能機器人其因具備“理性”而應(yīng)享有民事法律主體地位。智能機器人“理性”來源于人類,是人類認知理性和行為理性的延伸,其具備與人類相當甚至超越人類的認知理性及行為理性,智能機器人的“理性”與人類“理性”可以互通。其主張按照理性程度,將智能機器人民事主體地位類比我國自然人民事主體法律地位,劃分為無民事行為能力機器人、限制民事行為能力機器人和完全行為能力機器人。
持肯定說的學者大多都認為,機器人有自主的意思表示,并且能夠通過該意思從事一定的法律行為,具有法律上的權(quán)利和義務(wù),應(yīng)該具有法律人格,而具體的責任承擔方式則須立法進一步規(guī)制。
2.2.1 從法律主體的抽象性和擴張性。從法律主體的發(fā)展態(tài)勢來看,其主體具有擴張性。論者論述權(quán)利主體地位發(fā)展的歷史,從自然人法律主體的歷史發(fā)展,到動物、河流、法人等非人主體的法律主體地位的確認來論述人工智能取得法律主體的正當性。
“權(quán)利主體”是一個觀念建構(gòu)性、價值判斷性的概念。法律關(guān)系的主體,是指在法律關(guān)系中享有權(quán)利和履行義務(wù)的人。在法學意義上的人區(qū)分于社會意義上和哲學意義上的人,乃是一種抽象概念,指向該主體所具有的法律上的權(quán)利和義務(wù)。當人成為法律上的人時,法律規(guī)制其法律行為,在法律上為由法律行為產(chǎn)生權(quán)利與義務(wù)的抽象概念。成文法使得現(xiàn)實中的人在法律上以統(tǒng)一的標準人、制度人的方式出現(xiàn),經(jīng)法律抽象而形成的人,為法學上的“法律主體”。雖然法律主體的概念由自然人演變而來,但是并非只有自然人才能成為法律主體,不是必須具備自然人的意志特征和理性特征才可成為法律關(guān)系的主體,法律主體具有一定的抽象性,比如法人制度的創(chuàng)立。在論述法人的主體地位時,拉倫茨指出,“法律上的人”本身就是“形式上的人的概念”,它不如倫理學上的“人”那樣豐滿,具有“權(quán)利能力”即可行為。法人制度的創(chuàng)立使得法律擬制的組織體成為法律關(guān)系的主體,法人為法律上享有權(quán)利和承擔義務(wù)的組織,法律主體的概念擴張至組織。法律主體的擴張還表現(xiàn)在法律主體地位的設(shè)定擴張至某些非人的物上。為了環(huán)境保護的需求,部分國家賦予河流一定的法律主體的地位。2017年3月,新西蘭旺格努伊河成為世界上第一條具有法定權(quán)利的河流。法律主體范圍的擴張使得法律主體不限于傳統(tǒng)的自然人和法人,為了特定領(lǐng)域的利益保護和制度需要,賦予某些原本為法律關(guān)系客體的物予以主體的資格。而未來隨著人工智能技術(shù)的發(fā)展,為了社會治理和人類利益的需要,可以把人工智能作為一類獨立的主體來看待,這從法律主體的概念和發(fā)展趨勢上是具有正當性的,關(guān)鍵是看法律如何確認。
2.2.2 人工智能具有理性能力。持肯定說的一部分論者認為,理性能力是成為法律主體的本質(zhì),人工智能體因其具備理性能力而能夠成為法律主體。理性成為具有主體地位的重要基礎(chǔ),有理性即有人格。理性能力是人工智能具有法律主體地位的實質(zhì)要件,人工智能能夠生成自由意志和進行情感的表達和交流。智能機器人不是物,因其具備“理性”而應(yīng)享有民事法律主體地位[1]。
有的論者認為,人工智能體因其發(fā)展程度已經(jīng)到了與人類水平相當?shù)睦硇裕蚱淅硇允侨祟愓J知理性與行為理性的延伸,甚至具備超越了人類的認知理性與行為理性,與人類的理性可以互通,因具有理性而成為法律主體。此類論者的主要觀點是,區(qū)分民事主體的關(guān)鍵在于其是否具有理性能力,不具備理性能力即不具備法律主體的資格,例如動物。人工智能因其特性,根據(jù)算法和程序,具有感應(yīng)、選擇和反思調(diào)整的能力。因其所具備的程序、算法、數(shù)據(jù)處理和交互等能力,可以看成其具備理性能力,成為法律關(guān)系的主體。
2.2.3 人工智能能夠享有權(quán)利。判斷一個主體是否能夠成為民事主體應(yīng)看其是否能夠享有法律上的權(quán)利和承擔法律上的義務(wù),即是否具有民事權(quán)利能力,享有權(quán)利能力也就意味著具有私法主體地位。人工智能體是否承擔法律上的義務(wù)并未引起較大的爭論,論證的焦點在于人工智能體是否享有權(quán)利。人工智能享有獨立的權(quán)利,說明其作為獨立的主體有區(qū)別于其制造者、設(shè)計者、使用者獨立的利益,此利益有被法律保護的獨立價值。持此種理由的學者認為,人工智能能夠作為法律上獨立的主體享有權(quán)利。人工智能獨立做出意思表示的能力已得到實現(xiàn),并且因其可以提起法律訴訟,法院在決定法律救濟時必須考慮到損害以及滿足它的利益要求,其權(quán)利應(yīng)該得到法律的確認,應(yīng)當享有法律權(quán)利。人工智能的利益乃是一種涉他利益,最終是為了實現(xiàn)人類的利益。其權(quán)利具有擬制性權(quán)利屬性、利他主義權(quán)利屬性,以及功能屬性。保護機器人獨立的利益,有利于維護人類的整體利益,規(guī)范人類和人工智能交互過程中的社會關(guān)系的建構(gòu)。有的學者指出,如果機器人擁有拒絕甚至反抗對其濫用的權(quán)利,那么在一定程度上可以減少甚至避免人與機器人交互過程中可能出現(xiàn)的不道德現(xiàn)象,這些不道德的現(xiàn)象可能會針對其他人。有關(guān)于人工智能的權(quán)利類型,則有待于法律進一步規(guī)制[2]。
2.2.4 人工智能主體地位具有現(xiàn)實的必要性。創(chuàng)設(shè)機器人法律人格具有現(xiàn)實的必要性,主要基于人工智能的發(fā)展帶來現(xiàn)有法律制度框架難以解決的問題,比如無人駕駛汽車侵權(quán)責任的承擔、人工智能創(chuàng)作的利益歸屬,人工智能交易行為的效力等問題。有的學者還討論在人工智能的意思超出人類意思表達時的權(quán)利義務(wù)歸屬問題,這些學者提倡通過建構(gòu)新的主體類型,可以解決現(xiàn)行制度無法解決的問題。以機器人侵權(quán)責任的分擔為例。當發(fā)生機器人侵權(quán)時,利用傳統(tǒng)的產(chǎn)品責任不能解決責任分擔問題。多主體協(xié)同、開放式支撐的人工智能為更為常見的形式,硬件制造商、軟件提供商、系統(tǒng)運行維護商、基礎(chǔ)網(wǎng)絡(luò)提供商、改造利用的用戶和網(wǎng)絡(luò)侵入者都會實質(zhì)性影響人工智能的運行,人工智能在運行過程中也會自我優(yōu)化和發(fā)展。影響機器人的主體眾多,機器人的侵權(quán)責任可能歸因于多方主體且查明困難。在原因無法查明或多方共同作用所致時,以人工智能的名義和財產(chǎn)對外擔責,可以有效地促進交易,從而保護無辜受害者和善意相對人,實現(xiàn)利益平衡。賦予機器人法律人格,避免責任認定不清,利于對被侵權(quán)者利益的保護。另外,在現(xiàn)行的產(chǎn)品責任的模式下,會給生產(chǎn)者、銷售者帶來沉重的責任負擔,違反公平正義的要求,還會打擊人工智能產(chǎn)業(yè)的發(fā)展創(chuàng)新。所以,授予智能機器人法律人格,使其獨立的承擔法律責任具有現(xiàn)實的必要性[3]。
持肯定觀的學者主張將人工智能體作為獨立的民事主體看待,在法律上獨立享有權(quán)利和承擔義務(wù)。將民事法律主體的抽象性和擴張性來論證人工智能主體是可行的,從這一邏輯上看,任何實體只要符合民事主體的要件和現(xiàn)實的需要,通過法律確認都可能被擬制成為法律主體,智能機器人也并無另外。但智能機器人是否符合相關(guān)條件和必要性,筆者認為現(xiàn)有的論證并不具有說服力。機器人和傳統(tǒng)機器表現(xiàn)不同的是其擁有一定的智力和自主學習的能力,但這是否能成為民法上的理性能力和意思表示,筆者認為是存在疑問的。智能機器需要人類為其制定完整的程序,通過人類為它設(shè)定的解決程序去實行,要是沒有給予計算機充分合乎邏輯的正確信息,計算機就無法理解,無法采取正確行動。有自我意識的強人工智能尚未出現(xiàn),目前的人工智能仍處于弱人工智能階段,相關(guān)的法學研究也應(yīng)以弱人工智能為基礎(chǔ)開展,認為人工智能具有理性能力無疑是夸大了人工智能的作用。人工智能也無法享有權(quán)益,以著作權(quán)為例,因為人工智能體本身也無法行使利用著作權(quán),人工智能生成物所帶來權(quán)利的利用、收益歸屬于其開發(fā)者、設(shè)計者等主體,為其創(chuàng)設(shè)權(quán)利沒有實際意義。所牽涉的獨立于其開發(fā)者、設(shè)計者的保護的價值,如不得濫用人工智能以免對人類造成不法侵害,可以通過在法律上對其開發(fā)者、設(shè)計者、使用者在法律上的行為限制以及相關(guān)的行業(yè)規(guī)范加以實現(xiàn)。所保護的也并非人工智能權(quán)利的利益,而是社會秩序和人類的利益。在責任歸屬方面,讓人工智能獨立承擔責任并非具有必要性的立法思路。因為人工智能不具有財產(chǎn),最后責任還是由與人工智能相關(guān)的主體承擔,在被侵權(quán)人和相關(guān)主題之間多增設(shè)一個無生命的實體不具有必要性[4]。
持否定立場的學者大多認為機器人為權(quán)利客體,不具有法律上的人格,人工智能終究只是人類的工具,為法律關(guān)系的客體。
王利明教授認為,智能機器人本質(zhì)上由其自身算法決定,尚不具備人類所具有的自主思考的意識和能力,尚不能獨立享有權(quán)利、承擔義務(wù)。在一定時期內(nèi),既有的法律制度和規(guī)則體系仍可有效解決智能機器人所帶來的挑戰(zhàn),目前人工智能機器人還不能也沒有必要成為民事主體。
吳漢東教授認為,機器人不是具有生命的自然人,也區(qū)別于具有自己獨立意志并作為自然人集合體的法人,不能將其作為擬制之人享有法律主體資格。機器人是受民事主體控制的,不足以取得獨立的主體地位[5]。
楊立新教授認為,即使智能機器人的人工智能再高端,其智慧再發(fā)達,也不具有民事主體的人格。其將人工智能機器人的民法地位定位為人工類人格,即指智能機器人所享有的,通過人工制造的,類似于或者接近于自然人的自然人格的民事法律地位。但否認人工類人格為法律人格,對其仍然界定為民法客體,機器人仍作為物存在,但劃清智能機器人與其他物的區(qū)別,認為智能機器人處在最高的物格地位。
解正山認為,機器人與人具有本質(zhì)差異,它們不可能成為“理性的人”,機器智能是一種演繹智慧,只是對數(shù)據(jù)進行無理性、無情感的枯燥處理,不過是對人類某些認知行為的模擬,機器人終究只是作為“工具”而存在。法律人格與法律權(quán)利的基礎(chǔ)更多在于人性而非認知能力。機器人履行義務(wù)和承擔責任具有非現(xiàn)實性[6]。
房紹坤認為,人工智能缺乏作為自然人的自我意識、理性和道德感,缺乏人類之“靈性”,沒有需要保護的倫理價值,其本質(zhì)上只是一臺機器,不能取得與人類平等的民事主體地位。
石冠彬認為,人工智能獲得主體資格地位并無理論障礙,在理論上和實踐上均具有可行性,但人工智能獲得主體資格并非解決現(xiàn)實問題的唯一途徑,因為目前尚未達到必須構(gòu)建的迫切程度,解決人工智能著作權(quán)保護問題和自動駕駛汽車的侵權(quán)責任均可以用其他路徑予以解決。
鄭戈認為,機器人無論以何種方式承擔責任,最終承擔責任的始終是機器人的“主人”,因為機器人不可能有獨立的收入,無論以何種方式承擔責任,最終的責任承擔者都是人,賦予機器人以法律人格這一簡單擬人化模式缺乏相應(yīng)法律能力和法律責任分配機制,是不可行的[7]。
馮潔認為,從法理論的角度,成為法律主體意味著規(guī)范條件和事實條件兩個條件的統(tǒng)一,前者為享有權(quán)利和履行義務(wù)的法律資格,后者為享有權(quán)利和履行義務(wù)的法律資格。人工智能不符合法律主體的事實條件和規(guī)范條件,無法成為法律主體。
趙萬一認為,機器人的特性不足以構(gòu)成賦予其民事主體地位的理由。因為機器人就其生成機理來說不可能產(chǎn)生生命和生命權(quán),也不具有自然人那樣的個體差異性,不具有自然人所具有的道德、良心、良知、倫理、宗教、規(guī)矩和習慣,機器人無法實現(xiàn)與自然的和諧相處,也無法在與自然的相處中實現(xiàn)對自然界的改造的目的。
綜上,持否定說的學者大多數(shù)都指出機器人與人之間的差別,認為人工智能體成為法律主體還具有差距,通過分析機器人的意思能力,認為機器人沒有自我意志,只能作為人的工具,即法律上的物而存在,不符合成為法律人格的條件[8]。
3.2.1 人工智能體不具有獨立的意志。持此觀點的學者認為,人工智能不具有獨立的意志,只是為人類利用的工具,是人類能力在某方面的延伸,是能被人所完全控制的,人工智能所具有算法和學習能力不能表現(xiàn)為獨立的意志,而只是一種數(shù)字化的表達。人工智能不能成為目的,而只是方式。人造機器沒有自身的目的,其工作目的非常特定,且為人類設(shè)計者所設(shè)計。機器人生成的目的行為,與人類有目的、有意識的行為性質(zhì)完全不同,也區(qū)別于具有自己獨立意志并作為自然人集合體的法人。人工智能是為人所利用的智能化的機器,其所表現(xiàn)出來的智能化的成果不能視為獨立的意志的表達,不是具有獨立意志的法律主體[9]。
3.2.2 人工智能無法享有權(quán)利和承擔義務(wù)。在成為主體的條件方面,就現(xiàn)階段而言,人工智能無法享有權(quán)利和承擔義務(wù),而且也無法得到法律的確認。解正山認為,機器人不可能成為權(quán)利主體,機器人履行義務(wù)或承擔責任也具有非現(xiàn)實性。因為機器人和“人”具有本質(zhì)差異,它們不可能成為“理性的人”。機器人無法類比法人主體地位和動物權(quán)利來獲得權(quán)利,因為其本質(zhì)上存在差異。而且賦予機器人擬制性的且利他的權(quán)利或不現(xiàn)實或多余,沒有必要把產(chǎn)品意義上的機動性上升到權(quán)利的高度,賦予救濟的權(quán)利完全可以給予其所有者或使用人。給機器人設(shè)立獨立的財產(chǎn)使其獨立的履行義務(wù)和承擔責任從生產(chǎn)者或用戶的角度看也是不現(xiàn)實的。機器人并不具備享有權(quán)利和履行義務(wù)的意志能力,也不應(yīng)當擁有享有權(quán)利和履行義務(wù)的法律資格。人工智能無法享有權(quán)利和履行義務(wù),其不能理解法律上的權(quán)利與義務(wù),其意志水平?jīng)Q定了其無法遵守法律。有關(guān)于人工智能的權(quán)利與義務(wù)不具有現(xiàn)實性和可行性,完全可由其生產(chǎn)者、制造者承擔[10]。
3.2.3 人工智能不具有自然人主體的特質(zhì)。持否定論觀點的學者,大多否定機器人的人性,主張其不具有法律人格。霍斯特·艾丹米勒教授認為,法律能力或者人格是與人類相關(guān)聯(lián)的,賦予機器人法律人格會使世界非人化,我們應(yīng)該避免持有這種態(tài)度。房紹坤教授指出,人工智能與具有法律人格的自然人沒有共通性,缺乏價值判斷力和道德感。缺乏自然人屬性的人工智能體,即使表現(xiàn)出一定的智能,非自然性也決定了是人類利用的工具。張力教授認為,智能機器人取得人格具有推導謬誤,混淆了自動化科學中的工具“自動化決策”和人類主體的本質(zhì)區(qū)別,混淆了人之主體能力的本質(zhì)與為人所創(chuàng)造工具的工作能力表象之間的區(qū)別。因為人工智能與自然人主體之間存在本質(zhì)差別,其自主學習能力和自然人意識表達不同,人工智能沒有理性道德、情感、判斷力、邏輯、倫理觀念等自然人意識特有的內(nèi)容,其不能成為法律主體[11]。
3.2.4 把人工智能作為主體不具有必要性。目前仍處于弱人工智能時代,強人工智能的發(fā)展停滯不前,賦予人工智能主體地位沒有必要性。有些學者認為從立法層面上來說,當前的法律制度尚可以解決目前出現(xiàn)的問題,將人工智能作為主體不具有立法上的必要性和緊迫性,應(yīng)該在現(xiàn)有的法律制度中尋求解決人工智能相關(guān)問題的路徑。目前在人工智能領(lǐng)域出現(xiàn)的法律問題主要集中在人工智能創(chuàng)作物的著作權(quán)歸屬問題以及人工智能物侵權(quán)的問題上,在其他方面還未涉及,現(xiàn)行法律制度可以對其進行調(diào)整。房紹坤認為,人工智能創(chuàng)作的作品實際上為人工智能體的孳息,該著作權(quán)應(yīng)歸屬于人工智能體的所有人。在處理人工智能致害責任時,應(yīng)以產(chǎn)品責任為原則,追究銷售者和制造者的責任,在系統(tǒng)存在問題的情況下,責任承擔人可以追究軟件制造者和銷售者的責任。石冠彬認為,不賦予人工智能以民事主體資格,不影響其創(chuàng)作物受到著作權(quán)法等知識產(chǎn)權(quán)法律的保護,在自動駕駛汽車的侵權(quán)責任上,不論是產(chǎn)品責任還是自動駕駛汽車專項保險制度的引入,都可以解決侵權(quán)責任的問題,賦予人工智能民事法律資格并非唯一的路徑。將人工智能作為法律主體在立法技術(shù)具有困難,將引發(fā)巨大的法律變革,將打破現(xiàn)行以自然人和法人為民事主體的制度。無論是在立法上,法律的應(yīng)用上還是社會觀念的轉(zhuǎn)變上,都會存在巨大的沖擊和困難。在人工智能未發(fā)展至強人工智能智能普遍應(yīng)用的階段時,運用現(xiàn)行的法律制度仍可以解決人工智能帶來的法律問題,將其作為民事主體不具有必要性[12]。
在對于人工智能法律地位的討論上,筆者支持否定觀的觀點,目前人工智能無法成為法律關(guān)系的主體。筆者認為,以人工智能不具有人性而主張其不具有主體資格的觀點有待商榷。我們在討論機器人是否能否成為法律主體時,應(yīng)該看待其是否具有相應(yīng)的權(quán)利能力,即享有權(quán)利和承擔義務(wù)的法律資格。法律意義上的人格以權(quán)利能力的享有為標志,享有權(quán)利能力也就意味著具有私法主體地位。德國學界一般將權(quán)利能力定義為:成為權(quán)利與義務(wù)承受者的能力。法律人格與口語中的“人”的意思不同,其沒有關(guān)于道德上的主張,這個術(shù)語本身也不需要任何的知覺和生命力。成為法律上的人是有能力在既定的法律系統(tǒng)內(nèi)享有權(quán)利和承擔義務(wù),比如說訂立合同,擁有財產(chǎn)和被訴的權(quán)利。不同于自然實體,特殊的權(quán)利義務(wù)伴隨著法律上的人格。法律人格的確立是由立法或司法機構(gòu)作出的評估,目的是賦予一個實體權(quán)利和義務(wù),而無論該實體外觀如何,是不是真正的人類。“人格”作為一個法律概念時,并非來自于主體的人性,而是來自于主體的權(quán)利義務(wù)歸屬。確立一個是否能成為法律上的人很大程度上取決于具體情況,不一定是一致的標準。故在討論機器人是否具有法律人格時,不應(yīng)將法律上的人格概念與哲學上的人格概念混淆,過分對比機器人和自然人在各個方面上的差別,對人的哲學屬性做過多思考而強調(diào)因智能機器人不具有人性而不具有法律人格。關(guān)于人本身的自然屬性以及哲學概念,并非是機器人擁有法律人格的必要條件。自然人的主體性的概念,與法律主體和法律人格的概念并不相同,不能混為一談。如果以主體的人性作為法律人格的基礎(chǔ),那么法人的法律人格將無存在的基礎(chǔ)。法律人格的創(chuàng)設(shè)是基于其享有法律上的權(quán)利和承擔法律上的義務(wù),目前智能機器人還不具備自我意識,無法成為權(quán)利與義務(wù)的承擔者,也沒有成為法律主體的必要性,筆者認為否定的觀點更為合理[13-17]。
現(xiàn)如今立法對于機器人的法律人格仍沒有明確規(guī)定,但不斷發(fā)展的人工智能技術(shù)和現(xiàn)實中不斷涌現(xiàn)的機器人權(quán)利義務(wù)和責任承擔的問題使得機器人的立法成為迫切需要。本文討論了我國關(guān)于機器人法律人格創(chuàng)設(shè)的主要觀點,分析了國內(nèi)目前主要的已有研究的對此問題的觀點。人工智能法律主體問題是法學研究領(lǐng)域探索未來法治道路的前提問題,筆者認為在現(xiàn)如今的發(fā)展階段還不宜將人工智能作為主體看待,還不具有相應(yīng)的必要性。法學研究也應(yīng)該在不斷發(fā)展的科技熱潮中保持一份清醒和理智,不必夸大人工智能的作用,站在實際立場上解決不斷涌現(xiàn)的人工智能問題。