劉昱麟
【內容摘要】人工智能作為一種新興技術,在交通、醫療、互聯網、金融和管理等領域的應用效果顯著,大大提高了工作效率,從而激發了各界的濃厚興趣。但隨著人工智能在社會實踐應用的不斷深入與發展,面臨的問題也日益突出。必要的法律規制對人工智能而言,具有重大意義。而在采取具體的法律應對措施之前,一個重要的問題應當優先被解決,即:人工智能載體(簡稱“機器人”)是否能夠具備獨立的法律人格?這個問題直接決定了責任的承擔主體。
【關 鍵 詞】人工智能;法律主體地位;法律擬制
中圖分類號:D922.17 文獻標識碼:A 文章編號:2095-4379-(2020)02-0083-02
一、人工智能概述
人工智能(Artificial Intelligence),英文縮寫為AI。它是以人為核心而展開的,通過模擬人的學習方式教會自身理論、技術、方法以及實際應用的科學技術。對于人工智能技術的研究,科學家們主要是通過模擬人腦的思維、運行、邏輯,從而使用機器擁有自主學習能力,該研發對于提高人類社會實踐效率具有創新意義,人工智能的產生,成為了一門新的研究課題。
人工智能一詞,于20世紀50年代被首次提及,其發展過程跌宕起伏,期間也沉寂數十年余年,但隨著科技革命與交叉學科的出現,人工智能的研究自20世紀90年代初,進入全新時期。迄今為止,人工智能作為一種新興技術,在交通、醫療、互聯網、金融和管理等領域的應用效果顯著,大大提高了工作效率,從而激發了各界的濃厚興趣。但隨著人工智能在社會實踐應用的不斷深入與發展,面臨的問題也日益突出。那么,對于完善人工智能的發展與應用,需要有完備的法律來加以規范。
二、人工智能的國外研究狀況
20世紀40年代,美國科幻文學巨擘阿西莫夫在小說《我,機器人》里提出的“機器人三定律”。學者們建議以此為機器人的研發制定原則,相當于“機器人的基本法律”,以防止出現危害后果。學界對于討論阿西莫夫三定律,往往隱含一個前提:出發點還是把機器當做人類的仆人、工具。
2016年9月,Amazon、Facebook、Google、DeepMind、Microsoft和IBM等幾家環球公司,為了進一步研究與發展人工智能技術,共同創設了Partnership on AI。其目的在于促進公眾對人工智能的理解,將該項目作為一個對外平臺,通過交流不斷明確人工智能對國家、社會、個人等方面的影響。
2017年2月,歐盟議會通過決議,賦予智能化自主機器人以“電子人格”;同年10月,沙特授予中國香港的漢森機器人技術公司(Hanson Robotics)生產的“女性”機器人索菲亞公民身份。
關于AI的規則制定,從國家的層面進行分析,狀況不容樂觀。有些國家為機器人與人工智能的發展與應用,已經制定了相應規則,但大多數國家在此方面依舊存在空白。
雖然,人工智能技術能夠造福人類社會,但其存在的風險,我們仍然不能忽視。西方國家的實踐中,存在多起與機器人有關的致命事故。
2015年6月29日,在德國的法蘭克福汽車工廠里,一位22歲的工人因機器人“工友”的錯誤程序身亡。
2000年—2013年,美國的外科手術機器人至少造成了144起死亡與1391起傷害事故。基于此,有學者指出,必要的法律規制對人工智能而言,具有重大意義。而在采取具體的法律應對措施之前,一個重要的問題應當優先被解決,即:人工智能是否能夠具備獨立的法律人格?這個問題直接決定了責任的承擔主體。
美國學者瑞安·卡曼(Ryan Calo)認為,應當設立機器人法,來規范人工智能。而杰克·巴爾金(Jack M.Balkin)教授認為,在特定的時刻,凍結人工智能技術的某些使用特征,并將其記錄為“必要的”也許沒有益處。
三、人工智能的國內研究現狀
隨著計算機革命與互聯網行業的飛速發展,以及國家政策支持之下,我國人工智能近年來發展迅速。同時,國內學者針對該技術可能存在的問題,也在不同方面開始著手研究。對人工智能的法律人格問題研究學界持有不同觀點,大體可分為三類:肯定說、否定說、折衷說。肯定說認為應當賦予人工智能體以獨立的法律人格;否定說主張機器人不能被認為是獨立的人,同時也不同于法人,因而不能取得獨立主體地位;折衷說認為,從邏輯分析角度看,人工智能體的地位已經超越了物的概念,但從工具角度分析,人工智能依然未能擺脫為人類服務的“工具”價值,所以它不是物也不是人。
(一)肯定說
馮象教授認為:“機器人或許會通過深度學習后建立起自身文明路徑,成為新物種。”吳漢東教授認為:“機器人不是自然人本身,但是為自然人所創造和設計的,2016歐盟委員會的法律委員會提出建議,授予高水平的智能機器人以電子人的主體資格,進行身份登記,注冊財產帳號,確保其他法律主體的利益受保護的前提下,人工智能系統可以成為的獨立法律主體。并且像人一樣、繳費、納稅、領取養老金。這就與我們自然人一樣,擁有了同等的主體地位。就此而言,賦予這種機器人載體具有獨立主體地位,在未來應該有可能成為現實。”
(二)否定說
彭誠信教授認為,“依據現行法律,有些人工智可能會被認為客體。對于特定人工智能的保護,可以通過民法總則128條來解決。”范忠信與羅思榮教授認為“如果在自然人與個人聯合體這兩種主體之外,增加一類擬制主體,對于現行秩序會造成一定的混亂。”馮潔教授認為:“人類創造了機器人,機器人歸根結底只能被認為是人類的工具。”馮玨博士在《經濟參考報》中發表觀點認為:“人工智能目前為止并不能成為法律上的人。”她通過民法學角度進行分析,有權利能力才能成為法律認可的“人”。
(三)折衷說
中國工程院院士封錫盛認為,機器人也具有某種人的屬性,可以作為其他人看待,基于此,賦予其相應的權利應當得到承認。吳習彧教授認為,僅為了解釋人工智能行為的效力而主張賦予其法律人格沒有必要。該問題的核心在于,我們應該如何控制并合理分配人工智能技術所帶來的不可預測性風險,簡單地為人工智能披上一件“皇帝新衣”式的法律人格并不具有現實意義。
四、基于現行法律探討人工智能法律主體地位
我國《民法總則》、《公司法》等法律規定明確規定:只有自然人、法人、非法人組織享有獨立法律人格。因此,權利能力是一個法律主體的必備因素。人工智能主體是否能成為獨立法律主體,我們需要進一步分析人工智能系統的權利能力和行為能力。
針對目前的人工智能,使其通過深度學習,在此基礎上的人工智能系統依據思維邏輯進行判定,從而做出相應行為。筆者認為,當人工智能具有該獨立行為時,應當認定其具有法律主體資格。就人類社會而言,人工智能的開發,目的在于提高人類的生活質量與工作效率,就目前而言,人工智能仍然需要機器載體。而情感電路的設計又十分復雜,對于情感電路的研究,目前仍沒有具體解決方案。況且,人工智能設計的初衷就是服務于人類。
由此可知,自然人與人工智能在法律地位上并不平等,人工智能的法律主體地位不得高于自然人。就法人而言,參照法人制度,人工智能如果擬制成為獨立的法律主體,其已經具備了法律主體所必需的要素,如果人工智能系統能夠基于此,與其他法律主體的互動而被賦予法律擬制人格,那么對其權利和利益的維護,需要明確界定人工智能系統的法律地位。
五、結語
對人工智能賦予法律意義上的主體地位,是社會法治化發展的必然要求。筆者認為,為了解決人工智能引發的法律問題,促進人工智能與人類之間的平衡,賦予人工智能法律的擬制人格勢在必行。采取注冊登記制度,規范人工智能的法律行為,無論是從民事角度,還是刑事角度而言,讓人工智能能夠成為承擔責任的主體。因此,我們應當盡快將人工智能的法律人格擬制寫入法典,使人類對于人工智能的利用,更加安全、穩定。
參考文獻:
[1]馮潔.人工智能體法律主體地位的法理反思[J].東方法學,2019.6.
[2]李愛軍.人工智能法律行為論[J].政法論壇,2019.5.
[4]馮象.我是阿爾法——論人機倫理[J].文化縱橫,2017.12.
[5]楊立新.用現行民法規則解決人工智能法律調整問題的嘗試[J].第十五屆“法官與學者對話”論壇暨第四屆亞太民法學術研討會論文集[M].人民法院出版社,2018,7:2.
[6]王利明.人工智能對民法的挑戰[J].中國城市報,2017-9-11.
[7]吳漢東.人工智能時代的制度安排與法律規制[J].法律科學(西北政法大學學報),2017,35(05):128-136.
[8]封錫盛.機器人不是人,是機器,但須當人看[J].科學與社會,2015(2).
[9]吳習彧.論人工智能的法律主體資格[J].浙江社會科學,2018(6).
[10]StuartRussell,Peter Norvig.人工智能——一種現代方法[M].姜哲,金奕江,等譯.北京:人民郵電出版社,2004.