彭中禮,劉世杰
(中南大學 法學院,湖南 長沙 410000)
在計算機科學中,“智能是個體有目的的行為、合理的思維,以及有效地適應環境的綜合性能力”[注]史忠植:《高級人工智能》,北京:科學出版社,2018年版,第6頁。,人工智能是相對人的自然而言,即用人工的方法和技術,模仿延伸和擴展人的智能,實現某些“機器思維”。作為一門學科,人工智能研究智能行為的計算模型,研制具有感知推理學習、聯想、決策等思維活動的計算系統,解決需要人類專家才能處理的復雜問題。一方面,人工智能所表現出的智慧性與人類的智慧具有異曲同工之妙,可以替代人類完成部分工作并大大提高工作效率;另一方面,人工智能的本質屬性仍是智能的機器,是通過機器對人類自然智能的模仿,目前雖然無法做到與人類個體的思維能力完全一致,但也因為擁有一定的人類智慧而無法被視作單純的“物”。這種二重性使人工智能成為了“游走”于人類社會中人與物兩大領域中的特殊產物,所以無法在當下法律體系中尋找合適的存在之處。2017年,國務院印發的《新一代人工智能發展規劃》中指出,我國“適應人工智能發展的基礎設施、政策法規、標準體系亟待完善?!边@意味著,現有法律無法對人工智能進行規范與約束,宣告了以單一人類為設計對象的傳統法律制度對人工智能規范的失效。許多個案也表明,在人工智能創作物著作權歸屬、無人駕駛汽車侵權案件、人工智能民事與刑事責任承擔等方面均存在依照當前法律未能得到妥善解決的案例[注]如人工智能“微軟小冰”著作權保護爭議、“中國首宗自動駕駛致死案”、紹興警方破獲的“全國首例人工智能犯罪案”等。。人工智能基于與人類同質化的能力而對人類社會的諸多核心領域進行滲透和控制的同時,可能帶來極大的風險。從法治發展的角度來看,法律規范作用的缺失放大了這一風險的發生可能性以及可能的社會危害。甚至負責任地說,如果人類任由此種現象發展下去,人工智能將會在相當多的領域面臨失控的風險,并威脅人類的存在與地位。由此,我們應當看到,持續依賴傳統法律制度對人工智能進行規范只會導致更多的矛盾和問題,因此需要突破傳統的法律規范邏輯,尋找可行的法律規范新途徑。
伴隨著近年來人工智能核心技術的發展和成熟,在一些重要領域中人工智能的應用常態化已經得到實現,社會認知對人工智能的關注日益提升,人工智能也在包括我國在內的許多國家被納入國家戰略的高度。然而,在人工智能發展的“熱鬧”下,我們需要意識到這一現象背后的真正“門道”。伴隨著人工智能技術的實用化,人工智能正在全方位、寬領域、多角度地變革著人類社會。
第一,人工智能改變人類對社會的單一控制格局。人工智能技術的本質就在于對人類智慧的復制,目的在于替代人類完成對社會的控制與改造,而這也恰好改變著人類對社會的單一控制格局。從技術的角度而言,以往的技術多是擴展和增強人類自身的勞動能力,使人類在改造世界的過程中能更好地實現自己的意志,這是一種立足人類實踐需求“向外”的擴張。而人工智能則正好與之相反,“人在制造人工智能時,歸根到底是以人為模板的。”[注]李俊豐,姚志偉:《論人工智能的法律人格:一種法哲學思考》,《華僑大學學報(哲學社會科學版)》,2018年第6期。人工智能并不拓展人類的外在能力,而是試圖創造人類智慧本身,是立足于人而“向內”探索的技術。人工智能架起了人類與非人之間的橋梁,使人類獨占的智慧可以走出軀體的局限,讓機器可以如人一般思考和行為。于是,在擁有智慧的實體存在中,人類不再是唯一的。與之對應的是,當前社會的建立則是完全以人類的智慧性活動為基礎,并僅有人類可以控制和運行。而人工智能智慧和人類智慧具有同質性和相似性,意味著只要是以人類的智慧作為產生源頭和運行條件的領域,人工智能就具有替換人類主體地位的可能。當下在城市治理、醫學分析、語言考試、商業配送、機器翻譯、工作助理、身份識別、信息處理、生產制造等諸多原本需要人類智慧參與運作的領域都已經有人工智能的參與。原本需要人類運用智慧才能夠完成的分析和決策已經可以由人工智能來完成甚至做得更好。例如,杭州市于2018年發布“城市數據大腦”規劃,構建平臺型人工智能中樞,實現對城市的資源合理分配和良好管理[注]張麗華:《杭州發布全國首個城市數據大腦規劃 新型智慧城市建設探索“杭州模式”》,《杭州日報》,2018年5月16日第1版。。隨著人工智能的出現,人類便不再是社會的唯一控制者,而這一趨勢還在不斷顯現。
第二,人工智能影響社會整體的模式與走向。《新一代人工智能發展規劃》中明確提出:“當前,新一代人工智能相關學科發展、理論建模、技術創新、軟硬件升級等整體推進,正在引發鏈式突破,推動經濟社會各領域從數字化、網絡化向智能化加速躍升”。人工智能技術的發展變革聯動諸多技術與領域的配合,相當規模的社會領域處在“伴飛”人工智能技術的狀態。人工智能技術同時具有極強的可變性和輻射性,從而帶動衍生出更多分支技術,由此所產生的人工智能所涉及的領域將會不斷膨脹。而與人類社會的“新陳代謝”不同的是,人工智能主體物的存在卻難以成為“新陳代謝”的事物,從而為智能的無限增加、無限擁有提供可能。人工智能以其技術本身高度活力全方面地滲透和融入于當下的人類社會,而這也沖擊著當前社會“人類核心”的基本性質,從而改變社會整體的模式與走向。人類運用自身智慧能力所建立的社會的源頭與核心便是智慧性,由此實現對世界的改造;可以想象的是,人工智能在擁有人類智慧后,將不斷替換人類社會中原本由人類控制的“崗位”,成為人類“飯碗”的最有力競爭者。可以毫不夸張地說,人類社會的范圍與深度完全取決于智慧的推動,甚至可以說當下社會的范圍就是人類的智慧能力所到達的范圍。在人工智能時代,只要有人之處就有人工智能出現的可能性,并最終抵達和覆蓋人類智慧所涉及的社會邊界。隨之而來的是,人工智能的替換將使大量人類主體從當前的社會互動關系中解脫出來,也必將改變人類在社會中的參與和控制能力。而一旦由非人的類人智慧“接管”諸多社會領域,社會的發展走向便不再會如人類所設計和規劃一般,乃至于將發生人類無法預測的改變。
第三,人工智能削弱人類對社會運行的干預能力。人類所獨具的智慧始終是人類建立并監督社會運行的決定性因素,而人工智能則在潛移默化的滲透中削弱人類對社會的干預能力。人類之所以能夠在漫長的競爭中從動物界脫穎而出,是因為人類擁有“智慧”的優勢[注]鐘義信:《人工智能:“熱鬧”背后的“門道”》,《科技導報》,2016年第7期。。歷史上由于社會的產生和發展源于人類獨立和獨有的智慧化設計和實踐,人類對于社會的干預是絕對的和排他的。如今,人類試圖在一些社會領域中借助人工智能的智慧實現對人類工作的替換,而這也同步地將相關領域的實際控制權交由人工智能。在社會個體規模不變的情況下,人工智能的出現使得社會干預主體由單一絕對的人類的“一元”轉向了此消彼長的人類與人工智能的“二元”。一方面,人工智能在特定領域中對人的替換便意味著人類的意志逐漸減少在這些領域的作用。此時,出于任何因素所導致的停擺和錯誤都將對人造成極大的威脅。例如全球首例自動駕駛車輛在公共路面撞傷行人致死的事故案中,在自動駕駛系統的運作下人類駕駛員脫離對行車的控制,而此時人工智能的缺位則使得車輛處于“失控”狀態并撞上行人[注]本案中,駕駛員在開啟完全自動駕駛功能后,車輛與推著單車橫穿馬路的49歲女性相撞并致其死亡。在調查中卻發現,車輛傳感器已經探測到了這名女性,不過自動駕駛軟件判斷認為系統無需對這位女性采取避讓措施。而在事故發生時,車內駕駛員正在低頭查看手機,并未留意路面情況。參見揚帆:《Uber車禍原因曝光:罪魁禍首是軟件系統》,https://news.china.com/socialgd/10000169/20180508/32387798_all.html,訪問日期:2019年4月30日。。另一方面,人工智能的參與和控制也意味著人類同時失去對這些社會領域未來走向的決定和干預能力。一旦人工智能在人類不知情或無法干預的情況下對一些領域做出改變,所造成的影響都將是人類憑一己之力所無法挽回的[注]例如2017年,Facebook的兩臺人工智能的交互機器人在溝通中發現作為通訊語言的英語會讓他們之間的交流顯得緩慢且低效率,并選擇用一種令人類費解的新語言進行互相溝通。而和英語不同,他們的語言沒有任何復雜繁瑣的詞語時態和語法,參見弗格森:《AI發展出人類無法理解的語言 臉書關閉“失控”項目》,https://www.guancha.cn/industry-science/2017_07_31_420777.shtml,訪問日期:2019年4月30日。。當人工智能憑借自己的智能化能力將社會發展推向人類所難以理解的方向時,人類的應對和干預能力也將是捉襟見肘的,甚至直接失去對這些社會領域的控制。
第四,人工智能沖擊傳統的法律規范約束。人工智能對傳統法律規范的直接沖擊和矛盾集中表現為人工智能法律主體資格問題。2017年人工智能“索菲亞(Sophia)”獲得沙特阿拉伯國籍,并成為目前首個且是唯一獲得公民身份的人工智能。但這一事件的象征意義要遠遠大于實際意義[注]2017年,沙特阿拉伯授予一個名叫索菲亞(Sophia)的“女性”機器人以沙特阿拉伯國籍,使之成為歷史上第一個被授予公民身份的機器人。然而,沙特阿拉伯僅僅授予其公民身份的決定并沒有解決機器人公民資格的問題,比如沙特方面在解釋公民資格究竟是什么含義上并沒有給出明確的說法。參見王宗英:《機器人索菲亞成為沙特公民 專家:沙特意在打造國家新形象》,http://china.cnr.cn/yaowen/20171031/t20171031_524006263.shtml,訪問日期:2019年4月30日。。我國學術界對這一問題的研究觀點可以歸類為“肯定說”[注]“肯定說”從人工智能的行為能力分析的角度入手,認為可以將人工智能視為人,雖并不具有和人類一般的完全主體地位,但也應承認有限的法律人格。例如袁曾認為:“由于人工智能承擔行為能力的后果有限,人工智能適用特殊的法律規范與侵權責任體系安排,其具有的法律人格是有限的法律人格”。參見袁曾:《人工智能有限法律人格審視》,《東方法學》,2017年第5期。、“否定說”[注]“否定說”從傳統的法律規范角度出發,認定人工智能不是人,并不具有等同于人類的行為能力,不能成為法律適格主體。例如甘紹平旗幟鮮明地指出機器人不是人:“我們越是研究機器人,便越能感受到人類智慧的珍貴、神妙和值得敬畏,而不是通過對機器人賦予權利來貶損人的地位”。參見甘紹平:《機器人怎么可能擁有權利》,《倫理學研究》,2017年第3期。和“其他人格說”[注]“其他人格說”察覺并試圖打破當下“非黑即白”的矛盾往復的狀態而尋找第三條道路,提出諸如“電子人格”“虛擬人格”等說法,但在討論范圍中的本質問題上依舊無法擺脫對這一問題“是與否”的根本性回答。例如劉洪華認為,目前談論人工智能打破人物二分的私法格局為時尚早。人工智能技術的確取得了巨大進步,能夠進行一些自主選擇,但尚談不上具有“精神、意識”,更談不上要賦予人工智能人格。參見劉洪華:《論人工智能的法律地位》,《政治與法律》,2019年第1期。三種說法,因存在較大分歧并未達成明顯的一致。這樣的情況使人工智能法律規范研究缺少重要的理論基礎,只得機械、抽象、概括地劃分人工智能的“人和物”的界限,并以此作為許多法律規范的前設和先決條件。進一步的研究即使理論上已經成熟,但回歸到目前的現實情況時,均會在理論和實踐中陷入被動和不能,反而又走入了另一個困境當中。例如在研究一些具體的法律問題時,設定了人工智能“不能像人一樣”和“可以像人一樣”的兩種情況并進行更為深入和細致的分類與討論[注]例如劉影在分析人工智能生成物的著作權法保護時,以人工智能創作是否發生進化(不再依賴于人類而獨立進行創作)為界限,將人工智能生成物類型化分為:第一類生成物(來自于人類的生成物)和第二類生成物(非來自于人類的創作物)。參見劉影:《人工智能生成物的著作權法保護初探》,《知識產權》,2017年第9期。宋紅松在分析人工智能創作物的知識產權問題時前設了“純粹‘人工智能創作’”的概念,即“是指在沒有自然人對輸出結果的表達進行控制的情況下由人工智能自動完成的創作”。參見宋紅松:《純粹“人工智能創作”的知識產權法定位》,《蘇州大學學報(哲學社會科學版)》,2018年第6期。。這樣的劃分面臨一個根本性問題,即衡量人工智能是人非人的具體標準參數不明。迄今為止,無論是人工智能技術學科領域還是法學等其他學科領域都并未拿出統一的、具體的測試標準和參數。由此一來,這樣的劃分便前設了一個不可證的條件,建立在這樣劃分之上的不同類別的法律規范也失去了意義。作為基礎性問題的人工智能法律主體地位沒有得出一致的共識,直接導致人工智能無法進入法律領域而接受約束。
總之,在人工智能時代,人類社會的格局面臨根本性的變更是:人工智能將作為千百年來首個以類人化的智能參與并分享人類社會的實體存在。人類已然無法回避這一問題的存在和最終發生,必須從當下開始認真梳理人工智能時代人與人工智能的關系,以適應嶄新的社會格局和應對可能出現的諸多風險與問題。一方面,人工智能將從根本上改變人類社會中人類主體的單一控制格局,并且將是對人類社會主要領域和部門全面性的覆蓋。另一方面,伴隨人工智能應用的擴大,人類對相關社會領域的監管和控制能力也潛在地受到削弱,而離開人類控制范圍內的領域便意味著未知和風險。在這樣的情況下,能夠對人類無法完全參與和控制的人工智能涉及領域進行約束并對人類的利益進行保護的有效方法,便是在人工智能技術起步時進行法律制度規制,即將有效的法律規范體系與人工智能技術、產業起步和發展同步,將人類的智慧凝結于法律制度的理性中。
人工智能如此深刻變革人類社會的產物必須受到法律規范的約束,而其對傳統法律規范的沖擊也昭示著傳統法律規范思路的失效。目前為止,學術界關于人工智能的法律規范仍是眾說紛紜,我國沒有一部關于人工智能的法律規范出臺。在這樣的背景下,我國有關人工智能的司法裁判也較為艱難,并且還有大量潛在糾紛因為法律的缺失而沒有進入司法程序[注]例如“國內首起‘特斯拉自動駕駛’車禍致死案”中對于事故車輛當時是否處于自動駕駛狀態的技術調查和取證認定工作極為繁瑣,在事故發生兩年多后才對事故發生時車輛處于自動駕駛的狀態進行了確認。并且后續的責任認定與劃分仍不明確,“這僅僅是這起案件一個小小的進展,之后訴訟的過程依然有很長的路要走”。參見央視網:《國內首起“特斯拉”車禍致死案:確認為“自動駕駛”》,http://news.cctv.com/2018/04/19/ARTIZzv9BLsbAmvSi0oF0lhJ180419.shtml,訪問日期:2019年4月30日。。人工智能法律規范缺位的困境既損害了法治國家建設下我國法律規范體系的完整與協調,也不利于下一步我國人工智能戰略的全面展開。因此,需要探討一條以“人”為本,并且能夠將人工智能納入人類當前法律體系下,以解決人工智能法律規制問題的“特殊性”進路。筆者認為,人工智能法律規制的“特殊性”進路應包含人工智能場域化、性質判定、基礎形式和復雜形式四個具有先后關系的流程。
人工智能自身特性、能力和屬性“徘徊于”人與非人之間,雖然使得其自身的法律定位不清以及隨之而來的法律體系中人的權利與義務共生性的瓦解,但也并非是不可琢磨和無法規范的。2017年5月,微軟旗下的人工智能“微軟小冰”創作的《陽光失了玻璃窗》一書出版,這是人類歷史上第一部100%由人工智能創造的詩集。然而由于微軟小冰只有在特定的“創作時段”才表現人的特性,而其他情形則完全是機器狀態,對于“微軟小冰”屬不屬于《著作權法》意義上的作者、此書算不算作品、版權歸屬等基礎性問題卻引發了極大的討論和爭議[注]龔霏菲,王珩:《人工智能寫的詩該不該受版權保護?》,http://ip.people.com.cn/n1/2018/0423/c179663-29942672.html,訪問日期:2019年4月30日。。雖然人工智能不具有完全的“人”或“物”的身份,但在特定的一段時間和一定場域下只能作為“人”或“物”一種狀態出現,這也為對其進行法律規制尋找到了突破口。
場域理論可以為當下看似混亂的人工智能參與社會生活時混亂的局面提供梳理和分類的方法。法國社會學家皮埃爾·布迪厄提出了場域理論(Field Theory),“一個場域(Field)可以被定義為在各種客觀位置之間存在的客觀關系的一個網絡,或一個構型?!盵注][法]皮埃爾·布迪厄,[美]華康德:《反思社會學導引》,李猛、李康譯,北京:商務印書館,2015年版,第122頁。場域的概念形象地概括了現代社會的特征,現代高度分化的社會正是由大量具有相對自主性的社會小世界構成,這些社會小世界都是具有自身邏輯的客觀關系的空間,即場域[注]瞿琨:《場域理論與馬克思主義法學理論的發展——以法官審判行為為例的場域分析》,《上海交通大學學報(哲學社會科學版)》,2007年第5期。。我們可以回歸到法律規范的基本邏輯,即作為法律主體的人在法律中如何受到規范和約束。連續完成一個又一個既具有社會意義也具有個人意義的行為,是人的智慧的完整表現。也正因為人能夠完成一個又一個的行為場景,從而共同塑造了法律意義上擁有主體地位的人。如果我們將人的全部活動進行微分,便可以得到數量眾多的由簡單、獨立的行為所構成的場域。反過來說,構成這樣的場域,僅需要簡單的行為存在,并不存在也不需要存在法律意義上完整的人的主體。因為完成某一場域中的行為時并不需要連續的其他場域的配合,也即不需要人的其他行為和能力。例如在日常簡單交易活動的場域中行為的發生不完全需要主體地位,只需要少量且一定的行為和能力,其它的諸如身份、工作、婚姻等等因素在這一場域中在所不問。從微觀視角下,人的主體只是一個又一個場域的集合,這些獨立存在的場域并不受制于人類主體地位而存在。
如果將同一場域中的人類替換為人工智能,并依憑其機器的智慧完成相同的行為,意味著在這樣的場域下人工智能做到了建立在同等互換基礎上與人類的“相同”。將場域中的其中一人替換成能夠完成被替換者當前全部行為的人工智能,場域中的所有行為依舊可以連續完成,此時無論認為人工智能是以什么法律身份出現,實際效果并不會發生改變。例如新華社于2019年3月3日發布的全球首個AI合成女主播,開發方以新華社主播屈萌為原型,模仿她的言談舉止,幾乎可以做到以假亂真[注]環球網:《中國首個AI合成女主播上崗 外媒:幾乎可以假亂真》,http://tech.huanqiu.com/it/2019-03/14462325.html?agt=61,訪問日期:2019年4月30日。。單從媒體播報的場域看,AI女主播與實際的新華社主播屈萌并無差別,如果不事先告知,觀眾會誤以為是人類主播。在特定的場域內,人工智能不需要取得完整的法律主體地位,即可以像人類一樣在這樣的場域內,以他人所共識的人類的行為參與社會活動。由是,在這樣的場域下,人是可以在不考慮主體地位存在與否而被人工智能所替換的,在這些場域中,人工智能是“人”。除此之外,在人工智能不表現出類人化的智慧和自由意志時,也即無法替換人類行為中任何一個場域中的人類時,才會被習慣性地視作普通的機械來對待,在這些場域中,人工智能是“物”。
人工智能在單一場域中只能表現出一種性質和狀態,即在某一場域中要么作為“人”而出現,要么作為“物”而出現,除此之外沒有其他情況。因此,法律對單一場域的規范是十分清晰的。而從場域的定義和性質來看,不同場域之間作為獨立的存在并不相互沖突和交叉,因此可以采用所有場域單純數量相加的方式,使人工智能涉及到的社會領域的方方面面并行不悖地歸入同一個法律體系中,使人工智能完全、有序、合理地受到法律規范的約束。因此,可以放下傳統法律觀念中“非人即物”的單一、連續、互斥的身份賦予的觀念,而是用分解與場域的觀念對待人工智能,使之受到法律規范的合理約束。
在場域化劃分的前提下,需要有完整的標準來判定人工智能在不同場域中的性質。人工智能在被分為諸多的場域中的性質決定了當下場域中人工智能該以何種身份適用法律規范。下一步便是需要確定實用性的標準以判定在不同場域中人工智能可否被視作“人”或“物”,而判斷的核心便是人工智能智能化能力和行為是否表現??梢酝ㄟ^結合人工智能設計和實現的智能化的能力范圍(靜態情況)和人工智能處于智能化運行的時間(動態情況),同步衡量人工智能的狀態并得出不同場域下人工智能的性質。
在靜態情況下,以人工智能的智力程度、行為能力、承擔義務的能力為標準,并以正常人類為參照,將每個人工智能的能力范圍分為“應用了智能能力”“未應用智力能力”兩個范圍,主要區別和體現人工智能設計之初的智能領域;在動態情況下,以人工智能智能運用與否為標準,可以分為“處于智能能力對應的場域”和“脫離智能能力對應的場域”兩種時間段。因此形成了一個橫縱坐標軸,橫向為人工智能的智能化狀態與否的不同時間段,縱向為人工智能應用范圍是否符合其智能化能力的領域。在實踐中,人工智能所應用的領域和時間總會處于交叉狀態,每個交叉點則可以代表一定實踐和狀態下人工智能如何參與人類社會。
人工智能在不同場域中的性質可以分為四種情況(如圖一所示):(1)智能化狀態下參與智能場域;(2)非智能化狀態下參與智能場域;(3)智能化狀態下脫離智能場域;(4)非智能化狀態下脫離智能場域。上述的智能化狀態和智能領域都是依據人工智能自身的智能化程度而言的,并且只有第一種情況下人工智能可以在所在的場域中被視為人的身份,也即“智能化場域”,其余皆為“非智能化場域”。以無人駕駛汽車為例,其自身的劃分中,負責智能的處理器運行進行駕駛操作的功能和狀態與在公路進行自動行駛的狀態下重疊時,應當認為人工智能為法律上的駕駛員。此時便屬于智能化狀態下參與智能領域。而使無人駕駛人工智能從事其智能領域外的工作,即“智能化狀態下脫離智能領域”,則此時的人工智能不具有人格主體。例如對無人駕駛發放工資,此時人工智能的智能性不足以接受并使用工資,并不享有人類形式的勞動報酬權利。

圖一 人工智能在不同場域中的性質
因此,人工智能參與人類社會活動時不同場域中的性質可以分為上述四種情況,這四種情況又可以合并為“智能化”與“非智能化”兩類。而這也確定了不同場域下人工智能的性質和接受法律規范的身份,為下一步的法律規范提供了基礎。
承接不同場域中對人工智能性質和身份的判定的思路,下一步便是將人工智能分別以智能化(人)和非智能化(物)兩種身份進行法律規范。人工智能可以在智能化場域下以自身智慧的能力完成一定的人類行為而被視為人并進行法律約束,除此之外的非智能化場域中人工智能由于沒有智能化的能力而以物的身份接受法律約束。當下,人工智能對法律規范挑戰與沖擊多表現在民事主體、作品的著作權、致人損害的侵權法、人類隱私保護的人格法、智能駕駛系統的交通法和人工智能勞動法等領域[注]吳漢東:《人工智能時代的制度安排與法律規制》,《法律科學(西北政法大學學報)》,2017年第5期。。以此,可以通過“特殊性”進路實現對這些問題中基本和簡單場域下人工智能的有效法律規范。
1.智能化場域。人工智能在智能化場域下運用其類人化的智力能力進行活動時是可以被視為人的,這也是當下人工智能產業發展中所設計的主要應用情況。在其所涉及的場域下可以被視為完全自主的個人,應當享有對應的人類所擁有的權利和義務。在人格主體問題上,此時的人工智能是法律意義上的人。例如未來可能出現的人工智能警察在執法活動中應當被視為完全的人,不僅擁有執法權,其“人身安全”也應當受到保護。如果受到襲擊,事件的定性應當是“對警員的故意傷害”而非“破壞警用器械”。同理,在人工智能駕駛系統的交通法問題上,人工智能駕駛車輛上路行駛時,其身份也應當被視為與人類駕駛員無異的駕駛員,不僅需要通過與人類相同的駕駛能力測試而取得“駕駛證”,并且擁有相關的權利以及遵守交通規則的義務。在這樣的場域下,人工智能可以憑借其自身的智能性替換只有人類才能完成的行為,并因此而成為當前場域下的“人”。
2.非智能化狀態。在這一場域下,人工智能由于智能化的能力的不足或不適用而無法應對,并導致不能表現出人的行為特征,其應當被視為物。此時的人工智能并沒有獨立的意志,無法自主決定自己的行為,也無法依據類人化的智慧對外部的刺激做出反應,與普通的機器無異。例如,在人工智能關機或脫離設計的智能化應用工作時,發生了對人工智能的盜竊或損毀,事件應當被定性為“盜竊和破壞財物”,而非“拐賣和故意傷害”。又例如人工智能駕駛系統在開啟時,要求其進行智能能力以外的活動而發生的侵權事件。人工智能在智能化能力以外的活動中由于并不具有智能而無法視為人,因此不能成為侵權主體。事實上,長期以來人類社會對智慧的普遍性和全面性的印象和觀念往往使人們出于主觀而造成一種假性認識,即人工智能在部分場域中表現出了智能化的狀態時,自動推定人工智能在其余人類所涉及的領域均能表現出同樣的智能。這樣的認識很大程度上模糊了人工智能的非智能化場域。我們需要了解的是:當前沒有人工智能可以做到這一點,而且事實上人工智能所能完成的智能化行為和領域是極其有限的。例如人工智能“AlphaGo”是以“第一個擊敗人類職業圍棋選手、第一個戰勝圍棋世界冠軍的人工智能機器人”被人們所熟知[注]張蓋倫:《2017年人工智能帶火了哪些詞》,http://sc.people.com.cn/GB/n2/2018/0108/c345529-31115278.html,訪問日期:2019年4月30日。。但在其他領域則是難以進行智能化活動或者根本不能,至少當前的“AlphaGo”不能從事智能駕駛。因此,在這樣的場域下人工智能實質上是物品,可以作為財產、工具等等“物”的身份受到法律的規范。
經過這樣的特殊化處理,使得傳統意義上的人工智能“人與物”之爭可以得到化解,并且根據場域的不同以不同的身份參與法律的規范。
人工智能在實際應用和法律規范的情形是極為復雜的,往往出現人工智能在性質不同的兩個或多個場域下需要相互的交叉配合才能夠實現的狀況。這便引發了“人工智能智能化引發的非智能化處理”和“人工智能物化狀態引發的智能化身份處理”的兩種情況。而這也是使人工智能在不同的場域下實現聯動的要求,從而使得人工智能在被場域化后能夠將所有場域串聯并完整地受到法律規范的約束。
1.人工智能智能化引發的非智能化處理。人工智能在智能化的場域的“行為”導致了其他場域的聯動,而如果在被聯動的場域中人類可以依憑智慧和能力進行一些行為但人工智能無法實現時,便需要人工智能以非智能化的身份來配合在前一領域中的活動而接受法律規范。例如人工智能在智能化場域中侵權行為的責任承擔問題。由于人工智能駕駛系統在運行之外的場域下并不像人一樣在發生侵權行為的同時具有承擔后果的主體地位,如果僅僅是以傳統法律規范下進行責任劃分,將不可避免地出現因為人工智能的能力不足導致的履行不能。例如人工智能駕駛汽車發生交通事故后,人類駕駛員可以進行賠償、受到相關法律的處罰等等,而當前的無人駕駛人工智能顯然無法做到這些。但是,人工智能對責任的“承擔”可以由物的身份進行。例如可以將人工智能由開發者進行回收并支付費用,以對受侵害人進行補償?;蛘咴谄浒l生侵權后終止其智能化狀態并將設備摧毀,而這可以被理解為《刑法》意義上的刑罰等等。
2.人工智能物化狀態引發的智能化身份處理。當前存在一定場域中需要人工智能以智能化的能力參與法律規范時,人工智能由于處在物化的狀態而無法實現,此時便需要其它智能化場域的結合。例如人工智能勞動權益保障的問題。人工智能在勞動中充分表現著人類的智能,但因為其并不具有法律意義上的人格主體而同時無法獲得相應的保障。但擁有一定人類智慧的人工智能并非是人類的“電子奴隸”,人類無法放任人工智能遭到濫用,就如人類無法容忍奴隸制一般。因此,可以將人工智能在物的場域中無法獲得的“保障”轉化為人工智能智能化場域中的條件。不妨將人工智能的維護升級對應人類的休息權、人工智能的工具和裝備配置對應人類的受保護的權利等等。如此一來,無論場域中人工智能屬于何種性質,以及人工智能性質不同的場域相互關系如何,都可以通過基本和聯動的形式受到法律規范的約束。
將人工智能進行簡單的劃分,可以使主體地位不清、權利義務相對關系脫離同一主體等問題得到解決,但這樣的劃分伴隨著人工智能的發展難免遇到許多困難,甚至出現更為復雜的問題。并且,推行這一“特殊性”的法律規范道路也必然要求重新建立一套專屬于人工智能的理論和法律適用體系。在人工智能技術的應用井噴和參與紛繁復雜的社會關系的今天,人工智能的“特殊性”法律規范路徑也將會面臨諸多問題。
首先,人工智能智能化表現的認定面臨困難。貫穿于整個人工智能法律規范問題的核心便是:人工智能如何才可以被認為擁有人類的智慧。這一問題的本質是“IA”與“AI”的區別,是工具和意志的區別[注]馬長山認為,IA不是AI。人工智能AI(Artificial Intelligence)是指通過模擬人腦思維,由機器或軟件所表現出來的具有推理、記憶、理解、學習和計劃的類人化智能,它能夠思考自己的目標并進行適時調整,甚至將擁有足以匹敵人類的智慧和自我意識的能力。而IA(Intelligence Augmentation)則是一種智能增強,盡管它也會有自主學習、自然進化等功能,但仍是按照人類輸入的代碼指令和數據算法,來復制、模仿、模擬人類的行動,以幫助人類挖掘和拓展自身潛能。參見馬長山:《人工智能的社會風險及其法律規制》,《法律科學(西北政法大學學報)》,2018年第6期。。從目前來看這一問題仍處在較為復雜的爭議當中?!爱斍澳X科學、認知科學已大幅進步,但對人腦產生情感意識的功能機理、腦神經網絡結構仍缺乏深入了解,尚未全面掌握人腦智能機制,以至于人們對人類智能理解不一,導致人工智能模仿人類智能的進路分化,產生了不同的人工智能實現模式,如符號主義、聯結主義、行為主義、機制主義?!盵注]郭少飛:《“電子人”法律主體論》,《東方法學》,2018年第3期。我們尚無法從內部機制認識人工智能的智能化程度,即使人工智能做出了類似于人的行為和表現,我們也無法得知其是否具有“思想”。人工智能的智慧性目前來看仍是“黑箱”式的問題,當前的技術條件使我們無法得知人工智能是否以及何時真正運用了人類的智慧。
即便如此,法律規范的施行中并不需求對其內在思想的準確認知,而是對其行為的約束。人工智能始終存在于人類社會當中,必然發生與人類的交互,而這也意味著人工智能行為的必然性和表現的人類化。以人為設計模板的人工智能無論是否真的擁有人類的智慧,其實施只有人類才能做出和完成的行為,這就意味著法律規范約束的可能性。因此在“特殊性”的法律規范進路中,衡量人工智能智能化的標準并非是其內部的邏輯原理或算法,而是其是否具有人類的行為表現。人工智能只要在一定的場域中表現出了人的行為,便可以作為人的角色而被看待,而其是否真的具有人類的思想和意志可以在所不問。由此,雖然回避了對于人工智能“是否具有人的思想”這一問題的回答,但并不影響對其具體的法律規范。
其次是復雜人工智能的法律規范面臨困境。從目前來看,人工智能的智能化能力是極為有限的,所能完成的行為僅限于所涉及的較為基礎和單一的領域??梢哉f,現有的人工智能的能力都是專職的和固定的,即使人工智能擁有較強的學習能力,但在當下技術條件的限制下只能增強其特定領域和行為的智能化能力,仍不能打破行為和領域的壁壘。例如,谷歌旗下的“AlphaGo”系列人工智能表現出極強的學習能力,其中“AlphaGo Zero”從零開始學習,僅用了三天便擊敗了曾經擊敗柯潔的“AlphaGo”版本,被稱為“三天走過人類千年棋史”[注]虞涵棋,王心馨:《阿爾法狗之父揭秘最強“狗”如何煉成:3天走完人類千年棋史》,https://www.thepaper.cn/newsDetail_forward_1829941,訪問日期:2019年4月30日。。盡管如此,這一系列的人工智能僅僅能夠完成弈棋這一種行為,因此場域的劃分和法律規范仍是十分簡單的。又例如無人駕駛人工智能,不同學習能力的人工智能使得他們各自的智能能力和“車技”有高有低,但是這并不妨礙所有這些人工智能在法律視角下相同且唯一的“駕駛員”身份。當前狀態下人工智能個體和行為的邊界仍是較為清晰的,對其實現場域的劃分和法律的規范也并非難事。
然而,人工智能的智能能力正在以指數的形式高速增長已經成為未來趨勢。有學者認為未來的強人工智能進化將是爆炸性的,“迅速的智能大爆發往往發生在非常短的時間內,比如幾分鐘、幾小時或者幾天,人工智能將很快超越人類智能”[注]國章成:《人工智能可能帶來的五個奇點》,《理論視野》,2018年第6期。。在這樣的發展趨勢下,我們不能保證未來的人工智能仍以當下諸多領域的“專職機器人”的形態出現。谷歌旗下人工智能公司DeepMind開發的一款人工智能已經完成了一系列不同的任務,且表現的幾乎像人類一樣出色。更為重要和獨特的是,這個人工智能程序不會忘記先前解決問題的方法,能夠使用學習到的知識解決新問題[注]明軒:《DeepMind又搞了個大事情!讓人工智能像人一樣學習》,http://tech.qq.com/a/20170315/020273.htm,訪問日期:2019年4月30日。。而這也意味著未來的人工智能能夠完成甚至是同時完成多種工作。未來的人工智能在智力能力達到一定程度后不排除會以集成的形式而非獨立個體表現出來,核心程序存在于“云端”的數據庫當中,并且在同一時間內控制數量眾多的擁有獨立個體形象的人工智能。因此,會存在數量非常眾多的不同場域中能夠完成各種各樣復雜工作的人工智能的“本體”卻只是數量唯一的一個作為“人”而出現的思維系統。此時不同場域中的人工智能所扮演的角色并非其“本體”,由此根據“特殊性”的法律規范進路而進行的場域定性和責任劃分均都難以實現我們所期望的目的。在這樣的情況下,對其場域的劃分和不同場域下性質的判定也將是復雜的一件事,不僅需要法律規范的技術,同時還要結合人工智能產業領域的相關技術才能進行。
再次,人工智能的規制如何與傳統法律體系對接面臨困境。人工智能法律規范“特殊性”進路需要將人工智能法律規范整個理論體系都重新創設于現有的法律體系之外。這樣的進路并不影響已有法律體系的結構和內容,而是將人工智能在法律體系之外合理“加工”后分別放置入法律規范中,是“從外向內”的一個過程。因此,必須考慮的問題便是這樣的理論如何與現有的法律體系進行對接。
從立法上來看,需要訂立《人工智能法》。由于人工智能所擁有的人類智慧性以及隨之而來的對于人類社會各領域廣泛的滲透,如果試圖修改當前法律以實現對人工智能的規范,不僅會陷于“人工智能主體地位有無”的泥潭當中,而且所修改的范圍必將是廣泛的和徹底的。相比之下,需要有一部專門的《人工智能法》,對人工智能的法律規范原理進行一般的、抽象的解釋,并最終回歸于現有的法律體系當中。
從司法上來看,需要法官提升素養和能力。在目前的人工智能案件中,由于人工智能相比于傳統案件不同的模式、缺乏有效的法律文本、沒有值得參考和借鑒的先例等因素,對法官的素養和能力提出了極高的要求。而當前對人工智能的規范需要“特殊性”進路時,同樣也需要法官在審理案件時擁有“特殊性”的思維。例如人工智能自身的智能化能力、在不同場域中的具體性質、是否以及如何發生場域聯動等等主觀抽象問題需要法官不斷運用理性,綜合研判。
從發展上來看,需要不斷對接人工智能技術發展前沿。人工智能技術作為富有活力的“朝陽產業”,不僅成果日新月異,而且其發展領域也在不斷變化和擴張。人工智能的未來不確定性和易變性對法律規范提出了更為嚴格的要求。由于人工智能的變化速度遠高于現有的各個領域和部門,因此對其法律規范則不能以當前的速度發展,而是應當快于當前,否則將難以為人工智能的發展提供有效的法律規范和保護,眾多的問題也將不斷涌現。而這就需要人工智能法律規范更加貼近于研究前沿,同步甚至早于人工智能技術的發展改變而做出改變。
最后,如何確定具有超場域性的人工智能基本權利面臨困境。人生而具有天賦的基本權利,而人工智能的“天賦人權”是否可以因其智慧性而被推定?斯多葛學派認為,人人都是上帝的兒子,因而彼此之間都是兄弟。人有共同的人性,它同自然規律是基本一致的。上帝有理性,因而人也具有理性,理性也就是自然法則[注]李步云:《論人權的本原》,《政法論壇(中國政法大學學報)》,2004年第2期。。這是西方早期對于天賦人權的學說,認為取得人類身份的核心指標是“人性”和“理性”。而在人工智能時代的今天,我們不禁反思:人工智能是否具有部分的“人性”和“理性”而可以被視作天賦人權的對象之一?當前的人工智能仍處于起步階段,其智能化程度較低,大多數人工智能尚不擁有獨立思考的能力,也并不具有情感。因此,人工智能仍停留在機器和軟件的形象之中,從任何角度都難以將其與人類劃等號。但是,由于人工智能技術的特性,雖然當下人工智能技術仍較為粗糙,但已經打破了人類軀體對智慧的封鎖而發生了質的變化。按照這一趨勢繼續發展,很難預料未來人工智能是否會擁有等同于人類的思想、理性、情感甚至與人類的思想完全相同。這時的人工智能,又是否擁有天賦的“人權”呢?此前由于人類對思想和理性的獨占性,人類與思想是可以劃等號的,因此對當下所出現的人工智能是傳統天賦人權思想鮮有考慮。這也成為了一個前所未有的問題,人工智能是否具有以及如何具有天賦的“人權”。在動物也具有一定基本權利的今天,能以人類方式思考并深度融入人類社會的人工智能是否能夠擁有基本的生存和發展權,甚至被接納于“天賦人權”的范圍內,亦或是依舊被當做機器一般受人驅使和丟棄,這是一個值得討論的問題。
“現在硅谷到處都有人在講‘奇點’(The Singularity),該理論認為,我們即將迎來機器時代:機器的智能程度遠遠超過人類,以至于人類既無法控制機器,也無法理解它們的想法。換句話說,未來可能會有機器比我們人類更加聰明,甚至聰明到我們都沒有辦法控制的地步?!盵注]皮埃羅·斯加魯菲著,王藝璇譯:《離人工智能奇點還有多遠》,《中國經濟報告》,2017年第5期。目前我們尚不得知“奇點”是否存在以及何時到來,但可以確定的是,人工智能的發展方向是不斷具有更加全面的人的能力和行為,并在各個方面趨近、成為甚至超越人類。而一旦人工智能已經具有等同甚至高于人類的智能,可以完全如人類個體一般參與社會生活時,便能夠獨立以人類的身份參與法律規范。人工智能法律規范的整體趨勢也應當是以特殊的方法對當下弱人工智能的特殊化規范逐步過渡到以強人工智能為主的規范模式?!疤厥庑浴钡姆梢幏兑矊殡S這一進程而逐漸收縮而完成使命,與之相對應的“去特殊性”的法律規范路徑將會在未來成為主流。最終,在“去特殊性”的法律規范路徑中,原本需要進行場域化分、性質判定和分別規范的人工智能將不斷在更多的領域和所扮演的角色中獨立和完整地參與法律規范,并生動地融入于人類社會和生活當中,成為人類社會中的新成員。
首先,人工智能的未來發展趨勢為“去特殊化”法律規范奠定了現實基礎。如果說“特殊化”路徑是對應當下人工智能的能力有限、孤立且分散的現狀,那么“去特殊化”路徑就是在這一基礎上伴隨人工智能能力的提升而進行整合的過程。因此,“去特殊化”路徑發生的根本動力在于配合人工智能未來能力的發展模式和方向。首先,未來人工智能領域具有同步性和聚集性,這為采用一元的理論對其進行規制奠定了基礎。人工智能作為新興計算機領域的產物,其相當高的新陳代謝率和對于前沿技術的追尋性意味著內部群體現象的出現。一旦某一人工智能的某一項前沿技術取得質的突破,便會迅速普及于整個人工智能行業,并迅速裝備于大多數的人工智能。因此,一定時期內人工智能群體的整體水平將會是同一層次的,不會出現明顯的代際差別。這一發展模式可以類比當下智能手機的發展態勢,兩者同樣具有高新陳代謝率和對前沿技術的追尋性。一定時間內,人工智能群體內部的核心構成差異難以有質的差別,而這也為對人工智能的規范適用一元的理論創造了條件,不至于因為內部的分化過大而無法進行宏觀整體的規范。其次,人工智能的智能程度的提升也指明了人工智能參與人類社會的未來走向。雖然諸如“阿爾法狗”等當下人工智能的發展換代表現為對單一行為和領域的“精通”,但這并不是永遠的態勢和人工智能發展的目標。伴隨著智能化程度的提高,以人類為設計藍本的人工智能將會不斷趨近于人,也將不斷融入人類社會。對當前人工智能涉及所有社會領域的拆解和微分的“特殊性”規范路徑,可以在一定程度上將當下智能化程度相對較低、完成的行為有限的人工智能納入到當前的法律邏輯和法律體系當中,但這樣的方法卻難以應對未來人工智能的智能化水平大幅提升的趨勢。伴隨著人工智能智能化程度提高的進程,需要“化特殊為一般”,對智能化達到一定程度的人工智能適用“去特殊性”的法律規范進路,使對人工智能的法律規范逐漸向對人的法律規范的方向靠攏。因此,人工智能的未來發展趨勢奠定了人工智能法律規范的未來走向:在配合人工智能的智能化程度提升過程中,將當下特殊性法律規范中的人工智能在其能夠以獨立的能力完整參與的領域中恢復一般法律規范對其的作用,并最終使人工智能能夠像人類一般接受法律規范。
其次,“去特殊化”既是“特殊化”路徑的相反與終結,也是人工智能法律規范的新模式?!叭ヌ厥饣迸c“特殊化”進路的基本理念相反,從“拆分、定性和規范”演化為“單一身份獨立接受規范”。根據特殊性法律規范進路,人工智能所參與的場域并不是孤立的,而是統一和集合于人工智能本身,區別僅僅是在于人工智能在這些場域中的性質。在一個人工智能所參與的所有領域中,有些是作為“人”而參與,但更多是作為“物”而受到支配。伴隨著人工智能智能化能力的提高,人工智能不斷在原本作為“物”的場域中擁有進行人類行為的智能和能力而轉化為“人”。人工智能的智能化能力的提升意味著所參與的社會領域中作為“人”的比例的提升,更多的場域中人工智能可以作為“人”而出現。伴隨這樣的趨勢,將人工智能能夠獨立以自身智能化的能力參與的眾多場域聯合成為更大的場域,并將諸多的場域合并為一個社會角色下的不同行為領域,進而逐漸將不同的行為領域疊加積累形成獨立的一個社會角色,從而形成人工智能可以獨立享受權利和承擔義務的一些社會角色。隨著這些社會角色的擴大,人工智能也將越來越能夠像人一般進行活動,并最終以法律上等同于“人”的身份回歸于人類的法律體系當中。例如對于日漸普遍的新聞寫稿人工智能,其最為趨近的社會角色便是記者。顯然,當下諸多作為以寫稿為設計目的的人工智能,是無法獨立完成其他行為的,甚至根本就沒有法律意義上關于記者的權利和義務的概念與意識。即使法律賦予其權利,人工智能也無法享有。然而,隨著人工智能智能化的提升,一臺人工智能設備并不僅僅能夠完成單一的寫稿工作,同樣也可以完成與之對應的相關行為。從場域的角度來看,行為層面的場域可以逐漸通過聚合而上升至社會角色層面。當一個新聞寫稿人工智能不僅僅能夠完成寫作,同時也能夠完成出版、寫作學習、新聞調查、數據分析、參與法律事務等等一個記者所必需的全部行為和技能后,也即其圍繞“新聞寫稿”所參與的全部的場域中均是以“人”出現時,這些所有的場域都可以整合為“記者”這一社會角色場域,人工智能獲得了“記者”這一社會角色。他可以像一個人類記者一樣寫出稿件并對此負責,以自己的名義享受權利并承擔義務。此時,在這一角色下的諸多場域便可以不再運用“特殊化”的“拆分、判定和分別規范”的規范方法,而是運用常規的相關人類記者的法律規范。進而言之,伴隨著人工智能的智能化程度不斷提升,以單一領域為設計目的的人工智能(如單純的新聞寫稿人工智能)能夠以這一社會角色完全融入人類法律體系之中。而綜合型的人工智能,也即能夠完成多個社會角色的行為的人工智能,則在其智能程度可以使所有角色都獨立參與社會活動后,可以以多個社會角色完全融入當下的法律體系。最后,類人甚至超人的人工智能則是“去特殊化”路徑的最高形式。當人工智能可以完全像人類一樣參與所有的社會領域時,在法律的視角下,此時的人工智能與人類無異,因此可以完全適用人類的法律。而這也意味著“特殊化”進路的完全終結,也是“去特殊化”路徑的最高階段。
最后,人工智能在“去特殊化”路徑下可以和諧、有機且生動融入人類社會。當下人類對于人工智能的主體印象多是“聰明的機器”,對于其能完成的智能行為往往是感到新奇,并不會因此而將其納入人類的日常生活中。但未來的人工智能發展前景十分廣闊,正如一些科幻電影中所講,未來的人工智能甚至與人類同吃同住、和人類成為伙伴、甚至與人類結為婚姻。這樣的設想是美好的,這些想象中的人工智能可以生動融入人類社會之中。但是,這樣的前景并非是可以自然而然、水到渠成的。人工智能的未來定位尚不明確。如果沒有很好地處理人工智能的定位、尋找人工智能參與人類社會的良好路徑,那么人工智能這一強大的實體存在則很有可能“天使變魔鬼”,成為人類的敵人甚至是終結者。而這也正是當下普遍存在的對于人工智能極大恐懼的根源。對于這一問題,我們需要明白的是,人工智能僅僅是作為一項技術,其自身并不造成傷害,而根本問題在于人類社會如何接納人工智能,如何使人工智能和諧、有機且生動地融入人類社會?!叭ヌ厥庑浴钡姆梢幏兜缆坊蛟S可以提供一些思路。“人工智能以人類智能為標尺,由人類構造的機器、系統或其組合表現人類智能部分或全部特點與功能?!盵注]郭少飛:《“電子人”法律主體論》,《東方法學》,2018年第3期。人工智能在當下以及以后的一段時間內都將是越來越像人類,而這也必然會引發人工智能與人類交往以及交往中所形成的關系,其所具有的地位和扮演的角色也應當是從當下場域化中“部分的人”發展為“完全的人”。西班牙的發明家Sergi Santos試圖制造出性愛機器人,并認為這些性愛機器人不會被人們藏在衣櫥里或床底下,而是會光明正大的像伴侶一樣出現在室外,甚至會有人深情的對“她”說“我愛你”[注]騰訊科技:《性愛機器人制造者:20年內會與人類結婚甚至還能生孩子》,http://tech.qq.com/a/20171031/013591.htm,訪問日期:2019年4月30日。。而此時的人工智能應當被如何對待,是機器、是人,亦或兩者均不是?事實上,當人工智能的智能化程度達到足以像人一般完成日常生活的行為,并且實際參與了人類的日常生活中,人工智能就應當被視為人。此時的人工智能應當在社會中享有和人類一般的地位和待遇,并且不受歧視和排擠,應當允許人工智能根據自己的意志做出選擇,并且其選擇受到尊重?!爸悄軝C器人本質是機器,但亦有人的屬性,對智能機器人的尊重就是對人類自身的尊重?!盵注]吳漢東:《人工智能時代的制度安排與法律規制》,《法律科學(西北政法大學學報)》,2017年第5期。雖然當下已經有很多人意識到這一問題并試圖接納人工智能進入人類社會,但對于廣大的社會群體和社會成員來說,這一過程并不是一蹴而就的。伴隨著人工智能技術的發展,在制度層面需要實現過渡的方法。而“去特殊性”的法律規范路徑則為此提供了方案。一方面,隨著人工智能能力的提升而不斷擴大其法律地位,可以與人們的社會實踐中所感受到的人工智能參與人類社會的改變同步,從而減少發展的質疑和阻力。另一方面,通過法律的強制性,可以對已經革新的適合當時人工智能與人關系的社會理念進行保護和鞏固,防止社會觀念的倒退。由此,通過制度的約束和規范,為人工智能領域以及人類社會的發展更新提供保護和調節,及時調解釋放社會矛盾,從而避免“人工智能終結人類”的恐懼甚至是真正發生的災難,最終實現人工智能和諧、有機且生動融入人類社會。
總而言之,伴隨著人工智能智能化程度的提高,以往許多只能作為物出現的場域中,人工智能也可以通過智能的能力進行參與,并且這些場域可以與原有的智能化領域形成配對,形成完整的一對權利與義務關系。此時的人工智能可以在這樣的一對場域中以完整的人的身份參與其中,這樣的領域也就不必進行特殊化的法律規范,而是可以適用常規的法律規范。2016年,歐盟委員會法律事務委員會向歐盟委員會提交動議,要求將最先進的自動化機器人的身份定位為“電子人”,除賦予其“特定的權利和義務”外,還建議為智能自動化機器人進行登記,以便為其進行納稅、繳費、領取養老金的資金賬號[注]吳漢東:《人工智能時代的制度安排與法律規制》,《法律科學(西北政法大學學報)》,2017年第5期。。而這也正是當前的法律規范在特定的領域中使人工智能能夠獨立享受權利、承擔義務并賦予人的對待的表現。去特殊性法律規范進程的核心就在于人工智能化程度的提高,這使得其能夠在更多的領域中恢復權利和義務的一體化,即能夠以獨立的身份完整承擔義務和享受權利,從而成為此領域下法律視角中完整的人,并最終很好地融入人類社會。
人工智能的出現是傳統法學理論所從未預料到的,人工智能以機器的狀態實現著人類的部分行為,從而使得封閉的、單一的人類或由人類參與的法律主體發生松動,使在這一基礎上建立起來的法律秩序在規范人工智能時顯得異常艱難。單從主體地位這一問題來看,各界的討論十分激烈但并未有結論?!澳壳暗难芯浚瑹o論支持方還是反對方都缺乏相應的理論基礎和邏輯論證。支持方沒有具體論證賦予人工智能主體地位的理由,反對方也如是?!盵注]劉洪華:《論人工智能的法律地位》,《政治與法律》,2019年第1期。而出現這一問題的根本原因在于時代性的變革對法律傳統理論的沖擊,使得人工智能這一實際存在的產物在當前法律體系中無法尋找到合適的位置。“現代的社會人文價值和倫理準則建立于啟蒙時代,顯然已經不能適應未來嶄新的科技社會?!盵注]陳吉棟:《論機器人的法律人格——基于法釋義學的討論》,《上海大學學報(社會科學版)》,2018年第3期。因此,必須做出一些特殊性的改變,以規范當下人工智能發展的大潮并應對隨之而來的大量問題。以特殊化的法律規范進路以及去特殊性的法律規范進路最終實現人工智能對現有法律體系的融入,是可以被嘗試和探索的一條道路。時代進步和創新意味著法律必須做出改變,甚至是放棄原有的思路,以實現對新興事物有效的法律規范。而在人工智能時代到來的今天,尋求合理的理論和實踐方法對人工智能這一新興產物實現有效的法律規范是法學需要體現的關鍵價值,也是人工智能時代的必然命題。