

摘 要:人工智能即使類人化程度越來越高,但其在技術(shù)上的本質(zhì)是模擬人類智慧,因此人工智能在構(gòu)成要件上不具備理性基礎(chǔ)與獨(dú)立意志,無法突破客體束縛進(jìn)而獲得主體資格。面對這項(xiàng)高端技術(shù)帶來的巨大風(fēng)險(xiǎn),應(yīng)當(dāng)以沙盒監(jiān)管為核心進(jìn)行技術(shù)規(guī)制,以“刺破人工智能面紗”為原則的歸責(zé)方式,采用強(qiáng)制保險(xiǎn)制度作為社會(huì)保障手段,從而實(shí)現(xiàn)人工智能在安全可控和科技發(fā)展之間的平衡。
關(guān)鍵詞:人工智能;客體地位;沙盒監(jiān)管;發(fā)展與平衡
中圖分類號:D923
DOI: 10.19504/j.cnki.issn1671[-]5365.2025.03.02
2016年2月美國國家公路安全交通管理局發(fā)布公開信確認(rèn)谷歌自動(dòng)駕駛汽車內(nèi)部的智能機(jī)器人可以認(rèn)定為駕駛員[1];2017年10月機(jī)器人索菲亞被沙特授予了公民身份,史無前例[2];2022年11月自主生成內(nèi)容的ChatGPT被強(qiáng)勢推出,生成式人工智能效果驚艷;2023年12月多項(xiàng)性能超越GPT-4的Gemini 1.0 正式上線,再次將人工智能推向社會(huì)熱點(diǎn)。人工智能的技術(shù)成果不一而足,但不可否認(rèn),人工智能也引發(fā)一系列現(xiàn)實(shí)問題。人工智能生成物如何認(rèn)定?無人駕駛汽車侵權(quán)責(zé)任如何分配?機(jī)器人致人傷亡責(zé)任誰來承擔(dān)?[3]解決這些棘手問題前,必須洞悉人工智能的法律地位,即人工智能是“人”還是“物”?這是民法研究的基礎(chǔ)問題,也是用法律手段規(guī)制人工智能的前提。
近年,學(xué)界直接討論人工智能法律地位的研究逐漸增多。針對人工智能是否應(yīng)當(dāng)具備法律主體資格,存在肯定說、否定說和折衷說三種觀點(diǎn)。所謂肯定說,認(rèn)為人工智能技術(shù)已具備與人類相當(dāng),甚至超越人類的智能,應(yīng)當(dāng)賦予其法律主體資格以適應(yīng)社會(huì)的發(fā)展,如“擬制主體說”將法人獲得主體資格的原理移植于人工智能,以期人工智能被納入法律主體范疇參與社會(huì)經(jīng)濟(jì)生活,如電子人說結(jié)合技術(shù)發(fā)展與歷史進(jìn)程,認(rèn)為法律主體制度應(yīng)容納“電子人”。否定說多基于人工智能缺乏情感基礎(chǔ)、社會(huì)危害風(fēng)險(xiǎn)大、不符主體要件等多重原因,認(rèn)為賦予其主體地位于情不通、于理不合、于法無據(jù),故而通過人工類人格說、工具說、控制說等途徑將人工智能安置在客體地位。折衷說對人工智能是否能獲得主體資格既不肯定、亦不否定,而認(rèn)為其在有限的范圍內(nèi)具備人格,如有限人格說、電子代理人說、電子奴隸說等。
目前的研究,各方觀點(diǎn)莫衷一是,針鋒相對。單以法律要件或經(jīng)濟(jì)發(fā)展或社會(huì)安全等為視角來論證人工智能的法律地位極不明智。人工智能本質(zhì)上是一項(xiàng)技術(shù),將人工智能技術(shù)運(yùn)作的原理作為探究其法律地位的底層邏輯,是研究這門交叉學(xué)科的應(yīng)有之義;綜合考量人工智能的社會(huì)影響、以期實(shí)現(xiàn)社會(huì)發(fā)展與安全的平衡,是技術(shù)作用于社會(huì)的必然價(jià)值追求。
一、人工智能的技術(shù)原理
人工智能(artificial intelligence)是指使機(jī)器像人一樣去完成某項(xiàng)任務(wù)的軟硬件技術(shù)。[4]探究人工智能的法律地位是解決社會(huì)問題的前提。而人工智能歸根結(jié)底是一項(xiàng)技術(shù),故從科學(xué)領(lǐng)域出發(fā),探究人工智能的運(yùn)作原理成為認(rèn)識(shí)人工智能法律地位的基調(diào)。
(一)人工智能本質(zhì)是模擬人類智慧
自圖靈測試后,1956年達(dá)特茅斯會(huì)議標(biāo)志著人工智能作為一個(gè)獨(dú)立學(xué)科的起點(diǎn),如今人工智能主要包括機(jī)器人、語言識(shí)別、圖像識(shí)別、自然語言處理、專家系統(tǒng)等領(lǐng)域。經(jīng)過不間斷飛速的發(fā)展,人工智能是一門研究“如何使計(jì)算機(jī)能夠模擬和執(zhí)行人類智能任務(wù)的科學(xué)和技術(shù)”這一定義得到社會(huì)認(rèn)同。
“模仿人類智慧”是人工智能的本質(zhì)。那么,何為人類智慧?人類智慧可分為“顯性智慧能力”與“隱性智慧能力”[5]。“顯性智慧能力”主要表現(xiàn)為人的操作能力,主要包括對信息的獲取、解讀、歸納、分析、決策并執(zhí)行決策等外顯性的能力。“隱性智慧能力”則是基于人獨(dú)有的意識(shí)而產(chǎn)生的抽象能力,如動(dòng)機(jī)、目的、情感、靈感、創(chuàng)作、想象等。人工智能通過對數(shù)據(jù)獲取與處理、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、自然語言處理等技術(shù)處理,基本能實(shí)現(xiàn)對人類行為的模仿;但人工智能是否能自主產(chǎn)生“隱性智慧能力”?人工智能不具備人類理性、無法全面模擬人類智慧,是阻卻人工智能獲得與人相等的社會(huì)地位的主要原因。
(二)人工智能的模擬方式
人工智能實(shí)現(xiàn)對人腦的模擬主要有三種模擬。第一,結(jié)構(gòu)模擬。1943年心理學(xué)家麥卡洛克和數(shù)學(xué)邏輯學(xué)家皮茲提出MP模型,開啟了人們對人工神經(jīng)網(wǎng)絡(luò)的研究。經(jīng)過多年的發(fā)展,目前已有上百種的神經(jīng)網(wǎng)絡(luò)模型被提出與應(yīng)用。[6]結(jié)構(gòu)模擬本質(zhì)上是一種“模擬人類大腦”的神經(jīng)元模型,組成“大腦皮層的神經(jīng)元”用于實(shí)現(xiàn)大腦各個(gè)部分的聯(lián)系與信息傳遞,然后通過對人工神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練使機(jī)器獲得仿人經(jīng)驗(yàn),從而解決問題。但結(jié)構(gòu)模擬存在的問題主要有:一是人的大腦結(jié)構(gòu)之復(fù)雜,工業(yè)難以實(shí)現(xiàn)對神經(jīng)網(wǎng)絡(luò)的完全模擬;二是人工神經(jīng)網(wǎng)絡(luò)只完成了硬件設(shè)計(jì),更重要的軟件機(jī)制(即神經(jīng)網(wǎng)絡(luò)的工作機(jī)制)卻還沒有完全掌握。[5]
第二,功能模擬。功能模擬不再拘束于人工神經(jīng)網(wǎng)絡(luò)的硬件構(gòu)造,轉(zhuǎn)而追求模擬人的邏輯思維能力。人類的邏輯思維方式無窮無盡,所涉及的知識(shí)難以界定,也無法完全獲取,故而功能模擬出現(xiàn)了最大的問題——范圍有限。所以人工智能研究只能退而求其次,如今功能模擬集中體現(xiàn)為專家系統(tǒng)。專家系統(tǒng)是依靠人類專家已有的知識(shí)建立起來的知識(shí)系統(tǒng),是一種具有特定領(lǐng)域內(nèi)大量知識(shí)與經(jīng)驗(yàn)的程序系統(tǒng)。[7]
第三,行為模擬。行為模擬的原理是“刺激-響應(yīng)”,例如常見的聲控?zé)簟J紫?,基于人工智能對不同行為模式進(jìn)行分類,當(dāng)產(chǎn)生外界刺激時(shí),人工智能會(huì)啟動(dòng)相應(yīng)類型的動(dòng)作予以響應(yīng);人工智能行為模擬技術(shù)瓶頸在于它只能模擬比較簡單的而且是外顯的智能行為,而對那些深刻思維過程中的智能無能為力。[5]
(三)機(jī)器學(xué)習(xí)是實(shí)現(xiàn)人工智能的重要途徑
就各種模式而言,實(shí)現(xiàn)人工智能的工作共同原理都是“信息獲取-處理-決策-執(zhí)行”。人工輸入、互聯(lián)網(wǎng)及外部數(shù)據(jù)源爬取或傳感器傳入是人工智能數(shù)據(jù)處理的前提。在處理環(huán)節(jié),機(jī)器學(xué)習(xí)是人工智能的核心技術(shù)之一,它使計(jì)算機(jī)系統(tǒng)能夠獨(dú)立學(xué)習(xí)和改進(jìn)算法模型,也使得人工智能可以自動(dòng)化和智能化地處理和分析數(shù)據(jù)。根據(jù)輸入數(shù)據(jù)、邏輯和經(jīng)驗(yàn)進(jìn)行分析、推理,人工智能可以生成相應(yīng)的決策結(jié)果并執(zhí)行。以上路徑中,信息獲取的途徑與范圍決定了人工智能的適用范圍,處理環(huán)節(jié)是實(shí)現(xiàn)模擬人類智慧最為關(guān)鍵的環(huán)節(jié)(見圖1)。
機(jī)器學(xué)習(xí)是人工智能模擬人類智慧、模仿人類邏輯的重要方式。監(jiān)督學(xué)習(xí)指用打好標(biāo)簽的數(shù)據(jù)訓(xùn)練預(yù)測新數(shù)據(jù)的類型或值;無監(jiān)督學(xué)習(xí)是在數(shù)據(jù)沒有標(biāo)簽的情況下做數(shù)據(jù)挖掘;強(qiáng)化學(xué)習(xí)通過強(qiáng)化得到獎(jiǎng)勵(lì)的行為、弱化受到懲罰的行為來實(shí)現(xiàn)機(jī)器學(xué)習(xí)。[8]深度學(xué)習(xí)是現(xiàn)下研究的熱點(diǎn),是實(shí)現(xiàn)人工智能目標(biāo)的根本途徑之一。深度學(xué)習(xí)是基于人工神經(jīng)網(wǎng)絡(luò)的理論和方法,通過多層次的神經(jīng)網(wǎng)絡(luò)模型來學(xué)習(xí)和表達(dá)數(shù)據(jù)中的高層次抽象特征,以實(shí)現(xiàn)自動(dòng)化的分類、識(shí)別、預(yù)測和決策等。[9]深度學(xué)習(xí)通過對原始信號進(jìn)行逐層特征變換,將樣本在原空間的特征表示變換到新的特征空間,自動(dòng)地學(xué)習(xí)得到層次化的特征表示,從而更有利于分類或特征的可視化。[10]深度學(xué)習(xí)算法并不是一步一步地對計(jì)算機(jī)進(jìn)行編程,而是允許計(jì)算機(jī)從數(shù)據(jù)(往往是大量數(shù)據(jù))中自我學(xué)習(xí),不需要編程者作出新的分步指令。[11]因此,機(jī)器學(xué)習(xí)是學(xué)習(xí)算法創(chuàng)建了規(guī)則,給學(xué)習(xí)算法提供訓(xùn)練數(shù)據(jù),然后,學(xué)習(xí)算法基于從數(shù)據(jù)中得到的推論生成一組新的規(guī)則,稱為機(jī)器學(xué)習(xí)模型。[12]深度學(xué)習(xí)技術(shù)相比于其他機(jī)器學(xué)習(xí)而言,更具有智能特征。然而,深度學(xué)習(xí)需要海量數(shù)據(jù),而數(shù)據(jù)的可獲得性、數(shù)據(jù)質(zhì)量以及數(shù)據(jù)標(biāo)注成本等,成為制約人工智能發(fā)展的一大因素。
根據(jù)不同的算法級別,以人工智能的自主程度與行動(dòng)能力為標(biāo)準(zhǔn),可以將人工智能分為弱人工智能、強(qiáng)人工智能與超人工智能。弱人工智能可以在已編入的算法范圍內(nèi)自主決策執(zhí)行,其行為體現(xiàn)設(shè)計(jì)者或使用者的意志;強(qiáng)人工智能可能會(huì)在編制設(shè)計(jì)的范圍外,自主決策和實(shí)施行為。強(qiáng)人工智能進(jìn)一步發(fā)展,則可能出現(xiàn)超人工智能。強(qiáng)人工智能可以像人類一樣進(jìn)行高級思維和決策;而超人工智能具有極高的智能,能夠超越人類進(jìn)行決策與行動(dòng),目前僅存于概念上。
二、要素分析:人工智能不符合法律主體構(gòu)成要件
楊立新教授認(rèn)為,民法上的人格由三個(gè)基本要素構(gòu)成,一是具有健全的人體和人腦,二是具有獨(dú)立的意志,三是能夠充當(dāng)特定的社會(huì)角色。[13]進(jìn)一步思考,不得不將理性基礎(chǔ)納入考量范圍,并將人工智能進(jìn)行對比分析。
(一)法律主體實(shí)質(zhì)構(gòu)成要件
1.生物基礎(chǔ)。人類基因組、人體和人腦構(gòu)成一個(gè)“人”的生物學(xué)層面。[14]人獨(dú)特的基因結(jié)構(gòu)決定了人的各方面特點(diǎn),也是作為獨(dú)立個(gè)體的人最具可識(shí)別性的標(biāo)志。攜帶基因組的細(xì)胞在不斷發(fā)展過程中生長出四肢、人腦、器官等,進(jìn)而組成完整的身體。這樣的生物組織與生長過程一并構(gòu)成了法律主體的生物基礎(chǔ)。
2.理性基礎(chǔ)與獨(dú)立意志。理性基礎(chǔ)與獨(dú)立意志都是主體構(gòu)成中的抽象要件。理性基礎(chǔ)是產(chǎn)生獨(dú)立意志的前提。理性包含著人類對世界的認(rèn)識(shí)與感知能力,還包括人類識(shí)別道德、形成共識(shí)并以道德倫理處世行事的能力,它是人類不斷累積對世界的認(rèn)識(shí)、產(chǎn)生情感并生成思維邏輯的根源。獨(dú)立意志是理性能力的生成結(jié)果。獨(dú)立意志強(qiáng)調(diào)個(gè)人意識(shí)的獨(dú)立差異性,具有不可被外界直接支配的特點(diǎn)。
3.社會(huì)功能。荀子言:力不若牛,走不若馬,而牛馬為用,何也?曰:人能群,彼不能群也。人何以能群?人的本質(zhì)是一切社會(huì)關(guān)系的總和,社會(huì)功能展現(xiàn)人類生活的集群性,是人在社會(huì)中具有互交性、融合性的存在方式。在參與社會(huì)關(guān)系的過程之中,人類之間、人類與社會(huì)環(huán)境之間形成了千絲萬縷的聯(lián)系,這也使個(gè)體有了不可復(fù)制、不盡相同的獨(dú)立社會(huì)角色。
(二)強(qiáng)人工智能與法律主體構(gòu)成要素的對比
弱人工智能現(xiàn)在已經(jīng)廣泛運(yùn)用于社會(huì)生活中,因弱人工智能在獨(dú)立意志上并無技術(shù)支持,故其客體身份并無爭議。而AlphaGo的誕生,對大腦神經(jīng)網(wǎng)絡(luò)的認(rèn)知和對深度強(qiáng)化學(xué)習(xí)算法有了重大突破[15],這被視為從弱人工智能時(shí)代向強(qiáng)人工智能時(shí)代進(jìn)軍的重要一步。隨著起源于人工神經(jīng)網(wǎng)絡(luò)的多層感知機(jī)理的深度學(xué)習(xí)等技術(shù)不斷發(fā)展,我們有可能在未來進(jìn)入強(qiáng)人工智能時(shí)代。而超人工智能目前僅存于想象。所以對強(qiáng)人工智能進(jìn)行要素分析是最有必要的。
1.實(shí)質(zhì)要件對比
人工智能可以參與社會(huì)關(guān)系,具備社會(huì)功能是毫無疑問的。如世界上第一個(gè)具有公民身份的機(jī)器人索菲亞,它有著豐富的面部表情,能參加訪談、出席會(huì)議、與人談笑風(fēng)生。而人工智能是否具備生物基礎(chǔ)、理性基礎(chǔ)與獨(dú)立意志,則需要進(jìn)一步分析。
(1)生物學(xué)基礎(chǔ)。確認(rèn)智能機(jī)器人是否具有人格,首先要確定的是智能機(jī)器人是否具有人體和人腦的生理學(xué)要素。[13]因?yàn)槿斯ぶ悄軞w根結(jié)底是一門技術(shù),不是由細(xì)胞分裂而來的,不具備人類獨(dú)有的基因,屬于非生命體。毋庸置疑,即便利用深層神經(jīng)網(wǎng)絡(luò)技術(shù)能模擬出人腦與神經(jīng),甚至有比人體更多的神經(jīng)元,人工智能也不可能具備真正的人體與人腦生理學(xué)要素。
或有人提出,人類基因決定著人的思考與行為模式,而人工智能的運(yùn)作由算法決定,故而認(rèn)為人類基因與算法基因都是一系列思維與行為的生成軌跡,都符合法律主體的實(shí)質(zhì)要件。這是形而上觀點(diǎn),應(yīng)當(dāng)摒棄。首先,算法基因是某些程序運(yùn)行中的規(guī)律、方法、公式、程序等,屬計(jì)算機(jī)科學(xué)中的概念。人類基因是生物體中遺傳信息的核心組成部分,屬生物學(xué)概念,二者屬性不同,本質(zhì)也不同。其次,算法是人類智慧的成果,算法邏輯是人思維邏輯的外延,并非自然進(jìn)化的產(chǎn)物,也不具備獨(dú)立性。
(2)理性基礎(chǔ)與獨(dú)立意志。AlphaGo在戰(zhàn)敗后會(huì)通過深度學(xué)習(xí)技術(shù)吸取失敗的經(jīng)驗(yàn),提升自己的圍棋能力,最終超越其他圍棋大師成為世界第一。這說明人工智能有模仿人類智慧的能力,而且在機(jī)器學(xué)習(xí)中,能形成自己的經(jīng)驗(yàn)并在某些方面獲得最高智慧。除此外,根據(jù)前文分析,深度學(xué)習(xí)技術(shù)允許學(xué)習(xí)算法創(chuàng)建規(guī)則,生成機(jī)器學(xué)習(xí)模型。在此過程中,除了程序員最開始編寫算法,導(dǎo)入學(xué)習(xí)內(nèi)容后,人工智能可以進(jìn)行自主學(xué)習(xí)。可以說,人工智能能形成與人類獨(dú)立意志相近似的心理學(xué)要素。
但這樣的獨(dú)立意志忽略了理性基礎(chǔ)的考量。人工智能的“思考”邏輯是算法,涉及統(tǒng)計(jì)學(xué)、概率論、凸分析、逼近論、算法復(fù)雜度等多種理論,但人類并非完全是“理智”的,人類思維過程中摻雜著說不清、道不明的情感與倫理因素,這卻是人工智能無法模擬的。質(zhì)言之,機(jī)器人生成的目的行為,與人類有目的、有意識(shí)的行為性質(zhì)完全不同;同時(shí),機(jī)器人沒有自身積累的知識(shí),其機(jī)器知識(shí)庫的知識(shí)都是特定領(lǐng)域的,并且都是人類輸入的。[16]故而,即便人工智能能基于深度學(xué)習(xí)得出與人類不同的獨(dú)立意志,但這也僅僅存在于功能方面。機(jī)器不具備心靈、情感、倫理等人性要素,人工智能的理性并非人的理性。
有人或會(huì)提出,擬制人格或可以解決此問題。在《中華人民共和國民法典》(簡稱“民法典”)規(guī)定的法律主體中,除了以自然生命為存在基礎(chǔ)的自然人,還有以非生命體為基礎(chǔ)的法人和非法人組織。此處則必須透過現(xiàn)象看本質(zhì),法律擬制的運(yùn)用,不僅需要存在客觀事實(shí),還需要存在與人本源上的相似性。法人、非法人組織雖然以組織體的方式存在,但組織體背后是自然人,其決策與行為直接體現(xiàn)為自然人意志的集合。而人工智能背后是一系列繁雜的技術(shù),這與法律擬制存在本源上的區(qū)別。
(三)超人工智能應(yīng)當(dāng)被絕對抵制
在技術(shù)發(fā)展層面,深度學(xué)習(xí)是包含多級非線性變換的層級機(jī)器學(xué)習(xí)方法,深層神經(jīng)網(wǎng)絡(luò)是目前的主要形式[17],而此類技術(shù)并不足以支撐超人工智能的產(chǎn)生。在可預(yù)見的未來,超人工智能完全停留在人類的想象之中,短期內(nèi)無法實(shí)現(xiàn)。
在社會(huì)發(fā)展層面,相比于弱人工智能與強(qiáng)人工智能,超人工智能在各方面的能力可能都遠(yuǎn)超人類。人類社會(huì)存在的部分未解決的難題,是因?yàn)槭芾硇钥刂啤⑹軅惱韮r(jià)值觀念約束、受到社會(huì)各種力量的相互制約與平衡。而超人工智能憑借其超強(qiáng)的計(jì)算和分析能力,并利用其先進(jìn)的算法和模型來發(fā)現(xiàn)規(guī)律和關(guān)聯(lián)性,從而解決人類目前無法解決的難題。這難以確保是在人類理性價(jià)值范圍內(nèi),其先進(jìn)技術(shù)也超越了人類可控的范圍。如果超人工智能普遍存在,或?qū)е氯祟惿鐣?huì)的顛覆性災(zāi)難。因此,不僅不能在法律上賦予超人工智能主體地位,更應(yīng)當(dāng)從技術(shù)、社會(huì)等各個(gè)層面對其予以完全抵制。
凱爾森認(rèn)為法律主體是法律上的人,是權(quán)利與義務(wù)的持有者?;诜芍黧w的實(shí)質(zhì)要件,立法確定了意思能力、權(quán)利能力與行為能力為法律要件。意思能力是指個(gè)體理解自己的行為的性質(zhì)和后果的能力;權(quán)利能力是法律主體參與社會(huì)關(guān)系的資格;行為能力是法律主體參與民事法律關(guān)系、享有相應(yīng)的權(quán)利、承擔(dān)相應(yīng)義務(wù)的能力。只有滿足法律主體的實(shí)質(zhì)要件,才能獲得法律主體候選人的資格。人工智能不具備成為法律主體的生物學(xué)基礎(chǔ)和理性基礎(chǔ),故而在現(xiàn)行法律主體框架下,沒有人工智能的一席之地。即便從歷史演變的角度來看,法律主體呈擴(kuò)張之勢。但基于人類安全的絕對目的和可預(yù)見的技術(shù)發(fā)展水平,人工智能無法取得法律主體地位。且現(xiàn)行法律框架基本完備,能兼顧人工智能的安全和發(fā)展。將人工智能定位為客體,完全不必另行立法[13],也無需擴(kuò)大法律主體的范圍。
三、立法態(tài)度:域內(nèi)外法律實(shí)踐
人工智能現(xiàn)已成為我國加快形成新質(zhì)生產(chǎn)力的“牛鼻子”,在經(jīng)濟(jì)發(fā)展、社會(huì)進(jìn)步乃至國際政治經(jīng)濟(jì)格局等方面產(chǎn)生了重大而深遠(yuǎn)的影響[18]。但人工智能相關(guān)立法確有不足,由此,國內(nèi)外人工智能相關(guān)法律政策也成為現(xiàn)下法治工作的重點(diǎn)。
(一)國內(nèi)實(shí)踐:以倫理規(guī)范為基礎(chǔ)確保安全可控
黨內(nèi)政策文件方面,2022年3月20日,中共中央辦公廳、國務(wù)院辦公廳印發(fā)《關(guān)于加強(qiáng)科技倫理治理的意見》,明確科技倫理在技術(shù)發(fā)展的首要地位。行政法規(guī)方面,2017年7月8日,國務(wù)院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》。部門規(guī)章方面,自2017年來,各個(gè)部門共計(jì)發(fā)布了十余部有關(guān)人工智能的規(guī)定,涉及倫理規(guī)范、科技、網(wǎng)信、教育、林業(yè)等多個(gè)方面。其中,2021年9月25日,國家新一代人工智能治理專業(yè)委員會(huì)發(fā)布了《新一代人工智能倫理規(guī)范》,旨在將倫理道德融入人工智能全生命周期,提出六項(xiàng)基本倫理規(guī)范、十八項(xiàng)具體倫理要求。2022年7月29日,科技部等六部門關(guān)于印發(fā)《關(guān)于加快場景創(chuàng)新以人工智能高水平應(yīng)用促進(jìn)經(jīng)濟(jì)高質(zhì)量發(fā)展的指導(dǎo)意見》的通知,為人工智能技術(shù)發(fā)展與場景化應(yīng)用方向作出指導(dǎo);2023年7月10日,國家發(fā)展改革委等六部門發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,專門針對ChatGPT類的生成式人工智能提出發(fā)展方向。司法解釋方面,2022年12月8日,最高人民法院發(fā)布了《關(guān)于規(guī)范和加強(qiáng)人工智能司法應(yīng)用的意見》,用于指導(dǎo)更好地發(fā)揮人工智能輔助司法的功能。除此外,2023年3月,國家人工智能標(biāo)準(zhǔn)化總組、全國信標(biāo)委人工智能分委會(huì)發(fā)布了《人工智能倫理治理標(biāo)準(zhǔn)化指南(2023版)》,意在促進(jìn)落實(shí)人工智能倫理治理標(biāo)準(zhǔn)。
通過梳理可發(fā)現(xiàn),國家對人工智能作為時(shí)代新物以促進(jìn)社會(huì)的重視程度不言而喻。從近兩年發(fā)布的文件來看,人工智能的倫理標(biāo)準(zhǔn)和框架正在建立,規(guī)制路徑暫未落地;人工智能在經(jīng)濟(jì)建設(shè)方面有著重大助力,但社會(huì)層面多應(yīng)用在單獨(dú)行業(yè),在法治工作中發(fā)揮輔助功能的趨勢也愈加明確。人工智能在法律文件中以“技術(shù)”存在,未脫離“物格”性質(zhì),明確了國家對人工智能發(fā)展的審慎態(tài)度。
(二)域外實(shí)踐:體現(xiàn)約束與發(fā)展并重的原則
在世界范圍內(nèi),近年在大力推動(dòng)人工智能技術(shù)突破和產(chǎn)業(yè)發(fā)展的同時(shí),也重視約束人工智能的風(fēng)險(xiǎn)。包括經(jīng)合組織、聯(lián)合國教科文組織、歐盟、美國、德國、英國、日本、新加坡在內(nèi)的國家、地區(qū)、國際組織相應(yīng)地推出文件用于建立人工智能規(guī)制體系。[19]除此外,尤其值得關(guān)注的是,歐洲議會(huì)、歐盟成員國和歐盟委員會(huì)三方經(jīng)過漫長談判后,2023年12月8日就《人工智能法案》(簡稱《AI法案》)達(dá)成協(xié)議。[20]這是全球首部監(jiān)管人工智能的全面法規(guī)。
《AI法案》將人工智能系統(tǒng)定位為“基于機(jī)器的系統(tǒng)”,最大的特點(diǎn)在于對人工智能進(jìn)行分類管控,將人工智能分為不可接受、高風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)和極小風(fēng)險(xiǎn)四類。明令禁止人工智能的系列有害實(shí)踐;對于高風(fēng)險(xiǎn),則需要綜合性治理;而對于有限風(fēng)險(xiǎn)和極小風(fēng)險(xiǎn),應(yīng)該遵守一定的告知義務(wù)和披露義務(wù)。[21]鄭春燕教授稱其確立了“基于風(fēng)險(xiǎn)”的人工智能治理框架,更符合人工智能時(shí)代的風(fēng)險(xiǎn)特點(diǎn)和監(jiān)管要求。[22]
四、路徑探究:三管齊下實(shí)現(xiàn)安全與發(fā)展的平衡
作為一項(xiàng)具備蓬勃生命力的先進(jìn)技術(shù),人工智能蘊(yùn)含著無限的發(fā)展前景,也存有對現(xiàn)實(shí)社會(huì)的潛在威脅。因此,對于人工智能的規(guī)制應(yīng)當(dāng)采取審慎且包容的態(tài)度,立足于人工智能的客體地位,從科技監(jiān)管、法律規(guī)制以及社會(huì)保障三個(gè)方面探究平衡發(fā)展與約束的規(guī)制路徑。
(一)技術(shù)規(guī)制:構(gòu)建沙盒監(jiān)管制度,實(shí)現(xiàn)全過程監(jiān)控
人工智能技術(shù)不可能停止發(fā)展,但必須有節(jié)制地可控性發(fā)展。在人工智能技術(shù)領(lǐng)域借鑒“沙盒監(jiān)管”的方法,有利于實(shí)現(xiàn)人工智能創(chuàng)新發(fā)展與風(fēng)險(xiǎn)控制動(dòng)態(tài)平衡?!氨O(jiān)管沙盒”制度是歐盟《AI法案》平衡過程中的重大創(chuàng)新,也標(biāo)志著監(jiān)管范式的變革,值得我國借鑒與因應(yīng)構(gòu)建。
沙盒監(jiān)管原是金融管理上的概念,最早于2015年由英國金融監(jiān)管局提出。沙盒監(jiān)管指對特定的范圍內(nèi)的對象采取包容審慎的監(jiān)管措施,通過監(jiān)管部門的全過程監(jiān)管與安全范圍內(nèi)的容錯(cuò)糾錯(cuò)機(jī)制,來保證運(yùn)作的安全性并作出最終評價(jià),防止問題外溢。沙盒(Sandbox)是計(jì)算機(jī)術(shù)語,指在計(jì)算機(jī)安全領(lǐng)域的安全機(jī)制,為運(yùn)行中的程序提供的隔離環(huán)境,監(jiān)管沙盒則是一個(gè)受監(jiān)督的安全測試區(qū)。在“監(jiān)管沙盒”測試中,監(jiān)管是在具體的、可控的情境中進(jìn)行的。[21]首先,劃定有限領(lǐng)域范圍,并設(shè)置以技術(shù)實(shí)力為硬件的監(jiān)管部門;其次,申請人申請進(jìn)入沙盒測試并將相關(guān)資料交由監(jiān)管部門審核;監(jiān)管部門對申請進(jìn)行評估,若項(xiàng)目符合安全性與可行性,則協(xié)商確定最佳測試計(jì)劃;然后,在監(jiān)管部門的全程密切監(jiān)管下執(zhí)行沙盒測試,測試結(jié)束得出檢測報(bào)告后,對項(xiàng)目規(guī)則提出建議;最后復(fù)核檢測報(bào)告,決定是否在該領(lǐng)域繼續(xù)發(fā)展或進(jìn)一步投入市場(見圖2)。在金融領(lǐng)域,現(xiàn)階段我國在一些地區(qū)對監(jiān)管沙盒進(jìn)行了試點(diǎn)。[23]而將沙盒監(jiān)管制度引入人工智能領(lǐng)域,可以最大限度地促進(jìn)技術(shù)創(chuàng)新,同時(shí)發(fā)揮沙盒全程監(jiān)視、嚴(yán)密控制、修正不足的優(yōu)勢,以確保人工智能技術(shù)發(fā)展的安全性與可控性。
在通過沙盒測試后,有關(guān)部門仍不能放松警惕。鑒于人工智能存在的潛在危害性,對其監(jiān)管必須采取“前置加后控”的模式。前期精準(zhǔn)捕捉算法技術(shù)和應(yīng)用可能產(chǎn)生的風(fēng)險(xiǎn):對人工智能輸入數(shù)據(jù)的類型、來源、質(zhì)量、體量進(jìn)行篩選控制,對算法的處理方式、標(biāo)注規(guī)則、生產(chǎn)結(jié)果進(jìn)行嚴(yán)密監(jiān)控。在經(jīng)過系列安全監(jiān)控后,產(chǎn)品生產(chǎn)后,通過在開發(fā)程序內(nèi)設(shè)風(fēng)險(xiǎn)預(yù)警機(jī)制,以技促技,動(dòng)態(tài)監(jiān)控人工智能的運(yùn)作過程。在全過程中,一旦個(gè)別節(jié)點(diǎn)出現(xiàn)風(fēng)險(xiǎn)預(yù)警,則應(yīng)當(dāng)立即停止進(jìn)一步研究,如此才能實(shí)現(xiàn)人工智能技術(shù)發(fā)展的可控性。
(二)責(zé)任規(guī)制:現(xiàn)行法律框架下的人工智能損害責(zé)任承擔(dān)
1.責(zé)任基礎(chǔ):“刺破人工智能面紗”
有人擔(dān)心,現(xiàn)在的法律不能完全規(guī)制人工智能的侵權(quán)行為與風(fēng)險(xiǎn),考慮法律是否應(yīng)當(dāng)擴(kuò)大立法范圍,針對人工智能單獨(dú)立法。因人工智能本質(zhì)屬性上仍然是為人類服務(wù)的物,“刺破人工智能面紗”是處理此類侵權(quán)案件的基本原則?;谇拔募夹g(shù)分析與法律主體要件分析,源于人工智能客體地位的結(jié)論,人工智能造成的侵權(quán)損害適用的歸責(zé)機(jī)制。聯(lián)合國教科文組織《關(guān)于機(jī)器人倫理的初步草案報(bào)告》提出讓所有參與機(jī)器人發(fā)明、授權(quán)和使用過程中的主體分擔(dān)責(zé)任。[24]這是對“刺破人工智能面紗”的實(shí)踐體現(xiàn)。
2.責(zé)任形式:產(chǎn)品責(zé)任
根據(jù)《民法典》侵權(quán)責(zé)任編規(guī)定,由物直接導(dǎo)致的損害應(yīng)當(dāng)歸屬于產(chǎn)品責(zé)任,而生產(chǎn)者、銷售者以及過錯(cuò)第三人是產(chǎn)品侵權(quán)責(zé)任的實(shí)際承擔(dān)者。鑒于人工智能不再是簡單的實(shí)用產(chǎn)品,而是智慧型科技,其產(chǎn)品構(gòu)成不僅是外形硬件,更為關(guān)鍵的是內(nèi)在的算法邏輯。所以對《民法典》中的生產(chǎn)者應(yīng)當(dāng)作擴(kuò)大解釋,將設(shè)計(jì)者涵蓋在內(nèi)。具體而言,如果本身存在設(shè)計(jì)缺陷的,設(shè)計(jì)者就是責(zé)任人;存在制造缺陷的,責(zé)任主體是生產(chǎn)者。[13]若因銷售者過錯(cuò)導(dǎo)致侵權(quán),責(zé)任人是銷售者;若是利用人工智能技術(shù)使人工智能無法正常運(yùn)作從而導(dǎo)致?lián)p害的,如黑客,此類人應(yīng)當(dāng)同《民法典》規(guī)定的有過錯(cuò)的第三人屬同類,如運(yùn)輸者、倉儲(chǔ)者,承擔(dān)第三人過錯(cuò)責(zé)任,或涉及刑法規(guī)制的,承擔(dān)刑事責(zé)任。
(三)社會(huì)保障:人工智能強(qiáng)制保險(xiǎn)機(jī)制
保險(xiǎn)制度是轉(zhuǎn)移風(fēng)險(xiǎn)、填補(bǔ)損害的重要手段。如機(jī)動(dòng)車交通事故責(zé)任強(qiáng)制保險(xiǎn)(俗稱“交強(qiáng)險(xiǎn)”),為機(jī)動(dòng)車設(shè)置強(qiáng)制保險(xiǎn)的目的是使交通事故中的受害人能得到賠償。人工智能領(lǐng)域更是如此。人工智能正逐漸在更廣泛的領(lǐng)域和人群中得到應(yīng)用與普及,僅僅依賴國家監(jiān)管和法律規(guī)制,不足以化解人工智能廣泛使用后帶來的社會(huì)風(fēng)險(xiǎn)。必須采取新的經(jīng)濟(jì)措施以規(guī)制人工智能帶來的責(zé)任風(fēng)險(xiǎn)——強(qiáng)制投保責(zé)任保險(xiǎn)。[24]若建立人工智能強(qiáng)制保險(xiǎn)機(jī)制,與交強(qiáng)險(xiǎn)相比,投保主體的范圍必須擴(kuò)大。交強(qiáng)險(xiǎn)的投保主體是機(jī)動(dòng)車的所有人或者管理人,被保險(xiǎn)人是投保人及其允許的合法駕駛?cè)耍辉谌斯ぶ悄茴I(lǐng)域,強(qiáng)制投保責(zé)任應(yīng)當(dāng)貫穿人工智能可能產(chǎn)生危害的全部環(huán)節(jié)。設(shè)計(jì)者對算法設(shè)計(jì)過程和人工智能本身的運(yùn)作過程負(fù)責(zé);生產(chǎn)者對生產(chǎn)過程負(fù)責(zé);投入市場后,使用者對人工智能產(chǎn)品負(fù)有合理使用和管理的責(zé)任,因此,設(shè)計(jì)者、生產(chǎn)者、使用者是人工智能強(qiáng)制保險(xiǎn)的投保者。除此外,基于不同風(fēng)險(xiǎn)等級的人工智能,應(yīng)構(gòu)建相應(yīng)責(zé)任等級的強(qiáng)制保險(xiǎn)制度。面對智能汽車技術(shù),保險(xiǎn)架構(gòu)改革必須既能維護(hù)與實(shí)現(xiàn)保險(xiǎn)的目的,又須促進(jìn)消費(fèi)者對智能汽車技術(shù)的接納。[25]人工智能的發(fā)展與應(yīng)用亦是如此。
結(jié)語
法律規(guī)制的前瞻性要求立法者敏銳捕捉人工智能發(fā)展的前景與風(fēng)險(xiǎn),并采取合理的措施實(shí)現(xiàn)促進(jìn)發(fā)展與降低風(fēng)險(xiǎn)的平衡。在此語境下,我們更要堅(jiān)定人類中心主義的立場,將人工智能視為能夠“為我所用”的工具,而非本末倒置地賦予其主體地位,使其成為人類社會(huì)持續(xù)穩(wěn)定存續(xù)的潛在風(fēng)險(xiǎn)。對人工智能法律治理而言,穩(wěn)扎其客體身份的陣地,允許其在限定領(lǐng)域最大化發(fā)揮促進(jìn)經(jīng)濟(jì)、便利生活的效用,而超越該界限則應(yīng)采取最為嚴(yán)格的抑制措施。當(dāng)我們欲在法律的視野,為人工智能技術(shù)長治長效提供方案時(shí),兼具社會(huì)安全的意識(shí)、技術(shù)前瞻的視野與法律專業(yè)的能力成為應(yīng)有之義、必經(jīng)之路。
參考文獻(xiàn):
[1] NHTSA信函中認(rèn)定谷歌自動(dòng)駕駛機(jī)器人為“駕駛員”[EB/OL].(2016-02-10)[2024-03-20].https://tech.huanqiu.com/article/9CaKrnJTLMm.
[2] 史上首次:沙特授予機(jī)器人公民身份[EB/OL].(2017-10-27)[2024-03-20].http://world.people.com.cn/n1/2017/1027/c1002-29613198.html.
[3] 中國機(jī)器人網(wǎng).令人毛骨悚然的機(jī)器人“殺人”現(xiàn)場,揭示了多少行業(yè)真相?[EB/OL].(2023-11-13)[2023-11-28].https://www.robot-china.com/news/202311/13/85747.html.
[4] 劉憲權(quán).人工智能時(shí)代的“內(nèi)憂”“外患”與刑事責(zé)任[J].東方法學(xué),2018(1):134-142.
[5] 鐘義信.人工智能:“熱鬧”背后的“門道”[J].科技導(dǎo)報(bào),2016,34(7):14-19.
[6] 毛健,趙紅東,姚婧婧.人工神經(jīng)網(wǎng)絡(luò)的發(fā)展及應(yīng)用[J].電子設(shè)計(jì)工程,2011,19(24):62-65.
[7] 張妮,徐文尚,王文文.人工智能技術(shù)發(fā)展及應(yīng)用研究綜述[J].煤礦機(jī)械,2009,30(2):4-7.
[8] 崔雍浩,商聰,陳鍶奇,等.人工智能綜述:AI的發(fā)展[J].無線電通信技術(shù),2019,45(3):225-231.
[9] 劉禹良.人工智能與ChatGPT前景展望[J].武漢社會(huì)科學(xué),2023(2):19-25.
[10] Hinton Geoffrey E,Osindero Simon,Teh Yee-Whye.A fast learning algorithm for deep belief nets[J].Neural Computation,2006,18(7):1527-1554.
[11] 李婕.智能風(fēng)險(xiǎn)與人工智能刑事責(zé)任之構(gòu)建[J].當(dāng)代法學(xué),2019,33(3):27-36.
[12] 司曉,曹建峰.論人工智能的民事責(zé)任:以自動(dòng)駕駛汽車和智能機(jī)器人為切入點(diǎn)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017,35(5):166-173.
[13] 楊立新.人工類人格:智能機(jī)器人的民法地位:兼論智能機(jī)器人致人損害的民事責(zé)任[J].求是學(xué)刊,2018,45(4):84-96.
[14] 邱仁宗.論“人”的概念:生命倫理學(xué)的視角[J].哲學(xué)研究,1998(9):26-35.
[15] 何立民.人工智能系統(tǒng)智能生成機(jī)理探索之六 從弱人工智能、強(qiáng)人工智能到超人工智能[J].單片機(jī)與嵌入式系統(tǒng)應(yīng)用,2020,20(8):87-89.
[16] 吳漢東.人工智能時(shí)代的制度安排與法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017,35(5):128-136.
[17] 周飛燕,金林鵬,董軍.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)學(xué)報(bào),2017,40(6):1229-1251.
[18] 中國工信產(chǎn)業(yè)網(wǎng).三大布局!“十四五”規(guī)劃綱要為我國人工智能發(fā)展劃重點(diǎn)[EB/OL].(2021-03-16)[2023-12-15].https://www.cnii.com.cn/gxdt/202103/t20210316_262088.html.
[19] 國家人工智能標(biāo)準(zhǔn)化總體組、全國信標(biāo)委人工智能分委會(huì).人工智能倫理治理標(biāo)準(zhǔn)化指南(2023)[EB/OL].(2023-04-16)[2023-12-15].https://www.sgpjbg.com/baogao/122388.html.
[20] 央視網(wǎng).全球首部全面監(jiān)管AI歐盟版《人工智能法案》出爐[EB/OL].(2023-12-11)[2023-12-22].https://news.cctv.com/2023/12/11/ARTIguHKWcPWpFWZKgQ8KzuZ231211.shtml.
[21] 易學(xué)文.論“監(jiān)管沙盒”制度的實(shí)踐哲學(xué)轉(zhuǎn)向:以歐盟《人工智能法》為分析對象[J].南海法學(xué),2023,7(4):11-19.
[22] 王衛(wèi).歐盟《人工智能法案》實(shí)行風(fēng)險(xiǎn)分級監(jiān)管[N].法治日報(bào),2023-12-18(005).
[23] 張惠清.我國監(jiān)管沙盒運(yùn)作的優(yōu)化路徑分析:基于國際經(jīng)驗(yàn)的歸納與類比[J].財(cái)富時(shí)代,2022(12):50-54.
[24] 袁曾.人工智能有限法律人格審視[J].東方法學(xué),2017(5):50-57.
[25] 邢海寶.智能汽車對保險(xiǎn)的影響:挑戰(zhàn)與回應(yīng)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2019,37(6):30-42.
【責(zé)任編輯:許潔】
Justification and Regulation of the Status of Artificial Intelligence Objects
LIU Yulin
(Law School, Sichuan Normal University, Chengdu, Sichuan 610066, China)
Abstract: Even if the degree of humanization is getting higher and higher, the nature of artificial intelligence in technology is to simulate human intelligence, so artificial intelligence does not have rational basis and independent will in the composition of the elements, and cannot break through the object bondage and obtain the subject qualification. In the face of the huge risks brought by this high-end technology, technical regulation should be carried out with sandbox regulation as the core, the liability method of “piercing the veil of artificial intelligence” as the principle, and the compulsory insurance system as a means of social security, so as to achieve the balance between safe and controllable artificial intelligence and scientific and technological development.
Keywords: artificial intelligence; object status; sandbox regulation; development and balance