秦 平
對外經濟貿易大學,北京 100105
今天,以人工智能為首的信息革命正在極大地改變著世界,人工智能已不是簡單服務于人類社會的機器,其發展的最終形態是逐步向人類本身靠近,很難排除在未來的某一時刻,人工智能達到類人的程度。從法律的層面來看,是否賦予人工智能主體地位,該以什么樣的法律來規制人工智能擺脫人類意志而行的侵權行為,是不可忽視的問題。
人工智能之所以存在可罰性問題的原因是強人工智能存在其脫離主體意識而為的侵權行為,如自動駕駛引發的車禍,聊天軟件學會了暴力、侮辱、厭世的反動人工智能、智能機器人非因程序指令傷人或殺人等。對于強人工智能的非程序性侵害事件,損害結果到底該由誰承擔?是否應該對強人工智能進行懲罰?這些問題都是目前學界所討論的問題[1]。
部分學者認為強人工智能的非程序性問題需要由人工智能本身承擔,也即人工智能具有可罰性。但筆者認為人工智能不具有可罰性。
一般認為,在弱人工智能時代,人工智能在法律上仍應被界定為權利客體。但在強人工智能時代,是否應當有條件或有限度地賦予人工智能法律主體地位。人工智能成為民事法律主體的必要條件與因素,國內學者的研究主要有以下幾個方面。
關于人工智能能否產生獨立意識問題,大部分學者認為,從科學技術角度來說,強人工智能的發展雖處于迅猛時期,但讓人工智能擁有類人的主觀情感以及對外部世界的感知和實踐能力是不可能實現的[2]。例如,在情感方面,雖然目前人工智能系統已經能夠用多種方式識別人類的情感,但對于數據的處理與儲存只是對外部世界的刻板僵化反映。
部分學者認為,“人”與“人格”從概念上就已被劃分,法律上的人格并不需要自然人格的支撐,[3]因此,賦予人工智能人格未嘗不可,法律主體亦由最先的自然人擴張至法人,那么人工智能加入主體行列并非無法逾越的鴻溝。另一部分學者認為,人工智能是否享有法律主體地位取決于其發展的程度,法律只需在人工智能發展為具有“類人”特征時,將其列入法律主體地位即可[4]。但一些反駁觀點認為,無論人工智能發展到什么程度,都無法成為法律主體,且人工智能不具有發展成為“類人”的可能性,當此種人工智能存在威脅時,人類會自動阻止此類人工智能的產生。技術雖然能夠借道德物化的功能來展示自己的某種“自主性”,但是實際上技術不可能具有自主性,因為技術所表征出來的意義和功能都是人所賦予,只是使技術人工物在功能上看上去有“自主性”和“意向性”而已[5]。
在自然人主體資格標準的問題上,從古至今主要有理性說、感性說、德性說、神性說四種學說,大部分國家的法律主體資格標準采用的是理性說。理性說,指具有主體資格的存在者擁有辨別對錯、合理預見和控制行為的能力[6]。理性自然人具備主體資格,也是法律層面上的主體和客體的本質區別。人類的理性源于人的自主意識,而自主意識造就了人類的“自由”,此種自由并非生理上的自由,而是心理上的自由,即具有選擇性。雖然動物也具有自由,但此種自由不具有選擇性,動物無法意識到自己選擇之目的,即不具有“被支配之自由”。因此人類具有理性,而動物不具備。康德認為:“有理性的生靈叫做人,因為人依其本質即為目的本身,而不能僅僅作為手段來使用”即理性使得人存在本身即為目的。[7]人可以改變、創造世界,也可以制定、廢除法律,人的自主性使得其自然而然成為法律之主體。
人工智能卻不具有此理性特征,雖然目前一部分強人工智能具有自主選擇和自主判斷能力,但這些能力并不意味著人工智能與人類具有相同的理性部分。人工智能的運作是靠既定的編碼程序進行運行,無法脫離人類之操作而自主行為,更不具有獨立的辨別對錯、合理預見的能力,無法通過類似人體的主觀意識去做選擇,因此,其不具備理性特征。
法人乃法律規定之產物,這主要得益于法人同時具備實體性基礎、實益性基礎和法技術基礎:一是實體性基礎,法人之所以具有實體性基礎在于其具有獨立的意志和獨立的財產。法人雖非人,但其本質是一個自然人的集合體,其意志是自然人團體意志的體現。同時,法人之所以能脫離自然人獨立地運行,成為交易的主體,在于其擁有獨立財產。法人的獨立意志與獨立財產是法人實體性基礎的構成要件。二是實益性基礎,指法人之社會價值。早在羅馬時期,簡單商品經濟下的法律制度已經體現了初級團體人格理論。但直至自由競爭與壟斷并存的資本主義時代的到來,團體制度才顯得尤為重要,法人制度才能夠應運而生。因此,實益性基礎被認為是法人制度之根本依據。三是法技術基礎,即法人之法律基礎。羅馬法的高低人格與有無人格之分是歷史上第一次將人與人格分離的法律,奠定了現如今的法律人格理論。而非人的法人被賦予了人格,即具有了法律上的主體地位,逐步發展成現今的團體人格的法人制度。故法人之所以具有法律主體地位,是因為其同時具備實體性基礎、實益性基礎和法技術基礎[7]。
而人工智能,其作為人類社會發展的工具之一,是否也能與法人一樣具有人格呢?從實體性上來看,目前的人工智能沒有自由意志,其行為乃人的意志,此點與法人類似,隨著科技的發展,人工智能具有獲得自由意志的可能性極大,擁有獨立的經濟基礎也不無可能。因此,人工智能的實體性基礎隨著社會的發展將呈現現實化。從法技術基礎上看,由于羅馬法的人與人格分離理論的產生,法技術基礎也同樣可以適用于現代強人工智能身上,因此也符合法技術基礎要件。從實益性基礎上看,一是人工智能創造物歸屬問題,二是人工智能侵權問題。人工智能是以既定的編碼為基礎來運行的,通過黑箱處理后而創造出產物,是一種機械式的表現形式,而當代知識產權所保護的作品,是人的一種“個性”,是人類所獨有的創作表現形式。即便人工智能被賦予主體地位,其對于作品也僅具有虛名無法享受實益,且機械式的作品在法律層面受保護也是不具有任何意義的。有學者認為,未來強人工智能若賦予獨立意志而擺脫人類預先設定的程序獨立行為,其侵權行為卻由生產者承擔是不公正的。但若侵權行為由人工智能自己承擔,將責任推脫于此種虛擬人格上,失之偏頗,此做法容易促成生產者形成逃避責任的心理。因此,人工智能被賦予主體地位不具有實益性基礎,不能擁有像法人一樣獨立法律人格。
科技的發展將人工智能擁有獨立意識的可能性提高,擁有獨立意識的人工智能類同于自然人所擁有的理性要素,因而具有可罰性。康德在《道德行而上學》中對“意志”的界定有三個要素,即理性、選擇、目的。[8]人工智能是否擁有獨立意識,即從以上三個角度展開。
1.人工智能無獨立辨認能力
法律對人的行為的規范程度通常以人對于自身的辨認能力為基礎,[1]具有完全行為能力的人需要承擔完全的法律責任,具有限制行為能力或者無行為能力人承擔相應的責任或無需承擔責任。因此,法律責任主體對其自身的侵權行為是否具有辨認能力對于其承擔法律責任而言是至關重要的。
人工智能的辨認能力與人類的辨認能力相比較可以看出人工智能的辨認能力是存在缺陷的。人類的辨認能力源于經驗、心智、理性,是由生理與心理共同構造而形成的,強人工智能的辨認能力源于編碼程序和算法,二者的形成機理完全不一樣。人類的辨別能力來自生理能力和理性判斷,而人工智能的辨別能力是每一次精確計算出來的結果,在結果的精確度與正確度上,人工智能可能超越人類,但并不意味著其具有與人類相同的辨認能力。因此對其進行懲罰是毫無意義的。
2.人工智能無獨立思考能力
思考能力是選擇的前提,每一個選擇行為的背后都包含著思考。目前,強人工智能已具備初步的思考能力,但此“思考能力”是對人工智能程序運行過程的一種表述,與實質的“思考能力”存在差異。本質上人工智能的思考能力依舊是對既定程序的一種處理方式,其不可能脫離基礎程序設定而自主運行。而思考能力是獨立意識的表現形式之一,無自主性的思考能力的人工智能即不具有獨立意識。即便人工智能具有發展出自主思考能力的可能性,人類也會因排除人工智能威脅,而阻止人工智能發展出獨立思考能力。所以人工智能目前所表達的“思考行為”實際上是人類借由人工智能作出的意志表現。[9]
3.人工智能無獨立感知能力
法律以懲罰的形式使不法者產生了生理與心理上的雙重壓力與痛苦。法律制度的設置正是通過對不法者施加痛苦,迫使其對自身所為產生正確認知,且對不法行為產生悔恨之意。以此標準,人工智能倘若具有可罰性,則其必定需要具有感知痛苦和產生負罪感的能力。強人工智能能夠基于大數據和內部算法的運行形成自我深度學習的能力,但對其懲罰的形式有限且難以證明強人工智能是否真正能感受痛苦。諸如刪除數據、重新設定等懲罰形式,由于強人工智能的學習轉換知識的能力是通過“黑箱技術”進行加工處理,設計人員無法知道人工智能經過黑箱轉換以后會以何種形式輸出數據。此種情況下,更無法驗證強人工智能是否擁有外部感知能力以及內在情緒形成程序。而對于限制自由等身體罰,需要強人工智能本身能夠了解到自由的概念,若其沒有自由的觀念,便不會由此感受到人身限制所帶來的痛苦。目前來看,人工智能無法感知精神和身體痛苦。
對于人工智能進行財產罰需要分為兩個層次進行討論:第一,以目前法律規定層面探究。人工智能處于客體地位,其本身屬于主體的財產,因此,人工智能不具有獨立財產。對人工智能的財產罰等同于對人工智能的所有者或生產者的財產罰,不符合嚴格意義上的人工智能財產罰概念。第二,即使人工智能擁有獨立財產,卻不具備財產罰的實質要件。財產罰是對加害者的經濟進行壓迫的懲罰形式,而人工智能無法具有類似自然人的理性情緒,無法形成對財產損失上的壓迫心理,這也意味著對人工智能實行財產罰,并無法避免其可能存在的再次侵害行為。從被害者角度討論,由于人工智能無理性情緒,即便被害人得到損害賠償,也無法撫平其內心的創傷。被害人得到賠償損害的實質不僅是對自己損失的填補,更是通過對加害者的經濟壓迫而滿足內心“報復”的快感,但此種“報復”快感將被人工智能的自身條件所阻斷,并不能滿足被害人心理上的慰藉。
在不久的將來,強人工智能將不斷向類人方向探索,可能產生出擁有自由意志之人工智能。因此,其法律主體地位值得深度探討。筆者認為,即便是擁有獨立意志的人工智能也無法成為法律之主體,人工智能的產生只是為人類建造美好世界的一種手段與工具。如同自然人存在本身即為目的一樣,人工智能存在本身即為手段,所以不應當賦予其主體地位。從處罰方面來看,對其處罰無異于對一臺機器的處罰,其不具有生理與心理上的痛苦感知能力以及辨認能力,無處罰價值。綜上所述,不論現今的強人工智能還是未來的“類人”人工智能均不適宜賦予法律上的主體地位,因此其也不具有可罰性,其所為的法律行為以客體角度看待即可。