楊菊煥
沈陽工業大學文法學院,遼寧 沈陽 110870
伴隨著人工智能技術和產業的迅速發展,人工智能逐漸從工具化向人性化階段過渡,例如最近很火的ChatGPT,它是一個人工智能聊天機器人,以對話形式進行交互,打開之后只需在對話框里輸入問題就可以獲得答案,可以寫代碼、做題、做產品方案甚至可以幫助寫文章,這些需要人類智慧才能產出的成果如今的ChatGPT 都可以做到。但是,伴隨著人工智能向人性化階段的過渡,它必然會帶來一系列法律上的問題,要想處理好這些問題,我們有必要對人工智能的法律地位展開更深入的思考和分析。
人工智能是指在電腦程序的幫助下,使機器能夠模擬人類智能的一種技術和理論。它是指一系列通過模擬人類智能過程實現智能化系統的措施和手段,包括機器學習、自然語言處理、圖像識別、推理等技術。人工智能不僅可以自動完成各類常規的工作,還能夠學習和適應,從而自主地做出更加智能化的決策和行為,使得機器能夠像人一樣思考、判斷、分析和處理各種信息。通過人工智能,可以實現更高效、更精準、更智能的業務應用,為人類生活、工作和社會帶來更大的價值。
1.工具屬性
在最初的時候,人工智能被發明出來,就是為了滿足人類需要的實用工具。人工智能的發展,是為了更好地為人們提供更多的幫助,從而提高人們的生活質量。人工智能的研究人員,在研發和制作智能機器人的時候,會根據一定邏輯和思維方式,用特定的模式算法以及各種技術,讓機器人按照指令執行相應的任務。
2.智慧屬性
人工智能從一開始被創造出來就是以擁有智能為前提條件,就是為了能夠解放人類的雙手和大腦來更好地幫助人類工作以及生活。例如自動駕駛,它可以把用戶送到指定的地點,它可以自己設定行駛路線,自己調整速度,它可以像人類一樣面對不同的情況做出正確的反應和判斷。人工智能可以對人類的思維過程以及意識進行模擬,具有一定的智慧屬性。
1.弱人工智能
目前的人工智能處于弱人工智能的階段,其本質上是一種可以模仿人的行為,可以獨立地執行某些任務的簡單智能體,在很多學者看來,弱人工智能應該被確定為物。弱人工智能雖然可以進行計算和決策,但是它只是通過指令和程序來作出相應反應,其不具備獨立的意識,做出的行為都是研發者和設計者的意愿。弱人工智能包括有智能語音機器人、地圖的導航系統等,它主要是通過研究人員提前編寫的程序和指令來完成一些特定的行為,如果需要決策的事情的發展超出了預設的程序和指令的范圍,那么弱人工智能對此種情況是無法作出反應的。
2.強人工智能
與弱人工智能相比,強人工智能被認為是有自我意識的,擁有獨立思考問題并且解決問題的能力,不能被定義為物或客體。強人工智能不僅是擁有意識,而且在某些方面,甚至比人類還要強大。這種人工智能擁有與人類類似的思維方式,可以通過這種類似人類的邏輯來思考問題和解決問題,并且能夠自主學習一些復雜的問題。因此這個階段的人工智能的法律地位就會發生很大的變化,法律制度和規范也需要隨之改變。[1]
3.超人工智能
超人工智能目前還未出現在人們的日常生活中,可是,在各種電影、小說中,超人工智能卻是隨處可見的,它們有著自己的思想、世界觀以及原則,它們的思維方式以及思考問題的效率都是人腦無法比擬的。由于超人工智能在現實生活中還未出現,還存在于人們的想象中,因此無法對其進行確切的定義,不過大多數人都認為,超人工智能的智力水平要比人類高得多,無論在哪個方面,它都是凌駕于人類之上的。那么當超人工智能時代來臨的時候,人類或許會面臨一場很大的主體性危機。
法律主體資格是指在法律上認可的作為能夠享有和行使權利、履行法律義務、承擔法律責任的主體的法律資格。[2]也就是說,法律主體資格是資格的擁有者可以在法律上享有權利、承擔義務和責任的前提條件。
從法學的角度來看,“機器人”究竟是“人”還是“機器”,這是一個“人”與“機器”的關系。例如在民法理論體系中,“人”和“物”是兩個最重要的基礎范疇。主體和客體,人和物是嚴格區分的。除了人類以外,不具有精神、意志的生物屬于物,是權利的客體。[3]如果將人工智能看作人類,并賦予其法律主體資格,那么會很難在現有的民法理論中得到合理的解釋。民法意義上的人,必須具有獨立的人格,這種主體既可以是具有自然屬性的人,也包括法律擬制的人,例如法人。但是在人工智能時代,這些觀點卻受到了越來越多的沖擊,一些觀點認為可以為一些具有自主性的人工智能產品賦予擬制人格。
隨著人工智能技術的快速發展,越來越多的智能系統被應用于法律領域,例如,人工智能系統具有自主學習和判斷的能力,能夠根據規則和數據進行行為決策,可以處理各種任務和業務,并產生一定的法律影響。這些特征使得人工智能系統具有一定的主體性,也可能具有權利和責任。法律主體地位問題一直是法學界和各部門法學研究的重點,而由人工智能引發的一系列法律問題最終都可以歸結為這一問題。人工智能能否享有權利、承擔義務及承擔責任,以及是否具有與自然人和法人相似的法律人格,這是傳統法律主體理論面臨沖擊的直接反映。并且隨著人工智能所能應用的領域逐漸擴大,對于法律主體理論的沖擊就越強烈。[4]
這種觀點認為,人工智能應當是具有自身權利和義務的法律主體。這一觀點的合理之處是,確定人工智能的法律主體地位,就可以將其納入法律規范的限制之中,就可以利用法律的手段來規制人工智能,從而在很大程度上控制人工智能的行為,維護社會的穩定性。不過其不足之處在于,它并沒有考慮到目前為止,大部分的人工智能都還處于較弱的狀態,只是執行程序的工具而已,在這種情況下,如果人工智能發生了犯罪或者侵權,若是肯定其法律主體地位,那么就不能追究其幕后的自然人的責任。這樣的安排,會影響到法律的穩定,影響到法律的權威。
該學說認為,人工智能無法作為法律主體,其法律主體地位應明確為法律客體。這一觀點的合理性是,目前的人工智能大多數還屬于弱人工智能,只是通過指令和程序來作出相應反應,其不具備獨立的意識,還不能成為法律主體。如果不加考慮就盲目地肯定人工智能的法律主體資格,若由于用戶或者研發者的操作不當,致使人工智能做出侵權行為,那么堅持讓人工智能承擔責任就顯得不合理了。此觀點的不足之處在于沒有把握住當前智能化快速發展的大趨勢,人工智能技術和產業發展迅速,現在就否定其法律主體資格太過倉促,根據現在人工智能的發展趨勢,人工智能通過不斷的發展和進化,會逐漸接近于人類,那時的人工智能已經不再是工具或者應用產品了,可以作為法律主體來對待。
這種觀點認為,人工智能應該具有有限的法律主體資格,這一觀點對肯定說的理論給予了肯定,并在此前提下指出了其權利的有限性。這一理論實際上是認為,人工智能的法律主體范圍受到了限制,只有符合條件的、覺醒后具有意識的人工智能才能成為法律主體。該觀點的合理性在于,人工智能需要被規制,但是現階段的人工智能又不具有完整的法律人格要素,而賦予其有限的法律主體資格可以很好地解決這一問題,只是讓人工智能在特定情況下享受某些權利。這種做法可以用法律對人工智能進行一定的管控,改變了人工智能處在法律管控之外的現階段情形。這種觀點的不足之處在于,人工智能是研發和制造出來的,不同于人類,自然不能享受完全的人格權。此外,最重要的是,賦予人工智能有限的法律主體資格意味著需要對其權利義務做出限制或者設定條件,但是由于現實因素太過復雜,且人工智能還在不斷地發展,對于賦予其有限法律主體資格的限制和條件無法明確,因此,即使給予了人工智能有限主體資格,它也不能解決實際問題,沒有太大的意義。
對人工智能法律主體資格的規制,人類和人工智能的區別就成了一個很重要的問題。如果只是從是否具有自主性以及事務處理兩個角度來看,人工智能與人類并沒有得到有效的區別。[5]為凸顯人的獨特性、維護人的尊嚴、保障人的主體性,我們要審視人的主體性,將注意力集中在人獨特性上,也就是在道德層面將人與人工智能區分開來,從而真正建立起獨特的主體地位。
雖然人工智能能夠做出一些與道德有關的行為,例如提醒駕駛員系好安全帶,但這種動作只是一種編程,并不是真正的道德判斷。相比之下,對于人來說,道德判斷必然是建立在內心意識基礎上的,也就是人對某種行為的對與錯有著一種內心的判斷,而不是僅僅建立在觀察者視角上的一種規律性考察。人工智能無法擁有這樣的自我判斷力,人類的道德主體性是其無法達到的。正是由于人類作為道德主體所具有的這一特性,才需要對其加以重視,以最大限度地發揮人類自身的獨特性,防止人類與人工智能混淆。因此我們要厘清人類作為現實世界中唯一的道德主體的原因,從而在理論上為人類的道德主體地位提供依據,進而維護人的主體性。
由于人工智能將來發展到何種程度尚未可知,所以在法律上很難對其進行規范,但是在法律上也不能忽視它的應用。應該堅持對人工智能進行合法性審查,這里的合法性審查就是對其是否符合現有的法律規定進行的審查。我國現行的法律制度是建立在人的主觀能動性基礎上的,而有關的法律法規則是確定了人的主觀能動性的界限,所以,通過對人工智能進行正當性審查,可以最大限度地防止人工智能對人的挑戰或威脅。在對人工智能的應用進行合法性審查時,需要做到人工智能不能干擾人類的自主決策,也不能直接代替人類對重要問題的決策。人工智能的應用必須建立在一個不影響人類主體性的法律框架之內。
人工智能的學習和發展是依據各種數據完成的,但數據非常龐大且多樣,我們無法確保人工智能在學習過程中不會受到有害信息的影響。而且隨著人工智能的深度學習能力的發展,有時可能不是人類可以控制得了。這就要求我們加強人工智能的倫理建設,一方面,人工智能經過高度學習之后可能擁有自主意識,更甚在未來會開始出現“情感”,這會給它帶來很大的道德風險,如果有一天,人類完全失去了對它的掌控,那么后果將會非常可怕,因此我們要做到對數據進行優化,對有害信息進行篩選,并在為人工智能設定程序和算法時,參考人類的道德標準;另一方面,有必要建立一個倫理審查委員會,對人工智能研究與開發人員的道德問題和人工智能產品進行實質審查和倫理審查。同時,需要堅持以人為本的理念和原則,因為人工智能產生的目的就是方便人類、服務人類,它的發展也離不開人類的力量,可以說以人為本是人工智能發展的根本目的。因此在人工智能發展和應用的整個過程中要始終堅持以人為中心的理念,以服務人類為目的。并且在開發和運用人工智能時,也不能對人類的權益造成損害,特別是對生命、健康等權益的損害。
人工智能的發展速度越來越快,現在已經完全深入人們的日常社會生活中,對我們的思維方式和生活習慣已經產生了很大的影響,引發了一系列社會問題,解決這些問題的關鍵是對人工智能法律主體資格的認識,法律主體地位的問題得到完善或者解決,才能去解決接下來一系列的法律問題。