●王洪濤 呂希鈺
人工智能(Artificial Intelligence),當前社會范圍內將其簡稱為“AI”或“AI 技術”,其最早是由以麥卡賽為首的年輕科學家在1956 年的一次聚會中,大家共同探討與機器模擬人類智能的一系列有關問題時首次提出,但對其概念定義最早的且較為流行的,是由美國計算機科學家約翰·麥卡錫于1956 在美國達特茅斯學院的研討會上正式提出。簡單來說,人工智能就是智能機器模仿人類行為的能力,人工智能開發的目標也是滿足人類追求生產、生活自動化的理想和需求,進一步幫助人類更好地處理關鍵和復雜的任務和情況。人工智能已經從20 世紀中期的一個理論概念變成了現代社會各國實力角逐的砝碼,并且其帶來的不僅是國力強盛,更是豐富便利了人們的生活,我們完全可以承認:人工智能時代的序幕已經拉開,人工智能已經滲透到人們生活的各個角落,與人們的生活不可分離。而本文所探討的“人工智能實體”,指的是人類將創設的人工智能程序附著在某一機械或其他材質的實體物質上,創設出的仿人類智能機器,即具備人工智能的實體物。因為人工智能本身只是人類將智慧變為程序運算的產物,其并不具備實體,只有將人工智能與實體相結合才能創設出對人類生活實際有影響的人工智能實體。
但也正是伴隨著人工智能實體在智能與實體能力上的不斷發展,新的矛盾和糾紛隨之產生,德國就有發生人工智能錯誤執行指令,致使工人被誤傷致死的慘案。近期美國發生的無人駕駛汽車交通肇事致人死亡事件,也是大大超出了人們對人工智能安全性的預期,更多地引發出人們對人工智能安全性的擔憂,即對人工智能可控性的擔憂。勞倫斯·萊斯格(Lawrence Lessig)的格言“代碼就是法律”(Code is Law)認為,計算機硬件和軟件的組合,就像人類現有的監管模式一樣,可以約束和指導人類行為,所以人工智能并不直接受到現有社會體系和法律體系的限制,其只能按照即有的程序開展工作和學習。如果他們只會以某種方式這樣做,而且只能用于某些目的,人們可能出于某些目的將機器人視為人(或動物),人工智能具有逃避人類規劃和期望的獨立行為能力。而當這種獨立的行為能力變得越來越接近人類,一旦其開始掌握學習新知識和面對新情況的獨立能力,那么人們將很難預測其下一步的行為會是什么。
筆者認為,當前人類所面臨的不單單是發展人工智能、控制人工智能的危害風險,更重要的是在人工智能導致了社會損害時如何予以救濟。如人工智能技術被人類濫用或誤用而導致的社會危害如何擔責?人工智能體憑借自身高科技的學習系統獨立行動導致社會損害誰來負責?而這些問題的關鍵就在于刑法是否承認人工智能的獨立法律地位。筆者認為,基于現階段人工智能的發展進程,我們不能僅局限于現有技術的范疇進行討論,法律的目的不僅是救濟,更兼具預防功能,故我們應當大膽地假設除現有的人工智能技術外,對更高層次的人工智能應當如何進行法律規制。因此,我們不妨先對人工智能進行理論的分類,進而探究其是否具備承擔刑事責任的資格。
人工智能按照不同的分類標準、不同機構,其劃分的類別也不同。其中刑法學界討論中引用最多也是最獲得眾多學者認可的有“二分法”“三分法”和“四分法”,其中科學界較多關注的分類標注為“四分法”,即將人工智能分為四個層次:最低層的是弱人工智能,即只能按照設計人員即定的程序開展固定的工作,如家庭中常見的掃地機器人、溫控空調等,此類產品只能識別某項特定的事物,并圍繞其展開工作;中間層次的是中人工智能,即能夠與人類互動,按照人類的設定的程序,按照不同的指令進行工作;高層次的是強人工智能,即能夠通過自主學習產生不在即定程序內的獨立創造,其自身可以通過不斷的學習進行升級;最高層次的是超人工智能,此項分類目前還只是存在在科幻電影和科學家的理想環境中,即完全的和人類相同,擁有自己獨立的思考和創造能力,具有普通人類的感情。法學界的分類較科學上的分類略有不同,因為鑒于法學上區分主體是否需要承擔民事或刑事責任能力,不論是從年齡劃分還是從是否患有精神疾病劃分,其本質上均是在考量行為人是否具有獨立的、正常的思維、思考、辨認、控制的能力。因此,法學上對人工智能的討論多圍繞“二分法”,即人工智能劃分為“弱人工智能”和“強人工智能”兩個層次,其劃分的標準就是人工智能是否具有獨立思考的能力,即能否從人類設定的已有程序中獨立創設行為和思想。本文也是采取法學界的通說“二分法”,對人工智能從強人工智能和弱人工智能兩個方面展開討論。
按照當前法律的規定,刑事責任主體是指實施危害社會的行為,依法應當負刑事責任的自然人和單位,即只有自然人和單位是承擔法律責任的主體。但筆者認為就當前時代發展的進程而言,此規定已經不能完全符合當下時代的發展。法律的對象并不是人,而是人的行為,即受到法律限制的并非是人或法人這些主體,而是主體所實施的行為。如果某一主體(如本文所探討的人工智能產物)雖然不具備人的生命屬性,也不具備法人的組織性,那它是否能夠成為刑法規制的對象呢?因此,當前學界針對人工智能實體是否能夠成為刑事責任主體有如下兩種觀點:
一部分學者認為人工智能實體不存在自我意識和感知力,在實施社會危害行為時,人工智能實體只是產品研發者和實際控制者的犯罪工具,是他們智力和體力的延伸,就類似于故意殺人罪中的刀、槍等工具,由其承擔刑事責任,明顯與刑法中刑事責任主體的立法本意相悖,故其不能成為刑法意義上的刑事責任主體。
還有一部分學者認為,對人工智能實體的認識不能僅僅局限于當前人工智能實體的科技水平。時代在發展、科技在進步,人工智能實體完全可能產生自己的意識和意志,故應當結合人工智能實體自我意識的強弱對人工智能產品的刑法規制進行具體的分析和判斷,即在原有設計者即定的編程范圍內,人工智能實體按照設計者的意識和意志實施犯罪行為,或者是按照實際控制人的實際控制實施的某些不法行為,則應當將人工智能實體看作人類實施犯罪行為或者是工具;而當科技發展到一定階段時,人工智能實體可能自身能夠產生超越即定編程的范圍,按照自主的意識和意志實施控制自身實體實施違法犯罪行為,這樣的人工智能實體完全能夠也應該自己承擔刑事責任。
筆者贊同第二類學者的觀點,即對于人工智能是否應當承擔法律責任,應當采用分類討論的方式,不能單純地一概而論。具體分析如下。
1.弱人工智能實體不能成為承擔刑事責任的主體。首先,弱人工智能是按照人類即定的程序開展工作,同時受到人類行為控制和支配的,其僅能作為人類生產生活的輔助,類似于大腦與四肢的關系,完全的按照人類預先設定的并預期的方式進行作業或反饋,其自身即使能夠學習到新的技能或者有進一步的升級,也是專業技能上的升級,并非是其自身具備了思考、控制或者預判的能力。就像Alpha 圍棋機器人,即使其學習了再多圍棋技能,并且其根據自身的學習功能已經推演出更高級的圍棋算法,但是其始終沒有產生情感,不能做到自我的控制,甚至不能從事與圍棋無關的任何事,所以其并不能夠辨認其他事項,更不具備控制自己實體的能力。因此,其不具備作為刑事責任承擔主體的基本要件。
再次,如果將弱人工智能當作犯罪主體看待,現有刑法將會受到根本性的沖擊。從類比的角度看,如果將弱人工智能實體在程序控制下實施的行為定義為刑法上的違法犯罪行為,那么人類的無意識行為(如精神病人的行為)及受控制行為(間接正犯中的實行行為)從行為的外觀上更貼近刑法意義上的“社會危害行為”,這就會導致刑法在適用刑事責任主體時的法律適用混亂,無限地擴大了刑事犯罪責任主體的范疇。所以,如果將此種無意識的不受實體自身控制的行為納入刑事犯罪懲罰的范疇之內,這對傳統刑法理論的打擊是致命的。
最后,人工智能并不具備主觀能動性,不能形成犯罪的主觀故意。主觀意識是人類區別于機器的關鍵。而犯罪之所以被懲罰,不單單是考慮其行為的社會危害性,更要考量其主觀上的意愿,如刑法中就明確規定了故意犯罪與過失犯罪在刑罰上的區別。而作為不具備主觀意識的弱人工智能,其并沒有獨立的主觀意識,其根本不能意識到自己行為的定性,與刑法中的14 周歲以下兒童及嚴重精神病患者一樣。因此,其不能成為刑事上的責任承擔主體。
2.弱人工智能犯罪刑事責任承擔問題探究。因為弱人工智能不能為自己的“行為”承擔刑事責任,那么由“弱人工智能”導致的刑事犯罪,應當如何追究刑事責任,成為了廣大學者探討的話題。筆者認為,此問題不能簡單地一概而論,因為導致犯罪行為產生的原因可能存在很多種,如開發者的設計程序原因,又如生產者的產品質量原因,還有實際使用者的實際操作原因,故應當對不同原因導致的責任進行分類討論。
(1)程序問題、被實際操控人利用——開發者責任。如前文所述,弱人工智能的工作行為和模式是按照開發者即定的程序展開,如果開發者利用弱人工智能程序上的漏洞,或者專門制作某一程序,使得弱人工智能成為其犯罪的工作,那么在生產方和實際控制人均不知情的情況下,弱人工智能實際上是開發者為了犯罪而設計的工具;還有如弱人工智能的實際控制人,利用弱人工智能的某項研發功能不是為了生產、生活的便利,而是為了實施某項犯罪,那么這些情形中,弱人工智能實際上就是開發者或者實際控制人為了實施犯罪而利用的工具,即此時的弱人工智能與故意殺人罪種的“刀、槍”等一樣,此種情形可以直接對開發者和實際控制人以其實際實施犯罪定罪量刑。
(2)生產方問題——產品責任。人工智能產品與其他所有的產品一樣,其質量問題一直是廣大消費者、使用者最關心的問題。對于其產品質量,按照現有法律規定,完全能夠追究相關人員的刑事責任,即如果是由于生產方生產的弱人工智能產品不符合產品質量的規定,可以依據弱人工智能產品性質的不同,按照《刑法》第三章第一節的法律規定,追究生產者生產偽劣產品或者不符合標準產品的生產者責任。
在探討強人工智能能否成為刑事責任主體,即能否以自己的名義承擔刑事法律責任的問題上,我們需要深入剖析,按照現有刑法的規定,何為刑事責任主體?能夠成為刑事主體的內在要求是什么?為什么有些主體不能或者有條件的承擔刑事責任?
依據《刑法》第16、17、18 條規定可知,首先,刑事責任能力劃分的第一要素是年齡,對年齡在14 周歲以下的自然人,不須承擔刑事責任;其次,精神狀況,精神病人在不能辨認或者控制自己行為時造成刑法意義上的危害結果時,只要經由司法鑒定程序確認其行為是不能辨認或控制的,也不承擔刑事責任;最后,《刑法》第30 條對于單位犯罪的規定可以看出,單位作為犯罪主體其本質還是人的行為導致,只是在處罰上由單位承擔了一部分的責任。因此,我們不難看出,能否成為刑法意義上的承擔刑事責任的主體取決于行為人對自己行為的辨認能力與控制能力。因為不論是年齡的限定還是精神狀況的限定,均是以行為人對自己行為的辨認能力與控制能力作為標準進行的衡量。具體而言:辨認能力是指行為人在實施某項行為時能夠認識到自己特定行為具有的行為性質、結果與最終意義的能力;而控制能力是指行為人自己支配實施或者不實施某項特定行為的能力。而作為模仿人類智能的人工智能,如果能夠其不能產生獨立的行為和工作模式,只是單純的按照人類即定的程序進行工作,那應當由其實際操控人或設計者承擔責任無疑;但如果人工智能能夠通過學習,產生其自身的思維方式和行為,即具備了獨立的辨認能力和控制能力,那就應當能夠承擔刑事責任。因此,筆者認為,強人工智能能夠成為刑事責任主體,應當比照刑法中現有的對自然人的法律規定進行處罰,不必另設法律予以規制,具體預設的情形如下:
1. 人工智能實體在自身獨立意識支配下實施的犯罪行為,只需對這實體進行處罰。本文所稱人工智能的獨立犯罪,是指人工智能在其自身預設的系統外,通過其自身學習、思考后產生獨立的行為,并進而實施犯罪的獨立行為,即行為必須是通過人工智能自主意識形態下實施的。筆者認為,此種行為與人類的行為無異,是人工智能自主思維意識的體現,如果不能證明研發者在研發的過程中存在程序設計上的瑕疵外,或者實際控制人在操作使用的過程中存在故意或者重大過失的情況下,不能要求人工智能的設計者及實際控制人承擔責任,這與刑法中,父母對子女的教育或者培養存在缺失,最終造成子女的心理存在缺失導致產生犯罪行為,不能要求其父母承擔刑事責任一樣,如果不具備年齡或者精神缺陷,必須由其本人承擔刑事責任。但當前學術界,也有很多學者提出,即使是強人工智能具備了自己的獨立意志,也不能成為刑事責任主體。理由有二:
其一,人工智能實體不具有違法認識的基礎性。人工智能實體的運算基礎是人工智能即定的程序,其運算的過程類似于數學和物理上的公式,其并不收到周遭環境的影響,而法律的形成是歷經人類長期發展史的產物,其規制的是對社會倫理長期積淀下的人的行為。而人工智能并不具備人類的社會屬性,不具有人文屬性。刑法上要求承擔刑事責任的前提條件就是思維意識正常,對其行為的辨認能力和控制能力有準確的認識,但對人工智能來說,其未經過社會周遭倫理道德的環境影響,對人類社會的法律并沒有明確的認知。因而,人工智能的程序對人類社會的規制不可能有明確的認識,其對于自身行為在社會文化中的定位和認識,難以與人類相統一,其難以認識到自身行為的違法性。
其二,將人工智能實體犯罪納入刑法范疇具有本質上的隔閡。首先,現行刑法中的全部罪名設置并沒有考慮到人工智能實體的特性。現有法律規定不具有約束人工智能實體犯罪行為的現實性。我國刑法中罪名共計458 個,雖然隨著社會的發展,現有的罪名也是從少數罪名增加至此,而且還有繼續增加的趨勢。但是從現有罪名的設置上看,其針對的主體還是人的行為,即便是再增加罪名,也是圍繞人類的新型行為,不能脫離現有的刑法體系結構。但如果把人工智能實體納入刑事責任主體的范疇,那就不能單從人類的行為范疇內考慮,立法者還需要將人工智能犯罪行為的特點納入立法的考慮范疇之內進行衡量,并且有針對性地設置人工智能實體適用的法條。這就不單單是增加主體的問題,而是整個刑法體系的修改。而現階段來看,強人工智能只是人類的假想,并不是現實存在的。因此在現階段對其進行研究缺乏現實的依據和基礎,無異于空中樓閣、紙上談兵,故不應當過早地討論。其次,從現有刑罰的手段上看,將現有的刑罰作用于人工智能實體,不具有現實的可操作性。我國現有刑罰體系中對能夠作用于人的包括有罰金刑、限制自由刑(管制、拘役、有期徒刑、無期徒刑)及生命刑(死刑),對于人類而言,上述刑罰均對人有足夠的威懾力。因為不論金錢、自由、生命,均與人類的生活息息相關,但如果將這些刑罰作用于人工智能實體,產生的效果將完全不同。如罰金刑,人工智能實體對于自身的開銷可能遠遠低于人類的開銷。因為其并不需要滿足生理上諸如飲食、病理等現實需求,其能夠生存的成本可能非常低,所以罰金對其并不具有可罰性,而且其完全可能不擁有財產;而自由刑則更不具有現實意義。因為其實體是由人類打造的,其生存的時間可能遠遠長于人類,那么自由刑對其的威懾將毫無意義,還消耗了大量的人力物力去實施刑罰;而死刑可能對其更不具有意義,因為其自身的生命體就是人類制造并賦予的,人類完全可以再另行制造、生產一個相同的人工智能實體予以替代。
筆者認為,部分學者的上述觀點不能成為否定人工智能刑事主體資格的理由。首先,人工智能可以認識到違法性。因為違法性的認識并不是與生俱來的,人類對于違法行為的認識也是通過不斷學習、認識、理解,最終形成習慣的。而人工智能只要具備了自主學習的能力,其完全可能具備違法性認識,其甚至可以通過程序預設的方式去預先設定違法禁止性程序予以規制,其本身就可能具備比人類更強更準確的違法性。因此違法性認識不能成為人工智能不能作為刑事責任主體的理由;其次,人工智能具備擔責的可能性。我們要用發展的眼光看待任何問題,雖然現階段的人工智能并不具備與人類相同的獨立思考能力,但隨著社會和科技的發展,人類生產力的不斷進步,科技能夠進步到何種程度,是我們現階段無法預測和想象的。因此,我們不能局限地用現在對人工智能的認識去假設未來的情形,所以,當人工智能發展到成熟的階段,其能夠以自己對自己的行為有明確認識和認知,能夠為自己的行為承擔責任;再次,法律并不是教條而死板的。其本身就是隨著人類的發展而不斷完善和改變的。而且從現階段的人工智能發展來看,現有的法律完全可以應對當前涉人工智能案件的情形,如果真的出現現有法律不能涵蓋的情形,我們也可以通過法律修正案或者司法解釋的形式進行彌補,以確保能夠適應發展的環境。因此,不能因為害怕修法而不去面對日新月異的司法實踐。最后,現有的刑罰手段雖然對人工智能而言不能達到懲罰其犯罪行為的目的,但是不代表我們不能創設新的刑罰。隨著人類歷史的發展,刑罰的種類也在不斷更新和進步,如古時不同朝代就有刑罰方式的延續和創新,包括我國當前死刑中采用的注射死刑等,均是刑罰方式的更新與進步。而對于人工智能的刑罰,有學者也提出了諸如刪除數據或者由研發者、實際控制人代為繳納罰金等等方式,因為現有階段并不涉及具體案例,且人工智能發展到強人工智能時代時,人工智能會以何種方式呈現,對于其最為有效、最能夠讓其產生畏懼的懲罰,我們還不得而知。但能夠確定的是,我們可以采取相應的手段對其懲罰,并且將之納入到法律的范疇之內。
2.人工智能和人類相互協助實施的犯罪行為,應當依據共同犯罪的刑法規定針對兩個主體進行法律追責。結合前文所述,強人工智能能夠以自己的名義承擔刑事責任,因此,在強人工智能與人類相互協助進行的犯罪行為,完全可以類比現有刑法關于共犯的規定,按照共同犯罪中各行為人的行為和對犯罪結果的貢獻,分別認定罪名和刑事責任。
3.人類利用人工智能進行犯罪,即刑法理論中“間接正犯”的情形時,應當由實際實施行為的人類擔責。此項分類下,人工智能的作用與14 歲以下的兒童和精神病人一樣,均是實際犯罪人的工具。這種情況下的人工智能可以比照前文對于弱人工智能犯罪在不同情況下的責任承擔方式進行責任劃分,也可以按照刑法的基本理論,在間接正犯的理論框架下,追究實際犯罪人的刑事責任。
人工智能是新時代下的科技產物,是時代發展所必須面對的,因此人工智能實體刑事責任是必須被正視的問題。本文通過剖析刑事責任主體能夠承擔刑事責任的本源,即法律是依據什么標準去劃分能否承擔刑事責任,得出主體是否能夠承擔刑事責任,其本質在于是否對自己的行為有辨認和控制的能力,再將此標準附之于人工智能實體中,可以清楚地辨析。一旦人工智能實體具有自己的意識和意志,能夠產生自己的思維去辨認和控制自己的行為,那其就應當以自己的名義承擔刑事責任,只是在刑罰的方式上要較現有刑法中的刑罰有所改變;而如弱人工智能實體,其更多地體現的是工具屬性,不能有獨立的辨認、控制自己的行為,其只是按照人類既定的程序去執行某些特定的行為,其產生的犯罪行為應當由研發者或者實際控制人承擔。