999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能體的刑事風險及其歸責

2021-12-06 07:01:57劉仁文
江西社會科學 2021年8期
關鍵詞:主體人工智能人類

■劉仁文 曹 波

人工智能在推動人類社會智能化變革的同時,其不確定性(自動性)所衍生的侵害人類法益的刑事風險是亟待認真對待的“真問題”,絕非憑空臆造、危言聳聽的“偽問題”。對人工智能體被濫用于實施犯罪的刑事風險,應根據現有刑事歸責原理,按照具體行為方式以及主觀罪過形式,分別追究人工智能體背后的算法設計者、產品制造者與使用者(管理者)故意或過失犯罪的刑事責任。對人工智能體脫離人類控制侵害法益的刑事風險,賦予人工智能體以刑事責任主體地位的肯定論歸責方案,存在持論依據及論證路徑方面的諸多誤區。以刑罰規制人工智能體刑事風險缺乏適宜性,應當借鑒“科技社會防衛論”,通過建構保安處分機制,由司法機關在參考專業技術意見的基礎上,對嚴重侵害人類利益的人工智能體適用以技術性危險消除措施為內容的對物保安處分,回避以刑罰規制人工智能體刑事風險必須具備可非難性的局限,進而為人工智能的發展預留必要的法律空間。

人工智能的概念雖然早在20世紀50年代即被提出①,但其后人工智能的發展和研究卻兩度遭遇“寒冬時期”,終在21世紀初迎來第三次發展浪潮和研究高峰。近年來,信息社會和知識時代的來臨使得信息以驚人的速度膨脹,人類處理浩如煙海的信息的現實需求催動了大數據技術以及智能技術的發展,大有將人類文明從農業文明——工業文明——網絡文明的三個遞進階段推入第四個階段“人工智能文明”之勢。受人工智能技術研發以及法律治理需求的影響,中國的法學理論和法律實務界對人工智能表現出強烈的興趣,刑法領域的研究成果也呈現爆炸式增長的態勢,關于人工智能體能否成為刑事責任主體、其刑事責任應采取何種歸責模式,甚至對人工智能體應當適用何種“刑罰”等迅速成為熱門話題。

一、人工智能體的刑事風險是“真問題”

得益于深度學習、大數據、大規模計算三位一體的聯合驅動,人工智能勢不可擋地從封閉的實驗室走向開放的商業應用道路,其蘊含的強大賦能效應,使得智能思維、智能工廠、智能設備、智能產品及智能管理等不斷涌現,正推動人類社會邁入智能時代。不過,如同促進人類社會發展的其他科學技術一樣,人工智能在將人類從繁瑣紛雜、枯燥單調的工作中解放出來、推動人類社會完成跨越式變革的同時,其內在的不確定性也衍生出影響人類生存和發展安全的現實及潛在風險,客觀上引發人類對人工智能安全性的極大憂慮。

然而,對于刑法應否介入人工智能刑事風險、人工智能體能否成為刑事責任主體等問題,目前中國刑法學界不乏否定聲音,甚至有學者就刑法學界對人工智能的濃厚興趣提出火藥味甚濃的批評,認為人工智能法學研究出現違反人類智力常識的“反智化現象”。該學者指出,當前關于人工智能的法學研究其實是以“偽問題”代替“真問題”;學者們關于人工智能所謂的“憂患意識”,實則只是依靠無數假想拼湊起來的幻影,只是在用別人的“噱頭”嚇唬自己;在人工智能法律風險的應對上,當前的研究停留在缺乏教義支持的對策論層面,往往就事論事、毫無體系;主張人工智能可承擔刑事責任的觀點根本違背人類制定刑法的目的理性,人類對自由刑、死刑的痛苦感來自天然的肉體和心理,機器人沒有痛感,在這一點上它連一只有觸覺的螞蟻都不如;對犯罪人工智能體科處刑罰違背刑法謙抑性原則,“法學家從來沒有考慮過人類是否能夠為機器人成功搭建起道德或倫理的規范體系,而只是簡單粗暴地動用刑罰,面對人工智能等高端技術時總是如此急不可耐”。[1]此外,也有學者以人工智能技術發展的階段性特征為由,認為“討論人工智能的刑事規制其實是一個偽命題”[2]。

上述批判意見的確為當前相對激進的人工智能刑法學研究提供了理性反思的契機,但斷言人工智能刑事風險乃“偽命題”、研究人工智能體刑事歸責系以“偽問題”替代“真問題”卻不足取,因為它無視人工智能潛在的負面效應給人類帶來的危險和危害,犯了從一個極端走向另一個極端的錯誤。

(一)人工智能內在之刑事風險具有不容否認的客觀真實性

人工智能體是否具有刑事風險決不是法學學者的臆想或者斷言,而應當由人工智能運行的實際情況以及技術專家的判斷來證實。在研發和應用的實踐中,人工智能因其自動性和自主性運行特征或程序故障而致人死傷的事例時有報道。如:2015年德國一名大眾汽車廠員工在工作中被機器人抓住并壓死在金屬板上的“智能機器人殺人事件”;同年,中國發生利用人工智能技術破解互聯網驗證碼策略的打碼平臺非法獲取公民信息的“全國首例利用人工智能犯罪案”;2016年裝載自動駕駛系統的特斯拉汽車因出現誤認而造成全世界首宗自動駕駛系統致人死亡的車禍,特斯拉CEO伊隆-馬斯克也明確強調“人工智能是人類文明生存的根本風險”,并呼吁政府迅速而堅決地進行干預、監督人工智能技術的發展;[3]2018年美國亞利桑那州發生優步自動駕駛車撞死行人的事故。此外,以人工智能深度學習為技術支撐的深度偽造(DeepFake)已帶來嚴重的社會風險,尤其是針對公眾人物的深度偽造,有對社會秩序和國家安全造成嚴重沖擊與損害的可能。[4]誠然,人工智能體侵害人類的事例尚未普遍發生,卻也充分說明能夠跟隨外部環境變化而自我調整的人工智能體內含失去人類控制而侵損人類法益的危險,決非主觀臆斷、危言聳聽。

從國內外人工智能技術專家的相關研究來看,人工智能內在的不安全性、不穩定性以及具備深度學習能力的強人工智能存在脫離人類程序控制侵犯人類、反噬人類的可能性和危險性都是得到認可的。例如,英國薩塞斯大學認知和計算機科學學院前院長、有著“人工智能領域的女性牛人”之稱的瑪格麗特·博登表示:“人工智能已經引起了人們的擔心。未來的進步肯定會帶來更多問題,所以對人工智能長期安全的焦慮也是非常必要的。更重要的是,它的短期影響也不容忽視。”[5](P185)值得注意的是,牛津大學人類未來研究所曾于2015年發表題為《威脅人類文明的12個風險》的報告,將人工智能的崛起與核戰爭、巨大火山噴發并列為人類未來的威脅之一。英國倫敦大學學院Dawes未來犯罪案研究中心于2019年2月召開“AI與未來犯罪”研討會,組織來自學術界、公共部門、私營部門領域具有專業知識的31名代表對人工智能可能涉及的犯罪風險進行科學評測。考德威爾等整理研討會相關材料,形成并發布研究報告《基于人工智能的未來犯罪》,對人工智能的日益普及所產生的潛在犯罪和恐怖威脅進行分類,并根據預期的受害者損害、犯罪收益、犯罪可實現性和打擊難度對相關威脅進行排序,最終對18類威脅給予識別和評級。[6]國內也有不少人工智能技術專家對人工智能內在的危險性發出擔憂,表示“人工智能已經不是科幻小說和電影討論的話題了,現實馬上就在眼前。我們必須要把可能的危機與機遇擺在人類的面前,這是人類的權利、科學家職責,我們不能因對未來的恐懼而回避,也無法回避,也不能為了眼前看得見的利益而忘命”[7](P252)。

由此可見,如何妥善應對人工智能的這種內在危險或威脅,科學分配人工智能體侵害人類法益的法律責任,是包括刑法在內的法律體系必須認真對待的“真問題”,至于采取何種刑法措施(刑罰或保安處分),則是刑法關于人工智能刑事風險應對的措施之爭,屬于解決問題的具體方式,而不涉及對人工智能刑事風險是否為“真問題”的評判。申言之,批評者關于人工智能刑事風險屬于“偽命題”的看法既無視人工智能已經帶給人類損害的客觀事實,還因其反對授予人工智能體刑事責任主體地位的理論主張,誤解人工智能刑事風險的具體內容。然而,是否授予人工智能體刑事責任主體地位與人工智能刑事風險是否屬于“偽命題”系兩個不同層面的議題。理論界就不乏這樣的學者,他們即便不贊同賦予人工智能以獨立的刑事責任主體地位,卻依然十分關注人工智能刑事風險,并積極構建責任分配機制予以應對。[8]

在我們看來,由于評價標準的不同,人工智能體是否會像人類一樣直接實施犯罪行為可能存在一定的爭議,但人工智能體卷入犯罪而被作為犯罪工具予以濫用或者作為犯罪對象被攻擊均屬可能,批評者在一定意義上誤解了人工智能刑事風險的內容和意涵。正如劉憲權回應批評者時所稱:“并非在當今的弱人工智能時代不存在刑事風險,而是批判者為批判或否定別人的觀點才對弱人工智能時代的風險采取熟視無睹的態度。就此而言,人工智能技術帶來的刑事風險不是法學研究者‘依靠無數假想拼湊起來的幻影’,而認為人工智能技術沒有帶來刑事風險似乎才是批判者閉目塞聽所造成的‘幻覺’。”[9]應當承認,批評者大多強調積極運用既有刑法教義學原理在現行刑法的體系框架下解決人工智能損害法益的刑事責任分配問題,這其實已經徑行肯定了人工智能內含損害人類法益的可能,只是認為此種可能性不需要刑法專門進行新的規制。

(二)刑法謙抑性難以否定刑法規制人工智能風險的必要性

刑法謙抑性乃刑法最基礎、最獨特的屬性之一,但卻不知從何時開始,在討論刑法是否應當介入某種新行為或者新領域的規制時,謙抑性總會被提出來作為反對刑法規制的理由,以至于使人產生如下印象:刑法謙抑性已然成為反對刑法介入社會生活的標配性理據,動輒被用于批判刑法新增罪名或者重刑化的立法轉向。刑法謙抑性在人工智能風險的法律規制研討中扮演的角色既有積極的維度,也有消極的側面,如:有學者以違反刑法謙抑性為由反對賦予人工智能法律人格或者刑事責任主體地位[10],有觀點表示刑法對人工智能刑事風險的規制犧牲了刑法謙抑性[11]。但是,不論積極抑或消極,學者們對刑法謙抑性的理解整體是在緩和、否定刑法介入人工智能風險規制意義上展開的,強調人工智能屬于新興科技,刑法前置法以及倫理道德等尚未實現對人工智能的研發和運用提出普世性的明確規制標準,人工智能刑事風險的類型及表現仍有待進一步明確,刑法此時介入人工智能刑事風險的規制過于急切。不過,人工智能刑事風險并非都是尚未明晰的新興風險,人工智能體被用作于犯罪工具以及被作為犯罪對象的風險已被證實,這些風險給人類利益帶來的損害絲毫不亞于甚至遠超傳統犯罪工具或者傳統犯罪。因此,我們在運用刑法謙抑性對刑法是否應介入人工智能風險進行評判時需要慎重,應防止對刑法謙抑性的不準確把握和對人工智能刑事風險的不精確識別導致刑法應介入卻因謙抑性的不正當主張而未介入。

毋庸置疑,刑事機制最具嚴厲性且規制成本最高,因而總是在民事侵權責任機制及行政處罰機制難以達到規制效果時,才動用刑事機制介入特定行為,以實現保護法益的目的。“保護法益的手段多數存在,刑罰是制裁手段中最嚴厲的,而且其社會成本也大(常被比喻成副作用強的藥),因此,使用刑罰應該限于其他制裁手段不充分的場合。”[12](P9-10)刑法具有謙抑性的內在品格,是輔助性的法益保護法,不追求規制任何形式、任何程度侵害法益的行為,但這絕不意味著刑法應對人工智能的客觀危險熟視無睹、置若罔聞。“刑法的謙抑性原則應當遵循,但也不能無視當今科學技術的高速發展給人類社會所帶來的完全不同于以往的沖擊。人工智能技術的發展特別是未來可能到來的強人工智能,人類如果對其應對稍有不慎即可能遭遇滅頂之災。”[13]在相當意義上,刑法謙抑性的要旨在于規范國家刑罰權的行使,防止國家刑罰權過分或不當侵入公民社會生活,強調合理劃分不同法律部門在調整特定行為的具體分工,實現特定行為法律規制系統內部的協調性與互補性,而限定刑法規制范圍卻非刑法謙抑性的必然要求,刑法規制范圍也并非越窄越好。“盡管刑法謙抑主義特征仍然需要予以重視,但這并不等于說,刑法就是消極的,甚至是無為的。”[14](P20)當特定行為具備值得刑法規制的必要性和可行性時,刑法應當果斷地介入該行為的規制,以發揮刑法有效且有力的社會規制機能。如果特定危險客觀存在并嚴重威脅法益,適當擴充刑法規制范圍以及時介入該危險的防控和治理,正是刑法作為保護人類法益的最后一道防線的題中之義。既然人工智能帶給人類社會的刑事風險客觀存在,運用刑法給予應對必定是刑法切實承擔保護法益任務的表現,并不違背刑法的謙抑性原則。

(三)人工智能風險刑法規制需要教義學與立法論銜接互補

人工智能作為人類社會變遷中出現的新技術,人工智能體侵害人類法益無疑為前所未有的新問題,批判論者希冀完全依靠既有的刑法教義學范式在現有刑法體系內充分解決人工智能體刑事歸責問題,明顯夸大刑法教義學的功能,割裂刑法教義學與刑法立法論之間應有的聯系,缺乏方法的妥當性和實踐的可行性。“‘偽問題論’通過質疑將來而回避問題本身的論說思路可能并不可取,看不到或者忽視‘將來’的思考也無益于問題的有效解決,因而‘偽問題論’自身的問題意識也存在合理性疑問。”[15]刑法學研究須秉持應有的務實態度和開放理念,對當前人工智能刑事風險的具體內容和樣態進行現實性考察以及必要的前瞻性預測,并根據刑事風險屬性的差異,給予不同的刑法規制:對刑法規范體系已能較為充分評價的刑事風險,盡可能在刑法教義學作用范圍內進行準確認定和評價;對運用刑法教義學難以在當前刑法規范體系內準確或者全面評價的人工智能刑事風險,應當轉變研究視角,通過制定新的罪刑規范予以規制。

就人工智能體侵害法益及其歸責問題來看,現有刑法教義學資源能夠基本解決自主性較弱的弱人工智能體侵害人類法益的刑事歸責問題,但對具有較強(或完全)自主性、具備獨立意識和意志的強人工智能侵害法益行為,卻難以給予適當的刑法評價和處置,亟須建構性的“立法論”或“對策論”研究,通過引進新型歸責模式來解決其刑事責任分配問題。就此而論,人工智能刑法學研究必然屬于批判者所謂的“對策論”,只不過該“對策論”決非恣意的“對策論”,而是建立在新的“教義學”基礎上的“對策論”,是對現有“教義學”的必要補充和發展。

誠如張明楷所言:“當下經過了一段解釋論之后的刑事立法論,可以避免不合理的立法建議,從而對刑事立法起到更好的指導作用。”[16]刑法教義學與刑法立法論銜接互補的研究范式已經在當前刑法學界對人工智能刑事風險及其規制的研究中得到體現。此外,主張通過新增罪名規制人工智能風險的學者必定也采納以刑法教義學推動刑法立法論和以刑法立法論補充刑法教義學的雙向互動研究范式。[17]依此可見,人工智能刑法規制研究應當繼續充分釋放既有刑法教義學資源的解釋張力,在現有刑法規范體系內規范評價人工智能損及人類法益行為的不法與罪責,避免不必要的刑法條文擴張。以此為基礎,對超逸刑法教義學作用范圍的人工智能刑事風險及其危害,應當制定新的罪刑規范予以規制,促進人工智能刑法規制司法路徑與立法路徑的銜接與互補。

二、人工智能體的刑事風險及其歸責論爭

人工智能所帶來的刑事風險除人工智能系統成為犯罪對象被不法攻擊或操縱外,還有人工智能體被濫用于實施犯罪的工具性風險,如人工智能體被用于非法搜集公民個人信息、實施詐騙犯罪、侵害社會信用等風險,也有人工智能體脫離人類控制而嚴重侵害人類的風險。后者又可區分為兩類:一是缺乏自主意識的弱人工智能體因程序運行偏差、侵害人類的風險,如前述特斯拉自動駕駛汽車致人死亡事例中,裝載自動駕駛系統的特斯拉汽車在交叉路口撞上一輛卡車后面的拖車即是因為程序運行偏差所致:它既錯以為拖車明亮的白色部分只是天空的一部分,又錯以為司機正在注意路況,如果有事發生,他一定不會袖手旁觀。[18](P133)二是能夠深度學習的強人工智能體,在自主意識和意志支配下實施程序設計之外的嚴重侵害人類法益行為的危險。[19]

由于缺乏生命權、身體權、榮譽權和財產權,人工智能體一旦作為犯罪對象被其他犯罪主體所攻擊,刑法的聚焦點應為人工智能體自身的算法系統(計算機信息系統)及其相應數據的安全。人工智能體的智能屬性及其程度取決于人工智能算法,而“成功的人工智能算法需要三樣東西:大數據、強大的電腦運算能力,以及優秀(但未必頂尖)的人工智能算法工程師”[20](P25-26)。在新領域善用深度學習的能力,此三者都是必要的,但其中最重要的還是大數據。如果“喂養”算法系統的數據量越大,人工神經網絡獲得的樣本數據將越多,人工智能體就越能夠正確識別出形態,準確辨認真實世界里的東西。當然,人工智能體對算法系統及大數據的依賴也客觀上帶來算法系統和數據安全的巨大挑戰,誘發算法系統與數據安全被不法攻擊的危險。對犯罪對象意義上人工智能體刑事風險及其客觀危害,應盡可能借助現有刑法罪名體系予以準確評價,即根據行為人行為方式與侵害法益的特征,分別將其認定為刑法分則第六章規定的非法侵入計算機信息系統罪等信息網絡犯罪,而當行為人通過破壞人工智能體算法系統或者數據安全操作人工智能體侵犯人類的生命、身體等安全的,可以根據具體犯罪情節,將其認定為以危險方法危害公共安全罪。[21]

在人工智能體被濫用于實施犯罪的責任分配中,犯罪體現的是犯罪人自身的犯罪意志,人工智能體僅作為實施犯罪的特殊工具。“在大多數情況下,算法的背后是人而不是機器在真正發揮決策作用。算法驅動下的人工智能,按照人設定的邏輯,判斷、決策、執行各個任務環節。”[22]因此,對于人工智能體犯罪工具風險的刑事歸責,應當根據犯罪人濫用人工智能體實施犯罪的客觀樣態和犯罪人自身的主觀罪過形式,對故意設計、制造“邪惡”人工智能體,懈怠注意義務設計、制造嚴重瑕疵的人工智能體,濫用人工智能體實施犯罪或未盡合理監管義務導致嚴重危害后果等,分別追究算法設計者、產品制造者與使用者(管理者)的故意或過失犯罪的刑事責任。

例如,人工智能外科醫生對病人進行安裝新髖關節的手術,手術中人工智能體卻出現機械性誤差。負責監控手術的人類醫生未能盡職地監控手術進程,且無法中途介入以完成髖關節置換術,導致手術不得不提早結束,迫使患者必須進行第二次髖關節置換手術。[23](P26)人類醫生原本履行監管義務即可阻斷人工智能體內在危險現實化進程,卻懈怠監管義務,未能及時發現機械性誤差并中途介入完成手術,客觀上造成患者髖關節置換不當并需要進行第二次手術,可追究人類醫生過失犯罪的刑事責任。不過,“過失意味著不注意,而不注意指的是違反注意義務,也即違反應當為了回避犯罪事實的實現而小心謹慎的義務”[24](P192)。過失犯罪刑事歸責的前提要素是具備結果回避可能性,即行為人小心謹慎地履行注意義務,采取回避措施即能夠有效地回避法定危害后果的發生,將過失犯罪的刑事歸責適用于缺乏結果回避可能性的場合將背離刑法責任主義。據此,如果人類醫生盡職地履行監控義務,仍來不及中途介入手術進程,或者即便人類醫生中途介入手術進程,仍不能避免人工智能體機械性誤差的可能后果,應當以缺乏結果回避可能性為由,將患者因人類醫生懈怠盡職監控義務而必須進行第二次置換術的后果認定為不可抗力造成的事故或偶然事件,進而否定對人類醫生過失犯罪的刑事歸責。當然在此種情形中,人類醫生懈怠盡職監控義務符合醫療侵權的構成要件的,不排除從民事侵權的角度考慮追究人類醫生的賠償責任。

在現階段,人工智能體刑事歸責論爭的焦點在于:若人工智能產品“變壞”,在運行過程中偏離程序主動或被動侵害人類,該如何分配刑事責任?現代責任主義強調,刑事責任的發動必須具有正當化根據,任何人只能因自己可被非難的行為承擔刑事責任。擁有自主意識的人工智能體受其深度學習的指引,在改變自己來適應環境變化的過程中有可能“自主地”“不被預見地”犯下嚴重侵害人類的“罪行”。在這種情況下,人工智能體研發和運行中所涉及的人類主體都勤勉盡責,所設計和所制造的人工智能體滿足合理的產品質量標準,他們與人工智能體的惡行雖有關聯但無因果,更無法具體預見人工智能體會嚴重侵損人類法益,追究其刑事責任將明顯抵觸現代責任主義。那么,應否肯定人工智能體自身的刑事責任主體地位,以填補人工智能體脫離人類控制而侵害人類風險中可能出現的“責任空白”呢?

對此,肯定論者提出,刑法應重視前瞻預防和風險防控,強調人工智能正深刻動搖傳統刑法歸責體系及其基礎,應從刑事責任能力出發抑或演繹法人犯罪主體法理,根據人工智能體的學習能力和發展代際,肯定具有自主學習能力的智能機器人為“第三類人”“人工人”,賦予其獨立刑事責任主體地位,增設刪除數據、修改程序、永久銷毀等新型刑罰方法,妥善解決人工智能體脫離人類控制、侵害法益的風險中的刑事責任歸屬問題。[25]與之相對,堅持人工智能體不能成為刑事責任主體的否定論指出,因電子機械運動與人的生理運動之間存在不可逾越的鴻溝,從金屬、塑料和指示電極開與關的程序組合中無法產生人的意識。在對人類意識的本質及生成機制缺乏透徹理解的情況下,無論是符號主義還是聯結主義,都不能模擬出人的意識。即使假設強人工智能已經到來,考慮對其增設刑罰種類也意義不大。[26]

綜合肯定論與否定論來看,否定缺乏自主意識和意志的弱人工智能體的刑事責任主體地位已成為學界共識,論爭主要聚焦于強人工智能體是否可以成為刑事責任主體。肯定論者立足人工智能體本身的道義性,主張強人工智能體已經超越工具理性的范疇,成為能夠通過深度學習形成自主意識并在其侵害人類法益的過程中實現其自主意識的特殊主體。“現有的罪責理論并不排斥人工智能的罪責,甚至可能發展出一種合理的客觀標準作為人工智能罪責能力的判斷依據。在此基礎上,至少將人工智能主體作為一種擬制的法律主體置于刑法的范疇之內是沒有問題的,甚至將其作為道德主體的可能性在事實和邏輯層面也是可以成立的。在人工智能主體具備足夠的理性能力的前提下,對其科處刑罰是有意義的,完全符合刑罰目的。”[27]否定論者則繼續秉承人類中心主義理念,強調:“把人看成是自然界唯一具有內在價值的事物,并理所當然地把人看成是一切價值的尺度,人以外的事物不具有內在價值而只有工具價值,它們理應為人類的利益服務。”[28](P33)人工智能體與人存在明顯區別,人工智能體所擁有的“智能”只是人類對于其能夠在人類缺乏詳細預設的情況下自主完成任務能力的一種表述,并非人類“智力”。[29](P245)

三、不宜以刑罰來規制(強)人工智能體的刑事風險

蘊含強烈規范性譴責和非難的刑罰乃犯罪之最基本、最主要且最核心的法律后果,建構新型“刑罰”以實現對人工智能體自動性運行侵害人類法益的刑事風險進行刑事歸責似乎是最直接的選擇。然而,主張賦予人工智能體(特別是強人工智能體)以刑事責任主體地位,運用刑罰非難、制裁“犯罪”人工智能體的肯定論歸責方案,雖對現代科技所帶來的刑事風險保持了高度警惕,其重構刑事責任理論模型及刑罰措施對完善現行刑事責任理論與刑事制裁體系也具有啟發意義,但卻存在持論依據及論證路徑方面的諸多誤區。

(一)誤將刑事責任能力視為刑事責任主體地位的充分條件

肯定論者普遍認為,若人工智能體具有“獨立意志”“辨認能力和控制能力”,能夠“為了實現自己的意志、自主決策并自主實施”行為,或具有“自主性”或“擁有自我的意識”,便符合刑事責任主體的條件。[30]但且不論人工智能體能否真切地理解其所感知事物的真實意義,即便暫時承認能夠深入學習的人工智能體具有刑法所要求的辨認和控制能力,也不應據此肯定人工智能體的獨立刑事責任主體地位。

的確,刑事責任能力是行為人辨認和控制自己行為的能力,行為人只有在能夠辨認自己行為性質及其后果并且能夠自由選擇是否實施犯罪時才承擔刑事責任;而刑事責任主體是實施刑法規定的犯罪行為、值得刑法非難與譴責的刑事責任承擔者。刑事責任能力僅為刑事責任主體地位的必要條件而非充分條件,具備獨立刑事責任主體地位的主體必然具有刑事責任能力,但具有刑事責任能力的主體卻并不一定擁有獨立刑事責任主體的地位。“具有‘辨認能力和控制能力’的不只是人類,如家養和野生動物雖有以上能力,但都不是犯罪主體,應當將以上能力限定為超越生物意義的、主要是與人類社會規范相關的‘辨認能力和控制能力’,同時,犯罪主體要排除動物等非人類創造物。”[31]肯定說一味將人工智能體與人的特征進行對比,論證人工智能體具有刑事責任能力的可能性,忽略刑法理論中責任主體歸根結底只能是人的這一最基礎最核心的要素[32],走入了以偏概全、邏輯錯亂的誤區。

(二)混淆“自主意識與意志”和辨認與控制能力

傳感器、反應器及無線通信技術的發展,使具有深度學習能力的強人工智能體可以感知外界環境的變化,并自主做出既可能是符合程序設定也可能偏離設定程序的反應,獲得超越人類的“自主意識與意志”。如采用強化學習算法的AlphaGo Zero在零人類經驗的情況下,通過自我訓練即可“隨機應變”,最終自我訓練三天即以100:0的戰績完敗曾經戰勝韓國棋手李世石的AlphaGo,在與人類排名第一的棋手柯潔的人機大戰中也以3:0的戰績取勝。經由深度學習、自主運行而產生的“自主意識與意志”被肯定論者認為具有“辨認能力和控制能力”,甚至強調“與人類相比,強人工智能產品具有更強的控制能力和可培養的辨認能力”。[33]

以辨認與控制能力為核心的人類思維、情感、心智是人類與其他生物最明顯的區別之一,也是人類自身尊嚴和奧秘所在,與人工智能通過學習、歸納和推理表現出的“邏輯思維”“物理理性”大相徑庭。肯定論者將“自主意識與意志”和辨認與控制能力予以等同,無視人工智能與人類智能的客觀差異,曲解刑法中辨認與控制能力的實質。對此,斯坦福頂尖人工智能專家杰瑞·卡普蘭曾發出警示:“人們傾向于認為,大部分人工智能系統和特殊的機器人類似于人類的大腦和肌肉,雖然可以理解,但是這樣的想法卻是很危險的。長期以來,人工智能領域一直在利用我們對于人格化對象(看起來像我們或者行為像我們)的自然喜好,因為它們可以吸引人的注意力或吸引投資。但同時這樣的對象也會誤導人們,讓人們相信機器比它們實際上更像我們,并進一步假設它們有理解能力并會遵守我們的社會習俗。”[34](P35)人作為社會性存在,并非機械、物理性地參與社會交往實踐,刑法中人的辨認與控制能力均具有強烈的社會性和規范性,不是純粹感知到“有”或“無”“存在與否”等事實特征,而是對行為性質及其后果的規范認知并以此為前提有意識地選擇為或不為特定行為,以符合其參與社會交往和實現自身人格的需要。刑法設定和追究刑事責任,旨在以非難違反刑法規范的行為并制裁其行為主體的方式命令人們遵從刑法的規范。顯然,唯有以具有規范性辨認和控制能力、能夠理解刑法規范意義的人為對象方能實現刑事責任的內在目的。

與此相關,人工智能體基于深度學習做出表現于外部世界的反應或舉動也難以認定為刑法中的“行為”,缺乏值得刑法處罰的對象。刑法中的行為是在自由意識和意志的支配下所實施的具有社會意義的外部動作,“在目前的發展狀態下,似乎人工智能產品的行為都很難被歸入行為的范疇內。即使我們把行為的‘身體’維度排除在外,這一行為的定義永遠都不適用于機器,智能主體的行為既不能被視為‘與社會相關’,也不能被視為刑法意義上的‘自愿’”[35]。

(三)不當演繹單位作為獨立刑事責任主體的法理

除將人工智能體深度學習產生自主意識和意志的能力視作刑事責任能力外,肯定說還演繹單位作為獨立刑事責任主體的法理基礎,表示“自然人與智能機器人之間最大的區別在于自然人有生命,而智能機器人沒有生命。但是沒有生命的單位可以成為刑事責任主體,這就意味著‘生命’并不是成立刑事責任主體的必備要件”[36]。不過,“法人是法律擬制的產物,沒有法律的擬制,法人的任何一種行為均可以還原為自然人之行為。而人工智能機器人卻是實實在在的事物,有沒有法律的擬制均為客觀的事物。換句話說,法人是法律之子,而人工智能是自然之子,兩者存在事物本質上的差異”[37]。當前單位刑事責任主體地位的取得仍以自然人為基礎,未超逸自然人責任觀念的基本范疇。

單位承擔刑事責任的前提是依法成立的單位在“單位意志”的支配下由單位成員出于單位利益的需要實施刑法規定的犯罪行為,并將犯罪所得的利益歸屬于單位。其中,與人工智能體的明顯區別有三:一是單位的責任主體地位得到民法或經濟行政法等刑法前置法的確認,而人工智能體卻未獲得法律人格。雖然域外人工智能體有被授予法律人格的成例(如2010年日本富山縣接受陪伴機器人Paro的戶籍登記請求;2017年沙特阿拉伯授予人形機器人Sophia國籍,承認其公民身份),但卻被包括人工智能科學家在內的各方人士更多地認為是一種公關噱頭,一場科技領域的作秀,絕非對人工智能體法律主體身份的真正肯定。[38]在刑法前置法尚未認可人工智能體法律主體地位之前,肯定論確有抵觸刑法謙抑性之虞。二是單位犯罪須在單位意志支配下實施,但單位意志仍由自然人主導,是單位內部成員意志的集中體現且由單位成員具體執行,非在自然人毫不干涉的情況下自主形成。三是單位犯罪的犯罪利益應歸屬于犯罪單位,但人工智能體缺乏權利主體資格,難以實際擁有“犯行”所帶來的“犯罪利益”,也難以為“犯罪”付出相應的“刑罰代價”。事實上,有學者在考察單位責任的實質根據后正確地指出:“各種學術觀點中的公司刑事責任,無非是某一部分自然人的責任,即便強調責任的整體性,亦是自然人責任的不同表現形式。公司罪責并非對傳統責任論的突破,也當然不能成為肯定機器人刑事責任的根據。”[39]故而,以單位與人工智能體均為無生命體而單位卻擁有刑事責任主體地位為由,主張人工智能體應被賦予獨立刑事責任主體地位,缺乏令人信服的說服力。

(四)新設刑罰方法難以切實發揮刑罰機能、實現刑罰目的

為防止賦予人工智能體獨立刑事責任主體地位但既有刑罰方法卻無法有效懲治犯罪人工智能體,肯定論者還特別按照人類刑法所規定的刑罰方法,創造出刪除數據等新型刑罰方法,用于懲治犯罪人工智能體,以實現人工智能體罪責自負的要求。然而,這些新型刑罰方法發揮刑罰機能、實現刑罰目的之實際效果并非不值得懷疑。“不論設計何種刑罰措施,基于人工智能特殊的存在形態,任何物理意義上的刑罰手段都無法實現應有的懲罰效果,而從對被害人內心安撫角度審視,當前人們在觀念上同樣難以通過對機器施加刑罰措施得到心靈上的慰藉。”[40]其實,刪除犯罪人工智能體的“犯罪記憶”,能否保證該人工智能體不會如前次犯罪那樣重新走向犯罪的道路,畢竟具有深度學習能力的人工智能體能夠在算法設計之外自主行動?修改人工智能體的程序如果確有效果,為何不在人工智能體算法設計過程中即修改相應的程序或者徑直加入避免侵犯人類或侵犯人類即自動報廢的程序要求?按照肯定論者對人工智能體可能脫離人類控制甚至淘汰、奴役、消滅人類的設想,人類是否有足夠的能力和實力徹底銷毀嚴重犯罪的人工智能體呢?凡此種種,均需得到肯定論者應有的重視。

事實上,肯定論為規制人工智能“反噬”人類的刑事風險,提出應當修正、解構甚至否定人類中心主義的立場,在人類之外肯定存在其他類型的法律主體,賦予人工智能體特別是強人工智能體以獨立性刑事責任主體地位[41],認為“在智能時代,修正的人類中心主義才是更好的現實選擇”[42],以此破解人工智能體刑事風險現實化過程中可能出現的“責任空白”難題。然而,人類中心主義是人類所建構的各種規范性制度取得最終實效的基本保障和內在緣由,肯定論者主張緩和或修正人類中心主義在相當程度上弱化了人類的主體性地位和價值,是對人類價值與人格尊嚴的不當放棄,得不償失,非明智之舉。當前,堅持人類中心主義已成為人工智能界的普遍共識,即人工智能研發與應用必須以人為本,以追求并擴大人類福祉為宗旨。[43]人工智能體脫離人類控制嚴重侵害人類法益的歸責方案理應繼續堅守人類中心主義的立場,堅持人工智能體的工具理性,意識到人工智能體缺乏人心人性,其外部行動建立于對外部世界客觀事實的感知而非價值意涵的理解,是深度學習能力及算法系統驅動下的自動性反應,與人際間社會交往互動存在明顯區別。同理,人工智能體對人類法益的侵害既非人工智能體自由意志的外部表現,也不是能夠避免侵害情況下有責任地違反規范,而是算法系統運行的必然結果,缺乏被刑罰非難的主體適格性。

四、可能的方案:運用保安處分抗制(強)人工智能體的刑事風險

就刑法作用機制的具體構造來看,刑法對社會關系的規制是借助刑罰方法非難行為人違反禁止性規范主動攻擊特定法益,抑或違反命令性規范應當救助卻不救助特定法益,其規制理由除侵害法益的特定后果以外,還包括行為人在能夠遵守相關規范的場合卻基于自由意志選擇(有責任地)違反相關規范,即犯罪系行為人自由意志外化的客觀結果,是行為人犯罪性人格的重要表現,而刑罰則是對犯罪性人格的正式否定,是對行為人自由意志犯罪性外化的非難形式。

以深度學習為技術支撐、靠大數據“喂養”的人工智能系對人類智能的模擬和仿效,其固然能夠借助各種傳感器捕捉外部世界的信息變化,并按照預先設定的算法系統作出特定反應,但卻只是具備人類認識能力和控制能力以及自由意志的外觀,而缺乏人類特有的人格性這一本質要素。“人類與機器人一項重大的道德差異在于機器人缺乏人格性,無法參與在人際關系之中。雖然機器人作為道德主體,在外顯的行為表現上可以跟人類一樣,甚至更好,但無法享有人際關系理由的事實,代表在涉及干涉人類自主性的情況時,機器人的行為應當受到比人類更大的限制。”[44]賦予“犯罪”人工智能體獨立的刑事責任主體地位,直接追究人工智能體自身的“刑事責任”,貌似是對人工智能體“犯罪”的報應和非難,但此種報應和非難的對象卻不是人工智能體能夠遵守法律規范前提下“自由”“自主”地選擇實施侵害人類法益,并未真正觸及人工智能體的“人格性”。

當前,人工智能技術正成為推動社會發展的重要動力,也是我國在現代國際競爭中實現“超車”的重要彎道,理應坦然正視且致力抑制或消除人工智能體帶給人類利益受損的刑事風險,充分保護人機交互或人機融合中人類的利益和福祉。前述人工智能體缺乏被刑罰非難主體適格性的理論展開,旨在強調不宜賦予人工智能體獨立刑事責任主體地位、徑直追究“犯罪”人工智能體“刑事責任”的方式,解決人工智能體自動運行過程中侵害人類法益可能出現的“責任空白”,并不意味著刑事反應機制不應介入人工智能體的刑事風險及其歸責領域。

在特定行為的刑事反應機制中,刑罰方法系國家對行為人能夠實施合法行為的情形下有責任地實施該當構成要件的違法行為所施予的責任報應和非難譴責。“刑罰是以剝奪法益這一形式所體現的責任非難的現實的表現形式。責任是刑罰的基礎,并且決定了刑罰的性質。”[45](P469)依托現有刑事歸責理論無法賦予人工智能體獨立的刑事責任主體地位,難以肯定以刑罰規制人工智能體刑事風險的適宜性,于是放棄對人工智能體直接進行歸責,將目光投向社會防衛論以及以此為基礎的保安處分,就成為應對人工智能刑事風險的務實選擇。對此,有論者借鑒刑事近代學派所主張的社會防衛論,創造性地提出“科技社會防衛論”:“在應對人工智能等科技產品危害社會的風險時,只要有客觀危害產生或者有危險存在,對實施了社會危害行為或者有危險性的人工智能就應當適用具有保安處分性質的技術消除措施。”[46]毋庸諱言,為消除客觀危險的社會防衛論曾在學術史上遭到批判,但以社會防衛論為基礎所構建的保安處分在管控風險、保障安全上超越刑罰(刑事歸責)的特殊優勢卻得到現代刑法的普遍肯認,刑罰與保安處分雙軌并行的刑事制裁體系也得到相對廣泛的提倡和采用。

在雙軌制中,刑罰是在滿足報應需要前提下,追求一般預防與特殊預防的雙重目的,其以過去的犯罪行為所表現出的責任為基礎,通過剝奪犯罪人之法益,實現對具有刑事責任能力者實施犯罪行為的非難和譴責。與此相對,保安處分則僅出于特殊預防的考量,以將來實施嚴重危害社會的危險性為基礎,采用改善、隔離等矯正或排害措施,抑制或消除社會危險性。鑒于“根據犯罪行為的罪責程度而裁量的刑罰,往往不能正確而完整地達成刑法預防犯罪的目的構想”[47](P389),作為刑罰補充的保安處分直接針對處分對象的社會危險性,面向將來實施嚴重危害社會的可能,不涉及對過去嚴重危害社會行為的譴責或非難等否定性評價,不以具有刑事責任能力為前提,不以犯罪人具有被刑罰非難的主體性資格為必要[48](P125),契合了人工智能刑事風險防范的現實需要。同時僅就犯罪預防而言,刑罰是透過剝奪犯罪人的重要法益使犯罪人與普通公眾認識到實施犯罪將受到國家的譴責并遭受法益被剝奪的不利后果,進而產生“不敢”或“不愿”實施犯罪的預防效果;而保安處分則聚焦于剝奪犯罪人工智能體的犯罪能力或消滅人工智能體,使之“不能”再犯罪。人工智能體不是可自負罪責的刑事責任主體,其自主運行過程中內在風險及其現實危害難以歸咎于人工智能體本身,為此,對人工智能體所施加的“技術性危險消除措施”放棄對刑法上可非難性的考量,專注于消除人工智能體自身的風險,可歸入對物保安處分措施的范疇。②

與對具有危險性格的人所實施的保安處分不同,對物保安處分是國家為抗制犯罪或侵害社會的危險,對誘導犯罪發生之物或者過去犯罪殘存之危險物采取的預防措施,旨在消除特定物的社會危險性。“如果某種物對公共安全或社會秩序具有危險性,而且從防衛社會的角度出發應予沒收的,這種沒收就屬于保安處分。”[49](P21)除刑事沒收以外,典型的對物保安處分措施還有責令犯罪者提供一定數額財物擔保將來不再實施犯罪的善行保證、關閉營業所、解散法人及停止業務等。[50](P86)破解人工智能體刑事風險及其現實化之危害后果的歸責難題,需要繼續堅守人類中心主義根本立場,根據人工智能刑事風險的獨特屬性、具體內容并結合刑法的性質任務以及運行機制,探索建立有效且科學的規制人工智能體刑事風險的(對物)保安處分體系。亦即特定人工智能體在自主運行中嚴重侵害人類并且有證據證實其仍有繼續侵害人類危險的,司法機關可在參考專業技術意見的基礎上對該人工智能體適用刪除數據、修改編程以及永久銷毀等技術性危險消除措施。這些技術性危險消除措施繞過人工智能體自身刑罰非難適格性的論爭,因專注于消除人工智能體內在之侵害人類法益的刑事風險,確保人工智能運行的安全性,與保安處分具有性質、內容及價值上的同一性。

采用保安處分的方案破解人工智能體侵害人類法益的歸責疑難,直面人工智能體內在的技術風險,既有助于擺脫人工智能體侵害人類的責任應當歸咎于何種法律主體的糾結,回避以刑罰規制人工智能刑事風險必須具備可非難性的局限,進而為國家公權力介入人工智能體刑事風險的抗制提供理論支持和正當性根據,也有利于督促人工智能體的使用者審慎監管人工智能體的實際運行,及時阻斷人工智能體內在刑事風險現實化流程,確保人工智能體始終在安全和值得信賴的環境中得到合理使用。畢竟對“問題”人工智能體采取的技術性危險消除措施必定會構成對使用者正常使用人工智能體不同程度的制約。

五、結語

鑒于人工智能在增強綜合國力、提升國際競爭力以及引領時代發展方面的獨特優勢,中國已經毫不遲疑地加入了新一輪人工智能革命,并將人工智能技術的研發與運用作為提高經濟社會發展智能化水平、增強社會治理能力的重要抓手和強力支撐。然而,“來自未知的力量也讓人們有些無所適從,擔憂、不安甚至惶恐的情緒,也讓人們深受困擾。人們不知道人工智能研究像潘多拉的盒子那樣裝滿了災難,還是像一部電梯,帶著人們通向更高級的人類文明”[51](P26-27)。不論在現實中還是理論中,人工智能體所蘊含的刑事風險都是制約人工智能發展的重要障礙。人工智能進步價值的充分釋放,有賴于包括刑法在內的整個法律體系乃至社會控制體系有力、有效地應對人工智能刑事風險,但人工智能刑事風險防控措施的選擇理應準確識別人工智能刑事風險的客觀屬性以及不同風險防控措施的獨特原理,科學地把握風險種類及防控措施之間的內在邏輯關聯,確保人工智能刑事風險及其歸責方案的正當性和實益性,避免將剛走出科幻世界不久的人工智能重新帶入科幻世界。

注釋:

①本文在系統的維度使用“人工智能”的概念,基于人工智能系統驅動的實體則為“人工智能體”,特此說明。

②值得注意的是,保安處分因其處分內容及法律依據的差異,可以區分為刑事保安處分與行政保安處分兩類。不過,刑事保安處分與行政保安處分雖然法律屬性上存有區別,但二者的實質意涵均為消除或者抑制特定社會風險(人或物),保障社會安全。保安處分刑事性與行政性的固有區別,并不影響將技術性危險消除措施歸入對物保安處分范疇的正當性,畢竟對物保安處分與對人保安處分是在處分對象維度對保安處分進行的類型化區分。

猜你喜歡
主體人工智能人類
人類能否一覺到未來?
論自然人破產法的適用主體
南大法學(2021年3期)2021-08-13 09:22:32
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
關于遺產保護主體的思考
人類正在消滅自然
奧秘(2015年2期)2015-09-10 07:22:44
主站蜘蛛池模板: 午夜激情福利视频| 亚洲AV一二三区无码AV蜜桃| 亚洲日本中文字幕乱码中文| 国产美女精品在线| 亚洲无码高清免费视频亚洲| 激情综合婷婷丁香五月尤物| 国产精品亚洲精品爽爽| 久久久久亚洲AV成人网站软件| 一级毛片高清| 久久久久国产一级毛片高清板| 亚洲精品男人天堂| 国产欧美在线观看精品一区污| 欧美成人二区| 国产欧美日韩免费| 国产在线视频欧美亚综合| 国产欧美日韩视频怡春院| 朝桐光一区二区| 成人伊人色一区二区三区| 欧美在线伊人| 欧美成人精品在线| 久草网视频在线| 日韩国产黄色网站| 国产在线自乱拍播放| 欧美日本在线播放| 一区二区三区在线不卡免费| 久久精品免费国产大片| 欧美一道本| 999精品免费视频| 国产成人精品2021欧美日韩 | 国产aaaaa一级毛片| 99在线视频免费| 91成人在线观看| 毛片a级毛片免费观看免下载| 亚洲六月丁香六月婷婷蜜芽| 亚卅精品无码久久毛片乌克兰 | 免费a级毛片视频| 免费jjzz在在线播放国产| 亚洲精品中文字幕无乱码| 很黄的网站在线观看| 在线a视频免费观看| 亚洲精品欧美重口| 99精品国产高清一区二区| 日韩视频福利| 久久天天躁狠狠躁夜夜2020一| 久久亚洲精少妇毛片午夜无码| www.99精品视频在线播放| 免费毛片全部不收费的| 国模粉嫩小泬视频在线观看| 爆乳熟妇一区二区三区| 国内精品免费| 美女视频黄又黄又免费高清| 国产日韩精品一区在线不卡| 亚洲中文无码av永久伊人| 五月丁香在线视频| AV不卡国产在线观看| 国产欧美专区在线观看| 欧洲av毛片| 国产一级二级在线观看| 亚洲天堂网2014| 色哟哟色院91精品网站| 国产精品漂亮美女在线观看| 欧美性爱精品一区二区三区| 中文字幕2区| 国产成人你懂的在线观看| 国产日本一区二区三区| 国产精品亚洲日韩AⅤ在线观看| 国产精品.com| 国产色婷婷视频在线观看| 精品视频一区二区观看| 97精品伊人久久大香线蕉| 亚洲精品欧美日本中文字幕| 婷婷综合缴情亚洲五月伊| 美女免费黄网站| 国产一级毛片在线| 人妻少妇乱子伦精品无码专区毛片| 亚洲人成网线在线播放va| 国产va视频| 22sihu国产精品视频影视资讯| 人妻无码中文字幕一区二区三区| 幺女国产一级毛片| 国产精品刺激对白在线| 一区二区影院|