柳若儀?鄭茜尹
摘要:強人工智能體的程序運作邏輯嚴格遵循封閉性準則,只有在封閉性準則下其才能發揮人工智能為人類服務的效用。強人工智能體在本質屬性層面與法律依據層面都不具備成為刑事責任主體的技術基礎與理論基礎,不具有成為刑事責任主體的必要性與可行性,人類對于強人工智能體的法律規制不能脫離于科學技術。若強人工智能體實施了犯罪行為,則應當在封閉性準則框架內進行歸責。強人工智能體侵害法益的行為可分為技術失控與技術誤用,應分別區分責任。
關鍵詞:封閉性準則;強人工智能體;刑事責任主體
隨著科技的爆炸式發展,我們由弱人工智能時代走向強人工智能時代的趨勢不可逆轉,這一趨勢引發一系列的法律、哲學、倫理問題,其中不乏可能產生刑事犯罪問題。在刑法領域,探討的焦點多集中于人工智能是否具有刑事主體地位、是否能夠承擔刑事責任以及是否能夠被施以刑罰等問題。其中,代表性觀點指出,智能機器人完全可能具有與人一樣的辨認能力和控制能力,可以在自主意識和意志的支配下實施行為,因此完全可能成為行為主體而承擔刑事責任[1],可以將其實施的嚴重危害社會的行為認定為犯罪行為并給予刑罰處罰[2]。本文對該觀點持懷疑態度,強人工智能體是否具有刑事主體地位承擔刑事責任需要從其本質屬性和法律依據層面進行判斷,并結合刑罰本質與目的全面考察。
一、究本:何為強人工智能體之本
1956年麥卡賽、明斯基、羅切斯特和申農等年輕科學家在達特茅斯會議首次提出“人工智能”(Artificial Intelligence,簡稱AI)概念。人工智能概念由“人工的”(artificial)與“智能”(intelligence)兩個概念組合而來,意為使機器像人一樣去完成某項任務的軟硬件技術[3]。人們對于人工智能的原始認知即為機器像人一樣理性地思考和活動,但這并不意味著人工智能的智力水平與人類相一致,而是意味著人工智能擁有思考的自主性與獨立性。但人工智能擁有思考的自主性與獨立性是否就意味著人工智能將會擁有超越人類智力的風險呢?
無論是強人工智能體還是弱人工智能體,都依賴于人工智能技術作為支撐。因此都不免地呈現出“人工”的特征。早在20世紀60年代人類便開始了對于人工智能技術的研究,至今出現了三次浪潮,每次浪潮經歷大約20年。縱觀人工智能技術的發展歷史,人工智能研究已形成了至少幾千種不同的技術路線,其中最成功、影響最大的有兩種,被稱為人工智能的兩種經典思維:“基于模型的暴力法”與“基于元模型的訓練法”[4]。它們在人工智能技術的研究中發揮著關鍵作用,因而最值得關注。
首先,“基于模型的暴力法”是在構建精確模型的前提下,建立一個表達該模型的知識表示或狀態空間,通過推理法或搜索法窮舉所有選項,找出問題的一個解。“基于元模型的訓練法”是在建立問題的元模型的前提下,參照元模型,收集訓練數據并進行人工標注,選擇一種合適的人工神經網絡結構和一個監督學習算法,依據數據擬合原理,以帶標注的數據,用上述監督學習算法訓練上述人工智能體,減少人工智能技術之誤差[5]。以上兩種經典思維以構建模型為發展人工智能技術的基本前提,只有符合該模型所賦予的人工智能算法,其技術才能無誤差地發生效用。再者,基于以上兩種人工智能的經典思維,符合該模型的應用場景之內是人工智能技術的能力邊界。只有存在一個可計算的和語義完全相同的模型,并且所有提問在該模型的可解范圍內或是存在有限確定的元模型,并且代表性數據集也是有限確定的場景下,暴力法或訓練法才能被準確運用得到有效解決,此即人工智能技術之封閉性準則[6]。例如,自動駕駛汽車發揮其自動駕駛功能的前提為存在封閉的駕駛環境,模擬該駕駛環境時即需要考慮應用需求、應用場合與應用條件三個因素,即該汽車只有在正確的交通道路行駛環境中遵守交通規則,并滿足駕駛者的駕駛需求時,該自動駕駛汽車背后的人工智能技術才能準確運用。若不存在如以上所述之場景,就不能保證智能系統對這些提問的回答都是正確的,人工智能體便喪失了其智能性。因此,封閉性是一個場景中的應用能夠被暴力法或訓練法解決的理論上的必要條件。
有學者提出,隨著深度學習、神經網絡、蒙特卡洛樹搜索等技術的不斷發展,當技術突破下一個瓶頸時,出現具有辨別能力和控制能力、能夠作出自主決策并實施相應行為、實現自身意志的人工智能產品,其實并非鏡花水月[7]。該觀點實則為主觀臆斷,缺乏科學依據。深度學習、神經網絡、蒙特卡洛樹搜索、云計算等技術為現代支撐人工智能體發展之技術,都可將其涵蓋于以上兩種經典思維之內,例如蒙卡特洛樹搜索屬于典型的“基于模型的暴力法”。以阿爾法狗零以100-0戰勝阿爾法狗[8]為例,看似阿爾法狗零完全通過自學掌握了遠超人類甚至其初代的圍棋能力,實則其成功僅是其通過算法不斷自我博弈,并根據自博數據用強化學習算法自動反推所有落子的勝率估計并作出落子決策[9]。其本質仍然為人工智能的經典思維,不具有自主決策并實施相應行為、實現自身意志的能力。
因此,人工智能技術本質仍舊為人工智能的設計者之算法設計,人工智能體僅是自主地完成了設計者設計的具體執行,人工智能技術不會自主地形成“價值判斷”,更不會基于這種價值判斷做出決策,強人工智能體也不例外,強人工智能體的特性即為封閉性、被動性、中立性。
二、定性:何定強人工智能體之性
刑法學界對強人工智能體系是否具有刑事主體地位展開了激烈的討論,大致形成了“肯定論”與“否定論”兩種學說。本文認為持否定論觀點更具合理性。
第一,否定論否認強人工智能體的刑事主體地位,具有科學性。根據目前的科技發展水平,支撐人工智能體發展的技術完全滿足封閉性準則的要求。基于封閉性準則,人工智能技術的存在目的即為人類提供幫助,若該目的落空,人工智能即不屬于如今所謂“人工智能”之概念。第二,否定論否定賦予人工智能體刑罰之必要性,該觀點具有哲學體系作為支撐。刑罰的本質是對犯罪的懲罰性亦即對犯罪的懲罰,刑罰應包含的懲治、安撫、預防、矯正等基本功能,才能實現現代刑法的基本任務。但人工智能不符合生命的構成要件,不能感受到人身與精神上的痛苦,對其實施刑罰與刑罰屬性相背離。第三,在封閉性準則下,即便強人工智能體在其執行行為上具有很強的自主性,但難以跳脫出程序設計者的算法設計。人工智能體無價值判斷之中立性,刑罰功能便難以實現。因此,現有的刑罰體系中所規定的刑罰對人工智能適用不具有可行性。
三、尋據:何存強人工智能體之據
前文從強人工智能體的本質屬性與運行機制層面否定了其作為刑事主體的物質基礎,但從法律法規層面若可以找到認定強人工智能體刑事主體地位的依據,認定其為刑事主體在一定程度上可能具有可行性。同時,只有確定強人工智能體在法律層面的性質,才能為法律更好地規制其犯罪行為提供法理與法律依據。
從法理層面來看,刑法之謙抑性要求凡是適用其他法律足以抑制某種違法行為、足以保護合法權益時,就不要將其規定為犯罪;凡是適用較輕的制裁方法足以抑制某種犯罪行為、足以保護合法權益時,就不要規定較重的制裁方法。刑法作為規制違法行為的最后一道屏障,只有在不得已時才能動用刑罰。謙抑性要求根據一定規則控制處罰范圍,當刑罰無效果、可替代或太昂貴之時,該刑罰就不具有無可避免性了[10]。人工智能體區別于人類,對強人工智能體的犯罪行為通過刪除數據、修改程序和永久銷毀等契合強人工智能機器人特征的刑罰處罰[11]則可以用其他物理手段或部門法設定侵權責任之賠償,在實際上具有可替代性,不必動用刑法進行規制。
從法規層面來看,在刑法領域,沒有犯罪主體,就沒有危害社會的行為,也就沒有刑事責任可言[12]。由于某個具體的犯罪行為的引起可以歸屬于某個特定主體,犯罪主體是表明行為必須由什么人實施才能構成犯罪的要件。犯罪主體是指達到法定刑事責任年齡、具有刑事責任能力、實施危害行為的自然人與單位[13]。因此,從法律規定之文義出發,無論怎么解釋,都難以將強人工智能體解釋為符合以上條件的自然人或單位。
首先,強人工智能體不能當然成為自然人。人類作為人類社會的主體,其存在的本身就是社會的目的。社會中的一切被利用了的資源歸根到底都是為了廣義上的人類整體服務。而人工智能則不然,它之所以能夠在社會中存在,都是為了能夠對人類有所幫助。在自然人與強人工智能體存在目的的本質角度上,人工智能體與人類有本質差異,且自然人所享有的生命權、自由權等基本權利,強人工智能體也不具有、享有的生理基礎,不能將人工智能體歸于自然人之列。機器學習是強人工智能體自由意志之體現,機器學習能否實現,很大程度上依賴于人工智能技術。然而人工智能技術即人工智能的經典思維,在嚴格遵守封閉性準則的運行機制下,在其適用場景范圍外,該經典思維的條件性使得人工智能體根本不具有自主決策并實施相應行為、實現自身意志的能力,故難以將其與類似于自然人的理性主體相等同。
其次,強人工智能體也難以成為單位。根據我國刑法的規定,單位是法律上人格化的組織,其人格化本質是因為單位運作的核心為其內部自然人組織的統一意志。人工智能體的運作機制為人工智能技術,人工智能技術在現在甚至將來很長一段時間內都是在固定模型內的算法推理演繹,因此不能將基于算法的演繹推理等同于單位的統一意志。因此,強人工智能體不具有符合刑法法理和法律層面上刑事責任主體之構成要件。
四、歸責:何歸強人工智能體之責
如何對人工智能帶來的風險挑戰進行歸責?本文的觀點為,在封閉性準則框架內,強人工智能體侵害法益的行為可以分為技術失控與技術誤用,針對技術失控,則應當由強人工智能體的設計者承擔相關刑事責任;針對技術誤用,則結合個案情況,應當由強人工智能體的使用者或設計者承擔相關刑事責任。以發展至完全自動化的自動駕駛汽車為例,假設自動駕駛汽車交通肇事并導致相關法益受到侵害,應當按照以下思路尋找歸責主體:第一,明確事故原因;第二,確定歸責范圍。
首先,明確事故原因,即明確事故是由于自動駕駛汽車的技術失控還是技術誤用所導致的。若為前者,則可以將該事故歸因于自動駕駛汽車所依賴的人工智能技術;若為后者,則可以將該事故歸因于自動駕駛汽車的駕駛者的過失行為。但往往可能存在前后者相結合的情況,則對于該事故需根據兩者在事故中所占比例進行歸責。其次,確定歸責范圍,即確定承擔刑事責任的主體。在技術失控的情況下,自動駕駛汽車發生事故,原因之一就是駕駛程序模型出現問題,因此其設計者由于脫離了對技術風險的預測將其投放市場應對該事故承擔刑事責任。同時,由于完全駕駛階段的自動駕駛汽車本身已經能夠代替人類駕駛者承擔駕駛任務,原本的人類駕駛者就等同于汽車的乘客,駕駛者不需要對其承擔法律責任,除非存在故意或者重大過失。所謂故意或重大過失,即為“技術誤用”。例如,行為人將自動駕駛汽車作為工具意圖殺害被害人,行為人的行為違背了自動駕駛汽車的正常使用邏輯,且在該使用模式下自動駕駛汽車由于違背了封閉性準則,成為行為人殺人的工具,行為人的行為構成故意殺人罪。又例如,由于行為人未定期檢修自動駕駛汽車,導致他人法益受到損害,在該情況下,駕駛者的行為可能構成過失犯罪。但若駕駛者已盡客觀注意義務卻仍發生法益損害結果,其過失罪責任欠缺客觀歸責性而不成立。若行為人未盡到注意義務且自動駕駛汽車算法發生錯誤發生交通事故,該情況下則應尋找事故的本質原因,嚴格按照比例確定刑事責任。因此,可以按照前文的歸責邏輯將歸責主體進行明確界定,且該邏輯可以類推適用于一般的強人工智能體,以應對人工智能技術發展過程中引發的諸多問題,具有實體上的歸責意義。
綜上,強人工智能體不具備刑事主體資格的科技屬性與法律依據,其不具有成為刑事責任主體的必要性與可行性。
五、結束語
強人工智能體之運行有其內在算法邏輯,嚴格遵循封閉性準則,從而發揮服務于人類的最大效用。人類對于強人工智能體的法律規制不能脫離于科學技術而主觀臆測,否則會使得法律體系的穩定性受到沖擊。在現有的封閉性理論的技術框架和法律框架內,強人工智能體不具備刑事主體資格的科技屬性與法律依據,其不具有成為刑事責任主體的必要性與可行性。若強人工智能體實施了侵害法益的行為,則應當在封閉性準則框架內進行歸責,分別針對技術失控與技術誤用的情況,由強人工智能體的設計者或使用者承擔刑事責任,嚴格明確責任邊界。但是,我們不能停止法律對于強人工智能體法律主體地位的探索與研究,未來強人工智能體的發展若以一種超越封閉性準則的全新的技術樣貌出現時,我們應依據新的技術條件判斷風險,在法律框架下對強人工智能體的風險予以評估,并以法律加以規制。
作者單位:柳若儀 鄭茜尹 福建師范大學
參? 考? 文? 獻
[1]劉憲權,胡荷佳. 論人工智能時代智能機器人的刑事責任能力[J]. 法學,2018(1):40-47.
[2]劉憲權. 人工智能時代的刑事風險與刑法應對[J]. 法商研究,2018,35(1):3-11.
[3]Andrew Arruda, “An Ethical Obligation to Use Artificial Intelligence? An Examination of the Use of Artificial Intelligence in Law and the Model Rules of Professional Responsibility” 40 American Journal of Trial Advocacy 443(2016).
[4]陳小平. 人工智能的歷史進步、目標定位和思維演化[J]. 開放時代,2018(6):31-48.
[5]陳小平.封閉性場景:人工智能的產業化路徑[J].文化縱橫,2020(01):34-42.
[6]陳小平. 人工智能中的封閉性和強封閉性——現有成果的能力邊界、應用條件和倫理風險[J]. 智能系統學報,2020,15(01):114-120.
[7]劉憲權.人工智能時代的“內憂”“外患”與刑事責任[J]. 東方法學,2018(01):134-142.
[8]參見https://baijiahao.baidu.com/s?id=1581648107440205265&wfr=spider&for=pc,最后訪問時間:2021-12-14.
[9]David Silver, Julian Schrittwieser, et. al. Mastering the game of Go without human knowledge. Nature, 2017-10-18.
[10]張明楷.論刑法的謙抑性[J].法商研究(中南政法學院學報),1995(04).
[11]盧勤忠,何鑫. 強人工智能時代的刑事責任與刑罰理論[J]. 華南師范大學學報(社會科學版),2018(6):116-124.
[12]劉憲權.刑法學(第五版)[M].上海市人民出版社,2020.
[13]陳興良. 犯罪構成的體系性思考[J]. 法制與社會發展,2000(3):46-66.