孫道萃,王曉杰
(1.中國政法大學 國家法律援助研究院,北京 100088;2.哈爾濱市中級人民法院,哈爾濱 150001)
《未來簡史》曾預測未來之法:人工智能在未來將獲得統治地位,人類的法律將變成一種數字規則,除無法管理“物理定律”外,將規范人類的一切行為。[1]人工智能技術的廣泛應用,突顯人工智能技術倫理及其風險治理等問題的緊迫性與重大性。人工智能與現代法律加速交互乃至沖突。近現代法律體系如何應對人工智能的風險及其不確定性因素,以及能否推動法律體系與時俱進等緊迫問題越發凸顯。刑法制度在整個法律體系中扮演舉足輕重的作用,它與人工智能的遭遇戰已然上演,迫切需要探討智能時代可能帶來的嚴峻挑戰及其對策。理論上對當代刑法積極回應人工智能形成了不少擔憂與質疑。但是,積極樂觀的前瞻性探索亦不甘示弱。盡管人工智能對法律制度的緩慢“沖洗”是這場巨變的客觀效應,但也展示出刑法變革的“無限潛能”。人工智能技術及其應用具有雙面性,不能因其潛在的負面影響而因噎廢食。在挑戰與機遇并存之際,刑法更加應當統籌應對人工智能安全問題。人類社會也應重新思考未來的可能性,更理性地塑造和引領人工智能的發展而“不失位”。當代刑法制度正在遭遇多重發展危機,適時予以調整才能彰顯刑法積極變革的時代氣度。從規范維度作出前瞻性的應對是根本之路,甚至暢想“人工智能刑法學”也是有依據和意義的前沿探索。[2]譬如,對人工智能的刑法主體地位,采取更加積極的立場,雖會超前于現階段的技術水平與認識觀念,卻不失為面向未來的探索。經由觀念的調試與建構,不僅便于總結并提煉刑法理論對人工智能問題的研究共識與應對經驗,也更加直接“滲入”刑法學的內在與體系,以建構性的前瞻思維謀劃與錨定刑法的未來取舍。
人工智能技術及其應用,對“人的主體性地位”與人類社會結構的增量沖擊與分離態勢,已經使當代刑法制度開始承受諸多挑戰。這是當下挑戰的肇始之端。
人工智能時代首先可能動搖人的主體性地位及其命運,這對當代刑法不免形成釜底抽薪的剝離效應,也成為人工智能與當代刑法交鋒后的首要風險所在。
1.離經叛道中的“人的主體性地位”。人工智能技術可模仿和復制人腦的智能。雖不是人的智能,但能“類人”地作出價值判斷。過去被動執行人設計程序命令的智能機器人,不斷增強自主性和創造性,使“智能主體(智能產品、智能機器人等)將來能否超越人這一法定宿主”的擔憂愈演愈烈。人類社會的“數字化”程度與“物化”趨勢遞增,以至于“人”可能被“物化(客體化)”的認識絕非杞人憂天。這觸發“何以為人,人將何為”的本源“生存”問題。在現階段,人工智能主要是人類主體改造世界的新實踐工具,現實社會基礎仍決定人類未來走向。盡管目前讓人類真正憂慮和恐懼的上述事實,仍缺乏堅實的理論依據與迫近的大規模實踐,甚至還可能夾雜對人工智能的擬人化威脅的過度擴大化。然而,圍繞智能主體是否可以且最終替代人的主體性地位展開的爭論異常激烈[3],充分說明事態的嚴峻性。例如,設計的人工智能機器人自主發展出人類無法理解的獨特語言,Facebook關閉引起廣泛爭議的“開發人類無法理解”的溝通智能對話機器人項目,避免陷入道德倫理的“失控”。人工智能對“人”主體性的沖擊與侵蝕,已經從人類語言這一最基礎環節開始滲透。未來出現獨立存在的智能機器人與人工智能社會并不意外,而是現實物理社會高度“進化”的結果。在沙特阿拉伯舉行的“未來投資倡議”大會上,高仿真“女性”機器人——“索菲婭”被授予沙特“公民”身份,成為史上首位獲得“公民”身份的機器人。[4]“智能人”的最終出現以及難以預測的人類危機、生存危機與重大社會問題等,加速“人”的地位和生存語境、“人之何為人”、“人是否還是獨立的人”等問題相繼迭出,使傳統刑法立足的根基陷入“災難”。盡管這種“生存危機”是面向未來的預測。
2.“人本”理念的彌散效應。近現代刑法確立了犯罪主體概念,貫穿犯罪(認定犯罪)、刑事責任(刑事歸責)與刑罰(確定刑罰)的全過程。自然人自始至終是犯罪主體的絕對主導類型,法人也是近幾十年的新生主體。自然人具有相對的意志自由,以及辨認能力與控制能力,是實施犯罪、承擔刑事責任和接受刑事處罰的哲學基礎與法律基礎。單位或法人擁有的是法律擬制犯罪能力、承擔刑事責任能力。作為人類社會文明的“智力產物”與“社會治理工具”,法律制度,尤其是刑法等部門法,在脫離“人的主體性”的成立前提與基礎后,必將經歷法律是否存續、法律如何產生、法律為誰服務、法律由誰監管等重大制度蛻變的潛在危機。
自從人類社會有了犯罪與刑罰后,犯罪人、罪犯、行為人等概念便隨之產生。人工智能可能使刑法中習以為常的自然人地位處于不確定的異常狀態。它集中在以下兩個方面:
(1)人的刑法主體格局之替代性。人工智能引發了“人不再是唯一的統治者”“人是可以被超越的”等擔憂。“人”從絕對的神壇逐漸跌落與人工智能應用范圍的擴大,將對人類社會自古以來形成的“人的主體性”等認識論構成根本沖擊。從技術條件來看,智能主體可以具有獨立自主的行為能力,有資格享有法律權利并承擔責任義務,也應當具有法律人格。[5]如此一來,智能主體或將取代裹以肉身的自然人,甚至演變為刑法主體,可以實施犯罪、承擔責任和接受懲罰。[6]譬如,智能駕駛汽車沖擊傳統交通事故犯罪的“共識”[7],包括“人”不再是法定的駕駛主體與危險制造者,也不能直接作為責任主體等。[8]這直接摧毀了當代刑法的邏輯起點以及傳統犯罪觀念的整體合理性。“人”不再是犯罪的主體,將摧毀傳統刑法制度的根基。盡管從“圖靈測試”、神經網絡算法與翻譯程序等技術來看,當前人工智能技術或產品,仍屬于人類主動界定的“擬人智能”。在未來很長時間內都可能是從屬于人類的工具。但是,量變的基本趨勢不可阻擋,“以人為本”的刑法立足點將逐漸受到侵蝕。
(2)智能主體的“純粹犯罪工具化”傾向。在現階段,人工智能技術的非可視化、可控制性偏低、計算過程的非透明化、運行結果的難逆轉性與不可救濟性等情況,不僅是其技術危險的真實寫照,也使人類社會面臨巨大的制度危機,更將當代法律制度何去何從推向抉擇的關口。人工智能技術與智能主體,可能成為人實施犯罪的新犯罪工具。智能主體的不透明性、規模效應及損害性等特質,也可能造成歧視、個體損害等不利后果,甚至異化為“殺傷性數學武器”等。這反映出當代刑法制度的歷史局限性及其規定的滯后性。雖然人工智能時代的整體到來及其對刑法的滲透是一個漸進的浸入過程,傳統刑法體系仍長期占據主導地位。然而,在兩股強大力量的相互角力過程中,傳統刑法堅守的“以人為本”立場必然有所弱化。如不改變司法適用策略,并從立法上作出修改,極可能無法有效應對智能時代的新型犯罪及刑事歸責問題。
3.刑法“工具屬性”的質變。現代刑法制度是人類社會有組織反應犯罪的“人造物”,是人類社會控制犯罪的“高級”手段,是人類治理社會的重要工具與制度供給措施。[9]近現代刑法以人的主體性為前提、以人的危害行為為調整對象,力圖實現社會有機體的團結與安定。但是,這些堅固的認知體系,在人工智能犯罪時代,更容易由內而外坍塌。
刑法工具屬性的“式弱”之質變趨勢,主要表現為:(1)“人”主導刑法治理觀念的脫逸。人工智能正在悄然改變“人”的地位及其所組成的“人類社會”的進化規律與生存結構。在真正的智能時代,即使存在作為創生者的“人”,但“人”更可能成為人工智能時代的附屬物,缺乏完全的獨立性與主體性,甚至是人工智能社會的管理(統治、規制)對象。這嚴重沖擊法律制度作為服務人類社會的歷史產物與人類法治文明成果的穩定性。在人工智能時代,法律制度很可能是“治理人類”的另類“工具”。包括刑法等傳統法律制度,只是這場人工智能變革時代緩慢推進后的“物化”結果。究其根源,“人”是創物者的主體性地位之徹底旁落,將不斷加劇刑法制度的“物化”(客體化)。盡管人類制定的任何法律都具有必然的滯后性,但對法律問題的思考應當遵從前瞻性;否則,刑法內在的滯后性將被進一步放大,成為刑法止步不前的累贅。人工智能社會與智能主體的發展軌跡趨于清晰,應醞釀與智能社會、智能人相匹配的專屬法律體系,重新認識法律功能與人的地位關系,重新審定刑法價值與機能等問題。(2)人-機關系趨于緊張。技術進步往往是人類認識和解放自身的過程。機器從客體變身主體,也使人類的主體地位更凸顯。這種“人機友好”模式是技術與法律相互融洽的良性狀態。智能技術的不斷升級必然“制造”出在智力上可以比肩人類甚至超越人類的新“物種”,破壞人類在世界中心的主體地位。技術引發的人的主體性喪失及恐慌,加速消損和諧人機關系,更壓制人統領法律與文明的能力,法律制度很可能置換為智能人的“御用工具”。“人機”的對立性,疊加主體性的對峙后,恐攪亂刑法遵從立法目的與宗旨進行治理的有效性,懲罰犯罪和保障人權的常態工作難以為繼,也迫使當代刑法以發展的眼光審慎看待人工智能的工具性與獨立的治理功能。(3)“智能人”的監管難題。在真正的人工智能時代,智能主體作為未來生產生活的基本主體,極可能最終完全脫離其現存的“宿主”之監管,甚至搖身成為“統治”智能社會的主體。智能機器人的深度學習能力不斷提升,監管機器人極為困難,甚至變成重大的社會安全問題。面對“智能人”,可能會出現技術的制衡性或“人”的可控性失靈問題。人工智能社會中的傳統刑法,亦可能成為“智能人”脫離人類社會管控的“物化”之果。在發展初期,“強監管”仍是刑法保持可控能力的前提;在中期和后期,人的監管與“智能人的自治”的相互博弈是主題曲。當代刑法與智能主體的關系定位一旦反向而行,刑法功能的發揮將受到限制,“工具屬性”也會被大打折扣。智能時代使當代刑法是否繼續為“人與人類所用”的功能定位問題搖擺難定。與智能時代的對立乃至逆轉風險亟待疏解,以避免傳統刑法制度的進化與自發修復過程被人為地“阻隔”。這需借助理念調試、立法修正等合法途徑予以實現。
人工智能不再是純粹方法論層面的技術優勢,“技術映象”的初始認識開始消退。人的主體性地位開始受到實質動搖后,人的自由意志亦受削弱,人類的法治文明喪失“人可以控制和改造”的前提。這侵蝕傳統社會的固化基礎與關系紐帶,動搖傳統刑法的生存根基與功能設定。當代刑法需自覺或被動地如實反映。
1.傳統刑法功能的縮減。人工智能技術的超人類屬性,裹挾不確定性風險與潛在的技術不可逆轉性,危及人類的自身安全及其存在地位。傳統法律功能的獨特性可能正在喪失,諸如法律規范的穩定性、規范的可期待性、法律類型的興替以及固化的運行模式等。現行刑法功能也可能出現縮減現象,它表現為:(1)刑法制度的位移與刑法體系的變遷。人工智能的發展,使以“人”為規制對象的傳統刑法制度必將發生質變,以滿足規制人工智能時代新型主體的現實需要。犯罪、責任與刑罰范疇等傳統問題都有待重構,以應對人工智能技術犯罪形態的新需求。否則,刑法的規制對象與功能會完全脫節。(2)刑法規范的進化與治理思維的蛻變。人工智能技術引發犯罪現象及其結構的重大變化,刑法規范作為法定的公開反應機制,面臨規制“對象”的變化,不能套用既有的立法“邏輯”。為了更科學地治理人工智能社會的“智能犯罪”現象,傳統立法與司法均應進行“智能化”修正。(3)智能人的語言體系與刑法規范表述載體的更迭。人類語言與網絡技術的語言相距甚遠。人工智能與算法必然會使刑法文本的結構發生變化。在技術主導時代,智能主體加速成長,可能逐漸確立起“技術統籌(主導)型”的智能社會存續格局,也會改變復雜的人類社會結構、“人”思維情感等基本元素,以及強調智能主體行動邏輯的智能性、一致性、協同性。這會催生“人的物化”效應,侵蝕刑法規范的原本生態。同時,技術化、標準化、模型化、流水線化以及電子化等內容與形式載體成為新的基礎。立足于傳統社會制定的刑法規范,受制于語言載體的差異等,在智能時代可能呈現出高度的“去同質化”等動向。
2.傳統刑法的結構性量變。人工智能技術大規模應用的刑事風險問題已經臨近。這些微變情狀,使刑法規范出現了結構性的量變。
(1)人的犯罪主體與刑事責任主體地位之存留。從趨勢上來看,“人”可能逐步喪失作為社會結構中的唯一合法、既定且可以傳承的主體資格與地位。面向未來地看,智能機器人可能會被當作“法律主體”。智能機器人可能被賦予法律人格,并因此有能力取得并持有財產以及訂立合同等。[10]俄羅斯的“格里申法案”認為,機器人很可能發展成為人類的一種自主代理人,基于機器人的特殊法律構造,允許類推適用統一國家法人登記簿,創設機器人登記簿制度。[11]法律主體身份的巨變,一定意義上可能會制造出一個“人是行為對象”的新階級。當代刑法應圍繞“人的主體性”地位下功夫,謀求“人機和諧”模式的形成與運行,保障刑法目的與機能不異化為“惡法”的來源。否則,可能因調整對象的轉換而喪失刑法保障功能以及存在的必要性。
(2)智能主體刑法地位的兩極化。人工智能的學習能力,使其開始擁有不斷近似于人類的自我學習、自我進化的超強能力,也使其有可能超越人類思維的極限。人工智能的應用也已經開始擺脫純粹的“人的指令”時代,轉向“人工智能”的新時代,直接威脅“人”這一法定主體確立的法律關系。2016年5月,歐盟委員會法律事務委員會提交一項動議并要求歐盟委員會,對于正在不斷增長的最先進的自動化機器“工人”的身份,應定位為“電子人(electronic person)”,并賦予其依法享有著作權、勞動權等“特定的權利與義務”等。[12]一旦智能人獲得法律意義上的“主體身份”,其與“人”的關系將成為刑法調整的重大變量。主動權的爭奪背后,是當代刑法應否“推倒重來”命運的真實寫照。
(3)智能主體的權利及其保護。早在20世紀80年代,美國規劃師與未來學家麥克納利與亞圖拉指出,機器人將來會擁有權利。[13]機器人權利問題,迫使重新審視傳統的權利概念及其意義。人工智能群體的勞動性權利客觀上已經出現,未來必須正視機器人是否應該擁有權利等問題。應澄清人工智能是否具有法律意義上的“主觀能動性”、享有勞動權等基本“人權”、如何保障“智能主體的權利”等問題。承認機器人的主體地位與權利符合社會歷史發展的趨勢,但有別于人類的“自然權利”,具有法律擬制性、利他性、功能性等特定屬性。
(4)智能時代刑事責任范疇的獨立性與專屬性。相比于傳統犯罪的刑事歸責理論,智能時代的犯罪主體身份的差異、主體行為的構造不同、危害結果形式有異等因素綜合在一起,二者日漸格格不入。刑法主體地位正在發生質變,導致人工智能時代的刑事責任變成全新問題。人工智能主體法律地位與能力逐步提高,“智能人”獨立承擔法律責任也并非不可能。這些不同層面的規范微變,都對傳統刑法規范的有效性乃至合法性、正當性提出重大的挑戰,客觀上觸發傳統刑法規范供給危機,也引發傳統刑法理論及其教義學的存續難題。這迫使傳統刑法體系不得不積極尋求改變。
人工智能極可能超越與替代“人”。“人”主導實施并存在于傳統現實社會中的犯罪或將迎來根本性蛻變。這必然同步引發刑法中犯罪論層面的本源性的蛻變。
在量變的過程中,智能機器人的主體地位與能力不斷強化。弱智能機器人仍然是人的工具,而強智能機器人應當視為刑事責任主體。[14]“人”的數字化生存以及真正“數字人”的到來,很可能使人類社會面臨重構“自我”與“社會”等重大生存挑戰。基于“人”與“智能人”之間的主體地位博弈與互換狀態,在由人類社會到智能社會的不同演變階段中,“人”或“單位”是實施犯罪主體的認知常態可能出現迥異的化學反應,也左右當代刑法應對犯罪問題的基本策略。
目前,人工智能犯罪現象可能包括三種情形:(1)“智能主體”的初始階段。人工智能系統尚未擁有人類的常識與意識、無法理解行為及其所處的情境。“智能人”可能成為人類實施更智能犯罪的高級技術工具,也可能成為“人”實施更復雜、更智能化犯罪的工具或手段。“手段型”智能犯罪形態是主要的表現形式。(2)“人”與“智能主體”相互博弈階段。當“智能人”作為獨立的社會主體、犯罪主體與被害主體后,傳統犯罪現象經歷反復的量變后。智能“對象型”犯罪開始出現,是危害人工智能安全的犯罪,與“人”主導實施傳統犯罪現象分道揚鑣。“手段型”與“對象型”人工智能犯罪策動的大規模量變及其衍生的極度撕裂效應越發明顯。(3)“智能人”主導“智能社會”時代。“人”的地位具有不確定性,甚至明顯下降或喪失,“人”統攝或主導實施犯罪的格局可能不復存在。犯罪現象的內部元素、主體結構等均發生劇烈變化,邁向智能“獨立型”犯罪的新階段。當然,以現有技術水平與應用場景等因素來看,“手段型”與“對象型”人工智能犯罪,也可以認為是“依附型”犯罪,在一定程度上依附于現行犯罪內。因為最終的可罰性主體都是操作主體等,現實中可以接觸的具體的“人”。只有未來出現的“獨立型”人工智能犯罪,才是全面獨立的,可罰主體是“人工智能”。
從目前有限個案及其作案方式來看,利用AI作為犯罪工具的,尚屬于AI犯罪的初級階段,是弱AI時代的犯罪情形。在未來,強AI可能通過神經網絡、深度學習不斷優化行為能力,也強化犯罪能力。當AI成為重要犯罪工具或者獨立的犯罪主體時,必須重構治理新型犯罪的理念。在類型化的應對思路上:(1)智能“手段型”犯罪。智能人作為產品或工具,變成“人”實施犯罪的手段,暫且可以按照傳統罪名規制,傳統罪名的擴張化適用方式仍有效。(2)智能“對象型”犯罪。“智能人”的身份、地位、權利等內容均不明確。這導致是否存在需要保護的客體與是否作為犯罪論處尚存疑問。刑法規制更依賴實質的擴張解釋以實現入罪目標。但傳統罪名的擴張適用空間非常有限。因為與立法原意相差甚遠。(3)智能“獨立型”犯罪形態。作為面向未來的犯罪形態,由于諸多因素難以預測和評估,定罪方向暫時無從談起。但是,應當構建獨立的刑法規制邏輯。
在近現代刑法中,人的主體性地位集中體現在刑事責任能力上。傳統刑法理論認為,沒有法定的刑事責任能力,無法實質地實施犯罪行為,也無法自主獨立承擔刑事責任。在人工智能時代,“智能人”主體地位的爭議,使“智能犯罪”的本質和現象充滿未知性、不確定性,在智能犯罪時代,犯罪主體的嬗變,使刑事責任能力亦受影響。有觀點認為,在程序設計和編制范圍內,智能機器人是按照人類的意識和意志實施危害行為,是人類實施犯罪行為的“技術性工具”;更高階段的智能機器人可能超越程序的設計和編制范圍,有意識地自主實施犯罪行為,徹底轉變為犯罪行為主體,應承擔刑事責任。[15]這種觀點既在原則上肯定了智能機器人在未來可以具備刑法意義上的刑事責任能力,也根據不同智能應用階段區分了刑事責任能力的“程度”。有區別地追究“智能機器人”的刑事責任是合理的。
誠然,以當前的技術應用為準,智能機器人主要是人工智能產品,根據是否具有辨認能力和控制能力,可以分為弱與強的人工智能產品。前者不具有辨認能力和控制能力,僅能在設計和編制的程序范圍實現人類的目的,所實施的行為是人類的犯罪工具,無法獨立承擔刑事責任。后者具有辨認能力和控制能力,可以超越人類設計和編制的程序范圍,自主實施危害行為,具有獨立的人格和刑事責任能力,可以獨立承擔刑事責任。但是,根據“類人”的思維類型,對智能人的刑事責任能力展開討論也是“舊瓶裝新酒”。仍未脫去傳統刑法體系的桎梏,可能掩蓋智能人的刑事責任能力之專屬性及其在內容、程度、屬性、功能以及評價要素、體系上的整體變化。在技術上,“智能機器人”不完全由設計、編制程序決定,而主要由算法等決定。而且,以“人工智能產品”代稱“智能機器人”,從話語體系上仍默認“人”的絕對主體性地位,否定智能機器人的“主體資格”。
在智能時代,法定犯罪主體的刑事責任能力需討論以下問題:一是智能機器人完全可能具有獨立的刑事責任能力,可以承擔刑事責任。二是在規范判斷的方法上,智能機器人的刑事責任能力及其類型,參照已有刑法原理和規則,以及鑒于算法等對人工智能的重大基礎地位和作用,可考慮根據算法規則等因素決定。不過,如何將“算法”擬化成目前通用的“刑事責任年齡”等類似概念,并可有效對“智能機器人”的刑事責任能力進行“定量”分析是關鍵。目前,它首先是技術難題,但關鍵是人工智能的刑法理論能夠同步跟進并供給根本支撐。更重要的是,一旦明確了智能主體具有合法的刑法主體地位,刑事責任能力問題也迎刃而解。
目前,“手段型”智能犯罪問題已經出現。[16]它是智能時代犯罪在初期階段的一種主要形式,與“對象型”“獨立型”智能犯罪相互交替演變。人工智能犯罪的不斷增量,會使犯罪本體在規范上不斷變動。以現行刑法為參照的“腳本”,通過預測人工智能時代犯罪的諸多新因素,宜采取前瞻性的規范調試舉措。
具體地講:(1)犯罪原因與犯罪本質的重組。自然原因、個人原因以及社會原因,被公認為是當代犯罪原因論的基調。在以人工智能技術為前提的智能犯罪形態中,犯罪原因與技術濫用、人的主體性與能動性喪失、外部環境改變等新因素聯系更密切,“意志自由”問題異常復雜,而“智能技術決定論”也不盡合理。這就無法繼續按照犯罪原因“三元論”進行分析。反而,可以智能技術為邏輯起點,考察智能機器人的刑事責任能力狀態,結合智能技術應用等情況,綜合確定犯罪的原因。在馬克思主義犯罪學看來,犯罪的本質是人基于意志自由實施的有意識性的危害社會的行為。但是,在人工智能背景下,“人”的主體性地位不斷喪失,甚至覆亡;同時,“智能人”是否具有與“人”毫無差別的意志自由尚不可知。這兩大變量迫使重新認識人工智能犯罪現象及其本質。在刑法的法律性質上,危害智能社會安全、危害智能技術等都是新因素,社會危害性理論面臨“質”與“量”的變化;而階級性質是否繼續保留也存有疑問。這些本源性的重大變動,必然對刑法立法提出修正的要求。(2)犯罪構成要件要素的修正。犯罪構成是犯罪現象、犯罪概念與犯罪本質的法定化載體,會出現最直觀的微變:一是犯罪主體。“智能人”作為新的犯罪主體,幾乎可以實施任何形式的犯罪,不限于傳統現實物理社會或網絡智能社會,但引發一系列后續問題,合法性地位就首當其沖,繼續立法予以確認。二是犯罪的主觀心態。即使“智能人”被賦予“人”的情感、思維、情緒等,但畢竟與“人”有差異,短期內無法擺脫“程序設定”的最原始特征。即使智能程度達到頂峰,可以自主繁殖和進化,“人的程序設定”特征仍舊保留。按照“智能”的賦值,“智能人”應當具備程式化的認知能力,其主觀心態問題更具“機械化”或“類型化”,不如“人”主觀罪過的豐富、多元、易變。三是刑事違法性認識。“人”的違法性的認識及其程度千差萬別,受主觀因素影響大。承上所述,基于“智能人”的主觀意識的類型化等特征,受技術水平、智能程度等客觀因素影響大。四是危害行為。相比于“人”實施犯罪的作為、不作為以及持有等樣態,智能犯罪的危害行為、行為類型、結構、屬性等將大變樣,智能技術成為重要的變量,行為的危險度有所攀升。五是犯罪結果及其定量評價體系。在人工智能時代,危害結果的表現形式以及刑法評價因子及其標準都有新的內容。例如,實害結果(死亡、財產損失)的主導地位下降;行為危險、人的危險以及智能技術的內在危險等,在數量、危險度上都可能增加且地位上升。六是因果關系。新型智能犯罪的因果關系的判斷對象、規則以及意義等內容均有變化,因果關系變得更復雜和具有多樣性。對于犯罪構成要件要素可能經歷的變動,應從立法上逐一回應或確認,提高規范的有效性,并奠定理論發展的基礎。
傳統社會主體與法律責任主體的接替嬗變,已經動搖傳統刑事責任觀念的基石。傳統責任的倫理基礎、刑事責任原則及其歸責體系均可能遭到擱淺。應當厘清人工智能時代相匹配的倫理觀念、罪責觀念及其刑事歸責體系與改良方向。
經由人工智能的法律地位之演化及其由此引發的一系列刑法挑戰,在傳統刑法體系面臨的罪責難題上體現得尤為明顯,同時也提供了可靠的分解素材。
1.刑事歸責的技術倫理困題。人工智能時代將確立“智能人”的社會地位、權利義務等,引發“智能人”與“人”互換身份。這催生出與“智能人”、智能社會相契合的新社會倫理觀,也不免直接影響和動搖法律責任觀與刑法的罪責觀。舉例而言:(1)智能機器人作為“產品”的歸責難題。2014年,瑞士某藝術家構建了一個“隨機暗網購物者”的AI。AI買到了搖頭丸等商品。因非法購買行為,瑞士警察起初沒收涉案物品,但又退還(除毒品外),也未指控應負有責任的藝術家。對被設定功能的機器人,既無法承擔責任,也不可能直接承擔責任,制裁有效性也難以實現。一律追究“人”的責任也不合理。這顯示了人工智能會撕裂責任主體與罪責觀念等。(2)突破道德倫理底線的智能應用與歸責困境。《愛與性與機器人》(2007年)一書預測,到2055年,人類將會和機器人發生類似于人類社會的“性關系”,甚至嫁給機器人。對此,支持者與批評者相持不下。日用型機器人引發一系列社會復雜問題與倫理道德問題,如“性愛”機器人對強奸罪(奸淫幼女犯罪)的存廢等的不可預期的影響等。這是前所未有的刑事歸責難題,更面臨人類社會傳統“倫理底線”與犯罪成立的規范標準等挑戰,如“機器人”是否可 “類人”地成立犯罪及其判斷標準,特別是“人對自己行為負責”的基本歸責原則不再必然有效等。人類社會對“人”確立的一整套倫理規則,對“智能人”已不再奏效,相應地,“罪責自負”“基于行為負責”等傳統刑法歸責原則顯現坍塌跡象,甚至可能攪亂“基于人的意志自由決定實施的危害行為具有可歸責性”的傳統命題。為此,應以“智能技術”及算法等建構契合智能主體、智能犯罪的新型倫理規則以及罪責觀念,根據智能技術的應用場景予以具化。
2.算法下的歸責公正隱憂。目前,人工智能系統的支柱是“算法”與深度學習能力。然而,以技術為前提的“算法”有“誤差危險”,已經嚴重困擾人工智能應用過程中的公正問題,也引發機器人的錯誤如何歸責、機器人設計者是否負責等問題。它包括:(1)技術壟斷風險。從智能技術的虛擬性來看,“算法”是“人”幾乎無法充分有效控制的“技術黑盒子”,算法的開發者難以解釋算法的真正運行機制和可能造成的后果。盡管在算法規則設立之初,應該考慮公平性與準確性問題,但僅依靠技術人員是無法完成公平性與準確性的要求。人工智能技術的發展性、獨占性與壟斷性,尤其是“算法黑洞”隱含算法獨裁等問題,以及人類對算法往往過度依賴與崇拜等傾向,共同在相當程度上容易滋生具有某種“智能技術”導向的歧視性因素,甚至可能導致新的不公平的結果。對于算法獨裁現象的危機,缺乏內部和外部共同形成的監督與制約機制,對公平正義而言是極大的威脅。(2)不透明性。法律乃善良公正之術。算法和代碼而非規則,日益決定關乎個體權益的自動化決策系統、算法和人工智能及其決策結果。人類將公平正義的決定權交給算法時,可能面臨正義與科技逆向而行的難題。算法的“黑箱”問題及其透明困境一直存在。而且,歧視可能就是算法的副產品,是算法內在難以預料的無意識的結果,而非編程人員有意識的選擇。這會增加識別問題根源或者解釋問題的難度。向“算法”問責是一項全新的挑戰。而算法的不透明性是普遍的問題,解密無法肉眼可視的算法并使其透明化,可能遠遠超出能獲得的效益,對算法進行審查可能極其困難。(3)倫理規則的匱乏問題。在自動化決策系統應用日益廣泛的互聯網時代,很多歧視來源于產品設計,應摒棄算法本質必然是公平的誤解,通過設計確保算法和人工智能系統的公平性。而且,人類社會必須提前構建技術公平規則,通過設計技術正當程序,加強自動化決策系統的透明性、可責性、代碼運行規則的準確性與科學性,保障技術統治之下的正義。但僅依靠技術人員無法達成,需要國際層面與國家層面的協同協作。例如,德國倫理委員會的報告指出,算法(即軟件)編寫者應遵守一系列倫理法則,核心是將人的生命置于首位。第7條要求在被證明盡管采取各種可能的預防措施,仍無法避免危險的,保護人的生命而非其他受法律保護的權益是最高的優先考慮;第8條規定,事先編程無法解決人類的倫理問題,如生命權之間的權衡,系統必須設定請求人工處理的強制性。[17]當前,人的利益優于智能主體的利益,是遵循“人類中心主義”立場的必然產物。但是,與“智能人”的法律地位、新的價值沖突與倫理對立等不相稱。人工智能主體具有“擬主體性”特征,可賦予特有的擬倫理角色,但需要專門的“算法”倫理規則與法律責任體系。在價值審度與倫理調適上,應確保算法依據的數據之真實性,堅守算法決策與算法權力等內容的公開、公正,制定更透明、可理解和可追責以及公平的審查標準。根據負責任的技術創新和相關主體的義務等內容,區分技術責任與“人(智能人)”的責任。
3.意志自由作為歸責基礎的存留。在“深度學習”下,智能主體(人)的“意識”與人類不盡相同。是否具有(類似于)當代刑法意義上的“人的意志自由”尚需討論。即(1)意志自由是近代倫理學中的奠基性范疇。沒有意志自由,就失去道德選擇的前提與依據。“如果不談談所謂自由意志、人的責任、必然和自由的關系等問題,就不能很好地討論道德和法的問題。”[18]“人”可以控制自己的意志自由。而責任作為最重要的紐帶,使意志自由與責任擔當之間的內在緊密聯系逐漸成為常態。近現代刑法必須解決行為人的刑事責任有無及其程度問題,而刑事責任與人的意志自由具有密切聯系。哲學上的意志自由論與行為決定論之爭,對近現代刑法學產生重大影響,意志自由對刑事歸責具有重要意義。行為人的意志自由及其程度與定罪量刑活動息息相關,并且是定罪準確、量刑科學的基本理論根據。但這并不直接適合人工智能。(2)借助大數據,基于強大的算法能力,獲得不可估量的學習能力,在智力水平上,人工智能與“人”趨于高度的同質化。在人工智能技術的發展過程中,“人”作為唯一的、天然的、可以永久合法繼承的責任主體,被不斷“清洗”,導致習以為常的責任倫理觀念被顛覆。“人對自己的行為負責”的基本社會倫理觀,以及“人在社會有機體中的責任”“人應當承擔刑事責任”等觀念的立足點被削弱。智能主體如何兌現“自我擔責”、由誰可以對“智能人”依法歸責、“智能社會的歸責是何意義”等基本問題無從參考。除非確立并遵循全新的社會責任倫理體系,擺脫傳統罪責觀念背后的思維桎梏,釋放新的歸責功能。(3)人工智能社會將面臨不可視化的技術風險。“智能人”不僅高度智能化,行為軌跡也更加隱秘。這對“眼見為實、耳聽為真”的自然人是致命的“欺騙”。這使刑法中責任的賦值及其承擔的正義價值、社會有機體的團結維系、法律權威的維持、人類社會有序性的保障等可能逐漸消亡,傳統刑事責任范疇的本體內容則難以存續。相應地,急需重構智能時代的刑事責任。
從理論上對上述問題作出解答尤為迫切和重大。從立法修正的角度也可以及時有效地回應現實問題,從而打通理論和立法在面對新課題上的互動與反哺關系。
1.類型化的刑事歸責路徑。人工智能時代的刑事風險可以初步分為:一是智能應用系統的技術缺陷等引發的外部危害。二是智能應用系統或智能機器人產品等被非法利用或濫用,即作為工具時引發的危害。三是智能人作為真實的獨立刑法主體,實施的行為可能引發危害或危險。除了加害層面的刑事風險,也包括智能人作為被害對象的內部風險。
對此,應當遵循類型化的解決思維:(1)技術中立原則與歸責的例外。人工智能是新型技術,任何技術都具有相對的中立性,不宜過于苛責技術內在的不可控危險。技術的危險是客觀的。目前,利用或濫用的主體才是真正的風險制造者,才是需要承擔法律責任的主體。忽視人工智能技術的中立性特征,不顧技術本身的內在缺陷與危險,采取過于嚴格的責任模式,不利于技術創新與商業化。但是,對技術中立原則也要客觀對待,要防止以此為借口,出現放縱犯罪的情況。(2)智能產品質量責任。2016年8月,聯合國教科文組織和世界科學知識與技術倫理委員會《關于機器人倫理的初步草案報告》探討了機器人的責任,提出采取責任分擔的解決途徑,讓所有參與機器人的發明、授權和分配過程中的人分擔責任。[10]這在一定程度上肯定了產品責任。早期的智能機器人往往是人造產品,傳統的產品責任有發揮作用的余地。[20]機器人造成的傷害,如故意不履行合理的注意義務,不歸責于機器人制造者和零售商的過失犯罪。隨著智能應用產品的主體性增強,傳統產品責任的適用空間將被壓縮。(3)違反法定監督管理義務的過失責任。人工智能時代在一定時期內呈現為“弱智能”,是人的制造品,或高度智能的產品。人仍可以有效控制智能機器人,人負有安全監管的責任或義務。這是安全監管責任的法定義務來源。對于智能產品或智能機器人的潛在風險,設計者、操作者與所有者負有一定的監管義務,在法定條件下,需要承擔刑事責任。(4)法定的嚴格責任。人工智能技術的巨大威力,決定了大規模應用一旦失控,必將引發更嚴重的危害。對于智能產品或智能機器人導致的危害結果,根據保護法益的基本立場,可以在必要時設置嚴格責任,而不論其主觀罪過等問題,旨在強力規制重大技術風險犯罪。(5)獨立主體地位與“罪過”責任。當智能人作為未來獨立的社會主體以及獨立的犯罪主體時,遵循傳統刑法理論,應當對其相應的“罪過”承擔故意或過失犯罪的刑事責任。但是,智能主體的“罪過”,不能直接按照傳統的故意或過失進行認定,尚需重新作出界定。(6)“人機”共同犯罪的責任問題。在智能技術的發展過程中,人與智能主體的關系與作用是相互交替的。這是智能主體與人共同犯罪的特定背景。當人類與人造物共享數字化的信息空間時,人類與智能主體應當共同承擔認識的責任,對以人的地位及其認識為基礎的人類傳統責任觀造成重大的沖擊。從行為邏輯與實際情況來看,人與智能機器人會共存并共同實傳統犯罪或智能犯罪。但是,實施的是完全獨立且性質差異巨大的犯罪行為類型。共同責任的分擔是全新課題。應明確智能時代刑事責任的成立條件、歸責原則、責任分擔等基本問題。
2.通過積極的立法適度釋放供需。面對理論危機與規范供給不足的問題,立法增設新型罪名與專屬的刑事責任類型有其必要性。應加快推動一般性、基礎性立法并完善智能法律體系,策動刑法立法并擴大規范依據。(1)遵循一般立法推動刑事立法完善的基本路徑。人工智能犯罪主要是法定犯罪,其違法性源自于法律的明文規定。這形成了遵循行政立法等法律規定推動刑事立法之一般邏輯。只有人工智能的一般立法不斷發展與豐富,刑事立法可以憑借的規范來源才會更全面。工智能的刑事立法也具有獨特的自主性與獨立性。應當根據實際需要,出于防控與治理人工智能技術風險的目的,啟動創造性的立法,推動人工智能的一般立法之發展。(2)圍繞人工智能刑事歸責的重點問題啟動類型化的立法。主要包括:一是加強人工智能技術在研發階段的立法,規定研發者、設計者的義務,強化前端的刑法規制,使研發者、設計者的責任范圍更為明確,避免替代責任現象。二是完善人工智能在不同應用環節上的立法,特別是規范智能產品的生產和銷售行為,規定所有者、使用者應負的法定義務與責任。這是人工智能大規模商業化后的主要刑事歸責場域。三是完善對智能技術及其應用的監管立法,明確監管主體、監管職責,規定智能時代的監管瀆職犯罪。四是對“算法”進行立法,設置可控化的管理規則與要求,增加“算法”的透明性與公開性,強化公正價值的攝入與規制。五是完善智能安全保障的立法,強化技術應用、產品商業化中的安全保障義務,建立不同安全維度的保障體系。六是增設具體罪名。適時啟動一定規模且適度的活性立法,如增設濫用人工智能罪或危害智能駕駛安全罪等。
在人工智能時代,犯罪以及刑事歸責體系正在深度演變,處于末端的刑事制裁觀念也有所異動。理論上應當形塑獨立的智能時代刑事制裁以確保其有效性。
面對智能機器人等新型“犯罪主體”,在芯片與算法等作用下,具有強大的“超人”能力。已無人類肉身的束縛與生理上的羈絆,以至于針對“現實中的人”的傳統法律制裁,可能會變得毫無效用。例如,死刑在智能時代的命運與功效并不樂觀,對“智能人(主體)”實施槍決或注射甚至是個不經意的“笑話”。對“智能人”判處自由刑或終身監禁,也顯得格格不入。畢竟“智能人”并無“人類壽命”的生理極限問題,可以無限制地“存活”,將其關押在某個封閉的物理空間,亦無制裁的針對性與有效性。反而,物理上切斷電源、終端網絡鏈接、技術禁止、系統關閉等“智能壽命終止”或“智能運行終止”等措施,才是對“智能主體(犯罪人)”形成“最終剝奪”效果的“極刑”措施;對智能技術或應用產品、系統的限制運行措施無疑次之。人工智能對傳統刑事制裁及有效性形成的重大“顛覆”,絕不是學術的“科幻”;反而,深刻地描繪人工智能時代對“智能機器人”的管理、監控以及治理變得異常復雜困難。如果從法律層面對其進行制裁,顯然無法“如法炮制”現有經驗,或者說,適用于人的傳統刑罰措施是難以奏效的。
在人工智能犯罪的演化背景下,基于傳統刑法的框架與邏輯,特別是基于犯罪與刑罰之間的特定關系,習以為常的報應、預防等刑罰目的,以及自由刑、財產刑組成的刑罰體系及其刑罰結構,還有近現代以來確立的類型化之刑事制裁措施等,均無一幸免地處在被“肢解”狀態。因此,在人工智能時代,應當重新審視和定義刑事制裁及其有效性命題。正視近現代刑法確立的刑事制裁體系面臨“整體置換”之命運,防止適用于人工智能犯罪的刑事有效性徹底化為泡影。
鑒于傳統犯罪與網絡犯罪的差異等因素,不乏觀點認為應當建構全新且獨立的網絡刑事制裁范疇與具體措施。[21]這提供了可積極類比的參照物。對于正在發展中的人工智能犯罪諸問題,也需要獨立的刑事制裁措施體系。這一變革旨在針對新的犯罪情況以及刑事歸責的新需求,設計與配置有效的刑事制裁措施體系。具體而言,應注重以下幾個問題:
(1)人工智能技術制衡是創設刑事制裁措施的“制導”前提。一般而言,自然人依靠生理機能和能量補充維持生命與行動能力,死刑、自由刑的“制裁有效性”由此產生。相比之下,“智能主體”依賴外部的物理動能或內部運行程序等,如電源、網絡以及算法等,對其予以切換或關閉,可以起到相似的“終極制裁”的效果。人工智能時代的犯罪具有鮮明的“技術關聯性”,甚至在一定程度上依附于技術及其應用而存在。針對智能時代的新型犯罪,刑事制裁的有效性能否實現,首先取決于對技術是否采取了合理控制、限制以及制衡等,以此剝離了人工智能犯罪的前提條件與基礎。只有充分揭示人工智能犯罪的本質特征,顧及刑事歸責的特殊性,才能最終確保刑事制裁的有效性。遏制人工智能技術的異化風險與有效治理“智能主體”危機的前提,首先是從技術制衡層面科學合理地約束智能主體的失范行為。
(2)圍繞規范的有效性設計刑事制裁措施體系。在人工智能時代,新的刑事制裁措施體系本質上是以刑法規范的法治方式,承接刑事歸責后的法律后果,治理新型犯罪。針對強人工智能產品的犯罪,刑法應增設刪除數據、修改程序、永久銷毀等刑罰種類。[22]該觀點不失為有益的嘗試。但是,重視“技術制衡”不是簡單的唯“技術論”。應當回到刑法的規范有效性層面。它是指應當立足于發展中的人工智能犯罪及其本質特征、危害類型、治理需求等情況,結合刑事歸責的法律后果以及責任形態等,針對智能主體及其利益、權益等內容,進行刑法意義上的“懲罰”,以期實現事后的報應、面向未來的預防以及社會恢復效果等多重目的。例如,伴隨“智能人”地位與能力的前移,智能主體不僅具備獨立承擔刑罰的能力或可罰能力,也擁有相應的法律權利。對智能主體的權利進行限制或剝奪,是設計制裁措施的有益支點。
(3)動態的發展觀。刑罰范疇處于刑法運作的終端,受前端的犯罪與刑事責任等因素的直接影響,導致針對人工智能的刑事制裁反應機制容易呈現出一定的延后性與被動性。刑事制裁措施體系的探索存在一定的先天局限性,進行前瞻性設計的難度更大。傳統刑罰目的、刑罰種類、刑罰體系、刑罰結構以及刑罰裁量、刑罰執行等整套知識體系都處于不確定狀態,既不能作為直接可以援引的“前見”,也可能是創設專屬刑事制裁措施體系的“障礙”。應當堅持動態的發展觀。既要容忍刑事制裁措施具有一定的超前性,甚至虛無性,接受這些新的刑罰措施仍處于構想階段的事實。同時,也要科學地借鑒已有刑事制裁措施,兼顧報應、預防等刑罰目的。