999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能時代背景下的刑事責任 主體化資格問題探析

2021-11-30 03:23:30劉瑞瑞
江漢論壇 2021年11期
關鍵詞:智能化人工智能

摘要:人工智能的快速發展引發了刑法學界是否需要改變傳統的刑事責任主體范圍,賦予人工智能刑事責任主體資格的爭論。對人工智能是否能成為刑事責任主體這一問題的探討,在某種意義上是法學領域,即是否有必要在法律層面上設計或設置某一新型主體以應對科技發展所帶來的諸多嶄新問題。人工智能的發展程度不是決定人工智能能否承擔刑事責任的根據,在現有的法秩序框架下,人類作為法律構建者的身份已經決定了人與人工智能的關系,進而否定了人工智能作為刑事責任主體的可能性。

關鍵詞:人工智能;責任主體;智能化;法秩序

基金項目:中國—上海合作組織國際司法交流合作基地研究基金項目“基于全球營商環境報告的上合相關國家法律風險研究”(19SHJD001)、“基于法治指數的一帶一路國家金融法律風險識別及對策路徑研究”(CNSC017021)

中圖分類號:D924.3? ? 文獻標識碼:A? ? 文章編號:1003-854X(2021)11-0105-06

隨著當今社會科技的高速發展,人工智能逐步拓展到社會經濟生活的各個層面,目前已在眾多領域對人類的社會生活及社會組織形態產生了十分深刻的決定性影響。已有學者宣稱人工智能是未來40年對人類影響最大的技術進步之一,這場科技革命對幾乎所有領域都產生了較為明顯的沖擊效應,同樣也對法學研究提出了全新的挑戰。人工智能的最大特點在于智能化,這種類似與人類的智能,或者與人類智能具有相似性的特點導致人工智能性質界定產生了較大爭議,尤其是智能化程度所帶來的人格性特征的增強使人工智能與“人”之間的界限變得模糊。在刑法研究領域,人工智能與刑事責任之間的關系探討也就成為熱點問題,在一定程度上超出了傳統的“人”與工具的范疇,因此有學者提出人工智能刑事責任主體化的觀點。目前,人工智能是否有主體化的可能性在學界存在不同的觀點,從研究的理性與嚴謹性角度出發理應首先要厘清兩個基本問題:一是該問題研究的路徑選擇——以科技發展為導向,還是以法的邏輯推理為基礎;二是該問題盡管是指向未來的社會發展狀況下的立法問題研究,探討的前提是設置在現有的法秩序框架下,還是超出人類主導的法秩序框架下的研究。

本文將首先梳理總結人工智能時代下刑法領域在理論層面的主要應對策略及研究進路,破題人工智能刑事責任主體化的理論爭議,重點分析主體化理論的邏輯前提與內在理路,在對其理論預設中所存在的問題予以批判的基礎上提出破解人工智能刑事責任主體資格問題的思路,即回歸法之內在邏輯,在既有的刑法系統中對人工智能所可能帶來的新問題予以兼容與調試。這與以“人”為核心的法秩序的建構具有密切關聯,通過對人工智能刑事責任主體化資格問題的再思考,重申或再次審視人工智能時代條件下刑事立法的包容性與延展性特質。顯而易見,新生事物的涌現必然會對既有的理論與實踐體系產生一定程度的影響,當這種影響突破某個臨界點時則可能引發帶有根本性質的變革;對人工智能發展的想象或預測似乎怎樣都不過分,不過就法律領域而言這種想象或預測也不應一味夸大,尤其是落實在制度及規則的設計層面則更要審慎。法律系統對現實世界的回應、關照與調適從未停止過,在此意義上,法律系統始終是動態的、更新的、變化著的,一些“老瓶”早已裝上了“新酒”,人工智能時代的理論供給并不只是或不應僅僅是制造出某些新的概念,更重要的是還包括對既有的系統進行重新認識與理解,這在法律領域特別是刑法領域尤其關鍵。

一、人工智能時代刑法的理論供給:面對人工智能刑事責任主體化的“誘惑”

對人工智能刑事責任主體化的探討構成了當前刑法學界爭議較大的基礎性理論問題之一,伴隨人工智能的發展及其影響力的擴大,可以預見的是,對該問題的探討將不斷持續與深化。實際上,人工智能的主體化作為邁向人工智能時代的法律“元問題”已貫穿法理學及各個部門法領域,無論對這一“元問題”持何種立場,它都不會被回避。即是說,對人工智能主體化問題的探討構成了人工智能時代法學領域第一波理論供給,如在知識產權法領域對人工智能是否可作為或視為著作權主體已產出了諸多相關研究成果。應當說,圍繞人工智能主體化或更準確地說,人工智能是否主體化這一法律“元問題”,面對將人工智能主體化的“誘惑”,各部門法都從各自領域的特點及面臨的(可能)挑戰為切入點提出了不同的理解模式及相應的應對策略。在此意義上,這一人工智能時代的法律“元問題”構成了展開相關問題研究的邏輯起點,也成為劃分、區分多種應對策略的性質及觀點的一條重要標準。

(一)“誘惑”下的“試錯”:設計人工智能承擔刑事責任類型研究進路

就刑法領域而言,有可與其他部門法共享的智識資源,也具有一定的特殊性。總的來看,目前的相關研究大致可歸為兩類:一是將人工智能視為刑事責任可能的主體,直接探討人工智能承擔刑事責任的類型;二是探討人工智能是否能成為刑事責任的主體。研究人工智能承擔責任類型的學者主要著眼于未來人工智能的發展,認為人工智能在智力方面可能會獲得與人類相當的能力,甚至有超越人類思維的可能性。此種研究是以人工智能的快速發展為基礎,預判人工智能在具有獨立意識的情況下與人類如何劃分刑事責任問題,進而提出可能出現的若干種刑事責任承擔模式。例如,有學者認為根據“侵害行為”發生于程序設計和編制范圍的內外來認定其辨認和控制能力的有無,進而判斷智能機器人是否具有刑事責任主體資格。① 可見此種觀點(或此一類型觀點)是在一定范圍內承認了人工智能承擔刑事責任的可能性,只是因為不同主體在犯罪中起到的作用與行為性質不同而導致不同的責任承擔方式而已。此種思考路徑在表面上看似乎避開了目前人工智能探討刑事責任主體的“障礙”,轉而在具體的操作層面或微觀層面對某種行為或現象依據一定的原則或判斷標準予以剝離或細化,試圖通過區分人與人工智能的行為來確定責任承擔的條件與程度。可以看到,面對人工智能刑事責任主體化的“誘惑”,此類研究進路試圖在具體的制度設計層面對人工智能具有刑事責任主體資格予以有限承認,并在此認知基礎上進行“試驗”或“試錯”,對承擔主體責任在一定程度上進行評估或預測,而將一些基礎性的理論問題先行“懸置”,就此觀察或觀測人工智能刑事責任主體化的效果或效應,以此來確定或判斷主體化的表現及其邊界。

應當說,這種思路對在考量某一具體制度設計下的人與人工智能的行為區分具有一定意義。不過,需要指明的是,這種研究策略在實質上并未真正解決問題,而是把對相關問題的探討架構在一定的想象之上。法學研究固然需要前瞻性,根據發展趨勢預測行為、狀態或現象發展的可能性,為立法做必要的準備或儲備,但這種預測也應具備一定的或相當程度的合理性、現實性與準確性,而這種合理性、現實性與準確性要求反映或體現在某一微觀的、具體的制度設計中時則極有可能產生誤差或偏差,這種誤差或偏差將極大削弱研究的價值。更為關鍵的是,通過考量具體制度設計中的“樹木”未必能因此而見整個“森林”,在思考的邏輯上,先行“懸置”的問題始終讓后續的分析與推導存在一定未盡之處——正因為如此,其所提出的解決方案或策略總是猶如“隔靴搔癢”。

(二)“誘惑”下的否定與肯定:人工智能承擔刑事責任的可能性之爭

與上述研究思路不同,相當多的學者所關注的是人工智能承擔刑事責任的可能性問題,根據人工智能的辨認能力與控制能力的性質及程度去判斷人工智能是否能承擔刑事責任。這方面的研究又分為否定說與肯定說兩種觀點。否定說即否定人工智能成為刑事責任主體的可能性,認為人工智能無論其多智能化都是人類制造的產品,都不能改變人類工具的性質,所以不應成為刑事責任的主體。如有的學者認為,“機器人沒有自身積累的知識,其知識都是特定領域的且都是人類輸入的,即其不具備人之心性和靈性,故其與具有‘人類智慧的自然人和自然人集合體不能簡單等同,故受自然人控制的機器人尚不足以取得獨立的主體地位”。② 可以看到,否定說認定人與人工智能之間存在本質區別,并從區別中尋求排斥人工智能作為一種新型主體資格的依據,堅持“人—物”的二分法,并主張繼續在這種二分法框架之下來解決人工智能問題;或者說,延續二分法的基本認知而將人工智能納入某種特殊“物”或工具的范疇予以考量。

另一種觀點是區分不同的情況,而來決定人工智能是否具有刑事責任主體地位,可大致歸于肯定說的范疇。該觀點認為應以科技發展程度為基礎判斷人工智能的辨認與控制能力,主要是對人工智能發展的不同階段人工智能所體現出的“智力能力”的不同進行比較。比如弱的人工智能階段與強的人工智能階段人工智能的辨認與控制能力是不同的,弱人工智能階段不存在承擔刑事責任的可能性,而強人工智能階段則有可能。此種觀點雖未完全肯定人工智能的刑事責任主體地位,但強調人工智能在今后的發展過程中因為智能性的提高而具有承擔刑事責任的可能性。如有的學者認為,“強人工智能產品具有辨認能力和控制能力,能在設計和編制的程序范圍外實施危害社會的行為,其具有獨立人格和刑事責任能力,可以將其實施的嚴重危害社會的行為認定為犯罪行為并給予刑罰處罰”。③ 這種關注人工智能獨立思維能力的變化對人工智能的責任能力影響的思路,主要是從科學技術角度分析人工智能責任能力的性質與特點,嚴格來說,屬于非法學角度的研究。

從上述對否定說和肯定說兩種觀點分歧的簡要分析中不難看出,刑法學目前對人工智能的關注重心不在于工具角度的人工智能對社會產生的危害,而是關注主體角度的人工智能所可能帶來的刑事責任問題。任何研究都應以清晰的邏輯結構、正確的研究角度、合理的研究范圍為基礎,不過目前的人工智能主體化研究在這三個方面都尚存在一定的問題。人工智能承擔刑事責任的前提是人工智能成為責任的主體,上述第一種研究思路,即設計人工智能承擔刑事責任類型研究進路是以人工智能具有責任主體的可能性為基礎的。但是這種可能性是否合理卻沒有提及,跳過主體資格去探討人工智能承擔刑事責任的模式就如同空中樓閣,在邏輯上存在一定問題。第二種研究思路實際上包含否定說與肯定說兩種立場,它們都著眼于人工智能能否獲得主體資格,邏輯層面固然合理,但論證人工智能是否能獲得刑事主體資格的角度選擇卻有待商榷。而且,也許更重要的是,這兩種不同的研究思路其實都回避了一個重要問題的闡述——是否以現有法秩序為研究的前提或基礎。

二、回歸法之內在邏輯:破解人工智能刑事責任主體資格問題的路徑選擇

對人工智能是否能成為刑事責任主體這一問題的探討,在某種意義上是法學領域,即是否有必要在法律層面上設計或設置某一新型主體以應對科技發展所帶來的諸多嶄新問題。盡管學界對人工智能刑事主體資格這一問題持有不同觀點,不過無論肯定說抑或否定說幾乎都是以科技發展狀況——也就是人工智能的智能化程度為標準,以此為依據來判斷、評估、評價人工智能獲得主體資格的可能性,這顯然是以科技為導向的論證角度。該種研究思路固然充分考量了科技發展對法學研究的影響,試圖通過對最新科技的及時關照與回應以達成對人工智能時代所引發諸多新問題的調整與規制,但需要指明的是,該研究思路也在某種程度上忽視了對法之內在邏輯研究的重要性。進言之:

(一)不牢靠的根基:人工智能及科技發展程度的不確定性

人工智能對社會發展可能帶來的影響是人類關注的主要問題,但是究竟能發展到什么程度是無法預測或確認的,人工智能發展程度的不確定性不適合或決定了其無法作為法律責任主體資格界定的理論出發點。目前支持人工智能犯罪主體化的學者主要是以人工智能可能出現的狀態作為探討的基礎,故而有觀點認為人工智能主體資格問題與人工智能化程度是密切相關的,體現了以科技發展為導向的研究角度。因而,現在刑法學關于人工智能的研究主要關注人工智能的智能化問題,從智力發展水平考慮人工智能實施行為的獨立性與智能性,探討在將來可能出現的人工智能具有獨立思維,自主支配行為的可能性,以此為基礎論證人工智能成為責任主體的可能性。其中,具有代表性的觀點是根據人工智能不同的發展階段所展現出的智能化程度的不同將人工智能分為弱人工智能和強人工智能,弱人工智能和強人工智能不僅代表著人工智能的階段劃分,也決定著人工智能的性質界定。弱人工智能因智能化較低,與人類的思考、判斷能力差距較大,擬人化程度不高,依然被視為人類的工具,因而在刑法學領域對弱人工智能的研究也僅限于犯罪對象或犯罪工具的研究,與主體資格毫無關系,不能成為刑事責任的主體。強人工智能的突出特點在于智能化的提高,如有學者認為,“強人工智能體能在人類的設計編程之外實施行為具有獨立意志,且與人類相比具有更強的控制能力與可培養的辨認能力,可以成為刑事責任的主體”。④ 否定說中有學者堅決反對人工智能成為責任主體,其認為“未來已來,但是不是說來就來,主張人工智能體具有主體,尚不具有現實意義”。⑤ 還有的學者認為“人工智能系統對其活動的法律規范意義不可能具有自主性認識,不可能具有刑法意義上的辨認、控制能力,刑法不應將其作為刑事責任主體”。⑥ 可見,無論是肯定論者還是否定論者在論證角度上都不約而同地選擇了關注于智能化的差異程度,一種是人工智能之間的比較,一種是人工智能與人的比較,關注人工智能所具有的辨認和控制能力和人類的辨認和控制能力是否同質,是否能相提并論。

不過,必須指明的是,以人工智能的發展趨勢預測人工智能作為刑事責任主體的可能性,這一思路是存在一定問題的。一方面,人工智能最終會發展到怎樣的程度是我們難以預測的,人工智能可能存在飛躍式、跨越式的發展,其突破能力將超出人類的想象。法學研究以難以預測的結果作為出發點本身就值得商榷,而且人工智能的發展也是持續不斷的,無論何時都不可能存在或達到最終結果,按此思路研究人工智能的刑事責任主體問題也是難以獲得最終答案的。另一方面,人工智能的智能化程度也無法從客觀的角度確立標準來界定人工智能是否應該承擔刑事責任。人工智能的“智能化”是與人類的比較而產生的,這幾乎決定了不可能提供具體的數值作為智能化判斷的標準,也就無法提供主體化的明確標準。這種研究角度的偏差在于科學技術的不可預測性,或不可全面預測性與法的明確指引性之間的沖突。所以,對該問題的研究依靠以科技發展為導向的論證思路是無法完成的。

(二)根據法之內在邏輯推理:解決人工智能責任主體化問題的路徑選擇

1. 回歸法之內在邏輯:明確人工智能責任主體化問題的出發點

需要指出,人工智能犯罪主體化問題其實與人工智能技術的發展程度之間沒有必然的聯系。既然以科技發展為導向的研究思路不可取,那么將人工智能作為一種背景,以法學的視角研究該問題是否具有更大的合理性呢?這取決于研究的內容。如果我們對人工智能的研究是以工具為特點的研究,那么人工智能的科技特點所起的作為就非常明顯,需要根據人工智能不同發展階段的科技特點去評價行為主體的行為特征以及行為的危害性。就如同我們在探討網絡犯罪問題時,需要對網絡本身的特點加以了解,才能準確界定通過網絡實施的犯罪行為的特點及危害。但是,在探討人工智能責任主體身份問題時,人工智能在科技上的特點以及它的發展趨勢都不是刑法學關注的重點,甚至可以在某種程度上予以忽略。因為所謂的人工智能只是為我們提供了一種研究背景——可能出現具有高智能的工具,我們是否需要它給予主體地位,也就是權力能力。人工智能是否應該擁有主體地位不是智能化的程度問題,而是主體地位的性質問題——什么是權利能力——由誰賦予。該問題的探討涉及的是法學的本質問題,要在法學范圍內探討,與科技的發展無關。進言之,盡管人工智能的發展狀況具有不可預測性,不能作為判斷人工智能主體化的標準,但是依據法的內在邏輯進行推理卻能獲得明確的答案,是解決該問題較為合理的路徑選擇。

法的邏輯推理即使是對可能出現的情況或問題進行預判,其立足點是且依然是既有的法律規定,而且這些規定都存在著內在的邏輯關系。人工智能是否能具有刑事責任主體資格要進行法律推理的主要因素有:法秩序的范圍、人的主體地位、法律構建者與人工智能的基本關系等,這些前提在法律層面都有明確規定。通過邏輯推理,可以從法的性質角度準確評估人類與人工智能的關系,既包括現在的關系,也包括將來的關系,以關系定位為基礎,人工智能是否或應不應該獲得刑事責任主體身份的問題也就迎刃而解了。

2. 回歸法律建構之主體意志:以“人”為核心的法秩序

人工智能以智能化程度為標準基本可以分為三個階段,即弱于人類的人工智能、相當于人類智力的人工智能以及超越人類智力的人工智能。弱于人類智力的人工智能是當今人工智能的特點,否定它具有刑事責任主體資格是不存在爭議的,但是對第二種與第三種情況下人工智能能否主體化有不同的觀點。有學者認為考慮到人工智能在未來犯罪中發揮的作用,以及自主行為意識和能力的不斷提高, 逐步確認智能主體的刑法地位是具有合理性的。

實際上,人工智能是否能主體化主要取決于兩個方面:一是以人為核心的法秩序中人與人工智能的關系定位;二是刑法調整的必要性。一方面,以“人”為核心的法秩序框架其實否定了人工智能主體化的可能性。隨著人工智能的智能程度持續提高,人工智能的智力水平在將來可能會等于或高于人類,有的學者認為這種情況下還將人工智能僅僅作為工具對待是不合適的,因此提出人工智能主體化的觀點,但這種觀點沒有考慮問題探討的基本范圍——現有法秩序框架下,超出該范圍問題的性質就會發生實質改變。申言之,一定要在現有的法秩序的框架下探討刑事責任主體化資格問題,現有的立法包括刑事立法在內都是以“人”為核心構建的,這體現在兩個方面:一是“人”是法秩序唯一的構建者,即現有的法是“人”的意志的表達,所有與法有關的事實、狀態、行為以及參與者都會依據立法者的意志界定性質、明確地位。“人”在法秩序構建過程中的主導性排除了其他主體存在的可能性,包括人工智能。雖然在法律關系中國家以及各種組織也是法律關系的主體,但究其實質都是以“人”為基礎,不同形式的“人”的組合體,而人工智能也不具有這一性質。因此,只有“人”是立法的主導者,具有主體地位,而人以外的其他行為體都不會獲得主體地位。二是如果肯定人工智能的主體地位,那么現在以“人”為核心與邏輯起點的刑事立法會帶來顛覆性的改變,我們就是在探討未知的某種刑法典。現在以人為中心的法秩序,“人”不但是法秩序的唯一構建者,而且法也是為調整人類社會而產生的,所有法律制度確立的標準都是以“人”為基礎的。無論人工智能的能力有多強,有多接近人,但畢竟不是人,不能與人相等同,現有法律直接將其作為“人”來調整在邏輯上是悖論;而且,現有法律體系中的概念、原則、規則等都是以“人”為基礎制定的,如果承認人工智能擁有主體地位,其現有體系基本要全面修改,變化參考系,最起碼要將人工智能作為參考系,那就會導致新的法秩序的形成,原有法秩序的瓦解。學者們對非人類構建的法秩序中相關法律問題的研究基本是以空想為基礎,缺乏現實意義。

概言之,法是人的意志的表達,所以法是按照人的意志構建的。在人工智能與人的關系中,人的意志或意圖已經決定了人工智能的地位——法律關系的客體。從性質而言,人工智能與其他工具一樣,都是具有一定功能,能滿足人類的某種需要,工具性是他們共同的特征,只是性能與重要性上的區分。人類制造人工智能的意圖是明確的,就是掌控并利用它為人類服務。人工智能的發展也是以人類自身的發展提高為前提的,人工智能所獲得的基本能力與所謂的自身的升級提高都是以人類的設計、制造為基礎的,哪怕是出現了超出人類控制能力的人工智能,人類制造的出發點也是要掌控它,為自己所用。所以,人類利用人工智能,將其作為最有用的工具的意圖是不會改變的。簡而言之,在社會生活中,人類與人工智能的關系是制造者與被制造者,利用者與被利用者的關系,這與其他工具與人類的關系是相同的。人工智能無論其多么智能化,在人類社會中發揮著多么重要的作用,其本質是無法改變的——人類不斷進化的工具。因此,人類從自身的利益出發,無論人工智能如何發展,最符合人類意志的關系是人與工具的關系,這是人類發明人工智能的本意。在現有的法秩序下人類是構建者,人工智能即使擁有較高的能力,包括思考能力,但是能否獲得人格是需要法律的確認的,而法律是否確認人工智能的人格取決于法律構建者——人的意志。人作為法律秩序的構建者,為維護對自己有利的秩序與社會分工,必然也會排除人工智能獲得主體地位的可能性。

三、刑事立法的包容與延展:對人工智能刑事責任主體化資格問題的再思考

有的學者預測人工智能將來在智力方面有可能超越人類,甚至能控制人類,所以從能力角度應該具有主體地位,乃至有學者認為“從人工智能的發展態勢看問題,人工智能將來會具有像人那樣甚或超過人的犯罪能力,故一旦承認人工智能的犯罪主體地位,則將出現人工智能統治人甚至消滅人的局面或悲劇,故人工智能的犯罪主體化不是‘能與不能的問題,而是‘應不應該的問題”。⑦ 從人工智能的發展趨勢角度看,存在此種擔憂是合理的,而從法律角度來看這一科技發展趨向予以觀省則會得知,人與人工智能是否都應該具有主體地位關鍵不在于誰更聰明,而在于誰擁有了立法的主導權,而并非所謂的認知、思考能力。人類擁有按自己意愿構建法秩序的能力時,便擁有獨一無二的主體地位;一旦喪失了這種能力,而被人工智能所取而代之時,不是要不要給人工智能法律主體地位,而是在新構建的法秩序中,人處于什么樣的地位的問題——只是這種假設已經超出了我們探討此問題的基本社會背景。人工智能是否能主體化要在現有法秩序的框架下探討,而在現有的法秩序框架下,人類依然是法秩序的構建者、主導者,是按人類所擁有的物質生活條件及意圖所形成的法體系。人工智能只是體現了社會生活某些方面的變化,使人類無論是出于主動也好被動也罷,從立法的應然性出發要作出的適當調整,但是人類作為主導者構建法秩序的實質是沒有改變的。如果人工智能在智力方面已經超越人類,實際上探討的范圍或基礎已經發生實質的改變,法秩序的構建者可能已經轉變為人工智能,或者最起碼人類不是唯一的主導者,不具有絕對的話語權,在此種情況下問題已經不是探討人工智能是否可以犯罪主體化了,而是由誰來構建法秩序框架,人類在新的法秩序中已經轉化為何種身份的問題。進一步說,刑事立法的容納性否定了人工智能主體化的必要性。人工智能主體化之所以被提及是因為有些學者擔憂在將來因為人工智能不具有主體資格而導致刑事責任的追究難以實現,這種觀點一方面過于強調人工智能的特殊性,而在另一方面也低估了既有刑法體系的適應性,以人工智能對犯罪問題的影響,現有刑事立法可以完全容納,合理解決。

在人工智能時代背景下的刑事立法的適用性與適應性表現在其包容與延展上。首先,從包容層面看,刑事立法責任主體的全面性有效解決了責任追究問題。人工智能的出現與發展引發了對立法與司法問題的思考是必然的,但也不能貿然對此作出一些過度反應。人工智能犯罪主體化爭論的一個原因在于,有的學者擔憂今后人工智能引發刑事犯罪的復雜性導致如果人工智能不能成為責任主體,可能帶來刑事責任追究的困難,其實這種擔憂在某種程度上講是不必要的,刑事立法的體系設計所帶來的容納功能就能解決該問題。一是現有刑事法律關系的參與者在刑事立法中的規定是明確的、全面的。法律責任的實現要以法律所確認的法律關系參與者的合理設定為前提。目前刑事立法對制造者、使用者、銷售者與設計者都規定了相應的責任認定標準,人工智能與這些主體的關系就性質而言與一般產品或工具與主體的關系的性質是相同的,只是性能的高低不同,原有的相關刑事責任模式可解決責任追究問題,人工智能涉及的法律關系的主體已全面覆蓋,不會出現因主體缺乏而導致刑事責任難以追究的狀況。二是從延展層面看,刑事立法關于犯罪對象及方式的規定可以解決人工智能作為工具而涉及的刑事法律問題。雖然新的技術的產生對刑事立法會產生影響,比如計算機技術不斷影響犯罪圈的變化,甚至影響犯罪工具的界定,使刑法不斷加入新的元素,人工智能作為特殊的工具,對犯罪的影響會導致犯罪方式的復雜化與多樣化。但是,與人工智能相關的犯罪絕大多數都不涉及原有行為性質的改變,不需要產生新的罪名,少數因為行為方式的改變而可能會產生罪名的變化,但是這都不涉及人工智能法律地位的改變,責任的追究不是以人工智能犯罪主體化為前提實現的。與人工智能類似的這種情況其實在刑法適用過程中也是比較多的,比如出現新的網絡犯罪雖然其犯罪的手段、地點與傳統的犯罪不同,尤其是技術含量增高,但它依然適用已有的法律規定,主要是因為其基本性質界定沒有改變,刑法體系內已有的責任架構能完全解決該問題。

以科技的發展為切入點探討人工智能刑事責任主體化問題值得商榷。將法律界定建立在以想象為基礎的科技發展狀況上有違立法的基本原則,不以現有的法秩序的框架為前提的探討超出了研究的合理范圍。有些學者設想人工智能超越人類思維時人類必須主動應變,在法律層面通過在某種程度上承認或認可人工智能的主體地位以應對人工智能時代所帶來的新變化,這種應變策略缺乏對刑事立法的包容與延展。在現有法秩序框架下,要重新審視以“人”的法律構建者的主導地位為基礎界定人工智能與“人”的關系——這也許才是破解人工智能刑事責任主體資格問題爭議的關鍵所在。

注釋:

① 劉憲權:《人工智能時代的刑事風險與刑法應對》,《法商研究》2018 年第1期。

② 馬榮春、桑恬:《人工智能犯罪主體化否定論》,《山東警察學院學報》2021年第1期。

③④ 劉憲權:《人工智能時代的“內憂”“外患”與刑事責任》,《東方法學》2018年第1期。

⑤ 儲陳城:《人工智能時代刑法的立場和功能》,《中國刑事法雜志》2018年第6期。

⑥ 皮勇:《人工智能刑事法治的基本問題》,《比較法研究》2018年第5期。

⑦ 轉引自馬榮春、桑恬:《人工智能犯罪主體化否定論》,《山東警察學院學報》2021年第1期。

作者簡介:劉瑞瑞,上海政法學院警務學院教授,上海,201701。

(責任編輯? 南? 村)

猜你喜歡
智能化人工智能
智能化戰爭多維透視
軍事文摘(2022年19期)2022-10-18 02:41:14
我校新增“人工智能”本科專業
大型公共建筑智能化系統造價控制
智能化的“世界觀”
印刷工業(2020年4期)2020-10-27 02:46:02
印刷智能化,下一站……
印刷工業(2020年4期)2020-10-27 02:45:52
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
基于“物聯網+”的智能化站所初探
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
主站蜘蛛池模板: 日日拍夜夜操| 国产成人艳妇AA视频在线| 色综合久久久久8天国| 免费Aⅴ片在线观看蜜芽Tⅴ| 亚洲av无码片一区二区三区| a亚洲视频| 亚洲免费福利视频| 亚洲婷婷在线视频| 超级碰免费视频91| 亚洲精品综合一二三区在线| 日韩国产黄色网站| 国产一级毛片在线| 国产精品视频观看裸模| 国产99久久亚洲综合精品西瓜tv| 色国产视频| 久久久无码人妻精品无码| 亚洲日韩久久综合中文字幕| 亚洲成A人V欧美综合| 91精品久久久无码中文字幕vr| 91福利免费视频| 欧美一区二区福利视频| 亚洲无码不卡网| 久久久久亚洲AV成人网站软件| 欧美成人一区午夜福利在线| 欧日韩在线不卡视频| 国产一二三区在线| 国产精品久久久精品三级| 99热最新网址| 女高中生自慰污污网站| 999国产精品| 国产精品福利导航| 直接黄91麻豆网站| 伊人国产无码高清视频| 午夜电影在线观看国产1区| 欧美日韩一区二区在线播放 | 97影院午夜在线观看视频| 久久99这里精品8国产| 毛片网站免费在线观看| 丝袜无码一区二区三区| 日韩av高清无码一区二区三区| 精品国产91爱| 欧美日韩国产精品综合| 国产无码高清视频不卡| 亚洲天天更新| 色呦呦手机在线精品| 亚洲精品不卡午夜精品| 欧美成人aⅴ| 中文字幕亚洲电影| 久久黄色影院| 人妖无码第一页| 1024你懂的国产精品| 久久精品无码一区二区日韩免费| 国产第八页| 久久国产毛片| 欧美日韩中文国产| 四虎永久免费网站| 亚洲中文久久精品无玛| 国产清纯在线一区二区WWW| 热这里只有精品国产热门精品| 欧美五月婷婷| 国产在线拍偷自揄拍精品| 国产97视频在线观看| 欧美全免费aaaaaa特黄在线| 成人免费午夜视频| 又爽又大又黄a级毛片在线视频| 四虎永久在线| 成人欧美日韩| 久久夜色精品| 日韩 欧美 小说 综合网 另类 | 免费无码AV片在线观看中文| 亚洲国产欧洲精品路线久久| 亚洲αv毛片| 亚洲日本www| 亚洲欧美日韩另类在线一| 999精品视频在线| 又粗又硬又大又爽免费视频播放| 在线看免费无码av天堂的| 欧美亚洲网| 国产成人h在线观看网站站| 欧美日韩高清在线| 一区二区三区国产精品视频| 国产99免费视频|