999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

對人工智能體作為刑事責任主體的反思

2019-03-18 07:36:05
廣州大學學報(社會科學版) 2019年2期
關鍵詞:主體人工智能人類

胡 莎

一、引 言

人工智能刑事責任問題,在現有刑法理論研究中,被過度簡單化為人工智能能否成為刑事責任主體的問題,主要觀點是:人工智能的屬性,不可能永遠只是人類的工具、產品或財物,其有朝一日必將脫離人類控制,成為與人類平起平坐、等量齊觀的新型人工智能體(Artificial Intelligence Entity,一般簡稱AI Entity),其與自然人、法人一樣,也具有刑事責任能力,因此,人工智能體也應是刑事責任主體或犯罪主體,可直接給人工智能定罪,至于適用的刑罰方式,應是刪除數據、修改程序或永久銷毀等。[1-5]但本文認為,人工智能刑事責任之確認議題,其研究重點不應以未來主義的理論預言為主,不應通過比較人工智能和人類的能力后主張前者應為自己的安全運行承擔刑事責任;在特別講求實用主義的刑法中,應以現實主義為出發點,按照如下思路,解決如下問題:不同種類、能力水平的人工智能體,屬于危險級別不同的犯罪危險來源,在出現故障、事故、對個體造成危害或出現犯罪公共風險后,假如由人工智能體承擔刑事責任,將如何解決由此帶來的重大刑法道德困境和適用難題,應如何全新詮釋刑法中的禁止規范和行為規范,如果人工智能體不作為刑事責任主體,對相關主體予以刑事歸責,將面臨哪些難題。[6]687

一般來說,人工智能是人類通過計算機語言編程,讓機器模擬、延伸、擴展、學習人類行為及其頭腦空間中的所有認知、思維、推理、決策等能力,以此代替人類完成原本由人類完成的任務,而其中人工智能的載體,即有可能被追究刑事責任的主體,被稱為人工智能體(AI Entity/AI Agency)。[1-5]不同種類、能力水平的人工智能體,其刑事責任的確認總體上應相同,但在具體規則問題上會有細微差別。眾所周知,大部分學者將人工智能分為弱人工智能(適用單一領域)、強人工智能(適用各個領域)和超人工智能(已經超越人類)。這根據人工智能的適用范圍來區分,顯得有點簡單而粗糙。筆者認為應根據機器人的智能分層,主張人工智能體可分行動智能體(Action Intelligence Entity)、自主智能體(Autonomous Intelligence Entity)和仿人智能體(Human-Based Intelligence Entity),其中仿人智能體也稱為智能機器人(AI Robot)或“智機”(machina sapiens), 即與被稱為“智人”(homo sapiens)的人類相對。[7]274因為此種分類直觀展示了人工智能體強弱所表征的具體內容,并簡潔明了地擴充了刑法學知識,因此本文以此分類展開論述。

二、自主人工智能體不應成為相關人員逃避刑事責任的“替罪羊”

自主智能體,也稱為自控型的機器,是指智能體在云計算、大數據、深度學習算法、人腦芯片的催化下,模擬人類智慧,而具有圖形、符號、形狀、語音識別能力、罪犯面部識別技術、自我自動調度能力、解決問題的能力、推理能力及創造力,且可基于過去曾經的經驗制定計劃,同時能隨著環境需要,改變其運作機制,這種情況下,是機器引導人類完成人類任務,工作速度、精度、強度等都明顯優于人類,而自主性或自控性是其最顯著的特征,研發此種智能體,也是我們人類目前正在努力攻克的技術難題。而我國目前也正是擔憂自主智能技術失控、相應刑事責任主體如何確定的問題。[8]與此相較,行動智能體,即行動的人工智能體,是比自主智能體低級的弱人工智能,其出現在人工智能發展的初級階段,以人類的軟件系統或新型的網絡信息技術手段的形式呈現,例如智能外語學習軟件、譜曲、創造詩歌等軟件系統、自動掃地機、初級的自動駕駛汽車等等。其主要特征是在特定單一領域內擁有相對獨立的行動能力,各個部位可以進行單個活動或整體移動,它是人類行動能力的延伸物,其沒有任何內源性的權利能力,其行動完全符合人類設定的邏輯,具有可程式化,運作機制固定不變,其程序性的“守法意識”和客觀的“守法能力”,也明顯比自主智能體和智能機器人都強。[7]274因此,人類完全可以事先有效地對其進行風險評估,在該人工智能體被廣泛普遍地設計、建造之前,明確其具體的產品安全生產標準、設計標準和質量標準,當其對人類個體或社會造成損害時,可以適用產品責任或侵權責任予以解決,一般與刑事責任無涉。但是與行動智能體同步發展的自主智能體,由于其具有自我學習能力,擁有“自主意識”和自主性,其運作機制和邏輯并不固定,可能有自己獨立的法律意識,因此,有學者贊同應將其列為獨立的刑事責任主體,但此觀點值得商榷。

(一)自主智能體的行為及后果客觀上歸屬于自然人

雖然自主人工智能系統可以自主學習,但是誠如Ross機器人律師的創始人Andrew Arruda所認為,自主人工智能系統的自主學習,是指自主有意識地學習如何更高效、更準確地完成人類的工作任務、實現人類設置的工作目標,從而大大減輕普通民眾的費用,即民眾可以明顯低價享受以前同樣的專業服務。人工智能是專業人士的職業裝備,是一種創新、便捷、高效、事故率更低的解決問題的新途徑,能更好地輔助專業人士完成專業工作,從而服務于普通大眾,并不是、也無法替代專業人士。因此,“工具論”是解釋和適用人工智能責任問題的主要模式,即人工智能系統只能在該預先設定程序的技術結構內工作,所有行為及后果皆應歸屬于自然人。[9]例如萊茵河案中,導航汽車錯誤指示近路卻沖進河里致使車內人死亡的事件中,自主智能汽車,是為完成人類設定的到達指定目的地的任務,其存在的目的和意義都是為輔助人類達成人類的目標,無法自我設定行為目的,其屬性是工具,因此,這種情況下要求自主智能汽車承擔過失犯罪的刑事責任明顯沒意義。

(二)自然人的預見能力及預見義務

正如人工智能“威脅論”人士所述,自動人工智能之間會突然產生異于人類語言的獨有語言進行交流,但人類可立即采取相應措施予以控制。雖然機器自主學習使得人工智能不按照計算機電腦編程而運行,而是在計算機編程范圍之外去實施行為,即在人類設計的程序之外去運行,但是,人類對其在計算機編程之外運行的事實,早已預見并深知,人工智能仍是在為完成人類特定領域的特定任務,其超越不了完成人類的特定任務,人類對人工智能的總體全局完全可以預知,對其會實施犯罪行為也完全可預料。雖然自主人工智能系統有可能產生自主意識,但其自主意識是有限的,只是具有有限的推理能力、規劃能力和抽象思維能力,所產生的語言文字只具有句法文字屬性而已,其所謂的自主意識與海豚、大猩猩的自我意識一樣,沒有真正獨立的存在意義和主觀意圖,也不是像人一樣真正地理解、并相信自己行為的意義,其終究無法與人類的自主意識畫上等號。總之,自主人工智能這種“愚蠢科技”,是以人類事先預定的方式回應特定情景而已,人類對其自然可能產生的危害情況,有預見能力及預見可能性,如果疏忽大意沒有預見,則是主觀意志上的不作為,應由人類承擔相應的刑事責任[10]182,如果由人工智能接受制裁、遭受責難、承擔責任,這明顯是人類以此逃避責任。[11]647

(三)自然人幕后實施人工智能騙局

自主人工智能體,其實是一個自動系統或應用程序,其產生、運行和進行的具體行為皆嚴重依賴于無數人類科學家、編程者、程序員等在幕后默默地收集、分析和使用海量信息和數據,建立知識庫、數據庫和系統模型,編制應用軟件,發明算法公式,研制升級補漏程序,并為這些系統和軟件提供統一、明確、邏輯清晰、固定的程式化運用標準等等[12]。誠如百度董事長李彥宏在“中國國際智能產業博覽會”上所言:人工智能一詞來自英語“Artificial Intelligence”, 其中的“Artificial” 一詞除了有“人工的”意思,還有“人造的、虛假的”意思,因此人工智能事實上是假的,并不是真的智能,它離真的人工智能還非常遠。也由于人工智能事實上是人造的、虛假的智能,因此其產生、試驗、運行等皆需人類陪伴,自動人工智能體和人類是共生的關系,而不是對立關系,只有這樣,人工智能才能被人類所信服和接受。[13]也正是基于此,一些虛假的人工智能技術詐騙丑聞,實際上是由幕后無數人類為騙取巨額資助而同步自編自導的。

(四)不具有人身權益和財產權益

誠如李開復在Ted演講中說到:人工智能能幫助人類極大地減輕重復繁瑣、單調乏味的例行事務負擔,使人類有更多精力和時間從事更核心、更高級別的情感、精神或腦力活動,創造更美好、更有愛的和諧生活,而“人工智能不具備情感、精神等欲望機制”[14],無法真正理解有愛的和諧生活,當然也不擁有人身權益和財產權益。而且,目前只有人類有能力在矛盾沖突或模棱兩可情形下進行利益選擇,因為人類有自己的人身利益和財產利益需求,而自主人工智能體沒有,其完全附屬于人類,其設計者、制造商及其組織應為機器人安全性、可靠性負責,而不能以人工智能擁有越來越強大的學習能力和自主程度而讓其承擔責任,而藉此使自己逃避責任。[14]

(五)需“刺破人工智能面紗”

有學者主張,智能機器的責任能力與自主性,確實無法與人類相比,其固然不能成為自我視角下的道德責任主體,但是智能機器承載著使用者、設計者對其的期望,且被內置了感知世界并與世界互動的能力,因此他者視角下,智能機器可以成為道德責任主體。[15]但筆者認為,此種看法為對智能機器充滿期待的他者推卸自己的責任提供了理論口實,因為使用者、設計者的期待也會包括犯罪主觀心理,在這種情況下,肯定不能歸責于人工智能,而是應刺破罩在相關人類身上的人工智能面紗,以相應的故意或過失責任使相關人類承擔其應承擔的刑事責任。例如自然人教唆、指令AI偷一張欠條,但是AI卻一把火燒了被害人的房屋。該案中,自然人應直接為所有的危害結果承擔刑事責任。雖然自然人并無放火的主觀故意罪過,但是自然人作為自主人工智能系統的主人,應能夠預見到自主人工智能會失控而造成不可挽回的重大危害,而其中的預見內容,并不需要預見到具體的結果、因果經過的基本部分,只需要抽象預見性即可,即預見到可能會發生嚴重危及社會的危害結果即可。

(六)會導致刑法適用困難

將自動人工智能體解釋為犯罪主體,將在法律系統中產生一種開放構造的風險(open texture risk),即更多的法律詞語都將沒有固定的意思,因為對其的解釋會隨著特定領域、觀察視角、時間階段等的不同而不同,這將導致法律解釋出現極大的不明確性和模糊性,從而使得法律適用變得混亂不堪、舉步維艱[7]276。例如應如何判斷人工智能體已經“出生”,又如何判斷其已經“死亡”,死亡后應該如何處理?能否也可以成立侮辱、盜竊、毀損尸體、尸骨、骨灰罪?再例如:如果刑法中的“人”,可以解釋為包括自然人、法人、仿真機器人,那么外星人是否也能解釋成犯罪主體?

三、智能機器人在未來成為刑事責任主體將完全顛覆現存刑法

在不確定的未來,人類社會將出現最高級別的人工智能,即仿人智能體(Human-Based Intelligence Entity),或稱為“智機”、智能機器人、生物形態的機器人(humanoid)、準人類(Qausi-human)、獨立的智慧存在體或超人工智能等等。根據人類現在的理論設想,此智能機器人 “在其人工生成過程中引入并隨之留駐了人類意識的機制或內容”[16],同時跨過了不可逆轉的“奇點”,超越了人腦,并脫離了人類控制,將會成為虛擬智能世界和現實人類世界的橋梁,成為雙方的代言人。的確,智能機器人未來有可能成為刑事責任主體:一方面,智能機器人體現了人類的技術理性,等值于理性“人”,由于其完全排除了情感、欲望、偏見、經驗局限性等的影響,甚至比人類更理性,而刑法規制對象的預設前提正是理性人;另一方面,創造能力、推理能力等在刑法上對于歸責無關緊要,因為刑法上的歸責與否,取決于行為人是否能夠認識或預見到自己的行為會發生危害社會的結果,是否希望或者放任危害結果的發生,即有認識能力和控制能力即可,而未來出現的智能機器人可以擁有這兩種能力。即便如此,假設智能機器人在未來社會已成為刑事責任主體,將會出現大量全新的刑法難題。

(一)要求機器人遵守機器人三原則將出現各種新的刑法道德困境

眾所周知,現如今規制人工智能的鐵律,是阿西莫夫機器人三原則,即機器人和人不是平等的主體,機器人被人類控制和支配,但很明顯,該原則只適用于上述的行動人工智能體和自主人工智能體,并不適合智能機器人。因為,智能機器人時代,是人機交互共存的社會,機器人和人類是平等的主體,機器人也會主動要求、爭取并維護自己的權利,要求機器人遵守三原則將會使機器人陷入道德困境,這本身是不道德的。例如,未來機器人可以和人類一樣當警察,當機器人的人類警察上司,要求機器人逮捕人類犯罪嫌疑人,但人類嫌疑人拼死抵抗,那么機器人是應該遵守人類警察上司的命令傷害反抗中的人類嫌疑人,還是不遵守人類上司的指令?[10]173如果遵守人類命令傷害人類,那是違反第一個原則:機器不得傷害人類;而如果機器人不遵守人類命令,則是玩忽職守的不作為。再例如:人類命令一個機器人為他人的合法正當利益而傷害另一個人,如果機器人遵守人類命令,則違反第一個原則,但不遵守人類命令,則使得正當防衛制度無用武之地。[17]當然,人類哲學家和機械設計師可“將人類社會中的法律以及道德等規范和價值,嵌入或編程進相應的高級人工智能系統中,讓其繼續“更好地為人類社會服務”[18],但是這與“教螞蟻唱歌一樣難”:首先,人類倫理學說和刑法解釋觀點有很多種,到底應植入或編程何種倫理道德或刑法解釋觀點呢?其次,即使有統一的倫理學說和刑法解釋觀點,但人類的倫理道德和刑法解釋觀點,難以準確定義,該定義本身在技術上也難以編程轉變為數據代碼;最后,智能機器人有自己的自主學習能力,完全會產生不同于人類的法律規則和機器人道德,他們更傾向于維護自己種群的利益,為追求“機器人正義”[7]271而存在,從而未來將和人類一樣,有自己獨立的利益、價值觀、世界觀等,這將必然導致人機利益沖突四起,刑法的法益原理和利益衡量理論將面目全非。

(二)刑法無力規制智能機器人

機器人,特別是作為和人類一樣具有主觀能動性的群體,將會是一種新型的人類犯罪危險來源,由犯罪引發的失控場面只會一次次地凸顯人類如今的想象力太過于匱乏,例如發生智能機器人大面積地強奸人類、侵犯商業秘密而終結各人類巨頭企業運營、掌控國家秘密而瞬間顛覆國家政權、完全操縱人類證券市場等這種匪夷所思的危害事件。[1-5]而到時候作為回應公共危險源的最強措施——刑法,將不再是人類單獨制定或修改,而是人工智能將和人類一樣,成為獨立自主的立法者,會與人類一道,自然會將自己的同類列為刑事責任主體。例如美國人工智能刑事責任研究者Gabriel Hallevy假想的案例:暴風雨中,人類飛行員決定停止前行而返航,但AI飛行員認為人類飛行員正在妨礙自己執行到達目的地的任務,于是啟動安全座椅將人類飛行員殺害。據此,人類現如今已深知智能機器人會脫離人類控制以主體身份去實施傷害人類社會的行為,危及人類生存,那么,與其等待其出現后人類拼命解決自身生存危機[19]1261,還不如在現如今機器人還未出現的時候,直接禁止生產、制造這種機器人,全面禁止對人工智能技術的濫用[20]。如果今后科技已經生產、制造出程序、軟件或與此相當的科技物品,也應將其作為與槍支、彈藥、爆炸物、假幣、毒品、宣揚恐怖主義極端主義的物品等類似的違禁物品,予以嚴厲禁止和堅決查處。

(三)刑法的固有特性將蕩然無存

人工智能語境下探討是否可以將其規定為刑事責任主體,這是一個偽命題。因為面對仿人工智能體,最尖銳棘手的刑法難題,不是可不可以成為刑事責任主體的問題,而是應不應該的問題。因為根據法律抑制的立法技術,既然刑法可以將單位擬制、虛構為法律主體,那么,未來將智能機器人也擬制為刑法主體,在立法上是很容易的事情。而且,刑法中的責任,除了道德責任外,還有解釋為包括因果責任,即客觀意義上的責任,從因果責任角度,人工智能體也可以作為歸責主體,畢竟立法者的正當權威地位,使得立法者有權力做如此解釋。但此種立法,只突顯了刑法的后現代性、前衛性、擴張性,與現行刑法所具有的傳統性、保守性、謙抑性背道而馳。基于此,本文為在這個“先者淺探”的神秘領域堅守現行刑法的特性而主張:如果人工智能體產生危害結果,應無需經過刑事訴訟程序,而應像處置動物或違禁品一樣,由主人、警察或相關有權者私下“刪除數據、修改程序或永久銷毀”[1-5],即用行政法予以規制,而無需由具有傳統性、穩健性、保守性、謙抑性的刑法予以規制,更不應將智能機器人列為刑事責任主體, 而是應和克隆人一樣,也通過行政手段予以解決。而且,如果將來人類開發出完全可以替代人類的機器人軟件,我國刑法應禁止行動人工智能體、自主人工智能體等低級人工智能體安裝該軟件。

四、對當前智能機器人作為刑事責任主體的觀點應予以否定

人工智能能否成為刑事責任主體、是否具有刑事責任能力的問題,為人們開始重新審視、回顧、反思刑法中的傳統責任、人格及其背后的罪責理念提供絕佳機會。而下文在假設我國當前已經將智能機器人列為刑事責任主體后,發現該假設論斷缺乏合理性,應予以否定。

(一)無論將智能機器人類比為現有何種類型的責任主體都存在疑問

假如我們將智能機器人類比為精神病人,其刑事責任能力的判斷標準,應包括工程學標準和法學標準,其中工程學標準是實踐中的客觀能力,根據機器人客觀現實的行為來推斷;而法學標準是認識能力和辨認能力,以此判斷是否存在主觀犯罪心理狀態,例如主張人工智能可以直接承擔刑事責任的學者認為,人工智能(AI Agent)理所當然滿足犯意要件,即完全可以在傳統的主觀能動譜系中,增設一個對刑法有關感知能力的、新的主觀能動者(agent),即人工智能能動者(AI Agent)。[21]但這種理所當然的推斷,并不具有說服力,因為犯意本身只存在于“能作因之人”(Human Agent)的頭腦中,即使是獨立承擔刑事責任的法人,其前提條件、具體構成以及實現方式,皆與“能作因之人”的頭腦緊密聯系,而人工智能是在模仿人腦的情況下,完全獨立于人腦而存在,與人腦無緊密聯系。假如我們將智能機器人類比為未成年人,那么其刑事責任能力的判斷標準應該以智能機器人的發達成熟程度來判斷。這相當于將人工智能研發設計者、編程者或使用者等當作人工智能的父母。與人類子嗣一樣,作為子嗣的人工智能并不受父母的完全控制,更不是父母的財產,但在其未足夠發達成熟時,其研發設計者、編程者等相關人員也應承擔刑事責任。可是判斷其發達成熟程度或已成年的標準是什么?這至今是一個空白。假如將智能機器人類比為刑法上的“單位”,可是我國缺乏如公司法、事業單位機關團體法等相應的經濟、民事、行政法規以確定智能機器人具體應完成哪些行政審批手續才能獲得主體資格。而且,公司的意愿形成及表達仍是由自然人來決定,而如果智能機器人是和公司一樣是一種法律擬制,那么智能機器人的意愿形成及表達是否也仍是由自然人來決定的,這本身還有待研究。[22]最后,假如我們將智能機器人類比為動物,那么其更無需承擔刑事責任。

(二)犯罪主體的資格范圍有邊界

當機器人的犯罪能力與人類相當時,的確可以成為刑事責任主體。但是,如果機器人會不斷地自我學習,通過獲得提升自我的公開資源代碼自動編程,使得其犯罪能力超越自然人,并遠遠高于自然人,那么機器人不應具有犯罪主體資格,因為機器人不是簡單地擁有和自然人一樣的犯罪能力,而是具有毀滅人類的全球犯罪能力,對于這種“超人類”種群,國別性、地域性極強的刑法,完全無力應對與防范其反人類之全球罪行之風險。

(三)目前刑事執法難度特別大

人工智能體的研究、發展,具有秘密性,日常生活中可見的物理基礎設施也太少,執法機關難以拘留或逮捕到具體的實體。同時,由于人工智能體的配件組成部分的具體生產過程也比較離散,如果追究各個主要配件的主要責任,也將顯得特別荒唐。即使將智能機器人本身列為刑事責任主體,其境遇也將會與單位犯罪一樣,理論正當性一直飽受爭論,司法適用率也偏低。另外,現有刑法是為人類以及人類結合體(單位)量身打造,制定修改時從未考慮過增設晦澀難懂的、新的規制主體,因此,對其予以前瞻性的事前刑事規制,本身極其困難。[23]356

(四)無法實現刑罰目的

對人工智能追究刑事責任,僅具有理性的認識能力和辨認能力還不夠,還應考慮對其懲罰是否具有威懾力,是否能夠預防犯罪,這要求人工智能可理解懲罰意義,自身可以產生罪責,即如果要對智能機器人施加刑事制裁,那么刑事制裁應有可能喚起智能機器人真誠懺悔、道歉,并自我反省、自我清算,以求寬恕。但是智能機器人沒有情緒、情感、快樂痛苦等欲望機制,無法真誠悔罪。另外,即使在定罪階段不需判斷這些欲望機制要素,但在后續的量刑階段、刑罰執行裁量階段等必定需要考慮到這些因素。歸根到底,目前還只有道德人類才會理解懲罰的報應、教育、表達、威懾和預防等功能,只有直接通過人類來實現刑罰目的。例如如今對單位施以罰金刑,但單位的財產事實上最終仍歸屬于股東或具體的個人,法人的懲罰后果也最終是由單位所有成員承擔,還是要通過人類來實現刑罰目的。而主張直接問責于機器人,要求其直接承擔刑事責任的學者,一般提倡機器人刑法,[10]174認為應將機器人擬制為具有法律人格,機器使人類從責任負擔中解放出來。但是事實上,在實際的運轉中,智能機器人會產生一些獨特的需求,從而改變人類為其制定并要求其遵守的刑法規則和原則,因此,處罰機器人自身無法實現現有刑法目的,沒有任何意義。[24]

(五)難以遭受刑法上的道德責難

一般來說,判斷行為人是否應該承擔刑事責任,會考慮其自主意識和道德能力。有學者主張道德罪責完全取決于個人的罪責意識,取決于良知和自我意識[25];但有學者不把自由意識置為責任概念的基礎,而認為應縝密考察該智能機器人是否具有理解該行為相關的理由、規范、關聯行為的能力,[26]268即是否具有反思自己的道德價值和道德信仰的道德能力,是否是“知其不可為而為之”[27],是否存在違法性認識和期待可能性,即非難可能性。[28]但未來的智能機器人,并不會遵守人類的道德,也不會遵守作為最強大的社會控制力、以人類道德為基礎的刑法,因此難以服從人類法律。[19]1266例如,通過研究歐洲人權法院案件中人工智能如何判決的問題,科學家發現,在定罪的最終階段,人類經常是根據道德方面的因素來定罪,而人工智能只能根據法律,而不是道德論斷定罪。[29]134據此,目前保守、可靠、安全的規制之策,還是只應對人類予以一定程度的道德責難,例如行政法上要求智能機器人科技研究人員,承擔前瞻性責任,即對人工智能研究的目標實現、方向與可能產生的社會影響有著清晰全面的認識,對人工智能的參數、行為模式、行為范圍、行為能力的提前設定控制,否則,將對科技研究人員予以道德責難,追究相應行政責任。[30]

(六)與集體觀念、歷史體驗相違

經過漫長的歷史實踐,行為人構成犯罪所需的罪責要件之滿足,特別需要行為人具有獨特的道德判斷能力和對自己行為的操控,該罪責理念世世代代地傳承著人類獨特的道德判斷。因而,現代刑法將自然人以及14世紀出現的、作為“自然人集合體”的單位,列為罪責主體,飽含著人類受眾所承認的傳統經典集體觀念和歷史體驗,而僅是20世紀50年代出現的人工智能的設計者、創造者、使用者或相關研究者等人類對人工智能主體的承認,是遠遠不夠的。舉例來說,作為刑事責任內容的故意、過失、目的、明知等等,皆與人類社會經驗有著千絲萬縷之聯系而不可分割[6]696,而人工智能沒有、也無法具有人類集體觀念、無法體驗世界人類歷史和感悟社會倫理道德,而其應擁有的責任能力所要求具備的辨認能力和控制能力,正以此為道德基礎和前提條件。至于有學者主張應為人工智能專門設置新的刑罰方式:銷毀程序、程序化等,筆者認為這些方式明顯與人類所熟知的現行刑罰體系和制度格格不入,直覺上這些方式應屬于行政規制手段,放在刑罰中顯得特別突兀。

(七)前置法是刑法介入的前提條件

目前,完全游走于人類社會之外的智能機器人并未出現,其出現還需要人類高級計算機人工智能算法、腦神經科學、認知心理學、網絡技術等有革命性的突破,而且人工智能必須經過長期、歷史性的演進,才能逐漸被人類接受其相當于機器人。基于此種現實,現今刑法學界,迫切需要法理學上率先重點解決行動人工智能體、自主智能體的主體、人格、責任理論等法哲學問題;需要憲法學在刑法之前能解決上述兩類人工智能體是否享有各種基本權利、履行各種義務的問題,例如服兵役、納稅等等;需要作為刑法前置法的行政法針對人工智能研發者、制造者、使用者等多方主體制定《人工智能法》以解決具體行政管制問題,確保人工智能擁有安全、可靠、易于為人類所操縱、與人類的利益保持一致等特性[23]394;還需要同樣作為刑法前置法的民法解決其是否能成為民事法律關系的主體、是否具有民事主體資格和民事主體地位、是否具有民事行為能力和民事責任能力等問題。例如國外有學者指出:如果人工智能持續以現有速度進步,英美國家只需集中研究普通法侵權系統,為人工智能設計、制造、編程等內化的成本提供機制,而不需要再去尋找其他的法律規范。[23]391

猜你喜歡
主體人工智能人類
人類能否一覺到未來?
論自然人破產法的適用主體
南大法學(2021年3期)2021-08-13 09:22:32
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
關于遺產保護主體的思考
人類正在消滅自然
奧秘(2015年2期)2015-09-10 07:22:44
主站蜘蛛池模板: 日本一区二区三区精品国产| 国产成人精品男人的天堂| 男人天堂伊人网| 国产精品视频猛进猛出| 亚洲性影院| 日韩 欧美 小说 综合网 另类| 色网站在线免费观看| 国产成人三级| 福利小视频在线播放| 国产精品自拍合集| 国产网友愉拍精品| 71pao成人国产永久免费视频| 国产情精品嫩草影院88av| 国产成人a在线观看视频| 国产精品思思热在线| 免费在线国产一区二区三区精品| 国产高清在线丝袜精品一区| 国产成人a在线观看视频| 2020亚洲精品无码| 免费观看国产小粉嫩喷水| 欧美一级视频免费| 日本久久久久久免费网络| 1级黄色毛片| 亚洲精品大秀视频| 五月天久久婷婷| 国产在线观看一区精品| 亚洲AV成人一区国产精品| 这里只有精品国产| 国产小视频免费观看| 国产精品成人免费综合| 国产成人AV大片大片在线播放 | 国产日韩欧美视频| 久久亚洲综合伊人| 亚洲精品国产日韩无码AV永久免费网| 精品自窥自偷在线看| 一级爱做片免费观看久久| 天堂网亚洲系列亚洲系列| 精品国产香蕉在线播出| 视频一本大道香蕉久在线播放| 国产国模一区二区三区四区| 午夜视频日本| 中文字幕调教一区二区视频| 午夜不卡视频| 成人在线欧美| 中文字幕伦视频| 欧美一区二区三区欧美日韩亚洲 | 香蕉eeww99国产在线观看| 免费视频在线2021入口| 国产三级视频网站| 十八禁美女裸体网站| 久久精品66| 亚洲精品片911| 欧美激情视频一区| 青青国产成人免费精品视频| 欧美午夜在线播放| 制服丝袜一区| 在线精品自拍| 国产极品美女在线| 国产欧美日韩专区发布| 国产成人91精品免费网址在线| 日韩毛片在线播放| 在线观看国产小视频| 青青草一区| 自慰高潮喷白浆在线观看| 精品人妻AV区| 99精品欧美一区| 无码专区在线观看| 人妻无码中文字幕第一区| 国产99视频精品免费观看9e| 免费一级毛片在线观看| 成人看片欧美一区二区| 国产成人精品综合| 日韩成人午夜| 91久久精品国产| 东京热一区二区三区无码视频| 无码免费的亚洲视频| 九九九精品成人免费视频7| 欧美亚洲另类在线观看| 免费又黄又爽又猛大片午夜| 亚洲色图欧美一区| 成人中文在线| 99爱视频精品免视看|