謝文慧 武漢市新洲區檢察院 武漢市新洲區 430400
人工智能技術已經成為了世界各國重點競爭的領域,并且制定了相應的扶持政策,使得人工智能技術發展越來越快。但是人工智能技術也會涉及到一定的法律風險問題,一些預言家甚至預測了人工智能技術有可能會發生奴役人類或者是導致人類非正常死亡的情況。目前自動駕駛汽車就時常出現一些交通事故,導致出現了人員傷亡問題,這都需要引起法律界的重視。
在研究人工智能所帶來的刑事責任時,需要從不同的技術層次來進行深入研究。針對人工智能技術來說,并不具有自身的辨認能力和控制能力,主要是按照編程者的指令來進行相關的控制活動,這樣就不會具有刑事責任主體的資格。在汽車自動駕駛的過程中,主要是通過開發者所設計好的程序算法來進行控制。通過一些傳感器采集到精確的數據信號,然后通過整個控制系統進行精確處理,就能夠達到自動駕駛的目的。但是在行駛的過程中,汽車所面臨的實際情況是比較復雜的,有可能導致控制失誤的情況。在2015年,曾經在美國地區發生了特斯拉和一輛拖掛車相撞的時間,最終導致駕駛員死亡。這引發了社會各界對人工智能技術的懷疑,并且渴求加強針對人工智能刑事責任主體問題的研究。
從技術的角度來說,這輛特斯拉并不能識別所有可能面臨的交通危險,僅僅能夠作為一項輔助性技術來幫助駕駛員完成一些基本的駕駛工作。但是這些人工智能技術能夠幫助駕駛員完成一部分工作,還必須要確保駕駛員處于高度警惕狀態,能夠對周圍環境進行實時觀察。因此在對特斯拉交通事故進行責任劃分的過程中,沒有將該事故的責任劃分給機動車本身和生產研發廠家,而是直接判定了駕駛員負有主要的責任。
現階段人工智能技術主要指的是以弱人工智能技術為主,例如有一部分行為人想要通過人工智能技術來實施犯罪,但是所制造的產品被使用的過程中,使用者并不知曉這部分產品中可能帶來生命財產危害。針對這種情況,所有的刑事責任都應當是由研發者來進行承擔。除此之外,還存在研發者和使用者對自身利益的考量,而想要通過弱人工智能產品來實施犯罪的行為,這種情況就應當結合實際案例劃分相應責任,一般來說都需要由研發者和使用者共同承擔刑事責任。在研發者研究生產出產品之后,經過大量的實驗證明可以確保安全性,但是在實際使用的過程中因為使用者的意愿而導致犯罪的情況,就應當由使用者承擔全部的責任。
我國是一個法治國家,在研究針對人工智能刑事責任主體問題的過程中,也應當依據刑法中相關規定的內容來進行深入探析。我國刑法規定,只要能夠構成對社會的危害行為,并且自身能夠具備刑事責任能力,就能夠定義為犯罪主體。如果人工智能技術在未來的社會發展中能夠達到超人工智能的技術水平,具有一定的自主意識,那么在產生社會危害性的行為之后,就已經構成了犯罪主體。但是從目前的人工智能技術水平來看,還不具備構成犯罪主體的條件。
人類社會發展進程中,本身就是具有較多的行為理論,特別是在哲學領域思想,大家對各種行為做出了相應的定義。而法律則是建立在人的行為基礎上的,那么在研究人工智能刑事責任主體的進程中,也能夠明確到現如今使用的人工智能技術與正常人還是具有較大的差別。首先,法律中規定的責任主體指的是具體的行為人,具有生命體的特征,但是人工智能技術并不屬于生命體的組成范疇。如果人工智能技術發展到了具備生命體的特征,那么也終將能夠成為刑事責任主體劃分的范疇。
從一部分專家學者的研究成果中可以看出,對人工智能成為犯罪主體具有較大的爭議性。一部分專家認為,人工智能本身和自然人就有這本質上的差異,而現如今社會上所制定的各項法律政策都是基于自然人的,那么就無法針對人工智能來發揮作用。無論人工智能技術如何發展,也不可能具備和人類思維同等的能力,那么也就不能夠具備自然人的基本條件。之所以出現犯罪,都是經過了思維考慮之后,才導致犯罪行為的出現,那么在進行法律懲罰的過程中也需要對犯罪主體的自由意識進行研究。并且人工智能技術無血無肉,也不具備道德倫理觀念,即使使用刑法進行處罰也不具備任何意義。
隨著人工智能技術的進一步發展和應用,加強針對人工智能刑事責任主體問題研究,具有較強的社會意義和促進該技術的健康發展。目前關于人工智能是否能夠成為刑事責任主體,還存在較大的差異,并且處于弱人工智能時代。要做好創新和守護之間的動態平衡性,確保技術在發展的過程中不構成對穩定社會的不利影響,為人類社會做出更大的貢獻。