胡夢楠
人工智能是指經過研發用于模仿和拓展人類智能的一門嶄新的科學技術。隨著智能時代的到來,人工智能產品已經進入我們的生活,其在提高教育質量、保護生態環境等方面發揮著舉足輕重的作用,并推動社會不斷發展進步,使人類歷史開始書寫新篇章。但由于配套法律的不完善,導致一系列與人工智能機器相關的法律問題,引起社會關注。
隨著國內首例——特斯拉自助駕駛車禍案的發生,人工智能一詞引起了社會的廣泛關注。2016年1月,一輛特斯拉Models在京港澳高速路段行駛過程中,因未及時檢測到有一輛開著閃爍燈的道路清掃車停在其左前方這一突發情況,并未轉換車道仍按預定速度行駛,從而發生車輛碰撞事故。此案例中,特斯拉汽車能否作為獨立的責任主體承擔責任?在刑法領域,界定人工智能機器的刑事責任問題成為理論界亟待解決的重要問題之一。
(一)不具備辨認能力與控制能力
人工智能機器目前尚未具備與刑法主要規制的“人”一致的辨認能力。其所進行的違規操作和正確操作模式,在技術程序設置中只是錯誤代碼和正常代碼的區別。人工智能機器中人為輸入進去的復雜代碼與算數程序,不能被當作刑事責任能力中的辨認要素。因此,人工智能機器根本沒有能力認識“犯罪行為”的性質及其帶來的嚴重后果。人工智能機器同時也不具備刑法意義上的控制能力。現在的智能機器仍完全受程序控制,與刑法所要求的控制能力具有天壤之別。
(二)人工智能機器的行為受人類主觀心態支配
自然人對人工智能機器的研發和適用過程進行全程控制。2017年7月,國務院印發《新一代人工智能發展規劃》,人工智能正式上升至國家戰略層面。立足國家政策層面,生產者在操作中對人工智能機器輸入算法程序,設置不同的操作模式,使其具有特定的效用,呈現出國家與自然人的主觀態度。同時,使用者和管理者在操控智能機器時,可選擇不同的模式設定,用于不同的生產生活場景,實現自身利益最大化。因此,人工智能機器所產生的一切合法或違法行為,都是其生產者、使用者與管理者主觀心態的客觀外在表現形式,其本身沒有進行自我選擇的權利。
從刑罰的預防功能來看,人工智能機器沒有類似于動物所具有的疼痛感與相應的承受能力,針對人工智能適用現有的刑罰措施,達不到任何類似于人類在相同情況下的反應。從刑罰的改造功能來看亦是如此,進行教育的前提是被教育改造的罪犯是思想自由、能夠獨立思考的生物,教育的目的則是消除他們的犯罪思想,使他們樹立正確的價值觀。然而,人工智能機器作為一個由人操控、自身毫無辨認與控制能力的機器,即使如相關學者提出的對其進行“刪除數據”等改造行為,也與我國現有的改造觀念大相徑庭。
人工智能機器無法作為刑事責任主體承擔刑事責任,為避免發生逃罪或漏罪等現象,探尋創造、監管或使用人工智能機器的主體,確立多元化的責任機制,規定違法阻卻事由,才是刑法穩定性與歉抑性所要求的題中之義。
(一)人工智能機器制造商或銷售商
這種責任主體范圍的認定,是將人工智能機器作為一種產品。由于人工智能機器的制造者與銷售者沒有履行其應盡的檢查義務導致智能產品出現瑕疵或缺陷,或者在故意或明知的情況下設定違法程序,借助智能機器人實現違法犯罪構成要件,導致人工智能機器在使用過程中引發刑法意義上的結果。
(二)人工智能機器的所有者或實際使用者
這類責任主體范圍的認定,是將人工智能機器視為一種犯罪工具,即人工智能機器直接實施犯罪,而所有者或實際使用者作為間接主犯在幕后進行操控。人工智能機器的所有者負有正確使用與嚴加監管的義務,這也就意味著,即使將智能機器人借給他人使用,也應承擔嚴格審核借用人資格、具體了解其用途的義務。
(三)確定違法阻卻事由
智能機器人作為當代人工智能技術發展的結晶,本身高度復雜,難以控制,即使進行了嚴格細致的檢測與實驗,也無法徹底消除安全風險。但凡出現違法的情況,就動用刑法來解決,雖然能暫時確保社會的安全,卻阻止了人工智能技術的進步,使人類利益大大縮水,還會破壞刑法的歉抑性與穩定性,造成社會混亂。因此,在商榷人工智能機器的刑事責任問題時,必須確立違法阻卻事由,以確保司法公正。
(作者單位:河南大學)