鄭云鵬
【摘要】:風險必將伴隨著人工智能時代一同到來,屆時可能會產生一系列新的犯罪,或者高端的人工智能產品通過自我完善和學習擺脫人類控制,進而做出了具有嚴重的社會危害性的犯罪行為。面對千變萬化的現代社會,法律的滯后性和局限性不可避免,但對于將來大概率出現的危機,也應當未雨綢繆,進行超前立法。刑法應從立法源頭對研究人員和使用人員以及相關人工智能方面犯罪的刑事主體有所增加,但刑法秉承“寬嚴相濟”原則以及刑法的謙抑性,不應當過度干預人工智能的發展。
【關鍵詞】:人工智能 立法 刑事責任主體
幾十年前,人類無法想象到我們已經處于互聯網的時代潮流之中。正如今天的我們,也很難去預想我們將進入另一個全新的時代—人工智能時代。人工智能(Artificial Intelligence),英文縮寫為AI。它是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學 。毋庸置疑,人工智能在高速發展的同時,隨之而來的是技術研發和應用的過程中帶來在倫理上的、道德上的、法律上一定的風險。根據國務院最新發布的《新一代人工智能發展規劃》可知 ,人工智能發展的不確定性帶來新挑戰。人工智能是影響面廣的顛覆性技術,可能帶來改變就業結構、沖擊法律與社會倫理、侵犯個人隱私、挑戰國際關系準則等問題,將對政府管理、經濟安全和社會穩定乃至全球治理產生深遠影響。在大力發展人工智能的同時,必須高度重視可能帶來的安全風險挑戰,加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發展。面臨一個風險與機遇并存的全新時代,我們需要盡快建立相關的法律法規、道德以及政府的相關政策。
一、新時代存在的刑事上的風險
人工智能時代以人工智能技術的應用為核心,人工智能技術通過模擬人類的神經網絡,讓計算機系統對數據庫進行深度學習,使得計算機系統能夠進行分析、判斷以及決策。人工智能已經被廣泛應用在各個領域,其必然掀起另一次革命,但人工智能的全面化可能會導致與其他情形結合導致新型犯罪的出現,其在工作的過程中會使數據進行集中,數據的集中本身就是一種風險,數據越大,被攻破時不法分子的獲利就越豐,這就出現了“地動山搖”的危險境地。
二、人工智能時代相關犯罪的主體認定
機器人分為智能機器人與一般機器人,其二者的主要區別為智能機器人不是簡單的從數據庫中提取相應的信息,而是它進行自主的思考。從智能機器人本身的屬性來說,其就具有智能性、主動性、創造性的特點。一旦智能機器人能夠通過深度學習而產生意識和思想,并在自主意志和思想支配下實施不在人類設計和編碼的系統程序范圍內的犯罪行為,那么智能機器人就極有可能需要面臨刑事責任的承擔問題。在現行刑事法律體系下,需要承擔刑事責任的主體只有一般自然人和單位。同自然人相比較,智能機器人雖然沒有像自然人一樣的生命體征,但是卻擁有作為刑事責任主體所要求的辨認能力與控制能力,所以智能機器人完全有可能成為刑事法律所調整的犯罪主體。同時應當看到,智能機器人有一定的特殊性,即具有兩面性:一方面在研發人員和使用人員設計和編制的程序范圍內實施行為—即在人類的可控范圍之內實施犯罪,其實現的是人類的意志,智能機器人無法決定自己的行為目的,其可以看作為使用人員實施犯罪的“工具”,所以智能機器人實施的犯罪行為不需要承擔相應的責任;另一方面,智能機器人在研究人員與使用人員設計和編制的程序范圍外實施行為—即智能機器人脫離人類控制在自己的意識支配實施的行為,實現的是自己的意志,與其他具有刑事責任能力的主體實施犯罪行為的情形高度一致。一個自然人從出生到死亡可以看做是一種“縱向”的刑事責任能力遞增的過程,即不滿14周歲的完全不具有刑事責任能力,已滿14周歲不滿16周歲的具有限制刑事責任能力只對八種犯罪行為承擔責任,已滿16周歲的就具有完全刑事責任能力。而智能機器人從設計和編制的程序內到程序外可以看做是一種“橫向”的刑事責任能力的轉化過程,即智能機器人在設計和編制的程序內實施行為不需要承擔刑事責任,而在設計和編制的程序外實施行為則需要承擔相應的刑事責任。筆者認為,隨著人工智能廣泛的普及大概率可能使得智能機器人在人類社會生活中的地位從普通工具上升至刑事責任主體的標準,因此未來人類社會的法律制度需要針對人工智能技術的發展做出相適應的標準,但不宜抑制其發展。
三、人工智能時代的刑法完善
為防止未來智能機器人脫離人類控制的局面出現,我們應防患于未然,從立法環節上,應增設相關犯罪,刑法是調整社會關系最廣泛的法律,其對犯罪人權利的限制往往是不可逆的,能起到明顯的威懾作用。因而刑法必須對濫用人工智能的行為加以規避,人工智能風險才有可能得以有效的控制。但根據刑法的謙抑性理論,只有在其他法律仍不能調整的情況下,才應得到刑法的規制。只有這樣,人工智能的發展能夠得到健康、有效、快速、高質量的發展。同時,筆者認為應該對研發人員和使用者進行嚴格限制,可以在人工智能源頭的創造上規避重大安全隱患。首先,開發人員應當在書寫智能機器人的代碼時或產品系統的研發中必須嵌入人類社會所必須的道德、法律與倫理。換言之,就是產品成型后的第一時間內必須讓其自主學習法律、道德與倫理。其次,研發人員具有保護數據的義務,在數據爆炸的時代,數據代表著的不僅僅公民個人的隱私,乃至整個國家的政治、經濟、文化等各方面的安全,對數據庫的嚴密保護應成為研發人員的責任,最后,研發人員必須能夠保證完全的控制人工智能系統。當然可以在設置程序中,如果脫離控制,可以設置機器人的“自我終結”程序,其主旨就是為了保護現有的人類社會的安定。只有研發者違背了上述義務,其需要承擔相應的刑事責任。
四、結語
綜上所述,筆者認為人工智能時代已經來臨,人們應當具有控制它的能力。故應當對機器人納入具有刑事責任能力的主體,并對研發者和使用者進行嚴格限制,將利用人工智具有嚴重的社會危害的行為納入刑法的調整范圍。
【參考文獻】:
【1】 劉憲權:《人工智能時代的刑事風險與刑法應對》,《法商研究》2018年第1期。
【2】 參見2017年7月8日國務院印發的《新一代人工智能發展規劃》。