文◎劉憲權
人工智能時代的到來必將帶來風險,其中的刑事風險包括可能使得部分傳統犯罪的危害性發生“量變”,可能會導致新的犯罪形式產生,以及人工智能產品可能因為種種原因脫離人類控制,進而實施嚴重危害社會的犯罪行為。
目前,我國刑法可以從故意犯罪和過失犯罪兩個方面考慮對人工智能研發者或使用者的行為加以規制。對于故意利用人工智能技術研發或使用相應產品實施嚴重危害社會犯罪的,應當將人工智能產品看作行為人實施犯罪的“智能工具”,所有刑事責任應當由人工智能產品的研發者或使用者承擔。在過失犯罪的情況下,刑事責任的判斷標準是根據研發或使用當時的人工智能技術發展水平,考察研發者或使用者對危害結果是否負有預見義務。目前,面對人工智能時代的多重刑事風險,我國現行刑法顯得力有不逮,主要包括:無法規制智能機器人的犯罪行為,對研發者和使用者故意或過失犯罪的責任追究也均存在一定的缺陷。
面對人工智能時代已經或可能出現的刑事風險,需要對刑法進行一定的修正和完善。第一,從源頭防控風險,增設濫用人工智能罪。濫用人工智能行為已觸犯人類社會的安全問題,刑法需要對其加以特別規制。而刑法以外法律法規的規制不足以威懾人工智能產品的研發者和使用者,無法起到防控作用。第二,確立嚴格責任,增設人工智能事故罪。在研發人工智能產品的過程中必須將人類社會的法律以及道德等規范和價值嵌入相應的系統之中,研發者和使用者需要在研發和使用過程中履行數據保護義務。人類必須能夠完整控制人工智能自主武器系統。第三,智能機器人的行為完全可能成為法律意義上的行為,適時考慮賦予智能機器人刑事責任主體的地位。