
我們不妨想象一下,如果機器人時代發展到了機器人與人類共同在馬路上行走的階段,法律和規則恐怕就要人類與機器人共同制定修改了,刑法將邁入“科幻”時代,交通與犯罪問題也勢必會發生巨大的改變。
2018年3月18日,在美國亞利桑那州坦佩市發生了一起嚴重的車禍事故。在這起事故中,Uber公司的一輛自動駕駛汽車撞上了一名行人,并致其死亡。發生事故的車輛屬Uber公司新研發的正處于測試階段的無人駕駛汽車,一時間,無人駕駛汽車的公共安全與法律責任問題備受關注。
2019年3月,美國檢方針對這起撞車事故宣布,涉事汽車所屬的Uber公司對該事故不承擔刑事責任。該事故作為全球首例自動駕駛汽車致人死亡的案件,讓人們對人工智能時代的到來增添了新的疑慮。
這起案件中,生產自動駕駛汽車的Uber公司之所以無責,是因為由其公司研發、設計的自動駕駛系統在撞人前已發現受害者,但因系統設置的原因,在該計算機控制模式下車輛無法自動開啟緊急剎車,剎車的控制權由隨行的安全駕駛員享有。所以,監控這輛車的司機可能要為此次事故買單,因為在事故發生前,司機一直在用手機觀看電視節目,如果駕駛員恪盡審慎義務,該事故“完全可以避免”。但問題是,讓司機擔責,司機會不會感到冤枉呢?因為這是“無人駕駛”的汽車,他的責任至少不同于日常的普通車吧,否則還叫什么“無人駕駛”?所以,對“無人駕駛”汽車的司機追究交通肇事犯罪的刑事責任就必然受到了阻力。
隨著人工智能化的進一步發展,自動駕駛技術的終極目標是徹底取消駕駛員的位置,做到完全性的無人駕駛。到那時,無人駕駛技術必然會要求人工智能在適當時刻超出設計和編制的程序規范并作出決策,以處理瞬息多變的交通狀況,這就使其具備了與人相似的辨認和控制能力,也就可能造成一定的法益侵害結果,因而依然存在刑事追責的可能性。
然而,人工智能所做的行為,主要屬于技術而非法律、道德范疇。單純從刑事責任產生的依據和目的來看,人工智能難以成為刑事責任主體。譬如,道義責任論認為法律人格的必備要件是意志自由,如果犯罪主體不具有意志自由,不具備人腦的認識和意志功能,對交通法規等規范并不能完全理解,那么無法在道義層面上對其予以譴責,刑罰手段對其就毫無意義,更沒有教育感化的可能。
另外,刑罰的種類主要包括人身刑與財產刑。對于智能機器人來說,因為不存在實體和生命,人身刑對其并沒有什么影響;而且智能機器人不同于自然人或單位,不需要也不享有財產權,財產刑也無法適用。
不過,隨著人工智能不斷升級發展,其終究會具備類似于人類的辨認、控制能力,而這些能力與犯罪故意、過失的產生息息相關。故意由認識因素和意志因素組成。在認識上要明知自己的行為必然或者可能會產生危害社會的結果,“可能會”在自動駕駛技術中是常常會遇到的情境;在意志因素方面,人工智能攝像、捕捉系統能夠識別駕駛過程所面臨的危險,而且能夠通過方案推演模型作出相應的決策,如果人工智能已經認識到自己的行為會產生危害結果,仍然選擇作出操作,就構成了刑法上要求的“希望”或者“放任”的心態,也就產生了相應的“故意”和“過失”。但即使人工智能具備了類似刑法規定的責任條件,如何處罰“自動駕駛”的犯罪主體,恐怕還是離不開人類自身這一主體。
針對可能出現的自動駕駛肇事帶來的法律責任問題,追究設計者、監管者或者使用者的責任更為現實。不可否認,人工智能可以替代越來越多人類實行的操作行為,到一定程度上就可擁有獨立的法律人格,如果因最初設計缺陷引發交通事故,造成了嚴重危害社會的結果,就應當追究設計者的責任;如果是管理或者使用者監管失職或者操作使用不當,則要追究監管者或者使用者的責任。不過,相關的罪名和責任形式可能需要進行新的補充修改和完善。
我國對自動駕駛的研發起步較晚。2018年6月,工信部網站發布了由工信部、國家標準委共同制定的《國家車聯網產業標準體系建設指南》,該指南給未來10年自動駕駛做了前瞻性的頂層設計和規劃,但與全球汽車行業公認的自動駕駛技術分級認定標準尚有差距。如果要更好地服務于未來法律責任的劃分,該標準還需要進一步完善。
按照我國現今自動駕駛發展的水平來看,設立過高過嚴的責任要求可能不利于該產業的發展。在某種意義上,科技發展的需要已然成為一種阻卻責任(至少是減弱責任)的事由,就各國的現實來看,在科技快速發展與注意防止損害義務之間如何保持利益平衡,已成為必須多方考量的問題。
隨著人工智能技術在我國的快速發展,將自動駕駛納入國家交通發展的遠景規劃,摸索試行自動駕駛的各方面政策規定十分必要。這些政策與試行經驗也是將來建立完善自動駕駛以及人工智能立法的可靠基礎。
(摘自上海三聯書店《于法較真》 )