劉 方
西北政法大學法律碩士教育學院,甘肅 蘭州 730030
人工智能(Artificial Intelligence),英文縮寫為AI,是由“人工智能之父”麥卡錫(Mc Cartney)及一批數學家、信息學家、心理學家、神經生理學家、計算機科學家在美國Dartmouth大學召開的會議上首次提出來的,它是在計算機科學、控制論、信息學、神經心理學、哲學、語言學等多種學科研究的基礎上發展起來的一門綜合性的邊緣學科。人工智能是研究如何應用計算機的軟硬件來模擬人類某些智能行為的基本理論、方法和技術,其研究領域包括機器人、語音識別、圖像識別、自然語言處理和專家系統等。
欲思其利,必先慮其害。當我們在為人工智能給我們的檢察工作帶來便利而感到欣慰的同時,我們不得不考慮其帶給我們的挑戰。
“智能型機器人”的廣泛使用,在帶來高效便捷的同時,也不可避免的會出現錯誤或失誤,如系統出現故障,對案件當事人帶來損害,責任該由誰承擔?又該向誰追償?人工智能系統出現錯誤有兩種原因導致。一種是侵權人對智能系統進行非法控制,如黑客、病毒等人為因素的侵入,導致智能系統出現錯誤。第二種是智能系統自身產品瑕疵導致,該是智能系統制造者,抑或是智能系統的管理者承擔責任呢?
現在我們進入了人工智能時代,當未來踏入超人工智能時代的話,當高度自主、脫離人類控制且獨立運行并做出判斷的智能機器人造成冤假錯案時,我們又該如何補救呢?比如審查報告、起訴書自動生成、案件預測、證據材料自動審查判斷如果發生錯誤怎么辦?
隱私權的保護,是信息時代特別是人工智能時代的法律難題。智能革命不斷深入發展的過程,亦是隱私安全風險增大和法律保護強化的過程。在檢察工作中運用人工智能技術,我們要建立強大豐富的數據庫,然而其數據庫一旦被黑客攻入,大量當事人信息外泄,無疑將個人暴露在公眾之下,這將對隱私權的保護帶來極大挑戰。
關于責任主體的確定問題,由于我國現行的法律沒有賦予人工智能主體地位,因此人工智能系統本身不具有承擔責任的主體資格。這應該分情況考慮,如果是智能系統在研制開發過程中出現產品瑕疵的話,應該根據我國《侵權責任法》,由生產者和銷售者承擔不真正連帶責任。如是,我們檢察工作人員在建立數據模型、輸入運算程序中出現的失誤,那就因檢察人員工作疏忽和失誤承擔責任了。第三種情況是,在沒有任何人為原因,由于技術尚不發達,智能系統本身錯誤的情況下,應該不追究責任。
當人工智能系統出現失誤,我們應該如何補救呢?第一,在人工智能系統留有寬裕的修補端口,以便在實踐中不斷修正與完善。第二,建立人機互為糾偏機制。當智能系統分析結論與辦案人員的認識不一致的情況下,辦案人員需要做出解釋說明,如果是辦案人員的主觀認識出現偏差,應及時糾正,如果是因為智能系統分析錯誤,應對機器建立的數據模型系統重新校對、修正,必要時可由檢察部門或案管中心等第三方監管機構做出判別。通過以上兩點的完善,有利于司法行為規范和案件質量保證。
當前,全國檢察院已基本實現了專網全連通、數據全覆蓋,這為司法公開提供了有利的科技支撐。為了防止信息外漏,保護當事人隱私權,防止國家秘密外泄,建議檢察院在繼續加強信息化建設的同時,高度重視網絡信息和數據的安全防護工作,在嚴格落實分級保護制度的同時,加強對信息技術人員的管理,防范外部風險的同時,避免內部出現問題。
如今智能語音輸入法、智能語音訊(詢)問與遠程提審系統相結合的智能化檢察工作已經相繼展開,我們的“案管機器人”集刑事辦案智能輔助系統、執檢智能輔助平臺、案管大數據應用平臺、檢察辦案績效考核軟件、視訊司法警務綜合管理平臺于一身,逐步全面向全國檢察院推廣展開智慧檢務,相信我們人工智能的檢察時代已經到來!我們應以開放包容的心態迎接人工智能時代,擁抱人工智能。
[1]姚錫凡,李旻.人工智能技術與應用[M].北京:中國電力出版社,2008.
[2]曹承志.人工智能技術[M].北京:清華大學出版社,2010.
[3]Robin Bordoli:The 7 Myths of AI[EB/OL].http://www.crowed flower.com /7-myths-ai/2017,5,14.
[4]吳漢東.人工時代的制度安排與法律規制[J].法律科學(西北政法大學學報),2017(5).
[5]田樹平.創建大數據檢察工作模式的思考[J].中國檢察官,2017(總第271期).
[6]張曉.大數據在檢察工作中的運用及風險防范[J].知識產權保護研究.