摘 要 人工智能在發展到一定程度時有脫離人類控制的風險。在給社會生活帶來改變的同時,人工智能也給社會治安帶來了新的挑戰。本文認為在人工智能時代真正來臨之前,應當先行規制人工智能產業,并根據不同的人工智能技術,對技術研發者以及技術運用者提出不同的要求和義務,并以此為基點擬制《人工智能法》,防范人工智能給社會治安等方面可能帶來的風險。
關鍵詞 人工智能 社會治安 防范 立法
作者簡介:余越洋,華東政法大學刑事司法學院。
中圖分類號:D920.4 文獻標識碼:A DOI:10.19387/j.cnki.1009-0592.2018.04.213
人工智能,即設備能夠識別所處環境,采取行動將實現目的的機會最大化的技術。簡而言之,人工智能就是使得計算機像人一樣思考與工作的科學技術。21世紀以來,世界掀起了人工智能研究與應用的浪潮,智能機器人已經能夠通過自主學習、分析部分接收到的信息,進一步完成設計者交與的任務,如智能語音識別,設備在接收過音頻信息后,再次接收音頻信息便可以進行識別,以分辨聲音的歸屬,類似的運用還有電子郵件過濾系統、人臉識別系統等。
現如今,人工智能技術在某些領域上的表現已經超過人類,如1997年IBM的超級電腦“深藍”擊敗國際象棋世界冠軍卡斯帕羅夫,2015年發展成熟的人工智能圖形識別、語言識別技術更是遠遠超過人類自身的能力,2016年谷歌公司的Alphago擊敗圍棋世界冠軍李世石,更是將人工智能技術推向了一個新的高潮。人工智能取得巨大成就的同時,我們也應當意識到人工智能改變社會、影響社會的巨大潛力,人類無法對其行為進行準確的預判與控制,這無疑給我們的社會生活增添了許多不確定的因素,在某種程度上加重了社會安全風險,這對于未來的社會治安管理而言將會是一場革命性的考驗。筆者分析人工智能技術對于社會治安的風險以及安全管理的困難所在,并以此分析明確《人工智能法》應當立足的關鍵問題,希望以確立《人工智能法》的形式,預先規范未來人工智能技術的發展,使人工智能技術給未來社會帶來的風險降至最低。
一、人工智能給社會治安帶來的挑戰
(一)人工智能易成為違法犯罪行為高發的新土壤
人工智能技術發展的初衷是代替人類進行生產作業活動,提高生產作業的效率。因此人工智能技術本身也具有高效性的特點,機器能夠不知倦怠地自主完成一系列工作任務。人工智能技術在未來社會普及之后,違法犯罪人員很有可能利用人工智能來提高違法犯罪的效率,降低犯罪成本,如利用人工智能進行電信詐騙,僅僅一個犯罪人員使用人工智能機器便可以進行詐騙行為,機器可以通過受害人的通話內容,自主與受害人進行交流,進而達到非法占有財物的目的。并且由于人工智能能夠持續不間斷進行智能化工作,利用人工智能進行的違法犯罪將具有更為龐大的影響范圍,大大增加了公民與公共權益受到侵犯的可能性。因此,人工智能技術在未來很有可能會成為違法犯罪實施、發展的新土壤,人工智能時代的社會治安管理形勢將十分嚴峻。
(二)對利用人工智能違法犯罪行為的預防存在困難
人工智能技術本身具有智能性特點,機器能夠根據周遭環境以及接收到的信息進行邏輯推理,自主進行“行為”選擇,這就使人類對人工智能作出的行為無法進行準確預判,目前我國對人工智能行業暫無風險評估分級機制,無法準確評價各類別人工智能技術可能出現的風險,使得公安、質量監督等部門對人工智能的安全性管控存在困難,難以比照特種行業管理進行有針對性的管理行為。因此,對人工智能違法犯罪行為的預防存在一定困難。
(三)對人工智能產品侵害行為的追責存在責任主體認定的困難
人工智能技術具有智能性,它能夠自己進行分析與推理,因此人工智能產品的設計者在某種程度上也無法完全預知人工智能產品在生產作業的過程中會不會由于產品自身的智能化推理而作出侵害公共與公民利益的行為,智能化行為很大程度上不一定會反映人工智能技術設計者與使用者本身的意志。這使得產品設計者與使用者對于人工智能產品所作出的行為應該承擔的責任的界限,以及應該負責的內容成為了需要解決的問題。另外,違法犯罪分子若是利用人工智能進行違法犯罪,很有可能憑借人工智能的智能化特點作為逃脫法律責任的理由。因此,對人工智能產品所作出的侵犯法益行為的進行責任認定是未來需要解決的難題,應當通過《人工智能法》的形式,明確、區分責任主體,實行設計問責和應用監督并重的雙層監管結構,并通過此種監管結構的設立,根據不同類型的人工智能產品,對產品的設計者、使用者提出不同的責任內容與擔責界限,以便于落實人工智能損害行為的追責問題。
二、《人工智能法》的立法思考
人工智能對未來社會治安的沖擊只是人工智能影響未來生活的縮影,人工智能結合各個領域的需求和相關知識,創制為各行各業的進步與發展所需要的各種智能系統,為各行各業的現代化發展提供智能化服務,其影響的領域有社會、經濟、民生、健康等。從社會治安方面我們已經能看到規制人工智能的緊迫性,我國急需對規制人工智能技術的專門性法律制度進行研究,制定專門規范人工智能行業的法律規范。在人工智能時代來臨之前,應當通過確立《人工智能法》來對未來人工智能技術的運用進行總領性的規制,從宏觀的角度出發,防范其可能出現的風險。在此之后,國家立法機關可以在《人工智能法》的基礎上,針對人工智能在各個行業應用的特點與實際情況進行進一步的細化立法。由此可見,對《人工智能法》進行立法思路的研究是我國的當務之急。
(一)《人工智能法》應當對人工智能產品研發與應用進行限制
人工智能技術給社會帶來風險的主要原因在于其智能性給社會生活增添了極大的不確定性。由于人工智能做出的判斷大多依賴于計算機算法,不包含道德倫理要求以及人類所擁有的情感,人工智能產品極有可能機械地根據計算機算法得出人類認為不符合道德倫理的結果,并根據這個結果選擇主動傷害或侵犯人類,而這是人類不希望看到的。為了減小這些不確定因素,應當要求設計者對智能技術作出限制,盡可能將人工智能帶來的不確定性降低。并且也應當考慮平衡人工智能的高效便捷特性,避免過分削弱人工智能技術應有的科技性或過度影響人工智能的正常使用,使得人工智能技術的使用失去意義。
具體而言,應當嚴格限制設計者開發人工智能產品的領域,對涉及國防安全、能源安全、交通安全等與公共安全密切相關的行業,可能造成重大人員傷亡風險的,應當慎用或是限制人工智能技術的開發,包括禁止在某些行業使用人工智能技術、對技術的智能化水平進行限制等,制約人工智能的學習與分析推理能力,不能使其任憑其接受的所有信息進行推理并作出自主行為。人工智能在這些特殊行業應當完全被人類所控制,作出的“行為”能夠被人類完全預見。通過這樣的規制,能夠將人工智能的社會危險性大大減小。同時,應當明確設計責任的追究機制,對于違反上述相關規定的技術開發者,可依照情節輕重,處以罰款、吊銷相關職業資格證等行政處罰,這也是法定義務的設立,設計者由于未履行法定義務造成嚴重后果構成犯罪的,依照刑法規定定罪處罰,設計者違背義務可能構成故意殺人罪、以危險方法危害公共安全罪、過失致人死亡罪、過失以危險方法危害公共安全罪等刑事犯罪。
另外,人工智能的功能也不應過于全面,對于人工智能產品應當采取相關措施進行能力制約,如為了限制高智能化的產品的能力,應當將其設計為固定式產品,不給其裝配動力裝置,對其智能化工作以外的能力進行削減,以保證人類對產品的控制。
(二)《人工智能法》應當對人工智能產品進行技術分級
為了明確責任主體的責任范圍,加強安全管理的針對性,應當對人工智能產品進行技術等級分級。技術分級的依據應當是產品的智能化水平與智能產品的工作性質。根據《人工智能法》對智能產品的技術分級,國家標準化行政主管部門還可以進一步針對每一個技術分級制定國家標準與行業標準,此舉有利于明確產品設計者的產品研發方向與內容,也能為行業準入標準的設立提供參考。筆者認為,人工智能技術應當大致分為三級,即完全智能化、一般智能化和相對智能化。
完全智能化,即智能產品具有完全的智能化特性,具有自主學習、認識外部世界并進行獨立自主行為的能力,這也是達特茅斯會議以來人工智能領域不斷奮斗的目標,是人工智能的最高水平,也是對社會治安威脅最大的智能產品。
一般智能化,即智能化產品能夠進行信息分析并作出反應,能夠處理較大范圍的信息,但不具備自主學習的能力,只能在一定的信息范圍內作出判斷與選擇。現如今的前沿人工智能技術則大多數處于這個水平,如圍棋機器人、語音對話機器人。
相對智能化,即相對于普通機器而言,智能化產品能夠通過處理外部信息作出反應行為,但其能夠進行處理的信息不具有廣泛性的特點。多數基礎性人工智能產品則符合此級別的特征,如語言識別系統、人臉識別系統等,對社會治安有較小威脅。
確立人工智能產品分級很大程度上能夠規范智能產品研發行為,更為重要的是能夠進一步明確產品使用者的責任與義務。為了有針對性地對人工智能的使用進行安全防范,應當對不同智能產品的使用者提出不同的責任義務要求,這也是使用責任監督機制的重要基礎。
(三)《人工智能法》應當對使用者設立相對應的義務要求
在產品研發設計層面通過立法的形式進行了規制之后,立法在智能產品的使用者層面也不應該缺位。使用者是智能產品最為直接的管理者,從某種角度上看,即便在設計層面對智能產品研發進行了規定,如果使用者故意使用智能產品進行失范行為而侵害公民、社會權益,或是使用者沒有起到應有的管理作用,人工智能對于社會的威脅依舊不能得到有效的控制,因此,通過立法的形式對使用者設立義務在此顯得尤為重要。筆者認為,應當對不同等級的人工智能產品的使用者設立不同的義務,以便于充分落實使用者的責任。
完全智能化產品的使用者,由于此類人工智能產品具有高度的智能化特征,對于社會的潛在威脅也就越大,此類智能產品應當有嚴格的使用區域限制以及能源供給控制規定,使用者必須在規定區域內使用該類智能產品,不得對其進行改裝,對于產品的能源應當有嚴格的控制,并且要能夠隨時控制智能產品的能源供給,不得超越規定用途使用完全智能化產品,不具備以上條件的使用者不得引進并使用完全智能化產品。
一般智能化產品的使用者,此類產品的自主學習與分析信息能力較為普通,因此無需像完全智能化產品一樣進行如此嚴格的限制,但仍然應當要求產品使用者不得超出用途范圍使用人工智能產品,在特殊的場合下不得使用人工智能產品,以防止人工智能行為失范。
相對智能化產品的使用者,此類產品對社會的潛在威脅較小,產品使用者只需將智能技術運用于合法領域即可,不可利用其進行違法犯罪等危害社會的活動。
最后,《人工智能法》也應在責任分級的基礎上建立使用監督機制,將監督責任落實到政府具體部門,對于完全智能化產品與一般智能化產品等智能化程度較高的人工智能產品,應當由公安部門、安全生產監督管理部門等進行登記與檢查,參照特種行業管理制度與安全生產制度的規則進行相關制度的建設與管理,實現管理閉環,有責必究。
參考文獻:
[1] Hutter, Marcus. Universal Artificial Intelligence. Berlin:Springer. 2005.
[2]中國信息通信研究院. 美國國家人工智能研究和發展戰略計劃 . 美國國家科學技術委員會. 2016.
[3]國務院. 國務院關于印發新一代人工智能發展規劃的通知. 2017.
[4]鐘義信. 人工智能: 概念·方法·機遇. 科學通報. 2017(22).
[5]劉憲權. 人工智能時代的刑事風險與刑法應對. 法商研究. 2018(1).