文/陳霖煊
人工智能在警務領域的不斷深化應用,使得執法效率和執法科技水平大大提升。人工智能要在執法環境中獲得社會公眾的信任,不僅要遵守法律規定,還應當符合倫理原則。
因此,2018 年12 月,歐盟執法效率委員會(CEPEJ)在現有監管制度的基礎上,通過了第一個歐洲文書指引——《關于在法律系統及其執法環境中使用人工智能的歐洲倫理憲章》(以下簡稱:歐洲倫理憲章),以確保人工智能不僅納入公共政策,而且也納入倫理道德框架。
歐洲倫理憲章不僅闡述了在執法系統中使用人工智能(AI)的倫理原則,還為政策制定者、立法者和執法專業人員如何應對國家執法程序中人工智能的快速發展提供了指導框架。
歐盟執法效率委員會指出,在法律系統中使用人工智能工具和服務,旨在提高司法的效率和質量,值得鼓勵。然而,它必須以負責任的方式,尊重個人的基本權利,符合《歐洲人權公約》(ECHR)和歐洲委員會公約108 號保護個人數據條例,以及其他基本的原則。
歐洲倫理憲章指出,人工智能發展應以增進人類共同福祉為目標,應保障個人基本權利,促進人機和諧。執法決策和數據的處理必須目標明確,且完全符合歐洲人權公約保障的基本權利和公約保護個人數據條例。當人工智能作為工具用于解決法律爭端或作為工具來協助執法決策或指導公民時,其核心宗旨是保障公民權利和獲得執法公正、公平審判的權利。使用人工智能時還應尊重法治原則,確保執法機關在決策過程中的獨立性。因此,應優先按倫理和人權考慮設計人工智能法律工具,符合基本社會價值觀。
鑒于人工智能數據處理方法可能會通過分組或分類處理個人或群體數據,從而揭示現有社會的歧視,公共政策執行者必須確保人工智能處理法律數據不再產生或加劇現有社會歧視,保障人工智能法律數據不會被歧視性分析或使用。此外,在部署人工智能研發時需要特別注意社會敏感數據,其中可能包括所謂的種族或族裔出身、社會經濟背景、政治觀點、宗教或哲學信仰、遺傳數據、生物特征數據、與健康有關的數據或有關性取向的數據。如果權威部門和行政執法部門發現這種歧視后,有必要采取措施糾正,以限制風險,并考慮提高利益攸關方的認識。最重要的是,相關部門應該鼓勵使用人工智能模型和多學科科學分析來打擊這種社會歧視。
歐盟執法效率委員會指出,人工智能法律數據模型的設計應該能夠廣泛地利用相關執法專業人員的專業知識,并邀請法律和社會科學領域的研究人員、經濟學家、社會學家和哲學家等,參與到人工智能執法程序設計環節中,推動國際組織、政府部門、科研機構、教育機構、企業、社會組織、公眾在人工智能發展與治理中協調互動。在充分尊重人工智能道德倫理原則和實踐的前提下,由項目團隊共享共建共治,并通過實踐反饋不斷加強。
在安全性能方面,執法決策的數據被輸入到人工智能算法的程序中時,應確保法律數據認證來源,保證法律數據實際使用過程真實可靠;人工智能法律應用過程必須可追溯,以確保法律實施的質量和安全;所創建的數據模型和算法必須能夠在安全的環境中進行存儲和執行,以確保系統的完整性和安全隱秘性。
人工智能要堅持普惠性和包容性,切實保護各相關主體合法權益,推動全社會公平共享人工智能帶來的益處,促進社會公平正義和機會均等。透明、公正、公平的原則要求:使用數據工具時必須平衡知識產權和信息透明度之間的關系,保證公正性和知識完整性,以免產生法律后果;必須符合法律程序,形成科學閉環設計,因為法律數據選擇過程和法律數據的質量和準確性直接影響到法律執行階段;必須保證數據處理方法公開透明,以便接受外部監督審計。除此之外,人工智能系統還可以用清晰的專業語言來解釋所提供的服務、已開發的智能工具和可能潛在的法律風險。國家法律部門或法律專家可以負責認證和監督審計,并提供建議。行政司法部門可以頒發認證,并定期進行審查。
一是必須通過使用人工智能工具增加服務而不是限制服務。二是執法系統的專業人員在任何時候都應能夠審查執法決策和法律數據,并根據特定案件的具體特點,不完全受到司法結果的約束。同時人工智能工具提供的解決方案必須具有法律約束力,且必須以清晰可理解的語言告知公民。公民有權獲得法律咨詢、有權進入法庭、有權在執法過程實施前或期間獲得由人工智能告知的對案件事先處理方式,并有權提出異議。三是當使用任何基于人工智能的信息系統時,都應該為公民提供人機結合方案,并與來自執法系統的執法人員進行商議。
在這些原則中,尊重人權和不歧視是根本性原則。