田 怡
(青島大學紡織服裝學院,山東 青島 266071)
人工智能在現代社會各個領域的應用是順應時代發展需要,但因為信息技術發展的限制,人工智能在不同領域的應用也面臨著各種難題。而“修昔底德陷阱”作為一個研究命題,長期以來學術界對其討論和研究也從未間斷過[1]。目前,人工智能技術在法律治理中的應用,因其與人類價值觀及倫理性尚未形成完善的體制構架,導致人工智能的法律治理陷入了“修昔底德困局”中。因此,針對人工智技術對當前的法律體系造成的倫理沖擊,如何采取應對措施,解決人工智能的法律治理“修昔底德困局”的難題,是本文探討和研究的重點。
直到今天,人們對于人工智能的定義并沒有形成共識,最早人工智能被認為是像機器人一樣學習、思考和認知事物,是一種通過計算機來模擬人類的智能技術。但隨著人工智能的不斷發展,到目前為止,人工智能有兩種常見的定義。一種認為人工智能是利用計算機來實現智能化操作;另一種認為人工智能是一門通過研究和獲取知識,再運用知識的科學。
隨著時代的發展,人工智能技術的不斷創新,現在歐洲對人工智能的通用定義是可以利用傳感器或互聯互通技術分析數據、獲取經驗、調整自身行為的無生命意義的信息工具。雖然,人工智能在目前還未形成統一的定義,但明確人工智能的本質特征,對于解決人工智能導致的倫理與法律問題有重要意義。
人工智能技術要為人類社會服務,前提條件必然是遵循人類社會的倫理道德和法律準則。但在實際的應用中,人工智能技術是由研發人員設計的,人工智能系統的法律治理問題,還要歸為人工智能技術研發的倫理及法律問題。為避免人工智能技術研發人員將其個人的主觀好惡、偏見等代入人工智能系統研發的過程中,還需要在人工智能系統中植入相關的倫理道德規范和價值代碼化,以便人工智能系統可以在運行過程中,及時做出符合倫理道德及價值規范的行為。
由于人工智能算法歧視和算法自身的構建,以及基于算法的數據樣本等密切關聯,如果底層數據積累越多,人工智能算法的計算結果準確度就越高,對某類人群的人工智能算法描述也更加精準。另外,人工智能算法的復雜性在不斷增加,人類社會開始普及計算機學習,也會加劇人工智能系統算法的黑箱問題日益嚴重[2]。
如今,人工智能已經被廣泛用于企業管理、信用評估和治安巡邏等多種決策性工作中,如何確保人工智能算法在決策性工作中的公平正義性,成了人工智能法律治理中極為重要的問題。目前,人工智能的正義性問題主要分為兩個方面:①如何保障人工智能算法決策的公正性,杜絕出現人工智能算法決策歧視的問題;②在某種決策工作中若牽涉到個人,如何采取申訴,并問責人工智能及其算法,實現公開透明救助個人的效果。
在大數據時代,人工智能高速發展的社會背景下,人工智能自動化決策技術被用于教育、醫療、信貸、治安等諸多社會領域內,使得人工智能算法的歧視問題變得不容忽視,人工智能決策的不公正性問題也頻繁出現在各個領域內。另外,人工智能系統中存在各種潛在的偏見,都會對涉及人工智能決策的個體產生負面影響,為其帶來不公正對待。而在傳統的法律體系中,我們可以借助程序正義,保證法律的公平正義。因為數字正義的規則范圍更廣,在極大程度上挑戰了人工智能時代各個領域內的法律法規[3]。
人工智能系統需要收集大量的數據信息,并對其進行自動化和智能化的分析,這在很大程度上對個人隱私及數據保密造成了沖擊。因為人工智能系統運行的基礎是有大量數據作為支撐,通過分析大數據可以得知個人信息和消費、收入等隱私內容。再由這些數據分析的結論,而采取“算法殺熟”的方式,會導致社會上出現各種不公平現象。
而且,人工智能系統可以利用對個人數據進行智能化分析、決策的優勢,形成個人畫像,從而對個人投資和收益造成影響。比如在人工智能系統的自動化操作下進行投資,人工智能系統可根據客戶的財務狀況給予其投資建議。如果投資失敗,客戶的權益保障問題,銀行等相關的金融機構,如何與個人數據管理實現協調也成了人工智能法律治理問題中的難題。另外,司法審判過程中案件還原程度的真實情況被極大程度簡化,也會導致個人的人格、尊嚴及人權在人工智能技術的發展中逐漸喪失。
人工智能法律治理的主要目的是實現人工智能算法的公平、公正和透明化。而人工智能系統的透明化,也是確保人工智能算法公平、公正的前提條件。具體的實施方式為構建完善的人工智能解釋機制,讓計算機編程人員提供相關信息,對人工智能系統的構造和原理進行解釋,保證社會大眾對人工智能系統的運算機理有更清晰的認識。
人工智能算法雖然可以輔助司法系統,并采取決策,但因為算法目標不明,數據不完整及存在算法誤差等問題,也會導致司法系統人工智能決策出現各種倫理與法律問題。因此,在人工智能技術進行司法決策前,還要及時采取措施進行干預,以便引發不必要的人工智能法律治理問題[4]。目前,全球各地都出臺了相關的人工智能法律法規條令,為了順應社會發展的需要,我國在進行人工智能相應立法時,也可以通過法律法規的形式來制定人工智能倫理和道德規范標準。
人工智能算法的透明性需要法律提供義務保障,算法的公開透明化,有助于人工智能研發及使用人員及時找到引發算法歧視的問題根源,明確遭受人工智能算法影響的群體范圍,有利于人工智能系統對算法模型進行及時更新。公開算法邏輯作為保障人工智能算法透明性的舉措,可以提供相關的數據類型、信息等分析構架,雖然不能完全避免人工智能決策出現問題,但可以有效降低人工智能系統算法引發的一系列法律治理問題。
在大數據時代下,受到數據處理及流動的多樣化和全球化等因素的影響,為確保個人數據得到更好的法律保護,避免個人數據和信息泄露,對其人權、自由和尊嚴造成不良影響,法律還要確保人工智能數據處理人員,對個人數據實施匿名化處理,以免數據主體再次被識別。
針對人工智能法律治理中會出現的一系列問題,構建完善的人工智能行政監管體制也變得愈發重要。而人工智能監管體制的確定,不僅可以為社會各領域的人工智能決策提供有效的法律保障,還能確保人工智能的應用,不會對個體尊嚴、自由和人權造成侵犯,尤其是在保護個人數據信息方面,可以有效發揮人工智能監管機制的作用[5]。
另外,人工智能開發商、制造商等在人工智能監管部門的監督管理下,也可以對人工智能應用程序的人權和道德進行評估,及時發現其潛在的偏見,并作出相應的改進。同時,人工智能監管體制的完善,也有利于人工智能行業充分發揮自律作用,推動行業及區域性自律組織的建立,實現相互監督、相互約束和自律管理的目的。
人工智能時代的到來,既為社會各行各業的發展帶來了機遇,也引發了相關的法律治理問題,使其陷入“修昔底德困局”。要破解人工智能法律治理的“修昔底德困局”,還要及時調整法律法規,構建人工智能行政管理體制,以適應人工智能技術在各領域內的應用及發展,使其真正成為為人類社會服務,便民、利民的新時代信息技術工具。