顏 可 陳 瀅 邱 楠
(重慶大學,重慶 400030)
隨著科技的發展,人類已進入智能時代,人工智能儼然已成為新一輪產業變革的核心驅動力,成為各國競爭的焦點。人工智能在移動互聯網、深度學習、大數據、云計算、腦科學等新理論新技術的驅動下,迅速發展,呈現出人機協同、跨界融合、深耕細分、群智開放、自主操控等新特征,對經濟發展、社會進步、人類生產生活方式、國際政治經濟格局等方面產生重大而深遠的影響。同時,也帶來了各種“創造性破壞”、難題和挑戰,使得制度體系、運行機制、規制方式和社會秩序等面臨著很大程度的“顛覆”,甚至“重建”,其引發的社會風險將給當下的法律規則和法律秩序帶來一場前所未有的挑戰。要保證人工智能技術安全、可靠、可控的發展,從技術、倫理和法律三個路徑,進行前瞻預防與約束引導,最大限度降低風險,構建符合人工智能運作基本邏輯的規制體系和國家新型治理體系,推進國家治理體系和治理能力現代化,“不斷提升人民群眾的獲得感、幸福感和安全感”。
人工智能是計算機科學的一個分支,目前學術界對人工智能尚無統一的定義,根據眾多學者的表述,可以理解為人工智能是計算機依據設定的學習策略,通過讀取海量的“大數據”,利用自然語言處理、圖像識別、音頻處理等技術,從中發現規律和聯系,實現預測和決策,生成多種解決方案。近十年來,人工智能的發展突飛猛進,賽迪智庫的研究認為人工智能從專用智能向通用智能發展、從人工智能向人機混合智能發展、從“人工+智能”向自主智能系統發展、人工智能將加速與其他學科領域交叉滲透,人工智能產業將蓬勃發展、欣欣向榮,將推動人類進入普惠型智能社會。人工智能與多學科領域和行業交叉滲透,催生了許多新興產業,深刻地改變著人類社會關系。
人工智能在帶給人類巨大進步與福利的同時,也帶來了不可忽視的“倫理風險、極化風險、異化風險、規制風險和責任風險”。數據信息采集應用可能侵犯公民隱私;醫療機器人的應用可能引發新的醫療事故責任問題;護理、陪伴機器人等人機交互產品可能帶來情感依賴;人工智能的算法偏好可能加劇社會偏見或歧視;機器的深度學習,不受人性和道德約束的算法黑箱,可能作出威脅人倫的選擇;無人駕駛汽車緊急避險等智能決策可能引發“道德悖論”;傳統的職業和崗位也正在被機器人所代替,引發失業潮。人工智能的發展已經滲透到生活的方方面面,對人類的主體地位和交互模式、國家的民生事業與社會治理方式都產生了深遠的影響。
人工智能發展過程中的風險主要體現在以下幾個方面:第一,大數據的“全體性”“混雜性”及“相關性”帶來了風險的不可預測性和全球性,追求數據的大而全,忽視了數據的相關性,可能導致推演結果的混亂;第二,算法的不可預見性也直接導致了風險的不確定性,導致風險失控。人工智能決策系統不受預置的價值觀念、經驗法則、道德法制等因素的制約,“算法黑箱”使得無法控制或預測指數級升級的人工智能的決策過程及決策結果,機器自主選擇的方案可能與人類“福祉”背道而馳,甚至帶來毀滅性結果;第三,人工智能研發的隱秘性和分散性加劇了風險集聚性,催生了風險的全球化。人工智能的研發只需一臺電腦或一部智能手機即可,隨著互聯網的發展,數據的跨境流動將更為便利,物理上的隱秘性和分散性給政府監管帶來了前所未有的難度。[1]
人工智能技術高歌猛進,離不開法學理論的更新、具體法律制度的完善和法律倫理的同步發展。要預防AI帶來的危險,并不僅僅是要制定新的法律,還要在法治中創新理念,拓展外延,將法律倫理上升為法律條文,遵循人工智能發展的規律,利用標準化的技術,對未來科技發展進行具有前瞻性的布局,在立法、執法、司法及社會治理的過程中,貫穿人工智能的決策方式和借助人工智能手段,促進人工智能和法律法規的良性互動。
第一,創建以技術標準法制化為基礎的風險防控機制。
我國應及時制定與人工智能相關的基本技術標準,應嚴格人工智能共享數據平臺、技術平臺及相關服務平臺的準入和創建規則,構建權威性的平臺,做好算法的開源與保護。將技術研究作為源頭進行規制,進而最大限度地對技術產生的負面效應或副作用進行預防。將安全評估和技術風險防范作為人工智能發展規范的重要內容,尤其是要加強對算法的規制,實現算法透明性和可責性的統一。設置人工智能的禁區,對人工智能的研發、使用和傳播行為建立限制機制和禁止性行為準則。
人工智能涉及知識面廣,我國應組織政府人員,社會治理、計算機技術、法律等領域專家學者及產業界人士組成專家小組,參與編撰機器人憲章,將行業規范和行業標準上升為國家法律和技術準則,規范人工智能的研發、生產和使用各環節的標準化流程。[2]
第二,建立以倫理為先導,倡導人類和諧發展的法律價值目標。
就人工智能社會關系的調整而言,倫理道德規范能夠產生先導性的作用。這本質上是法律規范自身的局限性導致的,法律規范是基于現實生活、基于人們的具體行為形成的,且立法過程繁瑣、耗時,因而相比社會發展速度來說,總是處于相對滯后境地;而倫理道德規范可以通過對人們思想的約束,實現先行和預設,進而能夠對已變化或可能變化的社會關系及時作出反應。
構建人工智能倫理道德規范體系,主要包括:第一,要設計倫理道德規范框架,為機器人、人工智能產品的應用預設道德準則。人工智能不管發展到什么階段都應將“為人類服務”作為初衷,將人類的安全、地位和權利放在首位。第二,要強化科技專家的社會責任,為人工智能研發、應用提供道德指引。將透明性和可責性、可靠性和安全性引入設計理念中,強調開發者的社會責任,重點培育高水平人工智能創新人才和團隊,提升科研人員和相關的從業人員的道德倫理水平。第三,全面提高全社會對人工智能的整體認知和應用水平。讓公民熟悉和掌握一些基本的人工智能知識和技術,以提高民眾的風險意識和對人工智能產品的控制能力,在道德倫理的框架下使用人工智能產品,并形成全社會對人工智能產品和技術發展的正向監督。
第三,健全人工智能監管體系和制度,建立社會風險分擔責任保障制度。
設立人工智能專門監管機構,賦予其強有力的監管職責,確立政府與社會多方聯動的人工智能監管模式,建立協同共管,實現自律與他律、全方位多層次、動態監管與智能化監管相結合的方式,加強市場準入和退出機制建設,實施實質審查、分類公示登記和強制召回制度,建立持續風險評估和抽查檢測制度,健全事前備案、事中授權、事后懲處等行為準則,為人工智能技術的健康發展提供多方面的法律、制度保障。我國還應該建立人工智能倫理委員會等機構,專門負責人工智能的倫理監管等問題,引入倫理審查機制,對人工智能的應用開展跨領域的監測與管理,以保證能夠全方位地促進人工智能良好有序發展。[3]
人工智能的風險防不勝防,在責任難以劃分的情況下,我國還可以建立強制保險制度與專項賠償基金制度,來分散和化解風險。要求為每一個進入市場的人工智能產品購買強制保險,設立強制保險制度可以轉化個人責任為公共責任,維護公共安全,給社會公眾以基本保障,同時還可以有效削弱公眾對新技術可能造成不可預料危險的恐慌,減少排斥心理,有利于產品的普及和發展。我們還可以考慮設立基金制度,建立專項賠償基金賬戶,資金來源可以包括專項稅收、政府補助、人工智能產品利潤、社會捐贈等,從而保障未來侵權行為發生后的責任承擔問題。
人工智能時代是機遇與挑戰共存的時代,我們應該增強風險意識,應該增強對人工智能技術發展的研判和預測,更好應對人工智能技術可能導致的風險失控和倫理挑戰以及引發的社會問題,讓人工智能更好地為人類服務。我們要以處理好“善治”與“善智”的關系作為推進人工智能社會建設的重要前提,以實現“負責任”的人工智能為發展目標,我們相信通過各國政府、組織、產業界、社會公眾的協同努力,共同抑制風險,終將實現人類文明的繁榮發展。