
上海交通大學馬克思主義學院副教授,上海交通大學數字化未來與價值研究中心研究員,哲學博士、法學博士后,耶魯大學全球正義研究中心高級訪問學者。
2024年8月,歐盟《人工智能法案》(AI Act)正式生效,成為當前第一部旨在促進人工智能安全發展的區域性法律文件。該法案的實施促使多個國家和地區探討制定適合各自國情和地區特色的人工智能法律或具有強制性的規范性措施。
在人工智能治理的討論中,責任問題一直是核心議題,同時也是治理過程中面臨的主要挑戰。歐盟委員會在制定《人工智能法案》的過程中,考慮到人工智能技術的復雜性,提出《人工智能責任指令》的構想。這一指令構想旨在解決人工智能系統在造成損害時如何判定民事責任的問題,力圖減輕受害者在訴訟過程中的舉證責任。顯然歐盟《人工智能法案》的實施以及《人工智能責任指令》的提出,標志著人工智能治理在責任問題上的重要進展,為人工智能技術的安全發展提供了法律保障。同時,這一法案和指令的制定也體現了人工智能治理的復雜性,以及需要多學科、跨領域的合作與研究來解決的責任問題。
隨著人工智能技術的飛速發展,人工智能技術已經全方位介入到人類社會生活各個層面,成為社會發展的一個重要因素。隨著智能體涌現性和自主性不斷增強,對人工智能的社會地位、人機關系、倫理與法律產生巨大的影響。技術哲學家漢斯·約納斯很早就意識到不受控制和約束的現代技術帶給人類文明發展的同時,也會給社會帶來難以估量的危害。他在《責任原理》一書中著重強調在推進技術發展的同時,需要對技術行為后果的責任問題進行深入的探討。
相較于其他現代技術,人工智能技術發展中的責任難題具體體現在:(1)責任鴻溝問題。技術哲學家馬蒂阿斯指出:基于神經網絡、基因算法、能動設計的自主學習機器的研發,人工智能的制造者、操作者原則上不再能夠預測未來人工智能的涌現行為,因而也不能為其擔負全部的責任。(2)責任分散問題(也被稱為“多手問題”)。在傳統的責任理論中,代理行為與其所承擔的責任是密切相關的。但在復雜的AI系統中,技術組件可能由不同的團隊或公司開發,每個組件的問題都可能導致整體系統故障,當出現錯誤、事故或倫理問題時,責任歸屬難以確定。“多手問題”模糊了人工智能技術中的行為主體與行為結果之間的因果關系,導致責任主體的模糊化、分散化。(3)責任空場問題。在復雜的AI系統中,涉及多個利益相關者,每個利益相關者都有可能對系統的行為和結果產生影響。人工智能系統的復雜性和自主性使得責任歸屬變得模糊,責任歸屬的不明確、責任承擔者缺失,且現有的法律和倫理規范無法完全覆蓋人工智能系統可能造成的損害時,責任空場現象就容易出現。(4)責任推脫問題。當人工智能系統的涌現性和復雜性不可解釋,責任歸屬難以確定時,不同利益相關者對人工智能責任歸屬就會產生較大的分歧,也會成為責任推脫的理由。
雖然人工智能體在責任問題上有很多難題,但越來越多的國家和人工智能企業意識到責任的重要性,將“負責任創新”作為人工智能有序發展的重要倫理原則。2019年,中國國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,提出“和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理”的人工智能治理原則、框架和行動指南。2022年6月,美國發布《“負責任的人工智能”(RAI)戰略與實施路徑》文件,從“治理、信任、開發、驗證、AI生態系統、勞動力”等多個方面對未來人工智能發展進行規劃、部署和監管。2024年3月,聯合國193個國家通過的首個全球AI倫理協議,倡導各國開展負責任的AI技術開發和部署。2024年5月新加坡發布《生成式人工智能模型治理框架》,將“問責制”作為培育構建可信AI生態系統的首要原則。2024年5月,經濟合作與發展組織(OECD)制定和更新人工智能發展原則,旨在促進技術創新的同時,確保AI的發展符合倫理標準和社會責任。
在人工智能未來的發展中,負責任創新是主要議題。要將負責任創新實施落地,在學理上不能回避技術發展的“科林格里奇困境”。大衛·科林格里奇認為技術發展與社會發展之間容易出現不協調:“技術的社會后果是很難在技術發展的早期做出準確預測的。”因為“當技術的改變相對容易時,其影響卻是難以完全預見的;而當對技術需要變動的要求變得強烈時,這種改變卻已經變得非常昂貴、困難和費時了”。“科林格里奇困境”很好地描述了新技術在社會融合整個過程中的關鍵問題,即人們對新技術介入社會的影響和后果的評估難以準確,而且新技術潛在的社會屬性和邏輯可塑性在尚未與社會緊密融合之時是無法充分展現的。如何突破這一困境?科林格里奇建議從分析和引導科學與技術發展的目標、計劃和動機等問題入手,寄希望于提高對社會技術評估與預測的能力。馬克·科克倫伯格指出要從責任的條件入手,提升人在技術發展過程中負責的認知條件和控制條件。人工系統越智能,對其行為的責任要求就越高。
“負責任的人工智能”重點強調人作為技術發展的責任主體,無論是人工智能的開發、設計、測試還是使用都需要考慮人類的責任和義務,并且確保機器智能(AI的軟件、硬件)在特定使用環境下的行為是符合人類倫理和法律規范的。“負責任的人工智能”是一個人、機、環境有機統一的智能生態系統,要求人工智能系統在設計、開發、管理、使用和維護過程中,所有相關的角色(包括設計者、開發者、管理者、使用者、維護者等)承擔其行為的倫理、法律和社會責任,形成社會技術系統的責任體系。
人工智能對整個社會體系的顛覆性影響,也意味著人工智能技術中責任體系的構建是復雜的。漢斯·約納斯認為:在“倫理真空”的技術時代,越是復雜的技術,越凸顯人類責任的重要性。這種責任不單是單個人的責任,還有整個團隊的集體責任;不單是當下的責任,還有對未來社會的前瞻性責任;不單是某一行業、某一領域的責任,還有整個社會技術生態鏈的集體責任。人工智能技術——作為復雜技術的典范,其責任歸屬涉及源點到節點、再到分布式圖景中的一整套社會技術生態責任體系。
在負責任的人工智能的社會技術生態責任體系中,“元責任”(meta-responsibility)構成了責任體系的核心要素,其概念的深度和廣度均超越了傳統的責任范疇。Meta在希臘語中意味著“超越”“在……之后”或“變化”。這一概念在信息科學中也常被使用,例如:“元數據”“元信息”“元語言”。在人工智能領域,“元責任”不僅涵蓋了人工智能整體發展方向、倫理框架及責任歸屬的根本性責任,而且還深入涉及人工智能系統從設計、開發、部署、使用到監管的全過程責任考量。以“元責任”為起點的人工智能責任體系的構建以現有的人工智能倫理原則為基礎,與當前的法律體系相兼容,構建全面和有效的責任機制。在人工智能系統的早期規劃與設計階段,引入元責任考量,確保系統的設計與開發符合倫理和法律要求。在人工智能系統的運行過程中,適用元責任的評估要求,建立持續的監控機制,及時發現和解決潛在的問題。在發生意外或損害時,依據元責任框架進行問責,并總結經驗教訓,用于指導未來的系統改進和優化。
“元責任”是一個很重要的人工智能責任體系構建視角,是構建“負責任”人工智能的基石。總的來說,對人工智能的責任問題不應糾結于人是否為有限主體,而是需要研究如何以元責任為起點,推動人工智能責任體系的構建,以確保人工智能的發展以“負責任”的方式造福于人類社會。
(本文系2023年度教育部社會科學研究重大課題攻關項目招標課題《數字化未來與數據倫理的哲學基礎研究》[項目號23JZD005]的階段性成果)
編輯:薛華 icexue0321@163.com