999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能立法背景下人工智能的法律定義

2023-09-29 07:40:46
云南社會科學 2023年5期
關鍵詞:定義人工智能法律

陳 亮 張 翔

法律概念是法律規范和法律制度的建筑材料①[德]魏德士:《法理學》,丁曉春、吳越譯,北京:法律出版社,2013 年,第91 頁。,具有“表達”“認知”和“提高法律合理化程度”三大功能②張文顯主編:《法理學》(第5 版),北京:法律出版社,2018 年,第114 頁。。清晰的法律概念是科學表達法律規范、正確認知法律內容、增強法律適用確定性的基本前提?!叭斯ぶ悄芊ā弊鳛橹攸c新興領域立法,其調整對象界定、制度框架搭建,以及具體規則設計,皆需要科學、合理的人工智能法律定義充當識別社會關系、定性法律關系的第一道“濾網”。早在2017 年,國務院在《關于印發新一代人工智能發展規劃的通知》中就提出人工智能立法的“三步走”戰略目標,其核心要義是建構完善的“人工智能法律體系”;2023 年6 月6 日,國務院辦公廳發布《國務院2023 年度立法工作計劃》,正式將“人工智能法草案”列入預備提請全國人大常委會審議草案的范圍。在人工智能立法趨向“體系化”以及立法進程日益加快的背景下,首先需要解決的便是人工智能立法體系的邏輯前提——人工智能的法律定義——應當如何確定的問題。雖然人工智能的定義方式非常多元,國內外人工智能領域立法實踐中都有單獨設置定義性條款來界定人工智能法律概念的先例,但這些定義有其特定的立法背景和體系語境,未必適合當前中國“人工智能法”的立法需求。

從豐富的立法素材中“提取公因式”是生成法律概念的重要方法。本文遵循人工智能的“規范認知”和“學術認知”線索,全面梳理人工智能的各種定義模式、總結共識和分歧,并基于體系性思維檢視定義方式之優劣;引入“系統—控制論”原理解決界定人工智能法律定義時存在的“概念不確定性”問題,并嘗試從“屬概念”“內涵”和“外延”三個維度重構人工智能的法律定義。

一、人工智能定義的多維面向

(一)域外規范性文本對人工智能的界定

域外政策法規文本中,只有少部分國家或組織①域外政策法規的梳理范圍,主要參考了歐洲議會在2020 年7 月14 日發布的由安德里亞?貝托里尼博士撰寫的政策研究報告Artificial Intelligence and Civil Liability(《人工智能與民事責任》)第一部分,與該文選取的國家和地區基本一致。對人工智能的界定沿襲了詞典的“功能型”定義模式,即強調人工智能作為計算機科學的分支,其具有復制、模擬、協助甚至替代人類智能能力②譬如丹麥《人工智能戰略報告》、芬蘭《人工智能戰略報告》、印度《國家人工智能戰略》以及日本《人工智能戰略》等對人工智能的界定。,大部分國家和組織采用“發生定義”,從被定義概念反映、代表、指稱事物的發生或來源方面來揭示種差。③陳波:《邏輯學是什么》,第247 頁。該類定義模式可以概括為:“目標控制下的輸入—輸出模型”,其中“目標/任務/問題”通常由人為設定,“輸入”的是可供算法處理的數據,而“輸出”的則是能夠影響環境的內容、預測、建議或決策。除前述共性外,針對“是否需要在人工智能定義中列舉外延,以及如何對人工智能進行分類”等問題,域外規范性文本的處理方式不盡相同。主要分類方法有兩種,一是根據人工智能應用領域的寬窄,將其分為“通用人工智能”和“專用人工智能”。譬如《西班牙人工智能研發戰略》認為:“當前的人工智能不是實現通用智能,而是專注于所謂的特定人工智能,……但通用人工智能仍然是要實現的主要目標,即創建一個具有智能多任務系統的生態系統”。又如《人工智能:澳大利亞的倫理框架》具體界定了二者的特征:“狹義人工智能執行特定功能,通用人工智能在一系列領域都可以與人類智能相媲美。”二是根據人工智能與人類的相似程度,將其分為“弱人工智能”和“強人工智能”。譬如德國《人工智能戰略報告》指出:“強人工智能意味著人工智能系統具有與人類相同的智力,甚至超過人類;弱人工智能專注于使用數學和計算機科學的方法解決特定問題,從而開發的系統能夠自我優化?!北M管某些國家或組織在規范性文本中沒有明確提及人工智能有強弱之分,但使用了“自主/自我”等表征人類意識的心理學措辭。譬如歐洲議會和委員會通過的《人工智能法》草案妥協修正案(以下簡稱“歐盟AIA”)以及經合組織發布的《人工智能委員會的建議》均承認人工智能具有不同程度的“自主性”。又如歐洲人工智能高級別專家組發布的《人工智能的定義:主要能力和科學學科》指出:“人工智能系統……決定為實現給定目標而采取的最佳行動……分析環境如何受到先前行為的影響來調整自己的行為?!倍⒙撉鯂艺l布的《人工智能倫理原則與準則》則認為,人工智能具有“自我完善”能力。

(二)中國規范性文本對人工智能的界定

在中國涉及人工智能的政策法規文本中,鮮見針對人工智能本質特征和特有屬性的明確定義,大多數文件只是在涉及人工智能的語句中零散地給出特征描述詞或者類型歸屬詞,難以準確闡明何謂人工智能。①以“人工智能”為關鍵詞在“北大法寶”進行法律法規檢索,定位關鍵詞所在句后,如果該句式屬于“人工智能是X 的Y”,則分別摘取特征描述的關鍵詞“X”和表征類型歸屬的關鍵詞“Y”。根據政策法規制定主體不同,將這些關鍵詞按照“法律及法律性文件(人大)”“行政法規及規范性文件(政府)”和“司法解釋性質的文件及兩高工作文件(法院)”進行歸類,統計結果如下。一是法律及法律性文件(人大)中描述人工智能的關鍵詞,主要有:新技術、新應用;現代技術手段(現代信息技術);科技;科技創新項目;重大創新領域;前沿領域;新興數字產業;基于大數據、物聯網、5G 等技術的人工智能;人工智能是引領新一輪科技革命和產業變革的戰略性技術;關鍵領域;新技術、新領域;新型基礎設施(“人工智能”和“新一代信息基礎設施”也并列出現);科技創新和高新技術領域;前沿戰略性領域。二是行政法規及規范性文件(政府)中描述人工智能的關鍵詞,主要有:人工智能加速發展,呈現出深度學習、跨界融合、人機協同、群智開放、自主操控等新特征;經濟發展的新引擎;新一輪產業變革的核心驅動力;人工智能是影響面廣的顛覆性技術;具有自主學習能力的人工智能;人工智能技術屬性和社會屬性高度融合的特征;實現具備高可解釋性、強泛化能力的人工智能;學科專業;智能化技術;領域科學技術;現代科技手段;信息技術和智能硬件;新技術應用;變革性技術;新一代信息技術;新職業新技能;重大科學基礎工程。三是司法解釋性質的文件及兩高工作文件(法院)中描述人工智能的關鍵詞,主要有:新領域新業態;信息化手段;新技術;新科技革命和產業變革前沿領域;現代科技;新興科技;信息技術;新業態新領域;新技術新思維(人工智能+);新類型數字化知識產權財產權益;前沿技術;新知識新技能;科技創新成果。以上統計截止時間為2023 年6 月16 日。2022 年8 月,深圳市人大常委會通過首部以“人工智能”命名的地方性法規《深圳經濟特區人工智能產業促進條例》;2022 年9 月,上海市人大常委會緊隨其后,也通過了《上海市促進人工智能產業發展條例》;2022 年10 月,國家標準化管理委員會發布GB/T 41867-2022《信息技術 人工智能 術語》。目前,主要是這三部文件設計了專門界定人工智能的定義性條款。對人大、政府和法院出臺的三類文件“合并同類項”,可以歸納出人工智能的如下特點:其一,人工智能的屬概念主要有“技術”“領域”“產業”“學科”“產品”和“權益”六類。技術范疇強調“變革性信息技術和智能硬件”特征,領域范疇強調“前沿性、創新性、戰略性”特征,產業范疇強調“數字經濟”特征,學科范疇強調“領域性、基礎性、新范式”特征,產品范疇強調“科技創新成果”特征,權益范疇強調“數字知識產權和數字財產權” 。其二,對人工智能特征的直接描述有四種,分別是“基于大數據、物聯網、5G 等技術”“深度學習、跨界融合、人機協同、群智開放、自主操控等新特征”“具有自主學習能力”和“具備高可解釋性、強泛化能力”,主要從人工智能的基礎層(硬件設施)、技術層(數據和算法)和場景層(泛在性)三個方面概括出人工智能的關鍵特質。

此外,對比《深圳經濟特區人工智能產業促進條例》(以下簡稱“深圳人工智能條例”)《上海市促進人工智能產業發展條例》(以下簡稱“上海人工智能條例”)和GB/T 41867-2022《信息技術 人工智能 術語》(以下簡稱“人工智能術語國標”)三部文件中人工智能的定義性條款②主要是《深圳經濟特區人工智能產業促進條例》第二條第一款、《上海市促進人工智能產業發展條例》第七十一條,以及GB/T 41867-2022《信息技術 人工智能 術語》第3.1.2、3.1.8、注1、注2。,其特點如表1 所示。

表1 三部文件中人工智能定義性條款比較

二、人工智能定義的法學審思

法學界對人工智能法律定義的專門研究較少,在涉及人工智能的法學著述中開辟獨立板塊來確定問題討論前提已實屬不易,大部分著述只是簡單引用人工智能的某種概念以服務于作者預設的價值立場,但該種定義模式為何正當或者具有合理性,卻缺乏細致論證。總體來看,根據屬概念不同,中國法學界對人工智能的定義大致可以分為兩類:主張人工智能是一種非實體性客觀存在的“科學技術論”,以及主張人工智能是一種實體性客觀存在的“系統(程序/機器)論”和“類人論”?!翱茖W技術論”雖然傾向于以人類為參考系,但主要從“功能或目標”角度來描述人工智能的內涵,而界定外延的分類標準和具體類型則分化為“研究領域”“技術基礎”和“應用場景”三種不同出發點。③包括但不限于吳漢東:《人工智能時代的制度安排與法律規制》,《法律科學(西北政法大學學報)》2017 年第5 期;葉明、朱靜潔:《理性本位視野下智能機器人民事法律地位的認定》,《河北法學》2019 年第6 期;龍衛球:《人工智能立法規范對象與規范策略》,《政法論叢》2020 年第3 期。“系統論(程序/機器)”觀點除了從功能上描述人工智能,還側重在發生學意義上闡釋人工智能的運行原理,并且依據系統的迭代階段來劃分人工智能外延的類型。①包括但不限于季衛東:《人工智能開發的理念、法律以及政策》,《東方法學》2019 年第5 期;陳亮:《繁榮人工智能法學 助力人工智能法律法規體系建設》,《中國高等教育》2020 年第2 期;曹偉:《技術迭代視角下人工智能的法律分析》,《人大法律評論》2021 年第1 輯。“類人論”觀點的共識在于都選用了“自主性”特征,但對自主性的表現形式、人類特質的主要類型以及人工智能對人類智能的替代程度等問題的看法尚存分歧。②包括但不限于馬長山:《人工智能的社會風險及其法律規制》,《法律科學(西北政法大學學報)》2018 年第6 期;劉艷紅:《人工智能法學研究的反智化批判》,《東方法學》2019 年第5 期;劉憲權:《對人工智能法學研究“偽批判”的回應》,《法學》2020 年第1 期。概言之,相較于政策法規的規范性認知,中國法學界對人工智能認知方式的差異和觀點分化,與之基本一致。

(一)檢視依據:邏輯一致、脈絡關聯和價值融貫

體系方法是法律人規整法律素材、建構制度體系、維護法秩序統一、系統性解決社會問題時必不可少的元方法,一直被法學研究與法律實踐予以踐行。③楊銅銅:《體系解釋方法運用研究》,北京:中國社會科學出版社,2021 年,第120 頁。綜觀法律體系化思想嬗變和中國學者對體系化方法的轉介歷程④法律體系化思想肇端于歷史法學派薩維尼以“法律制度”為中樞的“有機體系”論,經普赫塔所代表的概念法學改造,發展為凸顯邏輯演繹的“概念金字塔”方法,但因其脫離實踐而被利益法學、社會法學批判。其后,拉倫茨的法學方法論歷經兩次轉向,建構出由“類型序列”聯結的“內外部體系”,試圖以評價法學思路彌合規范與現實之間的“裂痕”。由此,潘德克頓法學的“法律體系化”方法以“實質理性—形式理性—實質理性”的循環,實現了“否定之否定”式發展,為現代法教義學的成熟留下了寶貴的思想遺產。中國法學界主要經臺灣法學家轉介該種體系化方法,不同領域法學對其繼受程度不盡相同,但或多或少都受拉倫茨對“內部體系”和“外部體系”相區分觀點的影響;在自主引介、吸收施塔姆勒、德沃金、拉茲、阿列克西、佩岑尼克和麥考密克等法學家的體系化思想并經本土化改造后,法學界基本認同達致理想法律體系的三個標準:“邏輯一致性”“價值融貫性”和“維系整體意義脈絡關聯”。,體系化立法的理想狀態可以提煉為“立法要素的內在邏輯保持一致”(以下簡稱“邏輯標準”)“立法脈絡能夠維系整體性意義關聯”(以下簡稱“脈絡標準”)以及“立法價值在規范中融貫地表達”(以下簡稱“價值標準”),這三個標準也是判斷法律定義是否科學、合理的重要依據。

一是邏輯標準。法律概念應當全面映射涉法事實,概念的內在特征之間能夠保持互斥,也即法律概念以“特征增減”方式并通過“涵攝”來實現內容固定,確保概念外延至少在邏輯層面能夠窮盡涉法事實。⑤[德]卡爾?拉倫茨:《法學方法論》(全本?第6 版),黃家鎮譯,北京:商務印書館,2020 年,第33 頁。在此標準要求下,人工智能的法律定義應當統合技術實踐中已經出現的人工智能具體類型,也即在邏輯學層面抽象出屬概念的“最大公約數”,并且在各類屬概念之下明確人工智能的種差,在立法技術上可以采用“有限列舉+等字兜底”方式,確保法律概念在相對穩定的基礎上對未來技術變遷保持開放,也即法律定義具有適當程度的包容性。⑥Jonas Schuett (2019).A Legal Definition of AI.Retrieved on 17th Aug.2023 from: https://arxiv.org/abs/1909.01095v1.

二是脈絡標準。法律概念應當形成譜系,不僅能夠通過形式邏輯確保各層次的法律概念之間互相推演,而且能夠維系各要素在整體上的意義脈絡關聯,表現出積極的“內聚性”。具言之,通過形式邏輯對必要的抽象法條(規則)采取一種概念層系的建構,在體系關聯上認知彼此互為條件、又相互衍生的法條,以便能夠追溯單個法條的“譜系”。⑦舒國瀅:《格奧爾格?弗里德里希?普赫塔的法學建構:理論與方法》,《比較法研究》2016 年第2 期。法律概念作為法律體系的基本要素,其并非制定法偶然形成或者任意維系的集合⑧朱虎:《薩維尼的法學方法論述評》,《環球法律評論》2010 年第1 期。,也不是對規范素材簡單地摘錄、匯編,而是應當經由規范解釋,對相關內容進行整合、抽象,形成無矛盾的、和諧的有機體系⑨楊代雄:《薩維尼法學方法論中的體系化方法》,《法制與社會發展》2006 年第6 期。。因此,人工智能的法律定義應當能夠與既有人工智能領域立法的基礎概念保持有機銜接,譬如“深度合成”“自動化決策”“生成式人工智能”和“決策式人工智能”⑩丁磊:《生成式人工智能 AIGC 的邏輯與應用》,北京:中信出版社,2023 年,第6 頁。等,確保概念體系融洽。

三是價值標準?!胺筛拍钜渤袚ǖ恼{控任務,受制于目的論?!雹賉德]魏德士:《法理學》,第91 頁。在定義中內嵌價值理念是通過法律概念劃定調整對象、調控社會關系的第一道“濾網”,因而人工智能法律定義的價值傾向也會直接影響立法目的能否準確、恰當且有效地實現。具言之,法律概念的形成和內容解釋必須回歸法律原則,概念并非僅僅以抽象方式形成,也是基于對原則的考量而形成,并且在對原則的回溯中表達其內容。②[德]卡爾?拉倫茨:《法學方法論(全本?第6 版)》,第604 頁。因此,人工智能的法律定義應當保持適度的彈性解釋空間,為“人工智能法”的價值嵌入預留解釋學通道;同時,對人工智能法律定義的理解不能僅停留在文義層面,而是需要依據法的價值和法律原則來充實其實質意涵。

(二)求同存異:對現有立法素材“提取公因式”

人工智能的定義具有一張“普羅透斯似的臉”,其多元化和不確定性折射出使用術語“人工智能”的困難之處,似乎在于該術語難以通過下定義方式來確切描述;即便其可以被定義,一旦機器能夠完成“之前只有人類才能完成”的任務,無論是下棋還是人臉識別,那么它就不再被認為是智能的標志,這便是所謂的“AI 效應”。③Shruthi Anand(2017).Artificial Intelligence-Literature Review.Retrieved on 17th Aug.2023 from:https://cis-india.org/internet-governance/files/artificial-intelligence-literature-review.誠然,“人工”“智能”等概念無法進行詞典式的孤立定義,試圖分別界定二者意涵并拼接出“人工智能”的定義方式也是徒勞的,原因在于“智能”難以被歸結為傳統的、孤立實在論道路上的計算問題,但又可以根據“圖靈測試”通過行為主義的比較來判定,即它作為數學意義上的判定性問題處于可計算與不可計算的悖論之間;即便如此,規范主義的定義并非不可能,定義一個詞的含義或者所有詞匯含義的,并非該語言系統中所有真命題的集合——因為這個集合無窮大而無限纏繞——而是該語言系統中判定何種命題成立的標準,因而定義人工智能需要采用系統論觀點和復雜性系統理論背景下的公設系統。④張紹欣:《普羅米修斯精神與人工智能前史——人工智能概念的歷史規范主義回顧》,《中國圖書評論》2018 年第7 期。該公設系統應當是在人工智能立法語境下,遵循判斷法律定義科學性的一般標準,從前述人工智能定義的立法素材中“提取公因式”,在此基礎上結合人工智能立法之目的所在,對“公因式”進行轉譯和組合。

首先,人工智能的種差主要從發生機理和應用特征兩個維度進行描述,在發生機理層面的“公因式”可以提取為:硬件支撐(計算機設備等)+程序操控(目標控制下的輸入—輸出結構);應用特征層面的“公因式”可以提取為:自主性、泛在性和交互性。其次,人工智能定義的分歧主要集中在屬概念和外延;屬概念主要有“實體”和“非實體”(科學、理論、技術、知識、方法、領域、產業、權益等)兩大類,其中實體類定義又存在“物質性”(系統、程序、模型、機器、產品等)和“非物質性”(依據對人類行為功能的替代程度差異,分為模擬、延伸、擴展等)兩種區分;而整體意義上的人工智能類型,常見分類是“通用人工智能和專用人工智能”以及“強人工智能和弱人工智能”。最后,雖然人工智能定義在發生機理和應用特征方面能夠抽象出一些基本共識,但在前述標準檢視下,若想生成科學、合理的人工智能法律定義,還需降低人工智能種差的模糊性并選定符合立法目的需要的人工智能外延。

“自主性、泛在性和交互性”等看似內容確定、表達中立的技術性術語,不能直接轉化為立法文本,原因在于這些術語背后隱藏著“智能判斷的不確定性”問題,關乎法律對社會生活的介入程度(或者說立法價值追求對人工智能的容忍度),如果不加以限定,將會造成法律適用的不確定性。雖然何謂“智能”的問題在一定程度上達成共識——具有實現預設目標的部分計算能力,并且在可實現目標的種類及其實現程度上,人類、動物和智能體存在差異⑤Andrea BERTOLINI(2020).Artificial Intelligence and Civil Liability.Retrieved on 17th Aug.2023 from: https://www.europarl.europa.eu/thinktank/en/document/IPOL_STU(2020)621926.——但環境變化或者目標改變,會導致同一智能體在不同應用場景中表現出不同程度的智能,因而評估智能體實現預設目標的能力強弱,還需要依據各種計算科學意義上的閾值進行“基準測試”。然而,基準測試的閾值標準并非統一,評估維度也不一定與人類智能相關。根據人工智能科學的四種研究范式①[美]斯圖爾特·羅素、彼得·諾維格:《人工智能:現代方法》(第4 版),張博雅、陳坤、田超、顧卓爾、吳凡、趙申劍譯,張志華審校,北京:人民郵電出版社,2023 年,第2—5 頁。,至少存在兩種智能性判定基準,一是依據理性基礎上的“理想性能”進行衡量,二是依據智能體對人類行為的“保真度”進行衡量。從實證研究結果看,人工智能研發人員對前述四種范式的偏好程度也不盡相同,約65%的受訪者選擇“理性”主導下的人工智能定義,對政策文本的統計分析則結果迥異,約57%的人工智能定義強調與人類思想或行為進行比較。②P.M.Krafft,Meg Young,Michael Katell,Karen Huang &Ghislain Bugingo.(2020).Defining AI in Policy versus Practice.In Machinery (Eds.),AIES '20: Proceedings of the AAAI/ACM Conference on AI,Ethics,and Society (72-78),New York:Machinery.因此,同一智能體在兩種不同閾值下進行基準測試,既有可能被判定為“智能”,也有可能被判定為“非智能”。

此外,并非所有的人工智能屬概念都符合人工智能立法的需求,不同的外延也在一定程度上決定了人工智能的立法模式。以歐盟AIA 為例,該法案側重對人工智能部署和應用風險的分類分級監管,但事實上,僅符合該法案定義的人工智能并不會直接引發使用風險,也即人工智能定義本身對法案適用沒有發揮應有的過濾功能;盡管第3 條之(1)和附件一的范圍幾乎包括了每一種人工智能系統,但法案內容大多是專門針對高風險系統的,符合現有的產品安全立法;換言之,高風險的分類不僅取決于人工智能系統所執行的功能,而且還取決于該利用系統的具體目的和模式;人工智能系統預期用途的潛在類別劃分,與人工智能系統的提供者或用戶利益相關,具有主觀性,將造成法律上的不確定性。③Hannah Ruschemeier(2023).AI as a challenge for legal regulation-the scope of application of the artificial intelligence act proposal.ERA Forum,23,361-376.同理,中國《生成式人工智能服務管理暫行辦法》第二十二條將生成式人工智能界定為“具有內容生成能力的模型”,已然預設了“防范通用人工智能風險”的基本立場。④《國家互聯網信息辦公室有關負責人就〈生成式人工智能服務管理暫行辦法〉答記者問》,中國網信網,http://www.cac.gov.cn/2023-07/13/c_1690898326863363.htm,2023 年8 月17 日。又如,“上海人工智能條例”偏重工具論,將人工智能歸屬于“理論、方法、技術及應用系統”之列,其產業發展原則強調“創新驅動和市場主導”;而“深圳人工智能條例”偏重功能論,其屬概念比照人類智能,故其原則更加凸顯“安全可控”??梢?,不同樣態和抽象程度的人工智能外延,實質上取決于立法者的價值傾向和立法目的。

三、重構人工智能的法律定義

(一)事物本質是“理性智能體”而非“類人”

若想通過下定義方式來明晰人工智能的法律意涵,需要揭示人工智能的本質特征或關系屬性⑤溫驚雷:《定義性規范立法研究》,成都:西南財經大學出版社,2020 年,第81 頁。,而“事物本質”的理念要求立法者根據事理的不同對事物做不同的處理⑥[德]卡爾?拉倫茨:《法學方法論》(全本?第6 版),第525 頁。。這就意味著,在法律上界定人工智能不能完全受制于技術層面人工智能的物理本質,而是應當在“人與人工智能的應然關系”范疇內分析二者“事理之不同”。在判斷“智能性”和列舉“類型”時,應當以法律意義上的“理性人”而不是自然科學意義上的“生物人”為參照,確定法律所能容忍的智能性程度和法律所欲控制的人工智能類型。事實上,類人理論的“圖靈測試”排除了那些不使用自然語言進行交流的智能系統,盡管這些系統也需要監管(例如,自動駕駛汽車);那些未能實現其目標或者未能實現最大化性能度量的系統也被排除在外,盡管它們可能具有重大風險。⑦Jonas Schuett(2019).A Legal Definition of AI.況且,目前主流AI 技術的進展無助于真正制造出具有AGI 基本特點的智能機⑧徐英瑾:《人工智能哲學十五講》,北京:北京大學出版社,2021 年,第82 頁。,現階段的人工智能只具有模擬人類外顯性智慧的能力,迭代發展至今的人工智能沒有體現出“自主學習并獨立運行”的隱性智慧能力①曹偉:《技術迭代視角下人工智能的法律分析》。。所以,“智能性”基準測試的閾值標準應當確定為理性基礎上的“理想性能”而不是“人類行為保真度”,在人工智能法律定義中將“自主性程度”作為識別人工智能和類型劃分的標準也為時尚早。較之于人工智能科學的其他研究范式,“理性智能體”進路還擁有四大優勢:一是比“理性思維”的邏輯主義更具普適性,因為正確的推斷只是實現理性的幾種可能機制之一;二是更適合科學的發展,理性標準在數學上是明確定義且完全普適;三是理性標準能夠被證明可否實現智能體設計,而模仿人類行為或思維的設計在很大程度上是難以證偽的;四是理性智能體最初建立在邏輯基礎之上,為了實現特定目標而需要制定明確規劃,但隨著概率論和機器學習方法的發展,智能體能夠在不確定性下作出決策以獲得最佳期望結果。②[美]斯圖爾特?羅素、彼得?諾維格:《人工智能:現代方法》(第4 版),第4 頁。此外,在AI 與法律的交叉研究領域,agent 應當譯為“行為體”,這就為AI 中agent 作為“行為體”在法學研究中涉及“法律行為”(act in the law 或juristic act)時埋下了循名責實的線索,預留了名正言順的空間。③壽步:《人工智能中agent 的中譯正名及其法律意義》,《科技與法律(中英文)》2022 年第3 期。因此,將人工智能的法律本質確定為“理性智能體”,不僅符合科學發展規律,而且能夠在法律規制和法學理論層面,為人工智能監管和人工智能法學研究留下能夠接入既有法律制度譜系和法學理論體系的空間。

(二)理論構造以“系統—控制論”為支撐

在法律意義上界定人工智能,還需要通過法學上的構造“將制定法中現存的某種規則體或者行為模式整合到體系之中以產生無矛盾的脈絡關聯”,但檢驗某種構造理論的可靠性時,不能單純按照自然科學方式將其“追溯到普遍的自然法則”,而是需要依據法學特有的方式——通常是“邏輯性衡量”和“目的性衡量”,并且“最終具有決定性的是從理論中獲得的與規范效力有關的結論語句在事理上的妥當性”④[德]卡爾?拉倫茨:《法學方法論》(全本?第6 版),第554、566、567 頁。。那么,人工智能的法律定義究竟應當以何種理論為基礎,才能實現行為整合和目的嵌入?“長期以來,有無目的一直是劃分生物科學與技術科學的分水嶺,而智能研究的新方向便是在兩種科學中找到其共性,并將生物系統和技術系統連接起來;它們的目的性在負反饋的基礎上得到統一,而控制論所講的目的就是系統與環境間的反饋,也是一種智能表現的過程?!雹萃跚幔骸犊刂普摰闹悄苡^》,《社會科學研究》2000 年第5 期。維納開創的控制論在系統科學中引入休謨的“應然”范疇,促成系統論從“單純探索客觀規律”向“研究目的性并強調發揮能動性”發生重大轉向。⑥高劍平、齊志遠:《系統哲學思想史研究》,北京:科學出版社,2022 年,第120 頁。自維納提出控制論以來,在學術界創造出貫穿“目的”與“行為”等特殊內涵的五組范疇與概念體系,主要包括:(1)狀態、變換、過程——強調系統“內部關系”;(2)信息、反饋、控制——強調“主客體關系”;(3)輸入、輸出——強調“外部關系”;(4)施控、受控、控制系統——凸顯“目的”與“關系”;(5)信息與信號——揭示“系統運行的載體”;同時,維納也創造出控制論范式下的新科學方法:功能模擬、黑箱方法以及信息反饋。⑦高劍平、齊志遠:《系統哲學思想史研究》,第122、132 頁。

之所以選擇“系統—控制論”作為界定人工智能法律定義的理論支撐,主要原因有二:一是,控制論的基本范疇能夠以較為合適的抽象程度覆蓋人工智能全生命周期,并且對現存爭議具有較強包容性,而“理性智能體”作為一種通用范式,也適用于“系統—控制論”原理。⑧[美]斯圖爾特?羅素、彼得?諾維格:《人工智能:現代方法》(第4 版),第5 頁。該范疇既能實現對主體間關系的整合、評估行為的風險程度(譬如作為主體概念的“施控者”“受控者”以及作為行為描述的“輸入”“輸出”等),還能顧及用戶對人工智能的一般認知(譬如“輸出”涉及對外部環境的影響、“功能模擬”也可以直觀感受)。二是,責任分配的底層原理在某種程度上也能和“系統—控制論”相關范疇實現耦合,法律責任能夠通過“目的性衡量”來合理確定。以“漢德公式”為例,“只有在潛在的致害者預防未來事故的成本小于預期事故的可能性乘預期事故損失時,他才負過失侵權責任”①馮玨:《漢德公式的解讀與反思》,《中外法學》2008 年第4 期。。與之對應,控制論研究的“輸出對輸入的響應特性”表征因果關系,其具有模糊性和不確定性特征,而控制論研究正是為了精確描述這種不確定性以便確定地“趨達目標”,其中另一個關鍵范疇——基于環境響應的“反饋”——更是為了及時修正信息來增強算法處理的確定性,控制論所采用的復雜數學函數表達在概率論意義上能夠實現相應的“預防成本”核算。因此,以“系統—控制論”原理為支撐界定人工智能的法律概念,契合“發展負責任的人工智能”②《發展負責任的人工智能:新一代人工智能治理原則發布》,中華人民共和國科學技術部,https://www.safea.gov.cn/kjbgz/201906/t20190617_147107.html,2023 年9 月1 日。治理目標,通過構建新型行為模式實現對人工智能全生命周期下相關主體的權責分配。

四、結論

首先,就人工智能法律定義的屬概念而言,可以從人工智能全生命周期厘清各個階段的關系。人工智能并不直接指涉“科學或者學科”,其首先是一種信息處理“系統”,“程序、模型和機器”則是該系統的軟硬件組成部分;對智能系統的科學研究或技術研發,稱為人工智能科學,其范疇包括人工智能知識、原理、方法和技術等;科學成果轉化、投產后,形成人工智能產業;而人工智能作為一種“權益”,受制于特定的政策背景和法學理論話語,具有較強的評價性色彩和邏輯上的后置性,不能成為界定人工智能法律定義的術語。此外,如果對人工智能科學進行立法,則著眼于研發端的科技倫理導向;如果對人工智能產業和人工智能產品進行立法,則著眼于市場端的生產激勵、公平秩序維護和消費者權益保障;而“人工智能法”著眼于系統運行、維護端的社會性風險防控,只有“系統—控制論”的構造才符合人工智能立法需要。因此,“人工智能法”應當定位為人工智能領域立法的基本法、一般法,《生成式人工智能服務管理暫行辦法》則是人工智能領域的專門立法,而“人工智能科技促進法”“人工智能產品質量法”等定性為科技法、產品質量法等領域立法的特別法較為適切。

其次,就人工智能法律定義的內涵而言,應當結合功能型定義模式和發生型定義模式,以期同時實現對“理性智能體”的“目標控制”和“行為控制”。具言之,人工智能是依托算力基礎設施,通過控制系統的算法處理輸入的數據,以軟件或硬件等多元集成方式嵌入系統后輸出,或者直接在具體場景中輸出對人類某種理性功能的模擬狀態,在環境中進行交互,并在目標約束下經過反饋修正,最終完成預設任務的信息系統。該種信息系統的法律本質為“理性智能體”,是界定其法律地位的主要依據。該定義的法學構造主要包括:網絡、數據、算法、軟件/ 硬件、目標/ 任務、反饋、輸出等相互影響、互為制約的基本要素,以及這些要素在“系統—控制論”原理下的各種內生性或外顯性的行為(譬如“黑箱”“集成”“功能模擬”“變換”等)。此時,制定法中既有的涉人工智能規范,能夠被人工智能的一般性法律定義依據“系統—控制論”脈絡實現彼此之間的有機規整。值得注意的是,《個人信息保護法》《數據安全法》《互聯網信息服務算法推薦管理規定》等針對人工智能某一要素的立法,如果相關條款只是單純分配數據權益、保護個人隱私或者施加數據安全義務等,則不屬于“人工智能法”范疇;只有內嵌“系統—控制論”構造的條款——譬如《個人信息保護法》第二十四條對“利用個人信息進行自動化決策”的規制——才能作為“附屬人工智能法”歸入“人工智能法”的法律淵源。

最后,就人工智能法律定義的外延而言,既包括外觀上模仿生物人但本質上是集成軟硬件的“智能機器人”,也包括單純的智能系統(如ChatGPT)或硬件設備(如智能傳感器),以及嵌入這些軟硬件的其他“智能體”(如自動駕駛汽車);至于“強人工智能”“通用人工智能”能否納入人工智能的類型,不適合通過“外延”列舉方式來確定,而是應當通過價值判斷在法律概念中為其保留裁量空間,也即“強弱”之分、“專用通用”之分并非立足于客觀現實的規范性法律判斷,而是基于未來技術發展的評價性法學判斷。即便人工智能的法律定義中沒有直接列舉這兩種類型,也不會導致定義外延不周延,因為法律調整對象的確定還需要在“定義初篩”的基礎上再結合立法目的、法律原則進行決斷,這種“留白技術”是在立法的確定性和前瞻性之間、立法的安定性和執法司法的適應性之間尋求平衡的必要選擇。

誠然,本文試圖給定一個相對而言內涵確定、外延清晰的人工智能法律定義,但這并非一勞永逸的工作,也不意味著該法律定義就可以包羅萬象、順利“涵攝”一切涉人工智能法律現象;法律定義也具有時代局限性,其對社會現象的容納度不僅取決于立法者的權力決斷,也受制于技術變遷,但這并不能否定為人工智能下定義的可能性,因為科學、合理的法律定義可以通過法律解釋方法增強自身的社會適應性,除非人工智能實現顛覆性突破并且引發全生命周期的根本性變革,此時人工智能的法律定義便需要動用立法手段予以修正以適配科技發展規律。

猜你喜歡
定義人工智能法律
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
成功的定義
山東青年(2016年1期)2016-02-28 14:25:25
“互助獻血”質疑聲背后的法律困惑
中國衛生(2015年1期)2015-11-16 01:05:56
讓法律做主
浙江人大(2014年5期)2014-03-20 16:20:27
修辭學的重大定義
當代修辭學(2014年3期)2014-01-21 02:30:44
主站蜘蛛池模板: 91久久偷偷做嫩草影院| 亚洲午夜福利在线| 国内精品久久人妻无码大片高| 毛片一级在线| 毛片大全免费观看| 精品国产三级在线观看| 亚洲日本www| 亚洲激情99| 国产乱人伦AV在线A| 国产精品吹潮在线观看中文| 国产久操视频| 午夜福利视频一区| 久久免费视频播放| 91精品国产91久久久久久三级| 一本综合久久| 国产成人一级| 亚洲a级在线观看| WWW丫丫国产成人精品| 国产毛片基地| 国产喷水视频| 亚洲国产日韩欧美在线| 亚洲国产成人精品无码区性色| 亚洲欧洲日本在线| 麻豆精品在线视频| 欧美一区二区人人喊爽| 日韩资源站| 国产真实乱了在线播放| 91毛片网| 欧美视频免费一区二区三区| 亚洲天堂日本| 青青热久免费精品视频6| 国产av一码二码三码无码| 国产精品人成在线播放| 亚洲天堂视频在线免费观看| 亚洲日韩高清无码| 在线观看免费黄色网址| 国产日本欧美亚洲精品视| 国产幂在线无码精品| 婷婷午夜天| 久久一本日韩精品中文字幕屁孩| 日本欧美午夜| 国产成人精品2021欧美日韩 | 亚洲视频免费播放| 亚洲美女一区| 日韩欧美国产区| 熟妇丰满人妻| 亚洲精品午夜无码电影网| 伊人激情久久综合中文字幕| 高清大学生毛片一级| 国产自在线播放| 成年A级毛片| 欧美日韩一区二区三区四区在线观看 | 91免费在线看| 国产麻豆91网在线看| 国产精品99久久久久久董美香| av在线5g无码天天| 国产毛片久久国产| 精品少妇人妻av无码久久| 免费一级全黄少妇性色生活片| 国产h视频免费观看| 亚洲综合二区| 欧美日本在线观看| 国产在线自在拍91精品黑人| 欧美一级专区免费大片| 日本久久免费| 中文字幕无码电影| 999国内精品视频免费| 国产一级精品毛片基地| 欧美色伊人| 在线看国产精品| 久久香蕉国产线看观看亚洲片| 亚洲欧美日韩动漫| 无码精油按摩潮喷在线播放| 中文字幕在线观| WWW丫丫国产成人精品| 久久久久九九精品影院| 午夜a视频| 三级国产在线观看| 欧美激情网址| 国产91麻豆视频| 中文字幕首页系列人妻| 中文字幕伦视频|