999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能風險規制的困境與出路

2019-03-24 12:43:11郭傳凱
法學論壇 2019年6期
關鍵詞:人工智能實驗

郭傳凱

(山東大學 法學院,山東青島 266237)

引 言

人工智能通過完成高難度任務不斷加深著對人類社會的影響:無人駕駛已經在美國四個州獲得上路批準,未來很可能引發道路交通運輸的革命;人臉識別系統在反恐等領域發揮著重要作用;電腦程序擊敗了世界最強圍棋運動員;谷歌研發的翻譯系統則可以獨自翻譯報紙上的長篇文章。(1)參見Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, 29 Harv. J. L. & Tech. 353 (2016).與此同時,人工智能的商業前景激發了大型企業投資與開發的熱情,谷歌、臉書、亞馬遜等公司通過資助研發、設立試驗機構、收購新興企業的方式開展人工智能競賽。人工智能飛速發展之勢已不可阻擋。

然而,技術進步引發恐慌情緒和監管預警(2)本研究在以下層面區別使用監管、規制與管制:監管強調監督與管理的并存,在常規狀態下以監督為主,在出現特定問題時才以特定的限制與禁止措施進行管理。強調監督時,本文則傾向于使用監管一詞。規制則泛指規制者通過制定規則、實施強制性措施的方式對被規制者進行限制或禁止的過程。而管制一詞則帶有感情色彩,多指缺乏靈活性,難以滿足市場經濟發展需求的僵化措施。具體到風險領域,學界多以風險規制作為通用名詞,因此本文不使用風險監管的概念。并不是人類社會的新鮮現象。(3)參見戚建剛:《風險認知模式及其行政法制意蘊》,載《法學研究》2009年第5期。盡管有些人工智能風險與以往技術創新引發的風險相類似,但更多體現人工智能獨特性的新興風險及相應法律問題將在未來接踵而至。如果放任人工智能在監管真空的狀態下快速發展,風險發生的可能性及危害性很可能伴隨時間的推移呈現指數式的增長。(4)參見Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, 29 Harv. J. L. & Tech. 400,401 (2016).另一方面,風險規制是否阻礙技術創新成為相伴而生理論與實務難題,短期視野下采取的規制措施很可能損害技術創新帶來的長遠效益。人工智能風險的獨特性與現行規制的局限性導致風險規制始終處于緊張的矛盾狀態之下,認真對待人工智能的風險規制勢在必行。

一、人工智能風險規制的現實需求

理解人工智能是進行風險規制的第一步,(5)如何界定人工智能是需要考察的重要問題。目前我國法學界對人工智能存在以下界定:馬長山教授認為,人工智能是通過模擬人腦思維,由機器或軟件所表現出來的具有推理、記憶、理解、學習和計劃的類人化智能,它能夠思考自己的目標并進行適時調整,甚至將擁有足以匹敵人的智慧和自我意識的能力。劉憲權教授認為,人工智能技術通過模擬人類的神經網絡,讓計算機系統 對數據庫進行深度學習,使得計算機系統能夠進行分析、判斷以及決策。參見馬長山:《人工智能的社會風險及其法律規制》,載《法律科學》2018年第6期;劉憲權:《人工智能時代的刑事風險與刑法應對》,載《法商研究》2018年第1期。人工智能復雜性、靈活性的特點致使其無法形成統一的概念界定。(6)參見John McCarthy, What is Artificial Intelligence?, JOHN MCCARTHY'S HOME PAGE 2-3, http://www-formal.stanford.edu/jmc/whatisai.pdf.第一個使用人工智能概念的計算機科學家麥卡錫將人工智能界定為“有關智能機器特別是智能電腦程序的科學技術與工程系統”,(7)Id.其可以通過自身行動實現復雜的目標。作為偏正短語,“人工智能”的核心部分在于“智能”二字,如何界定“智能”對解讀人工智能而言意義重大。依照學界通說,“人類智能”主要關涉具備知覺、存在自我意識、可以使用語言、掌握抽象思維、能夠調整適應環境以及進行復雜推理等要素。(8)參見Francis Crick & J. Clark, The Astonishing Hypothesis, 1 J. CONSCIOUS STUD, 10-16 (1994).因此有學者參照“智能”的概念將人工智能分為人性化思考、人性化行動、理性思考和理性行動等四種類型,并最終認為人工智能是自動運行、能感知周圍環境、可在一段時間內持續存在的、具有適應能力,并創造和追求最佳結果的機器或者程序。(9)[美]斯圖爾特·羅素、皮特·諾維格:《人工智能:一種現代的方法》,殷建平等譯,清華大學出版社2013年版,第1-5頁。

通過比較,不難發現理性行為特別是追求最優結果的能力是被廣泛認同的人工智能關鍵屬性,其決定了人工智能的兩大特征:其一,人工智能的行為后果具備較弱的可預見性。盡管人工智能的理性能力在一定程度上可以通過初始程序進行控制,但其自主完成復雜任務的過程亦容易導致人類難以預見的后果。其二,人工智能具有較弱的可控性。人工智能可控性上的局限并不是由于機器故障或人工智能對人類指令理解能力的不足,而是源自其對設計者主觀意圖的隔離與漠視。特別當人工智能認定的最優結果與人類社會期待的最優結果發生偏差的時候,人工智能的可控性成為需要解決的重要難題。(10)以寡頭壟斷市場上出現的算法通謀為例,大型企業開發的數據算法很可能彼此撮合進而形成壟斷價格,這種價格對寡頭企業而言是有利的,但對于有效競爭的實現和消費者利益的維護是有害的。此時就出現了人工智能目標函數上的分歧。此外,人工智能在研發上的獨特性與其理性行為能力密切相關:(1)集約化。相較于新能源技術、航天科技等領域,人工智能并不需要大規模的機構設施即可開展研發工作。(11)參見John O. McGinnis, Accelerating AI, 104 NW. U. L. Rev. 1253, 1262 (2010).(2)分散化。在人工智能領域,不同的機構組織,不同的私人企業往往進行分散化的研究。相同的人工智能技術亦可以在不同行業不同領域進行分散化的運用。(3)非連續性。特定技術的開發者不能預見該技術的后繼者將如何使用該技術進行進一步研發。(12)參見Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, 29 Harv. J. L. & Tech. 369 (2016).某一階段的技術開發者往往無法長遠預見該技術發展的未來走勢。(4)不透明性。人工智能技術開發往往是多種現有技術的復雜組合,這使人工智能很難采用反向還原工程進行拆解分析。這導致人工智能開發中的缺陷不僅對消費者而言是不可測度的,對下游生產商和分銷商而言亦是難以檢測的。

人工智能的上述特征從根本上決定了風險規制的現實需求。在風險規制的視野下,一些具備理性能力的人工智能(如象棋軟件)暫時不具備引發公共風險的可能性,而一些機器學習系統盡管不具備理性行為能力,但卻可能引發相關風險,進而也可被納入到人工智能的規制范疇中來。(13)參見Michael Guihot; Anne F. Matthew; Nicolas P. Suzor, Nudging Robots: Innovative Solutions to Regulate Artificial Intelligence, 20 Vand. J. Ent. & Tech. L. 395 (2017).由此可見,規制視野下的人工智能是一個譜系化的概念,其包括并不具備目標追求能力但卻可以完成復雜任務的機器系統或軟件(即不嚴格的人工智能),(14)不嚴格的人工智能是指以機器結算為代表的產業技術與裝備,其展現出來的“自主意識”只不過是被人類固定設置的特定程式。以及符合理性標準具備目標追求能力的人工智能,甚至還包括目前尚未出現但卻被學界普遍關注的強人工智能(Artificial General Intelligence,也可譯作人工普遍智能)。所謂強人工智能,是指具備相當程度的自我理解和自我控制能力,可在多變復雜的環境下解決不同的復雜問題,并能夠學習掌握解決新問題的相關技能與知識的實體。(15)參見Amnon H. Eden; James H. Moor; ohnny H. S?raker; Eric Steinhart, Singularity Hypotheses A Scientific and Philosophical Assessment, Berlin: Springer, 2012,p.161.關注強人工智能對人工智能的風險規制具備警示意義:強人工智能已經給人類社會造成較深層次的擔憂,(16)參見Nick Bostrom, When Machines Outsmart Humans, 35 FUTURES 759, 763-64 (2003).原因在于人工智能的發展具備蟄伏期較長與指數級增長相結合的特點,(17)Supra note 5.其一旦結束蟄伏期而達至特定的臨界點,隨即將開啟指數級增長的階段,人類很可能面臨被強人工智能馴服的風險。因此,對人工智能規制而言,真正的問題是目前人工智能已經發展至何種階段,以及距離前述的臨界點還有多遠。法律的規制應當指引人工智能的發展,風險預防理念下的防控型規制應當成為主流的規制策略。

截至目前,人工智能的應用已經造成了一些難以應對的風險。(1)人工智能歧視。大數據與人工智能技術的結合使復雜問題的分析往往伴隨著種族主義和性別歧視等傾向。(18)參見Kate Crawford, Can an Algorithm Be Agonistic?Ten Scenes from Life in Calculated Publics, 41. TECH. & HUM. VALUES 77, 82-83 (2016).且人工智能技術使歧視往往難以察覺,如不及時克服則極易固化為數據算法的內在邏輯。例如在法律實施的人工智能程序中,黑人被誤判犯罪的概率已然高于其他人種。(19)參見Julia Angwin et al., Machine Bias: There's Software Used Across the Country to Predict Future Criminals. And It's Biased Against Blacks. PROPUBLICA (May 23, 2016),https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing歧視問題在數據算法設計之時就應當被盡量排除。(2)安全風險。自動駕駛等智能技術可以通過減少人為失誤的方式提高出行安全,但軟件缺陷等原因亦可造成新的安全風險。在及時的風險選擇時,無人駕駛技術可能面臨著道德困境。(20)以無人駕駛技術為例,該技術在面臨一個人的生命與一群人生命的兩難選擇時,很可能遭遇道德困境。此外,個人信息安全問題則在疾病診斷智能應用方面比較突出。(3)人工智能在司法裁判中的應用風險。人工智能在裁判、法律解釋中的運用可以提高司法過程的透明度與一致性,(21)參見Maria Jean J. Hall et al., Supporting Discretionary Decision-Making with Information Technology: A Case Study in the Criminal Sentencing Jurisdiction, 2 U. OTTAWA L. & TECH. J. 1, 31 (2005)但其一直遭受著自由裁量與具體案件具體分析能力不足的批判。(22)參見Paul Lippe, Daniel Martin Katz & Dan Jackson, Legal by Design: A New Paradigm for Handling Complexity in Banking Regulation and Elsewhere in Law, 93 OR. L. REV. 833, 849 (2015).在缺乏明確法律規范作為依據的場合下,法律原則及價值理念的考量需要較強的自由裁量能力。與此同時,司法裁判的做出需要推理能力和直覺判斷能力并考察判決的社會效果,這些皆不是人工智能的強項。歐盟2016年頒布的《一般數據保護條例》第22條第一款則直接創設了一種新型的數據權利,即不必遵循純粹人工智能程序做出的決定的權利,(23)參見歐盟《一般數據保護條例》(中文譯本),丁曉東譯,http://www.zhichanli.com/article/6398.html。這直接要求司法判決中必須有人力的參與。(4)非獨特性風險,以結構性失業為典型。人工智能帶來的高效率、高安全性很可能徹底改變用工狀態,(24)參見Carl Benedikt Frey & Michael A. Osborne, The Future of Employment: How Susceptible Are Jobs to Computerisation?, 114 TECH. FORECASTING & SOC. CHANGE. 254, 261 (2017).造成結構性失業,一些人力勞動將徹底被人工智能取代,由此造成的社會影響是需要認真分析的。

通過對人工智能主要特征及應用狀況的分析,人工智能風險規制的現實需求得以充分展現。風險規制必須進一步厘清人工智能風險的獨特屬性及其規制困境,才能對癥下藥,分析尋找人工智能風險規制的可行出路。

二、人工智能的風險屬性及其規制困境

基于人工智能及其研究開發的相應特征,人工智能風險呈現出如下獨特屬性。首先,私人企業在人工智能開發中的主導作用導致了信息的嚴重不對稱,多學科交叉與前沿知識的運用使相關風險在現有的認知水平下具有不可知性。其次,不同人工智能可造成不同種類的風險,相同人工智能在不同領域的應用亦可能造成不同種類或不同程度的風險。與此同時,風險具備較強的可變性,在規制真空的狀態下,低水平風險很可能在短時間內發展為較強的風險,這種多樣性與變動性對規制提出了嚴峻挑戰。再次,人工智能風險還是一種典型的系統性風險。(25)參見Ortwin Renn & Andreas Klinke, Systemic Risks: A New Challenge for Risk Management, 5 EUR. MOLECULAR BIOLOGY ORG. REP. 41, (2004).人工智能的應用被嵌入在非常復雜且相互影響的社會、金融等系統之中,系統與系統之間、系統內部諸要素之間的關聯性擴大了風險的潛在影響。系統環境越是復雜與非線性,相應風險就越容易被系統的關聯效應放大,以致影響多方面的利益相關者。最后,人工智能風險亦具備兩面性。規制失敗造成的風險應當被充分考量。企業家與技術開發者往往對規制懷有一定程度的恐懼,其認為除非技術創新對社會發展造成嚴重的損害,否則創新不應當被阻止。(26)參見Adam Thierer, Technopanics, Threat Inflation, and the Danger of an Information Technology Precautionary Principle, 14 MINN. J.L. SCI. & TECH. 309, 339, 375 (2012).此外,規制措施的采取在很大程度上受到民眾意見的影響,這種影響很可能錯誤地左右了規制機關的相應選擇。人工智能的風險屬性決定了風險規制的具體困境。

(一)規制的滯后性

人工智能風險的不可知性與多樣性使規制者的步伐滯后于技術開發與運用的腳步。風險的可變性與系統性亦導致規制者難以對風險的發展變化做出充足的預估與反應。規制的滯后性往往具備正反饋效應,一時的滯后往往對技術開發者形成進一步規避監管的不當激勵,繼而造成規制的進一步滯后。此外,規制者面向未來的監管,往往因立法的缺失或模糊而難以及時采取行動,這在一定程度上造成了規制的掣肘。

規制的滯后性是造成規制對抗的重要原因。“科林格里奇困境”揭示了這一過程:在技術發展的早期,規制者往往因信息匱乏而無法采取行動;而伴隨時間的推移,相應技術很可能根植于人類的日常生活,以至于規制者一旦采取行動即遭受來自使用者、開發者、投資者的抵抗。(27)參見Graeme Laurie, Shawn HE Harmon & Fabiana Arzuaga,Foresighting Futures: Law, New Technologies and the Challenges of Regulating for Uncertainty, 4 LAW INNOVATION & TECH. 6 (2012).人工智能技術的廣泛應用使上述困境成為規制者面臨的主要難題。以“無人駕駛”技術為例,其廣告宣傳的主要亮點都是幫助用戶克服傳統汽車帶來的風險,這使政府部門在面對新興風險時往往缺乏規制的積極性。新興產品的確對傳統產品形成了明顯的替代效應,但其很可能只在短期之內或者某一方面具有克服風險的功效。長遠或者通盤考慮,其可能造成新的風險。以目前的檢驗、檢測技術難以直接高效地分析風險內容及其發生的可能性。風險認知上的挑戰極大地增加了規制的難度,盲目進行全面禁止很可能阻礙技術創新。隨著無人駕駛技術的推廣,利益相關者特別是被規制者的俘獲或阻撓將成為新興風險難以規制的重要原因。當規制者以相對消極的方式進行信息收集時,新興產業也在采取應對措施。(28)在新興技術研發運用的初始階段,相應規制的拖延容易導致兩種類型的政治阻力。最常見的是利益集團的媾和。奧爾森在《集體行動的邏輯》中指出,規模較小但集中化的利益集團比規模大而分散的社會公眾更能對規制政策產生影響。與此同時,規制立法及其實施往往以犧牲利益集團的利益為代價,換取社會公眾的利益實現。正反兩個方面相互結合,規制成敗在很大程度上受利益集團特別是被規制企業的干擾。參見[美]曼瑟爾.奧爾森:《集體行動的邏輯》,上海人民出版社1995年版。即使未來規制主體可以為規制措施構建正當化基礎,被規制對象也很可能已經獲取了與規制者討價還價的“政治資本”。(29)在這個過程中,被規制企業可以通過收集信息、進行有利于自己的實驗甚至采取擴張雇傭規模的方式獲得抵抗規制的籌碼。此外,社會公眾對風險的認知更傾向于“體驗——情感模式”,(30)對公眾風險認知模式的總結,參見戚建剛:《風險認知模式及其行政法制意蘊》,載《法學研究》2009年第5期。其風險的判斷更多立足于感官刺激,對新興風險的認知更加缺乏理性的判斷。(31)不論是日本福島核電站放射性泄露,還是恐怖分子襲擊,有些風險是可以帶給民眾比較直接的感官刺激。不僅政府規制的積極性較高,民眾的規制呼聲也比較高漲。而對以技術創新為表現形式的“新興風險”而言,盡管風險發生的蓋然性很可能遠遠高于放射性泄露的發生概率,危害亦可能高于恐怖襲擊等風險形式,政府與民眾依舊對其不夠重視。這正反映了一種尷尬的局面——“大量的資源被消耗在微笑或者主觀猜測的風險上,而其他應當關注的風險卻未啟動相應的程序”。參見楊小敏、戚建剛:《風險最糟糕情景認知模式及行政法制之改革》,載《法律科學》2012年第2期。國外學者亦分析了這一現象,以飛機失事事件為例,可以生動形象地引起公眾生理反應的風險常常引發較強的規制訴求。See Timur Kuran & Cass R. Sunstein, Availability Cascades and Risk Regulation, 51 STAN. L. REV. 683, 706 (1999).當新興技術博取了社會公眾足夠認可時,規制很可能面臨來自社會公眾的對抗,這種對抗往往成為影響規制成敗的重要因素。

規制的滯后與規制的對抗在很大程度上形成了封閉的惡性循環。規制的滯后導致了規制對抗的出現,而規制的對抗又反過來加劇規制的滯后性。如何打破規制的惡性循環成為人工智能風險規制的主要困境之一。

(二)傳統規制的僵化與失靈

目前風險規制主要依賴事前與事后兩種模式解決問題:以準入規制為代表的事前規制模式主張,當風險因素造成對人類健康或生存環境的威脅,預防性的措施就應當被采取,即使有些因果關系尚未被充分科學地建立。以司法裁判和行政處罰為代表的事后模式則只在造成實際損害,或有切實證據證明相應行為一旦持續,將很可能造成損害結果時才能啟動相應的程序。而在人工智能的視野下,傳統規制面臨著僵化與失靈的困境。

規制者在進行人工智能產品的準入規制時,往往無法在準入與否與準入條件等方面進行準確的判斷。規制者很可能傾向于禁止新產品的商業化以回應公眾擔憂,即使沒有證據證明這種擔憂有可靠依據。準入規制上“全有或全無”的僵化做法為企業的發展造成了不確定性,很容易損害技術創新效益。桑斯坦通過總結新技術發展過程中的管制狀況指出,人們總是傾向于過分擔憂技術創新造成的損失。(32)參見Cass R. Sunstein, Beyond the Precautionary Principle, 151 U. PA. L. REV. 1003, 1009(2003).他認為規制者應當避免對尚未認定清楚的未來風險進行過度嚴苛的管制。

人工智能風險規制在很大程度上是進行取舍的過程。即使具備一定依據,嚴格的風險預防措施亦難以符合效益原則。此時,風險規制似乎陷入悖論之中:風險的不確定性已然賦予規制主體較大的自由裁量權,如果依舊進行舉證責任的倒置,則會使行政相對人處于非常不利的位置,致使規制主體更容易擺脫程序的制約,而如果舉證責任由規制機構承擔,則畸高的成本使預防原則難以發揮作用。盡管健康、安全、生態環境的重要性不言而喻,但大部分風險并非真正不可逆,以該模式對創新活動進行禁止或嚴格的限制將形成規制的路徑依賴,進行糾正的難度是相當大的。

另一方面,事后規制則面臨著失靈的困境。支持事后規制的觀點認為,賠償責任的追究可以提供充足的威懾。但風險規制的不確定性,導致事后機制的發揮遭受較大的阻力。因果關系的證明上存在較大的難度,舉證責任的倒置也只能在有限的范圍發揮作用。人工智能風險往往涉及諸多利益相關者,事后責任的分配不僅繁瑣,更存在理論上的困難。在訴訟程序上,小額集團訴訟等制度短板亦限制了事后責任追究機制的發揮。(33)即使在美國,發散性的風險侵害亦難以通過司法機制進行權益的維護。See Christopher H. Schroeder, Lost in the Translation: What Environmental Regulation Does that Tort Cannot Duplicate, 41 WASHBURN L.J. 583, 601 (2002).風險的潛伏性,不僅增加了調查取證的難度,侵害的不可預知性亦常常作為被告的辯解理由。(34)以我國《產品質量法》第29條為例,該條列舉的生產者不承擔賠償責任的具體情形中包括“將產品投入流通時的科學技術水平尚不能發現缺陷的存在的”,這樣的規定在風險規制領域很容易成為生產者推卸責任的理由。被告的償付能力亦是風險規制中需要考察的環節,被告出現財務困難以致破產的情況將導致受害人清償難以實現。即使在訴訟機制相對健全的美國,環境侵權等案件中私法責任追究機制亦只能發揮較弱的威懾作用。(35)參見Troyen A. Brennan, Environmental Torts, 46 VAND. L. REV. 1, 6 (1993).

行政處罰等規制措施在信息不足的情況下亦面臨著失靈困境。首先,大量與規制有關的信息被掌握在作為信息源的創新主體手中,市場創新主體亦有強烈的動機選擇性地披露對自己有利的信息。即使證明創新的益處遠遠超過其弊端,開發企業亦不愿意披露克服弊端的方法或其他信息,原因在于弊端的克服對于創新者而言往往意味著新的商機。其次,事后規制為被規制者留下充足的時間進行聯合對抗,規制者很容易錯失規制良機。從根本上看,處罰措施構建起的規制對壘無法為人工智能風險防控營造合適的規制氛圍。

(三)合作規制的現實困境

規制合作問題是困擾新興技術行業監管的主要問題。(36)參見Stuart Minor Benjamin & Arti K. Rai, Fixing Innovation Policy: A Structural Perspective, 77 GEO. WASH. L. REV. 1, 3-5 (2008);首先,人工智能技術開發本身具有強烈的跨學科屬性,且相同的人工智能技術很可能在不同行業進行應用,這在根本上決定了規制機構之間合作的必要性。其次,行業內部已經發展起一些行為準則或產業標準,規制機構應當兼顧行業內部的行為準則與自我規制,形成公私規制的良性互動。最后,人工智能風險規制應當更加強調問題導向性,并成立專門的委員會以處理規制機構之間、公共規制與自我規制之間、硬法與軟法之間、法律與道德之間、經濟發展與其他效益之間的矛盾問題。由此可見,合作機制成為人工智能規制必須解決的重要問題。其反映了規制“去中心化”的趨勢——沒有哪一方主體可以在人工智能風險規制中居于絕對的主動地位或中心位置。(37)參見Julia Black, Critical Reflections on Regulation, 27 AUSTL. J. LEGAL PHIL. 8 (2002).人工智能風險規制的諸多困境與規制資源的分散化決定了人工智能風險規制只能是多方主體平等參與的開發性場域。當然,合作規制的過程中亦應當防止規制俘獲。規制者和被規制者的頻繁互動大大增加了規制俘獲的可能性。相較于其他技術創新領域,人工智能領域則更加容易出現交叉任職的情況。人工智能技術知識與專家意見被人工智能企業的高級雇員掌握,這使得規制者傾向于雇傭前述人員參與規制。這種交叉任職的情況,大大增加了規制俘獲的可能性。

綜上所述,人工智能風險的獨特屬性決定了規制的多重困境。現行規制主要依托法律命令和行政制裁等手段的直接應用,政府部門被認為是合理壟斷規制資源和規制權力的規制中心,由此造成了規制的滯后與失靈,難以滿足合作規制的現實需要。尋求規制思路的變革成為走出規制困境的關鍵。

三、實驗型規制:人工智能風險規制的可行出路

在過去20年間發展形成的回應型規制理論,在很大程度上對傳統規制形成了變革與替代,其能否為人工智能風險規制提供相應的理論指導是需要探討的問題。回應型理論的出現展現了單一命令型規制向可控性和適應性更強的復合型規制體系變遷的整體趨勢,但該理論的局限性決定了其無法成為人工智能風險規制的理論基礎。

(一)回應型規制理論及其局限性

典型的回應型規制理論從法社會學與經濟學的角度倡導規制手段的譜系化,以此實現政府規制與非政府規制的合作與互動。(38)參見John Braithwaite, The Essence of Responsive Regulation, 44 U.B.C. L. REV. 475, 480-83 (2011).其遵循以下原則:(1)任何規制措施應當是針鋒相對的選擇,(2)首先考慮使用說服教育和自我監管的措施,(3)政府的強制性措施作為最后選擇,(4)規制強度應當逐步提升。(39)參見Ayers, J. Braithwaite. Responsive Regulation : Transcending the Deregulation Debate. Oxford: Oxford University Press,1992,p.6,37,38.與之對應,整體規制策略則可分為自我規制、強化型自我規制和命令強制型規制三種類型,具體規制手段也形成了由弱及強的金字塔體系。在此基礎上,“聰明監管”理念的提出使原有單面的金字塔體系演化為三面金字塔體系,第一面是政府監管,第二面是企業自我監管,第三面是第三方監管。(40)參見Dirk A. Zetzsche; Ross P. Buckley; Janos N. Barberis; Douglas W. Arner, Regulating a Revolution: From Regulatory Sandboxes to Smart Regulation, 23 Fordham J. Corp. & Fin. L. 94-98 (2017).在具體的規制任務面前,規制者不僅可以增加直接監管的強度,還可以強化企業的自我監管與第三方監管。還有學者基于回應型理論提出了雙層監管的構想,將建立有效內部監管體系的企業放入第一層級,政府部門可以減少對它們的直接規制轉而對企業內部監管體系進行補充監督;而尚未建立起嚴密監管體系的企業則被放入第二個層級,對之保持著傳統的命令型規制。(41)參見楊炳霖:《監管治理體系建設理論范式與實踐路徑研究——回應性監管理論的啟示》,載《中國行政管理》2014年第6期。由此可見,回應型規制理論旨在轉變政府自身定位,由原來的直接規制者轉變為規制體系的構建者,通過制度構建保證其他非政府組織的主體地位,并激發自我監管的意愿和能力。立足回應型理論,一些專門針對現代風險的規制理論得以提出。(42)參見Julia Black & Robert Baldwin, Really Responsive Risk-Based Regulation, 32 LAW POL'Y 181, 193, 210 (2010).如“真正風險回應型理論”主張風險規制應當對被規制企業的態度、行為、文化氛圍、機構環境、交互控制等方面作出回應,規制者應當積極探查不服從行為,并以不斷發展變化的策略和手段積極應對這些行為,在確保規制措施得以實施的前提下,評估規制措施的成效并積極進行相應的調整。(43)Id.

不可否認,這些理論在風險規制領域發揮著重要作用,但依舊無法因應人工智能風險規制的困境。

首先,人工智能風險面臨的規制信息匱乏與不對稱的程度遠遠超過以往風險,政府部門已經不再位于信息獲取與發布的中心位置。人工智能的飛速發展為規制者勾畫出急劇上升的學習曲線,這些因素都使風險規制具備很強的不可預見性,而回應型規制實際依舊以風險的可預見性為依托。(44)以往風險規制往往以相對明確的科學依據和經驗事實作為支撐,因此那些方面的風險規制相當于“預防相對確定的危害結果出現”。面粉添加劑的存廢之爭就是很好的例子,參見沈巋:《風險預防原則與食品添加劑準入裁量》,載《北京行政學院學報》2012年第6期。盡管回應型規制強調多元規制主體的廣泛參與,但這種規制的多元化實際是政府部門在一定風險分析基礎上主動對規制權力進行再次分配的結果,充足的風險分析與政府主導的多元化在人工智能領域皆難以實現。回應型規制倡導的教育、激勵等手段亦建立在信息相對充分、行業透明度較高的前提下,這與人工智能行業的發展現狀與未來趨勢頗為不符,回應型理論在很大程度上無助于解決規制滯后的困境。

其次,盡管回應型理論旨在形成立體化的規制工具體系,但其形成的規制體系依舊以政府規制為絕對中心。而人工智能風險規制在知識層面上的割裂以及相關技術的多樣性、分散性,導致該領域風險規制難以實現政府規制的絕對中心化,相應的規制應當是多方主體基于信息反饋而互相合作的結果。回應型理論難以為風險規制構建起平等合作的開放式場域。

再次,盡管在人工智能領域也可使用自我規制的概念去形容企業進行風險防控的過程,但人工智能領域的自我規制與政府主導下的雙層規制體系有很大的不同,前者是在政府規制真空的狀態下由開發者自發形成的規制,盡管這種自發性往往源自對政府規制滯后的無奈與擔憂。(45)以2014年谷歌并購深思科技為例,并購一經獲批,谷歌公司就宣布成立人工智能監管理事會以應對人工智能風險。參見Michael Guihot; Anne F. Matthew; Nicolas P. Suzor, Nudging Robots: Innovative Solutions to Regulate Artificial Intelligence, 20 Vand. J. Ent. & Tech. L. 387 (2017).這種自我規制與回應型理論下由政府設定相應規制目標的自我規制相比更加具備能動性與不可控性。若政府部門可以找尋平等合作的途徑,則可能出現規制雙贏的結果,否則很可能導致規制資源的消耗與規制對抗。在自我規制的過程中,相應的知識、信息、規則、原則亦通過自我規制的過程進行自下而上的創造,這在很大程度上消解了政府規制的權威性,(46)以發達國家人工智能的自我規制為例,在美國,谷歌、亞馬遜、微軟、蘋果以及美國人工智能發展協會通力合作,制定了一系列的人工智能發展備忘錄。無獨有偶,美國電子電器工程師協會則提出了《道德化設計:人工智能時代人機相處的信任機制》文件,以促進人工智能的自我規制。Id.at 431-433.規則制定權的分化無形中為政府規制制造了外在壓力。在這樣的背景下,雙層規制等策略當然是難以實現的。最后,回應型規制在人力物力、組織能力等方面的水平與人工智能的規制需求不相匹配,這直接限制了回應型規制的適用空間。

在此背景下,美國學界提出一些新的規制策略以應對快速發展的新興風險。例如,(1)以暫時性規制措施強化風險規制的靈活性,通過實驗性立法與落日條款的方式確定可調整的規制手段與目標,通過法律規范與規制措施的調整以適應不斷發展變化的整體環境。(47)參見Shawn HE Harmon & Fabiana Arzuaga, Foresighting Futures: Law, New Technologies and the Challenges of Regulating for Uncertainty, 4 LAW INNOVATION & TECH. 1, 3 (2012).(2)以“規制沙箱”的方式允許企業實施與檢驗新的規制思路,在這一過程中不必受已有法律規制的嚴格限制。(48)參見Luke G. Thomas, The Case for a Federal Regulatory Sandbox for Fintech Companies, 22 N.C. Banking Inst. 257 (2018).(3)積極借助信息反饋實現預期立法,以適應規制過程中的偶然性。(49)參見Wendy Wagner; William West; Thomas McGarity; Lisa Peters, Dynamic Rulemaking, 92 N.Y.U. L. Rev. 192-194 (2017).人工智能風險規制必須處理好靈活性與可預見性的關系。受上述策略的啟發,實驗型的規制策略成為人工智能風險規制思路的可行之選。

(二)作為可行出路的實驗型規制

實驗型規制通常分為四個階段。首先,規制機關應當通過其掌握的初始信息,做出“初步可規制”的決定。第二,規制主體應當考察被規制者和相關民眾的意見,以決定實驗的具體條件,實施相應的實驗。第三,必要之時,規制主體可暫停某些特定活動,以確保實驗的順利進行;依據實驗結果規制者可確定暫時性規制措施,以防止風險發生。第四,實驗過程必須被合理地限制,以確保其具備合法性。

1.“初步可規制”決定的做出。如果現有的科學證據表明存在可置信的重大風險或潛在損害,那么該風險就具備初步的可規制性。規制者很難制定出初步可規制風險的量化標準,也無法計算出相應風險出現的具體概率。因此只能依靠以下的標準對人工智能風險進行規制篩選:(1)技術具有革新甚至顛覆屬性,對傳統技術或產品有明顯的替代效應;(2)該技術以克服或減輕相關傳統產品的風險或危害為主要的宣傳依據;(3)該技術問世前相關市場中并不存在類似的產品和技術;(4)新興技術正在以較快的速度推廣,或者有可預見的較大的推廣空間。由于不同領域的風險往往由不同的部門進行規制,因此風險規制并不需要統一的部門對新興風險進行排序,不同領域的規制者可依照上述標準確定各自的規制任務,并交由人工智能委員會進行統籌安排。(50)人工智能委員會見本章第三節的論述。

初步可規制性的明確很可能遭遇疑難案件。首先,決定的做出需要克服科學實驗的局限性問題。科學本身是由無數次的失敗的結果,因此在哲學上常被人作為證偽過程的結果。(51)關于科學知識的可證偽性,參見[英]卡爾.波普爾:《開放社會及其敵人》,中國社會科學出版社1999年版。“在高度不確定性的領域,專家們無論如何調動自己的學識和經驗,作出推測、假定或者建議,也不一定能達到或者逼近絕對的真實。”(52)陳春生:《核能利用與法之規制》(增訂版),月旦出版社股份有限公司1995年版,第379頁。對目前的科學技術還難以進行監測分析的技術或人類行為,即使進行實驗亦難以開啟規制程序。科學認知水平的制約往往使初期的規制活動都難以符合成本收益分析的要求,因此對實驗周期較長、耗費資金較大、同行評議或學界共識普遍認為危害較小或不存在危害的創新活動,只能采取觀望的態度。其次,如何協調民意與專家意見之間的關系是急需解決的問題。有學者認為,民眾意見在風險規制中承擔價值目標確定的職能,而專家智識則決定了具體的規制措施和規制策略。(53)參見戚建剛:《風險規制過程合法性之證成——以公眾和專家的風險知識運用為視角》,載《法商研究》2009年第5期。但在人工智能風險領域,民意對規制目標的選定作用應當受到限制,規制主體應當在新興技術特別是具備顛覆性意義的技術創新面前保持警惕,在規制目標的選擇上不應完全順從民意而將規制資源集中在民眾關注的領域,而應更加倚重科學分析的結果。

2.實驗的具體實施。實驗實施是風險規制的核心環節,其有助于規制主體在確定規制策略前獲取充足的信息。實驗型規制在克服規制的“確認偏誤”(54)確認偏誤是指認識主體不論事實真相為何,都偏好于支持自己的成見或猜想的心理傾向。方面存在明顯的優勢。受實驗影響,規制主體更易具備開放性的視野。(55)規制過程中的確認偏誤實際與規制的路徑依賴緊密相關。以往的規制措施在很大程度上影響規制主體看待新興風險的視角與方式,容易使規制主體運用以往確定的規制路徑解決問題。特別是規制信息匱乏或較強的不確定性影響下,規制者在面對新興風險時不是選擇過分嚴格的事前管制就是放任不管。多元主體的平等參與和合作使信息獲取更加充分,規制者亦可構建起反思規制措施可行性的場域。

具體而言,實驗對象被分配至實驗組、對照組等不同的組別。當實驗規模、實驗次數達到一定要求,實驗中采取的控制措施將有效地解釋不同分組出現差異的原因,進而逐步積累有效的規制信息。在此過程中規制主體盡管沒有義務按照被規制者的風險規制方案進行相應的實驗,但實際上規制者往往有動機考察被規制者的提議。原因不僅在于人工智能風險規制對平等合作的需求,還在于一旦規制主體依照實驗結果制定了相應的具體規則,規制的失敗將面臨被規制者以訴訟的方式而發起的挑戰,在實驗過程中參考被規制者的實驗方案或者相關建議可以減少來自訴訟等方面的摩擦。此外,實驗對象的選擇實現了民眾的參與,其不僅有助于增進民眾對風險認知結果的認同和對規制措施的理解,還可以發揮民主監督的重要作用。

在實驗過程中,規制者將面臨著來自實踐和倫理上的雙重挑戰。來自實踐方面的挑戰包括:(1)實驗對象中途退出實驗,(2)實驗對象從一個組別轉換至另一組別,(3)交叉影響,即實驗對象被其他組別采取的規制措施影響。實驗主體的退出,可以通過擴大樣品數量和預先進行樣品配對的方式進行解決。所謂預先配對,是指將實驗組與控制組之中的樣品提前進行配對,若一組中實驗主體退出實驗,則與其匹配的對應組中的主體亦被跟進剔除的解決策略。而另外兩方面的問題則需通過跟蹤監控的方式進行一定程度上的克服。此外,實驗還面臨著倫理層面的批判。實驗對象的分組將直接影響不同組別主體的相應待遇,特別是長期實驗的存在,很可能使實驗對象在試驗條件下遭受的差別待遇長期存在。特別在醫學實驗中,實驗對象可能獲得較好的醫療條件或者新研制的藥物。因此,如果在醫學實驗中對比組實驗對象遭受了比較明顯的不利益,則實驗措施應當及早停止。當然,實驗的實施必須符合成本收益原則,這集中體現在實驗規模的確定上。即使實驗規模的最佳邊際值難以精準地確定,對實驗的大致規模進行科學謀劃是實施實驗的必要條件。

3.暫停權與暫時性規制措施。暫停權的行使主要服務于兩個目標:確保合理的實驗條件與防止利益集團的對抗。首先,在確保有足夠多的實驗對象參與實驗的前提下,還應按照實驗計劃對不同組別的實驗條件進行控制,以對照組為例,規制者應當暫停該組實驗對象對相應產品的接觸,否則實驗結果將受相關因素的干擾。其次,利益集團特別是被規制企業的對抗能力主要由以下兩個因素決定:資金水平和組織能力。規制主體的暫停中止權可以有效減小企業聯合對抗的可能性:其一,暫停權的行使有助于限制風險創新企業的盈利能力。這種對盈利能力的限制可能是依據實驗要求暫停相應的技術開發或產品銷售的直接結果,亦有可能是向投資者釋放風險規制的政府傾向進而導致投資熱情冷卻的間接結果。其二,對人工智能企業而言,經驗的缺失使其原本就難以形成企業之間的聯合。此時規制實驗的出現,將有效減緩被規制企業溝通與聯合的速率。

依據實驗過程的階段性成果,規制者在必要之時可以采取暫時性的規制措施。規制者可為被規制企業的技術開發、產品銷售等經營活動設置時間、空間、強度或預防措施等方面的要求,與此同時,規制者還可以限制風險產品的銷售,特別是向易受傷害的消費者群體的銷售。鑒于暫時性規制措施對被規制企業的重大影響,規制俘獲的可能性是比較大的。利益俘獲理論早已指出,在位企業有俘獲規制者以提高相關行業市場準入門檻、阻礙新興企業發展的動機,暫停權的俘獲則有助于傳統行業抵制新興技術的發展、削弱潛在的競爭。因此,實驗的實施亦要防止規制俘獲的出現。

4.合法性問題。風險規制在很大程度上對法律保留原則、比例原則形成了挑戰,(56)參見趙鵬:《風險社會的自由與安全》,載《交大法學》2011年第1期。但這并不意味著風險規制可以擺脫合法性的制約。目前來看,我國并沒有嚴格法令制定程序(57)我國規制機關的規章制定并沒有可以遵循的嚴格的規則制定程序,而在美國,規制機構從20世紀80年代開始就可以采取商談式的規則制定程序,1990年通過的《商談式法令制定法》對這種法令制定程序進行了確認。依據該法案,即使各方在規則制定中取得一致,通過商談方案制定的規則依舊要經過公告與評議程序,特別是成本收益分析程序。參見Jody Freeman & Laura I. Langbein, Regulatory Negotiation and the Legitimacy Benefit, 9 N.Y.U. ENVTL. L.J.60 (2000).,針對人工智能的實驗規制制定政府規章的可能性也比較小。替代性方案應當被提出,以滿足規制實驗合法性的需要。首先,具體規制部門可制定臨時性規則對實驗的合法性進行確認;(58)具體規制部門主要指人工智能各個領域的監管部門,如無人駕駛技術的監管應當交由交通部門負責,在制定實驗方案時,則應主要參考相應企業的意見與方案。其次,事后的司法審查機制可以為實驗型規制提供一定制約。

臨時性規則方案是指具體規制部門針對規制實驗制定臨時性具體規則的一種方案。首先,規制部門必須結合初始可規制風險的標準,論證實驗的必要性和可行性,制定具體的實驗方案。此時向誰論證,由誰應答成為風險規制需要解決的重要難題。由于民眾參與積極性以及科學知識儲備上的不足,向民眾進行論證的可行性與有效性都比較弱。因此,實驗方案的制定應當向人工智能委員會負責。實驗方案應當包括初步可規制性分析、實驗措施、實驗對象分組、實驗起止時間、預防補救措施等內容。其次,在實驗取得階段性成果后,規制部門應當制定臨時性規范文件,以確定針對某種新興風險的規制措施。該規制措施應當伴隨著規制實驗的進行不斷進行調整或補充,并向前述委員會進行定期的總結分析。最后,結合人工智能行業的自身特點,相應的行業標準、行為規范應當被充分采納進規范性文件的制定之中。伴隨著風險認知的不斷深化,待時機成熟之時,規制主體可制定正式的規范性文件為常規規制提供合法性依據,并結合新興產業的發展制定一系列有關市場準入等方面的產業發展政策。

實驗過程具備較強的不確定性,對其進行制約還要發揮司法審查的作用。以時限性為例,實驗過程中的限制性措施只能是暫時性的。脫離司法機制的制約,這些規制措施很容易對創新型企業造成持續損害。(59)規制措施的暫時性和永久性問題實際在深化改革的進程中并不罕見。《行政許可法》第15條規定了地方政府創設臨時許可的權力,但臨時性行政許可實施滿一年的,應當提請本級人民代表大會及其常務委員會制定地方性法規。而正是由于司法審查機制的不暢,導致許多地方政府創設的暫時性行政許可長期存在。盡管基于尊重規制能動性的司法克制理念,具體實驗中的技術問題一般不屬于司法審查的范疇,但實驗及相關限制性措施的起止時間、適用對象等方面應當接受司法審查。目前來看,被規制者及其他利益相關者提起行政訴訟是進行司法審查的主要途徑。

(三)人工智能委員會的設立與實驗權力的配置

權力配置問題是實驗型規制必須解決的重要問題。規制的合作性決定了規制權力必須在政府部門與人工智能開發者之間,以及中央與地方政府部門之間進行合理的配置。國外人工智能風險規制已經為我國提供了比較成熟的借鑒經驗,主管部門、人工智能大型企業、獨立科研機構與民眾代表應當協同籌建人工智能委員會,作為決定實驗權力配置等重大問題的決策機構。

一般而言,人工智能研究開發的相關信息掌握在開發者手中,實驗樣本的選擇與具體方案的確定可以由開發者作為主要的策劃者,政府部門則更多從風險的系統性及其他偶行性因素的角度進行相應的補充。而實驗的具體實施權則需要委員會權衡地方試點型與中央主導型兩種模式的利弊。規制實驗可以大致分為有關技術可行性的規制實驗與實踐反饋的規制實驗兩種類別,盡管兩種類別并不存在涇渭分明的界限。(60)以無人駕駛為例,技術可行性與實踐的反饋是緊密結合的兩個部分。盡管在技術開發初期,技術可行性主要是通過科技人員進行技術攻關的方式實現的,但隨著技術開發的深入,技術可行性的提升與實踐反饋越來越緊密結合在一起。前者一般由中央級別的規制機構與企業集團的母公司負責組織實施,原因在于地方試點型的實施模式具有以下局限性。

首先,風險規制較弱的可預見性與可控性使地方政府在進行規制時面臨不小的難度,這就產生了“搭便車”與“規制觀望”的可能性,(61)以網約車規制為例證,新生事物從產生到被賦予合法地位總要經歷漫長的“等待期”。特別是中央政策尚不明朗或新生事物具備較強群眾基礎的情形中,地方政府在進行規制時不僅面臨經驗和理論缺失的困難,更滋生“等待觀望”的心理動機。直至上海市頒發第一張經營許可證,全國各地才紛紛對網約車的監管進行初步的表態就是最好的例證。在具體監管的過程中,規制措施的選擇亦展現了較強的模仿性。繼北京上海出臺有關司機、車輛的準入限制后,昆明、青島、杭州等地市亦紛紛確立了事前管制的監管思路。參見郭傳凱:《共享經濟屬性的回歸與網約車監管思路的選擇》,載《山東大學學報(哲學社會科學版)》2018年第1期。以致風險規制的低效。被規制的企業只要在規制相對寬松的地域范圍獲得了成功經營,便可以此為“根據地”向其他領域進行擴張發展,進而形成更強的規制對抗。其次,民眾對風險規制的認知很可能被感性認識裹挾。在類似霧霾治理等可察覺性風險上,民眾的訴求常常使政府花費大量風險規制資源,而對人工智能風險則視而不見。在缺乏中央政府強有力的督促、引導之時,地方層面很可能形成規制的真空狀態。第三,規制競次(62)規制的競次是美國學界從20世紀90年代就開始著力研究的問題。參見Richard L. Revesz, Rehabilitating Interstate Competition: Rethinking the "Race-to-the-Bottom" Rationale for Federal Environmental Regulation, 67 N.Y.U. L. REV. 1210 (1992).是不得不考察的因素。地方政府享有相應的規則制定權,這使得規制主體享有較大的自由裁量權。自由裁量使準入監管、標準設置、行政處罰等規制措施具備了較強的靈活性與機動性,這就為創新型企業尋找合適的、規制寬松的經營研發地域留下了空間。招商引資、納稅金額、社會關注度、民眾需求、就業機會等因素亦能誘使地方規制主體制定寬松的規制政策。對風險規制而言,這些都是需要提防的潛在因素。第四,地方主體規制相比中央政府規制更容易遭受被規制的俘獲,也更容易在上級黨政機關的“高壓”之下以對待相關傳統技術或產品的規制路徑管制新興技術的發展,從而造成規制路徑上的嚴重依賴。最后亦是最重要的原因,地方試點模式往往在人力物力、專家知識、組織能力等方面不及中央主導型模式,不利于規制實驗的實施。

中央主導型模式在科研實力和數據分析等方面的優勢,使其在規制信息的獲取方面有著地方規制主體不具備的優勢。此外,中央規制主體具備地方主體不具備的權威性,這對抵御被規制者的聯合對抗有重要意義。中央層面的規制措施亦具備較高的公信力,這有利于爭取民眾對規制的支持和理解。但中央主導型模式在實踐反饋性實驗的實施方面亦具有一定劣勢。以司法大數據與人工智能技術為例,對該技術進行實踐反饋實驗則不宜在中央層面進行。原因不僅在于中央一級的司法案件遠離地方基層多樣實踐,更在于中央一級的司法案件往往需要更加審慎的考量,將之作為人工智能的實驗對象于理不合。此時地方型實驗可以進行富有地方特色的試點,中央政府可選擇最有效的、最符合成本收益原則的規制措施在全國適度推廣。盡管中央政府亦有能力進行多種規制措施的嘗試,但地方性實踐更有可能進行高效的知識積累。原因在于不同的地方規制主體有不同的思維方式和實踐土壤,有利于獲得了更加契合地方實踐的知識來源。此外,以地方試點的方式進行反饋性實驗還可以避免中央級別的系統性或大規模風險。綜上所述,有關技術可行性的規制實驗應當盡量在中央層面進行實施,而實踐反饋實驗則應當在地方政府與企業集團分公司或子公司的層面進行開展。

結語

實驗型規制的本質是政府與人工智能開發者攜手構建開放性場域的過程。從初步可規制決定的做出開始,規制機關就與人工智能開發者共同決定了人工智能的風險等級與規制次序。人工智能委員會的設立形成了雙層協作式的規制結構,確保了平等合作的規制方式貫穿實驗型規制的始終,多學科知識和各方面信息在這一過程中得以融合,從而形成漸進性的規制:規制主體依據一定的初始信息采取一定的實驗措施,并以前述措施獲取更多的規制信息,再以獲得的信息為基礎采取更有效的規制措施,以此良性循環,實現信息與規制之間的互動與“攀援”,從而有效地化解了規制滯后的難題。

規制過程中暫時性規制措施的采取有利于提升規制的靈活性。特別對系列實驗而言,不同技術發展階段的不同狀況導致不同的實驗結果,采取的暫時性規制措施亦各不相同,規制者可以及時調整規制目標以適應不斷變化的規制環境。此外,及時依據實驗狀況調整相應的規制措施可以有效避免相應規制對技術創新的阻礙作用。實驗模式形成的開放式場域有利于發揮民主意見的作用,在最大限度上克服確認偏誤導致的對傳統規制模式依賴的同時,盡可能通過民眾參與和被規制者意見的咨詢化解規制對抗的難題。專家學者、實驗人員、被規制企業、社會公眾等積極參與,不僅擴充了知識來源的渠道,更能通過商談的方式進行臨時性規則的制定,為實驗的實施提供合法性來源。

通過規制實驗,政府部門可以潛移默化地影響人工智能研發與運用的整體環境,并將相應的政策精神內化為企業行動,實現規制與調控的結合。這一過程往往節約了規制成本,并使風險預防原則得以最大化的實現,避免了實際損害的發生和錯誤的規制路徑形成。實驗型規制的漸進性與開放性不僅有助于資源設備的改良完善,更有助于科學知識的積累與風險認知的遞進化。這一過程不僅具備風險防控的面向,亦同時具有促進技術發展和便捷人類生存的面向,這與以往任何風險規制形成了重要區別。因此,作為人工智能風險規制可行出路的實驗型規制不僅可以回應人工智能風險規制的多重困境,亦能最大限度地實現新興技術的自由發展與人類社會的繁榮進步。

猜你喜歡
人工智能實驗
記一次有趣的實驗
我校新增“人工智能”本科專業
微型實驗里看“燃燒”
做個怪怪長實驗
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 04:56:22
NO與NO2相互轉化實驗的改進
主站蜘蛛池模板: 久久91精品牛牛| 国产欧美日韩一区二区视频在线| 毛片久久网站小视频| aa级毛片毛片免费观看久| 波多野衣结在线精品二区| 精品三级网站| 欧洲极品无码一区二区三区| 日本高清视频在线www色| 精品国产毛片| 精品国产成人三级在线观看| 国产丝袜第一页| 色综合手机在线| 黄色免费在线网址| 亚洲一区二区视频在线观看| 一本大道无码高清| 中文字幕伦视频| 久久久黄色片| 日本尹人综合香蕉在线观看 | www.youjizz.com久久| 国产va在线观看免费| 国产一区二区网站| 久久精品欧美一区二区| 亚洲首页在线观看| 中文字幕日韩欧美| 91国内在线观看| 久久不卡国产精品无码| 亚洲欧美一区二区三区图片| 91视频区| 国产毛片高清一级国语| 亚洲精品成人片在线观看| 日本欧美在线观看| 色窝窝免费一区二区三区| 国产va欧美va在线观看| 亚洲大学生视频在线播放| 一级毛片高清| 动漫精品中文字幕无码| 99国产精品一区二区| 久久天天躁夜夜躁狠狠| 伊人久久大香线蕉aⅴ色| 亚洲床戏一区| 亚洲有码在线播放| 美女被狂躁www在线观看| 欧洲极品无码一区二区三区| 天堂网亚洲综合在线| 福利在线一区| 国产成人福利在线| 91麻豆久久久| 天天色天天综合| www.狠狠| 伊人久久大线影院首页| 精品伊人久久久大香线蕉欧美| 麻豆精品在线| 天堂在线亚洲| 9丨情侣偷在线精品国产| 午夜视频在线观看免费网站| 日韩视频免费| 波多野结衣第一页| 久久一日本道色综合久久| 在线观看视频99| 国产精品视频久| AV无码无在线观看免费| 91丝袜乱伦| 欧美精品导航| 免费毛片网站在线观看| 色九九视频| 欧美久久网| 美女视频黄频a免费高清不卡| a级毛片网| 伦精品一区二区三区视频| 免费人成在线观看成人片| 欧美三级视频在线播放| 欧美特级AAAAAA视频免费观看| 一区二区三区高清视频国产女人| 欧美97色| 日韩在线视频网| 华人在线亚洲欧美精品| 欧美色99| 亚洲精品黄| 亚洲永久色| 狂欢视频在线观看不卡| 久久伊人色| www.91中文字幕|