摘 要:人工智能已成為當前國際技術與規則競爭的關鍵領域,歐盟搶先發布了全球第一部人工智能法案——《人工智能法》,該法案特設專章規定了監管沙盒制度。作為一項創新監管的有效工具,監管沙盒已經在英國、法國等國家率先開展了人工智能監管沙盒實踐。為了深入理解這一制度,有必要對其優勢和局限性進行分析,發現該制度可以有效平衡監管與創新、促進規制學習和扶持中小型企業發展,但仍存在數據處理的規定不夠完善以及沙盒監管引導措施有待加強等問題。目前我國對監管沙盒的理論和實踐仍處在探索階段,通過借鑒歐盟經驗,提出加強個人數據保護、開展人工智能監管沙盒試點、創設靈活監管環境和構建完善的監管沙盒運行機制等建議,為推動構建中國特色人工智能監管沙盒提供參考。
關鍵詞:人工智能;監管沙盒;《人工智能法》
中圖分類號:D99
文獻標識碼:A
DOI:10.3969/j.issn.1672-2272.202411021
英文標題
The Regulatory Sandbox System of the EU Artificial Intelligence Act and Its Implications
Zhou Qiao
(Law School, Hunan Normal University, Changsha 410081, China)
英文摘要Abstract:Artificial intelligence has become a key area of international technology and rules competition, the European Union has preemptively issued the world’s first artificial intelligence law, the Artificial Intelligence Law, which has a special chapter on the regulatory sandbox system. As an effective tool for innovative regulation, the Regulatory Sandbox has taken the lead in implementing AI regulatory sandbox practices in the United Kingdom, France and other countries. In order to understand this system in depth, it is necessary to analyze its advantages and limitations, which can effectively balance regulation and innovation, promote regulatory learning and support the development of small and medium-sized enterprises, but there are still problems such as insufficient regulations on data processing and sandbox regulatory guidance measures need to be strengthened. At present, the theory and practice of China’s regulatory sandbox are still in the exploratory stage, and by learning from the experience of the European Union, we will promote the construction of an artificial intelligence regulatory sandbox with Chinese characteristics by strengthening personal data protection, carrying out AI regulatory sandbox pilots, creating a flexible regulatory environment, and building a sound regulatory sandbox operation mechanism.
英文關鍵詞Key Words:Artificial Intelligence; Regulatory Sandbox; Artificial Intelligence Act
0 引言
隨著數字技術的更新與迭代,人工智能在更多元的場景中得到運用,但傳統的治理模式和理念顯然不能適應日新月異的人工智能發展。在這場有關人工智能法律規制的爭論中,歐盟立法者在推動人工智能監管法規的出臺方面始終扮演著全球領路人的角色。2024年5月21日,歐盟理事會正式批準通過《人工智能法》(Artificial Intelligence Act)[1]。該法成為全球首部專門監管人工智能的綜合性立法文件。值得一提的是,《人工智能法》在其第六章開創性地引入了新的人工智能監管工具——監管沙盒(Regulatory Sandbox),該章節專門詳細闡述了這一制度,旨在避免因過度監管抑制人工智能技術的創新,并減少法律對產業發展可能產生的負面影響。這一舉措標志著歐盟在人工智能監管方面從被動監管向預期監管的重要轉變,不僅在全球范圍內率先將監管沙盒制度納入人工智能法律監管框架,還將產生重要的監管示范效應。
1 歐盟《人工智能法》監管沙盒制度設計
“沙盒”(Sandbox,又譯為沙箱)原本為計算機專業術語,用于為運行中的程序提供隔離環境。沙盒能夠為來源、意圖不明或可能具有破壞性的程序提供隔離的測試環境,確保程序得以在測試環境中運行,而不會對計算機系統造成實際損害。后來管制部門將其運用于新興技術的監管測試中,因而稱之為“監管沙盒”。監管沙盒制度最早源于金融科技領域。2015年3月,英國金融行為監管局(Financial Conduct Authority,FCA)首次在法律上提出“監管沙盒”概念。2016年,英國在金融科技領域的實踐中啟動了“監管沙盒”計劃。FCA被認為創造了第一個正式的監管沙盒,并在全球范圍內傳播這一概念。監管沙盒制度在英國首次提出后就風靡世界,據統計2017年有16個監管沙盒在運行[2],而到2020年,就記錄了73個與金融科技相關的監管沙盒。
1.1 專章規定人工智能監管沙盒制度
歐盟委員會旨在通過引入監管法律沙盒,為人工智能開發者提供“喘息空間”,以防止創新受到限制,并進一步推動在歐洲建立一個繁榮的人工智能生態系統?!度斯ぶ悄芊ā芬蟾鞒蓡T國為人工智能監管沙盒提供一個可控的環境,為人工智能創新提供基礎條件,使人工智能系統在投放市場或提供服務之前,能根據研發者和監管機構商定的具體沙盒計劃,在有限的時間內進行開發、培訓、測試和驗證。沙盒的可控性讓創新過程更有序,研發者在沙盒監督下,運用仿真的市場環境進行技術測試,有助于創新成果順利落地。
《人工智能法》第六章詳細闡述了監管沙盒規劃。第六章包括第57條至第63條,這7條的重點是通過建立和運行人工智能監管沙盒來支持創新。第57條要求成員國在《人工智能法》生效后24個月內建立人工智能監管沙盒,旨在促進人工智能系統的開發、測試和驗證,并為識別風險和確保合規性提供指導和支持。第58條授權委員會通過詳細規定人工智能監管沙盒的運作模式,以確保沙盒能夠成功建立和正常運行,避免成員國在實施監管沙盒時出現不一致的情況。第59條對“個人數據處理”進行了規定,允許在人工智能監管沙盒中處理個人數據,以便開發特定人工智能系統,服務于公共利益。第60條主要規定了在人工智能監管沙盒之外的真實環境中測試高風險人工智能系統的相關要求,只有在符合特定條件并獲得市場監管機構的批準后,才能進行此類測試。第61條規定,在人工智能監管沙盒之外的真實世界條件下開展測試時,主管機關應在測試對象參加測試前獲得其自由知情同意,確保受試者了解測試的性質、目的和條件等方面的內容。第62條規定了支持中小企業和初創企業的措施,包括優先使用沙盒、提高認識活動和按比例收取合格評定費用等。第63條規定了對特定運營者的豁免情況及相關要求,在確保高風險人工智能系統的保護和合規性不受影響的情況下,考慮到微型企業的具體需求,簡化某些質量管理體系要素。
1.2 《人工智能法》設立監管沙盒的目標
根據《人工智能法》[1]的文本和解釋性備忘錄,人工智能監管沙盒致力于實現以下目標:
第一,提高法律確定性。立法者可以通過設立監管沙盒鼓勵監管機構保持監管靈活性。同時,利用其現有的自由裁量權,為創新者提供最大程度的法律確定性,即提供一個清晰的法律框架,使人工智能系統的創新者能夠明確了解如何在確保遵守歐盟《人工智能法》或其他適用于歐盟和成員國立法的監管法規的前提下開發和部署其技術。同時,監管機構通過沙盒能夠更好地了解人工智能的影響,更清楚地識別潛在風險,并據此采取相應的預防和控制措施。
第二,促進人工智能創新。在人工智能產品開發和上市前的階段,建立一個受控的實驗和測試環境確保合規性至關重要,這不僅有助于促進人工智能創新,還能增強歐盟在全球人工智能領域的競爭力,并推動人工智能生態系統的持續發展。此舉的一個主要優勢在于,對新技術進行測試時,無需滿足通常適用的所有監管要求。這對于難以適配現有法律框架的創新而言尤為重要,能有效解決創新過程中遇到的問題。
第三,通過消除障礙加速人工智能系統的市場準入。監管沙盒提供了一個簡化的流程,幫助研發者更快地將人工智能產品和服務推向市場,這可以縮短創新進入市場的時間,并在市場中產生更廣泛的溢出效應,從而促進企業的增長和擴張。從《人工智能法》的文本來看,立法者所指的障礙可能是實際障礙,例如研發者可能因缺乏相關技術和法律知識,而無法準確遵循法案要求。
此外,還包括一些可能與人工智能監管沙盒相關的可選擇的、附加的目標:如創建有利于可信人工智能發展的學習環境;增加“循證監管學習”為未來的人工智能治理和監管提供信息;促進經濟發展等等。
2 國內外人工智能監管沙盒實踐
2.1 歐洲國家人工智能監管沙盒試點
“監管沙盒”作為一種有潛力的監管模式,已在歐洲國家迅速推廣,西班牙、法國、挪威、英國等國家先后開始了人工智能監管沙盒項目的試點探索。目前,這些國家的創新治理舉措逐漸展現出一定的國際影響力,并積累了一定的實踐經驗。
第一,西班牙。在歐盟成員國中,西班牙在創建人工智能監管沙盒方面所做出的努力值得特別提及,其在2022年6月成為第一個宣布創建人工智能沙盒的歐盟國家[3]。2023年8月,西班牙政府根據擬議《人工智能法》成立了西班牙人工智能監管機構(AESIA),成為歐盟成員國中首個成立人工智能監管機構的國家[4]。2023 年11月,作為歐盟理事會輪值主席國的西班牙,頒布了第817/2023皇家法令,為其人工智能沙盒提供了法律依據,為公共部門和私營企業提供了測試人工智能產品和服務的空間[5]。
第二,法國。法國數據保護監管機構國家信息與自由委員會(National Commission on Informatics and Liberty, CNIL)已成為歐洲人工智能沙盒監管領域的重要參與者。教育行業是法國沙盒試點的重點領域。從2021年開始,該機構每年圍繞一個主題征集創新項目,并以“沙盒”方式提供法律和技術問題的支持。前三期的主題分別是健康數據、數字教育工具、改善公共服務的人工智能,前兩期主題也均有人工智能項目入選[6]。
第三,挪威。挪威數據保護局(Data Protection Authority,DPA)在2016年為自動駕駛汽車創建了一個以人工智能為重點的沙盒,提供了與人工智能產品和服務相關的數據保護要求以及隱私影響的監管建議。2023年5月,挪威數據保護局發布了公共交通公司Ruter的人工智能監管沙盒項目最終建議方案。Ruter計劃在其運營的應用中加入個性化出行推薦方式的人工智能算法,并對監管沙盒中潛在的風險進行評估,特別是在個人數據保護領域方面。
第四,英國。2024年5月,英國藥品與保健產品管理局(Medicines and Healthcare Products Regulatory Agency,MHRA)推出“AI-Airlock”項目,這是一個針對醫療器械人工智能(AIaMD)的新監管沙盒[7]。該項目旨在識別AIaMD面臨的監管挑戰,協同監管機構、醫院等多方相關者合作,以了解和盡可能降低未被發現的風險。MHRA計劃開放4~6份申請作為應用試點,測試其在醫療服務中直接臨床應用時可能產生的一系列監管問題,進而根據具體需求對AIaMD進行設置和定制,以靈活應對潛在問題,最終提升患者的體驗。
2.2 中國運用監管沙盒制度的實踐
在監管沙盒構建方面,我國緊隨國際趨勢,于2019年啟動了金融科技創新領域的監管沙盒試點工作,以應對金融科技創新發展所帶來的監管需求。在人工智能領域,2024年3月,為保障數據企業和人工智能大模型企業能夠在北京人工智能數據訓練基地進行安全、高效的合作,北京國際數字經濟治理研究院承接了北京人工智能數據訓練基地監管沙盒機制的建立工作,協同相關各主管機構進行溝通調研,并最終形成了“北京人工智能訓練基地監管沙盒運行規則”。這是全國首例人工智能領域監管沙盒,開創國內人工智能產業創新機制先河[8]。同時,中國香港、臺灣地區也已經引入“監管沙盒”制度,正處于深入探索階段,為沙盒實施機制積累了寶貴經驗。2024年8月,香港金融管理局與香港數碼港管理有限公司在第二屆FiNETech活動上,宣布推出新的生成式人工智能(Gen A.I.)沙盒。
此外,我國在智能汽車領域已經出臺了相應的監管沙盒政策。2021年11月交通運輸部發布了《關于組織開展自動駕駛和智能航運先導應用試點的通知》,2022年2月由國家市場監督管理總局等五部門聯合發布的《關于試行汽車安全沙盒監管制度的通告》[9],標志著我國正式將監管沙盒制度引入汽車產業發展中。智能網聯汽車作為人工智能和大數據在汽車產業中的融合應用代表,自然涉及了人工智能監管沙盒的相關內容,可以說汽車道路測試與示范應用就是一種“沙盒”模式。深圳市也結合地方產業實際,發布了《深圳經濟特區智能網聯汽車管理條例》和《深圳市智能網聯汽車道路測試與示范應用管理實施細則》,進一步細化了與智能網聯汽車相關的人工智能監管沙盒內容[10]。這充分體現了我國從中央到地方,各級政府通過不斷完善立法文件來規范監管沙盒制度,推動以人工智能為代表的先進技術創新的發展思路。
3 歐盟《人工智能法》監管沙盒制度的優勢與局限性
在《人工智能法》中,歐盟立法者對監管沙盒制度進行了明確規定,旨在實現人工智能立法與技術創新之間的協調,優化監管策略??梢钥闯觯c傳統的監管和治理方式相比,監管沙盒提供了許多機會,具有很多優勢,但也不可避免會帶來新的挑戰。
3.1 人工智能監管沙盒制度的優勢
3.1.1 平衡監管與創新
歐盟《人工智能法》面臨的關鍵問題在于如何在推動創新、收獲人工智能效益、控制人工智能風險和有效保護權利之間實現平衡[11]。監管沙盒的引入可被視為在“監管與創新”平衡過程中的一次飛躍。一方面,采取監管沙盒本身就體現了監管者促進和激勵創新的意愿[12];另一方面,企業得以在沙盒內測試新技術,通過自我評估獲悉實施風險,這既尊重了企業的創新訴求,又能夠避免法案的直接干預[13]。作為一種創新友好型、面向未來且具有彈性的監管工具,監管沙盒為人工智能技術創新提供了在監管機構動態監督下進行微觀層面測試的空間,以滿足數字時代監管的開放性要求和日益增長的市場需求。
監管沙盒為人工智能系統進入市場之前建立了一道緩沖區,這道緩沖區既模擬了真實的市場環境,使得監管者能對人工智能系統的全貌進行了解,又能在風險發生之時及時止損,或在風險無法有效緩解時終止參與沙盒測試。歐盟境內的技術創新者也能借助沙盒,在受控環境中利用真實的市場數據測試開發人工智能產品和服務,這有助于在將新技術推向市場時,盡量消除產品安全缺陷,減輕法律風險[14]。可以說沙盒機制支撐著創新創業的“萌芽”階段,并為創新者提供了庇護,使他們能夠在不穩定的監管領域中打破僵局。
3.1.2 促進規制學習
“監管沙盒”的一個重要變革是從單向的權力投射轉變到多元主體的權利平衡[15]。在監管沙盒運行過程中,創新者和監管機構之間的直接溝通有效地改善了市場基礎設施中的信息不對稱問題,降低了人工智能技術應用的復雜性,并為整個人工智能產業創造了一個學習型的監管環境。
具體而言,監管沙盒具有雙重作用:一方面,支持監管學習。沙盒的一個補充目標是使監管機構更深入地學習和理解產品或服務。通過全流程監測人工智能技術在沙盒中的運行情況,可能有助于監管沙盒形成一種新的商業和監管學習方式,提升監管機構對新技術知識的理解,從而全面了解人工智能應用帶來的風險和影響,預測市場發展新趨勢。另一方面,促進商業學習。創新者能夠與監管人員就技術和法律問題進行交流,共同協作開發值得社會公眾信賴的人工智能產品或服務。監管機構需要借助創新者了解創新,創新者需要監管機構的支持和有效監管,以更好地促進創新[16]。因此,監管沙盒有助于監管機構與創新者之間建立良性互動,共同探索并建立一種良好有效的溝通方式和合作機制,雙方互相收集交流信息,共同營造一個與真實世界相仿的技術運行環境。
3.1.3 對中小企業的監管扶持
中小企業和初創企業在這個以技術和創新為導向的社會中發揮著至關重要的作用,人工智能的監管程度對于中小企業在其創新生命周期中是否會遇到障礙具有決定性影響。為了鼓勵中小企業發展、促進和培育歐盟內的人工智能創新,歐盟《人工智能法》特地放寬了中小企業進入沙盒的條件、減免中小企業參與測試評估的費用等,在諸多方面對中小型企業和初創企業設置了優惠和豁免措施,包括技術部署前的服務、接觸其他數字單一市場倡議的機會和標準化文件、認證與咨詢等增值服務。
考慮到中小企業的特殊需求,監管沙盒提供了簡化后的監管流程和合規指南,使人工智能技術研發流程免于傳統監管框架的束縛,為現有法律框架下的技術創新留出空間。例如,《人工智能法》規定主管機構設置的申請、選拔流程應當便于中小企業參與,包括初創企業在內的中小企業可免費進入人工智能監管沙盒,但不影響國家主管機關按要求征收特殊費用[1]。同時規定各成員國在確定合格性評估費用時,應特別考慮到中小企業和初創企業的具體利益和需求,并根據企業的規模、市場大小和其他相關指標按比例降低這些費用[1]。從防止壟斷和促進人工智能技術創新的角度出發,以上費用減免措施減輕了中小企業和初創企業的財務負擔,使其能夠更容易地參與到人工智能監管沙盒中,同時滿足監管要求。因此,不難看出,歐盟《人工智能法》很大程度上顧及了中小企業在市場中的弱勢地位。
3.2 人工智能監管沙盒制度的局限性
雖然監管沙盒在管理新興技術、促進企業創新方面展現了顯著的優勢,但其并不是“靈丹妙藥”。必須在實踐中不斷探索和前進,了解其缺點和劣勢也有助于監管機構制定更有力的政策。
3.2.1 數據處理的相關規定不夠完善
歐盟對數據收集和人工智能系統進行全面監管的計劃,標志著其在推動人工智能發展的正確方向上邁出了重要一步[17]。人工智能和數據是不可分割的概念,人工智能系統的創新需要數據作為強大的基礎支撐。因此,數據安全風險也是人工智能所面臨的巨大挑戰。歐盟《人工智能法》第五十九條對“個人數據處理”進行了規定,只有在面臨公共安全和公共衛生、環境保護、能源的可持續性、關鍵基礎設施、公共行政和公共服務等重大公共利益時,并且數據是合法收集的前提下,才能對個人數據實施處理。但同時也允許在受控環境中使用個人數據用于人工智能系統的開發、培訓和測試。這些條件確保了個人數據處理的合法性、正當性和特定目的性,但同時也賦予了創新者一定的自由裁量權,可能會增加個人數據保護的風險。即使能夠明確“公共利益”的具體含義,但在監管沙盒中處理個人數據是否能在基于同意之外的合法性基礎進行,即除了個人的明確同意之外是否還會有其他合法的理由來支持這種數據處理行為,也是各方在談判中的爭議焦點。
監管沙盒的設計旨在平衡技術創新與個人數據保護之間的關系,鼓勵創新者在確保合規的前提下,探索和開發新的人工智能應用。同時,監管沙盒也為監管機構提供了一個平臺,以便更深入地理解和評估人工智能技術可能帶來的風險和挑戰。當監管機構優先考慮創新而忽視公眾權益保障措施時,將引發諸多風險,公眾可能遭受隱私泄露、算法歧視等問題,導致個人信息被濫用。這種創新與數據保護之間平衡的實現,需要監管機構、創新者和數據保護機構等主體之間的密切合作與協調,確保監管沙盒在促進技術創新的同時,充分保障個人數據的安全和隱私權利。
3.2.2 沙盒監管引導措施有待加強
歐盟試圖通過監管沙盒制度打造出一個安全可靠的空間,在這個特定的空間里,人工智能研發者能夠通過積極參與沙盒測試,促進人工智能技術的創新,并對風險進行有效管控。然而,一個關鍵的問題擺在面前,那就是如何確保研發者自愿參與監管沙盒測試。很明顯,其在很大程度上取決于沙盒測試的監管嚴格程度以及參與者通過參與沙盒測試所能獲得的利益。倘若不具備足夠的吸引力,人工智能研發者參與測試的積極性可能會受到影響。
反之,如果沙盒的準入標準界定過于松散,那么就可能會招致一些“不嚴肅”的初創公司,進而扭曲人工智能產業原本公平的競爭環境,再加上監管機構和研發者在獲取前沿技術信息的能力方面存在著顯著差異,極有可能誘發某些企業的監管套利行為。這些企業可能會利用監管沙盒提供的特殊監管環境,故意規避監管要求,最終破壞歐盟人工智能產業的發展秩序。例如,某些企業借助監管沙盒提供的技術創新測試空間,不合理地享受優惠待遇,從而獲得不正當的競爭優勢。這種行為不僅浪費了沙盒項目的時間與資源,而且與沙盒設立的初衷背道而馳。
4 歐盟《人工智能法》監管沙盒制度對中國的啟示
歐盟《人工智能法》開創了人工智能領域法律規制之先河,以法律形式將監管沙盒應用于人工智能治理,這對我國人工智能監管沙盒制度建設具有重要的啟示意義。
4.1 加強對個人數據的保護
歐盟提出的《人工智能法》《通用數據保護條例》和我國發布的《中華人民共和國個人信息保護法》《中華人民共和國數據安全法》《生成式人工智能服務管理暫行辦法》等法律規范均明確規定對個人信息和數據的處理必須遵循專門的保護法規要求。2024年7月26日,公安部、國家網信辦等研究起草了《國家網絡身份認證公共服務管理辦法(征求意見稿)》,并向社會公開征求意見,該《辦法》主要強調了數據安全和個人信息保護義務,并規定了相應的法律責任。在我國現行的法律框架下,研發者在處理個人數據前需獲得信息主體的同意,除非是在法律允許的特定情況下,例如履行合同義務、法定職責或應對突發公共衛生事件等。但研發者在處理涉及個人信息的訓練數據時確實可能面臨一些挑戰,實踐中往往難以合法地廣泛獲取大量個人信息主體的同意。為了避免個人信息的濫用或泄露,采用匿名化處理個人信息作為解決方案是值得研發者考慮的。
參照歐盟法律的規定,首先,在數據收集階段,研發者應盡量以個人同意為前提;其次,存儲數據階段應注意到個人隱私的泄露問題;再次,沙盒測試階段應確保數據處理活動不能對個人的生活和工作產生直接的負面影響,也不能影響數據主體在各國個人數據保護法中規定的權利;最后,數據不能在沙盒外共享,在退出沙盒階段以及數據處理結束后,應注意刪除個人數據。
4.2 開展人工智能監管沙盒試點
試點并非對鮮為人知的新技術進行細致入微的測試,而是為成熟的市場提供一種將新技術整合到其現有業務活動中的手段[18]。借鑒歐盟的經驗,中國可以開展人工智能監管沙盒試點工作,促進人工智能技術的規范發展和創新。從實踐層面來看,“監管沙盒”的思維在我國早有體現。改革開放以來,我國設置經濟特區進行政策試點,探索中國特色社會主義發展道路[19]。被稱為中國版“監管沙盒”的金融科技創新監管試點已在多地展開,并取得了階段性成效,為金融科技創新監管積累了寶貴經驗[20]。因此,人工智能監管沙盒應采用我國踐行已久的試點策略,避免“一管就死”的情況發生,待時機成熟時再將驗證有效的監管方案進行推廣使用。
通過借鑒我國在金融科技監管沙盒和汽車安全監管沙盒等領域的創新實踐,監管部門可以探索人工智能產品與服務監管的試點機制。首先,監管機構應制定明確的監管沙盒試點規劃和方案。其次,可以實行人工智能監管沙盒試點資格申請制,試點研發者應在人工智能監管部門的指導下執行試點方案,并與監管機構定期開展技術交流和治理經驗共享。最后,監管機構在試點過程中應根據實際情況及時調整監管措施,為后續試點提供參考。與此同時,考慮到初創企業、小微企業等市場主體難以獲得專用設施、缺乏財力人力,可以適當減輕或豁免其進入試點的條件[21]。
4.3 創設靈活監管環境
縱觀我國相關立法,無論是在前端的許可程序,還是在后端的退出沙盒激勵措施,抑或在終端的嚴格責任制度中,幾乎看不到相對寬松的規定。這種審慎的立法態度可能與決策中的監管慣性和風險規避傾向有關。監管機關的主要關注點仍然是“維持秩序穩定”和“確保市場的穩健發展”,構建的是一種追求穩定性的監管模式。在缺少明確的立法激勵機制的前提下,人工智能研發者的市場參與度可能無法達到監管沙盒立法所預期的效果。
為了刺激人工智能技術的創新和發展,監管沙盒的設計應注重保持監管的靈活性,這對于提升人工智能研發者參與沙盒的積極性至關重要。在監管方式上,監管者要打破傳統的剛性管控、科層式監管、靜態監管的束縛,轉而運用柔性管控、實驗性監管、動態監管應對人工智能所帶來的新業態和新發展。在監管態度上,監管者應采取開放和包容的態度對待新興技術,為人工智能的創新和發展提供必要的試錯空間。監管機構可以給予沙盒參與者一定的責任豁免期,當研發者在沙盒環境中測試新技術和商業模式時,能夠享有一定程度的監管寬容,不必擔心因違反現行監管規定而受到處罰。這樣的措施不僅減輕了企業的合規壓力,還為他們開辟了新的成長機會,從而推動整個行業的健康發展。
4.4 構建完善的監管沙盒運行機制
人工智能監管沙盒的運行程序是監管沙盒制度真正落地的關鍵。目前我國監管沙盒機制的設計尚未形成統一且具備可操作的標準和程序,這在一定程度上制約了人工智能監管沙盒的治理效能。因此,立法應就人工智能監管沙盒的設立、開發和運行來確定基本要求,形成透明公開的入盒標準、合格標準、規范化的測試流程和清晰的退出機制,以確保人工智能研發者能在一個相對可控的環境內進行試驗性開發、測試和驗證。
首先,監管沙盒的準入應當將創新性作為核心評價標準。沙盒的建立和運作需要高昂的成本,因此設置嚴格的準入門檻可以讓沙盒與目標群體完美契合,嚴格的準入門檻并不會使監管沙盒成為空中樓閣,相反,對創新性高標準的判斷是促進創新型人工智能系統的安全開發、測試和驗證的本質要求。其次,運行管理階段的關鍵在于保障測試參與者能夠有序、規范地進行測試。監管機構應給予企業較大的自我管理空間,否則會使得模擬環境偏離真實市場,進而影響到測試結果的可靠性。最后,退出機制是整個監管沙盒運行機制的關鍵環節,為測試人員退出監管沙盒建立標準,不僅可以防止參與者持續占用沙盒測試空間,還可以鼓勵那些通過測試的人工智能技術得到商業化發展[22]。同時,通過分析測試結果有針對性地進行改進,推動人工智能技術健康發展。
5 結論與展望
人工智能已成為地緣政治、商業利益和安全問題十字路口的一個具有戰略重要性的領域。歐盟理事會批準通過的《人工智能法》,填補了世界人工智能治理體系中法律規范的缺失,這無疑是一個里程碑式的事件。為了緩解新的監管措施所帶來的壓力,監管沙盒制度應運而生,其有望成為平衡規范性與創新性的重要工具。但值得注意的是,監管沙盒制度并不能解決創新過程中出現的所有問題,甚至它能否在人工智能領域發揮效用,仍有待進一步觀察。我們應當辯證地看待歐盟《人工智能法》中的監管沙盒制度,對其進行借鑒與反思,結合我國人工智能實際發展和現有監管沙盒實踐,構建具有中國特色的監管沙盒體系,促進人工智能技術的可持續發展。
監管沙盒提供了一個試驗場,在監管機構的監督下,研發者可以在一個部門或領域內運用創新技術、產品、服務或方法進行虛擬或現實的實驗,并根據具體情況行使一定程度的靈活性。它不僅為全球人工智能監管提供了新方向,還在激發產業創新活力、促進多主體協同發展等方面發揮著積極作用。監管機構能夠在規制風險的同時鼓勵創新,但也需要警惕其可能帶來的數據保護和市場競爭問題,防止監管套利,確保沙盒的公平性和有效性。
中國作為負責任的人工智能大國,一直高度重視人工智能治理,目前已啟動了自動駕駛系統監管沙盒,但該體系尚未完全系統化和成熟。鑒于此,我國應在參考借鑒國際前沿實踐的基礎上,重視人工智能監管沙盒的整體謀劃,合理構建和完善我國人工智能監管沙盒體系,要加強對個人數據的保護,在不扭曲競爭的情況下促進人工智能創新,有效推動我國人工智能產業的可持續發展。
參考文獻參考文獻:
[1] OFFICIAL JOURNAL OF THE EUROPEAN UNION. Regulation (EU) 2024/1689 of the European Parliament and of the Council[EB/OL].(2024-07-12)[2024-10-18]. https://eur-lex.europa.eu/eli/reg/2024/1689/oj.
[2] ZETZSCHE D, BUCKLEY R, ARNER D W, et al. Regulating a revolution: from regulatory sandboxes to smart regulation[J].Fordham Journal of Corporate amp; Financial Law,2017, 23(1) :31-103.
[3] EUROPEAN COMMISSION. Launch event for the Spanish regulatory sandbox on artificial intelligence [EB/OL].(2022-06-26)[2024-10-18].https://futurium.ec.europa.eu/en/european-ai-alliance/events/launch-event-spanish-regulatory-sandbox-artificial-intelligence.
[4] PINSENT MASON. Spain legislates for first EU AI act regulatory sandbox[EB/OL]. (2024-11-13)[2024-10-18].https://www.pinsentmasons.com/out-law/news/spain-legislates-for-first-eu-ai-act-regulatory-sandbox.
[5] CSAR A. Royal decree 817/2023 on artificial intelligence[EB/OL]. (2023-11-16)[2024-10-18]. https://www.all-law.es/en/royal-decree-817-2023-on-artificial-intelligence/.
[6] 張苑,瞿晶晶,張晅昱.人工智能監管沙盒:概念界定、實踐經驗及對我國的啟示[J/OL].世界科技研究與發展,1-9[2024-11-11].https://doi.org/10.16507/j.issn.1006-6055.2024.07.101.
[7] MHRA. MHRA launches AI airlock to address challenges for regulating medical devices that use artificial intelligence [EB/OL]. (2024-05-09)[2024-10-18]. https://www.gov.uk/government/news/mhra-launches-ai-airlock-to-address-challenges-for-regulating-medical-devices-that-use-artificial-intelligence.
[8] 賈驥業,朱彩云.“用魔法打敗魔法”AI時代如何構建數據安全生態[N].中國青年報,2024-04-30(006).
[9] 徐磊.發展與安全并重:生成式人工智能風險的包容審慎監管[J].理論與改革,2024(4):67-83,176.
[10] 鄧文娟,高圣平.論智能網聯汽車監管的沙盒模式——兼評中國相關地方立法[J].江漢論壇,2023(4):125-128.
[11] 金玲.全球首部人工智能立法:創新和規范之間的艱難平衡[J].人民論壇,2022(4):44-47.
[11] 劉子婧.歐盟《人工智能法》:演進、規則與啟示[J].德國研究,2024,39(3):101-128,151.
[13] 張辛鑫,冀瑜.論歐盟《人工智能法案》中的標準化模式及對我國啟示[J].標準科學,2024(5):39-46.
[14] 張廣偉.歐盟人工智能監管沙盒制度的功能、局限及其啟示——基于歐盟《人工智能法》的解析[J].德國研究,2024,39(2):116-132,136.
[15] 易學文.論“監管沙盒”制度的實踐哲學轉向——以歐盟《人工智能法》為分析對象[J].南海法學,2023,7(4):11-19.
[16] 黃靜怡.“分級分類”與“契約”風險治理并行的人工智能監管制度構建——以歐盟《人工智能法案》為分析對象[J].海南金融,2024(2):76-85.
[17] HILLMAN J. Smart regulation: lessons from the artificial intelligence act[J]. Emory International Law Review,2023,37(4):775-826.
[18] MCCARTHY J. From childish things: the evolving sandbox approach in the EU’s regulation of financial technology[J]. Law, Innovation and Technology, 2023,15(1):1-24.
[18] 董新義,梅貽哲.“人工智能法總則”建構原則與理念——歐盟立法經驗之鏡鑒[J].數字法治,2024(2):195-210.
[20] 周雷,朱奕,胡若蘭.“監管沙盒”模式在我國金融科技創新監管試點中的應用研究[J].科技創業月刊,2022,35(1):24-29.
[21] 張凌寒.中國需要一部怎樣的《人工智能法》?——中國人工智能立法的基本邏輯與制度架構[J].法律科學(西北政法大學學報),2024,42(3):3-17.
[22] 葉宣含.論人工智能治理的監管沙盒路徑與機制(英文)[J].科技與法律(中英文),2024(5):136-148.
(責任編輯:周 媛)