2017年7月20日,國務院印發《新一代人工智能發展規劃》,從戰略目標出發,對人工智能法律體系建設制定了三步走規劃:
2017-2020年,人工智能倫理規范和政策法規初步形成;2020-2025年,初步建立人工智能法律法規、倫理規范和政策體系,強化人工智能安全評估和管控能力;2025-2030年,建成更加完善的人工智能法律法規、倫理規范和政策體系。
目前我國地方層面立法先行,《深圳經濟特區人工智能產業促進條例》獲深圳市七屆人大常委會表決通過,是我國首部人工智能產業專項立法。深圳在立法過程中秉持促進性立法理念,認真貫徹“全面促進與合理必要的規范”理念,高效促進人工智能產業發展。當下我國已經完成了《數據安全法》《網絡安全法》《個人信息保護法》等立法工作,這些法律規則作為“制度基石”,為人工智能的立法提供了堅實保障。
但不可否認的是,我國在人工智能技術應用層面仍然存在立法缺位的問題,隨著人工智能的快速發展,立法方面相對滯后,無法做到與時俱進。因此,我國需要加快人工智能立法研究,借鑒域外立法經驗,本文對歐盟、英國、美國三個國家和區域的人工智能監管進行研究分析,找尋可供我國人工智能立法借鑒的經驗。
歐盟:注重風險管控
當地時間2023年6月14日,歐盟朝著全球第一部人工智能立法邁出了具有里程碑意義的一步。歐盟議會高票通過了《人工智能法案》的談判授權草案(以下簡稱《法案》)。從該《法案》中看出,其在保留舊版本的基礎上加以創新。例如,《法案》進一步明確了人工智能的高風險場景,不得在生物識別監控中運用人工智能,ChatGPT生成式人工智能必須保持信息透明。如果順利通過立法,則意味著全球首個人工智能法案的誕生,該《法案》接下來會進入歐盟成員國、歐洲議會和歐盟委員會三方談判階段,若能在2023年達成此協議;那么新法案最早可以在2026對人工智能公司產生約束效力,違規公司將會面臨高至3000萬歐元的罰款,占比約為公司全年總收入的10%。對微軟和谷歌大型科技公司而言,其懲罰數額將至十億歐元。
《法案》對人工智能風險管控做出了詳細規定,對場景和級別進行劃分,為完善治理體系提供了可行性的操作路徑。 歐盟對人工智能風險管控進行了專門立法,《人工智能法案》應運而生,成為全球第一個針對人工智能風險的規制法案。該法案以風險預防為中心,全方位構建人工智能風險規制體系。
第一,該《法案》積極建設國家層面的監管沙盒,要求對收集的個人數據進行合法合規處理。
第二,該《法案》首次對人工智能系統進行了等級劃分,從低到高依次為:最小風險、低風險、高風險和不可接受風險。對于后兩類風險實施高度監測和管控,并對其全生命周期做出了詳細規定。
第三,該《法案》特別強調高風險覆蓋的領域為公民就業、公民教育、公共服務、關鍵基礎性設施、產品安全組件等關乎國計民生的領域。該《法案》注重事前、事中和事后的全過程監管,在事前階段人工智能的預期風險被劃分為四個等級,依據風險等級和應用場景的不同,制定與之對應的監管舉措;在事中階段,《法案》強調監管沙盒的作用機制,若發現人工智能技術給人的安全,健康或基本權利造成危害,會立刻采取行動削弱風險因子;在事后階段,《法案》規定人工智能的系統供應商在面對高風險時,須全程進行售后監測,及時將系統故障和違規事件上報國家監管部門。
英國:支持創新的監管體系
英國目前尚未出臺規制人工智能的專門法,英國政府在去年7月頒布了《人工智能監管政策》(以下簡稱《政策》)。該《政策》倡導建立一個支持創新的人工智能監管體系,該體系基于人工智能的具體特征,統籌協調各部門進行人工智能監管工作。該《政策》包含以下四方面的監管原則:
第一,立足具體情形原則。具體情形指的是在特定環境下對個人、團體和企業的影響,根據影響的差異來制定具體的監管方案,并將監管責任委托給各監管機構,此種監管方式兼具創新性和針對性。
第二,協調原則。《政策》希望建立針對人工智能特征的跨部門監管,給予監管機構自主裁量權,自行考量,解釋和實施,《政策》大力支持監管部門間構建協調機制。
第三,促進創新原則。該《政策》對創新持鼓勵態度,大力消除人工智能創新道路上的障礙。要求監管機構著力解決有明確證據表明存在風險的問題,減少關注與人工智能相關的低風險或可能性問題。
第四,比例性原則。《政策》強調監管方法應和被監管行為的特點相一致,還需保持目標與手段之間恰當的比例性。監管機構應實施更寬松的監管措施,比如行政指導等。到目前為止,英國在人工智能方面的執法大多依賴于《英國通用數據保護條例》,基于隱私與個人信息保護為目的來進行。
對于在英國開展業務的人工智能企業來說,首先應遵守《英國通用數據保護條例》,相關企業首先需進行隱私與數據方面的影響評估,來確定人工智能對個人信息主體權利的風險等級,事先將可能造成的危害控制在最小范圍內,并配合個人信息主體行使其數據權利。除此之外,企業也要對人工智能進行道德性評估,選擇符合道德觀和尊重人權的人工智能項目進行投資。
美國:以公平和隱私為核心
美國的《人工智能權利法案藍圖》(以下簡稱《藍圖》)并沒有制定具體的實施細則,但初步確立了法案的核心宗旨,即公平和隱私。該《藍圖》基于五項基本原則:一是避免算法歧視,公平使用和設計系統;二是加強數據隱私保護;三是系統在通知和解釋時要做到即時迅速;四是多手準備替代方案和退出機制;五是構建安全高效的系統。
上述原則構建的出發點是預防人工智能濫用帶來的危害。將“公平”和“隱私”作為《藍圖》設計的核心。從公平性角度來看,《藍圖》要求人工智能系統的設計者在開發過程中讓使用者不受算法歧視。在使用和構建系統的過程中堅守公平底線;從隱私性角度來看,《藍圖》將數據隱私作為其他原則的基礎。如果隱私權無法保證,其他原則就會淪為無本之木。《藍圖》要求人工智能在數據收集和使用中都必須明確范圍和邊界。
對我國的啟示
1. 立法方面采取差別化和場景化策略
我國應借鑒以美國和歐盟為代表的國家和地區,在人工智能相關立法方面采取的差別化和場景化策略,對人工智能不同應用領域進行差別化立法,在人工智能的產品和流通方面,要加快填補立法空白,以此更好保障個人和社會安全。這種差別化立法可以助力人工智能產業穩健發展。
當下,我國沒有針對人工智能和算法系統的專門立法,一方面,我們要學習美國《藍圖》中對人工智能產業立法原則性指引。
另一方面,也要發現《藍圖》的不足和缺陷,對于人工智能產業的法律規制不能只限于“呼吁和口號”,更要借鑒歐盟《法案》的相關舉措,設立專門行業立法,將立法落到實處,落到細處,為該行業提供具體可行的細化實施措施。立法部門應積極填補人工智能立法空白,細化人工智能治理體系監管,即時出臺與人工智能相關的法律法規。加強管控人工智能系統性風險的能力,推動人工智能產業健全穩進發展。
2. 做到技術創新與安全監管的有機統一
域外法案堅持在技術創新的同時必須要加強安全監管,要把二者有機統一起來。想達到這個目標,需考慮以下三點:
一是堅持審慎包容原則,包容之下才會激發更多創新模式,人工智能創新應用場景和監管創新手段要呼應融通,例如采取監管沙盒等方式。除此之外,還把握好“試驗田”的試錯機會,開拓出新的包容監管方式,創造出更多與時俱進的創新監管手段。
二是要創新安全監管技術,專門打造技術創新平臺保障人工智能安全,著力攻關人工智能領域的核心技術,搭建人工智能安全中心,該中心旨在將技術創新與安全監管相融合。
三是加強系統行業自律規范,樹立龍頭企業的榜樣作用,指引第三方權威機構介入,加快行業誠信體系構建,主動接受社會監督,發揮他律監管作用。
在立法過程中注重公平性原則,將公平性管理運用到人工智能監管方面,堅持可追溯性原則,把算法行為決策納入監管范圍,在案例調查中確保追溯到算法執行過程,一經發現算法的不合適,須強制命令修改;重視算法在人工智能系統設計開發過程中的應用,相關設計人員應明晰知曉其運行模式。加強算法監督管理,從源頭抓起,將算法可解釋性和公平性約束原則貫穿其中,進一步規范算法監管流程。
3. 完善人工智能治理體系和提升產業創新活力并舉
國內學界對立法與規制是否會阻礙人工智能產業發展有不同的觀點。一些學者認為,過往十幾年互聯網發展的歷程中,由于歐盟先對人工智能進行了法律規制,導致美國和中國能夠超越歐盟。因為歐盟更早地在平臺責任、隱私保護、互聯網版權等方面制定了規則,對歐洲互聯網創新造成阻礙。另一些學者對此觀點持否定態度,理由是不能將制定個人信息保護法與阻礙創新劃等號,兩者不具有因果關系,制造隱私保護與創新并非魚和熊掌不可兼得的矛盾雙方。立法是否阻礙產業發展需要進行實證研究,不能直接下定論。政府為什么要對人工智能產業進行規制?其根本出發點是為了實現新興行業更好地發展。值得注意的是,美歐法案將公平性和風險管控置于高優先級,對產業創新發展欠缺應有的重視。
當前,中國人工智能產業已進入規模化應用落地爆發期,算法爭議和系統安全事件偶有發生,人工智能治理體系的健全完善已進入有關主管部門的工作日程。有關主管部門在制定人工智能相關規制措施時,應合理把握規制措施的管控力度,做到完善人工智能治理體系和提升產業創新活力并舉。《深圳經濟特區人工智能產業促進條例》作為我國人工智能領域的首次地方性立法,明確了對人工智能產業實行包容審慎監管的方針,同時強調使用政策指南、沙盒技術、應用試點等監管工具。深圳作為人工智能產業發展較為迅速的區域,此次立法活動,可以為國家層面人工智能立法提供經驗。在推動立法的過程中,提防過度重視公平性與風險管控,導致束縛產業創新活力的問題,堅持規范與發展并重原則。
4. 靈活運用監管沙盒,防范風險于未然
歐盟《法案》 在立法方面的“事前—事中—事后”全鏈條監管機制值得中國借鑒。法案劃分為四種風險等級,根據應用場景及風險等級的不同,制定相應規制措施。我國要借鑒《法案》引入的監管沙盒機制,在立法的過程中基于企業一定的試錯空間,靈活運用監管沙盒,想要做到“從心所欲而不逾矩”,必須明確以下幾個步驟:
一是明確界定沙盒的范圍和目標。這有助于確保沙盒專注于特定的目標,并確保所有參與者都了解該計劃的期望和限制。
二是建立嚴格的資格標準。這有助于確保只有具備相應專業知識和業績記錄的科技公司才能參與沙盒。
三是制定明確的規則和條例。建立一套參與者必須遵守的規則和條例來參與沙盒是很重要的。這些規則應旨在保護消費者和更廣泛的行業,同時仍允許創新和實驗。
四是監測和評估沙盒。對沙盒的定期監測和評估有助于發現任何潛在的風險或問題,并使監管機構能夠采取適當的行動來解決這些問題。
五是為參與者提供支持和指導。監管沙盒的影響力是巨大的,工欲善其事,必先利其器,監管沙盒一定會為企業和消費者帶來雙向反饋,形成互利共贏的局面。助力人工智能技術“從心所欲而不逾矩”。