
2024年3月13日,歐洲議會以壓倒性票數通過《歐盟人工智能法案》(以下簡稱“《法案》”),旨在提升歐盟人工智能產業的規范性和透明度,加強技術治理與監管,以人為本推動人工智能有序發展?!斗ò浮纷鳛槿蚴撞烤C合性人工智能監管法案,將使歐盟在人工智能治理方面走在世界前列,并為西方國家主導人工智能規則走向和監管話語權奠定錨點。
全球市場份額占比大,生成式人工智能發展迅速。據國際數據公司22日發布的《全球人工智能和生成式人工智能支出指南》估計,2024年歐洲人工智能市場規模將達476億美元,約占全球人工智能市場總額的1/5,且仍在以33.7%的年復合增長率持續擴增。2023年歐洲生成式人工智能市場份額僅占歐洲人工智能市場總額的9.6%,但鑒于生成式人工智能支出的增長速度是其他人工智能支出增速的3倍以上,預測該份額2027年將增長至整個歐洲人工智能市場總額的1/4以上。
成員國間技術投資差異較大,人才儲備總量不足。2022年,全球人工智能技術投資份額中,歐盟整體位列第三,但成員國之間投資水平差異較大。其中,法國在人工智能技術投資方面表現強勁,包括承諾在2022年前向人工智能領域投資15億歐元,并于2022年宣布追加5億歐元投資,以打造人工智能強國。相比之下,歐盟其他成員國技術投資較弱。此外,歐盟人工智能領域人才競爭力不足。據《中國人工智能發展報告》統計,德國、法國、西班牙、意大利等歐盟成員國的人工智能人才數量均位居全球前十位,分列第四、第六、第九和第十,四國人工智能人才總數僅占全球總量的12.4%,與排名前三的美國、中國和印度相比差距較大。
重視人工智能治理與監管,先行優勢明顯。歐盟致力于構建人工智能技術應用監管體系,以打造可信和以人為本的人工智能生態環境。一方面,歐盟委員會2020年發布《人工智能白皮書》,率先提出構建人工智能監管框架,以確保人工智能安全、可信,引領全球人工智能監管體系構建;另一方面,歐盟基于人工智能法治愿景,探索人工智能治理的法律支持,謀求立法先行優勢。歐盟委員會自2021年4月21日首次提出《人工智能法案》以來,便積極推動該法案落地,以填補全球人工智能監管的立法空白。
人工智能技術快速發展,成為推動科技和產業加速發展的重要力量,但其固有的不透明性、不確定性、難管控性,將對經濟發展、國際政治和全球治理等帶來深遠影響,引發全球廣泛關注。
基礎數據不透明風險。人工智能模型的優劣很大程度上取決于訓練模型所使用的基礎數據,但因基礎數據篩選機制缺乏透明度和可視性,采集、清洗和標記過程中存在黑箱問題,數據質量的真實性和準確性難以監管,導致模型透明度無法保障。
人工智能軍事化風險。人工智能作為新技術,具有顯著的顛覆性特征,通過智能化的態勢感知、戰場情報分析、輔助決策和自主武器系統的使用,能夠對戰爭造成非對稱影響。美國等軍事強國持續探索人工智能的軍事化應用,可能帶來人道主義風險、人工智能系統穩定性風險及加劇沖突的風險。在全球地緣政治摩擦不斷加深的背景下,歐盟無論是選邊站隊,還是保持中立,都可能受到人工智能軍事化應用帶來的潛在風險。
人工智能濫用風險。隨著生成式人工智能系統的不斷擴展應用,也催生了非國家行為體的濫用和非法使用問題,增加了極端主義、恐怖主義風險。歐盟始終堅持發展以人為本的人工智能,強調避免濫用,防止人工智能對個人基礎權利和社會民主法治的侵犯。
《法案》旨在保護個人基本權利、民主、法治免受高風險人工智能系統影響,同時促進技術創新,推動歐盟成為人工智能領域的領導者。
適用主體廣泛,具有一定的域外效力?!斗ò浮反_立了廣泛的適用范圍和域外效力:一方面,所有在歐盟境內投入市場或投入使用的人工智能系統均適用該法案,即使系統供應商并未在歐盟設址;另一方面,人工智能系統價值責任鏈的供應商、分銷商、運營商等相關主體,均為本法案的規制對象,全面管控人工智能風險。
制定一般原則,促進以人為本和可信人工智能發展。歐盟人工智能系統或基礎模型應遵循以下6項原則:一是人工智能系統在設計、開發、部署和使用過程中,必須以人為本、尊重人權,并由人類適當監控其運行;二是人工智能系統應具備技術安全性和韌性,盡量避免意外傷害,并提升恢復能力;三是應符合現有的隱私和數據保護規則;四是系統的開發和使用應允許適當的可追溯性和可解釋性;五是尊重人工智能系統的開發和使用方式的不同,并促進公平性和文化多樣性,避免歧視和偏見;六是以可持續和環境友好的方式開發和使用人工智能系統,并使所有人類受益,監測和評估對個人、社會和民主的長期影響。
明令禁止開發和使用4類系統,避免出現不良影響?!斗ò浮访鞔_禁止將4類人工智能系統投放市場或投入使用。一是使用超越人類意識或誘騙、操控技術的系統。二是利用個人或特定群體弱點,扭曲其行為的系統。三是根據自然人或特定群體的社會行為或人格特征,進行社會評價、分類的系統。四是在公共場所使用的“實時”遠程生物識別系統,包括評估自然人或群體的犯罪風險;從互聯網或閉路電視視頻中抓取面部圖像,新建或擴大人臉識別數據庫;除特殊情況外,在執法、邊境管理和教育機構中推斷自然人情緒的人工智能系統。這4類禁止情形體現了《法案》的人權考量,避免對自然人或特定群體造成不利影響。

劃分人工智能系統風險等級,分類施策,強化管理成效?!斗ò浮坊谌斯ぶ悄艿牟煌该餍浴碗s性、對數據的依賴性等特點,將人工智能系統的風險等級劃分為不可接受風險、高風險、有限風險和極低風險4類。其中,不可接受風險人工智能系統不得在歐盟境內投入使用。高風險人工智能系統需在滿足一定條件的情況下使用。有限風險人工智能系統可規范、合理使用,其中人機交互系統、情感識別系統、生物特征分類系統及生成式人工智能系統,需要履行透明度義務。極低風險人工智能系統可自由使用。
制定處罰標準,以此體現“硬法”約束。2024年2月,歐盟在《法案》正式通過前夕成立人工智能辦公室,負責監督各成員國的《法案》執行情況,對違反該法案的相關實體進行處罰,處罰結果取決于人工智能系統的類型、公司規模和違法行為的嚴重程度,根據是否違反法案禁止的人工智能系統條款、是否違反法案合規性要求、是否向監管機構提供錯誤、不完整或誤導信息,制定了三檔處罰標準,分別予以對應的處罰。
打造“立法先行”優勢,為人工智能發展設置護欄。作為全球首部人工智能立法,《法案》將使歐盟在人工智能法治方面占據先行優勢,并為其他國家和地區的人工智能監管設定了基準。從行業角度來看,《法案》有助于提升人工智能行業的規范性和透明度,通過明確監管標準和要求,將有助于減少行業亂象和不合規行為,吸引更多的投資和人才進入人工智能領域,推動行業健康可持續發展。歐盟將以《法案》為監管抓手,希望通過率先制定基本規則,為域內人工智能發展提供基本護欄。
重視高風險人工智能系統管理,強調基本治理原則?!斗ò浮丰槍Ω唢L險人工智能系統構建了涵蓋事前、事中和事后的全生命周期監管體系。歐盟對于高風險人工智能系統的劃分原則遵循《法案》中所提到的人工智能治理的基本原則,即“促進以人為本和可信任的人工智能應用,并保證對于人民健康、安全、基本權利、民主以及法治的高度保護”。高風險人工智能系統管理是《法案》治理的重中之重,因此歐盟突出強調該類系統在風險和符合人工智能治理原則之間的平衡,以防范其快速發展帶來的算法歧視、算法黑箱等問題。
開啟全球人工智能分級監管法治進程,迎接人工智能治理時代?!斗ò浮返某雠_不是終點,而是圍繞人工智能技術建立新治理模式的起點。在人工智能技術迅速發展的時代浪潮下,《法案》開啟了全球人工智能治理的法制化進程,世界各國將迎來人工智能立法熱潮,各相關方應努力把握全球人工智能監管的脈搏,迎接人工智能法治時代。一方面,加強國際合作,探索雙邊或多邊合作治理機制,加深企業在人工智能領域的技術交流和人才互動;另一方面,積極參與國際標準制定,推動國際人工智能治理規則的形成。
責任編輯:陳曉芳