中圖分類號(hào):D922.16;D99 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):2096-9783(2025)04-0066-12
作為人工智能的一個(gè)重要分支,生物特征識(shí)別技術(shù)融合了監(jiān)測(cè)技術(shù)與信息技術(shù),能夠快速、準(zhǔn)確地識(shí)別個(gè)體身份。近年來(lái),此類人工智能系統(tǒng)與大數(shù)據(jù)、深度學(xué)習(xí)、預(yù)測(cè)建模等技術(shù)深度整合,使其在生物特征數(shù)據(jù)的采集、存儲(chǔ)、分析和匹配等關(guān)鍵環(huán)節(jié)取得突破性進(jìn)展,其應(yīng)用場(chǎng)景呈現(xiàn)多元化與縱深化的趨勢(shì)。有研究表明,在未來(lái)5至10年,生物特征識(shí)別系統(tǒng)及其數(shù)據(jù)類型將進(jìn)一步大幅擴(kuò)展,不再局限于個(gè)人身份的識(shí)別與驗(yàn)證,而將轉(zhuǎn)向?qū)€(gè)體行為及情感狀態(tài)的精準(zhǔn)識(shí)別與分類2。然而,生物特征數(shù)據(jù)與自然人的人格尊嚴(yán)緊密相關(guān),其在遭遇泄露或大規(guī)模濫用時(shí),極有可能給個(gè)人隱私和其他個(gè)人權(quán)利帶來(lái)影響深遠(yuǎn)且難以挽回的損害。如何在技術(shù)創(chuàng)新與權(quán)利保護(hù)之間實(shí)現(xiàn)平衡,已成為當(dāng)前世界各國(guó)廣泛討論的問(wèn)題。作為“全球數(shù)字治理規(guī)則的引領(lǐng)者”,歐盟在2024年正式通過(guò)《人工智能法》(Artificial IntelligenceAct,AIAct),邁出了橫向型、集中型人工智能立法的第一步[3],意圖在人工智能治理領(lǐng)域再現(xiàn)\"布魯塞爾效應(yīng)\"(Brussels Effect)①。該法從基于風(fēng)險(xiǎn)的規(guī)制路徑出發(fā),對(duì)生物特征識(shí)別型人工智能采取“原則禁止 + 例外允許”的立法模式,并將其細(xì)分為情緒識(shí)別系統(tǒng)、生物特征分類系統(tǒng)以及遠(yuǎn)程生物特征識(shí)別系統(tǒng)進(jìn)行重點(diǎn)規(guī)制。
我國(guó)作為全球人工智能技術(shù)發(fā)展的重要力量,高度重視人工智能治理。面對(duì)生物特征識(shí)別技術(shù)帶來(lái)的挑戰(zhàn),2021年6月最高人民法院出臺(tái)《關(guān)于審理使用人臉識(shí)別技術(shù)處理個(gè)人信息相關(guān)民事案件適用法律若干問(wèn)題的規(guī)定》,列舉了8項(xiàng)侵害自然人人格權(quán)益的人臉信息處理行為。2021年11月起施行的《中華人民共和國(guó)個(gè)人信息保護(hù)法》以下簡(jiǎn)稱《個(gè)人信息保護(hù)法》)則對(duì)包括生物識(shí)別信息在內(nèi)的敏感個(gè)人信息的處理活動(dòng)規(guī)定了更為嚴(yán)格的限制條件4。而針對(duì)人工智能領(lǐng)域的專門立法,全國(guó)人大常委會(huì)和國(guó)務(wù)院都將“人工智能健康發(fā)展”列人其2025年立法工作計(jì)劃之中。鑒于此,本文首先考察生物特征識(shí)別技術(shù)的應(yīng)用現(xiàn)狀及其帶來(lái)的治理挑戰(zhàn);其次梳理評(píng)析歐盟《人工智能法》對(duì)生物特征識(shí)別型人工智能采取的規(guī)制模式,并深入分析歐盟方案的制度創(chuàng)新與不足;最后立足我國(guó)技術(shù)治理需求和現(xiàn)有法律體系,探索兼顧技術(shù)創(chuàng)新與風(fēng)險(xiǎn)防控的生物特征識(shí)別型人工智能規(guī)制路徑及具體方案。
一、生物特征識(shí)別型人工智能的發(fā)展及應(yīng)用風(fēng)險(xiǎn)
生物特征識(shí)別型人工智能是一種基于個(gè)體生物學(xué)特征和行為模式進(jìn)行生物識(shí)別的系統(tǒng),該技術(shù)體系涵蓋面部識(shí)別、步態(tài)識(shí)別、手勢(shì)識(shí)別等多模態(tài)識(shí)別方式,其核心技術(shù)機(jī)理在于通過(guò)數(shù)據(jù)采集、特征提取和模板匹配等技術(shù)流程,實(shí)現(xiàn)對(duì)特定自然人的身份驗(yàn)證或辨別[5]。
(一)生物特征識(shí)別型人工智能的發(fā)展與應(yīng)用
憑借其高效精準(zhǔn)的身份識(shí)別和多維度的行為預(yù)測(cè)能力,生物特征識(shí)別型人工智能已在城市管理、行政執(zhí)法、刑事偵查、金融支付及汽車駕駛等多個(gè)領(lǐng)域得到廣泛應(yīng)用,成為現(xiàn)代社會(huì)治理和商業(yè)發(fā)展的重要支撐。
一方面,現(xiàn)代計(jì)算機(jī)系統(tǒng)的海量數(shù)據(jù)存儲(chǔ)能力和高速運(yùn)算能力,使得生物特征數(shù)據(jù)的采集和處理更加迅捷,識(shí)別效率和準(zhǔn)確度也隨之大幅提升?;谏疃葘W(xué)習(xí)的DeepID2算法已將人臉識(shí)別準(zhǔn)確率提升至99.15% ,步態(tài)識(shí)別領(lǐng)域的深度學(xué)習(xí)方法準(zhǔn)確率則可達(dá)到 95.1%[6] 。憑借其高效性與精確性,生物特征識(shí)別型人工智能在城市管理中已成為身份驗(yàn)證的首選方案。特別是在海關(guān)、高鐵站、機(jī)場(chǎng)等關(guān)鍵交通樞紐,實(shí)時(shí)的生物特征識(shí)別可以實(shí)現(xiàn)對(duì)過(guò)往人員身份的即時(shí)驗(yàn)證,有效遏制走私、非法出人境等違法行為的發(fā)生。例如,美國(guó)已將生物特征識(shí)別系統(tǒng)作為“反恐戰(zhàn)爭(zhēng)”的一個(gè)新工具,在機(jī)場(chǎng)和其他備受關(guān)注的重點(diǎn)領(lǐng)域部署實(shí)施。此外,在執(zhí)法領(lǐng)域,生物特征識(shí)別型人工智能的運(yùn)用則更為廣泛。指紋識(shí)別技術(shù)可用于居民身份證件信息登記,通過(guò)比對(duì)實(shí)現(xiàn)對(duì)犯罪嫌疑人及受害人身份的確認(rèn);DNA識(shí)別技術(shù)可用于尋回失蹤或被拐賣的婦女兒童;聲紋識(shí)別技術(shù)已成為電信網(wǎng)絡(luò)詐騙案件中的關(guān)鍵工具;步態(tài)識(shí)別技術(shù)通過(guò)智能監(jiān)控終端,能夠?qū)崟r(shí)跟蹤重點(diǎn)人員的動(dòng)態(tài),進(jìn)行預(yù)警與干預(yù);人臉識(shí)別技術(shù)不僅在追逃犯罪嫌疑人和尋找失蹤人口中發(fā)揮重要作用,還可用于身份鑒別與布控預(yù)警8。在商業(yè)領(lǐng)域,生物特征識(shí)別技術(shù)在電子支付系統(tǒng)中的應(yīng)用也已成為主流。以指紋、面部或虹膜等生物特征替代傳統(tǒng)的密碼驗(yàn)證方式,不僅顯著提升了支付流程的便捷性,還通過(guò)其唯一性和難以偽造的特性,降低密碼泄露與盜用的風(fēng)險(xiǎn),從而增強(qiáng)交易的安全性。與此同時(shí),生物特征識(shí)別技術(shù)與汽車駕駛系統(tǒng)的結(jié)合也在快速發(fā)展。在過(guò)去的30多年里,美國(guó)發(fā)布了超過(guò)3100項(xiàng)這方面的技術(shù)專利。這些技術(shù),如虹膜和語(yǔ)音識(shí)別等,已廣泛用于車輛進(jìn)入時(shí)的身份驗(yàn)證、車輛啟動(dòng)以及駕駛員疲勞監(jiān)測(cè),能夠在自動(dòng)駕駛模式下實(shí)時(shí)監(jiān)測(cè)駕駛員的精神狀態(tài),一旦駕駛員出現(xiàn)嗜睡跡象,系統(tǒng)便可接管汽車駕駛。
另一方面,生物特征識(shí)別技術(shù)與深度學(xué)習(xí)、大數(shù)據(jù)分析等技術(shù)的結(jié)合,使得此類人工智能系統(tǒng)的應(yīng)用領(lǐng)域得以突破傳統(tǒng)的身份確認(rèn)與身份辨認(rèn),向更為復(fù)雜的行為識(shí)別、情緒識(shí)別和健康評(píng)估擴(kuò)展。例如,基于深度學(xué)習(xí)方法的行為生物識(shí)別技術(shù)(behaviorbio-metrics)已經(jīng)有效自動(dòng)化了HAR過(guò)程,增強(qiáng)了識(shí)別關(guān)鍵人類特征的空間能力,以確保對(duì)人類活動(dòng)的準(zhǔn)確識(shí)別[°]。一種新的基于步態(tài)的情緒識(shí)別框架(WayF)能夠遠(yuǎn)距離分析人體骨骼的序列以識(shí)別特定自然人的情緒狀態(tài),且該過(guò)程不需要被識(shí)別者的主動(dòng)協(xié)作[]。此外,借助集成學(xué)習(xí)、聚類分析和預(yù)測(cè)建模等技術(shù),生物特征識(shí)別型人工智能還能進(jìn)一步對(duì)個(gè)體的生物特征數(shù)據(jù)深度分析,追蹤個(gè)體的行為反應(yīng)并預(yù)測(cè)其社會(huì)互動(dòng)模式,推演個(gè)體在不同情境下的可能行為,進(jìn)而評(píng)估個(gè)體的社會(huì)適應(yīng)性和潛在風(fēng)險(xiǎn),為城市管理和風(fēng)險(xiǎn)預(yù)警提供依據(jù)。例如,預(yù)測(cè)警務(wù)3.0已經(jīng)能夠?qū)撛诘木唧w犯罪者進(jìn)行預(yù)測(cè)[2],使現(xiàn)代警務(wù)實(shí)現(xiàn)了從被動(dòng)響應(yīng)向主動(dòng)預(yù)警的轉(zhuǎn)變。荷蘭阿姆斯特丹警察局開發(fā)的犯罪預(yù)測(cè)系統(tǒng)(CAS)已經(jīng)能夠綜合分析歷史犯罪記錄、近期高速公路入口數(shù)據(jù)、已知的犯罪熱點(diǎn)區(qū)域以及居民的社會(huì)人口信息等多項(xiàng)數(shù)據(jù),預(yù)測(cè)犯罪行為的發(fā)生地點(diǎn)[13]。美國(guó)設(shè)立的在計(jì)算機(jī)輔助模式下的飛機(jī)乘客預(yù)篩選系統(tǒng)(CAPPSII),則能夠?qū)⒊丝托畔⑴c包含恐怖主義情報(bào)、犯罪記錄和其他未公開的政府?dāng)?shù)據(jù)庫(kù)進(jìn)行交叉計(jì)算,得出一個(gè)由綠色、黃色或紅色代碼表示的\"風(fēng)險(xiǎn)因素”,進(jìn)而確定該乘客是否應(yīng)當(dāng)接受額外的審查,或是直接被排除在飛行之外]。
(二)生物特征識(shí)別型人工智能應(yīng)用的新興挑戰(zhàn)
生物特征識(shí)別型人工智能在提升社會(huì)運(yùn)行效率的同時(shí),其技術(shù)特性亦引發(fā)系統(tǒng)入侵、數(shù)據(jù)泄露、隱私侵蝕、算法歧視以及預(yù)測(cè)錯(cuò)誤等諸多挑戰(zhàn)。
首先,生物特征數(shù)據(jù)的獨(dú)特屬性賦予人工智能技術(shù)高度的精確性與便利性,但同時(shí)也使個(gè)人面臨極高的“損害期望”。作為自然人身份的獨(dú)特標(biāo)識(shí),生物特征數(shù)據(jù)與人格尊嚴(yán)和個(gè)人權(quán)利密切相關(guān),是生命體個(gè)體獨(dú)特性的體現(xiàn)[4]。其所具有的主體唯一性和一定時(shí)期內(nèi)的不可變更性,意味著一旦泄露或被非法獲取,個(gè)體身份信息將面臨持續(xù)性安全威脅,并形成不可逆的風(fēng)險(xiǎn)狀態(tài),難以通過(guò)技術(shù)手段進(jìn)行有效補(bǔ)救,不僅可能導(dǎo)致物質(zhì)利益的直接損失,更可能對(duì)人格權(quán)益造成難以彌補(bǔ)的損害[15]。當(dāng)前,生物特征數(shù)據(jù)的安全性依賴于系統(tǒng)的穩(wěn)定性和抗攻擊能力,但隨著技術(shù)的快速發(fā)展,不少人工智能系統(tǒng)在尚未經(jīng)過(guò)充分測(cè)試和安全檢驗(yàn)的情況下便投入實(shí)際應(yīng)用,呈現(xiàn)相當(dāng)?shù)牟话踩耘c不穩(wěn)定性[1。黑客攻擊、惡意代碼入侵均可能導(dǎo)致生物特征數(shù)據(jù)的泄露或非法利用。
其次,生物特征識(shí)別技術(shù)在創(chuàng)建更安全的社區(qū)方面顯示出巨大前景,但這種安全性的獲得或?qū)⒁詡€(gè)人隱私作為代價(jià)。毫無(wú)疑問(wèn),生物特征數(shù)據(jù)的大規(guī)模采集將加劇公眾對(duì)隱私的擔(dān)憂,盡管許多數(shù)據(jù)收集活動(dòng)并未對(duì)個(gè)體進(jìn)行明確標(biāo)記,但普遍性的監(jiān)控模式卻事實(shí)上剝奪了個(gè)體對(duì)自身數(shù)據(jù)的控制權(quán),使每個(gè)人都可能在不知情的情況下成為潛在的監(jiān)控對(duì)象。這種“隱形監(jiān)控”不僅加劇人們的隱私焦慮,還可能演變?yōu)閷?duì)個(gè)體行為的干預(yù),從而進(jìn)一步侵蝕個(gè)人自由。有研究表明,技術(shù)賦能下的警務(wù)監(jiān)控系統(tǒng)對(duì)隱私和自由構(gòu)成的威脅已超越傳統(tǒng)的監(jiān)控模式,其影響不再局限于特定案件的相對(duì)人,而將引發(fā)公眾對(duì)新興技術(shù)如何影響每個(gè)個(gè)體的隱私利益的普遍擔(dān)憂[7]。
最后,生物特征識(shí)別型人工智能系統(tǒng)在運(yùn)行過(guò)程中存在的算法歧視等技術(shù)缺陷,不僅可能引發(fā)價(jià)格、就業(yè)、信用等方面的歧視問(wèn)題[18],還可能在實(shí)踐中帶來(lái)錯(cuò)誤執(zhí)法的風(fēng)險(xiǎn)。例如,有研究表明,面部識(shí)別技術(shù)容易產(chǎn)生帶有種族偏見(jiàn)的結(jié)果,其有色人種的錯(cuò)誤匹配率顯著高于其他群體[19]。而在預(yù)測(cè)警務(wù)應(yīng)用中,預(yù)測(cè)警務(wù)技術(shù)存在的錯(cuò)誤率則可能使無(wú)辜公民遭受不當(dāng)調(diào)查,甚至面臨執(zhí)法部門的威脅與暴力[20]。此外,人工智能系統(tǒng)的數(shù)據(jù)收集、算法框架及運(yùn)行機(jī)制等技術(shù)細(xì)節(jié)往往缺乏透明度,加之執(zhí)法人員普遍缺乏必要的專業(yè)技術(shù)知識(shí),導(dǎo)致他們?cè)趯?shí)際操作中更傾向于依賴自身經(jīng)驗(yàn)作出判斷,而對(duì)系統(tǒng)的預(yù)測(cè)結(jié)果持懷疑態(tài)度[2],陷入“算法厭惡\"的困境②。
二、生物特征識(shí)別型人工智能規(guī)制的歐盟模式
作為全球數(shù)據(jù)保護(hù)領(lǐng)域的先行者,歐盟為有效應(yīng)對(duì)人工智能時(shí)代的新興挑戰(zhàn),率先制定了全球首部系統(tǒng)規(guī)制人工智能的《人工智能法》。該法以風(fēng)險(xiǎn)分級(jí)和以人為本為核心理念,根據(jù)人工智能對(duì)社會(huì)、經(jīng)濟(jì)和個(gè)人生活潛在的影響,將人工智能劃分為不同風(fēng)險(xiǎn)等級(jí),并制定相應(yīng)的管控標(biāo)準(zhǔn)。在涉及生物特征識(shí)別技術(shù)的人工智能應(yīng)用方面,歐盟首先將缺乏自主學(xué)習(xí)能力和推理能力的生物特征驗(yàn)證系統(tǒng)排除在人工智能系統(tǒng)之外,隨后又進(jìn)一步將生物特征識(shí)別型人工智能系統(tǒng)細(xì)分為情緒識(shí)別系統(tǒng)、生物特征分類系統(tǒng)以及遠(yuǎn)程生物特征識(shí)別系統(tǒng),并在此基礎(chǔ)上采取風(fēng)險(xiǎn)分級(jí)的管制模式,將上述系統(tǒng)的特定情形納人被禁止的人工智能范疇,而將其余情形歸入高風(fēng)險(xiǎn)人工智能的類別,從而形成了“分界一分類一分級(jí)\"的規(guī)制模式。
(一)生物特征識(shí)別與生物特征驗(yàn)證的分界
根據(jù)歐盟《人工智能法》第3條的規(guī)定,生物特征識(shí)別(biometricidentification)是指通過(guò)自動(dòng)化技術(shù)提取自然人的身體特征、生理特征、行為特征或心理特征,并將這些數(shù)據(jù)與存儲(chǔ)在數(shù)據(jù)庫(kù)中的個(gè)人生物特征數(shù)據(jù)進(jìn)行比對(duì),以明確某一特定自然人的身份。相比之下,生物特征驗(yàn)證(biometricverification)則通過(guò)比對(duì)目標(biāo)自然人提供的實(shí)時(shí)生物特征數(shù)據(jù)與預(yù)先錄人的特定生物特征模板,以確定該自然人身份的真實(shí)性。兩者的關(guān)聯(lián)體現(xiàn)在其技術(shù)核心均依賴于對(duì)自然人生物特征的采集與提取,并將實(shí)時(shí)采集的數(shù)據(jù)與數(shù)據(jù)庫(kù)中的預(yù)設(shè)模板進(jìn)行比較。兩者的差異性則集中于技術(shù)模式、數(shù)據(jù)主體的主動(dòng)性、數(shù)據(jù)風(fēng)險(xiǎn)及適用場(chǎng)景等方面。
具體而言,生物特征識(shí)別本質(zhì)上是一種一對(duì)多的身份辨認(rèn)模式,其依賴于預(yù)先采集和處理所形成的龐大數(shù)據(jù)庫(kù),在無(wú)預(yù)設(shè)身份的情形下,將目標(biāo)的生物特征數(shù)據(jù)與數(shù)據(jù)庫(kù)中已有的大量生物特征模板進(jìn)行比對(duì),進(jìn)而識(shí)別未知自然人的具體身份,具有廣泛的篩查和辨認(rèn)功能。此類技術(shù)通常并不依賴目標(biāo)自然人的同意,數(shù)據(jù)的采集與身份的識(shí)別往往是在自然人不知情的情況下進(jìn)行。因此,此類技術(shù)有可能帶來(lái)重大隱私與數(shù)據(jù)安全問(wèn)題。一方面,自然人并未明確知曉其生物特征數(shù)據(jù)的采集過(guò)程,這種隱形監(jiān)控可能引發(fā)社會(huì)人群強(qiáng)烈的不安,侵?jǐn)_私人生活安寧,甚至在宏觀層面塑造出“被監(jiān)控社會(huì)\"的集體焦慮。另一方面,由于生物特征識(shí)別需要處理大量生物特征數(shù)據(jù),其系統(tǒng)的開放性和聯(lián)網(wǎng)屬性使得數(shù)據(jù)泄露或被惡意入侵的風(fēng)險(xiǎn)顯著增加。一旦發(fā)生數(shù)據(jù)安全事件,可能導(dǎo)致規(guī)模空前的隱私侵害,甚至為身份偽造、虛假匹配等不法行為提供契機(jī)。
生物特征驗(yàn)證則屬于一對(duì)一的身份確認(rèn)模式,其目的僅僅在于確定特定自然人的真實(shí)身份,以確認(rèn)該自然人是否具備準(zhǔn)入或使用權(quán),其輸出的結(jié)果通常呈現(xiàn)為簡(jiǎn)單的“是”或“否”,適用場(chǎng)景多集中于解鎖設(shè)備、身份認(rèn)證或服務(wù)接人等場(chǎng)合③。該技術(shù)的內(nèi)在特性在于其高度的自主性和封閉性。一方面,生物特征驗(yàn)證依賴自然人的主動(dòng)參與,無(wú)論是在身份驗(yàn)證前提供生物特征數(shù)據(jù),還是在驗(yàn)證時(shí)同意實(shí)時(shí)數(shù)據(jù)的采集,其均以目標(biāo)自然人的明確同意為前提。另一方面,這種技術(shù)通常在小范圍內(nèi)運(yùn)行,數(shù)據(jù)的存儲(chǔ)規(guī)模有限,系統(tǒng)無(wú)須聯(lián)網(wǎng)運(yùn)行。相對(duì)的封閉性和非聯(lián)網(wǎng)特質(zhì)使其在技術(shù)安全性和隱私保障方面具有一定優(yōu)勢(shì),其較低的數(shù)據(jù)風(fēng)險(xiǎn)更容易為自然人所接受。
(二)生物特征識(shí)別型人工智能的三分模式
隨著生物特征識(shí)別技術(shù)的不斷發(fā)展,其用途已不再局限于最基礎(chǔ)的身份辨認(rèn),而是逐步向分類、分析、評(píng)估與預(yù)測(cè)等多維功能延伸。對(duì)此,歐盟《人工智能法》基于技術(shù)目的的多樣性和數(shù)據(jù)處理方式的差異性,將生物特征識(shí)別型人工智能系統(tǒng)細(xì)分為情緒識(shí)別系統(tǒng)、生物特征分類系統(tǒng)和遠(yuǎn)程生物特征識(shí)別系統(tǒng)。
其一,情緒識(shí)別系統(tǒng)(emotion recognition system)是指通過(guò)采集和分析自然人的生物特征數(shù)據(jù),以推斷其情緒狀態(tài)或行為意圖的人工智能系統(tǒng)④。這類人工智能系統(tǒng)具備一定的推理與預(yù)測(cè)能力,能夠利用自然人的面部表情、身體動(dòng)作等行為特征,對(duì)自然人當(dāng)下的情緒或意圖進(jìn)行深度分析。例如,系統(tǒng)可以通過(guò)捕捉自然人的面部微表情變化、眼球運(yùn)動(dòng)軌跡及身體姿態(tài),推斷其正處于憤怒、尷尬、輕蔑或興奮等情緒狀態(tài),并為每種情緒分配相應(yīng)的概率權(quán)重,以形成綜合性的分析結(jié)果。需注意的是,單純檢測(cè)自然人身體狀態(tài)的系統(tǒng),如用于識(shí)別駕駛員疲勞以預(yù)防事故的技術(shù),或用于醫(yī)療場(chǎng)景中監(jiān)測(cè)疼痛的設(shè)備,并不屬于情緒識(shí)別系統(tǒng)的范疇。
其二,生物特征分類系統(tǒng)(biometriccategorisa-tionsystem)是指根據(jù)自然人的生物特征數(shù)據(jù)將其劃分為特定類別的人工智能系統(tǒng)③。這些類別可能涉及廣泛的個(gè)體屬性,包括性別、年齡、頭發(fā)顏色、眼睛顏色、紋身樣式等生理特征,也可能延伸至個(gè)性特征、語(yǔ)言、宗教信仰、少數(shù)民族成員身份、性取向以及政治傾向等更為敏感的身份信息。例如,在機(jī)場(chǎng)安保領(lǐng)域,一種典型的生物特征分類系統(tǒng)可以通過(guò)對(duì)旅客面部特征的掃描與分析,快速將其劃分為不同性別、不同年齡段、不同種族或其他行為特征類別,并結(jié)合其表現(xiàn)出的姿態(tài)、表情以及身體動(dòng)作,綜合判斷其行為是否存在異常,從而為安保人員提供實(shí)時(shí)的風(fēng)險(xiǎn)評(píng)估參考。需要特別指出的是,并非所有依賴生物特征數(shù)據(jù)的分類技術(shù)均應(yīng)被歸入生物特征分類系統(tǒng)的范疇。若某一技術(shù)僅作為特定商業(yè)服務(wù)的附屬功能,并為該服務(wù)的實(shí)現(xiàn)所必要,其通常不在嚴(yán)格意義上的生物特征分類系統(tǒng)之列。例如,在線上購(gòu)物平臺(tái)為給消費(fèi)者提供虛擬試穿功能而使用基于用戶面部或身體特征的分類技術(shù)的情況,該類系統(tǒng)將被視為主服務(wù)(產(chǎn)品銷售)的附屬工具,其主要目的是優(yōu)化用戶體驗(yàn)而非進(jìn)行精細(xì)化分類,因此不屬于需被嚴(yán)格監(jiān)管的生物特征分類系統(tǒng)。
其三,遠(yuǎn)程生物特征識(shí)別系統(tǒng)(remotebiometricidentificationsystem)是指在無(wú)須自然人積極參與的情況下,通過(guò)比對(duì)個(gè)人生物特征數(shù)據(jù)與參考數(shù)據(jù)庫(kù)中的存儲(chǔ)信息,從遠(yuǎn)距離精確識(shí)別自然人的人工智能系統(tǒng)。其核心特征在于,系統(tǒng)能夠在被識(shí)別對(duì)象完全無(wú)感的情形下,通過(guò)遠(yuǎn)距離的方式完成身份識(shí)別?;跀?shù)據(jù)處理的時(shí)間要求,該類系統(tǒng)被進(jìn)一步細(xì)分為實(shí)時(shí)遠(yuǎn)程生物特征識(shí)別系統(tǒng)(real-timeremotebiomet-ricidentificationsystem)和事后遠(yuǎn)程生物特征識(shí)別系統(tǒng)(post-remote biometric identification system)。前者在生物特征數(shù)據(jù)的采集、比對(duì)與識(shí)別過(guò)程中,能夠?qū)崿F(xiàn)即時(shí)或近乎即時(shí)的響應(yīng)。此種響應(yīng)包括有限的短暫延遲,以避免人為設(shè)置輕微延遲對(duì)此刻意規(guī)避。后者則是指除了實(shí)時(shí)遠(yuǎn)程生物特征識(shí)別系統(tǒng)之外的遠(yuǎn)程生物特征識(shí)別系統(tǒng)。在這種“事后系統(tǒng)”的情形下,生物特征數(shù)據(jù)通常是在系統(tǒng)實(shí)際啟用之前就已被采集,并且在明顯延遲后才進(jìn)行比對(duì)與識(shí)別。
(三)生物特征識(shí)別型人工智能的風(fēng)險(xiǎn)分級(jí)
歐盟《人工智能法》第1條規(guī)定,人工智能的使用必須秉持可信賴性原則,且應(yīng)以人為本,確保在促進(jìn)技術(shù)進(jìn)步的同時(shí),對(duì)健康、安全和基本權(quán)利實(shí)現(xiàn)高水平的保護(hù)。為實(shí)現(xiàn)這一立法目的,歐盟引人了一套有針對(duì)性的基于風(fēng)險(xiǎn)的人工智能系統(tǒng)監(jiān)管機(jī)制,即根據(jù)人工智能系統(tǒng)可能產(chǎn)生的風(fēng)險(xiǎn)強(qiáng)度和影響范圍,采取相應(yīng)的規(guī)制措施和監(jiān)管要求③。在此基礎(chǔ)上,歐盟《人工智能法》認(rèn)為有必要禁止某些不可接受的人工智能系統(tǒng),并對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)及其運(yùn)營(yíng)商提出更加嚴(yán)格的要求。
1.被禁止的生物特征識(shí)別系統(tǒng)
歐盟《人工智能法》第2章明確開列數(shù)種應(yīng)當(dāng)禁止的人工智能系統(tǒng)。其中,生物特征識(shí)別系統(tǒng)因其涉及高度敏感的生物特征數(shù)據(jù)、潛在的隱私侵害風(fēng)險(xiǎn)以及可能引發(fā)的歧視問(wèn)題,成為被禁止的人工智能系統(tǒng)的重要部分。
其一,在工作和教育機(jī)構(gòu)的場(chǎng)合下,推斷自然人情緒的人工智能系統(tǒng)被明確禁止投放市場(chǎng)、投人服務(wù)或使用,但出于醫(yī)療或安全原因的投放和使用除外③。一方面,情緒識(shí)別系統(tǒng)的準(zhǔn)確性難以保證,其推斷結(jié)果受限于數(shù)據(jù)采集的完整性與質(zhì)量。例如,設(shè)備分辨率不足或樣本覆蓋不均可能導(dǎo)致結(jié)果偏差;自然人有意掩飾真實(shí)情緒或情緒外顯特征高度相似有可能產(chǎn)生誤判風(fēng)險(xiǎn)。另一方面,從倫理與隱私的角度來(lái)看,情緒作為自然人的主觀心理活動(dòng),具有高度的私密性,被外部技術(shù)手段分析和解讀可能對(duì)自然人造成強(qiáng)烈的心理負(fù)擔(dān)與不安。尤其在就業(yè)場(chǎng)景中使用這類情緒推斷技術(shù),將帶來(lái)比人臉識(shí)別等其他生物特征識(shí)別技術(shù)更強(qiáng)的侵入性[22]。
其二,基于自然人生物特征數(shù)據(jù)對(duì)其進(jìn)行分類,以推斷自然人的種族、政治觀點(diǎn)、工會(huì)成員、宗教或哲學(xué)信仰、性生活或性取向的生物特征分類系統(tǒng)被禁止投放市場(chǎng)、投入服務(wù)或使用。此類系統(tǒng)可能引發(fā)嚴(yán)重的歧視性后果和隱私侵害,可能進(jìn)一步導(dǎo)致對(duì)特定群體的不公平對(duì)待,因此有必要將其歸人被禁止的人工智能系統(tǒng)。然而,為平衡必要的執(zhí)法需求,歐盟《人工智能法》對(duì)某些特定情形做出了例外規(guī)定,允許對(duì)合法獲取的生物特征數(shù)據(jù)進(jìn)行標(biāo)記、過(guò)濾或分類,如根據(jù)頭發(fā)顏色或者眼睛顏色對(duì)圖像進(jìn)行分類,以協(xié)助執(zhí)法活動(dòng)
其三,以執(zhí)法為目的在公共場(chǎng)所使用實(shí)時(shí)遠(yuǎn)程生物特征識(shí)別系統(tǒng)的行為因其即時(shí)性和侵入性被歐盟《人工智能法》原則上禁止。此舉主要是考慮到該類系統(tǒng)的普遍應(yīng)用將營(yíng)造出一種無(wú)處不在的監(jiān)控氛圍,使個(gè)體長(zhǎng)期處于被觀察的心理壓力之下,從而對(duì)私人生活安寧造成嚴(yán)重侵?jǐn)_,甚至間接抑制集會(huì)自由、表達(dá)自由等基本權(quán)利的行使。同時(shí),實(shí)時(shí)遠(yuǎn)程識(shí)別技術(shù)高度依賴數(shù)據(jù)的質(zhì)量與算法的精度,錯(cuò)誤識(shí)別不僅會(huì)將個(gè)人置于不利境地,還可能通過(guò)執(zhí)法決策進(jìn)一步放大技術(shù)偏差的負(fù)面影響。鑒于此,歐盟將其納人禁正類的人工智能實(shí)踐,只有在此類系統(tǒng)對(duì)實(shí)現(xiàn)重大公共利益至關(guān)重要,且其帶來(lái)的風(fēng)險(xiǎn)小于預(yù)期效益時(shí),才可投入使用
2.高風(fēng)險(xiǎn)生物特征識(shí)別系統(tǒng)
歐盟《人工智能法》認(rèn)為,由于生物特征數(shù)據(jù)屬于特殊類別的敏感個(gè)人數(shù)據(jù),因此即使在相關(guān)歐盟和國(guó)家法律充許使用的情況下,也應(yīng)當(dāng)將生物特征識(shí)別系統(tǒng)的幾個(gè)關(guān)鍵使用情形歸類為高風(fēng)險(xiǎn)系統(tǒng)。根據(jù)歐盟《人工智能法》附件三,這些情形包括:對(duì)自然人進(jìn)行遠(yuǎn)程生物特征識(shí)別的人工智能系統(tǒng)和基于生物特征數(shù)據(jù)擬用于生物特征分類的人工智能系統(tǒng)和情緒識(shí)別系統(tǒng)。需要注意的是,這些高風(fēng)險(xiǎn)系統(tǒng)并不包括前文所述在特定場(chǎng)合或特定目的下被禁止的生物特征識(shí)別系統(tǒng)。針對(duì)這些高風(fēng)險(xiǎn)型生物特征識(shí)別系統(tǒng),歐盟《人工智能法》主要從以下三個(gè)重要方面作出了規(guī)制。
第一,歐盟《人工智能法》第9條提出風(fēng)險(xiǎn)管理系統(tǒng)的要求。具體而言,對(duì)于高風(fēng)險(xiǎn)型生物特征識(shí)別系統(tǒng),應(yīng)當(dāng)建立、實(shí)施、記錄和維護(hù)與其相關(guān)的風(fēng)險(xiǎn)管理系統(tǒng),并對(duì)此類系統(tǒng)進(jìn)行測(cè)試,以確定最合適、最有針對(duì)性的風(fēng)險(xiǎn)管理措施,確保高風(fēng)險(xiǎn)人工智能系統(tǒng)能始終如一地實(shí)現(xiàn)其預(yù)期目標(biāo)。尤其值得注意的是,在實(shí)施風(fēng)險(xiǎn)管理系統(tǒng)時(shí),提供商不僅應(yīng)當(dāng)考慮其預(yù)期目的,還應(yīng)當(dāng)考慮高風(fēng)險(xiǎn)人工智能系統(tǒng)是否可能對(duì)未成年人以及其他弱勢(shì)群體產(chǎn)生不利影響。
第二,歐盟《人工智能法》第10條對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)所涉及的數(shù)據(jù)處理行為提出了嚴(yán)格要求。對(duì)于特殊類別個(gè)人數(shù)據(jù)的處理,應(yīng)當(dāng)采用最先進(jìn)的安全保護(hù)措施和隱私保護(hù)措施(如匿名化處理),以確保所處理的個(gè)人數(shù)據(jù)是安全的、受保護(hù)的、有適當(dāng)保障措施的(如對(duì)訪問(wèn)的嚴(yán)格控制和記錄),并且確保只有具有保密義務(wù)的授權(quán)人員才能訪問(wèn)這些個(gè)人數(shù)據(jù)此外,這類系統(tǒng)的正常運(yùn)轉(zhuǎn)往往需要事先存儲(chǔ)大量生物特征數(shù)據(jù)模板,而針對(duì)這些數(shù)據(jù)的獲取方式,歐盟設(shè)置了嚴(yán)格的限制,尤其明確禁止通過(guò)互聯(lián)網(wǎng)或閉路電視錄像無(wú)差別抓取面部圖像以創(chuàng)建或擴(kuò)展面部識(shí)別數(shù)據(jù)庫(kù)
第三,歐盟《人工智能法》第13條對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)的透明性作出了規(guī)定。技術(shù)提供者在設(shè)計(jì)與開發(fā)過(guò)程中必須確保系統(tǒng)操作的透明性,以便部署商能夠全面了解系統(tǒng)的特性與局限,準(zhǔn)確解讀輸出結(jié)果并正確使用相應(yīng)功能。此類系統(tǒng)應(yīng)當(dāng)附有詳盡且清晰易懂的使用說(shuō)明,其中包括技術(shù)提供者及授權(quán)代表的身份與聯(lián)系方式、系統(tǒng)的功能特性與性能限制、預(yù)期的性能變化范圍、必要的人為監(jiān)督措施、計(jì)算與硬件資源需求、系統(tǒng)的預(yù)期壽命及維護(hù)規(guī)范,以及系統(tǒng)內(nèi)部機(jī)制的技術(shù)性描述。這一規(guī)則旨在強(qiáng)化技術(shù)開發(fā)者的信息披露義務(wù),以有效應(yīng)對(duì)人工智能技術(shù)在使用過(guò)程中普遍存在的信息不對(duì)稱問(wèn)題[23],減少系統(tǒng)誤用帶來(lái)的隱患。
三、歐盟模式的貢獻(xiàn)與局限
歐盟《人工智能法》對(duì)生物特征識(shí)別型人工智能進(jìn)行了較為系統(tǒng)的規(guī)制,但這一模式并非一蹴而就。自歐盟委員會(huì)2021年4月正式提出《人工智能法(草案)》(以下簡(jiǎn)稱草案)以來(lái),歷經(jīng)歐洲議會(huì)和歐盟理事會(huì)的多輪談判和審議,其立法過(guò)程充滿曲折與挑戰(zhàn)。從最初的草案,到一讀修正案,再到最終法案,期間圍繞諸多核心問(wèn)題始終存在爭(zhēng)議,立法者的立場(chǎng)也在不斷變化,最終也未能徹底解決生物特征識(shí)別技術(shù)帶來(lái)的所有難題。因此,在肯定歐盟模式的突破性貢獻(xiàn)的同時(shí),也應(yīng)清醒認(rèn)識(shí)到其局限性。
(一)歐盟模式的貢獻(xiàn)
1.人工智能的界定
2018年4月25日,歐盟委員會(huì)發(fā)布了《歐盟人工智能戰(zhàn)略》(Artificial Intelligence forEurope),首次給出了人工智能的定義,即具備一定自主性,能夠通過(guò)分析環(huán)境并采取行動(dòng)以實(shí)現(xiàn)特定目標(biāo)的系統(tǒng)。隨后,高級(jí)別專家小組在《人工智能的定義》(AdefinitionofArtificialIntelligence)中進(jìn)一步指出,理性是智能的重要組成內(nèi)容,人工智能系統(tǒng)應(yīng)能夠解釋數(shù)據(jù)、分析數(shù)據(jù),并對(duì)知識(shí)進(jìn)行推理。然而,2021年4月歐盟委員會(huì)提出的草案卻將人工智能界定為基于附件一所列技術(shù)和方法開發(fā)的軟件。這一寬泛的定義可能將一些簡(jiǎn)單的傳統(tǒng)軟件或編程方法包括在內(nèi),因而引發(fā)了激烈的爭(zhēng)議。鑒于此,在隨后的一讀修正案中,歐盟重新對(duì)人工智能作出定義,強(qiáng)調(diào)了人工智能系統(tǒng)的自主性,以縮小人工智能的范圍。
2024年7月正式公布的歐盟《人工智能法》在修正案基礎(chǔ)上進(jìn)一步明確人工智能系統(tǒng)的關(guān)鍵特征,將其定義為以機(jī)器為基礎(chǔ),設(shè)計(jì)上具備不同程度自主性且部署后可表現(xiàn)出適應(yīng)性的技術(shù)系統(tǒng),能夠根據(jù)輸入內(nèi)容推導(dǎo)生成可能影響物理或虛擬環(huán)境的輸出,如預(yù)測(cè)、內(nèi)容、建議或決策。結(jié)合該法序言(12)的規(guī)定,人工智能系統(tǒng)應(yīng)具備自主性、適應(yīng)性和推理能力三個(gè)關(guān)鍵特征。自主性體現(xiàn)為無(wú)須人類干預(yù)下的獨(dú)立運(yùn)行能力,適應(yīng)性則指系統(tǒng)在實(shí)際應(yīng)用中能根據(jù)具體情境進(jìn)行自我學(xué)習(xí)和調(diào)整的能力,推理能力則使系統(tǒng)能從輸入的數(shù)據(jù)推導(dǎo)模型或算法,以實(shí)現(xiàn)更高級(jí)別的預(yù)測(cè)功能?;诖?,諸如生物特征驗(yàn)證這類缺乏推理能力,僅依賴預(yù)設(shè)算法規(guī)則自動(dòng)運(yùn)行的系統(tǒng)被歐盟《人工智能法》排除在監(jiān)管范圍之外。由于自然人對(duì)這類系統(tǒng)的數(shù)據(jù)使用和潛在風(fēng)險(xiǎn)有較強(qiáng)的預(yù)期,這一做法較好地平衡了便捷性與隱私保護(hù)之間的關(guān)系。另一方面,對(duì)那些能夠?qū)崿F(xiàn)分類、分析、評(píng)估和預(yù)測(cè)功能,具備較強(qiáng)自我學(xué)習(xí)和推理能力的生物特征識(shí)別系統(tǒng),歐盟《人工智能法》則施以重點(diǎn)規(guī)制。由此可見(jiàn),在經(jīng)過(guò)各方廣泛討論和不斷修正后,歐盟最終形成了一個(gè)特征較為鮮明且具有一定針對(duì)性的人工智能定義。
2.基于風(fēng)險(xiǎn)的規(guī)制路徑
歐盟委員會(huì)在2020年2月發(fā)布的《人工智能白皮書》(WhitePaper on Artificial Intelligence)作為歐盟《人工智能法》的前身,就已強(qiáng)調(diào)人工智能的監(jiān)管框架應(yīng)側(cè)重于如何最大限度地降低潛在的各種風(fēng)險(xiǎn)。如果再往前考察可以發(fā)現(xiàn),作為數(shù)據(jù)保護(hù)領(lǐng)域的基石性法律,GDPR也同樣采取了這種基于風(fēng)險(xiǎn)的分級(jí)分類方法。在這種“路徑依賴”下,一方面,歐盟《人工智能法》為生物特征識(shí)別技術(shù)的應(yīng)用劃定了“紅線”,明晰了生物識(shí)別技術(shù)禁用與豁免的范圍,試圖限制生物特征識(shí)別型人工智能系統(tǒng)在敏感生物特征數(shù)據(jù)分類和推測(cè)方面的實(shí)踐。另一方面,由于生物特征識(shí)別通常涉及大規(guī)模數(shù)據(jù)處理,在面對(duì)廣泛人群時(shí),其潛在的風(fēng)險(xiǎn)與社會(huì)影響極為復(fù)雜,歐盟《人工智能法》將非禁正類的生物特征識(shí)別系統(tǒng)歸人高風(fēng)險(xiǎn)人工智能系統(tǒng)的類別,從風(fēng)險(xiǎn)管理、數(shù)據(jù)處理到透明度要求均設(shè)立了嚴(yán)格的標(biāo)準(zhǔn),并要求對(duì)此類人工智能系統(tǒng)的“整個(gè)生命周期\"進(jìn)行詳細(xì)的、持續(xù)的定期評(píng)估[3]。
這種基于風(fēng)險(xiǎn)的分級(jí)分類規(guī)制路徑致力于在保障安全與推動(dòng)發(fā)展的雙重目標(biāo)之間實(shí)現(xiàn)動(dòng)態(tài)平衡,通過(guò)采用“可伸縮且合比例\"的監(jiān)管措施24,在一定程度上破解了“科林格里奇困境”(CollingridgeDilemma)①,充分展現(xiàn)了歐盟在生物特征識(shí)別型人工智能監(jiān)管領(lǐng)域較高的立法系統(tǒng)性與規(guī)范性。尤其是禁止性規(guī)定與高風(fēng)險(xiǎn)監(jiān)管的劃分,不僅體現(xiàn)了立法者對(duì)倫理底線的堅(jiān)守和技術(shù)潛在風(fēng)險(xiǎn)的嚴(yán)格把控,同時(shí)也反映出在平衡技術(shù)創(chuàng)新與權(quán)利保障間的精細(xì)考量,從而有效防范技術(shù)失控或?yàn)E用所可能引發(fā)的不可逆后果。其對(duì)大規(guī)模生物特征數(shù)據(jù)利用所采取的審慎態(tài)度,正是對(duì)公眾隱私與數(shù)據(jù)安全的有力回應(yīng),這一邏輯與GDPR中的核心理念一脈相承,即優(yōu)先保護(hù)自然人在數(shù)字社會(huì)中的尊嚴(yán)與基本權(quán)利。
(二)歐盟模式的局限
1.備受爭(zhēng)議的實(shí)時(shí)遠(yuǎn)程生物特征識(shí)別系統(tǒng)在歐盟《人工智能法》的立法過(guò)程中,如何規(guī)制基于執(zhí)法目的在公共場(chǎng)所應(yīng)用實(shí)時(shí)遠(yuǎn)程生物特征識(shí)別系統(tǒng),是一個(gè)極具爭(zhēng)議的問(wèn)題。一部分議員主張全面禁止此類系統(tǒng),以杜絕可能帶來(lái)的“社會(huì)監(jiān)控\"效應(yīng);另一部分則認(rèn)為有必要為執(zhí)法部門創(chuàng)造例外,以便執(zhí)法部門能夠在特定情形下使用此類人工智能系統(tǒng),從而對(duì)特別嚴(yán)重的犯罪行為作出高效、有力的打擊[25]。在最初的草案中,該類系統(tǒng)被納入禁止范疇,但同時(shí)設(shè)定了三種例外情形:其一是用于有針對(duì)性地尋找特定潛在犯罪受害者(包括失蹤兒童);其二是用于預(yù)防恐怖襲擊或應(yīng)對(duì)對(duì)生命健康構(gòu)成具體且緊迫威脅的情況;其三是用于偵查、定位、識(shí)別或起訴理事會(huì)2002/584/JHA框架決議第2條第2款所列犯罪的嫌疑人,且這類犯罪根據(jù)該成員國(guó)的法律規(guī)定可判處的最長(zhǎng)期限在3年以上。盡管在一讀修正案中這些例外一度被剔除,但在最終的通過(guò)稿中,又以更加嚴(yán)格的條件予以復(fù)活。
具體而言,與草案相比,歐盟《人工智能法》對(duì)例外情形作出了更為精細(xì)的限定。例如,將“特定的潛在犯罪受害者\(yùn)"限定于綁架、販運(yùn)人口和性剝削三類犯罪,并將“失蹤兒童”的表述修改為“失蹤人員”。同時(shí),將例外三中的“犯罪\"限定為附件二中所列且可處以的最長(zhǎng)監(jiān)禁期限在4年以上的特定犯罪。更為重要的是,歐盟在此基礎(chǔ)上提出了三項(xiàng)嚴(yán)格要求:其一,即使在滿足例外條件的情況下,執(zhí)法機(jī)構(gòu)在使用此類人工智能系統(tǒng)之前,必須先完成高風(fēng)險(xiǎn)人工智能系統(tǒng)的基本權(quán)利影響評(píng)估,并在歐盟數(shù)據(jù)庫(kù)中注冊(cè)該系統(tǒng);其二,執(zhí)法機(jī)關(guān)不得僅憑此類人工智能系統(tǒng)的輸出內(nèi)容就作出對(duì)個(gè)人產(chǎn)生不利法律影響的決定;其三,執(zhí)法機(jī)關(guān)每次使用此類人工智能系統(tǒng)時(shí)都應(yīng)當(dāng)通知相關(guān)市場(chǎng)監(jiān)管機(jī)構(gòu)和國(guó)家數(shù)據(jù)保護(hù)機(jī)構(gòu),相關(guān)機(jī)構(gòu)收到通知后應(yīng)當(dāng)向委員會(huì)提交此類人工智能系統(tǒng)的年度使用報(bào)告,委員會(huì)則應(yīng)當(dāng)在此基礎(chǔ)上匯總數(shù)據(jù),公開年度報(bào)告。
可見(jiàn),在歷經(jīng)了“原則禁止 + 例外允許\"到“完全禁止”再到“嚴(yán)格限制下的例外充許”的立法過(guò)程后,歐盟對(duì)此類人工智能的應(yīng)用仍持謹(jǐn)慎保守的立場(chǎng)。在這一備受爭(zhēng)議的立法過(guò)程中,立法者一方面對(duì)該類系統(tǒng)可能賦予部署者難以約束的權(quán)力深感戒備,另一方面又力圖在保護(hù)公民基本權(quán)利的同時(shí)維護(hù)社會(huì)秩序與國(guó)家安全26。最終文本作為各方利益博弈下的妥協(xié)產(chǎn)物,雖在理論上構(gòu)建了較為嚴(yán)謹(jǐn)?shù)谋O(jiān)管框架,但其實(shí)際效果能否實(shí)現(xiàn)預(yù)期平衡,仍需在未來(lái)實(shí)踐中加以驗(yàn)證。
2.橫向立法模式的實(shí)施難題
從立法技術(shù)的角度看,歐盟的監(jiān)管模式與美國(guó)所采取的基于具體應(yīng)用場(chǎng)景實(shí)施分散化治理的做法形成鮮明對(duì)比[27]。歐盟《人工智能法》采取基于風(fēng)險(xiǎn)的規(guī)制路徑,對(duì)所有符合其定義的人工智能系統(tǒng),構(gòu)建一個(gè)跨越各個(gè)行業(yè)領(lǐng)域的統(tǒng)一監(jiān)管體系,體現(xiàn)其廣泛適用性的特點(diǎn)。然而,這種看似“一勞永逸\"的橫向立法模式在具體實(shí)施過(guò)程中不可避免地面臨諸多難題。
一方面,歐盟采取統(tǒng)一立法的做法可能忽視行業(yè)差異,難以實(shí)現(xiàn)精準(zhǔn)治理2,并且這種籠統(tǒng)的立法模式不僅無(wú)法節(jié)約立法成本,反而需要不斷出臺(tái)實(shí)施細(xì)則來(lái)完善其監(jiān)管架構(gòu)。2025年2月至3月,歐盟委員會(huì)先后發(fā)布《關(guān)于禁止人工智能系統(tǒng)實(shí)踐的指南》《人工智能系統(tǒng)定義指南》《高風(fēng)險(xiǎn)人工智能公共采購(gòu)標(biāo)準(zhǔn)合同條款》就是一個(gè)鮮明例證。與此同時(shí),為了避免像GDPR那樣因成員國(guó)理解和應(yīng)用不一致而導(dǎo)致法律執(zhí)行碎片化的現(xiàn)象再次出現(xiàn),歐盟《人工智能法》在歐盟層面治理和國(guó)家層面治理之間的相互作用以及其解釋和應(yīng)用方面的連貫性和統(tǒng)一性十分重要,這也同樣使得該法案的實(shí)施面臨極大挑戰(zhàn)[25]。
另一方面,盡管歐盟委員會(huì)宣稱《人工智能法》將推動(dòng)歐洲數(shù)字經(jīng)濟(jì)的增長(zhǎng)和創(chuàng)新,但這一論調(diào)缺乏有力的論據(jù)支持。事實(shí)上,歐盟《人工智能法》的廣泛約束和繁多條款可能導(dǎo)致企業(yè)面臨高昂的合規(guī)成本,即便是擁有大型法律部門的成熟企業(yè)遵守這些規(guī)定也頗具挑戰(zhàn),而對(duì)于初創(chuàng)企業(yè)和中小型公司,合規(guī)負(fù)擔(dān)將更為沉重[29]。有研究表明,到2025年,該法案每年將給歐洲企業(yè)帶來(lái)約109億歐元的損失,屆時(shí)累計(jì)損失將高達(dá)310億歐元[30。這將進(jìn)一步擴(kuò)大谷歌、微軟等大型跨國(guó)公司與中小企業(yè)之間的差距,鞏固前者的市場(chǎng)主導(dǎo)地位。由此,歐盟《人工智能法》在實(shí)踐中可能演變?yōu)闋奚行∑髽I(yè)利益的\"產(chǎn)品安全法\"[31]
四、生物特征識(shí)別型人工智能規(guī)制的中國(guó)方案
歐盟《人工智能法》在人工智能的法律治理方面邁出了先行一步,為全球提供了寶貴立法經(jīng)驗(yàn)與理論借鑒,但這并不意味著其他國(guó)家要亦步亦趨地進(jìn)行規(guī)則移植。我國(guó)人工智能立法,應(yīng)立足我國(guó)技術(shù)治理需求和現(xiàn)有法律體系,對(duì)歐盟模式進(jìn)行有思考的“揚(yáng)棄”,在平衡技術(shù)創(chuàng)新與法律監(jiān)管的基礎(chǔ)上,探索更契合我國(guó)實(shí)際的立法方案。
(一)采取縱向立法的監(jiān)管模式
承前所述,歐盟采取的橫向立法模式不僅面臨極高的立法成本,其后續(xù)的實(shí)施更面臨諸多困境。我國(guó)人工智能立法究竟應(yīng)當(dāng)采取什么模式,學(xué)界目前眾說(shuō)紛紜。有學(xué)者主張,制定統(tǒng)一的、綜合的《人工智能法》[32,在條文的設(shè)計(jì)上“宜粗不宜細(xì)\"33]。另有學(xué)者則認(rèn)為,應(yīng)當(dāng)制定人工智能的立法路線圖,有規(guī)劃地開展人工智能立法[34]。還有學(xué)者強(qiáng)調(diào)我國(guó)人工智能立法應(yīng)當(dāng)保持靈活性,不宜采取“一刀切”的立法模式[35]。綜合來(lái)看,對(duì)人工智能進(jìn)行立法規(guī)制是學(xué)者們的普遍共識(shí),但如何具體開展立法工作依然是一個(gè)棘手的難題。
筆者認(rèn)為,歐盟選擇橫向立法模式,實(shí)質(zhì)上是基于其在人工智能技術(shù)和產(chǎn)業(yè)發(fā)展方面相對(duì)滯后的現(xiàn)實(shí)而采取的一種立法策略。此舉意圖通過(guò)嚴(yán)格立法來(lái)限制外部輸入對(duì)內(nèi)部發(fā)展的影響,維護(hù)歐盟內(nèi)部的產(chǎn)業(yè)發(fā)展安全,并借此促使其他國(guó)家對(duì)其效仿,進(jìn)而在規(guī)則解釋及國(guó)際標(biāo)準(zhǔn)制定上穩(wěn)固其話語(yǔ)權(quán),在國(guó)際人工智能監(jiān)管競(jìng)賽上取得先發(fā)優(yōu)勢(shì)[36]。而我國(guó)的人工智能技術(shù)發(fā)展現(xiàn)狀則與歐盟不同。在過(guò)去十年內(nèi),我國(guó)已實(shí)現(xiàn)從“追趕\"到“并跑”乃至在部分領(lǐng)域“領(lǐng)跑\"的跨越,這樣的科技競(jìng)爭(zhēng)在未來(lái)或?qū)⒊掷m(xù)數(shù)十年。此時(shí)若急于出臺(tái)一部統(tǒng)一的《人工智能法》,可能使得企業(yè)的合規(guī)成本劇增,對(duì)人工智能技術(shù)創(chuàng)新和產(chǎn)業(yè)發(fā)展產(chǎn)生抑制效應(yīng)。另一方面,人工智能作為一個(gè)涉及多學(xué)科交叉的新興領(lǐng)域,其發(fā)展不僅重塑著傳統(tǒng)的人際交往模式,更催生了人與機(jī)器之間的全新互動(dòng)方式,這種根本性的變革要求法律的監(jiān)管不僅要依托技術(shù)的內(nèi)在邏輯,還必須融入技術(shù)倫理和社會(huì)倫理的深層考量,從而使人工智能立法面臨前所未有的復(fù)雜性和不確定性。即便投入大量立法資源制定一部綜合性的《人工智能法》,也難免因人工智能技術(shù)的迅速迭代更新而落入“出臺(tái)即過(guò)時(shí)”的尷尬境地。
鑒于此,我國(guó)宜采取縱向而非橫向、分步而非統(tǒng)一的立法模式,在基于技術(shù)成熟度和技術(shù)風(fēng)險(xiǎn)的實(shí)踐考量下,以分類規(guī)制與分階段推進(jìn)相結(jié)合的方式開展我國(guó)人工智能立法[37]。生物特征識(shí)別型人工智能作為一項(xiàng)應(yīng)用場(chǎng)景廣泛、功能不斷擴(kuò)展又風(fēng)險(xiǎn)顯著的關(guān)鍵技術(shù),其所依賴的生物特征數(shù)據(jù)具有高度敏感性,直接關(guān)乎個(gè)體隱私與自由等核心價(jià)值。隨著該技術(shù)在各領(lǐng)域的廣泛應(yīng)用,人們普遍擔(dān)憂若現(xiàn)有法律體系未能對(duì)這一問(wèn)題作出及時(shí)回應(yīng),技術(shù)發(fā)展的過(guò)大留白將不利于敏感個(gè)人信息和隱私權(quán)的保護(hù)[38]。故亟須通過(guò)專門立法予以監(jiān)管。
對(duì)生物特征識(shí)別型人工智能采取縱向立法策略,不僅體現(xiàn)著立法比例原則的要求,能夠較好地在鼓勵(lì)技術(shù)創(chuàng)新與防控技術(shù)風(fēng)險(xiǎn)之間實(shí)現(xiàn)平衡,避免“一刀切”式監(jiān)管對(duì)市場(chǎng)主體尤其是中小企業(yè)創(chuàng)新活力的不當(dāng)抑制,也為防范技術(shù)濫用侵害公民基本權(quán)利提供了制度保障。同時(shí),相較于統(tǒng)一的橫向立法模式,這種“漸進(jìn)式”的縱向立法具有成本較低、難度較小的優(yōu)勢(shì),其監(jiān)管措施更具針對(duì)性與靈活性,能夠及時(shí)回應(yīng)技術(shù)迭代與應(yīng)用場(chǎng)景拓展帶來(lái)的新型社會(huì)風(fēng)險(xiǎn),并通過(guò)對(duì)法律實(shí)施效果的考察,可以識(shí)別人工智能監(jiān)管中的薄弱環(huán)節(jié),厘清核心概念和爭(zhēng)議問(wèn)題,為未來(lái)制定統(tǒng)一的人工智能法積累必要的立法經(jīng)驗(yàn)。
(二)風(fēng)險(xiǎn)分級(jí)之外:不容忽視的權(quán)利保護(hù)路徑
歐盟從基于風(fēng)險(xiǎn)的監(jiān)管路徑出發(fā),為生物特征識(shí)別型人工智能劃定了不同風(fēng)險(xiǎn)等級(jí),對(duì)不可接受風(fēng)險(xiǎn)系統(tǒng)實(shí)施禁令并對(duì)高風(fēng)險(xiǎn)系統(tǒng)施加嚴(yán)格要求。對(duì)此,我國(guó)學(xué)者大多持肯定態(tài)度,認(rèn)為風(fēng)險(xiǎn)社會(huì)理論為人工智能法提供了有效的風(fēng)險(xiǎn)識(shí)別與應(yīng)對(duì)框架3,是人工智能治理制度設(shè)計(jì)的基點(diǎn)[40],應(yīng)借鑒歐盟的風(fēng)險(xiǎn)防控機(jī)制4,并進(jìn)一步對(duì)人工智能風(fēng)險(xiǎn)進(jìn)行場(chǎng)景化規(guī)制42。但也有部分學(xué)者認(rèn)為,風(fēng)險(xiǎn)分級(jí)的標(biāo)準(zhǔn)較為模糊且難以精準(zhǔn)衡量[43],且該種治理范式在促進(jìn)科技創(chuàng)新方面存在局限44,故應(yīng)當(dāng)探索其他人工智能法律治理路徑。
筆者認(rèn)為,風(fēng)險(xiǎn)分級(jí)的立法路徑在調(diào)和風(fēng)險(xiǎn)防控與技術(shù)創(chuàng)新之間的作用不可否認(rèn),但以生物特征數(shù)據(jù)這類與人格尊嚴(yán)密切相關(guān)的高度敏感的個(gè)人數(shù)據(jù)為“養(yǎng)料”的生物特征識(shí)別型人工智能,其天然具有侵犯?jìng)€(gè)人權(quán)利的傾向,僅依賴風(fēng)險(xiǎn)分級(jí)的技術(shù)視角難以全面應(yīng)對(duì)其對(duì)個(gè)體權(quán)利帶來(lái)的復(fù)雜挑戰(zhàn)。因此,以權(quán)利保護(hù)為核心的規(guī)制路徑應(yīng)成為我國(guó)此類人工智能立法的重要方向之一,以彰顯人工智能時(shí)代我國(guó)對(duì)生物特征數(shù)據(jù)保護(hù)的高度重視和對(duì)人格尊嚴(yán)、個(gè)人隱私和其他基本權(quán)利的深切關(guān)注,實(shí)現(xiàn)“技術(shù)向善”的治理目標(biāo)[45]。
首先,我國(guó)人工智能立法應(yīng)強(qiáng)化生物特征數(shù)據(jù)的保護(hù)?!吨腥A人民共和國(guó)個(gè)人信息保護(hù)法》以下簡(jiǎn)稱《個(gè)人信息保護(hù)法》已將生物識(shí)別信息納人敏感個(gè)人信息的范疇,對(duì)此類個(gè)人信息的處理活動(dòng)提出了更為嚴(yán)格的要求。基于此,我國(guó)人工智能立法應(yīng)當(dāng)與現(xiàn)行《個(gè)人信息保護(hù)法》緊密銜接,將其確立的基本原則落實(shí)到生物特征識(shí)別型人工智能系統(tǒng)的數(shù)據(jù)處理活動(dòng)中,并形成有針對(duì)性的細(xì)化規(guī)則。具體而言,目的特定原則要求明確生物特征數(shù)據(jù)的處理目的,且該目的應(yīng)當(dāng)具備合理性4,禁止超出既定用途之外的使用。例如,基于身份辨識(shí)目的采集的面部特征數(shù)據(jù),不得被濫用于營(yíng)銷活動(dòng)或其他不相關(guān)的用途。充分必要原則要求在生物特征識(shí)別系統(tǒng)的設(shè)計(jì)、部署和使用全過(guò)程融人“數(shù)據(jù)最小化\"理念,僅采集和處理為完成預(yù)定任務(wù)所必需的最少量數(shù)據(jù)。公開透明原則要求推動(dòng)生物特征識(shí)別技術(shù)應(yīng)用的可解釋性,數(shù)據(jù)處理者應(yīng)以易于相對(duì)方理解的方式披露數(shù)據(jù)處理的范圍、方式、目的、數(shù)據(jù)存儲(chǔ)期限、技術(shù)特性及對(duì)個(gè)人權(quán)益潛在的風(fēng)險(xiǎn)等相關(guān)信息,并通過(guò)公開報(bào)告披露此類人工智能系統(tǒng)的定期運(yùn)作情況及安全評(píng)估報(bào)告。
其次,我國(guó)人工智能立法應(yīng)高度關(guān)注生物特征識(shí)別型人工智能對(duì)殘障群體權(quán)利的特殊影響。一些殘疾人由于缺乏部分生物特征數(shù)據(jù)或在生物特征識(shí)別中存在生理障礙,難以順利提供原始數(shù)據(jù)而無(wú)法使用相關(guān)服務(wù)。例如,那些缺少虹膜或無(wú)法完成指紋或手掌掃描的個(gè)體,面臨無(wú)法訪問(wèn)生物識(shí)別系統(tǒng)的困境。有學(xué)者研究表明,在美國(guó)大約有91.4萬(wàn)人無(wú)法參與基于面部識(shí)別技術(shù)的項(xiàng)目,而在指紋識(shí)別技術(shù)的應(yīng)用方面則約有150萬(wàn)殘疾人士面臨類似困境47。這種技術(shù)障礙不僅限制了殘疾人在利用社會(huì)服務(wù)、進(jìn)行行政事務(wù)或享有各類公共資源方面的平等機(jī)會(huì),甚至在一定程度上會(huì)加劇其在就業(yè)和發(fā)展方面的不平等。因此,我國(guó)在推動(dòng)人工智能立法時(shí),應(yīng)注重保障殘疾人享有的平等參與文化生活的權(quán)利,要求人工智能系統(tǒng)的部署者和使用者為殘障群體提供非技術(shù)依賴的替代性服務(wù),同時(shí)在系統(tǒng)的設(shè)計(jì)階段要求技術(shù)開發(fā)者在數(shù)據(jù)收集、算法訓(xùn)練和模型構(gòu)建等環(huán)節(jié)充分考慮殘障群體的特殊需求,引入更具包容性的技術(shù)解決方案,探索殘障群體便利使用人工智能系統(tǒng)的路徑。
最后,我國(guó)人工智能立法應(yīng)針對(duì)生物特征識(shí)別型人工智能可能引發(fā)的侵權(quán)行為構(gòu)建完備的侵權(quán)責(zé)任要件。在歸責(zé)原則方面,鑒于該類人工智能系統(tǒng)具有的不可接受風(fēng)險(xiǎn)或高風(fēng)險(xiǎn)特性,立法應(yīng)當(dāng)引入以“危險(xiǎn)的產(chǎn)生與控制”為理論基礎(chǔ)的無(wú)過(guò)錯(cuò)責(zé)任原則,與《中華人民共和國(guó)民法典》對(duì)產(chǎn)品責(zé)任的規(guī)定實(shí)現(xiàn)銜接。在損害認(rèn)定方面,在直接性的人身或財(cái)產(chǎn)損害之外,還應(yīng)當(dāng)注意到人工智能侵權(quán)具有的大規(guī)模風(fēng)險(xiǎn)匯聚特征[48]。這種風(fēng)險(xiǎn)表現(xiàn)為單次數(shù)據(jù)處理行為可能未直接造成損失,但其累積效應(yīng)卻足以對(duì)個(gè)人信息權(quán)益構(gòu)成嚴(yán)重侵害。在因果關(guān)系認(rèn)定方面,考慮人工智能系統(tǒng)運(yùn)行過(guò)程的復(fù)雜性與不透明性,被侵權(quán)人往往難以掌握關(guān)鍵技術(shù)細(xì)節(jié),從而在舉證過(guò)程中處于劣勢(shì)地位,該類人工智能侵權(quán)中的因果關(guān)系認(rèn)定,應(yīng)適當(dāng)減輕被侵權(quán)人的舉證負(fù)擔(dān),跳出傳統(tǒng)的“可預(yù)見(jiàn)性”或“引起與被引起\"的理論限制,轉(zhuǎn)而側(cè)重于系統(tǒng)風(fēng)險(xiǎn)與損害后果之間的\"關(guān)聯(lián)性\"49],同時(shí)也可在特定情形下通過(guò)因果關(guān)系推定規(guī)則來(lái)化解被侵權(quán)人的舉證難題[50]
五、結(jié)語(yǔ)
作為人工智能領(lǐng)域的代表性技術(shù),生物特征識(shí)別型人工智能的迅速發(fā)展給世界各國(guó)帶來(lái)了前所未有的監(jiān)管挑戰(zhàn)。歐盟《人工智能法》作為全球首部針對(duì)人工智能領(lǐng)域進(jìn)行全面規(guī)制的綜合性法律,填補(bǔ)了國(guó)際法律體系的空白,為全球人工智能治理提供了重要的參考藍(lán)本。本文深人剖析了歐盟《人工智能法》對(duì)生物特征識(shí)別型人工智能所采取的“分界一分類一分級(jí)”規(guī)制模式,旨在為我國(guó)的立法實(shí)踐提供借鑒。未來(lái),人工智能法律體系的建設(shè)將是法律與技術(shù)、創(chuàng)新與風(fēng)險(xiǎn)、全球化與本土化之間的持續(xù)對(duì)話,其立法目標(biāo)不僅在于填補(bǔ)法律空白,更在于統(tǒng)籌技術(shù)風(fēng)險(xiǎn)防控與產(chǎn)業(yè)創(chuàng)新發(fā)展的雙重需求,以實(shí)現(xiàn)權(quán)利保障與技術(shù)創(chuàng)新的和諧統(tǒng)一。
參考文獻(xiàn):
[1]TURLEY J.Anonymity,obscurity,and technology:Recon-sideringprivacy in the age of biometrics[J].Boston Uni-versityLawReview,2020,100(6):2179-2262.
[2]STOCKWELLS,HUGHESM,ASHURSTC,etal.Thefu-ture of biometric technology for policing and law enforcement: informing UK regulation[EB/OL]. (2024-03-28)[2025-03-23]. https: //cetas.turing.ac.uk/sites/default/files/2024-03/cetas_research_report_-the_future_of_biomet-ric_technology_for_policing_and_law_enforcement_O.pdf.
[3] CHAPMAN D. The ideal approach to artificial intelli-gence legislation: combination of the United States andEuropean Union[J]. University of Miami Law Review,2023, 78(1): 265-296.
[4]楊顯濱.我國(guó)敏感個(gè)人信息處理規(guī)則的規(guī)范解釋與體系構(gòu)造[J].學(xué)術(shù)月刊,2022,54(10):107-119.
[5] ZWANENBURG M. Know thy enemy: The use of biomet-rics in military operations and international humanitarianlaw[J].International Law Studies Series.US Naval WarCollege,2021,97: 1404-1431.
[6]劉琦,于漢超,蔡劍成,等.大數(shù)據(jù)生物特征識(shí)別技術(shù)研究進(jìn)展[J].科技導(dǎo)報(bào),2021,39(19):74-82.
[7]HAAS EP.Back to the future: The use of biometrics, itsimpact on airport security,andhow thistechnologyshould be governed[J]. Journal of Air Law and Commerce,2019, 84(4): 459-490.
[8]姚永賢.生物特征識(shí)別技術(shù)用于社會(huì)治理的風(fēng)險(xiǎn)及法律控制[J].電子政務(wù),2022(11):95-105.
[9] KELLER P B, SHUM J. Biometrics: Is it always aboutyou?[J].RAIL: The Journal ofRobotics,Artificial Intelli-genceamp; Law,2019,2(2): 75-96.
[10]HUSSAINA,KHANSU,KHANN,et al.AI-driven be-havior biometrics framework for robust human activityrecognition in surveillance systems[J]. Engineering Ap-plications of Artificial Intelligence,2024,127: 107218.
[11] BISOGNI C, CIMMINO L, NAPPI M, et al. Walk as youfeel:Privacy preserving emotion recognition from gaitpatterns[J]. Engineering Applications of Artificial Intelli-gence,2024,128: 107565.
[12]陳永生.大數(shù)據(jù)預(yù)測(cè)警務(wù)的運(yùn)作機(jī)理、風(fēng)險(xiǎn)與法律規(guī)制[J].中國(guó)法學(xué),2024(5):165-184.
[13]馬方,唐娜.社會(huì)安全風(fēng)險(xiǎn)視域下預(yù)測(cè)性偵查的風(fēng)險(xiǎn)與多元治理[J].蘭州學(xué)刊,2023(11):87-100.
[14]顧理平.智能生物識(shí)別技術(shù):從身份識(shí)別到身體操控-公民隱私保護(hù)的視角[J].上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2021,50(5):5-13.
[15]林梓瀚,游祎,史淵.基于生物識(shí)別技術(shù)的全球個(gè)人信息安全治理研究[J].世界科技研究與發(fā)展,2022,44(6): 857-869.
[16]商希雪.生物特征識(shí)別信息商業(yè)應(yīng)用的中國(guó)立場(chǎng)與制度進(jìn)路——鑒于歐美法律模式的比較評(píng)價(jià)[J].江西社會(huì)科學(xué),2020,40(2): 192-256.
[17] FERGUSON A G.Facial recognition and the FourthAmendment[J].Minnesota Law Review,2021,105(3):1105-1210.
[18]洪丹娜.算法歧視的憲法價(jià)值調(diào)適:基于人的尊嚴(yán)[J].政治與法律,2020(8):27-37.
[19] HU M. Biometrics and an AIbill of rights[J]. DuquesneLawReview,2022, 60(2): 283-301.
[20]FERGUSON A G. Policing predictive policing[J]. Wash-ington University Law Review,2017,94(5): 1109-1190.
[21]張惠彬,孫倩紅.歐盟《人工智能法案》對(duì)于預(yù)測(cè)警務(wù)型人工智能的規(guī)制研究[J].中國(guó)人民公安大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2024,40(3):121-129.
[22]倪楠,徐潔茹.就業(yè)場(chǎng)景中情感計(jì)算下的個(gè)人信息保護(hù)[J].數(shù)字法治,2024(6): 80-95.
[23]劉文杰.何以透明,以何透明:人工智能法透明度規(guī)則之構(gòu)建[J].比較法研究,2024(2):120-134.
[24]劉子婧.歐盟《人工智能法》:演進(jìn)、規(guī)則與啟示[J].德國(guó)研究,2024,39(3):101-151.
[25] TUDORACHE D.Insights from the deliberation room:Negotiating theEU's AI Act[J].New York UniversityJournal of Law and Business,2024,20(3): 669-684.
[26]王天凡.人工智能監(jiān)管的路徑選擇——?dú)W盟《人工智能法》的范式、爭(zhēng)議及影響[J].歐洲研究,2024,42(3):1-173.
[27]梁正,王凈宇.美、歐人工智能治理的分歧、影響及其對(duì)中國(guó)的啟示[J].湖北社會(huì)科學(xué),2024(12):42-50.
[28]徐偉,張麗梅.人工智能立法:歐盟經(jīng)驗(yàn)與中國(guó)路徑[J].德國(guó)研究,2024,39(6):76-141.
[29]PHILIPPE J. The EU AI Act: Too early and too com-plex?[J]. New York University Journal of Law and Busi-ness,2024, 20(3): 685-700.
[30]MUELLERB.How much will the artificial intelligenceact cost Europe[EB/OL]. (2021-07-26)[2025-03-23].https://www2. datainnovation.org/2021-aia-costs. pdf.
[31]沃爾夫?qū)ざ嘁疗绽?《歐盟人工智能法案》的背景、主要內(nèi)容與評(píng)價(jià)——兼論該法案對(duì)勞動(dòng)法的影響[J].環(huán)球法律評(píng)論,2024,46(3):5-27.
[32]張凌寒.中國(guó)需要一部怎樣的《人工智能法》?——中國(guó)人工智能立法的基本邏輯與制度架構(gòu)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2024,42(3):3-17.
[33]楊建軍,張凌寒,周輝,等.人工智能法:必要性與可行性[J].北京航空航天大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2024,37(3): 162-174.
[34]鄭志峰.人工智能立法的一般范疇[J].數(shù)字法治,2023(6): 55-75.
[35]周漢華.論我國(guó)人工智能立法的定位[J].現(xiàn)代法學(xué),2024,46(5): 17-217.
[36] SMUHANA.From \"race to AI\"to \"race toAI regula-tion\":Regulatory competition for artificial intelligence[J].Law,Innovation and Technology,2021,13(1): 57-84.
[37]江必新,胡慧穎.人工智能安全發(fā)展的法治體系構(gòu)建[J].探索與爭(zhēng)鳴,2024(12):89-225.
[38]GONCALVESME,GAMEIRO MI.Does the centralityof values in the Lisbon Treaty promise more than it canactually offer?EU biometrics policy as case study[J].Eu-ropeanLawJournal,2014,20(1):21-33.
[39]鄭飛.論人工智能法體系化的理論基礎(chǔ)[J].中國(guó)政法大學(xué)學(xué)報(bào),2024(6):236-250.
[40]陳吉棟.以風(fēng)險(xiǎn)為基礎(chǔ)的人工智能治理[J].法治研究,2023(5): 52-60.
[41]皮勇.歐盟《人工智能法》中的風(fēng)險(xiǎn)防控機(jī)制及對(duì)我國(guó)的鏡鑒[J].比較法研究,2024(4):67-85.
[42]丁曉東.人工智能風(fēng)險(xiǎn)的法律規(guī)制——以歐盟《人工智能法》為例[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2024,42(5): 3-18.
[43]張凌寒.人工智能法律治理的路徑拓展[J].中國(guó)社會(huì)科學(xué),2025(1):91-206.
[44]趙精武.論人工智能法的多維規(guī)制體系[J].法學(xué)論壇,2024,39(3):53-66.
[45]許可.人工智能法律規(guī)制的第三條道路[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2025,43(1):59-71.
[46]武騰.人工智能時(shí)代個(gè)人數(shù)據(jù)保護(hù)的困境與出路[J].現(xiàn)代法學(xué),2024,46(4):116-130.
[47] LEE T.Biometricsand disabilityrights:Legal compli-ancein biometric identification programs[J].UniversityofIllinoisJournalofLaw,Technologyamp;Policy,2016,2016(2): 209-244.
[48]丁曉東.從網(wǎng)絡(luò)、個(gè)人信息到人工智能:數(shù)字時(shí)代的侵權(quán)法轉(zhuǎn)型[J].法學(xué)家,2025(1):40-192.
[49]胡巧莉.人工智能服務(wù)提供者侵權(quán)責(zé)任要件的類型構(gòu)造———以風(fēng)險(xiǎn)區(qū)分為視角[J].比較法研究,2024(6):57-71.
[50]鄭志峰.人工智能產(chǎn)品責(zé)任的立法更新[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2024,42(4):3-17.
Regulation of Biometric Identification Artificial Intelligence: EU Model and China's Approach
ZhangJianwena,YangZhijieh
(a.Civiland CommercialLawSchool;b.InternationalLaw School,Southwest University ofPolitical ScienceandLaw,Chongqing 40112o,China)
Abstract: The application of biometric recognition-based artificial intelligence in key areas such as urban management,administrativelaw enforcement,and predictive policing enhances the eficiencyof social governancewhilealso posing numerous challnges,including data leakage,privacy erosion,and algorithmic discrimination.Inresponse,the EUArtificial IntellgenceActhasestablishedaregulatorymodelof\"boundaries-classification-tiering\":firstly,by excluding biometric verification systems that lack autonomous learning and reasoning capabilities from the categoryof artificial intellgence systems,and then clasifying biometricrecognition systems intoemotionalrecognitionsystems, biometricclassification systems,and remote biometricrecognitionsystems,adopting arisk-based regulatory approach which categorizes themaseither prohibitedor high-risk AIsystems.However,the horizontal legislative approachof this law notonly incurs high implementation costsbut also tends tooverlook the diferences acrossvarious industries, making it dificult toachieve precise governance of biometric recognition technology,particularlyregarding theongoing controversiessurrounding theuse of real-time remote biometric recognition systems in public spaces.China's artificial inteligencelegislationshouldbe grounded inthecountry'stechnological governance needsand existing legal system,adoptingavertical legislativeregulatory model forbiometricrecognition technologies,andstrengthening the protection of biometric data from a rights-based perspective.
Keywords:artificial intelligence law; biometric recognition;EU model; risk classification; rights protection