人工智能技術(shù)在算力、算法、數(shù)據(jù)三要素的共振下,正重塑社會(huì)生產(chǎn)方式和產(chǎn)業(yè)格局。多國基于場景、風(fēng)險(xiǎn)等標(biāo)準(zhǔn)對(duì)人工智能技術(shù)發(fā)展與安全治理做出法律、政策安排,其典型代表為歐盟《人工智能法案》的出臺(tái)。我國的人工智能立法和治理體系也在日益完善。巴西于2024年醞釀的《人工智能法案》法案,目前正在實(shí)質(zhì)性推進(jìn)立法進(jìn)程。如獲通過,有望成為拉美地區(qū)首個(gè)建立綜合AI監(jiān)管體系的國家,其治理框架既借鑒歐盟經(jīng)驗(yàn),又結(jié)合農(nóng)業(yè)數(shù)字化、教育普惠等本土需求,為發(fā)展中國家提供了“監(jiān)管—?jiǎng)?chuàng)新”平衡的參考樣本。
一、巴西人工智能產(chǎn)業(yè)發(fā)展與立法概況
巴西作為拉丁美洲最大的經(jīng)濟(jì)體和人口最多的國家,其人工智能產(chǎn)業(yè)的發(fā)展展現(xiàn)出較大的市場潛力與獨(dú)特的發(fā)展態(tài)勢(shì),目前主要處于技術(shù)應(yīng)用環(huán)節(jié),在技術(shù)開發(fā)方面尚未展現(xiàn)出明顯優(yōu)勢(shì)。巴西互聯(lián)網(wǎng)指導(dǎo)委員會(huì)2021年的調(diào)查數(shù)據(jù)顯示,巴西有65707家公司引入了人工智能技術(shù),占全國公司總數(shù)的 13% ;在政府層面,45% 的聯(lián)邦機(jī)構(gòu)以及 22% 的國家組織正在運(yùn)用人工智能。因此,巴西對(duì)于人工智能的監(jiān)管需求也在呈現(xiàn)出來。
自2019年起,巴西立法機(jī)構(gòu)圍繞人工智能治理展開探索,形成一系列法案,逐步形成覆蓋基礎(chǔ)、原則、指導(dǎo)方針等倫理框架以及逝者圖像和音頻、專業(yè)輔助系統(tǒng)等特定場景的立法格局。盡管初期法案因技術(shù)認(rèn)知差異、利益協(xié)調(diào)困難未能通過,但為后續(xù)立法積累了重要經(jīng)驗(yàn)。
2023年,由法律專家委員會(huì)制定的《人工智能法案》(以下簡稱《法案》)的提出標(biāo)志著巴西在該領(lǐng)域形成的較為廣泛共識(shí)。該法案整合歐盟風(fēng)險(xiǎn)分級(jí)理念與本土發(fā)展需求,通過“風(fēng)險(xiǎn)分類 + 全周期治理”框架,試圖解決早期立法的碎片化問題。2024年12月10日,參議院全體會(huì)議上《法案》替代性文本獲得通過,并于2025年3月報(bào)送至眾議院,巴西有望確立人工智能系統(tǒng)開發(fā)、運(yùn)行與應(yīng)用的國家性指導(dǎo)規(guī)范,為人工智能技術(shù)的發(fā)展奠定法律基礎(chǔ)。
二、巴西人工智能治理框架
《法案》包含總則、權(quán)利、風(fēng)險(xiǎn)分類、人工智能系統(tǒng)管理、民事責(zé)任、良好行為規(guī)范和治理、嚴(yán)重事件報(bào)告、高風(fēng)險(xiǎn)人工智能公共數(shù)據(jù)庫、監(jiān)督和檢查、促進(jìn)可持續(xù)創(chuàng)新、公共當(dāng)局的職能以及解釋和過渡條款等十二章內(nèi)容,構(gòu)建了以權(quán)利保障、風(fēng)險(xiǎn)規(guī)制和激勵(lì)創(chuàng)新為核心的人工智能治理框架。該框架注重保護(hù)個(gè)人或群體的基本權(quán)利,要求人工智能系統(tǒng)相關(guān)方履行禁止歧視、保護(hù)個(gè)人信息和隱私等義務(wù),建立風(fēng)險(xiǎn)分類機(jī)制并制定相應(yīng)管理措施,同時(shí)設(shè)立國家人工智能監(jiān)管和治理系統(tǒng)等監(jiān)管機(jī)構(gòu)。此外,通過監(jiān)管沙盒營造良好監(jiān)管環(huán)境,設(shè)置數(shù)據(jù)挖掘合理使用制度,并為小微企業(yè)和初創(chuàng)企業(yè)提供創(chuàng)新激勵(lì),以保障人工智能產(chǎn)業(yè)的安全、可靠和持續(xù)發(fā)展。
(-) )以人為本 :保護(hù)基本權(quán)利與促進(jìn)社會(huì)福祉
1.“基于原則”的治理
在人工智能快速發(fā)展的當(dāng)下,“基于原則”的規(guī)制路徑聚焦于構(gòu)建人工智能發(fā)展的基礎(chǔ)性價(jià)值框架,確立公平、正義、自由等倫理道德觀念作為指導(dǎo)原則與治理目標(biāo),以此引導(dǎo)企業(yè)進(jìn)行自我管理?!霸瓌t”與《法案》中規(guī)定的隱私與個(gè)人信息保護(hù)、不受非法歧視等基本權(quán)利形成映射關(guān)系,為人工智能系統(tǒng)研發(fā)部署劃定了價(jià)值基線。
《法案》構(gòu)建的人工智能治理框架包含了十八條原則,相較于歐盟《人工智能法案》更為具體,為人工智能的開發(fā)、部署和應(yīng)用提供了指引。其中“包容性增長、可持續(xù)發(fā)展和社會(huì)福祉”原則、“禁止或者濫用歧視”原則以及“全面保護(hù)兒童和青少年”原則分別從發(fā)展目標(biāo)、制止算法偏見、未成年人保護(hù)角度闡釋對(duì)于基本權(quán)利的保護(hù)。
針對(duì)潛在的失業(yè)和社會(huì)福利問題,《法案》提出,在人工智能治理過程中需要重視其對(duì)勞動(dòng)者所產(chǎn)生的負(fù)面影響,鼓勵(lì)制定培養(yǎng)計(jì)劃,不斷提高勞動(dòng)者技能以適應(yīng)技術(shù)的發(fā)展,進(jìn)而促進(jìn)包容性增長、可持續(xù)發(fā)展,提高社會(huì)福祉。同時(shí),根據(jù)反歧視的有關(guān)規(guī)定,確立“禁止或者濫用歧視”原則,禁止人工智能系統(tǒng)開發(fā)、部署和利用過程中,以濫用或非法的方式,基于個(gè)人特征,對(duì)法律中規(guī)定的一項(xiàng)或者多項(xiàng)權(quán)利的承認(rèn)、享有或行使加以區(qū)別、排斥或偏袒,避免人工智能系統(tǒng)因算法偏見等因素對(duì)不同群體造成不公平對(duì)待。此外,《法案》也注重面向人工智能的未成年人保護(hù),考慮到未成年人的脆弱性,要求促進(jìn)和保護(hù)未成年人等弱勢(shì)群體的權(quán)利,明確禁止開發(fā)、部署和使用用于制作、傳播或者協(xié)助制作描述或者表現(xiàn)對(duì)未成年人的性虐待或者性剝削的材料的人工智能系統(tǒng),并且將可能會(huì)對(duì)未成年人生理、心理和道德造成負(fù)面影響的系統(tǒng)作為確定新的高風(fēng)險(xiǎn)人工智能系統(tǒng)的標(biāo)準(zhǔn)之一。
2.“基于權(quán)利”的治理
《法案》確立的AI監(jiān)管框架以巴西憲法權(quán)利為基礎(chǔ),保障受人工智能系統(tǒng)影響的個(gè)人和群體享有知曉交互方為人工智能的權(quán)利、隱私權(quán)和數(shù)據(jù)保護(hù)權(quán)、不受非法或?yàn)E用歧視和糾正偏見的權(quán)利。為保護(hù)可能受高風(fēng)險(xiǎn)人工智能系統(tǒng)影響的個(gè)人或群體,法律還賦予其額外的三項(xiàng)權(quán)利。第一,解釋權(quán),即用戶有權(quán)要求對(duì)AI系統(tǒng)做出的決策、建議或預(yù)測(cè)進(jìn)行解釋。該解釋需根據(jù)人工智能系統(tǒng)的復(fù)雜程度和涉及的主體,在合理的時(shí)間內(nèi)以簡單、易懂和適當(dāng)?shù)恼Z言免費(fèi)提供。第二,異議和審查權(quán),即用戶有權(quán)對(duì)AI系統(tǒng)的決定、建議或預(yù)測(cè)進(jìn)行質(zhì)疑,并要求人為審查 ;第三,審查權(quán),即在考慮技術(shù)發(fā)展背景和現(xiàn)狀的情況下,對(duì)智能系統(tǒng)決策享有人為審查的權(quán)利。
然而,這額外的三項(xiàng)權(quán)利須受到一定限制。一方面,若人工智能作出的決定、建議或預(yù)測(cè)涉及商業(yè)秘密,其解釋權(quán)應(yīng)有所限制 ;另一方面,行使權(quán)利需考慮技術(shù)現(xiàn)狀,高風(fēng)險(xiǎn)人工智能系統(tǒng)開發(fā)者、經(jīng)銷商及應(yīng)用者應(yīng)始終采取有效、適當(dāng)?shù)拇胧_保風(fēng)險(xiǎn)可控且符合技術(shù)實(shí)際。事實(shí)上,《法案》中許多權(quán)利并非全新,而是與巴西《通用數(shù)據(jù)保護(hù)法》等已有法律中確立的權(quán)利存在關(guān)聯(lián)。
(二)風(fēng)險(xiǎn)導(dǎo)向 :精準(zhǔn)監(jiān)管與分類治理
《法案》采用基于風(fēng)險(xiǎn)等級(jí)劃分的初步評(píng)估制度和作為問責(zé)工具的算法影響評(píng)估制度兩大工具,將具有不透明、復(fù)雜性、過程不可控的人工智能系統(tǒng)類型化,實(shí)現(xiàn)精準(zhǔn)監(jiān)管。此外,《法案》定義了通用人工智能和生成式人工智能,提出開發(fā)者要在投放市場前進(jìn)行風(fēng)險(xiǎn)評(píng)估,依法合規(guī)采集處理數(shù)據(jù)并公布數(shù)據(jù)集摘要等要求。
1.過度風(fēng)險(xiǎn)人工智能
《法案》要求在投入市場或投入使用之前,所有人工智能系統(tǒng)都必須經(jīng)過初步評(píng)估,并依據(jù)人工智能對(duì)受影響個(gè)人或群體產(chǎn)生不利影響的可能性與嚴(yán)重性等因素,將人工智能的風(fēng)險(xiǎn)等級(jí)劃分為“過度風(fēng)險(xiǎn)人工智能”“高風(fēng)險(xiǎn)人工智能”以及“其他人工智能”。
《法案》第13條明確禁止開發(fā)和使用可能嚴(yán)重?fù)p害個(gè)人或群體基本權(quán)利、健康、安全等且風(fēng)險(xiǎn)極高的“過度風(fēng)險(xiǎn)人工智能系統(tǒng)”,違者將面臨嚴(yán)厲處罰。具體而言,包括四種“過度風(fēng)險(xiǎn)人工智能系統(tǒng)”類型。一是禁止開發(fā)、實(shí)施或使用旨在侵害健康、安全等基本權(quán)利且危險(xiǎn)性高的系統(tǒng),如故意煽動(dòng)個(gè)人或群體自我傷害或危害他人。二是禁止公共機(jī)構(gòu)非法或不公平地依據(jù)自然人的社會(huì)行為或個(gè)性特征進(jìn)行計(jì)分以評(píng)估、分類、排名,影響其獲取商品、服務(wù)或公共政策制定。三是禁止在自主武器系統(tǒng)中開發(fā)、實(shí)施或使用人工智能,國防目的的人工智能開發(fā)和使用除外。四是禁止在公共開放空間的遠(yuǎn)程生物識(shí)別系統(tǒng)中使用人工智能,刑事領(lǐng)域有一定豁免。
2.高風(fēng)險(xiǎn)人工智能
《法案》第14條,考慮系統(tǒng)對(duì)可能受到影響的個(gè)人或群體產(chǎn)生不利影響的可能性和嚴(yán)重性,將涉及重要基礎(chǔ)設(shè)施、教育、就業(yè)、社會(huì)保障、公共服務(wù)、司法、自動(dòng)駕駛、衛(wèi)生醫(yī)療、移民和邊境管理等諸多重要領(lǐng)域的人工智能系統(tǒng)視為高風(fēng)險(xiǎn)系統(tǒng)。高風(fēng)險(xiǎn)人工智能系統(tǒng)的界定并非一成不變,主管部門將與國家人工智能監(jiān)管和治理系統(tǒng)合作,在提前通知的前提下,可對(duì)人工智能系統(tǒng)的重新分類,并依合理方式開展算法影響評(píng)估。
對(duì)于開發(fā)者和應(yīng)用者而言,在向市場推出或投放高風(fēng)險(xiǎn)人工智能系統(tǒng)時(shí),除保證系統(tǒng)安全和受影響的人或者群體的權(quán)利外,還需對(duì)系統(tǒng)的安全性、準(zhǔn)確性以及穩(wěn)定性做出評(píng)估并持續(xù)更新其記錄。如果系統(tǒng)存在導(dǎo)致歧視的風(fēng)險(xiǎn),需要采取措施來減輕和防止歧視性偏見。此外,對(duì)于生成合成內(nèi)容,應(yīng)當(dāng)進(jìn)行標(biāo)識(shí),以助于驗(yàn)證內(nèi)容真實(shí)性、來源以及追蹤其可能經(jīng)歷的任何修改或傳輸過程。
(三)創(chuàng)新激勵(lì):營造有利于技術(shù)發(fā)展的環(huán)境
《法案》從監(jiān)管環(huán)境、勞動(dòng)保障、市場激勵(lì)、可持續(xù)發(fā)展等多個(gè)方面激勵(lì)人工智能技術(shù)創(chuàng)新。其中“監(jiān)管沙盒”和版權(quán)及鄰接權(quán)規(guī)定值得關(guān)注。
1.監(jiān)管沙盒
巴西電信監(jiān)管機(jī)構(gòu)、金融監(jiān)管機(jī)構(gòu)在《法案》之前就進(jìn)行了沙盒實(shí)驗(yàn)探索,地方層面也開始制定監(jiān)管沙盒計(jì)劃。在《法案》中,主管當(dāng)局及部門監(jiān)管機(jī)構(gòu)將自主或應(yīng)請(qǐng)求為符合條件的實(shí)體設(shè)立監(jiān)管沙盒,使相關(guān)實(shí)體能在限定時(shí)間內(nèi)開發(fā)測(cè)試創(chuàng)新型人工智能系統(tǒng)。這一機(jī)制通過臨時(shí)豁免部分監(jiān)管限制,為技術(shù)驗(yàn)證提供靈活空間。法案著重扶持小微企業(yè)、初創(chuàng)企業(yè)及公私科研與創(chuàng)新機(jī)構(gòu)進(jìn)入測(cè)試環(huán)境,并構(gòu)建監(jiān)管成本減免機(jī)制,降低創(chuàng)新準(zhǔn)入門檻。同時(shí),主管部門有權(quán)決定限制或中斷高風(fēng)險(xiǎn)試驗(yàn),提供基本權(quán)利、消費(fèi)者權(quán)益及安全性三方面的保障。此外,試驗(yàn)參與方須依法承擔(dān)因測(cè)試環(huán)境中進(jìn)行的實(shí)驗(yàn)對(duì)第三方造成損害的民事賠償責(zé)任,該規(guī)定與沙盒的監(jiān)管豁免形成責(zé)任平衡。
2.訓(xùn)練數(shù)據(jù)版權(quán)保護(hù)與非商用數(shù)據(jù)挖掘合理使用
人工智能的發(fā)展相當(dāng)程度上依賴數(shù)據(jù)資源,然而獲取訓(xùn)練模型的相關(guān)數(shù)據(jù)權(quán)利人的許可存在巨大的交易成本,企業(yè)未經(jīng)許可使用相關(guān)數(shù)據(jù)資源造成內(nèi)容創(chuàng)作者與系統(tǒng)開發(fā)者之間的緊張關(guān)系。巴西法案力求在促進(jìn)創(chuàng)新與知識(shí)產(chǎn)權(quán)保護(hù)之間取得平衡?!斗ò浮芬笕斯ぶ悄芟到y(tǒng)開發(fā)者對(duì)其在系統(tǒng)開發(fā)過程中使用受版權(quán)和鄰接權(quán)保護(hù)的內(nèi)容進(jìn)行公示,同時(shí),賦予版權(quán)和鄰接權(quán)人禁止他人在系統(tǒng)開發(fā)中使用其作品的權(quán)利。此外,對(duì)于在人工智能系統(tǒng)的挖掘、培訓(xùn)、開發(fā)過程中使用他人作品的許可費(fèi)制度做出安排。
《法案》規(guī)定,科研機(jī)構(gòu)、教育機(jī)構(gòu)、博物館、公共檔案館及圖書館等非商業(yè)科研機(jī)構(gòu)可利用受保護(hù)內(nèi)容進(jìn)行文本和數(shù)據(jù)挖掘,以開發(fā)和研究人工智能系統(tǒng),這不構(gòu)成對(duì)作者權(quán)利及鄰接權(quán)的侵犯。但需遵循以下三大限制條件 :一是訪問內(nèi)容必須具有合法性 ;二是不具有商業(yè)目的 ;三是對(duì)受保護(hù)內(nèi)容的利用程度應(yīng)為實(shí)現(xiàn)目標(biāo)所必需,且不影響權(quán)利人的經(jīng)濟(jì)利益,不與作品和受保護(hù)內(nèi)容的正常利用產(chǎn)生競爭關(guān)系。
本文為中國社會(huì)科學(xué)院“數(shù)字化決策與國家治理”綜合實(shí)驗(yàn)室(編號(hào) :2024SYZH010)項(xiàng)目的階段性成果。
作者單位 :中國社會(huì)科學(xué)院大學(xué)互聯(lián)網(wǎng)法治研究中心、中國社會(huì)科學(xué)院大學(xué)法學(xué)院
