999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于風(fēng)險(xiǎn)的通用人工智能監(jiān)管

2024-06-14 00:00:00江海洋魏書敏
科技與法律 2024年2期

摘 " "要:以ChatGPT為代表的通用人工智能火爆全球,在改變我們生活以及提升生產(chǎn)效率的同時(shí),也引發(fā)了一系列的監(jiān)管挑戰(zhàn)。為此,歐盟《人工智能法案》采取了一種基于風(fēng)險(xiǎn)的監(jiān)管方法,通過對(duì)不同人工智能的風(fēng)險(xiǎn)進(jìn)行評(píng)估,將人工智能風(fēng)險(xiǎn)分為不可接受的風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)、最小風(fēng)險(xiǎn)幾個(gè)等級(jí),并對(duì)應(yīng)賦予了相應(yīng)等級(jí)的義務(wù)。但是,鑒于通用人工智能無固定任務(wù)性、適應(yīng)性、突現(xiàn)性等特點(diǎn),對(duì)其監(jiān)管有別于傳統(tǒng)人工智能,歐盟此種自上而下的靜態(tài)風(fēng)險(xiǎn)規(guī)制路徑難以有效監(jiān)管通用人工智能。因此,有必要采取一種動(dòng)態(tài)風(fēng)險(xiǎn)規(guī)制方法,將人工智能風(fēng)險(xiǎn)類別轉(zhuǎn)化為動(dòng)態(tài)風(fēng)險(xiǎn)情景,把風(fēng)險(xiǎn)的主要因素類型化為危害、暴露、脆弱性以及反應(yīng)。在判斷風(fēng)險(xiǎn)的等級(jí)時(shí),需綜合危害、暴露、脆弱性以及反應(yīng)四個(gè)要素。同時(shí),鑒于提供者、私人機(jī)構(gòu)制定高風(fēng)險(xiǎn)標(biāo)準(zhǔn)的缺陷,應(yīng)由立法者授權(quán)相關(guān)行政主管機(jī)關(guān)制定高風(fēng)險(xiǎn)的標(biāo)準(zhǔn),并立足于通用人工智能的開發(fā)到使用進(jìn)行全流程監(jiān)管。

關(guān)鍵詞:通用人工智能;歐盟人工智能法案;基于風(fēng)險(xiǎn)的方法;動(dòng)態(tài)風(fēng)險(xiǎn);ChatGPT

中圖分類號(hào):D 923 "文獻(xiàn)標(biāo)志碼: A " 文章編號(hào):2096-9783(2024)02?0088?10

一、問題的提出

以ChatGPT為代表的人工智能正在撼動(dòng)研究界乃至整個(gè)社會(huì),迅速改變著我們交流、創(chuàng)造和工作方式,其中通用人工智能系統(tǒng)(GPAIS)最為引人矚目。人工智能的大多數(shù)應(yīng)用程序都是為有限的特定任務(wù)而設(shè)計(jì)的。通常情況下,這些模型是由專家手動(dòng)設(shè)計(jì)的,從數(shù)據(jù)收集、數(shù)據(jù)建模到部署,要經(jīng)過許多步驟,這些步驟被稱為機(jī)器學(xué)習(xí)(ML)生命周期[1]。遺憾的是,大多數(shù)這些模型通常缺乏泛化能力,無法在未見過的任務(wù)中表現(xiàn)出色,因此,它們的實(shí)際應(yīng)用仍局限于訓(xùn)練時(shí)所針對(duì)的任務(wù)。然而,有許多場景需要更通用的人工智能去解決一系列任務(wù),而無需專門為它們?cè)O(shè)計(jì),這些人工智能系統(tǒng)往往就是指通用人工智能系統(tǒng)(GPAIS)。通用人工智能系統(tǒng)能解決不止一項(xiàng)任務(wù),并能在數(shù)據(jù)極少或調(diào)整的情況下泛化到未見過的任務(wù)中。通用人工智能的一個(gè)重要例子就是大型語言模型,如GPT-4。當(dāng)基礎(chǔ)模型橫跨多個(gè)應(yīng)用場景時(shí),很難將大模型歸入某一預(yù)設(shè)的特定場景中[2]。通用人工智能系統(tǒng)或提供的服務(wù)通常會(huì)被整合到下游的多個(gè)人工智能系統(tǒng)中,被用于上游提供商未監(jiān)督或未設(shè)想到的多種用途,這既包括普通的“插件”,如用于分析、翻譯語言的插件,也包括可以自動(dòng)生成文本、將語音轉(zhuǎn)換成文本、自動(dòng)機(jī)器人助手等多功能大型語言模型等。

通用人工智能模型正在迅速改變我們的交流、創(chuàng)造和工作方式,影響社會(huì)的各個(gè)領(lǐng)域,從商業(yè)發(fā)展到醫(yī)療,從教育到研究,從編碼到娛樂、藝術(shù)。通用人工智能模型蘊(yùn)藏著巨大的潛力,但也存在著巨大的風(fēng)險(xiǎn)。如今,數(shù)百萬用戶依靠通用人工智能生成人類水平的文本(如 GPT-4、Bing)、圖像(如 Stable Diffusion、DALL-E 2)、視頻(如 Synthesia)或音頻(如MusicLM),而更多的替代方案已經(jīng)在醞釀之中。這種多模式?jīng)Q策引擎可以為專業(yè)人員騰出時(shí)間,讓其專注于實(shí)質(zhì)性事務(wù),從而有助于提升專業(yè)人員的效率[3]。然而,出錯(cuò)的代價(jià)是高昂的,歧視、隱私等各種風(fēng)險(xiǎn)都需要解決。現(xiàn)在,通用人工智能不受約束的能力可能會(huì)被用來操縱輿論、制造假新聞或有害言論。同時(shí),鑒于通用人工智能不同于傳統(tǒng)意義上人工智能的特點(diǎn),在對(duì)其監(jiān)管時(shí),必然無法照搬以往的經(jīng)驗(yàn),這也導(dǎo)致對(duì)通用人工智能的監(jiān)管面臨極大挑戰(zhàn)。在我國,關(guān)于人工智能的監(jiān)管,尚處于起步階段,2023年4月,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《征求意見稿》)對(duì)人工智能系統(tǒng)的規(guī)范使用作了部分規(guī)定。但《征求意見稿》僅是宣示性規(guī)定[4],各項(xiàng)法律法規(guī)尚未頒布,為此,有必要借鑒域外經(jīng)驗(yàn),立足于通用人工智能的特征,為我國未來通用人工智能找到一條合適的規(guī)制路徑。

二、通用人工智能的技術(shù)特征

針對(duì)通用人工智能的具體定義,存在不同的界定。歐盟的《人工智能法案》是世界上第一部關(guān)于人工智能的擬議法律,對(duì)其定義如下:通用人工智能系統(tǒng)由提供者(provider)設(shè)計(jì),可執(zhí)行圖像和語音識(shí)別、音頻和視頻生成、模式檢測(cè)、問題解答、翻譯等普遍適用的功能;通用人工智能系統(tǒng)可在多種情況下使用,并可集成到多個(gè)其他人工智能系統(tǒng)中。這一定義受到很多批評(píng),因?yàn)榇朔N定義包容性過強(qiáng),例如簡單的圖像或語音識(shí)別系統(tǒng)都可以算作通用人工智能系統(tǒng)[2]。為此,有觀點(diǎn)認(rèn)為通用人工智能應(yīng)強(qiáng)調(diào)任務(wù)多元性,其指出,通用人工智能系統(tǒng)是指“能夠執(zhí)行圖像或語音識(shí)別、音頻或視頻生成、模式檢測(cè)、問題解答、翻譯等普遍適用功能的人工智能系統(tǒng),并且能具有多個(gè)預(yù)期和非預(yù)期目的”[2]。換言之,通用人工智能系統(tǒng)是一種人工智能系統(tǒng),可以完成或適應(yīng)完成一系列不同的任務(wù),包括一些不是故意和專門訓(xùn)練的任務(wù)[5],或最初提供者沒有預(yù)見或聲明的目的(任務(wù))。同時(shí),亦有觀點(diǎn)強(qiáng)調(diào)通用人工智能的技術(shù)適應(yīng)性,其認(rèn)為通用人工智能系統(tǒng)是在特別大的數(shù)據(jù)集上進(jìn)行訓(xùn)練,以執(zhí)行多種任務(wù),其特點(diǎn)在于通過遷移學(xué)習(xí)適應(yīng)更具體的任務(wù)[6]。

根據(jù)上述不同的定義,可以發(fā)現(xiàn)通用人工智能相較于普通人工智能系統(tǒng),主要存在以下不同特點(diǎn):

(一)無固定任務(wù)性

從本質(zhì)上講,任務(wù)是人工智能系統(tǒng)實(shí)現(xiàn)目標(biāo)的基石。任務(wù)的創(chuàng)建可以集中于一種能力和領(lǐng)域,也可以貫穿多個(gè)領(lǐng)域。此外,無論人工智能系統(tǒng)的產(chǎn)出有多么獨(dú)特,其任務(wù)仍然是一個(gè)可以用來衡量和比較不同系統(tǒng)活動(dòng)的因素。一般可以將人工智能系統(tǒng)分為兩類:固定用途系統(tǒng)和通用人工智能系統(tǒng)。首先是固定用途系統(tǒng),這種人工智能系統(tǒng)創(chuàng)建有特定的目標(biāo),只能完成訓(xùn)練好的任務(wù)。例如,固定用途翻譯人工智能系統(tǒng)僅限于翻譯文本。雖然此種人工智能系統(tǒng)可以與其他系統(tǒng)組合或結(jié)合,以完成更多的任務(wù),但如果每個(gè)系統(tǒng)都僅限于完成最初訓(xùn)練的任務(wù),那么它們就屬于固定用途系統(tǒng)。當(dāng)然,通用人工智能也可以被訓(xùn)練來完成特定任務(wù),但通用人工智能系統(tǒng)與固定用途系統(tǒng)的不同之處在于,其可以執(zhí)行原先沒有訓(xùn)練過的任務(wù),這是由于輸入數(shù)據(jù)的數(shù)量或模型結(jié)構(gòu)等綜合因素造成的[7]。換言之,通用人工智能基礎(chǔ)模型最重要的是進(jìn)行“訓(xùn)練”,模型訓(xùn)練的目的是獲得“能力”,獲得能力之后就可能被部署用來解決它們并未被專門訓(xùn)練過的任務(wù),且其輸出的多樣性和任務(wù)廣度也會(huì)遠(yuǎn)超一般模型[8]。

(二)適應(yīng)性

對(duì)于固定用途系統(tǒng)來說,一系列任務(wù)的執(zhí)行相對(duì)來說是循序漸進(jìn)的,系統(tǒng)要么能在一定程度上為某項(xiàng)任務(wù)生成輸出,要么完全不能。例如,人臉識(shí)別系統(tǒng)在獲得人臉的視覺信息后就會(huì)產(chǎn)生輸出結(jié)果。如果不提供圖像,該系統(tǒng)就無法發(fā)揮作用,而且它識(shí)別其他物體的能力也受到訓(xùn)練的限制。相比之下,通用人工智能可以學(xué)習(xí)執(zhí)行新的任務(wù),例如對(duì)新種類的物體進(jìn)行分類。隨著時(shí)間的推移,通用人工智能不僅能輕松適應(yīng)新的獨(dú)特任務(wù),而且還能在不需要太多適應(yīng)的情況下完成這些任務(wù)[9]。實(shí)際上,這與人類接觸新信息和學(xué)習(xí)適應(yīng)新環(huán)境的方式類似。在理想的情況下,通用人工智能能夠在沒有直接編程的情況下處理任務(wù),只要為它提供可以幫助其解決任務(wù)的數(shù)據(jù)。在實(shí)踐中,這種適應(yīng)通常是通過用任務(wù)描述的實(shí)例對(duì)通用人工智能進(jìn)行調(diào)節(jié)和引導(dǎo),或通過修改或微調(diào)其參數(shù)來實(shí)現(xiàn)的。事實(shí)上,通用人工智能能綜合來自不同領(lǐng)域的信息,并能在不同的環(huán)境和學(xué)科中應(yīng)用知識(shí)和技能。有些模型,如GPT-4,已經(jīng)顯示出一定的智能水平。這些通用人工智能模型在文學(xué)、數(shù)學(xué)、編程等各個(gè)領(lǐng)域都表現(xiàn)出很高的熟練程度,這使得它們不僅能用于一般任務(wù),而且還能用于高度專業(yè)化的任務(wù)。

(三)突現(xiàn)性

通用人工智能具有發(fā)展新興能力的潛力,使其能夠執(zhí)行最初提供者沒有預(yù)見的不同任務(wù)。換言之,具有突現(xiàn)功能性的通用人工智能系統(tǒng),很多時(shí)候能在模型參數(shù)數(shù)量或訓(xùn)練計(jì)算量達(dá)到臨界水平時(shí)表現(xiàn)出的令人驚訝的新能力。即使模型經(jīng)過訓(xùn)練,其創(chuàng)建者和用戶也不一定了解它的所有能力,只有在提供特定類型的輸入時(shí)才能發(fā)現(xiàn)某些能力領(lǐng)域[10]。這就導(dǎo)致其與其他人工智能系統(tǒng)不同,在固定用途的人工智能系統(tǒng)中,我們選擇一組任務(wù),然后訓(xùn)練一個(gè)系統(tǒng)來完成這些特定任務(wù)。而在通用人工智能中,我們先訓(xùn)練系統(tǒng),然后再選擇任務(wù)讓系統(tǒng)去做。截至2023年初,有證據(jù)表明至少大型語言模型能表現(xiàn)出新興能力,例如,有多個(gè)新興能力的例子已經(jīng)通過GPT-4、Chinchilla和PaLM等擴(kuò)展語言模型被實(shí)證發(fā)現(xiàn),這些例子包括修正算法、因果判斷、幾何圖形和物理問題[11]。

三、歐盟《人工智能法案》對(duì)通用人工智能的規(guī)制與不足

(一)歐盟《人工智能法案》對(duì)通用人工智能的規(guī)制

2018年,歐盟委員會(huì)發(fā)布“歐洲人工智能方法”,并首次表示希望歐盟成為人工智能革命的世界領(lǐng)導(dǎo)者。2020年2月歐盟委員會(huì)發(fā)布《人工智能白皮書》,同時(shí)還發(fā)布一份通報(bào)和一份報(bào)告,并得出結(jié)論認(rèn)為,歐盟目前的法律框架不足以應(yīng)對(duì)人工智能帶來的新挑戰(zhàn)。2021年4月21日,歐盟委員會(huì)公布了期待已久的人工智能(AI)立法提案:《人工智能法案》(AIA),為人工智能治理提供“硬法”支持[12]。歐盟《人工智能法案》總體目標(biāo)是,通過為在歐盟開發(fā)和使用值得信賴的人工智能系統(tǒng)創(chuàng)造條件,確保單一市場的正常運(yùn)作。該草案為人工智能產(chǎn)品和服務(wù)的開發(fā)、投放歐盟市場和使用制定了統(tǒng)一的法律框架。新的人工智能框架以《歐盟運(yùn)作條約》(TFEU)第114條和第16條為基礎(chǔ),對(duì)人工智能系統(tǒng)進(jìn)行技術(shù)中立的定義,并采用基于風(fēng)險(xiǎn)的方法,對(duì)歐盟境內(nèi)人工智能系統(tǒng)的開發(fā)、投放市場和使用規(guī)定了不同的要求和義務(wù)[13]。

鑒于人工智能的使用具有其特殊性(如不透明性、復(fù)雜性、對(duì)數(shù)據(jù)的依賴性、自主行為),可能會(huì)對(duì)一些基本權(quán)利和用戶的安全產(chǎn)生不利影響,《人工智能法案》采用了基于風(fēng)險(xiǎn)的方法,根據(jù)具體的風(fēng)險(xiǎn)程度進(jìn)行法律干預(yù)。《人工智能法案》對(duì)人工智能系統(tǒng)的幾個(gè)風(fēng)險(xiǎn)等級(jí)進(jìn)行明確的“關(guān)鍵性金字塔”定義。在該金字塔中,最高級(jí)臨界值表示人工智能系統(tǒng)具有“不可接受的風(fēng)險(xiǎn)”,應(yīng)予以禁止,而第1級(jí)則表示人工智能的潛在風(fēng)險(xiǎn)為零或可忽略不計(jì),無需采取特別措施。申言之,《人工智能法案》將人工智能系統(tǒng)分為:(1) 不可接受的風(fēng)險(xiǎn);(2) 高風(fēng)險(xiǎn);(3) 有限風(fēng)險(xiǎn);(4) 低風(fēng)險(xiǎn)或最小風(fēng)險(xiǎn)。人工智能應(yīng)用只有在應(yīng)對(duì)特定風(fēng)險(xiǎn)水平時(shí)才會(huì)受到嚴(yán)格必要的監(jiān)管,具體如下:

1.不可接受的風(fēng)險(xiǎn):禁止

《人工智能法案》第2章明確禁止有害的人工智能,這一類人工智能因?qū)θ藗兊陌踩⑸?jì)和權(quán)利造成的“不可接受的風(fēng)險(xiǎn)”而被禁止投放市場、投入服務(wù)或在歐盟使用。這一類人工智能包括使用有害的操縱性“潛意識(shí)技術(shù)”的人工智能系統(tǒng)、利用特定弱勢(shì)群體(身體或精神殘疾)的人工智能系統(tǒng)、由公共機(jī)構(gòu)或代表公共機(jī)構(gòu)用于社會(huì)評(píng)分目的的人工智能系統(tǒng)、為執(zhí)法目的在公共場所使用的“實(shí)時(shí)”遠(yuǎn)程生物識(shí)別系統(tǒng)(少數(shù)情況除外)等。

2.高風(fēng)險(xiǎn):受監(jiān)管

《人工智能法案》第3章就對(duì)人們的安全或基本權(quán)利造成不利影響的“高風(fēng)險(xiǎn)”人工智能系統(tǒng)進(jìn)行監(jiān)管。《人工智能法案》區(qū)分了兩類高風(fēng)險(xiǎn)人工智能系統(tǒng):用作產(chǎn)品安全組件或符合歐盟健康和安全協(xié)調(diào)立法的系統(tǒng)(如玩具、航空、汽車、醫(yī)療設(shè)備、電梯);在附件3所列8個(gè)具體領(lǐng)域部署的系統(tǒng),歐盟委員會(huì)可根據(jù)需要通過授權(quán)法案對(duì)其進(jìn)行更新。當(dāng)前《人工智能法案》附件3規(guī)定的被認(rèn)定為“高風(fēng)險(xiǎn)”的人工智能系統(tǒng)包括用于以下領(lǐng)域的人工智能技術(shù):自然人的生物識(shí)別和分類;重要基礎(chǔ)設(shè)施的管理和運(yùn)行;教育和職業(yè)培訓(xùn)就業(yè)、工人管理和自營職業(yè);獲取和享受基本的私人服務(wù)、公共服務(wù)和福利;執(zhí)法;移民、庇護(hù)和邊境控制管理;司法和民主進(jìn)程管理。

3.有限風(fēng)險(xiǎn):透明度義務(wù)

根據(jù)《人工智能法案》的規(guī)定,具有 “有限風(fēng)險(xiǎn)”的人工智能系統(tǒng),如與人類互動(dòng)的系統(tǒng)(即聊天機(jī)器人)、情感識(shí)別系統(tǒng)、生物特征分類系統(tǒng),以及生成或處理圖像、音頻或視頻內(nèi)容(即深度偽造)的人工智能系統(tǒng),將受到一套有限的透明度義務(wù)的約束。供應(yīng)商必須確保自然人(1)知道他們正在與人工智能打交道;(2)被告知人工智能是否使用了情感識(shí)別或生物特征分類;(3)被告知人工智能是否操縱了他們正在觀看的內(nèi)容。

4.低風(fēng)險(xiǎn)或最小風(fēng)險(xiǎn):無義務(wù)

所有其他風(fēng)險(xiǎn)較低或極低的人工智能系統(tǒng)都可以在歐盟開發(fā)和使用,無需遵守任何額外的法律義務(wù)。不過,《人工智能法案》設(shè)想制定行為準(zhǔn)則,以鼓勵(lì)非高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供商自愿適用針對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)的強(qiáng)制性要求。

值得注意的是,2023年5月的妥協(xié)文本包含了對(duì)初稿的兩處關(guān)鍵修改,引入了(a)一個(gè)額外的評(píng)估階段,使高風(fēng)險(xiǎn)分類不那么自動(dòng),以及(b)一項(xiàng)基本權(quán)利影響評(píng)估。關(guān)于第一項(xiàng)修改,被歸類為高風(fēng)險(xiǎn)的人工智能系統(tǒng)還必須構(gòu)成對(duì)人的健康、安全、基本權(quán)利或環(huán)境的所謂的“重大風(fēng)險(xiǎn)”,也即要求評(píng)估風(fēng)險(xiǎn)的嚴(yán)重性、強(qiáng)度、可能性、持續(xù)時(shí)間和潛在目標(biāo)。第二項(xiàng)修改規(guī)定,高風(fēng)險(xiǎn)系統(tǒng)的部署者在進(jìn)入市場前,必須與國家監(jiān)管機(jī)構(gòu)和相關(guān)利益攸關(guān)方協(xié)調(diào),進(jìn)行基本權(quán)利影響評(píng)估并制定風(fēng)險(xiǎn)緩解計(jì)劃[14]。

可以發(fā)現(xiàn),歐盟《人工智能法案》采取了一種基于風(fēng)險(xiǎn)的監(jiān)管模式。在歐盟的數(shù)字政策框架內(nèi),風(fēng)險(xiǎn)的概念本身最終成為一個(gè)維護(hù)個(gè)人基本權(quán)利與建設(shè)可以充分享受經(jīng)濟(jì)活力的內(nèi)部市場之間平衡的工具。在數(shù)字領(lǐng)域,歐盟委員會(huì)證明其已意識(shí)到發(fā)展中的技術(shù)在全球化經(jīng)濟(jì)背景下有多大的潛力,但同時(shí)也關(guān)注到大數(shù)據(jù)分析和在線數(shù)字服務(wù)及算法工具的傳播等帶來的威脅。歐盟《人工智能法案》通過采用基于風(fēng)險(xiǎn)的方法試圖推動(dòng)兩個(gè)目標(biāo):“經(jīng)濟(jì)”目標(biāo),即建立一個(gè)經(jīng)濟(jì)上可持續(xù)的數(shù)字單一市場;“憲法”目標(biāo),即尊重個(gè)人基本權(quán)利和民主價(jià)值[15]。很多學(xué)者對(duì)此表示贊同,面對(duì)人工智能時(shí)代的到來,“監(jiān)管機(jī)構(gòu)”應(yīng)將工作重點(diǎn)放在實(shí)現(xiàn)其目標(biāo)所面臨的最嚴(yán)重風(fēng)險(xiǎn)上[16]。快節(jié)奏的技術(shù)環(huán)境顯然是風(fēng)險(xiǎn)監(jiān)管的候選對(duì)象,因?yàn)楸O(jiān)管者在促進(jìn)和鼓勵(lì)持續(xù)創(chuàng)新與發(fā)展的同時(shí),也在尋求將風(fēng)險(xiǎn)降至最低。風(fēng)險(xiǎn)監(jiān)管涉及一套監(jiān)管目標(biāo)和一套工具,目標(biāo)一般是減少或消除風(fēng)險(xiǎn),吸引這種監(jiān)管形式的風(fēng)險(xiǎn)一般來自“復(fù)雜的系統(tǒng)或技術(shù)”[17]。卡明斯基認(rèn)為,風(fēng)險(xiǎn)監(jiān)管非常適合人工智能,因?yàn)槿斯ぶ悄芟到y(tǒng)在技術(shù)上非常復(fù)雜,至少在一定程度上是不可捉摸的,這使得事后補(bǔ)救方法無法適用。同時(shí),與任何軟件系統(tǒng)一樣,人工智能系統(tǒng)也有可能失敗,這使得事前監(jiān)管模式在預(yù)測(cè)和減輕潛在危害方面更加有用[17]。此外,基于風(fēng)險(xiǎn)的監(jiān)管方法不僅可以通過確定優(yōu)先事項(xiàng)和目標(biāo)使管理干預(yù)合理化,而且也有利于公平分配資源(如用于監(jiān)督和認(rèn)證的資源)以及節(jié)約成本[18]。

(二)歐盟《人工智能法案》基于風(fēng)險(xiǎn)的方法之批評(píng)

基于風(fēng)險(xiǎn)的監(jiān)管是一個(gè)寬泛的概念[19]。與歐盟其他基于風(fēng)險(xiǎn)的數(shù)字監(jiān)管工具不同,歐盟《人工智能法案》選擇一種規(guī)定性的基于風(fēng)險(xiǎn)的規(guī)制方法。該法案假定它可以識(shí)別出具有不可接受或高風(fēng)險(xiǎn)水平的人工智能實(shí)踐和系統(tǒng)類別,在這一前提下,法規(guī)文本詳盡列出了屬于不可接受和高風(fēng)險(xiǎn)類別的人工智能實(shí)踐和系統(tǒng)。

1.風(fēng)險(xiǎn)的具體劃定與通用人工智能的特征相沖突

可以發(fā)現(xiàn),歐盟《人工智能法案》此種基于風(fēng)險(xiǎn)的方法采取了一種自上而下的進(jìn)路,風(fēng)險(xiǎn)的類別由歐盟委員會(huì)直接定義,并在法律中確定。盡管確實(shí)為高風(fēng)險(xiǎn)的人工智能系統(tǒng)引入了風(fēng)險(xiǎn)管理系統(tǒng),但廣泛的自上而下的規(guī)則規(guī)定了如何實(shí)施,因此留給提供者、部署者與用戶的自由裁量權(quán)相對(duì)有限。然而,這種事先劃定不同風(fēng)險(xiǎn)等級(jí)以涵括現(xiàn)有的人工智能模型范圍,在保證法律相對(duì)明確性的同時(shí),也產(chǎn)生了一系列的問題。具體化和分類是大陸法系傳統(tǒng)的標(biāo)志,它們賦予規(guī)范接收者最大的可預(yù)測(cè)性,但具體化和分類會(huì)產(chǎn)生過度包容或包容不足的法律規(guī)則。當(dāng)應(yīng)用于動(dòng)態(tài)技術(shù)時(shí),過度包容或包容不足的問題就會(huì)凸顯。考慮人工智能技術(shù)的現(xiàn)有狀況,歐盟《人工智能法案》選擇通過人工智能系統(tǒng)狹窄的功能將人工智能系統(tǒng)置于風(fēng)險(xiǎn)制度之下,這就直接陷入了法律漏洞和過度包容的困境[20]。

具體而言,歐盟《人工智能法案》認(rèn)為,人工智能系統(tǒng)的風(fēng)險(xiǎn)水平一般取決于所執(zhí)行的功能以及使用該系統(tǒng)的具體目的和方式。歐盟《人工智能法案》依賴于一個(gè)關(guān)鍵假設(shè):立法者可以預(yù)見性地指定人工智能系統(tǒng)的特定“功能”(function)或“用例”(use case)。這種假設(shè)似乎不無道理,目前人工智能的許多應(yīng)用都是高度專業(yè)化的,是為在狹窄的環(huán)境和活動(dòng)范圍內(nèi)運(yùn)行而開發(fā)和驗(yàn)證的,例如內(nèi)容審核、修改或信用評(píng)分等。盡管如此,在技術(shù)變革的背景下,假設(shè)對(duì)特定功能的規(guī)范具有前瞻性可能會(huì)產(chǎn)生問題。一般而言,如果技術(shù)不穩(wěn)定,法律就必須跟上,以適應(yīng)指定的功能,這一點(diǎn)在計(jì)算技術(shù)方面尤為突出[21]。為了應(yīng)對(duì)這種不穩(wěn)定性,監(jiān)管機(jī)構(gòu)可以利用面向未來的法律策略,如主動(dòng)更新立法和試驗(yàn)性立法。但是,在法律中規(guī)定特定功能的假設(shè),對(duì)于朝著通用屬性發(fā)展的人工智能技術(shù)來說是難以實(shí)現(xiàn)的。

如上所述,通用人工智能系統(tǒng)具有無固定任務(wù)性、適應(yīng)性、突現(xiàn)性等特點(diǎn),其執(zhí)行的多是一些事前往往難以預(yù)測(cè)的任務(wù)。截至2022年,這種方法最突出的例子是大型語言模型(LLM),如GPT-4,它通過在海量文本數(shù)據(jù)的基礎(chǔ)上進(jìn)行訓(xùn)練,可以執(zhí)行各種任務(wù),往往缺乏特定功能或用途。對(duì)于通用人工智能系統(tǒng)來說,很難事先明確會(huì)引起安全或風(fēng)險(xiǎn)問題的功能或使用案例。事實(shí)上,通用人工智能所產(chǎn)生的功能和安全問題可能與我們今天所關(guān)注的功能和安全問題大相徑庭。因此,監(jiān)管機(jī)構(gòu)面臨著一個(gè)艱難的選擇。假設(shè)監(jiān)管機(jī)構(gòu)在技術(shù)發(fā)展的早期階段就采取行動(dòng),監(jiān)管機(jī)構(gòu)可能會(huì)錯(cuò)過有關(guān)通用人工智能技術(shù)及其對(duì)社會(huì)影響的重要信息,導(dǎo)致法律問題得不到充分解決。但如果監(jiān)管機(jī)構(gòu)花費(fèi)的時(shí)間太長,只在這些技術(shù)的負(fù)面影響已經(jīng)顯現(xiàn)時(shí)才采取監(jiān)管措施,又可能會(huì)帶來災(zāi)難性后果。技術(shù)法學(xué)者將這種窘境稱為步調(diào)問題[22]。

2.缺乏可審查的風(fēng)險(xiǎn)分類標(biāo)準(zhǔn)

歐盟《人工智能法案》對(duì)風(fēng)險(xiǎn)的分類主要根據(jù)人工智能的任務(wù)或適用領(lǐng)域來決定,這導(dǎo)致其缺乏可審查的風(fēng)險(xiǎn)分類標(biāo)準(zhǔn),很可能會(huì)影響歐盟《人工智能法案》的有效執(zhí)行。《人工智能法案》中所載的模式在很大程度上依賴于基于基本權(quán)利的方法,引入基本權(quán)利影響評(píng)估的修正案也證實(shí)了這一點(diǎn),這是該立法提案整體結(jié)構(gòu)的特點(diǎn)。然而,如果不能通過比例原則評(píng)估來減輕監(jiān)管負(fù)擔(dān),那么,對(duì)人工智能提供商或部署商來說就可能難以遵守歐盟《人工智能法案》。2023年5月的修正案允許根據(jù)對(duì)風(fēng)險(xiǎn)重要性的評(píng)估,即風(fēng)險(xiǎn)的概率、嚴(yán)重性、強(qiáng)度和對(duì)人們的潛在影響,對(duì)高風(fēng)險(xiǎn)系統(tǒng)分類進(jìn)行修訂,某種程度上是對(duì)2021年草案的修正與改進(jìn)。但是,這并非已經(jīng)完全解決了問題,對(duì)于“重大風(fēng)險(xiǎn)”仍缺乏明確的界定方法。

同時(shí),對(duì)于通用人工智能,決定如何使用該系統(tǒng)的不是提供者,而是專業(yè)用戶。正是用戶決定了該系統(tǒng)是屬于低風(fēng)險(xiǎn)還是高風(fēng)險(xiǎn)類別。換言之,社會(huì)的一些風(fēng)險(xiǎn)將來自終端用戶,又稱 “消費(fèi)者”使用這些系統(tǒng)的方式。根據(jù)對(duì)歐盟《人工智能法案》中“可作為高風(fēng)險(xiǎn)人工智能系統(tǒng)使用”的解釋,意味著只有在生成性人工智能被用于高風(fēng)險(xiǎn)領(lǐng)域時(shí),高風(fēng)險(xiǎn)人工智能的法律義務(wù)才會(huì)生效。但是,從社會(huì)和個(gè)人基本權(quán)利保護(hù)的角度來看,此時(shí)已經(jīng)為時(shí)已晚。正如上述,作為通用人工智能系統(tǒng)的生成式人工智能可以用于許多不同的目的,所以最重要的是激勵(lì)系統(tǒng)的提供者從數(shù)據(jù)質(zhì)量這個(gè)問題開始就考慮這些系統(tǒng)的安全性或風(fēng)險(xiǎn)。否則,任何潛在的偏見、隱私侵犯、內(nèi)容的非法使用或數(shù)據(jù)或模型中的其他不公平的情況都會(huì)滲透到無數(shù)可能的未來應(yīng)用中[23]。此外,若是簡單認(rèn)為因不能排除通用人工智能可能被用于高風(fēng)險(xiǎn)領(lǐng)域,就將所有通用人工智能系統(tǒng)都?xì)w屬于高風(fēng)險(xiǎn)類別,則可能會(huì)存在過度監(jiān)管的風(fēng)險(xiǎn)。

3.將基本權(quán)利納入安全框架存在手段與目的不兼容

歐盟《人工智能法案》將基本權(quán)利稱為壓倒一切的公共利益,將人工智能產(chǎn)品風(fēng)險(xiǎn)的定義擴(kuò)大到包括基本權(quán)利的風(fēng)險(xiǎn),針對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)的各種基本要求都是從基本權(quán)利的角度來制定的,比如需要說明在什么情況下使用人工智能系統(tǒng)可能會(huì)帶來風(fēng)險(xiǎn),這也引起了手段與目的不匹配的批評(píng)。一般而言,風(fēng)險(xiǎn)監(jiān)管對(duì)可量化的問題最有效。例如,量化和測(cè)量環(huán)境中有毒化學(xué)物質(zhì)的可接受水平,并將其降低到適當(dāng)?shù)娘L(fēng)險(xiǎn)水平,比要求開發(fā)者確保人工智能系統(tǒng)“公平”要容易得多[24]。旨在通過產(chǎn)品安全手段來實(shí)現(xiàn)基本權(quán)利保護(hù)的目的,在抽象層面上,這種方法是可行的,畢竟產(chǎn)品安全和基本權(quán)利保護(hù)都旨在減輕或預(yù)防風(fēng)險(xiǎn)。但是,產(chǎn)品安全方法與基本權(quán)利方法在本質(zhì)上是不同的,用于保護(hù)個(gè)人免受產(chǎn)品風(fēng)險(xiǎn)的手段依賴于形式的評(píng)估邏輯,這與指導(dǎo)基本權(quán)利評(píng)估的比例原則評(píng)估邏輯并不相同。

當(dāng)技術(shù)專家被要求對(duì)人工智能產(chǎn)品安全風(fēng)險(xiǎn)進(jìn)行評(píng)估時(shí),重點(diǎn)關(guān)注的是有關(guān)現(xiàn)實(shí)世界中存在的風(fēng)險(xiǎn)的客觀專業(yè)知識(shí)。例如,這種風(fēng)險(xiǎn)評(píng)估的重點(diǎn)可能是一臺(tái)一旦發(fā)生故障就可能造成人身傷害的機(jī)器。在這種情況下,風(fēng)險(xiǎn)似乎是現(xiàn)實(shí)中可以客觀評(píng)估和計(jì)算的一個(gè)方面。相比之下,考慮基本權(quán)利的風(fēng)險(xiǎn)管理采用定性而非定量的方法。歐盟《人工智能法案》盡管聲稱要計(jì)算風(fēng)險(xiǎn),但歐盟委員會(huì)可能考慮的是這種定性的方法,而不是數(shù)學(xué)計(jì)算。換言之,歐盟《人工智能法案》中基于風(fēng)險(xiǎn)的方法考慮了基本權(quán)利的風(fēng)險(xiǎn),如數(shù)據(jù)隱私和非歧視,當(dāng)機(jī)器學(xué)習(xí)中的偏見可能導(dǎo)致歧視時(shí),如在招聘過程中使用人工智能對(duì)申請(qǐng)人進(jìn)行評(píng)估時(shí),權(quán)利風(fēng)險(xiǎn)就會(huì)受到威脅[25]。通過采用GDPR中已知的“權(quán)利風(fēng)險(xiǎn)”方法,《人工智能法案》并不局限于風(fēng)險(xiǎn)管理中典型的風(fēng)險(xiǎn)技術(shù)視角。相反,這種方法將法律評(píng)估和風(fēng)險(xiǎn)評(píng)估結(jié)合在一起。但是,將“技術(shù)風(fēng)險(xiǎn)”與“權(quán)利風(fēng)險(xiǎn)”兩種風(fēng)險(xiǎn)思路結(jié)合起來并不容易。從技術(shù)角度看,相關(guān)利益一般涉及系統(tǒng)或機(jī)器互動(dòng)者的健康,結(jié)果往往可以量化。相反,與身體傷害不同,對(duì)權(quán)利的侵犯不是經(jīng)驗(yàn)問題,而是法律問題,在“權(quán)利風(fēng)險(xiǎn)”視角中,最終要保護(hù)的是人的基本權(quán)利,且引入了基于規(guī)范的推理,結(jié)果并非那么客觀[25]。換言之,從本質(zhì)上看,基本權(quán)利影響難以計(jì)算,其發(fā)生的可能性取決于許多法律問題,而不是計(jì)算。

四、動(dòng)態(tài)風(fēng)險(xiǎn)評(píng)估模式下通用人工智能監(jiān)管

(一)“風(fēng)險(xiǎn)”影響因素之界定

風(fēng)險(xiǎn)監(jiān)管的有效性是根據(jù)保護(hù)目標(biāo)的實(shí)際實(shí)現(xiàn)情況來評(píng)估的,如預(yù)防損害,監(jiān)管者必須對(duì)此負(fù)責(zé)。對(duì)于什么構(gòu)成相關(guān)風(fēng)險(xiǎn),必須有足夠明確和具體的標(biāo)準(zhǔn)或原則,這不僅是為了避免任意評(píng)估,也是為了在風(fēng)險(xiǎn)評(píng)估或合規(guī)性測(cè)試中提供法律確定性,并推導(dǎo)出適當(dāng)程度的監(jiān)管措施。實(shí)際上,根據(jù) ISO 31000 標(biāo)準(zhǔn),風(fēng)險(xiǎn)管理的第一步就是確定如何從后果和可能性的角度衡量風(fēng)險(xiǎn)的標(biāo)準(zhǔn)。《人工智能法案》的解釋性備忘錄則解釋說,根據(jù)基于風(fēng)險(xiǎn)評(píng)估的方法,該提案“基于逐個(gè)部門和逐個(gè)案例的方法”來確定風(fēng)險(xiǎn)。影響評(píng)估中進(jìn)一步解釋了選擇獨(dú)立高風(fēng)險(xiǎn)人工智能系統(tǒng)領(lǐng)域和使用案例的方法和標(biāo)準(zhǔn),并通過評(píng)估“危害的可能性和嚴(yán)重性”,以“確定人工智能系統(tǒng)是否對(duì)人的健康和安全以及基本權(quán)利和自由構(gòu)成高風(fēng)險(xiǎn)”[25]。與風(fēng)險(xiǎn)評(píng)估中有時(shí)對(duì)概率和后果的簡單量化相比,這些評(píng)估標(biāo)準(zhǔn)已經(jīng)屬于相對(duì)詳細(xì)和定性的。然而,鑒于通用人工智能系統(tǒng)表現(xiàn)出不可預(yù)測(cè)的風(fēng)險(xiǎn)程度、因多種因素相互作用而不斷升級(jí)的復(fù)雜性,以及對(duì)特定環(huán)境和受影響各方的高度依賴性,還需要進(jìn)一步對(duì)“基于風(fēng)險(xiǎn)的方法”中影響因素進(jìn)行明確與界定。事實(shí)上,風(fēng)險(xiǎn)可被視為危害 (hazard)、暴露 (exposure) 、脆弱性 (vulnerability) 以及反應(yīng) (response)的結(jié)果,具體而言,危害是指潛在的危害源;暴露是指可能受到危害源影響的情況;脆弱性指的是使暴露要素容易受到傷害的屬性或情況;反應(yīng)是指抵消或減輕風(fēng)險(xiǎn)的措施,也即環(huán)境對(duì)特定風(fēng)險(xiǎn)的抵御能力[26]。

首先,人工智能風(fēng)險(xiǎn)的危害驅(qū)動(dòng)因素可能是純技術(shù)性的,也可能是社會(huì)技術(shù)性的,還可能是人機(jī)交互造成的。例如,模型的不透明性、數(shù)據(jù)偏差、與其他設(shè)備的交互、編碼或監(jiān)督方面的錯(cuò)誤。后三種危害驅(qū)動(dòng)因素通常以綜合方式相互作用。例如,當(dāng)模型不透明引發(fā)不可預(yù)知性、不可管理性或安全、隱私威脅等連帶危害時(shí),交互作用就會(huì)層出不窮[26]。

其次,人工智能風(fēng)險(xiǎn)的暴露驅(qū)動(dòng)因素可以是有形資產(chǎn),如商品或環(huán)境,也可以是無形資產(chǎn),如專利權(quán)。《人工智能法案》的風(fēng)險(xiǎn)資產(chǎn)主要包括歐盟的基本價(jià)值觀,如健康、安全、公正、平等。如果人工智能對(duì)環(huán)境的不利影響與對(duì)健康的不利影響相疊加,則會(huì)產(chǎn)生復(fù)合效應(yīng)。在評(píng)估風(fēng)險(xiǎn)類別時(shí),要權(quán)衡人工智能對(duì)其預(yù)期所服務(wù)的價(jià)值和所暴露利益價(jià)值的影響,使用比例原則測(cè)試,也即通過適當(dāng)性(損害一種價(jià)值的風(fēng)險(xiǎn)類別只有在對(duì)另一種價(jià)值產(chǎn)生積極影響時(shí)才是適當(dāng)?shù)模⒈匾裕ó?dāng)促進(jìn)一種價(jià)值的兩種手段同樣適當(dāng)時(shí),應(yīng)選擇對(duì)其他價(jià)值干擾最小的手段)和均衡性(對(duì)一種價(jià)值的損害越大,實(shí)現(xiàn)另一種價(jià)值的重要性就越大)測(cè)試[26]。同時(shí),對(duì)人工智能影響所暴露的價(jià)值之間的相互作用與緩解措施之間的平衡亦需要通過比例原則性來判斷。這種判斷有助于通過定量分析,確定針對(duì)特定風(fēng)險(xiǎn)類別的風(fēng)險(xiǎn)緩解措施是否與特定情景合比例。

再次,人工智能風(fēng)險(xiǎn)中的脆弱性驅(qū)動(dòng)因素包括收入、教育、性別、種族和健康,以及缺乏控制機(jī)構(gòu)、程序或政策等因素。例如,若是在缺乏監(jiān)控或反饋機(jī)制的脆弱環(huán)境中部署人工智能系統(tǒng)等情況下,脆弱性驅(qū)動(dòng)因素之間的相互作用就會(huì)累積起來,會(huì)變得更加復(fù)雜,因?yàn)樗鼈儠?huì)相互交叉和影響。再如,若是缺乏人工智能系統(tǒng)的責(zé)任規(guī)則,就會(huì)引發(fā)那些受到使用人工智能系統(tǒng)不利影響的人的其他脆弱性。故而,脆弱性驅(qū)動(dòng)因素之間的相互作用就是連鎖的[26]。

最后,人工智能的反應(yīng)驅(qū)動(dòng)因素為人工智能開發(fā)、設(shè)計(jì)和部署提供制度保障。故而,《人工智能法案》中的風(fēng)險(xiǎn)評(píng)估和分類應(yīng)考慮現(xiàn)有的法律措施,這些措施可減輕人工智能技術(shù)的不利影響,例如GDPR中包含的措施[26]。

如上所述,與傳統(tǒng)的人工智能模型不同,通用人工智能具有更廣泛的范圍和自主性,其平滑的可擴(kuò)展性使其無需大量培訓(xùn)即可處理來自不同領(lǐng)域的輸入。與此同時(shí),通用人工智能可能被部署用來解決它們并未被專門訓(xùn)練過的任務(wù),輸出的多樣性和任務(wù)廣度也會(huì)遠(yuǎn)超一般模型,其不可預(yù)測(cè)的輸出也需要特別關(guān)注[8]。可以發(fā)現(xiàn),通過綜合危害驅(qū)動(dòng)因素、暴露驅(qū)動(dòng)因素、脆弱性驅(qū)動(dòng)因素,以及反應(yīng)驅(qū)動(dòng)因素權(quán)衡評(píng)估人工智能風(fēng)險(xiǎn),可對(duì)其風(fēng)險(xiǎn)進(jìn)行更準(zhǔn)確的分析。這種方法將人工智能風(fēng)險(xiǎn)類別轉(zhuǎn)化為動(dòng)態(tài)風(fēng)險(xiǎn)情景,隨著各因素之間的相互作用而變化,并確保采取更適度的監(jiān)管措施。某種程度上,這種動(dòng)態(tài)風(fēng)險(xiǎn)平衡更加契合通用人工智能。

具體而言,首先,可將通用人工智能的危險(xiǎn)驅(qū)動(dòng)因素界定為模型的內(nèi)在不透明性、數(shù)據(jù)集的大小、訓(xùn)練數(shù)據(jù)的質(zhì)量差或?yàn)E用等,當(dāng)這些危害驅(qū)動(dòng)因素復(fù)合在一起時(shí),就會(huì)導(dǎo)致人工智能產(chǎn)生歧視偏見等問題。其次,可將風(fēng)險(xiǎn)暴露因素界定為使用通用人工智能可能損害的價(jià)值,如使用Chat-4可能侵犯訓(xùn)練數(shù)據(jù)的版權(quán)或數(shù)據(jù)主體的隱私。再次,可將脆弱性驅(qū)動(dòng)因素界定為使個(gè)人或群體更容易受到通用人工智能負(fù)面影響的屬性,這可能會(huì)助長歧視或錯(cuò)誤信息,如性別、財(cái)富、年齡和教育等。最后,可將反應(yīng)驅(qū)動(dòng)因素界定為那些能夠應(yīng)對(duì)通用人工智能危害的措施,如數(shù)據(jù)質(zhì)量和收集標(biāo)準(zhǔn)、透明度、偏差審查和人工監(jiān)督等治理措施。

(二)“風(fēng)險(xiǎn)”的界定與監(jiān)管之流程

1.“風(fēng)險(xiǎn)”標(biāo)準(zhǔn)制定者之確定

在確定了評(píng)估風(fēng)險(xiǎn)的幾個(gè)因素之后,還需要注意不可接受風(fēng)險(xiǎn)或高風(fēng)險(xiǎn)標(biāo)準(zhǔn)由誰制定的問題。根據(jù)歐盟《人工智能法案》的規(guī)定,對(duì)于高風(fēng)險(xiǎn)系統(tǒng)的提供者而言,當(dāng)他們遵循標(biāo)準(zhǔn)化組織提供的統(tǒng)一標(biāo)準(zhǔn)時(shí),可以假定其符合歐盟《人工智能法案》的要求。歐盟委員會(huì)可以授權(quán)歐洲標(biāo)準(zhǔn)化組織制定統(tǒng)一標(biāo)準(zhǔn),若是沒有統(tǒng)一標(biāo)準(zhǔn),或者歐盟委員會(huì)認(rèn)為統(tǒng)一標(biāo)準(zhǔn)不夠充分,歐盟委員會(huì)可以采用通用規(guī)格。可以發(fā)現(xiàn),歐盟《人工智能法案》賦予民間標(biāo)準(zhǔn)化機(jī)構(gòu)或開發(fā)者規(guī)范決策的關(guān)鍵作用。

然而,在基本權(quán)利方面,由標(biāo)準(zhǔn)化機(jī)構(gòu)制定社會(huì)規(guī)則是有問題的。首先,根據(jù)歐盟法律,將規(guī)則制定權(quán)授予私營標(biāo)準(zhǔn)化機(jī)構(gòu)會(huì)引發(fā)合憲性問題,這主要是由于缺乏司法監(jiān)督和司法審查。其次,標(biāo)準(zhǔn)化機(jī)構(gòu)并非社會(huì)的合法代表,其制定程序往往透明度較低,不同利益相關(guān)者群體參與所需的資源不對(duì)稱,缺乏對(duì)利益相關(guān)者或受影響者的系統(tǒng)性包容。再次,標(biāo)準(zhǔn)化機(jī)構(gòu)沒有足夠的民主控制,也沒有與立法相同的程序保障和公眾監(jiān)督、辯論選擇,其是否能從受影響者的角度識(shí)別、調(diào)查以及評(píng)估基本權(quán)利的潛在風(fēng)險(xiǎn)令人懷疑[27]。因此,就我國而言,為避免標(biāo)準(zhǔn)的制定被利益集團(tuán)所掌控,高風(fēng)險(xiǎn)標(biāo)準(zhǔn)制定的較為穩(wěn)妥的方式是由立法者授權(quán)相關(guān)行政主管機(jī)關(guān)制定,并在制定的過程中積極向社會(huì)征求意見,如此方能兼顧民主性與專業(yè)性。

2.“風(fēng)險(xiǎn)”監(jiān)管全流程之提倡

鑒于人工智能的本質(zhì)在于信息輸入與輸出之間的關(guān)系,對(duì)有關(guān)產(chǎn)品和技術(shù)的研發(fā)、應(yīng)用應(yīng)進(jìn)行全流程監(jiān)管[28],也即監(jiān)管治理環(huán)節(jié)應(yīng)從單一的事后監(jiān)管轉(zhuǎn)變?yōu)椤笆虑氨O(jiān)督—事中干預(yù)—事后審查”的全流程監(jiān)管模式[29]。對(duì)通用人工智能運(yùn)算的全流程進(jìn)行監(jiān)管,這是為了降低算法偏見導(dǎo)致錯(cuò)誤結(jié)論的概率,能夠及時(shí)發(fā)現(xiàn)與規(guī)制通用人工智能運(yùn)行過程中的算法偏見,系統(tǒng)地推進(jìn)算法可信、可控制度體系的構(gòu)建,避免算法偏見阻礙人工智能技術(shù)的發(fā)展與推廣[30]。事實(shí)上,對(duì)通用人工智能全流程監(jiān)管的路徑亦反映在我國出臺(tái)的諸如《新一代人工智能發(fā)展規(guī)劃》《新一代人工智能治理原則》《關(guān)于規(guī)范和加強(qiáng)人工智能司法應(yīng)用的意見》等一系列政策法規(guī)之中。這些法規(guī)均提出了人工智能“風(fēng)險(xiǎn)”安全可控的治理目標(biāo),明確要求通過算法透明、算法設(shè)計(jì)、算法輸出等具體規(guī)范建立公開透明的責(zé)任體系,進(jìn)而實(shí)現(xiàn)從起點(diǎn)至結(jié)果全流程介入干預(yù)人工智能的治理[31]。

具體而言,借鑒歐盟基于風(fēng)險(xiǎn)的規(guī)制路徑,應(yīng)對(duì)通用人工智能產(chǎn)品設(shè)計(jì)一套可以覆蓋其從入市前到入市后全生命周期的規(guī)制措施。歐盟《人工智能法案》將人工智能規(guī)制周期分成幾個(gè)階段:設(shè)計(jì)開發(fā)、評(píng)估、CE標(biāo)志認(rèn)證、注冊(cè)、監(jiān)測(cè)。在設(shè)計(jì)開發(fā)階段,歐盟《人工智能法案》要求以日志和記錄保存的形式實(shí)現(xiàn)透明和文檔化,同時(shí),還要求高風(fēng)險(xiǎn)系統(tǒng)的提供者建立一個(gè)“風(fēng)險(xiǎn)管理系統(tǒng)”,由一個(gè)“貫穿高風(fēng)險(xiǎn)人工智能系統(tǒng)整個(gè)生命周期的持續(xù)迭代過程”組成。在評(píng)估階段,高風(fēng)險(xiǎn)人工智能系統(tǒng)必須符合歐盟《人工智能法案》第2章的各項(xiàng)要求,并遵循合格評(píng)估程序,才能進(jìn)入歐盟市場。合格評(píng)估程序?qū)嶋H上存在第三方評(píng)估或自我評(píng)估兩種形式,具體采取何種評(píng)估取決于高風(fēng)險(xiǎn)人工智能系統(tǒng)的分類,也即擬用作產(chǎn)品安全組件的人工智能系統(tǒng)需要經(jīng)過第三方事前合格評(píng)定,而歐盟《人工智能法案》附件3中明確列出的主要涉及基本權(quán)利的其他人工智能系統(tǒng)則可自我評(píng)估。對(duì)于這種區(qū)分,有學(xué)者認(rèn)為,鑒于人工智能的力量和社會(huì)影響,對(duì)高風(fēng)險(xiǎn)人工智能允許進(jìn)行自我評(píng)估顯得不太嚴(yán)謹(jǐn)[32],就我國而言,為避免評(píng)估形式主義,針對(duì)高風(fēng)險(xiǎn)通用人工智能系統(tǒng)還是應(yīng)由第三方機(jī)構(gòu)進(jìn)行評(píng)估。只有通過合格評(píng)估之后,高風(fēng)險(xiǎn)人工智能才能獲得合格標(biāo)志認(rèn)證,在獲得認(rèn)證之后、人工智能系統(tǒng)上市前,供應(yīng)商還需要將高風(fēng)險(xiǎn)人工智能系統(tǒng)注冊(cè)到歐盟委員會(huì)控制并向公眾開放的數(shù)據(jù)庫中。最后,在人工智能系統(tǒng)上市后,供應(yīng)商還需要以與人工智能技術(shù)性質(zhì)以及高風(fēng)險(xiǎn)人工智能系統(tǒng)的風(fēng)險(xiǎn)相稱的方式,建立并記錄上市后監(jiān)測(cè)系統(tǒng),收集分析人工智能系統(tǒng)整個(gè)生命周期內(nèi)運(yùn)營性能的數(shù)據(jù),并就人工智能系統(tǒng)的相關(guān)事故或故障通知相關(guān)監(jiān)管機(jī)構(gòu)。

五、結(jié)語

以ChatGPT等生成式人工智能為代表的通用人工智能的出現(xiàn)極大改變了世界,其在提高效率的同時(shí),也帶來了數(shù)據(jù)合規(guī)風(fēng)險(xiǎn)、生成內(nèi)容濫用風(fēng)險(xiǎn)、算法濫用風(fēng)險(xiǎn)等一系列風(fēng)險(xiǎn),對(duì)現(xiàn)有的法律體系造成一定挑戰(zhàn)。當(dāng)前,我國關(guān)于人工智能的風(fēng)險(xiǎn)的規(guī)范治理框架尚未完全明確,對(duì)此,可以批判地借鑒吸收歐盟多年的討論與研究成果。針對(duì)通用人工智能的技術(shù)特征,采取一種基于動(dòng)態(tài)風(fēng)險(xiǎn)的路徑對(duì)其進(jìn)行監(jiān)管,制定出“風(fēng)險(xiǎn)”界定的程序與實(shí)質(zhì)標(biāo)準(zhǔn),立足于人工智能的開發(fā)到使用進(jìn)行全流程監(jiān)管,并在監(jiān)管過程中實(shí)現(xiàn)公眾、監(jiān)管機(jī)關(guān)、被監(jiān)管者的全面參與。

參考文獻(xiàn):

[1] ROB A, RADU C, COLIN P. Assuring the Machine Learning Lifecycle: Desiderata, Methods, and Challenges[EB/OL].(2022-06-05)[2023-11-15].https://arxiv.org/pdf/1905.04223.pdf.

[2] 張璐. 通用人工智能風(fēng)險(xiǎn)治理與監(jiān)管初探——ChatGPT引發(fā)的問題與挑戰(zhàn)[J]. 電子政務(wù), 2023(9): 18.

[3] PHILIPP H, ANDREAS E, MARCO M. Regulating ChatGPT and other Large Generative AI Models[R/OL].(2023-06-12)[2023-11-15].https://doi.org/10.1145/3593013. 3594067.

[4] 王惠敏, 許峰, 蔡士林. ChatGPT 應(yīng)用的風(fēng)險(xiǎn)迭代與法律因應(yīng)研究[J]. 電子政務(wù)[EB/OL].(2023-06-29)[2023- 11?15]. https: //kns.cnki.net/kcms2/detail/11.5181.TP.2023 0628.1331.008.html.

[5] GUTIERREZ C I, AGUIRRE A, UUK R, et al. A proposal for a definition of general purpose artificial intelligence systems[J]. Digital Society, 2023, (36)2: 36?37.

[6] ENGLER A, RENDA A. Reconciling the AI Value Chain with the EU’s Artificial Intelligence Act[EB/OL]. (2022-09-03)[2023-11-15]. https: //cdn. ceps. eu/wp-content/uploads/2022/09/CEPS-In-depth-analysis-2022?03_Recon?ciling-the-AI-Value-Chain-with-the-EU-Artificial-Intel?ligence-Act. pdf.

[7] General Purpose AI and the AI Act, Working Paper[EB/OL]. (2022-05-13)[2023-11-15]. https: //artificialintelligenceact. eu/wp-content/uploads/2022/05/General-Purpose-AI-and-the-AI-Act. pdf.

[8] 張凌寒. 深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國路徑[J]. 法律科學(xué)(西北政法大學(xué)學(xué)報(bào)), 2023(3): 45.

[9] RISTO U, CARLOS I G, ALEX T. Operationalising the Definition of General Purpose AI Systems: Assessing Four Approaches[EB/OL]. (2022-06-05)[2023-11-15]. https: //arxiv. org/ftp/arxiv/papers/2306/2306. 02889. pdf.

[10] GANGULI D, HERNANDEZ D. Predictability and surprise in large generative models[R/OL]. (2022-06-20)[2023-11-15]. https://doi.org/10.1145/3531146.3533229.

[11] WEI J, TAY Y. Emergent Abilities of Large Language Models, Transactions on Machine Learning Research[EB/OL]. (2022?06?15)[2023?11?15]. https: //arxiv. org/pdf/2206. 07682. pdf.

[12] 曾雄,梁正,張輝. 歐盟人工智能的規(guī)制路徑及其對(duì)我國的啟示——《以人工智能法案》為分析對(duì)象[J]. 電子政務(wù), 2022(9): 63.

[13] HANNAH V K. EU regulation of artificial intelligence: challenges for patient's rights[J]. Common Market Law Review, 2022, 59(1): 84.

[14] AI Act: a step closer to the first rules on Artificial Intelligence[EB/OL]. (2023?05?11)[2023?11?15]. https: //www.europarl.europa.eu/news/en/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial- intelligence.

[15] GIOVANN D G, PIETRO D. The European risk-based approaches: connecting constitutional dots in the digital age[J]. Common Market Law Review, 2022, 59(1): 18.

[16] ROBERT B, JULIA B. Driving priorities in risk-based regulation what's the problem?[J]. The Journal of Law and Society, 2016, 43(4): 565 ".

[17] MARGOT E K, Regulating the risks of AI[J]. Boston University Law Review, 2023, 103(1): 26?42.

[18] CLAUDIO N, FEDERICO C, ANTONINO R, et al. How to Evaluate the Risks of Artificial Intelligence: a Proportionality-Based, Risk Model for the AI Act[EB/OL]. (2023?05?31)[2023?11?15]. https: //philarchive. org/archive/NOVHTE

[19] 江海洋. 論數(shù)字時(shí)代個(gè)人信息的刑法保護(hù)路徑選擇[J]. 當(dāng)代法學(xué), 2023(5): 95.

[20] MARCO A, NICOLAS P. The EU AI Act: Between Product Safety and Fundamental Rights[EB/OL]. (2022?10?30)[2023?11?15]. https: //ssrn. com/abstract=4308072.

[21] SARA H, The hardware lottery[EB/OL]. (2020?09?21)[2023?11?15]. https: //arxiv. org/pdf/2009. 06489. pdf.

[22] NICOLAS P, JEROME D C. Models of Law and Regulation for AI[EB/OL]. (2020?10?01)[2023?11?15]. https: //ssrn. com/abstract=3706771.

[23] 張凌寒. 生成式人工智能的法律定位與分層治理[J]. 現(xiàn)代法學(xué), 2023(4): 13.

[24] WENDY E W. The science charade in toxic risk regulation[J]. Columbia Law Review, 1995, 95(2): 1613?1629.

[25] TOBIAS M. Between Risk Management and proportionality: The Risk-Based Approach in the EU's Artificial Intelligence Act Proposal [EB/OL]. (2021?09?30)[2023?11?15]. https: //ssrn. com/abstract=4001444.

[26] CLAUDIO N, FEDERICO C, ANTONINO R, et al. Taking AI risks seriously: a proposal for the AI Act[J]. AI amp; Society, 2023(6): 2?4.

[27] CARSTEN O, JASCHA B, ANJA F, et al. Normative Challenges of Risk Regulation of Artificial Intelligence and Automated Decision-Making [EB/OL]. (2022?11?11)[2023?11?15]. https: //arxiv. org/ftp/arxiv/papers/2211/2211. 06203. pdf.

[28] 季衛(wèi)東. 人工智能開發(fā)的理念、法律以及政策[J]. 東方法學(xué), 2019(5): 8.

[29] 畢文軒. 生成式人工智能的風(fēng)險(xiǎn)規(guī)制困境及其化解: 以ChatGPT的規(guī)制為視角[J]. 比較法研究, 2023(3): 163.

[30] 劉艷紅. 生成式人工智能的三大安全風(fēng)險(xiǎn)及法律規(guī)制:以ChatGPT為例[J]. 東方法學(xué), 2023(4): 38.

[31] 袁曾. 生成式人工智能責(zé)任規(guī)制的法律問題研究[J]. 法學(xué)雜志, 2023(4): 121.

[32] MAURITZ K, EU Artificial Intelligence Act: The European Approach to AI[EB/OL]. (2022?10?30)[2023?11?15].https://law.stanford.edu/wp-content/uploads/2021/09/2021?09?28-EU-Artificial-Intelligence-Act-The-European-Approach-to-AI.pdf.

Risk-Based Regulation of Generic Artificial Intelligence

—Expanding with the Perspective of the EU Artificial Intelligence Act

Jiang Haiyang, Wei Shumin

(School of Law, Shandong University, Shandong Qingdao 266237, China)

Abstract: General artificial intelligence, represented by ChatGPT, has exploded globally, which has triggered a series of regulatory challenges while changing our lives as well as enhancing productivity. To this end, the EU AI Act adopts a risk-based regulatory approach, which classifies AI risks into several levels of unacceptable risk, high risk, limited risk, and minimal risk by evaluating the risks of different AIs, and correspondingly assigns obligations to the corresponding levels. However, in view of the characteristics of general artificial intelligence without fixed tasks, adaptability, emergence, etc., its regulation is different from that of traditional artificial intelligence, and such top-down static risk regulation path of the EU is difficult to effectively regulate general artificial intelligence. Therefore, it is necessary to adopt a dynamic risk regulation approach, transforming AI risk categories into dynamic risk scenarios, typifying the main factors of risk as hazard, exposure, vulnerability and response, and integrating the four elements of hazard, exposure, vulnerability and response when judging the level of risk. In determining the level of risk, the four elements of hazard, exposure, vulnerability, and response should be combined. At the same time, in view of the shortcomings of providers and private organizations in setting high-risk standards, it is up to legislators to authorize the relevant administrative authorities to set high-risk standards and base the whole process of regulation on the development to the use of general-purpose AI.

Keywords: generalized artificial intelligence; EU Artificial Intelligence Act; risk-based approach; dynamic risk; ChatGPT

主站蜘蛛池模板: 国产迷奸在线看| 国产亚洲欧美另类一区二区| 中文字幕乱妇无码AV在线| 国产高潮流白浆视频| 91外围女在线观看| 成人中文在线| 永久免费AⅤ无码网站在线观看| 久热re国产手机在线观看| 亚洲中文无码h在线观看| 精品国产免费观看| 亚洲国产在一区二区三区| 亚洲午夜综合网| a级毛片网| 亚洲人成人伊人成综合网无码| 国产在线日本| 国产大片黄在线观看| 香蕉99国内自产自拍视频| 91精品小视频| 国产精品三级av及在线观看| 国产一在线观看| 亚洲成人免费在线| 欧洲熟妇精品视频| 全部无卡免费的毛片在线看| 中文字幕免费在线视频| 亚洲欧美日韩中文字幕在线| 成人国产精品网站在线看| 青青操视频在线| 国产在线视频欧美亚综合| 国产精品视频公开费视频| 2020极品精品国产 | 亚洲av色吊丝无码| 天天色综网| 国产精品亚洲欧美日韩久久| 欧美不卡视频在线| 久久九九热视频| 免费看美女自慰的网站| 欧美日韩中文国产va另类| 久久综合干| 成年人国产视频| 久草视频福利在线观看| 五月丁香在线视频| 国产精品观看视频免费完整版| 国产区在线看| 欧美一区日韩一区中文字幕页| 国产精品成人一区二区不卡| 亚洲女同欧美在线| 国产农村1级毛片| 国产成人精品午夜视频'| 欧美无专区| 久久久久无码精品国产免费| 国产成年女人特黄特色毛片免| 欧洲欧美人成免费全部视频| 色香蕉网站| 久青草国产高清在线视频| 久草视频精品| 日韩无码视频播放| 亚洲天堂视频网站| 中文字幕精品一区二区三区视频| 青青草欧美| 国产成人三级| 911亚洲精品| 国产一区二区三区在线观看视频| 伊人久久福利中文字幕| 国产欧美综合在线观看第七页| 国产无码精品在线播放| 国产欧美精品一区aⅴ影院| 97se亚洲综合在线韩国专区福利| 婷婷久久综合九色综合88| 亚洲天堂精品视频| 色婷婷综合激情视频免费看| 88av在线| 红杏AV在线无码| 日本免费精品| 波多野结衣一区二区三视频| 中文字幕无码av专区久久| 国产99精品久久| 国产乱人伦偷精品视频AAA| 2020最新国产精品视频| 国产波多野结衣中文在线播放| 亚洲欧美日本国产专区一区| 精品成人一区二区三区电影| 精品福利视频导航|