關(guān)鍵詞:人工智能人工智能法 敏捷治理 框架體系 多維動態(tài)模式 人工智能治理
當前,人工智能技術(shù)對于人類社會的影響正在不斷加深,正如我國《新一代人工智能發(fā)展規(guī)劃》所指出的那樣:“人工智能的迅速發(fā)展將深刻改變?nèi)祟惿鐣睢⒏淖兪澜纭!辈豢煞裾J的是,人工智能的出現(xiàn)確實帶來了便利,ChatGPT、自動駕駛汽車等應用有效地提升了人類生活的質(zhì)量。但與這種便利相伴的是人工智能引發(fā)的算法歧視、隱私侵犯等風險。為了應對這種風險,推動人工智能高質(zhì)量發(fā)展,不少國家、國際組織也開始探索設計具有系統(tǒng)性的人工智能立法。例如,歐盟《人工智能法案》已經(jīng)正式生效,巴西聯(lián)邦參議院提交并公布了《巴西人工智能法(草案)》。在我國,這一趨勢同樣明顯。現(xiàn)階段,“人工智能法”被列入國務院2023年立法工作計劃。同時,《人工智能法示范法2.0(專家建議稿)》《人工智能法(學者建議稿)》等專家學者提出的立法建議文本也相繼被推出。
“立法活動是一項極為復雜的系統(tǒng)工程,需要善于謀算策劃,具有較高的運籌技術(shù)”。“人工智能法”的立法工作同樣如此,并且作為人工智能領域的統(tǒng)一立法,其科學性、系統(tǒng)性方面的要求和標準要更高,由此便需要一個有效的框架體系完成對于整個“人工智能法”的構(gòu)架。所謂“人工智能法”的框架體系,是指將“人工智能法”中的規(guī)則串聯(lián)起來,建構(gòu)起相關(guān)規(guī)則的關(guān)系,并將各個獨立的規(guī)則置于統(tǒng)一的體系之中。從當前實踐看,雖然全球范圍內(nèi)真正成型的統(tǒng)一人工智能立法數(shù)量較為有限,但各個國家、國際組織等主體所提出的人工智能治理方案已經(jīng)具有整合性、系統(tǒng)性的趨勢,而這些實踐均可以為“人工智能法”的框架體系設計提供支撐。綜合當前各個主體提出的方案,“人工智能法”的框架體系總體上可以分為三種模式。第一種是基于主體進行治理的價值鏈模式,我國的《人工智能法示范法2.0(專家建議稿)》和《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》主要選擇了這種模式;第二種是基于流程進行治理的生命周期模式,美國《人工智能風險管理框架》、我國《新一代人工智能倫理規(guī)范》以及經(jīng)濟合作與發(fā)展組織(以下簡稱經(jīng)合組織)《推進人工智能的可問責原則》主要選擇了這種路徑;第三種是基于不同場景進行治理的場景模式,歐盟《人工智能法案》和巴西《人工智能法(草案)》往往被認為選擇了這種模式。這三種模式各具特色,分別存在難以克服的缺陷。
其中,價值鏈模式的困境在于,一方面,不同主體之間的關(guān)系并不能完全被輕易地理清,主體權(quán)利和責任的精準度不足。例如,人工智能的技術(shù)開發(fā)者和技術(shù)提供者有時并非不同的主體,只是在不同環(huán)節(jié)扮演著不同的角色。在這種情況下,如果使用價值鏈模式可能導致相關(guān)主體逃避或錯誤排序應該承擔的責任。另一方面,價值鏈模式是一種針對所有人工智能進行治理的方案,其并不能深入到不同場景設計不同的主體要求。由此,其在人工智能具體應用的過程中,可能因為情境的特殊性和動態(tài)性而表現(xiàn)出適應性不足。
生命周期模式的缺陷在于,一方面,該模式雖然理清了人工智能治理的各個環(huán)節(jié),但并未落實具體權(quán)利和責任主體。顯然,人工智能無法享有和承擔相應的權(quán)利和責任,生命周期模式又未給出“穿透人工智能面紗”確定主體權(quán)利和責任的方式,這就導致人工智能治理的可操作性有待提升;另一方面,生命周期模式同價值鏈模式一樣,是基于一般人工智能的策略,因此其對于特殊場景的適應性也存在一定程度的不足。
相較于前兩種模式,場景模式更加注重將人工智能治理與具體應用場景相結(jié)合,這就在很大程度上增加了其對于單一情境下人工智能治理的針對性。當然,這種針對性的增強在一定程度上犧牲了對于人工智能監(jiān)管的整體性,即場景模式無法滿足敏捷性、穿透性治理的需求,其跨場景的治理能力會受到一些限制。由此引發(fā)的問題在于,對于某些場景使用的治理策略可能無法移植到其他場景之中。這也就意味著,我國“人工智能法”的制定,無論是采取何種模式,均可能存在一定問題。對此,理論和實踐均未給出令人滿意的回應。既有研究中,即使有學者嘗試進行分析,篇幅也較為有限,且并未從框架體系層面提出有效的解決方案。從具體立法來看,我國人工智能領域的規(guī)范在框架體系的問題上表現(xiàn)得也較為混亂,有的并不具有框架體系,有的采取價值鏈模式,有的采取生命周期模式,而不同方案之間的優(yōu)劣也缺乏比較。
有鑒于此,為了對“人工智能法”的制定提供幫助,本文提出了一種“人工智能法”框架體系的多維動態(tài)模式,該模式廣泛吸收了當前各個模式,將價值鏈維度、生命周期維度和場景維度作為三個基本維度,并將這些基本維度進行有機組合,同時構(gòu)建動態(tài)機制以實現(xiàn)框架體系的及時更新,由此可以有效解決既有方案的困境。需要特別指出的是,由于本文主要面向單一的人工智能規(guī)則展開討論,故而主要的關(guān)注對象是不同國家、國際組織等主體的某一人工智能相關(guān)規(guī)則、策略或方案。同時,為了保證分析的全面性,本文所分析的對象并不限于人工智能的統(tǒng)一立法,也包括其他規(guī)范、建議、指導性文件、白皮書等,特別是基于一定框架體系進行設計的文件。
一、多維動態(tài)模式是順應人工智能治理發(fā)展趨勢的產(chǎn)物
2016年,AlphaGo的出現(xiàn)掀起了人工智能發(fā)展的新一輪高潮。在此次事件之后,各個國家、組織等主體也紛紛提出人工智能的治理方案。總體而言,以2021年為界限,全球范圍內(nèi)關(guān)于人工智能的治理策略可以分為兩個大的階段。在2021年以前,各個主體所出臺的人工智能治理方案大都較為粗糙,系統(tǒng)化程度明顯不足。一方面,很多方案都是從宏觀角度在價值和原則層面探討人工智能的治理問題,而未落實到具體方案,中國《新一代人工智能治理原則———發(fā)展負責任的人工智能》就是其中的典型代表;另一方面,各主體關(guān)于人工智能治理的措施和規(guī)則并未顯示出較強的整合意識。例如,美國《2019年算法責任法案》雖然提出了一些關(guān)于算法規(guī)制的要求,但是并沒有特別系統(tǒng)的框架體系。
2021年后,各個主體開始重視對于人工智能治理的系統(tǒng)化,很多方案都提出了明確的人工智能治理、監(jiān)管或是法律的框架體系,并且基于框架體系的整合性立法開始正式出現(xiàn)。而這種對于框架的使用在最初大多選擇的是單一框架,例如2023年經(jīng)合組織《推進人工智能的可問責原則》明確指出,采取人工智能生命周期模式設計關(guān)于人工智能治理的規(guī)則框架體系。此后隨著人工智能治理方案的逐漸成熟,一些規(guī)則也開始嘗試將不同的框架進行融合,并以此為基礎制定人工智能治理規(guī)則。例如,歐盟《人工智能法案》雖然更多被認為是基于場景模式展開的設計,但其同樣提及了價值鏈和生命周期的概念。2023年美國NIST發(fā)布的《人工智能風險管理框架》雖然主要是基于生命周期模式而展開,但是同樣提出了“必須明確定義和區(qū)分決策制定和監(jiān)督人工智能系統(tǒng)的人員角色和職責”。
值得注意的是,盡管探索不同框架體系融合的人工智能治理規(guī)則正在成為一種趨勢,但這種嘗試并不足夠完善,既有方案尚未將當前已有的三種框架有機地融合到一個融洽的體系之中,因此仍然存在不少問題。無論是歐盟《人工智能法案》,還是美國《人工智能風險管理框架》,本質(zhì)上都是依托某一種模式,而在需要時適當添加了其他模式的概念和方法,這便導致其無法突破單一模式的固有弊端———歐盟《人工智能法案》更多關(guān)注不可接受風險和高風險人工智能,對于其他風險較低的人工智能的治理則基本沒有太多策略;美國《人工智能風險管理框架》對于主體責任的分配以及針對特殊場景的應對能力均有所不足。
基于上述發(fā)展趨勢,人工智能治理方案或是人工智能立法的下一步發(fā)展方向便呼之欲出———將不同的框架有機融合并以此為基礎完成人工智能立法。本文所言之多維動態(tài)模式便是在此基礎上提出來的。其目標是將當前既有的三種模式作為三個基本維度并通過合理的組合使其各自發(fā)揮應有的功能。當然,考慮到人工智能發(fā)展的態(tài)勢,一方面,不同框架的組合可能因為技術(shù)的發(fā)展或?qū)嵺`環(huán)境的變化而產(chǎn)生不適應進而需要重新加以組合;另一方面,新技術(shù)的產(chǎn)生有時可能推動新的基本維度的形成。因此,本文在對基本維度進行組合的同時,也提出了一種動態(tài)化的應對機制,以減輕技術(shù)變化而引發(fā)的規(guī)則不適應性。
多維動態(tài)模式的提出至少具有三方面的意義。首先是滿足人工智能治理精細化的需求。隨著人工智能的日益發(fā)展,各方對于人工智能的治理策略也在日益增多。據(jù)經(jīng)合組織人工智能政策觀察站統(tǒng)計,截至2021年,60個國家或地區(qū)已經(jīng)發(fā)布了700多項國家人工智能治理舉措。另據(jù)學者統(tǒng)計,從2020年起,國際組織發(fā)布的人工智能治理舉措數(shù)量已經(jīng)開始超過國家和地區(qū)層面,成為人工智能治理舉措的主要來源。這些策略之間的關(guān)系成了人工智能治理需要關(guān)注的問題。從既有實踐看,各治理策略之間存在著關(guān)系矛盾、混亂等問題。對此,更加精細化地對人工智能進行治理開始被更多地提出,而基于多維動態(tài)模式制定系統(tǒng)化的“人工智能法”相較于之前的方案更加具有系統(tǒng)性,其可以有效糾偏人工智能領域治理策略體系性缺失之弊。
其次是滿足立法的內(nèi)在需求。統(tǒng)一的立法要求有效處理規(guī)則之間的橫向和縱向關(guān)系,使規(guī)則內(nèi)部協(xié)調(diào)統(tǒng)一。特別是對于“人工智能法”而言,在統(tǒng)一立法之前,已經(jīng)存在大量的人工智能相關(guān)規(guī)則,“人工智能法”就更加要強調(diào)集成性、統(tǒng)一性和系統(tǒng)性。若其不能有效協(xié)調(diào)既有規(guī)則之間的關(guān)系,那么反而可能進一步增加該領域規(guī)則之間的混亂性。而多維動態(tài)模式可以在很大程度上起到統(tǒng)攝整個人工智能立法的作用,將既有的規(guī)則按照一定邏輯進行整合,從而增加規(guī)則的系統(tǒng)性。從之前的經(jīng)驗不難發(fā)現(xiàn),相較于粗放的立法模式,歐盟《人工智能法案》具有明確的整合性特征,其盡可能地包容了各個場景,并將不同場景置于統(tǒng)一的框架體系下進行串聯(lián),而非只對單一場景設計規(guī)則但不與其他場景規(guī)則進行呼應。顯然,這種立法方式更加符合立法系統(tǒng)性、整體性的要求。如前文所述,多維動態(tài)模式相較于歐盟《人工智能法案》的框架更加系統(tǒng),因此也就更符合立法的需要。
最后是滿足搶占世界人工智能發(fā)展話語權(quán)的需求。當今世界競爭與合作并存,很多國家都在大力發(fā)展人工智能,以獲取相關(guān)技術(shù)領域的話語權(quán),數(shù)字博弈的局面正在逐漸形成。人工智能的話語權(quán)問題可以分為兩個方面,一是人工智能技術(shù)本身的話語權(quán),二是人工智能治理的話語權(quán)。后者便成為各個主體不斷優(yōu)化人工智能治理方案乃至頒布“人工智能法”的重要動力來源。例如,歐盟在全球范圍內(nèi)率先制定了第一部《人工智能法案》,具有搶占人工智能話語權(quán)的目標———歐盟內(nèi)部市場委員蒂埃里·布雷東指出:“歐盟成為第一個為人工智能使用設立明確規(guī)則的地區(qū)。《人工智能法案》不僅是一本規(guī)則手冊,也將成為歐盟初創(chuàng)企業(yè)和研究人員引領全球人工智能競賽的助推器。”與之相似,我國率先制定生成式人工智能的治理規(guī)范以及出臺關(guān)于人工智能的立法規(guī)劃,同樣蘊含著“搶占人工智能領域國際規(guī)則制定權(quán)與國際話語權(quán)”的意蘊。從方法上看,這種話語權(quán)的搶占一是在于速度,二是在于質(zhì)量。就前者而言,第一部“人工智能法”無疑是一個很好的噱頭。但若是僅有速度,相關(guān)規(guī)則內(nèi)容平平、體系性差,對于全球人工智能治理幫助不足,恐怕其所能產(chǎn)生的效能也會較為有限。例如,2017年俄羅斯的《機器人與人工智能示范公約》雖然被稱為“世界上第一部調(diào)整機器人、人工智能和物理網(wǎng)絡系統(tǒng)的國際文件草案”,但其產(chǎn)生的國際影響力卻并不大。從這個意義上講,能夠有效提升人工智能治理方案系統(tǒng)性的框架體系,無疑有助于提升“人工智能法”的質(zhì)量,也就更有利于搶占話語權(quán)。多維動態(tài)模式是在進一步吸取當前框架體系的經(jīng)驗和教訓基礎上所提出的方案,具有更高的成熟度,也就更有利于提升我國在該領域的話語權(quán)。
二、多維動態(tài)模式的基本維度
從當前各方提出的關(guān)于人工智能規(guī)則的框架體系來看,總體上可以分為價值鏈模式、生命周期模式和場景模式三種基本模式。多維動態(tài)模式是對上述模式的有機組合,并將這三種模式作為最基礎的三個維度———價值鏈維度、生命周期維度和場景維度。 為了更好地展開分析,本文將結(jié)合當前全球范圍內(nèi)的人工智能規(guī)則就不同維度的內(nèi)涵進行闡釋。
(一)價值鏈維度
“價值鏈”最初是一個經(jīng)濟學領域的概念。1985年波特首先提出了價值鏈模型,其主要是指廠商為生產(chǎn)最終交易的產(chǎn)品或服務所經(jīng)歷的增加價值的活動過程。此后,在服務科學、管理、工程和設計等領域,價值鏈的概念得到了應用或發(fā)展。在人工智能治理問題上,該概念也同樣有所應用。具體而言,價值鏈模式的治理對象是人工智能運轉(zhuǎn)過程中的各個主體,其治理方式是為人工智能價值鏈中的各個主體分別設計責任和權(quán)利。歐洲政策研究中心對價值鏈的定義是:“開發(fā)人工智能系統(tǒng)并投入使用的主體過程。其功能是考慮哪些主體可以在人工智能價值鏈的哪些部分發(fā)揮作用,以確定哪個主體最符合監(jiān)管要求,保障人工智能系統(tǒng)的安全性。”在具體的方案設計中,歐盟的《人工智能法案》明確提出“價值鏈”一詞,并為部分場景中價值鏈中的主體賦予了責任。而我國的不少治理策略雖然未明確提出價值鏈的概念,但整體治理思路是依托于價值鏈而進行的。如前文所述,我國的《人工智能法示范法2.0(專家建議稿)》和《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》均使用了這種方案。
價值鏈維度的展開主要圍繞技術(shù)開發(fā)者、技術(shù)提供者、技術(shù)應用者和受技術(shù)影響者。其中,技術(shù)開發(fā)者是指人工智能技術(shù)的開發(fā)主體,即為人工智能提供技術(shù)支持的主體,其主要責任包括:(1)合理合法設計責任。技術(shù)開發(fā)者應確保人工智能系統(tǒng)滿足使用的要求,同時應保證人工智能符合公正、可靠、安全、穩(wěn)定等人工智能倫理規(guī)范。合理合法設計責任在很多人工智能治理方案中都有所提及,例如,歐盟《人工智能法案》要求開發(fā)人工智能的主體應建立質(zhì)量管理體系,并防范高風險人工智能系統(tǒng)對人類造成傷害、存在歧視等問題。《人工智能法示范法2.0(專家建議稿)》提出要建立質(zhì)量管理體系,制定基礎模型的使用規(guī)則,明確使用基礎模型的研發(fā)者應當履行的義務。(2)風險評估和測試責任。技術(shù)開發(fā)者應通過設計風險評估體系、風險測試機制等方式,在人工智能投入應用前進行風險測試,以避免應用過程中產(chǎn)生的各種風險。對此責任,歐盟《人工智能法案》要求開發(fā)人工智能的主體應就高風險人工智能進行符合性評估;美國《人工智能風險管理框架》要求在人工智能開發(fā)過程中進行嚴格的軟件測試與性能評估。(3)數(shù)據(jù)正確應用和處理責任。技術(shù)開發(fā)者在進行數(shù)據(jù)使用、數(shù)據(jù)標注等工作時,要符合數(shù)據(jù)應用的規(guī)范,遵循比例原則、合理使用原則等原則,采取數(shù)據(jù)脫敏等方法,保證數(shù)據(jù)的使用符合合法性、效率性等要求。就數(shù)據(jù)正確應用和處理責任進行規(guī)定的代表性規(guī)則是2022年中國《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》:“技術(shù)支持者應當加強訓練數(shù)據(jù)管理,采取必要措施保障訓練數(shù)據(jù)安全;訓練數(shù)據(jù)包含個人信息的,應當遵守個人信息保護的有關(guān)規(guī)定。”該規(guī)則之外,歐盟《人工智能法案》、2023年多個國家簽署并公布的《安全人工智能系統(tǒng)開發(fā)指南》等規(guī)范中也提出了相應的要求。(4)就人工智能應用進行記錄、備案和解釋。技術(shù)開發(fā)者應就人工智能技術(shù)的相關(guān)信息進行必要的記錄和備案,同時也應對技術(shù)的運行原理提供相應的解釋,以此提高人工智能的可追蹤性、可控性和可解釋性。《安全人工智能系統(tǒng)開發(fā)指南》、歐盟《人工智能法案》、2023年美國《安全、穩(wěn)定、可信的人工智能行政令》均提出了明確的記錄或解釋要求。
技術(shù)提供者是指提供人工智能相關(guān)服務的主體,其往往是很多人工智能治理方案的重要規(guī)制對象。技術(shù)提供者的主要責任包括:(1)監(jiān)管審查責任。人工智能的技術(shù)提供者需要對投入市場使用的人工智能進行合法性、合倫理性等方面內(nèi)容的審查,以避免投入使用的人工智能存在風險。對于該項責任,我國《生成式人工智能服務管理暫行辦法》第7條對于生成式人工智能服務提供者的相關(guān)規(guī)定較為具有代表性。除該規(guī)定外,我國《人工智能法(學者建議稿)》《人工智能法示范法2.0(專家建議稿)》以及2023年英國《人工智能監(jiān)管法(草案)》也都提及了類似義務。(2)風險測試、評估、追蹤責任。與人工智能技術(shù)開發(fā)者的責任相似,人工智能技術(shù)提供者同樣需要對人工智能的應用風險進行評估和測試。技術(shù)提供者需要在人工智能投入使用后,對人工智能的應用狀況進行追蹤,以及時查明在開發(fā)和測試階段未暴露的風險。2023年巴西《人工智能法(草案)》、歐盟《人工智能法案》以及我國《人工智能法(學者建議稿)》均設置了相關(guān)義務。(3)備案、公開責任。人工智能技術(shù)提供者需要就人工智能的相關(guān)信息進行備案和公開,特別是涉及人工智能可靠性、合法性等內(nèi)容的信息。此外,技術(shù)提供者還需要就人工智能的可解釋性問題進行說明。很多規(guī)則都明確了上述義務,例如我國《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》、歐盟《人工智能法案》等。(4)補救責任。在人工智能應用造成損害時,人工智能技術(shù)提供者需要及時就相關(guān)問題進行補救,以避免損失擴大,最大限度地保護有關(guān)人員的權(quán)利。我國《人工智能法示范法2.0(專家建議稿)》提及技術(shù)提供者應在人工智能造成損害時提供相應的補救措施。此外,英國2023年《促進創(chuàng)新的人工智能監(jiān)管方法》和《人工智能監(jiān)管法(草案)》均提及補救措施的重要性。
技術(shù)應用者是指使用人工智能技術(shù)的主體, 例如運用人工智能大語言模型生成文字或圖片、操作自動駕駛汽車的主體。一般而言,技術(shù)應用者的責任主要包括兩方面內(nèi)容。一方面是按照要求使用人工智能的責任。人工智能技術(shù)的應用者應該按照有關(guān)規(guī)范、說明書、協(xié)議使用技術(shù)。考慮到人工智能技術(shù)的復雜性,若應用者未按照要求使用人工智能技術(shù),可能會引發(fā)違法犯罪行為。利用深度偽造技術(shù)制作色情圖片、視頻就是典型的例子。因此,一些規(guī)則會就人工智能技術(shù)的應用者作出相應限制。例如,歐盟《人工智能法案》要求高風險人工智能系統(tǒng)的使用者應根據(jù)系統(tǒng)隨附的說明書使用這些系統(tǒng)。我國《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》要求“應用者不得利用深度合成服務制作、復制、發(fā)布、傳播虛假新聞信息”。另一方面是配合人工智能治理的責任。一些規(guī)則要求人工智能技術(shù)的應用者配合人工智能的治理工作, 這主要是考慮到部分關(guān)于人工智能的信息只受到技術(shù)應用者的控制。例如,歐盟《人工智能法案》要求技術(shù)應用者保留由高風險人工智能系統(tǒng)自動生成的日志。
受技術(shù)影響者主要指因人工智能技術(shù)的使用而遭受權(quán)利損害的主體。不少人工智能治理策略都注意到了人工智能技術(shù)的應用可能會損害受技術(shù)影響者的利益,因此也會采取相應的措施對權(quán)利予以保障。這些權(quán)利通常包括:(1)知情權(quán)。知情權(quán)是指受技術(shù)影響者有權(quán)知悉人工智能應用的各種情況,包括決策方式、治理方式、潛在風險等。很多文件都強調(diào)知情權(quán)在人工智能應用中的重要性,我國《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》和菲律賓2023年的《人工智能監(jiān)管法》(眾議院第7913號法案,以下簡稱《第7913號法案》)就是其中典型代表。(2)反對權(quán)或人工干預權(quán)。反對權(quán)或人工干預權(quán)是指受技術(shù)影響者可以在任何階段決定是否干預或退出基于人工智能的決策。對于該項權(quán)利較為有代表性的規(guī)定是歐盟《通用數(shù)據(jù)保護條例》第22條:“數(shù)據(jù)主體有權(quán)不受僅基于自動化決策所做決定的影響,包括那些會對他們產(chǎn)生法律效力或類似重大影響的特征分析。”(3)質(zhì)詢權(quán)。質(zhì)詢權(quán)與反對權(quán)有一定相似性,其是指受技術(shù)影響者可以對人工智能的應用提出質(zhì)疑。巴西《人工智能法(草案)》確認了受技術(shù)影響者享有該權(quán)利。(4)解釋權(quán)。解釋權(quán)是指受技術(shù)影響者有權(quán)獲得關(guān)于人工智能決策產(chǎn)生原因的解釋,這是關(guān)于人工智能公開性的要求。巴西《人工智能法(草案)》對此項權(quán)利作了較為明確的規(guī)定:“(受人工智能系統(tǒng)影響的人) 有權(quán)要求在收到請求后15天內(nèi)對人工智能系統(tǒng)做出的決定、建議或預測作出解釋。”(5)平等權(quán)。平等權(quán)是指公民平等地享有權(quán)利,不受任何差別對待,要求國家給予同等保護的權(quán)利。對于平等權(quán)的強調(diào)主要考慮到人工智能存在算法歧視的風險,即依據(jù)算法所作自動決策實施的直接或間接歧視性行為。很多人工智能治理策略都關(guān)注該問題,或是從正面賦予受技術(shù)影響者平等權(quán),例如巴西《人工智能法(草案)》;或是從反面否定算法歧視行為,例如2022年美國《停止算法歧視法案》。(6)隱私權(quán)。隱私權(quán)是指公民享有的私人生活安寧與私人信息依法受到保護,不被他人非法侵擾、知悉、搜集、利用和公開等的權(quán)利。因為新一代人工智能是以大數(shù)據(jù)為基礎,在使用海量數(shù)據(jù)的過程中難免會存在侵犯隱私權(quán)的問題。因此,賦予受技術(shù)影響者以隱私權(quán)也就成為一些人工智能治理策略的關(guān)注重點。例如,2022年美國《人工智能權(quán)利法案藍圖》將保護數(shù)據(jù)隱私作為五項基本原則之一,菲律賓《第7913號法案》也強調(diào)了隱私權(quán)的重要性。
(二)生命周期維度
生命周期最初是一個生物學概念,其是指生命體生命畢生發(fā)展貫穿一生的連續(xù)過程,是生命體的成長方式。后來有學者開始將該概念應用于經(jīng)濟學、管理學、政治學等各個領域,比較有代表性的如組織生命周期、產(chǎn)品生命周期、技術(shù)生命周期等。近年來,在人工智能治理問題上,生命周期的概念也開始頻繁出現(xiàn),例如美國《人工智能風險管理框架》、歐盟《人工智能法案》、我國《新一代人工智能倫理規(guī)范》、經(jīng)合組織《推進人工智能的可問責原則》等都提及了該詞匯。雖然最后定稿的歐盟《人工智能法案》并未提及人工智能生命周期的定義,但是在之前的版本中,其明確指出人工智能生命周期是指“從設計到退役的人工智能系統(tǒng)的持續(xù)時間”。多維動態(tài)模式的生命周期維度指向了從人工智能設計到退役的全流程治理,即為人工智能生命周期的各個環(huán)節(jié)設計特定的要求。總結(jié)當前各個文件及相關(guān)理論,該維度應主要圍繞以下幾個環(huán)節(jié)展開:
1.人工智能規(guī)劃和設計
規(guī)劃和設計階段的主要工作是對于人工智能系統(tǒng)的目標、具體任務構(gòu)成、具體假設、運行環(huán)境、參與人員、流程設計、合法性等問題進行明確。從治理角度上講,該環(huán)節(jié)的主要要求包括:首先,根據(jù)人工智能開發(fā)、運營等工作的參與人員狀況以及相關(guān)能力,確立人工智能的設計計劃和架構(gòu);其次,明確人工智能的具體要求,包括避免歧視、保證隱私、具有可解釋性、保證安全、反對有害人工智能系統(tǒng)等;最后,廣泛吸收各方意見,進一步明確人工智能應用設計的價值導向。對于上述要求規(guī)定較為詳細的是經(jīng)合組織《推進人工智能的可問責原則》,其基于不同的價值追求設計了相應的治理辦法。此外,美國《人工智能風險管理框架》也指出,該階段應“創(chuàng)建人工智能系統(tǒng)的概念和目標,并負責規(guī)劃、設計、數(shù)據(jù)收集和任務處理,以便人工智能系統(tǒng)合乎法律和符合目的”。
2.數(shù)據(jù)選擇與處理
數(shù)據(jù)選用問題關(guān)乎人工智能分析的準確性,同時涉及算法歧視與隱私侵犯等風險。在明確了人工智能的相關(guān)目標后,應該進行針對性的數(shù)據(jù)選擇和處理。具體內(nèi)容包括數(shù)據(jù)采集、數(shù)據(jù)探索、數(shù)據(jù)選用、數(shù)據(jù)清洗、數(shù)據(jù)標注、數(shù)據(jù)完整性檢驗、數(shù)據(jù)質(zhì)量檢驗、數(shù)據(jù)信息記錄等。從治理角度看,該階段的主要要求包括:首先,數(shù)據(jù)應用的各個環(huán)節(jié)嚴格遵循法律的規(guī)定,避免因數(shù)據(jù)選用問題引發(fā)算法歧視、隱私侵犯等問題,必要時也應該通過數(shù)據(jù)匿名化處理、增加噪聲、合并數(shù)據(jù)集等方式規(guī)避侵權(quán)問題。其次,努力提升數(shù)據(jù)集中數(shù)據(jù)的質(zhì)量,包括完整性、及時性、一致性、規(guī)范性和準確性等。最后,在相關(guān)文件中記錄各類數(shù)據(jù),保證各類信息具有可追蹤性。對于數(shù)據(jù)選擇和處理環(huán)節(jié)治理的問題,我國《新一代人工智能倫理規(guī)范》明確:“在數(shù)據(jù)收集、存儲、使用、加工、傳輸、提供、公開等環(huán)節(jié),嚴格遵守數(shù)據(jù)相關(guān)法律、標準與規(guī)范,提升數(shù)據(jù)的完整性、及時性、一致性、規(guī)范性和準確性等。”而經(jīng)合組織《推進人工智能的可問責原則》和新加坡《人工智能模型治理框架》的具體要求則更為細致。
3.算法設計與模型建立
該階段主要是通過合適的人工智能算法來開發(fā)人工智能模型,該算法代表了與人工智能應用相對應的人工智能能力。該階段的主要工作為算法和模型的選擇與校準、制定評估基準、模型的訓練與測試、模型的可解釋性評估等。通常來說,此階段的主要要求包括:首先,根據(jù)人工智能的相關(guān)目標,選擇適當?shù)哪P秃痛a;其次,運用適當?shù)姆椒ㄌ嵘斯ぶ悄艿暮戏ㄐ院桶踩裕缏?lián)合學習、差分隱私、消除差異性影響等;再次,通過適當方法提升人工智能的可解釋性,例如使用可解釋算法;最后,引入有關(guān)技術(shù)應用者、專家和利益相關(guān)者參與算法設計和模型構(gòu)建。對于上述治理方法規(guī)定較為詳細的是經(jīng)合組織《推進人工智能的可問責原則》和新加坡《人工智能模型治理框架》,其基本覆蓋了算法設計與模型建立階段所有的治理環(huán)節(jié)。此外,我國《新一代人工智能倫理規(guī)范》也從增強透明性和反對算法歧視的角度切入,對該環(huán)節(jié)予以規(guī)制。
4.技術(shù)審查與檢驗
在人工智能投入使用前,應對相關(guān)技術(shù)進行審查,以避免可能的各種風險。該階段的主要要求包括:首先,根據(jù)人工智能的設計目標和運行環(huán)境,制定相應的評價標準,并對人工智能系統(tǒng)進行針對性的自評估;其次,引入第三方主體對人工智能進行評估,以提升技術(shù)檢驗的中立性和可靠性;最后,就人工智能的狀況提出相應的整改意見。人工智能的技術(shù)審查與檢驗是很多人工智能治理方案的重要環(huán)節(jié),例如,美國《2022年算法責任法案》、2019年加拿大《自動化決策指令》都具有技術(shù)評估的要求。而歐盟《人工智能法案》指出:“高風險人工智能系統(tǒng)的測試應在開發(fā)過程的任何適當時間進行,并且在投放市場或投入使用之前進行。測試應根據(jù)初步確定的指標和與高風險人工智能系統(tǒng)的預期目的相適應的概率閾值進行。”經(jīng)合組織《推進人工智能的可問責原則》則是設計了更為詳細的措施。
5.技術(shù)部署與使用
技術(shù)部署與使用是將人工智能投入市場中應用的階段。該階段需要確保人工智能在市場環(huán)境下健康運轉(zhuǎn)。一般而言,該階段的主要要求包括:首先,按照規(guī)則部署人工智能,就人工智能進行實時監(jiān)測,探索人工智能是否存在算法歧視、隱私侵犯等問題;其次,記錄人工智能的應用狀況,與目標進行對比,并及時反饋;再次,明確告知相關(guān)群體人工智能應用的相關(guān)信息以及相關(guān)權(quán)利;最后,完善申訴機制,明確關(guān)于人工智能引發(fā)問題的應對措施和補償措施。對于該環(huán)節(jié)規(guī)定較為具體的是我國《新一代人工智能倫理規(guī)范》。除此之外,歐盟《人工智能法案》、經(jīng)合組織《推進人工智能的可問責原則》、新加坡《人工智能模型治理框架》也都有相關(guān)規(guī)定。
(三)場景維度
場景一詞源于藝術(shù)領域,后來逐漸被社會學研究吸納。最早關(guān)于場景的研究始于20世紀50年代美國芝加哥大學社會理論學者歐文·戈夫曼的“擬劇理論”。此后,場景理論不斷發(fā)展,隨著大數(shù)據(jù)時代的到來,斯考伯和伊斯雷爾更是預言,人類將進入場景時代。〕在人工智能治理問題上,基于場景的治理也逐漸被不少主體所采用。所謂場景治理,是指以情境為導向考察人工智能應用的風險水平,相應制定與風險程度相一致的規(guī)制策略和規(guī)則,亦即“貼合現(xiàn)實的法律應對”。而多維動態(tài)模式中的場景維度也就指向了不同場景的關(guān)照。這種關(guān)照主要是將不同場景歸入不同的風險級別之中,進而對特殊風險的場景設置更加具體化的治理策略。具體而言,結(jié)合歐盟《人工智能法案》和《巴西人工智能法(草案)》《人工智能法(學者建議稿)》這種整合性較強的治理策略以及其他人工智能單一場景的針對性策略,我國的規(guī)范典例包括:關(guān)于自動駕駛場景的2018年《肇慶市自動駕駛車輛道路測試管理實施細則(試行)》、2020年《智能汽車創(chuàng)新發(fā)展戰(zhàn)略》;關(guān)于人臉識別場景的2023年《人臉識別技術(shù)應用安全管理規(guī)定(試行)(征求意見稿)》;關(guān)于生成式人工智能場景的《生成式人工智能服務管理暫行辦法》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》;關(guān)于司法場景的2022年《最高人民法院關(guān)于規(guī)范和加強人工智能司法應用的意見》等。場景維度主要應劃分為四種不同類型:(1)不可接受風險。對于人類基本權(quán)利造成較大威脅的人工智能系統(tǒng)被要求禁止使用,這包括操縱人類意志的系統(tǒng)、利用特定自然人群體缺陷的系統(tǒng)、公權(quán)力機關(guān)社會評分系統(tǒng)、公共場所生物識別系統(tǒng)等。(2)高風險。高風險人工智能是對人類權(quán)利有一定影響的人工智能,其包括生物特征識別系統(tǒng)、關(guān)鍵基礎設施管理和運營系統(tǒng)、教育培訓系統(tǒng)、就業(yè)機會系統(tǒng)、社會福利系統(tǒng)、立法司法和執(zhí)法系統(tǒng)等。這類高風險人工智能系統(tǒng)應受到嚴格的規(guī)制,除一般要求外,還應根據(jù)場景設置一些特殊的要求,如進行特殊的設計和規(guī)劃、成立專門的數(shù)據(jù)審查機制和風險審查部門等。(3)有限風險(特殊透明度風險)。有限風險是使用人工智能時,應用者能意識到與機器互動,進而作出明智的決定時所產(chǎn)生的風險。這類人工智能系統(tǒng)被賦予的特殊要求并不多,只需要保持透明度并提供相應信息。例如,歐盟《人工智能法案》要求情感識別系統(tǒng)的用戶應告知受該系統(tǒng)操作影響的自然人。(4)最小風險。大部分人工智能系統(tǒng)都屬于最小風險系統(tǒng),其并不會對公民權(quán)利造成傷害,例如允許自由使用人工智能的電子游戲或垃圾郵件過濾器等應用。而這類人工智能系統(tǒng)的開發(fā)和使用通常不被予以太多特殊要求,只需滿足最基本的要求即可。
三、多維動態(tài)模式的運作機制
前文討論的多維動態(tài)模式的基本維度從靜態(tài)的角度上揭示了該框架體系的核心組成要素。然而,若要真正實現(xiàn)其在人工智能立法領域中的潛力和價值,不僅需要深入理解這些基本維度,還需要進一步探討如何將它們有機地結(jié)合起來,并確保它們能夠高效、順暢地運轉(zhuǎn)。這意味著需要在各個維度之間建立有效的聯(lián)系、互動機制以及相應更新機制,使得整個框架能夠在實際應用中發(fā)揮最大的效能。通過這種有機結(jié)合和及時更新,多維動態(tài)模式才能在人工智能立法中發(fā)揮其應有的作用,為相關(guān)法律的制定和實施提供有力的支持和指導。
(一)多維動態(tài)模式的組成機制
多維動態(tài)模式的實現(xiàn),需要對不同基本維度進行有效的組合,這首先需要明確應將哪個維度作為主線。其中,以場景維度作為主線并不能有效規(guī)避場景模式的風險,即對某一場景的治理方式難以移植到其他場景。而以價值鏈維度作為主線或是以生命周期維度作為主線實際上效果較為相似,前者的表述方式是A主體在O、P、Q等環(huán)節(jié)需要負有何種責任或享有何種權(quán)利。而后者則表述為在O環(huán)節(jié)中,A、B、C各主體分別需要履行哪些責任或享有哪些權(quán)利。考慮到相較于生命周期的各環(huán)節(jié),價值鏈中主體變化的可能性要更高且關(guān)系更加復雜,本文選擇以相對較為穩(wěn)定的生命周期維度作為多維動態(tài)模式的主線。基于此,該模式的構(gòu)成可以采取“兩步走”策略。
第一步,為人工智能生命周期的每一環(huán)節(jié)設計具體的主體權(quán)利和責任,由此實現(xiàn)生命周期維度與價值鏈維度的有機融合。具體而言,人工智能的生命周期仍然可以分為五個環(huán)節(jié)。
第一個環(huán)節(jié),人工智能規(guī)劃和設計。該環(huán)節(jié)具體任務分配如下:一是技術(shù)提供者應組織技術(shù)開發(fā)者、技術(shù)應用者和受技術(shù)影響者召開會議,就人工智能開發(fā)、運用計劃進行討論和說明。二是技術(shù)提供者應廣泛調(diào)研,根據(jù)現(xiàn)有的技術(shù)能力和人員組成狀況,在參考各方意見的基礎上,確定人工智能的具體應用目標和應用范圍。三是技術(shù)提供者應聯(lián)合技術(shù)開發(fā)者、技術(shù)應用者和受技術(shù)影響者共同確定人工智能開發(fā)的基本要求,這包括保護人權(quán)、透明度和解釋性、公平性、問責制、監(jiān)管、安全性、適當?shù)娜祟惐O(jiān)督、倫理、偏見緩解、隱私和數(shù)據(jù)保護等《布萊切利宣言》等規(guī)則中提出的人工智能各項倫理。
第二個環(huán)節(jié),數(shù)據(jù)選擇與處理。該環(huán)節(jié)具體任務分配如下:一是技術(shù)開發(fā)者在獲取數(shù)據(jù)時應確保數(shù)據(jù)符合法律要求,不含有侵犯平等權(quán)、知識產(chǎn)權(quán)等內(nèi)容的數(shù)據(jù)。在使用關(guān)于個人信息的數(shù)據(jù)時,應當征得相關(guān)主體同意。在使用數(shù)據(jù)時應以必要為限,同時應采用適當?shù)募夹g(shù)和方法避免產(chǎn)生權(quán)利侵犯問題。二是技術(shù)開發(fā)者應努力提升數(shù)據(jù)來源以及數(shù)據(jù)標注的質(zhì)量。三是技術(shù)開發(fā)者應對數(shù)據(jù)的來源和使用進行全面記錄,并保證可以隨時提供數(shù)據(jù)來源、選擇和標注方式等相關(guān)信息。四是技術(shù)提供者若掌握相關(guān)數(shù)據(jù),應及時提供給技術(shù)開發(fā)者,但要保證相關(guān)數(shù)據(jù)符合規(guī)范。
第三個環(huán)節(jié),算法設計與模型建立。該環(huán)節(jié)具體任務分配如下:一是技術(shù)開發(fā)者應根據(jù)第一環(huán)節(jié)商討的目標選擇適當?shù)哪P秃痛a。二是技術(shù)開發(fā)者應運用適當?shù)姆椒ㄌ嵘惴ǖ暮戏ㄐ院桶踩浴H羌夹g(shù)開發(fā)者應努力提升相關(guān)算法的可解釋性。四是技術(shù)開發(fā)者應對算法設計和模型建立情況進行記錄和備案,并及時公開相關(guān)信息。五是技術(shù)提供者應召集有關(guān)專家、技術(shù)應用者和受技術(shù)影響者參與算法設計和模型構(gòu)建,配合技術(shù)開發(fā)者提升算法質(zhì)量。六是技術(shù)開發(fā)者應向技術(shù)提供者、技術(shù)應用者、受技術(shù)影響者和專家說明算法和模型開發(fā)的相關(guān)問題,以便其更好地參與算法與模型建設。
第四個環(huán)節(jié),技術(shù)審查與檢驗。該環(huán)節(jié)具體任務分配如下:一是技術(shù)開發(fā)者應根據(jù)人工智能的相關(guān)情況設計具體的風險評估體系,并進行風險評估和應用測試,保證人工智能符合要求。二是技術(shù)提供者應邀請第三方主體就人工智能風險進行中立評估。三是技術(shù)提供者應邀請第三方評估主體、技術(shù)應用者和受技術(shù)影響者對人工智能提出優(yōu)化建議,技術(shù)開發(fā)者應按照建議進行優(yōu)化。四是技術(shù)提供者應在人工智能投入市場前進行最后審查,確保相關(guān)技術(shù)符合規(guī)范。
第五個環(huán)節(jié),技術(shù)部署與使用。該環(huán)節(jié)具體任務分配如下:一是技術(shù)提供者應對人工智能進行備案,并提前公布技術(shù)相關(guān)信息,如合法性、可解釋性等問題。二是技術(shù)提供者應按照規(guī)則部署人工智能,并就人工智能進行實時監(jiān)測。三是技術(shù)提供者應對人工智能應用的狀況進行記錄并及時反饋給技術(shù)開發(fā)者,技術(shù)開發(fā)者應及時優(yōu)化相關(guān)內(nèi)容。四是技術(shù)應用者應根據(jù)要求合理使用人工智能,不得將其用于錯誤用途。必要時也應配合人工智能治理工作。五是技術(shù)提供者應建立申訴機制,明確人工智能可能引發(fā)的問題以及相關(guān)的補救方式。六是受技術(shù)影響者應享有知情權(quán)、反對權(quán)或人工干預權(quán)、質(zhì)詢權(quán)、解釋權(quán)、平等權(quán)以及隱私權(quán)。
第二步,基于人工智能在不同風險類型場景的應用情況,分析各個生命周期環(huán)節(jié)需要設計的特殊措施,并單獨予以說明。該步驟可以將場景維度融入法律框架體系之中,從而實現(xiàn)多維動態(tài)模式三個維度的有機統(tǒng)一。具體而言,對于不可接受風險的人工智能應直接予以禁止使用;對于有限風險的人工智能,除了需要滿足上述要求外,還需要在生命周期的各個環(huán)節(jié)保持人工智能相關(guān)信息的透明度;對于最小風險的人工智能,只需要遵守一般的要求即可;而對于高風險人工智能,則需要提出更為嚴苛的要求。其中,在第一個環(huán)節(jié)人工智能規(guī)劃和設計中,技術(shù)提供者應聯(lián)合技術(shù)開發(fā)者、技術(shù)應用者和受技術(shù)影響者分析高風險人工智能場景是否會衍生特殊要求。例如,人工智能輔助立法工具的開發(fā)和應用應關(guān)注無法使用智能化設備的人群,以保證人工智能應用的公正性。
在第二個環(huán)節(jié)數(shù)據(jù)選擇與處理中,技術(shù)開發(fā)者和技術(shù)提供者應使用可靠的數(shù)據(jù)信息,并建立數(shù)據(jù)的應用和審查機制,確保數(shù)據(jù)的使用符合法律的規(guī)定。《人工智能法(學者建議稿)》所提出的關(guān)鍵人工智能應建立數(shù)據(jù)標注規(guī)則和審核機制就是對高風險人工智能提出的特殊要求。
在第三個環(huán)節(jié)算法設計與模型建立中,一方面,技術(shù)開發(fā)者應在模型開發(fā)前便進行風險評估,并成立相應的監(jiān)管部門,用以檢測模型開發(fā)過程中的各種風險。若技術(shù)開發(fā)者是根據(jù)已有模型進一步開發(fā)的新模型,則其需要對基礎模型負有審查義務,保障無論是基礎模型還是新開發(fā)的模型都符合要求。另一方面,技術(shù)開發(fā)者在開發(fā)相關(guān)模型時,還應符合高風險場景的倫理要求。例如,對于醫(yī)藥衛(wèi)生行業(yè)模型的開發(fā),除了需要符合人工智能倫理外,還要符合醫(yī)療倫理。再如,對于自動駕駛汽車模型的開發(fā),需要兼顧道路交通安全的要求。
在第四個環(huán)節(jié)技術(shù)審查與檢驗中,技術(shù)開發(fā)者和技術(shù)提供者需要組織獨立的風險防控部門用以負責高風險人工智能的風險審查,并對結(jié)果加以披露。此外,無論是技術(shù)開發(fā)者還是技術(shù)提供者,在對人工智能進行審查時,都需要根據(jù)場景進一步考慮高風險場景是否有特殊的要求。例如,結(jié)合自動駕駛汽車的特點,對于該應用的審查與檢驗就包括道路測試和示范應用。那么在該場景之下,應對技術(shù)審查作出針對性部署。
在第五個環(huán)節(jié)技術(shù)部署與使用中, 技術(shù)提供者需要對人工智能的可解釋性作出更加詳盡的說明。例如,當人工智能應用于司法裁判時,必須保障人工智能所作出的判斷是人類可理解的,否則就會引發(fā)機器裁判的倫理風險,同時可能對司法公信力造成損傷。此外,技術(shù)應用者在需要時,也具有告知和監(jiān)管責任。同樣以人工智能應用于司法裁判為例,為了更好地保障權(quán)利,法官需要對人工智能的使用進行全程監(jiān)管,以避免因人工智能錯誤應用導致的風險。同時,法官也負有告知有關(guān)人員人工智能風險的責任。而為了保證該責任的有效落實,技術(shù)開發(fā)者和技術(shù)提供者應在必要時對技術(shù)應用者提供應用方式的指導。
(二)多維動態(tài)模式的動態(tài)機制
隨著人工智能的不斷發(fā)展,其已經(jīng)開始超越單純的技術(shù)工具角色而發(fā)揮社會新型基礎設施和人工智能產(chǎn)業(yè)底座效應,由此引發(fā)的風險也愈發(fā)呈現(xiàn)出不確定性和變化性。故而便需要不斷根據(jù)技術(shù)變化調(diào)整相應的治理策略。事實上,針對人工智能提出的敏捷治理理論,便意在強調(diào)根據(jù)人工智能的變化而動態(tài)調(diào)整治理方案,即構(gòu)建“一套具有柔韌性、流動性、靈活性或適應性的行動或方法,一種自適應、以人為本以及具有包容性和可持續(xù)的決策過程”。在具體要求上,敏捷治理在強調(diào)不同主體廣泛參與的同時,更加注重工具的快速反應和適應性演化,以及政府作為權(quán)威主體在其中扮演的主導性角色。同樣地,人工智能規(guī)則的框架體系也應符合上述要求。例如,美國《人工智能風險管理框架》便指出:“該框架和支持資源將根據(jù)不斷發(fā)展的技術(shù)、全球標準格局以及人工智能社區(qū)的經(jīng)驗和反饋進行更新、擴展和改進……隨著人工智能風險管理框架的投入使用,將吸取更多經(jīng)驗教訓,為未來的更新和更多資源提供信息。”
多維動態(tài)模式吸納了上述理論與實踐經(jīng)驗,同樣強調(diào)對于框架體系的動態(tài)調(diào)整。為了保證動態(tài)機制的有效性,應成立一個人工智能委員會專門就“人工智能法”的框架體系進行監(jiān)測和分析等工作,并適時對法律調(diào)整提出相應建議。從當前實踐看,該方式已經(jīng)被不少主體采納。例如,歐盟《人工智能法案》專門提出要成立人工智能委員會和獨立專家科學小組。美國于2016年5月成立“人工智能和機器學習委員會”, 負責協(xié)調(diào)全美各界在人工智能領域的行動, 探討制定人工智能相關(guān)政策和法律。國際標準化組織于2017年成立人工智能委員會,致力于制定涵蓋算法偏見、隱私保護等領域的標準。而我國也成立了國家新一代人工智能治理專業(yè)委員會,并就人工智能治理問題設計相應的規(guī)范。此外,《人工智能法示范法2.0(專家建議稿)》指出應由國家人工智能主管機關(guān)履行人工智能監(jiān)管職責。在具體方式上,可以由政府部門牽頭,在廣泛吸納各方專家和利益主體的基礎上,成立人工智能委員會。這樣可以更好地保證相關(guān)工作的權(quán)威性和科學性,也契合了敏捷治理的要求。對于“人工智能法”框架體系的動態(tài)化調(diào)整,該委員會應主要做好以下幾項工作:
首先,應建立人工智能信息動態(tài)監(jiān)測機制。人工智能信息動態(tài)監(jiān)測機制應由兩部分組成,一是對于人工智能及其風險的動態(tài)監(jiān)測。對人工智能有效治理的前提是能夠及時了解人工智能的變動和發(fā)展,因此,有必要針對人工智能建立一種系統(tǒng)性風險監(jiān)測機制,全面了解人工智能的發(fā)展動態(tài)。二是對于人工智能治理的監(jiān)測。人工智能的應用場景變化或技術(shù)進步并不意味著治理方式的不適應性,因此,除了應監(jiān)測人工智能的變化外,還應該對“人工智能法”的框架體系是否能夠有效應對人工智能的新發(fā)展或新應用進行監(jiān)測。只有當既有框架體系無法應對新人工智能產(chǎn)生的風險時,才會涉及調(diào)整相關(guān)體系的問題。在具體方法上,一是應引入評估機制,通過科學的風險評估方法,就人工智能風險和人工智能治理狀況進行量化評估,以查看既有方案是否可以滿足治理需求;二是應充分發(fā)揮人工智能的作用,通過人工智能對人工智能應用和治理進行實時監(jiān)測,在人工智能研判當前技術(shù)發(fā)展已超越治理能力時,應進一步關(guān)注“人工智能法”框架體系的調(diào)整。
其次,應建立“人工智能法”框架體系多元合作機制。以科層制為基礎的傳統(tǒng)行政組織架構(gòu)一般遵循逐層上傳下達的嚴格等級模式,不得逾越層級,實質(zhì)上是一種層級行政的機制。但這種組織結(jié)構(gòu)也存在靈活性不足的問題,與人工智能敏捷治理的需要存在矛盾。而隨著人工智能的發(fā)展,多元共治越來越成為其治理的重要原則。正如我國《全球人工智能治理倡議》所指出的那樣:“堅持廣泛參與、協(xié)商一致、循序漸進的原則,密切跟蹤技術(shù)發(fā)展形勢,開展風險評估和政策溝通,分享最佳操作實踐。”因此,“人工智能法”框架體系的動態(tài)機制也應遵循多元共治的原則。具體而言,一方面,人工智能委員會應與國內(nèi)各人工智能利益相關(guān)主體廣泛合作, 積極吸納其對于人工智能治理的意見。這樣“群策群力”的方式可以更加迅速、有效地掌握法律框架體系存在的不足。另一方面,人工智能委員會也應大力開展國際合作,如《布萊切利宣言》所述,當前對于人工智能的治理已經(jīng)成為全球性議題,世界各方都在尋求最佳的處理方案。由此,積極開展國際對話可以更好地交流治理經(jīng)驗,進而謀求更優(yōu)的法律框架體系。
最后,應建立“人工智能法”框架體系信息反饋機制。若根據(jù)監(jiān)測和合作機制發(fā)現(xiàn)“人工智能法”框架體系已經(jīng)無法適應治理需求,則應及時就相關(guān)信息進行反饋,明確“人工智能法”框架體系不適應性的產(chǎn)生原因,并提出相應的法律修改建議。在進行分析時,應著重考察人工智能變革引發(fā)的框架體系不適應性問題在于生命周期維度、價值鏈維度還是場景維度,隨后再根據(jù)不同的問題,就整體框架體系調(diào)整提出建議。
上述方案保證了多維動態(tài)模式可以迅速適應技術(shù)的變化,對可能的風險作出快速反應,同時也強調(diào)了多主體的廣泛參與,較為符合敏捷治理的要求。
四、多維動態(tài)模式對于單一模式的優(yōu)化
之所以要強調(diào)由單一模式向多維動態(tài)模式發(fā)展,其必要性在于隨著人工智能技術(shù)的不斷發(fā)展和治理的日益深入,三種單一模式均已無法有效應對人工智能引發(fā)的風險,滿足治理需求。特別是自新一代人工智能出現(xiàn)在人們的視野后,單一模式就變得更加難以應對人工智能的監(jiān)管需求。申而言之,對于傳統(tǒng)基于機器學習的人工智能而言,只需要將訓練數(shù)據(jù)輸入到機器之中,機器就可以從中學習。但是生成式人工智能需要先使用無監(jiān)督學習進行預訓練,再通過監(jiān)督學習和強化學習進行微調(diào)。這就導致了最終技術(shù)效果的差異:“與傳統(tǒng)的人工智能相較,生成式人工智能不僅是一個‘自我更新、自我完善、自我演進’的‘復雜巨系統(tǒng)’,而且形成了人與技術(shù)互動的‘請求—回應’關(guān)系。”而其較傳統(tǒng)人工智能所涉及的主體、環(huán)節(jié)和場景更加復雜,單一模式更難以應對其中風險。對于價值鏈模式而言,人工智能的發(fā)展呈現(xiàn)出將技術(shù)支持、服務提供與內(nèi)容生產(chǎn)“三位一體”融合的技術(shù)形態(tài),打破了現(xiàn)有的人工智能治理方案對數(shù)字社會生產(chǎn)方式在結(jié)構(gòu)方面的底層設定。因此,在面對新型人工智能時,應當享有權(quán)利和承擔責任的對象呈多元化、分散化和場景化特征,價值鏈模式這種簡單的技術(shù)開發(fā)者、技術(shù)提供者、技術(shù)應用者和受技術(shù)影響者的劃分方式,難以精準劃定具有權(quán)利和責任之應然主體。就生命周期模式而言,人工智能的快速發(fā)展使得生命周期中各個環(huán)節(jié)的權(quán)利和責任分配更加復雜化。若依照既有生命周期模式不明確具體主體權(quán)利和責任的方式,人工智能治理困境將進一步加劇。就場景模式而言,人工智能的快速發(fā)展使得其應用場景在短時間內(nèi)進一步豐富化、多樣化和復雜化,這就放大了場景模式的弊端———人工智能的高速發(fā)展加速了新應用場景的出現(xiàn),導致場景模式需要不斷根據(jù)人工智能的新場景,判斷其應屬于哪種風險類型,甚至是否需要制定新的風險治理策略,由此便不能對人工智能及時進行治理。而人工智能的高速發(fā)展又引發(fā)了很多問題,亟待法律加以解決,例如新技術(shù)的涌現(xiàn)對隱私權(quán)、平等權(quán)帶來的挑戰(zhàn)等。當法律框架無法應對技術(shù)發(fā)展態(tài)勢時,其便可能無法處理人工智能引發(fā)的各種問題,進而產(chǎn)生權(quán)利損害等問題。
多維動態(tài)模式相較于上述三種單一模式具有更強的適應性。這主要由于,如前文所述,多維動態(tài)模式有機結(jié)合了三種單一模式,這在很大程度上克服了單一模式所存在的各自的缺點。事實上,新技術(shù)的發(fā)展目前僅僅是放大了各個單一模式的缺陷,但尚未引發(fā)新的缺陷。而這些缺陷對于多維動態(tài)模式而言均可以有效應對, 無論是對于各個主體權(quán)利和責任的精準劃分還是對于跨場景的治理,多維動態(tài)模式均不會因技術(shù)發(fā)展而受到太大沖擊。更為重要的是,相較于靜態(tài)的單一模式,多維動態(tài)模式探索了動態(tài)化的運作機制,這就可以保證即使技術(shù)發(fā)生變化,多維動態(tài)模式也可以及時掌握新技術(shù)態(tài)勢并應對可能的風險,這大大提高了“人工智能法”框架體系的適應性。以生成式人工智能為例,即便是此類技術(shù)導致生命周期不同環(huán)節(jié)各個主體之間界限愈發(fā)模糊,多維動態(tài)模式依然可以有效應對。這主要是因為在單一環(huán)節(jié)中,不同主體之間的權(quán)利和責任仍然可以有效劃分,生成式人工智能的出現(xiàn)并未對此造成太大影響。即便是新的環(huán)節(jié)出現(xiàn)抑或主體權(quán)利和責任分工更加錯綜復雜,動態(tài)機制可以在風險出現(xiàn)之初便發(fā)現(xiàn)問題,進而基于群策群力等方式迅速化解可能的風險。
不可否認的是,多維動態(tài)模式的應用與法律的穩(wěn)定性之間可能存在一定程度的矛盾。但一方面,這恰恰源于人工智能時代治理需要的變化———受制于技術(shù)的多變性,敏捷治理等理論均在一定程度上要求治理的迅速反應。另一方面,多維動態(tài)模式也可以在一定程度上保證立法的穩(wěn)定性。其通過整合設計立法框架的方式可以更好地應對潛在的變化,從而避免法律被迫因技術(shù)態(tài)勢變革而不斷更迭的問題。
在具體由單一模式到多維動態(tài)模式優(yōu)化方案的設計上,對于價值鏈模式而言,應保持賦予價值鏈中各個主體權(quán)利和責任的方式,但并非簡單地羅列各項權(quán)利和責任,而是通過引入人工智能生命周期,將各個主體在不同環(huán)節(jié)的權(quán)利和責任進行切割。而在單一環(huán)節(jié)中,各主體的權(quán)利和責任相對較為明確和清晰,由此便不會出現(xiàn)權(quán)利和責任定位精準度不足的問題。還應進一步吸納場景模式和動態(tài)機制,以解決價值鏈模式無法應對特殊場景治理需求的問題,即根據(jù)人工智能應用的場景,添加各個主體可能需要進一步承擔的權(quán)利和責任,這就增加了“人工智能法”的針對性和適應性。對于生命周期模式而言,可以通過引入價值鏈中各個主體并明確其權(quán)利和責任的方式,解決原本生命周期模式權(quán)利和責任不明的問題。事實上,生命周期模式很大程度上建立在生命周期環(huán)節(jié)和價值鏈主體對應關(guān)系的基礎上,但這種對應關(guān)系有時候并不成立,特別是隨著人工智能的發(fā)展,這種關(guān)系將被打破。因此,應跳出這種簡單的對應關(guān)系,在生命周期的每一環(huán)節(jié)將原本的權(quán)利和責任分配到具體的技術(shù)開發(fā)者、技術(shù)提供者、技術(shù)應用者和受技術(shù)影響者等主體。如此一來,在治理人工智能時,只需要考察相關(guān)主體是否履行了其需要履行的職責即可,這就不會出現(xiàn)像生命周期模式一樣無法確定治理對象的問題。除此之外,生命周期模式向多維動態(tài)模式的轉(zhuǎn)變也應引入場景模式和動態(tài)機制,這可以解決生命周期模式對于不同場景針對性不足的問題,保證相關(guān)框架體系更加具有場景應對性。對于場景模式而言,應通過生命周期和價值鏈的引入進一步提升整體性,由此,在面對跨場景的不同類型人工智能應用時,才可以明確相應主體的權(quán)利和責任進而進行有效治理。
結(jié)語
隨著人工智能的高速發(fā)展,“人工智能法”的制定和人工智能治理日益成為各方關(guān)注的話題。對于我國而言,無論是出于有效的人工智能治理的需要,還是出于增強國際話語權(quán)的需求,抑或“人工智能法”的立法要求,構(gòu)建一個有效的“人工智能法”框架體系可謂勢在必行。遺憾的是,當前各方似乎并未對此予以足夠關(guān)注,相關(guān)討論屈指可數(shù)。有鑒于此,本文嘗試基于各主體就人工智能治理所設計的規(guī)則和策略,提出“人工智能法”框架體系的多維動態(tài)模式,以為更加系統(tǒng)的“人工智能法”的制定提供支持。需要指出的是,在基于多維動態(tài)模式制定“人工智能法”時,也應充分結(jié)合我國當前的立法實踐。例如,在設計生命周期維度時,可以更多參考《新一代人工智能倫理規(guī)范》;在引入價值鏈維度時,可以結(jié)合《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》等規(guī)則;在構(gòu)建場景維度時,應結(jié)合《人臉識別技術(shù)應用安全管理規(guī)定(試行)(征求意見稿)》等具體場景的規(guī)定。由此,不僅可以有效利用既有的立法資源,也可以體現(xiàn)我國“人工智能法”的立法特色。