999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能倫理治理的元規制進路:以企業監管為焦點

2024-01-01 00:00:00鐘浩南
江淮論壇 2024年5期

摘要:企業是重要的人工智能實踐主體,監督問責機制的缺位和企業對倫理原則內在承諾的缺失,導致倫理原則難以約束企業在該領域的前沿實踐。命令控制型規制作為對企業行為的直接規制模式,無法有效滿足人工智能倫理治理的現實要求。元規制作為一種對企業自我規制的間接規制模式,能夠以實驗性的自我規制積累治理經驗,以民主協商凝聚規范性共識,以激勵性問責激發企業對原則的內在承諾,從而推動企業將人工智能倫理原則付諸實踐。建構人工智能倫理治理的元規制機制,應以風險為導向設定類型化和場景化的規制目標,通過執法金字塔和企業的分類監管,提升人工智能企業自我規制的意愿和能力,并建立對人工智能企業自我評估的元評估機制。

關鍵詞:人工智能倫理;企業監管;自我規制;元規制

中圖分類號:DF37;F27" " 文獻標志碼:A" " 文章編號:1001-862X(2024)05-0148-008

一、人工智能倫理的共識性原則及元規制的提出

隨著人工智能技術的發展,社會各界對其引發的算法偏見、隱私泄露、技術濫用等倫理風險的擔憂也日漸增加。人們紛紛呼吁對人工智能展開倫理治理,使其應用符合人類的價值觀,實現“人機價值對齊”[1]。在此背景下,各國政府、國際組織、行業協會和科技公司等近年來發布了一系列人工智能倫理建議、準則、指南等規范性文件。(1)截至2023年,全球人工智能倫理治理的規范性文件已有200余部。[2]各類人工智能倫理文件中的原則已經逐漸趨同,大體可歸納為行善(Beneficence)、無害(Non-Maleficence)、正義/公平(Justice,Fairness)、隱私保護原則(Privacy)、透明/可解釋原則(Transparency,Explicability)、責任/問責原則(Responsibility,Accountability)自由/自主(Freedom,Autonomy)等七項。[3]隨著社會各界對于人工智能應遵循什么樣的倫理原則已經形成基本共識,下一步人工智能倫理治理的重點應轉向如何在實踐中貫徹這些原則。[4]2141-2168

企業作為推動新一代人工智能發展的重要主體,對人工智能倫理原則的實踐有著重要影響。在國際上,AlphaGo、ChatGPT等突破性的算法應用,均來自于DeepMind、OpenAI等人工智能企業。我國在政策上也多次強調企業在人工智能發展中的主體地位。2017年國務院印發的《新一代人工智能發展規劃》指出:“突出企業在技術路線選擇和行業產品標準制定中的主體作用?!?022年科技部等六部門印發的《關于加快場景創新 以人工智能高水平應用促進經濟高質量發展的指導意見》也指出,推動人工智能場景創新應以企業為主導,“堅持企業在場景創新全過程中的主體地位”。

身處產業一線的企業在人工智能治理方面擁有信息和技術上的優勢,但天然的趨利性使其缺少足夠的動力貫徹人工智能倫理原則。針對這一難題,政府可采用元規制(Meta-Regulation)的監管模式推動企業對原則的遵從。所謂元規制是指對規制本身的規制,具體而言即由監管部門對企業自我規制實施的規制。因此,元規制是一種由多元主體構成的二階監管模式,其中,企業實施著自我規制,而監管部門則在二階層次上對企業的自我規制進行規制。[5]與之相對的監管模式是一階的命令控制型規制,即監管部門通過具體命令對企業行為的直接管控。在分析人工智能倫理原則實效性缺失表現和成因基礎上,本文剖析對比了命令控制型規制和元規制的治理邏輯,并試圖論證命令控制型規制難以化解人工智能倫理原則實效性缺失的問題,而元規制可為此提供一套可行的制度方案。

二、企業監管視角下人工智能倫理原則的實效性缺失問題

從功能的角度來看,規范具有實效性意味著它能夠指引人們的行為。規范的指引功能既包括積極的指導,即明確人們應當做什么,也包括消極的約束,即阻止人們實施越軌行為。因此,從企業監管的視角來看,人工智能倫理原則實效性的缺失集中體現在其難以指導和約束企業實踐。

人工智能企業可以通過多種方式規避原則的要求。其中一種典型的規避方式就是所謂的“倫理選購”(ethics shopping),這是指人工智能企業從諸多倫理原則中挑選出部分原則,用它們來正當化企業當前的行為,而不是根據原則糾正和改進既有的行為。企業從“原則市場”中挑選出最契合自己原有行為的各項原則,將該行為予以正當化。人工智能倫理原則由此淪為一種企業在事后用于正當化既有行為的幌子,而不再是一種可以敦促企業改變現狀的、批判性的評價標準。另一種規避原則的方式被稱為“倫理洗白”(ethics washing),這是指企業通過采取營銷、贊助等公關手段或者沒有實際作用的倫理審查措施,包裝出其遵守人工智能倫理的正面形象,但其實際的行為卻與之相反。[6]186-188此外,倫理原則與產業實踐存在著嚴重脫節。在設計符合倫理的人工智能產品時,AI從業者能夠獲得的工具、方法等資源,遠遠少于他們認為有用的資源。例如,接近30%的被訪者都認為倫理設計細則是有用的,但是卻只有不足15%的被訪者可以獲得此類細則。[7]

人工智能倫理原則在實踐中效果不佳,其成因可以從原則的實體內容和約束機制兩個方面進行分析。在原則內容方面,人工智能倫理原則高度抽象且模糊不清,這削弱了其對具體產業實踐的指導性;在約束機制方面,目前的人工智能倫理治理既缺少外部的監督和問責機制,也缺少人工智能企業對原則的內在承諾,故而難以對企業的行為產生約束。

首先,對于企業的算法開發和運用實踐而言,過于抽象、籠統的倫理原則難以提供具體可操作的技術指引和行為規范。其一,規制對象具有高度的異質性。[8]503人工智能并不是某種單一的技術,而是問題求解、知識推理、機器學習等多種不同算法技術的集合。這些算法可以服務于內容生成、人臉識別、機器翻譯等不同目的,并應用于金融、醫療、司法等不同場景。技術和應用的多樣性使得人工智能涉及的行業和利益群體具有高度異質性,從而增加了倫理原則具體化的難度。其二,人工智能倫理缺少充足的實踐經驗基礎。就深度學習等塑造今天人工智能面貌的技術而言,其蓬勃發展僅僅是近二十年的事。在其短暫的歷史中,人工智能并未像醫學、法律那樣成為一個獨立的職業,也沒有基于職業實踐而形成一套完備的職業倫理規范。[9]因此,目前的人工智能倫理原則主要是一種自上而下的人為建構。它們只是抽象地表達了人們對于負責任人工智能的理想愿景,而沒有充足的實踐經驗作為支撐,所以難以具體化。

其次,內容的模糊性是人工智能倫理原則缺乏實效的另一原因。原則內容的模糊性體現在人們可以從不同的政治、利益和倫理立場出發,對各原則的含義做出不同乃至于對立的解釋。[10]和抽象性問題不同,人工智能倫理原則的模糊性并不緣于技術的復雜性,而是緣于公平、正義、人類福祉等倫理價值本身的爭議性。例如在美國“威斯康辛州訴盧米斯”案中,Northpointe公司設計的一款用于預測罪犯累犯風險的算法將種族要素納入考量,這是否有違公正原則?一種觀點認為,因為法律面前人人平等,所以這是一種不當的種族歧視,違反了公平原則。另一種觀點則主張,如果有充足的統計學證據表明種族要素能夠預測罪犯的累犯風險,那么這種差別對待就沒有違反公平;反之如果為迎合政治正確而刻意將種族要素從模型的變量中剔除,則構成對白人的反向歧視。[11]因此一旦涉及具體問題的評判,被抽象的原則所掩蓋的價值分歧就會暴露出來。這種分歧不是技術層面的,而是價值層面的。它們反映了人們對倫理原則本身的理解分歧,而人工智能只是展現這些分歧的一個具體場景。

再次,人工智能倫理原則作為一種軟法,缺少有力的監督和問責機制,因而難以對行為施加有效的外部約束。根據規制理論的基本原理,一套完整的規制機制應當包含標準制定、監督執行和問責懲戒三大要素。[12]然而,目前的人工智能倫理治理尚未建立完備監督評估機制,對于違反倫理原則的行為亦缺少相應的懲戒機制。雖然在正式監管之外還有市場可以發揮規制功能,但事實上市場的約束往往難以奏效。因為缺少嚴格的監督,企業可以利用其與消費者之間的信息不對稱,包裝自己在倫理治理方面的努力和成績,從而騙取良好的市場聲譽,由于缺少正式有力的問責,消費者短期的抵制對于科技巨頭的影響十分有限,難以形成實質性的懲戒。

強制懲戒機制的缺失,導致了人工智能倫理原則的貫徹基本依靠企業自律,取決于企業對倫理原則的內在承諾,即出于認同而踐行倫理原則的意愿。在現實中,有的企業卻缺少這種對原則的內在承諾。這意味著當遵守倫理原則與企業的商業利益相悖時,企業往往會選擇原則妥協而非利益妥協,尤其是在外部監管缺位的情況下。

三、元規制提高人工智能倫理原則實效性的理據

從傳統法律規制的視角看,人工智能倫理原則缺乏實效性很大程度上緣于軟法規制的固有缺陷,即缺少具體明確的規則和有力的懲罰措施。因此,對于人工智能企業的監管而言,應當從軟法規制轉向硬法規制,通過倫理原則的法律化提高其實效性,即根據原則制定具體的法律規則,對違反規則的行為設置法律責任,并投入執法力量監督企業是否守法。以命令和控制(command and control)為特征的規制模式,已經難以滿足當代人工智能倫理治理的需求,相比之下,元規制則能夠提供一種更為合理的規制方案。

(一)元規制與命令控制型規制的治理邏輯

命令控制型規制是一種對企業行為的直接規制。它將規制者和被規制者之間設想為一種科層式的“命令—服從”關系:由立法機關、政府等正式規制者發布法規和命令,而企業則予以遵照執行。于是企業就被簡單地視為對法規和命令被動的服從者,其不需要進行能動的自我規制,而只需嚴格甚至機械地遵守規則即可。然而,在環境治理、網絡治理和人工智能治理等新興的規制領域,命令控制型規制卻難以奏效,因為這些領域的治理問題往往具有很高的技術性、動態性和復雜性,而正式的監管部門缺少必要的信息和資源去制定解決問題的合理對策。[13]169-170

企業對于新興領域的治理問題有著更為深入的了解,而且憑借其信息和技術上的優勢,也更有能力找到解決問題的方案,但是企業作為營利主體,本身缺少動力實現公共性的規制目標。元規制的治理邏輯在于,一方面利用被規制者的信息和技術優勢,把尋找問題解決方案的責任從監管部門轉移給企業,另一方面通過執法和問責機制,敦促其通過自我規制對規制目標和監管要求予以回應。按照這一治理邏輯,元規制不再直接規制被規制者的行動,而是要間接地對其自我規制的過程實施規制。[14]

命令控制型規制和元規制治理邏輯的差異具體體現在以下兩個方面。一是,在命令的形式方面。命令控制型規制采用的是具體的指令性標準(prescriptive standard)或績效標準(performance standard),要求被規制者必須采取某種解決問題的手段,或者達到特定的績效。[15]151例如,為防止算法歧視,監管部門要求人工智能企業采用特定的數據集缺陷檢測工具,或者要求算法輸出的錯誤率不得高于某一指標。而在元規制中,規制者只會對被規制者提出一般性的目標,要求其通過自我規制,自行采取措施實現該目標。例如,我國《生成式人工智能服務管理暫行辦法》第4條規定,生成式人工智能服務的提供和使用者應當“采取有效措施防止產生民族、信仰、國別、地域、性別、年齡、職業、健康等歧視”。這一規定就具有元規制的屬性,因為它僅僅一般性地要求被規制者采取措施防止算法歧視,而沒有對具體的手段或達到的績效做出硬性規定。相比命令控制型規制,元規制賦予了被規制者更大的裁量空間以及自我規制的余地,允許它們根據實際情況采取最有利于解決問題的措施。[13]166

二是,在監管的取向方面。傳統的命令控制型規制以規則為導向,這意味著企業監管的重點在于確保其對規則的嚴格遵守,相應的執法活動也是以具體的規則為標準,檢查企業行為是否符合相應的規則。然而,很多時候單純形式上的守法并不能保證規制目標的實現。例如,大型公司可以雇傭法務和律師,通過各種法律技術將實質上的違法行為包裝成合法的。[16]與之相對,元規制以實現規制目標為導向,其重點在于推動企業對規制價值的實質遵從。體現在監管方式上,在元規制中監管部門的職責并不是檢查企業的行為是否在形式上符合規則,而是要監督和評估其自我規制體系是否在實質上有助于實現規制目標。換言之,規制者不僅僅監督企業紙面上建立的自我規制體系,更要監督該體系是否實際運作,并且在相應的規制事項上切實取得了成效。[15]151

(二)元規制如何推動人工智能企業貫徹倫理原則

根據前文的分析,人工智能倫理原則缺乏實效性緣于目前的人工智能倫理治理缺少四種要素:人工智能治理經驗、對原則內容的規范性共識、有力的監督和問責機制以及企業對原則的內在承諾。元規制之所以有望提升人工智能倫理原則的實效性,正是因為它能夠彌補這四項缺失。

1.通過實驗性的自我規制積累經驗

命令控制型規制采用了一種自上而下的規制進路。它假定規制者對于規制事項擁有充足的經驗和信息,已經知道解決特定問題或者實現特定目標的合理方案是什么。[17]然而,由于經驗和信息的欠缺,規制者在若干倫理原則中勾勒出的理想愿景,難以在具體的算法設計與監管實踐中貫徹,更難以將倫理原則轉譯為具體的法律規則。

元規制則允許人工智能企業開展實驗性的自我規制,由此為貫徹倫理原則積累經驗。與正式的監管部門相比,人工智能企業因為身處產業一線,在信息、知識和技術等方面往往更具優勢,所以更有能力找到貫徹倫理原則的可行方案。元規制恰恰利用了企業在信息和知識方面的優勢,將制定規制方案的任務交給企業,讓他們在自我規制的過程中,摸索出實現規制目標的可行舉措。在具體規制措施方面,元規制采取了自下而上的進路。不同于命令控制型規制,解決規制問題和實現規制目標的具體措施,不是監管部門在法規中事先確定下來的,而是企業在自我規制的實踐中,經過反復試錯、總結經驗而摸索出來的。這種自下而上的規制進路契合了當下人工智能倫理規制的現實。[8]505并且,對于人工智能這種具有高度異質性的規制對象而言,元規制相比命令控制型規制也具有顯著優勢。因為規制者不必就行為不同的技術、場景和行業制定不同的標準,或是實施一刀切式的僵化管理,而是可以要求不同領域和行業的企業制定自己的自我規制方案。相應地,規制者的角色就從制定和執行具體的規制方案,轉為監督企業為回應監管要求而進行的自我規制。

2.通過民主協商凝聚規范性共識

在價值多元的現代社會,不同群體從各自的立場和價值觀出發對原則的解釋產生分歧,這本就是十分正常且無可避免的事。合理的解決方式只能訴諸自下而上的民主協商,讓企業和利益相關者在民主程序中,通過協商和妥協達成各方可以接受的人工智能倫理治理意見。

命令控制型規制所依賴的民主立法程序,在規制人工智能企業方面存在諸多局限。一是,正式的立法程序啟動困難、流程繁復且歷時漫長,無法對人工智能日新月異的技術發展做出敏捷回應。二是,在傳統的立法程序中,代表是從特定地區、職業和民族等人群中選舉產生的,而不直接來自受算法影響的利益群體。如此產生的代表難以有針對性地表達受算法影響的利益群體的訴求,并在立法審議、表決等程序中維護其權益。三是,命令控制型規制的民主參與僅限于正式的立法決策,也就是讓民意代表參與法規的制定,而缺少了利益相關者對企業內部決策的民主參與。因此,一旦規則制定完畢,剩下的工作便只是要求企業遵照執行,利益相關者從此便與企業決策過程相隔離,不再能對其決策進行直接的參與和監督。

為了提高人工智能倫理治理的民主性,有必要使利益相關者能夠參與和影響企業決策,元規制恰為此提供了可行的制度方案。其一,信息披露制度。這要求企業向受算法影響的利益相關者披露有關自我規制的信息,包括自我規制的內容、運作情況和效果等等。這有助于企業為算法用戶和其他利益相關者提供信息,使之就如何實施倫理原則與企業管理者展開對話。其二,利益相關者協商制度。企業收集有關利益相關者訴求的信息,并在其內部決策中加以考量;在部署和執行企業的算法自我規制體系時,設置相應的協商程序,讓利益相關者和企業管理者共同商議監管體系的具體內容。其三,企業正義計劃(corporate justice plan)。這是讓企業考慮利益相關者訴求最為直接的方式,即賦予利益相關者質疑、挑戰企業決策的權利和法律手段。這要求企業內部建立處理算法用戶及其他利益相關者申訴的糾紛解決機制,并在無法妥善解決爭議時,賦予利益相關者起訴請求否決企業決策的權利。[18]222-227

3.通過激勵性問責助推企業建立對原則的內在承諾

缺少監督問責機制和對原則的內在承諾,是人工智能倫理原則難以約束企業行為的兩個主要原因。命令控制型規制可以提供前者,卻無法實現后者。命令控制型規制對企業的問責,采用的是指令性或績效性標準,即如果企業未能履行相應的義務或者達到績效,就會受到懲罰。所以問責僅僅指向企業的外在行為,而不指向企業對規制目標的內在承諾。換言之,它只關心企業是否遵守規則,而不關心其是否內化了規則背后的價值目標,以及遵守規則能否實現該目標??梢哉f,在命令控制型規制中,監管的起點也是它的終點。然而,這種規制模式對于人工智能倫理治理而言卻是不適宜的。原因主要有兩方面,一方面,由于缺少實踐經驗和規范性共識,倫理原則難以被轉譯為具體的指令性或績效性標準;另一方面,即便制定和實施了具體的規則,也無法確保倫理原則所追求目標的實現。事實上,在企業缺少內在承諾的情況下,過于具體和技術化的規則反而會誘使企業實施法律規避,通過形式上的守法逃避其對規制目標的實質責任。[18]10

元規制可以通過激勵性的問責機制,助推企業建立對倫理原則的內在承諾。當企業的自我規制不符合監管要求時,元規制也會對企業進行問責和懲戒。但是元規制的問責遵循恢復正義的價值,更強調激勵性而非懲罰性,旨在推動企業建立和完善其自我規制機制。要求企業通過自我規制對規制目標做出回應,可以促使企業將規制目標予以內化,從而建立對目標的內在承諾。[27]27在人工智能倫理治理中,元規制問責的目的就不只是敦促企業實施自我規制,而是要借此使企業將倫理原則內化到自身的決策前提和組織文化中,最終讓企業“想去做它們應該做的事”。[19]102因此,元規制問責的終點超越了其起點。盡管問責直接指向的是企業的自我規制,但其最終的目標在于“超越問責”,在于通過問責使企業建立對倫理原則的內在承諾。[19]29由此可見,在倫理原則和法律的關系問題上,元規制和“法律化”模式的處理迥然不同。在元規制的框架中,倫理原則并未被法律規則所替代;法律既不是倫理原則具體化的產物,也不是強制執行倫理原則的手段。毋寧說,法律在此發揮著類似于反思型法(2)的功能,它并不負責具體地執行倫理原則,而是通過程序性和組織性的間接規制手段,助推企業對倫理原則的內化和學習。[20]

四、人工智能倫理治理元規制的制度建構

元規制旨在讓被規制者以自我規制對規則目標做出回應,并通過對自我規制的監督評估完成企業監管的閉環。對于人工智能倫理治理而言,元規制模式的制度建構應依次圍繞以下三方面展開:首先以風險為導向設定類型化的規制目標,其次推動人工智能企業開展自我規制,最后對企業的自我規制進行元評估。

(一)以風險為導向設定類型化、場景化的規制目標

共識性的人工智能倫理原則為設定規制目標提供了基本的參照。元規制作為貫徹倫理原則的制度工具,其目標應與這些共識性的倫理原則保持一致。

根據人工智能倫理原則設定規制目標,首先需要識別每個原則所針對規制的問題或風險。倫理原則是高度抽象的規范,而規制目標則體現為特定領域內需要解決的問題或者需要防范的風險。因此,倫理原則無法直接作為規制目標。只有通過識別每項原則所針對的問題或風險,才能將倫理原則轉譯為規制目標,并要求企業為解決相應的問題而展開自我規制。就此而言,公正、隱私、自治、可問責和可解釋原則都具有較為明確的問題指向。例如,公正原則主要指向算法偏見和歧視問題,隱私原則指向個人信息的不當處理問題,可解釋原則是算法黑箱問題等等。而行善和無害原則指向的問題則較為籠統:行善原則涉及算法設計目的失范、能源消耗、侵犯個人尊嚴等;無害原則涵蓋了網絡攻擊、硬件物理安全等外部安全(Security)風險,算法的可靠性、穩健性和數據質量等內部安全(Safety)風險,以及防控人工智能對人身或財產的侵害風險。[4]2151

在識別出各個倫理原則對應的規制目標后,還需要根據算法的技術類型、設計目的、應用場景等要素,識別具體領域的風險類型,從而將規制目標進一步類型化。例如,對于自動駕駛算法而言,自治原則對應的規制目標是保證人類司機對駕駛的及時接管[21];而對于司法的自動化決策系統而言,相應的目標則在于防止算法侵犯法官的獨立裁判權[22]。此外,針對不同類型的算法技術,倫理原則及其規制目標的側重也有所不同。例如,對于人臉識別算法,重在規制不當收集和泄露個人信息、數據歧視等風險;而對于生成式人工智能,重在規制生成虛假和不當內容、侵犯知識產權等風險。

(二)人工智能企業自我規制的意愿激發與能力提升

良好的自我規制并不是僅憑規制者的一紙命令就可以實現的,而是需要配套的規制工具,激發企業建立對倫理原則的內在承諾,使其獲得自我規制的知識和能力,從而使企業有意愿且有能力開展自我規制。

1.以執法金字塔激發企業自我規制意愿

對于激發人工智能企業自我規制的意愿而言,可以采取執法金字塔的規制策略。執法金字塔自下而上的各層中,分別包含了由輕到重的各種規制和懲罰措施。當監管部門發現企業違法違規行為時,應當首先采取金字塔最底層的勸誡、約談等柔性的規制措施,責令企業限期整改。[23]如果企業拒不配合,監管部門就會逐步升級更加嚴厲的措施,依次采取警告、民事賠償、刑事處罰、停業整頓等措施,直到最終吊銷企業的營業執照。與傳統執法模式相比,執法金字塔為企業的自我規制提供了更多正向激勵。相比傳統法條主義的執法方式,這種逐級匹配的執法策略,能夠對人工智能企業自我規制的意愿和程度做出回應,從而激勵那些具有守法意愿的企業及時糾正錯誤,推動企業建立根據倫理原則自我規制的內在意愿。對于不能自主規制的違法者,執法金字塔還保留了頂端最嚴厲的懲罰措施,從而確保其問責機制擁有足夠的威懾。

2.以分類監管促進企業自我規制能力提升

對于具有不同自我規制能力的人工智能企業,應當進行分類并采取差異化監管措施。

第一類是以科技巨頭為代表的人工智能領域的領軍企業。這類企業不僅擁有雄厚的技術實力,還擁有高于行業平均水平的自我規制能力。領軍企業可以憑借他們在算法治理方面的知識和技術優勢,設計出貫徹倫理原則的制度和技術措施。例如,在制度措施方面,谷歌設計的算法審計框架“SMACTR”,按照范圍界定、映射、文件收集、測試和反思五個步驟對算法進行系統的倫理評估[24];在技術措施方面,微軟開發的“InterpretML”框架可用于訓練可解釋的機器學習模型和解釋黑箱系統,人們可以借此審查算法是否符合倫理要求。對于領軍企業,元規制的目標在于激勵它們進行實驗性的自我規制,不斷探索和創新人工智能的倫理治理方案,并由監管部門將這些方案作為實踐案例向其他企業推廣。

第二類是占行業大多數的、具有基本自我規制能力的人工智能企業。對于這類企業,監管部門可以采用過程性規制的方式,通過強制企業進行風險管理,促進其自我規制能力的提升。人工智能風險管理是企業自我規制的重要制度,已成為世界各國算法治理普遍采用的規制機制,例如歐盟《人工智能法案》第9條規定,高風險人工智能系統提供者應當建立、實施、記錄和維護與系統有關的風險管理體系;美國國家標準與技術研究院(NIST)2023年發布了《人工智能風險管理框架》,指導人工智能企業按照治理、映射、衡量和管理四個模塊,構建風險管理框架。[25]在元規制中,企業首先需要制定完善的算法風險管理方案,這要求企業系統地識別和評估其所面對的算法倫理風險,開發相應的應對措施,確保在可行范圍內將風險降到最低。

第三類是少數欠缺基本自我規制能力的人工智能企業。對于這類企業,監管部門應通過指導和建議等方式幫助他們獲得自我規制基本的知識技能。例如,將由領軍企業開發的成熟的算法審計方案轉為實踐指南,向該類企業推廣;通過短期課程、研討班等方式對企業的管理人員進行培訓。此外,還可以鼓勵發展人工智能監管領域的咨詢公司,由它們為企業提供自我規制策略的咨詢服務。

(三)建立對人工智能企業自我評估的元評估機制

元規制的最后一個環節是對人工智能企業自我規制的監督評估,其目的在于審查企業的倫理自我規制體系是否良好運轉,并且在實現規制目標方面是否切實取得成效。與元規制的二階治理結構相對應,元評估也是一種二階的監督機制,它首先要求企業對其自我規制的情況進行自我評估(self-evaluation),而后由監管部門對企業的自我評估進行元評估。在人工智能倫理治理中,元評估具體由以下三項機制組成。

1.人工智能企業的自我評估

自我評估重在審查以下四個方面。其一,算法倫理自我規制體系的設計是否與規制目標相一致,并有助于防控相關風險;其二,自我規制體系的要求是否得到了貫徹執行;其三,自我規制體系是否對企業的決策和行動產生了影響;其四,是否事實上有助于實現規制目標。[18]238-239在這四個方面中,前兩者是基于過程標準審查企業算法倫理自我規制的行動過程。例如,企業是否制定了完善的個人信息管理制度,相關的信息處理活動是否嚴格按照權限規范實施。后兩者則應按照一定的績效標準進行審查,重點在于評估企業倫理自我規制體系的成效。例如,企業對大語言模型的訓練方式,是否提高了其生成內容的正確率,且使內容更加符合人類價值觀。在收集了這四個方面的信息之后,企業一方面應當對違反倫理原則要求的行為進行內部問責懲戒,另一方面應當針對自我規制的缺陷,對自我規制體系本身進行改進和完善。

2.人工智能倫理治理自評估報告

為了使人工智能企業的自我規制具有可問責性,需要將企業內部的倫理治理與來自監管部門、第三方機構和社會公眾的外部監督聯系起來,人工智能倫理治理自評估報告制度恰好充當了二者之間的橋梁。該制度要求,人工智能企業應當定期發布自評估報告,向受算法影響的利益相關者以及更廣泛的社會公眾,披露有關其算法自我規制體系的內容、運作情況和成效的高質量信息。一方面,自評估報告為相關主體提供了進一步監督問責的基礎,例如,報告中的負面信息將影響企業的聲譽,促使利益相關者通過抵制行為對企業實施問責;監管部門和第三方機構還可以基于自評估報告,對企業的算法自我規制體系進行審計。[26]另一方面,發布自評估報告的要求也反過來推動了企業的自我規制,企業必須為自我評估收集有關其自我規制情況的信息,并采取相應的糾錯和改進措施。[18]219人工智能倫理自評估報告作為一種向社會披露企業自我評估信息的機制,其內容原則上也應當與企業自我評估的內容保持一致,涵蓋人工智能倫理自我規制體系的目標、治理措施、實施情況、取得的成效等方面。監管部門還可以對自評估報告的內容和信息質量制定統一標準,以便于公眾對不同企業的算法自我規制情況進行比較。

3.監管部門的元評估

在人工智能倫理自評估報告的基礎上,監管部門可以對企業的自我評估進行元評估。元評估作為二階的監督評估機制,遵循和企業自我評估一貫的邏輯,即基于過程標準和績效標準,考察企業自我規制體系的執行和成效。在評估標準方面,監管部門可以參考目前國內外已經制定的標準文件(3),也可以將領軍企業先進的管理制度和規制技術,以及行業內成熟的自我規制機制轉化為一般性的評估標準。在評估方法方面,監管部門在書面審查企業的人工智能倫理治理自評估報告的同時,也應當實際檢查企業自我規制體系的部署和執行情況,并通過專業的算法審計驗證報告所披露的績效信息的真實性。元評估的結果一方面可以作為對企業問責的前提,另一方面也為監管部門對其治理成效的自我評估提供了信息,促使其反思相應的規制政策和措施是否合理、是否需要改進。[18]288-291

注釋:

(1)我國高度重視人工智能的倫理治理,相繼發布了《新一代人工智能治理原則:發展負責任的人工智能》(2019年)、《新一代人工智能倫理規范》(2021年)、《關于加強科技倫理治理的意見》(2023年),對人工智能等技術的研發活動,提出增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明五項科技倫理原則。

(2)反思型法是一種純粹的過程性規制,相比之下,元規制更加強調規制的目標導向,主張過程性規制必須服務于實質規制目標的實現。

(3)在評估企業算法倫理自我規制體系方面,可參照國際標準《信息技術—人工智能—風險管理指南》(ISO/IEC 23894)、國內標準《信息技術 人工智能 風險管理能力評估》(T/CESA 1193-2022);在具體算法的評估方面,可參照《人工智能 深度學習算法評估規范》(AIOSS-01-2018)、《信息安全技術 機器學習算法安全評估規范》(GB/T 42888-2023)等。

參考文獻:

[1]Iason Gabriel. Artificial Intelligence,Values,and Alignment[J]. Minds and Machines,2020(3):411-437.

[2]Nicholas Kluge Corrêa et al. Worldwide AI ethics:A review of 200 guidelines and recommendations for AI governance[J]. Patterns,2023(10):1-14.

[3]Anna Jobin,Marcello Ienca,Effy Vayena. The global landscape of AI ethics guidelines[J]. Nature Machine Intelligence,2019(1):389-399.

[4]Jessica Morley et al. From What to How:An Initial Review of Publicly Available AI Ethics Tools,Methods and Research to Translate Principles into Practices[J],Science and Engineering Ethics,2020(26):2147-2168.

[5]Peter Grabosky. Using Non-Governmental Resources to Foster Regulatory Compliance[J]. Governance:An International Journal of Policy and Administration, 1995(8):527-550.

[6]Luciano Florid. Translating Principles into Practices of Digital Ethics:Five Risks of Being Unethical[J]. Philosophy amp; Technology,2019(32):185-193.

[7]Jessica Morley et al. Operationalising AI Ethics:Barriers,Enablers and Next Steps[J]. AI amp; SOCIETY, 2023(38/1):411-423.

[8]Brent Mittelstadt. Principles alone cannot guarantee ethical AI[J]. Nature Machine Intelligence,2019(4):501-507.

[9]Julia Black,Andrew Murray. Regulating AI and Machine Learning:Setting the Regulatory Agenda[J]. European Journal of Law and Technology, 2019(3):1-17.

[10]Jess Whittlestone et al. The Role and Limits of Principles in AI Ethics:Towards a Focus on Tensions[C]. Jess Whittlestone. AIES’19:Proceedings of the 2019 AAAI/ACM Conference on AI,Ethics,and Society January 2019:197.

[11][奧]馬克·考科爾伯格.人工智能倫理學[M].周薇薇,陳海霞,譯. 上海:上海交通大學出版社,2023:94-96.

[12][英]科林·斯科特.規制、治理與法律:前沿問題研究[M]. 安永康,譯. 北京:清華大學出版社,2018:5-10.

[13][美]卡里·科格里安內斯,[美]埃文·門德爾松,著. 安永康,譯. 第八章:元規制與自我規制[M]. [英]羅伯特·鮑德溫. 牛津規制手冊.上海:三聯書店,2017.

[14]Bronwen Morgan. The Economization of Politics:Meta-Regulation As a Form of Nonjudicial Legality[J]. Social amp; Legal Studies, 2003(12):490.

[15][澳]尼爾·甘寧漢,著. 安永康,譯. 第七章:執法與守法策略[M]. [英]羅伯特·鮑德溫. 牛津規制手冊. 上海:三聯書店,2017.

[16]Doreen McBarnet. When compliance is not the solution but the problem:From changes in law to changes in attitude[M]. Valerie Braithwaite. Taxing Democracy:Understanding Tax Avoidance and Evasion,Ashgate.2003:229.

[17] Rapha l Gellert. The Risk-Based Approach to Data Protection[M]. Oxford: Oxford University Press,2020: 109.

[18]Christine Parker. The Open Corporation:Effective Self-regulation and Democracy[M].New York:Cambridge University Press,2002.

[19]Philip Selznick.The Communitarian Persuasion[M]. Washington,D.C.:Woodrow Wilson Center Press.,2002.

[20][德]貢塔·托依布那. 反思性的法:比較視角中法律的發展模式[M]. 祁春祎,譯. 魔陣·剝削·異化:托依布納法律社會學文集. 北京:清華大學出版社,2012:276-277.

[21]曹劍峰.論自動駕駛汽車的算法安全規制[J].華東政法大學學報,2023(2):22-33.

[22]鄭曦.人工智能技術在司法裁判中的運用及規制[J].中外法學,2020(3):674-696.

[23]盧超.互聯網信息內容監管約談工具研究[J].中國行政管理,2019(2):41-46.

[24]Inioluwa Deborah Raj et al. Closing the AI Accountability Gap:Defining an End-to-End Framework for Internal Algorithmic Auditing[C]// Mireille Hildebrandt. FAT* ′20:Proceedings of the 2020 Conference on Fairness,Accountability,and Transparency. 2020:33-44.

[25]National Institute of Standards and Technology.Artificial Intelligence Risk Management Framework (AI RMF 1.0)[EB/OL].[2023-1-26](2024-10-7).https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf.

[26]張欣,宋雨鑫. 算法審計的制度邏輯和本土化構建[J]. 鄭州大學學報(哲學社會科學版),2022(6):31-42.

(責任編輯 吳 楠)

主站蜘蛛池模板: 第九色区aⅴ天堂久久香| 国产精品成人第一区| 都市激情亚洲综合久久| 婷婷成人综合| 亚洲综合激情另类专区| 2022国产91精品久久久久久| 中文精品久久久久国产网址| 国产麻豆aⅴ精品无码| 日本欧美成人免费| 国产97视频在线观看| 激情爆乳一区二区| 国产日本欧美在线观看| 六月婷婷激情综合| 亚洲人成网站18禁动漫无码| 99re66精品视频在线观看| 无码中文字幕乱码免费2| 亚洲美女一级毛片| 亚洲aaa视频| 国产真实乱子伦视频播放| 欧美日韩久久综合| 国产本道久久一区二区三区| 91精品国产无线乱码在线| 99久久精品国产综合婷婷| 国产黄色视频综合| 国产网友愉拍精品| 国产精品人成在线播放| 九九热免费在线视频| 久久精品中文字幕免费| 欧美自拍另类欧美综合图区| 黄片一区二区三区| 色九九视频| 二级特黄绝大片免费视频大片| 国产精品亚洲五月天高清| 亚洲第一中文字幕| 国产精品无码翘臀在线看纯欲| 国产在线精品美女观看| 国产剧情无码视频在线观看| 久久公开视频| 欧美综合激情| 中文字幕在线一区二区在线| 啊嗯不日本网站| 在线视频97| 日韩毛片基地| 自慰高潮喷白浆在线观看| 91精品国产麻豆国产自产在线| 国产午夜无码专区喷水| 久久国产热| 欧美成人二区| 国产菊爆视频在线观看| 日韩国产欧美精品在线| 国产成人精品综合| 四虎精品国产AV二区| 一本大道东京热无码av| 亚洲国产一区在线观看| 91精品国产一区| 欧美日韩亚洲综合在线观看| 久久天天躁狠狠躁夜夜2020一| 久久综合伊人 六十路| 国产va免费精品观看| 中文字幕66页| 制服丝袜在线视频香蕉| 26uuu国产精品视频| 91精品人妻一区二区| 国产精品思思热在线| 日韩欧美中文| 十八禁美女裸体网站| 九九香蕉视频| 国产一区二区精品福利| 无码免费视频| 国内a级毛片| 毛片最新网址| 国产免费观看av大片的网站| 国产大片喷水在线在线视频 | 国产理论一区| 亚洲美女视频一区| 成人毛片免费在线观看| 欧美精品另类| 国产男人天堂| 91精选国产大片| 亚洲另类色| 青青青国产视频| 国产日韩欧美精品区性色|