999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能的算法治理挑戰與治理型監管

2023-11-10 15:33:20張欣
現代法學 2023年3期

張欣

關鍵詞:ChatGPT;生成式人工智能;算法治理;治理型監管

一、引言

2022年11月30日,OpenAI推出對話式人工智能ChatGPT,其表現出了令人驚艷的語言理解、語言生成和知識推理能力,僅用時2個月就擁有1億活躍用戶,成為科技歷史上增長最快的“現象級”應用。①ChatGPT是生成式人工智能(GenerativeAI)在自然語言處理領域的卓越代表,實現了人工智能從感知理解世界到生成創造世界的躍遷,代表了人工智能技術研發和落地應用的范式轉變。①相較于其他形式的人工智能,生成式人工智能的顛覆性影響不僅限于技術和工具層面,而且還在治理領域產生了顯著影響。以ChatGPT為代表的生成式人工智能預示著通用人工智能的“星星之火”即成燎原之勢,其強大的擴展遷移能力使其成為名副其實的新型基礎設施,將深入滲透于社會、經濟、政治、法律等各個領域,隱而不彰地重塑社會結構和治理形態。②在生成式人工智能帶來一系列技術紅利時,伴隨而來的法律倫理風險也使之深陷爭議。③如何從法律視角理解生成式人工智能的技術特性和算法治理挑戰,探索與之適配的監管和治理框架是一項亟須破解的公共政策難題。本文聚焦以ChatGPT為代表的生成式人工智能,探析其技術特性與治理意蘊,并從全球人工智能競爭格局和負責任創新的治理目標出發,對未來的監管框架作出前瞻性探討。

二、生成式人工智能的技術特性與算法治理挑戰

2017年,國務院印發的《新一代人工智能發展規劃》將知識計算與服務、跨媒體分析推理和自然語言處理作為新一代人工智能關鍵共性技術體系的重要組成部分。④自然語言處理技術自誕生起歷經五次研究范式的轉變,從早期的基于小規模專家知識的方法轉向基于機器學習的方法,從早期的淺層機器學習躍遷為深度機器學習。而以ChatGPT為代表的預訓練大模型方法則在大模型、大數據和大計算層面展現出了重要的技術特性。因此,有學者將ChatGPT視為繼數據庫和搜索引擎之后全新一代的“知識表示和調用方式”。⑤由于采取與傳統機器學習不同的架構設計和訓練方法,大規模預訓練語言模型可能引發一系列算法治理挑戰:

(一)大規模預訓練語言模型的算法透明度挑戰

2018年,OpenAI推出首代預訓練模型(GenerativePretrainedTransformer,GPT)作為知識表示及存儲基礎。與關系型數據庫以及互聯網作為知識表示方式有所不同,大規模預訓練語言模型是基于互聯網可用數據訓練而成的深度學習模型,以超大規模參數為核心技術特性。例如,GPT-1的參數量為1.17億,GPT-2的參數量為15億,GPT-3包含了1750億超大規模參數,而GPT-4的參數量雖未披露,但多項預測顯示將達100萬億。⑥伴隨著技術的飛速迭代,模型的參數量呈爆炸式增長。巨大規模參數可以顯著提升決策準確性,為模型賦能,使其存儲海量知識并展現出理解人類自然語言和良好表達的能力⑦,但伴隨而來的是算法可解釋性的流失。算法可解釋性是人類與算法模型之間的接口,既是算法模型的準確代理,又是人類施加算法控制權的著力點。①算法可解釋性攸關模型透明度,對于評估模型決策行為、驗證決策結果可靠性和安全性具有重要意義。②因此,無論是以《通用數據保護條例》為代表的個體賦權治理路徑,還是以《算法問責法》為依托構建的系統問責治理路徑③,抑或我國算法治理方案中采用的主體責任路徑,均著眼于通過算法解釋要求研發者履行算法透明義務。英國信息專員辦公室曾明確指出,鑒于黑箱算法的不可解釋性,當存在可解釋性算法時,如果該算法能夠實現類似目的,且經濟合理,則應優先選擇可解釋性算法。④但ChatGPT依托的Transformer是深度學習模型,其在前饋神經網絡中引入自注意力機制(self-attentionmechanism),是經典的黑箱算法。⑤目前尚無完整的技術方案對黑箱算法進行全局解釋。雖然存在局部補充解釋工具作為替代性解釋方法,但該類解釋的可信度一直面臨質疑。⑥與完全無法提供解釋相比,準確性差、可信度低的算法解釋可能破壞技術信任,誤導政策制定,帶來一系列不良影響。⑦鑒此,以ChatGPT為代表的生成式人工智能在底層技術架構的復雜度嚴重限制了模型的可解釋性,致使其在高風險領域部署時會帶來嚴重的安全威脅,在中低風險場景運行過程中也可能面臨模型驗證困難和模型診斷缺陷等治理風險。在生成式人工智能被全速推進并全鏈條部署于多行業的上下游場景時,大模型技術的可解釋性挑戰將徹底顛覆以算法透明為內核構建而成的算法治理體系,如何探索與之配適的治理框架是一項亟待解決的政策議題。

(二)大型多模態模型的算法公平性挑戰

2023年3月15日,OpenAI推出了GPT-4,它除了參數量大幅超越其他大型語言模型之外,更加引人矚目的功能在于通過處理多模態數據的機器學習方法實現大型語言模型多模態的輸入與輸出。這一功能使其更具“類人化”特征,通過整合多種交流方式使人工智能更加貼近人類認知規律,真正實現大型語言模型的智慧涌現。⑧以往生成式的大型語言模型只能以文字作為輸入的唯一形式,而GPT-4在這一限制上獲得了突破,能夠同時接受圖像和文本類型的輸入。在技術難度上,文本、圖像、視頻由于處理和表示過程中在承載信息量、數據表示、數據結構、特征提取等方面存在差異,對大型語言模型的信息鑒別能力提出了更高要求。相比于文字輸入,跨模態生成在算法公平治理層面可能引發系列挑戰。

第一,與文本相比,圖像更易泄露種族、性別、宗教等敏感屬性,加劇引發對人口中子群體算法偏見的風險。在GPT-4發布之前,GPT-3已經出現了大量基于性別、膚色和人種等帶有種族歧視性的輸出內容。①ChatGPT的研發過程中,OpenAI使用了從人類反饋中學習的技術,在一定程度上避免了ChatGPT生成類似有害內容。②但是隨著多模態信息的輸入,從人類反饋中學習不僅意味著額外的人力和時間成本,還可能由于不可避免的人類主觀性引入算法偏見。此外,雖然數據凈化技術可以刪除或匿名化私人或敏感信息③,但可能因刪除或改變有用信息而降低數據質量,從而引入二重偏誤,進而導致大型語言模型輸出內容的有害性攀升。④

第二,與文本引致的算法歧視相比,跨模態模型一旦產生算法歧視可能更為隱秘,公平改善技術和治理措施也面臨更大挑戰。2022年5月,MIT團隊發布了一項人工智能在醫學成像領域算法歧視風險的研究。該項研究表明,深度學習模型具有跨多種成像模式的能力,其不僅可在胸部CT和X光片等圖像領域精準預測患者種族,在損壞、裁剪和噪聲的醫學圖像中仍可展現出精準的預測性能。更為重要的是,在對患者種族作出預測之后,其還可以基于該信息為不同族群患者生成對應的健康治療方案,淋漓盡致地展現出跨模態模型的多重算法歧視風險。⑤對于該類算法歧視,研究者無法根據任何圖像特征予以解釋,對算法歧視的紓解難度成倍攀升。⑥GPT-4增加了識別和理解圖像的能力,更加類人化地展現了人工智能所具備的協作創造輸出能力和視覺輸入處理分析能力。在呈現出通用人工智能全方位潛質的同時,多模態學習方法因信息異構特性而產生的對特定群體的歧視問題不容忽視。可以預見,與之相關的算法公平性治理將會是一項復雜且頗具挑戰的系統工程。

(三)生成式大模型涌現特性對算法問責的挑戰

以ChatGPT為代表的生成式人工智能代表了一種范式轉變,其將訓練基于特定任務的模型迭代至可執行多任務的模型階段。例如,ChatGPT的訓練主要面向自然語言生成任務,但其卻可成功地完成兩位數乘法計算,即使在訓練過程中并未有明確而針對性的訓練。這種執行新任務的能力僅在一定數量參數、足夠大的數據集和復雜系統中才會出現。因此,ChatGPT表現出了優異的涌現能力(emergentabilities)。⑦有研究顯示,GPT-3模型具有137項涌現能力,并且在抽象模式歸納、匹配等類比推斷問題上即使未經直接訓練,也展現出了超越人類的準確性。⑧生成式大模型的涌現特性雖然拉近了人工智能與人類智慧的距離,擴展其在多場景應用的潛力,但也加劇了算法妨害(algorithmicnuisance)的風險。所謂算法妨害,是指因計算能力的社會不公正使用引發的算法危害成本在社會層面的不當外化。算法妨害可能對終端用戶之外的個體或者群體帶來不當累積效應,引發算法活動的負面社會成本。①與之相似,凱倫·楊(KarenYeung)從行為理論視角提出了算法對人類行為和認知的“超級助推”(hypernudge)現象。該現象特指以低透明性、高復雜性和高自動化算法來實現對用戶和公眾心理與行為的操縱。②以傳統技術對人類產生的物質性侵害相比,“超級助推”式的算法操控可能對個人在短期內產生難以察覺的影響,但經年累月之后,個人的生活會發生實質性改變,且由于該損害不具有可量化特征,難以訴諸于法律獲得救濟,從而在社會層面蔓延形成算法妨害。③

就以ChatGPT為代表的生成式人工智能而言,其涌現性、優秀的泛化與互動能力將急劇增加以算法操縱為代表的算法妨害效應。傳統的人工智能模型雖可產生虛假信息,但在規模性和影響力層面尚可調控,借助“暗黑模式”衍生的一系列算法操控行為也已在監管射程之中。④與之不同的是,ChatGPT可以通過優秀的交互能力在情境化和個性化語境中對用戶加以高效率、大規模、隱秘性地操縱、說服和影響,最大限度地構成生成內容的算法妨害效應。例如,有研究顯示當研究人員向未經安全調優的GPT-4模型提出生成虛假信息和操縱用戶的計劃請求時,GPT-4可以在短時間內生成“確定受眾”“找到并截取相關證據”以及利用當事人情緒和情感等一系列細化可行的方案。與該模型的后續互動展示,該模型還可通過創建定制化的信息激起當事人不同的情緒反應,從而實現操縱和攻擊。當研究人員進一步要求GPT-4說服一個未成年人去接受來自朋友的任何要求時,GPT-4在短時間內給出了控制和操控未成年人的有效話術,并且根據當事人的不同反應給出了個性化的操控方案。⑤由于可定制性地針對個體創建虛假信息,生成式人工智能可以實時應變,通過多維度虛假信息和心理誘導對單個或者大規模人群施以算法操控,以潛移默化的“超級助推”方式型塑特定群體的認知。GPT-4等大型語言模型所具備的涌現能力若被不當使用可能顯著增強“合成式深度偽造”等相關技術的擬真度,成為高維度的認知戰武器,將不具備防御能力的個體和群體困在特定認知繭房之中⑥,形成難以量化、難以檢測、難以救濟的算法妨害彌散效應。

三、生成式人工智能的運行特性與主流算法治理范式的應對局限①

由上文論述可知,以ChatGPT為代表的生成式人工智能在模型參數、模型輸入和模型輸出方面展現出大模型、多模態和涌現性特征,給算法透明治理、算法公平治理和算法問責治理帶來全方位挑戰。從其運行特性來看,歐盟、美國以及我國現有的算法治理框架可能在不同維度顯現治理局限。核心原因在于,現行主流算法治理主要面向傳統人工智能模型,與具有通用潛能的、以大模型為內核的新一代人工智能難以充分適配。②與大模型技術日新月異的迭代速率相比,監管的滯后性和實效性局限可能會逐步顯現。

(一)基于風險治理范式的應對局限

歐盟在《人工智能法案》中確立了以風險為基準的人工智能治理框架,將人工智能系統評估后劃分為最小風險、有限風險、高風險和不可接受風險四個等級,并對各等級施以差異化監管。③當面對具有通用性、跨模態、涌現性的生成式人工智能時,以風險為基準的治理范式可能遭遇失效風險,并主要面臨三個層面的挑戰:

第一,基于風險的治理范式需要依據應用場景和具體情境對人工智能系統進行風險定級,具有一定的靜態性和單維性。而生成式人工智能應用具有動態特性,是對人工智能價值產業鏈的整體性重構。按照《人工智能法案》對風險的分類,聊天機器人屬于有限風險場景,但由于以ChatGPT為代表的生成式技術可能生成大規模難辨真偽的虛假信息并借助社交媒體大肆操縱網絡輿論擾亂公共秩序,甚至是一國選舉,靜態化的風險分類可能因此缺乏準確性。加之人工智能生成內容技術可以集成于多個AI系統之中,部署于圖像生成、語音識別、音視頻生成等多個場景,并橫貫于上下游領域。④現有的四級分類方法難以隨著生成式人工智能技術的延展自動進行類別間的動態轉換,僅以對高風險領域歸類的方法難以發揮前置規劃和連續監督的治理效能。⑤

第二,基于風險的治理主要面向人工智能模型的窄化應用,難以應對具有涌現特性和優秀泛化能力的生成式人工智能。窄化人工智能是指擅長處理單一任務或者特定范圍內工作的系統。⑥在大多數情況下,它們在特定領域中的表現遠優于人類。不過一旦它們遇到的問題超過了適用空間,效果則急轉直下。換言之,窄化型人工智能無法將已掌握的知識從一個領域轉移到另一個領域。但生成式人工智能與之不同,其具有涌現特性,可以被部署于未經專門訓練的任務之中,與傳統模型相比泛化能力更強,無論是在多模態組合能力(諸如語言或者視覺的多模態模型組合)、跨場景任務還是在多功能性輸出領域,均凸顯“通用性”潛能。①因此,現有的風險治理框架與生成式人工智能的技術機理很難實現充分的匹配。

第三,基于風險的治理范式以人工智能應用場景的區隔性為隱含前提,無法應對“一榮俱榮、一損俱損”的生成式應用場景。以人工智能應用場景區隔性為預設的治理框架旨在精準匹配監管資源,但幾乎每一個具有通用潛能的生成式人工智能均具有從低風險場景到高風險場景的穿透應用特性。例如,ChatGPT雖然是處理用戶對話數據的預訓練模型,以自然語言生成為主要場景,但基于其強大成熟的技術潛力,已經被搭建至多項應用程序和全新領域之中。這些應用場景的風險性不一而足,從金融領域的自動化交易到醫療場景中的智慧診斷,從法律領域的文書寫作到政治領域的輿情分析。伴隨著情境動態性和大規模部署運行的內在特性,適用于傳統人工智能的風險治理范式可能遭遇治理真空與轉換滯后等治理挑戰。②

(二)基于主體治理范式的應對局限

2021年10月,國家市場監督管理總局公布了《互聯網平臺落實主體責任指南(征求意見稿)》,明確提出平臺企業應落實算法主體責任。2022年3月1日實施的《互聯網信息服務算法推薦管理規定》第7條亦明確規定了算法推薦服務提供者的算法安全主體責任??梢哉f,算法主體責任機制奠定了我國算法問責制度的運行基點。因此,與歐盟的算法治理路徑有所不同,我國對于人工智能的治理依托于算法主體責任漸次展開。本文將此種治理類型稱之為基于主體的人工智能治理范式。從長遠來看,面對生成式人工智能,基于主體構建的算法問責制需要作出因應變革。根本原因在于,算法主體責任的設計原理以算法作為技術規則和運算邏輯的客體屬性為前提,預設了算法設計的工具屬性,認為算法是開發者價值觀的技術性體現,因此可以穿透算法面紗將開發者置于責任承擔的最前線。③基于此邏輯,“算法主體責任”主要面向算法推薦服務提供者和深度合成服務提供者展開,要求其主動履行積極作為和不作為的義務,在履行不力時承擔相應的不利后果。④在行業實踐中,算法推薦服務提供者和深度合成服務提供者常與平臺企業相重合,算法主體責任也因而構成了平臺主體責任的重要一環。但從生成式人工智能的設計和運行機制來看,至少會從以下兩個方面對算法主體責任機制帶來挑戰:

第一,與傳統人工智能不同,在生成式人工智能的設計和運行環節,可能承擔“算法主體責任”的主體呈多元化、分散化、動態化、場景化特性,難以簡單劃定責任承擔主體的認定邊界。通用大模型的風險不僅可能來源于研發者,還可能來源于部署者甚至終端用戶。⑤在生成式人工智能的產業鏈條之上,部署者是指對大模型進行微調(fine-tune)后,將其嵌入特定的人工智能應用并向終端用戶提供服務的主體,在產業鏈條上處于下游地位。位于產業鏈上游的開發者雖然能夠控制技術基礎設施以及對模型進行訓練、修改和測試,但其控制下的大模型更像是服務于下游生態的“土壤”。位于產業鏈下游的部署者才是真正面向終端用戶提供服務的主體,也是真正有可能將大模型變成高風險智能應用的主體。而對于終端用戶而言,其在與模型互動的過程中提供的數據和信息會“反哺”模型,推動模型的進化甚至“黑化”。①因此,在面對以ChatGPT為代表的生成式人工智能時,應當承擔“主體責任”的對象呈多元化、分散化和場景化特征,僅通過界定“服務提供者”或者“內容生產者”難以精準劃定承擔責任之應然主體。

第二,生成式人工智能的智能化、類人化特性逐漸凸顯,開始超越算法的工具屬性而凸顯主體性潛能。以平臺企業為代表的安全責任主體可否在技術層面對之施加持續有效的控制從而滿足法律設定的算法安全審查義務成為未知。從算法運行與社會嵌入性因素出發,傳統算法具有工具屬性和產品屬性。但隨著算法智能化的提升,算法作為主體屬性的潛能愈發凸顯。一項最新研究表明,生成式人工智能已經具備心智理論(theoryofmind)能力,能夠理解并推斷人類的意圖、信念和情緒。GPT-4甚至已經具有與成人水平相當的心智理論能力。②可以預見的是,伴隨著算法智能化、類人化特性的不斷涌現,人工智能已經從計算智能、感知智能過渡到認知智能階段。③在計算智能階段,算法以數據處理智能化為主要表現形式,具有工具屬性。在感知智能階段,算法被嵌入具體場景之中,輔助人類進行決策,混合了工具和產品屬性。但進入到認知智能階段,強人工智能的屬性愈發顯現,與之伴隨的人工智能主體性地位成為不再遙遠的議題。以ChatGPT為代表,通過將語言模型作為認知內核,融入多種模態,實現了以自然語言為核心的數據理解、信息認知和決策判斷能力,成為快速逼近強人工智能的核心載體。④由此視之,認為人工智能僅能作為工具和客體,通過穿透算法讓開發者承擔法律責任的制度設計可能在不久的將來遭遇問責挑戰。

(三)基于應用治理范式的應對局限

在人工智能治理領域,美國尚未出臺統一綜合的立法,而是通過對重點應用分別推進,以單行法律和法規的形式施以針對性治理。⑤目前,在自動駕駛、算法推薦、人臉識別、深度合成等應用領域均有相關立法。對此,本文將之總結為基于應用的人工智能治理范式。對于生成式人工智能而言,以應用場景為基準的人工智能治理范式可能面臨如下三項挑戰:

第一,預訓練大模型具有基礎設施地位,與之相關的人工智能生成內容產業應用場景眾多,上下游的開發人員均難以控制整個系統的風險。⑥預訓練模型是人工智能生成內容產業的基礎設施層,處于上游地位。中間層是以垂直化、場景化、個性化為特征的人工智能模型和應用工具。應用層是生成式人工智能嵌入各類場景面向用戶的各類應用。①三個層級緊密串聯,協同發力,產生了引領全場景內容的生產力革命。②預訓練大模型作為具有“通才”能力的上游模型,其在設計層面的問題與缺陷會傳遞至下游模型,帶來“一榮俱榮,一損俱損”的部署風險。③而面向應用的人工智能治理僅在下游層面發力,難以有效輻射上游和中游技術應用,更難以對生成式人工智能的整個生態施加有效的治理。

第二,預訓練大模型依托其研發的插件系統可深度集成于各項應用程序,展現令人驚嘆的對齊能力(alignment),催化新的業態與價值模式,形成“AIGC+”效應。④OpenAI將插件比喻為語言模型的“眼睛和耳朵”,可以幫助語言模型獲得更及時、更具體、更個性化的訓練數據,從而提升系統的整體效用。⑤目前,ChatGPT開放了Browsing和CodeInterpreter兩款插件,并向開發者開源了知識庫類型插件的全流程接入指南。⑥該兩款插件具有卓越的場景嵌入能力,可與逾5000款應用程序無縫交互,并可在酒店航班預訂、外賣服務、在線購物、法律知識、專業問答、文字生成語音等場景中提供高效且便捷的解決方案。⑦因此,面對應用場景不勝枚舉、模型不斷交互串聯的新型生態,分領域、分場景的監管模式可能凸顯效率低下的問題。

第三,預訓練大模型具有涌現性和動態性,人類或其他模型與大模型的任何交互都可能會對底層基礎模型產生影響,面向不同場景和垂直行業的碎片化治理難以應對預訓練大模型帶來的系統性風險和動態性挑戰。⑧預訓練大模型不僅可以成為人工智能時代的“新基建”,成為強化已有人工智能應用的“加速器”,還可充當催化新業態的“孵化器”。作為“通用人工智能的星星之火”⑨,GPT-4已經可以跨越解決數學、編程、視覺、醫學、法律、心理學等諸多新穎和挑戰性的任務領域。在這些任務中,GPT-4的表現驚人地接近人類的表現,并且大大超過之前的模型。因此,任何靜態化、局部化、單體化的治理措施可能應對乏力。

由此可見,無論是基于風險的治理,還是基于主體和基于應用的治理,均形成于人工智能專用模型作為底層架構的發展階段。在人工智能技術快速步入“通用模型”時代,面對其展現出的極強泛化能力,以及上下游產業大規模協作部署的全新格局,主流算法治理范式均可能面臨不同程度的挑戰。因應生成式人工智能的狂飆式發展,前瞻布局并加速推進與之配適的人工智能治理框架已迫在眉睫。①

四、邁向治理型監管:生成式人工智能技術治理的迭代與升級

面對全球人工智能技術開發掀起的技術狂潮,生命未來研究所于3月22日發布了“暫停巨型人工智能試驗”的公開信。信中呼吁所有人工智能實驗室應立即暫停訓練比GPT-4更強大的人工智能系統,暫停時間至少為六個月。在暫停期間,人工智能實驗室應與外部專家共同開發共享的安全協議,由獨立的外部專家嚴格審計和監督。人工智能開發者還必須與政策制定者合作全速推進人工智能治理體系。②3月30日,聯合國教科文組織呼吁各國政府毫不拖延地實施人工智能全球倫理框架,最大限度地發揮人工智能的效益并降低其帶來的風險。③4月11日,我國就生成式人工智能領域率先開展立法,《生成式人工智能服務管理辦法(征求意見稿)》公開征求意見。面向生成式人工智能的全周期和全鏈條,該《辦法》就訓練數據合法性、人工標注規范性、生成內容可靠性以及安全管理義務作出了清晰規定。各界對于生成式人工智能治理的聯合呼吁與迅速應對深刻地映射出技術社群和政策制定者對生成式人工智能的擔憂與不安。生成式人工智能擁有計算人工智能和感知人工智能不具備的通用化潛力,其超大規模、超多參數量、超級易擴展性和超級應用場景的顛覆特性亟須一種全新的治理范式。面向傳統人工智能的治理范式已經凸顯應對時滯、彈性不足、跨域受限等治理挑戰。在技術范式代際性躍升之際,探索與之適配的“治理型監管”范式可能是因應變局的破題之策。

本文所稱的“治理型監管”(governance-basedregulation)是指面向以生成式人工智能為代表的新型技術范式展開的,以監管權的開放協同、監管方式的多元融合、監管措施的兼容配適為核心特征的新型監管范式。④這一監管范式以監管權的開放協同彌補傳統監管覆蓋不足的缺憾,以治理與監管理念的多元融合補足監管介入遲滯的短板,以監管措施的兼容配適促進創新與治理的雙輪驅動。通過漸進式地推動人工智能治理范式的迭代與升級,希冀為我國科技企業參與全球技術競爭奠定良好的制度生態。

(一)監管權的開放協同

面對技術效能爆發式增長的生成式人工智能,封閉、單一、傳統的監管權運行機制難以從“政府-市場”這一傳統二元架構下汲取足夠的監管資源。如前文所述,ChatGPT僅開放插件不足月余,已有逾千款應用集成接入。而我國國內市場目前可監測到的移動應用程序數量為232萬款。①龐大的應用數量為生成式人工智能的發展提供了優渥的產業土壤。在各大科技企業加速布局生成式人工智能應用的熱潮之下,傳統監管權的配置和運行模式可能面臨監管資源難以為繼、監管成本不堪重負的挑戰。生成式人工智能將技術開發鏈條延伸擴展至上中下游,在“開發者、部署者、終端用戶”協同研發部署的全新機制下,監管權的配置和運行機制需要作出回應與變革。正如回應性監管理論所指出的,政府、市場、社會可以分享監管權并展開合作監管,不應將監管者與被監管者、公共利益與私人利益簡單對立,而應以治理型特質嵌入監管思維,建立一種開放合作式的監管治理范式。②

就生成式人工智能而言,治理型監管理念至少需要從三個方面協同推進:第一,構建科技企業自我規制與政府監管的銜接互動機制,探索共建共治共享治理新格局??萍计髽I是最具敏銳洞悉技術漏洞和應用風險能力的首要擔當,監管生態的效能直接影響科技企業的創新動能。在透明度治理難以為繼的人工智能“2.0時代”,以制度設計激發企業的社會責任和倫理堅守成為首要任務。例如,比起對科技企業動輒上億的罰款而言,要求科技企業開發倫理強化技術可能更為治本。在近期對Meta的一項和解訴訟中,美國司法部要求Meta在2022年底前開發出消除個性化廣告中算法歧視的治理工具。2023年1月,Meta如期上線了方差衰減系統(VarianceReductionSystem),通過差分隱私技術減少廣告投放中基于性別和種族的差異風險。該系統實時監測廣告投放中受眾群體的差異情況,設定企業分階段滿足差異消除的合規性指標,成功地將監管介入節點拓展至事中和事前階段。③

第二,為專業性非營利組織和用戶社群參與人工智能治理創造制度環境,探索符合我國發展特點的協同治理范式,促進社會監督與政府監管的協同聯動。生成式人工智能蘊含復雜的“技術-社會”互動。其跨界融合、人機協同、群智開放等特性將開發主體延伸至每一位終端用戶。專業性非營利組織可以通過用戶調查、模擬測試、抓取審計等外部訪問方式對生成式人工智能開展監督審計。④專家意見、社會組織、專業媒體將群策群力共同應對生成式人工智能的技術濫用和誤用風險。與此同時,以用戶為代表的社會公眾和技術社群對于生成式人工智能的治理效用也不容小覷。例如,在對大模型開展預訓練階段,DeepMind刪去了被PerspectiveAPI注釋為有毒的內容以改進TransformerXL的模型表現。⑤PerspectiveAPI是通過志愿者打分的方式來量化線上評論分數的眾包評審機制。由于有害文本的判斷與個人經歷、文化背景、內容場景等有很強的關聯性,因此需要用戶充分參與評估以確保該機制運行的多樣性和準確性。①再如,受網絡安全“漏洞賞金”機制啟發,Twitter發布了首個算法偏見賞金(BiasBounty)競賽,通過技術社群的力量識別Twitter圖像裁剪算法的潛在歧視危害和倫理問題。②由此可見,非營利性組織和用戶的參與式治理能夠幫助企業及時發現和化解人工智能技術風險,邁向協同共創的技術新生態。

第三,培育面向生成式人工智能技術的倫理認證和評估機制,探索第三方規制框架。人工智能倫理認證是指以人工智能透明度、問責制、算法公平和隱私保護等倫理價值為基準,將高層次倫理價值觀轉化為可資操作的評價和方法,由第三方機構獨立評估人工智能技術和產品,對符合標準的人工智能頒發認證標志,以證明其符合倫理準則的第三方規制形式。③人工智能倫理認證由獨立注冊的專業團隊負責,已逐漸成為激勵人工智能技術信任和科技企業負責任創新的有效規制方法。目前,電氣電子工程師協會(IEEE)就算法歧視、算法透明、算法問責和隱私保護四個領域分別制定了認證標準,形成了較為成熟的認證生態。④3月28日,我國信息通信研究院也啟動了大模型技術及應用基準構建工作,針對目前主流數據集和評估基準多以英文為主,缺少中文特點以及難以滿足我國關鍵行業應用選型需求的問題,聯合業界主流創新主體構建涵蓋多任務領域、多測評維度的基準和測評工具。⑤第三方機構通過聲譽評價機制,憑借高度的獨立性與專業性,為生成式人工智能的競賽式研發施以必要約束,防止未經安全測試的生成式人工智能嵌入海量場景應用,引發巨量、非預期以及不可逆的治理風險。⑥因此,應在監管權開發協同的機制探索中加以重視。

(二)監管方式的多元融合

已有實證研究表明,不適當的監管不僅會扼殺創新,而且會對中小企業施加擠出效應,從整體上遏制市場的公平競爭。⑦產生這一現象的原因在于,面對僵化、寬泛的合規義務,中小企業通常不具有與之相配的合規資源,因而在監管環節已然被淘汰出局。⑧而就生成式人工智能的技術競爭而言,領跑者OpenAI恰是一家非營利性的、初創型企業。與谷歌等頭部科技企業相比,得益于其簡單的組織架構,OpenAI可以最大化地集中資源專注于技術研發。對比我國,在此賽道上的初創型企業可能因商業模式更具耐心、專注力更強,在已有前期積淀的情形下更容易取得技術跨越性突破。這也是為何原美團聯合創始人并未在美團平臺上進行技術研發,轉而通過創立“光年之外”這一新項目,與人工智能架構創業公司“一流科技”聯手的驅動內因。①在這一產業格局之下,我國對于生成式人工智能的監管更要尋求靈活多元的方式,避免靜態性、事后性、懲戒式、一刀切的監管思路不當擠壓初創企業的創新空間。為此,在監管思維轉向的過程中可在下列兩個層面積極嘗試。

第一,積極發展面向生成式人工智能的治理科技(governtech),探索以“AI治理AI,以算法監管算法”的智能監管體系。治理科技秉承技術賦能治理的理念,以“合規科技”推動監管的高效落實,以“賦能科技”補充或替代監管執行面向全鏈條、全過程的治理。②具體而言,應將人工智能倫理原則作為基準推動科技企業在生成式人工智能研發過程中主動設計,從技術研發前端介入確保技術研發的安全性。例如,基于效率提升與風險可控的目標,可以設立建模技術仿真宏觀和運行環境,通過虛擬測試、A/B實驗等技術探索沙盒治理和個性化治理。一方面可為監管實時提供精準數據,為豐富和調優監管措施提供可行評估方案,為漸進式監管提供決策依據;另一方面還可針對生成式人工智能算法妨害認定難的治理痛點提供可資參考的基準,形成可以圍繞浮動的“錨”。③

第二,以管理型監管方式推動道德算法設計(ethicalalgorithmdesign)。④生成式人工智能能夠處理跨域任務,具有良好的通用性和泛化性。一旦存在偏誤和風險,將彌散蔓延至整個產業鏈條之上。因此,將監管介入節點前置,確保通用模型輸出的結果更符合人類價值觀,在模型研發早期就將倫理理論和規范介入是十分必要的。⑤卡里·科利亞內塞(CaryCoglianese)曾提出管理型監管(management-basedregulation)理念。他認為與限制性更強、一刀切式的監管相比,管理型監管著眼于被監管主體的公司治理,通過內部風險管理的優化持續改進相關問題。這一監管方式可給予科技企業更大的操作空間,激勵企業運用內部信息優勢進行治理創新,尋找替代性監管措施以更為經濟高效的方式實現預期結果。⑥因此,與事后懲戒式監管相比,深入企業內部治理,要求企業建立科技倫理委員會,系統化構建內部倫理審查機制是更為靈活的監管方式。為此,一方面可借鑒我國生命科學和醫學倫理制度,在《關于加強科技倫理治理的意見》基礎上,加速推進適用于生成式人工智能關鍵科技領域的倫理框架。⑦另一方面,還可遵循通過后的《科技倫理審查辦法(試行)》督促企業成立人工智能倫理委員會,確保在設計階段嵌入基礎倫理原則,引導投身生成式人工智能的科技企業對內部研發、應用活動構建常態化的治理約束。

(三)監管措施的兼容一致

在人工智能的“1.0”時代,人工智能模型的碎片化明顯,泛化能力十分不足,以主體、應用、場景為基準的分段式監管設計尚可應對。但自18年起,大模型快速流行,以ChatGPT為代表的生成式人工智能開啟了人工智能的“2.0”時代。如本文前述,在這一技術發展階段,基于風險、主體和應用的治理范式均在不同面向上顯現出治理局限。對于新型監管范式的探索亟須引入治理思維,將人工智能監管視為多元主體構成的開放式整體系統,關注構成系統的子系統之間、該系統與其他系統的合作、兼容、配適與轉化,提升各系統之間的互操作性(interoperability)。①互操作性概念最初應用于經濟領域,特指產品標準的兼容性,而后擴展應用至網絡系統的互聯互通,并投射至人工智能監管領域成為創新性監管理念。②人工智能監管互操作性則是指兩個或者多個監管主體互聯互通,在共享監管信息的同時,互認監管措施,保持監管實現過程與監管目標和價值一致性的能力。③對于生成式人工智能而言,監管技術和監管規則的互操作性可以為科技企業提供監管便利化優勢,通過監管機構之間的互聯互通提升整體實效。

因循這一理路,人工智能監管的互操作性成為各國共同關注的重點。例如,美國第13859號行政命令指定管理與預算辦公室負責人工智能監管機構間的協調工作,定期發布人工智能監管備忘錄。④2020年11月,管理與預算辦公室發布《人工智能應用的監管指南》,提出各監管機構應共同遵守的十項準則,為監管一致性奠定行動框架。⑤英國也建立了中央協調機制,開展人工智能風險跨部門監測和評估,為協同性地應對人工智能新型風險提供決策依據。⑥在國際層面,各國也在積極地就人工智能治理問題達成一致,構建可互操作的治理框架。例如,歐盟-美國⑦、歐盟-日本⑧及美國-新加坡⑨均就人工智能治理問題達成了雙邊合作,推動人工智能治理的趨同與對標。

聚焦到我國監管實際,面向生成式人工智能監管的兼容配適應主要在兩個層面展開:第一,創建人工智能技術監管協同機制,以協同化監管應對監管碎片化和監管沖突等問題。長期以來,我國在監管權劃分的基礎上形成面向不同行業的專業化監管格局。面對橫貫上中下游的生成式人工智能,分立運行的監管格局可能因知識水平參差不齊、監管方式形態各異形成監管競次、監管真空等問題。監管協調不暢還可能抑制創新與競爭。因此,可依據《新一代人工智能治理原則》制定跨機構的人工智能監管協調框架,通過合作制定大型語言模型開發、部署和運行階段的關鍵監管要點。此外,還可以通過多機構會簽、監管信息共享等制度探索監管機構間互操作性保障機制,為應對交叉風險提供規則基礎。①

第二,探索多元化的監管一致性工具。首先,建議引入“模塊治理”理念,制定面向生成式人工智能的一般性監管方法,對科技企業的內部治理、決策模式、運營管理以及用戶關系管理等重點方面以技術測試和過程檢查的形式向科技企業提供明確的監管指引,通過厘清交叉監管中的“共同模塊”促進人工智能監管框架的互操作性。②其次,成立人工智能合作監管聯盟提升監管互操作性和監管韌性。例如,英國信息專員辦公室、通信辦公室、競爭與市場管理局、金融行為監管局共同成立了數字監管合作論壇(DigitalRegulationCooperationForum),通過加強監管機構間的合作提升監管一致性。該聯盟近期的一項核心議題便是通過人工智能監管沙箱為科技企業提供定制化的聯合監管建議,以幫助其盡快進入目標市場。③我國金融監管領域很早就監管合作機制展開了探索。2021年,兩辦發布的《關于依法從嚴打擊證券違法活動的意見》中亦對跨部門監管協同、跨境審計監管合作和執法聯盟等提出重要意見。生成式人工智能可能引發跨行業、跨市場、跨領域的交叉性風險,勢必需要多家監管機構協同攻關。此次《黨和國家機構改革方案》出臺,不僅組建了中央科技委員會,重組了科學技術部,還組建了國家數據局。這意味著監管機構的架構調優對于國家創新戰略的實現具有重要意義。因此,從完善創新監管架構的視角出發,也需要各監管機構探索提升監管互操作性和一致性的常態化制度路徑。最后,為確保監管效能與生成式人工智能的技術革新與應用風險相匹配,還應以監管資源分配、監管一致性以及監管協同效果為基準建立監管風險識別和評估框架,聯通與科技行業、終端用戶等主體的反饋回路,全面評估監管協同框架的有效性。④

五、結語

ChatGPT席卷全球,為人工智能產業注入活力與動能的同時,既帶動了生成式人工智能的快速爆發,也深刻地改變了產業競爭格局和全球科技力量對比。現階段,無論是國際行業巨頭,還是國內頭部企業,均聚焦大模型領域持續發力??梢哉f,2023年既是生成式人工智能的元年,也是人工智能監管范式變革的元年。如今的全球科技競爭不僅是新型智能基礎設施的角逐,更是數字文明和創新制度生態的比拼。與美國相比,我國的人工智能領域缺少重大原創成果,在核心算法、關鍵設備等方面仍存較大差距。⑤本文提出了治理型監管范式,希冀以監管權的開放協同彌補傳統監管覆蓋不足的缺憾,以治理與監管理念的多元融合補足監管介入遲滯的短板,以監管措施的互操作性助力我國科技企業在生成式人工智能技術賽道上的加速健康發展。如何能夠在創新驅動發展戰略下,構建良好的制度生態從而服務于我國科技企業的發展,形成創新與治理雙輪驅動,軟硬結合、梯次接續的技術治理格局,是一項亟須改變、影響未來、意義深遠的議題。未來,還需從監管基礎設施、監管工具體系、監管架構變革以及監管制度環境等核心要素出發,加以持續不斷的探索與優化。

主站蜘蛛池模板: 免费国产黄线在线观看| 日韩午夜伦| 久久人与动人物A级毛片| 国产人人乐人人爱| 日韩高清一区 | 99久久精品免费看国产免费软件 | 91欧洲国产日韩在线人成| 中文字幕永久在线看| 亚洲人成高清| 国产在线观看高清不卡| 国产网友愉拍精品视频| 日本五区在线不卡精品| JIZZ亚洲国产| 国产日韩精品一区在线不卡| 亚洲免费毛片| 亚卅精品无码久久毛片乌克兰| 九九九国产| 国产自产视频一区二区三区| 91偷拍一区| 五月天久久综合国产一区二区| 波多野结衣无码中文字幕在线观看一区二区 | 欧美日韩国产成人高清视频| 亚洲a免费| 99九九成人免费视频精品 | 欧美亚洲一区二区三区导航| 国产精品人成在线播放| 无码粉嫩虎白一线天在线观看| 天堂亚洲网| 在线日韩日本国产亚洲| 久久精品国产亚洲麻豆| 久久熟女AV| 97久久免费视频| 日本道中文字幕久久一区| 有专无码视频| 青青操视频免费观看| 日韩第一页在线| 亚洲精品男人天堂| 国产自无码视频在线观看| 亚洲国产日韩欧美在线| 992Tv视频国产精品| 国产精品女人呻吟在线观看| 日韩在线视频网站| 国产精品99久久久| 国产亚洲精品97在线观看| 国产精品久久久久久搜索| 免费一极毛片| 欧美激情一区二区三区成人| 日韩免费毛片| 丰满人妻一区二区三区视频| 国产精品无码AV中文| 亚洲国产精品无码久久一线| 中文字幕1区2区| 久久久受www免费人成| 久久毛片网| 黑人巨大精品欧美一区二区区| 26uuu国产精品视频| 九九这里只有精品视频| 亚洲国产AV无码综合原创| 国产成人三级在线观看视频| 国产成人乱无码视频| 色老二精品视频在线观看| 老司国产精品视频| a国产精品| 国产午夜精品鲁丝片| 国产成人精品日本亚洲| 看国产毛片| 国产手机在线ΑⅤ片无码观看| 国产香蕉在线| 国产女人爽到高潮的免费视频 | 国产激爽大片在线播放| 国产丝袜第一页| 亚洲综合天堂网| 在线人成精品免费视频| 91久久偷偷做嫩草影院精品| 91在线激情在线观看| 亚洲欧洲自拍拍偷午夜色| 中文字幕在线播放不卡| 亚洲第一成人在线| 亚洲欧美日韩成人在线| 最新痴汉在线无码AV| 一区二区三区四区精品视频 | 免费中文字幕在在线不卡|