
摘要:當下,生成式人工智能正以前所未有的方式引領技術革命、傳播知識和信息,廣泛應用于各領域、各行業。協同治理模式與我國生成式人工智能治理具有理念、實踐方面的高度一致性,從該視角分析,當前生成式人工智能存在的協同治理條件不完善、治理主體分散、治理參量協同不足等問題,需秉承協同治理監管的理念,縱向完善協同治理條件,橫向推動多元主體協同治理,并全面增強技術、制度協同治理參量,逐步完善我國生成式人工智能監管框架。
關鍵詞:生成式人工智能;協同治理;監管框架;多元主體
一、問題的提出
2022年,生成式人工智能大模型迎來了發展的高峰期。上半年,OpenAI旗下的大模型DALL·E2只用了兩個半月,注冊人數就突破了100萬人;同年11月,OpenAI再度推出的Chat GPT將生成式人工智能大模型的發展推向了頂峰,而我國緊隨其后,推出了文心一言、通義千問等本土大規模預訓練語言模型。在海量數據與強大算力下,生成式人工智能模型不僅可以 “理解”人類社會的自然語言 “識別”圖像、聲音等,還有 “超強大腦”可以記住大量的傳輸信息和數據,實現人機互動。
生成式人工智能在釋放技術紅利、促進社會發展的同時,也暴露出知識產權爭議、技術倫理歧視、倫理關系失調、安全與隱私等問題,與之俱來的各種風險引發了各國監管部門的廣泛關注。德國、西班牙等國家的數據保護監管機構對生成式人工智能表示擔憂并采取調查行動;我國也積極應對生成式人工智能帶來的未知挑戰,2023年7月發布的 《生成式人工智能服務管理暫行辦法》對生成式人工智能產權爭議、虛假信息生成等問題做出了回應。[1]
各國都在積極探索治理之策,但何種監管方式能夠高效解決問題仍有待深入探討。無論是哪種監管模式,都難以憑借單一的治理模式來有效規制其深層次的復雜問題。作為解決復雜問題的分析工具和框架,協同治理理論強調不同子系統之間的相互合作,打破了單一主體治理的局限性,凸顯各主體間的整體性和協調性,以實現治理效果的全面提升。生成式人工智能基于我國國情所需以及治理的復雜性,需要融入多元主體力量,正契合協同治理理論所倡導的多元主體合作、協同關系等特點。鑒于此,如何從協同治理視角分析生成式人工智能當前的發展現狀、面臨的問題和挑戰,探索與其相適應的治理和監管框架,是一道亟須破解的難題。
二、必然選擇:協同治理理論與生成式人工智能治理的多維契合
(一)協同治理視角:與生成式人工智能監管的契合點
基于學術界研究現狀得知,AI驅動下可以進行各式各樣的內容生成和創作,伴隨而生的是人工智能生成內容的治理問題,如著作權問題、數據權益的法律屬性、催生虛假信息傳播等。在眾多理論研究中,協同治理理論明確指出了政府、企業、公眾等多方主體參與治理,以及借用法律、技術等手段輔助治理的作用,成為與生成式人工智能治理的契合點之一。
針對當前我國人工智能發展現狀,如何破解生成式人工智能的法律邊界以及如何引導企業、個人合理使用人工智能技術及其產品是亟須治理的問題。首先,《生成式人工智能服務管理暫行辦法 (2023)》明確提出,技術提供者應依法承擔網絡安全信息內容的責任,履行網絡信息安全的義務。同時,還應明確用戶的監督角色,通過要求技術提供者建立投訴舉報機制,暢通用戶監督渠道,強調使用者的投訴舉報權利;其次,政府作為具有權威公信力的主體,要加強對人工智能產業的引導、規范和監管,制定完善的法律法規,規范大模型的開發、部署和使用;最后,根據既有治理制度的改進方案,學者提出構建通用大模型分層治理體系,明確劃分責任體系,區分基礎模型開發者、AI服務提供者和終端用戶,對前兩者加強技術監管和服務監管,對后者注重終端用戶行為規范和個人素養培育。[2]
(二)中國治理方案:基于主體治理范式的契合點
作為一種能夠協同政府、企業、公民等主體構成開放的整體系統,協同治理在現實治理實踐中符合生成式人工智能的治理現狀,與我國延續推行的主體治理范式高度契合,成為我國生成式人工智能治理與協同治理理論的契合點之二。
第一,美國形成基于應用的治理范式。從人工智能生態鏈來看,基于應用場景的治理,其實質主要是面向生成式人工智能嵌入各類場景的終端用戶。如果僅在下游層施力,根本無法解決上游設計層面的問題,從而難以帶動生成式人工智能整個生態鏈的治理。
第二,歐盟形成基于風險的治理范式。從人工智能生態鏈來看,生成式人工智能由多個AI系統組成,涵蓋了圖像、音頻等多個場景,部署于生態鏈的上下游領域,劃分為最小風險、有限風險、高風險和不可接受風險四個等級。這阻礙了生成式人工智能在不同類別中的動態轉換,無法實現連續監督的治理效能。
第三,我國構建基于主體的治理范式。從人工智能生態鏈來看,在生成式人工智能的整個鏈條結構中,責任主體呈現多元化、分散化的特點,難以劃定認定邊界。比如,生成式人工智能的風險可能來自于上游研發主體的技術風險,也可能來自終端用戶在與模型的互動中提供錯誤信息反哺模型黑化。
三、把脈問診:我國生成式人工智能治理的問題檢視
(一)治理范圍難框定:過于依賴分散治理模式
目前,我國在人工智能的治理上依舊沿用過去以應用場景為基準的分散治理策略,并對此針對性地制定和實施相應的法律法規。比如,針對自動化駕駛技術中可能遇到的風險,我國頒布了 《智能網聯汽車道路測試與示范應用管理規范 (試行)》專項立法。
與分散場景相反,生成式人工智能是集數據、算法和信息內容于一體的整體系統,模型的智能化在一定程度上仍然取決于初期模型訓練時收集的海量高質量數據,同時,也依賴于模型研發階段算法的深度學習和信息內容生成階段人機互動輸入指令、輸出內容的收集、生成過程。從治理范圍來看,分散治理框架以具有區隔性的不同場景、不同風險為前提,若僅從人工智能應用的下游應用層面施力,只能解決一些業務模式相對穩定、安全風險較為明晰的專項人工智能技術,而生成式人工智能模型需面向不同主體,完成多種任務,不應拘泥于有限使用范圍,應該由應用場景專用性向通用性轉變。
(二)責任主體難明確:傳統問責框架面臨沖擊
在人工智能1.0時代,模型開發基于線性流程的生產方式,責任主體在人工智能模型的研發、部署和運維中定位明確。例如,字節跳動率先開發了智能內容推薦算法,同時,基于數字內容智能推薦風險的治理框架也逐漸清晰。
然而,進入人工智能2.0時代,通用預訓練大模型的模塊成為主流,模型能夠輕量接入、協同部署,使得各傳統企業的結構和邊界變得模糊,由雙邊組織者和運營者變為提供云上運行、輕量化接入的大模型技術支撐平臺,這表明,部署應用場景的平臺企業不再擁有對算法的終局影響力和全流程控制。實際上,負責大模型研發的主體根本沒有與應用層用戶直接互動。相反,與用戶密切互動的服務提供商卻缺乏對上游大模型的影響力。因此,繼續要求服務提供商承擔平臺責任是不切實際的,除了徒增企業負擔外毫無益處。
(三)規制時機難把握:深陷于“科林格里奇困境”
英國技術哲學家大衛·科林格里奇指出,新技術治理往往面臨兩難選擇,需要權衡治理成本。[3]一種成本是由于憂慮技術會產生負面影響而早于關鍵規制時機實施控制,可能損失發展機會,帶來的直接后果就是技術很可能難以爆發;另一種成本是晚于關鍵規制時機錯失最佳控制機會,導致對整個經濟和社會結構產生嚴重影響,甚至可能走向技術失控。
為應對生成式人工智能風險和治理復雜性,監管者及有關學者傾向于事前治理,提出全流程監管。我國算法安全監管辦要求實施算法安全評估制度,事前評估算法是否符合行業安全標準。實際上,過早實施的全流程監管可能導致低效甚至無用的監管,反之也可能會受到行業沖擊。總之,不合時機的監管會阻礙企業的創新速度,致使企業浪費資源應對監管。根據歐盟立法機關的調研顯示,監管合規成本將于2025年占高風險AI總投資的4%-5%,對規模較小的新興初創公司將產生巨大的負面影響。
四、對癥下藥:協同治理視角下我國生成式人工智能監管的優化路徑
(一)協同治理條件的完善:推進生成式人工智能的基礎性立法
第一,在立法思路上,我國應立足于生成式人工智能領域,開展基礎性立法,為該領域明確治理方向,劃定處理新興技術 “強監管”與 “弱監管”的尺度。具體來說,需要明確生成式人工智能的范圍和分類,制定技術標準和認證機制,遵循規避技術進步引致風險的基本認知邏輯,以維護風險底線為前提,不斷加強技術應用,并創造實現技術創新的最佳條件。
第二,在法律效用上,促進軟硬法的互動銜接,健全軟硬法協同體系。在生成式人工智能治理中,軟法缺乏規范性,且權威性和約束力較弱。為充分發揮軟法的效用,彌補軟法治理的缺陷,應建立完善的硬法支撐體系,在創設、實施和監督等階段提高軟法質量、規范軟法制定程序并為軟法提供執行保障機制,實現兩者結構性耦合的二元法模式。
(二)多元主體協同治理:促進生成式人工智能的主體化治理
1.上游模型開發者:承擔維護整體系統安全的義務
模型開發者承擔數據收集與處理階段的數據合規義務以及算法設計與訓練階段的模型質量保證責任。一方面,要求基礎模型的開發者在收集數據時嚴格遵循法律法規,遵循目的限制性原則,在盡量減少數據收集范圍的同時,構建高質量的數據集,確保用于訓練的數據準確、一致、可靠;另一方面,要建立內部數據存儲和傳輸的風險管理機制,采取必要的技術或管理措施對風險進行監測,并在數據泄露后采取補救措施,配合監管部門或第三方進行數據審計。同時,基礎模型的開發者還應當承擔模型部署與應用階段全周期的內容監督義務。
2.下游應用部署者:承擔所涉信息內容安全的義務
應用部署者應滿足特定行業的監管要求,承擔人工智能生成內容不當擴散和使用的監管責任,通過使用政策條款明確使用范圍,規定合理合法的使用條件,形成制度規范。用戶使用大模型時,要限制用戶與生成式人工智能的對話次數,并能夠自動識別暴力內容、惡意軟件等生成內容。通過技術手段在用戶使用過程中及時發現違規禁止行為,將違規者賬號停用或凍結,規避不良生成內容。此外,用戶使用模型的生成內容被接入社交媒體、非法網頁時,下游具體應用部署者應引入提示、限流、過濾等技術治理手段對相關內容進行審核,甚至啟用人工審核機制,實施內容治理。
3.終端用戶:促進社會監督與政府監督的協同聯動
終端用戶既包括通過用戶調查、模擬測試等外部訪問方式開展生成式人工智能監督的非營利組織,也包括切實參與生成式人工智能應用實踐的社會公眾和技術社群用戶,他們共同探索形成符合我國生成式人工智能發展的社會監督、政府監管的協同聯動模式。一方面,可以采用志愿者打分的方式來量化評分的眾包評審機制,以確保外部監督的多樣性和準確性;另一方面,借助技術社群的力量發現生成式人工智能存在的技術漏洞,如技術社群曾識別出Twitter圖像裁剪算法存在潛在的歧視危害和倫理問題。因此,該領域中 “技術—社會”的互動,凸顯了跨界融合、人機協同的新興特點,有效促進了社會監督與政府監管協同聯動。
(三)增強協同治理參量:嵌入技術、制度全過程的靈活性治理
1.“技術之治”的引入
第一,重視應用技術手段治理技術風險。建構 “以AI治理AI”的技術治理體系,如人工智能生成內容水印標記技術,以隨機方式生成最小的標記單元,并進行代碼拆分、隨機植入生成內容,即使是隱藏標記,最終也能夠檢測出水印痕跡,并識別出相應內容源于人工智能;第二,強調政府在技術研發中的監管角色。在技術博弈中,占據優勢地位的企業扮演參賽者和裁判的情況十分常見,但面對技術帶來的治理風險,僅僅依靠技術是不充分的。要確保人工智能的風險可控,就需要具有公信力的組織機構,而政府無疑是承擔監管者角色的合適候選主體。
2.“制度之治”的完善
第一,在開發服務層,構建監管沙盒制度。監管沙盒作為一種豁免機制,在一開始就應該明確準入門檻,充分考察模型開發的創新性及模型風險應對機制。應用過程中要對軍事、醫療等特殊領域以及未成年敏感用戶謹慎使用豁免機制,嚴格適用規則。
第二,在政府監管層,建立事前安全規制與事后損害追賠雙重制度。當前被廣泛使用的監管方式大多屬于事前安全規制,極易出現以偏概全、全盤否定技術準入資質的情況,因此,應組合兩類制度工具,視情況進行調配,發揮事后損害追償機制的激勵效用以遏制風險。
第三,在公眾監督層,重視終端用戶的行為規范。一方面,要發揮合同的規范作用。通過與公眾簽訂使用合同,明確劃定終端用戶使用人工智能的底線,規范終端用戶的使用行為;另一方面,要形成良好的社會氛圍和社會秩序,需要各主體相互配合、共同合作。在培養用戶學習技術素養的同時,開發服務者也應掌握使用條例中要求具備的知識和技能,提高與人工智能技術發展相匹配的用戶素養。
五、結束語
作為一種能夠協同政府、企業、公民等主體構成開放的整體系統,協同治理在現實治理實踐中契合生成式人工智能的治理需求,與我國一直推行的主體治理范式具有理念上的一致性。鑒于此,生成式人工智能應當遵循協同治理路徑,完善協同治理條件,不斷推動多元主體協同治理,增強協同治理參量,構建契合我國國情的生成式人工智能監管框架。
參考文獻:
[1] 生成式人工智能服務管理暫行辦法[J].中華人民共和國公安部公報,2023(05):2-5.
[2] 張璐.通用人工智能風險治理與監管初探:ChatGPT引發的問題與挑戰[J].電子政務,2023(09):14-24.
[3] 鐘祥銘,方興東,顧燁燁.ChatGPT的治理挑戰與對策研究:智能傳播的 “科林格里奇困境”與突破路徑[J].傳媒觀察,2023(03): 25-35.
作者簡介: 王若璇,女,漢族,河北滄州人,碩士研究生在讀,研究方向:行政管理—地方治理。