張欣
關鍵詞:生成式人工智能;內容幻覺;模型即服務;敏捷治理;韌性治理
2022年,OpenAI發布了其開發的基于深度學習技術的大型自然語言處理模型ChatGPT。該產品一經發布,展現了令人贊嘆的強交互、強理解、強生成能力,上線僅一周就突破了100萬用戶量,引發了各界廣泛關注。比爾·蓋茨(Bill Gates)將其喻為“不亞于互聯網和個人計算機誕生”的人工智能技術。深入ChatGPT成功的背后,可以發現有三個相互交織的因素促使ChatGPT引發廣泛關注,并成為引爆新一輪科技革命的催化劑。首先,伴隨著內容生態的不斷成熟和用戶內容需求的不斷攀升,內容生產從Webl.0時代的專業用戶創作、Web2.O時代的用戶生產內容迭代至Web 3.0時代的人工智能生成內容(AI-generated Content,AIGC)新階段。信息生產的商業化需求成為了人工智能技術不斷迭代的持續動力。其次,模型即服務(Model as Service,MaaS)的新型產業鏈模式建構了“模型一單點工具一應用場景”的運營路徑,帶動了人工智能研發軟硬件和上下游產業鏈的協同共進。當人工智能步人“工業化生產時代”,擁有更先進的人工智能模型企業意味著擁有開啟未來的鑰匙,大模型研發因而成為企業升級轉型的重要驅力。最后,底層算力基礎設施得到極大改進,這使得Transformer模型架構的開發可以利用并行訓練的方式對海量數據集開展訓練。正是在信息、產業和硬件的同頻共振之下才衍生出以AIGC為代表的人工智能技術浪潮。在當前AIGC的賽道之上,以ChatGPT為代表的生成式人工智能通過展現其可維護、可迭代、可擴展特性,成為人工智能行業的新型基礎設施,通過開放應用程序接口的方式成為產業鏈中的基礎底座,獲得了較之以往更加中心化的社會權力。在生成式人工智能賦能干行百業,引領全球科技發展格局之時,其生成內容的可靠性、公平性和真實性引發了廣泛關注。有研究發現,人工智能生成內容不僅可能隱含偏見,還可能存在虛假信息,對公眾造成誤導,影響社會秩序、威脅社會信任。本文以人工智能生成內容的治理為核心議題,深人生成式人工智能的技術運行機理,探析人工智能2.0時代的治理框架的底層邏輯,結合AIGC的產業鏈特性,探索與之配適的治理框架。
一、生成式人工智能的技術機理與治理風險——以ChatGPT為例
語言模型是指根據研究及應用需要,將人類語言加以簡化、變化,采用形式化表示而得到的算法模型。通過將模型數值化,成為可編制程序并在計算機上實現其表達。ChatGPT就是一種基于概率生成的語言模型。該模型采用了Transformer架構和預訓練技術,通過學習大量的自然語言文本數據,利用統計學方法和概率分布根據先前的輸入預測下一個可能出現的單詞或句子,生成流暢連貫、語法正確、邏輯通順的文本。這些技術機理在顯著提升模型性能的同時還對生成內容的公平性、真實性和可靠性帶來一系列風險,給互聯網內容治理帶來全新挑戰。以下將從四個方面剖析ChatGPT的核心技術機理以及內容治理風險,為制定契合技術規律的內容治理框架奠定認知基礎。
(一)基于概率的文本生成方式難以從源頭把控內容生成質量
大型自然語言處理模型在訓練時被用來設計為表示覆蓋預先指定領域的標記序列。開發者通過這種方式訓練機器捕獲訓練語料庫中的語言統計特性,并以此對標記序列開展概率預測。用戶雖在互動界面上看到的是其直接輸出的文本,但實際上是模型基于訓練時學習到的對不同話語出現頻次的概率分布,從中提取樣本并進行采樣標記,進而完成文本輸出。這種基于概率分布生成文本的方式關注生成內容的自然性和連貫性,但無法保證生成信息的真實性和準確性。這也是為何用戶在使用時會遇到生成文本雖然連貫自然,但實際上可能缺乏事實依據并欠缺邏輯性的原因。面對這一問題,雖然用戶可通過特定語言輸入或者“提示語”調整輸出,或者訓練過程中采用額外目標以及特定采樣技術的方式對模型進行約束和指導,但現階段仍然難以對模型輸出的內容質量實現精準掌控。這一技術特性將會帶來一系列內容治理風險和挑戰。
第一,基于概率的大型自然語言處理模型無法穩定產出可解釋、可預測的輸出。面對實質上相同的輸入,模型對于細節過于敏感,這導致即使在幾次輸入中僅有一些細微差別,也可能產生完全不同的輸出。從這一角度來看,其生成的文本不具有重現性和可預測性。由于難以從源頭上把控生成內容的質量,這可能導致部署者需要花費更多的技術成本和人工審核成本構建更為強大的內容審核和過濾機制在應用層面實施信息治理。
第二,自然語言處理模型在歧義消解和知識邊界方面仍然存在局限。雖然相較之前的自然語言處理技術,ChatGPT已經獲得了基于上下文的語境學習能力,能夠在理解文本時廣泛消除歧義,但人類理解語言的認知機制與機器處理語言的技術機理仍然存在本質區別。人類在調動認知功能時會即時調用所有存儲的詞匯、語法、語義以及語境知識,而非在某個范圍內相對孤立地處理對象。而模型在處理相關任務時卻可能大費周章。即使語言模型在文本分析中消解了歧義,也并不意味著其真正理解自然語言。人類語言構成中,隱喻的運用、識別與理解超出了歧義消解的范疇,與認知能力相伴而生。故而當模型面對復雜任務,尤其是涉及多層次背景知識的任務時,難以擁有全局視野并生成令人滿意的文本。近期,已經出現法官利用ChatGPT撰寫裁判文書的真實案例。法律裁判文書的撰寫不同于一般的語言處理任務,不僅存在大量的復雜語言結構,需要精準理解每個語詞的背景及含義,還需要在成文過程中具有與當事人的“對話意識”,發揮宣示、證成、教育功能。這一任務的完成需要法律專業知識的支撐,依靠縝密的邏輯推理,蘊含多層次背景知識并彰顯價值觀和人文素養。因此,ChatGPT作為大型自然語言處理模型,雖然在語言生成方面已經取得了巨大進步,但其在歧義消解和知識邊界的技術局限仍然會限制其在高風險場景領域的應用。
第三,ChatGPT作為自然語言處理模型具有自回歸特性,即其依賴對下一個單詞開展預測的方式生成文本。該架構不允許回溯,亦無法在模型內部進行“對話或生成暫存器”從而對相應任務開展預先規劃,這導致模型無法直接執行多步計算或者存儲中間結果。基于順序預測下一個單詞的生成范式導致該模型的思維方式是單向的,在計劃能力、工作記憶以及回溯能力和推理能力方面均凸顯局限性,難以對任務展現全局或者深度的理解。因此,該模型適合以按部就班、漸進式增加詞語方式為特點的增量型任務,更適宜生產流暢連貫的文本。但當一項文本生成任務不能以漸進或者連續的方式完成,而需要“頓悟”式、跳躍式展開且具有復雜性和創新性等特性時,則會顯現適用局限。
(二)基于網絡文本語料庫展開訓練嵌合算法偏見
大型自然語言模型的訓練需要海量數據“喂養”。訓練數據集對于模型輸出的質量密切相關。ChatGPT是在3000億單詞語料上訓練而成的。其中60%的語料來自2016-2019年的C4語料庫,該語料庫是全球知名的網絡文本語料庫:12%的語料來自WebText2,包括谷歌、電子圖書館、新聞網站、代碼網站等豐富的網頁文本:還有部分語料來自書籍、維基百科以及用戶生產數據。GPT-4的訓練不僅基于網絡公開可用的數據,還包括第三方提供商授權的數據。從訓練數據環節來看,ChatGPT的訓練數據集可能從下列三個方面對輸出內容產生影響:
第一,訓練數據集多來自于網絡,數據質量參差不齊。如前所述,ChatGPT是基于對單詞序列中下一個單詞出現概率進行預測的方式生成文本。在技術機理上,開發者需要將系統設計為文本輸出與訓練模型的數據集之間具有最大化相似性的架構特點。這意味著當訓練數據采自于充斥著虛假信息和毒害信息的社交媒體和公共網頁時,模型難以避免地會重現這些不真實的信息。即使將模型訓練的數據均設定為真實可靠的數據,由于概率預測可能生成數十億組合模式,模型仍然可能生成不準確的內容。因此,以ChatGPT為代表的大型自然語言模型廣泛存在“幻覺”(hal-lucination)現象,難以避免地生成與事實不符的內容。由于幻覺性內容僅出現在部分語詞上,難以被現行通用的指標全面識別,因此在實際應用中可能衍生巨大風險。例如,在醫療場景中,如果根據患者信息生成的治療方案產生幻覺問題將產生健康和安全風險。即使在機器翻譯場景中,如果由機器翻譯生成的藥品說明書存在幻覺問題,亦可能引發危及患者生命的風險。目前,OpenAI采用基于人類反饋的強化學習技術、過濾訓練數據集、制定安全性控制令牌以及引導模型生成、集成微軟Bing瀏覽器等復雜模塊外部連接的方式嘗試改進文本生成的安全性、準確性和一致性。但這一問題尚未能得到實質性解決。不僅ChatGPT面臨著幻覺挑戰,谷歌的Bard、微軟的Bing均存在同樣的技術局限。
第二,大模型存在“災難性遺忘”特征,除聯網、集成搜索引擎等方式外,難以實時更新訓練數據集,導致輸出內容凸顯時效性局限。大型語言模型使用深度神經網絡架構,學習知識的方式模擬人類開展。但與人類不同的是,人類改變錯誤認知只需知曉機理與規律,即可規模性的更正錯誤,并不需要深入大腦之中對軸突之間的連接加以改變。但大型語言模型動輒參數上億,研發者無從知曉需對特定的神經元作出何種改變才可準確無誤的更新信息。若調整的參數量不足,導致模型欠擬合,會導致僅面對特定提示時才能針對輸入作出正確答復;若過度調整參數,導致模型過度擬合,可能出現對不相關的提問卻以更新后的信息作為輸出的情形。雖然技術界致力于該問題的解決,但目前的方法和路徑仍然存在各種適用局限。由此可見,研究者雖可訓練和生成模型,但是尚不具備對大型自然語言模型進行“編輯”的功能。這導致模型的輸出內容和導向性難以精準全面控制。例如,有研究顯示,多類大模型對于接種疫苗的看法和回答始終非常消極,傳遞了負面看法和拒絕免疫導向的信息。但因研究者尚不具備模型編輯的能力,難以從技術源頭改善這一內容生成導向。
第三,訓練數據倚重網絡數據,導致輸出文本呈現刻板印象和偏見。訓練數據集的廣泛性不足,不僅對英語外的其他語種存在性能偏差,還可能導致價值觀偏見。有研究表明,GPT-2以及同類大型語言模型在特定群體和種族相關的文本生成任務中呈現偏見傾向。模型訓練依托的數據庫本身存在顯著的歧視和偏見。例如,谷歌的Word2Vec語料庫存在顯著的性別歧視問題。該語料庫中與工程師相關的人類姓名幾乎都是男性。而依托網絡數據的輸出不僅會出現性別偏見,經濟偏見、流行偏見、語言偏見和價值觀偏見等多類偏見均隨處可見。此外,ChatGPT在訓練過程中主要使用了英語語料,不僅導致對其他語種的語言識別、情感分析、機器翻譯性能差距顯著,還存在生成內容與社會主義核心價值觀沖突和悖離的問題。種種局限導致ChatGPT并不適合作為不同自然語言處理問題的通用工具。
(三)人類反饋強化學習加劇虛假信息生成與傳播風險
為訓練模型獲得理解上下文關系的能力并與人類價值觀對齊,OpenAI在訓練過程中使用了基于“人類反饋強化學習”的訓練方法,對各種語言任務展開微調,形成了InstructGPT模型。強化學習是機器學習領域中的一個重要分支,其核心理念是通過訓練智能體不斷與環境互動,找到最優行動策略,即能夠最大化獲得獎勵的動作序列。每一個訓練回合,開發者會設計開始、結束以及獎勵信號,用于引導和評估智能體的行為。訓練回合的長度可以根據任務的復雜度和智能體的學習能力來調整。越長的訓練回合可以提供越多的信息,但也需要更多的計算資源和時間。目前強化學習被認為是開發真正通用的自主人工智能的關鍵技術。為幫助模型學習并抽象出人類所重視的價值,而非簡單地模仿人類行為,從根本上提升模型的適應性、可解釋性和決策能力,OpenAI雇傭專職人員擔任人類標注員。首先,人類標注員會給出提示語和期望的輸出行為,通過監督學習的方式對GPT-3進行微調。有時,人類標注員會對模型輸出的樣本進行排序和標量打分,將人類偏好集成到模型中并形成具有判別功能的獎勵模型。特殊情形下,人類標注員還需要創制反饋答案,而非簡單地進行標注。其次,研發者通過強化學習針對獎勵模型優化原始語言模型開展微調。這一訓練過程不僅耗資巨大,還可能呈現如下局限性:
第一,人類標注員的偏好可能存在歧視和偏見,通過標注環節注入模型之中。人類標注員的個人價值觀和文化背景會對獎勵模型產生實質影響。例如,美國標注員見到football一詞時自然聯想后的詞匯是橄欖球,而其他國家的標注員則會聯想為足球。基于語言、背景、文化和意識形態差異而產生的信息不對稱會加劇智能體偏見,致使模型輸出偏離人類價值觀的內容。第二,人類反饋受到排序和打分的形式限制,僅能提供有限的顯性偏好信息。這意味著排序和打分形式的人類反饋難以傳遞人類選擇背后所蘊含的隱性信息以及相關偏好的程度,導致模型在精細化和復雜化任務中難以展現良好性能。第三,人類反饋強化學習加劇虛假信息的生成與傳播風險。一方面,人類反饋強化學習賦予模型復雜語義推理的能力,可以更好地理解人類的行為、偏好和價值體系并形成類人化活動。這種交互能力意味著模型能夠對互動開展情境化和個性化處理,以最大限度地發揮其生成內容的影響力,產生操縱、說服或影響指定對象的效果。另一方面,人類反饋強化學習可以強化模型與人類協作的效率,加快信息的生成與擴散,為虛假信息的生產和擴散提供技術便利。
(四)模型的涌現性可能產生預期之外的治理風險
大型語言模型具有多模態處理能力、推理能力以及與人類交互的能力。其擁有的海量參數可能產生令人驚嘆的涌現(emergent)效果。例如,對GPT-3模型輸入任意任務相關的提示語(prompt),不需任何訓練或者梯度更新就能完成應答。OpenAI從未對GPT-4就各類美國專業考試開展過專門訓練,但無論是在美國LSAT法律考試、SAT考試、美國律師執業資格考試,還是在有關醫學、藝術史、生物學、環境科學、心理學、物理、宏觀經濟學甚至品酒師資格等各類考試中,GPT-4均獲得了優異的成績。尤其是在大多數專業和學術考試中,均表現出超出人類水平的表現,并獲得在考生中排名前10%的成績。預訓練大模型的涌現能力雖然使其具有廣泛的應用潛力,但現有研究尚未充分理解和清晰闡釋模型涌現能力的原因。與此同時,大模型的涌現能力還伴隨著一系列治理挑戰:
第一,模型涌現能力對規模和參數量要求極高。為了獲得模型的高級性能,研發者具有不斷追求模型規模的內在驅動力。海量參數不僅不利于算法透明度治理,也難以對模型生成的文本和決策進行清晰解釋和追溯。相關研究顯示,當模型規模增加時,會呈現類似線性關系的正向效果,當模型超過某個閾值時,其性能會隨著模型增大而大幅提升。例如,與GPT-2的15億參數相比,GPT-3擁有1750億參數,并開始具有語境學習的能力。GPT-4模型參數量雖未公布,但可合理預計是GPT-3的100倍以上。因此,就現階段的技術水平而言,要精準地防止模型生成某一特定內容可能在技術實現上仍然存在挑戰。
第二,預訓練大模型的涌現能力具有隱式歸納而非顯式構造特性。這意味著涌現出的能力并未被包含在預訓練任務之中,開發者也難以探知大型自然語言處理模型涌現任務的全部范圍,因而相關風險也可能以“涌現”方式出現。例如,在Big-Bench的BBQ偏見基準上,當語境模糊時,模型生成帶有歧視和偏見的內容會伴隨模型規模增長而顯著增加。TruthfulQA基準的測試則展示了GPT-3模型越大,就越有可能模仿人類說謊,生成不實信息的問題。
第三,大模型的涌現能力還伴隨著同質化趨勢,兩者相互作用導致大模型領域的內容生成風險具有跨域性。在人工智能技術迭代過程中,機器學習使得算法變得同質化,深度學習則使得模型架構變得同質化。伴隨著深度學習技術的發展,模型訓練范式也發生了轉變。相較于為每個應用定制相應的特征工程流水線,不如將相同的深度神經網絡架構用于各種應用。例如,谷歌的Bert、OpenAI的PT-2和GPT-3、百度文心一言等大模型均采用了Transformer架構。這導致了大型自然語言模型達到了前所未有的同質化水平。幾乎所有的自然語言處理模型均源自少數基礎模型之一。這種同質化特質極大提升了效率,因為任何基礎模型的改進均會直接提升自然語言處理模型的性能。但其也是一種負擔。原因在于所有人工智能系統均可能繼承了相同的偏誤。這種偏誤不僅存在于文本生成領域,由于大模型被廣泛部署于圖像、語音、蛋白質序列、有機分子等諸多領域,同質化影響會愈發明顯。大模型基于同一或者相似架構訓練而成的特點使其在處理文本時采取同樣的策略,因而產生共同的偏見或者盲點,從而產生跨文化、跨領域、跨背景的串聯性風險。例如,《紐約時報》的記者在ChatGPT、谷歌的Bard以及微軟的Bing就《紐約時報》何時第一次報道“人工智能”提問時,幾個模型均無法準確回答且呈現同質化的技術局限。由此可見,大模型的同質化與涌現性正在以難以預料的方式相互作用,基礎模型中的任何缺陷都有可能被適配好的模型盲目繼承,從而產生難以預料的不確定性風險。
二、“模型泛在”時代生成式人工智能的治理原則
ChatGPT可生成語法流暢、表述通順、具備邏輯的文本。但其四大核心技術特性也引發了內容可靠性、真實性、客觀性、公平性等方面的諸多風險。ChatGPT的通用潛能和泛化能力使其超越了聊天機器人并日益展現出人工智能產業新型基礎設施的重要地位。正如陸奇所指出的,通用大模型帶來的是“新范式、新機會、新時代”。ChatGPT寓意著人工智能發展即將迎來范式拐點,模型通過將數據成功地轉化為知識表達,實現記憶、泛化功能,從而針對目標進行推理和規劃。這一范式將引領人工智能作為“行動”系統與環境展開互動,實現對物理、生物世界和人類社會環境的全面互動。伴隨著數字化程度的不斷提升,人工智能技術還將直接轉化為生產力。人類社會也即將實現從數據泛在、算法泛在的時代過渡到“模型泛在”的新時代。通用大模型將作為強勁的新引擎,不斷壓低知識產生的邊際成本,在產品業務、產業變革、能力開發領域帶來一系列新機會。縱然以ChatGPT為代表的大型自然語言模型在現階段存在諸多技術局限,衍生諸多法律風險,仍不可因噎廢食,在人工智能技術拐點期放棄對大模型的研發。在治理與創新雙輪驅動的理念之下,推進對生成式人工智能監管和治理的研究,積極應對其可能存在的問題和挑戰,引導新一代人工智能科技與應用負責任的創新是更為可取的路徑。基于這一治理目標,以下治理原則應成為生成式人工智能治理框架的底層邏輯和路線指南,指引監管范式的結構化革新。
(一)敏捷治理與韌性治理并重原則
在人工智能步入新的發展范式,迎來重要拐點的發展新時期,可以預見人工智能治理面臨的挑戰會日益攀升。生成式人工智能技術迭代的速率已經遠遠突破傳統科技的演化速率和上限,無論是算力的提升還是新模型新應用的開發,已經以日為單位迭代。生成式人工智能的嵌入性愈發明顯,開始超越單純的技術工具角色而發揮社會新型基礎設施和人工智能產業底座效應。與之伴隨,人工智能革命背景下風險社會所面臨的不確定性和動態性成為常態。因此,“全球人工智能的競爭已經從技術層面擴展到監管層面”。我國近期頒布的《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》)可謂全球首發,為生成式人工智能的全球治理提供了中國范本,也被認為是通過垂直切口對人工智能監管重點的迅速回應以及踐行敏捷治理的嘗試。“敏捷治理”是率先在軟件工程研發領域提出的概念,其內在邏輯是軟件應以敏捷方式盡快發布,同時以用戶為中心,通過反饋驅動軟件的迭代與優化,這樣其效果可以在早期就接受評估從而有助于效果的改進。該理念在世界經濟論壇上被提出,而后由公共管理學者闡發與充實并將其應用到人工智能治理領域。作為一種新的理論構想,敏捷治理原則雖然被我國《新一代人工智能治理原則——發展負責任的AI》和《新一代人工智能倫理規范》所吸納,但其理論內涵還不夠充實,且適用條件和實現機制尚未得到充分挖掘。尤其在人工智能發展范式已經步入規模化和工業化生產的時代,如何正確理解敏捷治理原則是重要且基礎的方法論。
敏捷治理雖強調扭轉被動滯后的回應式監管,卻不應將其僵化地理解為監管政策或者立法對新興技術和應用的簡單快速回應。在生成式人工智能嵌入式發展的當下,敏捷治理應首先強調承認治理對象的“不確定性”,應開發一系列輕量化、靈活性并以反饋為驅動的治理工具提升風險識別能力,應對人工智能技術快速發展中監管者和研發者“共同無知”的客觀挑戰,從而提升監管框架的自適應性。其次,敏捷治理強調治理規則體系的動態性和迭代性。對于生成式人工智能的潛在風險應開展持續的研究和預判,對已建立的治理框架開展及時的評估和驗證,以反饋迭代到后續治理框架之中。最后,敏捷治理還應與韌性治理(resilience govemance)并重推進。韌性治理強調治理框架的適應、恢復和轉型能力。人工智能的韌性治理要求監管框架具有“自適應性”,正視人工智能技術帶來的風險、沖擊和變化,在治理時并不追求絕對的“零風險”,而是強調通過精準化的制度設計引導構建處理復雜風險的管理機制,確保新興科技和應用的風險保持在最低可控水平。韌性治理強調面對技術風險時構建一整套靈活高效的風險處置能力,對“嚴重且可能發生的”風險場景科學研判,在風險發生后備以科學的應急計劃和快速響應機制。與敏捷治理的內在邏輯相一致,韌性治理還強調治理框架的動態更新和持續完善。通過在治理框架中創建反饋循環的信息接口,開發導向型工具評估治理框架與技術發展風險之間的配適程度。只有將敏捷治理與韌性治理深度融合,才可在應對人工智能快速變化、層出不窮的新問題時既避免不適當的超前立法,防范監管不當引發的創新失速風險,又能夠增強治理框架的適應性和實效性,形成治理與技術的良性共振。
(二)精準治理原則
生成式人工智能具有催生新技術、新產品、新業態、新模式,實現社會生產力整體躍升的巨大潛力,也是各國科技競爭的焦點和競相主導的重要領域。如前所述,當前人工智能技術競爭已經從技術賽道延伸至制度賽道。有證據表明,不適當的監管不僅可能抑制創新,還可能破壞人工智能創新生態,將中小企業擠出市場競爭。就我國AIGC產業格局而言,大模型生態不僅涉及底層的服務支持、算法平臺,還關涉一眾下游應用企業。目前在基礎層,雖然主要以百度、科大訊飛、騰訊、阿里、華為等頭部平臺為主力,但也不乏光年之外、Minimax等別具一格的中小企業“橫空出世”。可以說,大模型雖然是頭部企業的躍升契機,也同樣是中小企業智能化轉型和逆風成長的普惠性發展機遇。有鑒于此,更應秉持精準治理的原則構建精細化、梯度化的治理框架。就生成式人工智能而言,更應注重三個層次的精準性:
第一,治理對象的精準性。我國《暫行辦法》在第22條中對生成式人工智能技術的界定,相較于《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《征求意見稿》)第2條的描述,展現了更高的精準性。《征求意見稿》第2條將生成式人工智能定義為“基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術”。這一定義未能精準捕捉生成式人工智能的技術本質與特性,可能引發治理對象的模糊不清和相關規則間的沖突。算法、模型、規則之間并非是獨立并行的關系。算法是一系列定義明確的步驟或指令,是用于解決特定問題或者執行特定任務的計算過程,是實現模型和規則的基礎。模型是通過假設、變量等要素構成,根據已有數據和特定算法構建的抽象描述。而規則是用來指導計算機程序行為的指令或者規范,可以用于指導模型的構建和使用,確保程序的正確性和可靠性。三者之間相互關聯、緊密交織,難以拆分列舉。生成式人工智能具有巨量參數、海量數據、超大規模、通用潛能等核心技術特征。若將所有生成合成類人工智能均含括在內,將與《互聯網信息服務算法推薦管理規定》中規定的生成合成類算法以及《互聯網信息服務深度合成管理規定》出現諸多交叉重疊之處。《暫行辦法》中的定義一方面聚焦輸出端的技術特性,明確該技術應具有內容生成能力:另一方面也將焦點定位為模型及相關技術,更貼合生成式人工智能的技術呈現方式。但目前的定義也存在一些未盡之處。其一,《暫行辦法》中出現了生成式人工智能技術、生成式人工智能服務以及生成式人工智能三個術語。由于《暫行辦法》中并未明確“生成式人工智能”的定義,三個術語之間的關系可能需要進一步厘清。其二,生成式人工智能不僅可生成文本、圖片、音頻、視頻,還可生成代碼。“代碼”是否被默認屬于“內容”這一類別尚無法在《暫行辦法》中找到明確依據。相比于《征求意見稿》的定義,此次《暫行辦法》將“代碼”二字刪除,可能在一定程度上導致執行和落地層面的不確定性。
第二,治理方式的精準性。生成式人工智能作為一種成長和發展中的技術,其技術發展范式以及研發者的技術認知仍然處于探索之中。以前文提及的幻覺問題為例,由于具有幻覺性問題的文本不一定存在語法錯誤,相反,其可能看上去十分流暢自然,因此相較于語法錯誤更為隱蔽但風險更大。對于這一問題,目前常見的文本生成評估標準均基于單詞間的相似度運行,但幻覺文本影響的單詞數量可能非常少,故難以識別幻覺問題。雖然有一系列技術致力于該問題的解決,但重點均聚焦如何從文本評估和檢測方面著手展開。在現行技術發展階段,需要機器審核與人工評測相結合的方式共同加以應對。因此,鑒于技術的局限性和發展性,監管規則需要預留必要的容錯空間。雖然人工智能1.0時代強調全周期、全鏈條、全過程的治理,但就生成式人工智能而言,從結果視角提出合規要求可能更符合技術特性。從監管視角而言,希冀達成的目的在于防止生成的虛假或者不良信息產生相應風險,因此相較于“防止再次生成”的合規要求,可能要求提供者采取停止生成、停止傳輸等處置措施,同時輔以內容過濾和評測機制,對模型進行優化訓練,確保生成內容達到更高的準確性閾值是更為精準有效的監管方式。
第三,治理歸責的精準性。與傳統人工智能相比,生成式人工智能因三個特性引發歸責難題。其一,生成式人工智能基于深度學習模型,海量參數使其決策過程不具透明性。當其生成違法或者有害內容時,難以清晰界定內容生成的原因。其二,生成式人工智能在應用層面體現為用戶與模型的交互性。雖然模型在訓練后掌握了固定能力,但生成內容與用戶的提示詞以及用戶互動方式密切相關。例如,已有諸多案例表明用戶可以通過特定提示詞使得ChatGPT繞開開發環節設定的倫理限制,回答并生成違法及有害的內容。即使是GPT-4,也尚難以完全擺脫這一攻擊。因此,生成式人工智能的訓練并不具有迭代終局性。用戶與模型的每一次互動均會對內容產生交互影響。其三,AIGC行業中“模型即服務”的產業鏈條使得下游部署者通過應用程序接口或者模型壓縮的方式獲得L2層的垂直領域模型。而以OpenAI為代表的模型提供方則是在大量數據的L0層開發基礎大模型。因此,在該產業鏈條上會出現開發者、部署者、專業用戶、個體用戶、接受者以及第三方服務提供商等多個主體。由于該產業鏈具有云上協同部署、終端微調對接的特性,可能出現真正研發模型、對于模型安全具有終局影響力的主體并未與應用層的用戶發生交互。而在每一個具體場景中與用戶緊密互動的服務提供者對上游大模型卻不具有終局的技術影響力。因此,應結合生成式人工智能的生命周期、技術研發特性和產業鏈特點,制定更為公平精準的主體責任矩陣。
(三)參與式治理原則
伴隨著人工智能技術復雜性和績效性的提升,人工智能技術引發的社會風險日益凸顯,給技術治理和社會治理帶來諸多挑戰。為平衡人工智能創新與安全,人工智能治理逐步從單一的以國家為中心、以命令和控制為核心的“硬法”模式向基于多中心主體參與的,以協同性、動態性、分層性、復合型為特征的新型治理范式轉變。將生成式人工智能的研發者、部署者、用戶、公眾以及第三方專業機構納入到治理網絡中不僅是踐行人工智能協同治理的重要方式,還是踐行以眾包為內核的開放式治理創新的重要路徑。生成式人工智能是高度交叉復合、快速飛躍發展的新興技術領域。基于下列三個原因,生成式人工智能的治理挑戰更大,復雜度更高,更應探索包含公眾、企業和第三方專業機構的參與式治理。
首先,生成式人工智能的產業生態不同于傳統人工智能“作坊式生產”的傳統架構。大模型的基礎設施和底座效應打破了人工智能1.0時代研發、部署、運營主體清晰界分的格局。生成式人工智能的產業鏈上存在開發者、部署者、專業用戶、個體用戶、接受者以及第三方服務提供商等多個主體。從這一視角來看,數字內容生產者和提供者已經突破了知識和技術的壁壘,擁有資金、技術、數據優勢的平臺企業已不再是唯一的服務提供者。
其次,自下而上、用戶驅動的治理以用戶同模型的交互體驗為基礎,能夠實時、動態、持續地反映真實環境中的應用風險。用戶驅動的人工智能治理更能幫助監管者和設計者在日常、真實的交互中發現利益攸關影響節點,更能捕捉技術精英因專業知識結構同質化而產生的審計盲區,從而發揮“參與式治理”的制度優勢。基于此,可以看到無論是ChatGPT,還是文心一言和星火大模型,均就內容生成為用戶設置了便捷的反饋入口,希冀借助用戶的反饋更好地對模型進行迭代和優化。
最后,傳統科層制的監管架構具有“自下而上”的傳導式治理特征,可能存在反應速率不足、應對風險措施僵化等問題,將不可避免地需要社會專業組織構成多中心協作網絡,群策群力地應對生成式人工智能技術帶來的風險。相較于個人用戶,專業組織能夠克服個人因時間精力和知識不足而導致的追責弱勢地位。其不僅可以提供獨立的技術評估、審查和監督,還可推動建立評估方法、制定行業準則,并提供專業的咨詢和建議,以推動生成式人工智能的可持續發展和社會責任。尤其當新興技術和應用出現時,專業組織能夠在硬性監管介入之前充當風險紓解和緩沖的有效地帶,對于人工智能治理具有不言而喻的重要作用。也正是基于參與式治理在生成式人工智能治理中的重要作用,最大限度地發揮參與式治理的潛力和優勢已經成為治理共識。例如,美國白宮總統科技顧問委員會近期成立了生成式人工智能工作組,其成立后的首要舉措便是邀請公眾就生成式人工智能監管的五大核心議題提交意見,最大化地汲取各方觀點,以參與式治理路徑推動生成式人工智能監管框架的形成。面對生成式人工智能,多中心、多主體的參與治理模式可以增加透明度、減少潛在偏見和不公,并為生成式人工智能的進一步發展提供良好的治理生態。
三、面向產業生態鏈的新型治理范式:人工智能生成內容的治理邏輯
生成式人工智能徹底顛覆了數字內容領域。其改變了Web 1.0時代,信息僅以“只讀”模式傳遞給用戶以及Web 2.0時代信息通過網絡在用戶間雙向生產和流動的方式。在這兩個時期,人類仍然對信息的生產、編輯和流動發揮著實質性影響力。但在AIGC時代,人類對信息生產、編輯和流動的掌控力不斷銳減。人工智能開啟了知識生產和信息生產的新紀元。另一方面,生成式人工智能推動了“人工智能即服務”(AIaaS)和“模型即服務”(MaaS)兩種新型產業生態的涌現。平臺企業突破和擴展了原有邊界,在生成式人工智能語境下,不斷從中下游平移至上游,從之前的單向度資源整合者拓展為通過插件(plugin)和應用程序接口(Application Programming In-terface,API)實現多向度賦能的資源調配者。抓住信息生產變遷和產業鏈變遷這兩個本質特征,結合敏捷治理與韌性治理、精準治理與參與式治理原則,本文提出面向產業生態鏈治理的新型治理范式。結合AIGC產業鏈的三種核心模式,未來的生成式人工智能內容治理應從基于API的模式、基于插件的模式和基于模型垂直部署的模式協同推進。
(一)基于API的治理
所謂模型即服務,就是通過基于模型的調用量進行收費。該種運行模式適用于底層大模型和中間層模型的商用化落地,按照數據的請求量和實際計算量確定模型調用量并進行收費。這種方式也是大模型向外賦能,降低人工智能規模化部署成本,進一步推動人工智能步入工業化發展階段的核心模式。有研究表明,模型即服務的營收模式預計在2027年將成為AIGC產業鏈條的主流模式。以ChatGPT為例,其于2023年3月2日開放了應用程序接口,面向企業和開發者用戶提供服務。OpenAI通過允許開發者用戶登錄其網站來調用服務。付費后,用戶僅需少許操作即可完成配置,進入本地運行或者云端部署。距離其開放僅三個月,已經有辦公軟件、社交文娛、商業營銷、家庭助理等多個場景的應用接入其中。在這一模式之中,用戶可以通過慣常方式調用,也可引入專用容量對模型系統性能進行更深入的控制。
在技術機理上,OpenAI在基礎層先行使用大規模未標注數據訓練模型,使之學習和獲得通用能力。中間層的部署者則需要微調(fine-tune)基礎模型。微調是指在已經預訓練好的模型上,根據新數據對訓練過的模型開展訓練,或者調整現有模型,以適應特定任務的技術配置過程。微調可以使用較少的標注數據在相對較短時間內完成模型訓練,但也可能調整預先存在的模型參數。在各主體的技術能力和控制能力上,位于基礎層的大模型是超高算力、海量數據、高效算法相結合的產物,需要雄厚的資源與科研實力,多集中于科技巨頭以及部分科研機構主體。位于中間層的部署者更多體現為中小型公司和創業公司。而在應用層,則存在專業用戶和非專業用戶以及廣大的生成式人工智能接受者等多個主體。基于API鏈條下的部署特點,在內容治理層面需要注意以下幾點:
第一,Maas模式上中下游之間的風險視角存在差異。基礎模型的開發者可能與在特定場景下微調后的部署者和應用者存在風險認知偏差。人工智能內容生成的具體風險在不同的價值鏈環節呈現不同面向。例如,基礎模型在翻譯任務中的精度偏差僅是關涉技術指標的問題。但當下游部署者將其用于翻譯藥品說明書或者醫治方案時,則任何有偏差的內容均可能對人身安全存在巨大風險。在這種情形下,下游部署者存在對人工智能生成內容的人工審核義務。第二,API運營模式下風險既可能來自于基礎模型,還可能來自于中間層和應用層,這使得風險識別與衡量復雜化。大模型開發者、中間層部署者以及應用層使用者可能使用的風險指標或者衡量方法并不一致。即使中下游主體發現了內容生成技術上的缺陷,由于基礎模型不具有透明性,中下游主體也難以從技術架構上展開實質性迭代和調優。第三,中間層的部署者更多是中小企業或者個人開發者,其可能尚不具備完善的內部治理結構和風險技術保障。如果基礎模型對應的單點工具產生錯誤信息和偽造信息,可能會嵌入其他場景和產品的產業鏈條之中將錯誤和偽造信息由傳統的“一對多”轉為“多對多”模式傳播。用戶端不僅難以甄別生成式人工智能產生的信息質量,對信息的證實滯后性明顯,用戶群體還可能成為新的信息源,傳播規模和傳播速度難以控制。基于API運行模式的三種風險特征,各主體應圍繞人工智能生成內容安全履行相關治理義務:
首先,位于上游環節且具有全棧技術能力的基礎模型開發者在訓練環節應履行數據公平保障義務和數據準確保障義務。如前所述,數據集對于模型輸出至關重要。因此,無論數據集是自行收集、使用開源數據集還是通過第三方數據經紀商購買,大模型研發主體均具有一系列數據公平保障義務和數據準確保障義務。雖然人工智能系統多依據統計建模,難以在現有技術條件下達到100%的統計精度,但仍可通過正確標記的測試數據為基準對系統輸出正確答案的頻率進行測量,從而衡量人工智能準確性。因此,當訓練數據中包括個人信息時,應遵循數據準確性原則,即確保數據準確無誤并在必要時及時更新。即使當訓練數據采取的匿名化措施不包括個人信息時,開發者仍應采取一切合理措施保障訓練數據集的合法合規性、多樣性、一致性和可靠性。
其次,位于上游環節的基礎模型開發者具有信息披露義務。正如歐盟《人工智能法案》最新折衷草案所指出的,鑒于人工智能系統價值鏈的性質和復雜性,基礎模型開發者具有信息義務,為潛在的下游供應者提供所有必要的技術文件。結合生成式人工智能產業鏈特性,上游開發者應當對API、Manifest文件、認證等關鍵開發步驟信息、部署環境配置說明、模型性能、擴展和調整性能指導、故障排除、更新維護以及特定應用環境下的風險警示等內容加以披露和說明,為中下游部署者構建配適的風險管理機制加以必要的信息支持。與此同時,監管者應當和技術社群合作共同制定技術設計和信息披露的標準與指引。
再次,位于上游環節的開發者具有持續追蹤和評估基礎模型應用風險的義務。基礎模型的開發更像是在實驗室或者受控環境中進行,在部署和應用環節等實際運營環境中可能會出現預期之外的風險。加之大模型具有較低的透明度,上游開發者在開放API接口時,應圍繞技術維度、應用維度、救濟維度和影響維度開展算法影響評估并持續跟蹤部署和應用環節可能產生的風險。
最后,位于中游和下游調用API服務的主體也應當參與到治理生態之中。不僅應遵照法律法規和使用協議合法部署,還應協同配合上游開發者履行人工智能生成內容的標識義務。生成式人工智能極大解放了信息生產的效率,對中下游的部署者和用戶賦能,使得“人人都是程序員的時代”提前到來。從這一角度而言,數字內容生產者和提供者已經突破了知識、技術、資金的壁壘。因此,在AIGC產業鏈條中下游的從業者、工具開發者、媒介和受眾均應納入到治理網絡之中,從信息源頭履行及時規范的識別義務,共同營造清朗健康的內容生態。此外,由于部署者是最為清晰知曉生成內容質量和應用場景的主體,其還應提供便捷的用戶反饋渠道、及時評估模型生成內容的質量以及創建必要的人機協同內容過濾和審核機制,以合理化措施保障最終生成的內容符合應用場景的風險預期。
(二)基于插件的治理
在AIGC產業鏈條上,構建基于插件式架構的大模型平臺是繼API模式之外的另外一條生態路徑。插件式架構系統是一種兼具開放性和高擴展性,通過松散耦合方式互聯的架構設計體系。基于插件式架構設計,可以把擴展功能從宿主框架中剝離出來,降低框架的復雜度。從技術功能視角來看,插件可分為類似命令插件、腳本語言插件、程序環境插件以及聚合式插件四類。為迅速成為超級流量入口,構建AIGC生態帝國,ChatGPT一方面將其自身插件化,集成應用至Microsoft Edge瀏覽器等工具之中,借助集成應用和工具界面向原生應用用戶輸出內容,迅速擴展其應用和輻射范圍。另一方面,OpenAI邀請第三方協同開發插件商店,允許ChatGPT Plus用戶訪問并使用超過70個涵蓋購物、房地產、股票、旅游、餐飲與外賣等多應用場景的第三方插件。在這一模式下,GPT內部插件帶來優于外部原生應用的用戶體驗,用戶的使用場景可直接遷移至GPT模型內部。通過該種方式吸引更多用戶,迅速補齊各類場景的數據,形成同頻優化的新生態。目前,OpenAI的插件通過ChatGPT連接到自有或第三方應用程序,增強ChatGPT的功能并允許其執行范圍廣泛的操作,包括獲取最新實時信息,執行代碼、計算或數據處理任務,與第三方集成協助用戶執行任務等。在“對話+插件”運營模式下,大模型單點工具能夠依據應用類別、應用場景及時轉換為多模態的應用工具,并直接對外部服務執行操作。這一模式下用戶的使用場景得以遷移到大模型內部,大模型演變為接駁多場景應用插件的集成平臺。
插件有如大模型的“耳目”,將大型語言模型連接到外部工具并帶來一系列新機會。與此同時,插件生態也“引發新的重大風險”。插件接人使得大模型同其他系統交互的同時也構建了全新的、更大的復雜人機交互系統,由此帶來真實、不確定外部環境互動下的增量風險。聚焦于人工智能生成內容的治理,插件模式可能帶來下列風險:第一,用戶易對生成內容產生過度依賴。與垂直使用模式不同,插件一方面對大模型賦能,另一方面大模型也可以插件模式集成到用戶熟悉的應用場景之中,兩種形式均會擴展用戶與大模型的交互范圍,可能產生過度依賴,致使用戶內容驗真意識與批判性思維降低,產生盲目信任模型生成內容的風險。第二,插件接口增加了網絡安全攻擊威脅。OpenAI的內部模擬顯示,如果在沒有保護措施的情況下發布插件,不法分子可通過執行復雜的提示語注入行為繞過安全、倫理限制,向插件用戶發送欺詐性、垃圾信息。第三,內容生成的風險會通過插件系統跨域蔓延。插件系統的開放性和嵌入性形成“模型泛在”的效果。大模型與各類跨域場景和應用構成了復雜交互的新型生態系統,使得內容可靠性、公平性、真實性、涌現性風險串聯蔓延。與API模式有所不同,插件路徑更多面向個人用戶,風險更易集中于插件部署前的安全、倫理、法律審查和部署后的實時、互動的內容輸出環節。
鑒于插件路徑下的復雜生態,更應將AIGC產業鏈上的所有主體納入到內容生態治理網絡之中,針對風險產生的不同時點、環節采取對應性的治理措施。具體而言,在插件部署應用前,位于上游環節的開發者應開展個人信息保護影響評估、科技倫理審查以及算法影響評估,制定安全可信的插件接入審核標準和審核機制。插件應用開發者應依據相應標準對插件應用效果進行測試,保障提供符合安全標準和倫理標準的插件服務。在插件部署應用環節,開發者和部署者應從全鏈條視角履行風險提示義務并對虛假信息的生成展開系統性治理。一方面,對于有關醫學、金融等高風險場景的內容生成,不僅應清晰標識該信息為人工智能生成,還應以顯著方式做出風險提示。另一方面,大模型開發者作為插件生態的“平臺化主體”,還可積極研發提升信息可信度的工具和技術。誠如所言,我們應從一開始就將社會影響和倫理設計深深地融入基礎模型及其周圍生態系統的技術開發之中。大模型開發者在構建生態圈時,還應一并研發設計增進人工智能可信性的治理工具。例如,谷歌目前開發的人工智能生成圖片識別工具可以提升AIGC技術的透明度.幫助用戶區分人工智能生成內容。其開發的Perspective API等工具,以自動對抗性測試的方式輔助降低模型生成有害內容的可能性。在模型設計環節,谷歌還將水印直接嵌入生成的圖像內容之中,即使對其進行后續修改和合成,該水印也會持續存在。
(三)基于模型垂直部署的治理
在AIGC領域,第三種也是更為常見的產業運行模式是基于模型垂直部署的軟件訂閱付費模式。該模式下由大模型開發者作為面向企業用戶和個人用戶的提供者,以頁面程序方式和用戶互動,通過迭代問答式數據反饋,按照軟件提供服務的特定周期收取相關費用。以OpenAI為例,ChatGPT Plus版本每月收費20美金。訂閱用戶可以獲得高峰時段優先訪問、模型快速響應以及新功能的優先使用資格。在大模型開發者直接面向用戶垂直部署的模式下,人工智能生成的內容在模型與用戶之間通過輸入提示語的方式直接生成。因此,大模型開發者也是內容提供者,應從全周期視角履行積極合理的內容生成義務。
首先,在基礎設施層,大模型開發者應履行數據質量義務。自然語言生成的“幻覺”問題主要由于訓練語料中包含了錯誤事實。這些錯誤知識被模型學習并存儲在參數中。當模型生成文本時,會優先考慮自身參數化的知識,因而傾向于生成幻覺性內容。因此,大模型開發者應當構造高質量數據集,包括對自行收集和交易購買的數據集實施數據去噪、引入高質量知識庫進行知識增強等方法提升訓練語料的質量,降低數據引發的文本幻覺問題。此外,大模型開發者還應從信息的完整性、準確性以及抗攻擊和篡改能力對訓練數據集開展定期評估,在涉及特定主題或者概念時,應衡量訓練數據集的相關性和一致性。
其次,大模型開發者應秉持全周期視角履行內容評估義務。對話任務可分為任務型對話和開放域對話。任務型對話已經有較為一致的評估方法。但對于開放域對話,目前尚無一致的評估機制。大模型開發者可根據模型技術特性和應用場景特性定期開展內容評估。例如,圍繞可讀性、準確性、一致性、原創性、目標受眾的適當性、生成結果的效率性、模型在不同輸出層面的可擴展性等維度構建人工智能生成內容的評價基準,綜合運用基于統計方法、模型方法和人工方法開展定期評估和內容審核。
此外,大模型開發者應對終端用戶履行一系列信息披露、風險警示和使用指引義務。這不僅包括大模型開發者通過清晰標識和風險警示提示用戶人工智能生成內容的可靠性風險,還應建立便捷易用的用戶反饋渠道。在垂直部署模式中,用戶的反饋對于模型迭代優化至關重要。大模型的研發不僅應在設計階段納入人類反饋,在部署和運行階段也要持續地將用戶反饋納入迭代環路之中。例如,可依托A/B測試框架實現用戶反饋的評估,通過研究人員、開發人員與用戶一起測試輸入,深入評估內容輸出模型參數設置的有效性。與此同時,與一般的人工智能應用有所不同,大型自然語言模型的提示語對于激發模型性能,使其更好發揮解決問題的能力具有至關重要的作用。提示語是指用于觸發特定反應的輸入信息。用戶在與大模型互動時所提供的問題、語句或者場景,用以引導人工智能模型生成相應回答和行動的輸入信息即為提示語。例如,針對大模型不會“慢思考”,過快給出結論的問題,當使用正確的提示語,引導模型先嘗試給出步驟,再推導得出結論時,就會得到更為準確的輸出結果。一項最新研究顯示,大型語言模型可通過逐步思考(chain of thought)的方式解決多步推理任務。當使用正確的提示語時,即使并未微調模型,也可激發其推理能力,尤其在涉及數據或者推理等復雜任務時,其能夠顯著提升大型語言模型的性能。因此,大模型開發者在垂直部署時,有義務給出清晰易懂的描述和使用說明,為用戶提供必要信息正確掌握與模型互動的方法,提高模型輸出的可靠性和準確性。由此觀之,我國《暫行規定》第10條要求生成式人工智能服務提供者明確并公開其服務的適用人群、場合、用途,指導使用者科學理性認識和依法使用生成式人工智能技術具有前瞻性和合理性。
結語
伴隨著人工智能技術的飛速發展,通用人工智能的星星之火光芒閃爍、初露端倪。借助首發優勢,ChatGPT正從“數據飛輪”邁向“智慧飛輪”,有望進一步釋放實現人機共智的巨大潛能。一旦大型自然語言處理模型突破內容幻覺的技術瓶頸,其勢必能夠賦能千行百業,廣泛嵌入社會經濟生活的方方面面。正如陸奇所指出的,大型自然語言模型帶來的是一個充滿新機會、新范式的新時代。當下既是人工智能技術的“奇點時刻”,也是人工智能治理的“關鍵時刻”。在人工智能技術飛速創新的拐點時刻,如何實現技術治理的結構性革新是一項擺在時代面前的重要命題。這一新型治理范式的實現不僅需要遵循人工智能技術的機理與規律,還需順應人工智能產業生態的結構與特征。隨著平臺企業突破并擴展了原有邊界,從之前的單一資源整合者轉變為通過插件和應用程序接口實現多維度賦能的資源調配者。本文提出了基于API、基于插件和基于模型垂直部署三種模式的治理架構。在未來,如何在該三種模式下探索構建更為精細準確的歸責矩陣將成為撬動生成式人工智能治理最為關鍵的基礎性杠桿制度。面對這一議題,有待于學界同仁攜手展開進一步的深入探索。
(責任編輯:王玎)