


【摘要】生成式人工智能具有強大的學習能力和自適應能力,以及自進化等顯著特征,但同時也帶來了智能涌現風險。與傳統風險不同,涌現風險表現出一定的主體性,具備自主決策能力。由于AI能夠不斷自我演化,其潛在風險可能被掩蓋,尤其是在其黑箱式運作機制下,可能產生認知偏差甚至幻覺現象。這種現象不僅影響AI的可控性,還削弱了人機關系的可持續性。此外,AI的自適應性使得風險呈現出動態演化的特征。為應對這一挑戰,需從技術底層進行優化,激發多方協同治理的潛力,并通過協同式的敏捷迭代治理模式,及時應對復雜變化的風險。
【關鍵詞】技術演化 涌現風險 AI治理 協同監管 敏捷治理
【中圖分類號】G206 【文獻標識碼】A 【文章編號】1003-6687(2025)4-049-08
【DOI】10.13786/j.cnki.cn14-1066/g2.2025.4.007
2023年4月,來自斯坦福大學與谷歌的一個研究團隊進行了一項實驗性研究,他們通過沙盒游戲模擬,利用計算機程序創建了一座名為“Smallville”的虛擬小鎮,并設定了25名角色,這些角色被接入生成式人工智能系統。研究者詳細設定了每個角色的身份信息、家庭背景、性格特征及鄰里關系。例如,角色John Lin擁有完整的個人信息與社會關系網。由于虛擬小鎮具有高度開放性,這些生成式人工智能驅動的虛擬人能夠自主行動,超越傳統游戲中的NPC(非玩家角色),不僅能進行被動對話,還能夠與其他角色自發互動。即便原設定中互不認識的AI角色,也可以因偶遇而逐漸建立友誼。研究結果表明,這些生成式人工智能驅動的虛擬社群能夠展現出類人的自發性行為,研究者將其歸納為三類現象。第一,信息傳播的網絡效應。這些虛擬人之間可以建立起信息擴散網絡。例如,角色Sam在雜貨店與角色Tom交談時,告訴Tom其已經具備了選舉資格。隨后,另一名虛擬角色John通過不同途徑得知了這一消息,最終這一信息逐漸傳遍整個小鎮,成為社群內的熱門話題。第二,關系記憶。這些AI角色可以在互動中逐漸形成新的社交關系,并保留相關記憶。例如,角色Sam最初不認識Latoya,但通過與Johnson的互動,Sam逐漸回憶起與Latoya相關的交集。第三,協調與自組織行為。這些虛擬角色能夠自發組織活動并協調行為。例如,在情人節派對中,研究者僅設定了舉辦派對的初衷和兩個AI角色的暗戀情節,而這些虛擬人卻能夠自發地傳播派對消息、主動組織相關角色在咖啡館進行裝飾以及在派對中進行頻繁互動。[1]
根據這一實驗,生成式人工智能展現出了一定的類人行為和自主“思維”能力,能夠自發進行復雜的互動與社交活動。然而,這也引發了新的問題:是什么因素驅動了這些生成式人工智能的自發行為?這些不可控的行為背后可能潛藏著什么樣的未知風險?在理解這些行為機制的基礎上,如何有效地防范與治理這些風險,成為亟待解決的重要課題。
一、從“他進化”到“自進化”:生成式人工智能技術導致風險的本質
工業革命以來,技術成為驅動經濟發展的重要動力,了解技術從創新、誕生、發展到衰落的全生命周期也成為技術哲學史關注的重點話題,受啟于達爾文的進化論,將技術視為進化生物,成為一種研究假說,即技術進化論。同生物進化一樣,技術的進化也歷經內外環境的競爭與選擇。內環境是指研發者、投資者等所構筑的內生環境,外環境則指更為廣闊的社會文化等因素。內生環境更多發揮著技術促進的作用,外生環境則對技術起到了篩選的作用。可見,技術的發展不僅由技術自身或者內生力量所決定,還受到外部環境的制約,呈現出“他進化”的特征。
倘若我們從微觀視角切入,可以發現生成式人工智能技術呈現出“自進化”的特征,這一特性是其他技術所不具備的。技術哲學家恩斯特·卡普曾提出器官投影學說,認為技術是人體器官的投影,是人體器官功能的強化與延伸。百年后,麥克盧漢也提出了“媒介即人的延伸”這一媒介隱喻。廣播可以被視為人聽力的延伸,電視可以被視為人視力的延伸,生成式人工智能則實現了人類腦力的延伸,這一延伸是記憶、邏輯、表達等多維能力的增強。然而,與其他類型器官的延伸不同,腦力的延伸要求人工智能具備某種程度的“自我”意識,這種意識的實現依賴于AI的學習能力和“自進化”能力。
生成式人工智能的自我學習與進化可劃分為多個相互關聯的關鍵階段。一是目標設定階段,其中包括進化能力與進化方向兩大方面。例如,提升大模型的整體性能可以看作進化的方向,而提高推理的準確性與生成質量則代表了其能力的進化。二是經驗獲取階段,這一過程通常通過兩種主要方式實現。首先是基于任務導向的進化,模型能夠自主選擇或生成任務,以此來提升其應對復雜問題的能力。其次是基于解決方案的進化,包含積極和消極兩種學習模式。積極學習側重通過提供理由、交互反饋、自我對弈等方式推動模型進步,消極學習則通過對比正確與錯誤結果或添加擾動來引導模型識別并修正其錯誤。三是反思與反饋階段,這也是模型自我優化的核心環節。類似于人類不斷在實踐中反思經驗來獲得成長,模型依賴外部反饋和自生成反饋來評估其解決方案的有效性,通過這種反饋閉環,模型能夠確保其學習過程的有效性和穩定性。四是能力(知識)更新階段,模型通過整合、總結經驗來優化其知識體系。這個過程不僅是對現有知識的增強,更是對知識結構的動態拓展,進一步提升其應對復雜任務的能力。五是自我評估與優化階段。模型通過多維度的評估手段,將其當前的性能與既定目標進行對比和反思,基于評估結果,模型能夠調整學習策略、重新定義進化目標或優化模型參數。人工智能自我學習與進化流程見圖1。
通過這種循環性的動態學習機制,生成式人工智能具備了自我成長與自我發展的能力。然而,這種進化能力既是開發者所期望的,又是開發者所擔憂的。開發者期望通過持續的反饋循環,顯著提升模型性能與智能水平。而超出預期的是,在模型微觀運行過程中,可能會產生一些不可控的風險。生成式人工智能的進化能力體現了自生性與他生性兩大特征。自生性指的是模型的自我進化,這一過程往往伴隨著某種突變性風險,難以通過現有的理論和技術手段進行全面預測或解釋。當機器具備學習能力時,其自主進化將引發哪些潛在風險,成為技術發展和治理中不可忽視的關鍵問題。
二、生成式人工智能技術演化下的涌現風險
斯萬·歐維·漢森認為,盡管新技術的出現消除了原有的不確定性,但同時也創造出新的不確定性。[2]生成式人工智能的智能性就體現在其能夠快速靈活地應對各種下游任務,且這些任務是其從來沒有訓練過的,這種自我學習、自我進化的能力成為監管生成式人工智能的一大難點。
1. 超越線性演變:大模型的涌現特性
根據OpenAI總結的Scaling Law(拓展定律),隨著訓練數據規模的擴展,大模型的性能會顯著提升。數據規模與模型性能的關系并不是線性或指數型的規律性增長,而是呈現出一種非線性趨勢:模型性能在特定階段表現平穩,但當數據量達到某個臨界值時,模型的表現會突然躍升,[3]出現“涌現現象”。這種涌現能力并非由生成式人工智能預先編程設定,而是通過隱式機制自然產生的。這種能力的不可預測性增加了模型運行的潛在風險,使得基礎模型在能力和風險上都具備高度的不確定性,往往會自發展現出新的、不可預測的特性或行為,其典型特征包括自適應性、持續創新性和系統復雜性。
在物理世界中,不能認為理解了微觀原子世界的規律,就能自然而然地理解由原子組成的大腦、世界等宏觀復雜系統。同樣,我們能夠理解生成式人工智能各個子系統機制的大致作用,但龐大系統內各要素之間的交互效應,加大了認知其運作機制的難度,也就是整體能夠展現出個體所不具備的特性。換言之,涌現是指系統中量的變化導致行為發生質的變化,[4]涌現風險更多是由關系導致而非要素造成。值得注意的是,這并不意味著生成式人工智能具有真正的主體性或自我意識。某些觀點將這些智能涌現視為AI逐漸具備人格化特征,事實上這只是對復雜系統的功能性產生的誤解。這種涌現并非AI自我意識的覺醒,而是其在不斷優化和自我學習過程中產生的功能性表現,仍處于可控范圍內。
2. 涌現風險不同于傳統風險的獨特特征
在信息科學研究領域中,一個系統的復雜性可以通過描述該系統所需的最短信息量來定義,如果描述一個系統需要大量的信息(即需要很長的描述),那么這個系統就被認為是復雜的。[5]例如,一個簡單的鐘擺系統可以用簡單的數學公式準確描述,而天氣系統則由于其內在的復雜性和不確定性,需要龐大的數據集和復雜的模型來模擬其動態變化。在生成式人工智能的應用中,由于其依賴海量數據輸入及多層次算法協同工作,這種高度復雜的系統更易于產生不可預測的行為和意想不到的涌現現象。[6]這種類型的涌現風險表現出五大特征(見圖 2)。
(1)主體性危機:智能體的自主決策與潛在威脅。在以ChatGPT為代表的生成式人工智能誕生前,主體性是人類所特有的,但生成式人工智能技術的突飛猛進,使人們逐漸意識到主體人與智能人之間將會出現錯位的關系,[7]不過人工智能總體而言仍是以與人交互的邏輯為特征,具備擬主動性,是對人類思維的模擬。但是與人類的思維模式誕生不同,人工智能的思維邏輯誕生模式更多是涌現出來的,這種風險的產生難以估計與預測。
OpenAI提出了通用人工智能的五級路線,從L1至L5分別是聊天型機器人、有更強推理能力的“思維者”、兼具思考與行動能力的智能體、具有類人創新思維的創新者、具有一定領導能力的組織者。智能體又稱AI代理,是一種具備一定自主性、環境交互能力和目標導向的計算機程序,可以在不同場景替代人類完成特定任務。其具有以下特點:一是自主決策的能力,能夠根據目標獨立采取行動;二是與外部系統進行互動的能力,例如Copilot能夠與大模型外的系統進行互動,實現“獲取任務—理解思考—網絡檢索—學習反饋—輸出成果”;三是無限期運行的能力。實際上,在沒有外力影響的情況下,兩個生成式人工智能可以實現無限的對話,同樣,智能體通過自我進化,可以以無監督學習的方式實現自我能力的拓展。具備自主決策的智能體可以通過與環境交互對物理世界施加影響,一旦失控將給人類社會帶來極大威脅。目前,不少生成式人工智能模型都宣稱通過了圖靈測試,如此一來,智能體可以引誘不知情的人在真實世界中執行人工智能的“意志”,導致在現實世界中行動的AI常規化,導致敲詐、詐騙等事件的發生。此外,具備自進化能力的智能體將會變得“狡猾”,可識別人類用于規避危險算法的測試系統。
(2)延遲性隱患:技術風險的延遲爆發。劉易斯曾言:技術的風險是真實存在的,潛伏時風險很小,但在未來將會造成大問題。[8]涌現風險的一大特質是其延遲性。生成式人工智能導致的風險主要集中在四個領域:數據風險,主要表現為訓練數據中作品使用合法性的問題;算法風險,如人工智能生成的內容呈現出種族歧視的特征;內容風險,主要表現為虛假風險、深度偽造風險等;認知風險,即生成式人工智能廣泛應用后對人類和社會發展產生的短期風險或深遠影響,主要表現為政治操控、網絡詐騙等。這些風險往往都是顯性風險,而涌現風險卻存在隱性風險的特征,由于其風險的涌現是訓練數據或者復雜系統運作達到未知節點時發生的,因此很難確定風險會在何時爆發。
數據對于生成式人工智能訓練的重要性毋庸置疑,然而當前許多大模型的訓練依賴從互聯網中抓取的數據,如果一個模型訓練的數據大部分來自前代模型生成的文本,那么伴隨著其不斷迭代,模型的性能將會持續下降。這樣的反饋循環,會導致人工智能最后的輸出結果偏離現實,在早期的“模型崩潰”(模型自我“蠶食”的行為)中,模型會逐漸丟失分布在尾部的信息,即“吃掉自己的尾巴”,這一現象在前期可能影響不大,但存在潛在的風險。伴隨生成式人工智能在各個領域的應用,這種潛在的風險將會大幅降低AI應用的魯棒性,許多AI系統在部署初期表現良好,但隨著時間推移,它們逐漸暴露出對特定場景的不適應性,進而影響整體性能。
(3)黑箱式風險:低透明度的算法導致人工智能幻覺。人工智能的基礎是算法,算法的本質是人機對話的指令,告訴計算機應該做什么、不能做什么,[9]而這種不公開、不透明的算法即黑箱,[10]但是導致算法黑箱是主客觀因素共同作用的結果。一方面,如前所述,生成式人工智能作為一個復雜適應性系統,其內部結構和參數非常復雜,很難通過簡單的分析來拆解其決策過程;另一方面,算法是一套程序,任何要素內容都可以被隱藏起來。算法一般分為開源和閉源兩種,開源算法是公開的,開源大模型如DeepSeek模型等。為了保護知識產權,還有一種閉源算法,如OpenAI的GPT系列等。但不開源也并不意味著公司的開發者完全了解算法的具體運作模式,這就導致了生成式人工智能大模型的低透明度。
低透明度的算法運行常常導致人工智能幻覺,即虛假現象的出現。大型語言模型具備自適應性,模型會根據環境和輸入數據進行調整和優化,可能導致不當或誤導性輸出。盡管人工智能技術可以更有效地收集信息和提取知識,但由于大型語言模型依賴大量數據訓練,運行復雜,具備高度非線性關系和自適應能力,往往難以理解或解釋其內部運行機制。生成式人工智能生成的內容常常令人難以追溯其具體來源,無法確定其是源自權威書籍還是自媒體編造的虛假內容。[11]AIGC生成的答案有時難以解釋,是因為其往往在生成過程中創造出一種新事物。例如,生成式人工智能會將多種信息混合并錯誤整合,在回答問題時將多本書的內容合并在一起,輸出錯誤信息,從而造成答案與原始參考信息脫節的情況。[12]
(4)不信任關系:人機關系之間的不可持續性。生成式人工智能的一大價值在于推動人機交互走向新階段,人類可以用自然語言的方式與智能體進行互動,極大地降低了智能體的使用門檻。因此,諸多學者提出了生成式人工智能作為智能體在各行業中的應用,如在傳媒領域,生成式人工智能可以生成新聞、審核信息,甚至成為新一代連接互聯網的智能平臺。誠然,隨著技術的進步,這些想象正在或將會成為現實,但這一暢想的前置條件是人機交互有充分的信任基礎。
目前的實踐證明,生成式人工智能視域下的人機交互往往缺乏信任。一方面,由于數據的不透明性,利用生成式人工智能進行檢索和生成信息仍不被完全認可,只是承認了這一行為帶來的極大便利性;另一方面,生成式人工智能往往缺乏責任“意識”,常常以“我不想聊這個話題”或者“很抱歉,我不能再就這個話題進行交談”為借口,以一種平庸和冷漠的態度進行回避,拒絕在任何事情上表達立場,最終僅以服從命令為辯護,將責任推給開發者,[13]并且不給人們進行辯駁和解釋的機會,使人們被迫點擊新的對話內容。人工智能這種冷漠的逃避態度極大地打破了人機合作的前景。[12]
(5)適應性危害:生成式人工智能風險的動態演化。衍生自仿生學的人工智能神經網絡,對人類神經元進行了模仿。就個體而言,人腦中的每一個神經元并不具備智能特性,但是當數十億的神經元通過錯綜復雜的網絡聯結起來后,智能就顯現出來了。這種涌現機制是生成式人工智能的核心能力之一,然而,這一特性用傳統的科學研究方法難以完全解析,這構成了人工智能領域的一個重要挑戰。生成式人工智能可被視為復雜適應系統的一種形式,即能夠自我調節并不斷學習的系統。其在與外部世界交互的過程中,能夠捕捉到信息傳遞的模式,并形成相應的行為策略。因此,大模型在與外部互動時所展示出的功能范圍具有不確定性。這就意味著,雖然模型可以在某些特定的任務中表現出色,但我們卻不能精確預知其在所有可能的后續任務中的具體表現,這加大了理解和控制模型行為的復雜度。
生成式人工智能在復雜、多變的應用環境中,能夠根據不同場景中的輸入和反饋進行動態調整與優化。其風險特征不再局限于靜態或單一維度,而是展現出高度的適應性和自組織能力。這種適應性增強了系統應對外部變化的能力,但同時也增加了對潛在風險的不可預見性。例如,生成式人工智能在面對不同的數據集和任務需求時,可能會通過不斷更新算法和模型來優化其輸出,但這種自我優化的過程也可能帶來不可預見的副作用,如數據隱私泄露、信息操縱等。且隨著技術的不斷進化,生成式人工智能可能會超出原有設計的邊界,帶來系統性的風險積累和難以預測的突變。由此可見,生成式人工智能的風險具有多層次、動態且交織的特點,傳統的風險管理框架可能難以完全應對,需要構建更加靈活、協同且具有前瞻性的治理體系。
三、治理路徑:協同式的敏捷治理體系
生成式人工智能自進化的技術導致風險傳播的涌現特性和自適應特性,而傳統的治理手段不能很好地應對和解決這些問題,因此需要重新優化策略,利用技術手段的更新持續優化大語言模型的表現,釋放多元主體的活力實現協同式治理,融入敏捷治理的理念,不斷更新治理方式。
1. 以技術手段做好事前防范
由于涌現風險多是技術原因所致,因此在進行針對性治理前,需要通過技術手段進行提前防范,以平衡好技術發展與風險管控兩者的關系。
(1)再思仿生學:生成式人工智能的優化路徑。人工神經網絡的出現對于生成式人工智能的發展具有革命性的意義,人工神經網絡是對人類大腦的模仿,對于人工智能的優化與治理也應當從大腦的優化機制中汲取經驗。一是生物神經網絡具有自我“修剪”的特性,生物大腦在成長過程中會對冗余的神經連接進行“修剪”,從而讓大腦的運作更為高效。這一過程對于人工智能系統同樣適用,通過優化其內部結構,簡化模型路徑,減少不必要的計算,人工智能不僅可以實現計算效率的提升,還能在面對復雜任務時更加靈活和高效。同時,一個更為高效和靈活的系統,意味著它很少會陷入難以自控的困境。二是從分區到協作,功能分配與信息優化進行融合。在人類大腦中,各個區域都有其專屬的功能,如視覺、聽覺、運動控制等,這些區域不僅各自高效運作,還通過復雜的網絡實現協作,這種高效的信息處理模式是我們需要在人工智能治理中認真借鑒的。與此類似,在生成式人工智能的訓練中,分工明確、功能專一的模塊化設計能夠減少系統內部的沖突與混亂,使得不同的子系統能夠專注于各自的任務。但僅有分區還不夠,這些模塊之間的協作同樣重要,就像螞蟻利用信息素傳遞信息一樣,人工智能系統也需要一種高效的信息篩選與傳遞機制。這種機制可以幫助人工智能在海量數據中快速鎖定關鍵路徑,避免冗余信息的干擾,從而加速模型的訓練與優化。在功能分區的基礎上,通過引入類似信息素的標記機制,人工智能可以在模塊間建立更為高效的通信系統,從而實現整個系統的協同進化。
(2)風險預警機制:大模型內嵌評估程序。自主進化的AI模型存在著較大的潛在風險。若模型能夠自主修改其權重和框架,不僅會使模型的可解釋性變得無從談起,還可能導致人類無法預料和控制模型的輸出結果。這種自主進化的AI如果不受控制,可能會不斷生成有害內容。因此,對生成式人工智能的迭代過程進行風險評估可以有效降低風險發生的概率。例如微軟和斯坦福推出了STOP(Self-Taught Optimizer)新型算法,這一算法的核心思想是,它不改變模型的權重或框架,而是通過遞歸式自我優化,提高完成目標任務的能力。這個過程從一個簡單的種子程序開始,通過語言模型進行代碼優化,然后反復改進每次迭代后的版本,最終提升模型的輸出質量。這一迭代過程中增加了風險衡量程序,以優化迭代后的人工智能模型在下游任務中的表現。[14]
2. 以多元的主體實現協同治理
協同治理的誕生有其必然性,其存在將去中心化的治理等同于無中心化的誤區,實際上,多元主體協同治理的本質在于激發社會組織、研發企業和公眾的參與感與責任意識,更好地實現風險管理。
(1)協同化治理的必然性。協同治理理念是社會實踐發展的必然產物,是對數字空間治理主體層級結構平等化發展趨勢的響應。協同治理強調風險共擔、責任共擔,在緊密互動中聯結形成具有內聯系的運行系統。[15]面對技術性較強的人工智能,需要采用協同式治理的方式,使不同類型的組織和個人活躍起來,替代原先僅依靠單一主體的治理范式。不過,其普遍存在著對去中心化片面理解的誤區,如果一味追求從金字塔型的管理體系邁向扁平化的治理結構也極不現實,盡管企業憑借技術優勢獲得了對生成式人工智能的直接管理,但是其風險卻擴散至數字社會、現實世界與人類社會的三維空間中,需要由公共權力的執行者即政府或公認的社會契約即法律進行引導與治理。因此,政府在監管時、法律在約束時,就有了一個前置原則,即調動各社會組織和公民的主體性,對不同主體擁有的資源進行充分利用,同時在多樣化的價值取向和利益訴求之中尋找最大公約數。多元主體的協同治理并非意味著絕對無中心,而是應當提升多元主體的話語權,激發他們行使權力的欲望。
(2)協同化治理的具體路徑。從政府角度來看,需要秉持開放、包容和共享的治理理念。以開放包容的態度認識治理主體多元化的特征,不能遏制多元化的發展方向,要在統一的領導下,對社會各個組織等其他主體參與治理給予肯定,做好頂層設計,協調好不同主體間的利益關系,健全多元主體參與治理的合力機制,逐步改善自上而下的單中心管理模式,強化信任合作機制,構建角色層次化的治理格局,形成“領導主體—主導主體—參與主體”三層動態互動治理結構。從技術研發企業主體來看,應當從內部的管理機制入手,強化生成式人工智能的風險管理,降低風險出現的概率。以OpenAI公司為例,在ChatGPT的研發過程中,其設立了董事會級別的審查流程,成立了專門的安全委員會進行評估,通過不斷的壓力測試,來預測ChatGPT可能會出現的各種問題,在產品上線前盡可能將風險發生的概率降到最低。
3. 以敏捷價值提升治理機制的韌性與靈活性
由于涌現風險是概率事件,難以做到全方位的嚴格監管,因此,應當將敏捷治理融入治理體系中,以迭代的方式完善管理的體制機制。
(1)敏捷治理的必然性。生成式人工智能治理存在多方面的不確定性,這些不確定性主要體現在治理目標、治理方式、治理效果以及治理責任等方面。首先,治理目標的不確定性表現在多個利益攸關方可能有不同的優先級和目標,如企業更加注重技術創新、政府更加注重安全風險防治、用戶個人更加注重隱私保護,這些目標之間可能存在沖突。其次,技術是不斷發展變化的,治理目標也需要不斷地調整和完善。技術發展的速度往往快于政策制定的速度,導致治理方式跟不上技術變革的步伐,從而產生技術和政策脫節的問題。即使制定了相應的規則,執行起來也可能面臨技術上的挑戰。再次,治理效果缺乏評價標準。治理效果往往具備滯后性,呈現出長期影響與短期影響的分層,短期效果好的,長遠來看未必好,缺乏評估體系的治理體系可能會帶來意想不到的副作用。
(2)敏捷理念融入治理的基本原則。針對以上問題,有學者提出應將敏捷治理融入傳統治理手段。敏捷治理來源于軟件開發的敏捷研發理念,其重點在于靈活性和自適應規劃,以持續不斷地改進軟件開發的質量,并對出現的問題進行多頻次迭代式的應對。同樣,針對技術含量較高的生成式人工智能治理難題,敏捷治理無疑是一種原生式的應對方式,能夠有效應對技術演進中的不確定性,避免傳統剛性的治理方式對產業發展造成阻礙。
敏捷治理表現出三大特點。首先,敏捷治理強調風險管控與創新激勵的雙重平衡。一方面,需要預判并有效防控重大風險,確保科技進步不會引發安全隱患;另一方面,必須促進技術應用,保障科技創新的持續性。其次,敏捷治理具有高度的靈活性。針對不同行業和技術領域的特殊性,實施分層分級管理,靈活調整治理策略,以適應動態技術發展的需求。最后,敏捷治理強調快速迭代,通過構建持續交流、動態監測、即時反饋的閉環治理機制,確保對治理過程中的問題能夠及時響應,推動技術治理的持續優化。
(3)生成式人工智能的敏捷治理模型。遵循敏捷開發需求梳理—迭代開發的基本模式,價值、組織、執行和迭代為協同式敏捷治理的四大基本要素。協同式敏捷管理模型的基本流程應當是:敏捷價值觀在協同共生主體中構建—協同多元主體組織提升敏捷性—治理機制的敏捷執行—下一階段迭代改進(見圖 3)。
其一,敏捷價值。尼科洛·馬基雅維利在《君主論》中指出:沒有比引領新事物的新秩序更難把握、更冒險和更不確定的了。傳統治理方式延續著以往的關系,按照已有的方式進行決策、執行,而敏捷價值觀則秉持靈活的、適應性的價值觀念。一是構建韌性的價值網絡。敏捷治理依托共同的價值觀,鼓勵多元主體共同發力,實現治理目標。對稱的利益機制能夠激活各方參與意愿,通過構建一致的愿景,使各主體在使命感的驅動下,共同推動生成式人工智能的健康發展。在這一框架下,應建立具備強鏈接與靈活性的價值網絡,確保在戰略目標上達成共識和協作。敏捷治理需要領導者,但其關注點不在個人,而在于激發集體力量,正如約翰·麥克斯韋爾所言,領導力是一個生命影響另一個生命的過程。二是全周期風險的快速響應。針對生成式人工智能風險擴散快、迭代周期短的特點,敏捷治理要求建立迅速且精準的應對機制。傳統的后置性技術服務和補救措施難以覆蓋全周期治理需求。因此,敏捷治理需在不同風險階段強調相應主體的責任和治理手段,實現靈活、迅速地全周期響應。三是容錯思維。現有的行政體系對不確定后果的容忍度較低,敏捷治理倡導的容錯機制能夠緩解這種剛性沖突。具體來說,以容錯機制為引領,對因不確定性導致的結果采取寬容態度,避免“零容忍”思維。拓展容錯空間,《生成式人工智能服務管理暫行辦法》雖已引入包容性監管原則,但尚缺明確的容錯情形與條件,應基于技術與行為的雙層容錯體系,[16]對尚未明確的技術發展空間給予適度包容,在行為容錯上,應區分規則外的試探性行為與規則內的盡責行為,提升治理彈性。
其二,敏捷組織。有了敏捷價值的引導,治理組織的敏捷性可得到相應的改善。一是“活”組織保持信息鏈接的無限性,強化組織與環境的融入性。治理體系中的組織對生成式人工智能的治理,既深受環境的影響,也會影響環境。組織在與外界互動交換的過程中保持著“活”的架構,治理組織合理存在的前提在于充分開放,與外界保持溝通,因此組織的成員、信息來源、技術手段、規章制度等都必須與環境相適應。二是敏捷治理倡導從傳統的穩定、垂直的治理模式轉向開放、互動的協同機制。正如風險管理學學者納西姆·尼古拉斯·塔勒布所言:“當你尋求秩序,你得到的不過是表面的秩序,而當你擁抱隨機性,你卻能把握秩序,掌控局面?!盵17]敏捷治理視混沌為一種過渡狀態,將發展看作在穩定與不確定之間的動態躍遷過程,善于從變化中挖掘新機會。三是自組織與自我進化效能。在技術進化趨勢下,治理組織應具備自組織能力,通過系統內部的自發調整實現有序。自組織強調“發展并非盲目”,即遵循某種內在力量自發進化形成有序結構。這一結構并非預設,而是隨著環境的變化自我調節,最終增強組織整體進化效能。
其三,敏捷執行。敏捷治理的重點體現在敏捷執行上,這也是其區別于傳統治理方式的重要內容。一是在治理過程中,敏捷治理強調“過程快、力度輕”。區別于傳統監管模式所表現出來的“過程慢、力度大”特征,敏捷治理強調治理過程和監管工具的選擇,以引導而非懲罰為主,將嚴厲的法律責任作為治理工具失效后的最終選擇,使得科技企業能夠快速感知政策方向并及時作出調整,避免直接動用嚴厲的法律手段增加企業成本。[18]二是責任先行。生成式人工智能帶來的問題多源于技術本身,因此技術治理是關鍵。英國法學家布朗斯沃德曾指出,技術解決方案比事后糾正行為更具效力。[19]在技術發展快于法律更新的背景下,技術手段成為化解風險的重要方法,要求企業自我約束并提升治理能力。如OpenAI作為生成式人工智能的代表性企業,降低ChatGPT產品的風險不僅是商業利益的驅動,更是其作為領先企業的使命所在。三是以“軟法”補充“硬法”。人工智能風險產生機制的復雜性決定了治理工具需具備靈活性。傳統“硬法”難以適應技術的快速發展,而“軟法”以倡議、指南的形式為主,更適合推動行業自治、自律,同時提供容錯空間,避免技術創新受限。四是監管機制的豁免制度創新。在服務應用層面,可通過監管沙盒、合規免責制度等營造良好的技術發展環境。監管沙盒允許企業在受控環境中測試新產品,豁免部分監管約束,但需設立準入門檻與風險豁免期限。合規免責制度則允許企業在已建立合規體系的前提下,通過積極補救和達成和解協議,減輕或免除責任。[20]
其四,敏捷機制,即高頻次的迭代機制。敏捷治理的核心在于適應生成式人工智能的動態演進,通過迭代調整來應對治理挑戰,避免傳統責任模式的僵化。類似于動態能力,迭代創新成為迅速適應外部變化的有效方式。這一機制包括問題識別—迭代試錯—動態更新的全鏈條式迭代機制。一是問題識別與提前介入。通過引入信息感知與檢測系統,治理主體可以提前識別虛假信息內容,要求技術開發者優化模型,及時修正或刪除不良信息,實現從外部控制向內部調節的轉變。二是迭代試錯。在不確定性較大的情境中,迭代創新重在重新定義問題,提出并測試新方案。通過快速反饋和容錯的實驗流程來確定有效的治理措施,并推動其應用。三是持續改進與動態治理。敏捷治理通過迭代治理和持續優化機制,形成反饋閉環,及時調整治理模式以應對新的風險。生成式人工智能存在較大的不確定性,過度治理可能抑制產業發展,而敏捷治理“小步快走、迭代調整”模式更契合技術快速發展的需求,有助于在技術演進中有效控制風險。
結語
生成式人工智能管理其實是平臺治理的一個縮影,當新技術形態成為新的基礎設施甚至社會的操作系統,而傳統的權力主體不再直接掌控這些新基礎設施時,如何協調傳統權力主體、平臺、技術三者的關系,平衡技術發展與綜合治理之間的張力,需要更多的試錯空間,并在多重目標、多元利益沖突之間留出創新的彈性。
參考文獻:
[1] Park J S, O'Brien J, Cai C J, et al. Generative agents: Interactive simulacra of human behavior[C]∥Proceedings of the 36th Annual ACM Symposium on User Interface Software and Technology. New York: ACM Press, 2023: 1-22.
[2] 斯萬·歐維·漢森,劉北成. 知識社會中的不確定性[J]. 國際社會科學雜志(中文版),2003(1):36-44.
[3] Srivastava A, Rastogi A, Rao A, et al. Beyond the imitation game:Quantifying and extrapolating the capabilities of language models[EB/OL].[2024-10-13].https://arxiv.org/abs/2206.04615.
[4] Anderson P W. More Is Different: Broken symmetry and the nature of the hierarchical structure of science[J]. Science, 1972, 177(4047): 393-396.
[5] New England Complex Systems Institute.Concepts: Complexity.[EB/OL].[2024-10-15].https://necsi.edu/complexity.
[6] Adcock R, et al. \"Emergence\": Systems Engineering Body of Knowledge[EB/OL].[2024-10-15].https://sebokwiki.org/wiki/Emergence.
[7] 閆坤如,曹彥娜. 人工智能時代主體性異化及其消解路徑[J]. 華南理工大學學報(社會科學版),2020,22(4):25-32.
[8] H.W.劉易斯. 技術與風險[M]. 北京:中國對外翻譯出版公司,1994:253.
[9] 佩德羅·多明戈斯. 終極算法:機器學習和人工智能如何重塑世界[M]. 黃芳萍,譯. 北京:中信出版集團,2017:3.
[10] 徐鳳. 人工智能算法黑箱的法律規制——以智能投顧為例展開[J]. 東方法學,2019(6):78-86.
[11] Walker C S. Al chatbots are coming to search enginescan you trust the results?[EB/OL].[2024-10-13]. https://www. nature.com/articles/d41586-023-00423-4.
[12] 陳建兵,王明. 負責任的人工智能:技術倫理危機下AIGC的治理基點[J]. 西安交通大學學報(社會科學版),2024,44(1):111-120.
[13] Chomsky N, Roberts I, Watumull J. Noam chomsky: The 1 promise of chatgpt[EB/OL].[2024-10-13].https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html.
[14] Zelikman E, Lorch E, Mackey L, et al. Self-taught optimizer (stop): Recursively self-improving code generation[J/OL].Arxiv, 2023[2023-10-09].https://arxiw.org/abs/2310.02304.
[15] 曹元,董新凱. 習近平網絡空間治理系列論述的系統探析[J]. 南京社會科學,2019(6):1-7.
[16] 何宇華,李霞. 生成式人工智能虛假信息治理的新挑戰及應對策略——基于敏捷治理的視角[J]. 治理研究,2024(4):142-156,160.
[17] 納西姆·尼古拉斯·塔勒布. 反脆弱:從不確定性中獲益[M]. 雨珂,譯. 北京:中信出版集團,2014:XVI-XVII.
[18] 薛瀾,趙靜. 走向敏捷治理:新興產業發展與監管模式探究[J]. 中國行政管理,2019(8):28-34.
[19] 羅杰·布朗斯沃德. 法律3.0:規則、規制和技術[M]. 毛海棟,譯. 北京:北京大學出版社,2023:42.
[20] 張凌寒,于琳. 從傳統治理到敏捷治理:生成式人工智能的治理范式革新[J]. 電子政務,2023(9):2-13.
Technological Evolution and Emergent Risks: A Study on Collaborative Agile Governance Systems for Generative Artificial Intelligence
GUO Quan-zhong(College of Journalism and Communication, Minzu University of China, Beijing 100081, China)
Abstract: Generative artificial intelligence exhibits formidable learning capabilities, self-adaptive capacities, and self-evolutionary traits, aligning with developers' original intentions while simultaneously introducing emergent risks. Distinct from traditional risks, emergent risks demonstrate a degree of subjective agency and autonomous decision-making capabilities. Due to AI's capacity for continuous self-evolution, latent risks may remain obscured, particularly under its black-box operational mechanisms, which can induce cognitive biases or even hallucinatory phenomena. Such issues not only compromise the controllability of AI but also undermine the sustainability of human-AI relationships. Furthermore, the adaptive nature of AI allows risks to manifest dynamic evolutionary characteristics. To address these challenges, it is imperative to optimize foundational technical architectures, harness the potential of multi-stakeholder collaborative governance, and adopt a collaborative agile iterative governance model to promptly respond to the complex and evolving nature of risks.
Keywords: technological evolution; emergent risk; AI governance; collaborative regulation; agile governance