陳 智
(中南大學 公共管理學院,湖南 長沙 410075)
2022年11月30日以來,OpenAI公司旗下具有強大自主學習功能的自然語言處理工具ChatGPT引發了全世界的熱議,并成為活躍用戶數量增長最快的應用程序,正在全面而深刻地影響人類的經濟、政治、社會、文化、軍事等各個領域。2023年3月,ChatGPT內嵌的GPT-4正式發布;5月,ChatGPT移動端的iOS應用程序正式上線;7月,ChatGPT安卓版本在Google Play商店中提供;7月6日,OpenAI官方宣布最新的大型語言模型GPT-4將通過其API(Application Programming Interface,應用程序接口)正式開放使用。基于此,以ChatGPT為代表的通用人工智能憑借前所未有的超高性能產出海量數據并提供相應服務,使軟件從“命令驅動”(Command-Driven)升級轉向為“意圖驅動”(Intention-Driven),從而進一步助推人類社會加速邁向下一個發展階段。
在技術模型上,ChatGPT背后的GPT-3.5是基于人工神經網絡、由45TB語料數據(包含8 000億個單詞和1 750億個參數)訓練而成的;根據推算,新近的GPT-4已有接近100萬億個參數,約是GPT-3的500倍,更接近人類大腦中神經連接的數量;ChatGPT主要基于“語料體系+預訓練+微調”的運作模式,是由LLM(Large Language Mode,大型語言模型)與RLHF(Reinforcement Learning from Human Feedback,基于人類反饋的強化學習)技術融合革新的生成式人工智能產品。
在功能屬性上,ChatGPT的“Chat”意指聊天,其采用Web瀏覽器/iOS或Android等手機應用實現即時的對話交互,能更加高效、高質地滿足用戶“搜索引擎”與“問答社區”等現實需求;“GPT”即生成式預訓練轉換器(Generative Pre-trained Transformer),這類轉換器中的訓練數據雖源于書籍、文章、門戶網站、用戶對話等不同方面,但具有極強的信息整合和優化能力,能夠對海量信息進行篩選和過濾,進而反饋清晰直觀的數據內容。
在優勢特性上,ChatGPT強大的學習適應性促使其成為一個用途廣泛的工具,不僅能夠通過吸收并理解人類的情緒表達和喜好習慣,更為快速、精準、自然地回應并滿足人類各種復雜需求,還可以通過全方位、多頻次、高效能的對話式訓練,逐漸彰顯出人工智能系統行為與人類價值意圖的契合性和一致性,從而實現人機之間的進一步融合與互嵌。總體上,ChatGPT被認為開辟了通用人工智能(AGI,Artificial General Intelligence)的新時代,是從“弱人工智能”向“強人工智能”進擊的關鍵一步。
但是,任何新興技術發展都存在雙刃劍效應。雖然未來的ChatGPT極具想象空間,甚至有專家認為其將徹底改變人類世界,但任何跨越式進步往往都伴隨相當的風險性,尤其是人工智能算法因其強大的計算能力和邏輯不可知等而更難以被有效規制[1]。因此,ChatGPT及其應用如何在技術創新和公共價值之間、在促進發展與保障安全之間實現平衡,亟待學界融合學理視角和政策情境等展開進一步探析。
當前,ChatGPT相關研究已成為我國計算機科學、法學、教育學、傳播學、倫理學、公共管理學等學科的熱點話題。其中,主要從3個層面展開探討:一是從宏觀層面概覽ChatGPT的全景全貌,大多以“三段論”形式進行整體性論述,例如,探析ChatGPT的本體、影響及趨勢[2]、挑戰、發展與治理[3]、機遇、風險和挑戰[4]等;二是在中觀層面基于某學科門類或專業領域,聚焦ChatGPT的應用價值及問題思辨,例如,闡析其在經濟循環體系[5]、數字政府建設及其治理[6]等現實政策背景下的前景與隱憂;三是以微觀視角引入并使用相關理論范式,對ChatGPT展開更為深入的系統性解構,例如借助可供性視角[7]以及包容性治理[8]、韌性治理[9]等系統范式,進一步考察ChatGPT及其應用的學理意涵與系統架構。
誠然,我國ChatGPT相關研究日益豐富和深入,但在整體上缺乏足夠的學理性和系統性進行支撐與延展,學理價值提煉和發展路徑建構等方面仍存在較大研究空間。宏觀層面,大多數研究均基于特定學科或行業領域的“平移式”或“嫁接式”構想,將ChatGPT矮化為一個跟風性的“標識”或“符號”,而忽視了其豐富多變的公共性和社會化屬性,難以提出更具針對性和長期性的監管建議;理論解析層面,大多數研究偏向ChatGPT的“GPT”而非“Chat”,并且對其正負外部性分析大多停留在經驗闡述層面,未對其中的深刻學理性進行挖掘和整合,造成整體性分析框架和治理范式缺失。并且,大部分人工智能所引致的社會風險不僅僅是技術導致的,而是與社會結構融合互嵌、同頻共振后不斷顯現出來[10]。因此,學界針對ChatGPT的研究觸角應當回歸到社會化的實際應用中,進而系統探析其背后的學理邏輯與發展策略。那么,ChatGPT的應用具有哪些學理化特質?呈現出怎樣的演化發展過程?又需進行怎樣的系統性規制與治理?上述問題能否建構起一套整體性的研究框架?這些都是本文擬重點回應的內容。
每當新興技術出現時,其發展走向都是難以預判的。但是,透過ChatGPT的應用過程,可在理論高度把握人機傳播發展的規律與邏輯,以更好地認識、接納并規制人機之間的各類傳播實踐。ChatGPT作為一項快速應用又影響深遠的新技術平臺,學術界對其認知應用還處于較為淺顯的階段。因此,有必要穿透ChatGPT的技術表層,將分散化、碎片化的應用解讀升級轉向系統化、動態化的邏輯考量,從而形成ChatGPT由表及里、由虛向實的科學研究范式。
系統理論的一般性研究框架是由肯尼思·博爾丁等學者于1956年歸納出的一套可供理論話語使用的層次性分析框架。之后,這一框架進一步被簡釋為“物理層”“操作層”“戰略層”三個遞進層次。首先,“物理層”是人類社會所創造出的機械、工業、通信技術等附隨的物理形式,在本文研究范疇中首要需明確ChatGPT應用的前置性、基礎性的“技術特性”;其次,“操作層”是為達到某一具體目標所采取的一系列行動實踐的過程性集合,其強調一種應用發展的互動性和延展性,因而深入研討ChatGPT應用具體的“演化過程”成為聯系理論與實踐的關鍵;最后,“戰略層”是指在長期建設發展中所需遵循的戰略目標、規劃任務以及實施措施等[11],集中指向一種前瞻性、長期性和動態性的“治理方略”,需要融合頂層設計和行業規范等展開進一步的戰略路徑規劃。基于此,在總體系統層次下衍生的“技術特性”“演化過程”“治理方略”三大議題可作為考察ChatGPT應用發展的核心研究思路和內容。
結合人工智能實踐與理論對話的必要性,以及分析框架的整合性和系統性要求,本文擬將“韌性”作為一種解構并建構ChatGPT應用的核心概念與發展指向。“韌性”最早出現于自然科學領域,原意是材料在塑性變形和破裂過程中吸收能量的能力。20世紀90年代后,“韌性”被引入到社會科學領域,進一步融合“剛性”和“柔性”的優勢屬性,表現出在復雜社會生態系統中的靈活適應、協同包容、創新變革等正向發展能力。“演進韌性”是在“韌性”能力特性上進一步的具化和延伸,其聚焦于系統動態演化中的事物能否持續應對現實危機或潛在風險,強調系統需要源源不斷的適應力、學習力和轉型力等,以期共同發展進化并“彈向更好狀態”[12]。“韌性治理”則是一種內嵌并綜合韌性內涵的新型治理范式,其中包含多元主體為了應對常態化或突發性風險所積極采取的維持組織穩定和促進組織變革的治理行動,并強調在風險治理過程中能夠有章可循、有的放矢地紓解各種負面影響,進而迅速恢復甚至超越原始狀態[13]。
如圖1所示,“韌性”是ChatGPT應用的關鍵技術特質,從“韌性”到“演進韌性”體現出其應用發展的“實然”過程,“韌性治理”則指向應對風險的“應然”狀態。ChatGPT應用一方面扮演治理主體和工具的角色,持續發揮其賦能社會生活的“韌性”效用;另一方面,其作為治理的客體和對象,在與社會的互嵌與摩擦中,亟需構建起一套新的治理方略和行動范式。本文借助系統整合、互動演進、長效發展的“韌性”—“演進韌性”—“韌性治理”系統化視角,廓清ChatGPT應用的現實樣態,旨在識別和應對現實發展中的亮點與痛點,進而在學理層面提升理論范式的實際價值。
圖1 ChatGPT應用的“韌性”—“演進韌性”—“韌性治理”系統化呈現Fig.1 Systematic presentation of "resilience" - "evolutionary resilience" - "resilience governance" in ChatGPT applications
ChatGPT作為當前影響最為廣泛和深遠的應用之一,其持續擴散和發展的關鍵就在于搭建了強大的“平臺—用戶”互動反饋的基礎架構,針對市場和用戶需求,供給高效率、高效能的信息服務,從而在更大程度上吸納廣大受眾并搶占行業市場。ChatGPT基于“大數據+機器學習+模擬演練+微調變換+加工輸出”的人機智能交互應用程序,正在廣泛融入并應用于“To B”即產業端(加速自動化,促進技術進步和新要素創造)和“To C”即消費端(通過內容生成,提升消費者效用)[4]。其中,“韌性”可被用于解析ChatGPT應用面對現實情境及風險挑戰時所體現出的一系列能力特性。具體來看,“韌性”一詞除在能力層面蘊含社會生態系統抵抗外來干擾而不被損毀之意,也在過程意義上強調經歷外來干擾后能自我調適、學習并提高綜合能力,進而變得更具韌性[14]。“韌性”不僅是一種靜態能力(Ability)的基礎象征,更是一種動態過程(Process)的有力體現,能夠作為一種有效的解釋性工具嵌入到ChatGPT的“To B”和“To C”兩大應用層面之中。
“To B”意指面向產業/行業客戶的功能應用。目前ChatGPT在現實應用中彰顯的通用性(Generality)和普適性(Pervasiveness)愈發凸顯,對醫療、教育、金融、咨詢、媒體和游戲等行業都產生了重大影響,并帶來規模化、平臺化、場景化的躍遷升級,成為一項名副其實的顛覆性科技(Disruptive Technology)。
一方面,ChatGPT應用體現出開發兼容的優勢特性。當前,ChatGPT可以通過迅速適應調整來應對行業需求變化,在不同領域問題上提供及時有效的幫助。例如,在法律行業,ChatGPT憑借對“法言法語”良好的理解能力,能夠與法律人形成良好的人機協同關系,為全面提升法律服務的數量、質量與可及性帶來可能;在客戶服務中,ChatGPT能夠吸納不同產品或服務的特點,并通過提供個性化建議,改進客戶服務體驗,減少人力資源需求等。這些“韌性”特性有助于其快速適應各種環境和任務,并提供個性化、專業性和高水平的即時服務。此外,ChatGPT應用的兼容性也進一步顯現。2023年3月1日,ChatGPT的API正式開放使用,其中,0.002美元/1000 token的定價僅為GPT-3.5價格的1/10。這種API搭建的兼容性應用生態網絡,在其限定規則的情形下,允許參與者進行外部擴展應用,進而為應用生態作出更大貢獻。例如,微軟公司已通過ChatGPT API與Office辦公軟件、Edge瀏覽器及Windows系統等捆綁應用;一些OpenAI早期的合作企業也試用了ChatGPT API,包括但不限于社交平臺Snapchat、電子商務平臺Shopify、在線學習平臺Quizlet等。
另一方面,ChatGPT應用呈現出開放包容的發展形態。ChatGPT帶來的認知突破和范式轉變,能夠培育出推理、整合和共情能力,進而助益于不同行業領域的廣泛應用。綜觀ChatGPT“通用技術”的表現,當前已然形成圍繞其迭代升級所構建的開放包容的生態環境,對各行各業都產生如同毛細血管一般的聯動影響。當然,除直接引入并應用ChatGPT API之外,泛AI行業中的諸多平臺也在通過創新獨立產品搶占市場。短短半年多以來,國際頭部企業Google、Meta、Amazon等以及國內知名企業百度、阿里、騰訊等都先后宣布將基于自主研發的新技術,開發ChatGPT同類的產品和服務等。在ChatGPT浪潮的強有力沖擊下,中國企業在大模型方面的競賽尤為激烈。根據中國科學技術信息研究所2023年5月發布的《中國人工智能大模型地圖研究報告》,國內大學、科研機構、企業等不同創新主體都在積極參與大模型研發,目前中國10億級參數規模以上大模型已發布了79個[15]。例如,2023年3月16日,百度發布國內第一個面向大眾群體的大語言模型“文心一言”;4月11日,阿里巴巴集團旗下阿里云研發的超大語言模型“通義千問”在阿里云峰會上正式揭曉;5月6日,科大訊飛的“星火認知”大模型在經過5個月集中研發后正式面世。這些類ChatGPT平臺應用往往以其龐大的數據代碼庫、具有競爭力的存量用戶以及營銷能力等作為支撐,進而展開一系列戰略規劃和市場競合行動。當然,這些類ChatGPT平臺能否追趕上ChatGPT本身發展速度與高度,甚至在某些方面提煉并演化出獨特性優勢,尚需經歷更大范圍和更長周期的市場化檢驗。
“To C”層面的應用意指面向廣義上的普通大眾用戶。與此前大多數人工智能系統只能處理特定任務或應用于特定場域不同,以ChatGPT為代表的通用人工智能已從實驗室走向普羅大眾,其低門檻和高性價比可以讓越來越多的人共享技術紅利。可以說,大眾化和社會化的本質特性正是ChatGPT及其應用快速收割并不斷拓展的根本動力所在。
一方面,ChatGPT在應用上體現出強大的學習自適特性。從應用模式來看,ChatGPT能夠使用自然語言進行交流,并在文本到文本(Text-to-Text)、文本到圖像(Text-to-Image)、文本到視頻(Text-to-Video)、文本到任務(Text-to-Task)等過程中保持人機連續性對話,吸納并整合不同指向性的信息內容,進而強化對話主題的一致性和專注度;從應用情境來看,ChatGPT可以靈活適用于不同用戶需求,通過自主學習和數據分析,深入了解用戶個性偏好和語言習慣等。例如,在教育應用領域,ChatGPT能夠針對不同年齡段、學科和教學方式提供個性化輔助教學,并根據學生需求和反饋,針對性地回答問題、提供解釋、展示示例等,從而一定程度上提升學習效率和效果;從應用迭代來看,ChatGPT于近期推出新的Code Interpreter(代碼解釋器)功能,其學習自適功能正在持續性地迭代升級。該功能支持用戶直接上傳并處理本地文件,滿足大眾便捷交互、強化學習、簡化工作的目的,儼然成為一種處理繁雜信息的“萬能工具”。在此基礎上,ChatGPT本身也在愈發豐富、高頻、可持續的功能應用中實現自主學習和持續迭代。
另一方面,ChatGPT在應用中具有突出的類人調適功能。一項技術、產品和應用越是強大,越是具有極大的社會性和公共性,就越接近公共物品的屬性[16]。雖然普通用戶使用ChatGPT仍有IP注冊門檻、會員制服務等限制,但整體上ChatGPT應用的“韌性”特質愈發顯現,尤其在人機互動中體現出超前的類人調適功能。在基礎應用層面,ChatGPT對廣大用戶幾乎有問必答、有求必應,接受隨時隨地的“差遣”和“調教”,進而輔助甚至替代人類進行思考決斷;在交流互動層面,ChatGPT在量化和質化數據分析與處理上進步顯著,尤其是在自然語言識別與處理方面,解決了語言情感分析的問題,在日常對話中表現出“高智商”以及更為難得的“高情商”,能夠在字里行間透露出對用戶的關心、擔憂、抱歉甚至是有意識地討好、取悅等;在模型發展層面,任何技術的賦能從來都不是單向的,同樣需要考察用戶對技術的實時供給和交互修正。人機對話的規模越大、頻率越高,ChatGPT回答的內容往往就越具體、越準確。但也有研究警告,盡管ChatGPT具備了較高的類人屬性和社會價值,但其中的信息處理和情感理解能力可能只是一種表象。基于此,大眾在任何場景中使用ChatGPT等人工智能產品,始終需要結合人類的專業知識和判斷力進行綜合考量。
值得一提的是,除“To B”和“To C”兩大主流層面的應用外,“To G”即在政府應用及其相關治理層面將ChatGPT深度嵌入政府管理服務、賦能公共治理智能化的案例和研究也在不斷增加。根據新加坡《海峽時報》報道,有關技術開發部門正將ChatGPT整合應用到政府的內部辦公系統之中,新加坡的公務員未來將使用ChatGPT來輔助撰寫研究報告和演講文稿等[17]。可見,ChatGPT應用發展的“韌性”張力仍在不斷演化進步,未來亟需結合“演進韌性”系統展開更為具體深入的研討。
韌性并非總是靜態或正向地表達呈現,在演進過程中也需考察不同情境下的系統樣態。Gunderson &Holling(2002)在“演進韌性”視閾之下,提出詮釋系統運行周期和關注變化中持續性的“適應性循環(adaptive cycle)”系統,其中主要包含開發(exploitation,r)、保護(conservation,K)、釋放(release,Ω)、更新(reorganization,α)四階段[18]。各階段之間,系統往往表現出不同的連通度和適應性,進而呈現出不同的韌性水平。誠然,上述四階段雖然難以概括ChatGPT應用演化的所有形態,但足以對其半年多以來的快速迭代進行學理架構和經驗剖析。另外,需指出的是,四階段也可能是交錯重疊的,并不一定按照線性順序演化發展,因此,需結合具體情境具體分析,為韌性治理的系統建構指引方向。
系統處于開發(exploitation,r)階段時,系統內部要素的聯結度不斷增強,這些韌性快速積累進而促進系統高效發展。初始的ChatGPT模型被訓練和測試,并開始廣泛應用于各種現實場景中,其中主要關注系統開發、功能實現和性能提升等,涉及數據收集、模型選擇、模型訓練和調優等階段性任務。
從開發迭代的過程來看,GPT-1到GPT-4僅用了5年時間就實現了5次迭代,最新一代模型GPT-4在其前身GPT-3.5(即ChatGPT)發布3個月后即被推出。盡管OpenAI公司在推出ChatGPT之前非常謹慎,也進行了長時間測試,但作為人工智能奇點涌現的GPT-4從理念提出迄今也不到10年時間。可以說,生成式人工智能大模型的開發迭代正是以GPT-3.5為分水嶺,之后更高版本的迭代可能變成以月、周甚至天為單位。
基于如此快速的技術迭代和技術延展,ChatGPT應用的效率和效能也得到進一步提升。計算機生物學領域的專家學者進行了科研實驗,ChatGPT在幾秒內完成了論文各部分修改,手稿審閱速度為5分鐘/次,甚至可以發現方程引用錯誤,消耗成本僅為0.5美元/份[19];而最近的一項關于人工智能生產力效應的實驗研究表明,使用ChatGPT完成任務所需時間減少40%,并且完成質量比不使用ChatGPT高出18%[20]。可見,依托超強的自然語言處理能力、智能增強性、前瞻預測性、強大記憶力與真實場景等多樣化“韌性”特質,ChatGPT的開發應用可能產生“人人皆可為學者”的圖景。
根據《自然》雜志在線調研顯示,約80%以上用戶使用過ChatGPT,8%的用戶每周至少使用一次;57%的人表示他們使用ChatGPT或類似工具是為了“無關研究的創意樂趣”,16%的人把它作為撰寫研究手稿、制作演示文稿的私人助手[21]。但不可否認的是,ChatGPT發展迭代的背后仍面臨數據、算力和創新環境等深層次因素的制約,在不同地區、不同場景、不同情境下開發應用的廣度、深度和穩定性等各方面尚存很大進步空間,因而需要注重進一步的穩固和調整。
在保護(conservation,K)階段,系統各要素關聯性和適應性增強,進入一個相對平緩的狀態,但外界環境變化也考驗著系統的承托能力和適應能力,否則可能陷入韌性較低的情境之中。由此,ChatGPT必須關注系統的穩定性和可靠性,以解決應用情形中的各種難題,例如語義理解不精準、系統中各類漏洞和錯誤等。
一方面,ChatGPT囿于功能的局限性以及不確定、不穩定等問題而遭到質疑。首先,ChatGPT往往只能根據給定的訓練數據信息作出反饋,而無法完全理解對話中的確切意涵或真實語境;其次,由于算法模型的“黑箱”效應,ChatGPT易將虛假信息包裝成看似可靠的東西,輸出不符合科學常識的答案;此外,ChatGPT也可能利用其先前從訓練數據中發現的語言規律,對現實中“不合理”的內容進行“合理化”編造,進而產生所謂的“幻覺”(Hallucinations)。基于此,在應用ChatGPT完成各項任務之余,用戶也難免遭遇一定的風險。例如,美國律師史蒂文·施瓦茨(Steven Schwartz)因使用ChatGPT制作了一份包含虛構的司法意見和法條引用的法律摘要,遭到當地法院的罰款和懲戒[22]。
另一方面,ChatGPT也因能力過強、發展過快或具有侵略性而受到限制。OpenAI公司發布的《GPT4.0技術報告》將“用戶的過度信賴”列為GPT系統存在的重要風險之一[23]。有研究指出,不同社會利益群體利用這些工具,沿著“數據—信息—權力”的路徑生成“算法權力”,爭奪“民意”或“政策”的解釋權,可能對現實的社會治理實踐產生深層影響[24]。尤其當ChatGPT嵌入到政府治理環節中,設計者的主觀意志與價值選擇將會顯現,并或多或少地引發偏見和歧視,沖擊政府的行政倫理。2023年3月29日,著名安全機構生命未來研究所(Future of Life Institute,FLI)發布公開信,呼吁暫停開發比GPT4.0更強大的AI系統,并提倡在6個月的暫停期內出臺相應治理制度。這份公開信目前已獲得一千余名科技領袖和研究人員簽名[25]。
總體上,火爆出圈的ChatGPT正在顛覆人與技術之間的關系,憑借“無遠弗屆”的特性迅速壯大并持續調適升級,但在市場和大眾的“歡呼聲”中也夾雜著越來越多的“驚呼聲”,因而需要以動態性視角圍繞ChatGPT應用的風險及其應對作進一步解構。
如果不能對現有風險作出及時處置,抑或技術應用的迭代遠超治理水平的跟進,將可能導致韌性結構和能力走向式微,從而進入到集中的釋放(release,Ω)階段。在此期間,更高層級、更大范圍、更強頻率的風險性將進一步涌現出來。例如,ChatGPT在技術倫理、法律規制、知識產權、數據安全等方面的現實爭論不斷發生,甚至遭到不同國家、行業部門的禁令或警示,因而ChatGPT亟待通過功能調試和技術維護等加以及時有效的應對。
人工智能技術指數級迅猛發展與人類的思想觀念、政策取向、倫理規制等之間的非協調性,導致人類在享有技術便利性的同時,也面臨諸多不確定性風險[26]。一是人機矛盾問題,由于人類知識廣度和深度受到各種約束,人的智力和創造力或將遠落后于ChatGPT,并且在機械化、程式化的信息影響下,人們將不自覺地受困于程序編織的信息繭房,進而對信息流的處理能力造成極大干擾,技術或將實現對人類主體性的僭越,最終導致人機關系發生顛覆性改變;二是數字鴻溝問題,在ChatGPT Plus付費制的背景下,將可能加劇“信息孤島”和“數字鴻溝”的現實風險,尤其對于社會交往能力下降的老年人、部分殘障人士以及數字基礎設施欠缺的落后地區居民,形成“數字貧困戶”,面對ChatGPT等人工智能應用時,信息障礙可能使技術鴻溝越拉越大并且更加難以逆轉;三是技術性失業問題,外媒盤點了易因ChatGPT失業的工作類型,主要包括技術工種、媒體工作者、法律工作者、市場分析師等十余種[27]。積極派認為,每一次技術進步都會替代很多職業,因此,ChatGPT并不會帶來集體性失業,而將推動就業結構調整升級。消極派則指出,與前三次人工智能浪潮不同,當前就業的技術性轉移瓶頸過高,新崗位批量出現的概率較低,因而此次失業浪潮可能難以逆轉[2]。
當前,ChatGPT雖在短時間內無法解決所有自身相關問題,尤其人類倫理層面的問題將始終存在,但結合相關風險仍可采取同步甚至超前的應對行動。在功能修復方面,ChatGPT雖多次因用戶量激增而宕機,或因開源庫中的錯誤導致用戶姓名、電子郵件、地址、支付地址等隱私信息泄漏,但其往往能在短時間內修復漏洞,且問題發生概率越來越低,處理效率成倍數提升[28]。在功能升級方面,2023年7月20日,ChatGPT推出名為Custom Instructions的自定義指令/個性化定制功能,此功能還擴展到了插件,通過與使用中的插件共享相關信息改善用戶體驗,以幫助用戶更好地利用智能技術;同時,近期增加了對ChatGPT Plus付費用戶的消息限制,僅允許他們每三小時最多發送50條消息,旨在為付費用戶和普通用戶的互動提供更多便利性。在功能保障方面,為了更好地服務用戶并降低相關風險性,ChatGPT也從技術層面四處“打補丁”,例如,推出專門的Moderation API來拒絕或忽略導致違反這些政策的用戶指令,或是建立專有的自然語言調用語料和指令數據集,從而實現大語言模型對其它系統的精準調用。
經歷“開發”“保護”“釋放”后,“更新”(reorganization,α)階段相當于經濟社會遭遇波動后采取的重組與創新,系統將進入一個不斷反饋調整、適應學習,進而重新組織和建構的狀態之中。根據分析公司SimilarWeb最新數據顯示,ChatGPT自2023年6—7月全球網絡流量下滑約10%;自2023年3月以來,用戶在網站上花費的時間也逐月下降,從平均8.7分鐘減少到8月份的7分鐘[29]。基于此,結合現實應用情境中的正負外部性以及發展趨勢,接下來ChatGPT需作出更具全局性、系統性、及時性的策略回應。
任何技術創新都內含“奈特不確定性”(Knightian Uncertainty),并且功能越強、迭代越快,不確定性就愈發涌現,“人機共生”的背面將充斥各類矛盾沖突的暗流涌動。目前,ChatGPT正以廣泛的感知、平臺和技術可供性遮蔽其背后的不透明性和不確定性等,虛假信息的泛濫、道德倫理的異化也成為國內外監管機構的最大擔憂。例如,生命未來研究所發布的公開信中質問道,“是否應該開發最終可能在數量上超過我們、智慧上超越我們的非人思想來淘汰或取代我們?”[25]。針對這一本質性問題,目前最常見的方案是在政策和組織層面限制ChatGPT的技術迭代進程。但可以肯定的是,大多法律規制的目的和用意是將風險控制在可接受的限度內,幾乎不可能消滅所有的損害風險,發展性和風險性將處于長期制衡之中。
系統“更新”階段往往更需韌性力量的注入,從而支撐并推進整體系統的存續發展。但隨著智能技術持續迭代,ChatGPT等平臺應用更加獨立自主,人們將愈發信賴和依靠機器而逐漸遠離自身的意識和行為,其中的“韌性”特質也可能異化或退化為一種“任性”風險,并且更加隱蔽化、隨機性地嵌入到人類社會方方面面。根據《GPT-4技術報告》,早期的GPT-4仍存在巨大的風險隱患,不僅是信息內容的準確性問題,更存在被誘導性闡述的問題,包括會被誘導回答違反法律禁止性規定、違背倫理、種族歧視、傷害行為等問題[23]。基于此,《自然》雜志給出了進一步研究亟待重點關注的5個問題:務必要對模型進行持續校對;制定問責制與規則;投資于真正開放的大語言模型;擁抱人工智能的好處;擴大辯論范圍等[30]。這些問題也進一步成為國內外人工智能相關政策規范的核心導向和關鍵內容。全球范圍內,在《人工智能責任指令》(AI Liability Directive)、《人工智能法(草案)》(draft AI Act)的基礎上,歐盟正在推進其《人工智能法案》的最后立法進程;美國和日本等發達國家也預計在2023年年底前出臺監管政策。
總體上,導致ChatGPT等人工智能風險涌現的根本原因在于世界資源有限性與人類和人工智能需求無限性之間的矛盾,核心誘因則在于人類社會資源分配不公、法律規制不明等現實問題。關于合法性成本過高是否會扼殺技術應用的創新發展,這是一個國際社會不斷辯論并且持續推進的關鍵課題,同時也啟示ChatGPT應在新一輪的韌性演進發展中可持續地改進升級。
作為一種靈活適應于情景變化的治理范式,“韌性治理”的系統性、包容性、演進性恰好契合ChatGPT的發展特性和改進需求等,同時,與我國推崇的“包容審慎”監管原則存在較高的匹配度和融合度。其中,從整體性和系統性的角度出發,制度、技術、組織可視為面向ChatGPT應用風險治理的3個重要維度和梯度,系統建構起以制度規制為核、以技術發展為先、以協同建設為基的韌性治理路徑,將成為當前及未來推進人工智能應用可持續戰略發展的必然選擇。
與“演進韌性”的研究范式相對應,“韌性治理”同樣強調系統性、過程性、發展性等基本規則。在對區塊鏈、算法推薦、深度合成等立法之后,我國對生成式人工智能這一新興領域進行了又一次探索。隨著2023年4月11日發布的《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱“《征求意見稿》”),以及2023年7月13日出臺的《生成式人工智能服務管理暫行辦法》[31](以下簡稱“《暫行辦法》”),“規制法”還是“促進法”的爭論在短時間內得到了最優解,中國人工智能的立法已步入嶄新階段。相較于國際社會尤其是歐盟相關規制辦法,中國人工智能相關制度規范更強調一種立足國情的發展性和平衡性。堅持“包容審慎”的基本原則以及“負責任的技術創新”的發展宗旨成為ChatGPT可持續應用迭代的核心遵循,其中突出強調的包容性、冗余性、響應性、反思性、可持續性等,需在“韌性治理”系統范式下作進一步融合與建構。
技術應用問題的復雜度決定其治理必須延伸到制度規制的全面構建。如何在ChatGPT應用的優化改進中考慮更多的社會公平理念,又如何使其更加科學性而非投機性地融入社會實踐,成為韌性制度營建需要不斷深耕的課題。
一方面,《暫行辦法》是我國在平衡科技發展與科技安全兩者關系方面所進行的有益探索。在新興技術及其應用發展中,技術發展與技術安全如何平衡是一個永恒的關鍵問題,尤其是與傳統的網絡空間相比,人工智能領域往往具有更為突出的不確定性與不可控性。基于此,《暫行辦法》的價值取向之一正是確保安全,“實行包容審慎和分類分級監管”是其中的核心觀點和價值導向。這是對既有安全三法(《中華人民共和國網絡安全法》《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》)的承接,也是對《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》等相關規定的吸納。此外,與歐盟等以風險預防和責任追究為中心的立法不同,中國《暫行辦法》的用意并不止于管控,還用大量篇幅表達出推動產業發展的方向,尤其強調“鼓勵生成式人工智能技術在各行業、各領域的創新應用”,這不僅能讓企業方更清晰、高效地開展相關工作,也能促使生成式人工智能的研發降本增效。可以預見的是,未來生成式人工智能的標準規范、技術研發、內容創作、行業應用等生態體系架構將日趨完善。屆時,無論是ChatGPT賦能各行各業升級,還是以ChatGPT帶動社會大眾進步,都將在法治框架下更加健康有序地推進。
另一方面,在總體國家安全觀指導下,亟需進一步完善相關法律體系,構建韌性化的技術發展環境。誠然,科林格里奇困境(Collingridge's Dilemma)始終伴隨人機互動的動態發展,但在ChatGPT應用中必須要求其符合相關法律監管。《暫行辦法》中強調“國家堅持發展和安全并重、促進創新和依法治理相結合的原則,采取有效措施鼓勵生成式人工智能創新發展,對生成式人工智能服務實行包容審慎和分類分級監管”,并指出“提供者應當明確并公開其服務的適用人群、場合、用途,指導使用者科學理性認識和依法使用生成式人工智能技術,采取有效措施防范未成年人用戶過度依賴或者沉迷生成式人工智能服務”[31]。總體上,目前《暫行辦法》不論是技術界定、組織建構還是相關條例呈現等,都強調建構協調有序的動態發展環境,追求一種技術向善的韌性治理與發展路徑。而面對日趨復雜化的風險治理格局,未來仍需通過韌性制度的系統考量和動態支撐來有效應對風險。其中,應重點探討《暫行辦法》將如何升級為建設人類命運共同體的關鍵策略,共同推動負責任創新倫理進一步走向世界領域。
面向ChatGPT應用的戰略路徑建構,擁有自適性和學習性的ChatGPT本身也可成為韌性治理的關鍵。自組織(Self-organization)是研究客觀事物自身結構化、有機化、有序化和系統化過程的理論,其認為社會經濟系統演化的根本力量在于系統內部的自組織力量,強調系統內部各子系統能自行按照某種規則形成一定的結構或功能等。由此,面對ChatGPT及其應用中的各種風險溢出現象,首先應依靠其技術優勢予以自主優化和全面改進,從而在更大程度上助推整個韌性治理進程。
相較于之前的《征求意見稿》,近期出臺的《暫行辦法》中多了一項法律依據即《中華人民共和國科學技術進步法》。其中的指向性也十分明確,即未來ChatGPT應用將側重“發展”而非一味地“限制”。誠然,通過學習人類數字化文明而形成的ChatGPT不是絕對可信的,但其可信度具有一定穩定性和可測性。因此,“治理ChatGPT”決不能脫離“運用ChatGPT治理”的基本邏輯路徑,具體可以從技術理念、算法應用和安全規制等多個方面開展具體的戰略路徑建構。
在技術理念上,ChatGPT可通過自主性、反應性和機動性的經驗學習,以技術上的自我修復和自我調整應對系統中的故障或錯誤。一方面,ChatGPT可以實現從生成到創造層面對人類的“超模擬”,其所使用的生成模型主要包括生成對抗模型、自回歸模型、變分自編碼模型、流模型以及擴散模型;另一方面,針對算法倫理缺陷,需要建立機器自我審查和自我糾偏體系,為其突破的倫理邊界建立“圍墻”,達成一致性的技術倫理準則,并進一步明確技術發展指向[32]。
在算法應用上,數據是ChatGPT深度學習的基礎,也是作出問題反應的重要資料,ChatGPT需在提高數據安全性和對齊性(Alignment)等方面加大力度,保障機器在公開、透明的環境下進行數據學習與挖掘。一是要加強算法檢驗,在日常機器學習訓練中,需要掌握ChatGPT話語規律和決策動向,加強限制回答違法違規問題的算法調配,并采取強有力的保護措施,防范私人信息被無端侵入;二是加強模型的調試與平衡,當給予不合法的輸入時,ChatGPT可能會產生不受歡迎的信息內容,但ChatGPT也可能表現出對安全輸入過于敏感謹慎,因此,在與人類反饋對話中仍需找到更好的平衡點。
在安全規制上,亟待加強數據遭受攻擊的全方位情境訓練,建立健全防火墻保護機制。需要明確的是,《暫行辦法》中強調要“采取有效措施,提升生成式人工智能服務的透明度,提高生成內容的準確性和可靠性”[31],蘊含著一種柔和的、漸進的做法,并非嚴禁出現不準確的內容。因此,針對ChatGPT輸入問題、輸出決策時產生較多問題等方面,需要關注錯誤關聯特征,并在反饋訓練中不斷糾偏,使輸出的話語體系逐漸完善。這將成為以ChatGPT為代表的人工智能產品強化其合法性和有效性的關鍵所在。
人是萬物的尺度,尤其在韌性治理層面,既需要技術的“力度”,也需要人的“溫度”。在整體上,ChatGPT等人工智能未必能夠達到人性化治理的實效。當前,面對ChatGPT生成傳播中“人”的因素被弱化的事實,以及數字化建設中呈現出一定的碎片化、分散化發展傾向,組織需要通過有效嵌入和有力施展,助力韌性治理的全過程和全環節。一方面,《暫行辦法》是由國家網信辦聯合國家發展改革委、教育部、科技部、工業和信息化部、公安部、廣電總局等七部門聯合發布的;另一方面,在《暫行辦法》中也強調“支持行業組織、企業、教育和科研機構、公共文化機構、有關專業機構等在生成式人工智能技術創新、數據資源建設、轉化應用、風險防范等方面開展協作”。由此,在韌性組織治理上,應當賦能引導多主體各司其職、群策群力,進一步聚合并釋放出協同建設效能。 首先,政府部門一般具有更高的權威性和統領性,在制度規范和政策指引方面提供強有力的支撐。根據《暫行辦法》中的“監督檢查和法律責任”,“網信、發展改革、教育、科技、工業和信息化、公安、廣播電視、新聞出版等部門,依據各自職責依法加強對生成式人工智能服務的管理”[31]。由此,各部門需結合自身在各領域的韌性能力與經驗,以組織協同建設的方式協同抵御風險的生成演化。國際上,加拿大、新加坡、英國、芬蘭等國家的政府部門都開展了針對ChatGPT的素養教育,這將有利于減少社會倫理風險。
其次,具有專業性的行業組織、企業以及其它社會組織也可加入協作陣營,尋求一種“資源互補、信任互贈、責任共擔、治理有效”的多主體治理方案。例如,可以建立行業間的大數據協同體系,推進信息共建共享共治,提升ChatGPT應對問題的專業化程度。而企業方則可利用成熟的信息資本、強大的技術能力以及市場化、社會化運作的經驗模式,為ChatGPT應用的發展與治理貢獻優勢效能。
最后,以廣大用戶為基礎的社會力量同樣不容小覷。大眾是ChatGPT社會化應用拓展的主要服務對象,他們更容易接觸、感知并揭露各類現實性應用風險,因而在發現ChatGPT應用不符合法律、行政法規和相關管理辦法的情形下,用戶應當有意識、有責任向當地主管部門投訴舉報,通過意見反饋給予韌性治理以更強的社會參與性和政策說服力,從而在組織統籌和技術建設中強化人工智能技術真正為民所想、為我所用。
此外,行業自律和自我規范是組織建設的應有之義。利用元規制治理ChatGPT的風險性,不論從正當性抑或有效性考量,其中的參與者和處理者都應承擔相應風險[33]。作為ChatGPT及其應用的核心創造者和改進者,相關科學家、技術服務人員以及營銷管理人員等也需加強行業組織自律,同時強化與政策制定者的共商協作,從源頭控制和縮減風險性的衍生,并有責任防止群體或個人利用技術走入灰色地帶,否則也需承擔相應的“風險代價”。
當前,“共同構建網絡空間命運共同體”的主張逐漸成為全球共識。《暫行辦法》中也特別強調,“鼓勵生成式人工智能算法、框架、芯片及配套軟件平臺等基礎技術的自主創新,平等互利開展國際交流與合作,參與生成式人工智能相關國際規則制定”[31]。可見,針對ChatGPT的廣泛應用及其快遞迭代,國家和地區之間的合作治理具有更強的必要性和迫切性。回到“韌性”不易破損、越挫越強的原意,“韌性治理”的理念貫徹在很大程度上仍依賴于算法責任的合理分配以及組織建設的聯動賦能,進而在集體協商與規范共治的指引下,不斷促使人工智能技術的可控性落地。
無論盛贊或詬病,都是數字化轉型進程中對生成式人工智能應用的考察與注解,旨在引導其向善發展,進而增進人類福祉[34]。在效率優先、復雜多樣且充滿不可預測性的應用中,各類風險性也在不斷擴散和延伸,成為制約人工智能發展甚至人類社會進步的最大不確定性之一。針對ChatGPT“實踐大于理論”以及“業界超越學界”的現實趨勢,學界尚缺乏一套具備理念和實踐張力的治理范式,對其正負面功能以及規制路徑等進行系統研究。基于此,結合ChatGPT應用的創新性、開放化、共享式主題背景,本研究以具有系統化思維、公共服務價值導向和綜合應對機制的“韌性”范式進行解構和建構,從“韌性”“演進韌性”以及“韌性治理”等方面解釋技術應用的特性,探析發展過程中的演進狀態并融合建構整體治理路徑等,從而形成一套整體性、全局性、普適性的認知系統框架,有助于學術界和實務界更好地理解、應對并規劃ChatGPT及其應用的可持續發展。
總體上,雖然難以規避甚至消除ChatGPT等人工智能技術所帶來的諸多不確定性,但可以肯定的是,人與技術始終處于相互依存、不斷演繹的關系中,兩者在聯合發展過程中不斷耦合、生成和重塑。由此,人類本身的主觀能動性以及思維力、創造力等往往能在逆境中迸發或涌現出來,并且這種“韌性”能力在政策規制的積極引導下,更可能轉化為一種應對社會變革、治理社會問題的整體“韌性”范式。進一步地,在“韌性”及其衍生范式的有機解構和有效指引之下,ChatGPT等人工智能應用可以更具“韌性”張力地釋放社會價值并持續演化改進,從而在整體層面和長期意義上推動人工智能向上向善發展。未來還應基于“韌性”理論視角,結合前沿研究方法和分析視角,展開ChatGPT及其應用的性能測評和社會評價等科學化探索,從而更好地洞察和研判人工智能技術的現實發展樣態,進而更具前瞻性和針對性地謀劃人與技術共生共存、協同發展的美好藍圖。