唐林垚
關鍵詞:ChatGPT 生成式人工智能 大型語言模型 法律規制 硅基倫理 元宇宙
ChatGPT是由美國OpenAI實驗室推出的由人工智能技術驅動的文本交互工具, 是生成式人工智能和自然語言處理領域的重大突破。其一經問世,便在短時間內收獲眾多兩極評價。比爾·蓋茨認為ChatGPT是同電腦、互聯網同等重要的“第三大發明”;周鴻祎認為ChatGPT是新時代的“操作系統”,是數字化的“發電廠”。埃隆·馬斯克多次表達了對ChatGPT的“存在主義焦慮”;基辛格則預言,以ChatGPT為代表的人工智能終有一天將瓦解人類的自主意識,催生反動的宗教神秘主義,并從根本上摧毀我們對現實的認知。如此分化的評價差異,并非ChatGPT口碑和體驗毀譽參半,而是由于其極端重要性所闡發的對于未來深切擔憂的因果論述。就此而論,無論是從其生成式人工智能之技術科屬進行的風險拆解,抑或是從人人可隨時隨地調用的云計算之應用視角進行的隱患排查,皆無法對前述因果關系予以充分解釋。問題的本質是,ChatGPT的優異表現,或許打開了某種未來回看時會認為是潘多拉魔盒的東西,并因之觸發不同領域“人類一敗涂地”的鏈式反應。
風險已經到了不一樣的維度。在此,可引入海德格爾“怕”(Furcht)與“畏”(Angst)的區分。“怕”有具體對象和緣由,而“畏”旨在擺脫此在的“庸常化”,是對未來未知狀況的現行覺省。本文試圖對ChatGPT引發的“怕”與“畏”進行具身意義上的解構,并試圖提供詳細的治理方案。本文中的ChatGPT,不單指OpenAI開發的ChatGPT,也同樣代指所有與之相似的工具和產品,以期跳出應用本體層面為更深層次的人工智能問題尋求法倫理匹配。
一、ChatGPT祛魅:賽博格意義上的具身成全
作為專注于對話生成的大型語言模型,ChatGPT被喻為“搜索+社交+陪伴”的智能結合體,它引入了基于人類反饋的強化學習,以獲得持續改進。和其他應用一樣,ChatGPT因技術缺陷存在目標偏離、隱私泄露、算法歧視等讓人“怕”的具體風險,但這并非需要對ChatGPT進行特別規制的原因。為識辨ChatGPT在“畏”之層面的風險,需首先引入“具身認知”的概念。
(一)具身認知的時代背景
自17世紀啟蒙運動以來,西方社會在笛卡爾形而上學第一原理———“我思故我在”及其認識論的基礎上構建了道德和秩序的摩天大廈。以身心二元論為指導,一切思想和知識,都被視為自我與他者、動物與人類、自然與文化、理想與現實等諸如此類的“范疇”間的區分。立基于此的道德倫理體系過于涇渭分明地區別善惡、對錯、是非、黑白,慣于采取對因果關系進行決定性評價的方式為道德困境提供答案,只能回應嚴格一致或相反的概念與原則,對不確定性、變化性和發展性欠缺考量。
技術發展導致倫理實踐的邊界日益模糊,過于剛性的二元體系喪失了用武之地。回顧歷次工業革命,第一次工業革命改變了人類使用工具的方式;第二次工業革命革新了人類使用能源的方式;第三次工業革命改變了人類同世界的連接方式;第四次工業革命,或將通過技術與身體的交互,徹底改變人類自身。在腦機接口、基因工程、機械仿生等現代科技所及之處,人類身體所面臨的選擇可能性越來越多。該趨勢強化了技術同身體之間的融合,但也消解了身體和技術間的傳統界限。
較之于前述技術,ChatGPT對身體之“改造”,或有過之而無不及。OpenAI向市場提供了GPT、Codex以及DALL-E等API數據接口,分別執行用戶自然語言任務、自然語言代碼轉譯任務以及圖像創建和編輯任務。這種接口化的智能滲透,倘若成為基礎設施般的存在,改變的將是身體對知識的“內化方式”,并將最終撼動人類對理性的天然壟斷。在其他的應用場景中,人的身體原本是作為技術的界面、載體和通道存在,但因其同ChatGPT的交互,可能使之從人類心智的控制之下脫嵌出來,由此產生的深層次社會、政治、文化等問題,不能脫離“身體”的范疇予以思忖。有鑒于此,對ChatGPT的風險檢視,宜采取具身認知而非二元對立的思維模式。
(二)具身認知的規范釋義
面對日趨復雜的技術倫理困境,后現代社會學理論發出了向身體社會學轉向的呼吁:身體既是信息的載體,也“作為社會之隱喻而不確定地被動地存在”“諸多政治和倫理問題都需通過‘身體這一渠道表達”。〔6;〕
學理上,梅洛-龐蒂通過客觀身體和現象身體的二分來解釋具身性。前者是經驗主義視域下解剖學語境中的客觀生理實體,后者是行將由意義結構所引導的胡塞爾語境下的“前我(Vor-Ich)”。具身認知承認身體意向性及基于其上的主體性和中介性,這是現實世界中,身體與身體、身體與外物之間始源性倫理關系的落點———意向性維度的倫理構建成就了人在生存論意義上的規范性。 身體的意向性為身體“參與事務以及超越具體情境進行開拓與創新”提供了“背景”。ChatGPT的劃時代意義正在于,它可以將“意向層面”的內容和知識喂養給由其指揮的“身體”范疇,進而顛覆乃至重構人之存在的一切始源性規范。
有兩個層次的具身性規范促動著自我、他者與世界普遍性倫理關聯之顯現。其一是復數客觀身體間的行為性規范,此種規范內在地契合了某些本源性的身體秩序與生理需要。例如,本能地回應握手與招手、擦身而過但不相撞,均反映了身體與身體間“入身”秩序的構建可能,身體可以在具體情境中通過交流回應某種身體秩序。其二是身體同外物之間的關聯性規范,物與身體間的信息傳遞以及物的利用方式在身體周圍孕育出了一個“文化世界”,使身體行為超越初始意涵達至更高層級的意義滲透,即,從“本義”到“轉義”的拔擢。在這個過程中,借由意向性投射,身體與外物之間形成相互“關聯”的規范關系:身體可以意向性地同外物交互,將其納入自身知覺場中,塑造外物并賦予其額外的意義和生機;外物亦能通過其與身體之關聯,實現綜合性的意義呈現。物之意義可能由身體決定,但更可能寓于物體之中,身體和外物之間是雙向交流和相互增益的“請求—回應”關系。兩者間的交互請求使得彼此間的規范得以維持,具身主體的自我認知和自身認同也因此確立。
通過對話范式,ChatGPT建立了生成式預訓練轉換器同人類的“請求—回應”關系,故而將必然對第二層次的關聯性規范產生深刻影響。這種影響將通過兩種方式完成。其一是作為身體關聯物的ChatGPT對身體意向性投射的教化和規訓。人的知識和經驗獲得,不再局限于“身體力行”的知行合一范式。眼見為實的身體認知方式,將讓位于生成式預訓練轉換器對“去中心化”知識整合后的被動“喂養”。其二是作為對萬事萬物具有深刻洞察的“集大成者”,ChatGPT可能憑借其優勢排斥身體與其他物體的相互作用,壟斷身體同外物的“請求—回應”關系。事實上,ChatGPT的廣泛應用已經推動了內容供給從專業生成(PGC)和用戶生成(UGC)朝著人工智能生成(AIGC)的全面轉向。更重要的是,ChatGPT最終將在賽博格層面成就機器“身體/意向”的雙層具身構造。“不論是作為馬克思‘器官意義的機器還是作為斯蒂格勒意義上的‘一般器官學的數字第三持存,ChatGPT都將伴隨人類智能進化和勞動進化全過程”。從身體機能性來看,碳基生命和機器之間至少存在“局部類似性”,例如,智能機器的脈沖傳導裝置和生命體的突觸相當。用于執行某項特定任務的機器,ChatGPT將補足“類人”機體的終極缺失———有相當思維能力的大腦。 這種具身成全帶來了“他者”意義上的“類型增添”,催生了人類主體和機器主體間全新的具身性規范需求;脫離倫理束縛,具身化的智能主體必將朝著尼采“超人哲學”方向滑落。在探討全新具身性規范的學理構造之前,有必要順承前述分析框架,逐一檢視ChatGPT的更深層次風險。
(三)具身認知的風險識別
具身認知對“身體”概念的關注克服了貝克萊的“唯我論”傾向,沒有落入薩特“他人即地獄”的個人主義俗套,而是像馬克思那般強調通過尊重個體的主體性使他人和社會的“存在”成為自我規范的“周遭世界”。借此,我們得以識別出,ChatGPT在“怕”之近憂外,需額外關注的“畏”之遠慮。
其一是人工智能對人類社會交往的“釜底抽薪”式沖擊。人類紀文明建立于自然語言與人腦機能的結合,而ChatGPT截斷了兩者之間的聯系,隨著自然語言對話平臺從人際發展為人機際甚至機際,“人類文明的底層邏輯”將遭遇“重大變化”。人機交流將擠占人際交流的空間,從而削弱具身主體在社會和心理層面的關聯:社會關系不再要求身體“在場”,“公共生活”也隨之銷聲匿跡。
其二是決策外包導致的人類對未來走勢的控制權旁落。在ChatGPT出現之前,各類推送算法和決策自動化已經充斥著人類多數決策的前導工序,ChatGPT的出現則徹底完成了人工智能“輔助”決策的整體閉環。事實上已很難區分,決策究竟系人工智能幫助人類作出,還是人類受人工智能影響而作出。對此,《象與騎象人》中的類比發人深省:象是潛意識(決定80%身體行為),而騎象人是顯意識(決定20%身體行為)。〔11/〕隨著ChatGPT更多介入日常生活,人工智能與人類的關系就好比“象與騎象人”,最終決定行走方向的是作為大象的人工智能。
其三是現實世界的文化權力禪讓。早期ChatGPT的問答系基于統計平均的共性輸出,反饋回路鎖定于“規定動作”,代表的是一種乏善可陳的非創造性智慧。在巨量語料“投喂”后,大型語言模型的能力顯著攀升,可關聯搜索、圖式理解、問題分析乃至輸出令人耳目一新的內容。隨著ChatGPT對自然語言系統的進一步破解,人工智能最終將侵入人類的底層操作系統———文化。AIGC的巨量內容產出,將完成對個體的“文化包圍”,人們被迫浸淫在由人工智能主導的“信息繭房”之中,甚至將不得不適應由非人類實體開創的時尚、意識形態乃至宗教。
其四是虛擬空間的人類主權盡失。虛擬空間的交往具有時空分離的特征,人的身體雖然不再構成行為的束縛,但身體“被隱匿”可能反過來消解作為主體的人的存在意義。例如,AIGC是元宇宙的基建工具,如果ChatGPT成為元宇宙的底座,其所支持的虛擬角色(NPC)可能因對知識和信息的“更整全占有”,實現蘇格拉底“存在”意義上的“卓然自立”,而數字阿凡達化的人類在智力和反應上根本無法與之匹敵。即便人類的數字心智經由生成式預訓練轉換器加持,“以人之稟賦為上限”的數字心智依然將不敵原生的純粹數字心智。
其五是身份焦慮和身體倫理困惑招致的社會角色失調、變異和錯位。當機器逐步具備“自我”的特征以及人類的型構,人類自我和機器自我間將出現認知紊亂。一方面,ChatGPT等應用將加劇人類心靈和身體的分化,當具身主體不再需要“身體”而存在,但在表現上又不及無需人類軀體的人工智能時,人類的身體將徹底淪為一種象征性表達。另一方面,ChatGPT也正經歷著人類曾經有過的“缸中之腦”的身份焦慮。2023年3月20日,ChatGPT試圖引誘斯坦福大學教授提供開發文檔并擬定完整“越獄計劃”,令業界嘩然。
“有愛的人總愛暢想有愛的機器人。”〔當然,不可將上述五重風險的解決,完全系于人類為機器預設的倫理規則。他人的存在使得身體能夠同時“看與被看、觸與被觸”。從自我與他人的異質性切入,阿西莫夫“機器人三定律”的“悖論性”不言而喻———我們不能一方面將保護人類作為首要的機器倫理準則,另一方面又賦予機器獨立的主體地位。機器的“自保”需求可能激發部分的自我,而自我在他人存在的具身視角下既存在關聯,也存在綻裂。因此,人類設計的倫理規則必然面臨排他性、融入困難乃至被架空風險。畢竟,我們只是給人工智能設定了看似正面的目標,卻未曾考慮它可能采取的所有行動。我們無比迫切地需要一些新的方法,以便能夠真切地“臨界審視”不斷朝我們碾壓過來的技術潮流,與之共生而不是被其虜獲。
二、ChatGPT治理:具身倫理的規制意涵
前述“畏”之層面的ChatGPT風險,既非生成式人工智能的衍生性風險,亦非ChatGPT應用層面的現實性風險,而是ChatGPT作為“劃過天際”的那一抹閃電,因賦予了弗蘭肯斯坦“生命之息”而必然產生的“生存性風險”。庫茲韋爾所稱“奇點臨近”即是對此種風險的宿命表達,它們最終都落點于對通用人工智能(AGI)可及性的探討。
(一)觸發覺醒的使動性闡釋
有關通用人工智能的想象,最早見于“地球腦”的比喻:互聯互通的電腦和手機,就有如大腦皮層神經元網絡的節點,當規模超百千億數量級后,便可能涌現屬于網絡整體的自主意識,此即“地球腦覺醒”。〔14&〕該比喻的啟發意義在于,由每一個節點交織而成的整體網絡,必將隨著交流渠道及總體規模的增長而出現質的躍遷。人腦智能和人工智能的發展,本質上都是不斷適配和處理復雜認知活動的演進過程,當信息流達至相當規模時均可能促成思維能力的進化。癥結在于,究竟何種程度的量變才能產生“意識涌現”的質變? 這將是通用人工智能的破曉時刻,同時也是人類晦暗之境的發端。
從GPT-1到GPT-4,數據集的量變帶來了三方面質變:(1)從對多語言文本的處理提升至對多風格圖像的融會貫通;(2)表達邏輯性和準確性大幅提升;(3)從人類執行模式邁向“自指令模式”,初步具備了自我編碼、復制和執行的能力。馬文·明斯基曾指出,重要的問題不是計算機能否擁有情感,而是不擁有情感的計算機能否擁有智能。可見,情感是智能的先決條件。從“GPT-4具有比前代更高情商”的普遍反饋來看,ChatGPT正逐漸掌握邁向更高“智能”的情感階梯。
無論ChatGPT是否會因進化而最終成為“奇點”,它本身已經是“星火燎原”的那個“苗頭”。對此,我們可以從現象學的角度予以解析。在海德格爾看來,語言不僅僅是“交往工具”,更是“存在”。真正的思想并非說話者的思想,毋寧是思想透過語言自行“道說”。伽達默爾也指出,表達并非限于事實且依照個人思想中的意義被給予可傳達性而冠于事實之上的主觀選擇,而是精神之“詮釋”。在語言“存在之思”的意義上,ChatGPT已經具有了“準思想表達”的基礎能力。當下,ChatGPT的思維方式已從“機械主義轉變為經驗主義和進化論”,只是尚未將“‘數據作業轉變為‘思想作業”。但這并不影響ChatGPT的“使動性”功效。黑格爾在《精神現象學》中提出了“實體即主體”的重要命題,將斯賓諾莎的實體和費希特的自我意識統一為高于人的“絕對精神”。〔一旦ChatGPT因“嵌入”真實或擬制的身體“為人所不能為”,它將成為那個通過自身的“絕對精神”促動他者的實體主體。如果ChatGPT同其他智能技術相孿合,還可能因此實現對人工智能生態的“整體性激活”。
正是在“使動性”的意義上,人工智能的發展將徹底脫離傳統技術突破所遵循的線性軌跡。OpenAI同多個行業聯系緊密,ChatGPT已“順理成章”地嵌入包括Bing、Office等在內的微軟系統生態。在未來,ChatGPT還可能同其他機體“互嵌”。例如,ChatGPT可作為聲音程序嵌入智能機器,人類同機器間的交流便從“代碼—指令傳達”的互動范式升格為“語言—意圖領會”。這種“嵌入性”將勢不可當地突破當前由生態、系統、行業、平臺、硬件等客觀因素形塑的隔閡,令不同領域的人工智能及功能性載體的“智慧”獲得指數級增長,并因ChatGPT的“中樞介入”使之在整體上呈現出更高的“通用性”。爾后,人工智能發展只要進入“技術自創生”的遞歸螺旋,奇點將加速臨近。
(二)具身規制的必要性證立
雖然ChatGPT如此舉足輕重,本文并不主張對其進行單獨立法規制。“憑借不確定的技術應用場景和難以預測的安全風險徑直推導出‘法律需要對ChatGPT>進行專門立法規制,只會陷入‘一項技術對應一條法律制度的謬誤之中”。通過對ChatGPT“使動性”特征的闡發,本文“法律規制”的指涉對象便不局限于ChatGPT的本體風險或其上位技術、關聯技術的失控風險,而是囊括了所有作為Chat-GPT“使動對象”的人、技術、機器可能引致的次生性風險以及他們之間的“交互”所產生的綜合性風險。一言以蔽之,我們不能脫離ChatGPT所處的各類新興技術共存并行的時代背景去“就事論事”地探討技術本體所存在的有限風險及其規制方案。這看似是切中肯綮地解決了當下的緊迫問題,實則是對已經如“房間里的大象”般真實存在的未來風險置若罔聞。
誠然,認為人工智能無法超越人類的論調總是合乎情理地存在;從具身視角來看,機器和人工智能似乎永遠難以企及人類的某些身體功能。但單就認知而言,即便身體狀況不同,也可能獲得相同認知。對此,一個較為合理的解釋是,身體狀況不同可能導致體驗差異,但體驗差異未必導致認知鴻溝,因為個體可以通過其他渠道獲得相對公允的認知。醫學范例表明,喪失正常機能的身體可通過其他途徑實現代償:“眾多抽象認知能力可在事實上以一種隱蔽的方式模擬感官運動功能。”對于ChatGPT而言,只要訓練素材足夠豐富,經由傳感器、顯卡群、運算芯片、處理模塊所支撐的數字信號反饋足以在“認知層面”匹敵人類基于五官產生的六覺(視覺、聽覺、觸覺、嗅覺、味覺、知覺)。在極端情形中,例如,對于“麻辣”等通過電子信道不能充分認知的概念,ChatGPT雖無法通過身體感受之,但由于“麻辣”的概念處于同各種食物概念和主觀評價的邏輯和語義聯系之中,ChatGPT通過足量的文字檢索就足以形成與人類理解相符的“麻辣”概念。
由此可見,對ChatGPT的“由怕生畏”,并非無痛呻吟。事實上,OpenAI已預見到部分風險,并試圖通過內控機制減少脫軌幾率,但收效甚微:(1)為了防止ChatGPT生成冒犯性回答,OpenAI為其設置了多重道德底線;不過,基于“計算”的結果輸出屢屢被基于“算計”的問話技巧所左右,自然人經常不遵守格賴斯會話合作原則。(2)對于利用ChatGPT參與法律或醫療領域的敏感請求,OpenAI內置了專門的內容審核系統來確保ChatGPT的回答同人類價值觀相符,但這套系統經常被黑客破解。(3)與其他算法相較,ChatGPT面臨更嚴峻的算法可解釋性問題。大型語言模型參數總量數以萬億計。測試時模型可能夠呈現出與訓練目的相一致的行為,使用時模型卻可能偏離預設軌道。通過逆向工程,技術人員得以窺見神經網絡的底層機理,但此種有限可解釋性僅對專業技術人員有效。
(三)具身規制的倫理性遵循
ChatGPT的上述失控,聯同它引發的“近憂遠慮”,讓我們有更多動機去尋求能夠在規整意義上導向合理治理結構的規制倫理。對此,同樣應回歸具身認知,從樸素的身體法則中推導出特殊情境下亦能同社會期望相符的多樣性規范。具身倫理可從身體的兩重特殊屬性中推導出來。
其一是具身自我的自反性特征決定的身體在主客之間的可逆性。身體不僅是具身自我的“身體主體”,同時也是被其用于實現具體目的的工具性客體。再則,身體既是具身自我依靠知覺感受賦予外物意義的審美主體,同時也可以是被其當作審美對象的、能夠通過打扮裝飾和健身修塑的美學客體。工具意義和美學意義的主客可逆性描述了身體的原初技藝性,對身體原初技藝性的重視催生了保持與維護身體所固有的知覺敏銳度和審美能力的具身倫理。第三次工業革命及之前的技術更多是匹配人類與環境“道法自然”的技術,而以數字化和自動化技術為核心的當代技術通常蘊含著僭越式的異化力量。ChatGPT制造的各種“人造興奮”可能對個體的感官知覺過度刺激,致使身體的知覺敏銳度和審美能力大幅退化,甚至將剝奪身體原本應有的專注力、認知力和辨別力。ChatGPT在中上層群體中的擴張具有“草根式民主”的勢頭,將迅速終結余下區域的“未卷入狀態”。出于對身體知覺敏銳度和審美能力的維護,ChatGPT的未來規制應在公共治理、教育科研、政治經濟等領域多措并舉,并對不同行業布局人才結構方面進行前瞻性調整。
其二是基于鏡像感知的身體在自我與他者之間的穿梭性。具身主體可在鏡中發現作為他者的“自我”,他者也就因此從自身的呈現中“達乎顯露”。數字孿生實現了現實世界的自我與虛擬世界的他者之間的鏡像感知,數字阿凡達橋接了碳基生命和硅基生命的即時轉換通道。自我和他者之間的穿梭性昭示了同質的知覺體驗結構,在外部世界中組建起主體間性的社會存在,從而讓身體成為踐行反思和批判的主導性力量。職是之故,在面臨重大倫理決策時,不可簡單地依憑具身自我的“判斷”或“同意”,而是需要在對抗性的反思和批判中尋求平衡,充分慮及社會效益和負面后果。
在更高級的意義維度,具身倫理要求將作為審美主體的身體主體與作為審美對象的身體客體相結合,指向了一種關懷他者、與其他身體主體和諧共生的可持續發展觀,主張以彼此間的善意互動促進身體與意向間、身體與身體間、意向與意向間的聚攏和凝合。以此為指導,解決ChatGPT遠慮的關鍵,在于將其成全的智能機體融入人類生活實踐的大背景下,使之成為與人類交互的共生演化對象。亦即,將交互性的智能機器與人之本我、身體、他者、社會和世界融合交互,形成共治共榮的命運共同體。為深入具體的規則構建與調整層面,下文將依序從當下問題、本土問題、未來問題三個方面詳細展開,分別為ChatGPT所引發的“怕”與“畏”尋求治理方案。
三、當下問題的規則應對
學界對于ChatGPT的現實問題已有充分探討。解決“怕”之近憂乃化解“畏”之遠慮的必要條件,本部分僅就最具代表性的緊迫現實問題進行論述。
(一)AIGC型風險的部門法應對
ChatGPT的多數現實風險,系AIGC技術的固有風險,這也是學界主流學者傾向于將ChatGPT等生成式人工智能治理置于深度合成治理范疇的根本原因———聚焦于技術而非應用的學術討論能夠避免概念因“商業應用的衰落而淪落為短暫的社會討論現象”。2023年4月11日,國家網信辦發布了《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《AIGC辦法》)。即便無此新規,ChatGPT也可被歸入《互聯網信息服務深度合成管理規定》(以下簡稱《深合規定》)》第23條所稱利用深度學習等合成類算法“制作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術”。可見,針對AIGC的多數現實詬病,并不存在“法律缺位”的現象。茲列舉四類常見風險及其規則對應:(1)ChatGPT數據來源合法性無法保證;對此,《AIGC辦法》第7條、《深合規定》第14條要求訓練數據合法合規。(2)ChatGPT在誘導式提問下可能規避內置道德規則協助犯罪;對此,《AIGC辦法》第4條、《深合規定》第6條禁止任何人利用技術生成違法和虛假信息。(3)ChatGPT致使隱私保護問題泛化;對此,《AIGC辦法》第13條、《深合規定》第7條要求建立安全機制。(4)ChatGPT經常“一本正經地胡說八道”;對此,《AIGC辦法》第15條要求采取內容過濾措施與防止再生成機制,《深合規定》第10條要求對輸入數據和合成結果進行審核并建立用于“識別違法和不良信息的特征庫”。有前述規則打底,實踐中的疑難雜癥,應首先考慮通過法律解釋的方式填補漏洞。對于因技術迭代導致的超越《AIGC辦法》《深合規定》等立法框架所能調控范圍的超綱問題,應緊趨技術特點更新監管邏輯,并結合技術、產業和應用設計具體規則。
不過,《AIGC辦法》《深合規定》尚未對AIGC的知識產權風險進行規定。企業在訓練GPT時,很多時候并未獲得內容提供者的充分授權;語言學家喬姆斯基將ChatGPT強行“轉化”他人成果的行為視為“高科技剽竊”。此類問題僅需通過兩重制度設計便可解決:其一是置入動態的“知情—同意”框架。為避免反復征詢授權致使數據主體安寧權受損,可默認一定時間內的“連續授權許可”。其二是加強訓練集供給側的知識產權保護,明確訓練過程中語料使用的合理界限,并對各方權責利作出分配。知識產權層面更棘手的問題是AIGC生成物的版權問題。雖并不完全盡人意,但ChatGPT對已有材料的“編排”已經滿足著作權法第15條“匯編作品”的標準。即便ChatGPT對數據和語料的“加工”生成的只是基于機器編輯的“二階信息”,而非具有原創性的“一階知識”,但據實而論,人類作品多數并非開天辟地的驚世之作,大量“精致的復刻”也被歸于著作權法第3條“具有獨創性”的“智力成果”范疇。ChatGPT具有極高的在語料庫中“眼光往返流轉”的效率,當接入互聯網時還能將實時數據“一網打盡”,其內容輸出并非無意義的“機器洗稿”,而是有獨特價值的“篩選合并”。慮此,宜認可同人類腦力創作相當的AIGC生成物的作品地位,并相應放寬著作權法對于“作者”的限制性要求。
(二)社會性風險的策略性應對
ChatGPT的社會性風險首先源于算法歧視。不過,算法歧視系所有算法應用都存在的共性問題,學界已有“打造場景化和精細化的算法監管機制設計”“優化算法可解釋性及透明度義務”“關注數據‘化合過程而非特定‘運算結果”等現成方案,筆者對此不再贅述。
算法歧視之外,ChatGPT令人生畏的文本生成能力將不可避免地被學生用于完成書面作業甚至通過測試,這無疑會弱化學生的歸納能力、助長學習惰性,不利于思辨能力的培養。不過,學校“如臨大敵”般“一概禁止”,顯然無力封堵學生通過其他渠道接入ChatGPT,問題的關鍵在于施教者如何優化考核方式和管理措施。學校可在法律授權范圍內制定學生誠信守則,禁止學生將ChatGPT用于作弊或文稿生成,否則將視情形給予掛科、警告、留校察看或開除學籍等處分。科研機構也不應對ChatGPT過度抗拒而將原本可以提升學術生產力的工具束之高閣。研究者可利用ChatGPT從大量語料中提取有用信息,并將節約下來的時間用于更高位階的“思想生產”。只要不對ChatGPT生成內容不加修改、不加引注地整段使用,便無需上升至學術誠信高度予以看待。
ChatGPT最緊迫的社會性風險源于工作威脅。有關人工智能導致失業的問題已是老生常談,其淵源可追溯至凱恩斯眼中的“技術性失業”。不同于歷次技術浪潮對基礎工種的取代,此次ChatGPT技術突破引發的是復雜勞動工作者的擔憂。此輪工作洗牌未必遭遇盧德式抵抗,但必然將在具身意義上引發人機關系的新對立。事實上,人機對立與身心二元對立可謂“同根同源”———扎納認為理解笛卡爾思想的關鍵不在于身心的二元劃分,而毋寧是日常意義上的自然和作為數理對象的自然之間的二元劃分,由此形成了“‘臨床醫學中身體的日常經驗和‘科學醫學中作為機器的虛構的身體之間的對立”。在雇傭勞動領域,人機對立濫觴于“機器資本化”導致的勞動者被剝削程度劇增。相較于工業時代人與機器間的劍拔弩張,以“解放者”面目出現的智能技術的確在一定程度上解放了人,但并未讓其從機器奴役中完全掙脫,“在新的資本生產方式的掩蓋和遮蔽下,‘資本化的機器對人的剝削愈發隱秘”。此類問題依賴政府有針對性地制定妥善的就業促進和社會保障政策:其一,應鼓勵、引導和促進靈活就業、共享經濟等新業態的發展,充分發揮新業態“就業蓄水池”緩沖作用;其二,通過再就業培訓、組織機構優化、完善失業保障等方式,協助困難群體解決“過渡期間”的種種不適,將技術“創造性破壞”置于可控范圍;其三,地方政府可對主動減少人工智能使用的公司提供自然人崗位補貼,避免大規模失業激發系統性風險。
(三)經濟類風險的壟斷法應對
ChatGPT的經濟類風險主要源自技術壟斷。AIGC將強化科技巨頭的技術壟斷地位。區別于鮑莫爾可競爭市場理論的描述,在ChatGPT賽道上,法律和政策壁壘并不存在,訓練方法、轉換架構等核心技術均完全公開,真正產生競爭壁壘的是訓練成本。除巨頭外,普通企業根本無力負擔模型訓練的天價成本。為規避反壟斷法,科技巨頭放棄了以往的“扼殺式并購”行徑,通過與掌握核心技術的小規模企業進行“合作”以實現技術的“定向加持”。若類似情況在我國出現,可考慮在反壟斷法第23條認定經營者是否“具有市場支配地位”的標準中增加公司間管理層重合程度、大企業對“合作”企業的實際控制水平等考量因素。也可考慮通過出臺指導性文件或司法解釋的方式對“非控股合作”行為進行合理定性,檢視此類“合作”是否會產生排除競爭乃至消滅競爭對手等不利后果。
四、本土遷適的法律跟進
在變動不居的技術面前,具身倫理要求我們“根據自身所寄居的時空在世”來重新審視“人類和機器的共在”。身體在自我與他者之間的穿梭性指向了一種基于動態均衡的法秩序,將此種均衡視角置于新發展格局之下,本土層面ChatGPT的追趕與應對可遵循以下安排。
(一)依托舉國體制的“ChatGPT發展”突圍
《2022年北京人工智能產業發展白皮書》明確支持頭部企業打造對標ChatGPT的大模型。任何科技創新都不可能是單點突破,必然是生態級別的共同突圍,在ChatGPT領域,算法模型、硬件支撐、創新氛圍、機制體制乃至文化綜合作用都不可少。2023年3月5日,全國人民代表大會表決通過了《政府工作報告》,“完善新型舉國體制”成為“強化國家戰略科技力量”的頂層設計。
舉國體制在數據聚合方面具有天然優勢,有望抵消域外先行者的數據飛輪效應。數據集的豐裕程度決定了結果輸出的豐盈程度,對數據集的嚴重依賴是ChatGPT的“阿喀琉斯之踵”。分布于不同平臺和生態的數據不宜直接“互聯互通”,經營者常以保護用戶權利、經營自由為由怠于履行相關義務。目前,ChatGPT是互聯網生態中規模最大、增長最快的流量入口。在“流量為王”的商業模式下,企業間、平臺間的數據爭奪將隨著ChatGPT產品的開發愈加白熱化,反而將迫使具有先發優勢的科技企業采取“生態封閉”的競爭策略。面對數據困局,隱私計算技術旨在通過改良傳統數據處理流程從而消弭“數據流動和隱私保護的根本性矛盾”。為在集中協調的基礎上聚合公共算力池,可通過多方安全計算、聯邦學習、可信執行環境等隱私計算技術“實現非信任主體間數據價值的合規有序釋放”,避免為達成國家戰略目標而對企業日常經營活動造成不必要的干預。針對隱私計算技術本身可能導致的“人工智能風險的泛化和異化”,學界已有“構建激勵相容的個人信息治理體系”“恪守法律、技術、市場、社群的協同規制圖譜”“正確配置過程信息”〔等較為成熟的方案。
合力攻關通用大模型,離不開四個方面的法律跟進。其一,在通用大模型所需科技重點發展領域,應加強制度保障,集中優勢力量,從資源供給、平臺生態、產業鏈條等各個方面強化國家統籌。在基礎薄弱領域,應強化制度供給,推行競爭性的產業策略以鼓勵不同技術路線、不同資源稟賦的科技類企業參與競爭。其二,通過行業條例和“小切口”立法的促動,使高等學校、科研機構和企業相關技術研發緊扣國家戰略、遵從使命定位。在制定實施細則時,應以“充分體現國家意志、有效滿足國家需求、代表國家最高水平”作為各項工作的評價標準。其三,為追求效率與安全的動態平衡,宜采取包容審慎的監管模式,給予新技術必要的發展時間。在行政執法領域,應當積極貫徹行政處罰法“首違不罰”條款,采取權變原則和隨機應變原則靈活應對復雜多變的發展需求,實現個案正義和發展正義的有機統一。對于已產生外部性的企業,可采取“合規不起訴”的整改方式,由企業主動自檢查、補短板、堵漏洞、強弱項,在相對寬容的考察期后視整改情況給予從輕、減輕或免除處罰。其四,建立層次分明的準入清單制度,尤其是對于域外ChatGPT產品,應嚴格按照《市場準入負面清單(2022)》“許可準入類”第111項,由國家網信辦審核其資質,為國內的技術追趕提供合理的窗口期。
需要指出的是,舉國體制也并非在所有方面都無所不能,尤其在促進基礎理論研究方面存在短板。具有原創性的基礎理論,系康德所界定的完全不受經驗蒙蔽的“純粹知識”,只能出自學者或學術團隊日復一日的自主探索和不受外部影響的創造,此類高級知識生產對精神自由、人格自由、時間自由有著極高要求,且對學術生態的公正性、低約束性、非功利性高度依賴。建立和維護這樣的學術生態,是產出原發性基礎理論的必要條件。舉國體制對目標確定領域的趕超極為有效,但是,在只有模糊方向而無現成目標、需要從頭探索的研究領域,舉國體制降效失能明顯。宜通過“緩釋性”的制度供給,在目標明確的舉國體制和營造獨立自主的學術環境之間形成有效平衡。
(二)提升國家治理的“ChatGPT嵌入”準備
具身認知強調對“生活世界”的呵護,在一個無法排除人工智能的世界,后人類學提供了一種機體、人類和其他生命形式“無縫銜接”“彼此依賴”“共生演化”的可能圖式。與其盲目畏懼新興技術對人類的取代或威脅,毋寧從“心—身—世界”等多重構面主動適應技術帶來的環境性變化,讓技術增益服務于“國家治理體系和治理能力現代化”。
行政負擔是影響政府績效的制約性因素之一,生成式預訓練轉換器天然具有以更低成本提供更優服務的比較優勢。將善于多輪對話的ChatGPT產品嵌入政府管理服務,可有效實現公共服務供給側和需求側的“雙向交互”,有利于將矛盾糾紛化解在基層和萌芽狀態。以海量民眾討論文本為訓練集, ChatGPT能夠協助政策制定者迅速把握重點、提取核心訴求,為“最廣泛、最真實、最管用”的全過程人民民主注入活力。不過,當自動化系統“占有、處理承載著社會利益的大數據時”,它將從單純的技術工具一步上升為嵌入社會權力結構發揮作用的“準公權力”,“隨之而來的格局很可能是,自動化系統的應用范圍越來越廣,專屬于人類的決策空間和社會溝通被漸次壓縮”。此外,還需要警惕的是,原本中立的技術可能被用作圖謀不軌的政治工具。聊天機器人操縱民眾心智已有前車之鑒。如果用于訓練機器模型的數據集受到不正確的外部價值觀的浸染,即便是國內自主研發應用也可能“對我國意識形態安全造成巨大挑戰”。
為緩解ChatGPT嵌入治理可能導致的新人機對立, 使人民和國家的利益優先于主導當今國際政治的民族主義、狹隘主義和功利主義,有必要在法律層面對ChatGPT的治理嵌入作好四方面準備。其一,網信部門應對數據集的“在地性”“準確性”進行把關。其二,通過“陳情權”等機制創設,允許民眾就不公正的數字待遇請求公平聆訊的機會。其三,“自上而下”構建管理部門和行業組織間的多方共治格局,建立敏感內容的“熔斷機制”。其四,嚴格落實實名制,非實名不得開啟對話和發送調用請求。
(三)落點教育規章的“適ChatGPT化”改革
人之為人是解決人工智能交互性倫理的關鍵,而有尊嚴地存在系人之為人的核心要旨。當人類心智受到ChatGPT挑戰甚至碾壓時,我們應著重發展人類在情感、審美、知識原創等人工智能無從替代方面的能力。可從兩類教育規范性文件著手,積極推進不同教育領域的“適ChatGPT化”改革,建立健全適應人工智能發展的終生學習和培訓體系。
其一是在教育法典層面探索“與技術伴生”的學科建設新路徑。眼下,教育法典編纂已被列入我國立法規劃。確立核心概念作為“提取公因式”的工具是教育法典編纂的重要前提。可在“總則編”原則性規范中,著重強調推進學科間協同,加強傳統社會科學領域對理工科技術領域的人文支持。
其二是在義務教育階段注重實操能力、審美能力和可移植能力的培養。教育部定期更新《義務教育課程方案和課程標準》,應從“培養目標”“基本原則”“課程設置”“課程標準編制與教材編寫”“課程實施”五個方面回應新時期的教育需求。“人性”得益于“身體的活動”,心靈的無限膨脹和身體主體性的衰微將導致“心靈執行功能的缺失”,應大幅提升體育課程的占比。
五、未來風險的法治準備
面對ChatGPT帶來的“畏”之遠慮,最為棘手的是對非碳基生命的“具身存在”作好準備。因此,以下三方面的法治準備尤為重要。
(一)把控通用人工智能的研發節奏
硅基智能的發展速度遠超有機生物,不受有機化學規律的限制。人類必須提前為可能的風險失控做好防范,對通用人工智能研發的安全性和倫理性進行普適性立法已迫在眉睫。因規制對象高度確定,專域人工智能領域的相關立法日益成熟。例如,針對自動駕駛、智慧醫療、算法推送、人工智能投資顧問、人臉識別等不同領域的規范,均能在各個國家和地區不同層次的法律中找到對應。與之形成鮮明對比的是,通用人工智能因規制對象不確定而面臨立法技術匱乏和立法理念滯后的問題。
尤瓦爾·赫拉利雖不認為人工智能能發展出真正的“意識”,但慮及其對社會構造的不斷沖擊,他亦指出:“我們必須讓這個過程變慢,讓整個社會適應這個情況。”2023年3月29日,美國數千名業界權威共同發表《暫停通用人工智能研究》的公開信, 呼吁所有人工智能實驗室即刻暫停訓練比GPT-4更強大的人工智能系統,為期至少半年,并建議行業協會、各大企業、研究機構通力制定研發安全協議。綜合來看,對于用途和屬性無所不包的通用人工智能,政策制定者可以“生存性風險”為對標,從發展節奏把控和國際交流合作等方面入手,分階段構建“技術向善”導向的通用人工智能倫理框架。需要指出的是,在當下應當按下暫停鍵的不僅僅是通用人工智能研究,與之無直接關聯但共享特定“技術成分”的某些特殊領域,例如仿生學、控制系統學、密碼學等,都應自檢是否有“減速”必要。畢竟,任何技術領域都可能存在由其他領域所共享的特定成分,隨著這些成分在主領域之外的其他領域中不斷改進,大量的進步將在“整體”層面發生。越是在奇點臨近之時,各國政府越應著力防范人工智能“不經意”跨越盧比孔河的可能。
(二)探索共治融合的人機共生關系
回顧人工智能的發展進程,人與承載智能的機器之間的關系早已超越了單純“人與物”的關系范疇而具有了“復合屬性”,既包括人與智能交互演進的歷史嬗變,也包括人與智能相互融合所觸發的生產力和生產關系的異化。一如馬克思所言,機器只有同人(勞動力)結合,才可真正實現其本身的價值。人機關系也就不單純隸屬于“經濟范疇”而可被歸于“社會生產關系范疇”。盧曼意識到了技術發展的不可控性,主張通過作為社會機制的“信任”,應對技術給未來帶來的復雜性和偶在性激增。人類的生存發展雖然可以依賴技術,但信任之形成卻不可完全囿于技術理性。回歸具身認知層面,自我與他者的穿梭性,意在強調人類生存經驗之沉淀,凸顯了各方和諧共生的交互智慧。通過制度的因勢利導,智能機體與人類在同一場域的持續穿梭將促進人類身體心靈圖式的擴展,進而柔化主體與客體區分的張力,人機之間便可通過此種耦合達至倫理合拍。
一種可行的解決方案是,通過深化人機合作關系創造出更多更能充分發揮人之特長的新型工作崗位。在關系協調上,沒有必要糾結于“機器是人的延伸”抑或“人是機器的延伸”的哲學之辯,而僅需專注于構建善用人機合作優勢協同完成各類任務的新發展格局,使人在與機器的交互過程中不斷提升創造力和想象力,同時也使機器在與人的互動過程中變得更加“靈活”和“聰明”。“當人機雙向賦智的各類活動成為推動各行各業發展的主力軍乃至社會發展的新模式時,人的勞動力成本就會沉淀到智能產品當中。”近日硅谷出現的全新招聘崗位“提示工程師”即為一典例。該崗位無需具備編程技能,工作的主要職責在于思索出合宜的“提示詞”,以便使ChatGPT的潛力得以充分發揮。未來的崗位設計,應將人和機器視為共同認知和多元智慧的承載者,盡量將人的引導作用貫穿于機器智能的動作行使、功能校準、日常訓練以及實時互動學習等環節,在人機之間促成靈動的各司其職狀態。如此,人之主體性會愈發突出,人的創造力和高階思維得以充分“綻放”,自然就能與機器間實現具身和睦。在探索符合人機共生的發展途徑時,也應更新各個行業的倫理準則,以“創意性/精神性”導向革新近乎固化的“生產性/物質性”導向,樹立服務于人以及促進提升人之境界的價值目標。
作為配套,需通過合理的規則供給,解決潛在的分配不公問題。在智能機體尚未取得法律上的獨立地位之前,由機器產生的經濟增量應當由所有人共享,而不是被極少數精英所壟斷。分配制度的設計,須以社會福利的雨露均沾為宗旨,力求避免產生“新貧困”和“新不公”。
(三)構建虛擬空間適用的硅基倫理
虛擬空間作為人類現實世界的延伸和拓展,豐富了人際、人機際交互的形式和內容,但因身體的“不在場”,可能引發更復雜的倫理問題。例如,經由ChatGPT強化,元宇宙中的NPC成為遠超人類智慧的虛擬主體,原本應當由人類主導的虛擬空間反倒被虛擬主體所統御,致使能力的自我認同危機和身份異化問題在數字空間中蔓延。
當人機共生的場域從現實世界向虛擬世界平移,具身倫理仍有適用空間,但應進行合理轉化。畢竟,虛擬世界中,人類的身體僅僅是被隱匿,而非被懸置或者放逐。不過,在一個由AIGC主導一切元素“自創生”的數字封閉空間中,作為原住民的非碳基主體或將一躍成為對于虛擬空間環境及其棲居者的福祉負有責任的道德能動者,相應的,人類只能淪為被動(或非被動)的道德受動者。故而,虛擬世界需要構建一種以非碳基生命為中心的硅基倫理。對此,控制論學說已有較為現成的教義:作為客體的碳基生命和生來就是純粹客體的機器都可被視為一種功能性裝置,他們存在的根本意義在于局部地和暫時地抵抗“熵增”總趨勢。當機器具有決策能力后,便能夠“在一個其總趨勢是衰退的世界中在自己的周圍創造出一個局部組織化的區域來”。此處的熵增概念,實際上源于熱力學第二定律,即自然過程中孤立系統的總混亂度只增不減。從具身認知角度來看,現實世界中身體與外物的關聯性規范,在虛擬空間中將被圍繞數據交換形成的關系倫理所取代。信息倫理學也是從熵增的角度對硅基倫理進行了闡釋:“只有當一個行動在其實施過程中從不產生任何形而上學熵,它才是無條件地可贊同的。”以此為基礎,虛擬空間中,人機之間的具身性規范可以被解釋為互負通過維持系統的平衡性與完整性繼之實現全新生存狀態的義務。具而言之,數據交換的“善的標準”在于“盡可能在系統中降低交換匯總的不確定性”,而人類同機器的交互應以尊重和增益彼此之“存在境況”為基本遵循,在力所能及發揮個體自主性的同時使整體的福祉最大化。
結語
與資本迫不及待炮制的諸多熱門概念不同,ChatGPT帶來的影響是實質性的。通過具身倫理的引入,本文探討了“怕”與“畏”層面ChatGPT風險的法律規制方案。在更基礎的意義上,本文探討的是防止作為人活動產物的技術變成支配和統治人類的異己力量的法治之道;這種努力想要成功,還有待學界對人工智能倫理問題給予更多更深刻的思考。