一、引言
人工智能的深度學習模型、數(shù)據(jù)參數(shù)正不斷復雜化,正在迅速改變我們交流、說明和創(chuàng)造的方式,它具有自主生成新內容功能。人工智能的可解釋性被認為是人類獲得安全感、智能技術得以信賴的基礎。②然而,隨著人工智能技術的深度復雜化,如GPT-4的參數(shù)已達1.8萬億個,算法的透明度、算法的公平性和算法的涌現(xiàn)性等都面臨著更深層次的治理挑戰(zhàn)。這對于人工智能的可解釋性產(chǎn)生了巨大阻力,在可解釋性與智能模型的復雜性的關系方面,“結構簡單的模型可解釋性好,但擬合能力差,往往準確性不高;結構復雜的模型,擬合能力好,準確性高,但模型參數(shù)量大,工作機制復雜,透明性低,可解釋性差。”④
可解釋性尚未有統(tǒng)一認識,按照英文語義的來源,一是可解釋的機器學習(Interpretable MachineLearning),對應的名詞為\"interpretation”,定位人的理解性,意指將抽象概念闡釋為人可理解的清晰化內容;二是可解釋的人工智能(Explainable Artificial Intelligence),對應的名詞是\"explanation”,聚焦過程性,旨在將事件發(fā)生的原因解釋清楚,有因果關系上的解釋項與被解釋項的語境特征。在語義上,兩者雖有重疊,但是側重點不同,前者針對結果上的人類的可理解性,后者側重解釋人工智能算法運行中的因果關系,是一種釋理過程。可理解性和可解釋性是一體的兩面,人工智能解釋的有用性與用戶的期望相關,而期望取決于用戶認知和系統(tǒng)環(huán)境,智能系統(tǒng)必須向用戶作出解釋,故將可理解性添加到可解釋的人工智能系統(tǒng)中。近年來,我國出臺大量人工智能治理規(guī)范,將可解釋性作為人工智能治理的規(guī)范要求,而可理解性往往與可解釋性的規(guī)定同步出現(xiàn),如2017年《國務院關于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》共13次提到人工智能的理解要求,指出實現(xiàn)具備高可解釋性、強泛化能力的人工智能;2021年《新一代人工智能倫理規(guī)范》也明確指出,提升透明性、可解釋性、可理解性等要求。可見,人工智能的可解釋性應當有兩重面向,一是揭示解釋的過程,即原因闡釋;二是用戶能夠理解闡釋,即可理解性。
但是,從人工智能的整體發(fā)展趨勢來看,人工智能的海量語料、多模態(tài)特征和自主生產(chǎn)等特點會不斷深化,技術上的可解釋性會進一步弱化。不可解釋性實質是人工智能產(chǎn)品的自然屬性,可解釋性只能作為一種治理導向。2023年發(fā)布的《人工智能安全標準化白皮書》指出,“算法模型日趨復雜,可解釋性目標難實現(xiàn)”,人類理解大模型人工智能的難度變得極大,而目前正在朝著借助人工智能解釋大模型的方向進行探索。可見,生成式AI的不可解釋性特性突出,但是作為“技術一社會\"范式的社會面無法將自己“束之高閣”,如《生成式人工智能服務管理暫行辦法》第4條對生成式AI服務明確提出了合法、平等、透明、精準、可靠等基本的可解釋性治理要求。為充分發(fā)揮體制機制作用,本文聚焦人工智能的不可解釋性,探析可解釋性治理的價值意涵,將從“全責任式\"的法律治理角度出發(fā),對人工智能治理提供應對思路。
二、生成式AI的不可解釋性
按照雙重面向的可解釋性標準,AI既有在原因闡釋上數(shù)據(jù)低劣失真、算法黑箱與不公平、技術障礙等過程上的解釋困境,也有在理解闡釋上認知能力、責任判斷、價值認同等結果上的解釋困境。就傳統(tǒng)分析式人工智能而言,這類解釋困境能夠在較大程度上得到紓解,人工智能的解釋性工作能夠獲得一定成效。但是與傳統(tǒng)分析式人工智能不同,生成式AI有海量語料、超大規(guī)模參數(shù)、多種異構模態(tài)、涌現(xiàn)等特征,這些特征使可解釋性降低,如深度自主學習能力使解釋者無法有效掌握機器學習邏輯、防控數(shù)據(jù)風險和精準預估生成結果;過度復雜的運算模型和深度的解釋技術使大眾難以理解智能機器的運算活動。
(一)算法黑箱擴大導致模型可解釋性降低
以ChatGPT為例,語料主要來源于可以公開訪問的互聯(lián)網(wǎng)數(shù)據(jù),如新聞報道、社交媒體、論壇;內部人工收集的數(shù)據(jù),如采訪調研、搜索日志、用戶行為。除法律規(guī)定不能處理的數(shù)據(jù),其它數(shù)據(jù)都有成為模型訓練語料的可能。為實現(xiàn)大規(guī)模語料訓練上的精確性,GPT-4的語料已超過100TB,訓練模型的參數(shù)量也達到了1.8萬億,生成系統(tǒng)在人機交互的多輪對話中能夠改進生成文本質量,更好理解用戶意圖并保持對話的精確性和連貫性。但是,語料與參數(shù)雙重的規(guī)模化,使得算法黑箱進一步擴大,可解釋性持續(xù)降低。
算法黑箱是機器輸入到輸出過程的不透明性的\"隱喻”。一方面,算法本就是一種以計算機編程語言呈現(xiàn)的邏輯形式,并不能為大多數(shù)人所理解,語料與參數(shù)的規(guī)模化發(fā)展,讓作為編程語言的邏輯形式不得不進一步復雜化,算法編程通常由多主體實施,或由開源的多方參與完成,單個解釋者的能力有限,導致可解釋性降低;另一方面,語料與參數(shù)的收集處理,以及內容生成并非沒有標準,算法設計者有其自身利益訴求,在設計者價值與目的植入算法后,規(guī)模化語料和參數(shù)的精準化特點會增加用戶依賴性,用戶亦怠于知其所以然,算法黑箱的不透明性繼續(xù)深化。目前,尚未有成熟的技術方案能夠為算法黑箱提供高度解釋,且不完善的解釋技術方案亦會降低用戶的智能技術信任度,誤導用戶,引發(fā)一系列不良影響。因此,在訓練語料及其模型參數(shù)量持續(xù)增長的背景下,生成式AI模型的可解釋性將受到制約,除非有相關可解釋性技術的突破,否則不可解釋性將長期作為其本質屬性。
(二)涌現(xiàn)性產(chǎn)生導致模型的解釋難度提升
涌現(xiàn)性是人工智能在大規(guī)模語料、大模型參數(shù)和深度自主學習基礎上呈現(xiàn)的特性,是一種出乎意料的新行為和新功能,這一性質雖然與前文語料、參數(shù)和深度學習等特點密切相關,但是前文只是傳統(tǒng)人工智能技術的深化,而涌現(xiàn)卻是\"從無到有\(zhòng)"的能力,智能系統(tǒng)只有各個部分相互作用形成一個更廣泛的整體時才會涌現(xiàn)。在簡單的語言模型中,語言模型表現(xiàn)極差,但是當模型足夠大,達到閾值后,語言模型具有極強表現(xiàn)能力。如在GPT-3中,語言模型可以成功地進行兩位數(shù)乘法。
在模型的可解釋性上,涌現(xiàn)性提升了模型的解釋難度,不僅社會公眾會缺乏技術知識對涌現(xiàn)原理和內容難以理解,即使是生成式系統(tǒng)的研發(fā)人員時常也難以對這類涌現(xiàn)內容提供合理的解釋。首先,涌現(xiàn)性具有隨機性特點,機器活動受數(shù)據(jù)、算法和環(huán)境等多方面的影響。一是數(shù)據(jù)的收集與處理受渠道、方式等影響,機器獲取的訓練語料具有一定隨機性。二是算法通常采用隨機數(shù)對模型進行調整、更新、迭代。三是人工智能與外界進行交互過程中,受到何種環(huán)境影響具有隨機性,這些影響使得生成過程和生成結果增加了不確定性,提高了模型的可解釋性難度。如有學者指出:“隨機性以及涌現(xiàn)性本身就是復雜系統(tǒng)的特征,而以復雜神經(jīng)網(wǎng)絡為代表的復雜算法,對于復雜系統(tǒng)具有較強的映射能力,正是因為神經(jīng)網(wǎng)絡本身就是構筑于非線性動力學基礎之上的,‘不透明性'成為復雜算法的天然屬性。\"@其次,涌現(xiàn)性是一種復雜系統(tǒng)下的特性,模型設計過程中單個要素或簡單線性式的思路,無法對涌現(xiàn)內容提供可理解性解釋。同時,涌現(xiàn)性也是多元素、變量間相互作用的結果,不同元素、變量間的不確定糾纏,使涌現(xiàn)內容不可預測。
(三)主體性增強導致可解釋的穩(wěn)定性降低
ChatGPT是依托\(zhòng)"Transformer\"等結構的深度自主學習模型,通過多層的神經(jīng)網(wǎng)絡對數(shù)據(jù)進行處理和分析,不斷增強自身對數(shù)據(jù)的理解和生成能力,同時通過模型結構和參數(shù)的不斷調整,持續(xù)優(yōu)化自身的自主學習能力。在深度的自主學習中,生成式AI的類人化主體性顯著增強。有學者指出“生成式人工智能的算法模型內部采用‘機器學習 + 人工標準'模式,而人工標準模式體現(xiàn)了人的意志,將人的意志以運行規(guī)律和學習算法的形式在生成式人工智能中進行傳承,…這種類人化的生成式人工智能突破技術壁壘,獲得了創(chuàng)新性與獨創(chuàng)性的‘靈魂’”。技術上的升級使生成式AI具備類人化的意識和行為能力,并超越了既往作為人工智能輔助技術的工具屬性。主體性是相對客體的被動性而言,在生成式AI發(fā)揮自主創(chuàng)造性時,設計者附加的解釋方案的適用能力將降低,算法推理過程及生成結果解釋的不確定性增加。
結合生成式AI的自主性特點,解釋的不確定性加大。一是在內容生成過程中,復雜的神經(jīng)元之間如何發(fā)生交叉互動,并非靜態(tài)的模型參數(shù)能夠提供解釋,其交互強度、頻率、位次等都屬于動態(tài)活動,無法用固化的模式進行解釋。二是在生成新內容上,不可解釋性更加顯著。一方面,結果受到的影響因素以及影響程度,并非解釋者能夠有效識別,特別是在大規(guī)模語料的基礎上,相互沖突和矛盾的語料比比皆是,不同時間、不同方式詢問同一問題所生成的結果可能并非一致;另一方面,對于結果的合理性和可靠性,在具有主體性價值的自主創(chuàng)新能力下,使解釋的主觀性變強,解釋的穩(wěn)定性降低。
(四)人機的認知差異壓縮可解釋性的空間
人類的認知基礎來源于先驗判斷和后天積累,而機器的認知由語料訓練獲得,靠算法和算力支持。在認知思路上,人類與機器智能認知差異較大,如機器智能是一種計算主義,靠模型參數(shù)和訓練語料決定,而人類智能是一種理性主義,具有豐富的價值判斷能力;再如人類對于行走等簡單行為容易實現(xiàn),而對于復雜的數(shù)字計算和邏輯推理相較困難。相反,機器對于數(shù)字計算、邏輯推理等活動更容易實現(xiàn),而對于行走等肢體活動則更困難。故而,以邏輯運算為優(yōu)勢的機器智能與人類智能的認知存在弱重疊性,人類對人工智能的理解能力會隨著機器算法邏輯的復雜化而降低。
人工智能的認知演進是一個從易到難的過程,先有推算認知,再有學習認知,后有行為認知。具體而言,在智能推算階段,將標準化的數(shù)據(jù)輸人模型即可計算;在智能學習階段,人工神經(jīng)網(wǎng)絡擁有大模型、大數(shù)據(jù),獲得數(shù)據(jù)前有一系列訓練、編碼、壓縮等環(huán)節(jié),才可實施計算;在智能行為環(huán)節(jié),人工智能將面對各種復雜情況,發(fā)揮高難度感知能力,要求機器靈活應對各類突發(fā)情況。隨著機器的復雜化,認知空間也復雜化,但人類對人工智能的可理解性空間卻被壓縮,目前\"人工智能還尚不具備背景知識的共性理解、語境的認知、情感的交流等通過社會生活實踐才能習得的關鍵因素”。
三、傳統(tǒng)解釋方法應用于生成式AI的局限
人工智能誕生之初,可解釋性便作為人工智能透明度的一項重要指標。為破解算法黑箱,使得算法決策能為人類直接理解,在技術上,人類構建了人工智能可解釋性模型,設計了可解釋性框架。一方面,基于設計維度,打造本身即可實現(xiàn)解釋的人工智能;另一方面,基于智能機器,打造用于解釋大模型的人工智能。此外,基于解釋的過程維度,可解釋性技術也有針對事后的算法可解釋性模型。但是,隨著生成式AI復雜神經(jīng)網(wǎng)絡大模型的形成,人工智能語料庫不斷擴大,自主學習、涌現(xiàn)等能力不斷增強,就當前而言,在解釋技術沒有實現(xiàn)跨越式發(fā)展的情形下,完備的生成式AI的可解釋性難以實現(xiàn)。即便技術有跨越,不可解釋的空間也無法消失。在制度上,目前形成的可解釋性規(guī)范主要是針對可解釋性技術的促成和優(yōu)化設計,并未系統(tǒng)針對不可解釋性問題作出回應。
(一)內置型可解釋性方法的應對局限
內置型可解釋性是指“對于一個已訓練好的學習模型,無需額外的信息就可以理解模型的決策過程或決策依據(jù)”。當前通常采取的解釋模型有:自解釋模型(Self-Explaining Models)、廣義加性模型(General-ized Additive Models)、注意力機制模型(Attention Mechanism Models)。自解釋模型,顧名思義,指對用戶而言,對模型內部的結構、參數(shù)、輸人項和輸出項能夠獲得基于機器模型的直觀理解。通常而言,自解釋模型主要運用于線性模型當中,通過從上到下遍歷決策樹的方式,形成由一系列if-then句子組成的決策規(guī)則,然后由決策規(guī)則去指導決策過程。廣義加性模型是基于自解釋等簡單模型的重構模型,一方面仍然屬于線性模型,能夠維持好機器內在的可解釋性,實現(xiàn)機器解釋的準確率;另一方面尚未達至注意力機制的復雜化程度,能夠消除特征之間的相互作用,避免因非線性導致的解釋性削弱。注意力機制是一種局部解釋方法,主要通過識別有用信息進行邏輯解釋,而對于不相關信息則忽略,這種機制的識別解釋模式與人類的認知神經(jīng)網(wǎng)絡識別解釋模式近似。比如這種機制通過不同的用戶行為習慣、長期偏好為用戶推薦個性化項目以發(fā)揮針對性的解釋機能。
針對生成式AI,上述解釋方法并不能發(fā)揮有效的可解釋性功能。首先,生成式AI屬于復雜的深度神經(jīng)網(wǎng)絡模型,可以進行復雜的非線性映射和擴散。這使得自解釋模型和廣義加性模型無法運用于這類智能機器的解釋活動。其次,雖然注意力機制能夠適用于神經(jīng)網(wǎng)絡模型,但是這種小部分的局部解釋或特征解釋,無法滿足生成式系統(tǒng)的整體解釋需要。且即便設計滿足個性解釋需要的注意力解釋模型也會由于成本過高,讓設計主體怠于解釋。再次,隨著生成式AI模型的越加復雜,機器智能的復雜性也對解釋模型提出了更高要求,一方面,在生成式AI中簡單模型無法發(fā)揮解釋作用,無法滿足復雜模型的需求;另一方面,設計復雜模型也會使得模型的解釋精確度降低,解釋模型的可用性降低。
《人工智能安全標準化白皮書(2023版)》指出,由于“模型參數(shù)越來越多、結構越來越復雜,解釋模型、讓人類理解模型的難度變得極大”,解釋大模型開始興起。就技術上而言,這種專門發(fā)揮解釋功能的模型與被解釋的模型屬于兩套系統(tǒng),一方面,人工智能解釋大模型的方法無法達致純粹內置模型的精準解釋效果,擾亂大模型的正常運作;另一方面,信息過載\"導致的不可理解性,并非簡單的技術阻礙,訓練語料、模型結構、生成內容等本身就有模棱兩可的屬性。這種信息上的不確定性降低人類的理解性。
(二)事后型可解釋性方法的應對局限
事后型可解釋性方法是針對訓練好的人工智能模型,在模型完成預測或決策后,通過特征重要性、局部解釋、生成解釋、模型簡化、用戶交互等方法對人工智能機器的決策機制、模式、依據(jù)等程式和機器數(shù)據(jù)的輸人、運算和輸出等活動進行解釋的方法。如有學者指出:“事后可解釋方法是指利用現(xiàn)有可解釋方法構建解釋模塊,在模型訓練結束后解釋學習模型的工作機制、決策行為和決策依據(jù),如模型蒸餾、激活最大化、敏感性分析、特征反演、反向傳播和類激活映射等方法。”相較于內置型可解釋性方法,事后型可解釋性方法除了在階段上有差異,其應對的模型更復雜、更龐大,解釋的精確度也有更高要求。
在事后型可解釋性方法的重要區(qū)分上,針對解釋的目的和對象,該方法可以分為全局可解釋性和局部可解釋性。全局可解釋性是指在整體上理解模型,提供模型整體結構、內部機制和決策過程的全面解釋,如機器模型的學習方式、學習內容、決策邏輯、決策機制等,這種解釋要求訓練模型得到較為全面的可解釋性設計,模型的整體環(huán)節(jié)能夠為人類所理解,常用的全局可解釋分析技術有規(guī)則提取、模型蒸餾、激活最大化等。局部可解釋性是指對于單個預測或決策,對模型如何得出該預測或決策提供的解釋,局部解釋以輸入樣本為導向,通過精細分析樣本的維度特征理解機器的運行邏輯和運算依據(jù)、過程,相對全局可解釋性,局部解釋關注于特定解釋,能夠為用戶提供特定決策或預測的推理邏輯、發(fā)現(xiàn)潛在偏差或錯誤等分析解釋,常用的局部解釋分析技術有敏感性、局部近似、反向傳播、特征反演、類激活映射等分析。
事后型可解釋性方法相較內置型解釋方法的解釋功能得到豐富,但是這種解釋方法也有明顯的不足。一是事后解釋技術過度復雜。不僅單項解釋分析技術的解釋能力有限,而且解釋者難以選擇最合適的解釋分析技術,同時,分析技術也有運算邏輯上的沖突,復雜分析技術阻礙了用戶可理解性。二是事后解釋技術的精確性依然不足。相較內置型而言,事后技術的精確度有所提升,但是對于回應用戶理解,這種解釋技術的精確性依然不足,如“‘規(guī)則提取法'只能提供近似解釋,并不一定能夠反映待解釋模型的真實行為”,“‘激活最大化法’由于樣本搜索空間很大,優(yōu)化過程可能產(chǎn)生含有噪聲和高頻模式的不現(xiàn)實圖像”,“‘近似法\"需要重新訓練一個解釋模型來擬合解釋模型針對該實例的決策結果,因而此類方法的解釋效率不高”。②三是解釋結果難以獲得用戶理解。解釋分析技術是在技術設計框架和語言中形成的,這類解釋結果的理解不僅需要用戶具備專業(yè)知識和技能的理解能力,而且需要具備對錯誤解釋結果的判斷能力。四是產(chǎn)生公平和安全問題。事后解釋難以回溯,容易被利益相關者用來轉移注意力,攻擊者可能利用事后解釋對預測模型進行對抗攻擊、誘導決策,解釋依賴也會降低對歧視行為的警惕,“事后解釋可能會引發(fā)潛在的風險”。在生成式AI的復雜大模型背景下,這類事后型可解釋性方法的局限更加顯著,如“規(guī)則提取法”\"模型蒸餾法”“類激活映射\"等都是專門針對神經(jīng)網(wǎng)絡模型的分析技術,越加復雜的神經(jīng)網(wǎng)絡大模型會加劇規(guī)則提取不精確性、使蒸餾模型與原有模型的差距更大、類激活映射的連接擴展難度提升。
可見,生成式AI的多類特質都影響著模型的可解釋性,相較于將可解釋性作為人工智能的特性,不如將可解釋性的基本要求定位于不透明性的風險防控。從人工智能發(fā)展導向來看,機器智能只會越來越復雜和隨機,算法邏輯和決策機制等的不可解釋性會成為算法的顯著特點。雖然目前正在探索借助人工智能解釋大模型的方案,但是這類解釋性人工智能的解釋系統(tǒng)如何運行、算法邏輯過程是否值得信任等又會成為機器不透明的重大問題。故而,不可解釋性應當是生成式或更先進人工智能的自然屬性,在應對不可解釋性引發(fā)的風險上,除考慮技術上的解釋渠道外,亦應從其它方案入手。
四、生成式AI不可解釋性易引發(fā)的風險
不可解釋性本身并不指向損害性,而不可解釋性所引發(fā)的風險具有直接的損害性。結合風險發(fā)生的情況來看,風險主要出現(xiàn)在系統(tǒng)自身的安全性、用戶的使用價值、社會運行的基本規(guī)則等方面。
(一)加大機器系統(tǒng)的數(shù)據(jù)安全風險
機器系統(tǒng)的數(shù)據(jù)安全風險來源是多方面的,如數(shù)據(jù)爬取不當、清洗不凈、過度冗余、存儲位置不對、分析方法不適當?shù)榷加性斐蓴?shù)據(jù)不安全的風險。而不可解釋性掩蓋了這類數(shù)據(jù)處理過程上的漏洞,使得數(shù)據(jù)容易遭受外部侵蝕,損害機器系統(tǒng)的整體運作安全。從數(shù)據(jù)的處理過程來看,不可解釋性有全過程阻礙數(shù)據(jù)處理活動的可能,影響數(shù)據(jù)安全,比如,在數(shù)據(jù)收集環(huán)節(jié),不可解釋性降低用戶的信任度,進而導致用戶不愿提供或虛假提供信息;在數(shù)據(jù)流轉環(huán)節(jié),不可解釋性可能導致機器智能無法有效界定敏感與非敏感信息,從而無法準確輸出安全數(shù)據(jù);在數(shù)據(jù)輸出環(huán)節(jié),不可解釋性可能引發(fā)算法偏見和歧視,從而在數(shù)據(jù)使用過程中導致信息獲取的不公平。
《生成式人工智能服務管理暫行辦法》第8條規(guī)定,在生成式AI技術研發(fā)中要求對數(shù)據(jù)進行標注,提供者應當制定符合要求的清晰、具體、可操作的標注規(guī)則,開展數(shù)據(jù)標注質量評估,抽樣核驗標注內容的準確性。但是,在巨大的數(shù)據(jù)語料規(guī)模下,這類要求較難實現(xiàn),從生成式AI的語料規(guī)模來看,以GPT預訓練的數(shù)據(jù)量為例,GPT-1為5GB,GPT-2為40GB,GPT-3為45TB,估計GPT-4的預訓練數(shù)據(jù)已超過100TB,同時參數(shù)規(guī)模也從1代的1.17億升級到4代的1.8萬億,擴大的語料與參數(shù)提升了數(shù)據(jù)標記難度。尤其是規(guī)模化的語料與參數(shù)使得機器處理過程更復雜,而這種復雜化所引發(fā)的不可解釋性又會反作用于機器系統(tǒng)的數(shù)據(jù)安全,如過度復雜的參數(shù)和語料導致模型的決策過程難以解釋,當模型存在漏洞或錯誤,人們難以監(jiān)測出系統(tǒng)問題,黑客便會利用這類漏洞對機器系統(tǒng)的數(shù)據(jù)實施攻擊,這種攻擊不僅會提升機器系統(tǒng)的防御難度,而且也會加大個人隱私的受損可能。
(二)降低用戶對機器模型的信任度
按照典型的信任形式來看,信任主要分為情感型信任、規(guī)范型信任和理性型信任,其中情感型信任依賴善意,是對他人善意的積極態(tài)度;規(guī)范型信任要求按照某種規(guī)范標準履行義務,是陌生社會建立信任的基礎;理性型信任指個體為謀求自身利益最大化的理性選擇。結合這三種典型的信任形式來看,首先,基于類人化的主體性,生成式智能雖然有自主學習、涌現(xiàn)與創(chuàng)造能力,但是缺乏情感特征,在人機互動中無法深刻發(fā)揮善意的情感信任交互,不可解釋性并不會明顯影響用戶在這一層面對機器模型的信任度。其次,基于規(guī)范標準,雖然算法可以作為機器模型的運行規(guī)則,但算法黑箱使人工智能的規(guī)范內容非全體用戶能夠理解,且在生成式的背景下,規(guī)范的復雜化亦使機器難以獲得人類的信任,尤其是出乎意料的生成結果會極大降低用戶對機器模型的信任度,如狄伏斯特(Berkeley Dietvorst)等人的研究表明,相對人類而言,人們對機器活動的信任度更低,要求也更為嚴苛。尤其在精確性、邏輯性方面的失錯,會導致用戶對人工智能犯錯后的信任度大幅度降低。再次,在理性選擇方面,人工智能沒有自主價值選擇能力,其機器選擇標準源自人為設定,社會選擇的不公平會成為機器智能決策的不公平,當機器智能無法提供合理、公平釋義之時,用戶的信任度會降低。且何為理性并沒有唯一標準,在不同的價值導向下,人工智能的選擇對某些用戶而言有意義,但對其他主體可能缺乏價值,機器模型的信任度也會受到影響,而這種選擇標準的非唯一性也是不可解釋性的情形。
(三)算法決策的合法合理性受影響
合法性與合理性是法治運行的基本要求,雖然算法作為計算機語言,具有典型的數(shù)字代碼屬性,屬于自然技術,但是融入智能設備的算法代碼的建構邏輯、演繹過程、參數(shù)模型、決策結果等都有影響人類生產(chǎn)、生活方式的能力。因此,將算法納入法治的軌道成為必要。如\"行政裁量基準的算法化會引發(fā)代碼對法律規(guī)范的技術性改寫、算法裁量決策合法性控制制度失語、機器篡奪裁量決策權的危機警示等問題”,這些問題意味著當前人工智能與法治軌道的不適應性。合法性受影響主要指算法決策的過程及結果會違反法律強制性規(guī)定,如數(shù)據(jù)收集中侵犯他人隱私權,算法設計中嵌入網(wǎng)絡詐騙、虛假廣告,等等;合理性受影響主要指算法設計上的缺陷、人為的干預、數(shù)據(jù)的偏倚、決策的環(huán)境背景等導致的不合理。
算法的不可解釋性是算法黑箱的側面。黑箱壓縮了算法設計者與使用者之間的信息交流渠道,使得信息常處于不對稱狀態(tài),而不可解釋性也證明了黑箱存在的長期性。從算法決策與黑箱的關系來看,算法決策的合法性和合理性受到算法黑箱以及自身運行邏輯的影響。一方面,不可解釋性意味著決策過程的不透明。設計主體的算法意圖無法用既有制度于過程上進行全方位審視,機器智能雖然經(jīng)過語料的深度學習能夠形成正確結論,但是這種結論的原因和推理鏈條卻無法獲得,由此導致決策的合法性與合理性受到影響。另一方面,不可解釋性意味著決策責任的不清晰。生成式AI的類人化主體性不斷增強,機器智能的主體性決策能力提升,由此引發(fā)責任矛盾,算法決策的合法性與合理性受到影響。
五、邁向“全責任式”的法律治理
生成式AI的不可解釋性是智能技術發(fā)展到一定階段的特征顯示,這種特征并非具有直接損害性,而是該特征會成為有意者的攻擊目標,引發(fā)系列風險,造成損害。簡單的人工智能可以通過解釋技術對模型進行解釋,而生成式AI的復雜性、自主性、涌現(xiàn)性等特點阻礙了傳統(tǒng)可解釋性技術的應用。就目前而言,尚未有成熟的技術能夠對生成式AI進行全面的、有效的、精準的、用戶可理解的解釋。從未來發(fā)展來看,雖然解釋技術在進步,但是生成式AI的復雜程度也在不斷深化,不可解釋性會緊隨人工智能,故在技術上探討不可解釋性的應對方案無法滿足風險控制的需要。回顧可解釋人工智能的本源,解釋人工智能的核心作用在于“規(guī)避風險,保證人工智能的安全可控”,風險雖然也是人工智能技術的內在屬性,但是這種屬性會直接損害人類權益,防控風險實則才是不可解釋性的應對指向。從風險防控舉措來看,法律是一種重要的防控機制。習近平總書記曾提到:“要加強人工智能發(fā)展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德”。在不可解釋性風險的法律防控中,最重要的是責任問題,如有學者指出:“基于人工智能行為的不可解釋性關于人工智能法律責任的全部問題在于——人工智能是否以及如何對自己的損害行為承擔法律責任。”換言之,技術界與理論界之所以不斷探索充分解釋人工智能的方案,其重大目標之一是使人工智能運行的責任清晰、明確,避免因算法決策的不可解釋性而逃逸法律規(guī)制。但是,從不可解釋性的自然屬性定位來看,這種特征將緊隨人工智能發(fā)展而存在,待全面實現(xiàn)人工智能的可解釋性,不免脫離實際。
2019年國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》提出了全面發(fā)展負責任的人工智能主題,將負責任作為人工智能治理的核心。2021年《新一代人工智能倫理規(guī)范》提出積極引導負責任的人工智能研發(fā)和應用要求,強化責任擔當。2022年中共中央辦公廳、國務院辦公廳印發(fā)的《關于加強科技倫理治理的意見》提出倫理先行——促進科技活動與科技倫理協(xié)調發(fā)展、良性互動,實現(xiàn)負責任的創(chuàng)新。可見,近年來,國家對人工智能的發(fā)展尤其重視其負責任的要求。基于此,本文提出\"全責任式\"的法律治理模式,不再受限于人工智能可解釋性結果的責任推定,而是跨越可解釋性要求,在整體上對人工智能的研發(fā)、應用等活動作出責任治理的安排。
(一)“全責任式”法律治理的因應邏輯
人工智能機器屬于科技產(chǎn)品,法律的調整不止于產(chǎn)品損害后的約束,在科技倫理治理法治化的背景下,人工智能科技的法律治理已經(jīng)能夠定位到人工智能創(chuàng)新階段。在道德與法治的雙重規(guī)范下,人工智能機器的責任約束不能局限于以往民商事法律規(guī)范、刑事法律規(guī)范和行政法律規(guī)范所構成的單向度法律責任規(guī)制體系,而應聚焦于創(chuàng)新研發(fā)到產(chǎn)品生產(chǎn)、使用及維護等鏈條式的全生命周期上的責任需求,即倫理責任、行政責任、民商事責任、刑事責任及社會責任等為一體的\"全責任式\"的法律治理體系。
“全責任式\"的概念主要源于道德倫理上的責任內涵,是一種科技負責任創(chuàng)新的規(guī)范性表達,有學者提出:在科技負責任創(chuàng)新的親族性概念上,責任范圍至少有創(chuàng)新審查的倫理責任、建構性技術評估的未來責任、可持續(xù)發(fā)展的生態(tài)責任、全面創(chuàng)新的創(chuàng)新責任、道德物化的技術責任以及企業(yè)發(fā)展的社會責任等,該學者將\"‘全責任'定義為面對責任對象,所有利益相關者組成的責任共同體應該在其可達范圍內積極、共同地履行或承擔的全部責任”。在法律治理域范疇內,“全責任式”與純正的道德倫理意涵上的\"全責任\"有不同,一方面,法律治理需要體現(xiàn)法的治理,具有法治的規(guī)范化意義,是一種體現(xiàn)了國家與公民意志、良善與公平正義價值的法律制度治理;另一方面,尚未形成法律制度的道德倫理需要,無法直接作為法律強制要求,而只能以推動形成法律制度規(guī)范的形式獲得法律治理方式的支持。2022年《關于加強科技倫理治理的意見》對人工智能的事前倫理責任的法律治理提供了指引,提出要壓實創(chuàng)新主體科技倫理管理主體責任,嚴肅查處科技倫理違法違規(guī)行為,開展負責任的研究與創(chuàng)新,為科技倫理治理提供豐富的制度保障。基于此,不僅原有的道德倫理上屬于法律制度領域的責任依然能以法治方式獲得實施,而且尚未形成法律制度的科技研發(fā)、創(chuàng)新等倫理責任規(guī)范需要也應在較大程度上得到法治方式的支持。由此可見,人工智能創(chuàng)新研發(fā)、產(chǎn)品生產(chǎn)、銷售維護等全鏈條上的\"全責任式\"的規(guī)范需求都對應了法律治理需求。
“全責任式\"的法律治理之所以能夠應對生成式AI的不可解釋性,其因應邏輯主要體現(xiàn)在各類風險的防范及不利結果的處理上,“以風險為基礎的治理是人工智能法研究的起點”。具體而言,第一,“全責任式\"的法律治理全程聚焦于生成式系統(tǒng)數(shù)據(jù)安全風險的規(guī)避。通過明確機器智能全流程中相關利益者的責任,不可解釋性引發(fā)的數(shù)據(jù)安全風險能夠得到防范,如在事前階段可以加強語料預訓練責任、事中階段可以加強智能機器的質量監(jiān)管責任、在事后階段可以加強生成數(shù)據(jù)的安全責任等。第二,“全責任式\"的法律治理能為用戶提供全流程機器運行的信任保障。解釋人工智能的重要目的之一是揭示算法問題,讓公眾的知情權得到保障,用戶的受損權益得到維護,但不可解釋性反映了黑箱的永久性。全責任式\"通過全鏈條的責任設計,為公眾知情權受損提供背書,讓不利結果始終有責任承擔主體,使用戶的信任不會落空。第三,“全責任式\"的法律治理提高了智能機器設計、生產(chǎn)、使用者的責任壓力。算法運行結果的不合法、不合理較少由智能機器的故障引發(fā),而是設計者、生產(chǎn)、使用者行為或規(guī)則不公的映射,即\"即使存在算法‘黑箱’,也是因人的社會活動及相應規(guī)則所致”,基于社會主體治理的方式選擇才是問題應對的核心,“全責任式\"思路壓緊全流程上行為主體的責任,收縮不法與不公空間。此外,“全責任式\"的法律治理不排斥技術上的可解釋性探索。一方面,“全責任式\"的法律治理是一種制度上的不可解釋性應對方式,可彌補技術上的不足;另一方面,可解釋性在技術上的進步也能夠優(yōu)化全責任體系,讓制度上的缺陷得到修正。值得留意的是,技術上的探索是必要的,這是一種負責任的要求,即在創(chuàng)新研發(fā)或服務提供等過程中,技術主體應盡自身最大可能降低技術的可解釋性難題,在技術上為用戶披露相關信息,盡可能保障生成式AI透明度。如《生成式人工智能服務管理暫行辦法》第4條第5項規(guī)定“基于服務類型特點,采取有效措施,提升生成式人工智能服務的透明度,提高生成內容的準確性和可靠性”,這種技術上的解釋義務或責任也作為全責任法律治理體系的組成部分。所以,技術與“全責任式”是相互兼容的應對方案,協(xié)同目標在于促進生成式AI等技術的良好發(fā)展。
(二)“全責任式”法律治理的因應體系
“全責任式\"法律治理是從人工智能科技創(chuàng)新研發(fā)、生產(chǎn)銷售、使用規(guī)范等全生命周期上的責任認定方法,這種認定具有結合智能產(chǎn)品設計到生命結束整個過程上的既定規(guī)范、利益衡量與職能職權分析的特點,也具有融合倫理與法治、公法與私法的跨領域特點,但都可以聚焦于法律治理的實施范疇。從當前的法律制度體系來看,我國尚未有針對科技創(chuàng)新到行為監(jiān)督等全流程的法律制度規(guī)范,結合《關于加強科技倫理治理的意見》中提出的“提高科技倫理治理法治化水平\"來看,我國可以通過設立《科技倫理法》或《負責任創(chuàng)新法》等方式固化\"全責任式\"法律治理體系,①一是完善創(chuàng)新倫理責任;二是夯實上市服務責任;三是健全使用規(guī)范責任;四是深化行政管理責任;五是強化全程監(jiān)督責任“全責任式\"法律治理體系對所有科技活動都具有相近似的法律治理效果,只不過本文聚焦生成式AI科技,相關階段闡述將定位于生成式AI產(chǎn)品的創(chuàng)新研發(fā)、上市銷售、用戶使用過程及在此過程中的行政管理和各方監(jiān)督的責任體系建構。
1.完善創(chuàng)新倫理責任
在生成式AI等科技創(chuàng)新研發(fā)活動中,傳統(tǒng)法律治理思路往往將這類活動作為一類中立的技術行為,但是隨著技術的飛躍發(fā)展,生成式AI等科技對人們生活方式產(chǎn)生了巨大改變,給人類社會帶來了諸多風險,如個人隱私權受害、社會公平正義價值受損、“認知陷阱\"擴大等。科技創(chuàng)新研發(fā)應遵循科技創(chuàng)新研發(fā)的基本倫理責任要求,實現(xiàn)創(chuàng)新活動與科技倫理的協(xié)調發(fā)展、良性互動。且這種倫理責任并非簡單的內生道德的自覺要求,而是外化為由相關主體進行審查的法律要求。
2023年9月出臺的《科技倫理審查辦法(試行)》是生成式AI等科技創(chuàng)新倫理責任劃分的重要文件但是,該文件尚有諸多問題未解決,如科研人員在創(chuàng)新研發(fā)中的責任,倫理活動管理單位與科技人員、倫理審查委員會、委員之間的內部責任劃分等問題,除非特殊情況,科研人員對外不承擔責任。這種模式會降低創(chuàng)新研發(fā)過程中研發(fā)人員的負責任意識,因大部分倫理審查委員本身即研發(fā)人員,倫理審查成了自我審查,不可避免更易導致審查形式化、算法設計失錯。同時,研發(fā)人員與倫理管理單位簽訂過高的責任賠償義務也會阻礙創(chuàng)新研發(fā),損害技術發(fā)展。因此,在科研人員與倫理管理單位的責任劃分上,一方面研發(fā)人員應有對外的常規(guī)倫理責任承擔模式,另一方面,責任承擔應有動態(tài)的比例控制,不能使研發(fā)人員的責任過重。通過國家法律形式完善創(chuàng)新倫理責任,聚焦生成式AI等的下位法既可以進一步細化規(guī)范,也可以更全面對創(chuàng)新、研發(fā)過程進行行為規(guī)制,強化研發(fā)主體對研發(fā)管理活動的責任負擔能夠提高以責任意識促進機器智能的安全性。
2.夯實上市服務責任
有關人工智能服務的責任規(guī)范體系較為健全,,但其前提基礎是生成式AI被認定為客體,而非獨立法律主體。在當前理論界與實務界的主體認定上,雖然有不少學者提出了電子人格說、有限人格說、法律人格擬制說等人工智能主體地位的論斷,但是,目前人工智能的主體意識能力還十分有限,尚不具有世界本源的主體屬性,依然處在人類設計與控制的領域。現(xiàn)有制度框架下,即便具有強大神經(jīng)網(wǎng)絡的生成式AI,依然作為法律關系當中的客體對待。故本文將生成式AI作為客體對待,闡述相關主體的服務責任具有現(xiàn)實意義。
當前關于主要調整生成式AI服務的責任規(guī)范文件有《民法典》《消費者權益保護法》《網(wǎng)絡安全法》《數(shù)據(jù)安全法》《個人信息保護法》《生成式人工智能服務管理暫行辦法》等,這類法律規(guī)范從人工智能服務提供的各個環(huán)節(jié)對責任進行了劃定,為用戶的合法權益提供了制度上的保障。但是,基于新興科技自主性、涌現(xiàn)性等特點,“全責任式\"法律治理體系可以在服務責任上對服務提供者賦予更多的告知、提示義務,以夯實傳統(tǒng)意義上的產(chǎn)品服務責任。例如,服務提供者應當公開智能服務的風險及可行的防范舉措,對于未公開但會發(fā)生的風險,則由提供者承擔責任;應當加強生成式AI服務的上市論證,公開使用說明及產(chǎn)品弊端。在國家法律層面,夯實的方式可以以服務提供者能夠提供服務的能力為標準,即盡可能提供風險防范舉措,對無法提供相關風險防范說明負擔證明責任。
3.健全使用規(guī)范責任
健全使用規(guī)范責任是針對生成式人工智能用戶而言的,按照《生成式人工智能服務管理暫行辦法》第14條的規(guī)范意旨,智能機器的使用者完全有利用機器從事違法活動的可能。用戶使用規(guī)范是“用戶個人或群體在參與各類活動時,所遵循的標準、規(guī)則的總稱,這類規(guī)范一般都為人們和社會能夠廣泛接受并認可的具有一般約束力的標準。”從現(xiàn)行規(guī)范體系來看,一方面,智能機器的法律規(guī)范主要發(fā)揮用戶權益的保障作用,對服務使用者的制約較少;另一方面,用戶使用責任主要是合約責任,即在用戶決定使用智能服務時與生成式人工智能機器提供者簽訂的責任合約。
在制定《科技倫理法》等方面,應當建立健全人工智能等科技產(chǎn)品的用戶使用規(guī)范責任,為進一步細化規(guī)范指引提供上位法的支撐。比如,為使得生成式人工智能的用戶責任體系更完善,首先,立法應聚焦通用標準,將使用規(guī)范責任的完善建基于行業(yè)的普遍化指引上,使人工智能產(chǎn)品的運用有通用準則;其次,應當加強合約責任管理,通過制定用戶使用合約簽訂規(guī)則,提高用戶合約責任認知能力,避免使用者簽訂排除對方責任,加重自身責任的合約;再次,強化科技手段,如從智能化入手,訓練規(guī)范化使用的人工智能模型,將使用范圍、使用方法、使用責任、使用警示等一系列規(guī)范化的使用要求設計為智能模塊,明晰禁止事項與非禁止事項。此外,使用規(guī)范應當有用戶責任負擔范圍、服務提供者的處置方式與程度等重要條款的標識。比如,在人工智能方面,健全使用規(guī)范責任應當能夠降低人工智能的濫用風險,防范網(wǎng)絡攻擊、減少人工智能系統(tǒng)被侵害;也能夠加強用戶的信任,降低智能系統(tǒng)的失錯率、防止信息泄露或存儲不當;還能夠有針對性地發(fā)展智能系統(tǒng)問題,提升社會責任感,有效促進人工智能技術的不斷進步。
4.深化行政管理責任
行政管理活動是貫穿生成式AI全生命周期的節(jié)點式活動,相應的責任承擔主體是行政主體。行政管理對生成式AI的風險防控具有至關重要的作用,通過深化行政管理責任,有助于生成式AI的合規(guī)運行、算法透明。在行政管理上,生成式AI的管理政策、倫理準則框架、機器運行的審查與監(jiān)督機制、個人信息隱私、算法透明度、安全與風險管理標準、社會影響評價、公眾使用程度等各類涉及公共利益的事項都與行政主體相關,且在其職權范圍內需負擔管理責任。
通過國家法律方式深化行政管理責任,相較于下位法具有更強的指引和規(guī)范作用。行政管理責任是對行政單位及行政人員在履行職能范圍內的管理工作中所形成的責任,深化該責任不僅在于對未履行行政管理責任的主體加大懲處,更重要的是通過強化行政人員的履職能力和意識,提升行政管理效果,促進管理對象更好發(fā)展,管理目標更好實現(xiàn)。就深化生成式AI服務的行政管理責任而言,一是提升行政人員履職的責任意識。意識對行動的驅動作用能夠深化行政人員積極、主動履職,提升意識的方式可以采取明確個體職責、定期職能評估、績效激勵、良好溝通等。二是厘清智能機器的風險弊端。有效應對舉措的前提是系統(tǒng)運行中的風險弊端被有效揭示,從而可采取具有針對性、個性化的分級分類管理模式。三是加強履職不力的懲處力度。生成式系統(tǒng)的行政管理主體不僅有傳統(tǒng)的行政機關,還有如高校、醫(yī)院、企業(yè)等被賦予倫理審查權的主體。多元管理容易滋生管理失位,加強各管理主體履職不力的懲處力度有助于防范行政管理失位。
5.強化全程監(jiān)督責任
生成式AI的監(jiān)督是全周期的,如數(shù)據(jù)語料的采集、預處理需要接受數(shù)據(jù)安全審查監(jiān)督,防止偏見和不平衡;模型的開發(fā)和訓練需要接受技術性審查監(jiān)督,避免模型擬合度低;模型的評估與驗證需要檢查監(jiān)督,以確保模型的真實性;模型的部署與實時運行需要進行測試監(jiān)督,以保證模型正常運行;模型的更新、迭代、用戶反饋、改進等都需要定期檢查監(jiān)督,以保障模型的穩(wěn)定性、精準性及滿足用戶的使用需求。且監(jiān)督對應的責任也是全方位的,按照《生成式人工智能服務管理暫行辦法》的規(guī)定,行政主體有依據(jù)職責對生成式AI服務開展監(jiān)督檢查的責任;服務提供者有對使用者利用生成式AI服務從事違法活動進行監(jiān)督、處理、報告的責任;使用者有對人工智能服務不符合法律等規(guī)定,投訴、舉報的權利(責任)。可見,生成式AI的監(jiān)督具有全過程性,而相應的監(jiān)督責任也會呈現(xiàn)在全過程上,以至于監(jiān)督責任的強化需聚焦于生成式人工智能研發(fā)、上市服務、使用、管理等全過程。
因全程監(jiān)督涉及多方面商業(yè)、隱私等權益,相關責任應在國家法律層面加以確定。在研發(fā)上,監(jiān)督責任主要由研發(fā)單位、行政管理主體承擔,通過研發(fā)人員、標準、流程等的適度公開能夠為監(jiān)督主體提供更清晰的監(jiān)督指引;在上市服務上,監(jiān)督責任主要由服務提供者、行政管理主體承擔,通過上市產(chǎn)品論證、流程審批等能為監(jiān)督主體提供規(guī)范化的指引;在使用上,監(jiān)督責任主要由服務提供者、用戶和行政管理主體承擔,完善隱私安全保障、審查機制建立、社會責任倡議,提高監(jiān)督主體的積極性;在管理上,管理活動伴隨監(jiān)督職責,因此全過程的監(jiān)督上也有全過程的管理,通過行政權力的下放和準公權力的監(jiān)管強化能夠提升行政管理主體的監(jiān)督職責。
六、結語
生成式AI的不可解釋性是在整體面上進行的討論,并非所有內容都無法解釋和理解。而可解釋性是人工智能技術與政策上的導向,不能將其定位于人工智能原生的特定屬性,這種定位不僅會加大技術上的設計阻礙,而且會導致制度上的風險防范不足,損害人工智能的良性發(fā)展。本文采用的“全責任式\"法律治理模式,旨在全過程對生成式AI活動進行風險防控,避免因人為活動引發(fā)損害風險。從未來的人工智能發(fā)展來看,機器模型只會越加復雜,通過人力實難實現(xiàn)機器智能化運作的有效治理目標,故而,將治理資源主要聚焦于機器智能的研發(fā)和創(chuàng)新環(huán)節(jié),以人為核心,就治理效果而言,會更有益。本文的責任負擔是以人為核心,圍繞生成式AI的全流程運作設計的方案,這種方案不僅能夠適用于當前的生成式AI,也能夠適用于其它現(xiàn)代化科技產(chǎn)品,同時對未來式AI也能發(fā)揮風險防控作用,進而筆者認為“全責任式\"法律治理可以采用《科技倫理法》或《負責任創(chuàng)新法》等國家法律形成加以固化。“全責任式\"的法律治理模式應當融入機器的智能化運作等現(xiàn)代化科技活動,為各類風險防范提供責任防范。
Abstract:Unexplainabilityshouldbethe inherentcharacteristicof generativeAI,andexplainability isits governance orientation.Traditional built-inand post-interpretabilitymethods are appliedto generative AIonlyas technical means and have limitations.In terms of unexplainable response,atention should be paid to the prevention of theruleof law of non-explainable risk of generative AI.'Comprehensive responsibility' legal governance is the legal responsibility response under the guidance of responsible innovation,focusing on the full life cycle ofthe chain of scientific and technological innovation research and development to product production, use and maintenance,etc.In the response system,the national law can consolidate the ethical responsibility of innovation,marketing serviceresponsibility,use standard responsibility,administrative responsibility and whole-processsupervision responsibility.Atthe same time,considering the exploration of technical explainability, the technical subject is encouraged to reduce the technical explainability problem as much as possible,and comprehensively form a \"Comprehensive Responsibility\" legal governance system to ensure the transparency of generative AI.
Keywords: generative AI; uninterpretability; comprehensive responsibility; government by law