摘 "要:技術治理作為一種技術性或技術化的治理活動,更加關注人與技術在治理活動中的互動關系。應用到人工智能治理之中,技術治理的思維不僅要求對人工智能的治理從傳統(tǒng)約束式治理理念向促進式治理理念的轉(zhuǎn)變,更需要技術擺脫以往作為治理對象的思維慣性,實現(xiàn)人工智能技術的自我治理。然而,以技術治理的思維治理人工智能并非簡單的規(guī)則套用,在實踐中容易存在規(guī)范思維“陷阱”、技術治理不能以及倫理風險等困境。對這一問題的解決,不僅需要綜合考量技術治理與法律治理之間相互調(diào)節(jié)的作用,實現(xiàn)“技”與“法”相互調(diào)節(jié)的規(guī)范治理,還應完善以技術標準為主的軟法規(guī)范體系,避免技術實施標準的模糊與手段的僵化。同時,強調(diào)更加負責任的人工智能倫理規(guī)范引導,以實現(xiàn)更加持續(xù)、健康的人工智能技術發(fā)展。
關鍵詞:技術治理;人工智能治理;法律規(guī)范;人工智能倫理
中圖分類號:D 923 " " " 文獻標志碼:A " " " 文章編號:2096-9783(2025)02?0001?10
一、問題的提出
人工智能是當今經(jīng)濟社會發(fā)展的強勁動力,在賦予經(jīng)濟社會發(fā)展新動能的同時,也引發(fā)了諸多挑戰(zhàn)。在此環(huán)境下,如何依靠現(xiàn)有的治理模式實現(xiàn)人工智能治理成為熱議的話題。從理論層面上看,以“人工智能治理”為主的討論眾說紛紜,但所有的理念均主張嘗試探索人工智能治理的新模式,以期通過正確的理念實現(xiàn)技術發(fā)展與國家安全、經(jīng)濟社會發(fā)展的協(xié)調(diào)統(tǒng)一,如敏捷治理模式[1]、風險治理模式[2]、協(xié)同治理模式[3]等。然而,人工智能作為新一代技術,在將人工智能作為治理對象時,卻無法忽略其作為技術本身所具備的治理工具屬性。盡管上述治理模式在一定程度上提及人工智能作為治理工具的措施,但僅局限在對技術工具屬性的強調(diào),并未進一步深挖技術治理的價值屬性。造成這一現(xiàn)象的主要原因在于人工智能技術內(nèi)涵的豐富性與外延的廣泛性,使得對技術的定義與運用存在較大的不確定性,由此導致現(xiàn)有治理模式難以準確因應人工智能的治理。
需要注意的是,技術治理的理念并非新生事物,而是隨著技術的發(fā)展逐漸演變并擴展至公共治理領域,技術治理以提升社會運行效率為目標,追求社會運行的科學化與理性化。在技術治理的視域下,人工智能的出現(xiàn)使得技術治理的手段與治理理念發(fā)生轉(zhuǎn)向,但本質(zhì)上仍未脫離技術治理的范疇[4]。由于技術治理具備明顯的科學理性價值,使人工智能治理得以在現(xiàn)行技術發(fā)展背景與法律治理的現(xiàn)狀下探索潛在的、可行的治理新模式,進而使得技術與法律之間的關系實現(xiàn)良性互動。由此,人工智能將得以擺脫純粹作為治理對象的局限,使人工智能技術以治理方式的新面相參與治理的進程之中,滿足社會對經(jīng)濟發(fā)展效率與技術發(fā)展理性的期待。
鑒于此,本文在技術治理理論的基礎上,從治理理念與治理思維入手分析人工智能治理的邏輯轉(zhuǎn)向,明確對于人工智能的治理應實現(xiàn)促進式的治理理念以及從治理技術到技術治理的思維轉(zhuǎn)向。同時,基于對技術治理視域下人工智能治理實踐困境的分析,完善人工智能治理的制度建設,強調(diào)技術、法律、倫理等多維度因素的協(xié)同作用,適應技術的迭代更新和應用場景的多樣化,從而實現(xiàn)對人工智能的全面而有效的治理,確保技術進步與社會福祉的和諧統(tǒng)一。
二、技術治理視域下人工智能治理的邏輯轉(zhuǎn)向
技術治理作為一種技術性或技術化的治理活動,所研究的對象并非純粹的人或者技術,而是“人與技術在治理活動中的結(jié)合”[5]。反映到人工智能治理之中,技術治理的思維要求不能僅關注對于技術的規(guī)范性約束,還應注重人與技術之間的互動關系以及基于此種關系下各項價值目標的實現(xiàn)。這意味著,技術治理視域下的人工智能治理需要擺脫傳統(tǒng)治理中對于人工智能的約束式治理,轉(zhuǎn)向以提高社會運行效率為主的促進式發(fā)展。在治理思維上,不能陷入技術作為治理對象的局限性,而是應將技術作為治理工具,實現(xiàn)“人治理技術”向“技術治理技術”思維的轉(zhuǎn)變。
(一)從約束式治理理念向促進式治理理念的轉(zhuǎn)變
人工智能技術的出現(xiàn)改變了傳統(tǒng)科技與法律關系的思維定式,以生成式人工智能技術為標志的科學技術在促進經(jīng)濟社會迅猛發(fā)展的同時,也引發(fā)了人們關于科技與法律關系的新一輪思考。其中,對于應如何實現(xiàn)人工智能治理已成為當下科技與法律領域熱議的話題。理論層面,基于場景化、風險化的治理模式以不同的治理思路回應技術發(fā)展的社會影響,基于法律規(guī)范的硬性治理模式希冀通過立法手段實現(xiàn)技術發(fā)展的可控性[1]。不可否認的是,這些治理模式的提出符合當下技術發(fā)展與經(jīng)濟社會運行的發(fā)展趨勢,在實現(xiàn)技術風險控制的同時,回應了經(jīng)濟社會發(fā)展的切實需求。然而,無論是基于場景化的治理模式,抑或基于風險化、基于法律規(guī)范的治理模式,在一定程度上均無法否認將技術作為被約束或被規(guī)范的對象。以風險化的治理模式為例,歐盟《人工智能法》作為風險治理的代表性模式1,通過將人工智能風險分類為禁止性風險(prohibited-risk)、高風險(high-risk)、有限風險(limited-risk)以及低風險(minimal-risk),以此將技術作為治理對象,并防范因技術所產(chǎn)生的風險。
本質(zhì)上,這些治理模式的終極理念仍保持著對技術發(fā)展不確定性的謹慎態(tài)度,在治理手段上體現(xiàn)為通過限制技術引發(fā)的風險,從而引導技術的發(fā)展和應用。導致這種約束式治理理念的主要原因在于,人工智能技術創(chuàng)新所產(chǎn)生的不確定性使得現(xiàn)有對技術的態(tài)度、需求以及運轉(zhuǎn)模式產(chǎn)生了溫和,甚至巨大的變化[6]。這種不確定性主要體現(xiàn)在人工智能的自主性以及高度的學習能力,如人工智能大模型算法的“黑箱”效應以及算法失控[7]。因此,為了防控因技術發(fā)展不確定性所造成的風險,人工智能治理的理念不可避免地走向“約束”的慣性思維,盡管不同的治理模式仍存在相關的技術促進措施,但終究無法脫離約束式發(fā)展的桎梏。
不同于以往的人工智能治理模式,技術治理視域下的人工智能治理更加注重以促進式的治理思維平衡科技發(fā)展與經(jīng)濟社會之間的關系。造成這種差異性的主要原因在于,技術治理的目的在于提高社會運行效率以及實現(xiàn)效用的最大化,進而實現(xiàn)維護社會穩(wěn)定運行以及提高社會治理能力的價值目標[8]。這種以效率提升、效用實現(xiàn)最大化為導向的價值目標,最終反作用人工智能的治理模式。
具體而言,技術治理視域下人工智能治理促進式治理理念的實現(xiàn)主要采取的是以科學理性原則為遵循、以技術賦能和價值引導為手段、以提升社會整體運行效率為目標的踐行方式。第一,以科學理性原則為遵循要求對于人工智能的治理需確保工具理性與價值理性的協(xié)調(diào)統(tǒng)一。這意味著,對于人工智能的促進式治理不僅需要保持工具理性層面“手段—目的”的合理性,同時還應注重與價值理性層面“善智”的實現(xiàn),以轉(zhuǎn)變治理觀念,消解價值悖論。易言之,科學理性原則的遵循使得人工智能的促進式治理并非僅停留在技術工具的理性運用,更要求在治理的過程中形成價值目標和價值標準[9],以此評價人工智能治理的合理性與否。第二,對于人工智能的促進式治理需要以技術賦能與價值引導為手段。技術賦能要求在人工智能治理的過程中運用技術的手段或者工具,如可理解性人工智能、防御對抗攻擊技術以及實時審計技術等[10],解決因純粹技術演變所導致的不確定性或歧視性風險。此外,通過采取技術手段,提升國家獲取和使用信息的能力,促進國家治理能力現(xiàn)代化。第三,在最終目標實現(xiàn)上,人工智能的促進式治理理念強調(diào)社會整體運行效率的提升。這意味著,對于人工智能的促進式治理并非純粹以推動技術發(fā)展為主要任務,而是注重技術對于經(jīng)濟社會的賦能效果以及公共利益的實現(xiàn)與保障。這種理念的倡導既符合技術研發(fā)與應用的初心,同時也與社會公共利益福祉緊密契合。
(二)從“治理技術”向“技術治理”思維的轉(zhuǎn)變
由“技術工具論”所演變的技術使用邏輯往往建立在以人為主體的基礎之上,將技術視為人所主導并控制的工具,并通過技術的使用產(chǎn)生經(jīng)濟和社會價值。這種邏輯的產(chǎn)生符合傳統(tǒng)工業(yè)化時代的生產(chǎn)規(guī)律,在實現(xiàn)技術價值發(fā)揮的同時,也尊重了人作為社會主體的主觀能動性。然而,技術作為“被使用”對象的邏輯,應用于社會治理的過程之中時,技術不可避免地成了“被治理”的對象,“人治理技術”成為應對技術所產(chǎn)生的經(jīng)濟社會風險的當然思維。這種治理思維主要體現(xiàn)為將技術作為治理對象,并通過法律規(guī)范加以控制,避免因技術發(fā)展的不確定性而造成社會損害。盡管這種治理方式仍屬于技術治理的概念范疇,但僅將技術作為治理對象,實則脫離了理解技術治理本質(zhì)內(nèi)涵的實踐語境,這種做法忽略了技術可以成為治理方式的另一內(nèi)涵屬性[9]。不可否認的是,這種思維的采取并非錯誤,而是非智能化時代下消除技術風險和技術發(fā)展不確定性的時代選擇。
然而,在技術的發(fā)展已經(jīng)步入智能化時代的情況下,一味通過法律規(guī)范治理技術已經(jīng)無法滿足社會治理的需求。以核技術為例,盡管在核技術投入使用前已經(jīng)通過社會規(guī)范很好預估了技術可能導致的風險,但技術發(fā)展的不確定性仍然使得風險無法被完全消解,切爾諾貝利和福島為典型的核泄漏事故依然發(fā)生并使得經(jīng)濟社會遭受巨大損失[11]。因此,在傳統(tǒng)“治理技術”思維無法滿足社會治理需求的前提下,思考將技術作為新型治理方式、妥善發(fā)揮技術治理的工具價值具有必要性。在傳統(tǒng)的科技與法律的關系之中,技術往往被視為規(guī)范對象予以規(guī)制,然而面臨以人工智能為主的顛覆性技術,技術已經(jīng)逐漸突破作為規(guī)制對象的局限性,開始以治理方式的面相參與科技與法律的關系互動之中。技術治理視域下的人工智能治理,通過采取從“治理技術”到“技術治理”的轉(zhuǎn)向,在減輕技術實現(xiàn)的社會負擔的同時,給予技術迭代升級的發(fā)展空間,進而實現(xiàn)“技術作用于經(jīng)濟社會”的良性循環(huán)之中,確保國家核心競爭力與技術競爭話語權的穩(wěn)定與提升。
在當代社會,技術治理作為一種新興的治理模式,其核心理念在于利用技術手段來優(yōu)化社會治理結(jié)構(gòu)和提高治理效率。盡管技術治理具體的主張紛繁復雜,但總體上堅持兩個核心的原則:一是科學管理,即通過科學原理與技術方法參與社會的治理活動。科學管理原則意味著將技術納入傳統(tǒng)觀念所認定的治理工具的范圍之中,并以此實現(xiàn)社會的治理,推動社會的理性運行。二是專家政治,即由接受了專業(yè)訓練和具備專業(yè)知識的專家參與治理活動,從而推動技術治理工具的正確運用,避免技術治理“失控”[12]。以上這兩種原則的提出實則是技術治理思維在制度層面的具體反映,在功能上體現(xiàn)為對高效率的社會規(guī)則運轉(zhuǎn)與高水平的社會治理效果的追求。進入智能時代,以人工智能為代表的顛覆性技術引發(fā)了社會治理格局的變動,傳統(tǒng)“治理技術”的思維難以在妥善處理因人工智能所引發(fā)的各類實踐問題的同時,兼顧技術創(chuàng)新發(fā)展與社會科學治理的平衡。技術治理思維的介入,實則超越了單一化的治理范式,主張在人工智能治理的過程中更加關注治理的工具理性與價值理性之間的協(xié)調(diào)統(tǒng)一,確保技術發(fā)展與社會需求相協(xié)調(diào)。
三、技術治理視域下人工智能治理的實踐困境
在確定技術治理視域下人工智能治理的應有邏輯后,還應基于此邏輯分析人工智能治理的實踐困境,確保理論邏輯與實踐問題的客觀結(jié)合。以人工智能為代表的顛覆性技術,在推動經(jīng)濟社會高速發(fā)展的同時,對技術的治理問題同樣不容忽視。然而,對人工智能實現(xiàn)技術治理并非簡單的規(guī)則套用,還應綜合考量人工智能自身的技術特點和現(xiàn)有社會規(guī)范體系的復雜影響,探索技術治理視域下人工智能治理可能存在的問題。具體而言,這些問題不僅體現(xiàn)為因預防技術風險慣性所導致的規(guī)范思維“陷阱”,還存在因技術手段僵化所可能導致的技術治理實效不佳,以及因人工智能技術發(fā)展的不確定性所導致的倫理風險。
(一)因預防技術風險慣性所導致的規(guī)范思維“陷阱”
技術引發(fā)的社會問題驅(qū)動著法律規(guī)范的更新,而立法滯后性的存在使得現(xiàn)有法律規(guī)范天然無法緊跟技術發(fā)展的步伐[13]。反映到人工智能領域,人工智能技術作為一項涵蓋機器學習、大模型算法開發(fā)以及計算機視覺與感知的復雜系統(tǒng),對其治理需要綜合技術、社會、法律以及倫理等多維視角,其中以法律規(guī)范實現(xiàn)人工智能治理是目前大多數(shù)國家的主流操作。然而,通過法律規(guī)范的制定和適用實現(xiàn)技術的治理,盡管能夠有效地劃定技術發(fā)展的紅線,防范因技術不確定性所引發(fā)的法律風險[14],但是相較于技術發(fā)展的迅猛,立法的滯后性使之無法完善地實現(xiàn)技術風險的規(guī)范。此外,為了給技術迭代升級留足充分的發(fā)展空間,法律也難以對未知的技術風險予以充分規(guī)制。以人工智能機器學習內(nèi)容為例,人工智能技術的發(fā)展沖擊著現(xiàn)有法律規(guī)范體系,如何在促進技術發(fā)展與防范法律風險之間尋找適當?shù)钠胶怅P系成為焦點[15]。因此,為避免立法滯后性影響對技術風險的防控,以風險預防為主的規(guī)制思維逐漸成為治理技術的主流,并影響立法的理念與實操。以歐盟《人工智能法》為例,歐盟通過風險類型化的規(guī)制思路將人工智能區(qū)分為不同風險級別,并基于風險分類分級的思維實現(xiàn)人工智能的針對性治理。盡管歐盟《人工智能法》對于人工智能技術風險體系化的治理思路得到了諸多學者的肯定[16],然而此種做法實際上體現(xiàn)了過度依賴“風險預防控制”的思維慣性,這種思維慣性使得對于新技術的規(guī)制趨于統(tǒng)一,在一定程度上反倒是存在抑制創(chuàng)新的可能。
造成這種風險預防慣性的主要原因在于舊有規(guī)制思維與現(xiàn)有技術條件之間的沖突。這種沖突直接導致了在新技術出現(xiàn)安全危機時,容易依賴于既有經(jīng)驗或規(guī)則處理技術可能存在的風險。法律層面,這種風險預防式的思維實則是預防法學理念在處理技術安全風險的體現(xiàn)。以算法風險為例,受算法黑箱效應與算法專業(yè)化、復雜化特點的影響,對于算法風險的規(guī)制實際上采取的是風險預防型的思路,具體體現(xiàn)為針對義務主體設置相應的注意義務以及懲罰性措施,由此規(guī)避潛在侵權風險的發(fā)生。不可否認的是,這種以行為規(guī)制視角為切口所實現(xiàn)的風險預防,在一定程度上杜絕了技術所帶來的侵權風險,克服了僅憑權利與義務的配置所難以克服的技術領域特有的復雜性問題。然而,在智能化時代的背景下,技術發(fā)展的不確定性逐漸成為未來技術創(chuàng)新的主要特點,繼續(xù)依賴風險預防式的規(guī)制思維似乎難以周全地照顧技術創(chuàng)新與產(chǎn)業(yè)發(fā)展,也無法準確回應當下人工智能產(chǎn)業(yè)所需解決的現(xiàn)實問題[17]。進而言之,人工智能的治理并不能僅對技術所造成的風險嚴防死守,還應綜合考量技術背后所關聯(lián)的經(jīng)濟利益與公共利益,通過技術治理為技術的創(chuàng)新發(fā)展留足空間。
客觀而言,盡管風險預防的思維能最大化地規(guī)避因技術發(fā)展不確定性所導致的風險,維護主體的合法權益。然而,一旦形成預防技術風險的慣性思維,難免造成規(guī)范上的“陷阱”,這種規(guī)范上的“陷阱”實際上體現(xiàn)為盡可能地實現(xiàn)完善的風險預防體系,以防控可能存在的侵權風險。但實際上,這種做法不僅可能會影響新問題的有效解決,也容易阻礙技術的創(chuàng)新發(fā)展。一方面,過于依賴風險預防的做法容易忽視真正需要解決的現(xiàn)實問題,降低決策效率。盡管我國人工智能技術已處于快速發(fā)展階段,但相較于國外先進水平還存在差距,同時與人工智能相配套的產(chǎn)業(yè)鏈仍在搭建之中。此時以風險預防的思維實現(xiàn)技術的規(guī)制,雖然能針對性地防范因技術所產(chǎn)生的風險,但容易導致對技術與產(chǎn)業(yè)發(fā)展的激勵不足,降低企業(yè)的決策效率。另一方面,將風險預防作為主要規(guī)制思路同樣存在抑制技術創(chuàng)新發(fā)展的可能性。這種過度預防技術風險的思維,可能會忽視或拒絕接受新的技術方案,從而成為束縛技術發(fā)展的瓶頸,阻礙技術的優(yōu)化和創(chuàng)新。值得注意的是,對于技術風險的預防并非絕對錯誤,而是應警惕持續(xù)堅持風險預防的慣性思維所可能導致的決策偏差。進而言之,在對技術實現(xiàn)規(guī)范治理時,應優(yōu)先思考通過技術實現(xiàn)自身風險排除的可能性措施,在通過技術治理難以完全排除風險時,再通過法律規(guī)范予以兜底,從而給予技術“自愈”和發(fā)展的空間,推動人工智能技術的健康、可持續(xù)發(fā)展。
(二)因技術手段僵化所導致的技術治理不能
將技術作為人工智能治理的工具,并非一味強調(diào)通過技術治理提高社會效率,還應意識到技術作為治理工具存在的局限性。與傳統(tǒng)科技不同,人工智能作為顛覆性技術難以被人所完全認知并規(guī)制。這意味著,在通過技術實現(xiàn)人工智能治理的時候,需警惕利用技術逾越法律底線的行為舉動,避免不負責任的創(chuàng)新治理。在實現(xiàn)技術治理的過程之中,不僅需要滿足“數(shù)字化、客觀化、專業(yè)化和效率化”的四大訴求[18],同時還應注重技術治理符合現(xiàn)有法律體系中的規(guī)范要求。一旦技術治理違背治理初衷,相應技術治理便極有可能導致“反治理”的效果,如技術怠工、智能低效等難題[4],進而導致技術治理失靈,影響人工智能治理的實際效果。進而言之,將技術治理應用于人工智能的治理之中,應警惕技術作為治理手段存在的局限性。這種局限性一方面反映為技術治理內(nèi)部治理手段的僵化,以及因僵化所導致的新類型風險;另一方面,也需注意在技術治理外部與法律治理模式的銜接問題,以確保在實現(xiàn)人工智能治理之時,避免因技術與法律之間的銜接問題而導致人工智能治理失效。
具體而言,因技術專業(yè)性與復雜性所導致的技術治理不能,在技術治理內(nèi)部體現(xiàn)為治理手段的僵化以及因僵化所導致的新類型風險。就人工智能治理而言,人工智能本身作為一項新類型的技術,在通過技術工具治理人工智能時,容易以傳統(tǒng)的科技思維思考治理的模式。然而,如果治理工具本身的技術基礎存在缺陷,或者治理過程中過度依賴這些工具,則極有可能限制治理的靈活性和創(chuàng)新性,從而導致治理的僵化。本質(zhì)上,這種治理的僵化實際上是“技術治理技術”陷入“維護”與“批判”的自反性悖論[19],從而導致技術治理“失靈”。
此外,因技術治理手段僵化也同樣可能造成新類型的風險。以人工智能圖像水?。ˋI Watermarking)技術為例子,作為標識人工智能生成內(nèi)容和解決深度偽造、虛假信息的關鍵技術,人工智能圖像水印技術往往被廣泛應用于人工智能治理之中。無論是歐盟《人工智能法》第50條第2款的規(guī)定2,抑或美國聯(lián)邦參議員所提出的《保護內(nèi)容來源和完整性,防止編輯和深度偽造媒體法案》(Content Origin Protection and Integrity from Edited and Deepfaked Media Act)3,均代表著人工智能圖像水印技術已作為治理人工智能的關鍵技術得到了實踐層面的認可。然而,由于欠缺可靠的技術基礎,圖像水印技術的應用實際上難以取得理想的效果[20]。過度依賴圖像水印技術可能導致人們忽視其他形式的錯誤信息,在人工智能生成內(nèi)容涉及侵犯著作權時,將內(nèi)容標記為“AI生成”并不能否定其違法性[21]。因此,通過技術治理技術并非十全十美之事,在技術尚未成熟之際將其作為治理工具,難免會導致治理目標與治理效果的偏差。
與此同時,技術治理不能的另一面向還體現(xiàn)為技術治理與外部法律治理之間的銜接問題。由于人工智能技術集合了大模型算法、數(shù)據(jù)訓練以及內(nèi)容輸出等多項功能,在技術基礎尚未成熟之時,相應的技術操作指標可能因人工智能系統(tǒng)自身的高度適應性與學習能力,使得人工智能治理存在相應技術操作標準與法律評估標準銜接不暢、價值難以對齊的窘境。以“通知—刪除”規(guī)則為例,法律治理層面的“刪除”要求實現(xiàn)“停止侵害”的應然效果4,然而對于人工智能系統(tǒng)中的數(shù)據(jù)刪除并非簡單、直接的技術操作,從人工智能系統(tǒng)中的“刪除”數(shù)據(jù)的影響仍是一個定位模糊的問題。這意味著,盡管人工智能已實現(xiàn)了形式上的數(shù)據(jù)刪除,但如果系統(tǒng)在對與先前刪除數(shù)據(jù)相似的內(nèi)容進行微調(diào)時,仍可能觸發(fā)先前數(shù)據(jù)的隱性再現(xiàn),從而挑戰(zhàn)了數(shù)據(jù)徹底刪除的概念[22]。易言之,在通過技術治理人工智能時,不能將目光僅局限于技術治理的范疇之中,還應確保與外部法律體系的整合與協(xié)同,以促進人工智能治理的有效性和連貫性。
(三)因技術發(fā)展的不確定性所導致的倫理風險
人工智能作為具備自主學習能力和認知邏輯的顛覆性技術,在通過技術賦能經(jīng)濟社會發(fā)展的同時,其研發(fā)與應用也引發(fā)了諸如深度偽造、算法偏見,以及數(shù)據(jù)安全等倫理風險。造成這些倫理風險的主要原因在于,人工智能技術發(fā)展的不確定性導致了技術創(chuàng)新偏離技術研發(fā)初衷,使得技術無法及時回應社會價值需求和道德期望。以算法黑箱效應為例,由于人工智能的研發(fā)和應用與數(shù)據(jù)緊密相連,導致人工智能的治理也不可避免地涉及數(shù)據(jù)安全或隱私保護等問題。然而,人工智能大模型算法黑箱效應的存在,使得數(shù)據(jù)主體無法得知算法運作以及信息利用的過程,進而難以維護自身的個人信息或隱私權益。此外,由于技術治理中“專家政治”的主張,治理過程往往由掌握一定知識的專家所掌控[12],這種專家式的治理主體一旦缺乏相應的責任倫理限制,則極有可能導致技術治理失靈[18]。進而言之,對于人工智能的技術治理難以兼顧倫理風險,無論是技術治理工具還是治理主體責任,技術治理應用于人工智能治理存在局限性。
值得注意的是,這種局限性并沒有在現(xiàn)有倫理規(guī)范與倫理審查制度框架內(nèi)得以妥善消解。以我國的倫理規(guī)范為例,盡管我國圍繞著人工智能倫理陸續(xù)出臺了《關于加強科技倫理治理的意見》《新一代人工智能倫理規(guī)范》和《人工智能倫理治理標準化指南》等一系列政策文件,但并未逃脫“回應式”治理的范疇,相應的倫理舉措仍屬于對已經(jīng)發(fā)生事件的事后修補[23]。盡管這種“回應式”治理模式并非盡善盡美,從人工智能倫理治理的實踐來看,無論是對技術操作流程的價值嵌入,抑或?qū)θ斯ぶ悄墚a(chǎn)品或智能體的倫理要求,均無法脫離當下技術范疇與思維認知的局限,人工智能倫理的“回應式”治理范式仍是當下人工智能倫理治理的主要模式。此外,由于倫理監(jiān)管的敏感性,在倫理審查制度的建構(gòu)上,仍未能有行之有效的操作方案,國際范圍內(nèi)也未出現(xiàn)專用的人工智能倫理檢測的工具[24]。目前,對于人工智能倫理的要求更多的是在技術流程中輸入相應的倫理或道德指標,典型如公平性、可解釋性、透明度等。
因此,在技術治理存在倫理風險應對的局限性時,有必要將目光超越單一的技術治理范式,不能僅局限在發(fā)揮技術治理的工具理性,還應注重與價值理性的協(xié)調(diào)統(tǒng)一。這意味著,在貫徹人工智能促進式治理理念與技術治理思維之際,不能僅關注技術所引發(fā)的法律風險,還應有效回應技術發(fā)展中的倫理問題,以此滿足社會對技術發(fā)展的創(chuàng)新期待與價值需求。
四、技術治理視域下人工智能治理的制度安排
在思考技術治理視域下人工智能治理的制度安排時,基于促進式治理理念與技術治理思維的要求,不僅應重視因技術治理所可能導致的局限性困境,還應注重科技與社會制度之間的關系協(xié)調(diào)。建構(gòu)人工智能治理的制度體系,其關鍵點在于尋找與技術創(chuàng)新發(fā)展趨勢相適應的科學治理制度。具體而言,應實現(xiàn)以“技”與“法”相互調(diào)節(jié)的規(guī)范治理,推動技術創(chuàng)新與制度規(guī)范之間的有效互動,同時完善以技術標準為主的軟法規(guī)范體系,避免技術實施標準的模糊與手段的僵化。在發(fā)揮技術治理工具價值的同時,更加強調(diào)負責任的人工智能倫理規(guī)范引導,以實現(xiàn)更加持續(xù)、健康的人工智能技術發(fā)展。
(一)實現(xiàn)“技”與“法”相互調(diào)節(jié)的規(guī)范治理
技術治理并非完美無缺,其在實踐中往往面臨著工具理性與價值理性的雙重挑戰(zhàn)。工具理性強調(diào)技術手段的效率和實用性,而價值理性則關注技術應用的道德和倫理維度。在這一背景下,技術治理不能僅局限在單一化的范圍之中,而是應保持科技謙遜主義,注重與其他治理方式的協(xié)調(diào)統(tǒng)一。因此,應對人工智能治理,有必要實現(xiàn)以“技”與“法”相互調(diào)節(jié)的規(guī)范治理,確保通過技術工具與法律工具的綜合介入,平衡技術治理中的工具理性與價值理性,確保技術發(fā)展與社會需求相協(xié)調(diào)。具體而言,“技”與“法”相互調(diào)節(jié)的規(guī)范治理本質(zhì)上并不違背技術治理所提倡的工具理性與價值理性屬性,而是通過法律規(guī)范的介入,避免技術治理出現(xiàn)工具理性的越位以及價值理性的缺位。同時,“技”與“法”相互調(diào)節(jié)的規(guī)范治理還強調(diào)不同治理工具之間的相互促進和協(xié)同發(fā)展。技術治理可以為法律規(guī)范提供新的視角和方法,推動法律規(guī)范的創(chuàng)新和完善。而法律規(guī)范則可以為技術治理提供必要的約束和指導,確保技術治理的方向和目標與社會價值觀和倫理標準相一致。在這一過程中,法律規(guī)范不僅為技術治理提供了必要的法律框架和行為準則,還有助于確保技術應用的合法性、合理性和道德性。通過法律規(guī)范的介入,可以有效避免技術治理過程中可能出現(xiàn)的權力濫用、隱私侵犯等問題,保障個體權益和社會公共利益。
進而言之,“技”與“法”相互調(diào)節(jié)下的人工智能治理的制度安排,本質(zhì)上是技術價值與法律價值相互構(gòu)建的過程。實現(xiàn)更加有序、高效的人工智能治理,治理者就不可避免地需要面對因技術發(fā)展和技術作為治理工具所帶來的風險,以及與技術發(fā)展相適應的法律制度構(gòu)建問題。然而,技術治理與法律治理之間的關系較為復雜。由于技術治理的工具主義傾向,即技術被視為達成既定治理目標的一種手段,與法律治理原則所強調(diào)的法律權威及其價值導向之間存在著一種內(nèi)在的張力。工具主義的過度強調(diào)容易使得技術被簡化為單一性、功能性的工具,可能導致技術本身固有的價值和倫理維度被邊緣化,從而使得技術活動在實現(xiàn)目標的過程中,可能忽略了其對社會秩序和人類福祉的深遠影響[25]。這種簡化不僅可能導致技術決策過程中的倫理盲點,也可能使得技術治理無法充分考慮技術活動對人類社會結(jié)構(gòu)、文化價值觀以及自然環(huán)境的潛在影響。這種情況下,技術治理缺失了對社會價值與人文的理性關懷,從而違背富勒斯合法性原則中對法律內(nèi)在道德性的強調(diào)[26]。因此,實現(xiàn)“技”與“法”相互調(diào)節(jié)的規(guī)范治理,應在實踐中建立技術治理與法律治理相互協(xié)調(diào)的平衡機制,以確保技術的發(fā)展既能夠推動社會進步,又能夠尊重和維護法律的權威和價值導向。
具體而言,“技”與“法”相互調(diào)節(jié)的平衡機制具體體現(xiàn)為三重要求:一是發(fā)揮技術工具的治理優(yōu)勢,在法律治理中固化技術解決方案。這要求在人工智能技術產(chǎn)生風險之際,通過技術治理工具的妥善運用,確保在技術可行范圍內(nèi)發(fā)揮技術治理工具的優(yōu)勢,消除技術本身所帶來的風險。此外,對于技術治理工具的運用并非短期或一次性的治理手段,而是應通過制度規(guī)范的建構(gòu)將其固化為治理的長效機制,使得技術工具優(yōu)勢得以與法律治理相互協(xié)同,確保其在不同階段和不同情境下都能夠發(fā)揮預期的作用。二是強調(diào)法律治理的價值導向,避免慣性的預防思維。法律治理的核心價值在于維護社會公平正義、保障人權、促進社會和諧穩(wěn)定,因此在應對因技術所產(chǎn)生的風險時,法律治理應充分發(fā)揮公正、秩序和效率的價值導向,引導技術治理價值理性的發(fā)揮。同時,在選擇相應治理方式時,盡可能避免因?qū)夹g發(fā)展不確定性所導致的慣性預防思維,提高制度對技術發(fā)展的包容性和適應性。三是實現(xiàn)法律治理與技術治理的深度融合,發(fā)揮不同治理工具的協(xié)同優(yōu)勢。技術治理工具的優(yōu)勢在于高效性、精確性以及可量化性,而法律治理則強調(diào)公平、正義等價值導向,通過兩者的深度結(jié)合,可以確保在合理運用技術治理工具的同時,避免其可能帶來的倫理風險和社會問題?;诩夹g治理與法律治理的協(xié)同作用不僅能夠提高治理效率,還能夠確保治理過程的合法性和合理性,使得技術的發(fā)展與應用更加符合社會的整體利益和長遠發(fā)展。
(二)完善以技術標準為主的軟法規(guī)范體系
為了平衡技術治理與法律治理之間的要求,應采取一種更為綜合、完善的視角,既通過技術工具提高治理效率與治理水平,又通過與法律治理的銜接融合確保人工智能治理活動取得社會大眾所期待的治理效果。這意味著,需要將治理的目光逡巡于與法律治理聯(lián)系密切的軟法規(guī)范體系,并以技術標準為切口,通過構(gòu)建和完善與人工智能相關的技術標準體系,強化技術治理的穩(wěn)定性??陀^而言,如技術標準、行為準則等軟法規(guī)范,雖然不具備法律的強制性,但在實踐中具有重要的指導和約束作用[27]。通過軟法規(guī)范的引導,可以為技術治理提供更為靈活和更強適應性的規(guī)范框架,使其更好地適應不斷變化的社會需求和技術發(fā)展。在這一過程之中,完善以技術標準為主的軟法規(guī)范體系應著眼于人工智能技術的系統(tǒng)能力建設、人工智能的過程性安全標準以及技術治理與法律治理的銜接融合之上,確保通過技術標準的構(gòu)建與完善,強化技術治理的穩(wěn)定性以及與法律治理的內(nèi)在融合。具體而言,完善以技術標準為主的軟法規(guī)范體系主要包括以下三個方面:
第一,構(gòu)建人工智能系統(tǒng)能力建設標準,提高人工智能技術治理水平。對于人工智能系統(tǒng)能力的建設不僅應明確技術基礎范圍內(nèi)技術工具的共性要求,而且還應針對人工智能系統(tǒng)建設能力展開測試與評估。一方面,在基礎共性要求上,通過研制人工智能技術基礎術語定義、模式架構(gòu)以及關鍵技術的應用標準,落實人工智能技術研發(fā)與應用的標準機制,推動技術工具在人工智能治理中的針對性與有效性。另一方面,通過建立完善的人工智能系統(tǒng)能力測試與評估標準,提升技術治理的科學性與客觀性,進一步明確技術治理的限度與風險應對策略,從而實現(xiàn)治理水平與治理能力的提升。
第二,建立完善的人工智能安全流程標準,強化技術風險的抵御能力。對于人工智能安全流程標準的建設應關注人工智能技術研發(fā)與應用中所涉及的大模型算法、訓練數(shù)據(jù)、安全與隱私等方面,加強人工智能系統(tǒng)的全生命周期管理,以更加嚴謹、科學的技術治理手段實現(xiàn)人工智能的透明度、可解釋性、可控性等不同維度的風險防控,提高系統(tǒng)的穩(wěn)定性和可靠性。
第三,加強技術治理與法律治理的銜接能力,發(fā)揮治理工具的協(xié)同作用。就人工智能治理而言,不僅需要通過技術治理工具實現(xiàn)治理效率和水平的提升,更需要通過法律價值引導技術治理工具的選擇與應用,校正技術治理的偏差[28]。進而言之,一方面需要在人工智能治理的過程中,注重法律規(guī)范與技術治理實踐的深度融合,明確相關技術定義與法律定義之間的互動關系,確保法律規(guī)范中的技術標準符合技術發(fā)展實踐。另一方面,在技術治理過程中,應當充分發(fā)揮法律價值的引導作用,確保技術的應用不僅追求效率和效益,也符合社會的整體利益和長遠發(fā)展,從而實現(xiàn)技術治理工具理性與價值理性的協(xié)調(diào)統(tǒng)一,促進治理實踐與社會價值的更好對接。
(三)強調(diào)更加負責任的人工智能倫理規(guī)范引導
技術治理在通過運用技術化手段實現(xiàn)人工智能治理的同時,還應確保技術治理價值理性的實現(xiàn)。這一要求揭示了人工智能技術治理的雙重維度:一方面,技術治理需在形式上滿足治理的合理性,即通過有效的技術手段確保治理過程的透明度、公正性和效率。另一方面,技術治理應在實質(zhì)層面超越單一性、功能性的技術應用,避免技術治理滑向過度工具化的趨勢,推動人工智能治理向“善治”和“善智”的方向發(fā)展。進而言之,技術治理價值理性更加關注治理活動的倫理維度,強調(diào)了治理活動的價值導向,即人工智能治理不僅要追求治理效率和治理效果,還要關注治理活動對社會、環(huán)境和個體的長遠影響。在人工智能的背景下,這意味著技術治理不僅要確保人工智能系統(tǒng)的功能性和效率,還要確保這些系統(tǒng)的設計和應用符合倫理原則和社會價值觀,促進人工智能技術的負責任使用。
此外,人工智能技術的不確定性和快速發(fā)展帶來了一系列倫理風險,如隱私侵犯、數(shù)據(jù)安全、算法偏見等問題。這些風險要求技術治理在追求價值理性時,必須確保技術治理的理性回歸到以人為中心的治理本位。這意味著,技術治理應當以人的福祉和發(fā)展為最終目標,確保技術的發(fā)展和應用能夠促進社會的整體利益,而不是僅僅追求技術進步本身。對這一目標的實現(xiàn),不僅需要在技術治理的過程中嵌入以人為本的價值理念,還應采取多元化、綜合化的措施以確保價值理念的落實。
具體而言,一是在技術治理的過程中嵌入以人為本的價值理念[29],確保技術治理的價值理性得以實現(xiàn)。這要求在人工智能治理的過程中,更加關注社會主體性的塑造,堅持守正創(chuàng)新。一方面,通過提高人工智能技術的透明度與可解釋性,使得利益相關者能夠更加準確、客觀地評估技術所造成的影響,維護個體的合法權益;另一方面,以人為本的價值理念也要求在技術創(chuàng)新與應用的過程中,將相關倫理規(guī)范作為核心要素,通過“倫理先行”的價值引導,確保人工智能系統(tǒng)的決策過程和結(jié)果符合社會倫理和法律規(guī)范。二是完善技術治理的責任機制,強調(diào)更加負責任的創(chuàng)新治理。在現(xiàn)行人工智能倫理“回應式”治理范式的基礎上,實現(xiàn)更加前瞻式的責任監(jiān)管[19]。這意味著,技術治理者不僅要對現(xiàn)有技術應用的后果負責,而且要主動識別和評估未來技術發(fā)展可能帶來的風險和挑戰(zhàn)。通過這種前瞻式的責任監(jiān)管,技術治理能夠更好地適應技術的動態(tài)變化,及時調(diào)整治理策略,以減少不確定性帶來的風險。三是建立完善的技術治理倫理審查制度,加強對技術治理過程中倫理問題的監(jiān)督。在強調(diào)技術治理責任落實的同時,還應建立完善的倫理審查機制,確保對技術的運用不偏離以人為主體的價值導向,同時通過完善倫理審查的監(jiān)督與救濟制度,加強倫理救濟的程序性規(guī)定,從而保障個體的合法權益得以實現(xiàn)。
五、結(jié)語
進入智能時代,人工智能技術的迅猛發(fā)展及其廣泛應用給經(jīng)濟社會帶來前所未有的挑戰(zhàn)。面對人工智能所引發(fā)的治理難題,不僅需要轉(zhuǎn)變傳統(tǒng)的約束式治理理念,還應實現(xiàn)從“治理技術”向“技術治理”思維模式的突破。以技術治理思維實現(xiàn)人工智能治理,不僅需要妥善利用科學技術手段發(fā)揮技術治理的工具價值,還應確保技術治理不違反以人為主體的價值理念。然而,技術治理視域下的人工智能治理是一個動態(tài)的、開放的和持續(xù)的過程,僅依靠單一的技術治理思維難以應對紛繁復雜的人工智能治理難題,我們應當結(jié)合法律規(guī)范、倫理規(guī)范等治理模式,整合不同領域的知識和資源,共同推動人工智能治理體系的創(chuàng)新和發(fā)展。換言之,在技術治理的過程中,以人工智能為主的治理科學應以遵循技術發(fā)展的客觀規(guī)律為依歸,并通過“技術治理—法律規(guī)范—倫理引導”的綜合治理,滿足人們對經(jīng)濟社會發(fā)展效率與技術發(fā)展理性的期待。
參考文獻:
[1] 張凌寒, 于琳. 從傳統(tǒng)治理到敏捷治理:生成式人工智能的治理范式革新[J]. 電子政務, 2023(9): 2?13.
[2] 張富利. 全球風險社會下人工智能的治理之道——復雜性范式與法律應對[J]. 學術論壇, 2019, 42(3): 68?80.
[3] 徐輝. 人工智能在社會治理協(xié)同中的應用、問題與對策[J]. 科學管理研究, 2021, 39(5): 32?40.
[4] 劉永謀. 技術治理、反治理與再治理: 以智能治理為例[J]. 云南社會科學, 2019(2): 30?32.
[5] 劉永謀. 技術治理通論[M]. 北京: 北京大學出版社,2023: 33.
[6] LITTLER D, PEARSON A. Uncertainty and technological innovation[J]. Management Decision, 1972, 10(2): 111?116.
[7] 季衛(wèi)東. 人工智能開發(fā)的理念、法律以及政策[J]. 東方法學, 2019(5): 4.
[8] 董禮勝, 李玉耘. 工具—價值理性分野下西方公共行政理論的變遷[J]. 政治學研究, 2010(1):67.
[9] 程海東, 陳凡. 從實踐語境理解技術治理[J]. 中國社會科學評價, 2021(3): 84.
[10] 朝樂門, 尹顯龍. 人工智能治理理論及系統(tǒng)的現(xiàn)狀與趨勢[J]. 計算機科學, 2021, 48(9): 4.
[11] 宋辰熙, 劉錚. 從“治理技術”到“技術治理”:社會治理的范式轉(zhuǎn)換與路徑選擇[J]. 寧夏社會科學, 2019(6): 125?126.
[12] 劉永謀. 技術治理的邏輯[J]. 中國人民大學學報, 2016, 30(6): 118.
[13] John Perry Barlow:Selling Wine Without Bottles: The Economy of Mind on the Global Net[EB/OL]. (1993)[2024-06-03]. https: //www. eff. org/pages/selling-wine- without-bottles-economy-mind-global-net.
[14] 劉偉斌. 人工智能生成內(nèi)容保護的行為規(guī)制邏輯選擇與路徑建構(gòu)[J]. 科技與法律(中英文), 2024(5): 100?109.
[15] 辜凌云. 人工智能機器學習內(nèi)容的著作權合法性基礎——以文本和數(shù)據(jù)挖掘例外規(guī)則為視角[J]. 出版廣角, 2024(15): 54?59.
[16] 丁曉東. 人工智能風險的法律規(guī)制——以歐盟《人工智能法》為例[J]. 法律科學(西北政法大學學報), 2024, 42(5): 3?18.
[17] 趙精武. 論人工智能法的多維規(guī)制體系[J]. 法學論壇, 2024, 39(3): 57.
[18] 劉翠霞. 邁向“負責任地創(chuàng)新治理”——當代社會技術治理的失靈癥候與療治可能[J]. 社會科學, 2021(10): 90?93.
[19] 張鋌. 技術治理何以失靈?[J]. 自然辯證法研究, 2022, 38(11): 79?80.
[20] KATE KNIBBS. Researchers Tested AI Watermarks—and Broke All of Them[EB/OL].(2023-10-03)[2024-06-11]. https: //www. wired. com/story/artificial-intelligence- watermarking-issues/.
[21] Justyna Lisinska. Watermarking in Images Will Not Solve AI-Generated Content Abuse[EB/OL].(2024-08-15)[2024?8-20]. https: //datainnovation. org/2024/08/watermarking-in-images-will-not-solve-ai-generated- content-abuse/.
[22] FEDER C A. Report of the 1st workshop on generative AI and law[J]. "ArXiv preprint arxiv: "2311. "06477, "2023: "15.
[23] 吳興華. 從“回應式”治理到“前瞻式”治理:人工智能倫理治理模式的變革[J]. 理論導刊, 2024(2): 64.
[24] 國家人工智能標準化總體組, 全國信標委人工智能分委會. 人工智能倫理治理標準化指南[R]. (2023-03-04)[2024-08-11]. https: //hulianhutongshequ. cn/upload/tank/report/2023/202304/1/fbc819dd851246a1b21298b2e0725636. pdf.
[25] 趙鵬, 謝堯雯. 科技治理的倫理之維及其法治化路徑[J]. 學術月刊, 2022, 54(8): 91.
[26] 張智. 論富勒“合法性原則”的道德性與制度化[J]. 河北法學, 2011, 29(6): 171.
[27] 羅豪才, 畢洪海. 通過軟法的治理[J]. 法學家, 2006(1): 2.
[28] 鄭智航. 網(wǎng)絡社會法律治理與技術治理的二元共治[J]. 中國法學, 2018(2): 123.
[29] 張平. 人工智能倫理治理研究[J]. 科技與法律(中英文), 2024(5): 8.
Technical and Legal Governance of Artificial Intelligence
Sun Guorui, Liu Weibin
(School of Law, Beihang University, Beijing 100191, China)
Abstarct: As a technical or technologized governance activity, technical governance places greater emphasis on the interactive relationship between individuals and technology within governance processes.When applied to the governance of artificial intelligence (AI), the framework of technical governance requires not only a reevaluation of traditional constraints surrounding governance philosophy but also an evolution in these philosophies themselves. Furthermore,it requires that technology transcends previous paradigms where it is merely viewed as an object of governance, thereby enabling self-governance within AI technologies.However, governing AI through the lens of technological governance is not merely a matter of applying existing rules. In practice, it often encounters challenges such as the \"trap\" of normative thinking, limitations in technical governance, and ethical risks. To address these challenges effectively, it is essential to comprehensively consider the interplay between technical and legal frameworks for regulation. This involves realizing a normative system that facilitates mutual regulation between \"technology\" and \"law\". Additionally, there is a need to enhance the soft law normative system primarily based on technological standards in order to mitigate ambiguities associated with implementation standards while avoiding rigidity in regulatory approaches.Simultaneously, there should be an emphasis on providing responsible guidance regarding AI ethical norms aimed at fostering sustainable and healthy development within AI technologies.
Keywords: technology governance; AI governance; legalnorms; AI ethics