黨的二十大明確提出,要加快建設“數字中國”。隨著人工智能技術的不斷迭代,生成式人工智能逐漸進入人們視野中,這種以數據處理、深度學習、內容生成為代表的技術在數據涵蓋范圍、算法運算速度與結果周延程度等方面取得了質的突破,并給國家治理、社會治理、生產生活等領域帶來了巨大的變革。所謂生成式人工智能,是指利用深度學習、概率模型等算法學習數據的內在規律和概率分布,[1]從而生成新的、具有相似特征的數據的處理技術。生成式人工智能的工作原理主要基于深度神經網絡和概率模型,在訓練過程中,模型會不斷調整其參數以更好地擬合數據,一旦訓練完成,模型就能夠根據輸入的初始條件,完成超大規模的文本生成、圖像生成、音頻生成、代碼生成、視頻生成等任務。[2顯而易見,生成式人工智能作為一種由人類開發并用于推動人類社會進步發展的技術,工具性是其天然屬性,追求效率是其終極目標,助推社會高速發展是其最高使命。
從目前來看,在市場監管、金融創新、數字化服務等方面,全球范圍內生成式人工智能應用正在全面鋪開,數字經濟、數字政府、數字文化等一系列新型業態應運而生。在此背景下,生成式人工智能也開始悄然嵌入社會治理體系,為社會治理模式帶來了革命性的變化,利用人工智能為社會治理賦能,也已成為智能時代治理轉型的必然方向。[3所謂社會治理,是指政府、社會組織、企業及個人等多個社會主體,通過制定與執行規則、提供公共服務、協調社會關系等方式,共同維護社會秩序、促進社會和諧、實現公共利益最大化的過程。[4近年來,隨著我國社會治理結構的不斷變化,社會治理的矛盾也日益突出。在這種情況下,國內部分學者認為我國政府應該積極扭轉思想觀念,改變單純的以政府為中心的治理模式,采取開放、包容的態度,鼓勵更多的公民參與到治理活動中,從而實現更為理想的治理效果。①而將生成式人工智能技術應用于社會治理,則是充分利用生成式人工智能在自然語言處理、圖像識別、深度學習等領域的先進技術,優化社會治理流程、提升治理效率、強化治理效果,并嘗試解決那些傳統治理手段難以攻克的難題的過程。誠如有學者所言,生成式人工智能技術對社會治理具有鮮明的賦能作用,不僅能夠促進多元主體有效參與、提高公共政策的精準度,同時還能全方位升級政府治理系統,提升多元主體的互動效能。[5但問題在于,技術賦能與科技風險從來都是相生相隨的,人工智能技術在賦能社會治理的同時,也為社會治理增加了潛在風險因子,[進而產生公共價值失靈、算法倫理風險以及數據公共安全困境,從而導致數字技術賦能社會治理的“懸浮化”。[7在這種情況下,如何通過配套的風險防范機制,充分消解技術賦能與科技風險的張力,是當下迫切需要解決的問題。
目前,以法治方式規制人工智能模型已成基本共識,但在具體規制階段上仍然存有較大爭議,并呈現出明顯的階段性態勢。[8部分學者聚焦技術研發端,認為通過強化技術研發的規范性和倫理性,從源頭上確保人工智能模型的可靠與安全至關重要,有鑒于此,必須在技術研發過程中引入系統的倫理審查、安全評估以及資格認定等機制,[9以預防潛在的技術應用風險。與此同時,部分學者將關注點轉向技術應用端,主張通過嚴格的技術使用標準和監管措施,嘗試通過嵌入知情同意機制、[10]算法可解釋性機制等,確保人工智能模型在實際應用中不侵犯個人隱私、不損害公共利益,進而實現技術賦能與安全應用的邏輯統一。除此之外,還有一部分學者則聚焦技術結果端,主張相比于前期和中期的技術規范,配套的責任追究才是最為有效的監管方式,[11因此他們主張明確人工智能技術的責任主體,在為受害者提供法律保障的同時,促使相關主體在技術應用過程中更加謹慎和負責。[12]上述研究無疑為本研究奠定了重要的基礎,這些階段性的算法規制方案,不僅有助于及時識別和解決人工智能模型在研發和使用過程中出現的具體問題,同時也有助于構建一套相對完整且靈活的監管體系,以適應人工智能技術的快速發展和變化。然而,問題的關鍵在于,人工智能技術的應用從來都不是階段性的,而是貫穿于研發、使用、應用等各個環節的全過程。[13]與之相應,對于人工智能技術的使用及其規范,也不能僅僅停留在階段性糾偏的層面,而是要加以規制,以確保技術的安全、可靠和可持續發展。算法評估作為一種全過程性的規制方式,“全程”是其最突出的特色,其不僅關注技術研發的規范性和倫理性,確保技術從源頭上就具備安全性和可靠性,同時還主張將技術應用端、結果處理端均納入算法評估的考量范圍,以實現對人工智能技術的全面、深入和細致的監管。這種全過程性的算法評估方式,主張以一種全面、系統、動態的眼光來看待和評估人工智能技術,不僅關注技術的當前狀態,還強調關注其未來的發展趨勢,并對其潛在風險加以防范。
總之,算法評估作為一種全過程性的規制方式,為規制與引導生成式人工智能參與社會治理提供了指引。因此,在將生成式人工智能技術嵌入社會治理的過程中,應遵循全過程算法評估的理念,明確生成式人工智能與社會治理之間的張力,進而結合社會治理的價值要求,確立算法評估機制的具體建構路徑。
一、生成式人工智能參與社會治理的內在張力
以算法評估的方式規制生成式人工智能參與社會治理,需要從生成式人工智能自身技術屬性與社會治理現實需求之間存在的張力入手,闡明人工智能算法運用于社會治理所可能引發的風險,以明確為何需要外部的規制介入生成式人工智能參與社會治理中。
1.“數據喂養”局限性與社會治理全面性間的張力
社會治理全面性體現了社會治理的復雜性和綜合性,是構建社會治理體系的重要基礎。何為社會治理全面性?社會治理是一個涵蓋廣泛、深入細致且高度協同的實踐過程,它涉及社會生活的各個方面,要求治理主體在決策、執行、監督等各個環節中全面考慮,統籌兼顧,進而形成治理合力,共同推動社會的和諧穩定與持續發展。但是生成式人工智能“數據喂養”的局限性會導致其在社會治理方面的功能無法完全和充分地發揮,甚至會加劇社會治理的風險。生成式人工智能“數據喂養”的局限性主要體現在數據內容、數據主體和數據價值等方面,其與社會治理的內容遙相呼應,兩者之間形成一種張力,由此引發了生成式人工智能在社會治理方面的風險和挑戰。生成式人工智能之所以能夠進行深度學習、預測建模、自我迭代,就是源于其龐大的數據基礎。需要注意的是,這種大數據基礎的背后是技術開發者有目的的“數據喂養”,根據生成式人工智能當前的使用反饋,在日常生活類的問題上,其一般能夠輸出較為準確的答案,但涉及專業領域的問題時,便會顯得捉襟見肘。也就是說,這種“數據喂養”的局限性在一定程度上決定著生成式人工智能輸出內容的真實性與可靠性。
(1)生成式人工智能“數據喂養”的失真性與社會治理的精準性之間的張力。生成式人工智能是通過廣泛和大量的文本訓練而生成的內容,這種內容的生成是基于數據主體向其輸入的原始數據,進行復合加工的結果,然而數據來源本身可能就存在著真實性的問題,且生成式人工智能文本訓練過程是依據主體設定的功能而實現的。[4因此,數據主體、文本訓練過程以及生成式人工智能自身都難以規避真實性問題,這種主體、過程和內容之間形成的疊加效應加劇了生成式人工智能“數據喂養”的失真性缺陷。相較于生成式人工智能的失真性缺陷,社會治理無論是政府層面公共利益的最大化過程,抑或企事業單位,甚至是個人層面的合作、對話和協商等治理過程,皆需要實現精準性和可靠性的治理。換言之,社會治理是在不同主體之間實現公共利益最大化的實踐過程,治理的各個環節、各個鏈條、各個過程都應當有益于且最大化社會整體利益。因此,可靠性治理和精準性治理是社會治理全面性的重要體現和重要內核。就此而言,生成式人工智能“數據喂養”的失真性與社會治理的可靠性、精準性存在著沖突,這種沖突可能會影響社會治理的成效。
(2)生成式人工智能“數據喂養”的守舊性與社會治理的動態性之間的張力。生成式人工智能“數據喂養”過程的守舊特征,即無論是生成式人工智能數據的來源還是文本訓練的過程都有賴于過往的原始信息和訓練模式,也就是說生成式人工智能只能根據既定的數據和文本訓練模式生成該框架下的文本信息,而無法超出既定的范疇。換言之,生成式人工智能是在大量的數據、超強的計算力以及強大的數據處理技術相互作用的固定模式下運作的,是對數據進行篩選、提煉和加工的過程,但囿于技術和過程的固化性質而無法推進到升華、再創造與革新的人類思維環節,也就造成了文本信息的再生成需要原始數據的“投喂”和“滋養”,而不能通過邏輯性和連貫性的應用加以創新。[15]與之相對應的是,社會治理除了要面對過往社會中既有的問題和挑戰,更多的是要處理社會生活中無法完全套用既往經驗的新問題和新挑戰,這就要求社會治理的過程是一個動態化和不斷革新的過程,應當因地因時因人探索出不同的社會治理方法,取得不同的治理效果。社會治理的動態化和不斷革新的過程展現出其不拘泥于既有范式的特征,這與生成式人工智能“數據喂養”的守舊模式間形成了巨大的張力。
(3)生成式人工智能“數據喂養”的逐利性與社會治理的人民性之間的張力。生成式人工智能“數據喂養”的價值局限性表現為生成式人工智能的“數據喂養”是為利益服務的,實現的是資本最大化的過程。[16]究其原因,生成式人工智能“數據喂養”模式以數據為核心,數據的收集和選擇是由數據主體完成的,而數據主體本身則受到自身價值因素的影響帶有主觀性,并施加于生成式人工智能,使其具有偏見性甚至歧視性,這種“數據喂養”過程也反映了生成式人工智能是以追逐利益最大化為基本特征的。與此相反,社會治理展現的是以人民為中心的價值追求,要求把人民群眾的根本利益放在首位,這種人民性的價值追求與生成式人工智能“數據喂養”的逐利性特征存在著本質區別。
2.結果輸出隨機性與社會治理穩定性間的張力
社會治理是一個穩定且持續的過程,即社會各組成部分在既定的法律法規和制度框架下,保持相對穩定的關系和運行狀態,確保社會運行順暢、人民生活安定有序,并通過科學合理的治理手段來維護社會的正常秩序和持續發展,實現社會穩定和諧的目標。在此過程中,生成式人工智能結果輸出的內在機理是基于其在預訓練階段所建立的模式和統計規律來生成答案的。這種結果是難以把握的,預測的準確性是概率性的,但社會治理中的各類行政行為則是合理、合法的,以實現社會穩定為目的,因而這二者之間存在著隨機性與穩定性的張力。生成式人工智能結果輸出的隨機性表現在因果關系的隨機性、主客體關系的隨機性以及結果的風險性上,這與社會治理所要求的穩定性、系統性以及合理性存在著不小的張力。
(1)生成式人工智能因果關系的隨機性與社會治理穩定性之間的張力。生成式人工智能結果輸出的隨機性在于其因果關系本身就有隨機性的特征,主要表現為生成式人工智能并不是依賴于嚴謹的邏輯體系和思維框架來建立文本信息的,而是依據固定指令對數據進行排列組合的過程,缺乏對事物之間因果關系的考問。生成式人工智能的隨機性在于缺乏事物之間因果關系的三個核心要素:一是時間性要素,要求事物之間具有先后的時間順序,事物之間互為因果;二是關聯性要素,要求事物之間具有相關性,即事物之間具有變量關系,一個事物的變化會引起其他事物發生連鎖反應,具體到生成式人工智能,其依據并不是基于兩者之間的共變關系,而是基于設定的非相關性因素進行計算的;三是排除其他干擾因素,也即事物之間的因果關系排除了其他解釋結果的可能性,事物之間存在著直接或間接的因果關系。生成式人工智能結果輸出并不能完全排除其他干擾變量,即結果的輸出缺乏事物之間的邏輯關系。相反,社會治理建立起了包括多元主體、立體過程、多種方式等特征在內的框架體系,既有相對穩定的結構,又保持著一定的開放性,社會治理成效的達成是主體之間彼此配合、各個環節相互協調以及不同內容之間相互促進等共同作用的結果。
(2)生成式人工智能主客體關系的隨機性與社會治理系統性之間的張力。生成式人工智能結果輸出隨機性的另一表現在于生成式人工智能主客體關系的隨機性,即生成式人工智能當前表現出高度的擬人性和自我主體性特征。[17]這種機器高度人類化的趨勢進一步模糊了主客體之間的原有界限,當人類無法操縱或難以有效控制這種趨勢時,便很難厘清主客體之間的關系,甚至使兩者關系發生顛倒,主客體之間的隨機性排列不僅存在著身份難以認同、缺乏責任歸屬以及機制體系渙散等問題,還進一步削弱了結果輸出的穩定性。相對于社會治理共同體模式下形成的共商共建共享治理模式,生成式人工智能主客體關系的隨機性將會影響社會公共生活體系的穩定性和預期性。
(3)生成式人工智能輸出結果的風險性與社會治理合理性之間的張力。生成式人工智能結果輸出隨機性的最后一個特征是輸出結果的風險性,即生成式人工智能輸出結果的程序設定并不會對結果的風險性進行考量,而是更加注重結果的效率性和量化指標。結果輸出的隨機特征與前述逐利特征遙相呼應,生成式人工智能追求利益最大化而忽視了風險的最小化。[18而社會治理就是通過組織化、體系化、制度化的措施盡可能降低和化解治理過程中遇到的風險和挑戰,通過主體、行為以及過程之間的合理配置和運行降低社會風險。
3.迭代方向效率化與社會治理價值性間的張力
社會治理價值性是指社會治理過程中不僅追求工具理性的效率,更強調基于價值理性的公平、合理與正義,致力于將倫理道德規范融入社會發展中,營造一種全社會范圍內的公平、合理、正義的價值環境,以規訓社會成員并引導社會向善治方向發展。概言之,對于社會治理而言,其所追求的并非工具理性考量下的效率優先,而是基于價值理性,試圖在發展中將倫理道德規范融入社會內部,在潛移默化中營造一種公平、合理、正義的價值環境。這顯然與生成式人工智能的工具性相矛盾,二者之間的張力主要表現在以下幾方面。
(1)社會治理追求公平、合理、正義,不是只發生在某個階層或者某個領域,而是以全社會為范圍展開秩序的維護與糾偏。生成式人工智能基于效率導向的設計目標在不斷的自我迭代中升級;在追求效率極致化的目標下,依靠機械重復的人力勞動的行業選擇以人工智能替代傳統勞動力,不可避免地造成結構化失業現象的出現。此外,算法歧視、算法黑箱所引起的風險,也與社會治理的價值追求相背離。
(2)生成式人工智能參與社會治理時,若仍以效率為導向,容易在治理過程中產生新的風險。如前所述,生成式人工智能作為數字工具迭代升級是為了追求極致化的效率。效率為先作為其算法編寫的首要考慮因素,在功能取舍中必定會摒棄其他影響效率發揮的因素。然而社會治理作為對社會發展的糾偏與引導,善治是其所追求的完美狀態。善治不僅是治理依據(法律)的“善”,還包含治理手段的“善”,以及治理過程中損害最小的“善”。社會治理工具不得游離于道德倫理,必須全方位考慮行為所帶來影響的多種可能性。因此,以效率為導向的生成式人工智能在參與社會治理時,可能會產生制約治理效果的內生風險。
4.技術發展權力化與社會治理行政性間的張力
社會治理行政性是指在社會治理過程中,政府行政機關扮演著核心和引領角色,通過制定政策、規劃戰略、調配資源、監督執行等手段,對社會公共事務進行管理和調控。這種模式強調政府在治理過程中的權威性和責任性,即行政機關不僅負責維護社會秩序和公共服務,還積極推動社會發展和進步,確保社會治理目標的實現。然而,生成式人工智能技術在社會治理系統中的嵌入,很可能會打破這種行政主導地位,進而侵蝕行政權力的運行空間、弱化行政決策的情感考量、降低治理對象的政治信任。
(1)生成式人工智能廣泛用于社會治理可能會引發算法權力侵蝕行政權力的風險。人工智能技術的發展伴隨著一種權力化的風險,因為人工智能算法本身就是一種技術權力。人工智能算法通過數據信息數字化,將社會人轉變為數字人,社會人之間的社會行為與交互關系亦被算法以數字化處理。與其說算法搭建了一個能夠映射現實社會的數字世界,不如說算法與人類社會融為一體。在與個體無法分割的情況下,社會個體通過算法感知世界,算法嵌入現實社會結構,影響甚至牽引社會個體行為。此時,人工智能算法轉化為一種技術權力,與社會權力結構相融合。[19]生成式人工智能本質上是人工智能算法的產物,自身就已具備成為技術權力的可能性。一旦其作為實現數字治理的工具嵌入社會治理,轉變傳統依賴于人力的行政模式,則會逐漸擠壓甚至替代行政權力,以強人工智能凌駕于人類之上。如果該技術在社會治理中的應用不斷擴散,就有可能打破社會治理自身的話語體系,進而動搖整個社會治理的政治主導性。申言之,算法在治理體系中的嵌入改變了既有權力結構,平臺通過對技術、資本和數據的掌控形成場域控制,導致政府的主導空間不斷被算法壓縮,一種基于算法的支配權和控制權開始在社會治理體系中廣泛運行。[20既有的“國家權力一社會權力”二維框架由此轉變為“國家權力一平臺算法權力一社會權力”三維框架,稍不留神就會產生算法異化的風險。以行政權公共性為例,政府具備公共服務職能,在新公共管理理論視角下,行政權力可以借助市場機制實現公共服務,吸納更多社會主體參與,以提升其服務質量。此思路遭到了學界的批判一一絕不能弱化政府在公共服務職能中的地位,否則公共服務會進入市場成為資本競爭的對象,使公共服務流為商品,這無疑不利于公共服務的實現。生成式人工智能融入行政管理之中,其能力、效率較市場機制更強、更高、更具優勢,但該模型在應用過程中對治理能力的優化,使其不斷嵌入社會治理中。政府部門廣泛使用生成式人工智能,人工智能以自身不可忽視的優勢推動行政管理主動轉型。
(2)生成式人工智能廣泛用于社會治理可能會弱化行政決策過程中的情感考量。生成式人工智能以龐大的數據支持與經由無數實驗建立的算法模型,能夠在短時間內整合各方信息,計算事件發生的所有可能性并判定相關關系,在不斷學習人類智慧的過程中對所有支持決策做出的因素進行拓撲排序,最終綜合計算結果,得出結論。毋庸置疑的是,這種由機器深度學習所輸出的決策在外觀上比人類決策更為周延。因此,可進行深度學習的人工智能技術參與行政決策,無論主觀還是客觀上都會引發決策機制的檀變。究其原因,社會治理所作用的對象本質上是人,他們作為社會個體具有情感和意識,忽視這一因素則會使治理的推進失去治理對象的配合,甚至會引發對立與沖突。生成式人工智能作為以效率為導向的技術工具,其運行軌道的搭建依靠的是集成的數據與嚴謹的算法,在嵌入行政決策的過程中,難以對人類情感變化進行識別并產生共情。且生成式人工智能的運行與使用并不需要與治理對象有物理上的接觸,在親歷性上有所欠缺。機械化教條式的決策方式使得治理模式公式化,無法回應治理對象的情感訴求。
(3)生成式人工智能廣泛用于社會治理可能會降低行政對象的政治信任。政治信任由行政權力與人民在雙向互動中累積而成,其重點在于互動。生成式人工智能嵌入社會治理并參與行政決策本身就缺乏對治理事務的親歷,其類人程序是人工智能決策高效率的表現,也是人工智能決策高風險的來源。在此情境下,對于群眾而言,很難相信機器做出的決策是設身處地為其著想的最優方案;對于政府而言,亦很難相信機器這種類人程序所輸出的結果能夠準確總結社會成員的真實表達。社會治理決策的成功推進落實依賴行政權力與人民之間存在的強烈信任,這種信任作為一種紐帶,無形中將二者聯結成共同體,維持行政權力與公民權利的二元平衡。目前看來,生成式人工智能技術強勢介入社會治理,顯然會將這種平衡局面打破,繼而破壞整個社會的治理生態,誘發新的治理風險,從而阻礙社會發展。
二、算法評估規制生成式人工智能參與社會治理的必要性
以算法評估規制生成式人工智能在社會治理中潛藏的風險,在當今凸顯其深刻的必要性。這一必要性體現為:算法評估能夠精準地平衡生成式人工智能的海量數據獲取需求與社會治理中對敏感數據的嚴格識別要求;算法評估在平衡生成式人工智能的自然語言處理能力與社會治理話語體系的規范性表達之間,發揮著不可或缺的作用;算法評估有助于調和生成式人工智能對效率優化的追求與社會治理對公平公正原則的堅守;算法評估還能夠融貫生成式人工智能的自我迭代方向與社會治理的意識形態主導??偟膩碚f,以算法評估規制生成式人工智能社會治理風險具有重要價值,有助于保障社會穩定、維護公共利益、促進人工智能技術與社會治理體系的融合發展。
1.兼顧海量數據獲取與社會治理的敏感數據識別
為了克服“數據喂養”固有的局限性,我們必須尋求一種更加專業、精確且與特定需求相匹配的數據供給模式。這種高度精細化的數據流轉機制,需要依賴作為數據處理核心工具的算法來有效發揮其功能。在現代信息處理架構中,大模型所依賴的數據資源主要源于復雜的互聯網環境。然而,鑒于網絡數據中存在著大量的混雜性、虛假性以及合規性風險,我們必須采取一系列有效的數據治理措施來應對這些挑戰。對此,通過算法的實質性篩選功能,可以對數據源進行嚴格的監控和過濾,以確保所獲取的數據在質量和合法性上達到要求。這一步驟至關重要,因為它不僅關系后續數據處理的準確性和有效性,還直接影響整個數據供應鏈的可靠性和穩定性。在這個過程中,算法的作用不僅僅是簡單的數據篩選,更是對整個數據生態系統中信息流動和質量的控制。
首先,通過算法評估機制對數據輸入端口進行規范性審查,是確保數據質量的首要步驟。在大數據時代,數據的質量問題已成為制約人工智能發展的瓶頸之一,因此,通過算法評估來加強數據輸入端口的規范性審查尤為重要。在此基礎上,數據算法過濾技術展現出強大的效能,特別是在應對日益復雜和多樣化的數據環境方面。這種技術可以視為一種自動化識別式的“凈水器技術”,[21]它能夠模擬人類的智能識別過程,對流入的數據進行深度分析和處理。通過運用先進的算法和模型,數據算法過濾技術能夠實現對數據的智能分類、去重、清洗和過濾等,從而確保流入后續處理環節的數據是合法且有效的。對于上述目標的實現,端口篩查技術的研發是一個亟待突破的關鍵領域。當前,隨著數據量的爆炸式增長和類型的多樣化,傳統的數據過濾技術已經難以滿足需求。因此,需要研發更加高效、智能的端口篩查技術,以實現對數據輸入端口的全面監控和審查。通過不斷創新和技術攻關,我們有望在這一領域取得重要突破,為生成式人工智能的數據安全治理提供有力的技術支撐。
其次,算法評估對于確保數據輸入遵循最小必要原則至關重要。這一原則的核心在于,在進行數據抓取時,必須嚴格將范圍限定在實現特定處理目標所需的最小數據集內。這意味著,在確保所采集的數據滿足分析需求的前提下,應盡可能控制數據的采集量,以防范數據的過度采集以及隨之而來的潛在數據濫用風險。通過算法評估,可以對數據采集的必要性和合理性進行精確衡量,從而確保數據輸入的精準性和高效性。此外,算法評估還可借助敏感識別技術,對輸入的數據進行深度分析和判斷。這種技術能夠識別和限制敏感信息的輸入,從而有效避免不必要的隱私泄露風險。在數據處理過程中,敏感信息的泄露可能會對個人隱私、商業機密甚至國家安全造成嚴重威脅。因此,借助算法評估的敏感性識別技術,可以在數據輸入階段對敏感信息進行有效識別和隔離,為后續的數據處理提供安全保障。當面對不可避免的敏感數據時,可以采用脫敏技術或加密處理等安全措施。①這些安全措施可以對敏感數據進行適當的轉換和處理,從而確保個人數據的機密性、完整性和可用性得到充分有效的保障。在算法評估的指導下,這些安全措施的實施將更加精準和有效,為數據的安全使用提供堅實保障。
再次,算法評估在數據處理流程中發揮著至關重要的作用,有助于確保輸入系統中的數據具備時效性、完整性和系統性。這些特征對于數據驅動的決策和模型訓練至關重要,因為它們直接影響數據的質量和可用性,進而影響模型的性能和準確性。時效性是指數據必須是最新的,能夠反映當前的實際情況和發展趨勢。在快速發展的數字化時代,數據的時效性尤為重要。過時的數據不僅無法為模型的訓練提供有效的價值,反而可能引入噪聲和誤導,導致模型作出錯誤的決策。此外,過時數據還會無謂地增加數據存儲和處理的負擔,降低系統的效率。因此,通過算法評估,可以對數據的時效性進行嚴格的把控,確保數據能夠及時更新,保持與實際情況的一致。完整性則要求數據必須是全面的,能夠涵蓋所需要的所有信息和維度。片段數據由于語義不完整和信息缺失,往往會導致歧義或錯誤的理解。這種不完整的數據會嚴重影響數據的質量和可用性,使得模型無法準確地學習和預測。因此,算法評估需要對數據的完整性進行嚴格的檢查,確保數據能夠全面、準確地反映所需要的信息和維度。系統性強調數據之間的關聯性和一致性,要求數據能夠形成一個有機的整體,相互支持、相互驗證。在復雜的數據環境中,數據之間的關聯性和一致性對于模型的訓練至關重要。如果數據之間存在矛盾或不一致,那么模型將難以學習到正確的規律和模式。因此,可以借助算法評估對數據的系統性進行深入探究,確保數據之間的關聯性和一致性得到有效的維護和保障。
為實現上述目標,算法評估可以對數據來源和采集方式進行全面嚴格的把關。首先,算法評估可以協助選擇可靠的數據來源,確保數據的真實性和權威性。通過評估數據來源的可靠性和權威性,篩選出高質量的數據源,為后續的數據處理提供堅實的基礎。其次,算法評估能夠規范采用科學的數據采集方法,保障數據的準確性和代表性。通過采用科學的數據采集方法,可以獲取到準確、全面的數據樣本,為模型的學習提供有力的支持。最后,算法評估還需對數據進行定期的更新和維護,以保持數據的時效性和新鮮度。通過定期的更新和維護,可以確保數據始終與實際情況保持一致,為模型的持續學習和優化提供源源不斷之動力。
2.平衡自然語言處理與社會治理的話語體系表達
盡管生成式人工智能在模擬人類社會自然語言方面取得了顯著進步,其語言邏輯日趨成熟,但我們不能忽視其輸出中依然存在的計算機語言痕跡。這種痕跡的存在揭示了從計算語言到社會語言過渡的復雜性和挑戰性。為了更加流暢地完成這一過渡,降低生成式人工智能輸出結果的模糊性,算法篩選成為一種必要的技術手段。算法篩選是指設計并實施一種高效的算法,用于從生成式人工智能生成的大量結果中篩選出符合社會治理要求的優質結果。[22]這種篩選不僅有助于提升輸出結果的質量和準確性,還能確保AI系統的行為與社會價值觀和法律法規保持一致。
具體而言,算法篩選包括進行周密的技術布局和深入的算法工具開發。在這一系統性的過程中,數據運行所遵循的重要原則一可信性、可負責性、合規性及倫理性等被確立為整個技術架構的核心指導原則。這些原則不僅是理論上的抽象概念,而且需要落實到具體的技術實踐中。為此,算法篩選技術可以將這些原則集成到一個根組件中,該組件在技術層面扮演著基石的角色,并緊密地嵌入生成式人工智能中。這一根組件不僅構成了模型運行的基礎,更是一個持續監控數據行為的機制。作為模型的價值中心,它不斷對數據運行進行審查和校驗,以確保其符合既定的原則和標準。此外,根組件還具備對可疑、偽造或經虛假篡改數據的即時檢測和處理能力。這種能力源于其內置的熔斷機制,一旦檢測到任何不符合標準的數據,該機制會立即被觸發,從而中斷數據的運行,并對其進行無害化處理。[23通過精心制定合理合法的內容分析和轉化規則,我們可以不斷優化數據的識別機能,進而提高算法處理數據的準確性和效率。與此同時,構建一個鏈條式的風險防控結構也至關重要,它有助于在各個環節中及時發現潛在的風險因素,迅速采取相應的應對措施,從而確保整個人工智能系統的穩定、安全和高效運行。
3.調和效率優化意圖與社會治理的公平公正追求
生成式人工智能與社會治理體系在深層次的價值追求上存在不容忽視的差異。當過度側重于追求效率時,可能會無意中忽視或犧牲社會的公平與正義原則。為了有效調和這種潛在的沖突,算法評估作為一種技術手段,可以為生成式人工智能的自我優化和迭代設定一個更為均衡且全面的價值目標體系。這樣的價值目標體系不僅關注計算效率,更強調與社會公正、道德倫理的和諧統一。
具體而言,在實際操作層面,實現算法評估的良性治理是一項涉及價值觀融入的工程。這就要求算法的設計者和決策者在技術開發的每一環節,都應將社會正義視為不可或缺的核心追求。進一步來說,為了使算法在深度學習過程中能夠真正借鑒和吸收社會正義的原則,算法設計者和決策者需要構建一個堅實且有效的道德支撐框架。這個框架不僅為算法提供了明確的道德指南,還確保了算法在面臨復雜決策時能夠做出符合社會期望的選擇。
4.融貫自我迭代方向與社會治理的意識形態主導
如何有意識地引導技術的發展方向,是科技倫理領域討論的熱點,而算法評估的工具屬性是一個可能的抓手,以技術規范技術能夠更加透徹地實現工具上的方向把控。
(1)在智能技術日新月異的時代背景下,我們需要對技術革新與社會價值體系之間的關系進行深入的思考和探討。特別是在“數據即權力”“數據即利益”觀念日益盛行的當下,[24經濟利益對生成式人工智能背后的意識形態安全產生的沖擊不容忽視。這種沖擊不僅可能引發技術風險,還可能對社會的穩定與發展造成潛在威脅。因此,我們迫切需要將社會主義核心價值觀作為技術革新的重要導向,特別是在生成式人工智能的研發和應用過程中,應將其視為不可或缺的指導原則。具體而言,我們應將維護社會主義核心價值觀生態作為平臺信息輸出的重要標準,通過嚴格的監管和審核機制,確保平臺內容始終符合社會主流價值觀的要求。此外,為了進一步強化社會主義核心價值觀在生成式人工智能技術發展中的引領作用,我們還應積極探索和創新融入路徑。如在技術研發階段就充分考慮社會主義核心價值觀的要求,在技術應用階段通過合理的市場機制引導其向符合社會主流價值觀的方向發展。
(2)在當下技術浪潮中,對于生成式人工智能類通用大模型中算法評估研發力度與創新深度的加強顯得尤為重要,這既是技術進步的必然要求,又是構筑社會主義意識形態全新傳播空間的重要舉措。從技術維度來說,生成式人工智能所生成的內容并非簡單地依靠邏輯推理完成信息的單向度傳遞,而是通過復雜的全域大數據采集與人工編碼強化學習的復合機制,實現思想觀念的深度滲透與傳播。鑒于此,我們需要以更高的站位和更寬的視野,大幅提升在人工智能領域算法技術的自主創新能力,既包括基礎理論的突破,也涵蓋關鍵核心技術的掌握。進一步來說,通過不懈的自主創新和技術攻關,能夠有效地識別并化解人機交互模式可能對主流意識形態認同產生的潛在風險和挑戰。在此基礎上,以社會主義核心價值觀為精神紐帶,凝聚起廣泛而堅實的社會共識,可共同塑造一個健康、積極、向上的社會主義意識形態網絡傳播新生態。這不僅有助于提升我國在國際競爭中的話語權和影響力,更能為構建網絡強國、數字中國提供有力的思想保障和文化支撐。
(3)明確生成式人工智能平臺的權力運行空間。在現實物理世界中,政府部門是社會治理的核心領導,然而,當視角轉向虛擬的數字空間時,虛擬化的網絡環境產生了一種新型斌權場域,沖擊和解構了原有的權力秩序,同時由于新的權力秩序還在塑造之中,政府部門的絕對主導地位不再如物理世界那般穩定且堅固。[25這就意味著將生成式人工智能技術引入社會治理的框架內,算法平臺將在虛擬空間中掌握更多的主動權,或多或少主導數據的生產、處理、流通以及消費情況,而這些關鍵環節很可能因為算法黑箱而面臨被算法平臺控制的風險,進而引發數據隱私泄露、算法偏見、信息繭房效應等一系列社會問題。因此,在這樣的背景下,我們必須要明確政府、數據生產者、生成式人工智能平臺以及普通公眾之間的法律關系,探索并建立一套能夠有效平衡各方利益、確保數據安全與公正分配的社會治理機制。其中,尤其要明確生成式人工智能平臺的權力運行空間,對平臺在數據收集、處理、使用及分享方面的權限范圍進行規范。一方面,在數據收集環節,明確生成式人工智能平臺在收集數據時,必須遵循知情同意原則,得到用戶的明確授權,清晰告知用戶數據收集的目的、范圍及方式,并嚴格遵守相關法律法規,確保數據收集的合法性與必要性;另一方面,在數據處理環節,生成式人工智能平臺應遵循數據分類分級原則,即在處理數據的過程中,根據數據的敏感度、重要性以及潛在風險等因素,對不同類別和級別的數據采取不同的保護措施,進而確保數據的安全性與合規性。
三、算法評估規制生成式人工智能參與社會治理的路徑構建
生成式人工智能與社會治理的深度融合有助于充分發揮前者的技術優勢,在提升治理效能、減少治理成本方面革新傳統的社會治理方式。但人工智能的深度應用也可能帶來諸多風險,而這些風險恰也表明了對人工智能算法進行規制的必要性。鑒于此,算法評估機制能夠在準入、運行與結果篩選的全流程上對算法實行規制,有助于算法以更為恰當的方式融入社會治理中。
1.準入資格:生成式人工智能技術邏輯預設的算法審查
自以生成式人工智能為代表的智能技術面世以來,一場由算法、數據以及模型引領的社會變革便悄然而至。生成式人工智能以其強大的通用性為依托,嵌入社會運行與人類生活的方方面面,潛在地改變了社會生產方式乃至人們的思考方式。[26然而,隨著生成式人工智能的落地與發展,在其運行過程中也悄然出現了諸多問題。如GPT-3模型的輸出中包含針對少數群體的歧視內容,又如算法黑箱帶來的訓練數據溯源困難,以及隨之而來的侵犯個人隱私的隱憂。這些都在呼喚監管的進一步介入與規則的進一步完善。由此,對于生成式人工智能的算法審查理應得到重視。有必要建立生成式人工智能算法的準入標準,以確保其推動社會正向發展。[27]
具體而言,首先,算法審查應關注算法的可解釋性,建立算法的透明性標準。算法的可解釋性是人類理解算法的基礎,是對算法的決策機制進行價值性審查的前提性條件。[28因此,有必要明確算法準入的透明性標準,規定進入市場運行的算法需要具備的可解釋性程度。此外,由于算法技術的邏輯性,受限于當前技術條件而無法具備較高可解釋性,如對于使用深度學習技術的黑箱算法,監管機關可以要求算法設計者建立訓練語料庫、數據庫備查,并建立語料、數據可溯源性標準。[29]
其次,算法審查應關注算法的公平性,建立算法的反歧視標準。由于算法設計者的主觀偏見,抑或訓練數據本身所蘊含的歧視性信息,算法可能會產生對于特定群體的偏見與歧視。[30]由于算法訓練數據源于人類社會,人類社會存在的對于特定群體的歧視不可避免地反映在算法中。[31因此,算法設計者有必要采取數據清潔等合理措施盡可能避免算法的歧視行為。從監管機關的角度來看,對于具備較高可解釋性的算法,應當對算法本身的設計進行反歧視審查。①由于生成式人工智能技術邏輯本身所導致的黑箱算法,應關注算法設計者訓練數據的選取標準和數據清潔措施的實施程度。此外,監管機關亦可通過對算法生成結果的審查來對算法歧視風險進行評估,[32]可以通過設置測試題庫、隨機抽查的方式進行審查,對算法生成結果進行評估。
最后,算法審查應關注算法是否損害他人權益及國家、社會公共利益,建立算法的安全性標準。由于生成式人工智能在自然語言處理上的強大能力,社會公眾幾乎不需要什么技術條件就可使用其生成內容。然而,其生成內容的準確性與安全性無法得到保障。因此,監管機關有必要對算法生成有害內容的能力進行評估與審查。具體而言,監管機關應當對算法訓練數據建立安全性標準,并建立數據備案及溯源機制,排除存在虛假有害信息的訓練數據。此外,監管機關亦可參照算法反歧視標準的審查方法,建立測試題庫并評估測試結果,設定通過閾值。監管機關可以設置關鍵詞目錄,要求算法具備對有違法律法規及公序良俗的內容生成請求的自動化拒絕功能。
2.運行監督:生成式人工智能自我訓練迭代的算 法引導
(1)合規性是算法引導的首要要求。自我訓練迭代是開發和維護大規模自然語言處理模型的關鍵環節。生成式人工智能的自我訓練是一個復雜且動態的過程,一般包括初始訓練一生成對話數據一迭代自我訓練一質量評估一模型修正和調整一用戶參與和反饋等多個步驟。這個過程是一個持續的循環過程,通過多次迭代反饋,算法模型不斷改進以適應用戶需求,提供更高質量的對話體驗。[33將上述流程簡化,即為訓練一運行一再訓練的迭代流程。由于自我訓練迭代基于算法而實現,而算法黑箱可能導致數據不可解釋性、不可預測性和缺乏透明度等問題,最終出現低質量、有害或存在偏見和歧視的內容,也可能導致欺詐、侵犯隱私等問題。同時,由于自我訓練迭代是一個不斷循環往復的過程,可能會不斷放大上述結果所造成的風險與危害。
自我訓練迭代是生成式人工智能的運行環節,也是關鍵環節,合規性是對其算法引導的首要要求。為促進生成式人工智能健康發展和規范應用,國家互聯網信息辦公室等部門于2023年7月發布《生成式人工智能服務管理暫行辦法》,其中第四條規定了提供和使用生成式人工智能服務,應當遵守法律、行政法規,尊重社會公德和倫理道德,明確指出了提供生成式人工智能應當合法合規的要求。按照合規性要求,基于生成式人工智能自我訓練迭代運行的各環節可以有針對性地進行算法引導。在數據收集和篩選階段,使用關鍵詞過濾、內容審核和敏感內容檢測等方法,篩選和排除不適當或有害的數據,這可以幫助減少低質量和不合規的訓練數據。在自監督預訓練階段,引導模型生成高質量、多樣性和合規性的內容,可以使用多樣性探索算法來確保模型不會陷入單一偏見。
在每個自我訓練迭代環節中,引導模型在生成內容時設置生成模型的條件和規則,包括設置生成內容的合規性標準,禁止生成虛假信息或歧視性言論等。為了更好地實現自我訓練迭代,生成式人工智能服務商應當為用戶提供反饋界面,使用戶可以報告不當內容或提供反饋,使用算法來自動處理和分類用戶反饋,以便快速響應。此外還應當加強監測和審核,使用自動化審核算法,監測生成內容,及時發現不當或有害的內容,如使用自然語言處理技術來檢測問題內容。在審核機制層面,應當建立多層級審核機制,包括自動化審核和人工審核。[34]自動化審核可以使用算法來標記潛在問題,人工審核可用于最終決策。同時,建立自動化反饋回路,將用戶反饋用于模型的改進。使用算法來處理大量的用戶反饋數據,并根據反饋進行模型的動態調整和更新。最后,在整個訓練和部署過程中,遵守法律合規性和倫理準則。引導算法考慮法規和倫理要求,以確保生成內容的合法性和倫理性。
(2)算法引導的多重治理機制。社會治理強調社會中各種力量、機構共同協作,以管理社會中的各類事務、沖突和問題,實現社會的有序和可持續發展。政府是社會治理的核心機構,但受制于技術知識和理解局限性、監管滯后性、監管資源有限性等因素,針對生成式人工智能的運行監督需要行業自律、公眾參與和多方合作相結合,以實現社會治理目標。[35首先,應當加快生成式人工智能自我訓練迭代算法的國家標準的制定,確保迭代算法在合規性、安全性和可靠性方面得到保障。其次,為應對自我訓練迭代算法的不透明度與不可理解性帶來的危害,監管機構可以對開發者使用的算法提出可解釋性和透明度要求,以確保用戶和監管者能夠了解算法的運作方式,保護用戶知情權,降低監管成本,提高監管效率。而具體的透明度與可解釋性標準則需要在相關監管機構的指導下鼓勵市場自主制定。[3行業協會作為溝通政府與平臺企業的橋梁與紐帶,需積極推動行業自律,促進政企合作。2023年7月7日召開的世界人工智能大會“科技倫理治理”論壇發布了《生成式人工智能倫理自律公約(征求意見稿)》,其中就提到了“生成式人工智能創新主體積極采取具有針對性的技術和管理措施,防范和應對生成式人工智能生成內容的不可靠性、歧視性、有害性,生成式人工智能被誤用濫用等倫理風險”。[37社會公眾是生成式人工智能治理的重要主體,監管者應當要求產品服務商提供反饋,賦予公眾自主行使對生成式人工智能算法及算法研發應用各主體的監督、投訴、舉報和申訴權,完善算法引導的外部監督機制。
3.結果篩選:生成式人工智能深度治理應用的算法把控
生成式人工智能作為自然語言處理模型,文本生成是其運行的關鍵環節。由于算法輸出的文本并不完全可控,算法系統中的數據單一、不完整或帶有社會偏見都將引發社會治理歧視現象。結果篩選是確保生成式人工智能文本輸出結果合規的關鍵環節。[38]
通過結果篩選保障生成文本的合規性也需要依靠法治方式來實現。然而目前針對生成式人工智能的法律規定更多體現原則性,現有的立法多從宏觀的頂層設計角度出發,旨在促進生成式人工智能健康發展和規范應用,但往往難以在具體層面產生直接的法律規制效果。[39]
鑒于結果篩選是保證生成文本合規性的關鍵環節,首先可以制定針對生成式人工智能結果篩選算法的國家標準目錄,包括禁止性詞匯、主題、敏感信息等,避免算法自動生成違反倫理或法律的有害信息。針對結果篩選的算法標準應當強制適用于任何生成式人工智能產品,以避免缺乏結果篩選機制的生成式人工智能產品被濫用。但強制的結果篩選算法僅適用于滿足生成文本的合規性目標,屬于最基礎的算法規制環節,并不能保證生成文本的正確性。在強制結果篩選算法之外,鼓勵開發者研究應用其他結果篩選算法,提高產品競爭力,優化輸出文本內容,生成積極健康、向上向善的優質內容。同樣受制于政府治理資源的有限性、技術的復雜性等因素,相關標準的制定需要政府、企業和社會各方共同合作才能夠實現。此外,在結果篩選環節,對于一些復雜和有爭議的信息,還可以進行人工審核,以彌補算法審核的不足。[40前文提到,社會公眾是生成式人工智能治理的重要主體。盡管通過算法控制生成式人工智能的結果篩選能夠在一定程度上滿足合規性要求,但這并不意味著經過篩選輸出的結果就是無風險的。建立篩選結果的用戶反饋機制是算法篩選后的另一道保障,使得用戶能夠及時報告錯誤信息和不適當的內容,避免模型在錯誤或不適當信息基礎上進行自我訓練迭代,從而進一步擴大風險??偠灾?,結果篩選是生成式人工智能算法監管的重要環節,其不僅決定了生成式人工智能生成文本的質量與合規性,對于自我訓練迭代同樣具有重要作用,完善結果篩選機制能夠使得自我訓練迭代進入良性循環。
結語
生成式人工智能的出現與廣泛應用為社會治理提供了一種智慧化的形態。但怎樣認識、面對、適應智慧化或者數字化的現狀,還是一個巨大的課題。筆者梳理發現,將生成式人工智能嵌入社會治理體系,存在著“數據喂養”局限性與社會治理全面性、結果輸出隨機性與社會治理穩定性、迭代方向效率化與社會治理價值性、技術發展權力化與社會治理政治性等多重張力。為確保最大限度地發揮算法評估規制的制度效能,今后必須在準入資格、運行監督以及結果篩選等維度對生成式人工智能參與社會治理進行算法審查、引導把控,從而最終將其融入法治軌道之中。但需要注意的是,算法評估并非萬能的解決方案,其適用本身也應存有一定的邊界。一方面,算法評估難以準確捕捉社會價值的多元性。社會治理是一個系統工程,不僅涉及政府、平臺、公眾等多元利益主體,同時還關涉道德、倫理、法律、經濟等多重價值。算法評估作為一種量化分析方式,理解社會治理所蘊含的深層次價值博弈和多元化倫理沖突并非易事。另一方面,算法評估難以全面反映社會治理需求的層次性。算法評估試圖通過結果篩選來保障生成文本的合規性,但問題在于這種篩選機制本身就存在一定隨機性,如果用于評估生成式人工智能數據集,則存在一定的偏見或不完整情形,那么算法評估結果也將不可避免地帶有這些不足,影響算法評估的公正性與客觀性。不過,就現階段而言,盡管算法評估機制本身確實存在著一定的局限性和不足之處,但這并不能成為我們否定其固有價值和重要性的理由。畢竟,生成式人工智能作為一種新興的技術,在探索其應用前景以及制定相應的規制措施時,必然會經歷一個相對漫長且復雜的摸索過程。在這個過程中,算法評估機制在某種程度上發揮著至關重要的作用。其不僅是衡量生成式人工智能技術性能和效果的重要工具,更是當前消解技術賦能與科技風險之間矛盾的重要機制之一,對于規范人工智能的設計、運用,引導其在良性的軌道上發展,從而真正實現公共治理能力與治理體系的現代化,具有重要的理論和實踐價值。
參考文獻:
[1]畢文軒.生成式人工智能的風險規制困境及其化解:以ChatGPT的規制為視角[J].比較法研究,2023(3):155-172
[2]李白楊,白云,詹希旎,等.人工智能生成內容(AIGC)的技術特征與形態演進[J].圖書情報知識,2023,40(1):66-74.
[3]趙豪.人工智能賦能社會治理的法治路徑[J].法律適用,2024(9):148-163.
[4]王佃利,滕蕾.數字社會治理的場景構建、運行邏輯與公共價值實現[J].山東大學學報(哲學社會科學版),2024(5):125-133.
[5]楊福忠,姚鳳梅.人工智能賦能社會治理之維度及風險法律防治[J].河北法學,2022,40(11):89-102.
[6]陳雙泉,韓璞庚.人工智能技術嵌入社會治理:創新、風險與防范[J].學習與探索,2024(7):142-149.
[7]孫賓.數字技術賦能社會治理現代化的作用機理、梗阻與路徑[J].四川行政學院學報,2025(1):18-28,100-101.
[8]鄒開亮,劉祖兵.論類ChatGPT通用人工智能治理—基于算法安全審查視角[J].河海大學學報(哲學社會科學版),2023,25(6):46-59.
[9]下素.人工智能中的“算法歧視”問題及其審查標準[J].山西大學學報(哲學社會科學版),2019,42(4):124-129.
[10]高志宏.大數據時代“知情一同意”機制的實踐困境與制度優化[J].法學評論,2023,41(2):117-126.
[11]丁國峰,壽曉明.生成式人工智能算法的法律風險及其規范化防控[J].云南大學學報(社會科學版),2024,23(3):107-119.
[12]黃鋯.數字平臺算法侵害的行政法律責任論綱[J].比較法研(6):55-66.究,2023(6):184-198.
[13]胡小偉,劉麗.人工智能風險的全流程規制邏輯及制度因應[J].學習與實踐,2024(5):22-30.
[14]王俊秀.ChatGPT與人工智能時代:突破、風險與治理[J].東北師大學報(哲學社會科學版),2023(4):19-28.
[15]劉霜,張瀟月.生成式人工智能數據風險的法律保護與規制研究——以ChatGPT潛在數據風險為例[J].貴州大學學報(社會科學版),2023,41(5):87-97.
[16]孟慶麗.ChatGPT對社會治理的影響及政策建議[J].中國電信業,2023(4):35-37.
[17]何哲,曾潤喜,秦維,等.ChatGPT等新一代人工智能技術的社會影響及其治理[J].電子政務,2023(4):2-24.
[18]顧男飛.生成式人工智能的智能涌現、風險規制與產業調控[J].荊楚法學,2023(3):70-83.
[19]鄧伯軍.人工智能的算法權力及其意識形態批判[J].當代世界與社會主義,2023(5):24-32.
[20]許曉東,鄺巖.算法權力在治理體系中的產生與規制[J].社會科學文摘,2024(10):100-102.
[21]李森.風險防范視閾下生成式人工智能數據安全的治理路徑——以GPT類模型為例[J].西藏民族大學學報(哲學社會科學版),2023,44(6):139-145.
[22]李向華.三個平面視角下科學術語泛化概念整合與討論[J].中國科技術語,2023,25(3):11-17.
[23]陳海霞,梁紅.術語變異的認知社會語言學探究[J].中國科技術語,2023,25(3):3-10.
[24]楊章文.ChatGPT類生成式人工智能的意識形態屬性及其風險規制[J].內蒙古社會科學,2024,45(1):57-64.
[25]趙麗濤.網絡空間治理的倫理秩序建構[J].中國特色社會主義研究,2018(3):85-89.
[26]JBurrellJ,Fourcade M.The societyofalgorithms[J].AnnualReview of Sociology,2021,47(1):213-237.
[27]黃尹旭.平臺經濟用戶的責任規則重構一—基于未授權支付的研究[J].華東政法大學學報,2022,25(3):80-90.
[28]紀守領,李進鋒,杜天宇,等.機器學習模型可解釋性方法、應用與安全研究綜述[J].計算機研究與發展,2019,56(10):2071-2096.
[29]張欣.生成式人工智能的算法治理挑戰與治理型監管[J].現代法學,2023,45(3):108-123.
[30]章小杉.人工智能算法歧視的法律規制:歐美經驗與中國路徑[J].華東理工大學學報(社會科學版),2019,34(6):63-72.
[31]王夙.人工智能發展中的“算法公開”能否解決“算法歧視”?[J].機器人產業,2019(3):17-22.
[32]Gillis T B,Spiess J L.Big data and discrimination[J].TheUniversity of Chicago Law Review,2019,86(2):459-488.
[33]黃尹旭.Web3.0時代重構競爭法治的開放和統一[J].東方法學,2023(3):98-107.
[34]黃尹旭,楊東.金融科技功能型治理變革[J].山東社會科學,
[35]楊東,黃尹旭.元平臺:數字經濟反壟斷法新論[J].中國人民大學學報,2022,36(2):117-127.
[36]張凌寒.算法自動化決策與行政正當程序制度的沖突與調和[J].社會科學文摘,2021(2):69-71.
[37]《生成式人工智能倫理自律公約(征求意見稿)》發布[EB/OL].[2023-07-08].https://news.qq.com/rain/a/20230708A06IK000.
[38]劉友華.算法偏見及其規制路徑研究[J].法學雜志,2019,40
[39]丁曉東.基于信任的自動化決策:算法解釋權的原理反思與制度重構[J].中國法學,2022(1):99-118.
[40]張凌寒.算法規制的迭代與革新[J].法學論壇,2019,34(2):16-26.2021(7):140-145.
Risk Regulation of Generative Artificial Intelligence in Social Governance: Taking Algorithm Evaluation as the Starting Point
LI De-jin',LIAi-min(1.LawSchool/LawyerSchool,GuangxiNormalUniversityGuilin541004,China;2.chool of Marxism,GuiLin Tourism University,Guilin ,China)
Abstract:The deep involvementof generativeartificial intelligence insocial governance is somewhat inevitable. However,duetothetechnicalcharacteristicsofartificialintellgencealgorithms,thereexistsacertaintensionbetween thecomprehensiveness,stability,fairness,and administrative naturerequiredfor social governance,which holds further value and significanceforexploration.The establishmentofanalgorithm evaluationmechanismcan effectively alleviate thetension betweenartificial inteligenceandsocial governance.Throughalgorithmevaluation,itis possible to balancethemassivedataacquisitionof generativeartificial intellgence withthesensitivedataidentificationofsocial governance,harmonize thenatural language processing of generative artificial intellgence with the discourse system expressionofsocialgovernance,reconciletheefciencyoptimization intentionofgenerativeartificialintelligence with the pursuitoffairnessand justice insocial govermance,and integratetheself-iterationdirectionof generativeartificial intelligencewiththeideologicaldominanceofsocial governance.Therefore,itisnecessrytoestablishanalgorithm evaluation mechanismthroughouttheentireprocessof integration,application,andresultoutputofgenerativeartificial intellgenceand social governance.This includesalgorithmreviewandrecord-keepingduringtheaccess stage,technical operationsupervision during theapplication stage,andresult screeingguided by socialistcore values during theresult output stage.
Keywords:generativeartificial intelligence;social governance;algorithmevaluation;algorithmregulation
(責任編輯:侯苗苗)