中圖分類(lèi)號(hào):TP18;D630文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1673-8268(2025)03-0113-09
一、引言
近年來(lái),國(guó)內(nèi)外各大高校、研究機(jī)構(gòu)和企業(yè)紛紛開(kāi)展各類(lèi)人工智能大模型的研究與開(kāi)發(fā),推動(dòng)了生成式人工智能產(chǎn)品快速涌現(xiàn)。國(guó)際科研組織在人工智能大模型領(lǐng)域表現(xiàn)出強(qiáng)大實(shí)力,OpenAI、谷歌、微軟等技術(shù)巨頭相繼推出了ChatGPT、Gemini、New Bing 等代表性產(chǎn)品。與此同時(shí),我國(guó)互聯(lián)網(wǎng)企業(yè)也積極布局人工智能領(lǐng)域,百度、科大訊飛、華為和阿里巴巴陸續(xù)發(fā)布文心一言、訊飛星火、盤(pán)古、通義千問(wèn)等智能大模型,為各自行業(yè)提供了先進(jìn)的智慧服務(wù)。2025年初,DeepSeek的“火爆出圈”,更標(biāo)志著人工智能發(fā)展進(jìn)入新階段。
然而,隨著人工智能技術(shù)的快速迭代發(fā)展,其潛在風(fēng)險(xiǎn)也日益顯現(xiàn)。盡管人工智能的廣泛應(yīng)用極大提高了工作效率與便捷性,但由于其缺乏透明度與可闡釋性,極易引發(fā)社會(huì)各界的質(zhì)疑與擔(dān)憂(yōu),在某些特定場(chǎng)景下人們對(duì)人工智能給出的結(jié)論始終持謹(jǐn)慎態(tài)度。同時(shí),個(gè)人隱私泄露、數(shù)據(jù)安全隱患、公平與差別待遇等問(wèn)題也日漸突出,不僅引發(fā)了公眾對(duì)人工智能的抗拒與質(zhì)疑,阻礙了大模型的開(kāi)發(fā)與推廣,還對(duì)人工智能企業(yè)的公共形象產(chǎn)生了負(fù)面影響。這就需要企業(yè)在發(fā)展技術(shù)的同時(shí),更加重視自身的社會(huì)責(zé)任,讓公眾重拾對(duì)企業(yè)的信心與信任。因此,建立以生成式人工智能為基礎(chǔ)的監(jiān)管與治理體系十分重要。目前,各國(guó)及國(guó)際機(jī)構(gòu)紛紛出臺(tái)相關(guān)政策法規(guī)以強(qiáng)化對(duì)人工智能的管理。例如,美國(guó)國(guó)家科學(xué)技術(shù)與技術(shù)研究院在2023年1月發(fā)布《人工智能風(fēng)險(xiǎn)管理框架》,強(qiáng)調(diào)加強(qiáng)人工智能系統(tǒng)的安全性和可靠性;2023年7月,我國(guó)頒布《生成式人工智能服務(wù)管理暫行辦法》,旨在規(guī)范技術(shù)應(yīng)用與促進(jìn)產(chǎn)業(yè)健康發(fā)展;2023年10月,我國(guó)外交部印發(fā)《全球人工智能治理倡議》,對(duì)人工智能的發(fā)展提出更高要求,并積極推動(dòng)將“以人為本”“智能向善”的理念融入國(guó)際社會(huì)并形成共識(shí)。
國(guó)內(nèi)學(xué)界對(duì)人工智能監(jiān)管與治理的研究,主要分為兩個(gè)層面:一是監(jiān)管機(jī)制層面。張欣認(rèn)為治理型監(jiān)管可作為解決生成式人工智能治理風(fēng)險(xiǎn)的潛在解決方案[1;;謝新水認(rèn)為監(jiān)管人工智能內(nèi)容生產(chǎn)是人工智能時(shí)代的新問(wèn)題[2];劉軒、陳海彬探討了引人監(jiān)管評(píng)估工具以應(yīng)對(duì)可能出現(xiàn)的挑戰(zhàn)和危機(jī)的重要性[3];史鳳林、張志遠(yuǎn)從公法規(guī)制體系視角探索我國(guó)人工智能規(guī)制路徑[4];賀譯葶強(qiáng)調(diào)要明確人工智能在信用監(jiān)管中的輔助地位[5];張欣提出應(yīng)以數(shù)據(jù)解釋機(jī)制為核心進(jìn)行人工智能治理[6]。這些研究通過(guò)探討治理型監(jiān)管、監(jiān)管評(píng)估工具、數(shù)據(jù)解釋機(jī)制等方法,為人工智能治理開(kāi)辟了新路徑。二是協(xié)同治理層面。石拓等認(rèn)為應(yīng)以協(xié)同共治格局促進(jìn)人工智能治理良性發(fā)展[;張強(qiáng)調(diào)構(gòu)建人工智能倫理風(fēng)險(xiǎn)協(xié)同治理組織的重要性[8];李沖等構(gòu)建了AI風(fēng)險(xiǎn)試探性治理框架,并通過(guò)案例分析探究其實(shí)施效果[9]。
本研究主要從工具理性和價(jià)值理性的視角出發(fā),系統(tǒng)分析當(dāng)前人工智能應(yīng)用過(guò)程中引發(fā)的虛假信息傳播、隱私侵犯、數(shù)據(jù)偏倚和不可解釋性等問(wèn)題;通過(guò)對(duì)美國(guó)、歐盟、新加坡等國(guó)家和組織人工智能監(jiān)管模式的比較,深人剖析不同監(jiān)管模式的利弊,并構(gòu)建基于動(dòng)態(tài)政企合作框架的人工智能風(fēng)險(xiǎn)試探性治理模式。本研究旨在探討如何通過(guò)工具理性與價(jià)值理性的有機(jī)融合,有效應(yīng)對(duì)人工智能發(fā)展帶來(lái)的各種挑戰(zhàn)和問(wèn)題,推動(dòng)人工智能大模型在服務(wù)人類(lèi)的同時(shí)實(shí)現(xiàn)健康可持續(xù)發(fā)展。
二、工具理性和價(jià)值理性視角下生成式人工智能發(fā)展應(yīng)用的風(fēng)險(xiǎn)探析
隨著人工智能技術(shù)的發(fā)展,人類(lèi)對(duì)算法的過(guò)度依賴(lài)可能導(dǎo)致思維局限,這使得價(jià)值理性的引人變得至關(guān)重要。作為工具理性與人文價(jià)值的辯證統(tǒng)一,價(jià)值理性旨在確保人工智能行為與人類(lèi)價(jià)值觀相一致[10]。工具理性與價(jià)值理性的有機(jī)融合,不僅是科技進(jìn)步的需要,更是實(shí)現(xiàn)人機(jī)協(xié)調(diào)發(fā)展的關(guān)鍵所在。如果將二者割裂開(kāi)來(lái),將不可避免地引發(fā)一系列社會(huì)風(fēng)險(xiǎn)。
(一)虛假信息傳播
虛假信息是指未經(jīng)調(diào)查和核實(shí)驗(yàn)證的、與客觀事實(shí)不符或具有誤導(dǎo)性的信息內(nèi)容。目前,生成式人工智能還不具備真正的邏輯推理能力,可能會(huì)生成一些看似合理但實(shí)則錯(cuò)誤的信息,并且其高度仿真的表現(xiàn)形式使人們難以辨別內(nèi)容真?zhèn)蝃1]。從工具理性角度看,虛假信息主要源于算法設(shè)計(jì)和機(jī)器學(xué)習(xí)模型的系統(tǒng)性缺陷。人工智能作為智能工具,其設(shè)計(jì)初衷是完成人類(lèi)難以實(shí)現(xiàn)的目標(biāo)或任務(wù)。但在自然語(yǔ)言處理、圖像識(shí)別等領(lǐng)域,當(dāng)錯(cuò)誤信息被用來(lái)達(dá)成公眾想要的結(jié)果時(shí),便可能產(chǎn)生虛假信息。從價(jià)值理性角度來(lái)看,公眾需要深人思考信息背后的因素,如算法模型、數(shù)據(jù)質(zhì)量和建模方法等,這些因素常常會(huì)影響我們的決策判斷。實(shí)際上,大模型產(chǎn)生的不實(shí)信息往往是由算法偏差、數(shù)據(jù)質(zhì)量欠佳或建模錯(cuò)誤所致,其本質(zhì)是商業(yè)、社會(huì)等多重利益驅(qū)使的結(jié)果。
自動(dòng)化技術(shù)能夠以前所未有的效率生成新信息,幫助人們快速處理數(shù)據(jù)并迅速?zèng)Q策。這既激發(fā)了公眾爭(zhēng)取權(quán)利和推動(dòng)變革的愿望,也增加了傳播虛假信息和引導(dǎo)性言論的風(fēng)險(xiǎn)[12]。例如,有用戶(hù)利用ChatGPT編造“杭州將在3月1日取消機(jī)動(dòng)車(chē)尾號(hào)限行”的虛假新聞,導(dǎo)致許多市民信以為真,造成社會(huì)不良影響[13]。因此,若不對(duì)生成式人工智能加強(qiáng)監(jiān)督,任其利用網(wǎng)絡(luò)數(shù)據(jù)進(jìn)行訓(xùn)練,那么AI生成的不準(zhǔn)確信息可能會(huì)誤導(dǎo)使用者。尤其是對(duì)價(jià)值觀尚未成型的青少年來(lái)說(shuō),這種情況可能會(huì)對(duì)他們?cè)斐呻y以估量的負(fù)面影響。由此可見(jiàn),盡管生成式人工智能為科技創(chuàng)新注入活力,提升了社會(huì)生產(chǎn)效率,但也賦予了用戶(hù)制造大量真?zhèn)坞y辨信息的技術(shù)能力。如果這些虛假信息在網(wǎng)絡(luò)上大肆傳播,不僅會(huì)誤導(dǎo)公眾,還可能引發(fā)信任危機(jī)和信息安全問(wèn)題,因此應(yīng)對(duì)虛假信息的挑戰(zhàn)已刻不容緩。
(二)隱私侵犯
基于數(shù)據(jù)的信息收集是生成式人工智能大模型研發(fā)與優(yōu)化的前提。從工具理性角度看,在數(shù)據(jù)搜集過(guò)程中,由于訓(xùn)練資料通常從互聯(lián)網(wǎng)獲取,個(gè)人隱私信息可能在用戶(hù)毫無(wú)察覺(jué)的情況下被捕捉和傳播。這一現(xiàn)象表明,工具理性在追求技術(shù)效能和功能最優(yōu)化時(shí),在一定程度上忽視了個(gè)人隱私保護(hù)的界限。從價(jià)值理性角度而言,這種侵權(quán)行為本質(zhì)上是對(duì)個(gè)體權(quán)益和公眾權(quán)益的損害。一方面,侵權(quán)行為可能侵害個(gè)體的財(cái)產(chǎn)權(quán)益、人身權(quán)益等,給受害人帶來(lái)嚴(yán)重的經(jīng)濟(jì)損失和精神傷害;另一方面,侵權(quán)行為也會(huì)對(duì)社會(huì)發(fā)展產(chǎn)生負(fù)面影響,如阻礙科技進(jìn)步、影響文化傳承等。如何實(shí)現(xiàn)隱私權(quán)保護(hù)與社會(huì)安全之間的平衡,已成為數(shù)字時(shí)代亟待解決的重大問(wèn)題。
隱私權(quán)是與個(gè)人信息安全密切相關(guān)的權(quán)益。如果人工智能不遵循相關(guān)準(zhǔn)則,可能導(dǎo)致用戶(hù)隱私數(shù)據(jù)泄漏或被不當(dāng)利用,這正是人工智能價(jià)值理性缺失的表現(xiàn)。《中國(guó)公眾“大安全”感知報(bào)告(2021)》的數(shù)據(jù)顯示, 70% 的受訪(fǎng)者表示自己的個(gè)人愛(ài)好等隱私可能被算法“算計(jì)”, 60% 的受訪(fǎng)者擔(dān)心自己的信息在數(shù)字環(huán)境中有被泄露的風(fēng)險(xiǎn), 50% 的受訪(fǎng)者因受算法約束而想要遠(yuǎn)離網(wǎng)絡(luò)和手機(jī)[14]。在當(dāng)前的技術(shù)水平下,每個(gè)人的日常生活都存在被非法監(jiān)控的可能性。目前,我們使用的各種電子設(shè)備,如智能手機(jī)、智能電視、電腦等,都內(nèi)置了面部識(shí)別、語(yǔ)音識(shí)別等技術(shù)。在使用這些設(shè)備時(shí),它們會(huì)收集我們的面部特征、語(yǔ)音特征、指紋、虹膜等個(gè)人信息,而這些信息很可能被用于跟蹤和監(jiān)控。隨著數(shù)據(jù)的持續(xù)生成和積累,用戶(hù)行為與模型更新之間的\"數(shù)據(jù)飛輪”效應(yīng)顯著。在如此龐大的數(shù)據(jù)流動(dòng)反饋背景下,隱私與個(gè)人信息的保障成為不可回避的時(shí)代課題[15]。
(三)數(shù)據(jù)偏倚
數(shù)據(jù)偏倚通常由數(shù)據(jù)獲取、處理和解釋過(guò)程中的主觀偏差所引發(fā)。為規(guī)避數(shù)據(jù)偏倚,我們必須遵循數(shù)據(jù)處理和分析的科學(xué)方法和原則,不斷提高數(shù)據(jù)處理和分析的質(zhì)量控制水平。從工具理性的視角來(lái)看,數(shù)據(jù)偏倚源自數(shù)據(jù)采集與處理中的不當(dāng)操作或數(shù)據(jù)收集、整理方法的不完整。工具理性強(qiáng)調(diào)技術(shù)的有效性和功能的最優(yōu)化,但在復(fù)雜多變的大數(shù)據(jù)環(huán)境下,僅靠技術(shù)方法采集與處理數(shù)據(jù)常常會(huì)忽視數(shù)據(jù)本身的多樣性與復(fù)雜性,致使所構(gòu)建的模型或算法出現(xiàn)偏差。從價(jià)值理性的角度而言,當(dāng)互聯(lián)網(wǎng)上存在針對(duì)特定人群的歧視和限制信息時(shí),以此為基礎(chǔ)構(gòu)建的模型就會(huì)體現(xiàn)出這種偏差,并對(duì)個(gè)人的價(jià)值觀念產(chǎn)生“潛移默化”的影響。此外,在為數(shù)據(jù)添加標(biāo)簽的過(guò)程中,數(shù)據(jù)標(biāo)注員的個(gè)人喜好也可能將偏見(jiàn)帶入大模型。如“偏見(jiàn)進(jìn)則偏見(jiàn)出”(Bias in,Bias out),即輸人的數(shù)據(jù)存在偏差,結(jié)果也會(huì)出現(xiàn)偏差[16]
在實(shí)際應(yīng)用中,模型開(kāi)發(fā)者以及數(shù)據(jù)標(biāo)注員受自身政治立場(chǎng)、觀點(diǎn)看法以及其他相關(guān)利益因素的影響,可能有意或無(wú)意地使用帶有偏見(jiàn)或經(jīng)過(guò)裁剪的數(shù)據(jù)進(jìn)行訓(xùn)練。這類(lèi)“瘤腿”數(shù)據(jù)來(lái)源廣泛,防不勝防。更有甚者,可能會(huì)利用生成式人工智能可降低個(gè)性化定制信息成本的特點(diǎn),在互聯(lián)網(wǎng)上傳播歪曲歷史、帶有文化偏見(jiàn)的內(nèi)容,還可能實(shí)施詐騙等違法行為。加之目前尚無(wú)高精度技術(shù)工具協(xié)助開(kāi)發(fā)者進(jìn)行數(shù)據(jù)偏倚標(biāo)注,各人工智能企業(yè)要么對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行粗略過(guò)濾后開(kāi)展模型開(kāi)發(fā),要么只能加大人力物力投入,以增加成本的方式仔細(xì)審核信息真實(shí)度,對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行二次過(guò)濾。由此可見(jiàn),由于數(shù)據(jù)偏倚的存在,人工智能系統(tǒng)在進(jìn)行決策和預(yù)測(cè)時(shí)常常會(huì)得出有偏差或不公平的結(jié)論。這不僅會(huì)對(duì)個(gè)人和群體產(chǎn)生負(fù)面沖擊,還會(huì)降低建模的準(zhǔn)確性,對(duì)實(shí)現(xiàn)預(yù)期結(jié)果造成一定影響。
(四)不可解釋性
在人工智能領(lǐng)域,人們常用\"黑箱”來(lái)比喻人工智能算法,即人對(duì)一些復(fù)雜智能系統(tǒng)的運(yùn)行機(jī)理或決策過(guò)程一無(wú)所知。在公眾的認(rèn)知中,輸人和輸出之間存在一個(gè)未知的“隱層”,算法的不透明性與專(zhuān)業(yè)性為算法歧視創(chuàng)造了衍生空間。從工具理性角度看,為提高計(jì)算效率和處理速度,復(fù)雜的人工智能模型常采用黑箱式算法和深度學(xué)習(xí)方法運(yùn)行。因此,“不可解釋性”可被理解為“工具理性溢出”的附帶產(chǎn)物,是追求高效率帶來(lái)的負(fù)面結(jié)果。從價(jià)值理性的角度來(lái)看,數(shù)據(jù)偏倚會(huì)導(dǎo)致模型或算法的結(jié)論難以精確預(yù)測(cè),而這些不確定性會(huì)削弱人類(lèi)對(duì)人工智能的信任,進(jìn)而阻礙人工智能的普及與推廣,同時(shí)還可能引發(fā)技術(shù)失控等問(wèn)題。
“算法黑箱”在一定程度上使人們失去了對(duì)輸出結(jié)果的掌控,即便是大模型的設(shè)計(jì)者也難以準(zhǔn)確地解釋某些特殊輸出結(jié)果產(chǎn)生的原因。這種情況與《中華人民共和國(guó)個(gè)人信息保護(hù)法》第7條和第24條所規(guī)定的公開(kāi)透明原則存在一定沖突。人工智能的這一特性引發(fā)了一系列問(wèn)題。例如,在醫(yī)學(xué)診斷、無(wú)人駕駛等關(guān)鍵應(yīng)用場(chǎng)景中,決策的可信性與可理解性至關(guān)重要。若模型不能很好地解釋決策過(guò)程,則很難證明其可信性與安全性。同時(shí),受“黑箱\"影響,深人剖析人工智能算法誘發(fā)的信用風(fēng)險(xiǎn)、監(jiān)管過(guò)程的可追蹤性等問(wèn)題的深層機(jī)制有較大難度。實(shí)際上,模型自身的復(fù)雜性使公眾難以理解其對(duì)各類(lèi)特征及因素的處理和權(quán)衡方式,從而導(dǎo)致系統(tǒng)可能對(duì)某些類(lèi)別或性質(zhì)的信息過(guò)度敏感,影響其對(duì)這類(lèi)信息的判斷。
總之,上述四種風(fēng)險(xiǎn)本質(zhì)上是工具理性和價(jià)值理性難以協(xié)調(diào)統(tǒng)一的結(jié)果。盡管人工智能大模型利用了大數(shù)據(jù)訓(xùn)練和模型的自學(xué)習(xí)能力,但在數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)過(guò)程中,仍存在數(shù)據(jù)安全隱患。所以,在運(yùn)用人工智能這一新技術(shù)的過(guò)程中,必須秉持“以人為本”的理念,以人文理性引導(dǎo)科技發(fā)展,以?xún)r(jià)值理性引導(dǎo)工具理性,讓價(jià)值理性與工具理性充分融合,讓人工智能更好地造福人類(lèi)[17]。
三、人工智能監(jiān)管的國(guó)際范式比較
針對(duì)人工智能可能引發(fā)的安全與社會(huì)問(wèn)題,各國(guó)正逐步加強(qiáng)監(jiān)管并制定了相關(guān)政策加以治理。然而,由于歷史、文化、社會(huì)和經(jīng)濟(jì)等方面的差異,各國(guó)在實(shí)踐上形成了不同的監(jiān)管模式。
(一)全球視野下的人工智能監(jiān)管模式
近年來(lái),世界各國(guó)紛紛呼呼加強(qiáng)對(duì)人工智能的管理,歐洲也迅速作出響應(yīng)并采取了一系列措施,期望引領(lǐng)人工智能的標(biāo)準(zhǔn)化進(jìn)程。2021年4月,歐盟委員會(huì)通過(guò)《人工智能法案》,這是全球首部針對(duì)人工智能的法律法規(guī)。該法案將人工智能可能帶來(lái)的風(fēng)險(xiǎn)分為4個(gè)級(jí)別,即“不可接受的風(fēng)險(xiǎn)”“高風(fēng)險(xiǎn)”“有限風(fēng)險(xiǎn)”和“最低風(fēng)險(xiǎn)”。此外,部分歐洲國(guó)家宣布對(duì)人工智能的使用加以限制。2023年4月,西班牙數(shù)據(jù)保護(hù)局認(rèn)為OpenAI可能存在違規(guī)行為,已按照規(guī)定啟動(dòng)事前偵查程序。
2021年,日本經(jīng)濟(jì)產(chǎn)業(yè)省頒布了《實(shí)現(xiàn)人工智能原則的監(jiān)管指針》,為企業(yè)制訂人工智能法規(guī)管理體系提供了操作指南。2022年10月,美國(guó)白宮科技政策辦公室發(fā)布《人工智能權(quán)力法案藍(lán)圖》,呼吁人工智能企業(yè)為維護(hù)美國(guó)民眾權(quán)益而承擔(dān)責(zé)任。2023年11月,全球首屆人工智能安全峰會(huì)開(kāi)幕,美國(guó)、英國(guó)、中國(guó)等28個(gè)國(guó)家以及歐盟的數(shù)百名代表應(yīng)邀出席會(huì)議。會(huì)上發(fā)表的《布萊切利宣言》指出,很多人工智能問(wèn)題具有國(guó)際性,需要通過(guò)加強(qiáng)國(guó)際合作來(lái)共同應(yīng)對(duì)。
通過(guò)對(duì)全球主要國(guó)家和地區(qū)的人工智能監(jiān)管政策的比較研究后發(fā)現(xiàn),各國(guó)(地區(qū))對(duì)人工智能發(fā)展有著不同的策略性思考,并逐步形成了具有本國(guó)(地區(qū))特色的監(jiān)管模式。
1.美國(guó)(政府主導(dǎo)、政策規(guī)制的監(jiān)管模式)
以美國(guó)為代表的部分國(guó)家在人工智能監(jiān)管領(lǐng)域,更傾向于采用政府主導(dǎo)的政策規(guī)制型監(jiān)管模式。在該模式下,政府通過(guò)制定相關(guān)法律法規(guī)和標(biāo)準(zhǔn)來(lái)引導(dǎo)與規(guī)范人工智能行業(yè)或領(lǐng)域的運(yùn)作和發(fā)展,以保障競(jìng)爭(zhēng)和資源分配的公平公正性。在《國(guó)家人工智能倡議法(2020)》和《國(guó)家人工智能研發(fā)戰(zhàn)略計(jì)劃》中,美國(guó)顯示出對(duì)人工智能創(chuàng)新發(fā)展的高度重視。這也表明美國(guó)的政策導(dǎo)向不是單純依靠硬件和軟件提升數(shù)字技術(shù)的競(jìng)爭(zhēng)力,而是將重點(diǎn)放在促進(jìn)數(shù)字技術(shù)的健康發(fā)展上[18]。政府主導(dǎo)型監(jiān)管模式的優(yōu)勢(shì),在美國(guó)人工智能發(fā)展歷程中展現(xiàn)得淋漓盡致。政府通過(guò)政策導(dǎo)向促進(jìn)經(jīng)濟(jì)增長(zhǎng)、提高市場(chǎng)效率,不斷幫助企業(yè)和機(jī)構(gòu)提升技術(shù)水平、發(fā)展尖端技術(shù),最終達(dá)成維護(hù)市場(chǎng)秩序、防范市場(chǎng)失靈的效果,實(shí)現(xiàn)了監(jiān)管的統(tǒng)一化。
2.歐盟(以人為本、人權(quán)至上的監(jiān)管模式)
歐洲民法因其法制的歷史淵源向來(lái)重視對(duì)人類(lèi)基本權(quán)利的保障,將人權(quán)置于經(jīng)濟(jì)發(fā)展之上。因此,在人工智能領(lǐng)域,歐洲民眾更加重視人工智能程序的安全性和可靠性,并堅(jiān)決維護(hù)公眾基本權(quán)利不受侵犯,這使得歐盟建構(gòu)了保障安全、嚴(yán)厲監(jiān)管的剛性規(guī)制模式[4]。2018年5月,歐盟通過(guò)《一般數(shù)據(jù)保護(hù)條例》,明確規(guī)定了個(gè)人隱私的定義和范圍,并制定了相應(yīng)的保護(hù)措施,包括知情權(quán)、同意權(quán)、訪(fǎng)問(wèn)權(quán)等。2020年2月,歐盟委員會(huì)發(fā)布《人工智能白皮書(shū)》,著重論述AI的安全和隱私問(wèn)題,并提出了一系列保障個(gè)人權(quán)利與隱私的具體舉措。歐盟這種\"以人為本”和“人權(quán)至上”的監(jiān)管模式更契合人性?xún)r(jià)值取向,在數(shù)據(jù)隱私和信息安全方面能更好地保障公民權(quán)利,防范潛在風(fēng)險(xiǎn),減少AI技術(shù)濫用造成的損害。
3.新加坡(理性自愿、自由發(fā)展的監(jiān)管模式)
在人工智能不斷更新迭代的時(shí)代背景下,新加坡也積極構(gòu)建人工智能監(jiān)管體系。基于已頒布的政策和過(guò)往經(jīng)驗(yàn)總結(jié),新加坡在全球率先發(fā)布了AI治理評(píng)估框架和工具包。2020年1月頒布的《人工智能監(jiān)管模式框架(第二版)》對(duì)2019年第一版進(jìn)行了補(bǔ)充和修訂,提出了以風(fēng)險(xiǎn)為基礎(chǔ)的傷害概率模型,讓企業(yè)制定決策時(shí)能夠根據(jù)每個(gè)人受損害的概率和嚴(yán)重程度進(jìn)行分級(jí)。2022年5月,為提升民眾對(duì)人工智能產(chǎn)品的信任度與接受度,新加坡推出“人工智能驗(yàn)證\"(A.I.Verify),該體系具有自愿性、非強(qiáng)制性等特點(diǎn)。這種基于理性自愿、自由發(fā)展的監(jiān)管模式,給予企業(yè)更大的自主權(quán)和決策權(quán),同時(shí)也激發(fā)了企業(yè)在人工智能研發(fā)過(guò)程中的創(chuàng)新活力,有力推動(dòng)了企業(yè)自身的創(chuàng)新發(fā)展以及市場(chǎng)的自由競(jìng)爭(zhēng)與繁榮。
(二)人工智能監(jiān)管模式的比較分析
在美國(guó)政府主導(dǎo)、政策規(guī)制的監(jiān)管模式下,由于政府反應(yīng)可能滯后,在新的市場(chǎng)環(huán)境中企業(yè)面臨管理障礙和交易費(fèi)用增加等問(wèn)題。從工具理性角度來(lái)看,美國(guó)在人工智能監(jiān)管方面強(qiáng)調(diào)政府的主導(dǎo)作用和政策規(guī)制,通過(guò)政府制定明確的政策框架和監(jiān)管標(biāo)準(zhǔn),能夠快速適應(yīng)人工智能技術(shù)的發(fā)展;但從價(jià)值理性角度來(lái)看,美國(guó)的監(jiān)管模式因政策制定過(guò)程缺乏充分的公眾參與和透明度等,常常在不經(jīng)意間被忽略。
歐盟的監(jiān)管模式雖然旨在保護(hù)消費(fèi)者的安全隱私,但過(guò)度嚴(yán)格的監(jiān)管可能阻礙人工智能技術(shù)的創(chuàng)新與發(fā)展,導(dǎo)致其在人工智能賽道上逐漸落后于國(guó)際平均水平。以人為本的監(jiān)管模式還可能引發(fā)利益沖突問(wèn)題。在個(gè)人權(quán)利與公眾福祉出現(xiàn)沖突的情況下,如何平衡各方利益成為亟待解決的難題。從工具理性角度而言,這種模式可能不如美國(guó)模式高效,原因在于歐盟強(qiáng)調(diào)人權(quán)和倫理價(jià)值,在制定人工智能監(jiān)管政策時(shí)需要更長(zhǎng)時(shí)間進(jìn)行社會(huì)協(xié)商和公眾參與;但是,就價(jià)值理性而言,歐盟的監(jiān)管模式優(yōu)勢(shì)顯著,它強(qiáng)調(diào)人的尊嚴(yán)和權(quán)利,致力于構(gòu)建公平、透明和可持續(xù)的生態(tài)系統(tǒng)。
在新加坡“理性自愿”“自由發(fā)展”的監(jiān)管模式下,受利益驅(qū)使,企業(yè)可能出現(xiàn)監(jiān)督不公、濫用權(quán)力等情況,進(jìn)而導(dǎo)致企業(yè)運(yùn)作過(guò)程混亂無(wú)序,造成市場(chǎng)的不穩(wěn)定。此外,個(gè)人理性不同于集體理性,個(gè)人在追求自身利益時(shí)往往會(huì)忽略外部影響,導(dǎo)致社會(huì)資源配置不公與效率低下。從工具理性方面看,這種監(jiān)管模式通過(guò)鼓勵(lì)行業(yè)自律和創(chuàng)新,為人工智能技術(shù)的發(fā)展?fàn)I造了相對(duì)自由的環(huán)境,有利于激發(fā)市場(chǎng)活力和創(chuàng)新潛力,推動(dòng)人工智能技術(shù)快速發(fā)展;從價(jià)值理性方面來(lái)看,新加坡的模式充分尊重了個(gè)人權(quán)利和自由,但由于缺乏有效的強(qiáng)制監(jiān)管措施,可能會(huì)加劇企業(yè)間不公平競(jìng)爭(zhēng),甚至導(dǎo)致人工智能被不法分子濫用,對(duì)社會(huì)穩(wěn)定和公眾安全構(gòu)成威脅。
在科技高速發(fā)展的今大,更應(yīng)倡導(dǎo)發(fā)展與安全并舉,在出發(fā)前先裝好“剎車(chē)”,充分考慮技術(shù)、道德和法律等多方面因素,通過(guò)構(gòu)建人工智能治理模型,更好地促進(jìn)人工智能健康有序發(fā)展。
四、動(dòng)態(tài)政企合作框架下的人工智能風(fēng)險(xiǎn)試探性治理策略
在人工智能技術(shù)高速發(fā)展的背景下,各國(guó)亟待構(gòu)建有效的治理模式以確保科技發(fā)展與社會(huì)價(jià)值相契合。在此情形下,試探性治理作為一種新興的治理模式[9],強(qiáng)調(diào)在不斷變化的環(huán)境中通過(guò)迭代學(xué)習(xí)和靈活調(diào)整來(lái)應(yīng)對(duì)風(fēng)險(xiǎn),加上政府、企業(yè)之間的動(dòng)態(tài)合作,整合雙方資源和優(yōu)勢(shì),能夠極大地優(yōu)化治理過(guò)程,實(shí)現(xiàn)工具理性與價(jià)值理性的有機(jī)融合,促進(jìn)人工智能的可持續(xù)發(fā)展。
(一)動(dòng)態(tài)政企合作框架的構(gòu)建
在人工智能發(fā)展的新階段,實(shí)現(xiàn)工具理性與價(jià)值理性的有機(jī)融合是推動(dòng)人工智能技術(shù)進(jìn)步的關(guān)鍵所在。為深入理解工具理性與價(jià)值理性的定義和特點(diǎn),并深刻認(rèn)識(shí)二者的本質(zhì)差異,進(jìn)而促使人工智能領(lǐng)域中工具理性與價(jià)值理性的有機(jī)融合,政府與企業(yè)需共建一個(gè)能夠快速響應(yīng)技術(shù)變革的動(dòng)態(tài)合作框架(見(jiàn)圖1),以促進(jìn)人工智能的健康發(fā)展。該框架以互惠共贏為基礎(chǔ),政府發(fā)揮政策導(dǎo)向和監(jiān)管職能,企業(yè)憑借其技術(shù)優(yōu)勢(shì)和市場(chǎng)敏感性,通過(guò)政策引導(dǎo)和市場(chǎng)驅(qū)動(dòng)的雙向互動(dòng),形成健康可持續(xù)的人工智能應(yīng)用生態(tài)。在此框架中,政府扮演著政策制定者和監(jiān)督者的角色,負(fù)責(zé)營(yíng)造穩(wěn)定的政治、經(jīng)濟(jì)和法律環(huán)境,為企業(yè)發(fā)展提供保障;企業(yè)則利用其技術(shù)創(chuàng)新能力和市場(chǎng)敏感性,積極探索人工智能在不同領(lǐng)域的應(yīng)用,推動(dòng)技術(shù)與業(yè)務(wù)創(chuàng)新。
圖1動(dòng)態(tài)政企合作框架
具體而言,動(dòng)態(tài)政企合作框架下的試探性治理策略主要體現(xiàn)在兩方面。一是在標(biāo)準(zhǔn)制定的協(xié)同性方面,政府和企業(yè)應(yīng)協(xié)同合作,制定相關(guān)行業(yè)標(biāo)準(zhǔn)和技術(shù)規(guī)范,確保人工智能技術(shù)的開(kāi)發(fā)和應(yīng)用能夠與國(guó)際接軌,避免因標(biāo)準(zhǔn)不一而導(dǎo)致資源浪費(fèi)和市場(chǎng)混亂,努力提升我國(guó)在全球人工智能領(lǐng)域的競(jìng)爭(zhēng)力。二是在資源共享方面,政府和企業(yè)應(yīng)打通雙方資源共享渠道,包括數(shù)據(jù)、技術(shù)、基礎(chǔ)設(shè)施等,以促進(jìn)人工智能技術(shù)研發(fā)和應(yīng)用,降低成本,提高效率。從社會(huì)責(zé)任的角度來(lái)看,合作框架應(yīng)包含共同探索人工智能技術(shù)倫理準(zhǔn)則,確保技術(shù)發(fā)展與社會(huì)價(jià)值相協(xié)調(diào),促進(jìn)人工智能技術(shù)的推廣,增強(qiáng)大眾對(duì)科技的信任和理解。同時(shí),對(duì)科技可能給社會(huì)帶來(lái)的沖擊保持高度關(guān)注,并提前做好應(yīng)對(duì)和解決問(wèn)題的準(zhǔn)備。這一合作框架的構(gòu)建不僅能夠推動(dòng)人工智能技術(shù)的持續(xù)發(fā)展和創(chuàng)新應(yīng)用,還能在堅(jiān)守社會(huì)價(jià)值和倫理底線(xiàn)、實(shí)現(xiàn)工具理性和價(jià)值理性動(dòng)態(tài)平衡的同時(shí),保障技術(shù)穩(wěn)步向前,為社會(huì)的整體進(jìn)步和經(jīng)濟(jì)持續(xù)繁榮作出積極貢獻(xiàn)。
(二)試探性治理策略的實(shí)施
在動(dòng)態(tài)政企合作框架下,試探性治理策略的實(shí)施首先體現(xiàn)為政策的持續(xù)迭代優(yōu)化。這一過(guò)程要求政府積極應(yīng)對(duì)人工智能技術(shù)快速發(fā)展帶來(lái)的新挑戰(zhàn),通過(guò)持續(xù)的監(jiān)控、評(píng)價(jià)和反饋,確保政策的時(shí)效性和適應(yīng)性。根據(jù)最新的技術(shù)發(fā)展和風(fēng)險(xiǎn)評(píng)估結(jié)果,政府需不斷對(duì)相關(guān)政策和法規(guī)進(jìn)行調(diào)整和優(yōu)化,在促進(jìn)人工智能技術(shù)健康發(fā)展的同時(shí)維護(hù)社會(huì)公共利益。在政策迭代過(guò)程中,既要充分發(fā)揮政府的前瞻性作用和決策智慧,又要積極吸納企業(yè)的實(shí)踐反饋,實(shí)現(xiàn)政策與市場(chǎng)實(shí)踐的緊密結(jié)合,形成良好的政企協(xié)同效應(yīng)。
實(shí)行試探性治理戰(zhàn)略同樣要求企業(yè)在政府引導(dǎo)下發(fā)揮技術(shù)創(chuàng)新主體作用,以靈活多變的姿態(tài)應(yīng)對(duì)政策變化和市場(chǎng)需求。企業(yè)要保持對(duì)市場(chǎng)動(dòng)態(tài)的敏感性并適時(shí)作出相應(yīng)調(diào)整,對(duì)開(kāi)發(fā)方向和經(jīng)營(yíng)方式進(jìn)行前瞻性規(guī)劃。政府和企業(yè)要攜手合作,營(yíng)造開(kāi)放透明的治理環(huán)境,讓所有利益相關(guān)主體參與其中,從不同角度建言獻(xiàn)策,并通過(guò)會(huì)商協(xié)作增強(qiáng)政策的社會(huì)認(rèn)同與執(zhí)行效果。在此基礎(chǔ)上,政企共同探索人工智能技術(shù)的可持續(xù)發(fā)展路徑,推動(dòng)人工智能產(chǎn)業(yè)穩(wěn)步前行。
(三)試探性治理下的政企互動(dòng):平衡工具理性和價(jià)值理性
在試探性治理模式下,要確保政策制定與企業(yè)實(shí)踐的有效溝通和信息互通,政府與企業(yè)需建立雙向反饋機(jī)制。我國(guó)政府在人工智能領(lǐng)域不僅要扮演技術(shù)創(chuàng)新推動(dòng)者的角色,還要作為不當(dāng)行為的監(jiān)管者,平衡技術(shù)創(chuàng)新和安全監(jiān)管之間的關(guān)系;既要鼓勵(lì)和支持企業(yè)技術(shù)創(chuàng)新,又要通過(guò)出臺(tái)相關(guān)政策,強(qiáng)化人工智能的安全與隱私保護(hù),確保技術(shù)發(fā)展不會(huì)侵犯公民基本權(quán)利,引導(dǎo)企業(yè)創(chuàng)新方向與社會(huì)價(jià)值觀相符。2021年發(fā)布的《新一代人工智能倫理規(guī)范》明確提出,為推動(dòng)我國(guó)人工智能健康發(fā)展,完善科技創(chuàng)新體系,優(yōu)化創(chuàng)新資源配置,提升自主創(chuàng)新能力,營(yíng)造創(chuàng)新氛圍,激發(fā)創(chuàng)新活力,政府應(yīng)全面加強(qiáng)人工智能安全監(jiān)管,著力提升企業(yè)技術(shù)創(chuàng)新能力,制定并實(shí)施一系列相關(guān)政策措施[19]。
通過(guò)試探性治理,政府能夠深人理解技術(shù)變革的影響,從而制定出更符合實(shí)際需求的政策,進(jìn)一步推動(dòng)技術(shù)的應(yīng)用和發(fā)展。隨著公眾對(duì)個(gè)人隱私和數(shù)據(jù)安全的關(guān)注度不斷升高,政府有必要制定更為嚴(yán)格的安全標(biāo)準(zhǔn)和監(jiān)管措施,全力保障公民隱私權(quán)益;從數(shù)據(jù)安全、系統(tǒng)安全、網(wǎng)絡(luò)安全、應(yīng)用安全等多個(gè)層面加強(qiáng)監(jiān)管和保護(hù),建立健全數(shù)據(jù)加密和備份機(jī)制,運(yùn)用各種安全措施確保私密數(shù)據(jù)不被泄露,最大程度地讓人工智能輸人更多信息,推動(dòng)其朝著更高水平的技術(shù)化、科技化、智能化邁進(jìn)。例如,《中華人民共和國(guó)個(gè)人信息保護(hù)法》對(duì)個(gè)人信息的收集、使用、處理、保護(hù)等行為作出了詳盡規(guī)范,為保障公民隱私筑牢了法律防線(xiàn)。總之,通過(guò)以上措施,政府能夠有效化解工具理性和價(jià)值理性在人工智能領(lǐng)域的沖突,引導(dǎo)人工智能技術(shù)發(fā)展方向,使其更加符合社會(huì)價(jià)值觀和倫理標(biāo)準(zhǔn),實(shí)現(xiàn)工具理性與價(jià)值理性的有機(jī)統(tǒng)一。
在數(shù)字化社會(huì),企業(yè)的智能化程度越高,抗風(fēng)險(xiǎn)能力也就越強(qiáng),進(jìn)而可以獲得更大的競(jìng)爭(zhēng)優(yōu)勢(shì)。因此,研究和發(fā)展人工智能大模型對(duì)于推動(dòng)企業(yè)轉(zhuǎn)型升級(jí)具有重要意義。在此過(guò)程中,如何化解工具理性與價(jià)值理性之間的沖突,實(shí)現(xiàn)二者的有機(jī)融合,已成為當(dāng)前企業(yè)治理面臨的重要問(wèn)題。這就要求作為行業(yè)領(lǐng)軍者的企業(yè)在開(kāi)發(fā)人工智能大模型時(shí),不能只追求經(jīng)濟(jì)效益,而要把社會(huì)效益放在與經(jīng)濟(jì)效益同等重要地位,主動(dòng)承擔(dān)社會(huì)責(zé)任,提升人工智能的“道德水平”,尊重人權(quán)、避免歧視,確保算法的設(shè)計(jì)和功能符合社會(huì)公共利益,保障公民權(quán)益不受損害,促進(jìn)人機(jī)關(guān)系和諧穩(wěn)定。企業(yè)要充分認(rèn)識(shí)加強(qiáng)社會(huì)責(zé)任、促進(jìn)算法向善的重要性,將算法向善、技術(shù)向善作為企業(yè)的道德準(zhǔn)則[20],確保人工智能治理不出現(xiàn)偏差,保證決策程序合理和操作效果良好,最大程度滿(mǎn)足人性?xún)r(jià)值需求[21]。
為實(shí)現(xiàn)這一目標(biāo),企業(yè)需保證算法設(shè)計(jì)與使用的原則與標(biāo)準(zhǔn)清晰明了,在語(yǔ)言邏輯層面確保算法的公平性,對(duì)其中可能存在的倫理問(wèn)題進(jìn)行分析與評(píng)估,并提出防范與處理對(duì)策。此外,為豐富大模型訓(xùn)練的信息來(lái)源,企業(yè)需引人大量不同類(lèi)型的數(shù)據(jù),排查訓(xùn)練中存在的問(wèn)題,從而提高算法公平性,實(shí)現(xiàn)決策透明化,并盡可能對(duì)算法的運(yùn)行模式與結(jié)果進(jìn)行詳細(xì)說(shuō)明,以贏得社會(huì)大眾的信賴(lài)。企業(yè)在算法開(kāi)發(fā)和應(yīng)用過(guò)程中,應(yīng)關(guān)注對(duì)社會(huì)產(chǎn)生的影響,這也是企業(yè)社會(huì)責(zé)任的體現(xiàn)。其中涉及的隱私、安全、平等、人權(quán)等方面的問(wèn)題,都應(yīng)被納入算法更新范疇,從而突出我國(guó)人工智能治理中公平、安全、可控的基本理念。通過(guò)這些措施,企業(yè)可以實(shí)現(xiàn)工具理性和價(jià)值理性的有機(jī)融合,推動(dòng)人工智能技術(shù)發(fā)展,促進(jìn)人機(jī)關(guān)系和諧穩(wěn)定。
以試探性治理為背景,在政府與企業(yè)之間形成雙向反饋的良性互動(dòng),是實(shí)現(xiàn)人工智能技術(shù)可持續(xù)發(fā)展的核心動(dòng)力。對(duì)于政府和企業(yè)而言,應(yīng)從長(zhǎng)期利益出發(fā)來(lái)考慮人工智能技術(shù)帶來(lái)的影響。這意味著政策制定者要關(guān)注技術(shù)發(fā)展引發(fā)的潛在社會(huì)影響,企業(yè)也要投入資金和精力進(jìn)行長(zhǎng)期研究和技術(shù)開(kāi)發(fā),通過(guò)協(xié)同演化建立政企長(zhǎng)期合作關(guān)系,共同推動(dòng)技術(shù)的持續(xù)創(chuàng)新和社會(huì)的不斷進(jìn)步,促進(jìn)人工智能技術(shù)的發(fā)展,實(shí)現(xiàn)工具理性與價(jià)值理性的有機(jī)統(tǒng)一。
五、結(jié)論與啟示
隨著人工智能技術(shù)的飛速發(fā)展,其正反兩面效應(yīng)日益明顯。一方面,人工智能技術(shù)的進(jìn)步和多樣化應(yīng)用正在顯著提升人類(lèi)生活品質(zhì),展現(xiàn)出改變世界的巨大潛力[22];另一方面,人工智能技術(shù)的廣泛應(yīng)用也帶來(lái)了前所未有的挑戰(zhàn),從個(gè)人生活到國(guó)際政治都深受影響。在推動(dòng)人工智能技術(shù)發(fā)展的同時(shí),如何確保其符合人類(lèi)道德準(zhǔn)則和社會(huì)倫理,已成為衡量國(guó)家和社會(huì)能否平衡好人工智能發(fā)展和監(jiān)管的重要標(biāo)準(zhǔn)。本文通過(guò)分析全球人工智能監(jiān)管實(shí)踐,比較了不同監(jiān)管模式的優(yōu)勢(shì)與不足,并從工具理性與價(jià)值理性的視角進(jìn)行了深入研究;在此基礎(chǔ)上,提出基于動(dòng)態(tài)政企合作框架的人工智能風(fēng)險(xiǎn)試探性治理策略,旨在倡導(dǎo)企業(yè)與政府的共同努力,優(yōu)化人工智能治理,促進(jìn)人機(jī)和諧共生。
人工智能治理已成為全球廣泛關(guān)注的話(huà)題,單個(gè)國(guó)家或地區(qū)若試圖憑借自身力量改變或完善人工智能規(guī)則和體系,在人工智能領(lǐng)域構(gòu)筑“小院高墻”,不僅無(wú)法推動(dòng)技術(shù)進(jìn)步,反而會(huì)導(dǎo)致本國(guó)的人工智能研究和發(fā)展與國(guó)際脫軌,難以融入全球創(chuàng)新網(wǎng)絡(luò)。只有摒棄各自為政的做法,在政策制定中兼顧各國(guó)訴求,加強(qiáng)信息共享與協(xié)調(diào)合作,才能確保人工智能發(fā)展朝著有利于全人類(lèi)利益與價(jià)值的方向前進(jìn)。在人工智能治理領(lǐng)域,我國(guó)秉持人類(lèi)命運(yùn)共同體理念,這一理念順應(yīng)了人工智能的發(fā)展需求,契合國(guó)際社會(huì)的期待。我國(guó)的治理經(jīng)驗(yàn)和主張能與世界大多數(shù)國(guó)家產(chǎn)生共鳴,應(yīng)當(dāng)以此為基礎(chǔ)積極發(fā)揮作用,為推進(jìn)人工智能治理貢獻(xiàn)中國(guó)智慧與中國(guó)方案。
參考文獻(xiàn):
[1] 張欣.生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管[J].現(xiàn)代法學(xué),2023(3):108-123.
[2] 謝新水.人工智能內(nèi)容生產(chǎn):功能張力、發(fā)展趨勢(shì)及監(jiān)管策略——以ChatGPT為分析起點(diǎn)[J].電子政務(wù),2023(4):25-35.
[3] 劉軒,陳海彬.人工智能監(jiān)管:理論、模式與趨勢(shì)[J].情報(bào)理論與實(shí)踐,2023(6):17-23.
[4] 史鳳林,張志遠(yuǎn).論人工智能的公法規(guī)制:美歐模式與中國(guó)路徑[J].理論月刊,2023(8):127-139.
[5] 賀譯葶.人工智能在信用監(jiān)管中應(yīng)用的法律風(fēng)險(xiǎn)及其應(yīng)對(duì)[J].甘肅社會(huì)科學(xué),2022(4):142-150.
[6] 張欣.生成式人工智能的數(shù)據(jù)風(fēng)險(xiǎn)與治理路徑[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2023(5):42-54.
[7] 石拓,張俊輝,李丹陽(yáng),等.人工智能嵌入社會(huì)治安治理的實(shí)踐邏輯及風(fēng)險(xiǎn)因應(yīng)[J].運(yùn)籌與管理,2023(6):27-32.
[8] 張蜓.人工智能的倫理風(fēng)險(xiǎn)治理探析[J].中州學(xué)刊,2022(1):114-118.
[9] 李沖,李霞.人工智能風(fēng)險(xiǎn)的試探性治理:概念框架與案例解析[J].中國(guó)軟科學(xué),2024(4):91-101.
[10]李微,張榮軍.價(jià)值理性視域下的人工智能及其倫理邊界[J].貴州社會(huì)科學(xué),2022(5):13-20.
[11]郝磊,溫志強(qiáng),王妃,等.ChatGPT類(lèi)人工智能催生的多領(lǐng)域變革與挑戰(zhàn)(筆談)[J].天津師范大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023(4):8-23.
[12]張夏恒.ChatGPT的政治社會(huì)動(dòng)能、風(fēng)險(xiǎn)及防范[J].深圳大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2023(3):5-12.
[13]“杭州3月1日取消限行”為不實(shí)信息!警方已介入調(diào)查[EB/OL].(2023-02-17)[2024-01-02].htp://zjwx.gov.cn/art/2023/2/17art_1673574.58872766.html.
[14]陳之琪.防止算法推薦成為窺私“木馬”[N].中國(guó)青年報(bào),2022-03-04(8).
[15]朱榮榮.類(lèi)ChatGPT生成式人工智能對(duì)個(gè)人信息保護(hù)的挑戰(zhàn)及應(yīng)對(duì)[J/OL].重慶大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版):1-14[2024-03-26].https://kns.cnki.net/kcms/detail/50.1023.C.2023091.1151.002.html.
[16]岳平,苗越.社會(huì)治理:人工智能時(shí)代算法偏見(jiàn)的問(wèn)題與規(guī)制[J].上海大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2021(6):1-11.
[17]景星維,王思奇.論智能時(shí)代人的價(jià)值自覺(jué)[J].理論導(dǎo)刊,2023(9):74-80.
[18]肖紅軍,陽(yáng)鎮(zhèn).數(shù)字科技倫理監(jiān)管:美國(guó)進(jìn)展與中國(guó)借鑒[J].財(cái)經(jīng)問(wèn)題研究,2023(6):73-86.
[19]徐繼敏.生成式人工智能治理原則與法律策略[J].理論與改革,2023(5):72-83.
[20]王紹光.新技術(shù)革命與國(guó)家理論[J].中央社會(huì)主義學(xué)院學(xué)報(bào),2019(5):93-100.
[21]梅立潤(rùn).人工智能時(shí)代國(guó)家治理的算法依賴(lài)及其衍生難題[J].中南大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2022(6):123-131.
[22]肖峰.生成式人工智能介入知識(shí)生產(chǎn)的功用探析——借助ChatGPT和“文心一言\"探究數(shù)字勞動(dòng)的體驗(yàn)[J].重慶郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023(4):1-10.
Generative artificial intelligence: Exploring risk, regulation, and governance models
LU Anwen
(School of Modern Posts,Chongqing University of Posts and Telecommunications, Chongqing 40o065,China)
Abstract:Therapidadvancementof generativeartificial intellgence(AI)hasbroughtaboutprofound transformations in science,technology,andvarious aspects of everyday life.While significantly enhancing user experience and convenience,ithasalsointroducedarangeof potentialrisks.Theserisksstemfromthedificultyof harmonizing instrumentalrationalitywithvaluerationality,implicating notonlythetrajectoryof technologicaldevelopmentbutalsocoresocietalethicsandlegalstandards—issues ofconsiderablesignificance.Thisarticleanalyzesfour primaryrisksof generative AI through thelensof instrumental andvaluerationality:thespreadof misinformation,whichcanleadtopublicmisunderstanding;privacy infringements,which threaten fundamental personal rights;databias,which mayexacerbatesocial inequalityanddiscrimination;andthelack ofinterpretability,which introducesuncertaintyintoAIapplications.Itthen comparestheregulatorymodelsadoptedbythe UnitedStates,theEuropean Union,andSingapore,highlighting eachsystem'sstrengthsandlimitations.Buildingonthis comparativeanalysis,thearticleproposesatentative governance strategy basedonadyamicpublic-privatecooperationframework.Thisstategyemphasizes experimentalregulation,iterativepolicy-making,enhancedcorporate adaptability,andtheactive engagementof stakeholders.Itsaimistoachieveameaningfulintegrationof instrumentalandvaluerationality,ensuring theresponsibleandsustainabledevelopmentof AItechnologieswhileeffctivelymitigatingassociatedrisks.Theaticlefurtheradvocatesfor internationalcolaborationinAI governanceinnovationtofosterhuman-machineharmony.Inthisglobal effort,Chinaremainscommitedtothevisionof building acommunitywithasharedfuturefor mankind,contributing Chinese insightsandsolutions tothe worldwidegovernanceof generative AI.
Keywords:generative artificial intelligence;tentative governance;potential risks;regulatory models
(編輯:蔡秀娟)