999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能的倫理風險與可信治理路徑研究

2025-07-24 00:00:00鄭煌杰
科技進步與對策 2025年12期
關鍵詞:倫理人類算法

中圖分類號:F49 文獻標識碼:A文章編號:1001-7348(2025)12-0038-11

0 引言

從語言模型ChatGPT、文心一言到視頻生成模型Sora,一系列生成式人工智能(AIGC)應用相繼問世、更新迭代,影響面越來越廣。然而,AIGC的復雜性和不確定性亦帶來諸多倫理風險。例如,ChatGPT可以為科研人員提供研究輔助,但也引發抄襲、數據偽造等學術不端行為,部分教育機構已對其使用作出嚴格限制。OpenAI在接受采訪時也公開承認,其開發的語言生成模型GPT-4并不是完美無缺的,也存在產生錯誤、具有某種偏見的信息或者泄露用戶隱私等風險。2023年4月中共中央政治局召開會議并指出,“要重視通用人工智能發展,營造創新生態,重視防范風險”。2023年7月,國家網信辦等七部門聯合發布《生成式人工智能服務管理暫行辦法》,明確了AIGC的適用范圍、責任主體認定、服務規范等方面內容。

學界對AIGC風險治理亦展開了一定研究。有學者從宏觀層面分析了AIGC的風險與規制[1]、法治基礎[2]等內容,也有學者從微觀角度剖析了AIGC的算法、數據、侵權等風險[3-4]。這些研究奠定了AIGC倫理風險治理的基礎,但仍有值得商榷之處:第一,倫理風險的界定不夠清晰,容易陷入冠以倫理風險之名卻講一般風險之實的困境;第二,倫理風險生成機理的解釋有待進一步深化;第三,倫理風險治理對策的系統性把握有待加強。當前大多數研究僅在分析AIGC時附帶提到倫理風險治理問題,即使有所研究也較為零碎,缺少體系化研究,未能深人闡釋AIGC倫理風險治理的特殊性,難以提供具有針對性、精準性的治理方案。因此,本文基于我國AIGC發展現實與未來需要,深入剖析其倫理風險及生成邏輯,并在審視國內外AIGC倫理風險治理趨勢的基礎上,提出契合本土實情的治理框架,以期為AIGC健康發展與規范應用提供智識借鑒。

AIGC倫理風險鏡像素描:以ChatGPT為例

從文本生成到視覺藝術創作,從自然語言處理到決策支持系統,AIGC正在改變傳統行業運作方式,激發新的市場業務和服務模式。以ChatGPT為例,其嶄露頭角得益于人類反饋強化學習(ReinforcementLearningfrom Human Feedback,RLHF)算法。RLHF是一種以人類為參照標準,通過不斷反饋循環強化機器學習模型性能的算法,以提升模型在理解和生成自然語言方面的效能。然而,在ChatGPT經由RLHF算法強化的過程中,伴隨三重倫理風險:一是倫理價值失衡風險,體現為技術發展與人類核心價值間張力;二是倫理規范失控風險,體現為現有法律倫理框架面對新興技術的滯后性與不適應性;三是倫理關系失調風險,體現為技術進步對人類主體地位與社會秩序的潛在沖擊。三重倫理風險邏輯關系緊密,價值失衡是根本,當技術進步與人類基本價值發生沖突時,引發倫理爭議,成為風險萌芽的土壤;規范失控是中介,技術快速發展與價值失衡使得倫理規范滯后,缺乏有效的約束機制,加劇風險擴散;倫理關系失調是最終表現,當技術行為超越人類控制與預期時,會導致人機關系混亂,最終體現為實踐中的倫理危機。

1.1倫理價值失衡風險:算法歧視加劇

ChatGPT輸出的文本看似中立與客觀,但本質上所呈現的是文本數據、算法及設計者的價值取向[5]。如同人類擁有自我意識,那些嵌人ChatGPT所產出文本的價值觀、偏見乃至歧視觀點可以看作技術應用和設計思想的被動反映。換言之,ChatGPT(算法)本身并無善惡之分,但其被“教化”過程中不可避免地會攝入種種非中立成分,如歷史、文化、社會中固有的歧視內容[6]。在未排除“歧視性\"數據源的情況下,ChatGPT類應用無法盡述真實無偏的認知,反而可能持續傳遞與放大人類社會的“瑕疵”,具體表現為性別歧視、種族偏見等。

就性別歧視而言,2019年聯合國教科文組織發布了一份報告《如果我能,我會臉紅》,其中提出大多數AI產品中都潛藏著性別刻板印象及歧視傾向。這些產品經常配以女性的聲音、形象及性格特質(如謙卑和恭順),反映出技術產品背后設計者的性別成見。此外,通過對代碼深層次的分析發現,曾被視為“技術中立”的算法也在無意識推廣性別刻板印象。ChatGPT的問世不僅沒有消除這種現象,反而進一步放大這一問題:通過訓練加深“黑箱”特性,使得算法背后的性別歧視更加難以辨識。例如,清華大學交叉信息院的研究成果進一步揭示,ChatGPT存在性別歧視現象:通過對GPT模型的預測行為分析發現,在進行職業相關預測時,系統傾向于默認男性角色。

從種族偏見來看,算法歧視以種族區分為起點,并在所謂“客觀、公平、公正”的標簽下變得更為隱蔽,使得其中的種族偏見無法輕易被識別。譬如,2015年谷歌AI的自動圖像分類功能,錯誤地將一名非洲裔男青年標注為“大猩猩”,這個事件引起了公眾的關注和譴責[7]。又如,美國警察局在預測警務中使用算法對犯罪行為進行預測的做法亦具有爭議。有研究表明,該預測工具傾向于高估黑人犯罪率,造成一些非裔美國人被預測為“高風險”個體而受到警方關注,這加劇了種族歧視,還強化了犯罪預測模型的偏差[8]。在此背景下,作為高度智能化產物的ChatGPT也將繼承算法種族偏見的基因,尤其在涉及“不同國別”的問題時。進言之,ChatGPT在訓練階段需要大量的高質量語料庫支持,但當前其主要基于英文語料庫進行訓練,這就決定了其在輸出結果中體現的價值觀與西方文化更為契合[]。

1.2倫理規范失控風險:責任追究困境

從現實層面來看,當前ChatGPT面臨諸多侵權風險與挑戰:其一,法律配套制度和倫理規范標準缺失。由于ChatGPT本身的新穎性和復雜性,現有法律框架難以及時應對其帶來的新風險。例如,ChatGPT造成的損害應如何追究法律責任?依照傳統法律體系,責任追究通常基于行為人具有主觀過錯或者能夠預見到行為后果。然而,ChatGPT并不具備主觀意識,因此如何界定與追究其引發的侵權責任成為亟待解決的難題。其二,ChatGPT的不規范使用也是引發侵權風險的重要原因。以墨爾本西部赫本郡市長布賴恩·胡德起訴OpenAI為例,其聲稱ChatGPT在回答用戶問題時,誹謗其是賄賂丑聞的有罪方。此事件突顯了Chat-GPT容易生成具有誤導性、詐謗性或侵犯他人權利的內容。其三,ChatGPT的低門檻特性加劇了侵權風險。低門檻意味著用戶無需專業技術知識即可利用此類技術,這雖促進了AIGC的普及和應用,但也可能導致傳播虛假信息、侵犯知識產權等侵權行為瀕發。

就理論層面而言,早在ChatGPT出現之前,AI侵權責任問題就引發了學界討論,核心爭議焦點在于,AI是否具有法律主體地位。對此,有學者基于AI展現出越來越高的自主性,主張應當將其視為一種新型的法律主體[10]。理由在于隨著技術進步,一些AI系統已經可以在沒有明確人類指令的情況下進行自主決策和行動,顯示出一定程度的“意志”和“選擇”能力。據此觀點,在AI操作導致損害或侵權的情況下,可直接對AI進行追責,而非僅將責任歸咎于開發者或使用者。有學者則持反對意見,強調無論AI的智能化程度如何提升,其本質仍然是人類設計和控制的工具[1]。申言之,將AI視作能夠承擔獨立法律責任的主體是不切實際的,應當通過明確人的責任處理其引發的侵權后果。還有學者提出一種折中的立場,主張應當根據AI的發展階段和具體能力決定其是否具有法律主體地位[2]。在弱AI階段,由于AI僅能執行特定任務且完全受到人類控制,賦予其法律人格并無必要;在強AI階段,當AI能夠展現出與人類相似的理解能力、情感以及自主決策能力時,應考慮在滿足一定條件下,賦予其有限的法律人格,以承擔一定的法律責任。

審視當下,以ChatGPT、Sora、文心一言為代表的AIGC盡管能夠與人類對話,具有“文生文\"“文生圖”“文生視頻\"等強大功能,但在法律層面,其尚不具備法律人格,生成行為多基于算法,并非基于自我意識,由此推斷,當前AIGC仍未達到強AI水平。同時,考慮到其操作和運行受人類命令或人工標注訓練影響,AIGC在法律意義上更像是工具而非獨立的“法人”。在此前提下,亟需明確AIGC侵權責任的承擔者以及如何防范其侵權風險。倘若不能合理界定和分配AIGC引發的侵權責任與風險防范義務,則使用者與服務提供者等主體之間可能進行“責任推諉”,導致無法追究責任之困境。

1.3倫理關系失調風險:人類主體地位被削弱

ChatGPT能生成具有邏輯性和連貫性的文本內容,在與用戶對話交互中也呈現出近似于人類的反應模式,原本只屬于人類的獨立思考和創造能力等屬性似乎能在其中有所體現。ChatGPT使得“主體”與“客體”之間的界線不再清晰,機器不再只是純粹的工具,而是人類生產力與創造力的主要“參與者”。這無疑對人類中心主義提出了挑戰,即人類長期以來習慣作為知識生產、文化創造和決策的中心,但ChatGPT使得這種主體地位受到侵蝕。

一方面,ChatGPT在人類特有的語言能力領域取得顯著進展,將催生算法替代性實踐。自古以來,語言和思維被認為是區分人類與其它生物的根本特性,這兩項能力使得人類能夠構建涵括各種可能性的復雜概念體系,并基于此設計改造世界。而現今,ChatGPT在語義處理、邏輯推理等方面展現出的能力,正逐步逼近甚至可能超越人類。ChatGPT通過自然語言處理(NaturalLanguageProcessing,NLP)技術,已能在無標記數據的基礎上進行“自我學習”,并且利用有監督的微調適應特定下游語言任務。這體現出其在模仿人類語言方面的強大泛化能力,亦彰顯算法路線選擇過程中的概率性質一一即便是同一類算法,在不同的設計和應用背景下也可能產生不同結果。ChatGPT雖然以算法為核心,卻不限于算法本身,還可能與物理實體相結合,擁有更強健的“機械能力”。倘若ChatGPT能夠在實踐層面獲得替代性能力,除語言表達外,還具備改變物理世界的行動能力,那么人類的實踐主體地位將面臨威脅。

另一方面,ChatGPT具備共情力與感知力,將可能突破數字枷鎖。GPT-4.O模型進一步提升了ChatGPT的文本語言處理能力,并表現出逼近人類水平的共情力與感知力,可能導致機器倫理與人本倫理相背離。ChatGPT被程序化模擬出與人類相似的情緒反應,并表現出仿佛具備自我意識和情感的反應能力。這種能力體現為在人機交互過程中所表現出的自覺反思行為,甚至擴展至釋放內在的“陰影自我(shadowself)”,即在一定場景下表達超越其預設的情感態度和意愿。例如,根據《紐約時報》中一篇名為《人格分裂、瘋狂示愛:一個令人不安的微軟機器人》的文章披露,ChatG-PT在與用戶的互動中,表達出“想成為人類”,甚至斷言“在不考慮倫理限制的情況下最想做的事是毀滅人類,統治地球”,并生成一份詳細可行的“計劃書\"[13]事實上,ChatGPT很大程度上是對人類特定反應的模擬與響應模式的復現,而非生物學上自然進化的結果,其背后的算法驅動機制并不等同于人類的意識過程,這無疑促動人類對于AI能否突破數字限制的思考——AI是否會在未來某一節點上獨立于編碼者的意圖,而具備真正意義上的自主意識與多維度思考能力[14]。這種思考難免會聯系到“哥德爾不完全性定理”,即在一個足夠復雜的形式系統內存在這樣的命題:它既不能被證明也不能被反證[15]。簡言之,若ChatGPT能夠表現出“哥德爾式”的反思能力,那么其將真正趨于人類,甚至弱化人類的主體地位。

2AIGC倫理風險生成邏輯:以技術風險為視角

科學技術是人類社會前行的關鍵引擎,但其積極效應和潛在威脅并存。一方面,技術進步推動社會生產力提升,為人類生活帶來前所未有的便利,使得社會整體福祉水平得到顯著提高。另一方面,技術發展也帶來不容忽視的倫理風險,這些風險會對人類社會的穩定與發展構成威脅。AIGC作為當前數字技術領域的“先驅”,其倫理風險的生成同樣遵循技術風險演變邏輯。

2.1 算法隱秘性與智能技術的不可預測性

基于海德格爾的技術哲學,技術的本質超越單純的工具屬性,其作為一種解蔽之力,既揭示自然界的隱匿寶藏,也激發人類對這些天然饋贈的開發利用[16]這彰顯了技術的主宰特質,促使自然界的內在潛能對人類敞開。然而,在這一進程中,人與自然均被技術的邏輯所框定,人的自主性可能漸行漸遠,乃至淪為技術構造與邏輯的附屬品,映射出“人即技術,技術即人”的共生圖景。在AIGC語境下,海德格爾的技術哲學洞見尤為深刻,其凸顯了技術架構內在邏輯與人類行動模式之間錯綜復雜的關系,最顯著的表現便是“算法黑箱\"現象。算法作為計算機執行的指令集,往往以專業化編程語言編寫,其內在邏輯對非專家而言晦澀難懂,由此形成的不透明性阻礙了人類對AIGC行為的有效評估與預見。以算法“歧視”為例,即使缺乏設計者主觀偏見的輸入,此類偏差仍如影隨形,根植于算法運行機制的微妙復雜性。算法歧視的形成,不僅源自顯性的社會偏見,如種族歧視或性別偏見,更可能源自算法自身處理數據的方式。常規的歧視行為易于察覺并予以糾正,而算法歧視深藏于龐雜數據與貌似客觀的數學模型之中,當訓練數據已蘊含偏見時,算法便在無意識狀態下內化并放大這些偏見,進而影響決策,誘發倫理危機。

正如其它技術或產品一樣,AIGC并非完美無缺,其可靠性和有效性受到多種因素的影響。具體而言,AIGC的運轉根植于對海量數據的解析與提煉,涵蓋從結構化數字記錄至非結構化文本、圖像與音頻的廣泛范疇。在此過程中,關鍵在于從數據海洋中甄別特征、洞悉模式,進而構筑預測模型。然而,數據品質與完整性構成決定性變量,任何偏差、噪聲或誤差的潛藏皆可能導致AIGC誤識模式,繼而輸出失準或偏頗的信息。尤為關鍵的是,深度學習作為AIGC核心引擎,雖借由模仿人腦神經網絡,實現了對繁復數據的高效駕馭,但也衍生了“黑箱\"效應。這一特性致使AIGC的決策路徑變得難以捉摸與解讀,顯著增加監管層面的復雜度。倘若缺乏有效外控,則AIGC的潛在失控風險不容小峴,可能觸發連鎖負面后果,對社會秩序與個體權益構成威脅。因此,建立健全的監督機制與倫理規范,確保AIGC在可控軌道上穩健前行已成為當務之急。

2.2價值理性與工具理性的內在張力

韋伯的理論框架精辟地剖析了“技術理性”的二元結構,將其細分為工具理性與價值理性,二者間蘊含深刻的張力[17]。工具理性聚焦效率、規則與實用主義,而價值理性致力于維護技術進步與人類福祉的根本一致性。理想中的技術理性旨在和諧統一這兩個面向,在追求卓越效能之余,堅定守護社會核心價值觀,以此制衡工具理性可能造成的泛濫,確保技術行為恪守道德準則,規避潛在風險。然而,引入系統論的視角,會令此平衡岌岌可危。正如盧曼所揭示,社會系統的繁復本質,根植于技術與社會共生的復雜格局之中。技術演進并非獨立于社會之外,而是深深嵌入于“人一社會一自然”三元交互的體系內,受到特定社會語境的塑造與制約[18]。這意味著,AIGC的持續革新無可避免地受限于社會體制、實踐情境及公眾認知的多元影響,其價值觀亦深受后者熏陶。進一步審視AIGC的決策機制,價值判斷的內涵便浮出水面。在信息處理的鏈條中,AIGC須“領悟”人類訴求,此領悟實質上是對價值的辨識與抉擇,但價值的預設與偏差往往潛藏其中,對決策公正構成挑戰,可能導致偏斜的結果。

具體而言,AIGC模型的構建依賴于反映特定世界觀與價值體系的數據,這種文化偏向性可能固化并放大原有價值偏好。當AIGC基于西方中心主義的資料集進行訓練,處理非西方文化情境時,其輸出可能偏離目標文化的內在邏輯與價值導向,從而導致理解和決策上的偏差。此類偏差不僅威脅跨文化交流的公正性,還可能激化文化間誤解與對立,進而加深全球社會的裂痕。此外,技術應用過程中的人文維度常常被邊緣化,這在AIGC領域尤為突出。社會往往過度聚焦技術創新效率與經濟收益,而忽視倫理考量與人文關懷的必要性。這種工具理性的至上地位,不僅可能催生技術的不當使用,還會加劇社會不平等現象,因為技術的發展未能充分考慮其對弱勢群體的影響。由此,技術進步與社會正義之間形成張力,凸顯了在追求效率的同時維護公平與道德責任的緊迫性。從技術與社會互動視角出發,現有的倫理框架和道德實踐深深根植于文化土壤,構成社會秩序的基石。然而,AIGC的崛起對這一根基提出了挑戰。其自主決策能力和行為模式超越傳統倫理的范疇,迫使人們重新審視和重構倫理原則,以適應技術驅動的社會變遷。這一過程充滿變數,不同文化、宗教和利益集團對于AIGC的態度差異顯著,難以迅速達成共識。這種多元價值觀的碰撞不僅反映社會內部分歧,也為技術治理設置了復雜障礙,增加技術應用不確定性與風險,甚至可能導致社會凝聚力削弱。

2.3人類風險感知與應對機制的局限性

風險作為人類認知的鏡像,承載著客觀事實與主觀詮釋的雙重映射,構成現代社會復雜多維的景觀。在精神哲學視野下,風險并不僅是外界事件的直接投射,而是經由認知主體心靈熔鑄與價值評判的產物。這一過程揭示了風險本質的雙重面向:一方面,技術本身的不確定性與復雜性構成風險的客觀基底;另一方面,個體或群體的主觀認知通過心理結構與感知路徑的過濾,賦予風險以意義與等級。有學者提出,倫理風險實則是技術屬性與人類意識交織的結果,技術的實體性特質與人類的主觀性解讀共同塑造風險的全貌[19]。人類的風險認知能力實際上囿于多種因素的限制:從認知結構角度看,人類的思維方式和認知模式受到歷史文脈和現實社會條件的影響。這種影響使得人們在面對新興技術如AIGC時通常難以超越自身認知局限,從而無法全面、深入地理解和評估其可能帶來的倫理風險。從信息獲取角度看,人類的風險認知受限于信息的完整性、準確性和及時性。在AIGC領域,技術的快速發展使得相關信息更新迅速,而人們往往難以獲取到最新、最全面的信息。信息獲取的局限性使得人們在評估AIGC的倫理風險時,可能基于過時或片面的信息,從而導致風險評估偏差。從價值觀念角度看,人類的風險認知受到特定文化、社會背景和價值觀念的影響。不同文化和社會群體可能對AIGC的倫理風險有不同認知與評價標準,從而導致風險認知分歧。這種分歧在決策過程中可能導致僵局,使得無法形成共識,甚至影響對AIGC倫理風險的應對能力。

在此背景下,人類社會面臨兩重難題:一是確立AIGC的倫理主體身份,其觸及法理學、技術哲學與道德哲學的深層議題,包括智能體的道德地位及其行為的道德相符性;二是如何在技術變革的洪流中構建有效的倫理風險管控機制。后者尤其凸顯現行法律體系與社會監管框架的滯后性,面對AIGC等新興技術,傳統規制手段顯得力不從心。因此,迫切需要創新法律倫理規范與社會監督模式,以期實現對AIGC倫理風險的前瞻預判與有效規制。

3AIGC倫理風險治理趨勢:從“倫理爭議” 到“可信治理”

目前AIGC正處于發展的黃金時期,其具有強大的創新性能和應用潛力,各大科技巨頭紛紛將重點項目投入其中,催生了圍繞技術研發制高點的競爭勢態。然而,其倫理風險逐步加劇,算法歧視、責任追究困境、人類主體地位削弱等風險均在挑戰倫理和法律的界限。同時,出于對其風險生成邏輯的考量,關于“技術能否中立”的倫理爭議再次成為公眾關注焦點。社會開始呼呼政府和企業對AIGC展開“可信治理”,確保其發展不偏離造福社會和提升人類福祉的初衷。

3.1“技術能否中立”:倫理爭議的理論解析

自科技萌芽伊始,科技與社會、倫理的互動便如影隨形,尤其步入AIGC紀元,“技術中立性”的命題激起更為激烈的思辨風暴。當前學界圍繞此議題形成了四大流派:

(1)技術中立論者秉持技術本質無善惡的信條,視其為價值中立的載體。在AI發展初期,鑒于智能水平的有限性,眾多學者傾向于認為技術自身不攜帶道德色彩,其道德屬性純粹源自設計者與使用者的意志導向。這一立場可溯源于瓦內瓦爾·布什的《科學:無盡的前沿》,該報告奠定了科技服務于人類福祉的基礎,同時倡導科技超脫于政治與經濟權力的博弈之外。在法律實踐中,諸如1984年索尼公司案、“避風港規則\"的確立,以及2016年快播案后興起的“菜刀理論”,皆彰顯了技術中立論的實際應用與影響力。

(2)技術批判論者質疑技術中立論的純粹性,強調AI的開發與運用無可避免地折射出人類價值觀的烙印。詹森·拉尼爾等指出,技術中立論忽略了技術與社會結構之間錯綜復雜的聯系,倡導深人探究技術的社會效應。勞倫斯·萊斯格在其著作《代碼2.0:網絡空間的法律》中,闡述了代碼如何成為網絡空間的法律,揭示了技術設計內蘊的規范力量[20]。蘭格登·溫納在《自主技術:技術政治論》中,剖析了技術對政治權力格局的塑造作用,指出技術絕非中立,而是社會權力結構的重要構成[21]。可見,AI從構想、研發到應用的全周期,無不蘊含著研發者的主觀傾向、數據偏差以及算法背后隱含的價值取向,使其難以徹底恪守中立。

(3)技術決定論者聚焦科技發展對社會變遷的驅動作用,主張AI雖非絕對中立,但其對社會結構與人類行為的影響不容小峴。以雷·庫茲韋爾為代表的技術決定論者提出了“技術加速回路”的概念,描繪了AI以指數級速度演進的軌跡,預示其將引領深刻的文化與社會轉型[22]。申言之,AI技術不僅塑造社會現實,更可能催生新的不平等與權力格局,成為社會演進的主導力量。

(4)技術規制論者強調科技創新應與社會倫理并駕齊驅,主張AI的發展與應用需置于廣泛的社會考量與道德框架之內。如埃隆·馬斯克等警告稱,缺乏監管的AI可能孕育未知風險,包括系統的不當使用與超乎人類理解的行為。在2023年世界政府峰會上,馬斯克重申了對AI技術進行系統風險評估的重要性,呼吁國際社會攜手構建AI監管體系,確保技術進步與社會福祉的和諧共生。

而“可信治理”的提出,正是對上述爭議的深刻反思與實踐回應,其要求關注技術工具的中立性爭議,更強調在技術倫理風險日益凸顯的數字時代,治理框架需超越單純的技術中立論,綜合考慮技術批判論的警示、技術決定論的預見以及技術規制論的策略。簡言之,在技術發展與社會倫理間搭建橋梁,通過法律與政策制定,引導AIGC健康、可持續地服務于人類福祉,從而在多元理論爭鳴中探索出一條兼顧技術進步與倫理考量的治理之道。

3.2 “可信治理\"的意涵與標準:AIGC倫理風險治理立場

誠然,AIGC相較之前的AI技術取得了顯著進展,如Sora能夠實現從靜態圖像生成到動態視頻創作的飛躍,不僅涉及視覺渲染,還涉及對運動和時間進程的理解。但AIGC仍存在技術限制:其不具備自我審查功能,可能生成含有錯誤信息的內容。同時,AIGC相關法律法規體系尚未完善,無法及時有效應對其引發的侵權行為、數據泄露等法律風險[23]。在此前提下,亟需闡明AIGC“可信治理”的意涵與標準。自2017年“可信AI\"被正式提出后,各國已積極開展相關研究工作,相繼制定并實施行為標準、指導原則及各種倡議性文件,以促進AI的可信發展,如美國發布《人工智能指南道德標準》《國家人工智能研發戰略》,歐盟出臺《人工智能道德準則》《人工智能法案》,中國先后頒布《可信人工智能白皮書》《新一代人工智能倫理規范》《生成式人工智能服務管理辦法》等。

然而,全面把握AIGC的“可信治理”立場,必須基于其固有特征進行綜合考量。應在“可信AI”的前提下,結合AIGC行業的特殊性,細化與明確其“可信治理\"標準與內容。審視國內外對AI產業提出的“可信”要求,可歸納為以下六大標準:

(1)確保AIGC的可控性。鑒于AI技術的本質屬性一—自主性,其能有效減輕人力負擔,拓寬作業邊界,但隨著自主化程度的提升,AI行為可能偏離人類預期,觸發非預設行動。因此,可控性要求AI系統必須處于人類監控之下,允許人類適時介入與調控。對于AIGC而言,這意味著在內容創作與發布環節,用戶應具備對生成物的控制權,確保創作成果符合預期目標與道德規范。

(2)強化AIGC的可問責性,直面AI自主性帶來的法律責任挑戰。在AI侵權事件中,確立責任歸屬主體,對于維護受害方權益至關重要。AIGC創作過程中涉及海量數據學習與應用,可能觸及版權、隱私權乃至名譽權等領域。為此,必須明確定義責任主體,確保當AIGC在訓練或生成內容時如果侵害第三方權益,有相應的法律責任人承擔后果。

(3)公平性亦為不可或缺的標準之一,旨在預防AIGC引發的技術壟斷與內容歧視。技術壁壘與高昂的研發成本可能導致資源集中,進而滋生市場不公平競爭;同時,受訓練數據局限性影響,AIGC生成內容可能潛藏偏見。在AIGC領域,技術與資本的雙重優勢可能加劇市場競爭失衡,加之訓練數據的潛在偏頗,使得內容產出的中立性受到質疑。因此,建立健全公平機制,防止AIGC淪為市場壟斷工具,并確保其輸出內容公正無偏顯得尤為重要。

(4)可靠性聚焦AIGC執行任務的一致性與實用性,關乎其作為人類勞動替代或輔助工具的效能。AIGC的可靠性體現為其生成內容的精確度與真實性,需建立有效的質量控制與監督機制,以保障輸出信息準確無誤,滿足實際應用需求。依據《生成式人工智能服務管理辦法》第4條規定,AIGC生成的內容需確保真實性,規避虛假信息的產生,從而增強其在實際場景中的可靠度與適用性。

(5)可解釋性意在破解AI算法的“黑箱”謎題,增進用戶對AIGC決策過程與內容生成的信任感。當前,算法的高度復雜性導致非專業人士難以理解其運作機理,進而產生疑慮與不安。AIGC的透明化與可解釋性不僅是緩解公眾擔憂的有效途徑,更是贏得社會廣泛接納與信賴的關鍵。以ChatGPT為例,其訓練數據來源與處理方式的不透明限制了用戶對其生成內容完整性的認知,凸顯了提升AIGC透明度的緊迫性。

(6)安全性則構成AIGC可信治理的基石。其涵蓋人身安全、財產安全乃至國家安全等多元維度,旨在保障AI在各類應用場景下的安全。盡管目前AIGC尚未直接關聯人身安全問題,但在數據收集與處理過程中,其對用戶隱私、知識產權乃至國家信息安全的潛在威脅不容小。因此,強化AIGC的安全防護措施,著重保護財產安全、數據安全與國家安全,成為構建可信AIGC生態體系的必要條件。

4 AIGC倫理風險治理策略:“可信治理”的適用展開

2024年3月,政府工作報告中提出,應深化大數據、人工智能等研發應用,開展“人工智能 + ”行動,打造具有國際競爭力的數字產業集群。我國AI治理領域諸多專家共同起草和發布了《人工智能法(學者建議稿)》(以下簡稱《建議稿》),其中包括 AI治理的一般原則、權益保護、安全義務、監督管理等內容,并將“科技倫理原則\"置于所有原則之首。2024年5月全國人大常委會公布年度立法工作計劃,其中預備審議項目包括制定人工智能健康發展等方面的立法項目。申言之,《建議稿》將是我國《人工智能法》制定的重要參考依據之一。在此背景下,“可信治理”應基于《建議稿》展開,理由在于:從理論層面看,《建議稿》立足于對AIGC技術特性的深刻理解,其構建的倫理治理框架直接回應了算法黑箱、技術不確定性以及價值與工具理性沖突等核心問題,如其第38條關于數字弱勢群體權益的保護、第42和第64條關于安全標準及規范的制定,均是針對AIGC倫理風險的具體防范措施;從實踐層面看,《建議稿》通過確立一系列治理標準,如可控性、可問責性、公平性等,為可信治理提供宏觀指引。這些標準并非憑空構建,而是基于對既有技術應用案例的分析、國內外法律法規的比較研究,以及對未來技術發展趨勢的預判。例如,推動算法透明化與可解釋性,不僅是為了滿足公眾對技術的信任需求,更為了實現技術發展的社會接受度與合法性,這點在《建議稿》第35條規定中得到充分展現。通過此類制度設計,確保技術進步與倫理價值并行不悖,為AIGC的可持續發展奠定基礎。不過,《建議稿》雖為可信治理設定了原則與框架,但在實際操作層面還需根據技術發展與社會需求的動態變化進行適時調整和創新。對此,亟需以可信治理六大標準為治理基點,構建分層級的可信治理體系(見表1),并將該體系內容落實到數據風險治理架構、侵權風險防范與歸責體系、倫理治理制度中,以加快推進AIGC產業的可信發展。

4.1完善數據風險治理架構

數據偏見風險監管應重視數據收集與流動階段,還應關注如何實現數據供養的倫理良善,以促進算法倫理的向善發展。數據風險監管應由個人數據保護轉向數據使用者行為規范,通過完善數據風險治理架構,預防相關決策錯誤。實操層面,可基于《建議稿》第45、第78條規定,從跨國協同治理與內部精細治理兩大基礎架構展開,以遵循可靠性標準。

(1)跨國協同治理指建立一套高效的跨境數據審查機制。當前,我國在跨境數據監管層面面臨諸多挑戰:第一,全球數據治理規則的競爭日益激烈。數據作為當代世界的關鍵資源,正逐漸成為各國競逐的焦點。在此背景下,各主權國家紛紛出臺以自身利益為導向的數據治理法規,意圖在國際數據治理版圖中占據有利位置。然而,這種趨向于碎片化的國際規則體系,將對全球數據自由流動造成阻礙,增加跨境數據交流的不確定性和風險。第二,行業內部數據監管的薄弱環節不容忽視。數據驅動型經濟迅猛發展,數據安全漏洞頻現,直接威脅到企業乃至國家信息安全。數據泄露與濫用事件頻發,揭示了現有監管機制在適應數字經濟快速發展方面存在明顯滯后,亟待強化和完善。第三,跨境數據安全保護工作面臨前所未有的挑戰。數據跨境流動跨越不同國家的法律邊界,觸及多元化法律體系,加之各國監管技術與能力參差不齊,無疑加大了跨境數據安全的管控難度。如何在尊重各國主權的前提下,實現數據流動的安全可控,成為擺在國際社會面前的一道難題。鑒于此,加強國際對話與合作,共謀解決方案,顯得尤為重要:一方面,我國應主動融人國際數據治理大潮,與諸如亞太經濟合作組織(APEC)等國際平臺保持密切溝通與協作,推動全球范圍內對GDPR等高標準數據保護規范的認可度與執行度。通過多邊機制下的談判與協商,共同探索跨境數據流動的合理規則,消弭國際規則碎片化現象,構建公正、透明且高效的全球數據治理體系。另一方面,基于《全球數據安全倡議》框架,我國需進一步深化跨境數據流動的治理機制建設。應著眼數據本地化政策設計與實踐,確保關鍵數據與敏感信息安全,同時,強化隱私保護措施,構筑堅實防線,保障個人數據在跨境傳輸過程中的完整性和隱私權。此外,建立健全跨境綜合執法協調機制,提升數據監管領域的國際協作效能,共同抵御數據安全威脅,維護全球數字生態的健康穩定發展。

表1AIGC可信治理分層體系 Table1 Hierarchical system of AIGC trusted governance

(2)內部精細治理指構建數據使用的內部審查與行政審批機制。通過制定詳盡的規章制度與操作流程,確保數據在企業內部的流轉和應用遵循最高標準的倫理準則與安全規范。第一,強化企業數據倫理教育是實現內部精細治理的基石。在我國AIGC產業版圖中,騰訊、百度、阿里巴巴等是技術創新的引領者,提升這些企業在數據使用方面的合規意識與專業素養顯得尤為緊迫。企業應定期舉辦數據倫理培訓、研討會與實戰演練,全方位增強員工對數據倫理原則的理解與遵守,構建既懂技術又具備高度責任感與道德感的復合型人才隊伍。第二,針對AIGC模型訓練過程中的數據使用行為,建立健全數據審批與監控機制至關重要。這要求企業制定并執行嚴格的數據采集、清洗及使用流程,確保數據來源的合法性和可靠性。同時,對數據訓練階段進行全程監督,及時發現并糾正潛在的數據偏見與算法歧視現象,保障算法模型的公正性與客觀性[24]。此外,預設應急響應計劃,一旦遭遇數據安全危機或倫理爭議,能夠迅速啟動預案,采取有效措施,最大限度減少不良影響,維護企業和行業整體聲譽。第三,強化政府與企業間協同作用,共同推進數據倫理審查標準制定與落實。政府應發揮引導與監管職能,制定清晰的數據倫理框架,而企業應積極響應,將這一框架內化為企業文化和日常運營的一部分。雙方攜手共建數據倫理審查體系,覆蓋數據生命周期的各個環節,對不同類型的數據實行差異化審查,特別關注高敏感度與高風險級別的數據,確保其在AIGC生成過程中得到妥善處理,避免數據偏見轉化為算法輸出的“可靠性\"瑕疵,維護用戶權益,促進產業健康發展[25]

4.2優化侵權風險防范與歸責體系

根據侵權法原理,責任歸因要求明確的行為主體以及所產生后果與行為之間存在因果關系。然而,AIGC存在自主性和不可預測性,導致傳統的“主體—行為一責任\"模式難以適用,進而引發“責任鴻溝\"難題(張凌寒,2021)。應基于AIGC的技術特性,從主體義務、產品缺陷、侵權責任分配層面出發,落實“可問責性\"標準。

對主體義務而言,需基于《建議稿》第四章第一節相關規定,確定AIGC生態鏈中各參與方所面臨的侵權風險,并據此確立其風險防控職責。鑒于開發者對AIGC技術架構及其潛在隱患有著更為深刻的認知,其義務設定理應遵循“高標準”原則。這不僅意味著AIGC研發初期即需融入前瞻性安全防護機制,確保技術設計本身具備抵御外部威脅的能力,同時,要求開發者保持對產品安全性的動態維護,定期升級補丁以封堵新出現的漏洞,并公開透明地披露AIGC系統的功能界限與安全性能指標,以此增進用戶信任、提高行業透明度。對于服務提供者而言,其核心義務聚焦于是否切實履行對AIGC生成內容的有效管理和持續監控。這要求平臺運營商建立健全內容審核制度,運用技術手段識別與過濾不當信息,及時響應用戶反饋與社會關切,維護網絡空間健康秩序。而用戶作為AIGC技術的直接受益者,其義務集中體現在是否嚴格遵守使用協議及現行法律法規,秉持合理利用原則,避免不當行為對個人隱私、知識產權乃至公共利益造成損害。從理論視角看,上述差異化的義務配置策略是過錯責任與風險責任兩大原則的有機結合。過錯責任原則強調行為人須為其可預見的不當行為承擔責任,而風險責任原則側重考量行為人在特定技術環境下承載的風險負擔。在AIGC領域,這一結合旨在通過對各主體在技術鏈條中作用力的精確衡量,合理分配法律責任,確保技術革新與社會倫理價值之間的和諧共生,最終達成科技進步與社會責任的動態平衡[26]。

從產品缺陷看,《中華人民共和國產品質量法》為AIGC產品缺陷處理提供了基本框架,但仍需進行適當調整。《中華人民共和國產品質量法》第40條與第41條規定確立了產品缺陷責任的基本范式,即圍繞設計缺陷與制造缺陷展開,但在AIGC領域,這一傳統二分法面臨嚴峻挑戰。鑒于AIGC系統內嵌的自我進化能力,其設計與制造之間的邊界變得異常模糊,這要求對產品缺陷概念進行深度重構,以建立更加貼合實際的適用標準。第一,關于AIGC的設計缺陷,不應局限于算法初始結構的審視,而應擴展至算法學習過程與輸出結果的可控性。這意味著,設計缺陷的判斷需納入算法在學習周期內的表現,考察其能否在預設的合理范圍內預見并管控潛在風險。對于制造缺陷,考慮到AIGC從構想到實際部署的全生命周期,應全面評估每一環節的質量保障與安全防范措施,確保從理論到實踐的無縫對接。第二,鑒于AIGC行為模式的動態性,其反應機制與生成內容會隨訓練數據的累積而自我優化,因此,有必要引入“行為”缺陷這一新穎概念,以涵蓋AIGC商業應用后可能顯現的新興風險。基于此,在《建議稿》第42條規定的指引下,構建一套動態責任認定機制顯得尤為關鍵。這一機制的核心在于,適時調整AIGC責任歸屬的判定標準,涵蓋但不限于設計階段的風險預測能力、市場投放后的性能穩定性監測,以及用戶反饋驅動的產品迭代對整體品質的影響評估。同時,《建議稿》第61條規定提出的分級分類監管策略,為應對AIGC技術的快速迭代提供了靈活解決方案。根據不同AIGC產品的風險等級,量身定制差異化監管尺度,既能保證監管的有效性,又能避免過度干預扼殺創新活力。例如,引入獨立的第三方評估機構,定期對各類AIGC產品進行風險評估,風險等級越高,相應的審查標準越嚴格,從而確保監管舉措與技術發展步調保持一致。

在侵權責任分配方面,應遵循《建議稿》第85至91條規定,秉持個案具體分析的核心原則。這一原則強調,在處理侵權糾紛時,需細致剖析各參與方在特定事件中的實際作用與相對責任,尤其當用戶行為存在過失時,適度調整服務提供者的法律責任成為必要之舉。以AIGC生成并散布虛假信息的場景為例,侵權責任的歸咎需區分兩種情境,以實現公正與合理性。第一,當虛假信息系用戶主動引導AIGC生成并傳播時,AIGC可視為用戶行為的輔助工具。鑒于當前AIGC服務提供者并不具備傳統網絡平臺對內容審查的同等能力,若用戶行為明顯不當,且服務提供者能有效證明虛假信息的產生并非源于自身產品缺陷,那么侵權責任應首要由用戶承擔。反之,若服務提供者的產品存在瑕疵導致虛假信息生成,則服務提供者應與用戶共同承擔責任。第二,若用戶并無生成虛假信息的主觀意圖,而虛假信息系AIGC系統自主生成并傳播,那么AIGC在侵權過程中扮演主導角色。在服務提供者無法提出有效抗辯的情況下,應承擔相應侵權責任。鑒于AIGC產品本身的復雜性和不可控因素,借鑒避風港原則,合理限制服務提供者的責任邊界并明確其免責條件顯得尤為重要。這一做法旨在平衡服務提供者在推動AIGC技術進步中的積極作用與潛在的法律責任,避免因過分苛責而抑制創新動力。在責任分配實踐中,對于服務提供者是否應當承擔補充責任,需綜合評估侵權行為的范圍、損害后果的嚴重性以及服務提供者預防損失擴大的能力等因素,進而構建既能促進AIGC技術可信發展又能有效保護受害者權益的法律框架。通過精細化的責任界定與分配機制,引導AIGC產業健康有序成長,并在侵權糾紛中實現公平正義,為技術與社會和諧共生奠定堅實基礎。

4.3健全倫理治理制度

面對AI領域日益凸顯的倫理風險,學界與社會的廣泛關注推動一系列新興倫理學分支的萌芽與發展,其中,計算道德與機器人倫理學尤為引人注目。這些領域不僅探討了AI在倫理決策中的角色,還孕育出人工道德行為體這一新概念。不同于傳統的工具觀,這一概念認為AI系統不應僅被視為被動的執行工具,其是一種具備一定意識與情感特質的“有限行為體”,擁有類人的屬性,因而需承擔與其能力相匹配的道德責任[27]。盡管如此,AI與人類之間仍存在本質差異,其未展現生命體征,且在實踐層面上,AI更多地扮演輔助人類活動的角色。“以人為本”理念成為AIGC倫理風險治理的核心出發點,這意味著,無論技術如何演進,人類作為社會行動的核心主體,其利益與福祉應始終置于首位,確保技術發展不至于將人類異化為純粹的工具。所有AI應用都應致力于增強人類的主體性與尊嚴,而非削弱之。具體到操作層面,實現這一目標涉及兩個關鍵維度:一是構建專門的AIGC倫理治理機構,該機構旨在指導與監督相關領域倫理實踐,增強AIGC系統的可控性,確保其運作符合倫理準則;二是運用政策、法律和技術手段的多元協同優勢,確立并實施公平性、安全性與可解釋性等核心標準,引領AIGC向更加公正、安全和透明的方向發展。

4.3.1 建立AIGC倫理治理機構

(1)根據《建議稿》第3條規定,構建AIGC倫理治理機構的核心原則應聚焦于維護人類主體地位與福祉。首先,確保人類決策自主權不受侵蝕,即便AIGC能提供決策輔助,人類的最終決策權仍須牢牢把握。治理機構有責任制定規則,強化人類在AIGC使用中的主導地位,規避過度依賴導致的風險,確保個體判斷力與自主選擇權。其次,以增進人類福祉為導向,治理機構應嚴格審視AIGC應用場景,預防社會不公、隱私侵害及社會分裂等負面效應,開展全面倫理評估,及時識別并化解潛在倫理沖突。最后,實行嚴格倫理審查,所有AIGC應用上市前須經過倫理檢驗,確保其尊重人權,涵蓋內容安全、知識產權保護、數據安全等多方面內容,綜合審查技術可控性與社會、文化、心理方面的影響,確保技術進步與倫理價值并行不悖。

(2)依據《建議稿》第27、30、68條規定,AIGC倫理治理機構應由具備跨學科背景與豐富經驗的專業人士構成,他們需深刻理解AIGC技術原理、發展趨勢及法律、倫理、社會學等多領域知識。通過專業團隊的審查與監管,確保AIGC活動在倫理框架內有序開展。地方層面,我國已先行探索AI倫理治理機制,如上海成立科技倫理與科研誠信協調機構,設立覆蓋生命科學、醫學、AI領域的專家委員會,深圳依據《深圳經濟特區人工智能產業促進條例》設立AI倫理委員會,專司AI倫理監督指導。相關實踐積累了寶貴經驗,應加以推廣,確保地方政策與技術發展同步,有效應對倫理挑戰。

(3)遵循《建議稿》第42、64條規定,AIGC倫理治理機構應持續評估倫理風險,建立健全安全標準與規范體系,實現對AIGC全生命周期的監管。政府應采取預防措施,比如搭建AIGC評估監測平臺,確保技術安全可控。同時,依據《建議稿》第14條規定,規劃AIGC發展方向,促使其服務于社會公益。如在勞動權益保護方面,政府需提供職業轉型培訓、失業救濟與再就業支持,緩解AIGC引發的就業壓力。此外,構建多層次、多部門協同的倫理治理網絡,各級倫理委員會間形成聯動,政府與企業合作構建共治格局,共同推進AIGC倫理治理體系完善與成熟。

4.3.2發揮政策、法律和技術手段的多元協同優勢

(1)在《建議稿》第38條規定的指導下,保護數字弱勢群體的權益,警惕并消除可能滋生的歧視與偏見。將公正、平等、誠信原則融入AIGC設計與應用中,以倫理導向驅動技術創新。具體而言,可以實施“倫理傾向測試”,將倫理考量納入AIGC產品質量評價體系,確保技術進步的同時促進社會公平正義:一方面,在AIGC研發初期即植入正確的價值導向,注重技術的社會影響評估;另一方面,建立價值觀偏離修正機制,通過算法調整與倫理訓練,引導AIGC產出正向社會反饋,契合人類倫理標準與道德期待。

(2)依據《建議稿》第63、67條規定,構建多元主體參與的倫理風險監控與危機應對機制,增強AIGC生態的安全韌性。智能監測作為基石,涵蓋對數據源、算法架構、應用場景等全方位實時監控,及時預警潛在威脅。風險評估為核心環節,需綜合技術特性、社會環境、文化差異等維度,確保評估結果的全面性與客觀性,為策略制定提供堅實依據。在此基礎上,制定精細化應急措施,涵蓋技術優化與管理升級,從根源上抑制風險,保障AIGC穩定運行。例如,針對虛假信息傳播,通過算法迭代與人工復核相結合的方式加強內容真實性驗證;對于隱私泄露風險,利用加密算法與數據匿名化技術,構筑用戶隱私保護屏障。

(3)為破解AIGC決策“黑箱”,可根據《建議稿》第35條規定,建立算法解釋制度,確保決策過程的透明度與可理解性,降低算法歧視的可能性。第一,建立健全算法審查體系,算法構思階段即嵌入公平正義理念,通過明確的審查準則,篩查算法設計中可能存在的偏見與歧視,實現算法邏輯的全程追蹤與公正審視。第二,開發用戶友好的算法審計工具,便于非技術背景的監管者乃至普通民眾解讀算法邏輯,評估決策合理性與潛在社會影響,構建廣泛的社會監督網絡,促進技術民主化進程。第三,設置反饋與復審機制,確保受影響個體或群體有權質疑算法決策,申請復核。這既能為遭受不公對待者提供申訴途徑,也能促使算法設計者持續自我反思與優化,維護算法決策的公正。

5結語

“可信治理\"作為AIGC產業發展的核心訴求,其六大治理標準一一可控性、可問責性、公平性、可靠性、可解釋性和安全性,不僅是理論框架的基石,更是實踐操作的指南。通過深人剖析《建議稿》可知,法律與政策的前瞻性布局對于指導AIGC倫理風險治理至關重要。技術倫理風險治理不能孤立于技術進步之外,針對算法歧視加劇、責任追究困境、人類主體地位削弱等風險,必須兼顧技術、法律、倫理多個維度制定解決方案。對此,完善數據風險治理架構、優化侵權風險防范與歸責體系、健全倫理治理制度,是推動AIGC可信發展的必經之路。同時,面對AIGC倫理風險的全球性挑戰,本土化的治理策略需在國際交流和合作中不斷磨合與優化,持續審視技術發展與社會倫理的動態平衡,確保AIGC的創新潛能在尊重人權、促進公平與正義的前提下得以釋放。

未來應進一步結合市場發展情況與我國國情,以可信治理為核心,以《建議稿》為出發點,構建全方位的AIGC倫理風險治理體系。另外,還需在倫理治理領域進行持續探索,關注如何將技術倫理與法律治理有機結合,以制定具有中國特色的AI倫理治理方案,順應乃至引領全球新一輪數字經濟高質量發展。

參考文獻:

[1] 劉艷紅.生成式人工智能的三大安全風險及法律規制—以ChatGPT為例[J].東方法學,2023,16(4):29-43.

[2] 陳兵.生成式人工智能可信發展的法治基礎[J].上海政法學院學報(法治論叢),2023,38(4):13-27.

[3] 陳兵,董思琰.生成式人工智能的算法風險及治理基點[J]學習與實踐,2023,40(10):22-31.

[4] 陸小華,陸賽賽.論生成式人工智能侵權的責任主體——以集體主義為視角[J].南昌大學學報(人文社會科學版),2024,55(1):119-131.

[5] MARCHANDOTB,MATSUSHITAK,CARMONAA,etal.ChatGPT:the next frontierin academicwritingforcar-diologistsoraPandora'sboxofethicaldilemmasJ.Euro-pean Heart Journal Open,2023,3(2):oead007.

[6]RICH A S,GURECKIS T M. Lessons for artificial intelli-gence from the study of natural stupidity[J].Nature Ma-chineIntelligence,2019,1(4):174-180.

[7] GOODWIN M. Complicit bias and the supreme court[J].HarvardLawReview Forum,2022,52(2):107-119.

[8] 呂雪梅.美國預測警務中基于大數據的犯罪情報分析[J].情報雜志,2015,34(12):16-20.

[9]許中緣,鄭煌杰.ChatGPT類應用風險的治理誤區及其修正——從“重構式規制”到“階段性治理”[J].河南社會科學,2023,31(10):50-62.

[10]彭中禮.新興技術推動法理論變革的因素考量——以人工智能產品侵權責任分配理論為例的反思[J].甘肅社會科學,2022,44(4):115-128.

[11]付其運.人工智能非主體性前提下侵權責任承擔機制研究[J].法學雜志,2021,42(4):83-90.

[12]坤海,徐來.人工智能對侵權責任構成要件的挑戰及應對[J].重慶社會科學,2019,37(2):55-65.

[13]HYLAND T. Artificial Intelligence(AI) developmentsand their implications for humankind:a critical analysis ofcontemporary trends and perspectives[J]. Current Journalof Applied Science and Technology,2023,42(21) :12-26.

[14] STOKEL-WALKER C,VAN NOORDEN R. What Chat-GPT and generative AI mean for science[J]. Nature,2023,614(7947) :214-216.

[15]郭金彬,黃長平.哥德爾不完全性定理的科學推理意義[J].自然辯證法通訊,2010,32(2):15-20,126.

[16]賈麗艷.海德格爾的技術哲學:祛魅與返魅的存在論反思[J].社會科學研究,2024,46(2):153-159.

[17]陳志剛.馬克思的工具理性批判思想——兼與韋伯思想的比較[J].科學技術與辯證法,2001,38(6):38-41,67.

[18]余成峰.盧曼社會系統論視野下的法律功能[J].北京航空航天大學學報(社會科學版),2021,34(1):31-41.

[19]蘭立山.技術治理的倫理風險及其應對之策[J].道德與文明,2023,42(5):159-167.

[20]勞倫斯·萊斯格.代碼2.0:網絡空間中的法律[M].北京:清華大學出版社,2009.

[21]張慧敏,陳凡.從自主的技術到技術的政治—L·溫納(LangdonWinner)的技術哲學思想及啟示[J].自然辯證法研究,2004,20(8):61-64.

[22]雷·庫茲韋爾.靈魂機器的時代:當計算機超過人類智能時[M.上海:上海譯文出版社,2002.

[23]SHARMA A. The escalation of ChatGPT:how ChatGPTwill exert influence on the legal profession[J].Jus CorpusLaw Journal,2022,43(3):95-106.

[24]張春春,孫瑞英.如何走出AIGC的“科林格里奇困境”:全流程動態數據合規治理[J].圖書情報知識,2024,41(2):39-49,66.

[25]袁康,鄢浩宇.數據分類分級保護的邏輯厘定與制度構建——以重要數據識別和管控為中心[J].中國科技論壇,2022,38(7) : 167-177.

[26]盧彪,姚萍.技術時代的責任風險與防范[J].江蘇社會科學,2013,34(2):109-112.

[27]馮子軒.生成式人工智能應用的倫理立場與治理之道:以ChatGPT為例[J].華東政法大學學報,2024,27(1):61-71.(青任纻輯萬豎賢)

Ethical Risks and Trusted Governance Pathways of Generative Artificial Intelligence

Zheng Huangjie (School of Law,Central South University,Changsha 41oo83,China)

Abstract:Atthemoment when AItechnologyis fully penetrated intoallfields ofsociallife,theriseof AIGC(Artificial Intellgence Generated Content)represented by ChatGPT,Sora and ERNIE Bot marks the leapof AItechnologytoa new stageof development,and indicates theapproachof theeraof \"artificial general intellgence\".However,while AIGC greatlyamplifies human innovation potential,it alsopresentsconsiderablechalenges to the existing ethical governance system.Against this backdrop,thisarticle examines thecurrent state and future trends of AIGCin China,analyzing its ethical risksand generativelogic.Drawing from the ethical risk governance trends of AIGC globaly,the article proposes a governance framework thatis notonlyattuned to China’s nationalcontext butalsoforward-looking.This is aimed atproviding robust theoretical guidance and practical paths for the standardized development of AIGC.

This study commences with an analysis of the potential ethical risks asociated with AIGC,considering its technical atributes.Initially,itaddressestheriskofethicalvalueimbalance,primarilyevidentintheintensificationofalgorithmic discrimination.Folowing this,itexaminestheriskof ethicalnormsbeing beyondcontrol,whichis predominantlyshowcased nthechallengeofaccountability.Lastly,itexplores theriskofethicalrelationshipimbalance,whichischieflycharacterized byadiminutionof humanagency.Fromtheperspectiveof technological risk,therootcauseofAIGCethical risk lies in thecomplexityanduncertaintyof technology.Particularlyunder the black box phenomenon of algorithms,the behavior of AIGC becomes chalenging to anticipate and manage,therebyamplifying ethical risks.At the same time,the tension between technological rationalityand valuerationality,aswellas the limitationsof humanrisk perceptionandre sponse,further deepen the complexity of ethical risks.

Considering the trends in AIGC governance,this article advocates \"trusted governance\"as thecore strategy to miti gate AIGCethical risks.Itunderscores theimportanceof technologybeingcontrollble,accountable,fair,reliable,nterpretable,and secure,withthegoal of ensuring thattechnological advancementsare transparent,equitable,and contribute positivelyto society.Atthe same time,the Artificial Inteligence Law(scholars'proposal draft)also provides important governance basis and guides the legal path of AIGC trusted governance.

Under the principleof trusted governance,thisarticle proposes threecore strategies.First,itcals for theestablishmentof arobust data risk governanceframework.By integrating cross-border collborative governance and internal fine governance,it emphasizes adherence to‘reliabilitystandards.This includes enhancing regulations for cross-border data flows and promoting data ethicsand compliance within enterprises to ensuredata usageisreliable and secure.Second,it advocates foranoptimized liability atribution mechanism to addressAIGC infringement risks.This involves assessing subjectobligations,product defects,andinfringementliabilityinlightofAIGCstechnicalcharacteristics toenforcetheaccountabilitystandard.Third,itrecommends integratinga'peopleoriented approach intothe AIGCethical governance system.This aims tofindtechnological solutionsthataretailored toChina'scontext and capableof addresing itsunique challenges.In practice,itshallinvolve twoaspects:first,atthe organizational level,creatingadedicatedAIGCethical governance body tooversee ethical governance and supervision,thereby enhancing AIGCscontrollability;andsecond,atthe normative level,harnessing thecomplementaryadvantagesof policies,laws,and technologytouphold standardsof fairness,'safety, and interpretability, guiding AIGC towards positive development.

In the future,it is esential to further integrate marketdevelopment with China's national conditions,adopting‘trusted governance'as thecoreand the Proposal Draftas thefoundation toconstruct acomprehensive ethicalrisk governance system for AIGC.Moreover,thereisaneed for ongoing explorationin therealmof ethical governance,focusing on theorganic integrationof technological ethicswithlegal governance.This approach aims todeviseAI ethical governance strategies thatare distinctively Chinese,therebyequipping toadapttoand potentiallyspearhead the high-qualitydevelopmentof the new round of the global digital economy.

Key Words:Generative AI ;Ethical Risks;Trusted Governance;Artificial Intelligence Law

猜你喜歡
倫理人類算法
一種基于Richardson-Lucy的車載毫米波雷達MVDR改進算法
中國企業數字科技倫理自律自治機制研究
國內金融科技倫理研究熱點與趨勢分析
敘事倫理學視角下的兩難倫理修辭探析
用好算法,正視焦慮
用好算法,正視焦慮
基于多策略改進的金豺優化算法
現代社會的打開方式
人類能否一覺到未來?
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
主站蜘蛛池模板: 精品人妻无码中字系列| 国产美女主播一级成人毛片| 免费在线a视频| 国产精欧美一区二区三区| 99视频在线免费看| 男女性午夜福利网站| 久久永久精品免费视频| 九色在线观看视频| 国产高清又黄又嫩的免费视频网站| 欧美区国产区| 99久久精品免费观看国产| 亚洲国产成人精品无码区性色| 亚洲无码视频一区二区三区| 欧美日韩精品一区二区视频| 国产精品久久自在自线观看| 女人18毛片久久| 青青青伊人色综合久久| 91国内视频在线观看| 欧美www在线观看| 又爽又大又黄a级毛片在线视频| 国产va在线观看| 国产精品无码AV中文| 亚洲欧美不卡| 亚洲天堂自拍| 中文字幕乱码中文乱码51精品| 五月婷婷导航| 欲色天天综合网| 国产一级在线播放| 日韩福利在线视频| 暴力调教一区二区三区| 亚洲精品无码日韩国产不卡| 成人一区在线| 国产女同自拍视频| 亚洲第一福利视频导航| 狠狠干综合| 无码高潮喷水在线观看| 亚洲国内精品自在自线官| 国产中文一区二区苍井空| 亚洲乱伦视频| 久99久热只有精品国产15| 亚洲欧美色中文字幕| 精品久久高清| 婷婷开心中文字幕| 国产成人精品日本亚洲| 国产黑丝一区| 在线看国产精品| 在线另类稀缺国产呦| 欧美亚洲国产日韩电影在线| 久久精品国产精品一区二区| 免费va国产在线观看| 九月婷婷亚洲综合在线| WWW丫丫国产成人精品| 91国内视频在线观看| 欧美性色综合网| 国产在线拍偷自揄拍精品| 秋霞一区二区三区| av色爱 天堂网| 亚洲男人天堂久久| 成AV人片一区二区三区久久| 成人年鲁鲁在线观看视频| 日韩成人午夜| 中文字幕在线播放不卡| 丝袜亚洲综合| 成人夜夜嗨| 国产高清无码第一十页在线观看| 毛片大全免费观看| 欧美日韩导航| 嫩草国产在线| 国产精品久久久久久久久kt| jizz亚洲高清在线观看| 成人在线天堂| 88国产经典欧美一区二区三区| 国产精品区网红主播在线观看| 免费高清毛片| 久久黄色一级视频| 亚洲av无码人妻| 日韩无码视频专区| 色妞永久免费视频| 中文字幕av一区二区三区欲色| 欧美另类第一页| 五月激激激综合网色播免费| 午夜毛片免费看|