999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能倫理:體系構建與治理質量

2025-03-24 00:00:00張雷張家誠許弘楷
宏觀質量研究 2025年1期
關鍵詞:人工智能

摘"要:各國圍繞人工智能治理的問題展開了廣泛討論。其中,人工智能技術發展過程中產生的倫理問題不斷凸顯,已上升到國家社會經濟發展與戰略安全層面。為此構建人工智能倫理體系,提高人工智能倫理治理的針對性,并對治理質量進行評價,旨在為人工智能技術與社會融合的健康有序發展提供倫理指導。首先概述人工智能的發展歷程和深度應用,隨后分析人工智能技術進步帶來的倫理挑戰,在此基礎上構建人工智能倫理體系,并分析了倫理體系的運作過程與現存問題。其次在總結人工智能倫理治理的內容后,對人工智能倫理治理質量進行評價,形成人工智能倫理治理質量的評價指標與評價體系,驗證倫理治理的效果。最后,從智能產品設計、技術治理、差異化需求、跨學科與跨國合作等方面提出政策建議,以促進人工智能技術的可持續發展和倫理問題的有效解決。

關鍵詞:人工智能;倫理風險;倫理體系;質量評價

一、引言

人工智能作為社會進步和技術迭代的產物,正在不斷嵌入社會各領域,成為新時代科技創新和產業發展的核心驅動力,對世界經濟、社會結構和人民生活產生了深遠影響。人工智能發展以1956年“圖靈測試”為起點,此后的機器學習方法和深度學習方法不斷打破理論與實踐的邊界,使人工智能向社會縱深領域廣泛發展。如今,人工智能發展邁向更高階段,呈現“智能涌現”的表現形式(王飛躍和繆青海,2023),以大模型為代表的生成式人工智能已顯露出對行業和學術研究的顛覆式影響,在與相關產業融合的過程中為經濟社會高質量發展提供新動能。例如:在教育領域,生成式人工智能賦能跨學科創新思維培養的教學模式,為復合型人才培養提供新模式與新路徑(董艷和陳輝,2024);在金融領域,智能投資顧問結合智能技術與金融知識,利用強大算法為用戶提供個性化的資產管理投資計劃,穩健提升投資回報(Huang等,2024)。與此同時,技術進步是一把雙刃劍,人工智能技術演進的復雜性與不確定性正在挑戰現有社會制度與規則。隨著人工智能加速賦能各行各業,人工智能安全議題正從隱私與數據泄露、算法黑箱、算力匱乏、模型漏洞等系統性安全問題,擴展至人類主體模糊、人權保障缺失、偏見與歧視等非傳統性安全問題,使技術倫理治理的范疇和模式發生深刻變化(鄧悅等,2024)。可以預見,人工智能倫理將成為今后面臨的一個長期的結構性難題,解決人工智能技術迭代過程中產生的新興倫理問題變得更加緊迫且必要。

從社會角度來看,人工智能領域的倫理問題已成為國際重點議題,引起強烈反響與廣泛研究。2021年11月,聯合國發布《人工智能倫理問題建議書》,該建議書首次對人工智能倫理問題進行規范性考量,全盤考慮人工智能技術對經濟、政治、文化、環境等方面的影響,并強調使人工智能技術立足于人權和基本價值觀,加強全球合作與團結,確保各國人工智能發展均以倫理原則為指導,以可持續發展為共同愿景,推動形成各國政府、學術界、產業、公眾緊密交互的多利益相關方人工智能治理體系。我國在人工智能倫理治理方面走在國際前列,做出了積極貢獻。2021年9月,國家新一代人工智能治理專業委員會發布《新一代人工智能倫理規范》,旨在將倫理道德融入人工智能全生命周期,提出了增進人類福祉、促進公平公正、保護隱私安全等基本倫理要求,具有全面性、前瞻性、時代性。中國信通院于2023年發布的《人工智能倫理治理研究報告》探討了人工智能技術應用帶來的倫理挑戰,分析總結我國的倫理治理實踐,由此提出敏捷治理、主體合作、分類分級、提高標準、全面應對、國際合作等多方面的倫理治理展望。2024年1月,外交部發布《關于加強人工智能倫理治理的立場文件》,結合我國在科技倫理領域的政策實踐,參考國際社會相關有益成果,從技術監管、研發、使用、國際合作四個方面提出解決人工智能倫理問題的主張,推動國際人工智能倫理治理。可見,國際、國內從不同視角與立場,開展對人工智能倫理問題的分析,提出治理方案,積極回應人工智能倫理治理這一重大時代課題。

從學術角度來看,作為新興的跨學科領域,人工智能倫理治理需要綜合研判人工智能倫理發展中的關鍵問題,構建起人工智能倫理體系,并通過科學方法對倫理治理質量進行評價,最終目標是有效控制倫理風險的滋生與蔓延,回應技術開發者、應用者的道德質疑,為擴寬人工智能應用場景、解決社會經濟重大問題提供重要倫理指導,避免技術應用和產業發展對社會和個人產生負面影響。以我國為例,近年來我國以開放包容和韌性容錯的“技術善治”為導向(張夏恒和馬妍,2024),對人工智能技術風險的治理模式從集中式、回應式逐步轉向敏捷式(姜李丹和薛瀾,2022),劃定倫理底線,保持技術創新引導力度與倫理問題回應力度的協同,使人工智能研究和應用的風險處于可控范圍內。但需要意識到,人工智能發展與時俱進,技術迭代迅速,國際上人工智能使用條件各異,若要使技術創新、倫理治理與社會經濟發展之間達到平衡穩定的狀態,需要切實回應人工智能新興倫理問題。首先,展開人工智能新興倫理問題的識別,補充并更新倫理層面的基礎性理論研究;其次,構建以倫理原則為基礎、社會需求為導向的人工智能倫理體系,最大限度地發揮人工智能技術進步的優勢,為技術發展提供倫理指引;最后,在倫理治理方案施行后開展治理質量評價,有助于及時反饋倫理治理效果,進一步引導人工智能技術的有序、穩健發展。那么,人工智能倫理有哪些新興或潛在的問題?人工智能倫理體系框架從哪些方面構建?如何對倫理治理質量展開科學的、可落地的、可復制的評價?以上幾個問題亟待分析與回應。

行文安排上,文章首先分析了人工智能應用于社會不同場景下產生的倫理風險,新興、潛在、多樣的倫理風險催生人工智能倫理體系的構建,探析人工智能倫理體系的核心組成,以此為基礎詳述倫理體系的運作過程和具體應用問題。其次,文章從不同層面分析了運用人工智能倫理體系展開倫理治理的主要內容。最后,文章構建了一套人工智能倫理治理質量評價體系,對倫理治理效果進行科學評價。文章形成“體系-治理-質量評價”的內容,以期為人工智能與經濟社會的協同發展提供一定的經驗借鑒與啟示。

二、文獻綜述

(一)人工智能與人工智能倫理

1.人工智能的內涵

隨著研發與應用過程中的智能化程度不斷提高,人工智能的概念需要動態調整。起初,人工智能是機器重復人類思維的過程(Minsky,1961)。隨著技術發展,機器學習的概念被引入,機器自由地使用任何辦法來形成自發行為也可被歸類為人工智能。技術不斷迭代的過程中,Min(2010)認為人工智能是一種“思維機器”,具有自我開發與創造能力,通過不斷學習、模仿人類智能達成某種目的。賈開和蔣余浩(2017)、Li和Du(2017)認為人工智能建立在現代算法的基礎上,以歷史數據為支撐,進行感知、推理、學習、決策等思維活動,并達成自主決策。更進一步,新一代人工智能將技術推向新的革命高潮,使學術科研范式和社會生產生活發生新變革(Kung等,2023)。張鑫和王明輝(2019)將人工智能區別于計算機、自動化等技術,認為人工智能具有生物智能的自學習、自組織、自適應、自行動等特征,在多維度、多場景的任務處理過程中體現自我意識,溝通能力與科學創造力不斷加強;鄧悅等(2024)結合弱人工智能向強人工智能過渡階段的技術發展特征,認為人工智能可以將人類思維抽象化,在反復學習與反饋過程中模擬人類行為,形成更強的探索能力、辨認能力與思維能力,提升技術效率并創造社會價值。可見,學界對人工智能的內涵并未達成共識,但仍可總結出固定的核心理念:一方面,研究人員更多關注人工智能自主決策能力。根據技術演進趨勢下的智能化程度,人工智能處于弱人工智能向強人工智能的轉變過程,更為精進的人工智能技術已經能夠超出設計和編制的程序范圍,全面復現人類的絕大部分思維能力,并在某些方面超越人類。另一方面,人工智能與人存在明顯的從屬關系。人工智能無法完全脫離人類智慧,其核心功用是在學習和模仿人類思維與行為過程中代替人類完成單一或復雜的工作,盡管機器可以通過自身迭代以提升學習能力,但學習的內容、方法以及原則仍靠人為決定。

2.人工智能倫理的內涵

“倫理”一詞廣義上指道德,狹義上表示個人、家庭、社會關系等某一特定范圍內的道德原則,對倫理問題的研究通過明晰事件中的對錯、善惡、利弊等概念來解決各種復雜的人類道德問題。倫理研究的本質是一個領域不斷擴展、內容不斷完善的道德實踐過程(杜靜等,2019)。此前的倫理問題大多集中于人與自然、社會的關系,歸類于道德領域和政治領域,而科學技術日新月異,機器與人的生活更加密切,需要進一步審視人與智能機器,特別是與人工智能的倫理關系。

人工智能倫理研究是人工智能技術發展到一定程度的產物,指通過制定相關標準、行業制度、倫理框架、技術指南等方式,處理無法單純靠技術進步解決的社會、倫理和法律問題,促進人類與機器的和諧共處。人工智能倫理研究可劃分為社會實踐角度與學術應用角度。首先,從社會實踐角度來看,人工智能倫理問題可追溯到20世紀60年代,在計算機科學和信息技術發展的初期階段,計算機科學家們開始思考機器的道德與社會影響;自20世紀80年代起,人工智能應用的法律問題受到關注,到21世紀真正展開對人工智能應用的一般性法理問題的討論,例如人工智能應用的法律風險,人工智能法律身份確定、法律責任劃分等(余雅風和王朝夷,2023)。如今,為應對人工智能倫理潛在的新問題、新隱患,許多國家和組織機構制定技術倫理相關的治理框架與指南,開展更廣泛的國際合作,旨在幫助政府、企業和研究人員在技術研發與社會應用中遵循倫理規則。例如2021年發布的《網絡安全標準實踐指南——人工智能倫理安全風險防范指引》,是我國首個涉及一般性、基礎性人工智能倫理問題的指引文件,針對人工智能倫理挑戰提出了較具體的治理框架和行為規范意見(賈開和薛瀾,2021)。其次,從學術應用角度來看,以Wendell Wallach為首的人工智能和神經科學、倫理學領域的學者基于當前技術的現狀來論證提高機器倫理決策能力的必要性。Wallach(2017)認為機器智能的道德發展將經歷操作性道德、功能性道德和充分的道德主體性三個階段,基于當前的技術現狀,機器自身已經有能力響應道德挑戰,因此要對機器智能的功能性道德展開監管,實現效益最大化和風險最小化。這一理論為化解人工智能倫理挑戰提供了有效的技術方案與應用途徑。例如,監管生成式人工智能可從內部規訓和外部規約兩大維度,對其道德判斷、數據泄露、知識產權之爭等問題展開邏輯考量并提供應對之策(令小雄等,2023)。

(二)人工智能倫理體系構建的相關研究

對人工智能進行倫理規約在新一代技術革命的背景下不僅重要而且必要(于雪和段偉文,2023)。目前研究中,技術倫理體系構建有兩種路徑:第一,產業界在設計與試驗過程中使新興技術符合現有倫理規范;第二,以“科技向善”為目標,通過制定新的倫理規范來確定技術發展的倫理邊界。

1.具體領域倫理規范制定

業界通過對人工智能社會倫理的判定原則及生成邏輯的論證,使人工智能符合現有倫理規范,并提出倫理治理的相關建議。瞿晶晶等(2022)綜合醫學、心理學、社會科學等領域,深入分析已成文的科技倫理條例,提煉出涉及主體參與、運行反饋和程序公正等層面的人工智能倫理運行機制,助力人工智能穩健發展。于雪和李倫(2022)關注社會實驗領域,以尊重自主、不傷害、有利、公平等基本原則為依據,建構人工智能社會實驗倫理體系,防控人工智能潛在的社會倫理風險。隨著人工智能與社會各領域的廣泛結合,既有的倫理原則難以應對人工智能發展的復雜性、動態性、開放性態勢,現有的倫理規范可能無法完全回應人工智能技術應用社會各領域帶來的潛在風險與新興風險。

2.國內國際通用規范制定

另一方面,國際組織、政府和研究人員不斷更新倫理規范。其一,在準則制定方面,我國相繼出臺《新一代人工智能倫理規范》《全球人工智能治理倡議》,提出基本倫理準則、具體倫理要求和問責機制,及時回應國內和國際相關倫理關切。肖紅軍等(2023)借鑒英國數字科技倫理監管的政策布局與實踐模式,確立跨部門協作、以人為本、條目清晰的倫理治理原則和全國性標準。Jobin(2019)創建道德人工智能語料庫,推動透明度、正義和公平、非惡意、責任和隱私等五項道德原則的全球趨同,為“合乎道德的人工智能”提供技術標準并形成實踐。Larsson(2020)依據歐盟出臺的《可信人工智能倫理指南》以及《人工智能白皮書》,總結出人類能動性與監管、技術穩健與安全、隱私和數據管理、多樣化、非歧視和公平等七項原則,在人工智能開發和使用中將道德準則作為關鍵性治理工具。其二,在主體合作上,譚九生和楊建武(2019)認為人工智能的發展和應用涉及多元利益主體,實現協同治理是規制人工智能技術倫理問題的現實選擇。據此,應賦予地方政府和企業更多的自主權,建立包容性和多元化的倫理監管框架(肖紅軍等,2023),通過協商合作重構治理主體間的關系,以超越傳統的技術倫理風險治理模式(張鋌,2022)。

上述研究建立并優化人工智能倫理規范,推動人工智能技術服務人類。但停留在規范層面難以體現人工智能倫理問題的復雜性。在當前強調協同治理的趨勢下,鮮有文獻構建完整且有效的人工智能倫理體系,以此提升人工智能倫理治理效能,促進人工智能倫理風險的整體性治理。構建通用且全面的的人工智能倫理體系,可將人工智能技術置于倫理層面予以詮釋,從倫理使命、倫理準則、倫理實施細則等方面辨析倫理風險生成的原因,及時回應社會公眾對技術安全性、道德性、穩定性的價值訴求。

(三)人工智能倫理治理質量評價的相關研究

學界依據人工智能倫理體系,探討倫理治理的痛點和難點,力圖構建起通用的人工智能倫理生態質量評價方法,并形成可落地、可復制的實踐經驗。一方面,許多學者圍繞人工智能某一特定應用領域,制定較為細化的風險評估方法。例如,在社會治理層面,Rahwan(2018)綜合考慮技術主體與社會主體,提出一種社會循環治理框架,從整體上評估并劃分各社會主體的治理責任;Chauhan和Gullapalli(2021)從人工智能設計、開發、部署和運營等環節入手,展開風險評估,提高相關風險判識與治理的精度與效率。在算法治理層面,賈開(2019)、張欣(2023)總結出動態性的技術治理綜合策略,以透明度、責任、公平、可靠、可信等理念為基礎,協調各個環節的治理過程。此外,政府規制(黃新華和溫永林,2024)、企業生態構建(姜李丹等,2022)等不同領域的評估策略均滿足不斷變化的風險監管要求。另一方面,針對具體的倫理問題展開分析在當今社會越來越受到關注。在制度設計層面,Floridi等(2021)提出“人工智能造福社會”(AI4SG)的概念,通過確定AI4SG計劃必不可少的若干道德因素來保障技術的安全性與可靠性,確保精心設計的人工智能服務于社會各群體;在評價方法制定層面,李夢薇等(2023)設計了一套通用的人工智能倫理風險評價方法,并聚焦服務機器人領域進行實踐,解決不同倫理風險的判斷與治理問題;在學科發展領域,劉景江等(2023)、李家寧等(2023)認為機器學習促進學科范式變革與研究質量提升,能夠克服諸如算法歧視等系統性風險帶來的公平性與倫理性問題,增強理論研究的普適性。

上述研究已在既定領域為人工智能倫理問題的評估與解決做出貢獻,但隨著人工智能應用場景日益復雜化與多元化,對全領域進行倫理評價的研究較為缺失。本研究將面向人工智能倫理體系,對人工智能倫理質量展開評價,針對目前人工智能倫理體系動態適應性不強,運行穩定性不足等問題,堅持“以人為本,智能向善”的準則,把握倫理生態質量,加強相應管理,通過衡量人工智能倫理體系運行的狀態與效果,能夠及時介入并反饋,保障倫理質量并提供處置方案。

三、構建人工智能倫理體系

構建完整且有效的人工智能倫理體系是人工智能倫理從基礎理論問題研究轉向應用實踐的重要突破,是保障技術應用安全、可靠、可持續,并解決社會重大問題的重要手段,需要在判識倫理風險的基礎上,明晰人工智能倫理體系應遵循的基本準則、擬解決的關鍵問題與核心組成部分。

(一)人工智能倫理風險的表現形式

根據技術演進趨勢下的智能化程度,人工智能經歷弱人工智能、強人工智能和超級人工智能三個階段。弱人工智能利用現有統計數據進行深度學習(王奕俊和楊悠然,2020),僅在編程范圍下實現判斷和決策,無法自主探索新技術、開創新方法、發展新知識;強人工智能在深度學習的精進過程中可全面復現人類絕大部分的思維能力,并在某些方面超越人類(王彥雨,2020);而超級人工智能的創造力和創新力沒有邊界,理論轉化為生產力的過程不受思維與環境約束(SZOCIK 等,2020)。當前,人工智能對海量、高維數據的模仿與學習,處于弱人工智能向強人工智能的過渡階段,人工智能仍然是有思維界限的智能體,自主能力與創新能力尚未脫離人的操控。人工智能系統的設計、開發、部署和使用過程中出現的倫理風險可能表現為人類主體邊界模糊、人類自主決策受制、隱私侵犯、算法歧視與偏見、責任歸屬不當、法律規制缺位等方面。若脫離人的立場,人工智能技術帶來的潛在風險會轉化為現實的倫理困境。

1.“人”的概念與“機器”的概念邊界逐漸模糊

以生物技術、智能技術等的綜合發展為基礎,人與智能機器的進化“相向而行”(孫偉平,2020)。一方面,人類依靠智能系統使身體的功能與人工智能共生或一體化發展,在生理與心理上獲得更具有突破性的體驗。另一方面,現代科技的多維度發展使人工智能不斷趨近于人,獲得像人一樣的思維能力,形成人所獨有的行為特征。隨著智能的增長,人工智能可能要求平等的公民身份和“人權”。由此,人與機器之間的傳統界限被模糊,對人的本質提出了新的倫理挑戰。

2.人類自主決策權受到制約

隨著技術的不斷完善,人工智能改變社會的能力逐漸增強,在不同場景下被賦予更多決策自主權。自主化決策可能使人類脫離道德決策循環風險,進而對人類的道德自主構成威脅。以無人駕駛為例,第一,人類沒有足夠的能力將完整的倫理問題以量化方式融合進智能系統(王軍,2018),使無人駕駛在自主做出倫理決策時存在遠離真實倫理綱常的風險;第二,人類可能形成對輔助駕駛的依賴,逐步喪失某些依靠經驗積累與判斷而形成的駕駛能力,最終受制于機器算法;第三,實現無人駕駛“道德算法”的全面統一需要為智能系統創造出更加寬松的標準,而寬松的環境會帶來道德決策之外難以預見的社會性風險。

3.公民隱私安全受到威脅

作為新興生產要素,數據的濫用與侵權逐漸產生了新的系列倫理問題。首先,在大數據模型深刻挖掘數據的動態價值過程中,一旦泄露公民的基本信息與部分敏感數據,將威脅人身和財產安全。其次,數據的收集與使用過程中包含大量的數據流動與數據交易,用戶對自身數據的控制與管理逐步減弱,隱私泄露逐步加劇為惡意攻擊、信息騷擾等安全隱患。再次,數據跨境暴露可能演變為嚴重的國家安全風險,國家網信辦曾對滴滴等海外上市企業啟動數據安全監管,對侵犯用戶、消費者和社會公眾等利益相關者的數據權利的行為加強關注與處罰。最后,算法需要大量的數據內容訓練,具有市場利益價值的重要訓練數據被頭部企業把控,滋生數據壟斷與數據資源浪費、個人信息被實時監控和不法利用的風險。

4.算法機制下的偏見與歧視問題加劇

算法可能推動人類社會各種偏見與歧視的加深。一方面,算法包含技術人員自身的專業知識、道德判斷和價值觀念,在技術應用的過程中可能會因大數據中存在的敏感屬性,重復已有的社會歧視行為,如性別歧視、種族歧視、政治傾向、宗教信仰偏見等,對客體賦予“算法身份”,造成不公正的加深(Lepri等,2018)。另一方面,算法全方面展開公民生活領域的決策與管理,定制化推送迎合了個體的個性化需求,但精準推薦造成的信息繭房損害了主體通過信息多樣性進行自主決策的權利,遮蔽主體意識(Mittelstad 等,2016)。當主體對算法形成路徑依賴后,差別定價、壟斷行為等利用信息不對稱的合謀行為嚴重損害了消費者合法權益和公平競爭的市場秩序,商品價值透明性被忽視,消費者自主權被侵犯。

5.責任歸屬、認定與劃分困難

雖然“不傷害人類”已成為人工智能技術應用中意向公認的基本準則,但由于開發者的安全控制能力欠缺和使用者的操作失當而導致的意外侵害事件層出不窮,非安全行為由誰承擔后果成為重要法律難題。一方面,在責任認定上,由于立法與認知的雙重缺位,尚不明晰各類場景下人工智能的民事權利能力,無法探尋其在侵害過程中是否具有過錯。另一方面,追責至人工智能所有者、技術人員與生產廠商,具體責任如何劃分沒有明確的法律規定。廠商承擔主要責任是傳統共識,但如果責任比例歸咎失當,人工智能進一步研發的積極性受到挫傷,推動各利益相關方在法律框架下對責任劃分問題進行協商仍任重道遠。

6.人工智能創作內容缺乏具體法律規制

現階段,人工智能并不具備法律主體資格,但技術成果受益者與內容創造者的不一致不斷引發知識產權糾紛。新一代人工智能在會話過程中能以互聯網中幾乎所有公開的內容為數據基礎進行回應,同時根據用戶指示生成個性化新內容,在形式上更加接近人類的創作成果(令小雄等,2023),面對人工智能海量的創作內容和趨近人類的表述形式,加強對原作者的智力成果保護在法理層面是一大挑戰。同時,人工智能生成內容過程的過度借鑒可能引起侵權糾紛,而提供人工智能創作的企業與技術人員對海量數據的保護不當也會導致對內容作者和使用者隱私權的侵犯。

(二)人工智能倫理體系的總體框架與運作機制

1.人工智能倫理體系的核心組成部分

本文嘗試搭建人工智能倫理體系的總體框架,確保人工智能的發展和應用符合倫理標準,確保人工智能的發展和應用既能促進社會進步,又能保護個人和社會的福祉。總體框架包括以下三個核心組成部分:

第一,倫理原則。基本的倫理原則以尊重人權,保護個人隱私、尊嚴和自由為基本指導,包括:(1)確保人工智能系統不歧視任何群體,提供平等的機會。(2)人工智能系統的決策過程透明、可解釋,明確人工智能系統的責任歸屬,確保可追溯性。(3)確保人工智能系統的穩定性和可靠性,防止意外傷害,保證使用安全。(4)促進人工智能的可持續發展,考慮環境影響的可持續性。

第二,倫理規范。各項倫理規范是人工智能實踐中應遵守的具體行為準則,包括但不限于:(1)如何收集、處理和存儲個人數據。(2)如何確保訓練數據的多樣性和代表性,避免算法偏見。(3)在涉及一系列個人信息特別是敏感信息時,如何獲取用戶的知情同意。(4)如何在必要情況下使技術對個人的損害最小化。

第三,治理結構。倫理治理結構需要倫理委員會、監管部門等機構的聯動,評估人工智能應用的倫理合規性,監督人工智能應用全過程依法合規。治理部門通常具有以下職能:(1)監督人工智能項目是否符合倫理規范。(2)對人工智能系統進行倫理審查,評估潛在風險。(3)為政策制定者、企業和公眾提供倫理咨詢。(4)對相關人員的倫理意識和工作能力進行培訓考察。

2.人工智能倫理體系的具體運作過程

依據人工智能倫理體系的核心組成部分,具體運作過程可以從兩個方面入手:社會應用與倫理指導。倫理指導與社會應用之間存在密切的內在聯系,一方面,倫理規范提供了一種價值導向,使社會應用過程得到合理表達和滿足;另一方面,人工智能技術的變化也不斷塑造和調整倫理指導的內容,使之更貼近時代發展的需求。

第一層級:社會需求與倫理使命。社會需求是推動人工智能發展的根本動力,而倫理使命是人工智能倫理體系構建的基礎,確保人工智能技術的發展與應用符合社會的整體利益和長遠目標。具體來說,人工智能的研究與應用始于社會演進過程中對先進技術的需求,推動社會生產力與社會科學研究范式的不斷變革,但人工智能的高速發展催生了更復雜的技術倫理困境。倫理使命具有高度概括性和普適性,囊括了其他倫理準則的內涵,用于指導人工智能的研究應用和倫理準則的制定、改進和完善。技術的變革無法動搖基本倫理使命的根基,這種在技術發展中形成的以人為本的價值觀具有最根本的指導意義。聯合國教科文組織提出人工智能的發展應遵循人類優先的原則,技術的進步與應用必須與社會價值觀相協調,促進可持續發展目標的實現。因此,在社會需求和倫理使命的運作過程中,具有指導意義的倫理使命一方面應確保技術進步服務于人類生存與社會發展的長遠利益,不斷適應技術發展帶來的新挑戰和新問題,使人工智能技術的發展符合人類的基本價值觀,保護個體的安全、尊嚴和利益,另一方面還要能夠保障社會的公平與正義,避免加劇社會不平等,確保技術帶來的利益能夠惠及更廣泛的社會群體。

第二層級:創新研究與倫理準則。社會需求推動創新研究,形成推動社會生產力的階段性技術應用成果和綜合性倫理指導準則。包含福祉、安全、和平、法治等內容的倫理準則是倫理使命在技術研究領域的具體體現,不僅有力保障了人工智能安全可靠可控發展,而且為研究人員和政策制定者提供了道德指南和行為指導。具體來說,創新研究在社會不同領域具有不同特點,需要結合產業發展特征形成成熟的、可落地、可實踐的研究成果。不同領域的創新研究過程中,為避免技術成果與人類價值觀的偏離,需要達成共識性的價值原則,這些倫理準則是倫理使命在不同創新研究實踐的具體體現,任何倫理實施細則的制定都不能脫離以人為本的社會價值觀。在創新研究與倫理準則的運作過程中,倫理準則通過四個步驟嵌入技術創新研究:第一,倫理準則的制定原則體現事前預防的作用。倫理準則的制定需要跨學科的合作,對人工智能技術的社會創新實踐進行多維度評估,包括社會、經濟、文化、生態、人類價值觀等方面,由此形成全面的倫理準則,在技術開發的早期階段對潛在的倫理風險進行識別和預防。第二,倫理準則的實施體現協同發展的內涵。倫理準則的核心作用是提供明確的倫理行為指南,幫助技術研究者識別和解決研究過程中的潛在倫理問題。但指導研究行為并非限制創新自由,倫理準則應當體現平衡創新研究自由和擔負倫理責任的重要性,在鼓勵創新的基礎上避免人工智能研究活動對人類和社會造成不可逆的傷害。第三,倫理準則的監督機制提供事后保障。倫理準則的實施需要有效的監督機制,監督機制的設計應細化到對研究活動的定期審查,鼓勵研究人員反饋技術倫理問題,對違反倫理準則行為的制裁等,確保倫理準則的實施達成研究過程普遍性與研究領域針對性的統一。第四,倫理準則的內涵應進行及時地動態調整。倫理準則需要隨著人類價值觀和技術發展階段而不斷更新,研究人員、政策制定者和社會公眾之間應保持交流,避免技術“黑箱”,確保倫理準則能夠反映社會的倫理關切。

第三層級:場景應用與倫理細則。創新研究的階段性成果轉化為社會各場景的實際應用,在實際應用過程中又會產生新的發展方向并形成新的社會需求。在這一技術創新閉環中,強制的倫理實施細則為不同應用場景構建起針對性強、可公開、可調整的監督治理規定,每一個應用場景都需要產生一套對應的倫理細則加以約束和治理,不同的應用場景應實施不同的細則,確保技術的應用既符合倫理要求,又能夠滿足社會需求。雖然場景應用各異,但具體的倫理細則具有共同的運作特性。首先,應用場景的多樣性決定了倫理細則的定制性。人工智能技術賦能醫療、金融、教育、交通等各個領域,倫理細則需根據具體應用場景的特殊需求進行定制,確保倫理規范適用并有效實施。其次,倫理細則需要可落地、可復制。基于不同場景的倫理治理規定包含企業標準、產品認證、技術標準、行業規范、法律法規等具體實踐要求,具體且明確的實施細則能夠為技術開發者、應用者以及監督機構提供清晰的指導,并進行推廣與復制。再次,提高倫理細則監管與執行的透明度。公眾參與在技術倫理監管中具有重大意義,倫理監督機構鼓勵公眾廣泛參與到技術應用的定期審查、技術違規行為的識別和懲罰、對監管機構職能本身的評估和改進當中,增強公眾對人工智能技術的了解與信任。最后,倫理細則依據應用場景的擴展而不斷更新。目前,人工智能技術與社會的深度融合,不斷創造出智能農業、智能制造、智慧城市等多領域、多類型的新興應用場景,技術發展要求倫理規范保持動態性,以適應社會需求的新變化。

(三)構建人工智能倫理體系亟待解決的問題

人工智能倫理體系的運作涉及多個層面,不同層面的問題需要得到妥善處理以確保倫理體系的有效性。本文從以下四個方面的實際問題進行展開討論。

1.人工智能倫理體系的場景落地

場景落地問題是指將人工智能倫理體系應用于具體場景時存在排斥或制約的現象和所面臨的問題,解決場景落地問題可以使人工智能倫理體系更好地服務于技術創新與社會可持續發展。普適性的倫理準則需要在應用于具體實際場景時不僅僅局限于宏觀的指導與口號的層面,更要細化為可操作的具體監管規定。人工智能發展已經與社會各領域深度融合,但同時帶來了諸多新興風險。例如,上述人工智能風險提及人類自主決策權受到制約,無人駕駛在緊急情況下的決策涉及發生事故時如何平衡不同生命權益的問題;在智慧醫療領域,輔助診斷和疾病預測帶來了缺乏人類監督、隱私泄露和數據保護風險,醫療決策的人類監督缺失。宏觀性的倫理指導意義為不同領域的技術創新提供了基本引導,而對于不同應用場景制定針對性的監管措施,能夠實現倫理準則的具體化、可操作化和可復制化。

2.人工智能倫理體系的運作機制

運作機制是人工智能倫理體系的重要組成部分,可以控制并規避人工智能在應用過程中對社會產生的負面影響。任何倫理準則都無法自我執行,需要借助于一系列相互配合的運作機制才能得到落實。倫理準則、倫理審查、倫理教育、倫理監督和倫理問責相互配合,以確保技術應用符合道德規范,并對違法行為進行懲戒和追究。在具體實踐中,人工智能倫理體系的運作配合度不高。例如:關于算法機制下的偏見與歧視加劇的問題,人工智能倫理體系的設計風險強調了設計者個人價值觀對人工智能運作底層邏輯的影響;關于公民隱私安全受到威脅的問題,數據安全風險加深了公眾對人工智能廣泛應用的擔憂;關于“算法黑箱”問題,人工智能決策過程不透明影響了公民的知情權及監督權,造成傳統監管的失效。這些人工智能新興風險點為構建倫理審查和監督機制提供了具體的風險評估指標。因此,在以人為本的倫理使命下,不僅要確立人工智能倫理基本準則,更要從細則層面制定人工智能設計者、開發者及使用者的具體倫理規范與行為守則,形成具有可操作性的規范和建議,從源頭到下游進行規范與引導。

3.人工智能倫理風險的預測判別

目前,人工智能倫理風險的預測判別問題已經成為熱點問題之一,在教育、就業等領域均有深入研究。對于人工智能技術中已存在的倫理問題,治理過程中存在危害性被低估、監管缺失等隱患;對于治理緊迫性較弱的某些倫理風險,同樣存在低估危害的問題,從弱人工智能向強人工智能過渡的過程中,人工智能有能力自主實現多任務感知、行動與決策,相關倫理問題的預測與判別需要先行;而對于某些技術與倫理潛在風險,通過現有知識水平進行預測判別較困難,需要在實踐中展開多學科合作并及時調整預期結果。預測和判別人工智能倫理風險可以幫助研究人員采取相應措施進行風險管理和控制。具體來說,首先,國際組織、政府或企業需要建立一套普適性的倫理風險評估指標,識別社會不同領域可能涉及的實際倫理風險,但倫理標準的模糊性和多樣性使得指標體系達成共識變得復雜。其次,在人工智能倫理管理具體流程中,需要類比民航、高鐵、景區安檢“禁帶物品清單”的規定,事先設立某種“違禁物清單”,嚴格遵守該準入清單并適時調整,使倫理風險監管更具針對性。最后,人工智能技術迭代十分迅速,且倫理準則也無法一一對應具體的“違禁物”,需要在技術倫理事件的定期回顧與分析過程中,建立某種常態化機制,預測、判別數據智能技術有何種風險、風險等級如何、是否應列入“違禁物清單”等。

4.重大社會問題綜合創新的動力機制

人工智能重大社會問題綜合創新的動力機制需要政府、企業、學術界等利益相關方的共同參與,通過加強技術研發創新來提高效能和效率,為解決當前社會面臨的倫理挑戰提供支持。在如今的討論中,防范風險的一面得到了普遍重視,但倫理問題具有雙重含義,既包括“防止做錯”,也注重“如何做好”。推動社會進步和經濟發展的倫理討論應展開廣泛討論,通過人工智能技術的倫理性創新補充短板,形成一種新型的綜合動力機制。重大社會問題的綜合創新需要自上而下展開。一方面,建立人工智能倫理的敏捷治理機制,對于新興風險進行快速響應,創新研發主體與產業主體、政府部門主動溝通,在動態調整過程中增強技術倫理治理的有效性,使技術創新與倫理治理相協調。另一方面,動力機制的創新離不開多主體參與。人工智能技術倫理問題需要多學科交流配合展開治理實踐,形成技術發展、倫理研究、法律規制、產業實踐等一系列專業化發展路徑,倫理指導層面也需要創新主體、政府監管主體、公眾等各利益相關方展開合作,形成各主體倫理管理責任,定期針對新業態、新應用評估倫理風險,促進人工智能倫理規范的與時俱進。

四、人工智能倫理治理與質量評價

西方國家對于人工智能倫理治理規范和治理評價的研究起步較早,側重在倫理基礎原則路徑下進行技術規制,進而確保其可控性與可信性。我國在治理過程中堅持“以人為本,智能向善”的準則,在明確倫理治理內容后,構建全過程治理評價流程。根據已有過程,人工智能系統開發者的初步倫理自評是評估的第一步,完成后再通過獨立第三方機構對技術系統進行倫理評估;第二步,組織專家委員會對評估結果進行評審;第三步,相關人員將評估結果向社會公示,并定期把對人工智能系統進行的倫理審查和監督結果進行公示,接受公眾反饋。此外,定期對相關人員進行倫理培訓、更新評價體系、參與國際標準的倫理規范的制定等也包含在內容評價流程中,加強相應管理。

(一)人工智能倫理治理內容

對應上述人工智能倫理體系,人工智能倫理治理內容應涵蓋社會需求層面、創新研究層面和場景應用層面。

1.社會需求層面

人工智能倫理治理的社會需求層面是一個多維度的綜合體,它要求社會各界共同努力,以確保技術在促進社會發展的同時,能夠維護人類的基本權益和社會的倫理道德標準,實現科技與人文的和諧共生。第一,倫理治理需滿足公眾對隱私保護的高要求。隨著智能系統在數據收集和處理方面的應用更加廣泛,公眾對個人隱私保護的需求日益增強。智能系統的隱私安全性直接關系到公眾對系統的信任度,需要確保系統在各社會應用場景中不會損害公眾利益,推動由此穩步推動經濟的增長,提高生產效率。第二,社會公平與正義也是倫理治理的重要方面,要求人工智能技術避免加劇社會不平等。第三,倫理治理需考慮技術進步對傳統行業的沖擊,促進新就業機會的創造和勞動市場的適應性轉型。在此過程中,人工智能的應用可能導致某些行業工作崗位減少和工作極化(鄧悅、蔣婉儀,2022),社會需要通過倫理治理的內容來引導就業轉型和勞動力的培訓。第四,社會責任與可持續發展要求人工智能研發過程關注其對環境和社會的長遠影響,確保技術進步不會以犧牲生態環境為代價。第五,法律層面,倫理治理內容需要制定和更新法律法規,以適應技術的快速發展,確保應用不違反現行法律,并在倫理上站得住腳。第六,教育與意識提升是倫理治理不可或缺的一部分,通過教育普及倫理知識,提高公眾對人工智能倫理問題的認識,培養專業人才,以應對其所帶來的挑戰。

2.創新研究層面

人工智能倫理治理的創新研究層面是一個跨學科、多維度的研究領域,旨在探索和開發新的理論框架、方法和技術,以應對人工智能發展帶來的倫理挑戰。第一,理論研究層面的創新要求深入探討人工智能倫理的基本原則和價值觀,如公平、透明、可解釋性和責任,以及如何在不同的文化和社會背景下應用這些原則。例如,研究人員需要對傳統倫理理論進行現代化解讀,構建起適用于人工智能時代的新倫理理論。第二,技術創新層面的研究聚焦于開發新的算法和技術,以減少人工智能系統的偏見和歧視,提高其透明度和可解釋性。這涉及到機器學習、數據科學、認知科學和人機交互等多個領域的交叉融合,以及如何利用這些技術實現更符合倫理標準的人工智能系統。第三,實驗研究層面的創新通過構建模擬環境和實驗室測試,來評估人工智能系統的倫理影響,以及人們在面對人工智能決策時的行為反應,從而為實際應用提供實證依據。第四,制度創新層面的研究旨在設計有效的人工智能倫理治理結構和政策,包括制定倫理準則、監管框架和審計機制,以及如何在全球化背景下實現跨國界的倫理治理合作。第五,在跨學科研究和人才培養層面,一方面,創新研究要求將哲學、社會學、心理學、法學和工程學等領域的知識結合,以形成對人工智能倫理問題的全面理解,并開發出綜合性的解決方案。另一方面,人工智能倫理教育需要融入現有的教育體系,培養具有倫理意識的專業人才,以及通過公眾教育和參與式研究,提高社會對人工智能倫理問題的認識。

3.場景應用層面

人工智能倫理治理的場景應用層面關注如何在具體的行業和領域中將倫理原則和治理框架實際應用到人工智能技術的開發、部署和使用過程中,通過跨學科合作和政策制定,確保人工智能技術的應用既能促進社會和經濟發展,又能保護個人和社會的福祉,實現科技與倫理的和諧統一。依據國內、國際現有實踐,各場景的人工智能倫理治理實踐包括如下幾個方面:第一,在醫療健康領域,既要確保人工智能診斷系統的準確性、透明度和公平性,保護患者的隱私和數據安全,也要關注在臨床決策支持系統中,確保人工智能的建議不會取代醫生的專業判斷,而是作為輔助工具提高診療效率和質量。第二,在交通領域,人工智能倫理治理涉及自動駕駛汽車的道德決策問題,包括如何在緊急情況下做出最優決策,如何提高道路使用效率并降低環境影響等。第三,在司法領域,人工智能倫理治理關注如何使用算法進行風險評估、預測性執法和法庭決策支持,確保這些應用不會加劇現有的司法不公,保持司法過程的透明度和可解釋性。第四,在金融領域,人工智能倫理治理涉及信貸評估、投資決策和風險管理,要求人工智能系統不僅要高效準確,還要避免歧視和操縱市場,確保金融服務的公平性和穩定性。第五,在教育領域,人工智能倫理治理關注個性化學習平臺和智能教育系統的使用,確保智能化教育工具改善知識傳授效果,促進教育公平,并保護學生的個人信息。第六,在勞動就業領域,招聘算法需要保證公平性,不會基于性別、種族或其他非相關因素歧視候選人,同時保護求職者的隱私。第七,在公共安全領域,人工智能倫理治理關注面部識別、監控技術和風險評估工具的應用,要求這些技術在使用時尊重公民權利,不會濫用監控權力。

(二)人工智能倫理治理質量的指標

1.開放性

人工智能倫理治理的開放性體現了在構建和維護人工智能倫理體系時所展現的包容性、適應性和透明度特質,強調多元參與者保持對新技術的敏感性,積極開展跨學科的持續對話、開放合作與及時反饋。首先,開放性可增強倫理治理的透明度和可訪問性,保證倫理決策過程公開,使各主體都能參與討論并提出建議,在跨學科的國際交流和合作中共享治理經驗并協調倫理標準。其次,開放性的倫理生態對新技術的敏感性使其能夠在技術發展的早期階段就介入倫理考量,并通過教育普及和培訓來提升公眾和專業人員的倫理意識,從而推動人工智能技術的負責任使用和健康發展。最后,開放性確保了倫理治理全過程能夠吸納不同背景和立場的專家和公眾意見,形成綜合性的倫理視角,建立持續的對話機制來評估和更新倫理準則,以適應不斷變化的科技和社會環境。

2.系統性與可度量性

人工智能倫理治理的系統性是指一個全面、多層次、跨領域的框架,它旨在確保人工智能技術的開發、部署和使用在整個生命周期內符合倫理標準,尊重和保護人權,促進社會公正和環境可持續性。例如,從系統性角度來說,解決數據治理過程當中的隱私保護包括對密碼理論、聯邦學習等進行研究。算法理論應當具備應用環節當中每一節點的公平性與可靠性,用于驗證分析的工具也需要保持可信度量和安全評測機制監督;增加可解釋性數據的前饋檢驗和后饋檢驗功能,形成可驗證的模型保證安全策略的度量過程。

倫理治理的可度量性是指,通過構建一系列定量指標和定性指標,來評估和監測人工智能系統的倫理健康狀況的能力。可度量性要求研究人員建立一套可以衡量倫理治理質量的標準,包括但不限于算法公平性、透明度、隱私保護、責任歸屬和對人類福祉的影響等維度。在倫理治理評價中,可度量性是治理質量的量化,體現可操作性和可比較性,以便在不同的情境和應用中都能進行有效的倫理評估。例如:算法公平性可以通過分析不同群體在人工智能決策中的接受率、誤報率和漏報率等來衡量;算法透明度可以通過評估算法的披露程度、用戶對系統工作原理的理解程度來量化;隱私保護的可度量性涉及數據泄露的風險評估、用戶隱私控制權的實現程度等;責任歸屬的可度量性則需要明確人工智能系統在出現倫理問題時責任歸屬的判定標準和追溯機制。技術安全可度量指標包括系統的魯棒性和抵御攻擊的能力;對人類福祉影響的度量可通過生活質量、社會福祉、經濟影響等指標來評估。通過這些度量標準,我們能夠對人工智能倫理生態進行持續地監督和改進,確保技術的發展與人類價值觀和社會目標相一致。

3.關聯性

關聯性體現在如何平衡技術發展與社會倫理價值之間的關系,以及如何在這一平衡中實現資源的有效利用和最大化效益。一方面,在平衡技術發展與社會倫理價值的過程中,較高水平的倫理治理質量環境意味著研究人員在技術實踐和應用中充分考慮了公平、透明、責任、隱私保護等倫理原則,增強了公眾對技術的信任,促進了社會和諧與穩定。另一方面,資源效益關注于如何促進物質資源、人力資源、時間資源的高效利用,以實現經濟、社會和環境的可持續發展。倫理治理質量與資源效益的關聯性表現在多個層面,第一,良好的倫理治理環境可以降低因倫理問題導致的法律訴訟、品牌形象受損等風險,從而減少潛在的經濟損失,提高資源利用的效率。第二,遵循倫理原則的企業和機構釋放出可靠和負責任的信號,吸引了更多的投資和客戶,直接提升資源回報率。第三,倫理治理環境的優化有助于建立長期的客戶關系和社會支持,維護市場份額和品牌忠誠度,進而影響資源的長期效益。第四,高水平倫理治理環境鼓勵多元化的觀點和更廣泛的參與,促進技術創新過程對接社會需求,有助于開發出更具有社會價值的產品和服務,提高資源的創新效益。第五,倫理治理環境的改善有助于避免資源的過度開發和浪費,例如通過促進循環經濟和可持續消費模式,實現資源的可持續利用。因此,倫理生態質量與資源效益之間存在密切的相互作用,高水平倫理治理環境往往能夠帶來更高的資源效益,反之亦然。

(三)人工智能倫理治理質量的評價體系

1.數據管理

數據的生命周期是對整個倫理質量體系進行承載和評價的關鍵要素,聚焦于元數據的質量管理是倫理治理質量評價體系中的重要組成部分。數據的生命周期在數據質量管理中有五個關鍵要點:第一,創建與使用數據,產生數據生命周期;第二,數據質量管理必須貫穿整個數據生命周期;第三,元數據質量管理必須貫穿整個數據生命周期;第四,數據安全是數據管理與數據治理的核心,降低與數據相關的風險需要聚焦于敏感數據;第五,數據管理與數據治理需要聚焦于關鍵數據。同時,在規劃數據優化過程中需要把握如下四個要點:數據可以被認為是獨立于業務流程的存在;業務流程與相關技術支持之間的關系;系統的設計、架構及其所生成與存儲的數據;基于使用數據方式的企業戰略與組織架構。

第一,從數據規模方向上保證人工智能應用的效率。傳統的數據治理大多是以人面對的對象,基于有限數據容量實施分類與聚類,建立基于關系代數的關系并分析與展示信息。人工智能面對的數據量遠遠大于人所能接納的數據量與信息量,可用的高質量數據越多,模型質量與準確性就越高。因此,為了提高人工智能應用的效率和模型價值,需要針對性地開展面向人工智能應用過程的二次數據治理。同時,由于訓練數據規模的擴張、數據類型的異構和數據噪聲指數級增長的現狀,逐步建立起智能數據治理體系也可有效提高人工智能應用效率。

第二,保障數據類型和實時性的生態質量管理。人工智能應用,尤其是知識圖譜的構建,需要大量半結構化與非結構化的數據支持。人工智能應用在結構化數據的基礎上,結合了各類半結構化與非結構化數據,各類數據源支持各種層級的智能決策或智能輔助決策,由此產生各類質量管理體系問題。例如:多個數據源數據內容的不一致;數據存在缺損值、過超值和缺失字段;數據存在錯誤值、異常樣本等。人工智能模型對數據實時性要求較高,絕大部分人工智能應用必須基于實時的數據來實現分析、推理、預警與決策,必須支持人工智能應用的數據源具備實時接入能力配合人工智能體展開實時性的分析、推理、預警與決策。在此條件下,應根據人工智能模型需要的基于事實數據,構建批處理與流處理的數據處理方式與分析模式,并融合結構化數據、半結構化數據與非結構化數據,進行以人工智能應用為目的的特征工程。

第三,數據質量決定的生態整體質量的管控。人工智能模型對數據高度敏感,其質量優劣程度會極大地影響人工智能模型的應用效果,因此人工智能系統的數據源必須極力避免“garbage in,garbage out”的問題發生,并實施有效的多維度的數據質量管控。基于數據的管控目標,首先,明確數據的輸入質量恢復與保護方案,并確保該方案的科學性和可行性。其次,準確的數據也有助于合理分配資源和優化管控的效果,建立統一的數據收集標準和流程并采用先進的監測技術和設備,以提高數據精度。最后,增強數據管理的透明度,加大公眾監督等措施保障管控方法執行的力度。總之,數據質量是生態整體質量管控的核心,影響著監測、評估和決策等每個環節,只有確保數據高質量,才能有效提升生態保護的效率和效果。

2.可解釋性方法

人工智能的可解釋性及其含義包括在人工智能可解釋的范疇內。可解釋性的人工智能(下文簡稱“可解釋AI”)是指智能體能夠通過人機互動的方式,使感知、行為和決策被人類理解,并進行高效溝通,從而獲得人類的掌控和信任,也能同時滿足在不同應用場景下提供對智能體決策和行為的有效監管和適時更正(成科揚等,2020)。當涉及到可解釋AI時,信任是追求的最終目標(孔祥維等,2022)。這意味著開發人員、使用者或決策者在理解并掌握智能體的運行功能后,愿意信賴并采納其建議。這種信任評估既包括模型是否按預期方式運作,也包含運作方式與輸出結果是否符合倫理、法律和社會規范,從而推動人工智能在更廣泛的領域應用。

第一,明確可解釋AI的溝通模式。首先,在研發層面,“解釋”包含人與人之間建立聯系、形成社會關系的基本方法,而 “可解釋AI”將倫理、法律等社會原則嵌入技術流程,通過開發一組流程和方法,如形成模型結構圖、算法運作機制和特征重要性圖表等方式,直觀調查模型行為,提供與人類認知邏輯一致的描述,旨在使人類用戶能夠理解并信任由智能體生成的輸出結果。研發者通過審查智能體內部運行機制的數據合規性、建立信息規律、開發各技術環節的診斷工具等手段,提高輸出結果的可解釋性,降低內部運行機制的不透明度,以便使用者和決策者對關鍵技術部分形成直觀認知。其次,在應用層面,可解釋AI的可視化界面、問答系統和解釋性說明書等人機交互部分為技術使用者提供了認知工具,幫助人類“理解”智能體的解釋效能,使人類與模型之間的交互更加透明,提高人類對解釋內容的掌握度。例如,在企業內部,技術研發人員能夠更加明確可解釋AI模型表征與現實的關系,對模型開發與應用工作進行調整;管理者通過智能體語義化、可視化的內容,持續評估市場行為、優化主營業務;監管者可明晰企業內外部經營風險,保持可控性、問責制和可審計性。最后,可解釋AI為決策層提供完整的決策報告或生成決策模擬程序,幫助決策者進行知識圖譜檢索、戰略風險評估或模型合規性、穩定性的評定。借助可解釋人工智能的輸出結果,決策者可以大規模排查模型性能出現漂移或降級的隱患,在加快獲得決策結果的基礎上降低人為決策的風險與成本。

第二,加強數據安全風險識別領域中的可解釋性。數據是人工智能發展的前提與應用的核心。已有研究指出,將數據集的規模增加兩到三個數量級所獲得的性能提升會超過調整算法帶來的性能提升(Michele和Eric,2001)。應用實踐也印證了這一點,以算力為核心的驅動模式正逐漸向以數據為核心的驅動模式轉變。從數據安全風險的角度來看,一方面,通過刷題式學習得到的人工智能模型往往存在一系列被公認的安全風險:算法偏見、低級錯誤和不可解釋性,致使其很難被大規模地部署和應用,即多樣的“AI Safety”問題。另一方面,深度神經網絡被數據智能人工智能算法所尋找的對抗樣本所誤導,進而產生錯誤決策,即廣泛的“AI Security”問題。而且,在特定的情境下,“AI Security”問題可以發展為“AI Safety”問題。由此可見,從數據要素出發探討“AI Security”問題,是提高識別人工智能安全風險效率的基礎需求。與基于聯邦學習、安全多方計算以及可信執行環境等圍繞處理數據的關鍵過程而提出的隱私保護方案不同,基于可解釋性的人工智能數據安全風險研究是從模型構建的原則出發,關注確保數據完整性、機密性及代碼完整性的解釋路徑。而對于數據治理從以下四個方面展開工作:第一,從數據規模方面來看,傳統的數據治理更多是以人面對的對象,基于有限數據容量實施分類與聚類,建立基于關系代數的關系并分析與展示信息,人工智能面對的數據量遠遠大于人所能接納的數據量與信息量,對于人工智能應用可用的高質量數據越多,模型質量與準確性越高。第二,從數據類型方面來看,人工智能應用,尤其是知識圖譜的構建,需要大量半結構化與非結構化的數據支持來展開。人工智能應用在結構化數據的基礎上,結合各類半結構化與非結構化數據的數據源支持各種層級的智能決策或智能輔助決策。第三,從數據質量方面來看,人工智能模型對數據質量高度敏感,人工智能系統的數據源必須極力避免“garbage in,garbage out”的問題發生,并實施有效的多維度的數據質量管控。第四,從數據實時性方面來看,人工智能模型對實時性要求很高,絕大部分人工智能應用必須基于實時的數據來達到分析、推理、預警與決策的目的,必須支持人工智能應用的數據源具備實時性的接入能力并提高實時性的分析、推理、預警與決策的水平。

五、優化人工智能倫理治理建議

(一)結論

人工智能倫理“體系-治理-質量評價”框架是一個確保人工智能技術發展與運用符合倫理標準,并通過有效治理保障質量提升的多維度體系。該體系基于尊重隱私、公平無歧視等倫理原則,涉及政策制定、法律法規、行業標準等治理層面,并通過質量評價對人工智能系統的倫理合規性、技術性能等進行綜合評估。實施這一體系需要跨學科合作,評價過程應具備系統性、連續性和透明性。當前,人工智能系統放大了倫理問題,并產生了新的挑戰,如何降低倫理風險成為關鍵。人工智能倫理研究對現代社會發展至關重要,歐盟和我國等已在不斷提出和實踐基本準則。為應對倫理風險,需形成前期管控措施,提高人工智能系統的可解釋性和可信性,確保數據處理、技術設計的合規性。最終目的是提高人工智能輸出結果的精度,使其為人所理解,以獲得信任,并確保數據安全可靠、使用可追溯、結果可驗證。這一框架旨在確保技術可持續發展,維護社會倫理秩序的公正與透明。

(二)政策建議

根據上述研究結論,本文提出了以下政策建議。

第一,對于方便人類生活與生產需求的智能產品,采取“事前+使用+售后”的全環節治理。首先,在安全可靠的創新需求下,事前環節隨時啟動監控人工智能產品的生產和產出過程,發現潛在風險時應積極采取阻斷措施,如未能成功攔截阻斷,應該及時與相關監管部門上報,告知社會公眾,謹慎與控制使用問題產品和停止繼續輸入相關智能數據。其次,在公平正義的原則指導下,重視使用者即終端用戶的使用需求。這一過程的重點在于監管體系的透明化程序設計。例如人工智能系統提供的醫療決策在實際的醫療診斷過程中往往存在“黑箱”,醫生與患者存在認知偏差,需要監管敏感數據的使用與處理,考慮人工智能醫療決策的可解釋性和決策過程的透明度,明確責任分配。最后,人工智能產品的開發者一方面要在事后環節對整個開發、部署等環節展開問責,問責機制與問責條款應當基于現有白皮書或倫理規范準則制定;另一方面要基于市場需求進行售后服務方面的跟蹤,總結出產品在日常使用中的技術冗余與過剩,進行合理化的算法優化,基于穩定的智能數據量來進行合理把控,避免“一刀切”的方式限制對應產品的發展和功能的完善性。

第二,在人工智能技術處理方面,數據管理需要多主體共同努力。研發部門需采用先進的數據加密、匿名化和去標識化技術,確保數據在存儲和傳輸過程中的安全;建立內部倫理審查機制,對涉及個人數據的科研項目進行倫理審查,確保合規性;向用戶清晰披露數據收集和使用目的,提供用戶對個人數據的訪問、更正和刪除的權利。社會公眾需要學習數據隱私保護知識,了解個人信息的重要性,提高自我保護意識;積極參與對數據平臺和企業的監督,對可能的數據濫用行為進行舉報和反饋;在發現個人隱私被侵犯時,通過法律途徑維護自己的合法權益。

第三,在人工智能與社會場景的結合過程中,既需要尊重當事人、自然人、法人或相對應使用者的個人隱私,又需要更多關注地域影響、文化異同、風俗習慣、工作內容等方面的差異性因素,進行智能化場景的匹配與對應。我國人工智能倫理的政策應從生產源頭企業角度率先出發,出臺政策鼓勵企業采用隱私保護技術,如差分隱私、聯邦學習等,減少數據泄露風險。同時,推動建立數據安全標準和認證體系。通過媒體和公共教育活動提高公眾對數據隱私保護的意識,普及數據安全知識。建立數據安全事件應急響應機制,一旦發生數據泄露或濫用事件,能夠迅速采取措施,將損失降到最低。

第四,面對新興人工智能倫理風險時,鼓勵技術專家與倫理、社會、經濟、法律專家等跨學科合作,堅持我國與國際的技術交流合作與倫理研討,共同研究和解決人工智能倫理的新挑戰。一方面,在跨學科合作中,各學科專家可以開展人工智能倫理的哲學探討和案例分析,為實踐提供理論支持。另一方面,在國際交流中,我國推動構建并積極參與全球范圍內倫理風險治理合作機制,例如參與國際組織如經濟合作與發展組織(OECD)和全球人工智能伙伴關系(GPAI)等,共同推動倫理標準的制定;在世界數字科學院(WDTA)的AISTR認證計劃、清華大學主辦的人工智能合作與治理國際論壇等活動中開展政策對話,協調不同國家的人工智能法規,減少法律沖突。通過跨界交流與國際合作,交流和分享各國在人工智能倫理方面的經驗、政策和最佳實踐,確保人工智能技術在我國健康發展,防范其潛在的倫理挑戰。

參考文獻:

[1]"成科揚、王寧、師文喜等,2020:《深度學習可解釋性研究進展》,《計算機研究與發展》第6期。

[2]"鄧悅、蔣婉儀,2022:《智能化轉型何以激發企業創新?——基于制造業勞動力多樣性的解釋》,《改革》第9期。

[3]"鄧悅、許弘楷、王詩菲,2024:《人工智能風險治理:模式、工具與策略》,《改革》第1期。

[4]"董艷、陳輝,2024:《生成式人工智能賦能跨學科創新思維培養:內在機理與模式構建》,《現代教育技術》第4期。

[5]"杜靜、黃榮懷、李政璇,2019:《智能教育時代下人工智能倫理的內涵與建構原則》,《電化教育研究》第7期。

[6]"黃新華、溫永林,2024:《算法賦能政府規制:邏輯、限度與發展方向》,《北京社會科學》第1期。

[7]"賈開、蔣余浩,2017:《人工智能治理的三個基本問題:技術邏輯、風險挑戰與公共政策選擇》,《中國行政管理》第10期。

[8]"賈開、薛瀾,2021:《人工智能倫理問題與安全風險治理的全球比較與中國實踐》,《公共管理評論》第1期。

[9]"賈開,2019:《人工智能與算法治理研究》,《中國行政管理》第1期。

[10] 姜李丹、薛瀾、梁正,2022:《人工智能賦能下產業創新生態系統的雙重轉型》,《科學學研究》第4期。

[11] 姜李丹、薛瀾,2022:《我國新一代人工智能治理的時代挑戰與范式變革》,《公共管理學報》第2期。

[12] 孔祥維、王子明、王明征,2022:《人工智能使能系統的可信決策:進展與挑戰》,《管理工程學報》第6期。

[13] 李家寧、熊睿彬、蘭艷艷等,2023:《因果機器學習的前沿進展綜述》,《計算機研究與發展》第1期。

[14] 李夢薇、徐峰、晏奇等,2023:《服務機器人領域人工智能倫理風險評估方法的設計與實踐》,《中國科技論壇》第10期。

[15] 令小雄、王鼎民、袁健,2023:《ChatGPT爆火后關于科技倫理及學術倫理的冷思考》,《新疆師范大學學報(哲學社會科學版)》第4期。

[16] 劉景江、鄭暢然、洪永淼,2023:《機器學習如何賦能管理學研究?——國內外前沿綜述和未來展望》,《管理世界》第9期。

[17] 瞿晶晶、王迎春、趙延東,2022:《人工智能社會實驗:倫理規范與運行機制》,《中國軟科學》第11期。

[18] 孫偉平,2020:《人工智能與人的“新異化”》,《中國社會科學》第12期。

[19] 譚九生、楊建武,2019:《人工智能技術的倫理風險及其協同治理》,《中國行政管理》第10期。

[20] 瓦拉赫,2017:《道德機器》,北京大學出版社。

[21] 王飛躍、繆青海,2023:《人工智能驅動的科學研究新范式:從AI4S到智能科學》,《中國科學院院刊》第4期。

[22] 王軍,2018:《人工智能的倫理問題:挑戰與應對》,《倫理學研究》第4期。

[23] 王彥雨,2020:《“強人工智能”爭論過程中的“態度轉換”現象研究》,《科學技術哲學研究》第6期。

[24] 王奕俊、楊悠然,2020:《人工智能背景下專業人才培養的發展路徑與方向——基于會計職業相關數據的實證研究》,《中國遠程教育》第1期。

[25] 肖紅軍、李書苑、陽鎮,2023:《數字科技倫理監管的政策布局與實踐模式:來自英國的考察》,《經濟體制改革》第5期。

[26] 于雪、李倫,2023:《人工智能社會實驗的倫理關切》,《科學學研究》第4期。

[27] 余雅風、王朝夷,2023:《由技術倫理向法律規范演進:國外人工智能應用規范研究綜述》,《河北法學》第2期。

[28] 張鋌,2022:《人工智能的倫理風險治理探析》,《中州學刊》第1期。

[29] 張夏恒、馬妍,2024:《生成式人工智能技術賦能新質生產力涌現:價值意蘊、運行機理與實踐路徑》,《電子政務》第4期。

[30] 張欣,2023:《生成式人工智能的算法治理挑戰與治理型監管》,《現代法學》第3期。

[31] 張鑫、王明輝,2019:《中國人工智能發展態勢及其促進策略》,《改革》第9期。

[32] Chauhan, C. and Gullapalli, R. R., 2021, Alhics of AI in Pathology: Current Paradigms and Emerging Issues, The American Journal of Pathology, 191(10): 1673-1683.

[33] Floridi, L., Cowls, J., King TC, et al., 2021, How to Design AI for Social Good: Seven Essential Factors, Ethics, Governance and Policies in Artificial Intelligence: 125-151.

[34] Huang, Z., Che, C., Zheng, H., et al., 2024, Research on Generative Artificial Intelligence for Virtual Financial Robo-Advisor, Academic Journal of Science and Technology, 10(1): 74-80.

[35] Jobin, A., Ienca, M. and Vayena, E., 2019, The Global Landscape of AI Ethics Guidelines. Nature Machine Intelligence, 1(9): 389-399.

[36] Kung, T. H., Cheatham, M., Medenilla, A., et al., 2023, Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models, PLoS Digital Health, 2(2): e0000198.

[37] Larsson, S., 2020, On the Governance of Artificial Intelligence Through Ethics Guidelines, Asian Journal of Law and Society, 7(3): 437-451.

[38] Lepri, B., Oliver, N., Letouzé, E., et al., 2018, Fair, Transparent and Accountable Algorithmic Decision-Making Processes, Philosophy of Technology, 31(4): 611-627.

[39] Li, D. and Du, Y., 2017, Artificial Intelligence with Uncertainty, CRC Press.

[40] Min, H., 2010, Artificial Intelligence in Supply Chain Management: Theory and Applications, International Journal of Logistics: Research and Applications, 13(1): 13-39.

[41] Minsky, M., 1961, Steps Toward Artificial Intelligence, Proceedings of the IRE, 49(1): 8-30.

[42] Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S. and Floridi, L., 2016, The Ethics of Algorithms: Mapping the Debate, Big Data amp; Society, 3(2): 1-21.

[43] Rahwan, I., 2018, Society-in-the-Loop: Programming the Algorithmic Social Contract, Ethics and Information Technology, 20(1): 5-14.

[44] Samuel, A. L.,1960, Some Moral and Technical Consequences of Automation—a Refutation, Science, 132(3429): 741-742.

[45] Szocik, K., Tkacz, B. and Gulczyński, P., 2020, The Revelation of Superintelligence, AI amp; Society, 35(3): 755-758.

[46] Wiener, N.,1960, Some Moral and Technical Consequences of Automation: As Machines Learn They May Develop Unforeseen Strategies at Rates that Baffle their Programmers, Science, 131(3410): 1355-1358.

Ethical Issues of Artificial Intelligence: System Construction and Governance Quality Evaluation

Zhang Lei1", Zhang Jiacheng2"and Xu Hongkai3

(1.Shanghai Research Institute for Intelligent Autonomous Systems,Tongji University;2.Experimental Teaching Center of Transportation Engineering,TongJi University;3.The Institute of Quality Development Strategy, Wuhan University)

Abstract:The rapid iteration of artificial intelligence (AI) technology has led to extensive discussions around the governance of AI among countries. The ethical problems arising from the development of AI technology have become increasingly prominent, and have risen to the level of national social and economic development and strategic security. This paper constructs the ethical system of AI, improves the pertinence of ethical governance of AI, and evaluates the quality of governance, aiming to provide ethical guidance for the healthy and orderly development of AI technology and social integration. This paper first summarizes the development process and deep application of AI and then analyzes the ethical challenges brought by the progress of AI technology. On this basis, the ethical system of AI is constructed, and the operation process and existing problems of the ethical system are analyzed. After summarizing the content of ethical governance of AI, this paper evaluates the quality of ethical governance, forms the evaluation index and evaluation system of the quality of ethical governance, and verifies the effect of ethical governance. Finally, this paper puts forward policy suggestions from the aspects of intelligent product design, technical governance, differentiated demand, and interdisciplinary cooperation, to promote the sustainable development of artificial intelligence technology and effectively solve ethical problems.

Key Words:artificial intelligence; ethical risk; ethical system; quality evaluation

責任編輯"鄧"悅

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 国产精品99久久久| 欧美日韩专区| 国产成人亚洲精品色欲AV| 99性视频| 日韩一级毛一欧美一国产| 2021精品国产自在现线看| 波多野结衣第一页| 国产精品久久久久久影院| 依依成人精品无v国产| 亚洲美女一区二区三区| 国产美女精品一区二区| 一级毛片免费的| 伊人久久久久久久久久| 日韩一区精品视频一区二区| 日日拍夜夜操| 91亚洲影院| 久久99蜜桃精品久久久久小说| 亚洲天堂777| 国产又黄又硬又粗| 亚洲精品波多野结衣| 亚洲天堂.com| 亚洲午夜福利在线| 国产二级毛片| 久久国产香蕉| 欧美亚洲香蕉| 国产成人无码Av在线播放无广告| 国产二级毛片| 欧美色亚洲| 最新国产精品第1页| 88国产经典欧美一区二区三区| 青青操视频在线| 伊人久久大香线蕉成人综合网| 玖玖精品视频在线观看| 综合天天色| 久久性妇女精品免费| 手机在线免费毛片| 国产屁屁影院| 精品撒尿视频一区二区三区| 国产精品xxx| 91免费国产在线观看尤物| 免费在线a视频| 中文字幕欧美日韩| 成年人国产视频| 精品国产电影久久九九| 四虎永久在线精品国产免费| 国产精品开放后亚洲| 国产成人精品在线1区| 综合人妻久久一区二区精品| 日韩毛片基地| 国产永久在线观看| 人妻91无码色偷偷色噜噜噜| 91视频精品| 中文字幕天无码久久精品视频免费 | 色色中文字幕| 欧美亚洲综合免费精品高清在线观看 | jizz亚洲高清在线观看| 亚洲区欧美区| 中国国产A一级毛片| 欧美亚洲一区二区三区导航| 日韩一区精品视频一区二区| 欧美影院久久| 青草精品视频| 伊人91视频| 秘书高跟黑色丝袜国产91在线| 亚洲欧美一区二区三区麻豆| 亚洲欧美日韩中文字幕一区二区三区| 国产黄在线免费观看| 老司机久久精品视频| 亚洲中文字幕23页在线| 高潮毛片免费观看| 国产乱子伦精品视频| 香蕉视频在线观看www| 国产精品天干天干在线观看| 国产免费羞羞视频| 99re在线观看视频| 亚洲无码A视频在线| 波多野结衣亚洲一区| 精品视频福利| 国产成人艳妇AA视频在线| 亚洲高清无码久久久| 精品视频福利| 色综合天天视频在线观看|