

摘 要:以人工智能為代表的新質生產力逐漸成為智能時代下經濟發展的強勁動力,同時也引致了智能技術對人類個體和整體合法權益的擔憂。中國在多個國際場合下都提出了“以人為本、智能向善”的主張,引導全球在人工智能倫理的軌道上發展智能技術。人工智能倫理有遵循一般科技倫理原則的方面,同時更多涉及社會倫理問題及人類整體安全問題。文章通過探討人工智能倫理的基本內涵,分析人工智能倫理審查的道德正當性與政策規范的必要性,厘清人工智能倫理審查的理論邏輯,提出人工智能倫理審查機制的構建在堅持“以人為本”的基礎上確保人工智能“向善”發展,還需確保制度規范的公平公正,厘清透明度與問責制的因果聯系,確保科技發展與法律關系的穩定性,在人工智能倫理審查原則中落實監管責任,適時建立審查評估制度。
關鍵詞:人工智能倫理;倫理審查;以人為本;智能向善
中圖分類號:B 82 文獻標志碼:A 文章編號:2096-9783(2024)05?0001?12
一、引言:智能時代的“人文主義”關懷
人工智能以其迅猛的態勢走進了現代社會,在給人類帶來巨大驚喜的同時,也讓人們產生諸多不安,尤其對人的主體性挑戰讓人們開始思考人工智能的發展方向是否可控,人工智能是否會在人類生存的地球上反客為主?人工智能在當前依然呈現較強的工具屬性,對其的利用依然無法脫離當前對科學技術的利用邏輯,無論是基于符號學派、聯結學派、進化學派、貝葉斯學派或類推學派等何種技術底層邏輯的人工智能類型,都必須要回答我們應以何種態度對待以科學技術發展為驅動的人工智能,以及人工智能如何回應社會需求的問題,因此,倫理治理應當成為人工智能治理的首要問題。
智能技術憑借這種巨大優勢正在醞釀和重塑新的世界觀和價值觀,可無論如何,對以人為本的基本價值的遵循,是以“凸顯人的獨特性、從人出發的視角、將人和人性視為豐富且復雜的存在”為主要內容的人文主義的基本要義[1],推動建立以人為本的人工智能發展生態,就是強調“人類權益”,保障人工智能朝著有利于人類文明進步的方向發展,為人類提供福祉,解決人類面臨的發展風險,而不能有損人類基本權益,大到人類的生命權、生存權、發展權;小到個人的隱私權、生活安寧權等。這就要求人工智能的發展首先要進行科技倫理審查和承諾,以更加負責任的方式發展可信的、以人為本的人工智能,貫徹在人工智能發展中始終保證“人權、自由、尊嚴”價值觀和原則的實現[2]。本文在此背景下,嘗試勾勒人工智能倫理問題的基本范疇,建立有效倫理審查的邏輯理路和搭建倫理審查的基本原則。
二、人工智能倫理問題的基本范疇
人工智能倫理既不同于傳統的科技倫理和社會倫理,又與兩者有密切交叉關系。
(一)人工智能倫理與科技倫理
科學研究和技術探索不僅與客觀的真理和法則相關聯還是有目的性的實踐行動,因此,在理論層面,科學技術本身是價值中立的,但實踐行為需要接受道德上的評價,如同人類的其他行為一樣[3]。科技倫理是指為實現科學研究的目標,科技活動、技術探索的過程中應當遵循的價值觀和行為準則[4],不限于某一特定技術領域,而是涵蓋了所有技術領域的倫理問題,包括生物技術、信息技術、納米技術等。人工智能倫理是指在開發、部署和使用人工智能技術過程中,智能體(人與智能機器)所應該遵循的一般倫理原則和行為規范[5]。一般來說,人工智能倫理是科技倫理的一個子集,專注于人工智能技術的開發和應用中的倫理問題,但是由于人工智能倫理還涉及更高層面上的社會倫理問題,也不應簡單地將其歸納到科技倫理分支的范疇。
傳統科技倫理問題的相關研究主要集中于醫學倫理和生命科學領域,前者如輔助生殖技術、器官移植、基因治療、醫患關系涉及的醫學倫理難題[6],后者如安樂死、干細胞研究、生殖克隆性技術研究、藥品研究等方面[7],二者在內容上具有相似性。人工智能和區塊鏈、物聯網、合成生物學、納米技術等都屬于新興技術,當面對人工智能技術產生的倫理爭議時,傳統科技倫理治理的手段和規則難以提供周全的解決方案,主要體現在以下兩個方面:
一方面,人工智能具有一定的自主性和決策能力,具有較強的復雜性和顛覆性。傳統科技的行為和結果具有可預測性,通常按照預設程序和人類指令運行,依賴人類直接控制,這使得倫理風險評估和管理相對容易,倫理審查可以集中于使用前的評估,如評估技術的設計和預期用途是否符合倫理標準。并且,傳統科技的發展速度通常較慢,這為倫理規范的制定和更新提供了較為充足的時間,使得法規和倫理標準能夠較好地適應技術發展。然而,現如今許多人工智能,尤其是深度學習模型,其決策過程非常復雜且不透明,這種“黑箱”特性使得驗證人工智能決策的倫理合規性變得困難,這與傳統科技倫理治理中對透明度和可解釋性的要求相沖突。當人工智能在應用場景中能夠自主做出某些決策時,責任歸屬的不確定性不僅對現有的法律框架提出挑戰,也將成為一大科技倫理難題。并且,人工智能通過不斷學習新數據,調整其行為模式,因此科技倫理治理手段需具有動態適應性,傳統的倫理審查通常是在項目初期進行,顯然難以適應這種持續變化的需求。此外,傳統的倫理治理流程往往周期較長,而人工智能技術的快速發展也使得相關的法規和標準難以跟上技術進步的步伐。
另一方面,人工智能倫理不僅涉及技術的研究過程,還與技術的應用密切相關,覆蓋了從研發到部署的整個流程。從數據的收集和處理、算法的設計和優化,再到系統的部署和應用,人工智能的每一個環節都可能涉及倫理問題,需要進行倫理考量。傳統的科技倫理治理手段伴生于醫學研究和臨床實踐,側重于技術研發階段。例如,醫學研究中的倫理審查委員會會評估臨床試驗的設計、受試者的知情同意和潛在風險,其職責是審查和評估研究項目的倫理合規性,確保研究過程符合倫理標準,許多國家在技術研發階段制定了詳細的法規和政策,以及一系列關于研究的倫理標準和準則,以規范研究行為。可見,傳統的科技倫理治理手段較少關注技術應用階段的倫理問題。然而,人工智能技術的應用場景多元,受眾范圍廣泛,不限于某一領域和某一類人群。例如,人工智能技術在無人駕駛汽車系統的應用場景中,在無人駕駛汽車的研發階段,研究人員和公司通常會進行大量的測試和倫理評估,以確保技術的安全性和可靠性。然而,當無人駕駛汽車投入市場并在公共道路上行駛時,會產生事故責任歸屬、數據隱私保護等新的倫理問題,這些問題在研發階段可能未能獲得足夠重視。由此可見,對于人工智能倫理,傳統的科技倫理治理手段可能無法全面應對技術應用階段的復雜挑戰。“電車難題 (Trolley Problem)”一類的思想實驗在智能技術的應用中已經不是假想的倫理問題了,而忒修斯之船(The Ship of Theseus)之惑也在數字人和具身機器人上再次無法檢驗。
如前所述,從內容上看,人工智能倫理包含通用的科技倫理原則,又與其他科技領域中的科技倫理有明顯的特殊性。
(二)人工智能倫理與社會倫理
社會倫理是指一套指導和評判個人和團體行為的道德規范和價值觀,涵蓋了道德原則、行為規范、責任和義務、權利和自由、公正與公平以及共同利益等方面。人工智能社會倫理指的是人工智能技術在研發、設計和應用過程中需遵循的合理性邊界[8],核心在于權利和義務的關系。它包括人工智能研發和應用中的道德規范、價值觀念,以及這些規范和價值觀在社會條件、社會價值、互動方式和結構體制中的合理性。此外,還涉及人工智能應用于社會所帶來的積極與消極影響[9],具體包括如何在提升效率、輔助與替代決策等方面取得平衡。
人工智能倫理與社會倫理之間有著密切的關系,二者相輔相成,互為影響,具體體現為以下三個方面:一是人工智能倫理和社會倫理都依賴于一系列共同的道德原則,如尊重個人權利、正義、公平、隱私保護和責任。這些原則形成了倫理判斷和決策的基礎,并為如何在人工智能技術應用中實現社會的道德目標提供了指導。二是人工智能的發展賦予了社會倫理新的時代內涵。人工智能作為第四次工業革命的標志,在提高生產效率的同時,會引發勞動力市場和就業形態的變化。人工智能技術發展迅速,一些傳統崗位可能被替代,同時也創造了新的職業機會和就業需求,如高技能勞動力的需求增加[10]。但在短期內,勞動者在新舊職業和崗位之間的轉換難以做到無縫銜接,勞動資源的大規模重新分配也難以避免摩擦,從而可能導致“結構性失業”的風險增加[9]。由于不是所有勞動者都具備進入新興行業所需的技能和資源,這可能導致機會不均等,影響社會公平與正義,加劇社會分化,帶來社會不穩定。三是社會倫理和人工智能技術的發展相互影響,將現有的社會倫理應用于人工智能技術,構成了人工智能倫理的重要組成部分,反過來,人工智能技術的發展也擴展了社會倫理問題的范疇。社會對人工智能倫理問題的關注會影響人工智能技術的發展方向。社會強烈反對的技術可能被限制或禁止,而符合社會倫理標準的技術可能獲得更多的支持和發展。例如,面部識別技術引發了關于隱私和監控的倫理問題,討論社會對這些問題的關注促使相關技術在開發和應用過程中更加注重隱私保護和透明度。人工智能倫理不僅需要考慮技術本身的安全性和有效性,還需要關注其對社會公平、隱私權、就業等方面的影響,從而確保技術發展與社會倫理相協調。
綜上,人工智能倫理是社會倫理在特定技術領域的延伸和具體化。它不僅要遵循社會倫理的基本原則,還要應對人工智能技術帶來的特定挑戰和問題。
(三)人工智能倫理問題的表現形式
人工智能倫理問題受到關注與人工智能技術的發展階段相關,在弱人工智能階段,主要涉及的是初級倫理問題,如隱私保護、算法黑箱、消費者畫像等;在強人工智能階段,人工智能倫理涉及的深度偽造、輿論控制、價值觀干擾等;而在超強人工智能階段則是有關智能鴻溝、國家平等發展、人類生存安全等問題。以下討論幾種典型的人工智能倫理問題。
深度偽造(Deepfake)技術是指利用機器學習技術生成逼真的視頻或音頻文件,創建出虛構但能以假亂真的內容[11]。一方面,此類技術可能被用于惡意制造虛假信息、誹謗個人,在未經個人同意的情況下利用其發布的圖片,替換場景,制作虛假視頻和音頻,從而侵犯個人隱私權和名譽權[12]。另一方面,深度偽造技術可能會對信息真實性和公眾信任產生負面影響。這一技術可以被用于制造虛假新聞、偽造名人言論或行為,高度逼真的虛假視頻和音頻使得辨別真偽變得極為困難,人們難以分辨哪些信息是真實的,哪些是偽造的。技術濫用會導致公眾在面對大量虛假信息時,容易產生不確定感和懷疑態度,導致對新聞和媒體的信任度降低,進而對所有信息源失去信任[13]。此外,深度偽造技術還可能被用于政治目的,制造虛假政治宣傳,影響選舉結果,或在選舉中操縱公眾輿論,影響司法公正和民主進程,進一步加劇社會的不信任感[14]。相比于過去篡改視頻的技術手段,深度偽造技術可以批量制作出無比逼真的音頻和視頻,而且越來越難與真實事件區分開來,給民眾辨別真假的方式帶來重大改變,該技術的濫用不僅可能威脅到個人隱私和名譽,還可能對社會穩定和公共安全造成嚴重影響,存在較大的倫理風險。
人工智能技術可以被用于各種形式的欺詐(Fraud)活動,如自動化的網絡釣魚攻擊,通過人工智能技術生成個性化的釣魚郵件或信息,誘騙受害者點擊惡意鏈接或提供敏感信息,使其在無意中向他人共享個人機密數據,或冒充他人要求受害者向攻擊者匯款[15]。人工智能驅動的釣魚攻擊會比傳統的釣魚攻擊更具欺騙性和有效性,原因在于它能夠利用機器學習和自然語言處理技術分析目標用戶的行為和偏好,創建高度個性化和語言流暢的誘餌,且快速迭代和自動化操作擴大了攻擊范圍并提高了效率,技術上更具侵入性。再例如,通過人工智能生成的語音進行電話詐騙,人工智能技術可以生成高度逼真的語音,利用人工智能生成的語音模仿銀行職員或政府官員,誘騙受害者提供個人敏感信息[16]。可見,人工智能驅動的欺詐行為更加復雜且難以檢測,給法律監管和倫理治理帶來了新的挑戰。
算法黑箱(Algorithmic Black Box)指的是許多人工智能系統,尤其是使用深度學習(deep learning)模型的人工智能,作為一種深度神經網絡的算法系統,其內部決策過程對用戶和開發者來說都是不透明的[17],這種“黑箱”性質使用戶和受影響者無法理解或質疑算法的決策,缺乏透明性的問題在倫理上會引發對公平性和責任的擔憂。此外,算法黑箱可能會隱藏算法中的偏見,這些偏見可能源于訓練數據的不平衡或設計中的無意識偏見。例如,在招聘領域,應用人工智能技術的招聘系統可能會基于歷史數據進行決策,如果歷史數據中存在性別或種族偏見,這些偏見可能會被算法繼承并放大,導致某些群體在招聘過程中被系統性地排除在外,或獲得較少的應聘機會。由于算法黑箱的性質,受影響者即使受到歧視性政策,也難以知曉這些決策的依據,一定程度上影響了公眾的知情權和監督權。因此,在技術層面,如何提升算法決策過程的透明性和可解釋性,增強用戶對算法的信任,并有效檢測和糾正算法中的偏見,對開發者和設計者提出了更加嚴峻的挑戰。同時,人工智能在應用場景中可能會繼承并放大現有的社會偏見和不公正,進一步加劇社會不公平等,如何確保公平性和消除偏見,已成為一個重要且亟待解決的倫理問題。
人工智能在數據收集和分析方面的先進技術能力,雖為社會帶來了諸多便利,但同時也引發了隱私侵犯(Privacy Invasion)的倫理風險。一方面,人工智能在機器學習的過程中,需要從海量的數據中學習模式和規律,實現自動化預測和決策。例如,在社交媒體或廣告投放的場景中,有關用戶的信息越多,個人行為數據越豐富,人工智能就越能從數據中學習并調整自己的行為,實現精準投放廣告、吸引用戶使用平臺或購買商品的效果[18]。雖然用戶個人數據的可用性能讓人工智能發揮更好的性能,但這種數據收集存在相當大的侵權風險和倫理風險。其中,一個核心問題在于數據可能被用于非預期的目的。用戶可能并不完全了解其上傳至平臺的信息將被如何處理、使用甚至出售,也未能充分認識到潛在的“數據操控”行為。與以往的侵害方式相比,用戶信息的安全性和隱私保護面臨更為隱蔽的威脅,監管難度也相應增加。更進一步地,若人工智能技術被用于影響用戶對各種議題的看法,包括政治立場和觀點,且這種影響是在用戶不知情的情況下進行的,將會引發更為嚴重的倫理問題。
另一方面,人工智能技術的應用不僅極大擴展了個人信息的收集場景、范圍和數量,而且通過先進的數據分析技術,可以從公開合法獲取的非敏感信息中綜合推斷出個人的敏感信息,這無疑增加了識別和處理個人敏感信息的難度,傳統的保護方式面臨嚴峻考驗。例如,面部識別技術可以在公共場所且個人毫不知情的情況下,識別個人身份并實現對個人的持續跟蹤[19],過度監控可能會侵犯個人在工作場所、學校或其他公共場所的隱私。再如智能設備(如智能音箱、智能手機)和應用程序,可能在未經用戶同意的情況下會記錄用戶的私人對話,并將這些數據發送到云端進行處理,在上傳和處理的過程中,個人數據可能因安全措施不足而遭受泄露或被不當使用,不僅侵犯了用戶的個人隱私,還對個人信息安全造成威脅。
三、人工智能倫理審查的理論邏輯
面對人工智能技術帶來的倫理挑戰,科技企業、科研機構和監管部門都在不斷探索對人工智能進行規制的可行方案。其中,源于生命科學領域的倫理審查制度具有促進多方協同共治、預先防范潛在風險、靈活應對技術挑戰等優勢,已經成為人工智能科技倫理治理的重要措施。
(一)倫理審查制度的建立
倫理審查制度發端于醫學領域,最早可追溯至國際法院針對納粹非人道醫學實驗而提出的《紐倫堡法典》(The Nuremberg Code)。作為首套醫學研究領域的道德規范,該法典系統提出了人體實驗的倫理原則,將此前不成文的醫學研究者道德規范上升為成文的倫理準則1,在此基礎上,《赫爾辛基宣言》為涉及人類受試者的醫學研究提供了一個完備的倫理治理框架。此后的幾十年間,倫理治理的理念從醫學拓展到其他科研領域,一批具有全球影響力的倫理準則不斷涌現,針對科技活動的倫理審查機制也得以建立和完善。具體詳見表1。
結合上述科技倫理準則的內容,可將科技倫理審查制度的起步與發展分為三個階段。20世紀60至70年代是科技倫理審查制度起步期,這一階段人們主要關注人體實驗和動物實驗領域的研究倫理。早期的科技倫理準則不具有硬性的約束力,也缺乏有效的監督和約束機制,并不能避免諸如“塔斯克基梅毒實驗”2等非人道研究[20]。為回應公眾的義憤,美國于1974年將受試者保護相關規定納入聯邦法規3。該法規提出建立機構倫理審查委員會(Institutional Review Board, IRB)對涉及人體實驗的研究方案進行獨立審查,開創了對科技活動進行倫理審查的先河[21]。20世紀80至90年代是科技倫理審查制度的拓展期,主要表現為倫理審查在學科領域和地理空間上的拓展。一方面,公眾意識到基因重組、遺傳修飾等生命科學研究對生物安全、環境保護乃至人類尊嚴的可能風險,將科技倫理審查制度應用于整個生命科學領域;另一方面,倫理審查機制在保護研究參與者、促進社會信任方面的積極作用逐漸顯現,發達國家相繼完善政策法規以推廣該制度,各研究單位也著手組建倫理評審委員會以對實驗計劃進行評估[22]。21世紀以來,納米科技、大數據、人工智能等新興科技在推動社會變革的同時,也帶來了生態危害、隱私侵害、算法歧視等新興倫理議題,并最終推動倫理審查制度從生物醫學領域向整個前沿科技領域拓展[23]。科技倫理審查制度進入了創新發展階段,成為了科技治理體系中的重要組成部分。瑞典、德國等國先后以法律形式明確了倫理委員會的建制和法律地位,使得科技倫理審查走向制度化、權威化。
同西方國家相比,我國的科技倫理審查制度起步較晚,但近年來發展迅速。20世紀90年代初,中華醫學會醫學倫理學分會通過了《醫院倫理委員會組織規則》,初步在醫療系統內確立了倫理委員會制度。早期的倫理委員會主要負責倫理教育和醫德監督,并不承擔審查職能,這一局面一直延續到1999年《藥品臨床試驗管理規范》的施行。該規范明確了倫理委員會審查批準藥品臨床實驗的職責,標志著我國倫理審查制度向標準化、規范化的方向發展。步入21世紀以來,我國政府加快了科技倫理立法步伐,《人胚胎干細胞研究倫理指導原則》《涉及人類的生物醫學研究倫理審查辦法》等政策法規相繼出臺,倫理審查監管框架逐漸成型[24]。2023年,科技部、教育部等十部委聯合印發《科技倫理審查辦法(試行)》,對科技倫理審查的主體、程序和監督管理予以規范,并將倫理審查制度應用于人工智能領域。經過三十余年的發展,我國科技倫理審查制度已經初步同國際接軌,政府、學界、社會共同參與的科技倫理治理格局正在形成。
(二)人工智能倫理審查的道德邏輯
在科技發展的早期階段,科學研究距離產業應用仍有一定距離,科學、技術和社會之間的系統邊界較為明晰,這就導致諸多學者秉持技術工具主義的立場,認為科學研究本身是價值中立的活動,僅在科技應用進入社會后才會造成倫理影響。例如,著名技術哲學家雅克· 埃呂爾(Jacques Ellul)就認為,技術具有自主性,并不受人類設定的任何技術目的所左右[25]。基于這一理念,社會只能對科技研究者提出誠實、勤勉等個人倫理層面的要求,而不能直接介入科學研究過程。
然而,科學與技術的融合已經成為難以阻擋的時代趨勢,這也促使著科學研究和技術創新、社會經濟的聯系日益緊密[26]。研究表明,科學與社會之間的關系并非單向的,而是相互影響、連結共通的[27]。一方面,科學深度融嵌入社會結構中,新科技的出現往往會改變個體與自身、他人乃至社會的關系模式,打破既有的道德倫理規范。特別是在數字全球化時代,大數據、算法和人工智能技術的應用侵入了個人領域,為人類的隱私和自由帶來了前所未有的倫理威脅,而這些倫理威脅往往源于技術自身的原理和特點[28]。例如,對等網絡的架構模式意味著人工智能算法必須遵循以效率為主導的法則,這就使得算法往往從后果主義出發,注重決策結果的效率而非個體權利的保障[29]。另一方面,科技具有價值負載功能,其發展和應用往往受到社會系統的深遠影響。荷蘭等國也已經嘗試在科技發展的早期階段開展倫理影響評估,以規范性的倫理判斷引領具體的發明設計實踐,以盡可能消納新技術對社會道德的沖擊[30]。因此,割裂科技與倫理價值的“技術中立”原則已然難以應對新興科技帶來的倫理挑戰,以人工智能為代表的數字科技需要得到有效的倫理引導和制度監管。
由于科技具有承載道德價值的能力,科技倫理在科技系統中的地位逐步上升,從科學體內部的自我約束演化為科技治理的重要手段。過去,對科學研究的倫理約束主要體現為科學共同體內部的自律機制和對負面風險的管控措施,監管部門處于被動地位,僅在科技成果造成嚴重安全風險或損害結果時才加以介入[31]。而在科技治理模式轉型后,科技倫理上升為指導乃至約束科技活動的價值引領,這就需要建立完備的倫理審查制度,前瞻式地引導科技機構開展合乎道德的科研工作[32]。具體到人工智能領域,智能算法在數據收集、算法構建、應用領域等層面都被算法設計者的價值倫理所滲透,存在被濫用或誤用的風險[33]。為此,有必要建立并完善人工智能倫理審查制度,對技術開發者、算法設計者提出道德層面的約束和限制,在人工智能模型的設計階段實現價值對齊,以確保人工智能按照對人類和社會有益的方式運行。
仍需關注的是,出于人工智能技術和傳統生命科學在技術原理和發展態勢的差異,不應在人工智能領域照搬傳統的倫理審查制度,而應創新相關審查標準和范式。其一,當前針對人體和動物的實驗都具有倫理風險,審查門檻相對明確。而人工智能研發涉及多個行業場景和應用領域,其中部分研發活動并不存在嚴重的道德風險。如果將倫理審查的門檻設定過低,則可能對相關科技的發展造成阻礙。因此,應當合理劃定倫理審查的范圍[34]。其二,人工智能技術具有高度的復雜性和不確定性,隱匿于“算法黑箱”后的決策過程在技術層面難以完全公開[35],且往往涉及研發單位的商業秘密,這就需要針對人工智能技術重新設計能夠平衡各方利益的程序透明規則。其三,傳統倫理審查主要關注實驗過程中存在的倫理風險,而人工智能相關的隱私侵害、算法歧視等風險則很大程度上來自模型數據的收集和選取[36],因此人工智能倫理審查需要涵蓋數據采集、程序設計、模型訓練等研究階段。
(三)人工智能倫理審查的政策邏輯
相較于醫學和生命科學領域,我國人工智能倫理審查制度的建設呈現出規范化、法治化的特征。早在2017年,國務院發布的《新一代人工智能發展規劃》就已經指出,到2025年,我國要初步建立人工智能法律法規、倫理規范和政策體系,并在2030年進一步完善。2019年,《新一代人工智能倫理規范》發布,結合我國國情明確了人工智能全生命周期的倫理準則。此后,深圳、上海等地先后出臺專項立法,要求設立人工智能倫理委員會履行人工智能治理相關職責4。《科技倫理審查辦法(試行)》則在法律上為人工智能倫理審查提供了組織保障和程序框架。作為人工智能治理體系中的重要制度創新,人工智能倫理審查不僅具有道德層面的正當性,更具有深厚的政策邏輯。
首先,科學共同體的自治監督已經難以滿足人工智能倫理監管的現實需求。在過去,科學共同體內部的同行評審、對話交流機制曾是管控科技倫理風險、獲取監管機構和公眾信任的重要途徑。例如,1975年的阿西洛馬會議就為通過社會參與和多學科評估應對科學變化帶來的風險提供了良好的范例。在這次會議中,具有自然科學和法學背景的專業人士通過溝通和表決,確立了重組DNA實驗研究的準則,并對科研機構與科學家提出了具體的行動指南[37]。然而,人工智能的技術創新與產業聯系緊密,商業利益的刺激使得該領域的研究者往往并不具有倫理反思的動機,這就使得科學共同體內部的決策機制難以有效運轉[38]。如果不通過國家主導的外部監管機關進行審查和約束,對人工智能的倫理治理將有可能流于形式,而難以切實應對新技術可能存在的風險和危害。
其次,倫理審查制度有助于增進社會對人工智能技術的理解和接受。前沿領域的科技突破具有帶動社會變革的可能,但也會引發價值觀念上的沖突和日益復雜的倫理問題[39]。人工智能所帶來的就業沖擊、算法偏見、決策過程不透明等問題加劇了公眾對技術失控的恐懼,這種對新興技術的信任危機對人工智能應用的推廣造成了嚴重阻礙。通過引入倫理審查制度,監管機構可以通過前瞻性的視角評估人工智能研究的可能風險,敦促科研單位開展負責任、高質量的研發活動,進而在保障科技發展速度的同時構建大眾對人工智能技術的信賴,從而促使人工智能技術最大限度造福社會。
再次,倫理審查制度也有助于提升我國在全球人工智能科研與產業領域的話語權和競爭力。當前,國際學術界和產業界已經開始自發對人工智能研究成果進行倫理上的評價和考量。如神經信息處理系統大會(NeurIPS)就發布了“倫理審查指南”,并指出極端的論文可能因倫理考量而被拒稿。Facebook、谷歌、Openai等科技企業也不斷探索并實施針對人工智能應用的內部審查程序[40]。我國在前沿科技領域的發展經驗表明,完善科研機構的倫理審查機制能夠有效促進全球科學界對我國前沿科技成果的認可[21]。因此,倫理審查制度的引入可以擴大我國人工智能科研成果的全球影響力,并拓展我國人工智能產品的市場范圍。
最后,前瞻式的倫理審查制度具有靈活性,更適應新興科技的治理要求。人工智能的發展具有不確定性,不斷產生新的人機交互形式和倫理問題。靜態的法律規制滯后于科研實踐,只能憑借已有的經驗對暴露出來的倫理風險進行處理,導致倫理治理缺乏實效[41]。相較之下,倫理審查這一軟性機制可以從道德層面增強科技治理的彈性,將可能的倫理風險扼殺在智能技術的研發階段,有著更強的風險規避效果。
四、人工智能倫理審查的原則建構
在明晰人工智能倫理審查的理論邏輯后,有必要以此為基礎構建人工智能倫理審查的原則規范。對于人工智能倫理審查的原則構建,不僅需要在堅持“以人為本”的基礎上確保人工智能“向善”發展,更需要兼顧制度規范的公平公正,厘清人工智能透明度與問責制之間的因果關系,確保科技與法律之間關系的穩定性,以及監管責任的有效落實。
(一)“以人為本”基礎上的“智能向善”
構建人工智能倫理審查的原則,應以“人本主義”作為制度構造的邏輯起點,并以此為基礎實現科技的“智能向善”。人工智能作為科技演變的必然結果,因緊密契合經濟與社會生活而極大地促進了生產力和生產關系的變革,又因人工智能的技術性風險而存在削弱甚至是威脅人權的倫理風險[42]。本質上,這種風險的產生是技術沖擊“人本主義”理念的現實表現,而立足“人本主義”的思想實現人工智能的倫理審查實則是預防或規避倫理風險的原則前提。值得注意的是,人工智能無法脫離“技術工具”的屬性,技術中立的本質也使得人工智能在研發與應用的過程中無法脫離以人為中心的使用目的。以“人本主義”的理念要求人工智能的發展應確保不損害人作為人的基本尊嚴,并以增進社會福祉為根本目的[43]。這意味著,對于人工智能的倫理審查應回歸人類生產與社會生活,以“人本主義”作為判斷的價值基礎,不得侵犯隱私權、生命權以及平等權等個體人權或集體人權[44],確保人工智能的“向善”發展。
回歸“人本主義”的邏輯基礎,對于人工智能倫理審查不僅僅需要思考技術對于人類具體人權的沖擊,還應客觀衡量技術“智能向善”所造成的公共利益挑戰。具體而言,“以人為本”的理念要求人工智能的發展不以損害基本人權為前提。對于人工智能的研發與應用,應謹慎評估技術演變所造成的倫理風險,衡量對于基本人權所造成的損害可能性。尤其是在涉及大模型算法、數據安全等領域時,更應該注重對隱私權、平等權等具體人權的沖擊。此外,人本主義的“智能向善”原則也要求技術的發展應實現社會福利的最大化,在保障基本人權的同時,推動社會經濟發展水平的高質量提升。對于技術的研發與應用,應兼顧公共利益的發展需求,避免私人資本的介入而違背科技“智能向善”的基本原則。需要注意的是,“以人為本”基礎上的“智能向善”也暗含著技術“向上”發展的邏輯內涵。不可否認的是,技術的發展作為經濟社會發展的強大驅動力,人工智能“向上”迭代已成為生產力變革的需要。因此,人本主義的“智能向善”原則并非限制技術的發展,而是通過指明技術發展的基本方向,使得技術的研發與應用貼合社會經濟的發展現狀,在滿足人本主義基本需求的同時,推動技術的“向善、向上”發展。
(二)公平公正:透明度與問責制的因果聯系
基于透明度和問責制的因果關系實現人工智能倫理的有效評估,是確保人工智能技術研發與應用結果公平公正的必然要求。理想狀態下,人工智能通過披露或者解釋算法保障個體的知情權,并因算法決策的復雜性與自動性而導致個體權益損害的情況下承擔責任。然而,人工智能所依賴的大模型訓練以及算法決策不可避免地因算法的復雜性、商業主體的逐利性以及內部邏輯的模糊性[45]而存在問責困境。深究算法透明度與問責制之間的因果關系,本質在于將公平公正的價值準則融入科技與法律的關系交互之中,即避免因技術的復雜性而模糊責任主體,以此為監管人工智能倫理提供有力的問責邏輯,保障人工智能應用場景下個體的合法權益。值得注意的是,透明度本身并非人工智能倫理審查的原則,而是作為評判人工智能倫理審查的因素之一[46]。人工智能相關主體如果未能符合透明度的要求,減輕因算法的復雜性與自動性所產生的公眾焦慮,則因此需要承擔因算法透明度不足的責任。
通過厘清透明度與問責制之間的因果聯系,將人工智能倫理審查的重點置于對算法形式與實質透明度條件的滿足之中,確保算法設計的公平性與算法結果的公正性。一是形式透明作為人工智能倫理審查的基本要求。形式透明要求人工智能的研發者或部署者在人工智能設計與應用之時,披露人工智能大模型的基本內容,包括但不限于所研發的大模型算法應用機理、模型參數、數據訓練來源以及其他與人工智能系統相關的標識[47]。形式透明的目的在于以一種直觀、表面的方式使得公眾可以快速認知人工智能的基本內容、知曉其內容生產的來源,以喚醒公眾潛在的安全意識。二是實質透明要求人工智能生成內容準確、可靠,滿足結果的公平公正。不同于形式透明,實質透明的重點在于深入人工智能系統內容,注重算法設計的公平公正,要求算法從實然層面滿足可被感知、可被解釋的需求。尤其是當人工智能系統產生損害個體權利的行為時,此時有必要就人工智能大模型的運行機理、數據輸入與輸出的因果關系以及算法的設計與應用性能予以解釋,使得“技術中立”原則得以實現于人工智能的服務與管理之中。
此外,透明度與問責制的因果聯系還要求人工智能倫理審查構建相應的問責救濟原則,確保個體以及公眾的合法權益得以維護。在審查人工智能倫理時,因算法黑箱效應以及人工智能大模型的復雜性所產生的權益侵害,應給予明確的責任承擔機制以及權益的救濟通道。具言之,人工智能倫理審查更加關注技術對基本人權的可能侵害,以及對權益受到侵害后的問責與救濟規則,且此種問責與救濟的程度應以公平公正為前提。因此,這要求人工智能倫理審查在回歸“以人為本”的原則要求時,同樣需要關注對于未能盡到透明度義務而產生的損害,以確保不因技術的發展而損害合法、正當的權益。
(三)穩定性與監管責任
穩定性與監管責任作為人工智能倫理審查原則構建的另一重點,目的在于合理控制因人工智能技術發展所產生的倫理風險,確保技術的發展與應用在實然層面的穩定、和諧。不同于傳統科技研發,人工智能因大模型算法的不可預測性以及較強的人機交互屬性,使得人工智能的研發和應用與生產生活的聯系更為緊密。這意味著,人工智能可能造成的損害風險將更加直接作用于經濟社會的發展之中,更加明顯損害個體的合法正當權益。穩定性原則的規定,主要是基于風險控制的考慮而進行的原則設定,而穩定性與監管責任之間的關聯則在于為人工智能倫理風險合理控制設置強有力的保障。無論是從事前的制度規范、事中的風險監控以及事后的懲罰與補救,均是強化人工智能穩定性發展,落實監管責任的應有措施。進一步而言,對于因人工智能所造成的倫理風險,應確保技術發展的穩定性以及權益保障的穩定性,并基于監管責任保障穩定性的落實。
人工智能倫理審查中穩定性原則要求最明顯地體現為人工智能技術的魯棒性與安全性。技術魯棒性與安全性要求技術系統在受到預期之外的異常數據輸入以及外部干擾等異常情況時,仍能夠保持系統運行功能和性能的能力。這意味著,人工智能技術的研發與設計應有足夠抵御外部風險的技術穩定性,避免因系統的不穩定而造成損害。值得注意的是,技術魯棒性和安全性的要求已經體現在相關人工智能倫理審查的規范之中,典型的如歐盟《可信賴AI的倫理準則》(ETHICS GUIDELINES FOR TRUSTWORTHY AI)便規定技術魯棒性與安全性作為實現可信賴人工智能的關鍵要素之一5。技術魯棒性與安全性的要求實則與防止傷害的理念緊密結合,目的在于避免因系統的不穩定性而造成無意的損害,這便要求人工智能系統在設計階段、運行階段以及結果階段確保穩定性。具體而言,設計階段應實現大模型算法的合理規劃與設計,確保所使用的算法是足夠可靠、準確的。同時,對于人工智能系統的設計應盡量避免主觀故意傷害因素的介入,算法的設計與部署需考慮在應用階段可能存在的錯誤性偏差,減少系統出錯的概率。運行階段則應注重整體系統操作的穩定性,確保人工智能系統的運行有足夠抵御外部攻擊的能力。對于運行過程中可能存在的黑客攻擊、病毒侵入等情況,應有足夠的應急處理方案緩解系統不穩定帶來的風險。結果階段則側重人工智能生成內容的真實性與準確性,避免因輸出結果的不準確而導致傷害。
此外,人工智能倫理審查穩定性原則的實現無法脫離監管責任的保障。監管責任的保障則圍繞事前制度的規范性、事中制度的可操作性以及事后監管措施的落實三個方面。在事前制度的規范層面,要求人工智能倫理審查實現制度規范的穩定性,從監管主體責任的落實、倫理監管的框架建構等方面著手確保事前人工智能技術規范與法律規范的完善[48];在事中制度實施層面,則要求在人工智能倫理審查的過程中,明確技術規范與倫理規范的落實情況,合理評估人工智能相關主體行為的倫理風險;在事后監管措施落實層面,則應加強對高風險人工智能活動的風險監督,實現對可能出現的人工智能倫理風險的動態跟蹤,確保合法權益的穩定性保障。通過以上三個方面的責任保障,人工智能發展的穩定性得以落實,因人工智能不穩定所造成的倫理風險也將得到有效預防。
五、結語
人工智能作為數字化時代下的產物,其發展并未完全擺脫以“人”為核心的使用目的,人工智能并非純粹的“智能”產物。智能時代的到來,技術以不同以往的新形態進入人們的視野,但技術始終無法脫離以人為目的的本質內涵。這意味著,對于技術的研發與應用,應以“人”為核心目的,并關注因技術所產生的倫理問題。面對因人工智能所產生的倫理問題,理應在堅持“以人為本”的核心原則下,遵守人工智能倫理審查的道德邏輯與政策邏輯,并以此理論邏輯為基礎,構建人工智能倫理審查的原則。需要明確的是,無論是技術影響個體合法權益的風險,抑或技術應用對社會價值層面所產生的沖擊,智能技術的發展理應回歸“以人為本”的倫理關注。在推動技術深層次迭代的同時,以一種與經濟、社會、人文高度融合的樣態實現“人文主義”的關懷,并基于“善”的目的推動人工智能向“上”發展。
參考文獻:
[1] 陳昌鳳,李凌. 算法人文主義:公眾智能價值觀與科技向善[M]. 北京: 新華出版社,2021: 3?4.
[2] 張平. 人工智能治理倡議,強調“人類權益”[EB/OL]. (2021-06-01)[2024-06-01]. https: //mp. weixin. qq. com/ s/PwIPEtcQzbUWlvsLVWMfzQ.
[3] 甘紹平. 科技倫理: 一個有爭議的課題[J]. 哲學動態,2000(10): 6?7.
[4] 于雪,凌昀,李倫. 新興科技倫理治理的問題及其對策[J]. 科學與社會,2021(4): 53.
[5] 于雪,段偉文. 人工智能的倫理建構[J]. 理論探索,2019(6): 44.
[6] 邱仁宗. 高新生命技術的倫理問題[J]. 自然辯證法研究,2001(5): 21?25.
[7] 樊春良,張新慶,陳琦. 關于我國生命科學技術倫理治理機制的探討[J]. 中國軟科學,2008(8): 59?60.
[8] MOOR J H. The nature, importance, and difficulty of machine ethics[J]. IEEE Intelligent Systems, 2006, 21(4): 18?21.
[9] 章文光,賈茹. 人工智能的社會倫理困境: 提升效率、輔助與替代決策[J]. 東岳論壇,2021(8): 93?96.
[10] 程承坪,彭歡. 人工智能影響就業的機理及中國對策[J]. 中國軟科學,2018(10): 64.
[11] DE RUITER A. The distinct wrong of deepfakes[J]. Philosophy & Technology, 2021, 34(4): 1312.
[12] CHESNEY R,CITRON D K. 21st century-style truth decay: deep fakes and the challenge for privacy, free expression, and national security[J].Md.L.Rev., 2018,78: 885?886.
[13] VACCARI C,CHADWICK A. Deepfakes and disinformation: exploring the impact of synthetic political video on deception, uncertainty, and trust in news[J]. Social Media+ Society, 2020, 6(1): 2.
[14] CHESNEY B,CITRON D. Deep fakes: a looming challenge for privacy, democracy, and national security[J]. Calif.L.Rev.,2019,107: 1778.
[15] RESNIK D B,FINN P R. Ethics and phishing experiments[J]. Science and Engineering Ethics, 2018, 24(4): 1241?1242.
[16] HELMUS T C. Artificial intelligence, deepfakes, and disinformation: a primer[R]. Santa Monica: RAND Corporation, 2022: 1?24.
[17] VON ESCHENBACH W J. Transparency and the black box problem: why we do not trust AI[J]. Philosophy & Technology, 2021, 34(4): 1608.
[18] BARTNECK C,LüTGE C,WAGNER A, et al. An introduction to ethics in robotics and AI[M]. Cham: Springer Nature, 2021: 63.
[19] 國家人工智能標準化總體組. 人工智能倫理風險分析報告[R]. 2019: 18?19.
[20] 黃文齡. 二十世紀三十年代美國南方黑人和“塔斯克基研究”[J]. 中國社會科學, 2014(8): 183?203.
[21] 滕黎,蒲川. 倫理審查委員會的法律地位初探[J]. 醫學與哲學(人文社會醫學版),2009(8): 48.
[22] 李建軍,王添. 科研機構倫理審查機制設置的歷史動因及現實運行中的問題[J]. 自然辯證法研究,2022(3): 53?55.
[23] 趙鵬,謝堯雯. 科技治理的倫理之維及其法治化路徑[J]. 學術月刊,2022(8): 93.
[24] 陳勇川. 回顧與展望: 我國生物醫學研究倫理審查的發展趨勢[J]. 醫學與哲學,2020(15): 2.
[25] ELLUI J. The technological society[M]. New York: John Wilkinson, Vintage Books, 1964: 140?141.
[26] CHANNELL D F. A history of technoscience: erasing the boundaries between science and technology[M]. Milton: Routledge, 2019.
[27] LATOUR B. Reassembling the social: an introduction to actor-network-theory[M].Oxford: Oxford University Press, 2005.
[28] 劉興華. 數字全球化時代的技術中立: 幻象與現實[J]. 探索與爭鳴,2022(12): 40?42.
[29] 鄭智航. 人工智能算法的倫理危機與法律規制[J]. 法律科學(西北政法大學學報),2021(1): 16?20.
[30] 謝堯雯,趙鵬. 科技倫理治理機制及適度法制化發展[J]. 科技進步與對策,2021(16): 110?111.
[31] 計海慶. 論科技倫理的治理創新[J]. 華東師范大學學報(哲學社會科學版),2022(5): 103?104.
[32] 王國豫. 科技倫理治理的三重境界[J]. 科學學研究,2023,(11): 1932?1937.
[33] 李林. 智能算法倫理審查進路的完善策略[J]. 學術交流,2023(4): 75?77.
[34] 江琴,左曉棟. 人工智能倫理審查與監管初探[J]. 中國信息安全,2023(5): 38?39.
[35] HUMPHREYS P. The philosophical novelty of computer simulation methods[J]. Synthese, 2009, 169: 615?626.
[36] 孟令宇,王迎春. 探索人工智能倫理審查新范式[J]. 科學與社會,2023(4): 101?104.
[37] 李建軍,唐冠男. 阿希洛馬會議: 以預警性思考應對重組DNA技術潛在風險[J]. 科學與社會,2013(2): 98?109.
[38] BODDINGTON P. Towards a code of ethics for artificial intelligence[M]. Cham: Springer, 2017: 57.
[39] 王學川. 科技倫理價值沖突及其化解[M]. 杭州: 浙江大學出版社, 2016: 31?32.
[40] 杜嚴勇. 人工智能倫理審查: 現狀、挑戰與出路[J/OL]. 東華大學學報(社會科學版),2024, https: //doi.org/10.19883/j.1009?9034.2024.0124: 4?5.
[41] 吳興華. 從“回應式”治理到“前瞻式”治理: 人工智能倫理治理模式的變革[J]. 理論導刊,2024(2): 62?68.
[42] 程新宇,楊佳. 人工智能時代人權的倫理風險及其治理路徑[J]. 湖北大學學報(哲學社會科學版),2024(3): 160.
[43] 汪鵬程. 科技向善的法治保障及其德治捍衛[J]. 自然辯證法研究,2023(10): 122.
[44] 付姝菊. 生成式人工智能視域下的人權: 張力、威脅與中國因應——以ChatGPT為例[J]. 湖南科技大學學報(社會科學版),2023(3): 129.
[45] BURRELL J. How the machine "thinks": understanding opacity in machine learning algorithms[J]. Big Data and Society, 2016, 3(1): 1?12.
[46] JOHNSON D G. Algorithmic accountability in the making[J]. Social Philosophy and Policy,2021,38(2): 111?127.
[47] 張永忠. 論人工智能透明度原則的法治化實現[J]. 政法論叢,2024(2): 126.
[48] 趙鵬. 科技治理“倫理化”的法律意涵[J]. 中外法學,2022(5): 1204.
Artificial Intelligence Ethical Governance of Science and Technology
Zhang Pinga,b,c
(Peking University, a. School of Law, Beijing 100871, China; b. Institute for Artificial Intelligence,
Beijing 100871, China; c. Wuhan Institute for Artificial Intelligence, Wuhan 430075, China)
Abstract: The new quality of productivity represented by artificial intelligence has gradually become a strong driving force for economic development in the intelligent age, and at the same time has led to the impact of technology on individual and collective legitimate rights and interests. Different from science and technology ethics and social ethics, AI ethics is the extension and concretization of social ethics in a specific technological field. It not only has to follow the basic principles of social ethics, but also has to deal with the specific challenges and problems brought by AI technology, such as deep forgery, network fraud, and algorithmic black boxes. In the face of these problems, it is necessary to clarify the theoretical logic of AI ethical review and the necessity of moral justification and policy regulation of AI ethical review. On this basis, for the construction of the principle of AI ethical review, it is not only necessary to ensure the "good" development of AI on the basis of adhering to the "people oriented" principle, but also necessary to ensure the fairness and impartiality of the institutional norms, to clarify the causal link between transparency and accountability, and to ensure the stability of the relationship between science and technology and the law. It is also necessary to ensure the fairness and impartiality of the institutional norms, clarify the causal link between transparency and accountability, and ensure the stability of the relationship between science and technology and the law, and implement the regulatory responsibility in the principle of AI ethical review.
Keywords: artificial intelligence; ethics of science and technology; ethical review; people oriented
基金項目:國家社會科學基金重大項目“推進土地、勞動力、資本、技術、數據等要素市場化改革研究”(21ZDA049);北京大學武漢人工智能研究院“東湖高新區國家智能社會治理實驗綜合基地”“智能社會數據合規開放及利用”“生成式人工智能技術的法律規制”研究項目
作者簡介:張 平(1958—),女,遼寧沈陽人,教授,博士生導師,北京大學人工智能研究院人工智能安全與治理中心主任,北京大學武漢人工智能研究院副院長,研究方向:知識產權法,互聯網法。
1 早在古希臘,醫學界就已經提出了“希波克拉底誓詞”以約束醫師的行為, 19 世紀,人們也已經開始認識到了人體實驗指南中知情同意的倫理問題,但《紐倫堡法典》意味著醫學研究對研究者的約束從基礎的非強制的道德約束開始上升為強制的法律約束,See J. Vollmann, R. Winau, Informed consent in human experimentation before the Nuremberg code, BMJ , Dec.7(1996), p.1445。
2 塔斯克基梅毒實驗(Tuskegee Syphilis Study)是美國公共衛生署以觀察梅毒在黑人病患身體中的自然發展情形而出現的嚴重醫療丑聞。
3 Protection of Human Subjects, 45 C.F.R. § 46 (1974).
4 《深圳經濟特區人工智能產業促進條例》《上海市促進人工智能產業發展條例》。
5 High-Level Expert Group on Artificial intelligence: ETHICS GUIDELINES FOR TRUSTWORTHY AI: II. Chapter II: Realising Trustworthy AI: 2 Technical robustness and safety Including resilience to attack and security, fall back plan and general safety, accuracy, reliability and reproducibility.