□ 趙 瑜 周江偉
內容提要 近年來,在世界范圍內涌現出大量的人工智能治理原則。這些文件通常采取“原則主義”的策略,通過提取“最大公約數”的方法對倫理共識進行清單化的列舉。這種策略固然有益于回避爭議、促進協同,但也難免在具體情境中陷入概念模糊和自相矛盾。為了明晰概念、澄清語境、促進對話,本文搜集了來自全球各地的88 份原則文本,在倫理學理論脈絡中定位人工智能治理核心議題和相關主張。研究發現治理原則圍繞著價值立場、價值目標和正義原則三個核心問題展開,在不同的理論脈絡和現實情境中,構成了一個豐富而系統的問題域。推動人工智能的治理實踐,需要在靜態的對話框架之上進一步構建動態的規制措施,而整合原則文本的倫理基礎和治理框架,有助于推動抽象的倫理主張轉變為具體的治理實踐,以應對復雜現實情境中的道德選擇和行動需求。
人工智能技術挑戰了現有的社會治理體系,如何在數字化、智能化轉型中尋求適當的治理形式成為國際社會共同面臨的問題。在過去的幾年里,已經出現諸多人工智能治理原則,它們試圖以一種“準立法”的方式推進相關領域的規制。這些原則往往重觀點表達而輕規制程序,因此也被稱為“軟法”。相較于缺乏彈性的“硬法”,“軟法”治理具有更好的敏捷性,能夠靈活地支持技術治理、協調社會行動,也為“硬法”的出臺做出準備。在我國,國務院于2017 年制定的《新一代人工智能發展規劃》中就確立了倫理規范、法律法規、政策體系“三步走”的整體戰略,2019 年科技部指導的國家新一代人工智能治理專業委員會發布了《發展負責任的人工智能:新一代人工智能治理原則》,確立了“和諧友好”“公平公正”等八項治理原則。
人工智能治理原則往往通過提取“最大公約數”的方法對倫理共識進行清單式列舉,以回避高層理論的邏輯演繹和由此產生的觀點沖突,這被認為是原則主義方法在該領域的體現。原則主義(Principlism)是一種源起于生命倫理學的中層方法,它擱置哲學理論爭議,以社會成員所共有的道德常識來構建基本框架,從而更高效地應對現實倫理困境。具體而言,原則主義對不同社會文化和思想脈絡中的道德觀點進行歸納,經過通約、簡化和列舉而形成倫理框架。這種方法試圖為社會成員提供識別并概念化倫理挑戰的共同話語,幫助缺少系統倫理學知識的從業者和相關機構做出道德判斷并形成實踐方案。
然而這種回避哲學傳統而訴諸道德常識和社會共識的方法正日益受到實踐挑戰和理論批評。首先,抽象原則缺乏明晰性和具體性。在通約和求取共識的過程中,倫理原則變得過度抽象或模糊,不僅遮蔽了隱含在同一議題下的觀念差異,也無法提供適應情境的實踐指南。其次,原則清單重枚舉而輕協調。同一份原則清單往往源自多個倫理傳統和理論脈絡,并列式的語言策略無法處理競爭價值排序的深層疑惑,也無法構建起不同倫理學脈絡之間的對話空間。
面對原則文本在明確性和協調性上的不足,有政策建議者向G20 組織提交了政策提議,要求建立人工智能治理協調委員會(CCGAI),協調人工智能的治理方案和行動。學術界嘗試借助多種方法對原則文本進行內容分析,以提供更為整體和清晰的描述。但基于文獻計量方法的分析依然不能有效解決關鍵概念的語境依賴問題,整合的結果自然也無法超越原則主義的“清單式”敘述。
本文嘗試建立一個可供比較和對話的整體框架,并在此基礎上整合和澄清現有人工智能治理原則的倫理基礎。首先,我們嘗試盡可能全面地搜集原則文本。文獻檢索主要通過三種方式進行:先是通過在線數據庫或匯總清單進行文獻檢索,共查找到三個在線數據庫和兩個匯總清單;然后是通過現有研究中整理的文獻清單進一步補充檢索;最后是通過搜索引擎檢索“AI guidelines”“AI ethic”等關鍵詞,對所得的前三十條鏈接進行人工訪問和篩選。在去除重復內容后,共獲得88 份原則文件。其次,在分析的過程中引入了闡釋主義的研究傳統:更加注重語境信息,以應對概念的多義性和靈活性;同時更加重視倫理理論脈絡梳理,使整體框架既從原則文本中浮現,又從理論命題中延展而來。
應當珍視誰的價值,是一切倫理觀首先要面對的問題。東西方的倫理傳統都體現了深厚的人類中心主義立場。在人類中心主義的價值立場下,人類被賦予了某種固有價值或價值的優先性,而人類之外的其他事物則僅具有服務于人的工具價值。
絕大多數的人工智能治理原則文本都體現了人類中心主義立場。其中有14 份原則文本對此做出了直接聲明。這些聲明在表述上略有差異,但總體可以歸納為三類:“人類中心”“聚焦人類”和“人類優先”。另一些文本則聚焦于人類與人工智能技術物的關系,嘗試在人類中心的立場下定位二者在價值譜系中的相對位置。具體而言,一方面是直接聲明人類相比于機器所具有的優先地位,如“我們把人類放在第一位,但也看到了人機交互的優勢”(45);另一方面則是在人機關系中界定機器的從屬性和次要性,要求在人機協同的關系中始終把人工智能視作實現人類目標的工具(1,46),其任務是協助而不是取代人類(19,22,30,40,71,72),更不能操縱和支配人類以使人類異化為工具。當人工智能被設想成為具有一定自主行動能力的行動者時,對其從屬地位的聲明就轉變為一種行動規范,要求人工智能尊重人類社會的價值、規范和法律。這種規范性要求已經逐漸在政府、科研機構和產業界構成的多元治理網絡中成為共識。2019年中國科技部(78)、北京人工智能研究院(77)和中國人工智能產業發展聯盟(73)先后發布了人工智能治理原則,符合人類的價值觀和倫理規范是三者對“以人為本”理念的共有闡釋。
價值立場差異也往往體現在對制度安排的主張中。國際技術法協會等非政府組織積極主張在法律上確認人工智能的工具地位,并明確地拒絕為其賦予法人資格(46,65)。關于機器人法律地位的討論往往也與具體的問責實踐相關聯。在問責過程中,首先要面對的問題是誰具有承擔責任的能力與資格。盡管有學者將道德視為一種后天養成的能力,肯定了技術物具有道德行動能力的可能性①,但這種能力在維貝克看來僅僅是引發道德影響的能力②,而不是承擔責任的能力。正如博文斯所指出的,問責制是基于行動者和問責者之間的社會關系③,在這個意義上技術物是否被接納為我們的社會成員構成了其是否能夠成為責任主體的必要條件。在大多數的原則文本中,人工智能依然被視為一種工具,而并非具有構成社會關系能力的同伴。
人類中心主義并不忽視其他事物的價值,例如由于生態環境關系到人類的福祉,具有某種不可忽視的工具價值,人類中心主義也關注人工智能對自然環境的影響,主張保護環境并促進其可持續發展。部分原則明確闡述了這種立場,如“人工智能系統應該造福全人類,包括子孫后代。因此,必須確保它們是可持續且環保的。此外,它們應該考慮到環境和其他生物”(76)。保護其他事物的主張也在另一種價值路徑中成立,即應當避免對其他事物的殘忍行為,從而防止人類對虐待同伴的舉動變得不敏感,正如康德所說的“對動物和精神的責任”。這種擴展的價值視野在中國科技部發布的《新一代人工智能治理原則》中被納入到“包容共享”意涵之中,被闡釋為對環境所持有的一種友好態度(78)。
隨著倫理學視野的擴展,人類中心主義的觀點也逐漸面臨著來自兩個方面的挑戰。其一是環境倫理的興起和發展,這質疑了人類對其自身價值優于其他物種的假設,并探討了賦予自然環境和其他非人類事物以內在價值的可能性。其二是將內在價值擴展到技術物的討論。一方面,有觀點試圖否認人類的特殊性。梅特里就曾將人的身體類比為“一架巨大的、極其精細、極其巧妙的鐘表”④,并由此否認人類之于技術物的特殊性,主張將人類享有的權利和尊嚴擴展到技術物上。另一方面則是對于超級人工智能的想象,使人們開始考慮如何面對人類以外的擁有理性和情感的事物,以及是否應將其納入“目的王國”中。
部分原則文本呼應了以上兩種思潮。就有關生態環境的聲明來說,這些原則的制定者對人類中心主義的立場保有謹慎態度,將人類福祉、動物福祉或生態福祉并列敘述,卻沒有明確地表達它們之間的關系,更沒有將其置于一個等級序列中進行比較,這在一定程度上體現一種廣泛存在的立場猶豫。但也有個別原則試圖在人類利益和其他生物或生態環境利益之間進行平衡,如“AIS 必須允許個人追求自己的喜好,只要他們不傷害其他有情生物”(12)。就有關技術物的聲明而言,《韓國機器人憲章2012》做出了具有爭議性的聲明,主張超越人類中心主義的立場,賦予機器人類似于人類的基本權利,例如免于擔憂受傷或死亡的生存權利和不受虐待的權利。據此該憲章將故意損壞或摧毀機器人、由于重大過失使機器人受傷、以故意和過分侮辱性的方式對待機器人的行為視為犯罪(2)。
生命未來研究院立足于一個更長遠也更具超越性的視野,在其頒布的《阿西洛馬人工智能原則》中認為“超級人工智能可代表地球生命歷程中一個深遠的變化”(12),這顯示了更為徹底的非人類中心主義,不僅承認了地球生命形態的多樣性,更將內在價值從具體的生命形式中抽離出來予以獨立的尊重。
盡管也有原則關注了人類之外的價值主體,甚至主張它們與人類共享內在價值,但這些聲明往往被一筆帶過,缺少更詳細的分析與闡述。在搜索到的88 份原則中72 份持有人類中心立場,16份因關注了自然環境、其他生物或人工智能等非人類的固有價值而持有非人類中心主義立場。整體而言,人類依然是議題的中心,現有原則大多未將人工物納入“目的王國”,這也構成了人工智能治理的價值目標和正義原則的邏輯起點。
福祉(well-being),有時候也被稱作“審慎價值”(prudential value),用以區別于審美價值和道德價值。關于福祉的討論始終圍繞著“be good for”(造福于/對…好)的議題展開⑤,正如凱根所指出的,對任何一種試圖闡釋有關人類福祉的本質和來源的理論,都必須滿足“有益的條件”⑥。在人類中心主義的立場下,福祉所面對的核心問題是一般意義上非工具性的、好的生活是怎樣的,什么樣的事物有益于人類實現這種生活。
尊嚴一般而言指受到尊重的權利。西塞羅是最早討論人類尊嚴的哲學家之一,他將尊嚴與特定地位相關聯。他認為,在政治領域尊嚴來自于官職、等級等身份地位,而當尊嚴被推及到普遍化的人時,便來自于人類在宇宙中相較于其他自然事物所具有的更高地位。正如阿德勒所指出的“人的尊嚴在于人之為人的尊嚴,是一種擺脫他物所有而具有的尊嚴”⑦。這些被視為人類天性的特征在近現代社會轉型過程中被制度和法律加以確認和保護,維持和發展這些天性被認為是人類與生俱來的、不可侵犯的權利。
雖然福祉和尊嚴的議題各有側重,但它們共同回答了應當珍視何種人類價值的問題。這兩個概念也并非彼此孤立或相互排斥,在不同的理論源流中它們的意義邊界常常相互交疊,有時甚至可以彼此通約。例如,對亞里士多德來說,福祉的實現有賴于作為最終目標的“至善”的達成。在“至善論”福祉觀的基本形式里,“人類的美好生活是由人性決定的,人性包含一套特定的能力,這些能力的鍛煉和發展對人類有好處”⑧,而這也意味著福祉與尊嚴的概念被統一了起來。
在人工智能原則文本中,有關人類福祉的聲明在兩個層面展開。其一是人類集體層面的福祉,它指向了人們共同確認的社會目標,而人工智能技術則被期望用于促進這些目標的實現。這些目標在許多原則文本中被概述為一種關于更好社會生活的總體期待,如“服務文明進步”(78)、“取得社會重大進步”(46),“創造更好的社會……塑造共同美好的未來”(34)等。這種有關總體愿景的表述,在中國主流語境里與儒家和諧社會的價值觀念相結合。在《新一代人工智能治理原則》中,“增進人類共同福祉”的目標被納入“和諧友好”的原則中,并成為其首要內涵。也有原則文本指向較為具體的社會目標,諸如經濟效益、公共衛生、精神文化和公共安全等,它們共同構成了有關人類集體福祉的目標列表。公共部門往往通過這種方式來聲明和推進人工智能發展的優先事項,如美國白宮在《人工智能應用監管指南》中所指出的“人工智能預計將對社會和經濟生活的各個部門產生積極影響,包括就業、交通、教育、金融、醫療保健、個人安全和制造業。”(83)
其二是人類個體層面的福祉,它關注一般意義上的、抽象的人類個體。在搜集到的文本中,基本所有關于福祉的主張都在個體層面上回避了經典的“快樂主義”和“欲望主義”的福祉觀念,其背后原因與人工智能技術的持續發展使“體驗機器”的隱喻逐漸可能成為現實有關⑨。“體驗機器”的隱喻假設如果人的經驗可以借由機器模擬產生,那么這種虛擬的愉悅感或欲望滿足的體驗是否在實際上增進了人的福祉?人工智能的快速發展,直接地強化了相關爭議。目前僅有少量原則以慎重的方式討論了人工智能在創造快樂和滿足欲望上的價值,但更多的文本延續對“體驗機器”的道德憂慮,強調“情緒和意向的幻覺不應該被用于剝削脆弱的用戶”(1)。
同時,共有28 個原則文本在個體層面的福祉聲明中強調對某些人類能力的鍛煉、補充和擴增。相關主張不僅涉及在主觀上增強人類的認知能力(76,75),使人類能夠面對更加復雜的認知對象(84),還要求在客觀上擴展和補充人類的經驗(26),促進知識獲取機會的增長(42),從而在結果上能夠提升人類對世界的理解(4),以求更快、更準確地處理和評估事實(66),做出更加明智的選擇和決策(76,66),提出有前景的新想法和新策略,解決人類面對的問題(84)。基于“至善論”的福祉主張往往也聚焦于特定的社會群體,特別是在生理上失能或在社會結構中處于弱勢地位的群體,如女性(37),老年人(47),殘障人士(16)等。人工智能技術在賦能弱勢群體并改善他們的不利處境上被寄予厚望。
人類的尊嚴依系于自身的固有特性,在啟蒙主義的傳統下,理性被視為人之為人的關鍵。正如康德所說的“如若它們是無理性的東西,就叫做物件(Sachen)。與此相反,有理性的東西,叫做人身(Personen)”⑩。而理性的特質又使得人類能夠自己選擇并決定著自己的行動。由此理性、自由和自治被內在地統一起來,構成了啟蒙主義者眼中人類最根本的天性。
然而隨著人工智能技術的發展,機器智能作為另一種可能的理性行動者,引發了關于理性是否為人類所獨有的爭論。盡管多數文本嘗試回避爭議,但仍有原則對此做出直接的回應。世界科學知識和技術倫理協會在其《機器人倫理報告》中就明確重申理性作為人類獨有天性的觀點,認為盡管機器人可能擁有超越人類個體的認知能力和學習能力,但它們僅僅是人類創造力的結果,并不能為自己設定目的,不能將機器人與人類混淆(15)。
人工智能的發展在某種意義上也在促使人類重新審視自身的特性,隨著自動化技術的日漸成熟,機器智能實現的功能越來越多,尋找人類的不可替代性并使人類從事更有意義、更符合自身特性的工作,也是治理原則中頻頻出現的議題。許多原則文本強調了人類在情感和社會關系上的不可替代性(3)。除此之外,直覺、創造力等通常無法由機械推理實現的特征也被看作是人類所特有的(24)。一些原則超越了傳統的尊嚴觀念,認為人類的尊嚴不僅指獨有的優越性,還包括獨特的弱點和缺陷,主張無論是生理還是心理上的人類弱點都應該得到尊重(3)。
維持人類特性的要求與賦能人類增進福祉的主張之間存在著張力。雖然使用技術矯正和恢復人類功能的傳統長期存在,然而隨著技術想象的延展,人類不再僅僅尋求修復,而是試圖增強自身以獲得超過人類能力邊界的生理和心理特征,這種思潮被稱作“超人類主義”或“后人類主義”。為此《歐洲機器人民事法規則》納入一條特別的原則,要求“限制人類使用增強技術”,以避免現有形態的人類被遺忘或因被迫采用增強技術而消失。
在維護和尊重人類基本權利層面,相關議題主要圍繞著身心健康的權利和自由、自治的權利展開。為避免人工智能直接或間接地對人類生理造成損害成為核心議題,限制和規范人工智能技術在自動化武器上的應用受到高度關注和密切討論。一些原則明確拒絕將自動化技術用于武器制造(41)以及其他暴力與戰爭行為(4)。人工智能在心理健康方面的影響也日益受到關注,如何避免人工智能技術給人類帶來精神困擾往往是討論的焦點,例如避免人工智能刻意模仿或展示殘忍行為以造成精神創傷(11),或是增加壓力、焦慮,使人類感到被數字環境騷擾(12)等。此外,鑒于人工智能系統日益中介并調節著人類的社會交往,有原則也主張人工智能不應損害人類情感關系的維系,避免造成或加劇人的脆弱性和孤立性(11)。
就自由和自治的權利而言,有關保障人類自主決策和自由選擇的主張是最主要的共識,特別是要求人工智能技術在應用過程中避免使人類受到欺騙、脅迫或操縱(1,11,42,54,52,76),而人類也應獲得足夠的信息、知識和行動能力來做出自主決定(38,42,70)。除此之外,個別原則還關注到了表達的自由(26,38,62)和發展自由(62)。
關于隱私權的保護是最受關注的議題之一,超過半數原則文件涉及該議題。現有原則體現了隱私權內容從私生活自治向個人信息自決的擴展,要求在包括收集、存儲、處理、使用等各環節的信息生命周期內,個人都對其信息擁有主要的控制權。隱私議題也是人工智能治理原則立法落地的熱點和焦點。
上述討論關注“什么是有價值的”,而正義原則所面對的問題則是“如何正確地對待這些價值”。
通常,從普遍的道德直覺出發,維護和促進有價值的事物本身就具有正當性。效益因此被看作是正當性的重要面向,大量原則圍繞著“有益”“非傷害”和“收益損失衡量”展開論述。
這些原則主張發展和應用人工智能所帶來的收益應當大于損失,并在合理范圍內使收益最大化,并將風險和損失維持在“社會可接受的范圍內”(23)或使之最小化。這種功利主義的考量也牽涉到風險管理與創新之間的張力,有原則認為我們同時也要考慮不使用人工智能技術所產生的潛在損失和風險(83),主張合理的風險能夠促進技術發展(65),在適當的情況下,應該避免過度的風險管控對技術創新和效益增長的阻礙(83)。
盡管效益之于正義是不可回避的議題,但在更多的情況下,有關正義的討論側重于“有價值的東西如何被正確分配?”。對分配問題的考量在任何社會都不可回避,特別是當難以避免的利益沖突發生時,如何在社會范圍內分配收益和損失,成為正義問題的核心關切。總體而言,人工智能治理原則體現了兩種分配觀念。
其一是效益優先的分配觀。這種觀念往往建立在功利主義的基礎上。盡管在一些批評者看來,功利主義是只考慮了總體福利如何最大化,而不關心這些福利如何在社會中進行分配。但實際上,功利主義至少在兩個層面處理了有關“分配”的問題。首先,總體福利原則內含個體利益和總體利益、少數人利益和多數人利益之間的衡量與分配。其次,在個體之間如何分配利益的問題上,由于功利主義主張的正當性不完全取決于個人的福利水平而是最終取決于整體的福利水平,它要求我們在自我利益和他人利益之間進行衡量和累加。正如謝夫勒所指出的,功利主義允許(甚至要求)一個行動者為了追求行為的非個人價值,而犧牲個人規劃與承諾的道德重要性。?而近年來活躍于公共領域的“有效利他主義”(Effective altruism)也是功利主義的一個變體。?
功利主義也并不必然期待一個多數人利益壓倒少數人利益的社會現實,而是將希望寄托于一個理想化的情境,在那里個體和整體間共享一致的利益,當總體利益最大化時,個體的利益也得到了最大化。一些原則表達了類似的理想期望,它們既希望讓盡可能多的人收益,又期待每一個人都是受益者,通過創設這樣的理想情境來消解功利主義視域下局部和整體之間的張力。另外一些原則直接回避了這一問題,僅主張在整體上衡量收益與成本、損失與風險,以求最大化人工智能帶來的益處或最小化風險與傷害(41,60,77)。也有原則直面了利益衡量的困境,承認人工智能的部署會給某些群體帶來風險或負面影響,但能夠為其他群體創造收益(64),并以此要求分析和確定各方在技術中獲得的收益,確保大多數人或者盡可能多的人從中受益。至于在局部產生的損失和風險,則可以通過為個人、組織、政治實體和整個社會創造的利益來抵消(5),從而保證人工智能對世界產生“凈積極影響”。
其二是公平優先的分配觀。這種分配觀在根本上挑戰了功利主義,將對差異和平等的安排置于正義問題的核心。功利主義或者一般目的論的基本假設是將“正當”的概念依附于“善”,并以后者定義前者,從而將正當問題轉變為如何確定某種善并將其最大化。以羅爾斯和諾齊克為代表的當代學者在不同的理論路徑上主張將“正當”獨立于“善”,進而將合理的分配形式和待分配的內容分離開來。羅爾斯在康德式的“先驗主體”的論證中,拒斥了具有經驗內容的“善”的絕對優先性。他認為某種“善”作為目的被選擇之前,必然已經存在一個具備選擇能力的自我,自我優先于目的,而目的則由自我加以確認。作為被選擇內容的“善”才具有從屬性,“正當”與“善”的關系乃是評判標準與所要評價事物之間的關系。諾齊克則沿襲了洛克的自然權利理論,認為奠基于人類尊嚴的自然權利及人們的合法所得具有一種先驗的正當性,不可以為了實現某種“善”而受到侵犯?。
確立一種獨立并優先于任何具體“善”的正義原則,使得圍繞“善”的不同取向而產生的社會差異不可避免。如何對待差異,以及在何種意義上主張平等,就構成了公平問題的兩個主要方面。
平等最簡單而極端的形式是“平均主義”,要求每個人都受到同樣的對待,特別是在分配結果上的平等。正如有原則主張廣泛而平等地分配人工智能技術所帶來的收益(14),或發揮技術潛力來克服當前社會的不平等(77,88)。這些帶有技術烏托邦色彩的平均主義主張通常被認為過于嚴格而難以實現。批評者一方面認為分配的平等并不必然帶來滿足的平等,另一方面也認為平均分配消除了社會經濟領域的有效激勵,再分配的成本也催生了浪費性低效?,因此有必要在平等和效率之間做出平衡。即便是主張消除階級差異的共產主義思想,也并不支持“平均主義”的觀點。馬克思在《哥達綱領批判》中闡述了拒絕“平均主義”的原因,他認為“平均主義”對平等的絕對主張會忽視其它道德觀點,最終會導致實質的不平等,更關鍵的問題在于如何消除社會中的沖突和支配關系,促進人的自由發展。在這個意義上消除階級差異的目的在于解放而非平等。?這種解放的觀念也體現在現有原則中,如“人工智能的發展必須有助于消除群體和個人之間基于權力、財富或知識差異的支配關系”(11)。
與“平均主義”不同,亞里士多德主張一種合乎比例的安排。他承認人與人之不可消弭的差異,進而認為平等就是根據這種差異按比例分配與之相稱的事物,從而認可了合理的差異。但由于沒有對如何安排差異做出任何實質性的規定,這通常被認為是一種形式上的規范。
古典自由主義者對此做出的回應涉及到“機會平等”和“基本權利和自由的平等”兩個維度。他們主張人具有“自我擁有”(self-ownership)的自然權利,人們能夠平等地運用自己的天賦獲得收益。因此只要保障人們享有平等的自由和權利,在一切機會向所有人開放的情況下,個人發展所致的差異便應當被接受并被視為“道德上的應得”。許多原則也體現了這種觀念,比如,將人工智能作為一種社會資源,使包括代碼、訓練數據和其他相關信息在內的資源向所有人開放(68),就契合了自由主義所主張“機會平等”原則。
由于正義長期以來被認為是隨意性的對立面,對自然和社會的“偶然因素”或者個體層面的“運氣”的忽視,使古典自由主義的主張受到了挑戰。正如羅爾斯指出“天賦自由制度最不公正之處在于,從一種道德的觀點看,這一理論允許分配份額如此隨意地受到這些因素的不合宜的影響。”?古典自由主義的修正者試圖通過補償那些偶然所致的社會差異來實現“起點的平等”。在現有原則中這種觀點體現在兩個方面,一是通過人工智能技術填補人類的起點差異,比如通過技術賦能弱勢群體,創造一個更公平的競爭環境(16);二是在人工智能技術紅利的獲取上的“起點平等”,比如通過轉移支付或社會援助等方式使經濟弱勢群體也能夠享有獲得技術設備的機會(76)。但這種修正依然無法應對人們自然天賦的偶然差異,這也意味著“應得的正義”中始終包含著某種隨意因素。
以德沃金為代表的運氣均等主義者試圖區別對待不同的“運氣”,并劃定不平等后果的責任范圍。?羅爾斯并不試圖區分不同的運氣,而是將天賦和好運視為“共同資產”,在保障基本自由平等和機會平等的基礎上,遵從“差別原則”,使社會制度的安排能夠充分利用這些資產來促進公共利益,并使最不利者在這種整體利益的增長中獲益。?對“最不利者的利益”的關注廣泛出現于現有治理原則中,這些“最不利者”被同樣抽象地描述為“應該特別考慮保護的人”“弱勢群體”“代表性不足的人口”,或者被包含在“所有人”“每個人”之中,而如何具體定位人工智能技術部署之下的“最不利者”卻鮮見于原則論述中。相對具體的討論則聚焦于人工智能可能帶來的社會勞動力結構轉型,關注那些因缺乏數字素養而面臨失業的人群,主張他們應該受到社會的特別關照并受惠于人工智能技術。最核心的主張是開展教育培訓,使人適應新的技術-社會環境并重新發現自我價值。
上述討論更多著眼于何為正義或如何實現正義,但正義問題還要求我們考慮不正義發生后如何應對的問題,這就指向了正義的糾錯維度。有8份原則文件涉及了糾錯的議題,其中多數原則在較為抽象的層面呼吁救濟或糾錯,而具體指向則主要包括經濟補償(15)、司法救濟(42)等方面。
原則主義試圖回避爭議,通過清單式的整合為倫理實踐和社會行動提供基本指南。但借助通約和列舉形成的倫理框架,在概念的明晰性和原則間的協調性上存在問題。而隨著治理主體日益多元化,激增的人工智能治理原則文本間也日益難以協調。本研究在眾多版本的原則主義“清單”之上,通過尋找整合框架而不是尋求最大公約數的方式來促進原則文本間的對話。如果將清單中的原則視為對特定倫理問題的回答,那么尋找整合框架就是澄清這些問題和回應方式的思想基礎。
通過梳理88 份人工智能原則文本,我們發現這些原則回應著三個彼此關聯的倫理問題:價值立場(珍視誰的價值)——價值目標(珍視何種價值)——正義原則(如何正確地對待這些價值)。三個核心議題在不同的理論脈絡和現實情境中又派生出更具體的問題,構成了一個豐富而系統的問題域。問題的澄清使涵蓋在某些關鍵概念中的豐富意涵和不同回應之間的張力得以顯現。例如絕大多數的規范性文件都贊同人工智能的有益、非傷害、公平分配原則,但字面上的共識并不意味著倫理考量起點的一致性,更不代表技術部署和規制實踐措施的統一性。厘清原則文本的理論脈絡差異和觀點張力,能讓我們更清楚地意識到為什么激增的文本并未有效回應不斷涌現的技術后果,遑論形成人工智能規制合力。
我國在人工智能治理方面采取了“軟硬結合”的方式,成效顯著。2017 年國務院印發《新一代人工智能發展規劃》正式將人工智能上升為國家戰略,并提出在2025 年初步建立人工智能法律法規、倫理規范和政策體系。從法律法規角度,我國先后施行《網絡安全法》《數據安全法》《個人信息保護法》,深圳、上海等地率先就人工智能產業立法,共同構筑起國家安全、數據治理和產業部署的法律框架。2021 年底多部門聯合發布《互聯網信息服務算法推薦管理規定》,在宏觀規制的基礎上開始聚焦人工智能的具體應用場景,其中算法備案等舉措切實地回應了既有倫理原則中關于透明性、可解釋性的主張。
“硬法”落地雖有助于構筑剛性的社會規范框架,但也容易導致產業發展的合規成本高企,因此更具敏捷性的“軟法”在這一階段引起更多的關注。在倫理規范體系建設角度,國務院和科技部是主要的推動者,科研院所、產業聯盟與之配合共同回應人工智能的價值立場、價值目標和正義原則。總體而言,我國人工智能倫理治理秉持人類中心主義,在安全可靠的前提下強調技術對經濟、社會、生態可持續發展方面的使能作用。增進人類福祉、尊重生命權利等基本原則同時重視集體福祉和個體福祉的提升,對人類命運共同體的強調進一步體現了國際主義的宏闊視野。堅持公平公正成為國內人工智能應用的基本原則,強調技術對最大多數人的公正分配,合理控制風險、保持公開透明則體現了使用機會均等和保障技術弱勢群體的分配觀。在本文分析的88 份原則性文件中,中國的倫理治理模式側重平衡,既未如美國一般多強調行業自律,也不似歐盟密集立法,而在放任主義和寒蟬效應的極端之間尋求中國式治理模式。在本文述及的國內倫理原則文本中,起草者主要為科技部、國家和地方的產業聯盟,顯現多主體參與的“元治理”嘗試。
元治理被認為是對治理的治理,即對不同治理主體進行協調,理性選擇并有機組合不同治理形式?,在彌補單一治理不足的同時,減少碎片化和重疊性。?隨著人工智能治理所面對的現實情境日益復雜,參與到治理實踐中的主體日益多元,尋求整合框架就是一種“元治理”的嘗試。
本文所搜集的原則文本中來自公共部門及其智庫機構的文本僅占不到四成,企業與其它社會組織正在積極參與相關話語的建構,各國政府也積極通過引導行業自律和向社會購買服務等形式將多元主體納入治理網絡。中國政府就在《新一代人工智能治理原則》中將“開放協作”作為指導性原則之一,要求“推動國際組織、政府部門、科研機構、教育機構、企業、社會組織、公眾在人工智能發展與治理中的協調互動”。
良好的對話框架是元治理得以開展的基礎,當治理網絡中的行動主體之間發生分歧和沖突時,促進彼此間的對話和協商能夠減少治理失靈的程度,形成更靈活的治理組合。而元治理往往涉及到在價值和規范層面形成治理秩序,用以推進和評估治理實踐。?面對不同的治理方案和倫理主張,積極建構對話框架,促進多治理元主體的協商與協同,毫無疑問地成為了元治理的應有之義。而本研究的目標也正是為這一框架的建構提供學理層面的參考,并在經驗層面引導對話,以澄清并組織既有治理觀念的倫理基礎。
此外,在具體的現實情境中,如何將抽象的倫理主張轉變為具體的治理實踐,在多元的價值取向之間進行選擇和行動也是元治理的重要議題。推動人工智能的治理實踐,需要在靜態的對話框架之上進一步構建動態的程序規則,以應對復雜現實情境中的道德選擇和行動需求。部分學者批評現有人工智能治理原則是“道德粉飾”,旨在掩蓋和回避真正的現實問題為相關行動者提供道德“避風港”。其實,盡管原則主義方法不能很好的解決理論和觀念的爭議,但它引入的“反思平衡”程序體現了對實踐價值的重視,而這也是經典的倫理理論的薄弱環節。
對人工智能原則核心議題的梳理,就是在承認多元主體參與治理的合理性基礎上,探尋他們的治理目標、行動場域和對話機制,讓人工智能領域的元治理成為可能。總體而言,全球范圍內數量繁多的人工智能治理原則文件,雖規制主體、規制重點和規制路徑不同,但它們都在價值立場、價值目標、正義原則這三個維度進行了澄清和細化,理清其間的理論脈絡和爭議焦點,為抽象原則的落地實施提供更了為翔實的學理積淀和行動共識。

附表 研究涉及的人工智能治理原則文本


注釋:
①劉憲權:《人工智能時代機器人行為道德倫理與刑法規制》,《比較法研究》2018 年第4 期。
②彼得·保羅·維貝克:《將技術道德化》,閆宏秀、楊慶峰譯,上海交通大學出版社2016 年版,第62 頁。
③Bovens M,“Analysing and assessing accountability:A conceptual framework”,European Law Journal,2007,13(4),pp.447~468.
④拉·梅特里:《人是機器》,顧壽觀譯,商務印書館1999 年版,第65 頁。
⑤⑧Fletcher G,The philosophy of well-being:An introduction,Routledge,2016,p.5,p.95.
⑥Kagan S,“The limits of well-being”,Social Philosophy and Policy,1992,9(2),pp.169~189.
⑦Adler M J,“The dignity of man and the 21st century.”A Speech Delivered to Members of The Commonwealth Club,1952.
⑨?Nozick R,Anarchy,state,and utopia,Basic Books,1974,p.1,p.47.
⑩伊曼努爾·康德:《道德形而上學原理》,苗力田譯,上海人民出版社1986 年版,第80 頁。
?Scheffler S,The rejection of consequentialism,Oxford University Press,1994,p.61.
?MacAskill W,“Effective altruism:introduction”,Essays in Philosophy,2017,18(1),pp.1~5.
?Okun Arthur M,Equality and Efficiency:The Big Tradeoff,Washington,The Brookings Institution,p.117.
?Marx Karl,Critique of the Gotha Program;reprinted in Marx-Engels-Werke(MEW)vol.19,Berlin 1978;and in Marx-Engels-Gesamtausgabe(MEGA-B),Berlin 1975,vol.I 25.
??約翰·羅爾斯:《正義論》,何懷宏、何包鋼、廖申白譯,中國社會科學出版社2009 年版,第58~69 頁。
?高景柱:《德沃金與運氣均等主義理論》,《西南大學學報(社會科學版)》2021 年第2 期。
?于水、查榮林、帖明:《元治理視域下政府治道邏輯與治理能力提升》,《江蘇社會科學》 2014 年第4 期。
?Gjaltema J,Biesbroek R,Termeer K,“From government to governance… to meta-governance:a systematic literature review”,Public Management Review,2020,22(12),pp.1760~1780.
?Kooiman J,Jentoft S,“Meta-governance:values,norms and principles,and the making of hard choices”,Public administration,2009,87(4),pp.818~836.