孟天廣,李珍珍
以大數據、人工智能等為代表的新興信息通信技術推動全社會快速地數字化和智能化,人類社會正走向智能時代。近年來,隨著人工智能發展進入快車道,智能化應用浪潮席卷而來,以數據為原料、以算法為引擎、以算力為支撐的智能社會快速來臨。算法作為人工智能技術的核心,在提升社會經濟運轉效率和國家治理效能的同時,也重構著市場秩序與治理體系,深刻地影響著國家與社會、技術與社群之關系的演變。
伴隨著智能社會的到來,人們逐漸注意到算法技術的負外部性,如算法致癮性推薦與認知窄化、大數據“殺熟”與歧視性定價、機器自動化決策與社會圈層化加劇等智能時代的新型社會風險。算法的濫用不僅危害著用戶的合法權益,還可能使社會為之付出高昂的成本。算法的兩面性意味著智能時代的算法治理不僅涉及使用算法進行治理,更要包括對算法進行治理,使其能夠合乎倫理地釋放巨大價值。
現階段,算法風險治理已經成為國際趨勢。一方面,多國政府對人工智能和算法監管走向實際的立法和執法,譬如歐盟、中國均將算法監管作為人工智能監管的關鍵維度;另一方面,全球范圍內的科技社群和科技企業也越來越關注算法的倫理問題,開始制訂多元化人工智能與算法應用的倫理指南。從作為法律法規的“硬法”和作為倫理準則的“軟法”兩方面來看,算法治理的既有框架大多包含自主決定、公平公正、安全可靠、透明公開、責任擔當、隱私保護等倫理要素。這一趨勢也體現在學術研究中,近年來學術界從技術、應用、過程、結果等多個視角分析了智能時代算法驅動所帶來的新生社會風險及其產生的倫理問題。
本文基于既有研究對算法風險的認知框架,從算法治理的價值和路徑兩個維度,初步構建一個基于“權力—權利”和“技術—社群”的算法治理理論框架。算法治理的價值維度在于確立算法權力與用戶權利之間的平衡,算法治理的路徑則主要涉及技術機制與社群機制。基于這一理論框架,本文基于算法治理的自主、安全、公平、透明四個關鍵倫理原則,闡述了這些原則的內涵及其治理邏輯。這能為正處于探索階段的人工智能算法的監管實踐和制度設計提供一個理論思路,有助于在算法技術的效率優勢和倫理價值之間尋求平衡。同時,本文也試圖為算法風險及其倫理的理論推進,尤其是從“技術—社群”兩個系統互動的關系視角提供一個理解算法風險及其治理邏輯的類型學框架。
在計算機科學意義下,算法通常指“為了解決一個特定問題或者達成一個明確目的所采取的一系列步驟”①DIAKOPOULOS N.Algorithmic accountability:journalistic investigation of computational power structures[J].Digital journalism,2015(3):398-415.,其目的是達成給定情況下的最佳行動或者對給定數據作出最佳理解。譬如,數據挖掘就是使用算法來理解數據的一門學科,即“利用數據發現新的模式和知識,并生成可以用來對數據進行有效預測的模型”②VAN OTTERLO M.A machine learning view on profiling[M]//HILDEBRANDT M,DE VRIES K.Privacy,due process and the computational turn:the philosophers of law meet philosophers of technology.Abingdon:Routledge,2013:41-64.,而算法設計是數據挖掘的關鍵環節。
在智能時代,算法作為人工智能技術的核心,已經不可逆轉地滲透到日常生活乃至國家治理領域,全方位重塑著社會經濟運行。然而,由濫用人工智能算法而產生的社會風險與倫理事件也不斷沖擊著人們的神經,引發社會熱議。譬如,新聞個性化推薦中低俗、同質化內容增多,搜索引擎競價排名,購物平臺利用大數據“殺熟”,外賣系統算法變成監工試探配送時間底線,等等。這些現象不斷將算法及其掌控者推向風口浪尖,引發社會的廣泛關注。簡言之,算法在全面賦能人類社會發展,為人類生產生活帶來效率和便捷的同時,也引發或激化了技術與社會系統之間分歧和沖撞。人們擔心算法會導致用戶過度沉迷而喪失自主性、社會公平性缺乏,乃至隱私安全等危及人類社會的嚴重后果。
人工智能算法風險已經成為哲學、政治學、法學、智能科學的熱點議題。學界從人工智能算法的技術邏輯和權力屬性角度,討論了其應用于商業領域及嵌入國家治理與公權力使用之中的風險,并提出諸如“信息繭房”、算法“黑箱”“算法利維坦”等新概念,試圖闡述算法的嵌入對社會經濟運行產生的深遠影響。
首先,從個體角度看,人們日常使用的新聞服務和信息分發智能化算法伴隨著造成“信息繭房”的認知窄化風險。當前,數據爆炸與個人信息系統容納量不足,很容易導致個人信息超載,因而愈發需要基于習慣和偏好的差異化信息消費③喻國明,曲慧.“信息繭房”的誤讀與算法推送的必要——兼論內容分發中社會倫理困境的解決之道[J].新疆師范大學學報(哲學社會科學版),2020(1):127-133.。在此背景下,基于智能推薦算法的個性化信息服務開始興起。智能推薦系統運用協同過濾推薦、內容推薦、關聯規則推薦等技術,幫助用戶降低信息噪音、提高信息消費效率④喻國明,韓婷.算法型信息分發:技術原理、機制創新與未來發展[J].新聞愛好者,2018(4):8-13.。然而,智能推薦算法也有可能導致“信息繭房”,即用戶只聽他們選擇的、令他們愉悅的內容⑤桑斯坦.信息烏托邦——眾人如何生產知識[M].畢競悅,譯.北京:法律出版社,2008:8.。智能推薦算法對信息的過濾,可能阻礙異質性信息消費與多元化觀點交流,導致用戶處于算法打造的“無菌環境”或者一個性化的“過濾氣泡”中。不論是“信息繭房”還是“過濾氣泡”,都直指算法時代個性化信息服務下的“信息偏食”,造成用戶信息視野狹窄并對其觀念與行為產生影響①彭蘭.導致信息繭房的多重因素及“破繭”路徑[J].新聞界,2020(1):30-38,73.。雖然目前學界對“信息繭房”作為一種現象的證實與證偽、現實中是否存在理論上的形成機制等問題還有不同觀點,但相關探討無疑反映出人們對由算法充當“把關人”的信息傳播風險的一種擔心。
其次,從市場角度看,基于大數據的人工智能算法因遵循商業邏輯而醞釀著“監控資本主義”的風險。人類社會的信息化伴隨著個人的屬性、關系、地點、行為、情緒、偏好等信息被全方位地以數字化的方式表示、記錄、存儲。海量個人信息匯總而成的大數據有其經濟屬性,而大數據分析算法則是挖掘大數據商業價值所必不可少的工具。“監控資本主義”是數據經濟環境下的新興資本主義經濟秩序,形成于大數據、算法能力與資本力量的聯合,其核心是以攫取利潤為目的的科技企業對個人數據的商業化利用②武青,周程.資本主義條件下大數據技術的政治經濟學批判——《監控資本主義的時代》述評[J].科學與社會,2020(1):113-124.。大數據企業通過對互聯網上個人數字痕跡的大規模監控以獲取數據,將算法作為生產工具實現了數據從原材料到價值的轉化。這些企業大規模收集用戶點擊、瀏覽、逗留時長的數字痕跡,利用大數據分析技術對用戶信息進行統計分析并建立預測模型,通過數據持續積累和模型不斷優化越來越準確地判斷用戶心理和喜好,做出諸如精準的價格歧視、勞工剝削、定向營銷等行為,最終實現企業利潤最大化。“監控資本主義”的典型例子是商業平臺濫用用戶數據進行“殺熟”。在這種經濟秩序下,用戶在大數據企業面前迅速透明化,退化為免費的數據來源與被反復實驗的對象③ZUBOFF S.Big other:surveillance capitalism and the prospects of an information civilization[J].Journal of information technology,2015(1):75-89.。
最后,從國家與公權力角度看,人工智能算法的技術力量日益嵌入國家權力運行與國家治理過程,不僅孕育著“技術賦權”的巨大機會④孟天廣.政府數字化轉型的要素、機制與路徑——兼論“技術賦能”與“技術賦權”的雙向驅動[J].治理研究,2021(1):5-14.,也隱藏著被特定利益集團用于社會控制和政治權力再生產的政治風險⑤王小芳,王磊.“技術利維坦”:人工智能嵌入社會治理的潛在風險與政府應對[J].電子政務,2019(5):86-93.。利維坦是《圣經·舊約》中記載的海怪,一種神話生物,英國哲學家霍布斯用之比喻凌駕于所有人之上的強勢的國家。面對國家治理算法化態勢,有學者用“算法利維坦”比喻智能時代的一種強制性治理方式與算法接管治理的潛在風險。人們在通過算法治理獲得便利的同時,也被置于算法程序的監控體系之下,而國家則通過算法技術來施加秩序、延伸權力、貫穿意志⑥張愛軍.“算法利維坦”的風險及其規制[J].探索與爭鳴,2021(1):95-102,179.。這種能力需要配合數據才能達到,國家借助公權力和資源優勢收集個人信息,通過數據系統對社會展開全景化的了解、執法與審查⑦帕斯奎爾.黑箱社會:控制金錢和信息的數據法則[M].趙亞男,譯.北京:中信出版社,2015:61-69.。不少文獻討論過類似觀點,即數字技術導致國家控制強化,一些相似的表述包括“技術利維坦”“數字利維坦”等。盡管數字技術賦能國家治理會顯著提升國家采集和處理信息的能力⑧孟天廣,張小勁.大數據驅動與政府治理能力提升——理論框架與模式創新[J].北京航空航天大學學報(社會科學版),2018(1):18-25.,但其風險在于,“國家依靠信息技術的全面裝備,將公民置于徹底而富有成效的監控體系之下,而公民卻難以有效地運用信息技術來維護其公民權利”⑨肖濱.信息技術在國家治理中的雙面性與非均衡性[J].學術研究,2009(11):31-36.。
簡言之,算法盡管極大地提升了生活便利化程度、生產經營效率和治理精準性,但是對經濟社會運行和國家治理的邏輯產生深遠影響。面對算法給人類帶來的新型社會風險,圍繞著算法風險治理正在形成多元視角的理論討論。從新興產業監管視角看,薛瀾和趙靜認為,包括智能算法技術創新在內的新興產業具有高度不確定性,傳統監管模式不適用于其產業風險管理。新興產業的監管在目標、內容、節奏、力度、思維以及規則上都有別于傳統產業,應該建立以敏捷為核心的治理框架:在治理原則上,以抽象的法律原則配合靈活的政策工具;在治理關系上,在監管者與被監管者之間建立互動、相互依賴的關系;在治理工具上,選擇“下手快、力度輕”的治理措施①薛瀾,趙靜.走向敏捷治理:新興產業發展與監管模式探究[J].中國行政管理,2019(8):28-34.。從算法生命周期視角看,從模型的開發、部署到使用,要將標準、測試和控制嵌入模型的生命周期的各個階段,在不同階段采取針對性措施來限制特定風險。比如,在建立模型階段,可以采取模型穩健性檢驗、數據泄露控制、標簽質量評估等風險控制方法②BAQUERO J A,BURKHARDT R,GOVINDARAJAN A,et al.Derisking AI by design:how to build risk management into AI development[EB/OL].(2020-08-13)[2021-12-29].https://www.mckinsey.com/business-functions/mckinsey-analytics/our-insights/deriskingai-by-design-how-to-build-risk-management-into-ai-development.。
本文從算法風險及其治理的視角出發,認為“信息繭房”“監控資本主義”“算法利維坦”等不同層面的算法風險,充分反映著算法“黑箱”、不確定性和安全、歧視與支配的廣泛存在,進而對人類社會的自主、平等、知情、安全等核心價值造成威脅。因此,我們迫切需要確立算法倫理以規范算法使用與監管,使人類社會有能力防范與化解算法風險的潛在危害。
算法風險、算法倫理與算法治理之間存在內生性關系,這源于人工智能算法風險產于算法應用沒有受到倫理約束,因此需要算法倫理來確立與重申算法風險的治理原則。算法倫理是對算法活動施加的倫理道德要求。隨著人工智能監管制度化進程的加快,軟性倫理規范也有可能演化為剛性法律規制。無論是討論算法的倫理約束,還是經由立法以規制算法,首先要確立算法倫理。算法倫理涉及算法本體(自身)、算法與人類的關系、算法與環境之關系三個層次,其實質是闡明智能時代人、機、物之間的交互關系,識別三者之間互動關系中存在的社會風險,進而構建相應的治理原則。
2016年以來,隨著人工智能算法開發及應用逐步進入快車道,算法倫理相關討論顯著增加,各國政府、非政府組織和科技企業紛紛開始關注“合乎倫理的”的人工智能和算法,旨在發揮算法的技術潛力的同時,降低算法產生的風險③TSAMADOS A,AGGARWAL N,COWLS J,et al.The ethics of algorithms:key problems and solutions[J/OL].AI&society,2021:1-16[2021-11-10].https://doi.org/10.1007/s00146-021-01154-8.。然而,算法倫理還不是一個成熟的研究領域,所涉倫理主題不明確、界限不清晰。綜合來看,已有文獻從技術、原則、應用、過程、結果等角度討論人工智能算法的風險、倫理與治理。比如,賈開根據人工智能算法的技術邏輯和應用方式的特性,認為深度學習等算法本身的復雜性導致算法“黑箱”以及難以監督與問責,基于歷史數據的訓練與學習會導致固化、偏差與歧視,而且算法在各類應用場景下替代人類行為難以避免引發事故歸責、知識產品版權等方面的爭議。他認為,算法治理的公共政策框架應該包括提高公眾的人工智能認知、推動算法倫理的專家對話,以及有優先級地制定相關政策④賈開.人工智能與算法治理研究[J].中國行政管理,2019(1):17-22.。劉培和池忠軍認為,算法作為技術手段,其排序、分類、關聯、過濾的標準負載著設計者的知識背景、社會文化與價值判斷,因而內在地關涉倫理問題;而且,算法因其技術的復雜性與后果的不確定性而天然地具備不透明性與失敗的可能;面對算法歧視等倫理問題,認為應該從算法設計本身及外部約束來解決⑤劉培,池忠軍.算法的倫理問題及其解決進路[J].東北大學學報(社會科學版),2019(2):118-125.。丁曉東從算法引起的法律后果出發,認為算法崛起會挑戰知情權與自主性、隱私與自由、平等保護的基本原則,應該基于算法應用的具體場景構建算法公開、數據賦權、反歧視的制度①丁曉東.論算法的法律規制[J].中國社會科學,2020(12):138-159,203.。
米特爾施泰特等人從人工智能算法過程的角度,提出了算法倫理爭論的六重維度②MITTELSTADT B D,ALLO P,TADDEO M,et al.The ethics of algorithms:mapping the debate[J].Big data &society,2016(2):2053951716679679.。他們根據算法如何將數據轉化為結果以及算法所觸發的行動,提出算法倫理的六個方面。一是非決定性證據,指通過推斷統計和機器學習技術從數據中獲取的結論,不可避免地具有不確定性。非決定性證據只能指示相關關系,不能揭示因果關系。非決定性證據可能導致不公正的行動。二是難以理解的證據,指不了解機器學習算法如何從數據中生成結論。難以理解的證據可能會導致不透明。三是誤導性證據,此則倫理強調“垃圾進、垃圾出”。輸出永遠不會超越輸入,只有輸入的數據是可靠的,算法產生的結果才有可能是可靠的。誤導性證據會導致偏見。四是不公平的結果,指算法驅動的行動可能是不公平的,會產生歧視性后果。五是轉換效應,指算法決策是充滿價值判斷的,影響著我們如何理解與概念化這個世界,并基于算法生成的洞見驅動行動。轉換效應給自主性和信息隱私帶來挑戰。六是可追溯性,指算法活動造成的損害可以調試,也能夠確定誰應對損害負責。可追溯性可以明確道德責任。在這六個方面中,前三者屬于證據質量不良引發的倫理問題,發生于算法將數據轉化為決策(結果)的過程;不公正的結果和轉換效應則屬于算法決策(結果)的社會后果,源于算法驅動的行動未能體現倫理中立;而可追溯性關切算法驅動的行動可能導致的失敗風險及責任分配問題。
在實踐中,全球范圍內國家和各類組織也開始出臺自己的算法倫理準則或指南(表1)。

表1 算法倫理規范的跨國比較
當前,較有影響力的算法倫理原則主要來自于歐美國家,提出者涵蓋政府、專業社群、科技企業等各類主體③賈開.人工智能與算法治理研究[J].中國行政管理,2019(1):17-22.。譬如,2017年1月,美國計算機協會公共政策委員會專門發布了《關于算法透明度和問責制的聲明》,倡議在算法開發和部署中落實知情、訪問與救濟機制、可問責、解釋等七個原則④Association for Computing Machinery US Public Policy Council.Statement on Algorithmic Transparency and Accountability[EB/OL].(2017-01-12)[2021-12-29].https://www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_algorithms.pdf.。2019年4月,歐盟人工智能高級專家組發布《可信賴人工智能倫理指南》,根據該指南,可信賴的人工智能應該是合法的、道德的和穩健的,并滿足人類能動性和監督、技術穩健性和安全性、隱私和數據治理等七項關鍵要求⑤European Commission.Ethics guidelines for trustworthy AI[EB/OL].(2019-04-08)[2021-12-29].https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.。
我國也高度重視算法倫理。作為人工智能發展大國,我國于2019年6月發布《我國新一代人工智能治理原則——發展負責任的人工智能》,強調人工智能發展相關各方應遵循和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理八項原則①科技部.發展負責任的人工智能:新一代人工智能治理原則發布[EB/OL].(2019-06-17)[2021-12-29].http://www.most.gov.cn/kjbgz/201906/t20190617_147107.html.。2021年1月,全國信息安全標準化技術委員會發布的《網絡安全標準實踐指南——人工智能倫理安全風險防范指引》,是我國首個國家層面的一般性、基礎性的人工智能倫理和安全風險的指引文件②賈開,薛瀾.人工智能倫理問題與安全風險治理的全球比較與中國實踐[J].公共管理評論,2021(1):122-134.。文件指出人工智能存在失控性風險、社會性風險、侵權性風險、歧視性風險以及責任性風險,并將人工智能研究開發、設計制造、部署應用、用戶使用都納入安全風險防范的范疇③全國信息安全標準化技術委員會秘書處.網絡安全標準實踐指南——人工智能倫理安全風險防范指引[EB/OL].(2021-01-05)[2021-12-29].https://www.tc260.org.cn/upload/2021-01-05/1609818449720076535.pdf.。
本文從算法治理的價值與路徑兩個維度重新闡述了算法倫理的核心關切(表2)。一方面,算法風險的治理價值是約束算法權力以及保障用戶的權利,即實現“權力—權利”關系的平衡;另一方面,在算法風險的治理路徑上,每一個倫理原則都可以通過技術機制和社群機制來實現,即“技術—社群”雙重約束的治理路徑。由此,算法治理的價值約束和路徑選擇共同構成了表2 所呈現的算法倫理的四種類型學,即算法可控、算法透明、算法安全和算法公平。

表2 算法倫理的二維分析框架
首先,算法治理的價值是限制算法權力以及保障用戶權利,即實現“權力—權利”平衡。上文已經討論過人工智能算法風險的多種形態,不論是“監控資本主義”“信息繭房”還是“算法利維坦”,算法應用引發的各類風險都指向算法背后的權力邏輯。換句話說,算法接管了人類的決策,開始實質性地融入和重塑社會、經濟、政府治理系統,掌握算法的人或機構施展著廣泛的影響力和基于技術的控制力。甚至有學者斷言:“掌握了數據,就意味著掌握了資本和財富;掌握了算法(Algorithm),就意味著掌握了話語權和規制權。”④馬長山.智慧社會的治理難題及其消解[J].求是學刊,2019(5):91-98.事實上,當算法從數學和計算科學,向政治學、社會學、法學等社會科學領域擴散時,社會科學家就開始思考算法與權力的關系⑤BEER D.The social power of algorithms[J].Information,communication&society,2017(1):1-13.。權力是實施支配與控制的關鍵力量,而算法的規則屬性⑥賈開.人工智能與算法治理研究[J].中國行政管理,2019(1):17-22.使其實質上具備支配與控制的能力。代碼是算法的載體,萊斯格就鮮明地提出代碼的權力屬性:代碼作為網絡空間的法律,它與立法機構頒布的法律有類似的規制作用,是網絡空間的向導和強有力的規制者。代碼作為網絡空間中的預設環境,反映了代碼制定者的選擇和價值理念,對網絡空間中的人擁有某種程度的強制力⑦萊斯格.代碼2.0:網絡空間中的法律[M].李旭,沈偉偉,譯.修訂版.北京:清華大學出版社,2018:132-150.。
文化研究專家拉什指出,社會中權力越來越多地存在于算法之中⑧LASH S.Power after hegemony:cultural studies in mutation?[J].Theory,culture&society,2007(3):55-78.。算法權力就是以算法為工具實施的影響力或控制力,看似理性中立的技術性的行為,實質上是規則的施加⑨趙一丁,陳亮.算法權力異化及法律規制[J].云南社會科學,2021(5):123-132.⑩陳鵬.算法的權力和權力的算法[J].探索,2019(4):182-192.。類似的,帕斯奎爾①帕斯奎爾.黑箱社會:控制金錢和信息的數據法則[M].趙亞男,譯.北京:中信出版社,2015:13.和迪亞科普洛斯②DIAKOPOULOS N.Algorithmic accountability reporting:on the investigation of black boxes[R].New York:Columbia Journalism School,Tow Center for Digital Journalism,2013.指出,社會生活中的關鍵決策越來越多地依靠數據驅動的算法來裁定,算法的決策地位是其具備潛在權力的基礎。這樣的視角開啟了一系列關于算法在權力的部署和表達中作用的討論③BEER D.The social power of algorithms[J].Information,communication&society,2017(1):1-13.。比如,張凌寒認為,算法在海量數據運算的基礎上發展成為一支新興力量,它調配著社會資源,規范著人的行為,甚至輔助或替代公權力進行決策,從而形成事實上的技術權力④張凌寒.算法權力的興起、異化及法律規制[J].法商研究,2019(4):63-75.。可以說,算法是構建和實現權力的新途徑,掌握算法的人或機構在這個意義上擁有更高的權力和地位⑤宋鍇業.“算法”與國家治理創新——數據、算法與權力的知識生產與邏輯呈現[J/OL].科學學研究.[2021-04-08].https://doi.org/10.16192/j.cnki.1003-2053.20210407.001.,可以通過調整算法參數來執行自身意志⑥喻國明,楊瑩瑩,閆巧妹.算法即權力:算法范式在新聞傳播中的權力革命[J].編輯之友,2018(5):5-12.。相比之下,用戶權利在日益強大的算法權力面前岌岌可危,算法下的個體甚至可能淪為智能時代的“囚徒”⑦彭蘭.假象、算法囚徒與權利讓渡:數據與算法時代的新風險[J].西北師大學報(社會科學版),2018(5):20-29.。
其次,算法治理的有效實現依賴于“技術—社群”雙重路徑的同步演進。算法“黑箱”、算法歧視、算法操縱等算法風險的治理需要運用綜合手段,這些手段可以分為技術路徑和社群路徑。對于算法所呈現的技術面孔,算法治理的技術路徑旨在優化算法設計來實現算法倫理原則。比如,當前算法決策和數據挖掘建立在相關關系而非因果關系基礎上⑧MITTELSTADT B D,ALLO P,TADDEO M,et al.The ethics of algorithms:mapping the debate[J/OL].Big Data &society,2016(2):1-68[2021-12-08].http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2909885.DOI:10.1177/2053951716679679.,并且由于歷史的或者算法設計者的原因,用于訓練模型參數的數據本身分布如果是有問題的,而依賴相關關系和分布有偏的數據得出的決策結果就可能是錯誤、不公正的。對此,可以通過發現因果機制以及改善數據分布結構來緩解此類技術問題⑨汝緒華.算法政治:風險、發生邏輯與治理[J].廈門大學學報(哲學社會科學版),2018(6):27-38.。需要指出是,算法作為一個內涵廣泛的概念,在技術原理、應用場景等方面可以進一步分類。不同算法有不同的技術特點,其風險存在差異,在治理價值和治理路徑上也各有側重。換言之,算法的技術治理應遵循分類治理原則,在實踐中可以結合本文理論框架審查算法風險并形成差異化的治理對策。
社群路徑則以強調立法與監管為主,同時促進科技行業自律以及培養大眾的算法素養等⑩汪懷君,汝緒華.人工智能算法歧視及其治理[J].科學技術哲學研究,2020(2):101-106.。比如,歐盟《通用數據保護條例》、英國《解釋AI 決策的指南》、美國《過濾泡沫透明度法案》、加拿大《自動化決策指令》、日本《改善指定數字平臺上的交易的透明度和公平性法》等,都對算法應用的規范提出要求。我國從2021年來針對網絡空間算法活動采取了一系列措施以增進算法活動的透明度、公平性,保護數據安全和主體權益。比如,《國務院反壟斷委員會關于平臺經濟領域的反壟斷指南》禁止平臺通過算法來實施壟斷行為,《中華人民共和國個人信息保護法》以下簡稱《個人信息保護法》對自動化決策行為進行規制,以及國家互聯網信息辦公室等部門印發算法治理的指導意見,旨在規范算法推薦活動,厘清算法濫用的邊界。
人工智能算法風險反映了算法權力和用戶權利之間的不平衡,它折射出算法權力的運行忽視對用戶的權利的關切,算法設計過分關注技術理性、執行效率和預測準確度。不同于作為控制和支配的權力,權利是現代社會中人們所擁有的自由、隱私、知情、平等、自主、尊嚴等資格或價值。算法倫理的核心價值在于約束算法權力,保障用戶權利。譬如要求算法透明以保障人們對算法過程的知情權;要求算法公平以防范歧視和偏見,確保社會不同群體在算法面前平等;要求算法可控以約束算法支配與操縱的權力;要求算法安全,包括個人數據和利益安全,以制約算法過度收集與濫用個人信息的權力。總體而言,可控和安全更側重制約算法權力,透明和公平更強調保障用戶的權利。
算法不透明指的是算法處于一種“黑箱”狀態。“黑箱”指一個神秘的、不可觀察的運作機制,對其我們只能獲得輸入和輸出,不了解輸入轉化為輸出的邏輯和過程①帕斯奎爾.黑箱社會[M].趙亞男,譯.北京:中信出版社,2015:6.。算法“黑箱”有兩層含義。一是指源于算法本身的技術復雜性而導致的模型不可解釋,這類問題存在深度學習等算法中。例如,在計算機視覺、自然語言處理中被廣泛使用的卷積神經網絡(convolutional neural networks,CNN)算法,是一種包含卷積計算、具有深度結構的前饋神經網絡(feedforward neural networks)。卷積神經網絡通常具有很多隱含層,形成多個計算層級,每一層級里都設置了很多計算節點;各個節點之間會交叉傳遞和處理信息,并且每一節點的計算參數又是多變的,這使得整個神經網絡具有相當高的計算復雜度。因此,即便知曉整個網絡的結構和每一節點的計算方法,仍然無法通過公式進行說明,故而連算法的設計者也無法充分解釋神經網絡的運作原理。這類“黑箱”問題根植于深度學習等算法固有的技術特性,是機器學習在某些領域(如風險評估)應用的最大障礙。二是指算法設計者不向用戶公開其算法原理與機制,導致用戶對算法特征與運算過程毫不知情。例如,歐盟曾指責谷歌不公開其搜索引擎算法,稱此舉是在制造“扭曲的棱鏡”。此外,互聯網平臺所采用的算法通常具有不穩定性,算法開發通常以連續、分布式和動態的方式重新編程,設計者對算法不斷修正,導致后來的使用者不了解前期算法開發的歷程②TSAMADOS A,AGGARWAL N,COWLS J,et al.The ethics of algorithms:key problems and solutions[J/OL].AI&society,2021:1-16[2021-11-10].https://doi.org/10.1007/s00146-021-01154-8.。這類算法黑箱問題很容易導致算法用戶處于信息不對稱中的劣勢地位。這一方面導致用戶知情權受損,由此降低用戶對算法決策結果的信任與遵從;另一方面也造成對算法決策問責的困難。算法透明的意義在于既有利于監督算法決策過程,實現算法操控者的可問責性,又賦予用戶知情權,以便于檢驗或審查算法決策結果的合理性③沈偉偉.算法透明原則的迷思——算法規制理論的批判[J].環球法律評論,2019(6):20-39.。雖然算法透明原則因其可行性仍存在諸多爭議,但是算法透明被普遍認為是算法規制的重要維度。
公平即非歧視與無偏見。現代社會在政治價值上強調規則面前人人平等,并以法律的形式反對歧視和偏見,公平是善治的基本目標之一。然而,在特定情景下,數據驅動的智能算法可以通過隱形、難以察覺的方式潛移默化地實現系統化、靜悄悄的歧視。既有研究發現,算法正在基于年齡、性別、種族、收入等社會特征對特定群體實施系統性的、可重復的不公正對待④劉友華.算法偏見及其規制路徑研究[J].法學雜志,2019(6):55-66.,挑戰著作為當代權利體系基礎之一的平等權⑤崔靖梓.算法歧視挑戰下平等權保護的危機與應對[J].法律科學(西北政法大學學報),2019(3):29-42.。譬如,卡內基·梅隆大學的研究人員做了一項實驗,他們模擬谷歌用戶訪問就業網站,然后統計了谷歌推送的廣告,結果發現男性組收到谷歌“20 萬美元+”職位廣告推送達1852次,而女性組只有318次⑥MILLER C C.When algorithms discriminate[EB/OL].(2015-07-09)[2021-12-30].https://www.nytimes.com/2015/07/10/upshot/when-algorithms-discriminate.html.。亞馬遜以10年中收到的簡歷為訓練數據集開發簡歷篩選算法,因為訓練數據有偏,簡歷大多來自男性,導致根據訓練出來的算法,所有帶有“女性”相關特征的簡歷均受到懲罰⑦DASTIN J.Amazon scraps secret AI recruiting tool that showed bias against women[EB/OL].(2018-10-11)[2021-12-30].https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G.。這是就業場景下算法系統“偏見進,偏見出”的典型案例。除了就業歧視,“評分社會”⑧CITRON D K,PASQUALE F.The scored society:due process for automated predictions[J].Washington law review,2014(1):1-33.中的算法歧視屢見不鮮,譬如價格歧視、信用歧視、教育歧視等。造成算法決策結果不公平與算法歧視的原因很多,包括數據維度權重不一、使用有偏的訓練數據集、將模型誤用于特定場景、研發者存在的偏見、企業的逐利動機,甚至算法所執行的自動分類本身就是一種直接的歧視①LEPRI B,OLIVER N,LETOUZé E,et al.Fair,transparent,and accountable algorithmic decision-making processes[J].Philosophy&technology,2018(4):611-627.②汪懷君,汝緒華.人工智能算法歧視及其治理[J].科學技術哲學研究,2020(2):101-106.。算法歧視損害了公眾在就業機會、工作待遇、享受公共品等方面的公平機會和合法權益,算法“殺熟”更是凸顯了算法歧視直接損害個體經濟權益③劉友華.算法偏見及其規制路徑研究[J].法學雜志,2019(6):55-66.。隨著大數據“殺熟”成為流行詞匯,算法歧視被廣泛視為智能時代算法規制所要破解的基本問題。
20世紀60年代,馬爾庫塞曾批判現代新技術形態對人進行操縱與控制,半個世紀之后,科學史學家戴森諷刺道:“臉書決定了我們是誰,亞馬遜決定了我們想要什么,谷歌決定了我們怎么想。”④帕斯奎爾.黑箱社會[M].趙亞男,譯.北京:中信出版社,2015:22.當前自動化智能化決策系統業已廣泛進入經濟交易和公共治理等場景,在金融、就業、新聞、政治、健康和公共服務領域,越來越多的預測模型潛移默化地影響著人們的命運,干預甚至控制著個體的選擇。當算法結合了公共權力與資本權力,對社會施加系統化、高精度的控制與規訓,很容易使個人在社會認知、社會流動、生產勞動等方面淪為算法的“囚徒”⑤彭蘭.算法社會的“囚徒”風險[J].全球傳媒學刊,2021(1):3-18.。首先,如果將互聯網媒體作為認知世界的工具,用戶所獲取的信息就可能被這些媒體的個性化算法過濾,導致用戶對現實世界的多樣性和復雜性的簡化、片面理解,從而限制個體的判斷和決策力。上文提及的“信息繭房”和“致癮性推薦”即是互聯網媒體運用算法干預和控制用戶信息選擇的重要機制。其次,算法亦有可能固化社會分層,通過對個體施加結構性的歧視,影響個體獲得稀缺資源和向上流動的機會。尤班克斯在《自動不平等:高科技如何鎖定、管控和懲罰窮人》一書中指出,公共服務項目中的資格自動認證系統、排名算法和風險預測模型,構成一張控制、操縱與懲罰之網,對人們進行精準畫像與分類服務,并且通過不公正的信息反饋系統,將邊緣化群體特別是弱勢群體排斥出去。個體一旦被算法鎖定,就會面臨更密集的受監測和追蹤的負擔,甚至會妨礙其申請維系生計所必需的公共資源,被打入“數字濟貧院”⑥尤班克斯.自動不平等:高科技如何鎖定、管控和懲罰窮人[M].李明倩,譯.北京:商務印書館,2021:1-10.。最后,在生產勞動方面,以外賣騎手的勞動控制為例,平臺算法持續地收集和分析騎手數據,并根據分析結果建立起井然有序的勞動秩序,實現了資本對勞動的精準控制⑦陳龍.“數字控制”下的勞動秩序——外賣騎手的勞動控制研究[J].社會學研究,2020(6):113-135,244.。因此,如何擺脫算法的支配、擁有使用算法的自主性,對處于數字化生存時代的人們,特別是算法身份意義上的弱勢群體,是一項嚴峻挑戰。
安全原則約束著算法權力,保障算法使用者的人身、信息與財產安全不受智能算法威脅。隨著智能算法在社會生活、生產交易和公共治理中的廣泛應用,算法系統的設計安全隱患時有暴露。譬如,自動駕駛汽車作為能夠綜合體現人工智能發展高度的復雜智能系統,因算法缺陷而引起的安全事故近年來時有發生。可見,復雜智能系統的本體安全尚未能完全實現,仍然存在一定的脆弱性和不確定性。除了確保自身安全,智能算法系統還需要具備防范外部威脅的技術韌性。由于智能系統所處環境的開放性,在從輸入到輸出的過程中都有可能遭遇外部攻擊⑧陳宇飛,沈超,王騫,等.人工智能系統安全與隱私風險[J].計算機研究與發展,2019(10):2135-2150.。譬如,亞馬遜某款智能語音助手在維基百科上讀取了經過惡意編輯的文本后,對使用者進行危險行為誘導,甚至建議使用者自殺①CROWLEY J.Woman says Amazon’s Alexa told her to stab herself in the heart for‘the greater good’[EB/OL].(2019-12-24)[2022-01-10].https://www.newsweek.com/amazon-echo-tells-uk-woman-stab-herself-1479074.。安全原則是一項底線原則,它要求算法系統是安全可靠、不作惡的,其基本原則是不能傷害人類。此外,對于眾多算法產品和算法服務的用戶而言,個人隱私保護和數據安全成為當下安全感的重要構成。在當前技術環境下,用戶經常面臨著個人隱私或個人信息一攬子授權、網站強行留痕、軟件內置后門程序、APP 超范圍收集用戶信息等問題,嚴重威脅著個人隱私保護和數據安全。盡管利用這些數據,智能算法可以對用戶進行深度計算,推理用戶的興趣、偏好、需求等,以此向用戶精準推送新聞、商品與服務,但是對此類數據的過度收集與濫用不僅侵犯了用戶的數據權利,而且有可能對社會秩序和公共安全造成潛在威脅。因此,智能時代算法使用如何實現從個體安全到公共安全、從本體安全到環境安全的底線保障就成為算法治理的基本維度。
算法在一定程度上繼承并放大了人類社會固有的不透明、不公平、操縱與安全風險②郭毅.“人吃人”:算法社會的文化邏輯及其倫理風險[J].中國圖書評論,2021(9):45-53.,相應地,約束算法權力以保障用戶的權利,應著力于技術改進與社群約束兩條路徑,以有效防范算法“黑箱”、算法歧視、算法支配所帶來的風險,以及保障用戶使用算法的安全性。
算法透明的呼聲一向很高,但是絕對的透明或簡單公開算法源代碼的可操作性不高。首先,因技術固有的復雜性而導致的算法“黑箱”當前還無法透明,解決這一問題有賴于技術的突破性進展。其次,對于因平臺不公開算法特征及運算過程而導致的算法“黑箱”,要求其透明雖然可以為用戶提供關鍵信息,但也會導致用戶信息過載。并且,算法屬于科技企業的核心技術,強制算法公開會導致引發業界效仿、損害科技企業創新、引發動機不良者操縱等問題③徐鳳.人工智能算法黑箱的法律規制——以智能投顧為例展開[J].東方法學,2019(6):78-86.。譬如,谷歌曾經公開著名的PageRank 網頁排名算法的排序標準,但是一些惡意網站卻利用谷歌披露的算法與其博弈,操控搜索結果排名,導致谷歌不得不對排名算法進行保密,谷歌搜索服務只得又成為一項“黑箱”業務④沈偉偉.算法透明原則的迷思——算法規制理論的批判[J].環球法律評論,2019(6):20-39.。谷歌搜索引擎的案例非常經典地展示了“黑箱”文化的演變過程⑤帕斯奎爾.黑箱社會[M].趙亞男,譯.北京:中信出版社,2015:92.。這就是所謂的“透明性悖論”,即透明性在增進信息對稱性與保障知情權的同時,也可能引發某些非預期的負面后果。在此情況下,提高算法的可解釋性被視為增進算法透明的有效路徑。近年來,可解釋的人工智能(explainable artificial intelligence,XAI)已經成為計算科學研究的前沿主題。XAI指所有能夠幫助人類理解人工智能模型行為的技術叢,使用解釋作為模型與人類之間的接口,使模型的運轉能夠被人類簡單、清晰地理解⑥孔祥維,唐鑫澤,王子明.人工智能決策可解釋性的研究綜述[J].系統工程理論與實踐,2021(2):524-536.。XAI是打開算法決策黑箱的可行路徑,向用戶解釋算法決策的依據和原因,保障用戶的知情權,提高用戶對算法系統的認知和信任。一些大型算法公司已經開始介入XAI實踐,通過提供相關開源工具箱來幫助開發者和普通公眾理解機器學習算法。例如,IBM 的AI explainability 360 幫助使用者了解機器學習算法的推理、規則以及事后解釋⑦MOJSILOVIC A.Introducing AI explainability 360[EB/OL].(2019-08-08)[2022-01-10].https://www.ibm.com/blogs/research/2019/08/ai-explainability-360/.;谷歌的What-if tool 幫助人們用最少量的代碼來探索、可視化以及分析機器學習系統⑧WEXLER J,PUSHKARNA M,BOLUKBASI T,et al.The what-if tool:Interactive probing of machine learning models[J].IEEE transactions on visualization and computer graphics,2019(1):56-65.。
面對智能算法決策在日常消費、勞動雇傭、政府監管和司法裁定等領域發揮的作用越來越大,算法歧視或偏見會對特定社會群體造成實質性損害,因此約束算法歧視成為必然選擇。要限制算法歧視,除了數據審計和算法審計等技術進路,更重要的是將傳統的反歧視法律規制有效地延伸到智能算法。譬如,美國《算法責任法案》認為應對年收入超過5000萬美元或擁有超過100萬消費者數據的公司進行算法影響評估,試圖最小化機器學習系統的算法偏見。在伊利諾伊州,《人工智能視頻面試法》規定雇主在使用人工智能分析視頻面試時,需向申請人解釋人工智能的工作方式及其使用了哪些特征來評估申請人,雇主要事先征得申請人同意,以及依申請人要求在30 天內銷毀視頻。歐盟《通用數據保護條例》實行“數據清潔”原則,要求在自動化決策中移除種族、性別、基因等敏感數據,以防止對特殊群體的歧視①章小杉.人工智能算法歧視的法律規制:歐美經驗與中國路徑[J].華東理工大學學報(社會科學版),2019(6):63-72.。加拿大《自動化決策指令》要求政府部門在使用算法決策系統時,就算法決策對個體與群體的權利、健康與福祉、經濟利益以及生態系統的可持續性影響進行評估。日本《改善指定數字平臺上的交易的透明度和公平性法》和韓國《在線平臺公平交易法》均致力于提高數字平臺交易的透明性和公平性。在我國,新落地的《個人信息保護法》禁止大數據“殺熟”的差異化定價行為,要求自動化決策的透明度,保證決策結果公平公正。另外,規制算法的社群路徑還包括算法公司的自我規制和科技社群的行業自律。譬如,谷歌倡導監督學習中的“機會均等”原則,以審查與防止基于種族、性別、殘疾或宗教等敏感屬性的歧視②HARDT M.Equality of opportunity in machine learning[EB/OL].(2016-10-07)[2022-01-10].https://ai.googleblog.com/2016/10/equality-of-opportunity-in-machine.html.。
算法應用產生了人困于算法的異化現象,反映了人的自主性和獨立性受到嚴重影響③張凌寒.自動化決策與人的主體性[J].人大法律評論,2020(2):20-48.。自主性要求用戶能夠擺脫算法控制,人的決策應優先于算法決策,而非被算法支配。這意味著讓算法回歸工具性角色,強化人對算法的主體地位,保護使用者免于淪為算法的奴隸。在算法應用實踐中,算法可控是指“人們可以有效規制算法或者自主決定算法是否繼續執行”④袁康.可信算法的法律規制[J].東方法學,2021(3):5-21.。被算法計算的對象應該有選擇的機會,能夠不需要付出高昂代價就可以拒絕自動化決策算法,擺脫算法的預測模型。為此,需要在機器學習的計算過程中引入人的意見和價值。譬如,近年來倡導的“人在環中”(human-in-theloop)的算法系統是一種結合了人類智能與機器智能的方案,允許用戶監督與控制算法決策過程,調整或優化算法決策的輸出。另外,一種增強用戶自主性的技術改進路徑是,算法系統給被決策對象保留退出選項。就像飛行員能夠關閉自動駕駛并重新獲得對飛機的完全控制一樣⑤FLORIDI L,COWLS J,BELTRAMETTI M,et al.AI4People—an ethical framework for a good AI society:opportunities,risks,principles,and recommendations[J].Minds and machines,2018(4):689-707.,科技公司的算法產品與服務需給使用者提供類似的選擇,譬如可以修改自己的標簽、免于被畫像、可以關閉算法推薦服務等。同理,公共部門算法也不能憑借其數據收集與關聯優勢,對公眾進行道德分類與社會控制。各種算法決策系統通過在不同程度上賦予用戶退出機制,還原人在決定自身事務上所享有的自主權利。
為識別和防范算法系統的安全風險,全球主要國家從戰略、技術標準、法律法規等方面尋求對策。例如,美國《國家人工智能研發戰略計劃:2019 更新版》將確保人工智能系統安全可靠列為一項核心戰略,歐盟《可信賴人工智能倫理指南》把技術穩健性和安全性視為可信的人工智能系統的關鍵要求。對人工智能系統進行安全監管的法律法規經常出現于具體領域。譬如,在自動駕駛領域,美國制定了《聯邦自動駕駛汽車政策》《確保車輛演化的未來部署和研究安全法案》,將自動駛汽車安全監管納入法律框架,對自動駕駛系統提出安全規范。此外,在個人隱私保護及數據安全方面,針對算法驅動的侵犯與濫用個人信息行為,傳統的規制思路是個人數據賦權,即通過賦予個體一系列數據權利來強化個體對自身數據的控制,數據控制者與處理者則承擔維護個人數據安全的責任①丁曉東.論算法的法律規制[J].中國社會科學,2020(12):138-159,203.。譬如,歐盟《通用數據保護條例》旨在讓數據主體重新獲得對個人數據的控制,其對個人數據的界定涵蓋了個人身份、生物特征、電子記錄等數據,規定了個人數據收集應當具有具體、清晰、正當的目的,要求數據采集者通過恰當的方法告知數據主體,賦予數據主體被遺忘權、限制處理權、可攜帶權等數據權利。美國加州《加州隱私權法案》規定企業智能系統要在合理、必要、具有特定目的的條件下收集、處理、使用、存儲個人信息。我國《個人信息保護法》規定了個人信息收集應僅限于處理目的的最小范圍,不得過度收集個人信息,且全面規定了個人在個人信息處理活動中享有決定權、限制權、拒絕處理權等權利。《個人信息保護法》出臺后,工業和信息化部等部門下架一批超范圍、超頻次強制收集非必要個人信息的App。除了法律規制,還應向社會普及個人數據被竊取、泄露、濫用的潛在風險,讓用戶在享受智能化所帶來的便利性和精準性的同時,具備算法安全風險意識與個人數據權利意識。
在人工智能算法蓬勃發展的今天,學界從多個視角圍繞算法倫理及其風險治理形成了廣泛討論。可以說,算法應用應該在提高效率和合乎倫理這兩個目標之間取得平衡已經成為普遍共識,而自主、透明、公平、安全也被視為算法治理的四項基本倫理原則。本文從算法治理的價值和路徑兩個維度提出了一個算法治理的分析框架。算法風險反映了算法權力與用戶權利二者之間關系的失衡。換言之,算法權力無序擴張以及用戶權利不受保護,導致算法控制、算法黑箱、算法歧視以及算法安全風險。因此,算法治理的價值是通過制定與踐行算法倫理原則,以達到約束算法權力與保障用戶權利的目的。相應地,算法風險的治理路徑包括技術內生路徑與社群外生路徑。
在此基礎上,本文討論的四個倫理原則在不同程度上都可以通過技術或社群路徑來實現。譬如,算法安全風險治理既要依賴賦權與監管等社群約束,也需要經由優化深度學習和提升算法韌性來達成。基于自主、透明、公平和安全四項倫理原則,率先進入智能社會的美國、歐洲以及日韓等國正在探索算法治理的多樣化路徑,作為算法大國的我國也是全球算法治理的開拓者。本文分析表明,現階段算法治理正在匯聚多元治理主體,未來可進一步基于“權力—權利”的治理價值和“技術—社群”的治理路徑構建算法的多元治理框架。首先,隨著國家層面硬性法規出臺,應加快推進算法監管體系建設。國家互聯網信息辦公室等監管部門已經就算法推薦管理出臺規定,并宣布利用三年左右時間建立起算法綜合治理體系,以保護公民的合法權益、維護國家安全和社會公共利益。針對各類算法活動,相關部門要加快探索算法測試、評估與審計的啟動條件和技術標準,將監管目光直接投向算法的設計與運行。其次,科技企業作為算法研發、部署與推廣的首要主體,應主動承擔主體責任,成立算法倫理部門,建立算法安全責任制度、科技倫理定期審查和結果披露制度,強化科技企業的倫理責任意識。再次,大力開發第三方科技社群的算法治理作用,制定行業算法倫理規范推進行業自律,依托專業力量就平臺算法風險進行評估,測試算法的透明度、識別算法是否存在歧視與損害性后果。探索算法審計報告向社會公布制度,并與平臺信用掛鉤,倒逼平臺改進算法。最后,通過政府、科技企業、科技社群和社會參與構建協同治理體系,使得全社會在發揮算法紅利、用算法進行治理的同時,充分考慮個人權利和公共利益,對算法風險進行識別和防范,實現對算法的治理,從而構建一個以人為本、公平公正、公開透明、安全可靠的算法治理生態。