袁康
內容摘要:符合可理解、可靠和可控等內在要求的可信算法是防范算法風險和構建算法信任的基礎,算法的可信控制應該成為算法治理的核心。通過法律的可信控制,即按照法律嵌入和法律調節的規制邏輯,通過貫穿于算法的技術層、應用層和治理層的系統化制度安排,確保算法以可信任狀態得以設計、部署、應用和執行,是實現算法可信的有效方式。系統地構建算法可信控制的制度體系,需要從算法本體的維度,通過完善透明度規則、推動算法倫理法律化和探索算法驗證評估制度等措施確保算法自身的可信度,并從算法關系的維度,通過明確算法權利、強化算法問責和拓展監管體系等制度,約束算法相關主體的行為。
關鍵詞:可信算法 算法治理 算法本體 算法關系 制度理性 技術理性
中圖分類號:DF4? 文獻標識碼:A? 文章編號:1674-4039-(2021)03-0005-21
大數據、區塊鏈、人工智能等新興技術的加速應用,正在深刻改變著人類社會的運行模式。自動駕駛、醫療機器人、智能投顧、社交網絡等事物的出現,使得人們在日常生活、經濟交易、信息獲取、社會參與等領域的活動以更加便捷和智能的方式展開。算法作為這些技術的核心要素,在推進行為決策機制變革和信任機制重塑的同時,也因公眾在對自動駕駛事故、大數據殺熟、信息繭房、算法暴政等一系列議題的反思和批判過程中面臨拷問:當我們把一切都交給算法時,它們究竟是否值得信任?隨著算法社會的來臨,人類正將決策權逐漸讓渡給算法接管, 〔1 〕算法對于個體乃至整個社會的影響日漸重大且深遠,只有處于可信狀態的算法才能夠消除人類的顧慮并保證算法時代的安全與秩序。可信算法是維系算法信任的基礎,實現算法的可信控制則是算法治理的核心任務。如何實現算法的可信控制,既是技術社群試圖從技術理性的角度解決的現實任務, 〔2 〕也是法律人需要從制度理性的角度回應的時代命題。〔3 〕筆者以可信算法概念及其內在要求為起點,結合算法的法律規制的基本邏輯與一般原理,試圖從算法自身的本體維度和算法相關主體的關系維度提出算法可信控制的體系化制度方案。
一、算法信任與可信算法的概念展開
從技術角度看,算法是為實現某個任務而構造的簡單指令集, 〔4 〕其本質是以有限、確定且有效的設定將輸入轉化為輸出從而解決問題的數學過程。〔5 〕算法以數據為基礎,以算力為支撐,借助在具體場景下的部署和應用實現自動化、智能化的決策。按照理想主義的技術預設,由于算法規則的確定性和客觀性,算法決策通常被認為是理性、中立、高效和值得信賴的。〔6 〕然而,算法所呈現出的現實圖景似乎偏離了這種理想預設,“算法信仰”在層出不窮的算法歧視和算法暴政面前難免淪為一廂情愿式的迷戀。在算法社會到來的前夜,我們需要再三確認:到底什么樣的算法才足以讓我們將決策權放心托付。
(一)算法信任與算法可信度迷思
一般而言,自然人由于認知障礙、主觀傾向、身心狀態和外部干擾等原因,并不總能保證其決策的理性與正確。而算法依托確定的輸入輸出過程,能夠實現相較于自然人更為客觀、理性和有效的決策。同時,借助計算機程序運行和實現的算法能夠更為嚴格地執行既定規則和邏輯,更為海量且快速地處理決策請求,從而實現決策的一致性、即時性和普遍性。看似機械冰冷的算法,能在很大程度上彌補和消解自然人決策中的非理性、主觀性和局限性,節約決策成本并優化決策效率,成為維持社會運行乃至推動人類進步的革命性力量。基于此,算法被人們依賴甚至信仰,借助算法解決問題成為超越人類認知局限和執行能力的更優選擇,由此形成了所謂的“算法信任”。〔7 〕例如,區塊鏈技術因其“去中心化”而更具公信力,正是因為分布式存儲、共識機制、Paxos算法、非對稱加密等核心算法實現了不可篡改等技術特征,由此創造的“算法信用”對“主體信用”的補充或替代有效地解決了信息不對稱下的信任問題。〔8 〕然而,技術特征并非信任的根本來源,人們對于算法的信任傾向以及算法自身的可信度是構建“算法信任”缺一不可的兩個方面。〔9 〕易言之,人們選擇相信算法并不意味著算法自身就值得被信任。
即便我們有理由相信算法能夠按照預設的過程得以客觀地執行,但由于其設計、部署和應用難以避免地會受到人類行為的影響,加上技術不完備的客觀規律,算法自身的可信度會大打折扣, 〔10 〕從而形成一種“迷思”,即對算法可信度的懷疑。具體而言,這種“迷思”主要源于以下幾方面原因:1.算法缺陷并不總能避免。算法源于人類預設的邏輯模型,并通過代碼來表達和執行。一方面,算法自身在功能實現上本身就有局限,算法輸出結果也并不能確保完全準確,決策錯誤的可能性始終存在。另一方面,算法在設計和應用過程中可能因算法模型或者饋送數據的缺陷而發生偏差。若是用于訓練算法的數據質量較差,無論算法模型多么完美,最后的數據輸出也會存在“垃圾進、垃圾出”的現象,從而造成算法不能實現其預期效果。特斯拉自動駕駛事故的屢次發生,正是AutoPilot自動駕駛系統無法識別靜態障礙物的算法缺陷導致。〔11 〕而波音737MAX空難也正因為MCAS系統在有缺陷的算法控制下以高于人工控制的權限壓低機頭導致飛機墜毀。這些案例都是算法缺陷導致算法可信度存疑的例證。2.算法偏見確實有意或無意地存在。算法模型不可避免地會受到設計者主觀傾向和利益導向的影響,設計者的價值觀和偏見會嵌入算法,從而造成算法輸出結果或者決策延續設計者的偏見。〔12 〕例如,我們常見的大數據“殺熟”或者歧視性定價,正是反映了這種故意的偏見。而即便設計者本身并非有意為之,在算法通過數據輸入進行訓練時也可能受到帶有偏見的數據影響,并通過機器學習加劇這種偏見。例如,微軟的聊天機器人Tay上線一天就學會了臟話和種族歧視,這是其設計者始料未及的。3.算法黑箱可能導致人與技術的疏離。算法自身封裝在程序之中,且代碼化的表達通常難以被非專業人士理解。此外算法設計與應用者通常將其作為核心商業機密予以嚴密保護,使得用戶通常難以直觀了解算法。在此情況下形成了輸入端和輸出端之間的無法被觀察的“隱層”,甚至會出現輸入和輸出都難以被感知的情況,即所謂“算法黑箱”。〔13 〕算法黑箱的存在,導致人們在面對算法的自動化決策時難以把握其理由或原因,或者無法確認該決策是否真是按部署者解釋的那樣作出的,因而給設計者和應用者操縱算法并損害個人權益甚至公共利益提供了可能性。〔14 〕面對并不透明的算法,用戶難以完全排除欺詐或歧視的存在,信息不對稱導致信任往往難以真正建立。4.算法權力可能造成人與技術的對抗。當算法深度嵌入社會運行的各個環節和部門,人們對算法的過度依賴以及算法的過度擴張,會導致算法自主或者在個別主體的利用下控制、引導或干預個人、企業乃至國家機關的決策,形成所謂的“算法權力”。〔15 〕隨著算法廣泛部署,這種權力將通過算法的執行形成對人類社會的規訓。通過算法實施的網絡監視、信息繭房等成為了“算法規訓”的現實映射, 〔16 〕而“劍橋分析”事件和“盧米斯案” 〔17 〕則反映出當算法開始介入政治或公共行政領域時所造成的巨大威脅。如果再科幻點,神經網絡和深度學習技術發展到一定階段的強人工智能有可能脫離人類的控制,甚至謀求對人類的統治。隨著算法權力的擴張,人類與技術之間的從屬格局和權威地位正在發生微妙的變化, 〔18 〕算法權力對人類的規訓與控制勢必會引發人類的對抗,而不信任正是這種對抗的起點。
算法信任是算法社會的基礎,而信任必須建立在算法可信度之上。即便用戶可能會因為主觀上的盲目性而選擇信任算法,但算法自身可信度的不足會客觀上消解這種信任。因此,算法可信度才是確立和維系算法信任的根本。從前文分析看,由于算法可信度迷思的存在,當我們面對“算法是否值得信任”的問題時并不總是能夠得到肯定的答案。然而,不論我們目前在多大程度上不信任算法,都不得不承認算法在當下與未來必將發揮著重要作用。任何因噎廢食地抗拒算法社會的到來,都是不理智且不現實的。盡管算法并不總是值得被信任,但也不宜全盤否定算法的積極功能,無視那些具備可信度的算法為經濟社會更加高效地運行提供的支撐。基于這個前提,我們可以得出一個初步結論:我們不能也不應拒絕算法,但是我們可以規訓算法;我們需要算法,但我們真正需要的是可以信任的算法,即可信算法。
(二)可信算法及其內在要求
筆者所稱的“可信算法”并非嚴格意義上的技術術語,而是側重于算法“可信任”狀態或特征的價值判斷。由于話語體系的差異,有必要對相關概念進行區分以避免混淆或誤解。在技術語境,“可信”源自作為一種信息安全技術的“可信計算”,即通過認證密鑰、安全輸入輸出、內存屏蔽、封裝存儲、遠程證明等核心技術規范實現身份驗證和可靠運行,從而構建完整可信的系統。在這層意義上的可信算法,主要是指身份驗證、安全保護等為內容和目標的特定算法類型,如動態加密算法、可信評價算法等。但在治理語境中,“可信算法”意在將那些對個體權益或社會福利存在現實或潛在威脅的算法予以排除,并將其限定為具備合法性和正當性且具有相當可信度的算法。此種定義并不關注算法的具體內容或目標,而是強調評估特定算法自身是否值得信任以及影響是否正面,與可信區塊鏈、可信人工智能等概念異曲同工。隨著技術專家對算法倫理的日益關注,對于“可信算法”概念的混亂認識也在趨于共識。〔19 〕筆者所指的可信算法也正是基于治理語境下的定義展開。
“信任”如何建立,或者說“可信”如何實現,是一個相對復雜的系統工程。算法自身的不完備以及在部署應用中導致的人與技術之間的疏離和對抗,往往會將算法推離人們的信任圈。正如哲學家Onora ONeill所言,信任不是通過索取而得到,而是通過展示可信度來獲取。〔20 〕對于算法而言,設計者或者部署應用者不能單方面要求人們的信任,其宣示或承諾也并不足以得到人們的信任,而是要通過向用戶和公眾充分展示其可信度來實現。按照David Spiegelharter的觀點,對算法的信任來源兩個方面,即關于算法(about the algorithm)的可信度和通過算法(by the algorithm)的可信度,前者是指開發者充分闡釋算法的功能、邏輯以及評估驗證的情況,使用戶和公眾對其充分了解,后者是指算法在實際應用中的準確、有效、可靠的水平,使用戶和公眾相信其有能力且負責任地解決問題。〔21 〕如果將算法自身的技術能力與對算法的治理狀態結合來看,對算法的信任主要來源兩個方面。一是增強算法技術本身的可靠性、穩定性等績效表現,使得公眾對其運行形成穩定預期和信賴;二是通過法律、行業規范、技術倫理等制度創建可信的治理環境,使得公眾增加對算法技術的掌控感和影響力。〔22 〕概言之,可信算法既需要本體層面源于技術的可信度,又需要關系層面源于治理的可信度,由此方能獲得用戶和公眾的信任。
面對技術的不斷進化和對人類生活的深度嵌入,“可信”成為了技術社群和政策部門的關注焦點。歐盟委員會設立的人工智能高級別專家組在2019年4月發布了《可信人工智能的倫理指南》 〔23 〕,提出可信人工智能需要在整個生命周期滿足三個條件:1.合法性,即可信人工智能應當依法合規;2.道德性,即可信人工智能應當符合道德原則和價值觀;3.魯棒性(robust),即可信人工智能應當避免造成無意的損害或負面影響,并且指出人工智能應該滿足七個關鍵要素以達到可信賴的要求,即人的能動性和監督;技術魯棒性和安全性;隱私和數據管理;透明度;多樣性、非歧視和公平性;社會和環境福利;問責機制。美國計算機學會的公共政策委員會發布了《關于算法透明和問責的聲明》并提出了七項原則, 〔24 〕強調通過確保算法的透明度和可問責性以避免算法的偏見和錯誤。FATML 〔25 〕也在《可問責算法原則》中指出了自動決策算法在產業界和政府的廣泛應用,影響了從定價到用工甚至刑罰的各個方面,因此算法需要符合負責任、可解釋、精確性、可審計性、公平性等原則的要求。以上這些政策倡議或行業指南,都是在嘗試從技術或治理的層面探索對算法的規制,以實現算法的可信。
結合算法信任的形成機理和多利益相關方的主張,筆者認為,可信算法需要具備以下幾方面的特點和要求:1.可理解性。算法要獲得信任,必須以能夠被理解為前提。可理解有兩個層面的內涵:一方面是算法必須保持其透明度,使算法的基本邏輯、模型原理、決策流程等可為用戶或公眾所知悉,這有助于增進用戶對算法決策的信任。〔26 〕即便算法可能被企業主張構成商業秘密,公開算法邏輯而非代碼并不至于損害其商業利益,相反會因用戶的信任而獲得更多機會。另一方面,由于算法高度的技術復雜性,簡單機械的透明度要求可能會陷入“魚缸”式的透明,為避免這種無效的透明度就要求算法必須可被解釋。即便普通用戶不一定有能力完全解釋而樂意信任,但必須要向有需求且有能力了解其推理過程的主體(利益相關方)提供易于訪問、可解釋、可評估的理解路徑。〔27 〕2.可靠性。算法要獲得和維持信任,必須以可靠為基礎。可靠是指算法不會偏離倫理和法律的要求,能夠準確、公平、安全地作出算法決策。人們將決策權讓渡給算法,是期待算法能夠更加理性和精確地解決問題,這就要求算法能夠克服人類的非理性、偏見和局限,以盡可能少的偏差和更符合倫理與法律要求的方式作出準確決策。此外,要維持信任,算法需要確保魯棒性,以避免因外部干擾而危害安全或造成其他負面損害。3.可控性。可控算法獲得和維持信任的保障。當算法脫離控制,就很難指望人們盲目的信任。所謂可控是指人們可以有效規制算法或者自主決定算法是否繼續執行。有效的監管是控制算法的一種形式,按照相應的治理框架和制度規則對算法進行約束和規訓,能夠確保算法與人類之間的主從關系并有效控制算法風險,使得算法不至于在與人的合作和對抗中失去控制。而自主決定算法是否繼續執行,是人們擺脫算法暴政以實現自主性的最后一條退路。不論是脫離算法自動化決策權抑或是中斷算法的執行,都是人們在算法失控或即將失控后的選擇方案。
隨著人類進入算法社會,算法的部署和應用將成為人類經濟社會生活的常態。在此背景下,既要最大限度地發揮算法技術的積極價值,又要保證算法符合人類社會的“共同善”, 〔28 〕這就需要我們以算法信任為基礎,通過有效的算法可信控制,從技術層、應用層到治理層確保算法“可信化”。通過算法的可信控制,可以確保算法的可信度,從而有效維系算法信任,防止不可信算法的濫用導致用戶損失乃至算法信任的崩潰。因此,在很大程度上,算法的可信控制應當成為算法治理的核心任務。
二、法律如何規制算法:可信控制的法律進路
算法的可信控制旨在通過相應的手段或方式對算法設計、部署和應用的全流程進行規范與調整,以保證算法的可理解性、可靠性和可控性。對于技術專家而言,算法的可信控制可以通過技術手段實現。例如,南加州大學研究人員研發的DeepTrust工具可以對AI算法生成的數據和預測的信息進行驗證;日益成熟的“歧視感知數據挖掘”也能夠識別偏離公平倫理的算法,通過技術進路“以算法控制算法”從而實現算法可信正在成為可能。〔29 〕對于法律專家而言,應對算法風險并實現算法與人類社會相容的制度需求激起了法律人“規訓算法”的雄心,算法規制或者算法治理日益成為法律人關注的焦點議題。〔30 〕通過法律進路的可信控制,即以法律制度規范算法的技術流程并調整相關主體的行為以實現算法可信,正是“以法律控制算法”的題中應有之義。然而,法律能以何種方式規制算法,從而通過制度理性約束技術理性,是按照法律進路實現算法可信控制的基礎性命題。
(一)技術與法律之間:算法的技術實質與法律實質
作為解決特定問題或者達成明確結果而采取的一系列步驟, 〔31 〕算法的技術實質是解決問題的邏輯流程。在算法的設計、部署和應用過程中,代碼是算法的表達,程序是算法的載體。算法通過能為計算機所理解的代碼所設定,在程序的運行中得以執行,從而完成從輸入到輸出的過程。從這層意義上看,算法至多只是一種在程序運行中所遵守并執行的抽象技術方案。例如,根據既定算法,空氣凈化器的傳感器偵測到空氣中的污染物(輸入)后即啟動大風力凈化功能(輸出)。隨著算法技術的迭代與升級,算法得以通過更加自動和智能的方式應用在更廣泛的領域,也開始形成在不同意義上的技術實質。〔32 〕例如,今日頭條通過用戶標簽算法、文本分類算法等實現向用戶精準推送其感興趣的新聞內容,由此算法就從簡單的“技術方案”成為了應用者實現預期目標的“工具”。為滿足開發者的需求,有些設計好的算法得以在一些開源社區中進行分享,開源算法可以根據開發需要獨立地嵌入至不同的程序之中,使得算法開始具有獨立的“產品”屬性。而隨著神經網絡和機器學習的發展,算法在數據和算力的加持下進入了一個新的階段,即能夠脫離開發者的初始設定而不斷自我優化和拓展,從而幾乎成為具備獨立意識的主體,AutoML甚至能自動地完成創建、執行和調優的全過程。基于此,我們可以看到,隨著技術的迭代升級,算法正在從底層技術方案發展為獨立的產品,甚至正在從被動的工具發展為具備主動性的主體,其技術實質正在不斷地豐富和擴張。
作為技術存在的算法進入法律場域,必然面臨著對其法律實質的判斷,即算法在法律的維度中究竟是什么,這決定了法律可以何種方式介入和規制算法。算法技術實質的拓展,也使得其法律實質呈現出不同的樣態。法律作為調整社會關系的規范,關注的是現實存在的、具有明確的主體客體和具體權利義務的社會關系。如果僅從技術方案層面看,作為抽象決策邏輯的算法難以在法律上被評價,即便算法的執行確實可能產生相應的法律后果。正如法律可以控制基于某種思想而作出的行為,但無法控制思想本身。因此,這個層面上的算法規制只能將重點放在設計、部署和應用算法的相關主體上。
但隨著算法技術實質的拓展以及算法對社會秩序的沖擊,將算法本身作為法律規制的對象不僅成為理論上的共識,而且取得了相應的實踐進展。目前有司法觀點認為,算法屬于“言論”或者“商業秘密”, 〔33 〕盡管如此認定算法的法律實質在邏輯上自洽,但并未充分反映算法技術的迭代以及由此帶來的算法功能的擴張,并且在某種程度上會因“言論”和“商業秘密”在法律上的特殊地位而導致可以正當地對抗法律的介入,從而使得算法規制面臨諸多不確定性。為突破這一局限,有學者認為,算法應當被視作一種“正當程序”。〔34 〕算法中輸入到輸出的過程涉及相關主體的權益乃至社會整體利益,該過程如何實現以及以何種方式實現,往往取決于這個過程是否正當,譬如是否存在算法權力的濫用。因此,承載算法的程序應當確保其設計和運行符合正當程序的法律要求。易言之,算法實現的過程應當納入法律關注并調整的范圍之內。與此同時,算法通過其輸入到輸出的過程,會按照算法邏輯形成供用戶參考甚至必須接受的決策,從而調整和約束用戶的行為。因此,在某種程度上也可以將算法理解為一種“規范”。
但是,算法的法律本質僅僅只是正當程序或規范嗎?當算法作為一種工具或產品,就成為了法律關系中的客體。類似于機動車致人損害的場景,機動車的控制者(司機)以及機動車的所有者(車主)對侵權損害須承擔連帶責任。又類似于產品責任的場景,缺陷產品的銷售者和生產者須對消費者承擔連帶責任。拋開其內部追償關系不論,基于對特定客體的控制、所有、銷售和生產等關聯,都會形成特定的法律關系并獲得相應的法律評價。因此,即便算法是法律關系中的客體,設計、部署和應用相應算法的主體也會因算法執行所帶來的后果受到法律的肯定或否定的評價。算法本身就是算法關系中的重要一環,從而也當然是算法法律關系中的重要一環。而一旦算法具備了主體意識和能力,就需要承擔其執行所帶來的法律后果,而這并不是完全不可行的。易言之,算法在法律上并非僅有程序法意義上的表達,而且在實體法上也應有其一席之地。由是觀之,除了明確算法的正當程序本質之外,還可以確認算法作為算法關系的一環,無論其是作為主體抑或是客體。鑒于算法的法律實質,我們得以穿透技術的迷霧,找到對其進行法律規制的路標。
(二)算法規制的基本邏輯:法律嵌入與法律調節
算法技術實質的拓展及其法律實質的厘清,為法律規制算法提供了更加明確的指向和更加多元的路徑。盡管對于算法的法律規制面臨諸多質疑觀點,例如法律人不了解算法技術,那么法律就難以有效地規制算法。又如,算法是技術世界的抽象規則甚至就是“法律”, 〔35 〕那么人類社會的法律能否或者足以規制技術世界的算法也值得懷疑。但是,當我們拋開過度浪漫主義的科幻假設,回歸至將算法作為人類社會進步中的具體事物,就不難發現算法的設計、部署與執行,既脫離不了人為因素(如算法設計者的偏見),也不可避免地影響社會關系(如算法缺陷導致的產品責任)甚至重塑社會關系(如人工智能新型主體),從而對人類社會造成積極或消極的后果。〔36 〕這導致了算法必定而且必須要落入法律規制的射程之內。因此,算法并不是技術世界的獨立存在,而是深刻影響人類社會的新興變量。算法的法律規制既是維護人類社會秩序之必需,也是保障算法按照符合人類利益的方式發揮作用之必要。
至于法律如何規制算法,則需要將算法的技術本質與法律本質相橋接。不同層級與不同場景的算法在法律上的地位和評價存在著差異,對其實施法律規制的立場和路徑也會有所區別。〔37 〕例如,僅作為技術方案的算法需要將其作為正當程序予以規制,作為工具或產品的算法則可以作為法律關系中的客體予以規制,而在未來有可能取得法律主體資格的算法則會直接成為一種法律擬制的主體受到法律調整。但從現實來看,算法往往并不像理論家想象的那樣涇渭分明地展現其本質,而是以更加務實地解決問題的方式發揮著實際功能。而法律規制算法的目標,不外乎有效地約束算法并調整算法所關涉的社會關系,以實現公平和秩序等法價值。因此,算法的法律規制,一方面是從本體的角度將算法作為法律的調整對象,通過算法的法律嵌入確保算法不偏離法律的要求;另一方面則是從關系的角度調整算法關系,通過規范相關主體的權利、義務與責任實現算法關系的有效治理。
法律嵌入算法,是指將法律的原則和規則嵌入算法的模型和邏輯,使算法在執行過程中符合法律的要求。由于算法是自動化決策所依據的基本規則,作為表達算法的代碼實際上定義了技術世界的規則,并通過算法的執行對人的行為和人類社會產生影響,由此形成了“代碼即法律”的論斷。〔38 〕然而,代碼或者算法在執行的過程中出現背離公平或正當程序的現象,乃是算法遵從了設計者的技術理性而偏離了法律的制度理性。正如亞里士多德認為法治的第二重含義是“大家所服從的法律本身應該是制定得良好的法律”, 〔39 〕我們所需要的算法也應當是自身設計良好的算法。從這層邏輯上看,算法的法律規制就是要把法律的精神和規范嵌入算法,實現算法邏輯與法律規則的統一,從而完成“法律即代碼”的規訓過程。〔40 〕具體而言,可以將法律規則抽象成可供代碼執行的關系,并按照法律所認可的行為模式設置關聯規則,從而確保算法執行的效果能得到法律的肯定評價,即按照符合法律要求的邏輯設計算法,由此實現法律對算法的規制。
法律調節算法關系,是指法律不再將算法作為直接的調整對象,而是圍繞算法所創設或影響的社會關系作為關注的重點,通過調整算法相關主體的行為與責任、權利與義務而對算法實現間接控制。算法從設計到應用再到執行的整個流程涉及眾多的主體,例如,算法設計者、算法應用者、用戶、監管者以及公眾等,這些主體基于算法這一連接點建立的社會關系可以被稱作算法關系。算法的失控會造成算法關系的失衡,如算法黑箱、算法歧視等都會造成相關主體利益受損。如果說算法的高度專業、復雜和抽象導致了其難以受到法律的有效控制,那么投射在人類社會中的算法關系相對而言則更容易受到法律的規范。因此,當法律以明確且合理的權利義務框架、清晰的行為模式與法律后果對相關主體之間的關系進行有效規范,則其控制效果必然會及于算法本體。例如,算法設計者會更加審慎地設計算法,用戶和公眾則會通過法律賦予的權利對抗和約束算法。
(三)通過法律的可信控制
立足于防范算法風險的法律規制涉及的范圍比較廣,算法社會下的法律規制需求也非常迫切。算法共謀帶來的壟斷 〔41 〕、算法歧視導致的侵權 〔42 〕、算法濫用帶來的損害 〔43 〕等,都是算法失控所帶來的負面后果。相比具體的算法風險的“結果主義”視角去探討對算法的治理,算法的可信控制立足于從“預防主義”的角度實現算法的可信性,即確保算法得以可信任的方式設計和應用,從而在源頭上避免算法風險的發生。前文已述及,算法信任一方面來源于算法自身的技術可信度,另一方面來源于可信的算法治理環境。這既反映了公眾對可信算法的主觀期待,也反映了制度對可信算法的客觀約束。盡管可信算法可以而且必須通過技術進路得以實現,但通過法律的可信控制也是實現算法可信的可行進路和必要保證。當然,通過法律的可信控制,需要遵循算法信任生成和維持的內在邏輯,有針對性地構建合理且有效的制度方案。
算法“可信”是一種狀態,即算法基于其可理解性、可靠性和可控性而能夠獲得人們的信任。從技術中立的角度看,算法作為客觀技術產物其本身并不存在價值取向或信任問題,但算法設計和應用中難以避免地會受到相關主體的主觀因素影響,惡意或過失可能導致算法的缺陷甚至失控,從而造成算法不可信。易言之,算法可信與否的根源在于算法自身是如何被設計和應用的。法律雖然并不能做到直接確認或宣示算法的可信,但法律可以通過規范和調整算法的設計、部署和應用的行為以及算法關系,形成針對算法相關主體的利益制衡機制和行為約束框架,從而實現算法的可信控制。
具體而言,通過法律的可信控制主要包括以下原則性內容:首先是技術規范控制,即以法律制度的形式明確算法在設計、部署和應用的整個生命周期中所應遵守的技術規范,以算法行為的合規性實現算法可信。例如,將算法的技術要求和倫理規范上升為具有強制性和普遍約束力的法律規范,確保算法在透明度、公平性、魯棒性等方面符合法律預設的剛性標準。其次是權責協調控制,即在法律制度中合理分配算法相關主體的權利、義務與責任,通過“賦權”支撐用戶和公眾對算法的監督,通過問責強化對算法控制者的約束,以算法相關主體間的利益制衡實現算法可信。例如,通過構建合理程度的透明度規則,規定用戶獲得算法解釋的權利、設計者和應用者的解釋義務以及因未能合理解釋而承擔的法律責任,共同實現對于算法透明度的有效控制。再次是合作治理控制,即構建涵蓋政府、行業組織、第三方機構在內的多利益相關方協同參與的治理框架,通過賦予相關方對算法進行監督的權力與職責,提高其參與算法治理的責任感和積極性并加強對算法的有效監督,從而實現算法的可信控制。
概言之,通過法律的可信控制是依托貫穿于算法的技術層、應用層和治理層的系統化制度安排,對算法本體和算法關系進行有效調整和規范,從而確保算法以可信任狀態得以設計、部署、應用和執行的過程。作為算法治理必要環節的可信控制,以實現算法的可信狀態為旨向,是有效防范算法風險的前提,也是算法規制的核心內容。通過法律的可信控制,也應當遵循算法規制的基本邏輯,即在算法本體方面強化法律嵌入,在算法關系方面完善法律調節,充分發揮法律在實現算法可信中的積極作用。
三、本體維度下的算法可信控制
算法自身的可信度是算法信任最根本的來源,也是算法可信控制最直接的場域。算法是否可信,以及多大程度上可信,往往取決于算法本體的質量。因此,從本體維度進行算法的可信控制,即以算法本體作為直接的規制對象,通過制度約束確保算法按照可信的標準和規范進行設計和應用,是實現算法可信的基礎性環節。由于算法本體的技術屬性,這一維度下算法的可信控制可以遵循法律嵌入的邏輯,將可信算法的具體要求轉化為具有法律約束力的技術規范,從而完成算法的可信控制。
(一)完善透明度規則
“陽光是最好的殺蟲劑,燈光是最好的警察。”布蘭代斯大法官這一著名論斷在透明度的擁躉中廣為流傳。這一論斷不僅可以用來倡導證券市場上的信息披露,在算法的可信控制中同樣適用。一方面,與行政公開能夠增強政府公信力類似,算法的透明可以使用戶了解算法的邏輯,從而獲得用戶的信任。〔44 〕另一方面,透明能夠對算法控制者形成有效約束,使其不能(至少不會明目張膽地)設計和部署不可信的算法。因此,建立針對算法的透明度規則,可以在主觀和客觀兩個方面實現算法可信的效果。
算法的透明度規則,核心在于要求算法控制者披露源代碼或者披露算法從輸入到輸出的基本邏輯。〔45 〕事實上,在眾多關于算法治理的倡議方案中,以透明度要求打破“算法黑箱”被認為是有效規制算法的首要方案,也是實現算法可信控制的第一把鑰匙。例如,《一般數據保護條例》第13條第2款(f)項要求數據控制者在利用自動化決策機制時要向數據主體提供數據畫像過程中運用的邏輯。英國議會下屬的人工智能特別委員會發布報告《人工智能在英國:準備、志向與能力?》也建議在安全攸關的特定場景中要求使用更加技術透明的人工智能系統,以實現更可信賴的目標。〔46 〕
然而,透明度要求的落實面臨著兩個方面的挑戰。一個挑戰是與算法控制者私權的平衡。對于算法控制者而言,算法往往承載著其核心競爭力,也通常被主張為商業秘密而被獲得保護。因此,在對算法課以透明度要求時也不得不考慮私權與公益的平衡問題。另一個挑戰則是算法的透明并不意味著被理解,即算法的高度復雜性和專業性可能會導致算法的公開淪為形式,即便是算法完全公開,用戶或公眾甚至有些專業人士都可能被淹沒在復雜的代碼或冗雜的信息之中,從而無法真正理解算法是否存在不可信的因素。〔47 〕面對這兩大挑戰,我們需要甄別基于信息的和基于解釋的透明度, 〔48 〕務實地認識透明度要求的并非公開晦澀難懂的算法代碼,并落腳至“可理解”的立場來建構算法的透明度規則。例如,FAT/ML選擇了折衷的透明度規則方案并建議所有算法需要發布一項社會影響聲明,并在聲明中詳細說明算法的責任主體、向利益相關者提供通俗的解釋、提示錯誤和不確定性的來源、提供第三方進行檢查和批評的途徑、闡釋針對不同受眾的公平考慮。〔49 〕這種社會影響聲明不再執著于算法的完全公開,而是試圖讓算法以能夠更好地被理解的方式實現透明。
鑒于此,在實現算法可信控制的過程中,透明度規則需要立足于使算法更易被理解的方式來構建。具體而言,算法控制者首先需要為公眾獲取代碼或內在邏輯提供便利的渠道,使對該算法感興趣的利益相關方能夠方便地獲取相關信息。其次,算法代碼或算法邏輯的公開需要以容易被大眾所理解的通俗表達方式予以解釋,且這些解釋必須是直接、簡明且有效的。概言之,算法的透明度規則應當在適當尊重控制者利益的基礎上,按照更加可理解的方式合理設定,使用戶和公眾能夠擺脫機械的“魚缸式”透明,并真正直接且有針對性地理解算法,將其作為算法在設計和應用時需要滿足的合規要求,從而增進算法的可信度。
(二)推動算法倫理的法律化
由于算法在設計環節不可避免地受到人的影響,即便如何強調“技術中立”都無法否認算法本身具備著“經由設計的價值觀”, 〔50 〕算法的歧視與偏見以及其他對人類社會的挑戰,往往也都是源自設計算法時的故意、疏忽以及對于倫理道德的漠視。因此,算法倫理被提出并作為約束算法按照符合人類道德觀念和共同善的要求設計和應用的道德基準。〔51 〕例如,歐盟委員會提出人工智能系統應當符合尊重人類自主,防止損害公平可解釋 〔52 〕等道德原則。算法的倫理要求反映社會對于算法的擔憂與期待。從可信算法和算法信任的具體要求來看,符合倫理要求的算法由于其本身的“善”而能夠給予用戶和公眾更為正向的價值預期,且算法決策的倫理正當性有助于實現算法的可靠和可控,從而使得其作為設計良好的算法更易獲取信任。易言之,可信算法必然是符合倫理要求的。
然而,算法的倫理要求僅限于道德上的倡議,由此而來的軟性約束并不足以產生有效的控制力。盡管一旦算法違反倫理要求可能會導致輿論譴責或用戶流失的后果,但主要依靠聲譽機制的道德約束往往并不具備執行的剛性。因此,在算法的可信控制中,倫理要求雖然是衡量算法可信度的重要標準,但由于其道德約束的實質而導致可信控制效果不盡如人意。要解決道德約束的不足,需要借助具有強制約束力的法律來落實算法的倫理要求,實現倫理要求的法律化,即將算法倫理的具體要求嵌入法律制度,完成倫理規范的法律表達,從而將道德原則轉化為法律義務,以實現更為有效的可信控制。盡管當前有些倫理要求已經嵌入法律制度,例如《一般數據保護條例》第13條至第15條要求數據控制者向數據主體提供自動化決策的邏輯并解釋其影響,但現行有效法律需要更為充分和全面地將道德原則轉化為法定義務。〔53 〕
算法倫理的法律化主要可以在兩個層面得以實現:一方面是算法設計者負有按照倫理要求設計算法的法定義務;另一方面是算法的設計須遵守與倫理要求一致的法律規則。就前者而言,法律應當對算法設計者課以相應的信義義務,以約束其基于對倫理要求的充分注意來完成算法的設計過程,從而避免因設計中的故意或過失導致算法偏離倫理要求而落入不可信狀態。就后者來看,法律應當設定明確且強制的技術規范,將倫理要求嵌入算法決策邏輯,以實現算法本身對于倫理要求的遵守。具體而言,可以通過強制性規范要求所有的算法均需將法律化的倫理要求作為設定條件寫入主節點,偏離倫理要求的算法執行過程會因不滿足觸發條件而不能啟動代理節點,從而以倫理要求作為衡量標準阻斷不可信算法的執行,進而完成算法的可信控制。
(三)探索算法驗證評估制度
相比于用戶和公眾的主觀心態,算法是否確實可信往往取決于算法自身的客觀狀態,即是否可理解、可靠和可控。囿于自身專業能力和認知水平,一般用戶并不能自主地完成可信算法的驗證,但具有相應技術實力的利益相關方,譬如技術社群或政府部門,有能力對算法客觀上的可信度進行驗證和評估。然而,由于算法被作為商業秘密予以保護的通行實踐,以及強制性算法驗證評估制度尚付闕如,即便是在一定程度上需要保持透明,但算法仍然處于不受系統性驗證評估的野蠻生長狀態。這種局面顯示了可信算法的實現只能依賴算法控制者的虛無承諾和用戶的自我安慰,缺乏具有技術公信力和地位獨立性的機構對算法是否可信進行確認。對算法進行驗證評估以確認其可信度,是實現算法可信控制的重要抓手。建立針對算法可信度的驗證評估制度,對于可信算法的甄別和應用殊為必要。
可信算法在技術上具備識別的可能性。從現有工程標準來看,IEEE的《推薦的軟件可靠性最佳工程實踐》(IEEE 1633-2008)以及國家標準化委員會發布的《系統與軟件的可靠性》(GB/T 29832-2013)等都可以對算法的可靠性進行驗證。盡管隨著算法的迭代以及深度學習算法的出現,導致現有工程標準不能完全應對,但是相關標準和規范正在推進之中,相應的測試模型和評估模型也會落地。國務院在發布的《新一代人工智能發展規劃》中提出:“建立人工智能算法與平臺安全性測試模型及評估模型,研發人工智能算法與平臺安全性測評工具集。” 〔54 〕ISO/IEC(國際標準化組織/國際電工委員會)JTC1(第一聯合技術委員會)成立的人工智能分委員會專門成立了“可信賴”工作組(WG3),開展人工智能可信度、魯棒性評估、算法倫理等標準研制工作。〔55 〕通過評估算法功能實現的正確性、代碼實現的正確性、目標函數的影響、訓練數據集的影響、對抗性樣本的影響、軟硬件平臺依賴的影響、環境數據的影響等可靠性指標,并驗證算法退出或脫離機制是否具備和有效等可控性指標,可以得出算法是否可信的客觀判斷。概言之,按照相應的標準對算法的可理解性、可靠性和可控性進行驗證并不存在技術上的障礙。
算法的驗證評估制度的核心意旨在于針對算法設定一項接受審查的義務,即在算法投入應用前須經過有關機構按照可信度的相應標準進行驗證和評估,以實現算法的可信控制。通過對算法的驗證評估可以從源頭上對算法進行篩查和監督,也能夠為用戶和公眾使用算法提供可信驗證的支撐和輔助。從具體實現路徑上看,算法的驗證評估制度需要解決以下幾個問題:第一是誰來驗證,是政府部門還是第三方專業機構?第二是驗證評估機構是否有足夠的能力查驗算法的可信度?第三是驗證評估結論是否構成算法可信的保證?第四是算法驗證評估的程序啟動是強制性還是依申請?
筆者認為,驗證評估算法可信度的機構需要兼具技術能力與公信力,以保證其能夠客觀且有效地識別算法中的不可信因素。不論是政府部門通過組織專家委員會或者委托第三方機構進行驗證評估,還是第三方機構按照法律授權獨立進行驗證評估,都能實現對算法的可信驗證。由哪個主體承擔算法驗證評估的職責取決于法律制度如何安排。但是,由于技術能力和認知水平的局限,對于高度復雜尤其是具備深度學習能力的算法,不管是政府部門還是第三方機構都無法保證其能夠完全精準地作出可信判斷。因此,驗證評估機構的結論在技術上只是具備高度蓋然性的可信判斷,而不能作為具備“背書”性質的可信保證。另外,隨著算法的大量且廣泛的應用,強制性要求所有算法都接受驗證評估顯然既不現實也不經濟,因此可以對算法進行分類管理,與用戶人身財產安全和公共利益緊密相關的算法應當強制接受可信驗證與評估,而一般性的算法則可自主申請接受可信驗證與評估。接受可信驗證與評估并通過的算法能夠獲得較好的聲譽,從而激勵算法設計者和應用者積極申請,從而實現強制與激勵并重的可信控制。
四、關系維度下的算法可信控制
算法部署和執行的過程會涉及包括算法控制者和用戶等主體在內的眾多利益相關方,這些主體之間形成的算法關系既反映著算法對社會關系的型塑,也會在一定程度上形成對算法本體的約束。具體而言,算法相關主體的權利義務配置、責任承擔方案以及受監管程度都會影響算法能否以可信狀態實現。可以說,算法本體的可信度奠定了算法信任的基礎,而算法關系的有效調整可以促進算法以可信狀態得以部署和執行,從而成為算法信任的保障。因此,從關系維度進行算法的可信控制,即不再以算法本體而是以算法關系作為規制對象,通過法律對算法相關主體行為的激勵、約束和規范來調節和平衡算法關系,從而間接地將可信要求落實到算法設計、部署和執行的全過程。
(一)明確算法權利
算法權利配置是算法治理的重要內容, 〔56 〕也可以成為算法可信控制的有力支撐。通過向算法相關主體賦權,即確認和保障相關主體的算法權利,可以改變算法關系中的力量對比和利益結構,借助權利對抗中的制約以及權利平衡中的合作實現算法的可信控制。當前關于算法相關權利的研究與嘗試正在走向成熟,算法解釋權、脫離自動決策權、算法排他權、人工接管權等權利類型不斷豐富和完善。〔57 〕一旦這些權利得到法律的認可和保護,算法相關主體在主張權利時會對算法關系中的相對方形成約束,或者在實現權利時對自身行為模式進行調適,從而在算法關系的互動中形成可信控制的實際效果。
首先,通過算法解釋權的配置為用戶確認算法可信賦能。算法解釋權的核心在于保障算法相對人即用戶就算法的功能、邏輯、影響等關鍵信息以透明且可理解的方式獲得算法控制者解釋的權利。〔58 〕面對可能隱藏諸多不可信因素的算法黑箱,算法解釋權構造了用戶與算法控制者之間的對抗式關系,用戶可通過主張算法解釋權發現和排除不可信算法,同時算法解釋權的相關立法也可以為技術開發者探索更具透明性和高性能的技術模型提供充足的制度激勵。〔59 〕具體而言,賦予用戶獲得解釋的權利,相對應地會產生算法設計者或控制者的解釋義務,能夠在用戶與算法設計者或控制者的對抗中形成對后者的有效約束,在解釋過程中的算法透明化會倒逼算法設計者或控制者盡量按照可信算法的要求完成算法的設計、部署和應用。
其次,通過脫離自動決策權的配置為用戶拒絕不可信算法提供支持。源于《一般數據保護條例》第22條的脫離自動決策權意味著用戶有權拒絕自動化決策算法,即在用戶不愿意或者不信任算法的自動化決策時有權選擇“脫離算法決策”。〔60 〕主張脫離自動決策權在本質上是用戶對于不可信算法或不能確認可信度的算法“用腳投票”,以規避對其安全或其他利益帶來的潛在不利影響。脫離自動決策權一方面保障了用戶脫離不可信算法的選擇自由;另一方面又會對算法控制者確保算法可信形成相應的制度激勵,從而推動算法相關主體在對抗中尋求合作。前者主要是需求側的影響,脫離算法的自動決策與獲得人工干預權或人工接管權一樣,是避免或減少不可信算法導致損害后果的控制方案,在此過程中不可信算法會在用戶的脫離和拒絕中需求不斷萎縮直至被淘汰。而后者主要是供給側的考量,算法控制者有足夠的動機推動算法的普遍應用,為避免算法被脫離和拒絕,其只能盡可能確保算法的可信并向公眾充分解釋以獲得算法信任。
再次,通過算法排他權的配置激勵算法控制者配合算法的可信控制。現行專利法律的制度與實踐將“智力活動的規則與方法”排除在專利權客體之外,這意味著以抽象化的決策流程和邏輯為本質的算法至少在當前并不能作為專利得到有效保護。為了保護商業上的核心競爭力,算法控制者只能選擇將其作為商業秘密進行保護。現實中的保密需求與理論上的透明度要求之間形成的內在沖突導致了算法控制者往往怠于合作,透明度要求、驗證評估以及算法解釋都無法得到其全力的配合。算法控制者的消極配合難以真正實現有效的可信控制,而算法排他權也許能為爭取算法控制者的合作提供一條可行路徑。以算法公開或保存源代碼為對價賦予算法控制者在一定期限內的以不得為競爭者所利用為內容的排他權,可以消解算法控制者在面對透明度等要求時的顧慮,實現在保護其商業利益基礎上的算法公開,從而將算法關系從緊張的對抗調整為相容的合作,繼而在算法控制者的配合下實現算法的可信控制。
(二)強化算法問責
相比于透明度要求和算法權利配置等通過事前預防的方式實現可信控制,算法問責具有典型的事后控制色彩。從不同角度進行理解,算法問責包括兩方面的內涵:其一是指算法使用者或者控制者有義務報告并證明算法系統設計和決策應用的合理性,并有義務減輕算法可能帶來的任何負面影響或者潛在危害, 〔61 〕系以外部監管的邏輯進行算法治理;其二是指算法相關主體就其不當行為以及算法執行中產生的損害承擔相應的法律責任, 〔62 〕即以歸責或責任分配的邏輯進行算法治理。可問責是可信算法的內在要求,也是約束算法控制者的有效手段,通過問責所形成的約束機制能夠引導算法控制者確保算法的可解釋、可靠和可控。
目前美國紐約市、華盛頓州都出臺了相應的算法問責法案,以對公共事業領域的算法決策設定相應的問責機制,即要求算法控制者報告算法合理性與避害措施的義務,并成立專業機構對算法進行審查。美國參議院目前正在討論的《算法問責法案》將算法問責的適用范圍從公共事業部門拓展到大型私人公司,并要求聯邦貿易委員會制定評估“高度敏感性”算法的規則,明確對算法決策中可能存在的不當行為進行問責。這個層面的算法問責實際上是引入具備一定行政權力和專業能力的機構。例如,紐約市的自動化決策工作組以及華盛頓州的首席隱私官,作為相對獨立且權威的第三方加入算法關系并對算法控制者形成制約,一旦算法偏離其預設的運行邏輯和執行原則,就會觸發包括罰款在內的法律責任。通過問責機制的合理安排,算法控制者與用戶之間失衡的關系將因問責主體的加入而得到調節,占據強勢與主動地位的算法控制者會更加審慎地完成算法的設計、部署和應用,算法中的不可信因素也將得到控制。在具體的制度設計中,可以要求算法控制者將算法源代碼、運行參量、算法邏輯等信息向法律授權的機構備案,供問責主體隨時進行審計和檢查,或者在算法運行出現問題后依據備案信息進行驗證,若備案信息與實際情況不一致的,可以對算法控制者課以嚴厲處罰。〔63 〕
除了問責機制的設計之外,算法責任的分配也是算法問責的重要方面。民事、行政甚至刑事責任會對算法控制者形成一定的威懾,也會成為其作為理性經濟人在作出行為決策時的重要考量因素。易言之,嚴格的法律責任會約束算法控制者的行為,避免因其故意或過失而出現的算法不可信。由于算法生命周期涉及算法設計者、算法應用者等諸多主體,不可信算法的部署及其造成的損害所產生的責任如何分配目前并未形成共識。責任形式和歸責原則的不明確以及責任分配方案的模糊會減損算法責任的規制效果。事實上,在算法目前尚未真正發展到具備主體屬性的情況下,存在應用風險的不可信算法可以納入產品責任的范疇。例如,自動駕駛汽車致損可以按照產品責任的邏輯確立其責任形式和歸責原則。〔64 〕即算法應用者與算法設計者應當按照嚴格責任原則對外承擔連帶責任,兩者之間的內部責任分配應當考慮各自的過錯程度,并結合其在造成算法不可信及其損害結果中的作用予以判斷。除了民事責任之外,要實現算法的可信控制還需要合理地設置相應的行政責任和刑事責任,以規范和預防相關主體的故意或疏忽導致不可信算法的應用。
(三)拓展算法監管體系
目前,我國理論界探討算法治理的主流話語體系還停留于算法權利與算法倫理,算法監管雖有提出但始終諱莫如深,其原因大抵是算法跨領域應用下監管權力的博弈以及算法技術復雜性下對監管能力的擔憂。然而,盡管算法的驗證評估與算法問責在一定程度上具有監管的色彩,具體而言,誰來監管以及如何監管仍有待于進一步明確。此外,僅僅明確算法相關主體的權利和義務卻缺乏有效的監管執行機制,并不足以全面地實現可信控制。因此,以全局視角構建一個系統有效的監管體系對于實現算法的可信控制可以形成有力的保障,有必要在算法可信控制中進行合理的制度安排。
算法在經濟社會生活各個領域的廣泛應用,使得各監管部門基于行業監管職責都有對算法主張監管權力的需求。例如,金融監管部門在對智能投顧、量化交易時有必要審查算法的可信度,以確認依托算法實施的金融行為符合審慎監管和行為監管的要求。〔65 〕此外,算法的整個生命周期會落入不同部門的監管范圍。例如,算法設計部署階段屬于軟件行業而歸入工信部門監管,算法執行應用中涉及網絡產品和服務的安全可信而需接受網信部門的監管,算法執行的結果可能影響行業競爭格局或損害消費者合法權益的,又會引發市場監督管理部門的監管。這種多頭監管的格局可能帶來的監管重疊或監管真空,并不利于落實算法的可信控制,因此應該將算法監管權集中行使或者建立監管協調機制。考慮到可信算法主要是強調其可靠與可控,在本質上還是安全問題。因此,筆者建議依托網絡安全法確立的國家網信部門統籌協調的網絡安全監管體制實施算法的可信監管。〔66 〕
但由于算法技術上的復雜性導致了監管部門在識別算法不可信因素時存在能力局限,因此除了由監管部門設立專家組或充實技術力量以外,可以引入多方主體按照合作治理的機制構建適應算法監管需求的監管體系。〔67 〕目前各國都在嘗試成立一些專業委員會來應對技術革命所帶來的風險。例如,美國國家人工智能安全委員會以及紐約市自動化決策工作組等,但由于定位為咨詢機構而缺乏監管授權從而難以發揮實際的監管效能。因此,有人主張設立國家算法安全委員會, 〔68 〕或者借鑒美國食品藥品管理局的模式設立一個針對算法的專家審查機構,通過技術專家的獨立判斷對應用前的算法進行審查,以避免不可信算法流入市場。這種模式并非新設一個監管部門,而是在具備專業獨立性的機構與產業界之間形成一種合作機制。〔69 〕通過法律授權這類介于公私之間的專家型機構參與算法的可信控制,能夠對技術不足的行政機構形成有力支持。
此外,行業自律組織和技術社群也可以在算法的可信控制中發揮巨大作用。以行業協會、學會等為代表的社會團體或組織通常以學術交流和行業合作為基本定位,這些組織雖無法定的監管權力,但也能通過章程對其成員起到一定的監督和約束作用。并且,這些行業組織相比行政機關往往更具技術優勢,且因身處技術一線而更能及時全面地了解算法技術發展動態。通過法律明確其自律監管地位并賦予一定的自律監管權限,能夠充分動員這些自律組織對其成員和整個行業進行監管和約束,從而發揮可信控制的功能。事實上,這類行業組織的自律監管在金融行業、律師行業并不鮮見,將其移植到算法治理領域并無不可。而技術社群盡管松散,但在針對算法的技術交流中也可能發現算法中的不可信因素,不少“極客”以及“白帽黑客”往往也可以發現算法中存在的安全隱患或者歧視偏見,這些群體能夠通過揭露或舉報形成社會監管力量, 〔70 〕從而在個體層面實現事實上的算法監督,但這種社會監管同樣也需要法律予以確認和保障。
結? 語
隨著算法社會的到來,人類諸多決策和行為開始逐漸讓渡給算法。然而,算法并不總是可以被信任的,算法在設計、部署和應用中的失控所導致的算法偏見、算法暴政、算法缺陷等問題,可能會對人類所追求的公平、自由、安全等核心價值形成巨大沖擊。誠然算法被寄予了人類對未來的期待,但我們真正需要的是可解釋、可靠和可控的“可信算法”。如果算法不能得到有效規制,“科技向善”只是一廂情愿的臆想,不可信算法也可能會成為算法社會的“弗蘭肯斯坦”。僅僅依賴算法控制者的技術倫理和道德自覺并不能真正確保算法可信,還需要借助法律制度對算法本體和算法關系的調整實現算法的可信控制。只有當算法被法律所規訓,以可信算法的狀態投入應用時,人們面對算法的恐懼與焦慮也許才能真正消解。
Abstract: Trusted algorithms that meet the inherent requirements of comprehensibility, reliability, and controllability are the basis for preventing algorithm risks and building algorithm trust. Control on the trustworthiness of algorithms should be the core of algorithm governance. In accordance with the control logic of legal embedding and legal adjustment, through the systematic institutional arrangement that runs through the algorithm's technical layer, application layer and governance layer, it is ensured that the algorithm can be designed, deployed, applied and executed in a trustworthy state, which is the effective approach to trusted control of the algorithm. From the dimension of the algorithm ontology, ensuring the credibility of the algorithm itself through transparency rules, algorithmic ethics legalization and algorithm verification and evaluation system, and from the dimension of the algorithm relationship, through the algorithm rights, algorithm accountability and regulatory framework and other systems to restrict the behavior of algorithm-related subjects, we can constitute a specific path to the legal control on the trustworthiness of algorithms, which is also a necessary institutional preparation before the arrival of the algorithm society.
Key words: trusted algorithms; algorithm governance; algorithm ontology; algorithm relationship; institutional rationality; technology rationality