張紅春 章知連
摘要:在大數據和人工智能時代,依循算法的政府算法治理模式日漸興起,它讓政府治理日益自動化、智能化和精準化,但也帶來了揮之不去的算法黑箱問題。算法黑箱緣何形成,又如何破解,這是政府算法治理必須解決的重大理論與實踐問題。研究發現,政府算法的低透明度是算法技術自身特質和政府使用算法技術的制度方式耦合的產物,與政府治理的公共性、公開性、有效性訴求本質悖逆,必然要求從算法黑箱向算法透明轉軌。其轉軌的方向是構建算法決策、研發、應用、監督全過程透明化的政府算法治理體系,在其實現路徑上則依賴政府與公眾各自的透明責任與行動義務的雙向構建。
關鍵詞:算法治理;算法透明;算法公開;算法參與;透明政府;人工智能;大數據
中圖分類號:C93-03
文獻標識碼:A
文章編號:1000-5099(2022)04-0065-10
時至今日,算法已經廣泛分布于人們的公共和商業生活。從概念上來看,算法指一種有限、確定、有效的并適合用計算機程序來實現解決問題的方法。從表現形式來看,它是數據算料的輸入到輸出信息指令的自動決策過程。作為人工智能技術的核心精髓,算法技術日益在社會各個領域得到廣泛應用,現如今政府也經常性地利用算法進行公共決策和管理。2017 年,《新一代人工智能發展規劃》發布,提出要在教育、醫療、養老以及行政管理、司法管理、城市管理、環境保護等社會治理的熱點難點問題上加快人工智能創新應用,提高政府治理現代化水平。在頂層規劃的推動之下,算法在精準扶貧、疫情防控、偵破案件、教育管理、城市管理、社區治理、警務決策、司法審判等政府治理領域中應用如雨后春筍勃興。譬如,在杭州的城市大腦建設中,算法根據相關路段實際車輛數量等情況合理規劃紅綠燈時間,大幅度地提升了交通暢通度,正是強大的算法和算力構成智慧城市建設的核心。再如,在政務服務領域中的人工智能應用,一些地方已經實現了智能問答、智能填單、智能審批等自動化功能,實現政務服務效能提升。
隨著人工智能技術與政府治理的深度融嵌,一種新的政府算法治理樣態呼之欲出。所謂算法治理,是指以算法決策為核心的一種治理模式。算法治理是人工智能技術與政府治理日益融合的必然產物,它以算法技術為內核,以大數據、人工智能、云計算為支撐技術,對公共事務實施算法驅動的自動化、智能化的管理和服務模式。就其內涵而言,算法治理是一種技術治理,它對以算法為代表的新型信息技術予以系統化和集成化利用。就其外延來說,算法治理又是算法技術嵌入并重構政府治理場域的主體結構、事務流程、目標結果的總和樣態。從治理目標來看,無論是在理論界還是實踐領域,算法治理被寄予提高政府治理能力,促使固有的傳統政府治理模式向自動化、精準化、智能化、智慧化的治理形態轉軌的作用期許。
然而,正如新興事物都具有兩面性一樣,算法技術在給政府治理帶來精準、高效、智能的治理勢能之外,也滋生了諸多治理風險。這其中,算法黑箱問題首當其沖,算法的不透明性被視為算法治理的最大挑戰。作為一種隱喻,黑箱術語最早起源于控制論中,后來被用來指代那些不為人知、不能從外部直接觀察其內部狀態的政策、技術與管理系統。隨著算法技術的崛起和技術黑箱問題的顯現,人們用算法黑箱來特指代算法的不透明性。弗蘭克·帕斯奎爾(Frank Pasquale)在《黑箱社會》中最早使用算法黑箱隱喻,認為美國社會正陷入被金融和科技行業的秘密算法所操控的、令人難以理解的黑箱社會狀態,在這個社會中,算法編碼規則所設定的值和特權隱藏在黑箱里,形成了算法黑箱(Black Box Algorithms)。從概念上來看,算法黑箱是算法系統從輸入到輸出之間的不公開和不透明狀態。就其本質而言,算法黑箱本質上是算法產品的使用者對算法系統的不知情。廣為人知的是,不論是商業算法還是政府算法,都未能逃脫算法黑箱的窠臼。研究指出,雖然社會廣泛應用算法,但是算法的透明度卻有限。尤其是在公共治理當中,政府正在大量使用自動決策系統替代或者輔助公共管理者進行自動化行政決策,但是公眾卻又無法觀察和理解“黑箱”內的邏輯或決策機制,算法治理黑箱化的趨勢日益凸顯。如果說商業領域的算法黑箱因其私人領域的私密性特質護持而具有一定合理性依據的話,而政府治理中的算法黑箱則和公共場域的公共性與公開性特質格格不入。算法黑箱在挑戰公民對于政府決策的知情權,影響到政府決策的合法性,它也由此成為政府算法治理亟待解決的一個重大問題。
可喜的是,實踐和學術領域已經對算法黑箱問題共同展開了關注和討論。2019年發布的《新一代人工智能治理原則——發展負責任的人工智能》指南中,提出人工智能系統應堅持開放包容原則,不斷提升透明性。2022年,國家互聯網信息辦公室等部委頒布《互聯網信息服務算法推薦管理規定》,指出算法推薦服務應堅持公開透明的原則。然而,頗為悖謬的是,學術研究中關于算法是否要透明仍存爭議。就算法透明而言,并非所有學者都持肯定態度。有的法律學者以算法透明的規制效力有限為由,指出算法透明原則通常既不可行,也無必要。還有研究以算法透明的法律缺失為由,認為在沒有法律明確哪些算法應該公開以及如何公開的情況下,算法的不公開是原則,公開是例外的觀點。這顯然是默許了算法黑箱常態。但在這些算法黑箱擁躉者對立面,也出現了對算法透明的支持者,并從多個視角提出了算法黑箱治理對策。代表性的觀點有:吳椒軍分析了算法黑箱帶來的危機,主張從技術角度、法律角度與倫理角度對算法黑箱進行法治化管理,姜野等提出通過算法解釋權來破解算法黑箱,等等。不難看出,雖然算法黑箱問題已受到學界關注,但是已有研究以法學視角的研究為主,且研究共識嚴重不足。而且,已有研究似乎模糊了一個算法透明問題的場景因素,即公共算法和商業算法在透明原則的適用上應該是不一樣的。
作為一種技術,算法本身沒有權力屬性,但是算法一旦應用于公共領域,就會帶有公共權力色彩,并應接受公共場域倫理的規約。基于此,本文開宗明義地提出以下論點:如果說公開性是公共場域內公共事務治理的準則,那么嵌入其中的算法技術也應秉持透明性原則。本文接下來的論證分三部分,我們首先從學理層面分析政府算法黑箱問題是如何形成的;其次,從透明性的治理價值和工具功效入手,論證算法透明原則的嵌入邏輯;最后,文章提出了政府算法治理透明化的實現路徑。
一、政府算法黑箱的生成:技術與制度的雙重解釋
是何種因素引致了政府算法黑箱?筆者認為,政府算法的低透明度是算法技術自身特質和政府使用算法技術的制度方式耦合的產物。
從技術本身來看,技術天生帶有了不透明的特性。抽象意義的技術是實現人的目的的一種手段,它表現為各種工具、裝置及其集合。不同于先天之物,技術是人類發明創造的產物。然而,隨著技術的發明、擴散與應用造成了技術發明者和技術使用者的分離,兩者之間的技術信息與知識的不對稱越發嚴重,可以說,技術使用者相對技術發明者而言面臨著天然的技術黑箱問題。算法作為科技革命以來的最前沿成果,其復雜性和自主性的技術特質將技術不對稱問題發展到了極致。
人工智能算法技術是一種典型的復雜性技術。技術按照其運行機理和目的難度可以劃分為簡單性技術和復雜性技術,算法技術顯然屬于后者。有效的算法離不開算料、算法、算力的協同,這依賴大數據、云計算等復雜技術系統的支撐。人工智能算法系統內部、系統之間的互動關系變得復雜而高深莫測,甚至連設計者都難以理解算法機制,更何況普羅大眾。在技術目的上,人工智能以模擬和逼近人類的復雜認知與行動為目標,這也就決定算法技術的目的是朝向復雜適應性轉變的。為了提高算法的準確性,算法的復雜性必然會加強。算法解決的問題越復雜,算法代碼的需求就會增加幾倍。不難看出,算法技術系統的復雜性是社會公眾認知和理解政府算法難以逾越的、堅固的專業壁壘。
除了算法復雜性的專業鴻溝,算法技術的自主性特征也在加劇其封閉性技術空間的建構。算法技術以模擬甚至代替人類的認知和決策為使命,它是具有技術自主性抱負的。機器學習是算法生成和計算機擁有智能的根本途徑,機器學習能夠從海量人類數據集中自主學習人類的模式和規律,并且生成精準的判斷、預測、決策與行動。根據人類對算法生成的干預和控制程度,機器學習可以分為有監督學習、半監督學習、無監督學習。無監督學習也叫深度學習,即無須人為設計特征提取,特征從數據中學習而來。從算法技術的演化趨勢來看,以深度學習為標志的自主性人工智能算法的日漸興起,標志著算法自主性達到了一個新高度。其帶來的必然結果就是人類對算法技術的控制減少乃至缺失,算法無師自通的自主認知、決策和行動更加普遍。機器學習讓算法從 “輸入”到 “輸出”的中間環節逐漸成為人類社會無法掌控的 “黑箱”,而無監督的深度學習技術對應的是算法黑箱的高級形態。隨著深度學習日益成為人工智能算法的未來主流趨勢,政府人工智能由弱人工智能向強人工智能的轉變下,機器學習越來越朝著深度化、自動化、擬人化的方向發展,算法驅動的公共管理和決策的自主優化和自主決策特性日漸增強,政府算法的認知和決策黑箱特征因而越來越明顯。
如果說技術因素是算法黑箱的先天因素,政府將算法引入到公共場域當中的制度方式則是其問題的后天變量。從算法技術導入政府部門的方式來看,市場化和管理主義的算法治理制度設計不僅沒有有效打開算法黑箱,反而降低了算法透明度。
一個明顯的常識是,政府并不擅長算法技術的發明和創制,政府采納算法技術必須求助于企業和市場機制。在政府采購、政府購買服務、合同外包等市場化制度安排之下,政府使用的人工智能系統更經常的是要么在市場上采購人工智能系統,要么將人工智能產品和服務的研發外包給更為專業的科技公司。例如,杭州市的智慧城市建設項目由阿里巴巴提供技術解決方案,廣東省的“粵省事”移動辦公平臺則由騰訊云幫助搭建。科技企業引入算法治理中可以彌補政府在算法技術上的短板,但是政府也部分甚至全部讓渡了對算法黑箱的控制和改造權利。科技企業通過算法人才控制、算法專利控制等一系列知識保護機制將算法資本化、商業化和專有化。科技企業與政府部門簽訂的算法研發合同勢必固化和強化其算法的資產專用性,指望以算法為營生的科技企業公開其算法無異于與虎謀皮。科技公司通常強調算法的產權,由于其營利性和排他性商業政策,科技公司不愿公開算法和數據也就不難理解了,公眾被再次排外。可見,在市場化的算法應用制度之下,在政府和公眾之間制造了營利性、封閉性的市場主體,使得政府算法移植保持了商業算法固有的黑箱特征。
政府算法應用的管理主義的制度范式則進一步固化、維持了算法黑箱。以深度學習為代表的人工智能算法盡管具有突破性特征,但其在政府部門中的應用依然是嵌入式的。算法進入政府科層結構當中,成為政府行政決策、行政規則制定、權力運行的技術工具,因而算法是否透明不僅取決于算法研發者、算法本身的可觀察性,還取決于工具使用主體,也即政府的透明度。政府應用算法技術并沒有促使政府行政流程和運行機制走向開放,而是存在技術行政化、技術內卷化的傾向。政府引入人工智能算法技術的決策封閉,政府算法研發設計的過程對外封閉,政府算法的生成和應用的全流程由政府和科技企業主導,缺乏有效的公眾參與。可以說,人工智能算法技術的廣泛應用,并沒有顯著提升政府管理全過程的透明性。
以上分析表明,政府算法黑箱式的應用是技術與制度耦合的產物。算法的技術特質使其具有了天然的不易理解性、不易參與性,而政府算法制度的市場化和管理主義特征又進一步固化了其封閉性和排斥性特征。當公眾缺乏理解算法所需的專業知識,當公眾缺乏接觸和了解算法過程的機會時,公眾面臨的顯然是一個不折不扣的技術黑箱和治理黑箱。
算法黑箱的理論基因是技治主義和管理主義,其現實表現是政府算法成為官僚制組織的內部行政與控制工具,而未能成為政府包容和吸納公眾參與政府治理的治理平臺與工具,并由此而產生一系列威脅政府治理有效性的延伸問題。一是算法黑箱侵蝕了公眾對政府算法治理知情權。當算法技術進入政府治理場域的全流程都處于“黑箱”密閉狀態時,政府算法治理勢必形成公共決策黑箱、監管黑箱、服務黑箱等新問題,這將嚴重制約在人工智能時代下公眾對政府治理的知情程度。二是算法黑箱阻礙公眾參與政府治理。算法黑箱所構筑的技術壁壘、制度藩籬和信息隔閡都在排斥而不是吸納公眾參與,而公眾自身的參與意識、算法知識和素養的缺失又加劇了公眾對算法的冷漠。低效參與使得公眾在政府算法治理中被動地充當人工智能公共產品服務的接受者。三是黑箱算法易侵蝕公眾隱私權。個人隱私受到國家相關法律法規的保護。但是算法的形成都依賴大量的用戶特征、屬性、行為數據的輸入和分析,政府算法生成也不例外。在算法市場化制度之下,政府算法研發過程中政府不得不將政府掌握的大量公共數據使用權授權給技術公司,如果存在數據存儲不安全、算法安全漏洞、私人利益等問題,個人信息可能會存在被泄漏、篡改和挪作他用,給公民隱私、人身、財產、職業等造成數據安全風險。最后,黑箱算法降低了政府算法治理的整體有效性。尤其是,鑒于政府與技術公司之間的信息不對稱性,算法“黑箱”的存在直接導致了公共利益被私人利益俘獲、資本支配公權力等風險的產生。政府算法技術在研發過程難免會受到資本裹挾而發生價值扭曲,還可能導致算法與資本或權力相連接,算法成為“損害個人權益和社會福利的工具”。但正是因為政府算法黑箱的存在,算法黑箱一方面成為滋生算法問題的溫床,另一方面算法黑箱使得公共算法缺乏有效的監督機制,使得問題的識別、暴露和解決變得遲緩,最終損失公共利益,降低算法治理的公信力。
歸納起來,政府算法黑箱是技術理性主導下的制度異化產物,雖然它展現了技術的精準性、效率性的工具理性價值,但是卻與政府治理所處公共場域的多元公共價值訴求格格不入。算法黑箱損失了政府治理應有的透明性價值,還連貫損失了參與性、責任性、回應性的治理價值標準,進而反噬政府算法治理的有效性和合法性。正是因為算法黑箱所引致的算法治理困境,使得將透明機制引入政府算法應用當中應受到格外的重視。
二、破解政府算法黑箱:透明性的嵌入邏輯
透明性是公共治理領域中廣為接受一個價值準則。政治學家漢娜·阿倫特(Hannal Arendt)在區別公共領域和私人領域時指出,公共首先意味著出現于公共場合的東西能夠為每個人所看見和聽見,具有最廣泛的公開性。政府作為核心的公共治理主體,其治理主體、方式、過程和結果的強公共性使其應當堅持公開透明原則。故而,進入現代社會以來,透明原則日益成為國內外政府治理的基本原則。西方國家紛紛頒布信息公開與自由方面的法律,我國也于2007年首次通過《政府信息公開條例》,2018年該條例修訂后繼續實施,政府公開透明日益邁向制度深化時期。
字面意義上的透明隱喻物體在視線上的通透性,而在學術意義的透明意指對象具備可觀察性,即公眾能從外部了解觀察對象的結構與運行。可見,政府透明是一個雙向度的概念,高質量的透明政府需要政府和公眾之間有效互動,它一方面仰賴政府組織的公開性,另一方面需要公眾的積極參與政府公開內容的學習。
透明性之所以能成為現代政府治理的目標愿景,根源于透明性的巨大治理作用。從治理理論來看,透明不僅是一種治理目標所系,還是一種實現其他公共價值的治理工具。從治理目標來看,國內外治理學者都認為透明性也被視為一個政府善治與否的重要價值標準。在公共價值研究文獻中,已有研究所歸納的公共價值清單中也包含公開性價值,意指公共行政應當是透明的。其理論緣由根源于公共場域的公共性和公開性的內在訴求。為此,政府透明經常性被作為政府善治的衡量指標,例如,俞可平教授開發的中國國家治理評估指數中就包含公開透明性的指標。從治理工具來看,透明性還是政府實現其他善治價值和公共價值的橋梁,是政府治理邁向系統性善治的催化劑。這是因為透明意味著政府行為和結果信息的充分披露,它可以保障公眾對政府的知情權。而公眾的知情權又是公眾實現參與權、表達權和監督權的一種方式。由此而論,透明政府還是政府實現責任性、回應性、法治性、合法性等其他治理價值的有效工具。
在大數據和人工智能時代,政府透明具有了新的公開對象,算法透明成為透明政府建設的最新途徑。在信息化早期,政府可供公開的透明媒介資源還不豐富,由政府加工和生產的政府信息因而被視為公眾觀察政府的唯一媒介,政府信息公開成為政府透明的唯一路徑選擇,政府通過出版物和網站來披露政府信息,保障公眾對公共事務的知情權。但是以政府信息來實現透明政府的效力存在天然缺陷,因為它是單向度的信息傳遞與行政告知,公眾無從考證和質疑信息的真實性。隨著人類世界和物理世界的數據化、信息化程度提高,多源、異構、海量的復雜性大數據資源不斷生成。隨著大數據技術嵌入行政過程,政府積累的數據資源越來越豐富,海量數據資源不僅能夠讓政府決策更加客觀和科學,也提供了讓社會公眾回溯和觀察政府行政行為與結果的客觀證據。為此,學界提出了從政府信息公開到政府數據開放的路徑嬗變,以此提高政府透明度的深度和質量。從海量數據資源提取有價值的信息并支撐管理決策是大數據時代海量數據資源根本使命,而人工智能算法技術應運而生成為幫助政府實現自動化、智能化、智慧化的決策、監管和服務利器。在人工智能時代,政府應用人工智能技術進行政府治理時,對透明政府和責任政府的追求在某種程度上已經開始遷移至對技術透明度的理解和對技術責任的承擔。換言之,在人工智能時代,隨著政府行政的智能化和算法化,算法系統已經成為公眾認知政府行政方式與結果的最精華載體。而從現實來看,算法黑箱已然成為人工智能時代政府透明的羈絆,用透明性的價值重構算法黑箱系統具有必然性。
從理論層面來看,用透明性價值破解算法黑箱之后,政府算法治理的價值和功能系統得以重塑,其積極的治理效果體現在:其一,算法透明促使政府算法治理回歸公共性的本質要求。不同于商業算法應用領域的私有性、排他性和秘密性,政府算法廣泛應用在公共服務、社會治理等公共領域當中。透明算法將促使政府算法從私有性、排他性和秘密性走向公有性、包容性和開放性。其二,算法透明促進公眾參與政府算法治理。為了讓公眾參與算法治理,必須讓公眾接觸和了解算法,這反過來又要求政府算法治理保持高度的開放性與透明性。算法透明建構開放性的數據—算法—信息生態體系可以賦予公眾在算法信息和知識上的能力優勢,為吸納公眾參與算法治理提供了前提條件。其三,算法透明可以促進政府算法治理的法治化。算法黑箱容易引發算法歧視、算法殺熟、算法濫用的技術風險,容易導致公共利益被私人利益俘獲、資本支配公權力等治理風險的產生。陽光是最好的防腐劑,算法透明可以成為治理算法失靈的利器。這是因為算法的公開透明提供了社會監督介入的可能性,可以讓社會公眾監督政府算法應用中的安全、隱私、倫理問題和其他風險,防止算法的濫用和誤用。其四,算法透明增進公眾對算法治理的信任感,提高政府算法治理的公信力。算法黑箱的不透明狀態容易引起公眾對算法的猜疑,降低對政府算法決策與執行的認同感。反之,通過及時披露算法治理中的數據信息,不僅可以促進算法治理的規范性,也有利于消除社會公眾對算法的恐懼與疑惑,提高政府算法治理的社會認同度與公信力。一言以蔽之,之所以將透明價值融入算法,是因為它可以發揮治理目標引領和治理工具的雙導效應。
三、邁向透明化的政府算法治理:形態與路徑構建
通過前面的討論,不難看出算法透明既能夠提升政府算法自身的公開性,讓社會公眾觀察和監督政府算法治理方向、過程與結果,還能夠借此讓公眾參與、問責和監督政府算法治理體系。因循算法透明邏輯,政府算法治理體系也最終向透明化系統性轉軌。那么透明化的政府算法治理的衡量標準是什么,又如何有效實現這一算法治理目標呢?本部分首先按照全過程透明原則,描述透明化的政府算法治理形態與標準,然后從政民互動的雙向透明性建構視角出發,分別構建政府與公眾各自的透明責任與行動義務。
1.透明化的政府算法治理形態建構:全過程的算法透明
從過程視角來,算法技術嵌入政府組織必然是一個持續動態的治理過程,算法透明及其透明化的政府算法治理形態可以按階段分別予以描述:
第一,政府算法治理決策的透明化。算法技術嵌入政府治理場景是一項涉及公共利益的重大公共決策,算法治理決策的透明化是算法公開的首位要素。具體來說,它包括:一是政府算法治理的政策公開。人工智能算法技術嵌入政府治理勢必會改變已有的行政流程和服務樣態,勢必會產生諸多新現象、新事務和新風險。因而,制定人工智能算法的應用規則是政府算法治理制度化、規范化的首要任務。將透明性的價值嵌入政府算法治理政策與制度設計環節,需要政府主動公開關于算法治理政策制定過程及其政策文件成果,讓利益相關主體認知算法治理中應遵守的權責規范。二是算法技術的場景引入決策公開。算法技術的應用是面向場景和問題的,一個治理場景和問題是否要引入人工智能算法是一項關切社會利益的重大決策。因此,政府應向社會披露在具體公共事務場域中引入算法的決策緣由、決策主體、決策過程、決策依據、決策結果等重大決策信息。三是算法技術委托決策公開。政府算法的專業性使得政府算法設計開發必須委托給技術公司,政府將算法委托給科技企業的決策過程應予公開透明,政府應主動公開人工智能算法技術與平臺的采購或者招投標信息,向社會披露中標企業技術公司名稱、資質、合同任務,增加公眾對所委托的算法技術公司的了解和監督。
第二,政府算法的研發透明化。算法研發是政府算法生成全過程中的核心技術環節,而且算法研發固有的專業性、自主性使其最容易成為一個技術黑箱,也成為算法透明的難點之處。在透明化的政府算法治理理念之下,必須用透明性原則重塑算法研發過程,形成可觀察、可追溯、可監督的政府算法研發。從技術應用過程來看,算法研發一般包括算法設計、算料采集和算法訓練等技術過程,算法研發透明化也可按算法形成過程鏈條漸次展開。一是,政府算法的設計公開。算法設計是對算法過程的規劃,表現為算法研發的主體、目的、流程、結果預期等,公開這些設計信息要素有利于社會公眾了解和監督算法研發主體的算法研發目的、計劃和行為。二是,政府算法研發的算料公開。算法是將數據進行轉換形成有價值的信息、知識與行動工具的程序模型,政府算法研發也離不開海量公眾數據的輸入。政府要保障公眾對自身數據被算法如何利用的知情權,向社會公開具體算法應用的數據來源、數據類型及其數據安全規范。在保障國家安全、數據安全和公民個人合法權益的前提條件下,應將政府算法輸入的公共數據算料開源給社會大眾,通過數據開放、算料開源提升政府算料透明度。三是,政府算法訓練規則公開。雖然算法訓練過程具有自主性特征,但是選用何種算法訓練方法的規則是需要人類輸入的,算法規則的選擇會極大地影響算法結果的走向。因此,政府應指導算法企業向社會公開算法規則,有利于公眾知曉和監督算法結果形成機理,提高社會公眾對算法的理解能力。總而言之,提高算法研發的透明度可以讓社會公眾了解算法設計的目的意圖、基本原理和主要運行機制,而公眾的監督可以有效地規避算法研發企業的機會主義動機與行為,保證算法利益的公共性。
第三,政府算法應用的透明化。政府算法應用是算法技術嵌入具體公共領域和公共事務的實踐,表現為人工智能公共產品和公共服務供給和消費。在算法應用環節,政府要保障人工智能產品和服務的消費知情權,告知算法驅動的產品與服務的背景、目的、方式和結果。具體來說,算法應用的透明度可以從以下兩個方面構建:一方面要公開政府算法場景應用的服務主體信息。算法技術嵌入稅收、警務、交通、健康、教育等領域中表現為一個個在地化的場景,算法應用場景包括行政主體、服務對象、人工智能算法技術設備、事務、流程等要素。這些人工智能服務的主體、設備、流程、規則、技術標準應充分公開,讓社會公眾充分知情算法應用的規范,讓社會公眾知道誰在為他們服務、如何服務,并了解算法可能對自己的生活產生的影響。另一方面,政府算法應用的結果公開。人工智能算法所做出的行政決策和服務結果應當向算法行政相對人公開,保障其知情權。同時,算法應用結果還應向社會公眾以脫敏和匯總方式公開,告知社會大眾算法技術應用整體成果與發展態勢。
第四,政府算法監督的透明化。規范化、法治化的政府算法治理離不開嚴密的監督體系,政府應構建針對人工智能算法的安全與風險評估、算法設計、產品開發和成果應用等全流程予以監管,并將算法監督過程和結果公開透明。其一,公開算法監督渠道。政府要提供公眾反饋算法問題、算法風險的線上線下渠道。保持算法系統的可訪問性和開放性,便于外部審計代理或機構可以訪問算法來評估算法研發者、算法設計者的道德倫理以及對法規的遵守。其二,算法影響評估結果公開。算法影響評估是算法導入政府治理場景的一項事前評估制度,它由專業評估結構對算法技術的潛在風險點、風險后果、風險預警、風險治理做出的專業評估和建議,是算法應用的事前監督機制。通過引入算法風險評估制度并公開算法風險評估結果,可以告知社會公眾算法的潛在后果,并吸引社會公眾監督算法風險。其三,算法績效評估結果公開。算法技術在具體行政領域的應用效果如何,是否遵循相應規則,是否實現了預期的治理目標,是否展現了相應的公共價值,為了回答這些問題應該對算法技術的應用績效進行系統評價,并將算法績效評估結果向社會公布,讓社會監督政府算法治理的效能。
2.實現透明化算法治理的政府責任與路徑:算法公開
算法黑箱的關鍵問題就在于公眾無法觀察和理解算法,破解算法黑箱首先要求的就是打開算法黑箱、推進算法透明。而政府作為算法治理的主體,是算法技術的引入、應用、管理和監督的主體,其承擔算法治理的主體責任,并掌握算法治理的全面信息。因此,政府應以算法公開為透明化算法治理的責任定位。
政府應構建有效的算法公開機制,以改善公眾對算法信息獲取、認知與學習體驗,完善公眾需求導向的政府算法信息提供機制,構建算法要素全面公開體系。具體來說:
第一,實施算法全要素公開制度。從形式上來講,算法是輸入和輸出系統,全面的算法透明需要政府將算法要素安全地、系統地、制度化地向公眾開放。一是構建算法制度公開機制。算法制度是政府引入人工智能算法的規則,包括制定的相關政策、法律法規、倫理道德規范、算法行業技術標準。算法制度規定了算法設計者、算法使用者等相關利益主體的權力和應該履行的法律義務,對算法法律責任確認、隱私和產權保護、信息安全利用等有重要作用。算法制度公開可以賦予算法用戶對算法設計者、決策者提出合理性質疑權利。二是構建算料開源機制,也即是數據開放。算料開源是指在保障國家安全、數據安全和公民個人合法權益的條件下,算料收集的數據來源主體、數據類型、數據庫安全技術、用前脫敏技術等要通過數據開放平臺向社會公眾公開,以便公眾知道數據來源、數據運用以及數據安全保障情況。三是構建算法規則公開機制。算法規則是算法處理數據和樣本的策略與方法,表現為句法、表征、符號等計算機技術語言構成的算法代碼。根據算法的功能可以將算法分為分類算法、排序算法,等等,采用何種方法來排序決定最終的算法結果。針對每一項智能化的公共決策和服務產品,政府都應當公開其算法規則及其背后的算法方法,讓社會公眾知曉算法的運行邏輯及其結果。
第二,構建多渠道的算法公開途徑。多維算法要素以什么方式向社會公眾交付是決定算法公開有效性的關鍵變量。針對算法系統的多樣性要素,采用不同的信息技術實現算法要素的無縫傳遞。一是,利用政府網站和新媒體及時公開算法應用的政策、運行和效果信息。在信息化時代,算法類信息公開渠道不僅包括傳統政府信息門戶網站,還包括政務微博、政務微信、抖音號等新型信息傳播方式,這些渠道都成為讓社會公眾接觸算法制度、產品和服務信息的便捷渠道;二是,構建算法開源平臺。集聚政府算法生成和應用中的數據資源、算法資源等算料要素,構建在線、持續供給的數據開放與算法代碼公開,在提升算法透明度的同時,也有利于吸收社會公眾的力量參與算法反饋并反哺算法本身的迭代升級。三是,構建公眾參與政府算法治理的機制。政府要利用線上、線下渠道,通過聽證會、公眾調查、專家咨詢等多渠道吸納社會公眾參與算法制度設計、算法設計、算法評估和算法優化等算法流程,讓公眾在算法參與中實現知情知曉,提高公眾算法參與和知情的實效性。
第三,構建政府算法解釋機制。算法的專業性提高了社會公眾理解算法的障礙,而算法解釋有助于公眾理解算法技術是什么以及它是如何形成的。算法解釋可認為是以一種可接受、可被普遍理解的形式對特定結論的決策過程出具算法解釋報告,切實解決決策相關者對于最終結果的疑惑。如今,算法解釋正在成為算法應用的一項基本倫理準則。美國計算機協會在2017年發布《關于算法透明性和可問責性的聲明》的七條原則中第四條是算法解釋原則,鼓勵使用算法決策的組織和機構對算法所遵循的程序和所做出的具體決策提供解釋。對于政府算法而言,算法解釋是解決社會公眾與算法規則之間技術鴻溝的橋梁,是實現政府治理主體與社會公眾之間有效溝通的工具,因而,算法解釋是用一種可被理解的方式來提高算法的透明度的救濟機制。在算法解釋機制的構建過程中,政府要遵循真實性、可接受性的算法解釋原則,利用算法宣傳、科普、培訓等多重宣貫手段,努力消除公眾算法理解中的疑惑,說明算法規則背后的理由,取得公眾對算法的理解和信任。
3.實現透明化算法治理的公眾責任與路徑:算法參與
按照政民互動的透明度生成邏輯,創造透明政府需要公眾貢獻時間、精力與能力并承擔責任。這是因為透明政府的本質是公眾知情,缺乏公眾參與就不會形成對政府運行的實質理解。同樣,對政府算法而言,如果算法應用缺乏公眾參與,那仍然是單向度的政府算法公開,無法實現公眾對算法嵌入公共事務的實質知情。相反,公眾參與算法全流程中,不僅可以讓公眾表達對算法的需求信息以實現回應性和民主性的算法設計和應用,公眾還能在參與過程中直接觀察、見證算法的運行流程,通過算法要素生成、學習形成對政府算法的實質理解。可見,公眾算法參與是實現透明化算法治理的必要條件和有效機制。
通過公眾參與算法,創造公眾接觸并了解算法,排除公眾對算法的恐懼,同時也為公眾提供了算法教育和培訓的機會,提高公眾算法素養,減少公眾的算法不對稱,從而提高算法的透明度。為了提高公眾算法知情效果,提高公眾參與政府算法治理效能,公眾的算法參與責任機制包括:
第一,提高公眾算法素養,增進算法知情和參與能力。透明性原則的核心是通過公眾的知曉和理解來防止決策的失誤和不公正,看懂和理解則是公眾監督的前提。而對算法的理解離不開算法素養。算法素養是公眾所具備的認識、評價、運用算法的態度、知識和能力。研究指出,算法素養包括三個層次:一是態度層面,指對算法的設計和運行原理有一定的認識,對算法本身及其結論的得出持批判態度;二是能力層面,掌握常見算法的設計能力,對試驗數據、算法設計、結果輸出有一定的辨別、判斷和解釋能力;三是規范層面,算法應用合理、合法,遵循專業規范和社會規范。隨著大數據和人工智能時代的到來,算法素養是未來公民的基本素質,也是公民參與政府算法治理的能力基礎。為了有效提升公眾對政府算法治理的知情度,公眾可通過培育算法態度、學習算法知識、掌握算法技能三個層面來提高公眾的算法素養,彌合算法鴻溝。在提升公眾算法態度層面,公眾應當培育對人工智能算法的價值感知和偏好,消除算法偏見和恐懼,培育對算法的理性認同度。在提升公眾算法理解能力層面,公眾要想理解算法,就必須具備相應的知識體系和認知能力。因此,公眾必須學習和掌握相應的算法基本知識,對算法的基礎知識、數據結構、經典算法等知識進行學習,為能識別、理解算法提供知識基礎。在算法應用能力方面,具有一定算法專業技術的社會大眾應優先培育其對政府算法設計、檢測的能力,進而用專業知識來檢驗、重測和輔助優化政府算法。可以說,提升公眾算法素養是公眾認知政府算法、參與政府算法、監督政府參與的信息資本、知識資本,至關重要。
第二,積極參與政府算法的學習和體驗,生成算法透明度。從知情的角度定義的政府算法透明度,它離不開社會公眾對算法制度、數據算料、算法規則、算法結果等方方面面算法要素的學習。可以說,只有通過積極參與政府算法學習,才會增加公眾對算法的知情程度。為此,一方面,社會公眾要積極參與體驗政府供給的人工智能公共產品和公共服務,獲取和學習蘊含其中的相關算法信息,通過算法體驗來學習、判斷、反饋政府算法的有效性。另一方面,社會公眾要主動獲取政府公開的各類算法信息,通過算法制度、產品、服務等要素的搜尋、整理、學習和利用才能轉化為自身對政府算法治理全過程的實質性知情。
第三,積極參與政府算法治理的決策、執行和監督的全過程環節,實現對政府算法治理的全過程知情和反饋優化。公眾參與提升政府透明度的機理在于,公眾參與政府治理的決策、執行和監督意味著公眾能夠直接參與政府信息的生成,見證政府治理決策、執行和監督的事實,提高了政府透明度的親身性。為此,在算法治理當中,政府應廣泛吸納民眾積極參與到政府算法治理的決策、研發、應用和監督全過程。在政府算法治理決策環節,因為算法引入到政府治理場域涉及公共利益的重大調整,政府可以引入算法聽證、公眾意見征集等方式吸納公眾參與政府算法治理技術嵌入決策、算法治理制度設計決策,提高政府算法治理決策的開放性和公開性。在政府算法的研發階段,政府算料生成和采集、算法設計等研發環節可以引入公眾數據眾籌、算料公示、多元專家參與算法選擇等參與方式,促進算法設計、算料采集、算法規訓的每個步驟符合公共價值要求,保障公眾的公共權益。在政府算法治理應用階段,政府應保證算法產品與服務使用者的知情權,在公民使用人工智能產品與服務的事前、事中、事后全過程及時向公眾披露服務主體、方式與后果信息,提高政府算法治理應用透明度。在政府算法治理監督方面,政府可以在算法風險評估、算法績效評估等環節廣泛引入公眾調查工具。例如,政府通過對一定規模的公眾進行問卷調查或訪談,向公眾收集人工智能產品和服務的風險感知信息、質量評價信息,獲取公眾對算法應用的感知度、體驗度、滿意度,幫助政府算法的優化。總而言之,當政府打開算法公開、算法開放和算法參與的渠道之后,社會公眾應當積極履行參與責任,幫助政府的算法應用產品和服務的持續改進。
四、結語
在人工智能技術快速蔓延至政府治理場景的背景下,依算法而治理的算法治理模式正成為政府治理創新的前沿。算法黑箱問題由來已久,并且由于其問題的根本性和復雜性,其問題表征還將持續下去。毋庸置疑的是,人工智能算法技術嵌入公共場域應進行公共性的重構,實現價值理性與技術理性的平衡,而對政府算法進行公共性和透明性的重構是其必然選擇。本文從學理層面論證了從算法黑箱到算法透明轉軌的理論邏輯,并嘗試設計了一個透明化政府算法治理的樣態和實現路徑。顯然,這對于解決公共場域的算法黑箱問題還是不足的,未來研究還需要更多理論和經驗研究對政府算法問題的因果機制展開深入探究,而本文權做拋磚引玉。
參考文獻:
[1]SEDGEWICK R,WAYNE K.算法:第四版[M].謝路云,譯.北京:人民郵電出版社,2012:1.
[2]本清松,彭小兵.人工智能應用嵌入政府治理:實踐、機制與風險架構:以杭州城市大腦為例[J].甘肅行政學院學報,2020(3):29-42+125.
[3]孟慶國,鞠京芮.人工智能支撐的平臺型政府:技術框架與實踐路徑[J].電子政務,2021(9):37-46.
[4]孫慶春,賈煥銀.算法治理與治理算法[J].重慶大學學報(社會科學版),2019:1-10.
[5]丁曉東.論算法的法律規制[J].中國社會科學,2020(12):138-159+203.
[6]PASQUALE F.The Black Box Society:the Secret Algorithms That Control Money and Information[M].Cambridge,MA:Harvard University Press,2015:1-8.
[7]BURRELL J.How the Machine “Thinks”:understanding Opacity in Machine Learning Algorithms[J].Big data & society,2015,3(1):1-12.
[8]宋鍇業.“算法”與國家治理創新:數據、算法與權力的知識生產與邏輯呈現[J].科學學研究,2021:1-13.
[9]張愛軍.“算法利維坦”的風險及其規制[J].探索與爭鳴,2021(1):95-102+179.
[10]魏遠山.算法透明的迷失與回歸:功能定位與實現路徑[J].北方法學,2021,15(1):151-160.
[11]沈偉偉.算法透明原則的迷思:算法規制理論的批判[J].環球法律評論,2019,41(6):20-39.
[12]徐鳳.人工智能算法黑箱的法律規制:以智能投顧為例展開[J].東方法學,2019(6):78-86.
[13]吳椒軍,郭婉兒.人工智能時代算法黑箱的法治化治理[J].科技與法律(中英文),2021(1):19-28.
[14]姜野,李擁軍.破解算法黑箱:算法解釋權的功能證成與適用路徑:以社會信用體系建設為場景[J].福建師范大學學報(哲學社會科學版),2019(4):84-92.
[15]布萊恩·阿瑟.技術的本質[M].曹東溟,王健,譯.杭州:浙江人民出版社,2014.
[16]栗崢.人工智能與事實認定[J].法學研究,2020,42(1):117-133.
[17]馬世龍,烏尼日其其格,李小平.大數據與深度學習綜述[J].智能系統學報,2016,11(6):728-742.
[18]KNIGHT W.The Dark Secret at the Heart of AI[J].Technology Review,2017,120(3):1-22.
[19]MAGER A.Algorithmic Ideology:how Capitalist Society Shapes Search Engines[J].Information,Communication&Society,2012,5(15).
[20]張淑玲.破解黑箱:智媒時代的算法權力規制與透明實現機制[J].中國出版,2018(7):49-53.
[21]陳鵬.智能治理時代的政府:風險防范和能力提升[J].寧夏社會科學,2019(1):74-78.
[22]張會平.算法嵌入政府科層制的路徑、影響與風險應對[J].廣西師范大學學報(哲學社會科學版),2021,57(3):52-63.
[23]譚九生,范曉韻.算法“黑箱”的成因、風險及其治理[J].湖南科技大學學報(社會科學版),2020,23(6):92-99.
[24]肖唐鏢.中國技術型治理的形成及其風險[J].學海,2020(2):76-82.
[25]杜小奇.多元協作框架下算法的規制[J].河北法學,2019,37(12):176-190.
[26]漢娜·阿倫特.公共領域和私人領域[M]//汪暉,陳燕谷.文化與公共性.北京:生活·讀書·新知三聯書店,1998:81.
[27]BERNSTEIN E S.The Transparency Paradox:a Role for Privacy Inorganizational Learning and Operational Control[J].Administrative Science Quarterly,2012,57:181-216.
[28]BALL C.What Is Transparency?[J].Public Integrity,2009,11(4).
[29]俞可平.治理與善治[M].北京:社會科學文獻出版社,2000:3-10.
[30]JORGENSEN T B,BOZEMAN B.Public Values:an Inventory[J].Administration & Society,2007,39(3):354-381.
[31]張紅春.政府績效生成的復雜性與績效評估因應[J].求實,2021(6):25-40.
[32]胡小明.從政府信息公開到政府數據開放[J].電子政務,2015(1):67-72.
[33]王張華,顏佳華.人工智能驅動政府治理變革:技術邏輯、價值準則和目標指向[J].天津行政學院學報,2020,22(6):3-11.
[34]GARFINKEL S,MATTHEWS J,SHAPIRO S S,et al.Toward Algorithmic Transparency and Accountability[J].Communications of the ACM,2017,60(9):5-5.
[35]鄭智航.人工智能算法的倫理危機與法律規制[J].法律科學(西北政法大學學報),2021,39(1):14-26.
[36]張超.新聞生產中的算法風險:成因、類型與對策[J].中國出版,2018(13):38-42.
(責任編輯:楊 洋)
From Algorithm Black Box to Algorithm Transparency: the Transition?Logic and Path of Algorithm Governance by the Government
ZHANG Hongchun,ZHANG Zhilian
(School of Public Administration,Guizhou University,Guiyang,Guizhou,China,550025)
Abstract:In the era of big data and artificial intelligence,the algorithm-based government governance model is rising.It makes government governance increasingly automated,intelligent and precise,but it also brings major theoretical and practical problems.The source of algorithm black box as well as its solution is of significant as theoretical and practical problems of government governance.This study found that the low transparency of government algorithms is the result of the characteristics of algorithm technology itself combining with the institutional way the government uses algorithm technology,which is the opposite of the essence of the requirements of publicity,openness and effectiveness,and therefore,the transition to algorithm is necessary.The direction of its transition is to build a fully transparent government algorithm governance system,which is composed of algorithm decision-making,research and development,application,and supervision.Its realization path relies on the two-way construction of transparency responsibility and action obligation by the government and the public respectively.
Key words:algorithmic governance; algorithmic transparency; algorithmic disclosure; algorithmic participation; transparent government; artificial intelligence; big data