□ 張 鋌
內容提要 作為一種治理技術,人工智能的嵌入引發了社會治理邏輯的轉換。人工智能嵌入社會治理在賦能社會治理的同時,也帶來了治理技術的不確定性、治理主體的角色替代、治理過程的價值失衡和治理責任的邊界模糊等不可忽視的風險。對此,各國相關公共政策采取的無論是“無需批準式監管”還是“審慎監管”路徑都有可取之處,但局限于“創新”與“安全”的二維選擇不免失之偏頗。鑒于此,本文提出構建一個綜合性公共政策框架,以期為規避人工智能的應用風險,促進人工智能的可持續發展建立制度基石。
人工智能的興起不僅是技術和產業領域的重大革命,更是社會治理領域的一場深刻變革。新冠肺炎疫情期間,從疫苗開發、診斷輔助、智能測溫到AI 消毒,公眾已經能真切感受到人工智能對社會和生活帶來的影響。人工智能的嵌入在提升社會治理能力,促進社會治理的精準化、數字化和智能化等方面確有其獨特的功效。然而,技術是一把“雙刃劍”。技術的“雙刃效應”源于技術本身具有賦能與約束的“兩面性”,人工智能在社會治理中亦逐漸暴露其風險的“另一面”。本文聚焦社會治理,擬對人工智能嵌入社會治理的風險問題作一探討。論文主要分三個部分:第一部分將基于算法維度探討人工智能嵌入社會治理的邏輯,回答人工智能如何嵌入社會治理的問題; 第二部分著重從治理技術、治理主體、治理過程和治理責任等層面分析人工智能嵌入社會治理的主要風險; 第三部分將針對人工智能嵌入社會治理的風險,結合美、英、法等國公共政策的比較,從公共政策選擇的角度探討人工智能的風險治理之道。
人工智能技術植根于算法。算法作為人工智能技術架構,有其自身的運行邏輯。人工智能嵌入社會治理引發的治理邏輯轉換主要歸因于算法權力(algorithmic power)。算法權力是一種內化的、泛在的權力關系,普遍存在于社會系統。在治理意義上,算法權力通過權力關系對個人與群體的行為加以引導,對治理規則進行重構。通過技術的“通行權”,人工智能技術嵌入社會治理以其去中心化、開放性和不確定性等改變了傳統的科層制治理結構單一命令服從式的治理邏輯,構建起一個基于數據和算法的立體式復合治理網絡,形成了一種新的社會治理范式。具體而言,進入人工智能時代,治理什么、如何治理聚焦于兩個深層次問題:算法的治理與治理的算法。
2019年1月,自媒體新聞實驗室一篇“搜索引擎百度已死”的文章刷爆網絡,該文章指責百度搜索結果一半以上會指向百度自家產品。實際上,百度搜索算法被詬病由來已久。在2016年“魏則西事件”中,百度信息推廣、競價排名機制就遭到社會批評。再如,2020年12月,斯坦福大學利用人工智能算法分配疫苗,結果1300 多名醫護人員只有7 人入選接種名單,引發醫護人員的不滿。該疫苗分發系統(Tiberius)是美國政府部門與數據挖掘公司合作開發的,許多美國專家認為這種做法會帶來更多的不平等,但要改進算法可能并不那么容易。①實際上,無論是對百度搜索的詬病還是對疫苗分發系統(Tiberius)的不滿,都指向了一個本質性問題,即算法的權力問題。人工智能技術依托算法而存在。人工智能時代算法對社會生活的影響日益加深,如價格算法影響人們購買商品,導航算法、網約車平臺算法影響人們出行。新冠肺炎疫情期間啟用的健康碼也是一種算法,健康碼的廣泛使用升級了面向人口的“安全技術”,成為算法治理的一次重要實踐。然而,個人在享受數字化生活帶來的諸多便利的同時也面臨算法對社會的滲透和控制,算法日益成為一種社會支配性權力。由此,一個緊迫的問題擺在我們面前,那就是如何對算法進行有效治理,規制算法權力。人工智能技術的發展若要避免科林格里奇困境(Collingridge Dilemma),就必須對算法進行有效治理,馴服“技術利維坦”,這是人工智能技術可持續發展的關鍵所在。
2019年,格蘭特·包瑟曼(Grant Bauserman)等在密歇根法院提起對密歇根州失業保險局的訴訟。他們起訴該州失業保險局用融合數據自動化系統(MIDAS)審核失業補貼申請,交由算法判斷申請者是否有欺詐行為。但是,這套系統存在93%的出錯率,數萬人受到誤罰。②近年,因數據泄露侵犯公民隱私安全的事件屢屢見諸于報端,人工智能時代如何保護公民隱私權利成為社會關注的熱點。例如,有些城市交通管理部門為了整治闖紅燈亂象,采取“刷臉”的執法方式,這在提高執法精準度的同時,也可能因采集的“人臉數據”泄露而侵犯公眾隱私權利。更令人擔憂的是,隨著人工智能技術在社會治理中的廣泛和深度應用,算法日益嵌入社會系統,將深刻地改變和塑造社會系統。有朝一日,不僅僅是算法推薦,我們將生活在一個“算法社會”中。社會系統不僅適應了算法,而且高度依靠算法處理社會公共事務。那么屆時,人的個體自主性是否會被逐漸消解? 社會治理的主體是否會讓渡給人工智能?置于社會治理領域,這實際上是一個治理的算法化問題。由此,如何明確人工智能技術是治理手段而非治理主體的角色定位,有效利用人工智能技術提升社會治理水平、促進社會公平正義而非損害人的尊嚴和自由、侵蝕公共價值,是人工智能時代社會治理必須面對的一大挑戰。
在廓清人工智能嵌入社會治理的邏輯之后,有必要深入分析其風險。人工智能技術一定程度上將社會治理解構為算法的治理與治理的算法,其風險也開始顯現。人工智能在賦能社會治理的同時,也帶來了治理技術的不確定性、治理主體的角色替代、治理過程的價值失衡和治理責任的邊界模糊等不可忽視的風險,應引起我們的重視。
技術在促進社會進步的同時,也帶來了社會風險。在科學技術發展史上,因技術誤用、濫用等造成技術失控,導致嚴重災害事故的例子不勝枚舉。人工智能技術作為一種具有顛覆性影響的新興技術,其發展尚處于初級階段。人工智能應用于社會治理中,我們必須了解這一治理技術的安全隱患。其一,人工智能技術依賴的學習算法在人為干擾下,也可能出現“失算”的后果,如一些黑客能利用程序漏洞避過防火裝置讓智能失效,或有人通過修改數據源使圖像和語音識別系統失去甄別能力,從事網絡欺詐活動等。其二,人工智能是以大數據為基礎運作的。人工智能技術嵌入社會治理中,廣泛使用的智能終端和機器在深度學習中大量敏感數據的交互使用,這些都加大了個人信息泄漏的風險。其三,人工智能的開發具有很強的開放性。不同于核科技等風險源,人工智能的開發具有開放性。通過下載已有的開源人工智能代碼,互聯網企業或程序員都能開發人工智能程序,這種“不造輪子直接造車子”的人工智能生產模式在促進技術傳播的同時,也加大了技術風險擴散的風險。總之,人工智能技術遠未成熟,自身存在一些安全隱患,具有較大的不確定性。人工智能作為當前最復雜的技術系統之一,囿于其算法邏輯,人類很難全面了解和掌握其潛在風險。
在社會治理中應用人工智能技術,不僅只有技術自身的風險。在商業邏輯的驅動下,人工智能嵌入社會治理可能會導致治理主體的角色替代。算法驅動的人工智能技術作為技術治理的重要工具,短期內確實有助于提升社會治理能力。但長遠看,對技術治理的迷信和依賴亦可能造成社會治理創新不足、缺乏實質增長的“內卷化”現象。例如,有關部門對信息技術資源不斷投入的同時,條塊結構越來越復雜,對技術工具的依賴也越來越大。長期過度依賴技術工具、缺乏與體制良性互動的技術治理模式勢必會逐漸消解治理主體的主動意識和創新精神,造成人工智能技術背后的算法“決策”代替治理主體的自主決策。在此境遇下,人不再是治理的主體,反而可能成為算法權力中被計算的客體,最終導致治理主體的錯位。雖然,當前人工智能技術總體上處于“弱人工智能”階段,智能機器尚不具備治理主體資格,但是,隨著人工智能技術的發展,勢必引發更多社會領域的智能革命和技術更新。由此,社會治理領域對智能技術可能形成強烈依賴,社會運行系統呈現高度“算法化”,社會治理主體的角色被人工智能替代,這并非危言聳聽。
人工智能技術嵌入社會治理中,一方面,人工智能技術的算法催生出隱形權力。互聯網時代的來臨帶來了人類社會的諸多變革,權力的性質和實現形式也發生了變化。③算法黑箱為權力的隱性運行提供了條件。算法作為以計算機代碼表達的意見,算法的設計、目的、標準必然體現設計者和開發者的主觀意志和價值取向。算法的設計者和開發者很可能將其主觀偏見帶入算法系統形成算法偏見、算法歧視,導致種族、性別、年齡和階層區域歧視,使得社會治理過程缺失公共價值,技術的工具理性與價值理性失衡,如弗吉尼亞·尤班克斯(Virginia Eubanks)所說,大數據與算法應用于窮人和工人階層,“強化和延續了近代的濟貧措施中的道德主義傾向和懲罰性后果”。④另一方面,人工智能技術通過重構產業結構和社會分工模式,可能導致大量人員的結構性失業,影響社會公平正義。人工智能以其智能化、高效化會替代人做“臟累差”的工作,甚至可能取代一些職業,如醫生、翻譯等。雖然人工智能的發展會創造新的就業崗位,但并非所有人都能跨越技術鴻溝,適應人工智能時代的工作變革。
人工智能技術的算法生產和運作過程的“黑箱化”不僅對有效監管造成困難,而且因為其在社會治理應用中往往居于“幕后”,其運行過程的不透明和治理規則的不易解釋,往往造成責任追究的難題。英國《衛報》專欄作家BenGoldacre 將算法比喻為一系列的“黑盒子”。面對這樣一個知之甚少的數字世界,“人類并不清楚什么是安全的、什么是有風險的”。⑤需要指出的是,人工智能技術環境中治理規則的難以解釋并非完全因為公司或個人的隱瞞,其深刻原因在于算法和機器學習的復雜性。進入人工智能時代,人們發現傳統的技術責任倫理和制度規范已無法有效應對智能技術應用的風險責任界定和追究。在傳統的技術責任倫理和制度規范中,設計者必然是技術風險的責任主體。然而,在人工智能技術環境中,設計者僅是單一的原子責任主體,如果將人工智能導致的侵權行為完全歸責設計者,并不具有說服力。但若歸責人工智能本身,顯然不可能問責一個機器。由此,長久以來基于行為和后果之因果關系的責任倫理和制度遇到挑戰。簡言之,治理責任的邊界模糊問題是人工智能技術嵌入社會治理的又一風險。
為了應對人工智能興起的風險和挑戰,近年,諸多國家出臺了相關公共政策。2016年,美國頒布了《國家人工智能研究與發展戰略規劃》、《為人工智能的未來做好準備》等政策文件,其中《為人工智能的未來做好準備》 主要探討政府在推動技術創新、維護公共安全等方面的作用,強調基于風險評估和成本—收益考量的原則決定是否對人工智能的研發和應用施以監管。⑥美國對人工智能的發展持包容與開放態度,傾向于 “無需批準式(permissionless)”的監管邏輯,即強調除非有確鑿證據和案例證明其危害性,新技術、新商業模式都是被允許的。相較于美國的“無需批準式監管”,英國和法國傾向于“審慎監管(precautionary)”。例如,英國2016年發布的《人工智能:未來決策制定的機遇與影響》 強調對人工智能制定出的決策采用問責,并在算法透明度、算法一致性、風險分配等政策方面做出了規定。⑦法國2017年發布的《人工智能戰略》也強調對新技術的“共同調控”。⑧應當講,“無需批準式監管” 側重技術創新,“審慎監管”側重技術安全,都有可取之處。然而,這兩種監管路徑局限于“創新”與“安全”的二維選擇不免失之偏頗。人工智能帶來的風險勢必要求公共政策作出有力回應,然而“無需批準式監管”恐難以有效應對。“審慎監管”路徑也存在一定的缺陷。面對人工智能技術引領的第四次工業革命浪潮,過于謹慎的監管方式一定程度上會抑制技術創新和應用。人工智能涉及眾多領域,對社會運行系統有深刻影響。因此,對其風險的治理應構建綜合性公共政策框架。
算法和數據是人工智能技術的基石,加強算法和數據治理是人工智能時代公共政策的應有內容,也是規制人工智能應用風險的必然要求。就算法治理而言,核心議題是要規范算法權力的運作,彰顯算法正義,包括對算法的設計、開發和應用等環節的監督和建立算法問責機制等。其中,構建有效的算法問責機制是算法治理的重要內容,而算法問責的前提是提升算法的透明度和可解釋性。因此,要求算法運用履行告知義務、參數報備、參數公開和規定算法可解釋權等治理手段應納入算法治理的公共政策考量之中。算法治理涉及面廣,“要根據算法應用的成熟程度及其影響的范圍大小,以不超過其當前發展水平及未來發展可能性的客觀理念,分領域、分優先級的制定相關公共政策。”⑨就數據治理而言,數據是人工智能技術開發和應用的基礎。然而,數據的搜集、利用、共享與公民隱私權利保護等存在一定的張力。實踐證明,建立和完善基于公民授權的數據分類治理機制能有效回應公民對隱私問題的關切。人工智能發展相關公共政策應體現對個人隱私的尊重和保護,在規范數據的搜集、利用和共享等環節的基礎上,實現數據價值、隱私保護和數據安全等多元政策目標的平衡。總之,構建算法和數據治理體系有助于推進人工智能風險基礎性治理。算法與數據治理必須回應人們對人工智能技術引發的倫理、責任和個人隱私權利保護等社會關切。換言之,人工智能的發展和應用必須受到法律、倫理等社會規則的約束。
在技術治理的實踐中,必須重視對人的尊嚴、自由和社會民主、平等、公正等重要價值的維護,著力建構技術治理的“社會性”,塑造社會治理的主體性。⑩人工智能技術應用于社會治理,應有助于實質性推動社會整體“賦權增能” 和公共性建構,而那些“智能革命中利益受損的群體,作為共同體成員的基本生存和發展權利需要得到充分保障。”?人工智能技術的發展將導致就業結構、就業方式的深刻變革。人工智能技術具有顛覆性影響,其帶來的技術革命成本因此會更大。未來大量的工作崗位可能被人工智能替代,這必然會加劇社會不平等,甚至影響社會安全穩定。因此,在人工智能發展相關公共政策的考量中,不僅要關注人工智能發展的產業和經濟政策,也要關注人工智能發展的社會政策。要堅持以人為本原則,建立適應人工智能時代發展的終身學習和就業培訓體系,完善社會保障體系,應對人工智能技術發展可能帶來的結構性失業。基于此,基本收入制度應提上公共政策議程。“基本收入”是指國家(地區)向所有成員支付一定數額的收入,滿足其基本生活的需求。該收入不需要任何條件與資格,只要是該國家(地區)的居民,每個人都可以領取。盡管該制度存在爭議,芬蘭、瑞士和美國的一些州已經開始了相關實驗。總之,面對人工智能帶來的風險和挑戰,要加大社會支持政策,彰顯技術治理的人文關懷,才能平衡技術創新與社會風險之間的矛盾,促進技術與治理體制、社會發展的良性互動、相互增效。
人工智能技術具有較大的不確定性,因此需要運用多種手段和工具,對其潛在風險進行評估,開展人工智能應用風險預警。一方面,政府應聯合高校、智庫和互聯網公司等對人工智能應用進行安全等級評估,有針對性地采用安全防護技術,規避人工智能技術可能出現的故障、失控和被入侵等風險,確保人工智能技術在安全、可控的范圍內。另一方面,要積極開展人工智能社會實驗研究。推進人工智能風險治理,消解人工智能技術的負面效應,應深入了解人工智能時代的社會形態和特征。積極開展人工智能社會實驗研究,有助于科學研判人工智能技術的社會風險,“在不對人類社會造成較大規模影響的情況下,準確識別人工智能對人類社會帶來的挑戰和沖擊,深入理解人工智能的社會影響特征與態勢,深刻把握人工智能時代社會演進的規律。”?值得一提的是,2019年,我國科技部印發了《國家新一代人工智能創新發展試驗區建設工作指引》的通知,為開展人工智能社會實驗提供了政策支持。需要補充的是,人工智能風險的有效治理必然要求提升公眾對人工智能技術的認知水平。因此,面向社會開展形式多樣的人工智能技術科普活動,加強人工智能技術倫理道德宣傳和教育,亦應納入人工智能發展的相關公共政策。
由于人工智能技術的專業性、不確定性,其嵌入社會治理帶來的風險具有復雜性、多樣性和嚴重性,僅憑政府一方難以有效治理其風險。人工智能技術在社會治理應用中必然涉及多元利益主體,因此對其風險的治理亦要求多元主體參與共治,正如“技術治理需要利用自由、分權和參與營造的社會空間”,?技術風險的治理也應倡導社會合作,而不是由政府單方面統攬治理資源和權力。因此,相關公共政策應著力構建人工智能風險協同治理機制,實現政府單一治理向多元主體合作治理轉變。該協同治理機制能“利用各自優勢而逐漸組成技術治理的決策權威聯盟”?,形成合作共治的技術風險治理格局,避免單一主體治理人工智能風險的局限性。具體而言,要打破傳統“命令——控制”式的技術風險治理模式,倡導政府與技術專家、公眾和社會組織的交流和協商,形成緊密的合作關系,共同應對人工智能技術帶來的風險和挑戰,實現社會資源配置帕累托改進和社會運行系統整體功能的提升。需要指出的是,人工智能技術風險已經成為全球關注的問題,因此對其協同治理亦應突破國界。對此,我國要積極主動參與人工智能全球治理機制的建構,在推動形成國際人工智能治理框架和標準規范中發揮應有的作用,這方面亦應體現在人工智能發展的戰略規劃和公共政策之中。
注釋:
①董青嶺、朱玥:《人工智能時代的算法正義與秩序構建》,《探索與爭鳴》2021年第3 期。
②汪慶華:《算法透明的多重維度和算法問責》,《比較法研究》2021年第2 期。
③陳氚:《權力的隱身術——互聯網時代的權力技術隱喻》,《福建論壇(人文社會科學版)》2015年第12 期。
④Virginia Eubanks.Automating Inequality: How High-Tech Tools Profile,Police,and Punish the Poor.St.Martin’s Press,2018:37.
⑤Goldacre,B.When Data Gets Creepy:The Secrets Wedon’t Realise We’re Giving Away.The Guardian,2014-12-05.
⑥Preparing for the Future of Artificial Intelligence.https:sites/default/files/ whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf.2021-6-17.
⑦Artificial Intelligence:Opportunities andImplications for the Future of Decision Making.https:/www.gov.uk/government/uploads/system/uploads/attachment_data/file/566075/gs-16-19-artificialintelligence-ai-report.pdf.2021-7-6.
⑧周衍冰:《大數據產業在法國的發展及應用》,《學習時報》2014年11月3日。
⑨賈開:《人工智能與算法治理研究》,《中國行政管理》2019年第1 期。
⑩張鋌、程樂:《技術治理的風險及其化解》,《自然辯證法研究》2020年第10 期。
?高奇琦:《智能革命與國家治理現代化初探》,《中國社會科學》2020年第7 期。
?蘇竣、黃萃:《探索人工智能社會治理的中國方案》,《光明日報》2019年12月26日。
?彭亞平:《照看社會: 技術治理的思想素描》,《社會學研究》2020年第6 期。
?譚九生、楊建武:《人工智能技術的倫理風險及其協同治理》,《中國行政管理》2019年第10 期。