王禎軍
重大行政決策是行政機關作出的事關公共利益的重大決定,可能成為社會穩定風險的源頭或社會穩定風險事件發生的導火索。這一命題的理論依據是“風險社會”理論,即,現代社會的風險相當一部分來源于我們作為集體或者個人作出的每一個決定,如過去一段時間各地因重大行政決策引發的矛盾沖突和群體性事件。2019 年4 月,國務院公布《重大行政決策程序暫行條例》(以下簡稱《條例》),將社會穩定風險評估(下文簡稱“穩評”)確定為重大行政決策的前置程序。2021 年《市縣法治政府建設示范指標體系》作為開展示范創建活動的評估標準和建設法治政府的具體指引,在“重大行政決策科學民主合法”和“重大突發事件依法預防處置”兩個一級指標中,均涉及穩評和風險防范的內容。提升社會穩定風險的識別、分析和預測能力是提高穩評效能的關鍵,對于防范社會穩定風險,確保科學決策和順利實施決策具有重要意義。算法是“在計算或其他解決問題的操作中,特別是計算機所遵循的一個過程或一組規則”。①Oxford English Dictionary,Definition of algorithm,see https://en.oxforddictionaries.com/definition/algorithm.2021-05-17.在信息時代,算法為政府提供了大量收集個人信息并且監控個人行為的機會,它可以廣泛抓取并高效解析個人數據生成相關決策,具有將網絡空間虛擬社會和現實世界的個體相互聯結,根據個體的過去和現在預測未來的技術能力。“在公共事業領域,從司法審判到智慧警務,從福利分配到信用評估,算法也正在政府、專家之外成為影響決策的第三股力量,或獨立或輔助地發揮著智慧決策的作用。”②張欣:《連接與失控:面對算法社會的來臨,如何構建算法信任?》,載《法治周末》2019 年5 月30 日,第12 版。顯然,算法的獨特功能既可以擴大對重大行政決策利益相關群體的信息收集,擴充風險識別范圍,提高風險分析的充分性和準確性,也可以為風險評估的人工“風險溝通”環節提供行動方案,在提升穩評的效能中發揮作用。然而,“當算法與紛繁復雜的平臺應用相結合,深入且廣泛地嵌入到我們的生活中并不斷拓展之時,看似理性的算法卻引發了一系列算法危機”,③同上注。算法應用于穩評不可避免地會遇到權利保護和公共利益維護等法律問題。在提升穩評效能的同時,必須在法治的軌道上規制算法的使用。
重大行政決策社會穩定風險評估(下文簡稱“重大決策穩評”)是行政機關在制定、實施事關人民群眾切身利益的重大決策之前,通過調查研究,對可能影響社會穩定的風險進行預測、識別、分析和評判,制定風險應對預案和措施,并將評估結論作為決策依據,在決策事項實施過程中妥善處置社會穩定風險的過程。根據《條例》,穩評結論的作出要經過合法性、合理性、可行性論證,同時要遵循公眾參與、專家論證等法律程序,必經的技術流程包括風險信息收集、風險識別、分類、分析等。算法應用的基礎是數據處理,實現數據的采集、存儲、檢索、加工、變換和傳輸。將算法應用于穩評已經具備了數據基礎,在技術和目的上具有可行性。
現代算法是由易于訪問的大型和(或)多樣化數據集推動的,這些數據集可以有效地聚合和處理(通常稱為“大數據”)。這些算法存在于復雜、相互依存的全球數據生態系統中,通過算法產生的輸出可以用作其他算法過程的新輸入數據。④M Balkin,2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy:The Three Laws of Robotics in the Age of Big Data,(2017) 78(5) OhioStLJ 1217,1219.建立在數據之上的算法應用于穩評的基礎環節,一是掌握反映社會穩定風險的豐富數據,二是實現社會穩定風險的數據化驅動。在大數據時代,隨著智能手機、智能電器等智能設備普及到千家萬戶,從消費習慣、飲食嗜好、活動軌跡,到身高、體重、心跳、脈搏等豐富的個人信息,隨時隨刻都會被傳送到“云端”,每個人已經成為 “物聯網”時代的“量化自我”(quantified self)或“可測度的自我”(measurable self)。⑤Sander Klous,Nart Wielaard,We are Big Data:The Future of the Information Society,Atlantis Press,2016,p.61.轉引自鄭戈:《算法的法律與法律的算法》,載《中國法律評論》2018 年第2 期。很多個人信息背后隱含著社會穩定風險因子,如學者所言,“自己每一次點擊鼠標,包括上傳一張照片、轉發一則笑話或在短片下面點一個‘贊’,都是在為建立與自己相關的龐大數據庫添磚加瓦,而其揭示出的人格特質真實得讓人恐懼”⑥[瑞典]大衛薩普特:《被算法操控的生活》,易文波譯,湖南科學技術出版社2020 年版,第4 頁。。這些信息成為深度分析進而評估社會穩定風險的重要數據。在此基礎上,對導致影響社會穩定的風險因素實施的數據化轉變,實現風險的可計算化是實現算法應用于穩評的重要環節。“在實現風險因素的數據化轉化這一目標過程中,所采用的主要研究手段應當是尋求風險因素與定量數據間的融合點與連接點,將風險因素與數理算法自然地建立聯系,從而能實現對風險計算的普遍應用。顯然,數字化提高了數據管理的效率。通過數字化,模擬數據被轉換成計算機可以讀取的數字數據”⑦王禎軍:《法治視域下大數據應用于穩評的作用、問題及路徑》,載《理論學刊》2021 年第3 期。而“數據體量的指數級增長使得數據處理的環節只有算法能夠勝任,而數據處理者的算法能力決定了其數據處理水平能力。”⑧張凌寒:《算法評估制度如何在平臺問責中發揮作用》,載《上海政法學院學報(法治論叢)》2021 年第3 期。算法已經能夠對海量的無結構數據(包括百度搜索記錄、淘寶購物記錄、手機GPS 信息等各種電子痕跡)進行分析和處理,最終實現“完美個人化”,⑨參見鄭戈:《算法的法律與法律的算法》,載《中國法律評論》2018 年第2 期。準確識別出某一特定個人的身份、個性、品味、社會屬性、偏好和政治傾向。因此,算法應用于穩評的數據資源和技術已經具備。在實踐中,算法已經用于協助判決和假釋決定、預測犯罪“熱點”以分配警察資源、個性化搜索引擎結果、電子新聞源和廣告、發現欺詐、確定礦山信用評級、促進招聘、提供醫療和法律服務等事務中⑩Lorna McGregor .International Human Rights Law as a Framework for Algorithmic Ac-countability,International and Comparative Law Quarterly/2019 -Volume 68/Issue 2,1 April/Articles/International Human Rights Law as a Framework for Algorithmic Accountability– International and Comparative Law Quarterly 68,2019 pp 309–343,為算法應用于穩評提供了參考和借鑒。
風險學界的制度主義者認為,“風險社會”中的“風險”是人類活動的反映,是人類社會工業化發展和科學技術迅猛提高的副產品。風險不僅來源于人類社會之外,更來源于我們作為集體或者個人作出的每一個決定,每種選擇,以及每次行動。?參見楊雪冬:《全球化、風險社會與復合治理》,載李程偉主編:《公共危機管理:理論與實踐探索》,中國政法大學出版社2006年版,第46 頁。人類學者和文化學者則把風險定義為一個群體對危險的主觀認識,認為風險是否客觀存在本身并不重要,重要的是誰在認知并強化了風險意識與觀念。由于不同文化導致的風險感知不同,對風險的認識是混亂無序的,很難尋求到建立這種等級性秩序的基礎。?[英]斯科特·拉什:《風險社會與風險文化》,王武龍譯,載《馬克思主義與現實》2002 年第4 期。社會穩定風險是未來發生不可控的社會沖突的可能性,是一個動態發展過程,不可能被完全消除,體現了制度主義者所主張的風險的客觀存在性。同時,社會穩定風險又具有人類學者和文化學者所主張的主觀建構性,最終以決策利益相關方的行為反映出來,而利益相關方的行為受主觀思想和認知的支配,往往基于個人主觀上對風險的認知、利害分辨和價值判斷來決定是否采取影響社會穩定的行動。并且,利益相關方的心理活動不斷變化,其態度和價值立場經常是不穩定的。“這些立場的系列光譜包含著強烈反對、溫和反對、中立、溫和支持,直至強烈支持。通過公共決策過程中信息告知、協商、卷入、談判、公民主導等方式的不斷強化,在決策過程的包容性、開放性、互動性等作用下,相關群體的利益認知、偏好和立場都是可變的。”?朱德米:《深化穩評的理論支持》,載《中國社會科學報》2011 年6 月2 日,第3 版。客觀存在性的風險評估標準基于科學的“理性—工具”范式,而主觀構建的風險則偏向“商談—建構”范式。社會穩定風險兼具主觀性和客觀性的特征增加了風險數據分析的難度,對數據分析工具提出了很高的要求。而建立在數據之上的算法應用于穩評的基礎環節是實現社會穩定風險的數據化驅動,體現了“理性—工具”范式的科學性,即“對導致影響社會穩定的風險因素實施的數據化轉變,實現風險的可計算化。在實現風險因素的數據化轉化這一目標過程中,所采用的主要研究手段應當是尋求風險因素與定量數據間的融合點與連接點,將風險因素與數理算法自然地建立聯系,從而能實現對風險計算的普遍應用。顯然,數字化提高了數據管理的效率。通過數字化,模擬數據被轉換成計算機可以讀取的數字數據,使得數據的管理變得既方便又高效。”?同前注⑦。此外,社會穩定風險的主觀性在穩評中表現為“個體的感知和情緒等心理層面的因素必然千差萬別且大部分存在這樣那樣的波動,具有典型的非線性特征,恰恰是這些具有非線性的因素在‘穩評’中是最為重要的評測方向,它們決定了利益相關者對重大行政決策的接受程度,以及采取對抗行動引發風險的可能性。”?同前注⑦。傳統穩評評估指標的靜態性特征,數據采集的抽樣限制使得這一工具方法在現實中難以避免時效性差、權威度低的局限,降低了對長期趨勢和波動幅度的可預測性,?Sheldon,Eleanor B.&freeman,Howard E.“Notes on Social Indicators:Promises and Potential”,Policy Sciences,Vol.1,No.1,1970,PP.97-111.無法獲取持續的、周期性的觀測數據。更為關鍵的是,偏于線性因果關系指標評估體系往往忽視了對社會行為的文化和集體心理方向的測度。?Firestone,Joseph M.“The Development of Social Indicators from Content Analysis of Social Documents”.Policy Sciences,Vol.3,No.2,1972,PP.249-263.基于大數據的算法為解決穩評中的“非結構化數據”分析提供了重要的工具和方法。隨著智能和可移動計算設備的出現,個人的位置、行為,甚至身體生理數據的變化都成為了可被記錄和分析的數據,“每一個數據都被視為一個節點,無限次地與網絡間關聯數據形成裂變式傳播路徑,其間的關聯狀態蘊含著風險擴散的無限可能性”。?劉澤照、朱正威:《大數據平臺下的穩評:研究前瞻與應用挑戰》,載《華東理工大學學報(社會科學版)》2015 年第1 期。這為在技術上以“數據參與”代表“公眾參與”從而為算法應用于穩評實現“商談—建構”范式要求的民主性提供了空間。通過算法實現對大數據的分析、預測,使海量數據釋放出更多的價值,透過大數據探析利益相關者的真實心理、態度和立場,能夠充分掌握影響相關利益群體風險感知狀況的各種因素,提高穩評結論的科學性和準確度,為重大行政決策提供更可靠的咨詢。
“風險的知識屬性決定風險的識別與判斷不能僅依靠傳統經驗法則和社會一般大眾的感覺,而需要借助專業化的標準與規范。而這些專業化的標準必然通過專業化的行政機關來設定。”?趙鵬:《風險社會的行政法回應》,中國政法大學出版社2018 年版,第56 頁。重大行政決策客觀上作為引發風險的人為因素,在作出之前進行穩評是政府、社會、個人、制度對社會穩定風險反思性提高的表現。當然,風險是“未來破壞性結果發生的概率”包含兩方面的含義:不利結果的嚴重程度和發生的概率。因此,穩評所針對的核心問題是不確定性,包括“對結果預判的知識方面不足;對風險無法進行定量描述或風險評估的結果不可靠;潛在因素對活動結果的影響上缺乏理解;對結果的空間狀態缺乏明確的定義。”?Aven T.On the Type of Uncertainties in the Context of the Precautionary Principle.Risk Analysis,2011,31 (10):1515-1525.“不確定性”分為兩種類型:社會穩定風險事件的不確定性——客觀上的不確定性;決策者對風險認知是否充分的不確定——主觀上的不確定性。對社會穩定風險的感知既受客觀不確定性的影響,也受因決策者的認知局限性以及與公眾的認知背離的影響。因此,社會穩定風險并不只是秉持實證主義的精神,通過科學技術與數學模型建構的“事實”,也是一種秉持建構主義的精神,探尋公眾對風險主觀感知的價值判斷。因此,穩評是預防社會穩定風險的機制,最終的價值目標應當是動態地構建社會穩定狀態——一種相關主體間參與、互動式的社會構建過程。在信息社會,穩評欲實現動態建構社會穩定狀態的目標,需要借助算法的力量。算法決策具有專業性、復雜性和動態性特征。結合具體應用,算法主要發揮著優先級配置、分類、關聯及過濾四項功能。21Nicholas Diakopoulos,Algorithmic Accountability Reporting:On the Investigation of Black Boxes,Tow Center for Digital Journalism 1-37(2013).轉引自張欣:《從算法危機到算法信任:算法治理的多元方案和本土化路徑》,載《華東政法大學學報》2019 年第6 期。根據復雜場景和具體需要,自動化決策的達成還可能是四種功能的有機結合。這意味著數據和算法驅動的自動化決策可以將個體的線上、線下數據進行整合,形成對特定主體行為偏好的精準預測和評估,并可依據解析出的數據將其歸入到特定的類別和群組中。22See Guidelines on Automated Individual Decision-making and Profiling for the Purpose of Regulation 2016/679,https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=612053,accessed on June 16,2019.轉引自張欣:《從算法危機到算法信任:算法治理的多元方案和本土化路徑》,載《華東政法大學學報》2019 年第6 期。憑借精心設計的算法和先進的數據抓取技術,能夠精準分析并解讀利益相關群體的嗜好和利益訴求,從而為利益相關者提供量身定制的風險發生和化解方案,滿足了風險溝通的需求。一方面,通過在互聯網上自動抓取內容,再運用算法和少量的人工進行識別分析,從而形成風險評估結果;另一方面,算法可以通過社交媒體平臺對個人的日常生活產生影響,人們通過搜索引擎獲取知識和商業信息,通過微博社交和獲取新聞,通過評價類的社交媒體知曉餐館評價,通過約會類的社交媒體結識伴侶23參見張凌寒:《風險防范下算法的監管路徑研究》,載《交大法學》2018 年第4 期。,通過算法可以做到向利益相關者推送法律宣傳、政策解釋、疏導情緒、化解矛盾等有助于化解風險的信息。同時,通過記錄利益相關者點擊、閱讀選擇等行為數據,用算法精準分析用戶的興趣和內容需求,形成針對利益相關者特點和特定風險點特征的風險溝通和防范方案。此外,算法決策過程本身具有動態性。算法運行規則可能為了適應新的數據而加以改變,24See Guidelines on Automated Individual Decision-making and Profiling for the Purpose of Regulation 2016/679,https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=612053,accessed on June 16,2019.轉引自張欣:《從算法危機到算法信任:算法治理的多元方案和本土化路徑》,載《華東政法大學學報》2019 年第6 期。可以動態監測風險,動態建構社會穩定狀態的目標,這一點可以從算法用于風險評估的域外實踐得到驗證。例如,目前在使用的風險評估工具,如美國的COMPAS 或英國的HART,被用于預測個人再次犯罪的可能性等因素。這些算法使用個人數據計算個人的風險因素,如他們的犯罪史和與執法部門的互動,也使用諸如居住地以及他們與其他有犯罪記錄的人的聯系等變量。25Northpointe,Practitioner's Guide to COMPAS Core' (Northpointe,19 March 2015) Section 4.2.2 Criminal Associ-ates/Peers and Section 4.2.8 Family Criminality,http://www.northpointeinc.com/downloads/compas/Practitioners-Guide-COMPAS-Core-_031915.pdf,2021-08-15.AM Barry-Jester,B Casselman and D Goldstein,The New Science of Sentencing'(The Marshall Project,4 August 2015),https://www.themarshallproject.org/2015/08/04/the-new-science-of-sentencing,2021-08-15.這些工具不僅可以用于提供信息,而且可以在判刑、假釋或進入康復或轉移方案等領域實際作出決定。可以預見,算法可用于就個人是否可能做出引發社會穩定的過激行為作出決定。具體而言,算法與大數據之間的相互作用和相互依賴性使得它們能夠部署在風險評估領域,使許多傳統上由人工進行的評估變得越來越自動化。例如,基于穩評結果的重大行政決策實施過程亦是動態建構社會穩定狀態的過程,如果有關主體在重大行政決策實施階段作出的“派生性決策”——各種涉及利益相關群體的決策不當,極有可能會激化矛盾,導致原有贊成決策的利益相關方倒戈,破壞先前構建的社會穩定平衡關系。因此,算法的動態分析功能可以幫助實施主體謹慎對待并動態監測“派生性決策”可能引發的社會穩定風險平衡。
互聯網和數字技術的迅猛發展使得算法的使用空間愈加廣泛。然而,“信息技術革命帶來了新的權力形態,導致了‘算力即權力’的新現象,同時也使傳統上用來抗衡國家權力的公民權利面對更隱微、更無所不在、更多元化的權力技術的侵蝕。”26鄭戈:《算法的法律與法律的算法》,載《中國法律評論》2018 年第2 期。算法應用于穩評雖然在數據收集、技術應用和目的達成方面具有可行性,但其在決策過程中的日益普及也引發了一些法律問題。在法治國家,唯有使算法應用符合法治的價值要求,方能確保算法發揮應有的作用。
算法應用于穩評的一般建模流程是:確定風險評估目標→獲取風險信息數據→風險信息數據檢驗→變量選擇(數據清洗)→變量轉化→數據輸入模型算法→模型評估。可見,“數據是算法運行的寶貴資產和持續優化的源泉;算法是海量數據挖掘和分析的有力工具;平臺是提供數據和開發算法的關鍵基地。”27張欣:《從算法危機到算法信任:算法治理的多元方案和本土化路徑》,載《華東政法大學學報》2019 年第6 期。互聯網的發展為政府和企業提供了豐富的監視控制個人、收集個人信息的機會。對于政府部門,除了通過日常辦理行政事務和利用大數據機構外,還可以利用政府的權力和資源,通過各種渠道,有效控制個人的網上信息和行為,也可以迫使企業遵照政府的要求,利用企業的基礎設施和技術,幫助和參與對個人信息和網絡的控制。28The Independence,http://www.independent.co.uk/news/people/stephen-hawking-artificial-intelligence-diaster-human-historyleverhulme-centre-cambridge-a7371106.html,2021-07-18.就穩評而言,與社會穩定風險的數據化分析相關的利益相關者的習慣、嗜好、政治傾向等潛在風險信息,很多是通過利益相關者在網絡平臺的購買、搜索軌跡,通過媒體平臺關注利益相關者關注的新聞或話題等特定信息的偏好中反映出來的,單靠政府自身掌握的數據難以滿足穩評的需要。目前的主要網絡企業多是大型的跨國公司,它們的經營網絡可以伸到世界的任一角落。換言之,“個人作為算法與網絡的消費者是無處逃遁的。政府的手腳力所不能及的地方,企業卻更為有效。”29The Independence,http://www.independent.co.uk/news/people/stephen-hawking-artificial-intelligence-diaster-human-historyleverhulme-centre-cambridge-a7371106.html,,2021-07-18.將算法應用于穩評,政府需要利用網絡平臺企業的數據。然而,“在算法系統的開發與部署中,政府公共部門與平臺私營部門之間的界限往往模糊不清。平臺作為私營部門不僅自身是算法系統的主要開發者和使用者,同時是政府公共部門使用算法時的主要采購對象。”30同前注⑧。政府和企業在數據分享中的合作必然是建立在雙方利益的基礎上,而政府追求公共利益維護的目的和企業追求利潤最大化的利益往往并不一致。雖然政府為了實現自己的目的需要借助企業的基礎設施和技術力量,但企業與政府合作的目的卻可能是為了免于干擾或從政府處獲得更多資源。在這種情況下,政府如何從企業合法正當地獲得數據幫助就成為算法應用于穩評面臨的首要問題。這一問題隨著穩評主體的變化而進一步變得復雜。目前,根據多地規范穩評的規范性文件規定,穩評通常實行評估主體委托第三方評估機構評估的方式。在這種情況下,第三方評估機構如何獲取充分的數據信息?圍繞著數據收集所產生的政府與第三方評估機構的關系、第三方評估機構與企業的關系、第三方評估機構如何從政府獲得幫助從企業獲取數據等問題,則是算法應用于穩評必須考慮解決的法律問題。
算法自動化決策作為一種決策類型,也會涉及相關主體的利益,和風險發生存在著一定的聯系。并且,由人作出的決策既要體現一些基礎性的底線價值,如人的尊嚴和平等,也要遵循一些程序性要求,如法定程序或正當程序。與此不同,算法自動化決策趨向于只講手段不問目的的工具理性,如盧曼所言:“人工智能研究關心的是如何操縱‘符號’,而不是如何形成意義。”31Niklas Luhmann,Theory of Society,Vol.I,translated by Rhodes Barrett,Stanford University Press,2012,p.315.鄭戈:《算法的法律與法律的算法》,載《中國法律評論》2018 年第2 期。算法自動化決策所體現的技術理性有明顯的化約主義傾向,32同前注⑨。它可以用來提高效率,作出價值判斷和事關人類權益和福祉的最終決策卻并非其所擅長。因此,應用算法不可避免地面臨侵犯權利等違法法治精神的問題。特別是“當算法用于支持決策時,如風險評估,它們可能會引入或加劇現有的人權挑戰。”33Lorna McGregor .International Human Rights Law as a Framework for Algorithmic Ac-countability,International and Comparative Law Quarterly/2019 -Volume 68/Issue 2,1 April/Articles/International Human Rights Law as a Framework for Algorithmic Accountability– International and Comparative Law Quarterly 68,2019 pp 309–343.
1.侵犯隱私權問題
在動態、立體化的網絡環境下,重大行政決策的利益相關者的“異質性”心理與行為表現極為突出,因重大行政決策誘發的風險信息可以通過自媒體快速擴散、交織,短時間內形成數量巨大、形態多樣的輿情數據。34參見王禎軍:《法治視域下大數據應用于穩評的作用、問題及路徑》,載《理論學刊》2021 年第3 期。利益相關者使用互聯網產生的數據基本屬于個人信息的范疇,“但我們并不擁有這些數據,也無法控制這些數據,數據屬于為我們提供各種服務的‘大數據掌控者’。”35同前注。在一些情況下,互聯網企業收集和提取用戶私人信息往往未經用戶同意,侵犯了利益相關者的信息權利。另外,“涉及利益相關者的圖像、視頻、音頻、點擊流等半結構化或非結構化的數據內容背后,往往隱藏著利益相關者的真實態度、訴求及行為趨勢特征。”36同前注⑦。算法應用于穩評勢必要分析利益相關者的心理和行為傾向,必然會更多地涉及個人的隱私信息,而搜集和使用個人數據的邊界和程度目前并沒有具體的規定。37即便是2021 年11 月1 日起施行的《中華人民共和國個人信息保護法》(下文簡稱《個人信息保護法》),其中第13 條,規定了7 項個人信息處理者可以處理個人信息的情形,但其中多達6 項是“不需取得個人同意”的。更值得一提的是,除了直接非法收集、使用公民個人信息甚至是隱私信息的侵權行為外,算法預測——通過算法對所收集數據的二次利用,將一些表面上不具有個人特征的數據,經過算法的應用之后就可以追溯到特定的個人,成為一種間接、隱蔽的侵權行為。與大數據結合后的算法預測的準確率越來越高。例如,Facebook 的算法根據用戶提供的種族、職業等少量個人信息就能推斷出用戶的性取向,且準確率高達80%左右。全美第二大零售企業 Target 公司曾根據算法分析,向一位已孕未成年少女郵寄嬰兒用品手冊,其法定監護人卻根本不知其已懷孕。如今,日益智能化的算法,同大數據等技術相融合,不斷沖擊著現有的公民個人信息和隱私保護體系。38同前注⑨。并且,當管理不嚴導致算法的數據庫被盜或被惡意使用時,反映個人隱私的數據將可能泄露,致使個人信息存在巨大的安全隱患。在穩評中,無論是對擬做出的重大行政決策——“當事性決策”,還是導致同一利益相關群體遭受了利益損失或不公正對待并且問題未得到有效解決的以往的決策——“背景性決策”所可能引發的社會穩定風險,都要進行應評盡評。同時,在涉及風險防控措施和應急預案時,應當充分考慮防止“當事性決策”和“背景性決策”的風險共振和轉化。為了運用算法盡可能地分析出各種風險,存在著更多更復雜的誘因,讓評估主體對數據盡可能地采集更多、存儲更久、分析更徹底,這就會不可避免地涉及個人隱私。39同前注。“一味追求數據搜集和算法設計而不顧及個人的隱私,或者對個人同意收集的個人數據疏于管理,必然導致個人隱私被侵犯,不僅會導致公眾不愿意提交自己的數據信息,而且如果出現大規模侵犯個人隱私的情況,很可能會因為引發民怨,與重大行政決策可能引發的風險疊加而威脅社會穩定。”40同前注⑦。
2.歧視和不平等問題
數據收集的歧視性和算法本身存在缺陷或瑕疵也會導致不平等或歧視現象的發生。“算法不停的旋轉和降維你的數據集,直到它能讀懂你、透視你。……算法的高維理解完勝你對自己的了解,但它們并不具備完美的預測能力和公平公正的態度。”41同前注⑥,第7 頁。雖然算法的設計和運行具有高度的專業性和客觀程序性,具有很強的工具理性特征,但算法“是由人設計出來的,這本身就有可能具有偏見性和錯誤性。”42迪莉婭:《大數據算法決策的問責與對策研究》,載《現代情報》2020 年第6 期。事實上,“中立”與“偏見”的區別本身就存在著價值判斷的問題。因此,算法設計者很有可能有意或無意地把個人的偏見和歧視態度編進了程序,“也有可能數據本身就反映了相應的社會偏見。”43於興中:《算法社會與人的秉性》,載《中國法律評論》2018 年第2 期。由此,工具化和技術化的算法決策也難以保證每一次決策結果的公正性和與實質層面的價值理性相一致。“換句話說,算法自身的有用性、有效性常無法保證社會層面所認同的自由、平等、公平、公正等價值理性的達成。”44周劍銘:《算法理論與中國理性——現代儒學的科學發展觀》,https://cloud.tencent.com/developer/news/96622.“因此在公共事業領域,對于弱勢群體和邊緣群體,算法決策看似簡化了繁瑣的行政流程,但卻具有讓弱勢群體更加邊緣化的風險,從而發生‘數字貧民窟’效應。”45See Virginia Eubanks,Automating Inequality:How High-Tech Tools Profile,Eliminating Racial Inequity in the Criminal Justice System,St.Martin’s Press,2018.轉引自張欣:《從算法危機到算法信任:算法治理的多元方案和本土化路徑》,載《華東政法大學學報》2019 年第6 期。“算法帶來便利,也讓人警惕,它們從最冷靜、理性的角度分析我們的性格、洞察我們的喜好……它們還放大了偏見和歧視的威力。”46同前注⑥,第1 頁。如果算法應用產生的偏見和歧視性問題不能很好地解決,將算法應用于穩評,一方面,在算法設計中,哪些人將成為利益相關者、哪些事項構成風險信息,什么是常規、什么是意外等等,程序員將對所有這些因素做出決定,這些因素將嵌入難以更改的軟件代碼中,代碼是秘密的,很難被一般大眾所理解,很難被公眾質疑或糾正。因此,人類的固有偏見或者歧視在算法建模和系統訓練的過程中會被結構化,影響或者損害穩評需要的公眾平等參與的民主性,成為引發社會穩定風險的一個潛在源頭。例如,英國目前正在實施基于自動匹配算法的社會保障系統,目的是簡化社會保障支付系統的成本,提高效率。該系統因對獲得社會保障設置數字障礙導致歧視風險,可能會排斥數字識字率較低或無關聯性的個人。該系統的可訪問性以及風險評估的使用有可能影響到處于社會弱勢地位的人的人權生活的關鍵領域,如食品、住房和工作。47UN Special Rapporteur on Extreme Poverty and Human Rights,Philip Alston,'Statement on Visit to the United Kingdom' (n 16).預測分析也可用于兒童保護。48London Councils,Keeping Children Safer by Using Predictive Analytics in Social Care Management,https://www.londoncouncils.gov.uk/our-key-themes/our-projects/london-ventures/current-projects/childrens-safeguarding,2021-07-08.據報道,倫敦議會與私人供應商合作使用的一種工具,結合多個機構的數據,并應用風險評分來確定忽視或虐待的可能性。這引起了對隱私和數據保護的關注以及與家庭生活權和歧視有關的問題。49N McIntyre and D Pegg,Councils Use 377,000 People's Data in Efforts to Predict Child Abuse' (The Guardian,16 Sep-tember 2018),https://www.theguardian.com/society/2018/sep/16/ coun-cils-use-377000-peoples-data-in-efforts-to-predict-child-abuse,2021-07-08.另一方面,在穩評工作中,利益相關者在爭取自身利益的過程中,往往會將自己或被社會公眾貼上弱勢群體的標簽。相對于一般的社會公眾,這些正處于與政府博弈爭取利益的弱勢群體在權利受到侵犯或受到不平等的待遇時,很有可能會不自覺地歸咎于政府擬出臺的重大行政決策,在“新仇舊恨涌上心頭”的心理作用下產生過激反應,成為新的社會穩定風險點。例如,在“征地補償”決策的穩評中,依據算法決策結果進行的溝通協商可能會使大部分居民滿意補償標準,但如果基于設計上存在偏見的算法決策分配給這些人的安置房的位置不合理,很可能會滋生新的風險引發連鎖反應,使先前關于補償標準的協商成果付之東流。除此之外,大數據驅動算法的操作通常基于相關性和統計概率。算法分析大量數據,以確定特定輸入和特定輸出之間的關系,并在此基礎上進行預測。在這種情況下,更大的數據集提供了更大的樣本量,這有助于降低誤差幅度和更精確的模型。5030 E Benvenisti,Upholding Democracy Amid the Challenges of New Technology:What Role for the Law of Global Govern-ance? (2018) 29(1) EJIL 9,60.鑒于大數據驅動算法的這一特點,算法應用于穩評中還會產生這樣的問題:(1)穩評結論的得出可能基于群體層面的特征,而不是以個人為中心的特征——一種算法應用于穩評所暴露出的“隱形歧視”。也就是說,這些模型未能考慮到個人的能動性和個人選擇的相關性。由于特定于某個人的因素,某個特定的個人可能會以特定的方式采取行動;(2)決策通常基于相關性而非因果關系。這兩個問題是相互關聯的。它們表明,對未來可能行為的分析只在群體層面有效,而不是在個人層面有效,而且預測對特定個人將如何行動沒有決定性作用。51Lorna McGregor .International Human Rights Law as a Framework for Algorithmic Ac-countability,International and Comparative Law Quarterly/2019 -Volume 68/Issue 2,1 April/Articles/International Human Rights Law as a Framework for Algorithmic Accountability– International and Comparative Law Quarterly 68,2019 pp 309–343.這些特征表明,雖然算法可以用作包括穩評結論在內的決策依據,但它們不能為直接影響個人權利的決策提供唯一依據,某種形式的人工參與或監督是必要的。
算法可以被政府或企業用以日常管理從而影響公民權利,這一功能尤其表現在社交媒體算法上。社交媒體算法的目標“是獲得和保持用戶的數量,并且盡量提高用戶的參與度。所以,它收集社交媒體用戶數據,預測用戶的偏好進行推薦,而用戶對于推薦內容的刺激和反饋可以為下一步的推薦提供數據。”52張凌寒:《風險防范下算法的監管路徑研究》,載《交大法學》2018 年第4 期。依據用戶的點擊率和轉發率,算法可以實現社交媒體對用戶的新聞投放。如果說算法的新聞投放功能是一枚硬幣,硬幣的一面是:這一功能應用于穩評的“風險溝通”環節,可以根據利益相關者的個體情況和溝通需要,以新聞投放的形式將重大決策的內容、相關解釋和政府舉措、相關法律和政策等有助于“化解矛盾,維護穩定”的信息向利益相關者傳播,以增強他們對相關事項的正確認識,提高法律意識,避免做出過激行為。然而,硬幣的另一面是:在現實生活中,算法“推送標準是用戶的點擊率和轉發率而非新聞的真實性。因此頗具噱頭的假新聞被用戶高頻點擊或轉發,并進一步被算法推送而廣泛傳播。”53同上注。例如美國大選中發生假新聞事件引發了人們對如何進行監管算法的關注和憂慮。因為算法能夠主導和控制社交媒體的信息傳播,通過社交媒體平臺對公眾日常生活產生越來越大的影響,學者們擔心,“社交媒體的算法過度利用了用戶偏好數據推送信息,制造了信息‘過濾泡沫’,造成用戶接受的觀點越來越極端。”54同前注。思想是行為的先導,極端的思想必然可能產生極端的行為。穩評的重要目的是通過預先識別和消除社會穩定風險,避免利益相關者采取極端措施引發威脅社會穩定的事件。而在社會穩定風險防范中,影響社會穩定的負面信息的傳播也有可能通過算法使其向公眾的傳播力增強。此外,考慮到社會影響程度,算法未來會越來越多地應用于政府管理的諸多領域,政府在決策中使用算法會引起許多涉及個人權利和公共利益的問題,例如,在算法應用于社會福利、稅收制度、環境管理和監管等領域時,如何選擇個人進行稅務審計?哪些人得不到社會福利?哪些人需受到警察調查?通常,這是因為算法決策的結果。自動信用評分可以影響就業和住房權利;越來越多地使用算法來告知關于獲得社會保障的決定,這可能會影響公民的社會權利;使用算法協助識別處于危險中的兒童可能會影響家庭生活;用于批準或拒絕醫療干預的算法可能會影響健康權;而判決中使用的算法會影響公民的自由權。55Lorna McGregor .International Human Rights Law as a Framework for Algorithmic Ac-countability,International and Comparative Law Quarterly/2019 -Volume 68/Issue 2,1 April/Articles/International Human Rights Law as a Framework for Algorithmic Accountability– International and Comparative Law Quarterly 68,2019 pp 309–343.“政府和官僚機構使用數據庫、算法和大數據有可能嚴重出錯,給個人和人群帶來嚴重的負面后果。”56Dr Rónán Kennedy.Algorithms and the Rule of Law,Legal Information Management,2017 -Volume 17,Issue 3,1 September/Articles/Algorithms and the Rule of Law– Legal Information Management,17 (2017),pp.170.而每一次應用算法所作出的公共決策,都有引發社會穩定風險的可能。正如丹妮爾·濟慈·西特倫(Danielle Keats Citron)所言,這一發展——基于未知、難以捉摸且往往不可質疑的制度作出有關個人權利和權利的決定——對現代國家的法治提出了嚴重挑戰。57Danielle Keats Citron,Technological Due Process,(2008) 85 Washington University Law Review 1249.因此,如何加強對算法的有效監管,是信息時代算法應用法治化需應對的挑戰,也是社會穩定風險治理需要解決的重要問題。
算法搜集和分析的數據越多,讀懂人、改變人的生活和行為方式的概率就越大。在數字信息和通信技術,特別是大數據、機器學習工具和網絡設備已被政府部門、企業、個人廣泛采用的背景下,個人的數據不僅僅受到政府的監控,同時也受到企業的監控,并且,只要政府或企業愿意,他們的監控無遠弗屆。規制算力,保護數據主體的權利成為算法應用法治化的應有之意,對于算法應用于穩評也毫不例外。
在傳統依據小數據的穩評中,無論是由政府部門親自負責穩評還是將穩評委托于第三方評估機構,都難免會出現穩評結果唯長官意志的情況。算法具有工具理性,可以一定程度上避免傳統穩評中的人為操縱問題。在現實中,第三方穩評機構一般是專門的風險評估機構、律師事務所,雖然通過委托協議負有穩評的法律義務,但就算法設計使用而言,他們既無權也無資源收集廣泛的數據,更無法從事復雜的算法設計。網絡平臺企業雖然掌握著豐富的數據資源和算法設計技術,但他們并不負有維護公共利益的責任,也沒有義務為穩評設計算法。相對于第三方評估機構和網絡平臺企業,政府部門負有維護公共利益、安全和社會穩定的職責,掌握著行政權力和一定的數據資源,但卻不得不面對算法設計的技術難題,而且,“自己決策自己評估”也會面臨有違正當程序的輿論壓力。因此,解決算法應用于穩評的設計、使用主體問題,就要在考慮數據收集、算法設計技術難題和確保穩評結果客觀性的基礎上,充分利用三方的優勢和資源,構建相互間的法律關系。有學者認為,“基本公共服務(包括國防和治安)領域的公、私權力關系是未來法治需要解決的首要問題。以政府為主要規制和防范對象的現有公法體系需要考慮技術革新和權力結構變化所帶來的新問題,一方面將透明、公開、程序合法、說明理由等對公權力行使者的要求延伸到實際上行使著‘準公權力’的私人(包括企業和個人),使算法等技術化的監控和決策手段不再是無法被問責的‘黑箱’,另一方面延伸和調整傳統的公法概念體系(包括‘公共服務’)和規制手段,以應對現時代公私合作、公私共治的普遍現象。”58同前注。根據這一思路,可以考慮由政府部門與網絡平臺企業簽訂以維護公共利益為目的的行政協議的方式,將穩評的算法設計使用權通過協議委托網絡平臺企業,并施加必要的保密義務。同時,政府部門與第三方風險評估機構簽訂委托協議,由第三方實施穩評工作。基于網絡平臺企業并不精通穩評中涉及的法律和風險管理業務,可以要求網絡平臺企業與風險評估機構以協議的方式確立雙方的法律關系,由風險評估機構為網絡平臺企業提供算法設計所需的法律和風險管理專業知識,由網絡平臺企業設計算法,并將算法分析結果交于風險評估機構作公眾參與、專家論證、合法性審查等進一步分析,雙方根據自己在穩評中承擔的法律義務共同對穩評結果向政府承擔相應的法律責任。
算法的使用是一把“雙刃劍”,雖然可以提高穩評的準確性和效率,但是,如果算法設計和使用涉及的侵犯權利和損害公共利益等問題得不到解決,算法的使用可能會適得其反,甚至引發額外的社會穩定風險。隨著算法的廣泛使用,其應用于穩評是一種必然的趨勢。因此,除了規范數據收集、算法設計主體間的關系,必須在法治原則指引下,結合穩評工作的實際,規范算法內容設計,設計算法評估機制。
1.監管算法的內容設計
算法規制已經成為當今理論和實踐關注的熱點問題。當前關于算法設計的規制模式,以權利或義務主體為標準,主要有賦予數據主體權利的歐洲模式,實施行政機構和公共機構問責的美國模式,以及我國的賦權數據主體和為平臺施加義務的模式。59參見張欣:《從算法危機到算法信任:算法治理的多元方案和本土化路徑》,載《華東政法大學學報》2019 年第6 期。按照時間來分,包括以構建算法風險評估機制為代表的事先監管機制,將法律的價值和倫理融入算法設計的事中監管機制,和以建立算法問責制度為典型的事后監管機制。從規制階段上分,可以分為算法治理、數據治理和平臺治理。以監管內容為標準,分為將法律的價值和倫理融入算法設計、算法監管人、算法問責等。當然,無論采用何種監管模式和方式,算法的規范使用都將有利于算法在法治框架內應用于穩評。具體對穩評中的算法應用而言,由于網絡技術具有較強的專業性,而算法往往被認為是不應公開的商業秘密,應以風險防范為目的,對算法同時進行事先與事后監管,主體與技術監管。具體而言,對于屬于企業商業秘密的算法的監管方式的選擇,應當著重于避免行政機關介入算法的設計內容和運行的內部結構,避免行政機關主體陷入司法者并不了解的技術領域,為此,體現結果導向的事后責任追究是較為可取的規制方法。對于行政機關委托設計或可以向行政機關公開的算法的監管,可以考慮采取事先的算法風險評估和將法律的價值和倫理融入算法設計的事中監管方式。事實上,2021 年《個人信息保護法》第24 條的規定就體現了“事先與事后監管,主體與技術監管”的思路,該條規定,個人信息處理者利用個人信息進行自動化決策,應當保證決策的透明度和結果公平、公正,不得對個人在交易價格等交易條件上實行不合理的差別待遇。但遺憾地是,該條規定只明確對算法在“交易價格等交易條件上實行不合理的差別待遇”作了禁止性規定,范圍遠小于算法的適用范圍,為日后進一步完善留下了空間。
2.算法評估機制設計
1992 年《里約宣言》第15 條指出:“在嚴重的或不可逆轉的損害威脅存在的領域,缺乏充分的科學確定性不應成為暫緩采取有成本效益的措施來防止環境惡化的理由。”60United Nations Environment Programme (UNEP),Rio Declaration on Environment and Development,Principle 15.Rio deJaneiro,Brazil,June 14,1992.轉引自鄭戈:《算法的法律與法律的算法》,載《中國法律評論》2018 年第2 期。該條規定引申出一項重要的風險治理原則——“風險預防原則”(Precautionary Principle),根據該原則,如果一種新技術可能對社會產生負面影響,即便影響的效果上不確定,決策者也應當從預防可能的負面影響的目的出發制定預防風險的制度。對算法的設計和使用也應當具有風險防范意識,貫徹風險預防原則。吊詭地是,算法與風險的關系使得對算法危機的預防也要采取類似預防社會穩定風險的風險評估機制。這一制度已經成為《歐盟通用數據保護條例》第 35 條規定的“數據保護影響評估”(Data Protection Impact Assessment)制度,除歐盟外,世界主要國家去年以來均建立了算法評估的相關制度,評估已經在數據與算法治理框架中發揮著重要作用。2021 年《個人信息保護法》也建立了該項制度,第 55 條規定,有“利用個人信息進行自動化決策”等情形的,“個人信息處理者應當事前進行個人信息保護影響評估”。“算法評估制度目的是建立風險適應型的算法監管,使得監管嚴格程度基于算法可能造成損害的可能性以及損害的嚴重性,針對不同算法系統的關鍵模型構建不同監管體系。”61同前注⑧。面對算法所涉利益的廣泛性,有學者甚至提出算法設計部署者應提供“社會影響聲明”“歧視影響評估”,62Barocas Solon and Andrew Selbst.Big data's disparate impact.671.Calif.L.Rev.169 (2016).甚至“人類影響聲明”63Marc L.Roark,Human Impact Statements,54 WASHBURN L.J.649 (2015).等。算法評估的目的對于穩評中的算法規制十分必要。算法應用于穩評分別涉及風險信息分析和人工“風險溝通”兩個環節的工作,即,將實現風險信息數據化后進行算法分析,根據個體數據分析結果做出風險溝通方案。當然,如果重大行政決策的做出涉及數據分析,也會涉及算法應用問題。因此,算法應用于穩評對算法的風險評估包括重大行政決策算法風險評估、風險數據分析的算法評估和基于數據分析結果做出的風險溝通方案的算法風險評估。算法在穩評中的使用不僅關系穩評結論的準確性、風險溝通方案的科學性和有效性,也關系算法風險可能滋生或引發的社會穩定風險的預防。算法風險評估對于算法應用于穩評的意義,除了關注對個人隱私權、平等權的保護,更注重社會公共利益的維護。算法風險評估不僅是對傳統技術的影響評估,而且,由于算法應用于穩評相當于算法已經嵌入了政府、公共部門的決策環節,也是對政府、公共部門的權力的監督,具有算法法治化的重要意義。
3.算法應用與人工“風險溝通”相結合
當然,鑒于算法應用于穩評其固有的“隱形歧視”的操作特征,在穩評中應避免算法成為事實上唯一決策者的風險。美國威斯康星州最高法院最近一項關于在判決中使用算法風險評估的判決強調了這一點。在“威斯康星州訴Eric L.Loomis”一案中,法院必須評估使用算法風險評估工具確定被告是否可以在社區內接受監督而不是拘留是否侵犯了被告的正當程序權利。64State of Wisconsin v Eric L.Loomis (n 42) para 7.法院認為,“風險評分旨在預測那些有類似犯罪史的人在獲釋后再次犯罪的可能性較小或更大。然而,COMPAS 風險評估并未預測個別罪犯再次犯罪的具體可能性。相反,它提供了一個基于個人信息與類似數據組的比較的預測。”65Ibid.因此,為確保穩評結果的科學性和參考價值,算法應用于穩評的過程應注重大數據分析與人工“風險溝通”的有效結合。如在形成穩評報告環節,應對基于算法分析的結論擬采取的防范措施的有效性進行評估。為彌補算法工具理性的不足,評估時應返回到征求意見環節,聽取相關部門、專家和專業機構的看法,發揮人的主觀能動性,通過直接和間接溝通了解利益相關方對這些措施的潛在行為反應;評估后應再返回形成報告環節進行校正和完善。66顧嚴、張本波主編:《重大決策穩評研究》,人民出版社2018 年版,第29 頁。
算法在當代社會越來越重要的原因是它們的變革潛力。例如,計算能力的進步意味著現代算法可以執行超出人類能力和速度的復雜任務,自我學習以提高性能,并進行復雜分析以預測未來可能的結果。這意味著算法在各個領域的應用成為一種不可逆的趨勢。重大決策穩評的核心是通過分析社會穩定風險信息,評估社會穩定風險狀況,提出動態建構社會穩定狀態的方案,為重大行政決策提供參考。顯然,在風險信息分析和風險溝通環節,作為數據處理工具的算法可以發揮作用。然而,和其它領域一樣,算法應用于穩評中也不可避免地面臨數據收集和算法設計、使用面臨的法律問題。算法在提高了穩評效率的和準確性的同時,也增加了預防算法危機的制度成本。同時,諸如“隱形歧視”的操作特征使得算法應用于穩評并不能將算法的評估決策作為唯一依據,人工“風險溝通”仍要發揮其特有的作用。雖然為了風險評估使用算法卻又要對算法進行風險評估的邏輯看似多余,但這正是算法在當代社會作為一股變革潛力的具體體現,顯示出算法應用于穩評的一個新特點。