任 穎
(廣東外語外貿大學法學院,廣東廣州 510420)
網絡空間是算法決策的維度。算法、數據、信息是網絡空間的三個支柱。算法是內在的運行指令,數據是外化的表現形式,信息是數據承載的內容。隨著網絡安全法、數據安全法、個人信息保護法出臺,算法是否應當單獨立法成為重要議題。習近平總書記強調,數字技術“給人類生產生活帶來廣泛而深刻的影響”,要防范“新技術帶來的風險”。〔1〕夏學平等:《加強數字化發展治理推進數字中國建設》,載《人民日報》2022 年2 月15 日,第7 版。《“十四五”國家信息化規劃》提出,要“建設技術規則治理體系”“開展技術算法規制”,推進算法“安全評估審查”“標準制定”“倫理論證”。〔2〕《“十四五”國家信息化規劃》,http://www.cac.gov.cn/2021-12/27/c_1642205314518676.htm,2022 年1 月12 日訪問。算法立法研究具有必要性和緊迫性。
算法亂象的本質,是違法行為從顯性向更具隱蔽性維度的遷移。例如,平臺不明確要求“二選一”,但通過改變算法,降低在多平臺同時運營商家的交易機會;通過算法設置,進行隱私入侵、深度挖掘商機。算法立法究竟向何處去,如何有效地對于具有隱蔽性的算法進行規制,成為算法治理的重要議題。
合并立法與單獨立法是兩種不同的立法體例。其核心區分在于立法目標是否具有可拆分性、調整對象是否具有差異性。合并立法是基于立法目標的共通性,在同一部法律當中對不同的調整對象作出規定。單獨立法方式將立法目標拆分成更為細化的子目標,并區分不同的調整對象,進行專項立法。算法規制的立法方式是合并立法,即通過個人信息保護法等展開算法規制,還是單獨立法,即制定算法專項法,成為算法立法面臨的主要問題。
從立法目標上看,算法立法與數據信息立法的目標并不完全相同。算法、數據、信息具有不同的特征。算法是“自動完成某項任務或解決特定問題的指令集合”。〔3〕[西]弗朗西斯科·帕勞等:《指數型組織實施手冊》,黃靜譯,浙江人民出版社2019 年版,第40 頁。其是“用一步一步的程序來解決某一給定的任務的方法”,“也是對計算機發出的解決這一問題的指令”。〔4〕[美]米歇爾·劉易斯·伯克等主編:《社會科學研究方法百科全書》(第1 卷),沈崇麟等譯,重慶大學出版社2017 年版,第11-12 頁。網絡空間中的數據、信息狀況,受到算法運行的制約。相對于數據與信息,算法更具有隱蔽性特征。算法立法、數據安全法、個人信息保護法,分別針對潛在運行的算法、計算機數據載體、外化的個人信息展開規制,防范算法濫用、數據風險、信息泄露,確保算法應用行為、數據開發利用行為、個人信息收集處理行為的規范合理,在立法目標上具有可拆分性。
從調整對象上看,數據信息立法難以完整涵蓋算法法律關系的調整內容。算法法律關系包括算法服務提供者與相對人之間的合同法律關系,行政機關與算法服務提供者之間的行政管理法律關系,應用算法的多個平臺、企業、算法研發人與算法應用人之間的競爭法律關系。數據安全法主要調整數據開發利用主體與政府、國家之間的法律關系。作為國家安全的組成部分,數據安全法是應對數據風險與“數據霸權”,維護國家數據主權的重要依據。〔5〕參見張影強:《全球網絡空間治理體系與中國方案》,中國經濟出版社2017 年版,第144 頁。個人信息保護法調整信息主體與信息收集、處理、加工、存儲行為人之間的關系。算法立法、數據安全法、個人信息保護法的調整對象存在差異。
算法立法的權利設定具有獨特性。與數據安全法、個人信息保護法分別對數據主權、個人信息自決權進行保護不同。算法立法需要通過申辯權、標簽刪除權、算法解釋權、備案及評估信息公開請求權等程序性權利,〔6〕參見李曉輝:《算法商業秘密與算法正義》,載《比較法研究》2021 年第3 期。以及備案審查、禁用、責令整改等權力設定,賦予“個人享有抵御算法歧視的權利”。〔7〕季衛東:《數據保護權的多維視角》,載《政治與法律》2021 年第10 期。通過前置性的權利設置,防范隱私權、名譽權、自由權、自主選擇權、公平交易權、信息網絡傳播權、勞動權益等實體性權利損害。算法領域的損害認定,“不同于傳統物理社會的權利或法益侵害”。〔8〕王瑩:《算法侵害責任框架芻議》,載《中國法學》2022 年第3 期。從狹義上講,算法立法所針對的算法侵害主要是指算法妨害,即危害算法秩序但未造成實體權利損害的行為,如算法標簽、算法歸化、算法操縱、算法黑箱、算法偏見等。對于造成隱私權等具體權利侵害結果的算法損害,則可依據民法、消費者權益保護法、勞動法、知識產權法進行責任認定。
算法立法的本質是數字社會治理的關口前移,針對算法妨害設置前置性審查權力與程序性權利,通過個體賦權與公共權力的結合,在數據、信息、數字行動自由權未受到實質侵害之前,設置關卡,避免損害發生。例如,通過備案審查、禁用、責令整改等權力規定,避免算法濫用;通過申辯權設置,防范算法篩查與凍結賬戶給用戶財產權造成損害;通過標簽刪除權設置,避免算法歧視與算法操縱對名譽權、平等權、自主選擇權造成侵害;通過算法解釋、備案及評估信息公開請求權設置,應對算法黑箱問題。也有立法例設置拒絕權或反對權,如歐盟《通用數據保護條例》規定數據主體有權反對自動化決策。不過用戶有權選擇使用或不用算法服務,實際上屬于自主選擇權的內容,無須再新設權利。
算法單獨立法已成為發展的必然趨勢。技術越發展、應用程度越深,對于立法的專門性要求就越高。世界范圍內的算法專項立法文本相繼公布,美國《算法問責法》(Algorithmic Accountability Act)、《算法正義和互聯網平臺透明度法案》(Algorithmic Justice and Online Platform Transparency Act)、歐盟《算法問責及透明度監管框架》(A governance framework for algorithmic accountability and transparency )、《新西蘭算法章程》(Algorithm charter for Aotearoa New Zealand),從價值與概念、原則與基礎、評估與影響、透明與合作、行業標準、人權保障、算法治理的全球維度、算法決策問責制度等出發,對算法規制問題作出專門規定。算法、數據、信息立法的目的、對象、內容各不相同。算法規制的單獨立法亟待得到推進。
技術規制的本質是以技術治理技術,社會規制的本質是以價值約束行為。技術規制和社會規制共同構成技術規則治理的主要內容。技術規制以工具理性為導向,通過限制、禁止特定技術研發,對技術本身進行規制和約束。社會規制以價值理性為目標,通過價值判斷,約束主體的社會行為,調整相應的社會關系,應對“由于外部性和信息不對稱所引發的各種問題”。〔9〕杜振華:《公共經濟學》,對外經濟貿易大學出版社2010 年版,第149 頁。馬克斯·韋伯(Max Weber)在《經濟與社會》(Economy and Society)第一章中對工具理性、價值理性進行了分析,指出工具理性是“實現自身的理性追求和特定目標”的手段、方式,價值理性是“包含在特定行為方式中的無條件的內在價值”與正當性標準。〔10〕[德]馬克斯·韋伯:《經濟與社會》(第1 卷),閻克文譯,上海人民出版社2010 年版,第114 頁。算法規制的目標不在于手段方式、工具理性,而在于正當標準和價值理性。“技術中立性原則是公共規制的一項重要原則”,算法立法應當秉持“技術中立的立場來應對新科技發展”,“允許多種技術并行發展”,形成“競爭有序、科技中立的環境”。〔11〕唐子才等:《互聯網規制理論與實踐》,北京郵電大學出版社2008 年版,第46 頁。
算法立法的本質不是對技術本身的規制,而是在傳統領域數字化改造過程中,避免算法運行對已有價值或秩序造成損害,保障算法決策下的競爭機制公平、用戶權益保護、公共秩序維護。數字化發展的本質是傳統產業與數字技術的有機結合,通過“數字化改造”,〔12〕李兆延等主編:《云計算導論》,航空工業出版社2020 年版,第143 頁。實現產業轉型升級。作為數字法學的組成部分,算法是數字化改造的動力系統。作為對傳統領域進行數字化改造的驅動力,算法技術創新直接影響數字經濟的發展狀況。算法立法的目的不是“念技術的緊箍咒”,〔13〕郭志等:《世紀末的聚焦——信息時代的文明變遷》,甘肅科學技術出版社1998 年版,第180 頁。而是大力促進算法技術創新,同時防止算法技術因不當使用而弱化“算力”。算力是數字社會的生產力基礎,是網絡空間算法運行、數據分析、信息處理的能力。〔14〕王曉云等:《算力時代:一場新的產業革命》,中信出版社2022 年版,第1 頁。激勵算法技術發展,提升算力,是算法立法的核心目標。算法立法不是對算法技術的規制和約束,而是“通過法律的社會控制”,〔15〕[美]龐德:《通過法律的社會控制:法律的任務》,沈宗靈、董世忠譯,商務印書館1984 年版,第1 頁。對算法相關社會關系進行規約,確保算法運行有序,促進算力穩步提升。“規制的核心問題不是算法”,〔16〕[美]杰克·巴爾金:《算法社會中的三大法則》,劉穎、陳瑤瑤譯,載《法治現代化研究》2021 年第2 期。規制本身亦不是終極的目的。解放和發展生產力,防止算法脫離社會控制而影響算力,是算法規制的根本目的。
算法規制針對的是算法亂象,而非算法技術。算法技術與算法亂象并不能夠等同。算法技術既可能帶來好的影響,極大提升算力,也可能產生壞的作用,制約算力發展。例如,算法推薦能夠節省用戶查找特定信息的時間,但也可能因“過濾泡沫”(Filter Bubble)導致“信息繭房”“回音室效應”;〔17〕[英]喬恩·德龍等:《集群教學——學習與社交媒體》,劉黛琳等譯,國家開放大學出版社2018 年版,第371 頁。個性化定價算法可用于推出價格優惠等措施,也可被用于“大數據殺熟”;算法決策能夠極大地提升網絡空間運行效率,但也可能引發“算法歧視”、隱性干預競爭、批量精準侵權;“排序精選類算法”能夠幫助用戶識別良莠,但也可能出現操縱榜單、虛假點贊;路徑規劃算法能夠在導航時計算出通勤的最佳方案,但也可能導致隱私侵權;打車、外賣等生活服務軟件中的調度算法,可以實現經營者與消費者、供應端與需求端的快速匹配,但也可能出現不當訂單分發、限制勞動者收入、不合理調度等現象。算法技術與算法亂象分別根據“算法的技術目標與社會目標”進行評價。〔18〕張吉豫:《構建多元共治的算法治理體系》,載《法律科學(西北政法大學學報)》2022 年第1 期。從技術目標的角度看,只需滿足有窮性、確切性、輸入與輸出項、可行性特征,即符合算法技術的基礎性要求。從社會目標的角度看,算法如果不僅以代碼化、“自然性的模型”存在,〔19〕張藝超等:《少樣本學習》,載《云南民族大學學報(自然科學版)》2020 年第6 期。而且以社會連接的形式應用到市場經營、社會生活當中,還須符合社會倫理規則與法律規定的要求。技術本身是中立的,但技術的使用則具有非中立性特征。算法的社會化應用帶有平臺、企業、機構等使用主體的價值判斷。算法亂象就是違法或不當使用算法技術的結果。除已經披露的現象之外,冰山之下潛在的、隱性的算法亂象亦需引起高度重視。作為計算最佳策略的重要工具,算法社會化應用過程中的價值立足點,究竟是經營者角度的最佳策略,還是消費者角度的最佳策略,會帶來截然不同的效果。算法規制的立法屬性,應當是社會規制,通過價值約束“技術非中立性使用”。〔20〕陳兵:《互聯網屏蔽行為的反不正當競爭法規制》,載《法學》2021 年第6 期。
算法立法面臨“算法倫理”要求與合法權益保護的矛盾。“算法倫理”主要包括公開透明、公平公正、安全可控。以算法公平,防范“算法歧視”;以算法透明,應對“算法黑箱”;以算法安全,防止“算法風險”。在實踐中,“算法公正、智能正義、制度公平”“規則公平、權利公平、機會公平”的實現,面臨“算法技術秘密與信息公開”“產權保護”與“社會福祉”“激勵創新”與加強規制之間的沖突。〔21〕張文顯:《構建智能社會的法律秩序》,載《東方法學》2020 年第5 期。
第一,“算法公開透明”與知識產權保護的沖突。通過“存檔數據和公開源代碼”“向社會公開參數”“向主管部門報備參數”,滿足“算法自動化決策的透明度要求”,〔22〕汪慶華:《算法透明的多重維度和算法問責》,載《比較法研究》2020 年第6 期。可能削弱甚至損害知識產權及商業秘密。根據《民法典》第123 條的規定,知識產權的客體包括作品、發明、商標、商業秘密、植物新品種等。算法具有“可專利性”。〔23〕王翀:《人工智能算法可專利性研究》,載《政治與法律》2020 年第11 期。“算法由代碼序列構成。”〔24〕魏斌:《智慧司法的法理反思與應對》,載《政治與法律》2021 年第8 期。算法代碼貫穿“身份識別、數字簽名”“技術程序以及傳輸協議”的全過程。〔25〕許可:《馴服算法:算法治理的歷史展開與當代體系》,載《華東政法大學學報》2022 年第1 期。算法應用人基于對算法模型的選擇、權重、序列設置,而享有商業秘密、經濟權益。在實踐當中,算法公開面臨三個方面的問題:一是實施算法技術代碼備案可能導致知識產權侵權,并且,現有人力物力配備較難支撐對算法技術進行實質性審查;二是純粹的形式審查可能導致算法備案程序在實踐中的空置;三是引入第三方評估的次生安全隱患,評估過程可能發生商業秘密泄露。〔26〕參見梁志文:《論算法排他權:破除算法偏見的路徑選擇》,載《政治與法律》2020 年第8 期。
第二,“算法公平公正”與隱私權和自由權保護的矛盾。算法公平公正以保障公共利益為出發點,隱私權和自由權立足于私益保護,兩者之間的矛盾實質是公益與私益之間辯證關系的體現。在公共決策領域,“算法應用的正當性”以公共安全與公平公正為標準。〔27〕洪丹娜:《算法歧視的憲法價值調適:基于人的尊嚴》,載《政治與法律》2020 年第8 期。算法在自動識別逃犯、維護公共秩序、展開社保救助、配置教育資源等領域的應用,極大地提升了公共管理的效率。但效率提升的基礎是對于公眾數據信息的大范圍收集、分析,對于人們工作、生活、娛樂領域的大范圍監控、排查,在一些國家甚至出現了基于犯罪風險計算而進行的預測性執法。“公平機器學習”“公平合成數據”等“合理算法”標準的秩序要求,〔28〕蘇宇:《算法規制的譜系》,載《中國法學》2020 年第3 期。在提升算法決策的效率的同時,〔29〕參見[美]托馬斯·科爾曼等:《算法導論》(第2 版),高等教育出版社2002 年版,第9 頁。也面臨正當性隱憂,出現“技術過度侵犯個人隱私”等問題。〔30〕單勇:《犯罪之技術治理的價值權衡:以數據正義為視角》,載《法制與社會發展》2020 年第5 期。即便是“身份中立為目標的反算法歧視”,也面臨“信息與統計理論的質疑”“正義理論與倫理價值的質疑”。〔31〕丁曉東:《論算法的法律規制》,載《中國社會科學》2020 年第12 期。在保證算法“模型部署后的公平性”,〔32〕張欣:《算法行政的架構原理、本質特征與法治化路徑:兼論〈個人信息保護法(草案)〉》,載《經貿法律評論》2021 年第1 期。如何為算法應用行為人設定嚴格的義務和責任,解決“算法公平公正”與隱私權和自由權保護的矛盾,仍面臨諸多問題。
第三,“算法安全可控”與科技研發自主權之間的矛盾。這是約束與激勵的矛盾在算法領域的表現。“算法安全可控”“算法侵害防治”“人工干預權”設置,〔33〕王瑩:《算法侵害類型化研究與法律應對——以〈個人信息保護法〉為基點的算法規制擴展構想》,載《法制與社會發展》2021 年第6 期。以約束為導向,為算法劃定邊界。“科技研發自主權”以激勵為導向,鼓勵大膽探索、“敢冒風險、容忍失敗”。〔34〕萬勁波:《切實保障創新主體的科技研發自主權》,載《學習時報》2019 年4 月3 日,第6 版。約束與激勵之間、防控風險與“敢冒風險”之間存在一定的沖突。人類與機器之間的交互作用,模糊了“控制者與受控者之間的界限”。〔35〕[英]漢娜·弗萊:《算法統治世界》,李英松譯,貴州人民出版社2021 年版,第2 頁。“算法安全可控”成為防范算法風險的必然要求,但也給科技研發自主權利的行使帶來了一定程度的影響。在“算法治理”(algocracy)過程中,“科技創新與風險控制”之間的矛盾如何解決,“科技與監管關系”如何協調,〔36〕[英]凱倫·楊等主編:《馴服算法》,林少偉、唐林垚譯,上海人民出版社2020 版,第4 頁。“算法發展”與“算法安全”如何平衡,〔37〕許可:《算法規制體系的中國建構與理論反思》,載《法律科學(西北政法大學學報)》2022 年第1 期。“監管目標多元平衡”如何實現,〔38〕張欣:《算法影響評估制度的構建機理與中國方案》,載《法商研究》2021 年第2 期。是算法立法必須解決的問題。“算法安全可控”強調通過加強規制,確保技術可控性,防范技術風險。但在實踐中,應當防范的是技術應用風險,而非研發創新風險。以自主創新激勵為導向,技術研發過程不應受到不當干預。“算法安全可控”價值目標,不能機械化地嵌入市場運營領域,而要通過深層次矛盾的化解,實現外部效應的內化。
算法立法的重心在于保障“公眾的算法主體地位”,防止“自主性消解”“認知性裹挾”“權利依附性”,〔39〕張愛軍等:《算法權力及其國家能力形塑的主體透視》,載《學術月刊》2021 年第12 期。避免算法成為“透視控制”“牟利算計”“工具主宰”。〔40〕馬長山:《數字法學的理論表達》,載《中國法學》2022 年第3 期。算法立法的調整對象、權利內容、規制目的與其他法律不同。算法規制的立法對象應當是算法應用而非研發行為。算法立法應當兼顧“算法倫理”要求與合法權益保護,推動利益衡量與價值平衡。
算法、數據、信息、網絡密不可分,數據安全法、個人信息保護法、網絡安全法、電子商務法的相關條款能夠為算法規制提供依據。算法立法必然與已有立法相聯系,聚合數據信息立法、電子商務法等多項法律價值。《個人信息保護法》第24 條規定,涉及個人信息利用的自動化決策,應當透明、公平、公正,禁止設置不合理差別待遇;第55 條規定,利用個人信息進行自動化決策的,信息處理者應當進行個人信息保護影響評估;第73 條指出,自動化決策是以計算機程序對個人特征的分析為基礎進行的決策活動。《數據安全法》第8 條規定,數據處理活動要符合倫理要求。《網絡安全法》 第10 條規定,通過網絡提供服務應當采取必要措施,保障網絡安全;第12 條規定,網絡使用行為應當遵守憲法法律和社會公德,不得危害國家安全、網絡安全、經濟秩序、社會秩序,不得侵害他人合法權益。《電子商務法》第5 條規定,電子商務經營者應當遵守法律和商業道德,履行保護用戶權益、知識產權、生態環境的義務;第18 條規定,電子商務經營者根據消費傾向等特征進行個性化推薦的,應當同時提供不針對個人消費特征的選項,保障用戶的自主選擇權;第22 條規定,電子商務經營者不得實施濫用市場支配地位損害競爭秩序的行為。網絡算法運行不得違反數據安全法、個人信息保護法、網絡安全法、電子商務法的規定。這些已有的立法以“外接形態”,為算法“單獨立法預留連接‘動線’”。〔41〕趙紅梅:《私法社會化的反思與批判——社會法學的視角》,載《中國法學》2008 年第6 期。
不過,通過已有立法進行算法規制并不具有周延性。第一,算法立法與個人信息保護法的權利內容不同。算法立法的標簽刪除權、算法解釋權等前置性權利,以及算法備案審查、禁用等權力設定,并不能夠被個人信息自決權完全涵蓋。算法立法的用戶標簽刪除權與個人信息自決權中的刪除權并不相同。標簽刪除權的設置針對的是算法匹配行為,個人信息刪除權針對的是信息收集、處理行為。用戶標簽刪除權的刪除對象是算法匹配過程中,為用戶設定的興趣偏好標簽;行使個人信息刪除權刪除的是違規收集、處理的信息本身。算法立法中的算法解釋權與個人信息保護法的知情同意權也不相同。“算法解釋權的性質”是“程序性權利”。〔42〕丁曉東:《基于信任的自動化決策:算法解釋權的原理反思與制度重構》,載《中國法學》2022 年第1 期。知情同意權由知情權和同意權兩個部分組成,是實體性權利和程序性權利的復合體。算法解釋權針對的是算法規則本身,知情同意權針對的是信息收集、處理過程。算法解釋權與個人信息保護法的解釋說明權不同,前者要求平臺、企業、機構積極主動履行解釋義務,后者則屬于依申請進行的解釋類型。第二,算法立法與數據安全法、電子商務法的規制對象不同。算法立法規制的是算法應用行為,數據安全法的規制對象是數據處理行為,電子商務法規制的是利用互聯網實施的經營行為。《數據安全法》第2 條規定,本法適用于境內的數據處理活動,以及對本國的國家利益、公共利益、個人利益造成損害的境外數據處理活動。《電子商務法》 第2 條規定,本法適用于境內通過信息網絡銷售商品或提供服務的經營行為,但不包括提供新聞、出版、文化產品、金融產品或服務的行為。第三,算法立法與網絡安全法的規制目的不同。算法立法的目標是實現算法應用的規范化,網絡安全法的宗旨是維護計算機信息系統安全。《網絡安全法》第1 條規定,本法的立法目的是維護網絡空間主權,保障網絡安全。2022 年,《網絡安全審查辦法》正式施行,其第1 條規定,網絡安全審查制度設置,以保障網絡安全、關鍵信息基礎設施供應鏈安全、數據安全為目標。在把握算法立法與數據信息等立法的異同基礎上,還需處理算法立法與已有法律制度的銜接問題,確保算法制度設計能夠在實踐中真正落實。
算法規制的本質,是通過“對算法應用的法律監管”,〔43〕鄭玉雙:《計算正義:算法與法律之關系的法理建構》,載《政治與法律》2021 年第11 期。設置算法應用行為人的義務和責任,支撐和保障用戶權利、管理權力的實現。以算法立法的社會規制屬性為基礎,算法規制的立法對象應當是應用行為而非研發行為。
從技術屬性角度看,算法研發涵蓋算法規劃、算法設計、算法召回、算法評估,算法應用包括算法匹配、算法推薦、算法決策、算法篩查。每一項算法行為可能是多種算法技術應用的組合,多個平臺、企業、產品也可能應用同一套算法技術系統。例如,算法篩查行為應用了監督學習算法、協同過濾算法等;網絡爬蟲應用了深度優先算法、寬度優先算法等;數據挖掘應用了聚類算法、遞推算法、迭代算法、關聯算法、最大期望算法、分類回歸樹算法等。在算法應用過程中,還可以在不改變算法技術的情況下,對模型架構、權重、組合進行調整,以滿足不同類型的產品開發和業務拓展需求。單項嚴查一種算法技術研發,無法達到防范算法社會應用風險的目的。只有通過對算法應用行為的社會規制,才能夠把控輸出端效果的正向性,“確保算法應用向上向善”。〔44〕張天培:《確保算法應用向上向善》,載《人民日報》2022 年5 月5 日,第19 版。
從社會屬性角度看,算法法律關系的核心內容不是算法研發者與用戶之間的關系,而是算法應用人與相對人、行政機關、其他經營者之間的關系。在算法法律關系中,實際發生法律效果的行為是算法應用行為,而非技術研發行為。與此同時,算法研發人與算法應用人之間的關系,與生產商和銷售商之間的關系并不相同。生產商和銷售商之所以承擔共同責任,是由于銷售商原封不動地在銷售生產商產出的商品,而沒有進行再次加工和處理。應用算法的平臺、企業、機構會將不同的算法排列組合,并動態調整相應的權重,以滿足新聞推送、電商銷售、流量打榜等不同場景下的應用需求。這種再次處理行為在客觀上阻斷了算法研發人員的責任。
從立法原理角度看,針對算法研發行為的規制并不具備正當性基礎。根據受益者負擔原則,“利之所在,損之所歸”。〔45〕郭紅巖:《跨界損害損失分擔基本理論問題研究》,中國政法大學出版社2013 年版,第200 頁。應用算法的平臺、企業是實際的受益者,因而也應當是算法責任的承擔者。《關于加強互聯網信息服務算法綜合治理的指導意見》確立了“管理好使用好發展好算法應用”總體目標;其第二部分“健全算法安全治理機制”強調企業“對算法應用產生的結果負主體責任”;其第三部分“構建算法安全監管體系”提出評估算法“應用環節的缺陷和漏洞”“推進監管模式與算法技術協同發展”;其第四部分“促進算法生態規范發展”指出要“提升算法創新能力”,促進“算法研發”“規范企業算法應用行為”“防范算法濫用風險”。〔46〕《關于印發〈關于加強互聯網信息服務算法綜合治理的指導意見〉的通知》,http://www.gov.cn/zhengce/zhengceku/2021-09/30/content_5640398.htm,2022 年1 月2 日訪問。《上海市網絡交易平臺網絡營銷活動算法應用指引(試行)》第2 條至第3 條指出,該規定適用于網絡交易平臺經營者“應用算法技術實施各類自動化決策”的活動。針對算法應用行為實施規制,已成為立法共識。
從立法可行性角度看,算法評估是對算法應用狀況的評價,而非對技術研發過程的拆解。如果針對算法研發人的主觀惡意或客觀行為展開立法,極易導致立法虛設、制度空置。立法不能基于推定算法技術研發過程而作出肯定性或否定性評價,而應當將算法應用的實際狀況作為評判的標準。從立法效果角度看,把握住算法應用端口,確保其產出有利于權益保護與社會發展,在客觀上能夠防范算法“創建者的偏見和不良動機”引發的損害。〔47〕謝鴻飛:《個人信息處理者對信息侵權下游損害的侵權責任》,載《法律適用》2022 年第1 期。從規制路徑上看,算法立法的重心,不是也不應是對于算法技術研發人員的規制,而是通過嚴格監管算法應用行為,遏制算法市場亂象。算法市場環境的正向和良性,又能夠倒逼算法研發優化、算法應用升級、算法運行公信力提升,從而形成算法健康有序發展的良性循環。把握算法應用市場是從源頭上避免算法亂象的根本所在,也是算法立法的任務。
算法規制的立法原則,是以利益衡量、個案調和、價值平衡,引導算法規制正當程序的確立。“算法權力”的行使,需要滿足“程序正義”的要求,〔48〕陳景輝:《算法的法律性質:言論、商業秘密還是正當程序?》,載《比較法研究》2020 年第2 期。實現“算法倫理”的價值調和。“算法倫理”源于“數字人權”,〔49〕劉志強:《論“數字人權”不構成第四代人權》,載《法學研究》2021 年第1 期。但算法立法不能停留于抽象的公開、正義、安全價值,而要落實到具體的算法應用正當程序設計,推動“算法倫理”與合法權益保護的協調。
第一,算法公開的程序設置,應引入利益衡量機制,協調算法應用人與相對人的利益保護。在立法過程中,“利益衡量機制”以“立法的民主化、科學化指標”為指引,解決權利沖突。在執法過程中,“利益衡量機制”以“做出正當、合理的行政決定”為目標,“矯正失衡的利益關系”。〔50〕楊臨宏等:《行政法學新領域問題研究》,云南大學出版社2006 年版,第18 頁。算法公開程序的立法規定,需要平衡消費者知情權與算法知識產權保護的關系,實現立法的科學化。在主體方面,算法公開、解釋、備案、評估均應由算法應用行為人負責,而不應在算法研發環節設置公開義務。在內容方面,算法公開不應包括源代碼公開,而應通過算法規則公開、“算法邏輯說明”,〔51〕韓旭至:《個人信息保護中告知同意的困境與出路——兼論〈個人信息保護法(草案)〉相關條款》,載《經貿法律評論》2021 年第1 期。披露“技術黑箱”“裁判機制”“運作原理”“預期效果”,〔52〕唐林垚:《人工智能時代的算法規制:責任分層與義務合規》,載《現代法學》2020 年第1 期。并向社會公開算法備案信息、算法評估情況。從技術原理的可理解性角度看,由于平臺、企業、機構綜合運用多種算法開展活動,算法應用人的義務不是備案或披露每一項算法技術,而是公開平臺應用的算法規則,讓公眾知悉其使用相關平臺或程序可能帶來什么影響,及時采取措施避免不利影響的出現。算法公開的執法程序,需要將利益衡量設置為必經程序,并區分向行政機關申報的有限公開和向社會公開披露兩種情形,分類細化算法公開操作規程,制定第三方算法評估實施辦法,防止次生安全隱患的發生。算法公開應當形成具體、細化的操作規程,平衡算法倫理與商業秘密、算法應用與權益保護之間的關系。
第二,算法公平的程序評價,應當兼采“行為論”與“結果論”,建立算法公益與私益保護的個案調和機制。在促進算法公平實現的過程中,對于個體損害結果的彌補和救濟往往被視為立法的首要目標,但算法立法的重中之重實際上是對于算法應用行為的控制,形成良好的算法公共秩序。“法律行為論”以把握行為規律、預測行為方式、控制行為走向為核心,為算法公平地實現提供支撐。〔53〕參見呂世倫主編:《現代西方法學流派(下卷)》,黑龍江美術出版社2018 年版,第161 頁。在具體案件中,“算法不公平和不公正”可能由單一行為引起,〔54〕上海社會科學院智庫研究中心:《思想的版圖》,上海人民出版社2020 年版,第192 頁。也可能是多個行為綜合作用的結果,例如“算法共謀”是由算法決策行為引發的;“大數據殺熟”是算法匹配、算法決策、算法推薦行為共同作用的結果。以實現個案調和為導向,算法公平的程序評價,不應僅關注“結果論”,更須兼顧“行為論”的要求。對多行為疊加產生損害的情形,可適用更為嚴厲的處罰。以“行為論”與“結果論”相結合為標準,針對算法應用的具體情形,建立個案調和“場景化的衡量機制”,實現算法公共決策與私益保護有機協調。〔55〕參見張欣:《算法解釋權與算法治理路徑研究》,載《中外法學》2019 年第6 期。
第三,算法可控的程序要求,需要實現約束與激勵、秩序與自由的價值平衡,從“面狀”的粗放型規制轉變為“點狀”的精準化規制。在預設算法評估程序展開約束和規制的過程中,要注意防范事前評估對新技術的過度規制;在對算法決策進行介入和監管的過程中,不能改變自動化決策處理指令、產生輸出、“瞬間即作出決定”的效能屬性;〔56〕參見劉東亮:《技術性正當程序:人工智能時代程序法和算法的雙重變奏》,載《比較法研究》2020 年第5 期。在設定前置性、程序性義務時,不能忽視算法應用行為人的抗辯權保護,不能對合法合理應用算法的行為進行不當干預。〔57〕See KarniChagal-Feferkorn,The Reasonable Algorithm,1University of Illinois Journal of Law,Technology &Policy,111(2018).算法立法價值平衡的實現落腳于具體的權利和義務設置。算法研發人享有充分的科技研發自主權。算法應用行為人負有提供申辯渠道、明確申辯流程、反饋申辯結果的義務,同時有權對違反平臺規定的賬號做出封禁、降權等處理;算法服務提供者應當顯化用戶標簽,為用戶提供標簽刪除選項,但有權自主經營更為精準、科學、合理的標簽選項;應用算法的平臺、企業、機構應當履行備案義務,但有權拒絕許可式備案要求。算法立法應當通過完整、均衡、細化的權利和義務規定,推動算法秩序與自主權利之間的價值平衡。
算法規制的立法路徑選擇面臨諸多挑戰。算法立法不僅要防止算法應用對消費者權益等傳統法益的損害,而且要應對誘導沉迷等新興領域的“算法‘馴化’”問題。〔58〕梁姊:《年輕人對抗算法“馴化”》,載《文摘報》2022 年1 月12 日,第2 版。算法立法的難點,在于運用外在的法律判斷去規制隱性的算法運行。這對算法立法層級、精準程度、標準設定提出嚴格要求。
2022 年,《互聯網信息服務算法推薦管理規定》生效實施,其以部門規章形式,對使用五類算法技術的算法推薦行為作出規制。該規定包含總則、信息服務規范、用戶權益保護、監督管理、法律責任、附則6 個部分的內容。這是中國首部以算法治理為內容的部門規章。其第1 條規定,算法治理的宗旨是“維護國家安全和社會公共利益”,保護個體和組織體的合法權益;其第2 條規定,適用范圍是境內使用算法推薦技術提供互聯網信息服務的行為;其第3 條規定,網信部門負責統籌協調算法治理,電信、公安、市場監管等有關部門負責算法推薦服務監督管理;其第4 條規定了算法公平、算法透明、科學合理和誠實信用等四項原則。該規定細化了對于用戶自主選擇權、公平交易權、知情權、勞動權益的保護,從算法對市場競爭、信息傳播、用戶權益、公共秩序的影響出發,對算法推薦服務的可解釋、可救濟作出規定,并設置了算法備案、算法評估、算法檢查制度,對防范算法推薦技術濫用起到至關重要的作用。但由立法層級決定,部門規章在防控算法風險過程中存在一定的局限性。
部門規章的應用性強,多針對特定的違法行為進行規制,如《互聯網信息服務算法推薦管理規定》針對算法推薦行為作出規定,強調具有輿論屬性或社會動員能力的算法推薦服務提供者應當進行備案;《平臺經濟領域的反壟斷指南》對根據用戶個人特征設置不合理的差異性交易價格、標準、方式等作出規定;2022 年5 月,《銀行保險機構消費者權益保護管理辦法》公開征求意見,其第26 條規定,銀行保險機構不得對用戶實行算法歧視。除了已經披露的算法違法行為之外,算法運行領域還存在大量不為公眾知悉的內容,甚至是迭代的、新生的隱性算法濫用形式。
如果立法層級停留于部門規章,不僅難以對算法亂象進行全面規制,而且容易導致針對一種違法行為制定一種規則的滯后性問題。如果部門規章層級的算法規定與法律相沖突,會導致規定的空置。當部門規章與法律相沖突時,應當適用法律的規定。例如,在用戶選項設置方面,《電子商務法》第18條規定,電子商務經營者應同時提供不針對個人消費特征的選項;第19 條規定,禁止將搭售設置為默認同意選項。《互聯網信息服務算法推薦管理規定》為保障用戶的算法知情權和選擇權,規定平臺或企業應提供不針對個人特征的選項或關閉算法推薦服務的選項。這一下位法規定缺乏上位法依據。在部門規章實施過程中,《電子商務法》《互聯網信息服務算法推薦管理規定》相沖突,應當適用上位法《電子商務法》的規定,即“應提供不針對個人消費特征的選項”,從而導致消費者拒絕算法推薦的規定空置。
法律層級的算法專項立法,能夠對算法法律關系作出全面、系統的調整,而部門規章的調整對象是行政管理關系,難以統籌算法法律關系的所有內容。法律的制定主體是全國人大及其常委會,部門規章的制定主體是國務院組成部門。部門規章主要對本部門管轄范圍內的具體行政事務作出規定。但算法法律關系不僅包括行政法律關系,還包括提供算法服務的企業與消費者之間的法律關系、算法服務提供者之間的競爭法律關系。算法專項立法需要由人大主導,采取法律形式,對算法法律關系進行全面調整。部門規章在設定算法管理權力方面也具有局限性。其無法設置法律保留范圍內的強制措施,從而在一定程度上制約未來算法治理的效能。
在數字社會飛速發展的背景下,算法立法需要在法律層級獲得穩定性的規則支持,并需要法律解釋和及時回應不斷變化的社會訴求,做出價值補充、漏洞填補,實現對算法應用行為的系統、科學規制。立法層級越高,統合性越強,覆蓋面越廣,而部門規章的覆蓋范圍相對有限,較難針對不同的算法應用方式、應用行為展開系統的法律制度設計。從根源上防止算法濫用,需要通過制定法律,對算法亂象進行統領性、系統化監管,針對“算法歧視”“算法黑箱”“算法馴化”“大數據殺熟”“信息繭房”等現象,做好算法規制的頂層設計和系統部署。
算法立法需要區分四種算法行為,設置專門條款加以規制。從行為角度看,算法應用主要包括算法匹配、算法推薦、算法決策、算法篩查四種行為。從結果角度看,算法濫用主要包括三個方面:一是算法的不合理使用侵害競爭秩序;二是濫用算法損害用戶權益;三是定制化信息傳播中的算法濫用行為,如違反公序良俗或法律規定損害信息傳播秩序。
第一,針對算法匹配行為,需要清查算法應用中的用戶標簽設置,剔除違法違規、違反公序良俗、煽動仇恨等標簽內容。以網絡爬蟲、數據挖掘為基礎,企業能夠通過算法精準分析、動態標記,實時跟進用戶興趣。除位置、標簽、主題等匹配方法外,算法還可以通過隱式用戶興趣挖掘、拼接用戶完整數據,實現隱性匹配;除樸素模式匹配算法之外,還包括模板匹配、場景匹配、行為匹配、序列深度匹配等算法應用。通過算法設置,可以對用戶瀏覽記錄、消費記錄、經濟能力、行業及家庭情況等進行大數據分析,自動識別、判定具有購買能力、消費意向的用戶。這一過程本身是通過對用戶隱私數據進行批量計算實現的,需要通過算法立法與個人信息保護法的銜接,多維度綜合加以規制。
第二,針對算法推薦行為,把握算法輸出端口,要求算法應用行為人提供算法分發影響評估報告,核查在使用算法技術進行排序、推送、重要信息加權等過程中,是否設置并運行了低俗內容打壓、評估校驗等算法模塊,是否有正當的理由支撐。嚴禁濫用算法進行定制化信息傳播,禁止利用算法屏蔽信息或傳播違法、低俗、煽動性信息內容,不得利用算法實施誘導沉迷、意見極化等影響輿論風尚、危害信息傳播秩序的行為。與僅提供信息存儲空間的服務不同,平臺、企業、機構使用算法推薦、個性化定價算法等技術為用戶提供服務的行為,能夠快速捕捉用戶需求、實時訓練推薦算法、即時生成頻道內容、完成內容向量精準投送。算法推薦服務提供者應當保持高度注意,建立算法推薦信息審核、算法行為全過程監測機制,確保算法推薦合法有序。
第三,針對算法決策行為,在“算法裁斷權力”運行過程中,需要打破“算法決策的閉合回路”,〔59〕馬長山:《司法人工智能的重塑效應及其限度》,載《法學研究》2020 年第4 期。引入公眾參與,區分公共領域與私人領域的算法決策、算法輔助決策行為與算法自主決策行為,〔60〕參見于霄:《算法輔助決策中意思自治的重構》,載《東方法學》2022 年第3 期。設置具體的算法決策規則。在立法形式上,美國紐約市2018 年第49 號地方法律,針對公共部門算法應用行為作出專門規定,成立自動決策系統工作組(ADS Task Force),對算法決策進行監管。在我國,建議在統一算法立法中對不同類型的算法決策作出規定,無需一事一法。作為“新型決策樣態”,算法決策不同于自然人的決策行為,“算法高度自主”“動搖著正當程序原則”。〔61〕蔡星月:《算法決策權的異化及其矯正》,載《政法論壇》2021 年第5 期。在自動駕駛、自動化行政等領域,決策樹(decision tree)等算法應用亦呈現不同的特征。確保算法決策安全可控、公正合理,需要打破數據抓取在前、內容審核后置的狀況,嚴控預測性執法,引入全過程監管機制;在算法進行自動讀取、行為分析、預測判斷的同時,反向識別算法應用可能存在的隱患,需制定完備的應對方案。
第四,針對算法篩查行為,要著力解決兩個方面的問題:一是規則不明,導致不當采取永久封禁、降權、凍結賬號等措施;二是監管缺位,導致算法篩查過程中的隱私信息泄露、二次致害。在推進欺詐檢測算法、隱私侵權篩查天網算法、低質內容篩查細雨算法、作弊行為篩查驚雷算法、惡劣誘導篩查冰桶算法等技術應用過程中,要明確算法篩查的實體和程序規定,針對欺騙用戶下載、竊取用戶數據、誘導用戶點擊非法廣告、惡意手段獲利導致用戶體驗下降等現象,制定專項自動化篩查準則。對于低級別賬號降權等處置行為,平臺亦須做出合理的算法解釋,同步向社會公布,提升用戶信任度。
算法應用行為立法需要識別隱性的算法濫用行為,界定“算法歧視”“算法共謀”“大數據殺熟”“致癮性算法推薦”“信息繭房”“流量造假”等行為特征。“算法歧視”既可能導致用戶權益受損,也可能侵害競爭秩序,其本質是通過用戶畫像設定不合理的交易條件,破壞機會公平、規則公平,通過算法判斷消費者購買能力、消費傾向、種族、性別等個人特征,干預自主選擇權,剝奪部分主體進行交易或獲取保障條件的公平機會。“算法共謀”是侵害競爭秩序的隱性壟斷行為,是基于技術專業性、網絡空間虛擬性而形成的算法隱性運行狀態。與口頭、書面或推定的壟斷協議等易識別行為不同,大型平臺通過算法協同、擅自調整算法考核機制等手段,達到排除、限制競爭的目的,更具有隱蔽性特征。“大數據殺熟”的本質是濫用個性化定價算法,實施不合理的差別待遇,侵害用戶權益,損害權利公平。“致癮性算法推薦”是違反公序良俗的定制化信息傳播行為,誘導用戶沉迷網絡、過度消費,是濫用算法推薦技術的不當逐利行為。“信息繭房”的本質是濫用算法分發技術,影響用戶接收信息的全面性,甚至通過算法引導,造成信息偏離中立、意見極化或煽動違法行為。“流量造假”是濫用算法推薦技術干擾信息傳播秩序的行為,包括刷流量、控評價、操縱榜單、干預熱搜、制作話題、虛假點贊、虛假轉發、操縱賬號、操縱輿論等行為方式。算法立法應當分類對算法應用行為作出細化規定。
算法規制不能停留于倫理約束,而須通過立法,設定“算法合規”準則,確保算法應用的正當性,推動“算法倫理”價值的落實。同時,通過細化的準則、規程,設置精準規制算法應用行為的邊界,推動利益衡量、個案調和、價值平衡的實踐落實。《法治社會建設實施綱要(2020-2025 年)》提出,制定算法應用行業規則,強化算法透明公開、跟蹤追責問責,制定并完善對算法推薦等新技術應用的規范。《上海市數據條例》第70 條提出建立算法評價標準體系。“算法合規”準則設定的難點之一是調和“算法倫理”要求與合法權益保護的沖突。在保障算法合理應用的同時,防止過度規制對算法技術創新的抑制、對算法核心競爭力的損害。
第一,“算法合規”準則設定,不是單向度地追求算法透明化,而是將隱蔽性的算法應用過程,顯化為能夠被消費者理解和感知的算法服務選項,并防范已經公開的算法原理被惡意利用。具體準則包括以下三個方面。(1)算法應用行為人應當為用戶設置算法服務勾選項,保障用戶能夠選擇是否使用算法服務獲取信息、進行交易或作出決策。在用戶對算法服務提出異議時,算法應用人應當立即采取措施防止侵權范圍擴大,并告知相對人審核評定、說明情況、作出處理或暫停相關業務的具體規程。怠于處理用戶異議,導致侵權范圍擴大的,除應就擴大部分承擔民事責任外,還須根據“行為論”的要求,承擔更為嚴厲的行政處罰責任,以此敦促算法服務提供者切實保護用戶權益。(2)算法應用行為人應當主動而非依申請公開算法規則及其功能作用,以公眾能夠理解的方式,解釋算法模塊的“輸入數據與輸出結果”的關聯性、可能造成的不利影響等注意事項。〔62〕參見解正山:《算法決策規制——以算法“解釋權”為中心》,載《現代法學》2020 年第1 期。(3)主管部門應當建立算法公開利益衡量機制,列明算法公開過程中需要綜合考慮的各項因子,推動涉及知識產權事項的利益權衡,并依職權向算法應用人作出提示,尤其是在自由裁量權行使過程中,必須經過利益衡量,方能做出決定或采取相應的行政措施,從源頭上防范商業秘密糾紛發生。
第二,“算法合規”準則設定,不是機械化地追求算法應用結果的公平公正,而是以算法規則公平、用戶權利公平、交易機會公平,促進算法程序正義;將算法行為與應用結果評價有機結合,推動算法制度公平。其具體準則包括以下四個方面。(1)應用算法的平臺、企業、機構,應當向用戶提供完整的算法決策輸出項、介入接口、參與渠道,確保算法決策過程中知情權、參與權、自由權的充分實現,防范“算法權力”的異化,應對算法“自主學習與決策功能”自主演化所帶來的問題。〔63〕張凌寒:《算法權力的興起、異化及法律規制》,載《法商研究》2019 年第4 期。算法自主決策不應當成為算法服務提供者排除或減輕其責任的事由。(2)應用算法的公共管理機構,應當對擬投入使用的算法系統進行評估測試,經評估確認不會產生算法歧視、算法偏差、隱私權或自由權侵害等問題,才能夠正式投入使用。算法輔助公權力決策涉及教育、醫療、社會保障等公益事項,需要附加更強的前置性義務,以防范對于公共利益的損害。(3)算法應用人應當采取措施保障相對人知悉其算法應用標簽的完整內容,并能夠便捷地進行標簽或刪除處理。應用算法的平臺、企業、機構不得利用算法設置基于宗教、種族、民族、性別、病史等敏感信息的用戶標簽,或采取其他歧視性措施。禁止在網絡交易中將支付能力等個人隱私設置為算法應用標簽參數。(4)禁止利用算法實施不合理的差別待遇,包括不正當定價、不合理交易條件設置、利用算法分發剝奪交易機會等。禁止濫用算法損害競爭秩序,包括壟斷、不正當競爭等排除或限制競爭的行為。
第三,“算法合規”準則設定,不是在控制或抑制技術研發,而是嚴禁違反法律法規或倫理道德的算法應用,確保算法應用行為的安全可控。其具體準則包括以下四個方面。(1)未經低質識別,不得進行算法推薦經營活動。其包括強制應用鑒黃模型、識別謾罵及低俗信息等算法模塊,設置算法召回模塊,提升違法違規行為識別的準確率、召回率,等等。(2)算法服務提供者應當設置算法應用審核程序,建立文本、圖片、視頻分析為基礎的不良信息樣本庫,采取防范權利損害的必要措施。不良信息特征庫應當公開、共享。(3)算法應用行為人負有高度注意義務,應當對算法應用行為的可控性保持高度注意。禁止運用算法推送違法、低俗、誘導不良嗜好、價值觀導向錯亂等信息,推動社會主義核心價值觀入法。(4)算法應用行為人應當建立完整的算法應用申訴、評論、舉報、信息反饋、人工復審程序。算法篩查過程中需要保障公眾陳述權和申辯權的行使。通過用戶反饋信息,進行泛低質識別,明確“致癮性算法推薦”認定標準,防范誘導沉迷、過度消費,明確達到一定數量負面評論的賬號自動轉入篩查程序,并立即作出處理,保護用戶合法權益及算法應用秩序。
算法專項立法亟待得到推進。算法、數據、信息密不可分,但算法立法、數據安全法、個人信息保護法的立法目的、調整對象、權利內容并不相同。算法專項立法應當通過申辯權、標簽刪除權、算法解釋權、備案及評估信息公開請求權等程序性權利,以及備案審查、責令停用或整改的權力設置,推動“算法公開透明”與知識產權保護的利益平衡、“算法公平公正”與隱私權和自由權保護的個案調和、“算法安全可控”與科技研發自主權的價值協調。
算法立法的難點,是運用外在的法律判斷,去披露違法行為從顯性向更具隱蔽性維度的遷移過程。這要求推動算法專項立法從部門規章到法律層級、技術規制到社會規制、“算法倫理”到“算法合規”的發展和進階。通過前置性的程序權利設置,防范實體性權利損害;通過個體賦權與公共權力的結合,維護算法秩序與算法安全。算法立法對象應當是算法應用行為而非研發行為。算法立法的原則不是片面強調算法的絕對透明,而是通過協調算法應用人與相對人利益保護、兼顧“行為論”與“結果論”、平衡約束與激勵,引導算法規制正當程序的確立,建立算法決策領域公益與私益的個案調和機制。
針對算法匹配行為,應當要求企業公開用戶標簽選項,清理違法違規標簽設置;針對算法推薦行為,要求算法應用行為人提供算法分發影響評估報告,嚴禁濫用算法進行定制化信息傳播;針對算法決策行為,應當區分公共領域與私人領域的算法決策、算法輔助決策行為與算法自主決策行為,制定具體的算法決策規則,引導公眾有序參與;針對算法篩查行為,要求平臺對篩查行為作出合理的算法解釋,同步向社會公布,提升用戶信任度。
“算法合規”準則設定,不是單向度地追求算法透明、機械化地追求算法應用結果的公平公正或是抑制技術研發,而是通過算法服務勾選項、便捷的算法應用標簽刪除接口、健全的算法應用審核程序、算法規則公開、算法系統評估測試、特定用戶標簽和參數禁用、泛低質識別模塊強制應用、高度注意義務設定、篩查程序的自動轉接等規定,顯化隱蔽性的算法應用過程,保障算法規則公平、用戶權利公平、交易機會公平,為數字技術的持續健康發展保駕護航。