






摘 " "要:算法推薦技術作為國家治理體系和治理能力現代化的關鍵引擎已被廣泛應用,但也引發一系列問題,關乎公民、社會和國家利益。當前算法推薦的法律治理政策呈碎片化,治理效果不彰,迫切需要梳理以構建科學的算法推薦法律治理體系。通過扎根理論研究方法,揭示了五種算法推薦安全風險類型。基于此,構建了主體性法律治理、規則性法律治理和程序性法律治理三種工具,相互協同形成法律協同治理體系,提升算法推薦風險的法律治理水平。展望未來,需持續優化這三種工具的互動機制,規范算法權力行使以實現算法卸責,并推動算法透明度和可解釋性的系統性建設。
關鍵詞:算法推薦;主體性法律治理;規則性法律治理;程序性法律治理
中圖分類號:D 922.16 " 文獻標志碼:A " 文章編號:2096-9783(2024)03?0027?10
一、問題的提出
算法推薦技術作為人工智能的核心信息技術,已廣泛應用于電子商務、新聞推薦、網絡直播、音視頻媒體等商業和公共領域,成為推動國家治理體系和治理能力現代化的重要引擎。然而,伴隨著其迅猛發展,算法濫用、算法操縱、算法霸權等一系列問題也層出不窮[1],亟待予以積極治理。我國在算法推薦治理領域頒布了多部重要法律法規,包括《互聯網信息服務算法推薦管理規定》《關于加強互聯網信息服務算法綜合治理的指導意見》《生成式人工智能服務管理暫行辦法》等,取得了一定的治理成果。然而,在當前多元化的算法推薦領域,不同機構和領域對算法治理的關注點和側重點不一,導致法律法規、技術標準和倫理準則的分散和交叉,從而引發法律政策碎片化與多樣性問題。這不僅影響了治理的效果,也使得政策實踐難以形成統一的戰略。扎根理論作為一種開放性和探索性的研究方法,強調對概念和關系的深入挖掘,有助于揭示法律政策文件之間的聯系、沖突和共性,這對于解決法律政策碎片化和多樣性問題尤為關鍵。有鑒于此,本文以扎根理論為研究方法,對我國算法推薦領域30份重要的法律政策文本展開系統的質性分析,深入挖掘不同法律政策文本之間的內在邏輯關系,細致梳理風險類型及其相應的法律治理對策,為建立一個全面而一致的算法推薦法律治理體系提供支持。
二、數據來源與研究方法
(一)數據來源
本研究通過以下方法開展法律政策文本的檢索與篩選。首先,以“算法”“算法推薦”“算法風險”“人工智能”等為關鍵詞,在北大法寶、威科先行、聚法等法律數據庫上進行廣泛檢索和篩選。其次,有針對性地聚集于電子商務、網絡直播、廣告營銷、音視頻播放等細分場景的算法法律治理政策文件。再次,通過“滾雪球”方式查找關聯度較高的法律政策文件,以進一步豐富檢索結果。最后,通過人工方式對上述法律政策文本展開梳理與審核,確保了法律政策文本的綜合性、代表性與多樣性。經過以上一系列步驟,本研究最終搜集30份算法推薦相關法律政策文本,詳見表1。
(二)研究方法
扎根理論(Grounded Theory)是一種社會科學研究方法,最初由社會學家Barney Glaser和Anselm Strauss于1967年提出[2]。其核心理念在于強調通過對實際數據的深度分析來生成理論。在法律政策文本分析中,這一方法尤為關鍵,因為法律政策文本常涉及復雜而多變的現象,不同于傳統的理論框架。扎根理論的多層次分析允許深入挖掘法律政策文本中的各種概念、關系和主題,使研究更加細致入微。在本文中,通過扎根理論,不斷提取和比較不同算法推薦法律政策文本中的概念、關系和主題,以識別算法推薦風險類型以及相應的法律治理工具。
三、數智時代算法推薦的風險挑戰
通過扎根理論對30份法律政策文本進行算法推薦風險編碼分析。研究結果表明,數智時代的算法推薦風險主要分為五類:算法黑箱、算法濫用、算法操縱、算法霸權和算法問責,詳見表2。從風險來源看,算法黑箱是內生性風險,而算法濫用、算法操縱、算法霸權和算法問責風險則屬于衍生性風險。
(一)算法黑箱引發技術信任風險
算法黑箱是指在算法運行過程中,人類對于輸入結果與輸出結果之間的關聯性無法完全理解和追蹤的現象[3]。算法黑箱主要由于算法的復雜性、高度抽象性及其不可解釋性所致,在現實中發展成算法歧視、算法合謀等問題的“溫床”。政策編碼結果顯示,算法黑箱風險主要表現為以下三種類型:其一,算法可解釋性不足的風險。算法可解釋性是算法持續運作和生成決策的前提,是連接算法自動化決策與法律責任的橋梁。由于當前算法可解釋性不足,極易引發算法偏見和歧視問題,也成為相關責任主體逃避責任的“絕佳借口”[4]。其二,算法黑箱易引發社會信任危機的風險。即便不存在算法黑箱問題,由于算法語言的專業性及其難以理解的特性,加之“數字鴻溝”的客觀存在,一般社會公眾理解算法決策生成過程的成本很高,遑論完全信任依據算法作出的決策。其三,算法黑箱存在難以調試和改進的風險。由于算法運作過程的不透明性,發現和修復模型存在的問題變得異常困難。這使得在問題發生時難以進行及時調整和改良,進而形成惡性循環。
(二)算法濫用引發權益侵犯風險
算法的運行仰賴于數據的收集與處理,然而在此過程中很容易造成對國家利益、社會利益以及公民個人權益的侵犯[5]。政策編碼顯示,算法濫用風險主要表現為以下五種類型:其一,侵害國家安全與利益。主要表現為通過算法發動網絡攻擊與戰爭,導致國家關鍵基礎設施受損或者散播其他可能危害國家安全的惡意信息。其二,侵害社會安全與利益。主要表現為算法被用于操縱社會輿論,傳播民族、種族仇恨言論等不利于民族團結和社會安定的非法信息。其三,侵害公民人身權益。主要表現為算法對公民人格平等、人格尊嚴等一般人格權以及對生命權、健康權、名譽權、肖像權、姓名權等具體人格權的侵犯。其四,侵害財產權益。主要表現為算法實施刑事犯罪行為和侵犯他人版權、商業秘密等民事侵權,導致個人和集體財產權益損失。其五,侵害隱私權益。主要體現為私人通過算法侵犯他人隱私,以及監管主體擅自使用或非法提供他人信息,對他人隱私權益造成侵犯。
(三)算法操縱引發內容安全風險
算法推薦技術的到來開啟了數智時代信息分發的新模式。在此信息分發模式下,極大促進了用戶獲取所需信息的效率、降低信息獲取成本[6]。然而,這種個性化的信息分發模式也帶來一系列問題。政策編碼顯示,算法操縱風險主要體現為以下三種類型:其一,信息操縱。這主要體現為信息過濾和虛假信息傳播風險,即利用算法調整甚至改變用戶獲取的信息,導致用戶長期只能接觸同質性甚至虛假信息,最終陷入“信息孤島”和“信息繭房”[7]。其二,行為操縱。它包含個性化推薦和社交工程風險,即利用算法分析用戶行為和偏好,以操縱用戶的點擊、觀看、購買決策或者干預用戶在網絡社交平臺上的行為和互動。其三,意識形態操縱。它涉及政治宣傳和文化價值風險,即通過算法傳播特定政治觀點,影響選民決策或者促使用戶形成某種特定意識形態。
(四)算法霸權引發市場秩序紊亂風險
在數智時代,算法發揮了優化市場資源配置、提高決策效率、降低決策成本等積極作用。然而,與此同時,一些平臺經營者濫用算法實施自我優待、限制交易、提供差別服務等不正當競爭行為[8]。政策編碼顯示,算法霸權風險分為以下四種類型:其一,自我優待。在市場競爭中具有算法霸權的經營者兼任“參賽選手”和“裁判員”雙重角色,利用算法技術給其自營業務或者其他與其有某種關聯的特定主體的產品以優惠,實現自我優待目的。其二,不正當競爭。具有算法霸權的公司與其他競爭對手借助算法促進橫向和縱向壟斷協議的達成和維持,或者在內部壟斷關鍵數據破壞市場公平競爭環境。算法共謀行為本質上是經營者利用算法技術實現意識一致的協同行為,其根本目的是限制、排除競爭。它比傳統意義上的共謀行為更加隱蔽,因此也給追責帶來更大難度[9]。其三,限制交易。它表現為具有算法霸權的公司利用算法技術控制關鍵交易渠道限制其他競爭者的準入或者實施算法價格壟斷行為。其四,提供差別待遇。具有算法霸權的公司基于用戶的行為、交易偏好、收入等數據提供個性化定價等差別服務。
(五)算法問責困境引發法律治理風險
在算法推薦領域的法律治理中,盡管對算法責任構建的關注逐漸增加,但仍存在責任內容分散、責任標準不夠細化等問題,形成算法問責困境,同時也引發法律治理風險[10]。政策編碼顯示,算法問責風險主要包括以下三種類型:其一,責任界定標準模糊。由于缺乏具體的責任回溯標準,導致責任主體回避責任審查,責任歸屬變得模糊的風險。以平臺短視頻版權侵權為例,由于缺乏具體明確的責任界定標準,平臺經營者作為算法使用者通常以算法推薦的“技術中立”特性為由進行抗辯,主張已經盡到合理注意義務,從而逃避侵權責任的承擔[11]。其二,損失救濟缺位。由于責任界定不清、責任歸屬模糊等問題,在算法侵權問題發生后可能導致對被侵權人損失救濟缺位或者不充分的風險。在法律規定不明的情況下,相關主體通常以各種理由否認侵權行為,進而阻礙被侵權人的損害賠償。其三,責任意識缺乏。表現為責任相關方由于缺乏責任意識而違法違規使用算法,從而導致事故責任的風險。
四、數智時代算法推薦風險的法律治理
通過對法律政策文本詳細編碼,研究發現算法推薦的法律治理工具可根據其作用對象的不同分為主體性法律治理、規則性法律治理和程序性法律治理。
(一)主體性法律治理
以政府機構為中心的單一主體治理已經不能應對算法推薦的風險,數智時代算法推薦的風險治理呼吁多元主體的參與[12]。根據治理主體性質和權限的不同,現有法律政策文本中算法推薦治理主體包括政府部門和社會力量兩大范疇,詳見表3。
首先,政府部門在縱向和橫向上起到關鍵的協調和監管作用。在政府層面,考慮政府科層結構的差異,將政府部門劃分為縱向主體和橫向主體。縱向主體包括中央網信辦和地方網信辦,中央網信辦負責算法推薦治理的頂層設計,主導全國范圍內算法推薦服務治理工作;地方網信部門則協調治理地方范圍內的算法推薦服務。橫向主體包括電信、公安、市場監管、金融、科技等主管部門,按照法定治理權限和責任監管、督促、協助算法推薦服務的監督管理工作。其次,社會力量參與算法推薦治理體系建設。行業組織通過自律規則、自律程序進行自我管理,為政府算法推薦治理提供重要補充。企業平臺通過不斷制定和完善業務規范,配合政府算法推薦治理工作。社會公眾的參與為算法推薦服務治理提供廣泛的監督約束機制,有助于保障政府決策的透明性和維護社會利益。這些多元參與主體間形成相互協同的關系,推動著算法推薦主體性法律治理體系的有序運轉。
(二)規則性法律治理
基于治理規則的多樣性,現行法律政策構建了一個綜合的“技術—倫理—法律”規則性治理框架,詳見表4,以確保智能算法的穩健推進。在這個框架中,法律政策發揮關鍵作用,一方面為治理框架提供基本方向和指導;另一方面在框架中協調技術標準、倫理準則和法律規范的關系。技術標準、倫理準則和法律規范相互關聯,技術標準關注底層邏輯,倫理準則關注倫理失范行為,法律規范強調法律制度為導向構建人機責任共同體。
首先,技術標準應對算法推薦風險的措施主要包括以下幾個方面:其一,優化透明度和可解釋性。通過技術措施增強模型的透明度和可解釋性并以可理解的語言呈現算法模型以減少爭議糾紛。其二,優化算法模型。定期審核算法機制機理、設置符合主觀價值導向的算法模型、規范和優化算法模型的設置和使用等。其三,算法安全認證。要求開展用戶真實身份認證,未提供真實身份認證的,不得向其提供服務。其四,信息發布審核。采取“技術+人工”方式加強內容安全審查、設置信息多節點信息召回復核機制、定期擴充違法違規樣本庫提升審查效率等。其五,信息推送管理。加強用戶模型和用戶標簽管理,禁止推送有害信息;準確把握推送環節,嚴格控制推送頻次,加強推送內容審核把關。算法推薦本質上是技術邏輯的產物,因此,技術標準側重采取技術措施,通過算法設計和應用階段的預處理和價值敏感設計,確保算法運行的可靠性、安全性和穩定性[13]。
其次,倫理準則應對算法推薦風險的措施主要包括以下幾個方面:其一,明確增進人類福祉為根本。算法推薦服務活動應當堅持以人為本的發展理念,促進人機和諧友好,共建人類命運共同體。其二,確保可控可信。保障人類的自主決策權確保人工智能始終處于人類控制之下。其三,遵守法律和社會道德。算法推薦服務活動遵守法律和社會道德,不得利用算法技術從事違法違規活動。其四,尊重生命權利。盡量降低算法推薦服務活動對人的生命健康權益的威脅;尊重人格尊嚴和保障主體權益。其五,堅持公平公正。充分考慮特殊群體權益,保障社會實質平等,促進發展成果普惠全社會。算法的公正性是算法倫理的核心。總體而言,現有政策文本的算法倫理治理注重強調算法企業進行科技向上向善理念升級,促進人工智能發展和社會價值的“同頻共振”[14]。當前,人工智能處于高速發展階段,政府過度規制不利于人工智能的創新和發展,算法倫理治理為政府和企業提供“緩沖帶”,避免企業算法“創新失范”。
最后,法律規范應對算法推薦風險的措施主要包括以下幾個方面:其一,保障用戶權益。基于“以權利制約權力”的理念[15],當前的法律政策文本明確規定了一系列用戶權益,包括但不限于算法知情權、算法選擇權、算法訪問權等弱式權利,以及算法限制權、算法拒絕權、算法刪除權等強式權利[16]。這一系列措施旨在確保用戶在算法推薦服務中能夠行使充分的權利,平衡“算法權力”與用戶權益之間的關系。其二,構建算法問責機制。企業應落實算法安全主體責任,為事后問責提供依據;企業從事算法推薦服務活動存在違法違規情形的,視情節嚴重程度承擔相應法律責任。其三,訓練數據管理。使用具有合法來源的數據和基礎模型,規范數據標注活動;數據處理者對所處理的訓練數據負責,建立完善的數據安全管理制度和技術保護機制。其四,信息安全管理。建立違法、不良信息識別特征庫,不得利用算法傳播違法不良信息;建立健全辟謠機制以防公眾誤認等。其五,信息呈現管理。不得利用算法干預信息呈現;建立權威內容信息庫,重點領域優先展示權威來源信息;履行算法相關內容顯著標識義務;重點環節優先展示符合主流價值導向的信息等。其六,科技倫理審查。明確科技倫理審查原則、標準、程序;探索完善科技倫理委員會認證標準等。算法治理的法律制度通過厘清相關利益主體權利義務的配置,并明晰相關利益主體的法律責任保障權利的實現與義務的落實。
(三)程序性法律治理
編碼結果顯示,根據對算法在不同發展階段的監管需求,現行法律政策文本將算法推薦的程序性法律治理劃分為事前審查、事中監管和事后應對三個階段,以實現對算法生命周期的全面管理,詳見表5。
首先,事前審查注重“前端治理”和“預防為主”,主要從算法分級分類、算法評估、算法備案三方面展開對算法推薦風險的事前預防管控。其一,算法分級分類。囿于社會資源的有限性,算法治理應當有的放矢,不可“一刀切”,必須體現出差異化的治理特點[17]。算法分級分類要求依據算法推薦服務的輿論屬性、社會動員能力、對用戶的干預程度等分級分類標準,進行算法風險分級、內容分類管理,以便在有限的社會資源內實現對算法的效益最大化監管。其二,算法評估。算法評估分為算法安全評估和算法風險評估。兩者密切相關亦略有區別:前者側重于對算法模型本身是否安全及其安全系數進行評估;后者則側重于從風險發生的可能性、影響范圍、危害程度等評估角度出發對算法進行評估,以便及時根據風險等級采取相適應的防范措施。其三,算法備案。作為“有效市場與有為政府相結合”的治理原則在算法治理領域的運用和發展,算法備案是事前準入審查的關鍵環節。它一方面有助于政府監管部門及時了解掌握企業算法運行的底層邏輯,保障后續監管活動的順利開展;另一方面有助于前期在一定程度上明確責任主體及責任范圍,讓事后追責“有跡可循”。
其次,事中監管在法律政策文本中分為政府監督檢查和企業監測審計。其一,政府監督檢查要求政府部門內部建立與之相對應的算法監管審查委員會,做到內外聯動,開展算法審核和日常監督檢查工作,督促企業開展內部評估、備案工作,并及時審驗算法推薦服務的合規性,確保具體治理制度得到落實。其二,企業監測審計要求企業建立算法監測、算法審計和信息通報制度,多管齊下,對算法活動進行監測、審計,以便及時發現和防范算法風險,并按照相關規范向社會發布算法安全監測預警信息。值得一提的是,算法風險評估側重于對未上市的算法進行風險評估(并可能在上市后持續評估),定期檢測其可能存在的風險;而算法審計更強調對已經上市的算法進行監督審計,確保算法應用的合規性[18]。
最后,事后應對關注算法的應急響應機制和監督反饋機制。其一,應急響應機制。應急響應機制要求制定算法安全事件應急預案,并在發生算法安全事件時依據事件的危害程度、影響范圍等因素采取相適應的防范措施。其二,監督反饋機制。它要求設置便捷有效的投訴、舉報、申訴渠道,并保障反饋渠道長期有效,以便接受公眾監督。
五、結語
2021年,我國開啟算法治理元年,算法治理迅速受到國家層面和全社會的廣泛關注,而推動國家算法治理離不開法律政策的引導。本文采用扎根理論對數智時代算法推薦風險及其法律治理工具進行精準識別。基于前文的分析,可以窺見數智時代算法推薦風險現有治理政策的部分特征。
首先,現有算法推薦治理法律政策文件散見于不同法律規范中,呈現出體系分散和“碎片化”治理的特性。究其原因:中國的算法治理剛剛起步,短期之內要在未知領域內建立起機制健全、體系完善的算法綜合治理格局難度較大。此外,囿于算法本身的復雜性和隱蔽性,多元主體協同治理的過程中職責與權限往往難以明確和協調,很難達成一致的治理方案和責任分配[19]。加之目前針對算法治理的框架和標準缺乏統一性,各個國家和地區在算法治理上的實踐和要求存在差異,進而導致算法治理體系的分散化[20]。其次,相比于算法問責風險和算法黑箱風險,現有法律政策更關注算法操縱風險、濫用風險和算法霸權風險。這是因為:一方面,算法操縱、算法濫用和算法霸權風險對社會帶來的危害短期內更加迫切,亟待法律予以重點規制。另一方面,囿于算法的“中立性”和復雜性,相比于其他風險,算法問責風險和算法黑箱風險治理難度顯然更高,因此現有法律政策針對算法問責和算法黑箱的風險治理著墨不多。這既是立法技術的體現,同時也是立法者應對上述風險時的“無奈之舉”。最后,在算法推薦風險法律治理工具方面,主體性法律治理、程序性法律治理和規則性法律治理的某些規定仍停留在較為寬泛的原則性規定層面,缺乏具體可操作性。
基于上文的分析,筆者從以下方面提出算法推薦風險的治理優化思路:第一,建構整體性的算法推薦法律治理體系。從政策編碼來看,三種法律治理工具可以在一定程度上回應算法操縱、算法濫用和算法霸權風險。風險交替出現的特性呼吁風險的聯動治理,然而,三種法律治理工具之間目前尚未形成良好的銜接互動機制,導致治理效果大打折扣。因此,整體性的算法推薦法律治理工具體系建設任重道遠。筆者認為,整體性的算法推薦治理呼吁能夠統籌人工智能發展與管理的主管機關來指導和協調算法推薦治理工作。《人工智能法(示范法)1.0》(專家建議稿)(以下簡稱《示范法》)第十二條創設性提出設置國家和地方人工智能主管機關,統籌負責全國和地方范圍內人工智能發展與管理工作。這為整體性的算法推薦治理工具體系建設注入“強心劑”。第二,規范“算法權力”的行使為算法“卸責”[21]。算法問責機制的功能在于引導和優化算法行為。囿于算法黑箱的存在,在機器學習算法和深度學習算法模型中,算法決策往往會“失控”。就連系統開發者、提供者、部署者都無法解釋算法為何會作出如此決策。當前,人類還無法完全解釋算法黑箱現象,因此,針對客觀存在算法問責困境,規范算法權力的行使或許是更為直接、有效的措施。正所謂“法律不和瘋子對話”,以算法時代平臺短視頻侵權為例,傳統的“通知—刪除”規則顯然過于放縱了“算法權力”的行使。故可以通過立法明確:平臺要想否認版權間接侵權行為的存在則必須舉證證明自己已經使用達到行業平均水平的算法模型以識別和防范侵權作品的傳播。第三,推動算法透明度和可解釋性建設。長遠來看,破解數智時代算法推薦風險,尤其是算法黑箱風險,推動算法透明度和可解釋性建設是最好的方式。當前算法治理中存在的許多問題,究其根源往往都是因為算法不透明所致。唯有化算法黑箱為算法“白箱”,算法推薦的治理體系才能真正得到落實。《示范法》第三十五條和第三十六條分別明確了人工智能研發者和提供者的公開透明性義務與可解釋性義務,使得算法透明度和可解釋性建設迎來了新曙光,煥發出新活力。相信隨著實踐的不斷發展,算法的透明度和可解釋性建設成果也會隨之不斷迭代而邁向更高臺階。
參考文獻:
[1] 陳兵,董思琰.分類分級治理算法的基本內涵及實踐進路[J].西安財經大學學報,2023(6):74.
[2] GLASER B,STRAUSS A L. The discovery of grounded theory:strategy for qualitative research[J]. Nursing Research,1968,17(4): 377?380.
[3] 程雪軍.人工智能平臺的算法黑箱與治理圖景[J].法治論壇,2023(2):72.
[4] 張欣.算法解釋權與算法治理路徑研究[J].中外法學,2019(6):1429.
[5] 鄭曦.司法人工智能運用背景下的被追訴人權利保障問題[J].廈門大學學報(哲學社會科學版),2023(6):44.
[6] 鄭曉華. 算法時代網絡意識形態風險防范與實踐邏輯[J].重慶郵電大學學報(社會科學版),2023(1):166.
[7] 田釩平,田甡睿,張耀.數字化時代“信息繭房”風險與民族事務治理[J/OL].民族學刊,2023,14(8):72?84[2024-03-19].https://kns.cnki.net/kcms/detail/51.1731.C.2024 0206.1356.022.html.
[8] 胡堅波.多措并舉推進我國算法治理[J].人民論壇·學術前沿,2022(10):22.
[9] 殷繼國.人工智能時代算法壟斷行為的反壟斷法規制[J].比較法研究,2022(5):190.
[10] 陳少威,吳劍霞.人工智能治理風險和工具的識別與匹配研究——基于政策文本的分析[J].中國行政管理,2022(9):27.
[11] 郭春鎮,勇琪.算法的程序正義[J].中國政法大學學報,2023(1):170.
[12] 陳兵,董思琰.生成式人工智能的算法風險及治理基點[J].學習與實踐,2023(10):29.
[13] 蔣福明,陳虹冰. 算法技術嵌入社會治理的倫理探析[J].山西高等學校社會科學學報,2021(9):47.
[14] 阮榮彬,朱祖平,陳莞,等. 政府科技倫理治理與人工智能企業科技向善[J/OL].科學學研究:1?21[2024-03-19].https://doi.org/10.16192/j.cnki.1003-2053.20231 205.002.
[15] 孟德斯鳩. 論法的精神[M].許明龍,譯.北京:商務印書館,2012.
[16] 馬光澤. 算法自動化決策的法律風險及其體系化治理[J].法治論壇,2023(1):29.
[17] 曲世聞,張本祥. 算法治理的實踐發展與體系構建[J].人民論壇·學術前沿,2023(3):110.
[18] 張永忠,張寶山. 算法規制的路徑創新:論我國算法審計制度的構建[J].電子政務,2022(10):51.
[19] 黃雅卓. 算法技術賦能政府職責體系構建及其限度[J].天津行政學院學報,2023(3):38.
[20] 溫鳳鳴,解學芳. 歐美社會治理中算法應用的倫理風險與規制路徑研究[J].西南民族大學學報(人文社會科學版),2023(9):134.
[21] 高童非. 論自動化行政中的“算法卸責”[J].電子政務,2023(2):115.
The Legal Governance of Algorithm Recommendation Risk in the Era
of Digital Intelligence
Xu Wei, "Wei Hongmei
(Chongqing University of Posts and Telecommunications Network Rule of Law Research Center,
Chongqing 400065, China)
Abstract: Algorithmic recommendation technology has been widely used as a key engine for the modernization of national governance capabilities and governance systems, but it has also caused a series of problems and threatened the interests of citizens, society and the country. At present, the legal governance policies recommended by the algorithm are fragmented and the governance effect is not good. It is urgent to sort out the legal policies and build a scientific algorithm recommendation legal governance system. Through the grounded theory research method, five types of algorithm recommended security risks are revealed. Based on this, three tools of subjective legal governance, regular legal governance and procedural legal governance are constructed, which cooperate with each other to form a legal collaborative governance system and improve the legal governance level of algorithm recommendation risk. Looking forward to the future, it is necessary to continuously optimize the interaction mechanism of these three tools, standardize the exercise of algorithm power to achieve algorithm shirking, and promote the systematic construction of algorithm transparency and interpretability.
Keywords : algorithm recommendation; subjective legal governance; regular legal governance; procedural legal governance