鐘曉雯 張潔茹
摘要:算法推薦具有收集、篩選、推送信息和記錄的“權力”,具有技術屬性,同時因智能傳播時代下算法決策取代了人工決策,算法推薦技術又充當著傳統媒介中的人工價值判斷角色,具備了價值負荷屬性。算法推薦的雙重屬性不僅形成信息繭房及衍生回音室效應,加劇社會價值觀的分化,且催生了圈層區隔,導致群體極化滋生和信息操縱風險蔓延,擾亂網絡信息的生態場域。擺脫算法推薦在智能傳播時代的負面效應,必須構建多元主體共同治理算法推薦模式:智能媒體平臺應強化社會責任,加強算法的“自我規制”;政府需加強算法監管,形成算法安全治理格局;用戶應享有算法解釋權,塑造“算法協治者”形象。
關鍵詞:算法推薦;技術屬性;價值負荷屬性;信息傳播危機;協同共治模式
中圖分類號:G206;TP391.3? ? ?文獻標志碼:A? ? ? 文章編號:1672-0768(2023)04-0076-06
算法初始運用于計算機科學中,是數學領域中用以解決某一問題的方法,由算法衍生而來的算法推薦則與智能傳播休戚相關。在智能傳播時代,互聯網承載著海量的信息數據,諸如新浪、今日頭條、抖音等智能媒體平臺為有效整合信息數據和實現信息分發與用戶個性化需求間的精準匹配,紛紛引入算法推薦技術。算法推薦能夠通過收集分析用戶在網絡空間中留下的數字痕跡(注冊信息、瀏覽日志、歷史評價記錄等),挖掘用戶的興趣偏好,精準勾勒出用戶“個人畫像”,并對用戶進行個性化的信息推薦與分發,從而增強智能媒體平臺的用戶粘性。然算法推薦的廣泛運用,不僅顛覆了傳統信息傳播的手段,也重塑了網絡信息傳播的話語格局,為信息傳播領域帶來了諸多挑戰。網絡信息傳播關乎整個國家意識形態的安全,故本文擬結合算法推薦的雙重屬性——技術屬性和價值負荷屬性,剖析算法推薦所引發的信息傳播危機,從協同共治的角度提出算法推薦的多元主體治理模式。
一、雙重屬性:算法推薦的技術屬性與價值負荷屬性
算法推薦下的智能傳播與傳統傳播的差異本源在于算法決策取代了人工決策,鑒于算法的技術屬性,智能傳播實現了信息傳播的精度與效度,然算法推薦在遵循其技術邏輯的同時,又充當著信息把關人的角色,具有了價值負荷的屬性。
(一)算法推薦的技術屬性
算法推薦作為信息傳播領域的前沿技術工具,能夠滿足用戶的個性化需求,增強智能媒體平臺的用戶粘性。具體而言,算法推薦通過海量收集、篩選并整理用戶在網絡空間中留下的數字痕跡,包括用戶注冊信息,用戶閱讀、搜索、瀏覽、評論記錄等,能夠全面系統地對用戶進行參數分析,精確勾勒出用戶的興趣和偏好圖譜,形成精確的用戶“個人畫像”。智能媒體再根據該“個人畫像”對相關信息內容進行過濾和篩選,將契合用戶興趣和偏好的信息精準地分發至目標人群,從而實現算法推薦的精準預測、推送和反饋的技術功效。
需要注意的是,算法具有“黑箱”性質,這與算法的技術運行原理密切相關。從技術原理層面觀察,算法是一種計算機程序,其是在數據采集和訓練的基礎上,依據已設定的數學規則進行運算并輸出結果,簡言之,即算法包括了輸入、運算、輸出三個步驟,是程序設計加數學規則的集合。即便人們能夠獲悉算法的數據輸入和輸出結果,但對于算法內部的運算過程卻無從得知,這便形成了算法“黑箱”,正如控制論對于“黑箱”的定義——“所謂黑箱是指這樣一個系統,我們只能得到它的輸入值和輸出值,而不知道其內部結構。”[ 1 ]因此,鑒于算法所形成的“程序設計+數學規則”的高度技術性和復雜性,非算法專業人士尤其是普通公眾,將無法掌握或理解算法的運行和決策原理。此外,隨著算法技術的更新迭代,技術層面的算法“黑箱”會呈現日趨強化的趨勢,尤其是當算法“黑箱”處于進階形態( 1 )時,即便是算法專業人士甚至算法部署者可能都無法解釋清楚算法的運行和決策原理[ 2 ]。
(二)算法推薦的價值負荷屬性
算法推薦作為技術勃興的產物,在推動人類生產和生活方式顛覆性變革的同時,也具有價值負荷的屬性。價值觀的形成是受到多種因素制約的,但新聞媒介的影響力不容小覷。在紙質傳媒時代,新聞的內容經過專業編輯的把關,其中的意識形態與價值觀念也當然經過了選擇,具有普世意義的價值觀更容易得到采納與傳播,并因此影響終端用戶,促進用戶正確價值觀的塑造。算法推薦在賦能信息精準化分發,提高信息分發接收率的同時,也能夠對用戶行為作出實時反饋,并逐漸引導用戶的價值去向,蓋因算法推薦技術具有收集、篩選、推送信息和記錄的“權力”,充當著傳統媒介中的人工價值判斷角色,一定程度上會造成新聞把關權的轉移。
算法推薦在技術屬性上可歸結為一種運算程序,但其在信息傳播領域的運行中實際上形成了包含算法運行團隊、新聞價值觀在內的一整套系統架構[ 3 ]。代碼的內嵌規則決定了算法推薦不可避免地會隱藏人的自主意識,彰顯價值負荷屬性。算法部署或使用者在算法部署及使用過程中或多或少會嵌入自身的價值觀念或主觀意圖。例如,數據集選取、變量選擇、權重設定、架構設計等均是算法部署者在設計算法推薦任務時需考量的因素,且可能受到個人價值觀念或主觀意圖的影響。再如部分智能媒體平臺可能出于增強用戶粘性、達到流量最大化、攫取商業利益的目的而肆無忌憚地在使用算法推薦技術時嵌入利潤導向的價值維度,更甚者不惜制造“臟數據”,污染媒介生態場域[ 4 ]。同時,以大數據和深度學習為底層邏輯的算法推薦能夠根據用戶對于信息的點擊次數、停留時間、屏蔽、轉發、評論內容等,動態掌握用戶的價值傾向,進而通過精準分發信息逐漸引導用戶價值觀的變化。值得注意的是,當算法部署者或使用者在算法中嵌入自身的價值觀念或主觀意圖后,算法在其后續的技術更新迭代過程中仍會沿襲且不斷深化和放大此種價值傾向。
二、鏈式反應:算法推薦引發信息傳播危機
算法推薦的技術與價值負荷的雙重屬性將引發主流意識形態傳播的危機,具體體現在以下兩個方面。
(一)回音室效應加劇社會價值觀的分化
價值觀分化即社會意識形態結構從同質、單向走向異質、多元,并出現不同價值偏向的過程[ 5 ]。算法分發信息會根據用戶的初始選擇向用戶主動推送相關新聞,盡管算法只是對同類信息、偏好信息的推送,并不創造新的內容,但同類推薦會形成封閉的信息空間,隔絕多元信息穿透傳播的可能性,致使用戶接收到的信息趨于同質化,尤其將形成信息繭房,衍生回音室效應。2008年凱斯·桑斯坦提出了“信息繭房”和“回音室效應”的概念,其認為盡管互聯網技術可以促使人們逃離地理學上的繭房和回音室,然互聯網中的個性化信息服務過濾了多元化的觀點,而不同網絡群體更傾向于選擇和獲取自己感興趣或與自己觀點相同或相似的信息,并忽視與外部世界的交流和溝通,此種持續衍化的群內同質和群際異質現象會產生信息繭房效應,即如同置身于蠶繭般作繭自縛,進而形成回音室效應[ 6 ]。“回音室效應”最初緣起于凱斯·桑斯坦的著作《網絡共和國:網絡社會中的民主問題》,其意指信息過濾機制使得人們只獲取到他們感興趣或認同的信息,長期以往,當這些信息中所蘊含的觀點不斷重復并加深,人們在這個信息封閉的圈子中將只能聽到自己的“回聲”,變得容易固守偏見甚至誤將偏見視為真理,進而排斥和拒絕其他的合理性觀點和意見[ 7 ]。
信息繭房及其衍生的回音室效應并非在算法時代才出現,然算法推薦下的精準化、個性化之信息傳播加速形成了信息繭房,致使回音室效應不斷演化和蔓延。此種場景下,擁有相同或類似價值觀的用戶將極易被相互吸引且形成同類社群,并在偏好推薦產生的回音室效應中不斷固化其既有的價值觀。這種同類社群僅為一種多元化的小眾空間,其在同類推薦和偏好推薦的加持下所不斷固化的價值觀與普適性的價值觀可能并非完全一致,甚至相背離。此種多元化小眾空間的普遍存在及其價值觀的形成與固化在一定程度上會削弱社會主導價值的認同根基,增加社會價值共識崩解的風險,加劇社會價值觀的分化。
(二)圈層區隔擾亂網絡信息的生態場域
從短期來看,算法推薦的精準化分發信息功能便捷了人們的生活,然如前述,算法分發信息極易形成封閉信息空間,催生具有高度同質性的多元化小眾同類社群。此種同類社群中的個體往往具有類似或相同的價值觀點,并在回音室效應下不斷固化其社群內部的價值觀,長期以往,不同社群的價值觀差異將會逐漸演化為不同社群的個體借以相互區分的數據標簽,進而形成圈層區隔。圈層區隔容易滋生群體極化,且暗含信息操縱風險,破壞網絡信息的生態場域。
同一圈層中的個人往往具有類似或相同的價值觀點,一旦某一圈層中的個體與另一圈層的個體產生矛盾,個體間的矛盾容易演化為社會階層矛盾,正如美國學者凱斯·桑斯坦所指出的:“網絡對許多人而言,正是極端主義的溫床,因為志同道合的人可以在網上輕易且頻繁地溝通,但聽不到不同的看法。持續暴露于極端的立場中,聽取這些人的意見,會讓人逐漸相信這個立場。”[ 8 ]同時當前處于信息大爆炸時代,但在算法推薦下的人類長期處于信息偏食狀態,產生了信息獲取的路徑依賴,其信息甄別能力和理性思考能力將被削弱,如此一來,人類將難以在海量數據、信息和知識冗余中識別并思考真實、有益的成分,以致極易被不良信息、極端信息所誤導,從而增加群體極化行為出現的可能性。
此外,算法推薦技術的單一信息環境使得網絡信息生態環境暗含信息操縱風險。算法推薦使得人們長期處于同質化的信息氛圍并陷入圈層區隔的漩渦中,這就給虛假信息的傳播制造了機會。虛假信息與突發公共事件通常存在伴生關系,當突發公共事件發生且相關職權部門的調查和信息公開無法在短時間內完成并滿足人們內心預期時,不法分子即可能制造虛假信息,并利用人們在算法精準分發信息下形成的固有認知框架或偏見,進一步傳播虛假信息,破壞網絡信息生態場域。
三、協同共治:構建多元主體共同治理算法推薦模式
針對算法推薦所引發的主流意識形態傳播危機,需要充分發揮平臺、政府以及用戶的治理功能,構建多元主體協同治理模式。
(一)平臺自律:強化社會責任,加強算法的“自我規制”
算法“黑箱”的天然存在致使算法運行和決策原理的難以預測和解釋性會持續存在,即便算法部署者也難以完全控制算法,這形成了某種意義上的“技術無意識”[ 9 ]。盡管如此,由算法部署者以自律的方式(算法的“自我規制”)來規范算法的設計和運行,仍然較之其他社會主體更具優勢,“自我規制對相應的知識與相關的專家能夠實現更加有效的調動,具有及時性、富有彈性的特征,更加適合事物本質。”[ 10 ]故智能媒體平臺作為算法推薦技術的部署者,應當強化自身的社會責任,將傳播正能量信息作為己任,充當協同治理的技術主體。具體而言,智能媒體平臺在規制算法推薦過程中應回歸技術本身,采取優化算法推薦技術的核心路徑,不僅需要優化算法設計,同時應加強算法研發倫理培訓和創新信息審核模式。
首先,智能媒體平臺應將傳播正能量信息設置為算法設計的核心任務,在算法初始設計中植入算法公平、算法正義、公序良俗等原則性要求,借以優化并支配算法推薦下的信息生產、輸出和分發過程。當前美國在算法風險的治理上也主要以自律規范為主,其國內大型網絡公司作為主要算法部署者被要求進行自我監管,比如Google的AI倫理委員會就致力于建立算法應用的倫理準則,自我糾正算法產生的不利后果。
其次,鑒于算法“黑箱”的存在,潛藏在代碼背后的算法研發人員的價值偏向往往難以被發現和監管。因此,增強算法研發人員的道德自律是確保智能媒體平臺運用算法推薦傳播正能量信息的重要前置條件。智能媒體平臺應當對算法研發人員開展專門性的算法倫理培訓服務,通過倫理培訓的前端遏制能夠最大限度地預防算法被嵌入價值偏向。
最后,在算法生產、輸出和分發信息的全流程中層層設置“過濾網”,智能過濾涉歷史虛無主義、個人享樂主義、極端民族主義等不良價值觀的數據。但當前的智能過濾尚無法完全識別信息中的“隱語義”,在采用智能過濾的同時,仍然需要利用人類自身的價值觀念和專業知識對算法所生產、輸出和分發的信息作進一步審核,即需要采用技術+人工的協同審核模式,從而形成傳播正能量信息的有序格局。
(二)政府規制:加強算法監管,形成算法安全治理格局
作為公權力中心的政府也應當加強對算法推薦的監管,構建算法安全監管體系。2021年《關于加強互聯網信息服務算法綜合治理的指導意見》《互聯網信息服務算法推薦管理規定(征求意見稿)》相繼發布。結合這兩份法律文件,政府應當在總體上建立算法推薦服務提供者的分類分級管理制度,實現事前、事中、事后的全鏈條監管,形成算法安全治理格局。
建立算法推薦服務提供者分類分級管理制度的首要前提是要合理劃分算法的風險等級。我國《個人信息保護法》第55條( 2 )和第56條( 3 )形成了個人信息保護影響評估制度的規范群,盡管其直接指向的是個人信息保護,然實際上可擴張適用于各類算法應用場景,故算法的風險等級設置也可參照此規范群,即依據算法自主決策程度、對個人權益和社會公共利益的影響程度以及適用場景性質等因素,將其劃分為低風險、中風險與高風險三個等級。完全依據預定程序處理數據,且不存在算法自主決策,亦不影響個人權益和社會公共利益的算法可列為低風險算法,目前低風險算法主要應用于在線翻譯、游戲娛樂等場景。通過采集用戶信息運行并充當協助人類決策角色,可能存在侵害個人權益和社會公共利益的算法可列為中風險算法,目前中風險算法主要應用于搜索引擎、新聞推送、司法輔助等場景。高風險算法即指的是由算法自主決策完全取代人類決策,可能存在直接影響個人權益和社會公共利益的算法,目前主要應用于金融領域、信用評分、行政決策等場景。
依據前述所言之低、中、高的算法風險等級劃分,在事前監管上,對于運用低風險算法的算法推薦服務提供者應采取較為寬松的備案制度,而對于運用中、高風險算法的算法推薦服務提供者,則應采取審批制度,并課以其相應的算法公示披露義務。運用中、高風險算法的算法推薦服務提供者,應當公示算法推薦的應用場景,披露算法數據選取、采集與使用情況等。此外,課以算法推薦服務提供者披露義務的同時應注意服務對象的知情權與服務提供者的知識產權間的利益平衡,免于算法推薦服務提供者披露涉及商業秘密的算法技術細節。同時,囿于算法“黑箱”的天然不可解釋性,應當避免對算法推薦服務提供者課以過重的披露義務,以避免矯枉過正。在事中監管上,需要結合算法的風險等級建立健全算法安全風險監測和評估制度。對于運用低風險算法的算法推薦服務提供者,相關職權部門應定期開展算法安全風險監測和評估工作,而對于運用中、高風險算法的算法推薦服務提供者,應常態化開展算法安全風險檢測和評估工作,實時監測并評估算法設計、部署和應用等環節的缺陷和漏洞,以便及時發現并應對算法應用安全問題。在事后監管上,應當建立算法回查制度,即要求算法推薦服務提供者切實記錄并妥善保存涉及算法推薦核心環節的資料(如數據集的選擇、算法的選取等),以便相關職權部門隨時回查。
(三)用戶協治:賦予用戶權利,塑造“算法協治者”形象
智能媒體平臺運用算法推薦的初衷是為了在多元信息環境中及時地向用戶推薦和分發其感興趣且新鮮的信息,從而增加用戶黏性和忠誠度。用戶作為算法推薦的服務對象,算法推薦直接關系著用戶自身權利,故用戶理應享有相應的權利,并以“算法協治者”的形象與其他主體共同規制算法推薦。
用戶作為“算法協治者”的關鍵在于落實算法解釋權。關于算法解釋權,《個人信息保護法》第24條第3款已有立法雛形,即“通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明。”該條款將算法解釋權的適用范圍限定為自動化決策場景,同時《個人信息保護法》第73條第2項將自動化決策定義為“通過計算機程序自動分析、評估個人的行為習慣、興趣愛好或者經濟、健康、信用狀況等,并進行決策的活動。”因此,若單純從文義解釋的角度分析,自動化決策似乎只與完全由計算機程序作出的決策相關,并不包括含有人工干預因素的輔助型算法決策。此種解釋下,運用算法推薦技術精準分發信息的智能媒體平臺似乎無法納入算法解釋權的適用范圍內。
實際上,不能機械、武斷地單從文義解釋的角度將含有人工干預因素的輔助型算法決策排除在算法解釋權的適用范圍外,而應結合立法目的作合理的擴大解釋。《個人信息保護法》的立法目的在于保護個人信息權益,規范個人信息處理活動和促進個人信息的合理利用,而如前述,通過采集用戶信息運行并充當協助人類決策角色的算法其風險等級應被定位為中級,同樣存在侵犯個人權益和社會公共利益的可能性,可見,一律將輔助型算法決策排除在算法解釋權的適用范圍外并不符合立法目的。對此,歐盟《通用數據保護條例》(General Data Protection Regulation,GDPR)的相關規定具有借鑒意義。GDPR將決策區分為人工決策和自動化決策,并將沒有實質意義的人工干預劃歸為自動化決策[ 11 ]。為防止算法使用者投機性規避該條款,歐盟GDPR工作組發布的AP29指南表明人工干預應當具有實質的監督意義,應當由具有權限和能力對決策結果進行改變和影響的人執行,不能因為具有人工因素就徹底排除在自動化決策的范圍之外[ 12 ]。換言之,即具有人工因素,但該人工因素并無實質監督意義,無法對算法決策結果進行改變和影響的輔助型算法決策仍然應當歸屬于自動化決策。
以運用算法推薦技術的智能媒體平臺為例,從表征來看,算法推薦技術是以智能媒體平臺的工具的形態存在的,然實質上,智能媒體平臺在精準分發信息過程中主要依賴的是算法推薦技術(計算機程序),其勾勒的用戶“個人畫像”直接決定了智能媒體平臺生產、輸出和分發的信息的類型、內容等。盡管部分智能媒體平臺可能在信息分發前采用人工審核信息的方式,但這僅僅是對算法決策結果進行的事后審查,而非直接改變和影響算法的決策結果。可以說,此類輔助型算法決策與自動化決策的內涵與外延并無本質差別,故也應將運用算法推薦技術的智能媒體平臺納入自動化決策的范圍內,賦予用戶相應的算法解釋權。用戶算法解釋權的內容主要體現在兩方面:一是用戶有權要求平臺針對其“個人畫像”形成的邏輯和依據(包括平臺抓取的數據類型、特征,形成畫像的具體維度等),以用戶可理解的語言進行解釋;二是用戶有權要求平臺針對算法推薦下的信息生產、輸出和分發邏輯以用戶可理解的語言進行解釋。
總體來說,《個人信息保護法》第24條第3款為智能媒體平臺的用戶行使算法解釋權提供了法律依據,但該條款僅籠統地規定當使用智能媒體平臺利用算法推薦作出的決策是“對個人權益有重大影響的決定”時,用戶得以行使算法解釋權,但并未明確闡釋何為“對個人權益有重大影響的決定”,也未廓清智能媒體平臺的算法解釋限度。
關于何為“對個人權益有重大影響的決定”,我國2021年6月實施的《信息安全技術-個人信息安全影響評估指南》(GB/T 39335-2020)對個人權益影響分析作了詳細規定,其中第5.5.1條將個人權益影響劃分為四個分析維度,即限制個人自主決定權、引發差別性待遇、個人名譽受損或遭受精神壓力和人身財產受損,并基于此在附錄表D3將個人權益影響程度劃分為嚴重、高、中、低四個等級,且明確了相應的判定準則。同時,該指南還結合前述個人權益影響劃分的四個分析維度,在附錄表D4中逐一列明了個人權益影響程度的具體判定標準。據此,實踐中可參照這些準則和標準對何為“對個人權益有重大影響的決定”進行判定,將個人權益影響程度等級為“嚴重”和“高”的列為具有“重大影響”。
關于算法解釋的限度,應綜合考慮社會效用和應用場景。當算法的應用場景與個體人身利益和敏感信息高度相關,算法解釋權的社會效用可以傾向于個體,要求算法解釋內容盡量能被個體所理解,例如在醫療行業領域。當算法的應用場景與企業商業秘密緊密相連時,算法解釋權的社會效用即不能過于個體化,而應綜合平衡個體與企業間的利益關系,合理限制算法解釋的內容[ 13 ]。由于本文主要聚焦于解決算法推薦在智能媒體平臺中運用的相關問題,故算法解釋限度這一問題的闡釋將限定于新聞推薦和分發的場域下。如前述,新聞推薦和分發對于個體的價值觀導向起著極其重要的作用,當算法推薦技術的運用造成了“信息繭房”、圈層區隔等效應時,個體的社會價值觀將會逐漸演化為群體社會價值觀,甚至可能衍生群體極化、信息操縱等風險,從而對主流意識形態造成沖擊,危害國家意識形態的安全。故在新聞推薦和分發的場域下,算法解釋與社會公共利益休戚相關,其解釋限度應當在兼顧個體和企業的基礎上,傾向于社會公共利益的保護。此外,囿于算法“黑箱”的天然性,或可通過立法的方式,以算法模型的合法性作為限制條件。當算法模型初始即符合立法規定時,應可免于算法部署者或使用者對算法模型作進一步解釋,從而避免課以算法部署者或使用者過重的解釋義務。
四、結語
算法推薦的治理是智能傳播時代的重大命題,應同時考慮技術層面和價值負荷層面的要求。從目前的實踐來看,技術并不必然具有中立性,基于代碼內嵌規則,算法部署者和使用者或多或少會嵌入其價值觀,正如尼爾·波茲曼(Neil Postman)所言:“每種技術都有其內在偏向,在它的物質外殼下,它常常表現出要派何用場的傾向。只有那些對技術的歷史一無所知的人,才會相信技術是完全中立的。”[ 14 ]同時,在算法推薦下的人類因過度信息偏食,加劇形成了信息繭房,衍生回音室效應,更甚者形成圈層區隔,滋生群體極化和衍生信息操縱風險,進而擾亂網絡信息生態場域。治理算法推薦的目的并不在于徹底消除智能傳播路徑,而是為了廓清算法推薦在智能傳播時代下的技術運行邏輯和價值負荷序列,通過系統化的思考和制度化的規范,促使算法推薦以技術工具的形態造福人類。
注釋:
(1)美國學者迪亞克普拉斯(Diakopoulos)將算法“黑箱”區分為兩種形態:初級形態與中間形態。算法“黑箱”的初級形態對應的是監督式學習技術,其運行過程有固定模板,輸入和輸出都是已知信息;中級形態指的是算法運行過程中僅輸出側是已知的,其他環節具有不透明性。有學者在此基礎上提出了算法“黑箱”的進階形態,對應的是無監督式機器學習,即算法輸入和輸出兩側均為非透明的,形成了一個閉環黑箱。
(2)《個人信息保護法》第55條規定:“有下列情形之一的,個人信息處理者應當事前進行個人信息保護影響評估,并對處理情況進行記錄:(一)處理敏感個人信息;(二)利用個人信息進行自動化決策;(三)委托處理個人信息、向其他個人信息處理者提供個人信息、公開個人信息;(四)向境外提供個人信息;(五)其他對個人權益有重大影響的個人信息處理活動。”
(3)《個人信息保護法》第56條規定:“個人信息保護影響評估應當包括下列內容:(一)個人信息的處理目的、處理方式等是否合法、正當、必要;(二)對個人權益的影響及安全風險;(三)所采取的保護措施是否合法、有效并與風險程度相適應。個人信息保護影響評估報告和處理情況記錄應當至少保存三年。”
參考文獻:
[1]王雨田.控制論、信息論、系統科學與哲學[M].北京:中國人民大學出版社,1988:93.
[2]張淑玲.破解黑箱:智媒時代的算法權力規制與透明實現機制[J].中國出版,2018(7):49-53.
[3]張志安,湯敏.論算法推薦對主流意識形態傳播的影響[J].社會科學戰線,2018(10):174-182.
[4]武豹.算法推薦時代主流意識形態傳播面臨的挑戰及其應對[J].中國石油大學學報(社會科學版),2021,37(4):98-104.
[5]侯東德,張麗萍.算法推薦意識形態風險的法律防范[J].重慶社會科學,2021(8):77-90.
[6]凱斯·R·桑斯坦.信息烏托邦 眾人如何生產知識[M].北京:法律出版社,2008:104-110.
[7]薛永龍,汝倩倩.遮蔽與解蔽:算法推薦場域中的意識形態危局[J].自然辯證法研究,2020,36(1):50-55.
[8]凱斯·桑斯坦.網絡共和國[M].黃維明,譯.上海:上海人民出版社,2003:50-51.
[9]王聰.“共同善”維度下的算法規制[J].法學,2019(12):66-77.
[10]高秦偉.社會自我規制與行政法的任務[J].中國法學,2015(5):73-98.
[11]姜野,李擁軍.破解算法黑箱:算法解釋權的功能證成與適用路徑——以社會信用體系建設為場景[J].福建師范大學學報(哲學社會科學版),2019(4):84-92,102.
[12]張欣.免受自動化決策約束權的制度邏輯與本土構建[J].華東政法大學學報,2021,24(5):27-40.
[13]張凌寒.商業自動化決策算法解釋權的功能定位與實現路徑[J].蘇州大學學報(哲學社會科學版),2020,41(2):51-60,191.
[14]尼爾·波茲曼.娛樂至死[M].章艷,譯.北京:中信出版社,2015:102.
[責任編輯:王研]