摘 要:作為大數據與人工智能技術遷躍式發展的產物,算法推薦在信息傳播領域中正引領著新一輪的資訊分發革命。立足于技術的意識形態性視角,算法推薦在承襲技術合理性語境的過程中也暗含著系列意識形態安全風險。為此,需要從技術的意識形態向度審視算法屬性,從機制規則的內在制約角度思考算法邏輯,從意識形態安全的要素層面關注算法變量,從工具理性與價值理性的平衡視角審視算法倫理,從技術“黑箱”的屬性特點方面考量算法規制。如此,才能形成對智能算法推薦風險成因的多維系統分析,進而在維護國家意識形態安全的視閾中,為應對防范風險提供決策參考。
關鍵詞:智能算法;算法推薦;意識形態安全;國家安全
DOI:10.15938/j.cnki.iper.2025.02.018
中圖分類號:D64;TP391.3""" 文獻標識碼:A""" 文章編號:1672-9749(2025)02-0116-08
近年來,伴隨著大數據可用性與算力水平的提升,以從海量數據中采集信息并進行知識歸納為特征的智能算法在重構互聯網底層程序邏輯的過程中,正逐漸引領著各領域算法革新的新常態。以“信息找人”“信息私人定制”為特征的智能算法推薦,在顛覆傳統以人工為主導的“編輯分發”模式的過程中,正成為微博、微信等社交媒體平臺,抖音、今日頭條等聚合型資訊終端平臺,淘寶、美團等電子商務平臺的標準配置,并在推動信息生產、篩選、分發方式變革的過程中,不斷改變著互聯網信息的分發秩序和傳播效果,特別是重塑了社會意識形態內容傳播的媒介生態。從技術的二重性視角出發,智能算法推薦的發展既為主流意識形態內容的分發提供了數據支持和動力因素,但也容易導致社會意識形態內容傳播面臨信息操縱、信息窄化、信息失控、信息去中心化等風險。基于總體國家安全觀的理論視角,只有系統探討這一新技術實體對意識形態安全所帶來風險的成因,才能為嘗試提出科學的治理方案提供決策依據,這對我國的網絡安全、意識形態安全乃至政治安全、國家安全無疑有著重要的理論和現實意義。
一、算法屬性探析:意識形態安全風險的生成根源
以計算機算法和機器深度學習為內核的算法推薦內置著客觀、中立的工具和知識體系,但作為人的創造物,其也不可避免地承載著程序設計者的價值信仰和理性建構,特別是在延續科技內在意識形態性面向的過程中,繼續承襲著技術依賴的意識形態語境。
1.科學技術的意識形態屬性
馬克思恩格斯認為“科學是歷史杠桿”和“最高意義的革命力量”。以馬爾庫塞、哈貝馬斯、霍克海默為代表的法蘭克福學派學者也在馬克思主義科技觀的基礎上進一步從政治學、倫理學、社會學、哲學等層面探究作為“精神生產”與“智力勞動”的科學技術對社會發展和社會意識所產生的影響。
其一,“科學與技術成為意識形態。”馬克斯·韋伯將科學技術視為意識形態,提出在發達的工業社會或后期資本主義社會中,科學技術執行著意識形態的功能,這與法蘭克福學派的科學技術社會功能理論有著共通之處。霍克海默在《科學及其危機札記》一文中也提出科學是意識形態的觀點,他指出“之所以說科學是意識形態,是因為它保留著一種阻礙它發現社會危機真正原因的形式”[2]。馬爾庫塞認為,作為一種新的控制形式的當代科學技術具有著明確的意識形態屬性,其在為社會設定理想生活幻景的過程中也致使人們在無法抵抗被技術消解里逐漸趨同。哈貝馬斯繼續發展了“科學技術即是意識形態”的命題,他認為科技不僅是一種直接的生產力,更重要的是它日益成為社會的意識形態。
其二,“技術的合理性已經變成政治的合理性。”馬爾庫塞從馬克斯·韋伯關于資本主義社會的“合理化”理論視角出發,認為科學技術在提高生產效率的過程中發揮著穩定社會秩序與為現存社會制度做辯護的作用,科技進步在為統治中的其他權力提供合法性的基礎上深刻嵌入到了整個社會的統治秩序里。“技術的合理性已經變成政治的合理性”[3],技術控制體現出了“有益于整個社會集團和社會利益的理性”[4],統治的合理性需要把同科學技術進步聯系在一起的生產力的提高作為自身合法性的基礎。哈貝馬斯也在闡釋追求效率的“工具行為”和追求相互理論意見一致的“交往行為”的理論基礎上,提出“工具行為”正日益侵入“交往行為”,技術合理性開始轉化成為資本主義對人的統治的合理性。
其三,“技術理性的概念本身就是意識形態。”霍克海默認為,科學同宗教、哲學、法律等意識形態一樣,能夠為社會不合理性做合法性置辯,其掩蓋了社會的真實本性,具有欺騙性和虛幻性。哈貝馬斯則提出,在發達工業社會中,科學與技術作為新的合法性形式已逐漸超越了意識形態的舊因素而演化為以科學為核心的新型意識形態或技術主宰觀念的意識形態。科學技術具有著生產力與意識形態的雙重功能,從功能的關系上看,科技的生產力功能是科技成為意識形態的前提,科技的意識形態功能則是科技成為生產力的結果。如此,科技與意識形態間的鴻溝逐漸被彌合,科技超越了生產力范疇而具有了意識形態的屬性,并進而由批判生產關系的基礎成為了為政治合法性做辯護的工具,技術理性的概念也由此披上了意識形態屬性的外衣。
2.算法推薦的意識形態屬性
作為人工智能與大數據技術在信息傳播領域中融合生成的新技術產物,算法推薦在占據互聯網資訊分發生態系統核心驅動地位、構成虛擬空間信息處理運行規則基礎的過程中,也不可避免地內置著科學技術的意識形態面向。
首先,算法推薦沿襲了“技術理性”“技術依賴”的意識形態語境。算法推薦以一種前沿信息分發技術的形態進入到傳播市場里,在提升互聯網資訊分發精準有效性、滿足用戶個性化信息定制需求中展現出的技術進步合理性“外衣”使其存在發展受到廣泛追捧歡迎。在逐步取代人工編輯,推動傳統信息分發模式革新的基礎上,算法推薦展現了由技術進步所為受眾營造的更加舒適的信息場域,依然呈現著技術的所謂“中立性”表象,而實際上已經悄然掌握了信息社會中的新聞把關權、信息分發權、議程設置權乃至對人們價值觀的塑造權與社會意識形態的主導權。它承襲了科技在社會各領域中的公信力,并繼續將“技術理性”“技術依賴”的語境延續到現實社會,執行著科學技術的意識形態功能。
其次,算法推薦承載的是程序所有者的理性建構。算法作為程序編碼本身沒有偏見和主觀性,但其作為人的創造物卻在架構設計中嵌入了程序所有者的主體價值意識,如歧視、偏袒、刻板印象等。程序所有者實際上掌握了算法的可見性權力,特別是在算法推薦廣泛運用的平臺媒體中,為達到預期推送效果而預先過濾并突出顯示選項是系統所有者進行算法編碼的價值落點。如平臺為優化最大商業利益變量,常常會通過“精選”某些內容作為一定時段分發推送、賦予流量的重點,而這種“精選”內容的衡量標準實際上承載的就是平臺的利益傾向,這種被“操縱”過的信息環境滲透的則是平臺媒體的價值導向。程序所有者的理性建構在一定程度上使算法推薦擁有了主觀色彩,編碼應用也在底層設計邏輯中暗含了人的主體意識。
最后,算法推薦能夠改變個體的價值傾向與意識認知。算法推薦以編碼程序生成的智能算法為核心,在定義內容特征向量、收集個體行為數據、分析用戶信息偏好、推薦分發適配內容的基礎上,能夠自主根據用戶畫像的比對找出數據間的關聯關系以實現個體與內容的精準有效對接。個體總是依賴認知啟發或心理捷徑進行信息接收。建立在信息收集、軌跡監控、數據計算等提升用戶黏性基礎上的智能算法致力于在應用運行中了解人、分析人,個體在將信息選擇決策權交由算法的過程中也越來越信任于其所進行的內容價值判斷,而“對媒介影響潛意識的溫順的接受,使媒介成為囚禁其使用者的無墻的監獄”[5]。算法推薦的價值判斷標準在一次次的信息分發中持續不斷地向人們進行滲透,潛移默化地塑造著個體的思想意識和價值選擇,影響著人們的認知和行為,并意在最終形塑個體對外部世界的看法。
二、算法邏輯推演:意識形態安全風險的產生機制
當前主流的智能算法推薦規則類型繁多,以人口統計學信息數據、物品信息數據、用戶個體信息數據、用戶行為信息數據為建模和預測依據,總體上可以把算法推薦的系統類別劃分為基于內容的推薦、基于協同過濾的推薦、基于流行度的推薦以及混合推薦等。不同推薦算法系統內置的程序機制不同,其在基于各自算法、模型及數據處理方式上所產生的意識形態風險路徑與威脅也各有差異與側重。
1.基于內容的推薦算法: 偏見繭房與認同削弱
基于內容的推薦算法(Content-based Recommendation)是利用機器學習通過數據標簽事先定義好推薦物品或信息內容的特征向量,然后計算出對象或項目間的相關性,再基于用戶已有的數字軌跡(如瀏覽、評分、收藏、購買記錄等),推薦與其偏好類別在特征標簽上具有相似屬性的其他項目,通常包含特征提取、特征向量化、相似度計算、推薦生成四個步驟。基于內容的推薦算法核心注重從用戶自身的行為數據出發,依賴于通過個體偏好進行計算預測,致力于實現個性化分發與精準化推送。但與此同時,這種一切以用戶興趣、需求為導向的算法邏輯也存在著遮蔽意識主體信息視野、固化其已有認知的風險。這是因為受眾本位的邏輯法則使得個體認知與價值傾向不斷在算法推薦創造的舒適信息場域中獲得正向激勵反饋,從而導致用戶沉溺于自我意識的“回音室”中。“公眾因注意自己選擇的東西和使自己愉悅的通訊領域,久而久之,會將自身桎梏于像蠶繭一樣的‘繭房’之中。”[6]這將導致意見的自由市場受到一個個偏見“繭房”的侵蝕,從而削弱社會意識形態的認同效度。
2.基于協同過濾的推薦算法: 圈層議程與共識分化
基于協同過濾的推薦算法(Collaborative Filtering Recommendation)是根據“兩個用戶喜歡的項目交集越大,這兩個用戶越相似”[7]的假設所構建的,也就是人們通常所說的“物以類聚,人以群分”。這種算法根據用戶的個體數據與行為數據來計算用戶間的相似度,并為用戶推薦與其興趣相似用戶喜歡的物品以及與其觀點一致用戶偏好的信息,經過建立用戶—物品評分矩陣、相似度計算、預測評分、推薦生成四個環節完成信息內容的分發程序。協同過濾被視為是“利用集體智慧”的典范算法,但這種基于用戶間的相似度、群體間的契合度進行推薦的規則邏輯也進一步形塑了“人以類聚”的網絡空間,特別是加劇形成了具有“單向度思想和行為模式”的社會群體。當前網絡空間中存在的“地域歧視”“男女對立”“階層對立”等現象都是基于社群的聚集效應所引發的,“在群體營造的‘回音室’中,個體將排斥超出既有價值觀念的思想,進一步強化已有偏見,加劇社群之間的敵對情緒”[8]。這種社群之間的認知區隔與不同圈層之間的價值對立將會造成社會價值觀的沖突與分裂,并進而在一定程度上分化了社會價值共識的凝聚效用。
3.基于時序流行度的推薦算法: 熱度至上與主流冷落
基于時序流行度的推薦算法(Popularity-based Recommendation)應用主要以各大門戶網站上的“熱搜”“榜單”等為代表。應用后臺根據對頁面訪問量、獨立訪客數量、分享率、討論量等指標數據的統計,利用加權平均或指數衰減等方式對信息內容的熱度和流行度進行量化評估,再選擇排名靠前的信息內容作為推薦結果展示推送給所有用戶。微博的“熱搜榜”、微信的“24小時熱文榜”、嗶哩嗶哩的“全站日榜”、抖音的“視頻榜”等都是由基于時序流行度的推薦算法所生成的。廣泛應用于各商業平臺中的基于時序流行度的推薦算法秉持著“熱度為先”“流量至上”的規則邏輯,為迎合高閱覽量、高傳播量、高點贊量的高收益變現閉環,娛樂八卦、炫富享樂、低俗獵奇、負面事件等迎合人們娛樂需求的信息內容便會充斥網絡空間,這不但會導致那些蘊含思想性、科學性、理論性的內容被算法計算規則所“冷落”,并且傳播權力的泛算法化也在一定程度上影響著主流媒體的議程設置實效。這也致使公共信息的生存空間不斷被擠占,無序傳播離析著主流價值觀導向,進而逐漸削弱主流意識形態對社會集體認知的引領力。
需要說明的是,如今的算法推薦系統在實際應用中并不會僅采取單一的推薦算法類型,因為任何一種推薦算法都存在著自身的缺陷。此時各種成熟網站與應用往往會通過組合不同類型的推薦算法來彌補缺勢,并根據不同的應用場景與目標項目選擇多種適配推薦算法進行混合平衡,從而達到更好的推薦效果。混合方式的選擇通常會使用加權、變換、層疊、特征組合、特征擴充等手段來提升算法的綜合性能,此時由算法推薦所帶來的意識形態安全風險也會呈現出疊加態勢。
三、算法變量解析:意識形態安全風險的催化要素
在由智能算法推薦營造的新信息分發場域中,系列意識形態安全要素也在算法變量的調控下發生了新的更變,主要表現在意識形態內容的傳播方式、受眾的信息獲取習慣、內容傳播的價值導向與意識形態安全的內外環境上。正是這些因素的變更打破了維系意識形態安全的平衡狀態,并由此生成了新的風險威脅。因而只有理清這些因素的變化情況,才能進一步剖析算法推薦內置意識形態安全風險的成因。
1.意識形態內容傳播分發方式的更迭
憑借著技術優勢,算法推薦在推動信息分發方式革命性變革的過程中正逐步從技術工具演變為信息內容的擇取者、把關者與分發者,成為形塑社會意識形態的新媒介工具。在以“編輯分發”為主導的報紙、電視、廣播等傳統大眾媒體中,內容的生產、篩選、審查、擇取、分發都交由專業媒體人士把控,主流媒體憑借對媒介權力的絕對掌控力使得社會意識形態內容在分發中處于穩定可控的狀態,“主流媒體高效的議程設置實效使得主導意識形態在凝聚社會價值共識方面處于絕對的優勢地位”[9]。而伴隨著算法推薦的興起,信息處理過程中的各項“準公權力”卻在逐步由專業編輯轉移到算法當中,傳統媒體的“精英主義建構”與“一元主導地位”正逐漸被顛覆。此時,由技術工具“進化”為人工智能決策系統的算法推薦憑借其媒介權力逐步成為主流意識形態塑造中的重要角色,促使了意識形態內容傳播分發方式的轉變。
2.意識形態受眾信息獲取習慣的改變
傳統媒體囿于“編輯分發”模式的固有局限性,往往會將受眾假定為“被動接受信息的客體對象”以及“單一且近似均質的人群”。鑒于專業媒體對信息資訊篩選分發的把控,個體對內容的自主選擇權相對有限,此時的受眾處于被動的信息接受者位置。伴隨著算法推薦的廣泛應用,其個性化、精準化的分發特質使得用戶與平臺之間逐漸建立起了一種對接聯系,用戶開始從“想象的受眾”轉變為“可測量的主體”,個體的興趣、偏好、個人特質、消費優先級等開始成為信息分發過程的中心評估環節,信息的傳播邏輯開始轉變為提升用戶滿意度、增強用戶粘性為宗旨的“用戶至上”。基于用戶的性別、年齡、職業、學歷、收入等個體信息以及用戶的瀏覽記錄、點贊、關注、評論、轉發等行為數據,算法推薦能夠實現項目與對象間的關聯建模,在將用戶置于信息分發主動位置的基礎上,重新確立起了信息接收客體的主體地位。
3.網絡信息內容傳播價值導向的轉換
傳統媒體在版面、欄目的編排設置中需要考慮信息的實效性、通俗性與熱度等因素,社會利益至上的分發準則也需要將內容的價值要素作為考評的關鍵。依靠專業化、深度化的采編團隊,“編輯分發”模式發揮著“社會膝望者”的作用,在對信息進行篩選、甄別的基礎上,堅持以正確價值導向內容為受眾塑造起看待事物的正確認知與成熟思考體系。在通過社會主流價值觀整合多樣化思想意識的過程中,傳統媒體能夠保證主流意識形態在各種社會意識形態中牢牢確立起主導地位。而在算法推薦主導的信息分配機制下,信息“私人訂制”時代的來臨以及平臺商業邏輯在信息分發導向中的融入也正逐漸打破傳播生態中以重社會價值、重價值理性為核心的分發目的。算法技術逐漸成為了用戶本位、平臺本位的“迎合者”,而背棄了社會價值思想進步的“引領者”,網絡信息內容傳播的價值導向也逐漸發生了偏移。
4.網絡意識形態安全內外環境的重塑
意識形態安全需要維持在一種客觀上沒有威脅,主觀上沒有恐懼,主體間沒有沖突的內外環境里,如此,其才能發揮維系社會穩定與政權合法性,協調社會成員實現認識、行動統一性,抵御異己敵對意識形態侵蝕、攻擊的維護功能。以自上而下線性集中式信息傳遞為特征的大眾媒體對信息議程的設定具有很強的可控性,能夠確保指導思想、政策理論、道德秩序、政治信仰、民族文化等意識形態要素處于絕對安全、占據主導位置的狀態之中。而伴隨著聚合平臺的興起加之算法推薦技術的驅動,內容生產與傳播渠道正逐漸打破原先由主流媒體統一掌控的局面,爆炸式信息過載與定點式信息分發正在弱化主流意識形態教育的統一性特質,意識形態安全的內部環境受到了干擾。與此同時,機器學習算法的“黑箱”屬性也使敵對勢力能夠利用高度精準、隱蔽化的手段進行非主流意識形態的傳播與滲透,從而使網絡意識形態安全的外部環境受到沖擊。
四、算法倫理考量:意識形態安全風險的“理性”成因
任何一項科學技術在創造應用中都被賦予了兩種理性行為,即“價值合理性行為”與“目的合理性行為”,馬克斯·韋伯也將其歸納為工具理性與價值理性。工具理性扮演著秉持功利性、效用性至上的技術“開拓者”角色,價值理性扮演著堅守價值性、倫理性的社會“守望者”角色,二者之間只有調適張力才能保證技術向善發展。算法推薦作為一項技術所帶來的意識形態安全風險也需要基于技術倫理的兩種理性層面考量其成因。
1.工具理性是算法推薦的主導理性
工具理性(Instrumental Reason)追求“能夠以數學形式進行量化和預測后果以實現目的的行為”[10],在此基礎上形成的基礎科學、技術科學、應用科學構成了當今人類文明積淀的基礎。工具理性強調人的行動在功利性動機的驅使下會注重從效果最大化的角度利用工具效應作為中介手段以達到自身目的,具有輕人文、趨于功利化的傾向。在近代資本主義發展工業現代化的道路上,追求有用性成為了社會進步的絕對真理,但與此同時工具理性的逐漸凸顯也伴隨著價值理性的日漸式微,這也導致了社會發展中對主體情感和精神價值的漠視,并引發了一系列價值性思維的滑坡。
在算法推薦時代,智能算法大大提高了信息分發的處理效率, 實現了對每一個用戶做精準計算并形成個人信息流的目標。算法對信息分發效度、信息傳播精準度、信息流量營收的推崇使其蘊含的工具理性極大膨脹,“在技術光環之下,推薦算法從不掩飾對資本和利潤的追逐,將‘流量為王’奉為圭臬”[11]。在堅持有用性價值目標至上的過程中,思想意識、義務、尊嚴、美、規訓等信念也被不同程度地忽略。平臺算法中的傳播法則與設計邏輯采用的是在自然語言處理基礎上的標簽化、指標化與相似化,實際上內容價值并沒有作為信息價值衡量的首要標準。算法的程序設計者在推進技術完善的過程中也不斷通過采用流量池、疊加推薦和熱度加權等模式致力于打造“爆款”、加大“引流”、實現“圈粉”,以完善平臺盈利的變現閉環,這都導致資本主導下的推薦算法逐漸失去客觀性的價值立場,進而異化成為單純逐利的工具。
算法之中主導的工具理性使人們陷入“膚淺、空洞、貧乏的精神境遇,失去對嚴肅、崇高、理性的主動追問”[12]。工具理性的作用被無限放大, 在凌駕于價值理性之上的過程中逐漸變成了一種霸權, 形成支配人、控制人,主導社會、影響社會的無形力量。
2.價值理性的應然“主位”實際缺失
價值理性也稱實質理性,是馬克斯·韋伯在其“合理性”理論中提出的與工具理性相對應的另一種理性形態,其主張“通過有意識地對一個特定的行為——倫理的、美學的、宗教的或作任何其他闡釋的——無條件的固有價值的純粹信仰,不管是否取得成就”[13],是指絕對的不計后果地遵從某些價值信念而行事的行為。價值理性遵從一切行動的出發點應以責任感、道德和誠信等純粹信仰為基礎,通過純正向善的動機以及合理合規的手段來實現自己意欲達到的目的,而不管結果如何。資本主義的高度工具理性化會導致價值上的非理性,而二者間的沖突和悖論也是資本主義社會出現危機與諸多矛盾的體現。
從人的最終歸宿和終極關懷上看,工具理性應該是為價值理性所服務的,然而在資本運作邏輯占主導的算法推薦中,工具理性卻在侵占著價值理性的表達陣地,其不但忽略了以人為本的信息分發邏輯和傳播規則,并且導致了觀照社會公共領域的價值理性的缺位,特別是致使算法推薦在信息分發中發生了價值評判標準的偏移,從而使得偏離社會主義意識形態主軌道的信息內容的擴散。對工具理性的推崇使算法平臺的逐利特性不斷強化,工具理性與價值理性間張力的擴大也淡化著主流意識形態的價值性導向。
從根本上說,算法推薦是一種技術工具,是為人的發展所服務的,是末;而算法推薦分發的信息內容應該帶給用戶思考、價值和知識,是人的發展所必須的,是本。而在如今缺乏規制的算法推薦中,本末卻在倒置,工具理性對價值理性的僭越使得價值理性的“主位”實際處在缺位的狀態下,這就不可避免地會削弱社會主流意識形態對社會與人的發展的引導力。
五、算法規制審視:意識形態安全風險的治理難題
算法推薦中暗含的意識形態安全風險在一定程度上是具有“可預見性”的,但實現對其的有效規制還尚存在諸多困難,其中的重要原因之一就在于推薦算法固有的“機器學習”特征與“黑箱”屬性阻礙著實際的監管、審計與治理程序。
1.機器學習型算法難以“陳述”常規決策依據
“機器學習算法”是以人工神經網絡為機理的深度學習方法族中的一類,其具有“從頭開始學習”的特征。伴隨著機器學習算法的長足發展,近年來推薦算法的技術類型也獲得了極大的革新,在給定數據集上自動進行學習和預測的基礎上,其能夠“通過迭代適應和數據累積,以識別出特定因素(輸入)和特定結果(輸出)之間的關系”[14],進而自主在海量數據源中捕捉非線性和非直接關聯,并以此作為推薦依據。但與此同時,機器學習算法的“自主學習”特征也導致其在訓練迭代中難以進行常規的人工說明,其決策依據也往往無法被輕易量化,從而為意識形態安全的監管工作帶來了“不可解釋性”難題。
一方面,推薦算法能夠進行持續不斷的自我迭代。推薦算法的“機器學習”屬性使其在程序編寫中無需進行統計學意義上的建模,不需要設定先驗規范功能變量。因為由算法推薦所做出的判定不依賴基于人的直覺和共識所形成的先驗指標,而是遵循一個通過實證數據確立起來的模型,這種模型能夠自主在訓練過程中依據結果不斷調整自身參數與樣本權重,并在對模型進行評估與優化的過程中自主進行更新迭代。但這種迭代往往不受程序設計者的控制,具有不確定性,并且它與定量統計分析模型十分相似,都難以整合無法被輕易量化或無法進行程序性表達的隱性知識。
另一方面,“算法黑箱”難以陳述表明判定決策依據。算法黑箱是指不具可檢查性的算法或用以喂養和訓練該算法的數據源,其存在于人工智能深度學習的輸入與輸出之間,是難以為外界所觀察、理解的“隱層”。在機器學習的加持下,推薦算法模型日益復雜的自我修正致使其判定機理愈發難以解釋,其反映有關底層數據性質問題與調整自身運行方式客觀遵循的“知識邏輯”正逐漸跳脫出系統設計者的初始思維,變得無法被充分理解。常規決策程序在受到質詢時,系統開發者可以通過展示規則邏輯來表明決策依據,而推薦算法的編寫者除了能夠提供先驗指標設定外,卻常常難以對判定結果做出闡釋,這也導致在監管、審計、認證程序中,推薦算法的“黑箱”屬性阻礙著實際的執法過程。
2.監管審查難度大且存在產權爭端矛盾
在數據驅動時代,由算法推薦轉向所帶來的風險積累使各國政府都認識到對算法技術進行規制的必要性與緊迫性,但面對機器學習算法在改變行為、確認和自動優化系統操作上的審查難度,對其的監管一直以來都缺乏行業間與政府間的共識,對這一議題的研究也一直是世界頂級機器學習研究論壇上的重要話題。
第一, 審查困難。理解“正在運行的算法”,特別是它的更新,對于觀察者,包括那些創建初始代碼的人來說,都不是可以立即實現的事情,這就導致機器學習模型的不透明、不直觀性致使程序所有者難以為外部審查提供合理解釋。為解決這一問題,歐盟的一般數據保護法規曾提出過“可解釋的”算法,即以決策樹的形式或要求算法的決策邏輯可以追溯到詳細的決策參數。但空泛的“可解釋性”要求只是讓算法可以被技術人員解釋,至于算法審查者是否理解或接受則難以界定。這就導致當審查機構與被審查者產生爭議時,基于算法決策的邏輯解釋總是缺乏說服力,由此產生了審查的客觀障礙。
第二,產權矛盾。由一家公司開發的算法通常被視為該公司的知識產權,算法程序的內部策略或訪問控制權限在更新和設置的過程中都必須確保只有相關人員可以對訓練模型及其輸出結果進行使用或訪問,因而編碼具有機密性且不能被隨意復制。但監管機構如果要對算法編碼進行審查就必然需要公司提交源代碼以供分析測定,這就面臨著企業核心機密受產權法保護與監管程序會侵害到企業利益之間的沖突。特別是披露系統源代碼除了會影響合法的商業利益,還有可能會給企業帶來安全風險問題與用戶隱私安全問題,因而誰能對監管的程序和結果負責是需要商榷的,特別是當透明的初始代碼不能被看作是“程序化”的決策時。
第三,監管窘境。對算法推薦的規制需要在權力合法合規使用的背景下加以闡釋,各國政府也在試圖對算法進行有效規制的過程中提出了許多構想,如“創設權力集中的監管機構”“建立新協同機制”“規定算法規制操作的最大透明度”“創設嚴格的紀律標準”“程序性監控”“過程正當性強調”“信義義務”等。這些舉措能夠使“更多數據”和“更優算法”的技術野心被適當制約,但加強道德規范、持續監督和建立適當的法律框架,以行政法律約束和合理執法方式等機制性條件實現程序標準和審查程度的統一性問題,還需要學術界和務實界進一步探討和研究。
六、算法威脅防治:意識形態安全風險的應對策略
預判風險是防范風險的前提,剖析風險成因是應對風險威脅的先決。在從算法屬性、算法邏輯、算法變量、算法倫理、算法規制等層面剖析算法推薦內置意識形態安全風險成因的基礎上,我們也需要進一步探究應對風險的治理之策。
其一,優化算法邏輯設計,阻斷風險傳播機制。針對算法邏輯推演中揭示的意識形態安全風險產生機制,應優化算法設計,確保算法在邏輯上更加公正、透明。具體而言,可以通過引入多樣化的數據輸入,增強算法的泛化能力,避免算法在處理數據時出現過度擬合現象,減少算法對特定數據集的過度依賴,從而降低算法偏見和歧視的風險。例如,在算法訓練過程中,應廣泛采納不同來源、不同類型的數據,以減少數據偏倚對模型結果的影響。同時,加強對算法運行過程的監控,及時發現并糾正算法邏輯中的不合理之處。通過部署自動化監控工具和引入專家審查機制,可以對算法輸出進行常態化審查,及時發現和糾正潛在的不合理或不公正的結果,進而能夠確保算法輸出的公正性和準確性,有效阻斷意識形態安全風險的傳播機制,為意識形態安全提供更加堅實的保障。
其二,精細管理算法變量,消除風險催化要素。針對智能算法推薦中的意識形態變量風險,應適應傳播方式更迭,優化內容分發策略。首先,應根據受眾的不同需求和興趣變化,實時調整算法模型,避免單一的信息推送方式導致的過度信息過濾和極化效應。在此基礎上,還應密切關注受眾的信息獲取習慣變化,根據用戶的行為模式,不斷完善推薦算法的設計,引導用戶獲得更加多元、客觀的資訊。此外,為了營造健康的網絡信息生態,必須加強對網絡內容的正向價值引導。通過算法模型的優化,引導用戶獲取具有積極意義的信息,減少負面信息的傳播,努力在社會輿論中營造一種理性、積極向上的氛圍。與此同時,隨著網絡意識形態安全環境的日益復雜,需要加強對內外部環境的監測和調控,在建立健全意識形態安全防護體系的基礎上,確保意識形態領域的安全與穩定。
其三,強化算法倫理教育,樹立正確風險觀念。算法倫理考量揭示了意識形態安全風險的“理性”成因,為了有效規避這些風險,需要進一步強化算法設計者和使用者的倫理教育,提升其倫理意識和社會責任感。具體而言,可以通過舉辦定期的算法倫理培訓、設置算法倫理課程以及制定科學合理的算法倫理準則等,幫助從業人員正確理解和判斷算法應用中的倫理問題。應鼓勵企業和組織制定嚴格的倫理標準,建立完善的倫理審查機制,確保算法在使用過程中始終遵循社會公德、法律法規以及全人類的共同價值觀念。算法使用者也應定期關注算法決策的公平性和透明度,避免對結果的盲目依賴,特別是避免因算法導致的信息偏差或歧視。
其四,完善算法規制體系,破解治理難題。針對算法規制審視中揭示的治理難題,應完善算法規制體系,加強算法監管和治理。一方面,建立健全算法審查制度,對算法的設計、運行及結果輸出進行全面審查,確保算法符合法律法規和倫理規范。通過對算法進行事前審查和事后監督,能夠有效防止算法的偏見和不公平問題,保障公眾利益。另一方面,加強算法監管隊伍建設,提升監管人員的專業素養和執法能力,加強定期培訓,確保算法監管工作的有效性和權威性。同時,隨著算法應用的全球化,算法監管的國際合作同樣顯得尤為重要。應推動國際間的合作與經驗共享,共同面對算法應用中的全球性挑戰,通過多邊合作和政策協調,可以確保算法技術在全球范圍內得到負責任的使用。
結 語
智能算法推薦作為現代信息技術的重要應用,其復雜性與影響力日益凸顯,而背后所潛藏的意識形態安全風險亦不容忽視。在深入探究智能算法推薦的意識形態風險中,我們不僅要具備敏銳的風險意識,深刻洞察風險成因的多維特性,還需積極尋求并實施科學有效的防控對策。唯有如此,才能有力推動構建多元共治的算法治理體系,進而在新一輪技術革命浪潮中牢牢掌握意識形態安全建設的主動權。這不僅有助于確保馬克思主義在我國各個領域中的指導地位不動搖,還能持續鞏固和增強社會主義意識形態的凝聚力與引領力。這一系列舉措將為智能算法推薦技術的穩健發展奠定堅實基礎,為社會的和諧穩定與國家的長治久安提供有力保障。
參考文獻
[1] 馬克斯·霍克海默.批判理論[M].李小兵,譯.重慶:重慶出版社,1989:5.
[2][3] 赫伯特·馬爾庫塞.單向度的人——發達工業社會意識形態研究[M].劉繼,譯.上海:上海譯文出版社,2006:8,10.
[4] 馬歇爾·麥克盧漢.理解媒介[M].何道寬,譯.江蘇:譯林出版社,2011:33.
[5] 凱斯·桑斯坦.信息烏托邦:眾人如何生產知識[M].畢競悅,譯.北京:法律出版社,2008:15.
[6] 朱揚勇,孫婧.推薦系統研究進展[J].計算機科學與探索,2015(5):513-525.
[7] 修明圓.算法推薦視域下網絡空間意識形態安全探析[J].福州黨校學報,2023(2):60-67.
[8] 張林.智能算法推薦的意識形態風險及其治理[J].探索,2021(1):176-188.
[9] 張永青,李允華.淺析工具理性和價值理性的分野與整合[J].東南大學學報(哲學社會科學版),2008(S2):39-41.
[10][11] 栗蕊蕊.推薦算法影響大學生價值觀的內在邏輯與引導策略[J].思想理論教育,2021(12):91-95.
[12] 馬克斯·韋伯.經濟與社會(上卷)[M].林榮遠,譯.上海:商務印書館,1997:56.
[13] 凱倫·楊,馬丁·洛奇.馴服算法—數字歧視與算法規制[M].林少偉,譯.上海:上海人民出版社,2020:199.
[責任編輯:邢煒真]