999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

智能場域下算法對人的“圈禁”與“解放”

2023-06-19 09:24:05宋青勵韓奧林
理論導刊 2023年6期

宋青勵 韓奧林

摘 要:智能場域由人工智能實踐的主體要素和客體要素構成,兩者的相互作用共同構成了人工智能實踐的作用場。在智能場域下,人們在享受算法帶來諸多生活便利的同時,也時刻面臨著自身被算法“圈禁”的風險,其思想認知、判斷能力、決策意識可能會受制于算法,社會地位也可能會因算法的“偽中立性”而受到不合理的禁錮。當前,算法的“偽中立性”主要表現在形成擬態環境、形成圈群文化、形成等級制度方面,算法作用下的“物化困境”“主體失位”“效率優先”,往往導致其對人的決策、勞動、隱私的“圈禁”。基于此,解除算法對人的“圈禁”,需要堅持以科學的技術手段輔助人的決策、以主流價值觀引導人的勞動、以健全的法律法規保護人的隱私。

關鍵詞:智能場域;算法;算法推薦;“偽中立性”

中圖分類號:TP18

文獻標志碼:A 文章編號:1002-7408(2023)06-0075-08

基金項目:2022年國家社會科學基金青年項目“網絡亞文化異動對青年主流價值觀的消解及應對研究”(22CKS044)。

作者簡介:宋青勵(1993—),女,天津人,南京航空航天大學馬克思主義學院博士研究生,研究方向:馬克思主義中國化、社會治理;韓奧林(1991—),男,安徽阜陽人,南京航空航天大學馬克思主義學院博士研究生,研究方向:馬克思主義中國化。

何謂“場域”?作為一種社會學概念,場域最早由法國社會學家皮埃爾·布迪厄提出。在他看來,一個場域可以被定義為在各種位置之間存在的客觀關系的一個網絡(network),或一個構型(configuration)[1]。所謂構成場域的關系網絡,實質上是由不同類型的權力(或資本)造成的生存處境,任何人既要受到場域中各種關系網絡的影響,又有一定可能影響甚至改變客觀存在的場域。在皮埃爾·布迪厄的理論體系中,具體場域之間的主體關系網絡內蘊著流動性,深度內嵌于所在場域但又獨立于主體意識而存在,故而具有源自場域內部的一系列強制性約束。代表不同群體的主體積極參與競爭,旨在盡可能獲取有價值的符號商品,從而將經濟、社會、文化等資本形態轉化為形式各樣的權力,以此逐步獲得主體間有效的支配關系。當然,不同場域之間具有自主性、差異化等顯著特征,每個場域都隱含著不同力量的博弈和競爭且沒有明確邊界,每個場域都不能完全脫離其他場域而獨自存在,仍會時刻受到其他場域的多重影響和制約。基于場域理論分析視角,智能場域既是人工智能實踐有序開展的時空形態,也是變革人工智能實踐方式的重要因素,人工智能實踐直接或間接地受制于智能場域的發展。當前,作為人工智能技術的產物,算法廣泛應用于人們日常生活的方方面面,深刻重塑了人與人、人與社會之間的互動聯系。當算法逐漸演變為具有變革意義的生產要素和技術手段時,對于算法“偽中立性”帶來的潛在社會影響的研究成為學界共同關注的課題。在智能場域下,算法本身的“偽中立性”衍生了諸多現實危害,無形中促使人們在某種程度上被“圈禁”。如在一些短視頻平臺,算法始終隱性影響著人們的決策行為;在一些數字勞動平臺,算法始終隱性控制著人們的勞動行為等。集中反思算法對人的“圈禁”,亟待從輔助決策、引導勞動、保護隱私等方面采取有效措施加以應對。

一、算法的“偽中立性”

算法具有本體論意義上的技術中立性,但是隨著算法開始接管各類信息分發的權力,算法設計之初標榜的中立性已經異化。在市場邏輯的強力支配下,各種信息篩選機制和推薦規則的不透明性,使得算法本身明顯帶有一種可見的“偽中立性”。

(一)算法“偽中立性”的緣由

智能場域下的算法不能被視為純粹意義上沒有價值觀的技術手段,這是因為算法與信息連接的全過程都隱含著人為因素和權力因素。算法推薦的出現有效解決了信息內容與用戶需求不匹配的問題,實質上使得信息分發變得更加智能、高效、精準。然而,由于各類平臺過于推崇和依賴算法推薦技術,過于迎合用戶的興趣與愛好,導致用戶瀏覽信息成癮的現象日益凸顯,由此引發了社會各界對其中立性的高度質疑。算法并非價值中立,它內嵌于社會機制的復雜性,其對不同勞動者影響結果的差異性及其在運行過程中的自我強化性,都使得以實現客觀技術指標為目的的功能性算法,最終演化為帶有價值判斷和選擇功能的政治性算法[2]。看似客觀中立的算法技術,實則在研發過程中就帶有研發人員的偏見和歧視,且算法運行也是基于大量帶有偏見的社會現實數據的收集和分析。算法正在以一種相對隱蔽的方式固化甚至加深社會已有的偏見,各類平臺無論是出于保護算法安全還是暗中謀取私利的目的,算法權力主體從一開始就被完美地隱藏起來。事實上,算法權力主體彌漫于整個社會,日益呈現出多元化、不確定的狀態。首先,國家政治機構是掌握算法權力的公權力主體,它們憑借強大的國家權力、雄厚的國家資本以及海量的公共數據資源,將算法有序納入國家治理體系,旨在全方位發揮算法技術支配對象的工具性價值。此外,政府在基礎設施、資金投入、政策制度等方面支持算法發展,不僅使所有參與者從中受益良多,同時也推動了算法權力再分配機制的形成。其次,各類互聯網企業是掌握算法權力的私權力主體,他們擁有龐大的私人資本、卓越的算法技術以及先進的算法系統架構,在一定程度上影響著經濟社會各個方面的長遠健康發展。最后,其他社會機構也是掌握算法權力的特定主體,隨著算法權力逐步深入社會生活和實踐的各個領域,廣泛存在于學校、醫院、工廠等社會機構,人類“數字化生存”的方式已經成為社會常態。

(二)算法“偽中立性”的表現

算法技術不是晦澀難懂的數字符號,其必然融入了人們多元化的價值觀。算法技術中立的本質在于價值觀是否中立,但是價值觀本身摻雜了各類群體的偏好,使得算法“偽中立性”的表現躍然紙上。

一是形成擬態環境。算法技術強化了人們瀏覽信息的擬態環境,固化了人們原有的偏見和喜好,導致人們的思想意識深度陷入虛無縹緲的孤島。擬態環境不是憑空產生的,它以真實世界為根據,但并不是現實社會在鏡子里的成像,而是傳播媒介通過對代表性事件進行選擇和加工之后向人們展示的環境[3]。由于擬態環境與主觀環境存在密切關聯,人們選擇和接收信息的過程實際上受主觀意志主導,如果算法形成的擬態環境與主觀環境高度趨同,那么受眾對信息的選擇權和知情權也就逐漸被剝奪了。客觀來說,算法技術搭建的擬態環境更加形象生動,極易引發人們的思想認同、情感共鳴,這也是各種平臺利用算法技術吸引廣大受眾的重要原因。但是算法技術始終遵循資本邏輯的法則,不僅會使信息傳播嚴重偏離主流價值導向,而且會進一步助長低俗虛假信息泛濫的勢頭,加大黃色、暴力、恐怖等不良信息擴散的力度,最終導致各類平臺推送的信息質量陡然下降,信息的客觀性、真實性、中立性也蕩然無存。

二是形成圈群文化。算法技術在內容社交平臺打造了諸多圈子,形成了“圈群文化”這一人際交往新形式,而圈子不可避免地產生了明顯的排他性效應。基于共同志趣的網絡使用者更容易在網絡中形成圈群,并演化出具有相似情感取向的“圈群文化”[4]。各類平臺為了盡可能延長用戶的停留時間,往往精準推送一些充分迎合用戶瀏覽需求的信息,使得用戶沉迷于高度同質化信息營造的“信息繭房”。“信息繭房”是指在信息傳播中,由于人們沒有全方位的信息需求,他們只會重點關注一些讓自身愉悅的信息,從而使自身牢牢束縛于像蠶繭一樣的“繭房”之中。長此以往,人們便逐漸喪失了自由選擇和充分接收其他信息的能力,潛意識地隔絕了自身正確認識外部世界的窗口,甚至會嚴重制約縱向與橫向思維能力的培養,出現相關部門難以妥善處理的群體極化現象。隨著算法技術的廣泛應用和創新發展,人們能夠接收的多元化信息更加匱乏、失真,其觀察視野更加狹隘封閉、思想認知更加偏離實際。

三是形成等級制度。社交平臺主要是以節點為單位進行搭建,建立之初為了最大限度地吸引用戶,往往會采用具有頭部樞紐節點的網絡架構,頭部樞紐節點是指網紅、明星等,基本樞紐節點是指普通用戶。這種等級制度的形成依賴于智能算法,通常是以粉絲數量、作品播放量和點擊率等指標為劃分依據。一方面是為了便于日常管理,通過算法優先將平臺資源分發給頭部樞紐節點,使得管理者只需科學管理和引導頭部樞紐節點,就可以有效篩選普通用戶接收的繁雜無序信息。另一方面是為了明確信息傳播規則,通過算法明確社交平臺普通用戶的規則意識,使其接收算法分發給頭部樞紐節點生產的信息,主動將自身置于信息傳播網絡底部的接收端。這種信息分發機制固然有助于提高管理效率,但是普通用戶的價值觀可能會被部分價值觀不正的頭部樞紐節點所誤導,進而產生一些有違主流價值觀的偏激思想和行為。

(三)算法“偽中立性”的危害

算法的“偽中立性”使其呈現的圖景不同于現實世界,而是基于各種偏見精心構建的虛擬世界,由此可能會帶來一系列嚴重的危害。

一是算法作用下的“物化困境”。在算法驅動的社交情境中,人與人連接的本質是各種數據的連接,各類平臺算法會根據用戶行為進行分類整理并精準推送內容,實際上導致用戶在這一過程中的主體性完全被數據所代替。從智能算法、移動交互界面到互聯網技術標準(5G/Http/超文本標記語言)再到PC桌面、多媒體文件(圖片、視頻、文檔等),這些均為“形成于屏幕上或隱藏于電腦程序后端的物體(objects)”[5]。此外,算法隱含著各種有關社會規則的評分機制,可以幫助匯聚和量化人們的社會活動、理解和分析人們的社會意識。在某種意義上,評分機制強化了人們對于社會規則的遵守力度,有助于合理管控一些難以察覺的社會風險,但不可否認的是,它的物化行為可能嚴重侵犯個人隱私。隨著算法技術的快速發展,人人都成為觀察者、評價者、監控者,這為人們在網絡空間的安全互動提供了堅實保障,便于人們及時研判未知風險并作出有效應對,但也容易造成人們之間相互評價和監控的權力被肆意濫用。

二是算法作用下的“主體失位”。在算法全面介入信息傳播的背景下,算法能夠高度控制人并代替其分析、判斷、決策,無形中壓制了人的主體地位和主導作用。人類主體對智能算法的依賴性越強,越說明智能算法在更多領域中替代了人類主體的思考[6]。事實上,算法往往通過議程設置引導或左右人們對于事件本身的看法,如短視頻平臺通過推薦熱門話題,暗示和引導用戶生產特定內容,表面上看似用戶具有較強的主體性和創造力,實則是完全服從于算法及其背后的權力掌控者。雖然絕大數平臺都允許用戶自主發起話題,但是這些話題是否能被推薦都取決于各類平臺的產品定位和算法邏輯,用戶的主體性和創造力只能在某個算法限定的范圍內發揮。在算法的暗中干預下,一些看似引發用戶關注的輿論事件實則隱含著資本邏輯,是資本方靈活運用算法技術開展的針對性引導,其中一些虛構的事件甚至會逐步演變為現實危機。

三是算法作用下的“效率優先”。作為人工智能技術的核心部件和重要支撐,算法傾向于通過程序設計高效輸出結果,效率優先是算法運行的首要價值導向。效率是投入成本與獲得收益之間的對比關系,旨在有序實現各類資源配置最優化的目標,內在要求以最少的投入成本獲得最大收益。在智能場域下,算法處理海量數據的效率確實優于人類,且可以幫助人類高效進行決策并解決實際難題。雖然算法主體行為盡力保持技術中立性,但是算法主體行為往往受到多元價值和功能的影響,特別是基于人類價值預設的算法比較注重效率優先。客觀來說,效率優先的價值導向是算法優化升級的關鍵助力,但是算法與資本的結合往往傾向于追求資本利益的最大化,有時甚至會與公平正義等法律價值產生沖突,導致算法盲目選擇最優策略而罔顧社會應有的公平正義。

二、算法對人的“圈禁”

日益占據主體地位的算法正在重構現有的社會關系,通過數字控制方式重塑人們對于現實世界的思維方式和認知能力。當前,人們生活在一個完全被算法包裹的環境中,一旦算法技術具有較大的自主性時,就會使人們緊緊跟隨算法指引的前進方向,結果便是算法對人的決策、勞動、隱私的“圈禁”。

(一)算法對人的決策的“圈禁”

隨著人們逐漸將體現自身主體性的決策交給算法,算法已經深度嵌入一些行業決策中并扮演著重要角色。如在金融領域,銀行在系統評估貸款申請人的信用狀況時,往往會借助算法來確定不同客戶群體的放貸額度;在警務系統,警察局借助算法可以快速研判潛在的犯罪嫌疑人及可能產生的犯罪行為;在內容生產領域,通過算法分析得出的排行榜、熱搜榜等,很大程度上決定了未來的內容生產方向和主題。今后,算法還將在教育、醫療、交通、就業等領域凸顯其決策作用,這是因為算法在評估、分析、判斷后作出的決策往往更優,高效便捷的決策程序使得人們能夠從繁忙的工作中徹底解脫出來。但是人們在享受算法決策帶來諸多便利的同時,如果一味地放任自身的惰性而將所有決策權力交予算法,那么很有可能深深陷入算法精心設計的陷阱中,不僅會被形式各樣的算法牢牢地“圈禁”,還會導致自身的主體性和創造力大幅受限。當前,算法在人們日常生活中逐漸顯示出權力屬性,持續推動人們的決策能力讓位于算法的自動化決策,導致現代社會出現了屈服于技術理性的個體,個體行為也隨著相關算法決策的結果而改變。特別是智能技術強化了算法的深度學習能力,算法能夠部分甚至完全取代人們的決策能力,人們的決策活動高度依賴于算法程序的設計與開發,由此導致自我創造、發展、提升的能力停滯不前。樂于不去思考和判斷就獲得結論的信息傳遞方式,不僅加劇了人們對事物判斷的偏見與喜好,還將影響其主動接受異質化的信息[7]。同時,算法決策本身也存在諸多缺陷,一方面,算法決策是基于海量數據之間內在關聯的分析,在一定意義上具有較為明顯的隨機性,可能會在代碼輸入和運算過程中出現諸多偏差。另一方面,算法決策直觀反映了特定群體的思想偏見和價值導向,在某種場合具有較為明顯的主觀性,如根據用戶行為檢測或推導的數據都可以作為算法決策的依據,這就使其難以真實發揮決策活動應有的指導作用。上述特性會對人們有效參與算法程序設計帶來現實阻礙,因為算法決策的形成包括歷史數據的收集與分析、模型和編碼的系統構建、數據輸入與輸出的規定等,這就意味著那些無法生產數據的群體可能會喪失參與機會,或者只享有被動或間接參與相關決策的機會,導致他們難以充分表達自身合理的利益訴求和進行價值選擇。同時,人們可能無法知曉某項決策是否由算法作出,無法實質性參與整個算法決策過程,即使清晰知曉算法決策的基本流程,也難以完全理解算法決策運行的內在機理和相關依據,導致人們持有具體異議且能質疑算法決策的空間極為有限。例如2018年,劍橋分析公司通過一款名為“這是你的數據人生”(This Is Your Digital Life)的問答應用獲取了多達8700萬份Facebook個人用戶資料,后根據這些數據的分析結果為美國前總統特朗普在2016年的總統競選活動提供幫助[8]。由此可見,算法決策的專業性和復雜性特征較為鮮明,人們的行動空間、掌控能力、救濟渠道難有保障,伴隨而來的便是知情權、參與權、救濟權的逐漸喪失,甚至基本的自由和尊嚴也受到不同程度的侵犯。因此,人們不能把所有決策都交給算法來處理,應審慎判斷算法在哪些方面能夠幫助我們作出最佳決策以及算法本身是否存在明顯偏見或缺陷。

(二)算法對人的勞動的“圈禁”

算法如同一個“神經系統”支配著勞動者的言行舉止,扮演著管理和控制整個勞動過程的角色,無形中導致勞動價值日漸偏離、勞動壓力日漸倍增。隨著過去用于控制勞動者的機器和設備轉變為虛擬的軟件和數據,各類平臺能夠通過算法收集和分析海量數據,精準把握勞動者每時每刻的工作狀態,有序實現透視可見的嚴密監督和規范管理,逐漸成為新型勞資關系中的絕對優勢方。而在算法精準控制下的勞動者被異化為連續高效運轉的“機器”,因平時密切聯系、協作互動機會的日漸匱乏,逐漸成為新型勞資關系中的絕對劣勢方。例如,2021年針對北京地區外賣騎手的問卷調查發現,近50%的外賣騎手表示自己遭遇過剮蹭、摔倒、碰撞等交通事故。“加速”與“重體力”對于女性進入外賣行業構成了某些障礙,加入其中的女性騎手不得不征用或者順從“送外賣”語境下的男性氣質[9]。當前,應用算法的各類平臺掌控著外賣騎手、網絡主播、網約車司機等勞動者,使得他們長期被困在算法特意打造的牢籠之中,被迫投入更多的時間和精力以賺取足夠養家的生活費。如雖然各類平臺算法對效率的追求可使消費者生活便利,但是海量的訂單對于外賣騎手來說卻是高壓的勞動強度。算法不僅嚴重削弱了外賣騎手的自主反抗心理,還使他們自覺參與到日復一日的高強度勞動過程,瘋狂接收大量訂單并努力完成每日指定任務,始終堅持以良好的服務態度滿足消費者需求。不難發現,平臺通過算法機制重新定義了勞動過程并重新分配了勞動控制權[10]。事實上,各類平臺算法之所以能夠直接控制人的勞動,其中一個重要原因就是平臺將勞動者與消費者連接起來,消費者能夠通過平臺評價勞動者的日常勞動成果,算法能夠量化勞動者的日常勞動成果并使其成為評價勞動的關鍵指標。這種直觀的量化行為看似解放了勞動者,實則讓他們付出了包括情感勞動在內的各種勞動來迎合消費者。在網絡內容生產領域,各類平臺算法通過瀏覽量、點擊量、播放量等流量指標,逐步實現對相關勞動者的實時監督和控制。如平臺為了讓網絡主播增加粉絲量,往往會常態化推出一系列“人氣PK”活動并制定獎懲制度,迫使廣大主播不得不賣力表演以獲得相關獎勵,導致其勞動成果本質上與薪酬機制不匹配,持續受到更加隱秘甚至嚴酷的勞動控制。一旦流量指標成為衡量內容品質的關鍵,就有可能使勞動者的內容生產方向發生嚴重偏離,導致他們緊密結合消費者的喜好生產相關內容,自主創新能力完全被市場邏輯和流量邏輯所驅使,此舉不僅沒有減輕勞動者的重重壓力,反而使勞動者成為被算法全面裹挾的“囚徒”。此外,當勞動者的勞動成果都依照流量指標來衡量時,另一種數字勞動者——網絡水軍也就隨之產生,他們在利益驅使下人為改變一些流量指標,從而對他人正常勞動帶來不利影響。隨著各類平臺愈加重視開發算法模型,平臺控制將最終演變為勞動者自身的約束和管理,使人的勞動徹底被形式各樣的算法所“圈禁”。

(三)算法對人的隱私的“圈禁”

隨著算法廣泛應用于各類平臺,人們的基本數據甚至是隱私數據逐漸被收集,加之可穿戴設備、傳感器技術的快速發展,算法對人的數據收集將深入到情緒、心理等生理層面。在數據收集的基礎上,算法能夠進一步發現數據背后更深層的奧秘,并以此對人們進行全過程控制。人們的言行舉止都可能成為算法分析的依據,表面看似平常的一種活動或行為,實際上卻被一系列算法程序演算過無數次。客觀來說,算法技術確實能夠帶來諸多生活便利,但是需要人們將一些隱私數據讓渡給相關平臺,導致人們無法在完全意義上擁有自身數據的主導權和控制權。2022年3月,中國青年報社會調查中心聯合問卷網就算法推薦服務問題對1144名受訪者進行調查,結果顯示75.3%的受訪者曾被算法推薦服務困擾過,其中就涉及算法推薦服務對隱私的侵犯[11]。在算法的世界中,人們隱私權面臨的威脅往往源自算法本身,因為凌駕于人們之上的算法在進行相關決策時,可能把原本與人們隱私無關的數據組合為真實可見的圖像。為了讓算法提供更加契合自身需求的優質服務,人們還需讓渡更多的隱私數據以便使算法分析更加完善,當人們沉浸在算法技術帶來的諸多生活便利時,渾然不知自身已經深深陷入算法的“圈禁”之中。個性化推薦算法和人工智能技術為人們帶來便利的同時也給個人隱私保護帶來新挑戰[12]。如人臉識別技術依托的算法程序仍在持續升級優化,其在用戶身份確認、金融機構支付、人機界面交互等方面應用廣泛。雖然法律并不禁止有關人臉識別技術的算法研發和應用,但是技術研發和監管機制不成熟的現狀加劇了人臉識別技術濫用的風險。市場上不同廠商的人臉識別技術標準不一,安全性有待進一步驗證,部分基于二維圖片的識別技術存在較大安全隱患,如一些人隨意抓拍住戶照片后即可進入擁有人臉識別門禁的小區。《中國消費者權益保護狀況年度報告(2021)》指出:“互聯網平臺以收集個人信息甚至隱私的方式,提供‘免費或‘個性化服務,消費者讓渡自身部分數據權利后,并不一定能獲得便利快捷、公平安全的‘對價體驗。”[13]在新聞傳播領域,信息技術賦權下的新聞生產方式變得更加隱蔽,從信息的廣泛采集到集中編輯再到精準投放,都極易產生一些復雜棘手的數據泄露問題。而當新聞生產借助算法技術過度收集、分析用戶閱讀偏好等數據時,便在一定程度上侵犯了用戶的隱私權。當前,算法自動關聯技術可以復原數據主體的特定行為,使網絡服務者不僅可以深度挖掘數據主體提供的部分數據,還可以準確探知用戶不愿提供的隱私數據。相較于技術的迅猛發展,當前平臺在隱私保護方面的責任體系并不完善,信息內容審核制度不健全以及平臺算法治理存在的缺陷,更容易導致用戶隱私權益無法得到有效保護[14]。分散且孤立的數據主體往往在個人隱私數據保護方面處于弱勢地位,在相關法律制度不夠健全的現實情境下,人們遭受算法侵犯隱私的維權之路較為艱難。

三、解除算法對人的“圈禁”的對策

面對算法在諸多方面對人的“圈禁”,我們需要深刻理解不同算法的運行機理和潛在影響,積極采取一系列應對措施,堅持以科學的技術手段輔助人的決策、以主流價值觀引導人的勞動、以健全的法律法規保護人的隱私。

(一)以科學的技術手段輔助人的決策

算法的廣泛應用是智能場域信息傳播的時代趨勢,算法帶來的諸多問題可以通過技術本身的優化完善來解決。

一是著重提升算法技術的透明度,平衡用戶與算法平臺之間的信息權益。算法規制實踐分為四個路徑:提升算法透明度、推進算法倫理審查、加強算法法律規制和構建算法治理體系。盡管世界各國對上述四個規制路徑各有側重,但相同的是均將算法公開透明作為算法規制的基礎性舉措,貫穿于其他規制實踐之中[15]。算法技術的透明度不僅事關個人信息權益、數據權益的保障,也事關國家網絡安全與制度監管的效率。為保障算法技術真正服務于人的各項決策,有必要實質性提升算法技術的公開透明度,明確規定算法披露的運行邏輯、重要參數、影響因子等具體事項,盡可能避免用戶與算法平臺之間的信息不對稱。一方面,應及時公開公權力機構使用的算法,因為公權力機構帶有明顯的權力壟斷特質,如果其使用的算法具有黑箱屬性,那么這種算法可能會產生歧視、偏見等問題,進而對廣大民眾帶來不利影響。對于其他公共機構來說,可引入第三方監管機構保護其商業秘密和算法系統,從而在一定程度上擺脫算法技術的透明度困境。另一方面,不應強制公開非壟斷性的商業機構所使用的算法,因為除了商業秘密和算法知識產權的現實考量外,這種商業機構往往具有優化自身算法的內生動力,算法的合理性可以通過市場競爭得到逐步改善。如消費者發現某家購物網站推薦的商品不合理,他們就可能會選擇推薦商品較為合理的同類網站,而該網站就會產生極大的內生動力以優化自身的算法。

二是循序擴大算法推薦的信息范圍,平衡個性化信息推送與多元化信息推送。算法推薦在一定程度上馴化了用戶的信息獲取方式,讓用戶牢牢依附于算法運行的邏輯理路,無形中導致用戶的思想固化、認知窄化、實踐泛化。這就要求從技術源頭上循序擴大算法推薦的信息范圍,在切實滿足人們個性化信息需求的同時豐富信息推送內容,嘗試向用戶推薦他們可能不感興趣但卻需要重點關注的內容。算法要動態更新平臺的關鍵詞信息庫,及時監測或屏蔽不良信息的關鍵詞,賦權契合主流價值的關鍵詞,助力優質信息內容的生成和傳播。在某些特殊情形下,相關部門也可以設立有關算法推薦的管理委員會,通過管理委員會的審查機制來確保算法推薦的合理性。當然,算法在馴化人的過程中也會被人所馴化,因此身處算法裹挾下的用戶還應具備馴化算法的能力,即在使用算法平臺的同時調整自身行為,積極對算法進行反向馴化,如減少點擊量、減少播放量、忽視信息推送等,從而盡可能減少算法推送此類信息的頻次。用戶還可通過算法平臺瀏覽其他信息,如提高時政新聞的關注度、提高不同觀點的接觸率等,從而盡可能增加算法推薦信息的多元化。

三是大力完善人—機協同的信息分發模式,平衡信息推送效率與公共管理責任。算法精準篩選、推薦、分發信息旨在滿足用戶需求,不斷謀求自身工具理性的拓展空間。在人們日漸依賴算法技術的背景下,人們的日常行為逐漸演變為對象化的數字活動,沉浸其中的個體逐漸讓渡了分析、計算、判斷等部分理性能力。信息推送效率是算法工具理性的集中展現,如何以人的價值理性規制算法的工具理性是一項重要課題。當前,自動化行政中的算法決策僅具有工具理性,主要作用就是輔助行政機關作出科學決策,其輔助形式會因不同級別的自動化行政而呈現多元化趨勢。如算法在部分自動化行政中,往往通過數據識別與分析得出初步結論后再輔助行政主體作出決策。在完全意義上的自動化行政中,算法決策系統可以全程處理一些不需要裁量的行政活動,即算法決策可以直接代替人的決策,但這都無法掩蓋其鮮明的工具理性。這就要求在算法設計和應用中重視人的主體性,特別是相關專家學者的有益意見和建議,通過大力完善人—機協同的信息分發模式,進而實現信息推送效率與公共管理責任的動態平衡,深度激發各類主體的參與意識和實踐能力,進而有效提升信息推送效率、貫徹落實公共管理責任。

(二)以主流價值觀引導人的勞動

作為一種形塑智能社會的軟性權力,算法主要通過誤導價值觀來“圈禁”人的勞動,這就需要以主流價值觀馴化算法并引導人的勞動。

一是以主流價值觀推動算法技術創新。目前,算法仍處于依賴算法設計者意志和構想的弱人工智能階段。在運算代碼編排或推薦順序策劃之初,主動將主流價值觀確立為算法運行的核心原則,可以從根本上保證算法技術的價值導向[16]。算法的技術因素是其發揮價值功用的重要依托,針對目前算法價值理性嚴重缺失的現實困境,正確的做法是深刻反思并全面推動算法技術創新,通過及時調整和優化原有的算法技術設計方案或框架,盡力消除主流價值觀融入算法的多重技術障礙。在海量信息處理階段,應將主流價值觀貫穿于信息分析和歸類的全過程,將更多契合主流價值觀的信息注入算法“信息池”。在用戶數據分析階段,應深度挖掘用戶數據價值,系統分析用戶的信息偏好、信息盲點,從而為算法的多元化信息推送提供數據支撐。在場景信息推送階段,應明確規定同質化信息推送的頻次和頻率,持續向用戶推送集中體現主流價值觀的信息。主流媒體要充分借助算法推薦平臺傳播主流價值觀,充分利用與時俱進的算法推薦技術,徹底轉變傳統宏大敘事的話語傳播方式,力爭建構起兼具理性與情感的綜合性話語表達,善于將抽象的宏大敘事進行具象化呈現,從而加快提升主流價值觀在智能場域的引領力和凝聚力。

二是以主流價值觀把關算法推薦信息。事實上,算法在很大程度上扮演著信息推送的重要角色,實質上承擔了過去由媒體編輯把關信息的基本功能。這種由算法強勢介入媒介傳播形成的生態系統,潛藏著價值觀偏離、私權侵蝕公權等諸多風險。特別是基于用戶興趣愛好的算法推薦,不僅造成了信息把關標準的降低,也造成了主流價值觀信息資源的不足。當前,算法的把關能力還處于較低水平,其信息審核能力遠未達到能夠開展價值判斷和選擇的水平。在此情形下,各類信息的把關權還不能完全交由算法來執行,當前最合理的方式就是統籌結合算法把關和人工把關,在充分發揮算法技術優勢的同時突出人工審核信息的能力。因此,算法推薦信息一刻也離不開主流價值觀的引導和糾偏,要將算法審核與人工審核有機結合起來,充分發揮兩者對于算法推薦信息的雙重把關作用。這就要求逐步強化把關人員的媒介素養和辨別意識,著力提升其根據主流價值觀審核算法推薦信息的能力,從而最大限度地將有違主流價值觀的不良信息過濾掉。

三是以主流價值觀教育算法從業人員。算法是由人類創造和搭建的技術形態,實際上內嵌著人類的情感偏好和價值導向,堅持以主流價值觀教育算法從業人員,旨在全力推動算法的科學設計和良性運作。對于算法從業人員來說,相關部門要定期開展主流價值觀教育活動,努力幫助其牢固樹立正確的價值觀、倫理觀,使其具有強烈的社會責任意識和使命情懷。要進一步明確算法從業人員的數據清潔責任,將有違道德和法律原則的信息排除在算法模型外,從而防止弱勢群體的數據被邊緣化。無論是可能脫離人類控制的算法權力,抑或是在人類控制之下的算法權力,均肇始于算法設計者基于單向逐利的自主行為[17]。因此,算法設計者要以主流價值觀為指導,合理解釋算法的設計思路和基本邏輯,接受政府部門、業界專家及社會各界的全面監督,不得故意在算法輸入端預留敏感數據的轉碼端口。算法應用者也要以主流價值觀為導向,始終與其他經營者保持一定距離,因為如果算法應用者盲目追求個人利益最大化,可能會使算法的工具理性異化為實施共謀的技術手段,進而形成對市場長遠健康發展有害無益的競爭格局。

(三)以健全的法律法規保護人的隱私

從世界各國的實踐經驗來看,健全算法領域的法律法規是時代趨勢。基于此,我國應以健全的法律法規化解算法領域的潛在風險,力爭將對各類風險的管控置于法治軌道之中。

一是健全算法推薦領域的法律法規。算法、數據、信息、網絡密不可分,數據安全法、個人信息保護法、網絡安全法、電子商務法的相關條款能夠為算法規制提供依據[18]。當前,我國算法推薦領域的立法效率不高且滯后性明顯,這就要求循序強化以防范風險為重心的前置立法,逐步加強專門法與配套法之間的統籌規劃。相關部門要制定有關算法推薦技術發展和應用的法律法規,明確各類算法推薦主體的責任和義務,利用一套追溯和問責機制指導算法推薦行為的開展。要切實提高算法推薦領域法律法規的前瞻性和實效性,充分保障用戶在算法推薦領域的隱私權、知情權等。為有效應對日益棘手的算法歧視和個人信息保護困境,需要進一步完善相關法律法規,規范算法收集和分析個人隱私信息的行為,厘清企業發展與信息流動、權利保護之間的關系。同時,還要建立合理、規范、高效的用戶投訴機制,及時解決涉私非法信息的網絡傳播問題。

二是健全算法監管領域的法律法規。當前,我國尚未形成有關算法的直接監管機制,主要是將算法引發的不良后果和法律責任分給算法平臺以實現算法監管。2022年3月1日施行的《互聯網信息服務算法推薦管理規定》,明確了算法治理體制機制,科學構建了網絡平臺問責體系,實行事前事中事后全流程、全鏈條的政府監管。政府監管的重點在于合理利用調控手段,從社會整體視角對各方權益進行平衡保護[19]。因此,我國應該盡快完善對人工智能應用的立法,明文規定人工智能技術研究和應用的領域、應當遵循的倫理原則,明確規范人工智能技術的倫理要求、安全標準、監管機制[20]。健全算法監管領域的法律法規是保護人的隱私的關鍵,行業主管機構與各類媒體機構必須依法履行算法監管責任,定期向社會各界公開算法監管的一系列進展和成效。

三是加大不良算法平臺的懲治力度。要加大對不良算法平臺的懲治力度,積極探索源頭治理策略并形成強大震懾力,不讓任何一條非法信息的制造者、推送者逃過法律的制裁。執法部門要動態審查算法設計和應用的全過程,明確算法設計者和應用者學法懂法守法用法的基本義務,對于一些違背公序良俗的算法設計和應用,應嚴格追究相關主體法律責任并予以嚴厲懲戒。此外,算法平臺要強化自律意識,在遵守法律法規的基礎上主動實施自我約束行為,做到自我把關、自我管理、自我負責。必須看到,算法平臺自律意識的養成是一個相對漫長的過程,應積極培育行業自律組織,推動算法行業自律公約的科學制定和全面推廣。相關部門要鼓勵算法平臺運營商、算法技術供應商、算法內容服務商等建立形式各樣的自律組織,力爭以健全的行業自律體系推動算法領域自我優化機制的形成。

參考文獻:

[1] 皮埃爾·布迪厄,華康德.實踐與反思:反思社會學導引[M].李猛,李康,譯.北京:中央編譯出版社,2004:133.

[2]賈開.算法可以中立嗎:“零工經濟”的新可能[J].文化縱橫,2021(4):123.

[3]陳鈿瑩,龍柏林.仿像·真相·具象:擬態環境與青年意識形態認同[J].思想教育研究,2020(4):49.

[4]王星.“后真相”網絡環境下大學生價值引導力的提升策略[J].思想理論教育導刊,2022(9):150.

[5]許煜.論數碼物的存在[M].李婉楠,譯.上海:上海人民出版社,2019:1.

[6]馮月季.符號學視角下智能算法對人類主體性的消解及其反思[J].東南學術,2022(5):55.

[7]侯東德,張可法.算法自動化決策的屬性、場域與風險規制[J].學術研究,2022(8):42.

[8]Meta與Facebook用戶達成初步和解,同意了結劍橋分析數據丑聞相關集體訴訟[EB/OL].(2022-08-28)[2023-04-22].https://baijiahao.baidu.com/s?id=1742389352175740395&wfr=spider&for=pc.

[9]孫萍,李云帆,吳俊燊.身體何以成為基礎設施:基于平臺勞動語境下外賣騎手的研究[J].新聞與寫作,2022(9):33.

[10]顧燁燁,莫少群.算法權力下的勞動控制:基于秀場主播勞動過程的研究[J].學習與實踐,2022(10):138.

[11]姜晨,顏云霞.“何以向善”:大數據時代的算法治理與反思[J].傳媒觀察,2022(6):39.

[12]竇悅.數據開放共享與個人隱私保護對策研究:層次數據與算法問責[J].現代情報,2021(7):151.

[13]中消協發布消費者權益保護年度報告[EB/OL].[2022-10-15].http://www.bj.xinhuanet.com/2022-04/23/c_1128588628.htm.

[14]夏夢穎.算法推薦隱私保護機制研究[J].編輯學刊,2021(3):26.

[15]韓萬渠,韓一,柴琳琳.算法權力及其適應性協同規制:基于信息支配權的分析[J].中國行政管理,2022(1):36.

[16]管秀雪.算法文化環境下青年價值表達的理論審視[J].思想教育研究,2022(9):153.

[17]趙一丁,陳亮.算法權力異化及法律規制[J].云南社會科學,2021(5):127.

[18]任穎.算法規制的立法論研究[J].政治與法律,2022(9):103.

[19]黃毅,宋子寅.大數據背景下“算法殺熟”的法律規制[J].中州學刊,2022(4):53.

[20]潘志玉.人工智能應用的倫理風險及法治應對[J].學習與探索,2022(7):67.

【責任編輯:張曉妍】

主站蜘蛛池模板: 蝌蚪国产精品视频第一页| 波多野结衣视频网站| 亚洲成人精品在线| 一本久道久综合久久鬼色| 人妻夜夜爽天天爽| 国产成人精品免费视频大全五级| 国产成人精品一区二区| 国产手机在线小视频免费观看| 丁香婷婷综合激情| 在线观看免费国产| 国产日韩av在线播放| 青青热久免费精品视频6| 久久香蕉国产线看精品| 2021国产乱人伦在线播放| 国产青青草视频| 试看120秒男女啪啪免费| 69av在线| 青青操视频在线| 国产精品三级专区| 99热这里只有精品免费| a级毛片一区二区免费视频| 秘书高跟黑色丝袜国产91在线| 日韩欧美国产三级| 97在线视频免费观看| 九色视频在线免费观看| 欧美成人一区午夜福利在线| 呦女亚洲一区精品| 无码一区中文字幕| 美女视频黄频a免费高清不卡| 精品人妻一区无码视频| 丁香六月激情婷婷| 欧美h在线观看| 国产精品自拍露脸视频| 18禁影院亚洲专区| 日韩精品成人网页视频在线| 欧美精品在线观看视频| 中日韩欧亚无码视频| 亚洲国产日韩欧美在线| 国产精品自在线天天看片| 亚洲毛片一级带毛片基地| 制服丝袜亚洲| 国内精品久久人妻无码大片高| 中文字幕首页系列人妻| 亚洲成aⅴ人片在线影院八| 久久久久人妻一区精品| 无码专区国产精品第一页| 欧美不卡二区| 亚洲日韩国产精品综合在线观看| 欧美视频在线观看第一页| 55夜色66夜色国产精品视频| 91在线中文| 无码网站免费观看| 人妻少妇乱子伦精品无码专区毛片| 国产乱人伦AV在线A| 欧美精品v欧洲精品| 91探花国产综合在线精品| 国产精品黄色片| 亚洲精品视频免费观看| 91美女视频在线| 欧美精品在线视频观看| 国产无码在线调教| 9啪在线视频| 亚洲日韩国产精品无码专区| 亚洲性网站| 亚洲精品国产综合99久久夜夜嗨| 国产日韩精品一区在线不卡| 婷婷午夜天| 久久婷婷五月综合色一区二区| 色一情一乱一伦一区二区三区小说| 欧美成人手机在线观看网址| 日韩在线1| 91免费国产高清观看| 国产精品毛片一区视频播| 91成人免费观看| 一级爆乳无码av| 欧美精品在线看| 精品视频福利| 国产成人综合亚洲欧美在| 日韩无码黄色网站| 一级毛片在线免费视频| 夜夜操天天摸| 国产精品亚洲а∨天堂免下载|