朱一婷 王威
關(guān)鍵詞 個性化算法;公共性;信息繭房;算法權(quán)力;數(shù)字鴻溝
中圖分類號 G2 文獻(xiàn)標(biāo)識碼 A 文章編號 2096-0360(2021)05-0090-03
在當(dāng)今“萬物互聯(lián),人機(jī)共生”的時代背景之下,“人工智能+算法”已經(jīng)走上了風(fēng)口浪尖,成為社會討論的核心焦點。那什么是算法?簡單來說,就是由計算機(jī)來模擬某些人的思維和智能,通過“算法”來實現(xiàn)在存在一定的輸入的條件下,由計算機(jī)來完成特定功能的輸出,替代或增強(qiáng)人類的某些決策任務(wù)與能力[1]。算法正利用其高效性不斷地滲入到政治、經(jīng)濟(jì)、文化以及社會生活的方方面面。在新聞傳播領(lǐng)域,算法有著更為具象的應(yīng)用,比如機(jī)器人新聞寫作、分布式新聞生產(chǎn)、數(shù)據(jù)新聞等新聞生產(chǎn)方式的出現(xiàn)。在為社會帶來一系列便利的同時,算法作為一種新型媒介正在重構(gòu)社會的公共空間,并以其特有的權(quán)力重塑社會結(jié)構(gòu),這給達(dá)成社會共識,凝聚社會力量帶來巨大的風(fēng)險挑戰(zhàn)。
當(dāng)下,算法最廣為人知的是“個性化算法”這一名稱,核心是以用戶為中心,搭建起以關(guān)系范式為主的利基市場,力求商業(yè)價值的最大化,這也是其技術(shù)邏輯所在。而所謂算法的“公共性”就是算法與公共利益相關(guān),通過其公共性來實現(xiàn)社會效益的最大化,而不是使商業(yè)利益凌駕于公共利益之上,從而實現(xiàn)維持社會秩序,凝聚社會共識的作用,而這正是基于算法的社會邏輯來思考的。但是,由于商業(yè)價值和社會價值的沖突,算法正深陷于個性化與公共性二元對立的“囹圄”之中。因此個性化算法的公共性缺失會帶來一系列社會風(fēng)險,容易導(dǎo)致整個社會的“圈層化”及“非理性化”,人們難以進(jìn)行有效的社會溝通,從而蘊藏著對于社會秩序的威脅。
1.1 “信息繭房”下的網(wǎng)絡(luò)群體極化
最早研究網(wǎng)絡(luò)群體極化現(xiàn)象的是美國哈佛大學(xué)教授凱斯·桑斯坦,他認(rèn)為網(wǎng)絡(luò)群體極化現(xiàn)象是部分人初始狀態(tài)時對某一話題存有偏向,經(jīng)過“交流、討論與閱讀等”,這類人朝著原有方向繼續(xù)偏移,最后形成更加極端與固執(zhí)的認(rèn)知[2]。智媒時代,個性化算法無疑成為網(wǎng)絡(luò)群體極化現(xiàn)象的加速器。個性化算法通過對用戶畫像進(jìn)行精準(zhǔn)描繪,以打造“千人千面”的內(nèi)容使用體驗,將用戶從冗余信息中“拯救”出來,節(jié)約其時間成本并構(gòu)建貼近用戶的沉浸式體驗,最終將用戶牢牢控制在平臺或媒體的信息網(wǎng)絡(luò)中。表面上看,這是一項惠及普羅大眾的社會性進(jìn)展,但在算法所構(gòu)建的信息空間中,由于商業(yè)邏輯大于公共邏輯,所以追求個性化不僅無法構(gòu)建起公共空間,反而會因為信息壁壘的存在而導(dǎo)致個人或群體把自我禁錮在狹小的“信息繭房”之中。受困其中的人群由于同類信息和意見的“侵蝕”,認(rèn)知行為逐漸趨同,極易誘發(fā)群體極化現(xiàn)象。在此情景之下,社會各個圈層之間因無法達(dá)成理性的溝通對話,從而導(dǎo)致公共空間無序化。
1.2 “算法權(quán)力”下的社會危機(jī)
在一個媒體和代碼無處不在的社會,權(quán)力越來越存在于算法之中[3]。算法權(quán)力主要是通過其不透明機(jī)制實現(xiàn)的,即除了輸入和輸出端,人們無法知道算法的內(nèi)部運行機(jī)制和原理。在此情境之下,由于“技術(shù)賦權(quán)”的天然權(quán)力以及數(shù)據(jù)、平臺所附帶的控制權(quán),資本可以輕易地將自身的利益訴求植入算法,從而謀取利益最大化。其中就涉及“技術(shù)中立論”的問題,事實上,技術(shù)中立僅僅是個假象,技術(shù)無意識必然會導(dǎo)致價值的無意識植入,因此算法模型設(shè)計中的“歧視性設(shè)定”以及“價值偏向”等將成為社會發(fā)展進(jìn)程中的“絆腳石”。當(dāng)個性化算法應(yīng)用到新聞生產(chǎn)與分發(fā)的流程之中時,算法所擁有的信息資源的配置權(quán)不斷擴(kuò)大,但與此相對的是責(zé)任機(jī)制并不清晰,這為算法黑箱提供了可乘之機(jī),同時一些諸如民意操縱、種族歧視、性別歧視等潛在問題也被隱藏和掩蓋起來。原本旨在通過算法的自主決策系統(tǒng)能夠為人類社會生活各種事務(wù)提供公正、客觀、可靠的算法推薦及生成機(jī)制,事實上正在改變社會秩序和規(guī)則。
1.3 “新數(shù)字鴻溝”下的階層固化風(fēng)險
“數(shù)字鴻溝”最早是由美國學(xué)者蒂奇諾1970年提出的“知溝理論”發(fā)展而來,特指在互聯(lián)網(wǎng)時代,不同群體使用媒介的能力不同以及媒介內(nèi)容獲取行為的不同而形成的信息獲取差異,與“知溝理論”相比,它弱化了不同社會階層群體間信息形成的知識差距。然而在智能媒體這一時代背景之下,算法正在開辟新的、復(fù)雜的數(shù)字鴻溝,在個體的生活中以不可預(yù)見、往往被忽視的方式出現(xiàn)[4],同時將社會階層固化的風(fēng)險再次展現(xiàn)出來。個性化算法標(biāo)簽化信息本身就帶有一定的“偏見”色彩,它將不同的人群分化開來,在一定程度上影響甚至控制著用戶的信息接觸與使用能力,想要彌合“數(shù)字鴻溝”愈發(fā)困難。比如“假靳東事件”,一名60多歲的女性在抖音平臺上看到了“假靳東”賬號,用靳東的動態(tài)畫面配上其他聲音,該女性就相信了這是真的靳東,并導(dǎo)致家庭關(guān)系出現(xiàn)裂痕。表面上看這是該女性缺乏網(wǎng)絡(luò)騙局辨識能力所致,實質(zhì)上是平臺算法機(jī)制掌握了其受教育程度低、身處農(nóng)村、缺少關(guān)愛等信息,從而為她精準(zhǔn)推薦諸如此類的信息,這也就加大了她或者說此類人群與社會之間的鴻溝。因此,個性化算法加劇了社會各階層間的不平等現(xiàn)象,想要真正實現(xiàn)社會公平和信息自由還要做出更大的努力。
如今,我們國家正處于社會轉(zhuǎn)型期,各種新技術(shù)和新思潮的迭起,使社會各階層的貧富差距加大,同時輿論領(lǐng)域日益呈現(xiàn)出兩極分化的對立趨勢,從而使社會陷入一種不穩(wěn)定狀態(tài)。因此,我們亟需轉(zhuǎn)變算法技術(shù)使用的思維邏輯,尋找搭建個性化算法的公共性適配之路。
2.1 手握“韁繩”,明確算法倫理規(guī)制
俗話說“無規(guī)矩不成方圓”,算法也不例外,它猶如一把雙刃劍,如若不在法律條文上對其予以規(guī)制,那么算法將如一匹“脫韁的野馬”擾亂社會秩序。
當(dāng)前國內(nèi)外更多的是在人工智能及網(wǎng)絡(luò)信息安全方面出臺一些相關(guān)法律法規(guī),然而對于算法本身還未有成形的規(guī)范。比如我國2017年施行的《網(wǎng)絡(luò)安全法》以及2018年也開始實施的《信息安全技術(shù)個人信息安全規(guī)范》等法律,都對于用戶數(shù)據(jù)的收集和使用等方面做了相應(yīng)的規(guī)范,它們的確會對以數(shù)據(jù)為底層邏輯的算法使用產(chǎn)生一定的規(guī)制作用,但這些規(guī)范太過于宏觀,無法解決復(fù)雜的算法倫理問題。相比之下,國外發(fā)達(dá)國家出臺的關(guān)于人工智能和機(jī)器人倫理的規(guī)制更具有前瞻性,對于未來算法新聞法規(guī)的出臺更具借鑒意義。譬如在人工智能作品的權(quán)利歸屬問題上,歐盟法律事務(wù)委員會建議歐盟委員會就與軟硬件標(biāo)準(zhǔn)、代碼有關(guān)的知識產(chǎn)權(quán)提出一個更平衡的路徑,以便在保護(hù)創(chuàng)新的同時,也促進(jìn)創(chuàng)新。同時,對于計算機(jī)或者機(jī)器人創(chuàng)作的可版權(quán)作品,需要提出界定人工智能的“獨立智力創(chuàng)造”的標(biāo)準(zhǔn),以便可以明確版權(quán)歸屬。由于近些年來算法已對社會產(chǎn)生結(jié)構(gòu)性的變革,因此明確算法倫理規(guī)制是必然,也是趨勢。
對于我國來說,明確算法倫理規(guī)制最為緊要的是以下方面。一方面,推行算法透明機(jī)制,在這一過程中,算法的設(shè)計者和應(yīng)用者需要對算法在新聞領(lǐng)域中的生成和應(yīng)用機(jī)制予以解釋,公眾有其知情權(quán)的必要性。同時各大平臺必須定期發(fā)布算法透明度報告,公開算法的技術(shù)特征和主要技術(shù)內(nèi)容,明確算法做出決策的過程,揭示算法在設(shè)計、應(yīng)用和數(shù)據(jù)安全方面的技術(shù)要點以及相應(yīng)風(fēng)險。另一方面,明確算法機(jī)制的責(zé)任歸屬問題。當(dāng)機(jī)器人生產(chǎn)出假新聞時,應(yīng)該由新聞編輯還是算法設(shè)計者承擔(dān)后果呢?同樣,還有版權(quán)問題以及侵犯隱私等問題的責(zé)任歸屬。只有將這些法律條文進(jìn)行細(xì)化,才能使算法以安全、透明、為人類做貢獻(xiàn)的方向發(fā)展,當(dāng)然這并不是說把算法關(guān)進(jìn)了制度的“籠子”里,而是通過制定法律來促進(jìn)算法的公共性發(fā)展。
2.2 擺脫唯“數(shù)據(jù)”論,以人本原則實現(xiàn)算法的多元性
算法并不是以技術(shù)中立性而獨立存在的,它是與政治、經(jīng)濟(jì)、文化等共同構(gòu)建的社會場域中互為影響。同時,算法的背后是人的意識,因此脫離了人去談算法是完全不切實際的。由于算法以提供個性化信息為主要邏輯,因此其在社會整體性內(nèi)容需求方面有所缺失,這就需要人來進(jìn)行平衡。算法設(shè)計者可以人本原則不斷優(yōu)化算法,通過多種算法推薦方式的疊加來為用戶帶來多樣化的信息需求,同時將公共性的價值觀注入進(jìn)算法程序之中,以幫助用戶逃離“信息繭房”以及算法偏見、隱私泄露等倫理問題。目前我國技術(shù)公司所使用的主要是內(nèi)容推薦、關(guān)聯(lián)規(guī)則推薦及協(xié)同過濾推薦機(jī)制,其在不斷完善之中,但歸根結(jié)底尚未脫離開個性化的技術(shù)邏輯,即以用戶為中心,采取數(shù)據(jù)至上的規(guī)則。比如抖音采取“賽馬機(jī)制”,其主要由八級流量池所組成,當(dāng)用戶視頻通過審核后會被丟入初級流量池中,之后算法技術(shù)會根據(jù)該視頻的點贊量、評論量、轉(zhuǎn)發(fā)量等數(shù)據(jù)情況決定是否推薦到下一級流量池中,雖然每升一級都要經(jīng)過人工審核,但經(jīng)過算法推薦過的信息已經(jīng)窄化了工作人員的視野,選擇權(quán)依舊掌握在算法的手中。事實上,國外媒體已經(jīng)在算法公共性建構(gòu)方面做出有益嘗試,如英國衛(wèi)報開設(shè)“刺破你的泡泡”專欄,華爾街日報設(shè)“紅推送,藍(lán)推送”模式等。因此擺脫唯“數(shù)據(jù)”論,在算法程序中加入公共性價值迫在眉睫。
2.3 因人而異的用戶媒介“算法素養(yǎng)”
“媒介素養(yǎng)”是自互聯(lián)網(wǎng)時代以來的一個老生常談的話題,并且通常與用戶相伴而生。在社會輿論眾聲喧嘩的時代,提升用戶的媒介素養(yǎng)被看作是平衡技術(shù)衍生問題的一劑良藥。尤其隨著智能時代的到來,算法為用戶賦予了更多的權(quán)力,并解決其面對的海量信息與注意力資源無法適配的情況,但用戶思維仍然停留在大眾時代以媒體主導(dǎo)信息的定勢中,因此,沖破原有的思維定勢,培養(yǎng)用戶的“算法思維”成為解決算法倫理問題的落點。
但媒介素養(yǎng)真有那么“神奇的療效嗎”?培養(yǎng)用戶的算法思維又是一件很簡單的事情嗎?答案是否。之所以媒介素養(yǎng)會被予以重視,是因為無論媒體、平臺、算法設(shè)計者等相關(guān)方面做出多大的努力,最終起決定作用的還是用戶,如果用戶自身不尋求改變,將會被束縛在個人狹小的圈層里而離社會公共空間越來越遠(yuǎn)。但在實踐層面上,用戶的社會階層、知識背景等大不相同,歸根結(jié)底是社會經(jīng)濟(jì)地位的不同,這會導(dǎo)致他們對媒介信息以及算法的接受能力大不相同。因此“提高媒介素養(yǎng)”這一論斷本身就帶有一定的偏見色彩,它針對的是高水平的知識性人才,并不是社會上的一般大眾。這也意味著媒介素養(yǎng)的提升無法脫離社會運行機(jī)制,要想使其發(fā)揮作用,還需要因人而異,通過政府、社區(qū)、學(xué)校等社會各領(lǐng)域的介入制定切合實際的舉措,而不是去空談“媒介素養(yǎng)”。陳昌鳳曾在算法的透明度相關(guān)論述上提到用戶的話語權(quán)最容易被忽視,因而,在倫理原則的制定、倫理判斷、倫理抉擇以及信息公開等所有實施算法透明度的環(huán)節(jié)中,都要考慮用戶的認(rèn)知、態(tài)度與需求,這對促進(jìn)“異質(zhì)新聞/內(nèi)容實踐網(wǎng)絡(luò)”中各主體的對話,改善各主體在倫理話語權(quán)方面的不平等具有重要意義[5]。
隨著科學(xué)技術(shù)的不斷更迭,我們的媒介邏輯也隨之改變,從Web1.0時代的內(nèi)容連接到Web2.0時代的關(guān)系連接,再到Web3.0時代的價值連接,隨之而來的是社會矛盾的出現(xiàn)以及結(jié)構(gòu)的變遷。算法作為智能時代影響社會變革的重要因素早已滲透至社會生活的方方面面,如若不采取一定措施予以規(guī)制,其倫理問題將會成為社會發(fā)展的不穩(wěn)定因素。因此,社會各攸關(guān)方亟需要轉(zhuǎn)變思維邏輯,將視角從算法的個性化轉(zhuǎn)向其公共性,在減弱算法倫理問題帶來的社會影響的同時,使算法成為“有溫度”而非“冰冷”的技術(shù)。
參考文獻(xiàn)
[1]吳靖.“算法”具有自由意志嗎?:算法主導(dǎo)社會行為背后的幾個悖論[J].中國出版,2019(2):7-11.
[2]凱斯·桑斯坦.網(wǎng)絡(luò)共和國:網(wǎng)絡(luò)中的民主問題[M].上海:上海人民出版社,2006:47.
[3]Lash,Scott.Power after Hegemony:Cultural StudiesinMutation?[J].Theory,Culture & Society,2007,24(3):55-78.
[4]楊洸,佘佳玲.算法新聞用戶的數(shù)字鴻溝:表現(xiàn)及影響[J].現(xiàn)代傳播(中國傳媒大學(xué)學(xué)報),2020,42(4):145-154.
[5]陳昌鳳,張夢.智能時代的媒介倫理:算法透明度的可行性及其路徑分析[J].新聞與寫作,2020(8):75-83.