999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

智媒時代的算法公共性憂思與紓困策略

2021-07-27 18:32:28董倩格
新媒體研究 2021年7期

董倩格

關鍵詞 智能媒體;公共性;個性化算法;新聞倫理

中圖分類號 G2 文獻標識碼 A 文章編號 2096-0360(2021)07-0120-03

1 大數據技術與多媒體融合分發保障優化傳播效果

傳統媒體時代的新聞分發權掌握在媒體人手中,媒體根據自己的標準將內容推送至媒體所選定的受眾面前。而如今智能媒體時代,算法技術日益成熟,已逐漸取代了人工,能夠為用戶進行“千人千面”的內容定制。例如,“封面新聞高考志愿小助手”整合600萬條考生數據,對考生進行“私人化”的精準分析,為其智能化預估高考分數和志愿填報。同時,多媒體平臺協同分發,精準化投放內容,也為不同平臺的用戶提供了適應平臺傳播特性的內容。

智能媒體時代,報紙、電視臺、電臺等傳統媒體在新聞報道時具有權威性的優勢,而新興媒體也同樣在時效性方面具有傳統媒體暫時還不具備的優勢。將兩者優勢結合進行報道可以深層次擴大事件的影響力,將不同平臺的用戶凝聚在一起,從而打破平臺使用界限。

2 智能算法引起的公共性憂思

2.1 算法權力與新聞公共性

新聞公共性是在歷史發展中實踐出來的。哈貝馬斯認為,將社會權力轉變為政治權力的過程與公眾批判和監督是分不開的,因此,在政治和公共領域具有公共影響力的所有機構,都必須堅持公共性[1]。而新聞公共性的涵義則有以下幾種:一是為大眾報道與他們切身利益相關的公共事務,為公眾知情權做保障;二是為公眾提供一個平等交流的意見平臺,即所謂的公共領域,為公眾參與權做保障;三是要代表民眾承擔起監督政府的責任,使大眾的聲音可以上達至國家機關。在傳統媒體時代,主要由新聞媒體來保障和完成新聞的公共性。如今的媒介生態變成了由算法作技術驅動力的智能媒體時代,算法權力一定程度上剝奪了傳統媒體的權力,其所依賴的是資本和市場的價值邏輯。擁有算法權力的公司可以人為地利用算法來為自己服務,使信息變得越來越娛樂化、個性化,復雜的公共議題就被算法過濾掉了,公民成了消費者。新聞公共性還應為弱小者發聲,但在算法權力操縱下的智能媒體時代,弱者被當作“長尾”忽略了。同時新聞的本質就是追求真實,但在算法邏輯主導的媒介機制里,假新聞的話題度高,成本低,導致了虛假信息的泛濫。故而,智能媒體時代的新聞公共性還需要更系統完整的規制。

2.2 重構了信息傳播中的權力主體

隨著5G技術的成熟發展,將迎來“萬物互聯”的傳播新生態。從根本上講,人工智能的本質也算是一種算法。在新聞傳播領域中,智能的內容分發在效率和規模上大大超過了傳統編輯把關的內容分發,成為了各大平臺信息推薦的核心技術。但實際上,算法卻解構了傳統的編輯把關角色,媒體人的專業理性讓渡給機器。算法不知不覺地在塑造擬態環境中行使了“算法權力”,構造了新型的“算法政治”,導致了編輯權力的旁落。專業的編輯把關時代,可以通過編輯自身的專業素養與價值判斷來有效過濾和篩選缺乏社會價值的內容。相比于傳統把關,表面上,算法把關更能與市場需求相匹配,但它在把關過程中,一味過度提取用戶的偏好關鍵詞,常常會導致標題黨現象的發生。當算法完全主導信息生產者的內容選擇權時,便會逐漸形成“點擊率與關注度就是價值導向”的扭曲觀念。如果過度依賴算法把關,除了無法對信息做深度解讀和判斷之外,還會因為過度強調對用戶注意力的捕捉,放棄了對社會價值與文化的堅守,新聞信息變為迎合流量和市場的經濟消費品。信息傳播的權力也從由人主導變為由算法主導,對人的信任也轉化為對算法的信任。大型的公司、國家權力機關往往掌握著豐富的用戶數據和成熟的算法優化技術,他們便擁有了更多的“算法權力”,必然會在新型傳播場域中引發多種利益的競爭和博弈。波斯曼指出,技術壟斷是對技術的神化抵御,在抵抗信息泛濫的防御系統被破壞之后,社會遭遇的后果就是技術壟斷[2]。

2.3 解構了社會公共空間

關于公共性的話題討論,最早可以追溯至古希臘語境。當時的公共性概念所代指的是古希臘人民在城邦中和諧互助、友好生活的一種狀態,城邦就作為他們的公共領域[3]。公共性的概念是在不同時代,不同領域和不同語境下不斷補充發展起來的。人們普遍認為,公共利益不是天然就存在的,是經過實踐助力形成的,它更多地需要社會成員彼此之間的充分合作。在傳媒領域中,公共性則是媒體應鼓勵并引導公眾更多地關注當地和公共事務,與此同時,公眾的行為與意識也應不受資本利益集團的控制。

在過去,關于傳媒公共性的爭論主要側重于在國家政治權力和傳媒之間,由誰來履行公共責任的討論。而在實際中,傳播的行為受到了各種力量的約束與限制,這在傳播過程中會形成一種“社會合力”。在智能媒體階段,由于用戶對社交媒體的廣泛使用,使得用戶“前臺”與“后臺”的邊界開始消融,不再像傳統媒體時期那樣明確,開始發生重疊,從而引發了用戶對媒體公共性可能會被進一步消解的質疑。

傳播學家麥奎爾將傳媒業中的公共性總結為“平衡的、廣泛的、共同的、長遠的利益與個體的、特殊的、短期的利益之間的關系”[4]。傳統媒體時代,由于傳統媒體本身具有的服務于公眾、向政府傳達民眾的聲音、負責社會秩序的穩定等社會公器屬性,在傳播信息方面具有絕對的壟斷地位。受眾個人數據也是在公共空間這一“前臺”進行收集的,而智能媒體時代的用戶信息收集是在算法與大數據這一“后臺”進行的,是一種“溫和”而隱形的方式[5]。用戶的隱私行為與想法被技術實時監控,個人完全暴露在“全景監獄”之中,原本用戶的個人空間對資本集團是不可見的,但由于用戶數據是實時可見的,這就導致了原本存在于用戶個人與公共之間的界限不再清晰[6]。互聯網和社交媒體雖然豐富了信息內容,將公眾聚集到了一個共同的平臺上,但這本質上無法與公共性等同。算法關注和謀求的是共同性而非公共性。算法技術基于大數據重新建構的擬態環境具有泛娛樂化、非理性等風險,長此以往,便給社會公共空間帶來了一定程度的解構。

2.4 算法偏向弱化公共意見

傳統媒體的信息生產和把關分發有一套完整穩定的管理制度,公共意見得以整合并得到有效保障。對于操縱算法來進行內容把關和分發的自媒體平臺來說,只要符合算法把關規則的信息都可以通過自媒體進入到公共領域,相比于低成本高報償的八卦娛樂新聞,具有高度公共性的新聞在生產投放過程中要花費的成本更高。因此自媒體人會更多地選擇更具經濟價值的私人化、個性化的內容。算法的私人定制機制目前還較為單一,算法取值模式也較為固定。長此以往,會使用戶陷入由自己興趣偏好構成的“信息繭房”當中,窄化用戶的認知,導致“社會被不同的意見極化群體所分隔,社會共識難以凝聚”[7]。用戶長久封閉在自己的“圈層”中,只進行群體內部意見的交流,隔絕了外部世界的聲音,極易造成“群體極化”現象的發生。算法表面上提高了信息輸出的效率,增加了信息與用戶的匹配度,實際上卻把大量不具有公共性的私人話題推送至公共領域,將用戶的注意力集中于公共價值較低的花邊新聞上,擠占有限的媒介資源,不利于公共意見的良好表達與收集。在如今的智能媒體階段中,媒體的關注焦點已從同質化的大眾群體轉為異質化的獨立個體,但用戶基于獵奇心理點擊閱讀的文章并不能代表用戶內心真正的興趣與需求,只是一種即時性、淺層化的閱讀。喻國明老師也指出:“算法”定義的“需求”只是人們表露在搜索引擎中的“明確意識需求”[8],算法技術目前還不能預測用戶自身不自知的需求,但卻會使用戶沉浸在個人滿足當中,排斥群體外部的觀點,消解了主流價值觀和公共利益。算法在內容的生產與分發過程中往往表達的是個人意見,會帶有某些偏見,可能會加劇已經存在的不公平現象,那么就會相應地弱化公共性意見。

3 算法公共性的紓困策略

3.1 提升算法設計者的倫理意識

算法價值深度應用在傳媒業的諸多領域,從開始的輔助功能,到如今已經可以代替新聞從業者進行信息決策。但算法技術并不是完全中立的,且作為責任主體的邊界與發生問題的追責較為模糊。作為參與算法編程的程序員,也應為算法倫理問題負責,但是他們在設計算法模型時,卻較少從倫理層面進行考量。實證研究表明,道德培訓會對算法工程師的道德決策和道德推理產生積極影響,但是工程師所屬機構的道德領導對二者未產生明顯影響,受教育水平在以上兩組關系中均未起到中介作用[9]。這說明,道德培訓對提升算法編程師的倫理意識十分有必要。

3.2 豐富算法取值,優化個性化分發系統

算法推薦的運行原理包括:“用戶模型、內容模型、搜素引擎三部分”。其中,用戶模型可以基于算法對用戶偏好數據進行描述,將其轉化為算法機器可以“解讀”的信息。內容模型則是利用固有的模型對“解讀”好的數據進行建模,從中提取用戶的數據特征,使得后續的推薦策略盡可能匹配特定用戶。所以,算法推薦的精準度與內容模型是正向相關的。而搜索引擎在算法推薦系統中居于核心,它可以將大數據技術捕捉到的用戶相關信息應用于不同的算法推薦規則中,形成綜合的內容推薦策略。因此,算法工程師在研發算法系統時應該豐富算法數據的取值,進一步優化分發系統。例如可以對用戶關系圖譜中的相關用戶興趣內容進行互相推送,適當推薦與其既有觀點不同的內容,幫助用戶拓寬興趣面。盡可能滿足具有不同興趣愛好用戶的內容需求,打破用戶的慣有思維。

3.3 建立算法應用監督機制

算法傳播可以對用戶的關注點進行“議程設置”,在越來越多的領域成為了決定性力量。例如像谷歌、百度、亞馬遜這些掌握最尖端算法科技的頭部公司,在應用算法時有高度的自主權。當發生倫理失范時,無法從根本上有效對責任主體進行追責。要想從源頭上解決此類問題,就需要發揮法律在算法應用中的監督作用,例如可以對算法代碼的“合法性”或“技術性”進行分析,對可能產生的錯誤進行分類,明確代碼錯誤主體,建立相應的法律制度[10]。另外,也要不斷完善關于算法的監管體系,這需要算法行業內部增強社會責任感和信息透明度,來進一步促進算法行業的健全良好發展。

4 結語

隨著互聯網即將進入到“萬物互聯”時代,智能技術也逐漸從“弱人工智能”發展為“強人工智能”,不僅可以完成設計者發出的指令,還可以獲得“人的意識”。智能技術的發展不僅變革了信息生產模式,帶來了信息消費的新方式,也給不同傳播主體在智能傳播過程中的價值觀塑造和信息傳播倫理帶來了新的挑戰。

但需要注意的是,無論在未來,技術發展到何種地步,在使用技術過程中作為主體的人的決定性地位都是不可撼動的,技術與機器只能作為人的身體與感官的延伸,不應削弱人的核心價值。即使處于智能媒體時代,新聞從業者都應堅持新聞專業主義,發揮媒體對社會的守望與整合功能,努力提升自身的媒介素養和專業水準。在人機協同的大趨勢下,對于作為傳播主體的人如何更好的與算法等技術共生,以及如何使算法更加具有人類的價值倫理,來打造更完善的新聞傳播格局,也是下一步研究的重要課題。

參考文獻

[1]哈貝馬斯.公共領域的結構轉型[M].曹衛東,等譯.上海:學林出版社,1999:224.

[2]波斯曼.技術壟斷:文化向技術投降[M].何道寬,譯.北京:北京大學出版社,2017:42.

[3]譚清華.從人的公共性到公共性的人:論人的公共性及其發展[M].北京:中國社會科學出版社,2015:1.

[4]張輝.美國廣播電視媒介公共利益界定的邏輯[J].新聞傳播,2015(5):44.

[5]尚帥.傳播的興趣偏向和渾然不覺的符號暴力:基于今日頭條的算法控制研究[J].現代傳播,2018(10):60.

[6]袁光鋒.政治算法、“幻影公眾”與大數據的政治邏輯[J].學海,2015(4):49-51.

[7]喻國明,陳艷明,普文越.智能算法與公共性:問題的誤讀與解題的關鍵[J].中國編輯,2020(5):12.

[8]盧迪,韓銀麗,徐玥.移動傳播技術發展背景下的傳媒智能化演進[J].中國編輯,2018(103):81.

[9]劉志杰.算法把關失靈與編輯價值重塑[J].中國編輯,2020(125):19.

[10]全燕,陳龍.算法傳播的風險批判:公共性背離與主體扭曲[J].華中師范大學學報,2019(58):154.

主站蜘蛛池模板: 亚洲福利一区二区三区| 国产精品自在线拍国产电影| 亚洲成a∧人片在线观看无码| 久久9966精品国产免费| 欧美亚洲国产视频| 97免费在线观看视频| 亚洲一区二区视频在线观看| 欧美三級片黃色三級片黃色1| 国产国产人免费视频成18| 国产玖玖玖精品视频| 狠狠色综合网| 四虎AV麻豆| 亚洲人成色77777在线观看| jizz在线观看| 久久国产高潮流白浆免费观看| 亚洲一区二区三区香蕉| 欧美啪啪视频免码| 无码福利日韩神码福利片| 欧美黄网在线| 亚洲色图狠狠干| 国产乱子伦精品视频| 亚洲日韩每日更新| 青青草原国产精品啪啪视频| 亚洲国产成人综合精品2020| 国产网站在线看| 免费国产好深啊好涨好硬视频| 亚洲欧美不卡视频| 国产精品视频a| 伊人色婷婷| 国产日韩欧美精品区性色| 2020国产精品视频| 国产精品人人做人人爽人人添| 三上悠亚一区二区| 精品久久人人爽人人玩人人妻| 国产成人亚洲精品无码电影| 国产打屁股免费区网站| 丁香五月婷婷激情基地| 热这里只有精品国产热门精品| 国产精品成人久久| 色偷偷一区二区三区| 亚洲无码精品在线播放 | 欧美亚洲欧美| 五月天香蕉视频国产亚| 五月婷婷导航| 日韩少妇激情一区二区| 精品视频一区二区观看| 茄子视频毛片免费观看| 婷婷六月激情综合一区| 伊人成人在线| 欧美国产在线看| 特级做a爰片毛片免费69| 99re在线视频观看| 亚洲色图欧美视频| 欧美97欧美综合色伦图| 亚洲精品你懂的| 亚洲最大综合网| 精品视频一区二区三区在线播| 亚洲成人网在线播放| 欧美日韩午夜| 99久久精品视香蕉蕉| 亚洲熟女中文字幕男人总站| 五月丁香在线视频| 国产亚洲精品资源在线26u| 欧美精品黑人粗大| 亚洲 欧美 中文 AⅤ在线视频| 国产波多野结衣中文在线播放 | 国产亚洲欧美在线人成aaaa| 日本影院一区| 超薄丝袜足j国产在线视频| 成人a免费α片在线视频网站| 亚洲国产天堂在线观看| 天堂在线www网亚洲| 91色老久久精品偷偷蜜臀| 又大又硬又爽免费视频| 爆操波多野结衣| 国产青榴视频| 中文字幕伦视频| 亚洲成人在线网| 国产剧情伊人| 久久精品午夜视频| 色久综合在线| 久久人人97超碰人人澡爱香蕉|