摘要:人工智能技術得到廣泛應用,人機交互程度不斷提升,實現了大眾傳播向智能傳播的轉向,人工智能也逐漸由“弱智能”向“強智能”轉化。算法新聞給以往的新聞生產和傳播方式帶來了深刻的變革,在提升效率、優化用戶體驗的同時也帶來了“信息繭房”、群體極化、“算法黑箱”、算法歧視等倫理失范問題,其本質在于算法技術和算法新聞生產傳播中商業價值主導的技術理性與人文價值的沖突。文章從官方、平臺、用戶的維度探索對算法新聞進行協同治理的具體路徑,旨在探究如何為算法技術與人文價值的對話創造良好媒介環境,例如有關部門應完善相關法律法規、提高算法透明度,算法新聞平臺和機構應堅守新聞專業主義、提升算法新聞的人文價值,同時需要培養大眾的媒介素養及算法素養,增加受眾對算法風險的認知。
關鍵詞:算法;算法新聞;智能傳播;倫理失范;社會治理
中圖分類號:G206 文獻標志碼:A 文章編號:1674-8883(2023)03-0001-04
算法新聞是指包括算法新聞寫作、編輯、算法推薦機制和平臺聚合分發機制及營銷等業務的自動化新聞生產流程[1]。算法正在成為新聞傳播領域的底層技術,重塑著當今的媒介環境。目前,我國正在加大力度發展和應用人工智能技術,探索將人工智能運用在新聞采集、生產、分發、接收、反饋中,全面提高輿論引導能力。依托于人工智能技術的算法新聞不僅控制表層的信息流轉,而且進一步規訓公眾的社會生活[2]。人工智能技術的廣泛應用和不斷成熟標志著人類已經進入智能傳播時代,可以獨立完成文案寫作、方案策劃以及回答用戶任何問題的超級人工智能ChatGPT橫空出世,更是意味著人工智能已向“強智能”過渡,但目前總體而言人工智能仍屬于“低智能”的范疇,人工智能核心算法也并非絕對技術中立,其背后隱藏著商業利益、價值取向等多種因素。算法技術在為人們獲取信息提供巨大便利的同時,也造成新聞傳播領域甚至社會大環境的倫理困境。如何更好地實現人機共生的繁榮局面,創造技術與人文的積極對話范式,將算法納入法治化健康發展的軌道,是智能傳播時代人工智能向“強智能”轉型過程中亟須解決的問題,目前對算法的監管也成為衡量國家風險管理、國家治理體系和治理能力現代化的一大因素。
技術理性往往注重提升效率,但人類總是更加在意公正公平,這是因為人類社會里充斥著由道德倫理主導的人文價值取向。作為非生命體的算法技術是否應當成為倫理建構的因素和承擔倫理責任的主體?以往研究表明,行動者網絡理論能夠作為對算法進行社會倫理研究的理論基礎[3]。
行動者網絡理論是由法國社會學家布魯諾·拉圖爾(Bruno Latour)等人提出的社會學分析方法。首先,行動者可以是任何事物,可以是人,也可以是非生命的算法技術,或是觀念、組織等其他事物,不同行動者相互作用形成動態關系網絡。從行動者網絡視角看來,算法并不是絕對理性和客觀的,算法作為行動者具有強大的鏈接能力,建構起整個媒介生態網絡,因此算法可作為承擔倫理責任的主體。其次,社會責任理論視角下,人類并非具有絕對正確的價值觀念,新聞傳播機構應該起到對公眾、對社會負責的作用,發揮及履行宣傳教育、引導樹立正確價值觀的功能和義務。因此,算法作為與人相互影響的行動者,處于整個行動者網絡中心的關鍵部位。再次,行動者網絡理論思考了人與非人、自然、社會的共生關系。智能傳播環境正是人文價值、技術理性和媒介環境的耦合,人機共生構成了媒介生態網絡。最后,行動者網絡理論中人文與科學辯證關系的討論與新聞算法中算法技術和人文價值的對話研究視角相吻合。
任何技術的發展都具有兩面性,算法在提升新聞傳播和用戶接收信息效率的同時,也挑戰了新聞權威性,“把關人”目標的轉變和新聞價值的消解,阻礙受眾認知,加劇群體極化,損害受眾知情權、隱私權,算法不透明導致其背離社會責任等社會公共領域的倫理失范問題,對社會風險治理提出了新的挑戰。
(一)算法驅動新聞的價值危機
智能傳播時代的算法技術取代了人類作為新聞生產主體,帶來了新聞價值的重構。算法驅動的新聞寫作已廣泛應用于新聞傳播領域,例如騰訊財經的“Dreamwriter”、新華社的“快筆小新”、南方都市報的“小南”等都是較早應用于算法新聞寫作的人工智能機器人;再如今日頭條的“Xiaomingbot”寫作機器人,可以輕松對數據進行抓取、加工,匹配自然的語言模版并生成貼近人類寫作口吻的新聞。
傳統媒體時代,時效性和真實性是新聞的兩大特性。維護新聞真實性是新聞工作者的目標和職責,正是新聞生產過程中“把關人”的存在,才使新聞具有極高的社會價值。算法應用于新聞生產過程在一定意義上重新建構了新聞“把關人”的概念,從新聞的線索、熱點、題材選擇到文本建構和分發推薦,傳統新聞生產過程中記者、編輯、專業審核人員等重要角色完全被程序取代,人對新聞事實和意義符號的加工權力已讓渡給算法技術,尊崇商業邏輯的算法技術和遵從倫理邏輯的新聞原則之間的沖突構成了算法新聞的價值危機。
從信息生產視角看,傳統媒體時代,新聞“把關人”判斷新聞價值的標準是時新性、重要性、接近性、顯著性、趣味性五個要素,工作原則是新聞真實性[4]。然而智能傳播時代,不同新聞機構和平臺的市場份額競爭極為激烈,人的注意力被喻為“原油”,導致算法把關和傳統新聞生產把關目標完全不同。算法把關尊崇“流量至上”,即“注意力至上”的生產和分發原則,由商業價值及利益主導。
從倫理視角看,智能傳播時代的新聞同樣應該承擔公共責任,如果疏于監管,一些低俗、虛假新聞存在被廣泛傳播的可能,由此造成新聞信息的低俗和同質化,嚴重損害新聞的權威性以及新聞機構的公信力。
從新聞專業主義視角看,算法新聞的推薦機制造成了算法邏輯和道德邏輯上的沖突。算法更在乎如何通過受眾畫像、興趣模型去分發新聞,“注意力至上”原則在一定程度上是對新聞專業主義中“求真求實”“應知”等價值向導的消解。此外,人們樂于關注更具噱頭和能夠引發情緒的新聞事件,因此基于用戶興趣導向的算法新聞推薦機制更容易推薦一些不論其價值取向而更具看點的事件,這種新聞傳播機制構成了新聞價值導向危機。但事實上,無論媒介時代如何更迭,新聞的核心價值不會改變,算法新聞仍需堅守新聞專業主義的價值理念。
(二)算法推薦依賴下受眾的認知危機
媒介從模擬人類身體的延伸到模擬“中樞神經”的延伸,進入智能傳播時代,大數據技術、算法推薦技術模擬人類意識的延伸,甚至成了控制人類意識的機制。算法代替了受眾的大腦選擇,一方面節約了時間成本,為受眾推薦他們潛意識中想要看到的內容,另一方面在無形中制造了“信息繭房”。被困于“繭房”中的受眾在算法的監控中,仿佛置身于“全景監獄”,只能在算法既定框架下作出選擇,從而失去了接觸信息的多元化路徑。“繭房”中,受眾所接觸到的其他用戶的討論和反饋大多是與自身意見相似的回響,進一步加劇了“回音室效應”。長時間單一的意見會加固受眾的既往認知,造成片面和狹隘的認知效果,這種認知的窄化在個人層面是一種唯心主義,在社會層面屬于一種不利于社會整合的個人情境,若每個人都陷入“信息孤島”,則必然導致群體極化。
群體極化由美國社會學家詹姆·斯托納(James Stone)提出,即在集體決策中,最終結論往往向越發保守或冒險的兩個極端轉移。“信息繭房”帶來的極化效應在損害受眾展開多元化討論的權利的同時,減少了異質化觀點的存在,給多元化觀點討論帶來阻礙。然而社會的進步需要思想的碰撞和多種話語體系,高度的群體分化會導致群體分裂,群體極化成為阻礙社會發展和社會穩定的威脅。總之,算法新聞推薦機制可能會使用戶更偏向于沉浸在個人議程中,而不會被公眾議程干擾,因此使用者之間無法實現文化資源共享,一是會造成受眾認知窄化和程序化,二是長遠來看,人們在形成認同感和維護集體情感時,公共媒體的社會整合作用就可能失效[5]。因此,算法新聞的推薦制度對受眾的認知影響以及社會發展、治理提出了一定挑戰。此外也有學者指出,“信息繭房”的形成會受到受眾主觀行為的影響,并非算法技術的特有產物,應當辯證地看待。因此,如何廣泛提升大眾媒介素養和數字素養,使大眾有意識地識別和規避互聯網中的潛在風險,是智能傳播時代社會治理中亟需思考的問題。
(三)算法技術的社會責任危機
算法技術潛在侵害用戶權益。隨著算法技術迅速發展,如果不能及時確立和普及相關法律法規,就極易造成潛在的侵權危害。由于算法技術的核心需要收集用戶信息以實現內容的精準分發,由海量用戶數據構成的透明“全景監獄”極有可能造成信息泄露,也產生了諸如“用戶的瀏覽記錄歸誰所有”“平臺任意調取用戶數據是否應被授權”“分析使用用戶數據應被誰授權”等不易被用戶察覺的對知情權、隱私權的侵害。
算法偏見違背公正平等的價值觀。算法偏見主要產生在用戶畫像描繪時,“算法自動確定個體的性別、階層、種族等身份特征”[6],每個人都被賦予了由一個個標簽組成的算法身份。算法進行信息分發時,算法設計者的價值觀決定了算法如何分析信息,也決定了算法會過濾和強化哪些信息,這樣的隱形鏈接下蘊藏著多種因素的博弈,即算法使用者自身對性別、年齡、種族、階層、態度傾向等偏向,在應用過程中可能導致嚴重的社會問題。
算法偏見與“算法鴻溝”相依存。“算法鴻溝”指受眾在獲取算法新聞內容和對算法技術使用方面的感受差異。傳統媒體造成的“知溝”往往由受眾所處環境條件和受教育水平導致,而“算法鴻溝”則是由算法對用戶的教育程度、身份地位、職業特征、所處地區等因素進行的信息收集和分析所預設出的,算法帶來的個體標簽化趨勢愈發明顯,不利于維護社會的公平公正。
由經濟、政治、個人價值觀影響的算法運行機制造成的平臺和用戶信息不對稱、不公開即“算法黑箱”的核心所在,受眾無從得知算法的目標和意圖以及算法運行的價值指向,因此難以對算法進行評判及監督[7]。造成算法倫理失范問題的潛在因素存在于算法的每一個環節,看似無法避免,實際上算法背離社會責任的根本原因是其背后人的意志。例如有學者認為算法偏見來源于算法設計者的偏見、輸入數據的偏見、算法局限的偏見,其中設計者的偏見是能夠避免的[8],算法決策會受到人為因素的干擾,因此可以通過優化算法和加強法律約束來規避倫理失范。
算法具有極強的跨界屬性,算法技術和算法新聞的生產傳播作為一種看似“中立”的技術產物,所帶來的影響應受到監管。算法帶來的一系列倫理失范問題如“Facebook偏見門”、谷歌將黑人女性照片識別為大猩猩、“劍橋分析事件”以及愛奇藝起訴字節跳動旗下今日頭條內容侵權案、短視頻平臺算法侵權案等事件,造成了很大的社會影響。算法具有極強跨界屬性的根本原因在于算法由人設計,雖然如今的算法已具有一定程度的自我深度學習功能,但其背后裹挾著平臺和商戶對于優化用戶體驗、增強受眾對產品黏性的需求和實現自身價值利益最大化的取向,并非絕對技術中立。2021年,《關于加強新時代文藝評論工作的指導意見》提出,要做好對互聯網算法的研發與引導工作,并對互聯網算法推薦進行綜合治理。算法的“偽中立性”為公眾科學看待算法和推進算法的綜合治理提供了前提和基礎。
(一)官方視角:完善相關法律法規,提高算法透明度
改善大數據主導的智能傳播的媒介生態環境,需要從官方的角度對新聞推薦算法進行宏觀管理。西方國家對人工智能、大數據的監管實踐起步較早,從實踐效果來看,對算法進行立法管理、行政管理、社會管理是大勢所趨[9]。哥倫比亞大學Tow數字新聞中心于2014年發布的《算法新聞責任報告》強調要提高算法本身的透明度,例如主動提供或依照美國的信息公開法案向請求者提供算法的源代碼[10]。
透明性原則是打開“算法黑箱”的關鍵鑰匙,例如一些國家和地區要求各使用大數據和算法的平臺和機構需要建立一種可被解釋和被受眾理解的算法模型。2016年,歐盟通過的《一般性數據保護法案》明確了算法透明的理念,提出算法必須遵守透明性原則,例如該法案規定收集用戶個人數據的平臺必須將其收集分析數據的過程主動告知用戶。再如2017年,美國計算機協會發布了《算法透明與追責原則》,涉及知情原則、接入和糾正原則、追責原則、解釋原則、數據來源原則、可審查原則、驗證與測試原則,以解決算法在實踐中可能造成的種種問題,其中多個原則都旨在提升算法透明度。例如解釋原則規定算法使用主體有義務對算法的原理和使用結果進行解釋,驗證與測試原則鼓勵算法使用主體公開算法模型的測試結果。
目前我國正在積極制定相關法律法規,例如2022年施行的《互聯網信息服務算法推薦管理規定》明確了“具有輿論屬性或社會動員能力”的算法推薦技術的信息規范服務與責任,同時也提出了用戶知情權、算法選擇權等提高算法透明度的用戶權益保護機制。
算法新聞的各個生產環節都需要被納入社會監督,開放相關監管部門和平臺與公眾對話的渠道。算法新聞需要找到商業價值和社會公共性的“最大公約數”,需要在新聞議程中對社會及相關群體給予足夠的關注。這些舉措都是在推動新聞倫理與技術的進一步交互,是技術倫理建設過程。政府從宏觀層面倡導算法及算法新聞的主流價值導向,不斷更新算法技術風險治理的方法理念,還需進一步細化算法作為責任主體的倫理責任,將透明性原則和問責制度作為重點,完善信息監管機制。比如可以成立第三方監督組織,對算法新聞領域進行全方位的社會監督,保證互聯網信息安全,構建健康的智能傳播環境,為算法技術和人文價值的對話創造良好條件。
(二)平臺視角:堅守新聞專業主義,加強人文關懷
智能傳播時代,算法新聞生產和傳播呼吁的透明化不僅在于對用戶信息及其合法權益的保護和對平臺的監管,也在于新聞機構和平臺的建設以及算法工程師等相關技術人員的職業道德操守的引導與培養,促使行業健康有序發展。
第一,算法新聞機構和平臺在算法生成新聞及算法推薦技術方面需不斷優化已有的算法程序,秉承新聞專業主義,增強新聞的公正性和真實性,傳播正能量和正確社會價值內容,謹防倫理失范問題出現,加強對算法透明性法則的應用。
第二,在人工智能由“弱智能”轉向“強智能”的過程中,不斷優化增強算法的深度學習功能,但鑒于目前算法并沒有發展到自身具備強學習能力和分辨倫理道德的條件下,需以算法技術和人工審核相結合的方式,提升人機協調能力以及算法新聞的人文價值和新聞真實性,從而更好地實現算法的服務效果。增強新聞機構及平臺的專業性、透明性和公正性,彌補算法運行過程中可能出現的風險和漏洞。
第三,在計算機相關專業的高等教育過程中,完善計算機倫理教育課程和加大實踐力度。新聞機構及平臺對算法工程師、審核人員及相關專業工作人員的培養方面,應增加媒介素養教育的相關培訓設置,工作人員需要與時俱進,樹立正確的媒介倫理觀,把握正確的新聞價值取向,這是身處智能傳播時代作為技術操控者的義務,能夠在一定程度上改善算法歧視現象,對用戶的算法身份進行“去標簽化”,更好地維護用戶的合法權益。
(三)用戶視角:培養大眾算法素養
提升用戶媒介素養或數字素養是諸多研究者用來應對網絡新聞傳播領域算法倫理失范問題的重要方式之一。大眾傳播時代,受眾媒介素養概念被提出,智能傳播時代的媒介素養范疇再一次被擴展,算法素養可作為媒介素養的延伸。
智能傳播時代,算法不僅應用于新聞傳播領域,而且充斥于人們生活的方方面面,例如導航系統、社交軟件、短視頻和線上購物等領域都被算法這一底層邏輯主導。在此背景下,算法素養不僅要求公眾了解算法及相關概念,例如對相關名詞的理解,還需增加受眾對算法所造成倫理風險的認知,警惕算法背后隱藏的意識形態,具備主動識別數字陷阱的能力,從主觀層面規避技術的無意識傷害,充分發揮自身的主觀能動性,共同建設和維護媒介生態網絡。
值得注意的是,雖然大眾媒介素養培養已被倡導多年,但事實上目前專業學習領域外較少有能夠接觸媒介素養相關知識的場景。媒介素養、算法素養的科普是一項亟待解決的事情,需加大覆蓋各年齡段的知識科普和各大主流媒體的宣傳科普力度,從基礎媒介素養著手,打造健康的智能傳播環境。
此外,“知溝”假說提出了信息社會的根本矛盾是信息接收者享有信息量的多少造成的兩極分化矛盾,應警惕智能傳播作為大眾傳播的高級形態,“知溝”具有擴大的趨勢,因此在科普中不應忽視農村和低收入等群體,避免“知溝”現象加劇,以維系國家和社會的均衡發展。
每一次技術的迭代都帶來媒介環境的巨大變革,每一場變革的背后又必然引發新的問題。“媒介即訊息”揭示了人工智能技術是給社會帶來變革的主體,大數據依托的算法技術和新聞生產方式實現大眾傳播到智能傳播時代的轉變,在重構媒介傳播范式的同時也帶來了新的社會治理問題。
算法新聞平臺、機構在商業利益的導向下,技術理性和人文價值的沖突給算法新聞埋下隱患,造成倫理失范。使用算法的新聞機構和平臺應當承擔社會責任和公共管理職能,但歸根結底,算法新聞的倫理失范研究中的核心是算法本身,相關部門需要依據人工智能的發展水平和實踐效果,及時完善和調整監管體系,加大算法素養的科普力度,為人工智能向“強智能”轉向做好充分準備。
參考文獻:
[1] 劉樹楠.智媒時代對新聞生產中算法新聞倫理的思考[J].傳媒論壇,2020,3(8):28-29.
[2] 彭桂兵,丁奕雯.智能傳播中短視頻平臺版權爭議及其治理路徑:兼評“首例算法推薦案”[J].新聞記者,2022(9):86-96.
[3] 王仕勇.算法推薦新聞的技術創新與倫理困境:一個綜述[J].重慶社會科學,2019(9):123-132.
[4] 陳昌鳳,霍婕.權力遷移與人本精神:算法式新聞分發的技術倫理[J].新聞與寫作,2018(1):63-66.
[5] 陳昌鳳,師文.個性化新聞推薦算法的技術解讀與價值探討[J].中國編輯,2018(10):9-14.
[6] 劉培,池忠軍.算法的倫理問題及其解決進路[J].東北大學學報(社會科學版),2019,21(2):118-125.
[7] 張淑玲.破解黑箱:智媒時代的算法權力規制與透明實現機制[J].中國出版,2018(7):49-53.
[8] 張超.作為中介的算法:新聞生產中的算法偏見與應對[J].中國出版,2018(1):29-33.
[9] 匡文波,張一虹.論新聞推薦算法的管理[J].現代傳播(中國傳媒大學學報),2020,42(7):120-124,146.
[10] 周建明,馬璇.個性化服務與圓形監獄:算法推薦的價值理念及倫理抗爭[J].社會科學戰線,2018(10):168-173.
作者簡介 付欣歌,研究方向:廣播電視。