999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

打開算法“黑箱”: 美國新聞算法披露制度的演進與啟示

2025-09-15 00:00:00范玉吉張黃茜
未來傳播 2025年4期

中圖分類號:G210.7 文獻標識碼:A

一、算法將新聞推入“幕后的幕后”

人工智能與新聞業深度交融,算法在新聞生產和分發中發揮重要作用。在新聞生產中,算法可獨立進行熱點挖掘、信息采集、數據分析、內容生成和稿件潤色。在新聞分發中,算法推薦服務根據受眾興趣和閱讀習慣精準匹配新聞,并通過“熱搜”等方式控制受眾對新聞重要性的感知。

“黑箱”并不是一個貶義的概念,只是在客觀揭示算法的技術難度和運作模式。但是算法介入新聞傳播領域后,將本該以提供信息消除隨機不確定性為目的的新聞推入了不可見的“黑箱”。荷蘭新聞學者馬克·德爾茲(MarkDeuze)曾將新聞透明性定義為“讓新聞行業內外的人都有機會監督、檢查、批評甚至干預新聞過程的方式”[]。在算法介人新聞生產和分發環節之前,文章編號:2096-8418(2025)04-0038-10新聞本就存在“黑箱”— 新聞自身的專業性也使其處于“無法輕易被知曉和理解”的幕后狀態。而算法的介入大大加深了這種遮蔽程度,將新聞推人“幕后的幕后”[2]—人們知曉和理解的難度大大提升,以人們現有的認知水平難以對新聞的真實度、可信度作出判斷。本文提出新聞算法“黑箱”,并不意在批判“黑箱”本身,而是旨在揭示新聞“去透明化”[3]的風險,打開新聞算法“黑箱”— 恢復新聞應有之透明,提高新聞行業內外的人監督、檢查、批評、干預的可能性。

當前,我國尚未有專門致力于打開新聞算法“黑箱”的法律規范,整體上對算法介入新聞生產和分發引發的問題還缺乏有效的應對措施。2022年5月,浙江數字金融科技聯合會發布的《算法應用的用戶感知調查與分析報告》表明:

超八成受訪者在享受算法新聞推薦服務帶來的便利的同時,卻對算法表現出普遍的不信任。正因為如此,學界一直有提議建立新聞算法披露制度的聲音。用“可理解的透明度”方式打開新聞算法的“黑箱”,追求可操作、可理解、可監督;通過“被動的算法透明”的方式,即依據法律規定、按照法律程序公布有關算法的全部或部分內容:[4]按照算法披露、法律規制和社會監督三個思路構建新聞算法透明,5」以期恢復新聞透明性進而重塑社會信任機制。

美國對于新聞算法透明性的問題關注度較高,一方面與其新聞專業主義權威相關,另一方面是因為美國新聞生成、分發與人工智能的融合更為深刻,由此引發的社會矛盾更為激烈。在理論層面,有學者早在2016年就嘗試從新聞透明性原則出發塑造一個新聞媒體算法透明度框架披露有關算法的信息以實現對利益相關方的監督、檢查、批評和干預;在實踐層面,美國新聞媒體已有許多有益的算法披露嘗試;在立法層面,在與控制著美國 50% 以上新聞分發的Facebook等巨頭公司的持續博弈中,多元共治的新聞算法披露模式逐漸形成,《2022算法問責法案》的出臺使得美國算法披露制度的法律輪廓更為清晰。

本文將對美國新聞算法披露制度進行考察,總結其經驗與不足,嘗試尋找我國新聞領域需不需要進行算法披露、怎樣進行算法披露、如何保障算法披露這三個核心問題的答案。

二、美國新聞算法披露制度的演進

(一)美國新聞算法披露制度的起源

1.“透明文化”的起點

1966年的《信息自由法》是《行政程序法》的修正案,最初目的是通過信息公開塑造一個高效、負責任的政府,雖然成功使“透明文化”向前邁進了一大步,但其并不是“透明文化”的起點。“透明文化”在此之前就有苗頭,如1787年的制憲會議上詹姆斯·威爾遜(JamesWilson)提出人民有權知曉政府議事記錄,它是一種逐漸蔓延開來的文化氛圍和民主精神

20世紀六七十年代是美國文化和政治的分水嶺,信息開放程度得到較大提升,追求透明的系列實踐在政府、新聞媒體、市場等領域都取得重大進展,作為一種文化思潮而受到廣泛認可。一種透明、信息公開的價值觀念開始嵌人美國人的生活、期望和直覺,降低透明度會讓人們感到失落、不公、憤怒。]從此,追求公開成為美國人的“天經地義”之論和“金科玉律”之準則。美國人骨子里蘊含的反抗思想、烏托邦式的沖動,以及對于民主自由精神的狂熱,使得其對“透明文化”堅持不渝,深刻地影響了美國的立法道路和民主建設實踐。

2.透明性 新的新聞客觀性原則

“透明文化”在新聞業的實踐也是從20世紀六七十年代開始的。從19世紀30年代服務于精英而天然帶有偏見的報紙到便士報的出現,再到20世紀30年代“黃色浪潮”興起和20世紀60年代“揭丑”成為新聞的主要目標,客觀性成為新聞的一項基本原則。然而,客觀性卻一直遭受詬病,因為其主要關切結果客觀,而不涉及過程客觀,即包括思維活動在內的各生產過程沒有得到充分呈現。于是,自水門事件后,透明性被認為是對客觀性在過程客觀上不足的回應,成為新聞的新的重要標準。

20世紀90年代初,美國資深新聞編輯與管理人史蒂文·史密斯(Steve Smith)呼吁以“透明編輯部”取代“壁壘式編輯部”。2001年,科瓦齊(BillKovach)、羅森斯蒂爾(TomRosenstile)在《新聞的十大基本原則》中明確提出透明性原則,呼呼媒體公開消息來源和操作方法。2005年,德爾茲明確了透明性的定義。2009年,溫伯格(DavidWeinberger)提出透明性是一種新的客觀性。2010年,卡爾森(MichaelKarlson)等人對透明性首次做出了具有可操作性的定義,將其劃分為公開的透明性和參與的透明性。2014年,美國職業新聞工作者協會修訂《職業道德規范》,新增透明性原則,而后波因特學院和美國廣電數字新聞協會也都將透明性作為記者的新核心價值。透明性受到持續關注,其內涵也在不斷豐富。

數字時代,透明性成為新聞客觀性在技術沖擊下的新版本。美國將算法透明視為維護新聞專業權威和確保真相的手段。透明性可公開展示新聞算法,確保新聞專業地位,并為記者證明新聞準確性提供可能。[8]

3.算法披露的阻礙:言論自由“萬能牌”

言論自由作為算法對抗規制的核心抗辯理由,其司法勝利本質上折射出技術資本主義體系中話語權力與資本邏輯的深度互構。美國司法實踐通過“邁阿密先驅報案”等一系列判例確立的“算法即言論”原則,實質是將技術編碼邏輯納入資本主義法律體系的保護框架[9」- -這種法律擬制不僅為平臺企業維系技術黑箱提供了合法性外衣,更在制度層面鞏固了數字資本對信息傳播基礎設施的壟斷控制權。當算法被賦予憲法言論自由的保護地位,其技術決策過程便轉化為不受公眾監督的“私人自治領域”。平臺通過算法將用戶注意力轉化為可交易的商品形態,而黑箱機制正是保障這一資本積累過程不受干擾的技術屏障。

透明與保密的二元張力,在更深層意義上暴露了數字時代社會控制機制的根本矛盾。算法透明化訴求本質是公眾試圖突破技術寡頭的信息壁壘,重建被資本侵蝕的公共討論空間。而平臺援引言論自由拒絕披露,則是通過技術權力的合法化運作,將算法決策封閉在私人利益的閉環系統中。谷歌新聞因漏洞風險停止算法披露的案例,表面是技術安全考量,深層邏輯卻是資本增值需求對公共責任的優先性排序。當透明化可能威脅數據商品化的效率機制時,技術系統必然遵循利潤最大化原則選擇保密。

從批判理論的認知框架審視,算法披露的核心困境映射著工具理性與價值理性的現代性悖論。算法作為工具理性的極致產物,其代碼邏輯天然服務于資本對效率和控制的追求,而社會對透明的訴求則代表著價值理性對技術異化的抵抗。這種抵抗并非否定技術進步,而是要求重構技術發展的倫理邊界。美國司法實踐中對算法言論自由的絕對化保護,實質是將技術權力等同于個體權利,忽略了數字平臺作為“社會基礎設施”的公共屬性。當算法不僅決定信息分發,更塑造著公眾認知世界的方式時,其決策過程已超越私人自治范疇,成為需要接受民主監督的公共事務。

回歸傳播政治經濟學的核心命題——如何在技術資本主義體系中重構傳播資源的控制權。算法既非純粹的技術問題,亦非簡單的法律議題,而是嵌人社會權力結構的復雜治理工程。其披露與否的抉擇,本質是對數字時代“信息生產資料”歸屬權的再界定。我們應允許“黑箱”的適當存在,這并非否定透明價值,而是承認技術系統作為現代社會運行的必要中介。因此,算法治理的終極目標,應是通過對權力關系的再平衡,確保數字技術成為促進社會整體福祉的工具,而非加劇不平等的新壁壘。

(二)美國新聞算法披露“內部自揭 + 外部審查”雙軌模式的生成

到此為止,美國已基本解決了新聞算法披露制度建構的正當性基礎問題,即回答了是什么促使新聞媒體披露他們的算法細節?早期“透明文化”深深嵌入美國人的價值觀中,新聞專業主義的客觀性原則在數字技術的沖擊下持續自我迭代,以及多方利益博弈中維護社會系統安全可控的根本目標,都使得構建新聞算法披露制度具有一定的必要性和正當性。算法新聞“黑箱”引發的新聞媒體信任度下降、算法歧視、過濾氣泡等一系列問題凸顯,美國新聞算法披露“內部自揭 + 外部審查”雙軌模式開始逐步生成。

1.內部自揭模式的形成

Propublica 在2012 年創建了一個名為Opportu-nityGap的新聞應用程序來進行新聞報道的自動生成,之后堅持通過發布白皮書的方式披露新聞生產過程中所使用到的算法;BuzzFeed和專注于民意調查分析的FiveThirtyEight都在Github平臺上建立存儲庫進行開源;《紐約時報》在2014年推出了“TheUphost”的數據新聞欄目進行新聞可視化實踐,并創建了名為“Open”的博客來發布關于新聞技術的文章;BBC甚至會在博客上發布學術論文和描述算法細節的文章。

NewsFeed是Facebook新聞推送業務的核心項目。1°]在2010年的F8開發者大會上,算法工程師對其邊際排名算法進行了公開說明;2011年,NewsFeed轉向機器學習以后,其在singlegrain網站上展示了新的算法權衡因素;2016年的“偏見門”事件后,NewsFeed算法再次改進,第一次發布了算法理念說明;2018年的“劍橋分析”丑聞之后,Facebook設立了獨立的監督委員會-擁有要求Facebook及時和透明地提供董事會審議所需的合理信息的權力,也具有算法披露、保證算法公開透明等責任,可以針對存在問題提出無約束力的建議。

從美國的新聞媒體或平臺一系列自發的算法披露實踐中,亦即卡爾森所言的“自揭式透明”[1]中,可以歸納出四種具體形式:(1)創建博客或單獨版面,通常以發布文章的形式對算法進行解釋,成本低、可操作性強,易于公眾理解;(2)Github開源,專業性強,方便用戶快捷找到開源代碼;(3)內設監督委員會或算法治理機構自查,定期發布報告或白皮書;(4)在隱私政策中進行算法披露,如Google在隱私權政策中披露了算法的存在、應用場景、邏輯,YouTube在隱私權政策中表明算法推薦應用的存在。在以上四種形式的“自揭式透明”新聞算法披露實踐中,透明成為一種自律準則,哈佛法學院教授費爾德曼(NoahFeldman)將其描述為平臺的“準法律系統”。

在“內部自揭”模式下,算法披露并沒有法律強制力的保障,僅依靠“自律”而維持透明性,使得披露什么、何時披露、如何披露等都可自行決定,具有極大的不確定性。新聞的首要任務就是提供信息從而消除隨機不確定性,若是算法披露反而加劇了不確定性,則違背了新聞的初衷。為了解決“自律”模式下的不確定性問題,西北大學學者尼古拉斯·迪亞克普洛斯(NicholasDiakopoulos)設計了一套算法新聞透明理論模型,明確了新聞算法所要披露的全部要素,提供了一個新聞算法披露的指南。12]但這也僅僅只是理論上較理想化的新聞算法披露模型,初步解決了“披露哪些要素”的問題,并未涉及保障力問題

2.“內部自揭 + 外部審查”雙軌模式的成功實踐

2021年,《華爾街日報》對Facebook針對知名用戶使用不同算法系統的調查①是“內部自揭 + 外部審查”雙軌模式的成功實踐,回應了“自律”的驅動力和保障力難題,獲得了社會各界的贊揚。“監督委員會代表了一種平臺自治的形式,可以理解為數字空間的自我監管”[13]“有能力提高程序的透明度是監督委員會的一個顯著優勢”。也有學者對監督委員會政策建議的非約束性提出批評,但實際上這種非約束性可能更加靈活,適應了當前UGC的新聞生產模式,有利于平衡商業利益與公共利益的沖突。

在這次實踐中,另一個重要角色是《華爾街日報》。其外部審查起到了強有力的推動作用,迫使Facebook處于輿論壓力之下而申請監督委員會開展自查。《2019算法問責法案》要求公司在合理可行的情況下,與外部第三方(包括獨立審計人員和獨立技術專家)協商進行對自動化決策系統的影響評估并及時合理地處理影響評估結果。這體現了美國的算法治理的“內部自揭 + 外部審查”的雙軌運行模式,即依賴專家、組織、行業機構、公眾等多元主體對算法進行監督。這種模式依靠約翰·洛克(JohnLocke)所言的“第四種法律”,“根據允許或拒絕、表揚或指責的標準加以確定的,通過不同社會的隱秘而無聲的共識所形成的什么是美德、什么是罪惡…設置了這個世界”[14],人們畏懼權力、渴望透明帶來的信息對等。這樣的準則形成了一種隱秘的“法律”,利用人們擔心被具有評判權威作用的公眾態度所孤立而被迫迎合的過程而建立起一套穩定的秩序。[15]

(三)美國新聞算法披露“外部問責”機制的構建

在“內部自揭 + 外部審查”的雙軌模式下,新聞算法透明主要依靠新聞行業和平臺的自治自律。但是隨著算法技術與社會生活融合程度的日益加深,“風險正披著數字和方程的外衣,悄無聲息地潛入生活之中”[16],人們對于技術進步的擔憂只增不減。因此,美國近四年來不斷推進算法治理立法,打造以政府、企業行業、研究院所/機構為參與主體的多元共治模式,

《2019算法問責法案》創造了一種先發性的算法影響評估機制,將監管部門的重點從司法系統對算法有限的事后評估,轉移到積極的事前干預上。17]另外,還明確了“高風險自動化決策系統”的內涵。同年的《過濾氣泡透明度法案》規定平臺應向用戶告知算法的存在,并以清晰、醒目的方式提供一次性拒絕算法的提示。2020年的《保護美國人免受危險算法侵害法案》旨在讓擁有5000萬以上用戶的平臺對其導致線下暴力的算法負責,取消《通信規范法》第230條所賦予的平臺責任豁免。《2020算法公平法案》規定了聯邦貿易委員會應當對公司披露信息的具體要求進行研究,以便個人能夠理解或質疑算法。在2021年的《算法正義與互聯網平臺透明度法案》中,國會認為在線平臺采用操縱性的隱秘模式進行不透明的算法處理,沒有關鍵的透明度要求和可依法執行的安全標準,于是在“第二章透明度”中明確了在線平臺的披露義務——以明顯、可獲得、不具有誤導性的語言向用戶披露包括所收集的個人信息類別和方式、優先排序和分配比重的方法等信息,并要求從事內容審核的在線平臺每年發布一份關于其內容審核的透明度報告,及在披露后30天內證明該披露的準確性和完整性。2021的《對抗惡意算法的正義法案》旨在修訂《通信規范法》第230條來限制該部分條款提供的責任保護,主要用來規制個性化算法推薦服務。

最新的《2022算法問責法案》是對《2019算法問責法案》的更新版本,是一項具有里程碑意義的算法立法舉措。該法案要求科技公司“評估自動化決策系統或過程中的透明度和可解釋性,以及消費者可能質疑、糾正或上訴或選擇退出此類系統或過程的程度”,在“確定任何功能、工具、標準、數據集、安全協議、利益相關者參與的改進,或其他資源,可能有利于改進自動化決策系統、增強關鍵決策過程,或該系統或過程的影響評估”的要求下也包含透明度和可解釋性,還規定企業向委員會提交的自動決策系統總結報告應盡可能“記錄是否以及如何實施任何透明度或可解釋性措施”。

總體上,美國在算法披露制度的立法演進上日趨嚴格。在算法披露程度上,從《過濾氣泡透明度法案》的僅披露算法存在,到《算法正義與互聯網平臺透明度法案》的透明度報告,再到《2022算法問責法案》中消費者有權獲得有助于作出特定決策的任何相關因素信息,披露程度逐步提升;在問責機制上,從高度的自治自律轉向了“訴諸專業性的行政機構或外部監督主體”[18]的審查,這種制度設計關注算法運行結果的公正性而非深究每一個內部運作環節,由此為企業提供了探索算法風險的制度激勵。19]

三、美國新聞算法披露制度的經驗與不足

總體而言,美國形成以州和地方政府率先立法、企業行業自治自律、研究院所/機構積極參與為主要特征的新聞算法披露模式[20],構建起了“內部自揭 + 外部審查”的雙軌模式、以政府或第三方為主體的“外部問責”機制的閉環治理體系。多元主體、自律驅動、社會參與、媒體監督是該模式的鮮明特點。

(一)美國新聞算法披露制度的經驗

1.“內部自揭 + 外部審查”雙軌模式

在上文“知名用戶透明度”事件中,Face-book的算法自查行為是由《華爾街日報》的外部監督而推動,可見外部監督力量在內部自揭模式中的重要作用。內部自揭是外部審查的前提,外部審查是內部自揭的保障,雙軌運作的模式可以最大化算法披露的效果。其一,發現問題、解決問題式的審查方式有助于披露方明確問題所在,并披露最能回應質疑的算法細節,而不是普遍、籠統地進行公開,反而易造成普通民眾“信息過載”的困境;其二,這也有助于盡可能減少披露成本和最小化商業利益損失,通過自治自律而實現透明與經濟效益的良性循環;其三,對于新聞媒體來說,遵循新聞透明性原則揭露算法和接受外部監督本就是其職責所在,相比Uber等技術公司對算法披露有更高的適應性。

2.基于風險的具體場景化處理

新聞算法披露的源起主要是基于算法新聞“黑箱”不透明的高風險,與其他算法應用場景中產生的風險有不同特點。算法新聞“黑箱”的風險是對于新聞公共價值的折損,新聞客觀性基本原則與算法“黑箱”內生性邏輯相悖,二者之間形成了巨大張力。美國的算法披露制度是基于風險的場景化處理,不同的具體場景適用不同的披露程度、方式。比如,對于普通公眾公開源代碼是沒有意義的,普通公眾根本無法看懂專業性極強的代碼,因此無法從代碼中獲取有用信息,其后果僅僅是為普通公眾增加了過多的信息負擔。但是,對于技術專家、行業人士、評論家等來說,這些專業性的信息卻是必要的,定期的算法披露報告或白皮書于他們而言是至關重要的研究材料。算法披露本身是有風險的行為,可能會帶來黑客攻擊、隱私泄露、商業競爭優勢減弱、成本增加等風險,所以美國的場景化處理做法實質上是對披露風險和保密風險的權衡和取舍,以實現風險最小化、社會系統安全可控的最終目標。

3.多元共治的多方參與模式形成強大合力

美國在算法披露制度中的成功實踐離不開其多元共治的去中心化治理模式,企業行業深度參與算法治理環節,主體性地位凸顯。政府在整個算法披露制度中并沒有扮演中心角色,而是采取了適度抽離的智慧的做法,減少實體權利、義務的設置,退回到程序和組織的位置上。“承認自己專業性的不足是一種聰明的做法”,不僅解決了政府監管合理性不足的危機,而且讓更多技術領域的專業機構參與其中。

(二)美國新聞算法披露制度的不足

1.算法披露程度不夠明確

美國新聞算法披露程度的確定主要是依靠新聞客觀性基本原則對于記者的職業倫理要求和道德要求,以及依靠社會普遍認同和接受的“透明文化”潮流,達到人們心理層面能夠產生理解和信任的程度,即實現了新聞算法披露。盡管在立法中有對于算法披露事項、程度的描述,但也出于技術復雜性、商業秘密等緣由,可操作性仍不強。美國新聞算法披露如今最常用的幾種方式—設立監督委員會、修訂隱私權政策、建立儲存庫或博客,都展現了各不相同的披露程度,也由此決定了披露事項的不同。可以說,對于新聞算法披露的程度目前更多的是理論層面的建構,或是實踐中由“自律”而達成的普遍共識,尚未有立法對此作出確定性的回應

2.算法披露環節模糊

Facebook等美國大型互聯網平臺掌握著至關重要的新聞分發權力,卻一直否認自身是媒體。“沒有哪一個媒體比這些大型平臺更像媒體”。傳統新聞媒體的算法披露,更多是在調查方法、數據選取等內容生產的環節,即回答“這是真新聞還是假新聞”“新聞是從何而來”的問題;而作為新聞分發主體的平臺的算法披露更多是在個性化推薦的邏輯、內容審核機制等下游環節,即回答“為什么看到的是這條新聞而不是另一條?”的問題。目前,無論是理論界還是立法層面,新聞分發環節的算法披露都受到更高程度的關注,重點在于解決“過濾氣泡”“回音室效應”“信息繭房”等困境。但對于新聞算法披露制度中平臺的定位、角色、功能、責任都尚未厘清,算法披露環節的模糊化處理會直接影響披露的最終效果,從而影響平臺和用戶之間的權利義務關系。

3.算法歸責機制缺失

盡管美國已有了較為完整的算法披露“外部問責”機制,但仍然缺失具體的歸責機制。如果不履行算法披露義務或披露虛假算法,在實施算法披露的過程中發生隱私侵權、著作權侵權、商業秘密泄露等問題,是否可以直接適用過錯原則、嚴格責任原則?歸責機制不明確造成的直接后果是算法披露“良法不善治”。

上述不足的提出并非意在批判。美國十分依賴以自由市場為代表的自由主義思想[21],對圍繞人工智能和算法的監管持十分克制的態度。在2016年美國白宮科技政策辦公室(OSTP)發布的《為人工智能的未來做好準備》報告中,指出很多AI相關的道德問題都能通過提高透明性、強化自律合作予以解決。特朗普政府也認為其角色不應是監管AI技術,而是促進AI研發,增強美國人民對AI技術開發和應用的信任。2020年1月,白宮發布的諒解備忘錄草案列出了聯邦政府在制定私人部門AI應用法律規則時應該遵守的10項原則,其中最關鍵的是要避免監管過度。美國對于算法治理的總體戰略是重視研發而限制監管,所以在算法披露制度的構建上一直非常審慎,在立法上過于細致和全面的設計很可能會成為阻礙科技創新、抹殺市場活力、折損公共利益的“元兇”,所以在認識到立法滯后性和專業局限性的前提下,部分模糊化的處理也是一種“留白”的立法策略。

四、美國新聞算法披露制度對中國的啟示

通過對美國新聞算法披露制度的考察和分析,本文接下來將結合我國國情和現實,嘗試回答我國新聞算法披露的三個核心問題,探索打開算法新聞的“黑箱”的可能路徑。

(一)需不需要進行算法披露?

當前我國對于算法的法律監管,主要依賴“二元結構”—一套以結果責任認定為核心的政府事后監管模式和以個人為中心的權利救濟模式。[22]具體而言,在制度設計上,主要通過界定主體的算法使用和運行管理義務,同時賦予用戶相應權利的機制,將算法披露制度鑲嵌在平臺治理的框架下實施。張凌寒認為,《電子商務法》第十八條規定推薦算法的自然結果提供義務;[23]《個人信息保護法》(2021)第二十四條規定了自動化決策的透明度要求,賦予個人算法解釋說明權和拒絕權;《關于加強互聯網信息服務算法綜合治理的指導意見》(2021)在基本原則中明確指出“推動算法公開透明”。這是傳統法律規制“二元結構”的典型做法,但這種設計通常存在個體行動能力有限及平臺責任過重而影響創新發展的總體社會成本過高的風險,[24]使得立法者在強規制與釋放科技活力的權衡中反復徘徊。

一方面,新聞算法披露制度構建可以推動“二元結構”向“三元結構”過渡。[25]從算法技術難度來看,立法和司法面臨專業性、合理性的挑戰,因此政府必須保持克制;從權力結構角度來看,“算法權力”從新聞媒體手中分走一部分新聞生產主導權和分發控制權,成為社會權力結構的重要一極,算法所有者和使用者的參與深度遠遠超過“二元結構”中的公眾參與。新聞算法披露制度可以充分調動算法所有者和使用者的力量,進一步發揮其自律作用,促進算法多元共治的社會局面形成。

另一方面,從社會現實來看,新聞算法披露制度有存在之必要性。美國新聞算法披露的重要驅動力來源于新聞透明性原則。美國新聞透明性原則的興起,是社會信任危機的結果——數字技術孕育了更多的秘密,[26]新聞媒體的信任度普遍下降,使得知情和公開更受歡迎,透明在全球公共生活中呈現出不可阻擋的趨勢。因此,新聞透明性原則的建構具有必要性和緊迫性。我國《中國新聞工作者職業道德準則》第二條將公開透明作為突發事件報道的職業規范而存在,是一種實現新聞客觀性的方法論。我國可將新聞算法透明納入新聞透明性原則的基本要求之下,從而如同美國的新聞算法披露正當性構建路徑一般一首先使其成為記者的“道德準則”,再使其成為全社會共識,最后納入法律的框架。

(二)怎樣進行算法披露?

1.明確新聞算法風險等級

《關于加強互聯網信息服務算法綜合治理的指導意見》)首次提出了“算法分級分類”,實施精準治理。2022年《互聯網信息服務算法推薦管理規定》第二十三條列舉了算法分級分類的因素,為確定新聞算法風險等級提供了初步依據。2022年8月深圳通過了《深圳經濟特區人工智能產業促進條例》,第六十六條將人工智能劃分為高風險和中低風險兩類,高風險的人工智能采用事前評估和風險預警的監管模式,中低風險的人工智能采用事前披露和事后跟蹤的監管模式。根據以上規定,可以從分類和分級兩個維度對算法進行分類。在類別劃分上,參考2021年發布的《互聯網平臺分類分級指南(征求意見稿)》對平臺的六大分類,將新聞算法劃定為信息資訊類算法;[27]在風險等級劃分上,可以借鑒美國《2019算法問責法案》中規定“高風險自動化決策系統”的做法,將符合特定條件的算法確定為“高風險算法”。基于算法新聞生產環節極易造成隱私、個人信息、名譽侵權,出現算法偏見、算法歧視等問題,算法新聞推薦服務基于對用戶的習慣、興趣、位置等情況的分析而進行精準推送,通過信息控制用戶獲取信息的渠道和程度,對用戶權益產生影響,屬于風險等級較高的信息資訊類算法,應當具有相應的安全監管程度和披露制度。

2.基于風險視角的新聞算法披露制度場景化適用

場景理論認為,算法規制應綜合運用透明性原則、正當程序原則、市場機制與反歧視框架進行判斷從而設置不同規則。28]算法不是一般的有形物或無形物,不具有相對穩定的法律屬性,所以難以適用統一的法律框架,其需要的是一種前瞻性的模式。如針對算法在新聞數據采集環節出現的紕漏,可以采用事先披露的形式公開用于新聞數據采集的算法,或是將所使用到的算法與新聞報道同時發布,可借鑒美國創建博客或專設版面的方式進行算法披露。

(三)如何保障算法披露?

1.披露程度:可解釋與可信賴原則

據美國的經驗所知,算法“可解釋原則”內涵難以明確:第一,算法不斷學習和進化,可解釋性孱弱;[29]第二,公眾的認知能力達不到理解的程度;第三,算法語言與人類解釋風格之間不匹配。30]本文期望實現的“可解釋原則”必須對以上三種障礙予以排除:“解釋力”以新聞從業者的能力為限度,而不以算法設計師的能力為限度。也即意味著新聞算法披露更多地從使用算法的目的、所要實現的功能、人工干預的程度、可能存在的風險等方面出發,適應人類信息接收習慣。從新聞的傳受主體出發,從目的和后果的雙重維度形成“可解釋與可信賴原則”,明確新聞算法披露的使命和目標,創造一種新聞“誠實的外觀和感知”[31],維護正常新聞傳播秩序,重建社會信任機制。

2.新聞算法披露制度的“正當程序”屬性

“透明文化”思潮的興起以及作為《行政程序法》修正案的《信息自由法》的誕生,都具有重大程序性的價值,將透明作為一種過程的保障是美國人的生存法則與建設民主的經驗。一般而言,正當程序會要求權力擁有者公開其權力運作的過程,來證明權力行使的正當性。對于新聞算法披露制度而言,具有“正當程序”屬性[32]意味著新聞算法披露制度的設計本身是正當的,即新聞算法披露制度并未給權力的任意行使提供機會,

新聞算法披露制度就像是羅爾斯所言“純粹的程序正義”—不存在對正當結果的獨立標準,而只存在一種正確或公平的程序。只要這個程序被恰當地遵守,那么其結果也是正確或公平的,而無論它可能是什么樣的結果。作為程序性規范存在的新聞算法披露制度,將把新聞從重重迷霧中解救出來,使新聞的生產和分發都回到為人可見的狀態下,提升對于新聞的信任度。2023年5月頒布的《生成式人工智能服務管理暫行辦法》第十九條 ① 規定明確了生成式人工智能服務提供者的算法披露義務,盡管沒有更加具體的制度設計,但已初步顯示出了算法披露制度的程序屬性。

“正當程序”在數字技術風險治理方面有獨特優勢。美國大法官法蘭克福特(FelixFrank-furter)認為其是法律中最不僵硬、最不受歷史限制的概念,也是進步社會中最能吸收強大社會標準的概念。將“正當程序”引入新聞算法披露制度,恰能以變化著的透明要求回應技術變革和時代發展。

五、結語

打開算法新聞“黑箱”,本質上是一個重構算法新聞透明的過程。排除算法介人對于新聞行業內外人們對新聞的監督、檢查、批評、干預的阻礙,從而營造良好的新聞傳播環境。“二元結構”向“三元結構”的過渡,為新聞算法披露設定了兼具社會公器和社會權力意義的角色定位,使得多元共治和全社會參與成為可能。同時,在具體制度設計上,新聞算法屬于風險等級較高的信息資訊類算法,且需要基于風險進行場景化處理,以“可解釋與可信賴原則”為其建構一個誠實可信的外觀。通過正當程序設置外部問責體系,在保障誠實可信的外觀穩固的同時,也將一系列的具體披露要求囊括在內,由此確立我國的新聞算法披露制度,實現打開算法新聞“黑箱”的目標。

參考文獻:

[1]Deuze,M.(2oo5).What is journalism?Professional identi-ty and ideology of journalists reconsiders. Journalism,6 (4):442-462.

[2]仇筠茜,陳昌鳳.黑箱:人工智能技術與新聞生產格局嬉變[J].新聞界,2018(1):28-34.

[3]Pasquale,F. (2O15).The black box society:The secret al-gorithms that control money and information.Cambridge:Har-vard University Press.

[4]張超.作為中介的算法:新聞生產中的算法偏見與應對[J].中國出版,2018(1):29-33.

[5]張淑.破解黑箱:智媒時代的算法權力規制與透明實現機制[J].中國出版,2018(7):49-53.

[6]Nicholas,D. Michael,K.(2016).Algorithmic transpar-ency in the news media.Digital Journalism,(7):1-20.

[7][美]邁克爾·舒德森.知情權的興起:美國政治與透明文化[M].鄭一卉,譯.北京:北京大學出版社,2018:10.

[8]王超群.算法新聞時代“透明性原則”倫理規范的緣起、發展與局限[J].新聞世界,2022(10):65-68.

[9]左亦魯.算法與言論—美國的理論與實踐[J].環球法律評論,2018(5):122-139.

[10]Farhad,M.Facebook use polarizing? Site begs to dif-fer.Retrieved May7,2015,from http://mobile.nytimes.com/2015/05/08/technology/facebook - study - disputes -theory-of-political -polarization-among-users.html?Smprod τ= nytcore -iphonesmid τ=τ nytcore-iphonesharefrom τ= singlemessageisappinstalled O= Orefer=

[11]Karlsson,M.(2010).Rituals of transparency:Evaluatingonline news outlets'users of transparency rituals in the US,UK and Sweden. Journalism Studies,(11):535-545.

[12]Nicholas,D.(2015).Algorithmic accountability:Jour-nalistic investigation of computational power structures.DigitalJournalism,3(3):398-415.

[13]David,R.B.(2O17).The invisible hand of the unac-countable algorithm:How Google,Facebook and other techcompanies are changing journalism. Digital Technology andJournalism,(11):25-46.

[14]Locke, J. (1894) . An essy conceming human understand-ing. Oxford: Atthe Clarendon Press.

[15][德]伊麗莎白·諾爾諾依曼.沉默的螺旋:輿論-我們的社會皮膚[M].董璐,譯.北京:北京大學出版社,2013:68.

[16][德]烏爾里希·貝克,張文杰.風險社會:新的現代性之路[M].何博文,譯.南京:譯林出版社,2018:1.

[17]All-party parliamentary group on the future of work. The newfrontier:Artificial intelligence at Work.Retrieved March 31,2022,from htps://www.ifow.org/publications/new -fron-tier-artificial-intelligence-work

[18]Andrew,T. (2013).An FDA for algorithms. Administra-tive Law Review,69(83):83-123.

[19]張欣.從算法危機到算法信任:算法治理的多元方案和本土化路徑[J].華東政法大學學報,2019(6):17-30.

[20]司偉攀,劉鑫怡.美國算法治理分析及思考[J].全球

科技經濟瞭望,2022(11):34-40.

[21]Corinne,C.(2O18).Governing artificial intelligence:Ethical,legal and technical opportunities and challen-ges. Philosophical Transactions of the Royal Society A-Mathe-matical Physical and Engineering Sciences,376(2133):1-8.

[22]鄭智航.人工智能算法的倫理危機與法律規制[J].法律科學(西北政法大學學報),2021(1):14-26.

[23]張凌寒.網絡平臺監管的算法問責制構建[J].東方法學,2021(3):22-40.

[24]宋亞輝.數字經濟創新中的“科林格里奇困境”及其規制[J].武漢大學學報(哲學社會科學版),2023(3):151-162.

[25]張山.智慧社會背景下的“第四代人權”及其保障[J].中國法學,2019(5):5-24.

[26]宋亞輝.網絡市場規制的三種模式及其適用原理[J]·法學,2018(10):81-94.

[27]叢穎男,王兆毓,朱金清.論算法解釋權的重構——全算法開發流治理與分級分類解釋框架[J].計算機科學,2023(7):347-354.

[28]丁曉東.論算法的法律規制[J].中國社會科學,2020(12): 138-159+203

[29]林洹民.自動決策算法的法律規制:以數據活動顧問為核心的二元監管路徑[J].法律科學(西北政法大學學報),2019(3):43-53.

[30]Jenng,B.(2016).How the machine‘thinks':Under-standing opacity in machine learning algorithms.Big Data Society,3(1):1-12.

[31]陳景輝.算法的法律性質:言論、商業秘密還是正當程序?[J].比較法研究,2020(2):120-132.

[32]王瑩.算法侵害責任框架芻議[J].中國法學,2022

(3):165-184.

主站蜘蛛池模板: 久久亚洲国产最新网站| 99热这里只有精品国产99| 四虎免费视频网站| 美女国内精品自产拍在线播放| 亚洲天堂啪啪| 制服无码网站| 国产一线在线| 国产精鲁鲁网在线视频| 亚洲精品天堂在线观看| 欧美成人怡春院在线激情| 精品一区国产精品| 国产极品嫩模在线观看91| 欧洲极品无码一区二区三区| 国产青榴视频| 福利在线不卡一区| 成人免费黄色小视频| 欧美精品v日韩精品v国产精品| 国产好痛疼轻点好爽的视频| 丝袜久久剧情精品国产| 亚洲系列无码专区偷窥无码| 成人毛片免费观看| 国产精品人成在线播放| 久草性视频| 五月天在线网站| 成人午夜免费观看| 久久99热这里只有精品免费看| a天堂视频在线| 亚洲精品高清视频| 香蕉eeww99国产精选播放| 亚洲精品无码人妻无码| 国产乱肥老妇精品视频| 精品一区二区三区自慰喷水| 亚洲无限乱码| 亚洲一区二区三区国产精品 | 超碰免费91| 国产精品亚洲片在线va| 欧美日本在线一区二区三区| 国产自无码视频在线观看| 欧美啪啪网| 国产美女久久久久不卡| 中文国产成人精品久久| 国产精品区视频中文字幕| 国产专区综合另类日韩一区| 福利片91| 国产人人射| 久久综合结合久久狠狠狠97色| 欧美性猛交一区二区三区| 国产97视频在线观看| 亚洲精品动漫| 天天综合网亚洲网站| 精品国产美女福到在线不卡f| 99精品热视频这里只有精品7| 国产一级毛片网站| av色爱 天堂网| 992tv国产人成在线观看| 亚洲AⅤ永久无码精品毛片| 亚洲日韩精品综合在线一区二区| 在线观看免费国产| 91无码视频在线观看| 精品人妻一区二区三区蜜桃AⅤ| 欧美特黄一级大黄录像| 国产精品极品美女自在线看免费一区二区| 18黑白丝水手服自慰喷水网站| jijzzizz老师出水喷水喷出| 2020精品极品国产色在线观看| аⅴ资源中文在线天堂| 国产成人AV男人的天堂| 欧美精品成人一区二区在线观看| 制服丝袜 91视频| 精品国产成人av免费| 91美女视频在线观看| 国产黄网站在线观看| 色综合综合网| 手机精品福利在线观看| 噜噜噜久久| 日本免费一级视频| a欧美在线| 午夜不卡福利| 国产不卡在线看| 欧美中出一区二区| 伊人丁香五月天久久综合| 在线亚洲天堂|