999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能視域下情報分析算法風險多重治理機制研究

2024-01-01 00:00:00劉曉麗崔文波張濤
圖書與情報 2024年5期

摘" "要:隨著進入生成式人工智能時代,算法的快速發展和應用顛覆了傳統的情報分析模式,成為情報信息采集和分析重要的工具。但隨著算法在軍事情報等重要領域的廣泛應用,不僅引發了一系列挑戰和嚴重的安全風險,也引起全球范圍的擔憂。文章聚焦生成式人工智能視域下情報分析算法,在系統闡釋算法風險產生的內外部因素的基礎上,通過有機融合協同治理、敏捷治理以及精準治理理論,構建情報分析算法風險的多重治理機制框架。內容包括:事前治理:情報分析算法風險的源頭治理;事中治理:情報分析算法風險的敏捷治理;事后治理:情報分析算法風險的精準治理。以期為有效防范和應對生成式人工智能視域下情報分析算法風險提供參考,使情報分析能夠更好地服務于國家戰略需要。

關鍵詞:生成式人工智能;算法賦能;情報分析;風險治理;治理機制

中圖分類號:G353.1" "文獻標識碼:A" "DOI:10.11968/tsyqb.1003-6938.2024060

Research on Multi-layer Governance Mechanism for Algorithmic Risk in Intelligence Analysis under Generative Artificial Intelligence

Abstract With the emergence of generative artificial intelligence, the rapid advancement and application of algorithms have fundamentally transformed traditional models of intelligence analysis, establishing themselves as crucial tools for collecting and analyzing intelligence information. However, with the increasing application of algorithms in critical domains such as military intelligence, they have engendered a plethora of challenges and great security risks, thereby eliciting global apprehensions. This paper focuses on algorithmic risks in the context of intelligence analysis facilitated by generative artificial intelligence, systematically elucidating both internal and external factors that contribute to such risks. By seamlessly integrating theories on collaborative governance, agile governance, and precise governance into a cohesive framework, it establishes a multi-layered mechanism for governing algorithmic risk in intelligence analysis. This framework encompasses: Pre-event governance: source control over algorithmic risk in intelligence analysis; Mid-event governance: agile management of algorithmic risk in intelligence analysis; Post-event governance: precise handling of algorithmic risk in intelligence analysis. The objective is to provide guidance for effectively preventing and addressing algorithmic risks associated with intelligent analysis within the realm of generative artificial intelligence so that it may better serve national strategic requirements.

Key words Generative Artificial Intelligence; Algorithm Enablement; Intelligence Analysis; Risk Management; Governance Mechanism;

隨著生成式人工智能(GAI)時代的到來,從ChatGPT大語言模型到文生視頻模型Sora的發布,算法的自動化、智能化以及便捷化程度不斷提高,成為提高情報分析工作效率和準確度的有力途徑和新型生產工具,被廣泛應用到情報分析豐富的應用場景當中,在國際戰略和企業方面均有體現:2023年8月,美國國家情報總監辦公室(ODNI)發布了美國2023年《國家情報戰略》,強調充分利用開源、大數據、人工智能和先進的分析方法,提高準確洞察競爭對手意圖和行動的能力[1];2024年1月,OpenAI更新了其使用條款,不再禁止其技術用于軍事和戰爭目的。但同時算法也是一把“雙刃劍”,在賦能軍事情報、政治情報、金融情報等重要領域時可能引發“情報繭房”“深度偽造”等潛在的風險,引起了國際社會的廣泛關注和擔憂,特別是美國高科技公司與美國國防部及情報部門合作,利用算法打破俄烏沖突平衡事件以及詐騙分子利用“深度偽造”技術偽造公司高層的面部和聲音,詐騙2億港元事件、AI偽造拜登聲音的電話錄音等深受算法影響的重大事件發生后,給國家和社會造成的危害具有嚴重性、不可消除性和廣泛性。正是在生成式人工智能快速發展的大背景下,加強算法風險治理,防范和規避算法賦能情報帶來的一系列不確定性風險問題亟需解決。近年來,我國已相繼出臺了《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》等政策法規以規制算法風險問題[2],這反映出我國已充分認識到算法安全發展的重要性,并逐步推進相關政策法規的完善,但實際在新質生產力對技術創新有更高要求的背景下,國家對智能情報服務的需求不斷增加,當前國家層面仍然缺乏且急需關于情報分析算法風險治理機制的成果。因此,開展生成式人工智能視域下情報分析算法風險治理機制的研究,對充分發揮情報分析工作的“耳目、尖兵、參謀”作用,推動情報更好服務國家發展戰略具有重要意義。

1" "研究現狀

目前已知的文心一言、ChatGPT等國內外先進的生成式大模型的核心都是以GPT算法作為支撐,或者以其作為根本原理來實現其功能和應用[3]。鑒于此,本文將應用在情報分析領域的生成式人工智能模型或算法統稱為情報分析算法進行分析。伴隨著情報分析算法的快速發展,其如何賦能情報分析引起了學者們的廣泛關注。張智雄等基于ChatGPT的技術能力特點和文獻情報工作的方法和模式,分析了其對文獻情報工作的影響[4]。湯珊紅等基于國防科技情報工作的本質特征,從情報收集到情報生成過程探討生成式人工智能如何賦能國防科技情報[5]。劉逸倫等通過分析AIGC的技術特征和探討在科技情報服務中的技術應用路徑和場景,構建了AIGC賦能的科技情報智能服務框架[6]。但同時由于算法自動化決策的黑箱性質,導致情報可信性降低和難以保護數據主體的算法解釋權[7]等不確定性風險,引起了圖情領域學者的關注,算法具有公平性、可問責性以及透明性也逐漸成為學者廣泛認同的算法風險治理目標[8],現有研究主要聚焦在以下三個方面:

一是情報分析算法風險研究。主要探討應用情報分析算法產生的風險。如張國慶等基于情報工作流程(TCPED)視角,探討ChatGPT對TCPED路徑下情報工作的影響[9]。張濤和馬海群結合實際應用場景對算法引發的風險及其風險間的交互關系進行分析,并提出預防與規制算法風險的對策建議[10]。在此基礎上,通過構建“數據-算法-流程”為一體的智能情報分析風險識別模型,深入探討智能情報分析領域數據與算法風險問題[11]。

二是區塊鏈賦能情報分析算法風險治理研究。主要基于區塊鏈的去中心化、自治性、不可篡改性、可追溯性等特點賦能算法風險治理。如馬海群和張濤從用戶層、機制層和過程層三個視角分析了區塊鏈賦能智能情報分析算法風險治理框架[12]。周穎玉等從價值、實踐、目標視角探討區塊鏈嵌入算法推薦的核心邏輯、過程和時間路徑[13]。

三是情報人員的算法素養研究。研究主題主要集中在平衡用戶對算法素養的期望與開發人員對算法透明度的責任、吸引用戶提高素養的方法、發展素養的情感和行為、解決新的算法鴻溝等方面[14]。如吳丹和劉靜通過分析算法素養研究的內外部驅動因素和構建算法素養能力框架,分別回答了“為什么需要研究算法素養”和“算法素養是什么”的問題[15]。高國偉和賀帆從科技情報人員的維度,基于TTD(Theory of Technology Dominance)理論探討情報人員在人工智能環境下提升專業素養發展方向[16]。

綜上所述,在生成式人工智能背景下,現有研究基于多種視角探討情報分析算法風險治理問題,從情報分析算法風險識別研究到引入區塊鏈嵌入情報分析算法風險治理研究等,但缺少對情報分析算法的風險治理機制系統研究的成果。基于此,本文聚焦生成式人工智能視域下情報分析算法,在系統闡釋算法風險產生的內部因素和外部環境因素的基礎上,通過有機融合協同治理理論、敏捷治理理論以及精準治理理論,構建情報分析算法風險多重治理機制,以使算法更加安全可信地應用于情報分析。

2" "情報分析算法風險影響因素分析

情報分析作為獲取、整合、分析和評估各類信息的關鍵環節,能夠揭示出數據背后隱藏的深層次規律和趨勢。伴隨生成式人工智能時代算法的快速迭代更新和海量多源異構數據的涌現,通過自動化、智能化的更高效、更精準處理信息的理念被廣泛應用于軍事、金融等情報工作領域,整體上呈現出從依靠人工檢索的傳統情報分析方式向算法賦能情報分析的計算方式演進的趨勢。在此背景下,認知情報分析算法風險,確保算法的安全可信尤為重要。因此,有必要基于算法賦能情報分析的邏輯,從算法內部因素和算法外部環境因素兩個方面探討情報分析算法風險影響因素,以便更好地構建情報分析算法風險的應對機制。

2.1" " 算法內部因素:數據與算法自身缺陷引發情報可信性風險

數據與算法自身缺陷是產生情報分析算法風險的源頭因素,其所引發的情報可信性風險阻礙了算法賦能情報分析的進程[17],主要體現在以下三個方面:一是算法訓練數據存在偏差。通過算法快速挖掘和分析大量數據使其轉化為有效的情報信息是算法賦能情報分析最重要的優勢之一。但算法本身也是基于已有的數據進行訓練,訓練數據的準確性、時效性、完整性會使得生成的算法不完善或生成“惡意算法”,從而引發算法偏見[18-19],導致情報分析結果的偏差。二是算法可解釋性缺陷。通過提高算法的可解釋性并追蹤其運行過程,是確保算法賦能情報分析可信性的重要保障[20]。但算法從情報信息輸入到情報結果輸出,通常由于自身的黑箱性質,導致情報分析過程難以解釋,使得情報分析人員難以理解和信任算法的輸出結果,喪失了情報分析結果的可信性。因此,如何嵌入領域知識和專家經驗是提高算法可解釋性的重要手段。三是算法情報感知能力缺失。盡管算法在不斷進行迭代更新,從ChatGPT4.0到ChatGPT-4o、Sora為顯著標志,其智能化程度不斷提高,但算法仍無法完全感知內外部環境對情報分析工作的影響,不具備情報人員的思維和判斷能力,對于復雜的任務仍需要進行人機協同工作。尤其在面對復雜場景及不確定環境時,算法僅能基于特定的訓練數據,無法充分學習到環境的特征,從而在情報分析時出現誤判的情況,是算法情報感知能力缺失的一個顯著表現。

2.2" " 主體環境因素:利益主體間算法權力失衡引發情報安全風險

基于多元治理主體協同參與風險治理的思路,情報分析算法風險治理涉及的利益相關主體應包括:政府(監管機構)、企業、情報機構以及評估機構(第三方)等,其間存在復雜的博弈關系。從確保算法可信和提高情報分析效率、質量的目標出發,情報分析算法風險治理相關利益者之間的關系可以通過合作博弈理論進行闡釋(見圖1)。合作博弈旨在使參與情報分析算法風險治理博弈的多方主體利益都有所增加,進而為情報有效賦能數字化經濟發展和數字中國建設提供安全保障,促進整個社會利益增加。但同時由于不同利益相關者擁有算法權力不同,利益關系也不斷發生變化。而算法權力的失衡影響各利益相關者在情報分析算法風險治理中合作博弈關系的平衡[21],進而導致情報分析算法風險的形成。如在情報分析算法風險治理中,一是政府與企業之間的博弈:政府是算法的監管機構,對算法進行行政監管和問責,但由于算法黑箱的不確定性和“技術中立”使得問責主體的不明確,以及面臨我國算法治理法律規范體系尚未完善,導致政府與企業在博弈中經常因為算法風險的難問責性處于被動防御和響應的狀態,進而使得治理效果不顯著、治理成本增加。二是情報機構與企業之間的博弈:情報機構是算法的使用者,企業是算法的設計者和擁有者,企業在算法權利方面具有主導性,并且由于情報人員算法素養問題和算法本身可解釋性差,使得情報人員在博弈中經常因為算法權利的失衡處于弱勢。而合作博弈關系的失衡會導致利益相關者因為利益關系引發“情報信息泄露”“情報深度偽造”“情報分析算法濫用”等風險。并且隨著Sora的問世,創建虛假情報的成本大幅度降低,情報深度偽造從文字、圖像到視頻變得多元異構,將導致情報機構信息分析難度增加,給國家和社會安全造成嚴重影響。

2.3" " 制度環境因素:算法風險治理制度固化引發潛在的情報風險

算法風險治理制度固化會引發潛在的情報風險,主要體現在兩個方面:一方面是算法風險治理制度固化可能導致情報獲取的滯后。以歐盟發布的《通用數據保護條例》制度為例,其對數據與算法進行了嚴格規定,為數據與算法安全治理建構了制度框架。但同時不可否認的是嚴格的制度限制了算法的使用范圍和增加數據獲取成本[22],特別是針對情報分析領域,可能導致情報信息獲取的滯后性和不準確性。另一方面是算法風險治理制度固化可能降低情報分析算法應用的力度和廣度。算法作為實現技術突破和應用創新的關鍵所在,本質上是一種具有許多潛在應用的通用技術,情報分析算法更多的是基于特定領域的訓練數據精心設計而成。因此,面對情報分析領域存在軍事、政治、金融等多元的應用場景,開展情報分析算法風險制度問責,需要充分考慮情報分析領域的特殊性和多元場景需求,為特定的情報分析領域制定算法應用規則,可以讓對特定領域有更深入專業知識的監管機構為情報分析算法應用制定適當的規則。如保險監管機構可能已經考慮過如何應對難以捉摸的信用評分模型帶來的風險,故而保險公司是否使用機器學習模型是無關緊要的。強迫所有領域部門對算法使用相同的規則,可能會對某些領域部門施加過多或重復的要求,而對其它領域部門則提供不足的要求,進而導致情報分析算法的適用性降低。

3" "情報分析算法風險多重治理機制構建

通過分析生成式人工智能環境下情報分析算法風險影響因素可知,情報分析算法風險治理機制構建需要具備四個特征:系統性、協同性、靈活性和準確性。(1)系統性。針對數據與算法自身缺陷引發情報可信性風險,需要關注算法設計到應用決策的整體過程存在系統性風險[23],確保算法可信。(2)協同性。針對利益主體間算法權力失衡引發情報安全風險,需要關注算法賦能情報分析風險治理主體間的協同性,確保合作博弈關系的平衡。(3)靈活性。針對算法治理制度固化引發潛在的情報風險,需要關注應用場景的多元化,有機協調多種治理手段,彌補制度的靈活性。(4)準確性。針對情報風險的不確定性引發治理成本增加,需要關注將不確定性的動態風險問題轉化為靜態的風險問題,將風險治理過程設計為標準化的精準治理路徑,提高治理的效率,節約風險治理成本,增加風險治理的績效價值。基于此,本文從制度和技術兩個層面,融合協同治理、敏捷治理和精準治理理論,并以風險管理的理論視角對算法全生命周期內可能引發風險的地方進行韌性設計,構建情報分析算法風險多重治理機制框架,具體有:事前治理:情報分析算法風險的源頭治理;事中治理:情報分析算法風險的敏捷治理;事后治理:情報分析算法風險的精準治理(見圖2)。

3.1" " 事前治理:情報分析算法風險的源頭治理

事前治理主要是指情報分析算法上線前的風險治理,旨在對算法風險進行防范,實現情報分析算法風險的源頭治理,包括算法備案和算法影響評估,即需要在情報分析算法上線前對算法進行備案和影響評估。(1)算法備案。其是進行算法影響評估、算法風險等級劃分、算法風險治理回溯的重要依據,也是我國進行算法治理的主要手段之一,根據《互聯網信息服務深度合成管理規定》第十九條算法備案規定取得初步成效,在第六批深度合成服務算法備案信息清單中已有492款算法進行了備案。但目前算法備案存在算法分級分類困難的問題,并沒有清晰的劃分需要算法備案的程度。因此,需要持續加強算法備案更新,其過程根據算法性質逐層遞進主要包括三個方面:一是提供算法的簡短非技術描述,以及該算法是什么以及使用該算法的原因的概述;二是提供算法更詳細的技術信息,如誰擁有并負責該算法、有關算法的工作方式和算法使用的數據的具體詳細信息等[24];三是進行可解釋性計算,可解釋性計算是用于控制或提取算法操作邏輯的統計方法,必須在自動訓練之前(即在數據集上)、期間和之后系統地應用。這些計算可以降低算法的不透明度并控制其響應及可變性,從而顯著降低技術歧視根源上的錯誤或算法偏見的風險。(2)算法影響評估。開展算法影響評估可以提前發現和糾正算法應用中存在的問題和風險,保障算法應用的合法性、合規性和安全性。2024年2月,全國信息安全標準委員會發布了《生成式人工智能服務安全基本要求》,從語料安全、模型安全、安全措施等方面提出了安全評估要求,為政府等相關機構開展情報分析算法影響評估提供了重要參考。但目前在如何定義影響、如何評估影響以及如何建立健全的問責形式方面,仍然存在很大的模糊性[25]。算法監管沙盒作為一種針對技術創新的柔性監管制度,為開展情報分析算法風險影響評估提供了方向。其主要包括以下內容:一是政府作為監管機構負責篩選、審查企業需要上線的情報分析算法項目,包括算法備案情況等;二是政府作為監管機構負責激勵達到要求的企業參與沙盒測試,并委托第三方評估機構開展沙盒測試;三是通過第三方評估機構在內部環境下進行算法影響評估,包括數據保護影響評估、算法影響評估、倫理評估等進行審查,以確定潛在的安全問題,并在評估完成后將結果反饋給參與測試企業。在此過程中需重點關注監管沙盒的協作,制定正確的激勵措施,加強企業和監管機構之間的合作,包括數據層面和算法層面。這意味著更廣泛地參與,允許代表最終用戶的情報機構和企業參與算法規則的事前設計、評估和修訂,目的是在代表所有上述利益相關者的沙盒中進行預先測試;通過反復測試和反饋,擺脫偏見和操縱風險,然后大規模實施。算法監管沙盒的構建能夠幫助企業節約算法風險治理的成本,同時也使得政府掌握主導權并確保用戶權益。

3.2" " 事中治理:情報分析算法風險的敏捷治理

事中治理主要是指在情報分析上線后的風險治理,實現對情報算法風險問題的快速響應和敏捷治理,包括情報分析算法風險分級分類、算法風險審計、算法素養教育以及算法風險動態監測。(1)算法分級分類。在算法備案的基礎上,進行算法分級分類[26],對不同級別的風險需要采取不同的控制措施。盡管《規定》提出根據算法推薦服務的輿論屬性或者社會動員能力、內容類別、用戶規模、算法推薦技術處理的數據重要程度、對用戶行為的干預程度等對算法推薦服務提供者實施分級分類管理,但尚未提出有針對性的方案。基于此,本文借鑒歐盟《人工智能法案》提出的場景化劃分風險級別和參照數據安全分級分類的基礎上,結合情報分析應用場景,提出情報分析算法風險分級分類(見表1),將情報分析算法風險分為不可接受風險、高風險、中風險和低風險四個等級,并闡明了每個風險等級所對應的情報分析應用場景內容。(2)算法風險審計。它是算法風險監管的有力武器,針對治理對象中的算法、數據及流程技術性、合規性風險,用以監督算法的正當使用,進而推動算法向善。通常分為外部審計和內部審計,兩者互為協同關系。外部審計主要由政府為主導機構的合規性審計;內部審計主要由企業內部審計部門定期進行合規性和技術性審計。其過程主要包括:首先根據情報分析算法風險等級來確定算法是否有可能成為審查或審計的目標,通常著重審查除低風險以外的算法;其次,確定以用戶算法需求為導向的算法審計利益相關方;最后,識別算法風險的影響因素和確定算法風險評估方法[27]。其中,針對算法本身的審計方法包括:代碼審計、非侵入性用戶審計、抓取審計和代理審計等[28]。(3)算法素養教育。情報機構人員算法素養水平的高低決定了通過人機協同進行情報分析工作的效率和質量。情報機構需要通過定期開展算法素養教育培訓,培訓內容設置應以安全應用為導向,包括算法應用技能知識以及算法安全專業知識、算法技術倫理規范及法律規范等[29],逐漸將情報分析算法黑盒性質過渡到灰盒、白盒的狀態,能夠感知情報分析算法對其決策的變化以及能夠以自主的方式理解、評估和使用算法[30]。(4)算法風險的動態監測。生成式人工智能視域下的情報分析算法作為風險程度較高的創新性應用,應加強沙盒測試與真實業務場景的對接,通過擴展沙盒范圍到現實業務場景中,開展算法風險動態監測,來最大限度地實現風險的預防和化解。具體需要通過政府聯合情報機構協同構建監管沙盒,政府作為監管機構需制定清晰的監管框架,提供法律和監管支持,確保該框架能夠靈活適應不同的測試需求并保護用戶權益;情報機構作為用戶需要建立快速反應的報告系統,以便在識別潛在問題時迅速采取措施;除此之外,企業還需通過情報分析算法在實際應用中的數據指標,定期對情報分析算法進行系統評估和有針對性的改進。

3.3" " 事后治理:情報分析算法風險的精準治理

事后治理主要是對情報分析算法風險治理過程進行回溯、問責與救濟,以設計精準治理路徑,優化安全風險治理路徑,提高治理效率。一是算法風險回溯。算法風險治理整體上遵循PDCA循環思想,針對已識別的風險的緣由和治理過程進行回溯解決方案,總結治理經驗,主要包括對訓練數據進行回溯、對算法進行回溯以及對算法風險治理流程進行回溯三個部分:第一,對訓練數據進行回溯,需要全面分析訓練數據的來源和質量,確定數據中存在的偏差、錯誤或不完整性等問題,深入理解其對算法性能和結果可能產生的影響;第二,對算法進行回溯,包括對算法的設計、實現和調優過程記錄進行全面的審查,必要時重新對算法的復雜性、穩定性和泛化能力等進行評估;第三,對算法風險治理流程進行評估,包括對算法開發、測試、部署和監控等整個流程的梳理和分析,發現其中存在的漏洞和不足,從而制定相應的改進措施。同時為保障溯源的安全透明和高效可信,應用梯度顯著度、加密算法、時間戳技術實現算法風險全鏈路、端對端的溯源追蹤機制,以便找到算法風險源頭和構建精準的算法風險治理路徑,如利用梯度顯著性回溯訓練數據集問題,即通過算法預測的結果來反推產生結果原因,評估數據集的質量。二是算法風險問責。通過算法風險回溯能夠精準地找到算法風險源頭,進而能夠實現算法精準問責。算法風險問責需要政府根據大量實際情報分析算法風險治理案例,在《互聯網信息服務算法推薦管理規定》等已有制度的基礎上,出臺特定領域的“軟法”標準,細化情報分析算法風險治理責任。提供算法問責的法律依據和規范。三是算法風險救濟。包括情報服務能夠獲得情報分析算法應用決策的可解釋的權利[31],以及建立由于情報分析算法自動化決策等造成不公平或損害的申訴機制。

4" "結語

算法驅動情報分析或算法本身作為情報分析的生產要素,在生成式人工智能時代已成為不可回避的趨勢。本文在此背景下立足于國家對算法風險治理的戰略需求,在探討引發情報分析算法風險內外部影響因素的基礎上,貫徹落實“有法可依、多元協同、多方參與的治理機制”等算法風險治理政策背景和戰略需求,以預防和解決情報分析算法風險問題,提高風險治理的系統性、協同性、靈活性和準確性為導向,融合協同治理、敏捷治理和精準治理理論,構建了符合我國戰略需求的情報分析算法風險多重治理機制。該機制從情報分析算法的全生命周期內的事前、事中、事后流程設計了多重治理機制解決方案的具體思路,為我國情報分析算法風險治理工作提供決策依據和參考,為情報分析算法風險治理研究提供思路,尤其是在生成式人工智能背景下,更應該發揮這種多重治理機制的重要作用,為我國情報分析算法風險治理工作提供決策依據和參考。伴隨著情報分析算法的迭代升級和廣泛應用,未來研究可以深度探索機制中要素的具體實踐,特別是在本文提出加強沙盒測試與真實業務場景的對接框架下,開展監管沙盒在情報分析實際場景中的實踐研究,以更好地應對復雜多變的情報分析算法風險問題。

參考文獻:

[1]" National Intelligence Strategy[EB/OL].[2024-08-10].https://www.dni.gov/files/ODNI/documents/National_Intelligence_Strategy_2023.pdf.

[2]" 羅飛,崔濱,辛小江,等.大語言模型嵌入圖書館知識服務的風險范式與管控策略[J].圖書與情報,2023(3):99-106.

[3]" 陳兵.如何加強對算法的治理[J].國家治理,2020(27):35-39.

[4]" 張智雄,于改紅,劉熠,等.ChatGPT對文獻情報工作的影響[J].數據分析與知識發現,2023,7(3):36-42.

[5]" 湯珊紅,李曉松,趙柯然,等.生成式人工智能賦能國防科技情報[J].情報理論與實踐,2023,46(11):81-85,99.

[6]" 劉逸倫,黃微,張曉君,等.AIGC賦能的科技情報智能服務:特征、場景與框架[J].現代情報,2023,43(12):88-99.

[7]" Chiao V.Fairness,accountability and transparency: notes on algorithmic decision-making in criminal justice[J].International Journal of Law in Context,2019,15(2):126-139.

[8]" 姜野.算法的法律規制研究[D].長春:吉林大學,2020.

[9]" 張國慶,肖延輝,田華偉,等.TCPED路徑下生成式人工智能對情報工作的影響——以ChatGPT為例[J].情報雜志,2024,43(6):79-88.

[10]" 張濤,馬海群.智能情報分析中算法風險及其規制研究[J].圖書情報工作,2021,65(12):47-56.

[11]" 張濤,馬海群.智能情報分析中數據與算法風險識別模型構建研究[J].情報學報,2022,41(8):832-844.

[12]" 馬海群,張濤.區塊鏈賦能智能情報分析算法風險治理機制研究[J].圖書與情報,2023(1):48-56.

[13]" 周穎玉,柯平,劉海鷗.融合·賦能·共創:區塊鏈嵌入算法推薦的未來發展圖景[J].圖書情報知識,2024,41(3):144-153.

[14]" Oeldorf-Hirsch A,Neubaum G.What do we know about algorithmic literacy?The status quo and a research agenda for a growing field[J].New Media amp; Society,2023:1-39.

[15]" 吳丹,劉靜.人工智能時代的算法素養:內涵剖析與能力框架構建[J].中國圖書館學報,2022,48(6):43-56.

[16]" 高國偉,賀帆.人工智能賦能下情報人員的專業素養發展研究[J].數字圖書館論壇,2022(4):43-52.

[17]" 朱禹,陳關澤,陸泳溶,等.生成式人工智能治理行動框架:基于AIGC事故報道文本的內容分析[J].圖書情報知識,2023,40(4):41-51.

[18]" 孫慶春,賈煥銀.算法治理與治理算法[J/OL].重慶大學學報(社會科學版):1-10[2024-03-20].http://hfffg5fce84748f1d

4cc2hxpvopx9cp9p560qv.fgfy.hlju.cwkeji.cn/kcms/detail/50.1023.C.20191207.1044.002.html.

[19]" 王靜靜,葉鷹.生成式AI及其GPT類技術應用對信息管理與傳播的變革探析[J].中國圖書館學報,2023,49(6):41-50.

[20]" Xu Z.From algorithmic governance to govern algorithm[J].AI amp; SOCIETY,2024,39(3):1141-1150.

[21]" Walker R,Dillard-Wright J,Iradukunda F.Algorithmic bias in artificial intelligence is a problem—And the root issue is power[J].Nursing Outlook,2023,71(5):102023.

[22]" M?觟kander J,Juneja P,Watson D S,et al.The US Algorithmic Accountability Act of 2022 vs.The EU Artificial Intelligence Act: what can they learn from each other?[J].Minds and Machines,2022,32(4):751-758.

[23]" 劉倩倩,劉圣嬰,劉煒.圖書情報領域大模型的應用模式和數據治理[J].圖書館雜志,2023,42(12):22-35.

[24]" Algorithmic Transparency Standard[EB/OL].[2024-07-25].https://www.gov.uk/government/collections/algorithmic-transparency-standard.

[25]" Watkins E A,Moss E,Metcalf J,et al.Governing algorithmic systems with impact assessments: Six observations[A].Proceedings of the 2021 AAAI/ACM Conference on AI[C].Ethics,and Society,2021:1010-1022.

[26]" 張濤,韋曉霞.我國算法治理政策法規內容及框架分析[J].現代情報,2023,43(9):98-110.

[27]" Boer A,de Beer L,van Praat F.Algorithm Assurance:Auditing Applications of Artificial Intelligence[J].Advanced Digital Auditing,2023,149-183.

[28]" 張濤.通過算法審計規制自動化決策以社會技術系統理論為視角[J].中外法學,2024,36(1):261-279.

[29]" 崔文波,張濤,孫欽瑩,等.算法推薦風險影響因素系統動力學研究——以政策與科研主題協同為視角[J].圖書與情報,2023(1):66-76.

[30]" Dogruel L.What is algorithm literacy?A conceptualization and challenges regarding its empirical measurement[J].In M.Taddicken amp; C.Schumann(Eds.),Algorithms and Communication,2021(9):67-93.

[31]" 張凌寒.算法權力的興起、異化及法律規制[J].法商研究,2019,36(4):63-75.

作者簡介:劉曉麗,女,東北農業大學經濟管理學院講師,研究方向:計量經濟學;崔文波,男,華東師范大學經濟與管理學院、國家教育宏觀政策研究院博士研究生,研究方向:科技情報與信息分析;張濤,男,黑龍江大學信息管理學院教授,研究方向:數據與算法安全治理。

*本文系國家社會科學基金一般項目“數智環境下情報分析算法風險治理路徑研究”(項目編號:22BTQ064)研究成果之一。

收稿日期:2024-09-08;通訊作者:張濤((zhangtao@hlju.edu.cn);責任編輯:劉婷

主站蜘蛛池模板: 免费一级全黄少妇性色生活片| 亚洲精品手机在线| 在线观看国产精美视频| 国产精品刺激对白在线| 国产乱肥老妇精品视频| 香蕉视频在线观看www| 中文无码精品A∨在线观看不卡 | 国内精品一区二区在线观看| 伊人久久福利中文字幕| 亚洲人成网站在线播放2019| 国产午夜人做人免费视频中文| 国产无码精品在线播放| 国产三级精品三级在线观看| 久久一本精品久久久ー99| 亚洲乱码视频| 国产高清不卡视频| 欧洲高清无码在线| 国产性精品| 国产亚洲精品无码专| 欧美天天干| 亚洲国产成人精品一二区| 一级毛片免费高清视频| 国产亚洲精品无码专| 日韩欧美高清视频| 亚洲第一国产综合| 激情乱人伦| 91亚瑟视频| 亚洲国产精品国自产拍A| 亚洲免费三区| 国产打屁股免费区网站| 亚洲二区视频| 亚洲高清中文字幕在线看不卡| 日本色综合网| 亚洲精品国产日韩无码AV永久免费网 | 一级毛片免费观看久| 久久久黄色片| 久久网综合| 日韩精品无码免费一区二区三区| 欧美精品一区二区三区中文字幕| 午夜免费视频网站| 国产精品亚洲综合久久小说| 国产一区二区三区夜色| 免费高清毛片| 国产真实二区一区在线亚洲 | 在线免费观看AV| 久久精品亚洲中文字幕乱码| 国产又粗又爽视频| 在线观看亚洲国产| AV不卡国产在线观看| 不卡网亚洲无码| 国产成人高清亚洲一区久久| 国产男女免费视频| 亚洲综合狠狠| 亚洲—日韩aV在线| 国产在线精品99一区不卡| 狠狠做深爱婷婷久久一区| 国产69精品久久久久孕妇大杂乱 | 日韩欧美国产成人| 18禁不卡免费网站| 在线观看无码a∨| 精品国产99久久| 成人夜夜嗨| 亚洲熟妇AV日韩熟妇在线| a级毛片在线免费观看| 五月婷婷导航| 精品无码一区二区在线观看| 日韩福利视频导航| 国产精品妖精视频| 试看120秒男女啪啪免费| 亚洲日本一本dvd高清| 久久午夜夜伦鲁鲁片不卡| www.youjizz.com久久| 亚洲精品不卡午夜精品| 欧美成人在线免费| 国产成人免费| 免费人成视频在线观看网站| 五月天福利视频| 高清久久精品亚洲日韩Av| 色综合天天综合中文网| 国产香蕉在线视频| 久久精品丝袜高跟鞋| 2022国产91精品久久久久久|