999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

數字科技倫理監管:美國進展與中國借鑒

2023-06-26 16:38:11肖紅軍陽鎮
財經問題研究 2023年6期

肖紅軍 陽鎮

摘 要:新一輪數字技術產生了全新的數字經濟形態和數字社會,但也引發了系列負外部性問題,數字科技倫理監管成為數字經濟時代必須直面的重大現實議題,既有研究對數字科技倫理監管的理論框架、監管模式和主要議題缺乏深度解構。本文立足美國數字科技倫理監管的最新政策布局與監管實踐,解析美國數字科技倫理監管的主要主體、監管模式和重點議題,搭建面向數字科技倫理監管的“監管主體—監管模式—監管機制”的一般性理論框架,研究發現,美國數字科技倫理監管主體涵蓋“聯邦政府—州政府—行業協會—企業”等多元主體,監管模式型側重以國會為主導的美國政府立法與標準引領型監管、行業協會和研究機構等社會組織多元參與型監管,以及企業以數字科技倫理嵌入公司治理的嵌入型自治模式的三重主導模式,監管重點議題涵蓋道德式人工智能與透明、公平和可解釋的算法以及數據隱私與數據倫理等核心議題。中國加快構建數字科技倫理監管體系,需要強化數字科技倫理監管立法,在分層分類思路開展數字科技倫理制度設計和政策執行的基礎上,需要進一步發揮地方數字科技倫理監管政策制定與執行的自主性原則,調動數字企業在數字科技倫理監管與治理方面的治理標準、行業規范、企業倡議、治理指南和操作手冊等方面的引領作用。

關鍵詞:數字科技倫理;監管模式;數字企業

中圖分類號:F49;F125.1文獻標識碼:A文章編號:1000?176X(2023)06?0073?14

一、引 言

新一輪技術革命的實質是以人工智能、大數據、移動互聯網、區塊鏈、虛擬現實等為核心的數字技術充分嵌入經濟和社會,形成面向宏觀經濟形態、中觀產業部門和微觀企業組織的全方位變革,特別是立足數字科技創新實現數字產業化與產業數字化,以數字企業主導的微觀企業組織不斷創新與演化。隨著黨和國家對數字經濟發展重視程度的不斷強化,建設數字中國在“十四五”時期成為國家發展的重要戰略。根據2023年中國信息通信研究院對數字經濟規模的測算,2022年中國數字經濟規模達到50.2萬億元,同比名義增長10.3%,已連續11年顯著高于同期GDP名義增速,數字經濟占GDP的比重相當于第二產業占國民經濟的比重,達到41.5%,足以說明數字經濟已經成為國民經濟的主導力量。其中,數字產業化規模和產業數字化規模分別達到9.2萬億元和41.0萬億元,占數字經濟的比重分別為18.3%和81.7%,一定程度上,產業數字化成為數字經濟發展主引擎。從世界范圍來看,中國數字經濟發展相較于世界發達國家特別是美國依然存在較大的差距,中國信息通信研究院發布的《全球數字經濟白皮書(2022年)》指出,中、美、歐形成全球數字經濟發展的三極格局。2021年美國數字經濟規模持續保持世界第一,達15.3萬億美元。美國數字經濟對國民經濟滲透率更高,數字經濟占GDP的比重超過60%。在數字化轉型方面,美國是全球最早布局數字化轉型的國家,美國商務部(DOC)早在1998年就發布數字經濟的專題報告,指出信息技術、互聯網和電子商務的發展會產生新的數字經濟形態。

近年來,學術界加快了對數字經濟的內涵、測算方法和影響效應等方面的研究。從數字經濟的內涵來看,2018年OECD和美國商務部經濟分析局(BEA)對數字經濟的概念進行了界定,即通過交易是否涉及信息與通信技術(ICT)來界定一項經濟活動是否屬于數字經濟;中國信息通信研究院則從產業范圍和數字治理的視角界定數字經濟,認為數字經濟主要包括數據價值化、數字產業化、產業數字化和數字化治理四個方面。學術界對數字經濟的界定視角紛繁復雜,主要包括特征視角、主體視角、產業視角和經濟范式視角等多重視角。總體而言,數字經濟是區別于傳統工業經濟時代下的新經濟,包括數字經濟基礎產業和數字經濟融合效應兩個部分。從數字經濟的測算方法來看,目前測算方法相對多元,對數字經濟的測算包括數字經濟指數編制法、增加值測算法和構建衛星賬戶法等[1-3]。從數字經濟的影響效應來看,既有研究充分注意到了數字經濟對宏觀經濟增長、經濟結構調整、產業轉型升級、創業與就業和社會治理等方面的重要作用。尤其是黨的十八大以來,高質量發展已經成為整個經濟和社會發展的主導戰略,既有研究充分注意到了數字經濟對高質量發展的重要驅動作用,主要表現為數字經濟對生產力層面的要素投入、宏觀層面的資源配置效率與全要素生產率[4-6]、微觀層面的信息效應與匹配效率、產業層面的產業創新與轉型升級[7-8]、微觀企業層面的企業創新[9-10]等方面的重要驅動效應,尤其是數字經濟下的關鍵技術支撐即數字技術具備高度的包容性[11],能夠為包容性增長開辟新路,能夠支撐共同富裕目標下的貧困減緩以及實現區域的均衡性增長[12]。但不容忽視的現實是,數字經濟發展為經濟和社會發展帶來顯著的正外部性的同時,也產生了諸多負外部性問題,涵蓋數字技術層面的算法歧視、算法霸權和以算法壟斷為核心的算法技術治理議題[13]、數字企業層面的企業數字責任缺失與異化[14]、數字平臺企業壟斷與社會責任治理等現實問題[15-17]。特別是在人工智能領域,人工智能深度嵌入社會引發的道德倫理沖突逐步加劇,既有研究對機器人倫理、算法倫理和無人駕駛汽車倫理等問題開展了系列研究,包括人工智能是否能夠成為道德與責任主體、人工智能技術倫理構成及其規制重點、人工智能倫理治理等多層次內容研究[18-21]。

遺憾的是,學術界對數字技術創新進程中的數字科技倫理問題缺乏關注與研究,較少涉及數字科技倫理中的細微議題如大數據技術倫理、算法倫理等[22-23],難以為數字技術創新提供一般性理論框架。特別是,隨著以ChatGPT技術為核心的人工智能語言模型的出現及其應用,一定程度上人工智能可以改變與重塑人類社會的思維范式,這引發對以人民為中心的人本價值觀的全新沖擊,在整個企業生產與人類社會生活中產生了較大程度的道德倫理沖突和技術倫理隱優,因而強調數字技術更好地融入社會并服務社會的數字科技倫理觀建構極為迫切。實質上,數字科技倫理是以數字科技為技術基礎探究其與人、與社會之間的基本關系及其對人類社會的基本影響,數字科技倫理的研究視角在于充分規范、預見和識別數字科技與人類社會的基本關系,實現數字科技創新與應用過程符合道德倫理要求與社會規范,最大程度上地實現人與技術的和諧共生。

基于上述分析,本文以美國數字科技倫理監管為主要研究對象,基于近年來美國聯邦政府和各州政府出臺的戰略文本和政策文件為文獻檢索范圍,并充分利用互聯網資料對美國主要數字科技類企業(如Amazon、IBM、Microsoft、Facebook等)發布的年報和管理層公開發言進行人工整理,對涉及數字科技倫理監管的政策布局、監管主體、重點議題和主要模式開展系統分析。具體來看,一方面,本文系統梳理美國近年來對數字科技倫理監管的政策布局,進而分析美國數字科技倫理監管的主要模式與機制,為構建一般性的數字科技倫理監管框架提供理論參考。另一方面,本文系統總結美國聯邦政府在面向數字科技倫理監管的主要領域與關鍵議題,為我國各級政府瞄準數字科技倫理監管前沿與重點領域政策布局提供國際經驗,最終為構建適合我國數字經濟發展階段以及契合我國制度情境的數字科技倫理監管制度體系提供理論框架與政策指引。

二、美國數字科技倫理監管政策的最新布局與主要進展

(一)面向人工智能倫理監管的政策布局

在人工智能倫理監管層面,美國國會通過立法的形式加快對人工智能倫理的監管與治理。其中,2021年1月1日,美國頒布《2020年國家人工智能倡議法案》(National Artificial Intelligence Initiative Act of 2020,簡稱NAIIA),該法案的主要目的是:第一,確保美國在人工智能研發方面的領導地位;在公共部門和私營部門開發和使用可信賴的人工智能系統方面引領世界。第二,為當前和未來的美國勞動力做好準備,以便在經濟和社會的所有部門整合人工智能系統。第三,協調所有聯邦政府機構正在進行的人工智能活動,以確保每個政府機構都能為其他機構的工作提供信息。與此同時,為確保該法案的實施,美國成立了國家科學技術委員會 (NSTC) 人工智能特別委員會推進人工智能相關的標準、指南與技術的研究。1在拜登政府時期,同樣也制定了自己的人工智能戰略與監管計劃。政府推出了ai.gov網站,該網站“致力于將美國人民與有關聯邦政府活動的信息聯系起來,推動可信賴的人工智能(AI)的設計、開發和負責任地使用”。美國還成立了國家人工智能研究資源工作組和國家人工智能咨詢委員會。前者旨在使研究工具的獲取民主化,以促進人工智能創新,而后者將為拜登總統和聯邦政府機構提供有關人工智能研發的建議。

2019年2月,美國國防部(DOD)推出了人工智能戰略與倫理監管政策,聲稱“以合法和合乎道德的方式使用人工智能,以強化負責任的價值觀愿景和強化人工智能利用的指導原則”,并將“繼續分享我們的目標、道德準則和安全程序,以鼓勵其他國家負責任地開發和使用人工智能”。該部門還聲稱,在與利益相關方協商后,它將制定國防事務中人工智能倫理和安全規則,并將該部門的觀點推廣給更多的全球受眾,為全球軍事人工智能提供信息倫理。另外,美國州政府在人工智能治理方面都有自己的舉措,在提出和通過監管方面比聯邦政府更積極。例如,伊利諾伊州提出了《生物識別信息隱私法》(存在一些技術問題)和《人工智能視頻采訪法》。這兩項法律都反映出美國對生物識別實踐的審查越來越嚴格——第一部與數據隱私更直接相關,而第二部則對可能在面試過程中使用 HireVue2等人工智能服務公司提出了算法透明度的要求。華盛頓州則簽署了《SB 6280法案》,其建立了基本的透明度和問責機制以備政府決定部署反烏托邦式的實時監控,特別是全面禁止面部識別時侵犯個人隱私和可能存在的算法偏見。總體而言,目前,美國有數十個獨立的人工智能倫理、政策和技術工作組(團體)分散在各個聯邦政府機構中,涵蓋國防、民事和立法領域。雖然美國聯邦政府推出了人工智能倫理監管政策,但依然存在不斷演變的政策可能產生政策內容不完整、不同政策之間的監管配套舉措不一致或彼此不兼容等問題。

從人工智能倫理監管的重點領域來看,美國聚焦于智能算法的社會倫理監管,側重從算法研發設計到算法應用的全過程監管。2022年7月20日,美國眾議院能源和商業委員會以53∶2的票數通過了《美國數據隱私和保護法》(American Data Privacy and Protection Act,簡稱ADPPA)的修正版。該法案旨在聯邦政府層面建立面向人工智能算法決策過程中的消費者隱私數據保護法律框架,為美國消費者提供了隱私權保護和有效的補救措施。該法案將“算法”定義為“使用機器學習、自然語言處理、人工智能技術或其他類似或更復雜的計算處理技術的計算過程,能夠自主作出決策或促進或輔助人類決策”,例如,為特定對象提供排名、排序、促銷、推薦等服務或向特定個人提供信息服務等。根據該法案,相關實體和服務提供商必須評估算法的設計、結構和數據輸入,以降低潛在的道德倫理風險。

(二)面向大數據倫理(數據倫理)監管的政策布局

美國面向大數據倫理監管的政策布局主要包括頂層設計和中層銜接,形成聯邦政府主導的大數據倫理監管原則、戰略實踐和倫理監管具體行動。其中,頂層設計立足美國國家戰略層面推進對數據的管理、保護和共享等工作。中層銜接是大數據倫理監管的關鍵環節,主要包括政策協調機構,首席數據官、機構網絡和數據管理,法律和監管框架,技術能力建設、協作和知識共享等四個方面。在政策協調機構方面,美國白宮管理和預算辦公室(OMB)下設的數據委員會,既負責協調數據戰略的實施,也負責通知數據管理和使用的預算優先事項。在大數據倫理監管的政策布局方面,具有代表性的是2020年9月美國總務管理局(GSA)聯同14個聯邦政府機構共同發布的《數據倫理框架草案》[24],其提出了數據倫理的的七項基本原則:一是了解并遵守適用的法規、規定、行業準則和道德標準;二是誠實并正直行事;三是負責并追究他人責任;四是保持透明;五是了解數據科學領域的進展,包括數據系統、技能和技術等方面;六是尊重隱私和機密性;七是尊重公眾、個人和社區。

美國在大數據倫理監管領域的國家戰略與政策布局始于奧巴馬政府時期,自 2012 年以來,美國作為全球大數據倫理監管與治理的領跑者,相繼出臺了系列法律法規推動大數據倫理監管。2012年3月,奧巴馬政府頒布《大數據研發倡議》,其中提出大數據收集、分享過程中要注意隱私、安全和道德。在此倡議促進下,聯邦政府機構、科研院所和社會企業在大數據研發、管理和應用等方面進行了積極探索,取得了明顯進展。在特朗普政府時期,延續了奧巴馬政府的大數據倫理監管與治理的政策思路,進一步挖掘大數據的正向經濟與社會價值。2019年12月,美國白宮管理和預算辦公室(OMB)發布《聯邦數據戰略2020行動計劃》。該行動計劃以政府數據治理為主要視角,描繪了聯邦政府未來十年的數據愿景以及 2020 年需要采取的關鍵行動,目的是在保護安全、隱私和機密的同時,充分發揮美國聯邦數據資產的潛力,加速使用數據執行任務、服務公眾和管理資源。拜登政府時期持續加快對大數據倫理監管的政策布局,2021年10月25日,拜登政府發布《聯邦數據戰略2021行動計劃》,在指導各機構應對共同的數據挑戰過程中使用現有的協作渠道幫助實現人工智能研究的民主化并發展聯邦勞動力的數據技能。2022年1月26日,美國白宮管理和預算辦公室(OMB)發布了一項聯邦戰略,旨在推動美國聯邦政府對網絡安全采取“零信任”方法。在落實關于改善國家網絡安全問題上,該戰略意味著向前邁出的關鍵一步,其側重于進一步推進數據安全措施以顯著降低針對聯邦政府數字基礎設施的網絡攻擊風險。2023年3月31日,美國白宮科技政策辦公室(OSTP)發布《促進數據共享與分析中的隱私保護國家戰略》,正式確立了政府的大數據倫理監管目標,該目標支持保護隱私數據共享和分析(Privacy?Preserving Data Sharing and Analytics, 簡稱PPDSA)技術,1該戰略關注PPDSA技術對經濟和社會的外部性影響,尤其關注對弱勢群體隱私的影響,提出了PPDSA技術需要保持透明度與包容性,尊重隱私、保護公民自由和權利。

從大數據倫理監管的重點領域來看,美國的政策布局主要集中于數據隱私領域。《美國數據隱私和保護法》為公司收集的個人信息制定國家標準和保障措施,包括旨在解決算法潛在歧視影響的措施。作為聯邦政府對人工智能倫理監管需求增長趨勢的重要回應的組成部分,《美國數據隱私和保護法》代表了美國在制定全面的數據隱私法方面取得了一定的進展。盡管近年來推出了其他幾項涉及算法決策的聯邦法案,但《美國數據隱私和保護法》是第一個得到兩黨支持和推動的法案,也是第一個將針對算法問責制和偏見的條款與解決數據隱私和安全問題的條款捆綁在一起的法案。該法案確定了幾種不同類型的實體,這些實體具有額外的義務或豁免權。對于某些義務,相關實體按“影響”(影響力依據年度全球收入和受實體運營影響的數據主體數量而定)和“與數據主體的具體關系”(表現為直接關系、第三方關系或服務提供商關系等)進行分類。實體收集的“數據”被定義為“識別或鏈接或合理鏈接到一個或多個人的信息,包括派生數據和唯一標識符。” 重要的是,員工數據和公開數據都被排除在這個定義之外。而且某些類型的數據被定義為敏感數據,包括政府標識符(如駕駛執照或社會安全碼)以及與健康、地理位置、財務、登錄憑據、種族、性別或階級身份相關的數據。

(三)面向區塊鏈倫理監管的政策布局

區塊鏈結合了多種技術,為沒有中央機構(例如銀行)的多方交易提供可信、防篡改的記錄。區塊鏈可用于各種金融和非金融應用,包括加密貨幣、供應鏈管理和法律記錄。2022年3月23日,美國國會政府問責局(GAO)發布《區塊鏈——新興技術為某些應用帶來好處但面臨挑戰》報告,該報告提出區塊鏈對某些應用程序有用,但對其他應用程序來說用處有限甚至存在問題。例如,由于其抗篡改性,它可能對涉及許多不一定相互信任的參與者的應用程序有用。即使對于少數受信任的用戶來說,區塊鏈的某些應用程序可能過于復雜,而傳統的電子表格和數據庫可能更有用。更為關鍵的是,區塊鏈還可能帶來安全和隱私方面的倫理挑戰。從監管制度形式上,美國主要采取立法的形式對區塊鏈倫理進行監管,商務部長與聯邦貿易委員會(FTC)協商向國會提交一份關于區塊鏈技術現狀及其在消費者保護中應用的報告。2021 年5月28日,美國眾議院能源和商業委員會的立法聽證會提出了《區塊鏈創新法案》,該法案的倫理監管目標主要是減少欺詐以及提高商業交易的安全性。

從區塊鏈倫理監管的重點領域來看,美國的政策布局主要集中于區塊鏈透明度領域,這有助于阻止美國區塊鏈公司轉移到其他國家。明確的行業監管框架可以讓個人和公司在美國更成功地參與區塊鏈相關的商業活動,包括監管實體和開發商在內的決策者都可以使用監管沙盒等工具來進行區塊鏈監管。例如,2018年10月至2021年4月,有11家企業加入了亞利桑那州金融技術監管沙盒。在聯邦政府層面,消費者金融保護局(CFPB)創建了一個合規援助沙盒,在與該局共享數據的同時,企業可以在有限的時間內獲得測試創新產品和服務的安全港。這可以為決策者提供機制,使其在面臨監管不確定性時能夠更好地履行法定義務。與此同時,決策者能夠提供可協調的改進措施或提出明確預期的方案,以打擊區塊鏈相關商業中的非法活動。例如,美國財政部的金融犯罪執法網絡(FinCEN)近年來提出了一項規則,要求銀行提交報告、保存記錄并驗證某些加密貨幣交易中客戶的身份,以確保加密貨幣行業更好地應對反洗錢和國家安全風險方面的挑戰。

三、美國數字科技倫理監管的主要主體與重點議題

(一)美國數字科技倫理監管的主要主體

1.美國聯邦政府

美國聯邦政府是美國數字科技倫理監管的主要主體,其主要采取國會立法的方式對數字科技倫理開展規范與引導。目前,美國聯邦政府由6個機構和獨立組織代表整個聯邦政府開發人工智能技術或政策。第一,美國白宮科技政策辦公室(OSTP)為總統辦公廳提供經濟、國家安全、國土安全等方面的建議。OSTP發布多個行政命令,確定聯邦政府關于人工智能監管的總體政策目標。特別是在《2020年國家人工智能倡議法案》通過后,OSTP成立了國家人工智能計劃辦公室(NAIO),該辦公室全面負責開發、使用和管理人工智能。第二,美國總務管理局(GSA)是提供政府信息資源的部門,為各政府機構帶來了眾多尖端技術,GSA的人工智能卓越中心(COE)為聯邦政府機構提供服務,以確保聯邦政府機構能夠采用最佳的方式將人工智能技術運用到政府服務中。第三,美國國家人工智能安全委員會(NSCAI)獲得2019年國防授權的特許和資助,并于2021年 3月提交了最終報告,該報告就美國應如何在人工智能時代保持優勢提出了戰略性建議,為美國在人工智能時代遏制他國、贏得競爭提出了戰略方針和行動路線圖。第四,美國商務部(DOC)推進其下屬各局跟進人工智能倫理監管政策的實施。聯邦貿易委員會(FTC)就如何最佳定位、開發和提供人工智能產品和服務,以避免與現有和潛在的未來立法沖突,向企業發布了指導意見。第五,美國白宮管理和預算辦公室(OMB)發布了如何規范人工智能應用程序的指南,該指南為發展和部署人工智能相關技術提供監管和非監管方法,減少發展人工智能技術的障礙。第六,美國兩黨人工智能核心小組,通過報告和個人法案制定相關法案。另外,美國國土安全部科學技術局 (S&T) 在數字科技倫理監管方面也作為重要的監管主體開展系列政策設計。

2.美國州政府

美國對數字科技倫理監管的主要主體還包括美國州政府,且相當程度上美國州政府對數字科技倫理監管具有較大程度的自主權與政策制定空間。在數字科技倫理監管的重點領域,美國州政府都有自己的舉措,比美國聯邦政府更積極更主動。在特朗普政府時期,美國聯邦政府與國會通過的《2020年國家人工智能倡議法案》對人工智能倫理監管采取寬松策略,州政府層面的其他立法建議則采取更主動的人工智能倫理監管策略。例如,加利福尼亞州的《2020年自動決策系統問責法》則早于美國聯邦政府。在自動駕駛汽車的監管方面,2011年美國內華達州就通過第一個關于自動駕駛汽車檢測的立法,該法規定了自動駕駛汽車的檢測條件,要求對自動駕駛技術進行監管。目前已有40個州通過了法律或行政命令規制自動駕駛汽車。在人臉識別技術的監管方面,美國聯邦政府未出臺統一的規定,而美國德克薩斯州、弗吉尼亞州、加利福尼亞州等都針對“深度偽造”行為出臺了相應法案,走在了聯邦政府的前面。

3.行業協會

美國行業協會在數字科技倫理監管過程中主要扮演參與者與協同者的角色。以人工智能倫理監管為例,美國聯邦政府早期主要采取不干預的原則,主要是通過各州發揮自主性與獨立性開展相關人工智能倫理監管的政策制定與政策執行,且社會各界對人工智能倫理監管尚存在廣泛的爭議性。美國商會(USCC)則呼吁對人工智能進行監管,以確保它不會損害經濟增長或成為國家安全風險。美國人工智能促進協會(AAAI)在人工智能倫理監管中發揮了重要作用,其主要致力于促進人工智能的研究和應用。AAAI還旨在提高公眾對人工智能的理解,提高人工智能從業者的教學和培訓水平,并為研究規劃者和資助者提供當前人工智能發展潛力和未來方向的指導。AAAI提出了專業性的人工智能道德原則以監管人工智能行為,具體包括:一是承認所有人都是利益相關方;二是避免傷害(負面后果);三是誠實守信;四是公平并采取行動不歧視;五是尊重產生新想法、發明、創意作品和計算工件所需的工作;六是尊重隱私;七是保密。

4.企業

美國在發揮聯邦政府與州政府對數字科技倫理監管的引領與規范的同時,也充分發揮市場自我調節的重要功能,主要體現為充分尊重企業作為數字科技倫理治理的重要角色與功能。企業扮演數字科技倫理監管的參與者、互補者與協同者的重要角色,發揮對數字技術倫理治理的重要功能。以IBM為例,針對數字科技倫理的監管與治理,IBM組建了道德倫理委員會。其中,IBM 的人工智能道德委員會是一個多學科機構,負責領導人工智能道德政策和實踐的治理和決策過程。具體來看,IBM的人工智能道德委員會的倫理監管目標是在整個公司層面支持道德、負責任和值得信賴的人工智能文化和價值觀,并指導公司技術層與業務層對人工智能系統進行道德開發和部署。與此同時,IBM遵循三個總體原則:第一,人工智能的目的是增強人類智能。第二,數據和見解屬于其創造者。第三,人工智能技術必須透明且可解釋。IBM堅信當人工智能成為企業的核心甚至支柱型技術或者業務時,人工智能的可解釋性、公平性、魯棒性(穩健性)、透明性和隱私性成為人工智能倫理監管的重要內容與追求目標,只有遵循上述原則才能構建真正合乎道德的人工智能工具。

(二)美國數字科技倫理監管的重點議題

1. 道德式人工智能與透明、公平和可解釋的算法

美國對人工智能倫理監管的重點在于著重塑造道德式人工智能與透明、公平和可解釋的算法。既有研究普遍認為,從人工智能技術中獲益將取決于創建和部署人工智能系統的能力,這些系統被認為是合乎道德和值得信賴的。但是,目前最大的挑戰在于對什么是合乎道德和值得信賴的人工智能、如何識別人工智能以及如何在實踐中證明人工智能的可持續性尚未達成共識。解決人工智能與人類社會可能存在的道德倫理沖突和可能的負外部性的可行方法是:基于透明、公平和可解釋等概念框定人工智能算法開發、系統部署和技術使用的基本規范,通過人工智能的算法設計與算法驗證能夠證明該算法是透明、公平和可解釋的。另外,人工智能的可解釋性問題被稱為人工智能的“黑匣子問題”,許多機器學習算法系統的響應無法用人們容易理解的術語解釋。開發機器學習算法的標準方法產生了一組高度復雜的數據矩陣,包含數百、數千或數百萬個連接節點,每個節點都包含一個權重或值。當機器學習模型被“訓練”時,這些權重需要進行調整以提高模型的性能。這個動態的、復雜的系統不是為了去解釋決策過程,也通常不能提供一個容易理解的原因解釋,即無法說明它是如何達到任何給定的結果。目前,美國正對人工智能的可解釋性問題開展系統性研究,例如,通過了美國國防預先研究計劃局(DARPA)的“可解釋人工智能”(XIA)計劃,該計劃的主要目的是開發可解釋的人工智能系統,讓算法開發與研究人員能夠開發與設計更多可解釋的算法模型,同時保持高水平的智能學習表現(預測準確性),并兼顧算法決策的過程性以及算法決策結果的準確性。

美國聯邦政府對算法倫理監管的重點在于算法決策的公平性、算法透明度方面。2022年7月20日,美國國會眾議院能源和商業委員會通過的《美國數據隱私和保護法》,其提出了算法決策的公平性和算法歧視監管的相關條款,在第207條明確提出“公民權利和算法”,根據該條款,相關實體和服務提供商不得以歧視或其他方式收集、處理或傳輸存在具有歧視性的數據,比如基于種族、膚色、宗教、國籍、性別或殘疾狀況的數據。且與美國大多數現有的州政府數據隱私法不同,《美國數據隱私和保護法》要求不同類型的公司評估某些算法程序、算法模型與工具的具體影響,并將這些評估結果提交給聯邦貿易委員會(FTC)。在算法透明度方面,美國立法的重點在于監管算法設計開發層面的算法透明度,根據《美國數據隱私和保護法》的相關內容,相關實體和服務提供商必須評估算法在設計、模型結構和數據輸入層面可能存在的倫理問題,以降低潛在歧視性影響的風險。更為關鍵的是,《美國數據隱私和保護法案》對算法可能存在的危害構建了負面清單,以負面清單式監管規避可能的算法負外部性。

2.數據隱私與數據倫理

美國在大數據領域的數據泄露事件引發的公共安全和個體隱私破壞等風險持續存在,根據德國研究型數據統計公司Statista的統計,美國的數據泄露事件數量從2010年的662起大幅飆升至2020年的1 000多起。自2020年以來,每起數據泄露事件對公司造成的平均損失為50萬美元。在大數據領域,美國數字科技倫理監管的重點在于數據隱私與數據倫理等方面,即充分尊重與保障數據權屬下的個人隱私和公共安全。實際上,在面向大數據技術的科技倫理監管政策方面,美國自奧巴馬政府以來持續重視數據倫理。例如,2012年3月,美國白宮發布的《大數據研究與發展計劃》是美國在國家戰略意義上正式出臺大數據戰略,并在2012年3月29日進一步發布《大數據研究和發展倡議》,提出需要增強大數據收集過程、使用分享過程中的隱私保護、安全與道德性,確保使用主體的使用過程能夠合乎社會道德以及避免破壞個人隱私和公共安全。為進一步保障大數據應用過程中的數據隱私,美國自2013年以來持續公布系列關于數據隱私保護的相關行動計劃。例如,2013年5月9日,美國聯邦政府簽署行政命令13 642號《開放數據政策備忘錄》,規定所有新生成的聯邦數據應對公眾開放,并恰當地保護數據隱私。在 2014年5月9日公布的《美國開放數據行動計劃》中,承諾用可發現的、機器可讀的、有用的方式發布公開數據。另外,美國聯邦政府發布的《大數據:關于算法系統、機遇和公民權利報告》提出,政府的重要任務在于對大數據與算法系統的系列潛在隱私風險問題進行監管。

在拜登政府時期,美國加快了對大數據倫理監管的政策布局,把數據隱私與數據倫理監管擺在了更為重要的戰略位置,表現為在立法層面加快了面向數據隱私風險防范與追責體系的立法進程。例如,在《聯邦數據戰略》中所提及的第一項原則就是“倫理性治理”,并表示將把數據倫理治理作為一種組織原則和文化融入數據戰略中。2020年9月,美國總務管理局(GSA)聯同14個聯邦政府機構共同發布了《數據倫理框架草案》,該草案指導聯邦政府雇員在收集和使用數據時作出符合數據倫理的選擇。2022年7月20日,美國眾議院能源和商業委員會通過《美國數據隱私和保護法》的修正版,與其他數據隱私法相比,該法案以不同的術語和不同的范圍開展全方位大數據倫理監管,主要體現為:第一,法案面向的實體范圍發生重大變化,“涵蓋實體”定義為收集、處理或傳輸數據并受《聯邦貿易委員會法》約束的任何實體或個人,包括《通信法》規定的公共承運人,或者是非營利組織,實體范圍涵蓋了絕大多數企業。第二,法案面向的數據范圍發生重大變化。“涵蓋數據”包括任何識別、鏈接或合理鏈接到個人或設備的信息,還包括從此類信息中派生的任何數據或唯一標識符,如 IP 地址、目標廣告標識符等。第三,特別注重保護未成年的數據隱私。法案將“兒童”定義為17歲以下的任何人。第四,對敏感數據進行了特別關注。“敏感數據”包括超出其他州隱私法認為敏感的數據類別。大多數法律認為種族、民族、基因數據、兒童數據等信息屬于敏感數據,但《美國數據隱私和保護法》包括所有這些以及任何設備的登錄憑據信息。且敏感數據的使用需要在收集、處理或傳輸之前就必須獲得個人的肯定性明示同意。更為關鍵的是,《美國數據隱私和保護法》明確了數據持有者的責任義務范圍,要求大數據持有者承擔數據來源與處理過程信息披露、數據隱私產生的影響評估、數據自動收集與運算的影響評估、年度第三方評估認證等四項義務。

四、數字科技倫理監管的主要模式與機制選擇

(一)以國會為主導的美國政府立法與標準引領型監管模式

與英國、歐盟、韓國等其他發達國家相比,美國對數字科技倫理的監管更依賴于政府立法主導的監管模式。實際上,美國在引入立法模式監管數字科技倫理也從猶豫階段走向了堅定落實階段,呈現出一個漸進式的監管模式轉型。具體而言,在特朗普政府時期,政府機構被勸阻不要引入新的監管措施,因為擔心這些措施會阻礙創新。從2021年初開始,可以看到有限治理的穩步出臺。《2020年國家人工智能倡議法案》于2021年1月1日通過,要求建立多個機構來提供聯邦政府層面的跨部門聯合指導。其中,最著名的是國家人工智能計劃辦公室(NAIO),其負責支持人工智能研發、教育計劃、跨機構規劃和國際合作,負責監督和實施美國國家人工智能戰略,協調聯邦各政府機構、私營部門、研究部門和其他利益相關方在人工智能研究和監管政策制定方面的協調合作,最終為推進人工智能倫理監管政策制定與實施提供整體性部署和戰略性指引。聯邦政府機構也在推行其他規模較小的舉措,例如,美國國家標準與技術研究院(NIST)制定的《人工智能風險管理框架》(AI RMF 1.0),該管理框架適用于設計、開發、部署或使用人工智能系統的組織。總體來說,美國對數字科技倫理監管的立法特點是強調促進創新以保持美國在數字科技特別是人工智能領域的全球領導地位,重新利用現有法律并引入目前有利于治理的軟法,這意味著美國對數字科技倫理監管立法模式的重點依然是在規范數字科技良性生態發展的同時,以硬法與軟法相結合的方式提高數字科技競爭力。

具體來看,在人工智能倫理監管方面,美國形成了政府立法主導的數字科技倫理監管模式,美國聯邦政府持續重視對新一代數字技術監管的立法工作,高度重視人工智能領域的相關法律法規等制度建設。例如,第117屆美國國會在2021年共提出了130項與人工智能相關的法案。在制定技術標準方面,美國聯邦政府機構主動參與人工智能國際標準制定,以促進自愿的、行業引領的標準制定,促進人工智能創新。2019年2月,特朗普在簽署的人工智能行政命令中要求美國國家標準與技術研究院(NIST)發揮在人工智能標準制定方面的重要作用。美國在負責人工智能標準制定的國際標準委員會中處于領導角色,但美國政策制定者應更加積極地應對其他國家主導的、限制性的、歧視性的標準方法。與此同時,美國聯邦政府基于人工智能應用領域專業化原則分部門對人工智能技術開展倫理監管。例如,美國交通部(DOT)監管自動駕駛汽車的使用,美國食品藥品監督管理局(FDA)監管基于人工智能的醫療設備。1在算法倫理監管方面,《算法問責法2019(草案)》進入參眾兩院的立法程序,該草案是面向人工智能算法倫理監管的總體部署,特別是對人工智能算法應用廣泛與頻繁的大型互聯網平臺企業的算法倫理提出了明確規范與要求。在大數據倫理監管方面,美國同樣地針對大數據倫理的具體專業細分領域出臺相應的監管法案和政策布局。例如,2020年6月,美國參議院發布《數據問責和透明度法2020》,著重將算法對數據自動收集和自動運算決策納入到倫理監管框架,提出消費者應當有權質疑收集數據的理由并要求人工對算法自動化決策進行審查和解釋。

(二)行業協會和研究機構等社會組織多元參與型監管模式

區別于政府立法主導的數字科技倫理監管模式,各類行業協會和研究機構等社會組織在美國數字科技倫理監管特別是在人工智能倫理監管中發揮重要作用,在數字科技倫理監管方面更側重于對人工智能技術的風險識別、風險評估,以及對監管原則、監管對象、監管內容等方面開展系列治理活動。

從研究機構來看,其對數字科技倫理監管主要是提出前瞻性的監管原則與監管指南框架,充分提出可預見性和可操作性的監管方案與相應監管模式。2023年1月26日,美國國家標準與技術研究院(NIST)正式發布了《人工智能風險管理框架》及配套使用手冊。該框架旨在幫助人工智能系統的開發者、用戶和評估人員更好地管理可能影響個人、組織、社會或環境的人工智能風險,提高人工智能系統的可信度,并提出了人工智能風險監管的跨周期與多元化參與模式,將相關活動分為應用程序背景、數據和輸入、人工智能模型、任務和輸出四個維度以及“人與地球”一個特殊維度(用以代表作為人工智能背景的人權、社會和地球等更廣泛的福祉),并強調測試、評估、檢驗和確認在整個生命周期中的重要地位,監管目標是確保人工智能更加負責任以及更加可信,確保人工智能監管貫徹到全生命周期。

從行業協會來看,美國行業協會在美國聯邦政府立法主導的數字科技倫理監管模式下,逐步形成“強社會參與以及影響型”監管參與模式,這種模式表現為以美國商會(USCC)主導的人工智能監管標準制定與倡議等形式推動美國聯邦政府對人工智能領域的監管。2023年3月9日,美國商會(USCC)發布《人工智能委員會報告》,呼吁盡快制定人工智能法律監管框架,規避因技術進步導致的國家安全風險。該報告提出了人工智能監管治理框架的五大原則,既要注重個人權利、自由、隱私保護,又要確保美國人工智能領先地位的創新驅動。具體來看,五大原則包括:一是效率原則,評估現有法律法規的可適用性;二是中立原則,填補法律空白的同時避免過度立法和過度監管;三是比例性原則,采取以風險為本的監管方法和執法手段;四是共治性原則,注重分散化監管和協同治理;五是靈活性原則,鼓勵私營部門進行風險評估和創新。在生成式人工智能1領域,美國新聞/媒體聯盟(The News/Media Alliance,簡稱NMA)在2023年發布了有關ChatGPT生成式人工智能的監管原則,提出生成式人工智能開發者與部署者必須尊重創作者對其內容的權利,尊重知識產權(知識產權原則)、生成式人工智能系統應該對出版商透明(透明性原則)、生成式人工智能系統的部署者應該對系統輸出負責(責任原則)、生成式人工智能系統不應該創造或冒不公平的市場或競爭結果的風險(公平性原則)、生成式人工智能系統應該是安全的、避免隱私風險的(安全性)。

(三)企業以數字科技倫理嵌入公司治理的嵌入型自治模式

企業不僅是市場主體,更是技術創新與應用的主體。數字企業的主導技術是數字科技,以企業為中心構建企業自我驅動的數字科技倫理監管治理體系尤為重要。美國企業主導的數字科技倫理監管主要表現為企業以數字技術治理的方式推動數字科技向善和社會價值創造,其主要實現模式是將企業數字科技倫理融入企業價值主張、融入企業戰略、融入企業技術創新管理過程,實現企業對數字科技倫理的有效治理,確保數字科技更好地融入社會。在人工智能算法倫理監管領域,Amazon、IBM、Microsoft近年來都強化了對人工智能算法的倫理監管,主要是通過企業主導制定相關人工智能倫理準則、人工智能倫理治理倡議等開展數字科技倫理治理。例如,Microsoft開發了六項人工智能的首要倫理原則:公平、可靠和安全、隱私和安全、包容性、透明度、問責制。Amazon在戰略層面提出了“負責任地使用機器學習算法”,通過可持續的數字技術開發價值觀影響平臺用戶的方式確保平臺用戶、其他互補者更負責任地開發與使用機器學習算法等各類工具。具體來看,Amazon提倡機器學習算法的生命周期包括設計和開發、系統部署、持續使用三個主要階段,所有使用機器學習算法的行為都必須尊重法治、人權、公平、隱私的價值觀。特別是負責任的機器學習算法領域是一個新興技術快速發展的領域,因而機器學習算法的可持續開發與利用是算法技術倫理和算法技術向善的一個新的起點,需要鼓勵用戶考慮這些建議背后的價值觀和意圖,并鼓勵平臺用戶與第三方一起負責任地開發或使用機器學習算法系統,確保機器學習算法在開發和使用過程中不破壞倫理道德和基本人權等。

企業開展數字科技倫理監管的另一種模式是基于企業主導的數字科技倫理委員會的方式開展數字科技倫理治理,這意味著企業主動將數字科技倫理治理面對的各類社會議題、重點難點問題放置于公司治理層面,特別是引入各類利益相關方參與機制以推動數字科技倫理議題的落實,強化企業董事會、戰略委員會、高管團隊等戰略決策者對數字科技倫理的認知,確保企業在數字技術開發與利用過程中更好地保護利益相關方的利益,確保各類戰略決策符合道德規范和倫理要求。例如,IBM是一家有110年歷史的數字科技企業,其在2021年成立了人工智能道德委員會,以強化企業數字科技倫理治理。具體來看,在信任和透明原則的指導下,IBM通過涓滴策略來追求合乎道德的數字科技倫理,即其將監管重點聚焦特定的數字科技倫理監管領域,而非整體性和全面性的監管。具體來看,IBM人工智能道德委員會定期處理數字科技倫理議題,例如,人工智能的精確調節、種族司法改革、數據責任、人臉識別、算法偏見、可信任的人工智能系統等。Facebook是面向社交領域的數字平臺,為應對用戶輿論可能產生的道德倫理沖突以及對人權的破壞等潛在風險,Facebook主張以平臺規則的全球統一性為邏輯起點開發一套網絡社區輿論標準,包括數百條關于“仇恨言論”、欺凌、暴力、裸體、假新聞、垃圾郵件、版權等的規則,對可能違反Facebook規則的內容進行評估并作出決定。但是,Facebook在以統一規則治理的方式開展數字科技倫理治理的過程中也面臨諸多的利益相關方壓力,例如,當“黑人的命也是命”抗議活動在世界各地蔓延時,社會活動人士認為Facebook在處理其平臺上的“仇恨言論”方面監管不力,導致員工抗議和廣告商的廣泛抵制。而且與處理其他有爭議的內容相比,Facebook在減少“仇恨言論”方面較少作為,部分原因是針對“仇恨演講”內容需要對文本語句的上下文敏感性進行智能判斷,這對算法治理提出了較大的挑戰。

五、美國數字科技倫理監管對中國構建數字科技監管體系的經驗借鑒

(一)政府制度設計對中國的經驗借鑒

在數字科技倫理監管的政府制度設計層面,美國的主要模式是通過立法的方式對數字技術可能涉及到的道德倫理風險和潛在道德沖突進行監管,以各類法律法規的形式強化數字技術在嵌入企業與社會過程中的監管治理,確保數字技術開發者、使用者和創新者能夠在統一的規制與規則指引下開展統一的行動。在人工智能算法領域,監管的重點是鼓勵數字技術創新與應用,確保技術開發與創新過程中的安全性和道德倫理規范。更為關鍵的是,美國對數字科技倫理監管的政策呈現出連續性,即以聯邦政府主導的國會立法持續推進關于數字科技倫理監管的法律法規。以人工智能算法倫理監管為例,早在2016年奧巴馬政府時期,就發布了《國家人工智能研究與發展戰略規劃》,其推動對人工智能開始系統性研究,促進人工智能可持續發展,要求人工智能研究與開發契合社會需求和道德倫理規范。2019年特朗普政府時期繼續強化對人工智能發展戰略規劃過程中的道德倫理、法律與社會影響評估,新增了確保人工智能系統的安全性內容,將人工智能算法應用的安全建設作為人工智能重大戰略方向之一。2020年1月,美國白宮發布了《人工智能應用監管指南》,該指南從監管和非監管兩個層面提出了人工智能應用的相關原則和建議,并針對通用或特定行業人工智能應用程序的設計、開發、部署和操作提出10條監管原則,具體包括公眾對人工智能的信任、公眾參與、科學完整性與信息質量、風險評估與管理、成本效益分析、靈活性、公平性與非歧視性、信息與透明度、安全性與可靠性、跨部門協調。可以看出,美國對數字科技倫理監管制度總體上遵循漸進式原則,且在制度安排上偏向于戰略性指引、總體性意見、抽象式原則逐步走向具象性法律監管,在立法過程中以靈活有效、科學前沿的措施對人工智能算法、大數據主體進行科學分類,并非采取“一刀切”的方式進行監管,而是立足分類治理原則推進以人工智能、大數據、區塊鏈等為核心的數字科技倫理監管。

因此,中國在數字科技倫理監管的制度構建和政策設計過程中,一方面,需要積極借鑒美國國會立法這一最高頂層制度設計的模式開展數字科技倫理監管,鼓勵地方政府在重要行業和創新領域先行先試,充分發揮地方自主性原則,積極借鑒美國采取“州政府監管早于聯邦政府統一立法”方式,在地方重要行業和重要領域先行先試的基礎上,積極探索監管成功模式與經驗,以法律為最高準繩,并充分發揮市場的調節功能,面向數字科技重點行業和重點領域開展相關立法工作,針對人工智能的技術類型與倫理影響程度的差異性,盡快探索通用性人工智能和專用性人工智能的差異性倫理監管法律,進而確定不同類型人工智能倫理監管的主要主體、主要對象、主要議題、主要措施和監管邊界范圍。另一方面,政府在數字科技倫理監管的制度與政策涉及的目標取向方面,其重要目標之一在于識別、控制、防范數字科技創新與應用過程中的道德倫理風險和公共安全風險,以最大限度地降低風險源和最大限度地控制風險環節為基本原則,針對各類數字科技開發與設計的相關組織和主體進行倫理監管制度設計。

(二)監管模式設計對中國的經驗借鑒

在監管模式設計方面,美國對數字科技倫理監管模式主要是以政府戰略引領、法律牽引、市場自治的方式開展數字科技倫理監管,充分發揮政府對數字科技倫理的宏觀政策制定與調控作用,更好地發揮市場主體特別是從事數字技術創新、開發與應用的主體自我治理的重要作用,以分層分類的模式開展數字科技倫理監管。具體來講,從分層的視角來看,美國在發揮州政府積極性與自主性的基礎上,進一步通過國會和聯邦政府機構的制度建構和政策部署推動整體性的數字科技倫理監管行動。在人工智能倫理監管方面,美國在人臉識別技術的倫理監管便是由州政府自主探索,走在聯邦立法的前面。以《美國數據隱私和保護法》為例,在充分考慮美國各州隱私法的基礎上,進一步提出區別于美國各州隱私法的關鍵監管內容和監管議題。從分類的視角來看,美國對數字科技倫理監管以監管對象、監管領域、監管議題等多重分類思路開展數字科技倫理監管制度與政策設計,針對數據持有者的差異性,大型數據持有者的數據倫理風險和公共安全風險更大,其監管內容重點與小型數據持有者的數據倫理監管內容具有明顯的責任差異性。在《美國數據隱私和保護法》中明確提出了小型數據持有者與大型數據持有者的分類監管思路,對小型數據持有者將被免除大多數數據安全監管方面的要求,特別是在個人數據的簡短形式通知方面采取豁免原則。就大型數據持有者而言,其面臨更多的倫理監管要求,具體包括:第一,簡短形式的通知。提供一份關于其被涵蓋數據做法的簡短通知。第二,隱私影響評估。每兩年進行一次隱私影響評估,權衡被涵蓋數據的收集、處理和傳輸做法的好處與這些做法的潛在外部效應。第三,算法影響評估。對用于收集、處理或傳輸被涵蓋數據的任何算法進行年度影響評估,并向聯邦貿易委員會提交評估報告。第四,年度認證。大型數據持有者的執行官必須每年向聯邦貿易委員會證明,該實體保持遵守該法案的合理內部控制,以及確保認證的官員參與,并由認證官員負責。在人工智能倫理監管制度與政策設計過程中,美國聯邦政府同樣遵循分類監管思路。例如,2020年1月,美國白宮發布的《人工智能應用監管指南》從監管和非監管兩個層面出發提出設計、開發、部署和操作等10條監管原則,為人工智能倫理監管提供了整體性的部署。

因此,中國在數字科技倫理監管制度設計的過程中,在借鑒美國基于分層分類思路開展數字科技倫理制度設計與政策執行的基礎上,需要進一步發揮地方政府政策制定與執行的自主性原則,考慮到中國數字科技創新與應用呈現出區域發展不平衡、行業不平衡的現狀,需要根據地方數字經濟發展狀況、數字科技重點行業發展狀況、面臨的風險等級開展精準分類,對不同行業、不同應用場景、不同風險等級的重點行業、重要領域和主要監管對象開展制度分類設計,有效發揮中央頂層制度設計和地方具體政策執行自主性的優勢,確保中央政府與地方政府在數字科技倫理監管過程中的制度框架一致性與政策協同性。

(三)企業參與數字科技倫理監管對中國的經驗借鑒

在企業參與數字科技倫理監管方面,美國充分發揮市場主導的企業自主性原則,充分發揮企業自我治理的重要作用,形成政府立法主導、企業治理參與的數字科技倫理監管格局。更為關鍵的是,從企業參與數字科技倫理監管模式來看,主要表現為三個主要特征:第一,發揮數字科技領軍企業的標準制定功能,特別是發揮從事人工智能技術開發與應用的數字科技龍頭企業的作用,通過企業主導制定的數字科技創新與應用的各類倡議、指南、企業手冊等方式樹立行業示范效應,帶動產業鏈上下游企業乃至整個數字商業生態圈的其他企業開展系統學習,基于學習效應發揮數字科技倫理監管的輻射擴散作用。第二,數字科技領域的相關龍頭企業主要采用數字科技倫理委員會、董事會和戰略委員會等方式實現倫理嵌入治理監管模式,形成“董事會—高管戰略決策團隊—員工”的傳導體系,確保數字科技倫理治理充分融入到組織創新戰略、管理過程、業務流程,最大程度地實現數字科技倫理融入企業治理全過程。第三,企業自我主導的數字科技倫理治理充分引入利益相關方參與機制。即數字科技倫理監管涉及到的多元利益相關方主體具備廣泛性特征,需要充分引入不同領域和不同價值訴求的利益相關方,主要包括政策設計者、科學家、研發人員、技術應用者、社會公眾等不同類型的利益相關方主體,建立定期溝通協商機制,進而制定相關數字科技倫理監管的重點領域和重點議題。

因此,中國在數字科技倫理監管制度設計的過程中,一方面,發揮數字科技領域重點行業的科技領軍企業的重要作用,發揮這類企業在數字科技倫理治理方面的重要作用,以這類科技領軍企業為載體推動企業主動對標國際數字科技領域的世界一流企業相關的治理標準、行業規范、治理指南、企業倡儀和操作手冊等,實現中國企業主導的數字科技倫理治理標準充分融入國際主流標準,并進一步結合中國數字科技創新與應用過程中的主要社會問題與道德倫理風險,制定重點治理領域與細分環節,并積極構建以科技領軍企業為牽引的數字科技倫理監管與治理共同體或治理生態圈。另一方面,進一步增強企業社會責任導向,立足企業社會責任戰略融入算法技術治理、大數據治理、區塊鏈安全治理等多重數字科技倫理治理領域,實現企業數字科技創新與應用過程中的可持續創新、可持續開發利用、可持續創造綜合價值,通過企業社會責任戰略構建動態的利益相關方溝通參與機制,確保數字科技倫理治理內容與議題的動態性與時效性。

參考文獻

[1] 金星曄,伏霖,李濤.數字經濟規模核算的框架、方法與特點[J].經濟社會體制比較,2020(4):69-78.

[2] 蔡躍洲.數字經濟的增加值及貢獻度測算:歷史沿革、理論基礎與方法框架[J].求是學刊,2018,45(5):65-71.

[3] 許憲春,張美慧.中國數字經濟規模測算研究——基于國際比較的視角[J].中國工業經濟,2020(5):23-41.

[4] 郭家堂,駱品亮.互聯網對中國全要素生產率有促進作用嗎?[J].管理世界,2016(10):34-49.

[5] 陽鎮,陳勁,李紀珍.數字經濟時代下的全球價值鏈:趨勢、風險與應對[J].經濟學家,2022 (2):64-73.

[6] 黃群慧,余泳澤,張松林.互聯網發展與制造業生產率提升:內在機制與中國經驗[J].中國工業經濟,2019(8):5-23.

[7] 荊文君,孫寶文.數字經濟促進經濟高質量發展:一個理論分析框架[J].經濟學家,2019(2):66-73.

[8] 趙濤,張智,梁上坤.數字經濟、創業活躍度與高質量發展——來自中國城市的經驗證據[J].管理世界,2020,36(10):65-76.

[9] 陽鎮,凌鴻程,季與點,等.數智化時代傳統文化的特殊力量:儒家文化會驅動人工智能企業創新績效嗎?[J].創新科技,2021,21(7):19-33.

[10] 諸竹君,袁逸銘,焦嘉嘉.工業自動化與制造業創新行為[J].中國工業經濟,2022(7):84-102.

[11] 張勛,萬廣華,張佳佳,等.數字經濟、普惠金融與包容性增長[J].經濟研究,2019,54(8):71-86.

[12] 夏杰長,劉誠.數字經濟賦能共同富裕:作用路徑與政策設計[J].經濟與管理研究,2021,42(9):3-13.

[13] 陽鎮,陳勁.數智化時代下的算法治理——基于企業社會責任治理的重新審視[J].經濟社會體制比較,2021(2):12-21.

[14] 肖紅軍,陽鎮,商慧辰.平臺監管的多重困境與范式轉型[J]. 中國人民大學學報,2022(4):24-39.

[15] 肖紅軍,李平.平臺型企業社會責任的生態化治理[J]. 管理世界,2019(4):120-144+196.

[16] 肖紅軍,陽鎮.平臺企業社會責任:邏輯起點與實踐范式[J]. 經濟管理,2020(4):37-53.

[17] 陽鎮, 陳勁. 數智化時代下企業社會責任的創新與治理[J]. 上海財經大學學報, 2020(6):33-51.

[18] 于雪,段偉文.人工智能的倫理建構[J].理論探索,2019(6):43-49.

[19] 莫宏偉.強人工智能與弱人工智能的倫理問題思考[J].科學與社會,2018(1):14-24.

[20] 段偉文.機器人倫理的進路及其內涵[J].科學與社會,2015,5(2):35-45

[21] BURREL J. How the machine ‘thinks:understanding opacity in machine learning algorithms[J].Big data & society,2016,3(1):1-12.

[22] 董軍,程昊.大數據技術的倫理風險及其控制——基于國內大數據倫理問題研究的分析[J].自然辯證法研究,2017(11):80-85.

[23] MITTELSTADT B D, ALLO P, TADDEO M, et al.The ethics of algorithms:mapping the debate[J].Big data & society,2016,3(2):1-21.

[24] FEDERAL DATA STRATEGY.Data ethics framework[EB/OL].(2021-09-03)[2023-03-02].https://resources.data.gov/assets/documents/fds?data?ethics?framework.pdf.Ethical Regulation of Digital Technology: Progress in the United States

and Reference From China

XIAO Hong?jun1, YANG Zhen1,2

(1. Institute of Industrial Economics, Chinese Academy of Social Sciences, Beijing 100006, China;

2. Research Center of Technological Innovation, Tsinghua University, Beijing 100084, China)

Summary:In recent years, a new round of technological revolution and industrial revolution driven by digital technology has evolved alternately, giving birth to new forms of digital economy, and promoting the innovative development of digital industrial organizations and digital enterprises. However, digital technology has also produced many negative social problems in the process of enabling economy and high?quality social development.Based on this, it is urgent to accelerate the construction of a regulation and governance system in the process of digital technology innovation and development.

This article takes the ethical regulation of digital technology in the United States as the main research object, takes strategic texts and policy documents introduced by the US government and local governments in recent years as the scope of literature search, and makes full use of Internet materials to manually organize annual reports and public speeches of management of major digital technology enterprises in the United States. We discuss institutional arrangements related to ethical regulation of digital technology in the text, and conduct systemic analysis of policy deployment, major regulatory strategies, and key areas of ethical regulation of digital technology.The research results show that firstly, regulatory entities of digital technology ethics in the United States cover multiple levels and types of entities, such as the ‘federal government?state governments?industry associations?enterprises.The regulatory models mainly include the legislative and standard?led regulatory model led by the Congress, the participatory regulatory model of multiple social organizations such as industry associations and research institutions, and the embedded regulatory model in digital technology ethics governance for enterprises. Secondly, in terms of policy layout for ethical regulation of digital technology, it mainly focuses on the development and application of digital technologies such as artificial intelligence, big data, and blockchain. The key regulatory topics cover core issues such as ethical artificial intelligence and transparent, fair and interpretable algorithm design and development, as well as digital privacy and data ethics. Thirdly, the ethical regulation of digital technology in the United States has important reference significance for accelerating the construction of Chinas ethical regulation system of digital technology. On the one hand, it is necessary to strengthen legislation on ethical regulation of digital technology, and design and implement ethical system and policies for digital technology based on a hierarchical classification approach. On the other hand, it is necessary to further leverage the principle of autonomy in the formulation and implementation of local policies for ethical regulation of digital technology, and mobilize the leading role of digital enterprises.

This article provides international experience for governments at all levels in China to formulate policies on the forefront and key areas of ethical regulation of digital technology, and provides a theoretical framework and policy guidance for China to build an ethical regulation system of digital technology suitable for the development stage of digital economy and the institutional context of China.

Key words:digital technology ethics; regulatory model; digital enterprise

(責任編輯:尚培培)

[DOI]10.19654/j.cnki.cjwtyj.2023.06.006

[引用格式]肖紅軍,陽鎮.數字科技倫理監管:美國進展與中國借鑒[J].財經問題研究,2023(6):73-86.

主站蜘蛛池模板: 玖玖免费视频在线观看| 激情六月丁香婷婷四房播| 亚洲成肉网| 亚洲一道AV无码午夜福利| 日韩一区二区三免费高清| 美女免费精品高清毛片在线视| 黄色网站不卡无码| 欧美日韩北条麻妃一区二区| 999国内精品久久免费视频| 久久久久中文字幕精品视频| 亚洲清纯自偷自拍另类专区| 国产91精品调教在线播放| 91原创视频在线| 国产一级二级三级毛片| 欧美一级在线看| 国产不卡网| 青青青伊人色综合久久| 伊人色在线视频| 中文字幕 91| 色综合天天娱乐综合网| 久久五月天综合| 91久久天天躁狠狠躁夜夜| 久久99这里精品8国产| 国产精品七七在线播放| 久久午夜夜伦鲁鲁片无码免费| 性欧美久久| 国产人在线成免费视频| 国产成人久久777777| …亚洲 欧洲 另类 春色| 久久精品日日躁夜夜躁欧美| 成人伊人色一区二区三区| 亚洲av无码专区久久蜜芽| 亚洲av成人无码网站在线观看| 亚洲精品不卡午夜精品| 久久亚洲精少妇毛片午夜无码| 色综合激情网| 亚洲二三区| 美女视频黄又黄又免费高清| 日本不卡在线播放| 亚洲综合婷婷激情| 午夜视频在线观看区二区| 视频二区亚洲精品| 免费无码AV片在线观看国产| 国产一区在线视频观看| 亚洲AV无码不卡无码| 动漫精品中文字幕无码| 日韩高清无码免费| 亚洲AV成人一区国产精品| 亚洲日韩图片专区第1页| 亚洲综合狠狠| 国产一在线观看| 久热中文字幕在线| AV不卡在线永久免费观看| 一本一道波多野结衣av黑人在线| 久久久久久久97| av一区二区三区在线观看| 精品成人免费自拍视频| 香蕉在线视频网站| 亚洲精品免费网站| 欧美一级大片在线观看| 久久久久亚洲AV成人人电影软件| 免费高清a毛片| www.狠狠| 全色黄大色大片免费久久老太| 精品国产自在现线看久久| 黄色网站在线观看无码| 欧美国产日韩在线观看| 亚洲第一香蕉视频| 国产精品专区第1页| 一级福利视频| 伊人成人在线| a毛片在线免费观看| 亚洲成人黄色在线| 欧亚日韩Av| 中文字幕永久在线看| 性喷潮久久久久久久久| 99ri精品视频在线观看播放| 亚洲成肉网| 国产在线高清一级毛片| 国产成人乱无码视频| 国产日韩欧美中文| 在线精品亚洲国产|