999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能風險治理及法律規制研究

2024-12-13 00:00:00姚微佳

摘 要:生成式人工智能在交互性、通用性和創新性上的顛覆性突破,給人類社會帶來深刻的影響與變革。但生成式人工智能技術的飛速發展令傳統人工智能治理范式捉襟見肘,尤其在輸入數據的合法性、算法的透明性、輸出結果的倫理性等方面提出全新挑戰。世界各國多年來在相關領域的立法成果,為生成式人工智能技術的法律規制打下堅實的基礎,但各國的治理路徑在不同維度下均有不足之處。在立法滯后性凸顯的今天,倡導多元協同治理和行業自律尤為重要,企業從被動守法到積極發展負責任人工智能治理機制,是生成式人工智能技術開發和應用的中流砥柱。如何在不阻礙新興技術發展的同時,合理地預防和規避風險,是一個亟待解決卻又無法一蹴而就的問題。

關鍵詞:生成式人工智能;法律規制;風險治理;負責任人工智能治理機制

2024年2月16日OpenAI發布了視頻大模型Sora,用戶只需輸入文本即可生成一段長達60秒“單視頻多角度鏡頭”的視頻,視頻效果不僅逼真且極具想象力。這距離ChatGPT橫空出世并在兩個月就獲得上億用戶的盛況不足兩年。生成式人工智能技術的出現,標志著人工智能從分析決策到交互創新的轉化,從學習知識到構建邏輯的演變,這不僅極大地提高了企業的生產力,還帶來了行業性商業模式的顛覆式變革。在賦能科技造福社會的同時,各界對生成式人工智能技術合法性及合規性的質疑聲也不絕于耳。2023年3月,圖靈獎得主約書亞·本吉奧、特斯拉CEO埃隆·馬斯克、蘋果公司聯合創始人史蒂夫·沃茲尼亞克等在內的數千名企業家、學者及各界人士強烈呼吁暫停訓練比GPT-4更強大的人工智能系統。近年來,世界各國政府、研究機構、行業組織和企業在人工智能風險治理和法律規制領域做出了不懈努力并發展出各具特色的治理路徑。我國作為和美國并駕齊驅的人工智能技術大國,在人工智能和深度合成方面的立法探索也頗見成效。2017年國務院發布的《新一代人工智能發展規劃》中,提出在2025年“建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力”的目標。本文從生成式人工智能的應用場景和技術特點出發,總結其風險類型以及各國的法律規制和治理路徑,并探討了業內領先企業在負責任人工智能治理機制方面的成果和經驗。

一、生成式人工智能應用

生成式人工智能技術是一種通過對海量數據進行預訓練,結合簡單適配和高效微調,生成邏輯自洽又不失原始數據特征的全新內容的深度學習技術[1]。紅杉資本發表過一篇與ChatCPT-3合著的文章《生成式人工智能:創造全新世界》,生動描述了生成式人工智能的應用場景,遍及文學創作、圖形處理、游戲設計、代碼編寫、音樂創作等諸多領域。全球領先的技術研究和咨詢公司Gartner邀請2500位來自世界各地的企業高管評價生成式人工智能技術的商業價值,其中38%的高管認為生成式人工智能可有效提升客戶體驗,26%認為可增加銷售收入,17%認為可優化成本結構。麥肯錫咨詢公司預測,生成式人工智能每年將為全球經濟增加相當于2.6萬億至4.4萬億美元的價值[2]。波士頓咨詢公司分析總結了生成式人工智能對各行業產生的變革性影響[3],如約88%的代碼將由生成式人工智能技術輔助完成、基于模特身形自動生成的時尚穿搭效果圖可提升零售轉化率1.5倍、生成式算法可極大縮短發現治療IPF的新藥方向的時間(數年至21天)、利用生成式人工智能技術的保險科技平臺最多可降低30%客戶服務成本等。羅蘭貝格咨詢公司預測,生成式語言模型技術和生成式圖像模型技術有望在中國各行業中帶來1.6%的成本降低,相當于3.7萬億元[4]。在普華永道“2023全球勞動力調研”中,超過40個國家和地區近3萬名受訪者回復,預計未來五年人工智能將對他們的職業生涯產生積極影響,包括提高效率、學習新技能和創造新的就業機會[5]。

二、生成式人工智能的風險

生成式人工智能技術在交互性、通用性和創新性上的顛覆性突破,給人類社會帶來的潛在風險更具現實緊迫性。國內外法學界、科技界、商界及機構投資者等對數據安全保障、個人信息保護、著作權歸屬、問責機制、算法歧視及風險治理模式等諸多課題進行了深度探討和研究。從“數據——算法——輸出”的邏輯出發,生成式人工智能的風險主要體現在三個方面:輸入數據的合法性、算法的透明性和可解釋性、輸出結果及應用的倫理性和合規性。

(一)輸入數據合法性

生成式人工智能技術的海量訓練數據形式多樣且來源廣泛,包括開源數據庫、通過爬蟲技術獲取的公開數據、人工標注數據以及合成數據等。

開源數據是政府或機構發布的可免費使用和重復利用的合法數據集,如ChatGPT的訓練數據集大多是從公共語料庫中提取的開源數據,包括Wikipedia、Common Crawl等。但利用開源數據進一步提供商業化服務,需要遵守相關的開源許可協議,如很多許可協議是限制開源數據的云使用。

通過爬蟲技術獲取的網絡數據,不可避免地可能攜帶個人敏感信息或商業機密,在未脫敏和未授權的情況下直接使用極可能侵犯個人隱私權或知識產權[6],2023年人工智能繪畫模型開發商Stability AI被全球知名的圖片提供商華蓋創意(Getty Images)告上法庭,因Stability AI非法從其網站上竊取了大量圖片作為AI圖像生成工具Stable Diffusion的素材而謀取商業利益,原告稱這種行為侵犯了數百萬藝術家的權利。

人工標注數據是對數據集的具體信息以及上下文進行注釋,旨在提高訓練模型的適應性和準確性,但標注過程中可能導入偏見甚至錯誤信息,使缺陷內嵌在訓練過程中,導致算法偏見的滋生和放大。

合成數據是人工或計算機程序生成的數據,以模擬真實場景,從而增加數據的多樣性和模型的魯棒性,除了主觀偏見或者歧視風險,合成數據缺乏真實場景的某些特征,因此可能加劇生成結果錯誤或者不合理的風險。

訓練數據是人工智能技術的基礎,數據缺陷是所有深度學習技術難以修復的先天不足,因此數據風險通常是治理的重中之重。在將數據投喂到算法模型之前,訓練數據必須經過篩選、清洗、劃分等多個處理步驟,以確保數據的合法性、合規性并符合道德規范。

(二)算法的透明性和可解釋性

算法的透明性指技術提供方對用戶,包括不限于使用者及數據提供方,明確告知“我是誰,我為什么要使用你的數據及如何使用?!蓖该餍灾荚谝怨降姆绞胶陀脩艚㈥P系,用戶可自愿選擇要不要建立關系以及如何建立關系。算法的可解釋性是指以用戶可理解的方式闡述算法決策過程和結果,用戶不僅了解到人工智能決策的依據及可能產生的影響,并且可以啟動司法程序捍衛自己的權利[7]??山忉屝园ㄈ挚山忉屝院途植靠山忉屝?。全局可解釋性指算法的行為模式和決策邏輯的內涵描述,局部可解釋性指算法針對特定目標進行決策的過程和行為[8]。可解釋性是可信性的重要特征,是人類施加算法控制權的著力點[9]。基于大規模語言模型的ChatGPT,構筑在預訓練語言模型、上下文學習、基于人類反饋的強化學習等復雜的底層技術之上,屬于典型的“黑箱算法”。目前尚無技術手段對黑箱算法進行全局解釋,而局部解釋的可信性往往備受詬病[10]。比如在醫療行業應用中,即使生成式算法模型對病人的疾病進行準確診斷,但由于算法復雜性高,無法給出診斷依據,這將會極大影響結果可信度,從而影響模型的實際應用和推廣。算法可解釋性的強弱,直接關系到決策行為及決策結果的合法性、安全性和可靠性的評估和判斷[11]。算法的不可解釋及訓練數據的先天不足,使算法歧視向“無意識”轉變成為可能甚至是趨勢[12]。

(三)輸出結果及應用的倫理性和合規性

數據安全和算法歧視的風險,在所有人工智能技術中都有體現,但相較于以預測和判斷為主的傳統人工智能技術,生成式人工智能的負外部性和有害性成倍攀升。算法可能在一定情境中產生“幻覺”[13],即與現實情況相悖卻又令人信服的“胡編亂造的真話”。美國新聞可信度評估與研究機構News Gurd通過對ChatGPT的測試發現,ChatGPT能在幾秒鐘內改變信息并產生大量很有說服力卻無信源的內容[14]。這種不可預測的違背技術提供方或用戶意圖的內容,可能涉及意識形態和價值觀等方面如國別、種族、職業、年齡、性別、窮富差距的甄別與選擇,可能觸犯法律如違反競爭法的商業建議,甚至可能是危害國家安全的反動言論[15],這無疑無論對個人成長、企業經營乃至社會安定和諧造成不可估量的不利影響[16]。

生成式人工智能另外一個備受矚目的爭議是法律責任認定。當生成內容被判定為知識產權侵權或與反歧視法規定相左,導致個人利益或社會公共利益受到侵害,誰是法律責任承擔方?模型提供方、數據提供方和使用者,誰承擔主要責任?適用嚴格責任還是過錯責任?傳統的“安全港”機制無法適用于生成式人工智能技術應用,OpenAI首席執行官Sam Altman也曾表示立法者應制定新的法律,以保護大模型不會因為輸出內容而獨自承擔所有法律責任。

此外,生成式人工智能是以海量訓練數據為基礎,如ChatGPT-3訓練數據45萬億字節訓練數據,1750億個參數,最新的GPT-4參數數量達萬億。訓練和運行大型生成式人工智能模型需要使用大量的計算資源,這些資源通常由大型數據中心提供,而數據中心的能源消耗和碳排放量都很高,這必然對于環境保護和可持續發展帶來極大挑戰[17]。

三、人工智能技術法律規制

面對人工智能技術帶來的治理模式范式轉變,現行法律規制體系在應對人工智能技術的風險和治理問題上捉襟見肘。全球監管者和立法機構經多年研究和實踐,取得一定進展,但各國在不同維度上也存在明顯的缺陷。

歐盟在人工智能技術研發和應用領域并未處于領先地位,但在立法和倫理規范的成就上先行于技術發展更為先進的美國和中國。2018年歐盟通過的《通用數據保護條例》(General Data Protection Regulation,“GDPR”),以“全世界個人隱私保護領域最為嚴格和全面的立法”聞名,從數據源頭對人工智能的應用進行了規制。2019年4月,歐盟先后發布了兩份重量級指導性文件《可信賴的人工智能倫理指南》①(下文簡稱“倫理指南”)和《算法責任與透明治理框架》②(下文簡稱“治理框架”),對人工智能技術發展和治理元規則的研究奠定了堅實的基礎?!秱惱碇改稀诽岢隹尚刨嚾斯ぶ悄茉谄渖芷趹婢呷椀赖聹蕜t:合法性、倫理性、技術及社會穩健性?!吨卫砜蚣堋穭t從透明性和問責制角度出發,總結了監管的四個維度:提高思想、公共領域算法應用問責制、法律規制以及全球性的協同治理。2021年4月歐盟發布的《人工智能法案》(下文簡稱“法案”),歷經三年的修改和談判,終于在2024年1月獲得歐盟27個成員國一致批準,成為全球首部人工智能領域全面監管的綜合性法律,為各國在人工智能領域的立法提供了系統性和技術性的參照。其中對于生成式大規模語言模型的應用,強調了權利人可以選擇保留對其作品或其他主體的權利,通用人工智能模型的提供者如果想對這些作品進行文本和數據挖掘,需要獲得權利人的授權。法案特別強調要提高算法透明性,強化內容發布者的披露義務,切實落實有關檢測和標識生成內容的義務等。

美國目前尚未有針對人工智能技術的綜合性法律。2021年生效的《國家人工智能倡議法》主要目的是通過專門的人工智能委員會協調統籌人工智能的研究和應用,以促進國家經濟進步和保障國家安全。此后,美國政府陸續發布了一系列無強制性效力的政策、框架及白皮書。2023年5月,拜登政府宣布推進現有生成式人工智能系統的評估和風險管理;7月微軟、谷歌、OpenAI等七家科技巨頭在白宮自愿承諾遵守八項人工智能監管舉措,以提高人工智能技術的安全性和可信度。美國國家科學技術研究所曾向全社會征集想法和意見,以有效地道德地發展和應用生成式人工智能技術。2023年8月美國國防部宣布成立生成式人工智能和大語言模型利馬工作組,旨在推進對生成式人工智能能力的探索和負責任治理體系的部署。2023年10月,拜登政府升級對人工智能的監管力度,以行政命令的形式,要求開發者在向公眾發布可能對美國國家安全、經濟、公共健康或保障構成風險的人工智能系統之前,應根據《國防生產法》與美國政府分享相關安全測試(如紅隊測試③)的結果。

歐盟的法案基于風險分級治理同時注重個體賦權,美國的監管措施以技術應用為核心,以行業自律為主導,我國在人工智能領域的風險治理和法律規制,以主體責任為路徑,鼓勵和監管并舉。2021年先后發布實施的《中華人民共和國數據安全保護法》和《中華人民共和國個人信息保護法》從法律角度規范個人信息和數據處理活動,促進個人信息合理利用,保障數據安全、維護國家主權和發展利益。2022年,網信辦、工信部、公安部等聯合發布的《互聯網信息服務算法推薦管理規定》規范互聯網信息服務算法推薦活動,包括生成合成類、決策調度類等算法,要求算法推薦服務提供者落實算法安全主體責任,監管部門根據算法推薦服務的內容類別、用戶規模、數據重要程度等因素對算法推薦服務提供者實施分級分類管理,包括備案審查及安全性評估。2022年11月網信辦等部門聯合發布的《互聯網信息服務深度合成管理規定》對利用深度學習生成內容的技術應用進一步提出明確要求,包括深度合成服務提供者應落實信息安全主體責任。國務院辦公廳2023年6月發布的《國務院2023年度立法工作計劃》中預備提請全國人大常委會審議的法律草案中包括人工智能法律草案。針對生成式人工智能技術的洶涌浪潮,國家網信辦聯合國家發展改革委、教育部、科技部、工信部、公安部和國家廣電總局于2023年7月聯合發布了《生成式人工智能服務管理暫行辦法》(下文簡稱“辦法”),以包容審慎的治理方式,對技術應用進行分類分級監管,既吸收了歐盟和美國在相關領域的立法經驗,又體現中國特色社會主義法治精神。辦法規定了生成式人工智能的技術發展與治理規則、服務規范、監督機制以及法律責任。2023年8月全國信息安全標準化技術委員會秘書處發布《網絡安全標準實踐指南——生成式人工智能服務內容標識方法》,針對利用生成式人工智能技術向公眾提供內容的服務提供者,規范其生成內容的標識方式,以提高生成式人工智能技術應用的安全管理水平。2024年2月,全國信息安全標準化技術委員會發布《生成式人工智能服務安全基本要求》,首次提出生成式人工智能服務提供者需遵循的安全方面的基本要求,包括語料安全、模型安全、安全措施等,并給出了安全評估要求。

雖然我國在人工智能領域的立法成就斐然,但不可否認的是主體問責的治理路徑可能存在問題,尤其在生成式人工智能的管理中更為彰顯?!掇k法》對生成式人工智能服務提供者(下文簡稱“提供者”)的義務規定過高,從訓練階段到終端應用的全周期,包括數據審查、內容標識、網絡信息安全、違法內容處置到監督管理等諸多方面[18]。這會導致提供者的研發熱情和技術的應用推廣遭到過度限制和阻礙。同時,深度合成算法的自我演進和迭代,由提供者承擔這種動態的技術風險不甚合理。相較于提供者,《辦法》對生成式人工智能服務的使用者(下文簡稱“使用者”)的監管和規范仍然處于較低的程度。在實際應用中,使用者在生成內容的利用和傳播上往往更加廣泛,加之《辦法》對使用者的顯性披露義務規定欠缺[19],這種不平衡的義務和責任分布在實操中必然帶來問題,因此合理設定提供者和使用者的義務是化解技術應用風險的重要保障。

其次,人工智能技術應用與場景緊密結合,學界一種代表觀點是應以單行法律和法規的形式施以針對性治理,比較典型的是金融行業的智慧投顧和無人駕駛[20]。辦法中提到的算法偏見、知識產權侵權、壟斷和不當競爭等風險,需要結合具體技術和數據特征并適配應用場景再加以規制[21]。我國目前已出臺了一系列針對人工智能應用的行業性規范和政策,如藥監局發布的《人工智能醫用軟件產品分類界定指導原則》和《人工智能醫療器械等6項注冊審查指導原則和技術審評要點》、最高法發布的《最高人民法院關于規范和加強人工智能司法應用的意見》等,但整體位階較低,強制性較弱,欠缺系統性。

此外,人工智能技術的分類分級監管路徑有待進一步論證和改進。生成式人工智能的應用類型和風險等級呈現不確定性。即使在通常低風險的場景下,某些情境同樣可能觸發高風險后果。對風險等級和類型進行靜態的評估,缺乏合理性和準確性。但若以寧枉勿縱的精神分級監管,又會嚴重阻礙技術的發展進步。前車之鑒——歐盟GDPR,2018年實施之初,由于過分嚴苛,對數字經濟的負面影響嚴重,美國經濟研究局報告顯示,GDPR實施后的六個月,歐盟企業的融資總額縮水近30%[22]。

總之,立法滯后性在人工智能時代愈加凸顯,即使嚴苛到被人詬病的GDPR也無法解決所有數據隱私的道德和聲譽風險,目前也沒有法律框架可盡數人工智能——尤其是生成式人工智能的風險并加以規制。因此,歐盟和美國都主張采用多元主體廣泛參與的模式,從政府主導向政府和企業協同治理模式轉型。其中,企業、科研機構和行業組織在負責任人工智能治理機制方面的成就尤為值得關注。

四、負責任人工智能治理機制

Responsible Artificial Intelligent (下文簡稱“RAI”)負責任人工智能是一套包含原則、政策、工具和流程的治理機制,旨在確保人工智能系統從數據采集、技術開發及場景應用全周期的合法性及道德性[23]。RAI治理機制在法律體系尚未完善的環境下,不僅為行業內技術發展樹立了道德標桿,也是企業自律和風險控制的底層邏輯。根據波士頓咨詢和《MIT斯隆管理評論》2022年對全球22個行業96家公司上千名企業高管的調研,42%受訪者表示RAI治理機制已經或應該是企業首要戰略方向之一,52%受訪者表示本公司已經建立了RAI治理機制。

微軟于2016年啟動RAI機制,2018年提出人工智能技術開發應用的六大基本原則:公平性、可靠性和安全性、隱私和安全、包容性、透明度和問責制。2022年6月,微軟發布了由三十多位專家共同編纂的“負責任人工智能標準”。標準詳細闡述了人工智能系統開發團隊在實際工作中應遵守的切實可行的目標,通過對廣泛的指導原則進行分解,編制具體的行為規范,利用培訓、工具和測試等手段賦能行為規范落地,例如影響評估、數據治理和人工監督等,并通過定期審計、監管、公布等形式,確保人工智能系統在整個系統生命周期中符合負責任原則。由此,微軟的RAI機制形成閉環(見圖1)。

阿里巴巴人工智能治理與可持續發展研究中心(下文簡稱“AAIG”)聯合中國信通院在2022年世界人工智能大會上發表了《人工智能治理與可持續發展實踐白皮書》④,提出技術體系應以“可用、可靠、可信”為原則,治理目標兼顧“發展生產力,保護主體權益”以及倡導“人人受益、責任擔當、開放共享”的價值導向,“構建全生命周期風險分類治理機制”(見圖2)。白皮書中不僅有詳盡的治理機制的總結和建議,還分享了具體的技術、規范和專題研究,如維護電商平臺信息真實和競爭公平、如何構建行之有效的算法透明等。

總結國內外科技巨頭在RAI治理元規則上的成就,見表1。主要圍繞安全、可信、透明、平等展開。治理路徑以多元協同和開放共治為主導。RAI治理機制,在具體場景下也不斷迭代發展,如在智慧醫療中的應用,醫療適應性、患者偏好等臨床倫理學的考量,并入智慧醫療場景的治理原則[24]。

五、結語

“萬物皆可生成”的時代已經來臨,拉伯雷曾說“智慧不屬于惡毒的心靈,沒有良心的科學只是靈魂的毀滅”。如何使社會進步的參與者合乎道德倫理地負責任地使用生成式智能技術,營造監管和鼓勵并舉的法治環境,是立法者亟待解決又不能一蹴而就的問題。微軟全球總裁、首席法務官2019年在其論述人工智能和倫理的著作中提出的“不要問計算機能做什么,告訴計算機該做什么”。

注 釋:

① 《可信賴的人工智能倫理指南》,載https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai,于2024年2月23日訪問。

② 《算法責任與透明治理框架》,載https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624262/EPRS_STU(2019)624262_EN.pdf,于2024年2月23日訪問。

③ 紅隊測試在過去指用于測試安全漏洞的系統對抗攻擊,載https://learn.microsoft.com/zh-cn/azure/ai-services/openai/concepts/red-tea

ming#what-is-red-teaming,于2024年2月23日訪問。

④ 《人工智能治理與可持續發展實踐白皮書》,載s.alibaba.com/cn/aaigWhitePaperDetails,于2024年2月23日訪問。

參考文獻:

[1] 張熙,楊小汕,徐常勝.ChatGPT及生成式人工智能現狀及未來發展方向[J].中國科學基金,2023,37(5):743-750.

[2] MCKINSEY DIGITAL.Economic Potential of Generative AI: The Next Productivity Frontier[EB/OL].[2024-02-23].https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-ai-the-next-productivity-frontier#key-insi

ghts.

[3] BCG數智港.生成式AI大潮來襲,你準備好了么[EB/OL].[2024-02-23].https://mp.weixin.qq.com/s/sCZhcsjMaMdPss8KNtu2MA.

[4] 羅蘭貝格.通用人工智能的曙光:生成式人工智能技術的產業影響[EB/OL].[2024-02-23].https://www.rolandberger.com/publications/publication_pdf/AIGC_whitepaper_CN-2.pdf

[5] PWC’S Global Workforce Hopes and Fears Survey 2023[EB/OL].[2024-02-23].https://www.pwc.com/gx/en/issues/workforce/hope

s-and-fears.html.

[6] 肖鳳.爬蟲技術獲取數據合法性[N].檢察日報,2022-02-10.

[7] 張煒羿.ChatGPT沖擊下敏感個人信息的應對與保護[J].湖北經濟學院學報:人文社會科學版,2023(9):86-91.

[8] CHANLEY T.HOWELL.The Most Critical Factors for AI Legal Compliance: Transparency and Explainability[EB/OL].[2024-02-13].https://www.foley.com/insights/publications/2023/09/critical-fact

ors-ai-legal-compliance-transparency.

[9] 紀守領,李進峰等.機器學習模型可解釋性方法、應用與安全研究綜述[J].計算機研究與發展,2019(10):2071-2096.

[10] ICO.Explaining Decisions Made with AI[EB/OL].[2024-02-23].https://ico.org.uk/media/for-organisations/uk-gdpr-guidance-and-resources/artificial-intelligence/guidance-on-ai-and-data-protect

ion-2-0.pdf.

[11] 張欣.生成式人工智能的算法治理挑戰與治理型監管[J].現代法,2023(3):108-123.

[12] 楊玉曉.人工智能算法歧視刑法規制路徑研究[J].法律適用.2023(4):86-94.

[13] JUNYI LI, XIAOXUE CHENG, WAYNE XIN ZHAO et al.HaluEval:A Large Scale Hallucination Evaluation Benchmark for Large Language Models[C].Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing.Singapore:Association for Computational Linguistics,2023:6449-6464.

[14] 鈄曉東.論生成式人工智能的數據安全風險及回應型治理[J].東方法學,2023(5):106-116.

[15] 羅世杰,賀國榮.生成式AI算法訓練風險的合規管理研究[J].湖北經濟學院學報,2023(6):106-115.

[16] 武林娜,宋愷,王淞鶴.生成式人工智能對個人信息安全的挑戰及應對策略[J].信息通信技術與政策,2024,50(1):13-18.

[17] HILIPP HACKER.Sustainable AI Regulation.[EB/OL].[2023-08-23].https://www.researchgate.net/publication/371223358_Sustainable_AI_Regulation.

[18] 李彤.通用人工智能技術提供者義務的審視與優化[J].東方法學,2023(5):70-81.

[19] 姚志偉,李卓霖.生成式人工智能內容風險的法律規制[J].西安交通大學學報(社會科學版),2023(5):147-160.

[20] 汪慶華.人工智能的法律規制路徑:一個框架性討論[J].現代法學,2019(2):54-63.

[21] 劉艷紅.生成式人工智能的三大安全風險及法律規制——以ChatGPT為例[J].東方法學,2023(4):29-43.

[22] 姜奇平.反對唯GDPR論[J].互聯網周刊.2019(6):70-71.

[23] ELIZABETH M.RENIERIS,DAVID KIRON,STEVEN MILLS.Building Robust RAI Programs as Third-Party AI Tools Proliferate [EB/OL].MIT Sloan Management Review and Boston Consulting Group.[2024-02-23].https://sloanreview.mit.edu/projects/building-robust-rai-programs-as-third-party-ai-tools-proliferate/.

[24] 關健.智慧醫療發展中的倫理問題[J].中國醫學倫理學,2022,35(4):357-361.

主站蜘蛛池模板: 亚洲男女天堂| 伊人成人在线| 国产成人久久777777| 欧美亚洲日韩中文| 亚洲一级毛片在线播放| 国产成人啪视频一区二区三区| 国产玖玖视频| 午夜一区二区三区| 国产精品亚洲va在线观看 | 久久99精品久久久久纯品| 婷婷午夜天| 91小视频在线观看免费版高清| 在线精品欧美日韩| 看国产毛片| 综合色婷婷| 欧美日韩中文国产| 波多野结衣无码AV在线| 在线看AV天堂| 亚洲伦理一区二区| 亚洲欧美日韩动漫| 国产福利免费视频| 一本大道无码日韩精品影视| 国产乱子伦手机在线| 国产91丝袜| 999在线免费视频| 丁香六月综合网| 拍国产真实乱人偷精品| 国产在线精彩视频论坛| 亚洲男人天堂久久| 久久夜色精品| 亚洲高清无在码在线无弹窗| 亚洲人在线| 国产自在线拍| 日韩av高清无码一区二区三区| 欧美另类精品一区二区三区| 2020久久国产综合精品swag| 欧洲日本亚洲中文字幕| 亚洲色图欧美| 26uuu国产精品视频| 亚洲日韩高清无码| 日韩视频福利| 国产乱人激情H在线观看| 国产精品嫩草影院视频| 青草精品视频| 野花国产精品入口| 91久久夜色精品| 天天综合亚洲| 伊人久久大香线蕉综合影视| 99久久99这里只有免费的精品| 广东一级毛片| 国产免费好大好硬视频| 中文字幕乱码二三区免费| 亚洲欧美在线综合图区| 欧美一级高清片欧美国产欧美| 国产美女在线免费观看| 黄色三级毛片网站| 日韩毛片在线播放| 亚洲中文无码av永久伊人| 青青青国产视频| 久青草网站| 91成人在线观看| 国产国产人在线成免费视频狼人色| 操操操综合网| 干中文字幕| 午夜人性色福利无码视频在线观看| 国产菊爆视频在线观看| 亚洲精品无码久久毛片波多野吉| 亚洲中文字幕日产无码2021| 99久久国产自偷自偷免费一区| av免费在线观看美女叉开腿| 欧美成人区| 日韩欧美国产综合| 免费AV在线播放观看18禁强制| 97国内精品久久久久不卡| 国产成人综合久久精品尤物| 欧美日韩第三页| 91精品国产无线乱码在线| 亚洲精品777| 黄色网在线| 日韩av高清无码一区二区三区| 亚洲第一香蕉视频| 成人福利在线视频|