999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

歐美人工智能監管模式及政策啟示

2025-02-20 00:00:00張文康薛周一
新西部 2025年1期
關鍵詞:人工智能系統

近年來,隨著人工智能技術的快速更新迭代發展,尤其是以美國OpenAI公司為首的人工智能企業推出ChatGPT、Sora等生成式人工智能后,人工智能的工作效率、創造力與日俱增。然而,由高性能AI衍生出的人工智能風險,諸如對個人權利的僭越、草莽式的信息收集、愈發突出的倫理問題等,也帶來了行政管理領域新的監管難題。由于歐美人工智能發展領先的客觀原因,其監管模式也領先于其他國家。因此,期望通過詳細討論歐美人工智能監管模式,著重解析歐盟于2024年2月通過的《人工智能法》[1],從原則目標、監管模式、監督機制和促進發展等角度,總結歐美模式的優勢,取長補短形成新式的人工智能監管的中國方案。

各國的人工智能監管模式往往是通過一個或多個法律性文件構建起來的,而中國在人工智能監管方面的相關法律較少,僅有2023年8月15日由國家互聯網信息辦公室牽頭開始實施的《生成式人工智能服務管理暫行辦法》這一法律法規以及《新一代人工智能治理原則》和《人工智能產業發展三年行動計劃》兩份倡導性文件,且《暫行辦法》過于籠統,存在監管漏洞。為了促進中國現有人工智能產業規范化發展,未來孵化更多新興的人工智能企業,吸收“窮舉無遺”的歐盟監管模式和“大力推動創新”的美國監管模式的經驗是必要的,期望在歐美各有側重的監管模式之中探尋出一條適合中國本土的中庸之道。

人工智能發展及其監管的濫觴

人工智能(Artificial Intelligence,縮寫為AI)是一門新興的技術科學,旨在研究和開發能夠模擬、延伸和擴展人類智能的理論、方法、技術及應用系統。它結合了計算機科學、數學、心理學、哲學等多學科的理論和技術,通過讓計算機模擬人類的思考和行為過程,實現人機交互,提高計算機的智能水平,以更好地服務于人類社會。

人工智能的發展及其監管的演進是一個相輔相成的動態過程。隨著人工智能技術的快速發展,其在各個領域的應用也愈發廣泛,從而引發了對人工智能可能帶來的風險和挑戰的關注,進而推動了監管措施的制定和完善。有60多個國家發布了人工智能政策文件[2],重新審視這些人工智能政策并分析其差異是必要的,其可以幫助我國人工智能監管政策迅速渡過幼稚期。

(一)傳統人工智能與生產式人工智能

歐盟委員會的《通信報告》將人工智能定義為:“人工智能(AI)是指通過分析環境并采取具有一定程度的自主性的行動來實現特定目標來展示智能行為的系統”[3]。傳統人工智能主要依賴編程指令來執行特定的任務。例如,一個圖像識別系統可能被訓練成只識別特定的圖像類型,如貓或狗。一旦這個系統遇到它從未見過的圖像,它就無法做出正確的判斷。這是因為傳統AI的學習方式和能力有限,它們通常只能在其訓練數據的范圍之內進行工作,無法適應和處理新的或復雜的數據類型。

然而,生成式AI則展現出了完全不同的特性。國家網信辦《生成式人工智能服務管理暫行辦法》將生成式人工智能技術定義為具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術[4]。它并不依賴于預先定義的規則或模式,而是通過自我學習和適應來改進其性能。即使面對從未見過的數據類型,生成式AI也可以通過分析大量的類似數據來學習如何處理這種數據。這種自我學習和適應的能力使得生成式AI在許多復雜的任務中表現出色。

隨著人工智能的跨越式發展,基于人工智能的產品和服務的市場也在快速膨脹,人工智能賦能其他產業具有龐大的未來市場。據市場情報公司The International Data Corporation估計,全球人工智能市場將在2022-2026年期間達到18.6%的復合年增長率(CAGR),到2026年達到9000億美元的峰值[5]。

(二)人工智能產品或服務潛在的風險

除了人工智能的潛力之外,它也正在成為具有威脅的技術應用的一個突出例子,尤以法律風險及倫理風險為甚。法律風險主要體現在“數據來源合法性問題、生成不良虛假或違法信息問題、數據泄露的法律風險等”[6];倫理風險主要來源于少數群體歧視問題、公民自由意志的不良誘導問題、無序監控與無端揣測問題等。

(三)歐美等國現行人工智能監管模式

歐盟《人工智能法案》秉持了歐洲一貫的法律的詳盡性追求及對人權倫理的關切,該法案經國內法學領域相關學者翻譯后長達14萬字,《法案》對生產生活中的方方面面都進行了預演與討論,力求構建出一個具體的、可持續的、可執行的人工智能監管模式。自人工智能興起以來,歐洲學者對于人工智能倫理的爭論不絕于耳,《法案》也能體現出歐洲學者的倫理追求,主要集中在如何確保人工智能技術的研發和應用過程中,能夠充分尊重和保護人權、隱私,同時避免產生不公平、歧視等倫理問題。

美國的監管風格強調“弱”監管和“軟”治理,旨在增強美國在人工智能領域的科技和經濟領導地位,為人工智能技術的發展掃除不必要的障礙。這種策略允許更多的創新和靈活性,同時也為AI發展提供了更大的空間。美國的監管法案更加注重行業自律和自我監督。為此,美國政府鼓勵企業制定自己的AI倫理準則并通過內部審核和自我監督的方式來減少人工智能的倫理風險,同時美國還注重與學術機構和非營利組織的合作,期望這些組織機構能夠推動人工智能產業的系統性、透明性監管。

我國法律學者關于人工智能法律的觀點可將其大致區分為“人工智能法律”(AI法律)和“法律人工智能”(法律AI)兩大類型,厘清它們的不同立場、方向和路徑,進而探討“第三道路”的可行性,對推進當下人工智能與法律的深入研究無疑具有重要意義[7]。

目前世界上一部分主流國家的人工智能監管法案(如表1):

歐美人工智能監管模式的內容

人工智能是恐懼的來源,特別是對人權的尊重需要一個非常精細的法律和道德環境,以避免減緩人工智能的發展[8],細致恰當的監管往往可以促進技術的發展。歐盟逐步形成《人工智能法》為核心的監管模式,美國則由《人工智能政策法案》《人權法案》《數字權利法案》共同構成了人工智能領域的監管框架。

(一)歐盟《人工智能法》

2024年1月19日,歐盟委員會、歐洲議會和歐盟理事會共同完成了《人工智能法》的定稿,對全球范圍內人工智能乃至整個數字經濟的發展來說,這一立法具有非同尋常的重要性[9]。

1、原則及目標

《人工智能法案》(以下簡稱《法案》)系為改善市場的運作而制定的統一的法律框架,歐盟期望該法案可促成遵循倫理原則,即透明度;正義、公平和平等;非惡意;責任和問責制的人工智能應用[10],同時確保對健康、安全和對《歐盟基本權利憲章》所規定的基本權利的高度保護,包括民主、法治以及環境的保護,防止人工智能系統在歐洲內產生有害的影響,并且支持人工智能領域的創新與就業,從而使得歐盟成為采用可信人工智能的領導者,使歐洲在AI浪潮中最大獲利。

《法案》認為AI投放不應影響現有的法律法規,尤以數據保護、消費者保護、基本權利、就業與工人保護、產品安全為重。為了從人工智能中獲利并實現民主的控制,“人工智能素養”應當為提供者、部署者、受影響者具備,以便他們就人工智能系統做出“知情”的決定?!叭斯ぶ悄芩仞B”可包括了解人工智能系統開發階段技術要素的正確應用、使用過程中應采取的措施、解釋人工智能系統輸出結果的適當方式,了解在人工智能協助下做出的決定將如何影響他們所需的知識。同時,為了確保正確地執行本條例,人工智能素養應是人工智能價值鏈中的所有相關參與者的必備素質。未來,人工智能賦能的信息檢索將成為用戶獲取信息的主導模式[11]??深A見的是,廣泛普及人工智能素養是公民在人工智能時代生活的必備素質,極大改變各行各業及居民的衣食起居。

本世紀以來,人工智能在軍事領域最具革命性,被認為將推動新軍事變革[12],歐盟為保證人工智能在國防軍事領域的充分發展,被用于國防軍事領域的AI不在本法案管理范圍之內,但相關活動仍須遵守國際公法及其余法律條約。

《法案》同樣注重科技創新,充分尊重學術自由,不應損害人工智能研發活動,因此,有必要將專門為科學研究和開發目的而開發和投入使用的人工智能系統和模型排除在其范圍之外,為其適時適度“開綠燈”。

2、約束力規則

約束力規則系《法案》構建人工智能監管的核心,為了對人工智能系統采用一套成比例和有效的具有約束力的規則,應遵循明確界定的基于風險的方法。《法案》根據人工智能系統可能產生的風險的強度和范圍,采用基于風險評估等級的方法,明確界定出三級具體的監管方法:(1)有必要明令禁止某些不可接受的人工智能實踐活動。(2)規定高風險領域人工智能系統的要求和相關AI運營商的必須遵守的義務。(3)規定人工智能系統都應具有的透明度義務。

歐盟期望通過分級別的約束力規則促成值得人類信賴的、符合倫理道德的以人為本的人工智能,為此歐盟高級別專家組制定了七項人工智能倫理原則,包括:人類主體和監督;技術穩健性和安全性;隱私和數據治理;透明度;多樣性、非歧視和公平;社會和環境福祉以及問責制。

一是明令禁止的人工智能活動。歐盟首先在法案中嚴令禁止了人工智能在多個領域的不當應用,具體包括:利用人工智能進行操縱、剝削及社會控制,這些活動嚴重侵犯人的尊嚴、自由、民主與法治等價值觀;誘導人們做出違背自我意志的行為或決定,損害人們的自主決策和自由選擇權;基于個人生物識別數據進行政治觀點、宗教或哲學信仰、種族、性取向等方面的推斷,嚴重侵害個人隱私權;為自然人提供社會評分,可能導致歧視性結果,侵犯人的尊嚴和不受歧視的權力;在公共場合對自然人進行“實時”生物鑒別,破壞個人隱私權及自由;在沒有客觀事實證明的情況下,使用人工智能對自然人進行犯罪風險評估,違反“無罪推定”原則;在教育、工作領域利用人工智能進行情緒推斷,可能導致人們受到有害或不利的待遇。此外,還禁止了其他法律法規所禁止的實踐行為。

在詳盡無遺的狹義列舉外,只有在相關部門審核授權后,才可在相關領域進行實踐活動。例如實時生物監控,只能用于特定被事實驗證的目標對象,并且對監控行為進行嚴格的規定。

二是高風險領域人工智能系統活動。高風險人工智能系統只有在符合特定的強制性要求的情況下才能投入市場或使用。高風險人工智能應用主要集中在可能對人的健康和安全產生不利影響及對《憲章》所保護的基本權利產生不利影響的領域。

具體的高風險人工智能應用場景,包括生物識別技術,特別是遠程生物識別系統,以及基于敏感或受保護屬性或特征進行生物鑒別分類和情感識別的人工智能系統。此外,還有服務于供水、供電、供暖管理和運行的安全組件,以及用于道路交通的人工智能系統,這些都被視為重要數字基礎設施的關鍵組成部分。教育和職業培訓、就業及工人管理、自然人獲得和享受基本公共服務和福利等領域也廣泛涉及高風險人工智能應用。同時,執法部門及移民、庇護和邊境控制管理部門活動領域,以及司法和民主進程領域也是高風險人工智能應用的重要方面。

三是透明度義務。為了確保可追溯性與透明度,人工智能系統的開發者、部署者應當履行透明度義務,在人工智能系統投入使用前向行政主管機構提交此系統的評估文件、使用說明,且有義務在歐盟數據庫中登記該系統,以便后續由人工智能委員會進行指導與監管。

非高風險領域的人工智能系統的提供者應確保將與自然人直接互動的人工智能系統的設計和開發方式應使有關自然人知道他們正在與一個人工智能系統互動。應確保從一個合理知情、善于觀察和謹慎的自然人的角度來看,考慮到使用的情況和場景,使得自然人能夠意識到“自己正與人工智能交互”。

高風險領域的人工智能系統應至少確保其操作具有足夠的透明度,使部署者能夠解釋系統的輸出并加以適當使用。同時應當提交使用說明,包括提供者及其授權代表的身份和聯系方式;公布高風險人工智能系統的特點、能力和性能限制;其預期目的;所需的計算和硬件資源,高風險人工智能系統的預期壽命,以及任何必要的維護和保養措施,以確保該人工智能系統的正常運行;按規定適當地收集、儲存和解釋人工智能系統的工作日志。

3、各主體的監管措施

為了落實約束力規則的方方面面,真正實現對人工智能系統的監管,歐盟的監管模式主體分為各國政府或行政組織,人工智能系統價值鏈各參與者以及第三方監督。

一是國家政府或行政組織的監督。各國政府應當設立一個專業的機構用以人工智能監管,包括審核人工智能系統的市場準入審查、長期監督、高風險領域人工智能使用場景許可的發放、公開數據的集中存儲管理等等;建設“監管沙盒”,用于人工智能在開發和上市前階段建立受控實驗和測試環境來促進人工智能創新,以確保創新的人工智能系統符合本條例。“監管沙盒”模型起源于英國金融監督管理局在2015年提出的新監管理念,近年來英法等國已相繼展開數據監管沙盒空間的嘗試。“監管沙盒”可以真實地模擬人工智能的應用環境,進而為人工智能系統提供進行創新迭代實驗及監督實驗的安全的測試空間。發放“CE”標志。此行動類似于羅斯福行政時期推行《全國工業復興法》時期的“藍鷹標志”,符合《法案》要求的高風險人工智能系統應當懸掛“CE”標志,從而便于被人工智能系統受眾辨別。標注“CE”也更有利于人工智能系統在市場中的流通,不得對帶有“CE”標志的人工智能系統設置不合理的市場準入障礙。

二是人工智能系統價值鏈各參與者(即開發者、分銷者、部署者等)。任何一個人工智能系統都需要一個自然人作為法人為其負責。人工智能系統價值鏈參與者應當在系統開發同時設計出風險管理系統,其應當是個長期的可重復的系統。風險管理系統需識別風險或不利影響,并針對已知和可預見的不利情況預設應急措施。保存記錄和提供技術文件,尤其包含評估人工智能系統是否符合相關要求和促進市場后監測所需的信息。掌握關于高風險人工智能系統如何開發及其在整個生命周期中如何運行的信息,對于實現這些系統的可追溯性、核實是否符合本條例的要求以及監測其運行情況和市場后監測至關重要。

三是第三方監督。此處的第三方機構是較于行政機關與人工智能企業外的第三方監測機構,鑒于高風險人工智能系統的風險程度,需要為其制定一套適當的合格性評估程序,即所謂的第三方合格性評估。因此,作為一般規則,此類系統的合格性評估應由提供者自行負責進行。

(二)美國2018人工智能政策法案

2018年美國頒布了人工智能政策法案[13],旨在通過建立一個專門的人工智能中心來協調和推動聯邦政府在人工智能領域的活動,并提供相關培訓、資源和技術援助。

1、核心內容

一是新興技術政策實驗室。法案SEC.3授權在總務管理局(GSA)內設立新興技術政策實驗室來建議和促進聯邦政府的努力,以確保政府使用新興技術,包括人工智能,符合公眾的最大利益以及提高聯邦機構規則制定和新興技術使用的凝聚力和能力。該部分第一條職責規定新興技術政策實驗室定期召集來自行政機構、工業界、聯邦實驗室、非營利組織、高等教育機構和其他實體的個人,討論新興技術的最新發展,包括傳播有關聯邦機構的項目、試點和其他倡議的信息,以及這些技術的最新趨勢和相關信息。此舉旨在促進不同部門和機構之間的合作和信息交流,以推動新興技術的發展和應用。

二是咨詢委員會。法案SEC.4要求署長設立一個咨詢委員會,就與政策實驗室的使命和職責相關的問題向署長提供咨詢意見,并告知政策實驗室的優先事項和項目。每年,該咨詢委員會應在一個公開網站上公布一份清單,列出聯邦政府內部需要改進的領域,這些領域將受益于額外的技術或技術政策專門知識。

三是職業體系。SEC.6向人事管理廳下達指令,其必須確定與人工智能相關職位所需的關鍵技能和能力,并且建立一個職業體系,或修改現有的職業體系,以包括與人工智能相關的主要職責的職位。

2、爭議與策略

目前,美國關于人工智能監管的爭論主要集中在是否需要成立一個全新的聯邦機構來專門負責。OpenAI和微軟支持成立一個新的監管機構,認為這有助于更系統、更全面地監管人工智能技術的發展和應用。而谷歌傾向于反對成立新機構,認為應該利用現有的機構來進行人工智能的監管。

《人工智能政策法案》旨在通過設立實驗室來協調和促進聯邦政府在人工智能領域的努力,強調增強已有機構的功能而非創造全新的管理機構實體。不難看出,對比歐盟采取的更為嚴格和全面的監管方法,美國政府在人工智能監管方面的立場仍然較為保守,強調采取非監管措施,如政策指南或框架、行業內自愿的共識標準等,而不是法律強制性措施。這種策略旨在保持技術創新的靈活性與自由,同時試圖通過現有的機構和結構來應對新興技術帶來的挑戰。

與聯邦政府不干預的做法相反,一些美國城市已經推出了自己的措施來減輕人工智能的潛在道德危害。最近備受矚目的例子包括舊金山弗朗西斯科2019年暫停政府使用面部識別技術,以及波特蘭私營部門禁止使用相同的技術[14]。這些地方性法規的出臺顯示了各州在道德和安全方面的積極努力。然而,由于缺乏統一的國家法規,各州之間的標準存在巨大差距,人工智能監管力度在不同地區存在顯著差異。

對中國的政策啟示

2024年3月18日,中國初創公司月之暗面官宣其旗下的Kimi智能助手啟動內測,該公司系2023年10月首次推出該助手,僅僅半年便成長為國內第一款AI大模型,中國本土人工智能公司迎頭追上,相關鼓勵與監管措施應當跟進。

(一)激勵政策

人工智能大模型的算法編寫、模型迭代、運行成本等每一步都需要多產業多資源配合,因此激勵政策即基于人工智能模型投入運行的全過程提出。

一是鼓勵大模型算法開發。對于人工智能模型而言,算法是其最根本的內核,算法的發展需要充足的技術沉淀。現階段,國內的人工智能算法發展并不成熟,仍與世界一流水平存在差距。歐美的人工智能企業,如OpenAI、XAI,已經開始開源部分大模型算法,監管層面應當允許國內公司在保證算法安全的情況下使用國際開源的算法模型,以促進襁褓中的國內人工智能的算法迭代升級。同時,為追求算法安全,鼓勵中國本土的算法發展,可以設置國家級獎金用以激勵人工智能開發者。根據indeed統計的百份薪資報告為準,算法工程師年薪大約在30萬元,可由國家級部委牽頭,參考行業平均年薪設立激勵基金,以推動國產大模型的發展。

二是建立國家級優質數據庫。人工智能模型的運行需要算法,而人工智能的迭代進化則需要大量的數據。原始數據的準確性決定了產出結果的準確性,而產出結果的準確性還受到算法的影響。保障數據質量是正義的要求,保障正義能預防人工智能帶來的極端分化[15]。人工智能初創企業與目前大型科技公司間最大的區別就在于獲取優質數據的難易程度,大型科技公司有海量的數據可用以訓練人工智能模型,而初創企業則面臨獲取數據數量少、質量差、成本高的困境。出于促進創新及反壟斷的需要,應當建立國家統一的優質數據庫,并且以低成本向人工智能初創公司開放,以發揮中國數據量龐大的優勢,促進國內人工智能模型的快速迭代。

三是加大能源支持。荷蘭國家銀行數據科學家Alex de Vries估計,到2027年,整個人工智能行業每年將消耗85至134太瓦時(1太瓦時=10億千瓦時)的電力,這個電量足以匹敵肯尼亞、危地馬拉和克羅地亞三國的年總發電量[16]。人工智能的發展一定會消耗大量能源,為了跟上世界前沿腳步,應當對相關企業優先供能或優惠供能,在人工智能發展后期可以逐步取消這些優惠政策。人工智能發展需要能源,鼓勵光伏、太陽能等清潔能源發展需要更大的市場,二者形成良性循環。

(二)監管措施

人工智能濫用的風險是不可承受的,然而過多的監管政策又會制約初創時期的人工智能發展,需要在風險與發展之間尋求公平。現階段需要針對已出現的問題及時做出規制,同時降低執行成本,為企業減負。

一是設計用于人工智能數據監管的區塊鏈系統,形成“數據賬本”。區塊鏈技術通過提供去中心化和防篡改的賬本來安全地傳輸、存儲和驗證數據,為解決數據安全提供了強大且穩定的解決方案。[17]區塊鏈的不變性功能通過創建無法更改或篡改的數據交易的永久記錄來減輕這些風險。當數據記錄在區塊鏈上時,它被存儲在網絡中的所有節點上,形成一個去中心化和同步的賬本。利用區塊鏈的數據完整性,人工智能系統可以維護所用訓練數據的可靠和可驗證的記錄,由此提供一種方法來驗證AI大模型是否在準確且未篡改的數據上進行訓練,此舉將有力作用于數據安全、隱私權的監管。同時,區塊鏈技術因其去中心化的不可篡改性,運行日志的記錄將更加真實且可追溯,此舉將提升相關部門對于AI大模型的監管效率,可及時對違反監管規則的AI模型進行查處求證。

二是為生成式人工智能的產出打上“機械水印”,以避免“以假亂真”式的誤導。人工智能的生成內容愈發難以辨認,目前互聯網社交媒體上已經陸續出現大量生產式人工智能產出的文字、圖片、視頻,其中不乏誤導網民的內容。比如使用AI生成一段毫無根據的名人發表聲明或接受采訪的視頻,極有可能在互聯網上引起不利影響,誤導不知情的普通網民,此類情況的根本原因在于難以辨認這些子虛烏有的生成視頻。為了區分生成式內容與真實內容同時不影響生成內容的質量,給人工智能生成的文本添加標識符或是訓練能夠檢測出人工智能生成內容的人工智能是可行的監管方案[18]。為提高識別效率,可要求生成式人工智能企業在其模型產出內容上作出一種可供電腦機器識別的水印,此水印將不影響生成內容的呈現,并且在企業將其投入至公開互聯網時,投放者需要注明此內容系AI生成產品,從而為受眾注明風險,保障受眾的知情權、自由決定權。

三是設立專業的人工智能管理部門,建設“監管沙盒”。面對快速迭代、高不確定性的人工智能產業,設立一個專業的人工智能監管部門是必要的,當前許多人工智能算法存在黑箱操作的問題,缺乏透明度和可解釋性。為增強算法透明度,同時實現準確的分級監管,“監管沙盒”是有效的措施,其本質是為了平衡科技的創新性和監管滯后性之間的矛盾[19]。作為一個基于可控環境構建而營造出的安全空間,監管沙盒營造了真實的市場環境,給予其中的主體進行迭代驗證的空間及受監督的測試區域,在設立限制性條件并嚴防風險外溢的前提下,可以有效限制風險,并對人工智能系統進行風險等級劃分,以便后續監管。[20]

四是成立第三方評估機構,綜合審查人工智能模型。建立獨立的第三方評估機構對算法進行審查和評估,確保其公正性和準確性。同時,許多人工智能研究發生在大型科技公司中,這些公司通常沒有適當的倫理審查流程[21],因此在行業環境中建立第三方評估機構是必要的。第三方評估機構的設計參考美國公共圖書館等級評價系統及我國慈善組織第三方評估框架[22][23],該機構應當被視為政府財政預算的“守門員”,即為了節省監督成本而對人工智能系統進行初篩,將明顯不符合監管要求的AI拒之門外。

該委員會應當吸納各個專業領域的專家學者,尤其是具有高大的學科壁壘的行業,例如醫療健康、教育、保險金融等。總之,盡管現階段已有大量的規則對人工智能應用進行規范,但仍應當結合具體行業的要求進行更為細致的制度設計,從而將具體監管規則落地[24]。生命科學技術的高速發展常常在挑戰人類倫理,因此該領域成立了許多倫理審查機構,同樣在人工智能領域倫理審查組織也是不可或缺的。倫理委員會負責制定各類人工智能倫理原則和倫理指南,并根據這些原則和指南對各種機構擬開展的研究和機構用戶的應用進行倫理審查。[25]

結束語

世界潮流浩浩湯湯,在人類社會的發展中,科技的重大突破往往帶來整個社會的變革,人工智能的發展尤以生成式人工智能ChatGPT始,其更新迭代速度令人嘖嘖稱奇,作為第四次工業革命的焦點,各主流國家都在積極介入AI領域。中國具有人工智能發展的后發優勢,收集開源算法,迅速實現大模型的從無到有,總結已有監管模式,快速度過監管的幼稚期,尋找“規制”與“創新”的平衡點,刻不容緩。

“這里就是羅陀斯,就在這里跳吧!”

參考文獻

[1]European Commission. (n.d.). Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain UnionLegalActs. https://artificialintelligenceact.eu/the-act/.

[2]OECD.AI. (n.d.). The OECD Artificial Intelligence (AI) principles. https://www.oecd.ai/ai-principles.

[3]European Commission's High-Level Expert Group on Artificial Intelligence.Definition of AI, 2018.

[4]《生成式人工智能服務管理暫行辦法》,《中華人民共和國公安部公報》,2023(5):2-5頁。

[5]IDC:Worldwide Semiannual Artificial Intelligence Tracker. 2022.

[6]鄧建鵬、朱懌成:《ChatGPT模型的法律風險及應對之策》,《新疆師范大學學報(哲學社會學版)》,2023(5):91-101+2頁。

[7]馬長山:《AI法律、法律AI及“第三道路”》,《浙江社會科學》,2019(12):4-11+155頁。

[8]Alain Duflot. Artificial intelligence in the french law of 2024. Legal Issues in the Digital Age, 2024(1):37-56.

[9]朱悅(譯):《歐盟〈人工智能法〉定稿版本:全文中譯本》,https://aisg.tongji.edu.cn/info/1005/1192.htm。

[10]Eleftherios Chelioudakis. Unpacking ai-enabled border management technologies in greece: to what extent their development and deployment are transparent and respect data protection rules? Computer Law amp; Security Review: The International Journal of Technology Law and Practice, 2024, 53:105967.

[11]陸婷婷:《從智慧圖書館到智能圖書館:人工智能時代圖書館發展的轉向》,《圖書與情報》,2017(3):98-101+140頁。

[12]Thornton Rod, Miron Marina.Towards the 'third revolution in military affairs' . The RUSI Journal, 2020(3):12-21.

[13]U.S. Congress. AI in Government Act of 2018. 2018.

[14]Simonite, T. Portland's face-recognition ban is a new twist on 'smart cities'. https://www.wired.com/story/portlands-face-recognition-ban-twist-smart-cities/.

[15]李曉輝:《如何面對“無用階層”:人工智能與未來正義》,《華東政法大學學報》,2019(6):68-77頁。

[16]de Vries Alex. The growing energy footprint of artificial intelligence. Joule, 2023(10):2191-2194.

[17]Changqiang Zhang, Cangshuai Wu, Xinyi Wang. Overview of blockchain consensus mechanism. Big data Engineering, 2020:7-12.

[18]王悠然:《警惕人工智能的誤導性風險》,《中國社會科學報》,2023-03-06(03)。

[19]江翠君:《淺析金融科技“監管沙盒”在我國的適用》,《中國價格監管與反壟斷》,2023(2):69-72頁。

[20]龐林源:《國外數據監管沙盒建設實踐及啟示》,《軟件和集成電路》,2023(12):22-24頁。

[21]Ufert F and Goldberg ZJ. How SMEs ought to operationalize AI risk assessments under the AI act. Proceeding of the workshops at the second international conference on hybrid human-artificial intelligence co-located with the second international confer ence on hybrid human-artificial intelligence, 2023.

[22]劉波、宋茂榮:《美國第三方教育評估機構治理現狀與啟示》,《上海教育評估研究》,2023(6):53-57+64頁。

[23]任雯、李景平:《我國慈善組織第三方評估框架的理論構建》,《江蘇師范大學學報(哲學社會科學版)》,2024(2):42-57+123-124頁。

[24]Donnelly DustyLee. First do no harm: legal principles regulating the future of artificial intelligence in health care in south africa. Potchefstroom electronic law journal, 2022, 25.

[25]程新宇、楊佳:《人工智能時代人權的倫理風險及其治理路徑》,《湖北大學學報(哲學社會科學版)》,2024(3):159-166頁。

作者簡介

張文康 北京化工大學文法學院本科生,研究方向為公共管理理論與實踐

薛周一 昆明理工大學信息工程與自動化學院本科生,研究方向為人工智能

猜你喜歡
人工智能系統
Smartflower POP 一體式光伏系統
工業設計(2022年8期)2022-09-09 07:43:20
我校新增“人工智能”本科專業
WJ-700無人機系統
ZC系列無人機遙感系統
北京測繪(2020年12期)2020-12-29 01:33:58
基于PowerPC+FPGA顯示系統
半沸制皂系統(下)
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
連通與提升系統的最后一塊拼圖 Audiolab 傲立 M-DAC mini
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
主站蜘蛛池模板: 精品国产电影久久九九| 亚洲人成网站观看在线观看| 超碰aⅴ人人做人人爽欧美| 毛片免费视频| 伊人久久精品无码麻豆精品| 三级毛片在线播放| 亚洲另类色| 国产精品污视频| 欧美精品二区| 国产在线观看精品| 久久亚洲中文字幕精品一区| 国产真实乱子伦视频播放| 欧美日韩国产成人高清视频| 亚洲男人天堂2020| 粗大猛烈进出高潮视频无码| 国产人前露出系列视频| 日本91在线| 最新国产高清在线| 波多野结衣一二三| 色网站在线视频| 精品中文字幕一区在线| 亚洲婷婷六月| 国产精品护士| 久久黄色小视频| 亚洲综合中文字幕国产精品欧美| 亚洲精品无码高潮喷水A| 欧美精品高清| 欧美在线精品一区二区三区| 五月天婷婷网亚洲综合在线| 毛片卡一卡二| 成年人视频一区二区| 中文字幕在线观看日本| 国产人妖视频一区在线观看| 好吊妞欧美视频免费| 丁香婷婷激情网| 欧美成人亚洲综合精品欧美激情 | 亚洲大学生视频在线播放| 免费女人18毛片a级毛片视频| 国产成人精品一区二区免费看京| 一级毛片免费不卡在线| 无码精油按摩潮喷在线播放| 99re热精品视频中文字幕不卡| 欧美不卡视频一区发布| 成人精品免费视频| 国产福利一区二区在线观看| 欧美亚洲国产精品第一页| 国产激爽爽爽大片在线观看| 国产传媒一区二区三区四区五区| 欧美日韩亚洲国产| 国产经典三级在线| 久久久久无码国产精品不卡| 日韩毛片免费观看| 91精品啪在线观看国产91| 色综合婷婷| 精品国产一二三区| 国产一区二区在线视频观看| 99精品国产高清一区二区| 青青网在线国产| 色婷婷综合在线| 国产精品毛片一区| 亚洲精品成人片在线播放| www.youjizz.com久久| 91在线丝袜| 国产精品 欧美激情 在线播放| 91无码人妻精品一区二区蜜桃| 丁香亚洲综合五月天婷婷| 亚洲精品第五页| 亚洲国产精品无码AV| 国产成人亚洲欧美激情| 99久久这里只精品麻豆| 欧美性猛交xxxx乱大交极品| 天堂va亚洲va欧美va国产| 国产成人免费视频精品一区二区| 97一区二区在线播放| 久久青草热| 中日韩一区二区三区中文免费视频| 毛片免费试看| 国产日韩欧美在线播放| 国产毛片不卡| 亚卅精品无码久久毛片乌克兰| 欧美国产精品拍自| 四虎永久免费网站|