999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

從GPT邁向AGI:人工智能治理的未來路徑探索

2024-09-22 00:00:00呂昭詩李金平陳宇
科技智囊 2024年8期

摘 要:[研究目的]GPT(生成式預訓練模型)已經展現出未來AGI(通用人工智能)的技術端倪,AGI將成為未來社會的基礎設施,應用于各行各業。我國目前已經形成了“算法—深度合成—生成式人工智能”的治理推進脈絡,但從GPT邁向AGI的進程中,數據資源匱乏、算力供給短缺、模型開源建設落后、責任承擔不明確等問題仍是其發展的掣肘,因此亟待探索適應人工智能時代發展的治理路徑。[研究方法]立足于國內人工智能發展與治理的現狀,深入分析目前人工智能發展所面臨的問題,結合美國的靈活監管和歐盟的統一治理等國外人工智能治理經驗,從邏輯更新和政策優化兩方面破解人工智能目前面臨的發展困境。[研究結論]在邏輯更新方面,我國應在明晰AGI為可自主無限處理復雜任務的通用性人工智能系統的情況下,制定面向AGI的包容審慎人工智能治理新模式,重視倫理建設從而規避安全風險。在政策完善方面,應鼓勵數據共享流通,加大對算力基礎設施的投入,積極推動開源建設,完善人工智能生成物的責任承擔制度,以期促進我國人工智能的健康發展。

關鍵詞:數據;算法;算力;通用人工智能;人工智能治理

一、問題的提出

近年來以ChatGPT為代表的生成式人工智能技術席卷全球,邁進通用人工智能時代的曙光已經展現。在這一進程中雖然存在多模態AI、具身智能、類腦神經等多種進路,但由GPT大模型邁向AGI是研究最多也最具可能性的進路。2023年4月28日召開的中共中央政治局會議提出,要重視通用人工智能發展,營造創新生態。有學者指出,在未來,AGI會具備實現無限任務、自主生成任務、價值驅動且能實現價值對齊的特征[1],將成為未來社會的基礎設施,技術應用覆蓋各行各業。

任何行業的健康發展均離不開合適的治理路徑,良好的人工智能治理將通過制定和實施各種法規、政策和技術手段來實現,它們會確保人工智能的開發和應用符合倫理、安全和公共利益的需要。我國目前在人工智能相關技術治理方面已經積累了一定的實踐經驗,并在中央層面出臺了一系列文件,已經初步構建了由《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》等共同組成的生成式人工智能法律規制體系[2],呈現“算法—深度合成—生成式人工智能”的治理推進脈絡,但隨著人工智能技術的發展,越來越多的新問題又紛紛涌現。人工智能訓練優質數據短缺、算力資源遭遇瓶頸、模型開源建設落后、責任承擔機制不清等問題愈發突出。在訓練數據方面,目前我國的人工智能訓練數據仍十分匱乏,并且面臨著數據質量不高的隱憂和數據泄露的風險;在算力供給方面,優良芯片短缺和算力建設不完善導致的算力支撐不足,已經成為目前制約我國人工智能發展的重要因素;在開源生態方面,目前我國模型研發創新驅動不足,相比于國際上成型的模型開源體系,我國的開源生態建設仍不完善;在責任承擔方面,人工智能生成的內容往往真假難辨,此外模型“幻覺”生成的虛假信息已開始在社會中蔓延,而人工智能造成損害的責任承擔仍面臨諸多障礙。由此,在由GPT邁向AGI的新階段,我國人工智能治理體系亟待邏輯更新與制度優化。

二、現實挑戰:我國人工智能發展的實際障礙

自2015年《關于積極推進“互聯網+”行動的指導意見》首次提出發展人工智能以來,我國陸續出臺一系列有關人工智能發展和監管的文件。在國務院統籌規劃下,我國正在實施人工智能發展的“三步走”戰略,目標是到2030年,讓人工智能理論、技術與應用總體上達到世界領先水平,成為世界主要人工智能創新中心1。但面對未來通向AGI的現實治理需求,我國目前的人工智能治理仍顯得捉襟見肘,有以下主要問題尚待解決。

第一,數據資源匱乏。大規模的數據訓練是人工智能功能實現的基礎,但當前訓練數據面臨諸多問題,可供利用的數據資源極為匱乏。首先,數據共享機制尚未建立,數據流通不暢。不同機構和部門之間的數據壁壘導致了數據孤島的形成,限制了數據的充分利用。其次,數據來源良莠不齊,缺乏高質量的數據集,導致人工智能模型可能產生“幻覺”[3],即模型在處理不可靠數據時可能得出錯誤結論,這將給最終結果的數據帶來嚴重危害。第三,數據安全風險依然存在,一旦發生數據泄露等問題,將會給社會帶來巨大影響。數據泄露不僅威脅個人隱私,還可能導致商業機密和國家安全信息的外泄。

第二,算力供給短缺。隨著社會經濟水平的快速發展,各行各業對算力的需求急劇增加,然而,當前算力供給的短缺已經成為制約我國人工智能發展的瓶頸。一方面,我國算力的支撐設施建設相對落后,各地發展差異較大。尤其在一些欠發達地區,計算基礎設施建設十分滯后,限制了當地人工智能產業的發展。另一方面,芯片成為制約我國算力釋放的阻礙,高性能計算芯片是人工智能發展的核心硬件,但我國在這方面的技術積累和產業化水平仍與國際先進水平存在巨大差距。由于我國芯片研發的滯后與國外對我國芯片購買的限制,導致現有芯片無法滿足人工智能算力需求。

第三,模型開源建設落后。開源建設在人工智能開發中極為重要,開源軟件和平臺不僅能降低開發成本,還能促進技術創新和知識共享。未來我國將成為世界最大的開源項目應用市場,開源生態的合理建設迫在眉睫。然而,目前我國并沒有形成成熟的開源生態,國內人工智能廠商大多加入國外主導的開源生態中,核心技術受制于人。此外,國內開源項目數量有限、質量參差不齊、缺乏全球影響力等問題都進一步制約著我國人工智能產業的發展。

第四,人工智能責任承擔不明確。在當前的人工智能發展階段,人工智能生成物基本上屬于“排列組合式創新”,盡管在形式上人工智能生成物非常接近人類的創作內容,但其是否構成《著作權法》中認定的作品尚無定論。由此,人工智能侵權責任的承擔面臨著極大的爭議。目前我國立法暫未對此問題有針對性回應,這種責任的不明確性將導致未來在面向通用人工智能發展時面臨更大的法律風險。例如,人工智能生成的內容一旦涉及侵權,如何認定侵權主體和責任歸屬將是一個復雜的問題。

綜上所述,在由GPT邁向AGI的重要階段,數據、算力、開源建設、責任承擔等問題均亟待解決。我國可在分析借鑒國外人工智能治理政策的基礎上,逐步探索符合我國實際的人工智能治理道路,最終實現由GPT向AGI的健康發展。

三、比較借鑒:域外人工智能治理經驗

面對人工智能如火如荼的發展態勢,美國、歐盟等國家和地區已經開始對其展開針對性監管,以確保技術發展與社會倫理、法律框架相協調。美國在人工智能治理方面強調技術創新與市場驅動,鼓勵企業和科研機構積極參與人工智能研發。歐盟則采取了一種更加綜合和嚴格的監管方式,其通過《人工智能法》實施統一監管。此外,日本、韓國、加拿大等也在大力推進人工智能治理。

第一,美國采取靈活監管措施。美國采取的是較為靈活、分散和多元的監管模式。強調盡量少地采用“硬性”監管,鼓勵行政機構與私營部門合作,主要強調安全原則,參議院、聯邦政府、國防部、白宮等先后發布《算法問責法(草案)》《人工智能應用的監管指南》《人工智能道德原則》《人工智能權利法案藍圖》《國家網絡安全戰略》等文件,注重個人隱私權利的保護和產業發展的平衡,以“聯邦—州”二元立法結構建立符合產業現狀的人工智能治理模式,將提高透明度、反歧視作為監管AI的重要原則,利用技術標準和指南促進行業自律,提高治理效率。

同時,美國注重在各個州開展區域性治理實踐,由各個監管機構在其業務范圍內發布新規定或對現有規定進行解釋,將人工智能納入其職責范圍[4]。例如,美國《數據法案》要求擁有3 000萬以上用戶的互聯網平臺在使用用戶數據時,需告知用戶數據處理情況,獲取用戶明確同意,并保障用戶的撤回同意或要求刪除數據的權利[5]。《過濾氣泡透明度法案》則對平臺的算法推薦進行規制,要求大型互聯網平臺(實施某種行為時)需顯著告知用戶[6]。《算法正義和在線平臺透明度法案》則要求提高算法處理的透明度,清晰而充分地向用戶披露算法處理收集個人信息方法[7]。2023年1月,美國商務部的國家標準與技術研究所(NIST)發布了《人工智能風險管理框架1.0》(AI RMF1.0),目標是幫助設計、開發、部署或使用人工智能系統的組織和機構,提高人工智能風險管理的能力,并促進發展可信和負責任的人工智能[8]。

第二,歐盟實施統一治理。歐洲是世界范圍內人工智能立法的領跑者,其采取統一監管規則和行政干預為主的治理路徑,從“軟性”倫理規范原則走向“硬性”法律監管規則。早在2018年,歐盟便發布《歐盟人工智能戰略》和《歐盟人工智能協同計劃》,提出了要加強對算法風險應對策略的研究[9]。《歐盟通用數據保護條例》賦予用戶被遺忘權、可攜權等新型權利,加強用戶對個人數據的保護,同時規定所有數據處理者都應當設立“數據保護官員”,負責數據保護相關工作。《數字市場法案》則對處于優勢地位的“守門人”2的數據獲取與利用進行進一步限制。

2021年4月,歐盟提出《人工智能法案》,積極推動人工智能法案的統一立法工作。在此后的兩年中,《人工智能法案》立法工作進展迅速,2023年12月,歐盟委員會、歐洲理事會、歐洲議會三方就《人工智能法案》達成政治協議。2024年7月,最終確定的《人工智能法案》正式公布,成為全球首部人工智能領域的綜合性法規。該法案將以風險為基準對人工智能進行分類分級監管,并在歐盟內部設置了人工智能辦公室,統一負責人工智能的治理。

第三,其他國家逐漸重視。世界范圍內,以日本、韓國、加拿大為代表的發達經濟體也在逐步推進人工智能的立法工作,是人工智能發展重要的推動力量。韓國近期提出《人工智能發展新計劃》,計劃建立數字權利法案、確保人工智能的倫理可靠性;日本發布《生成式人工智能指導方針草案》,著力推進制定面向企業的人工智能責任承擔指導方針;加拿大公布《人工智能行為準則》和《生成式人工智能技術的基本原則:負責任、可信和隱私保護》等監管文件,旨在建設強大、負責任的人工智能生態系統。

在世界各國紛紛出臺針對本國的人工智能立法文件的同時,國際的人工智能協同立法進程也在加快,國際組織、發達經濟體之間的人工智能合作與交流愈發頻繁,以《布萊切利宣言》《美歐聯合申明》《促進人工智能風險管理互操作性的共同指南》《安全人工智能系統開發指南》等為代表的多國聯合文件紛紛出臺。諸多文件對人工智能的安全倫理、風險管理、行為準則等問題進行了明確規定,進一步推動了人工智能的規范化治理進程。

四、邏輯更新:人工智能治理的思路轉變

面向未來的通用人工智能,我國不應禁錮于傳統治理思路,而應隨著科技和社會的發展轉變治理思路,在明晰通用人工智能定義的前提下,采取面向AGI的人工智能治理新模式,注重倫理安全,確保人工智能安全可信。

首先,明晰通用人工智能定義。通用人工智能是人工智能發展到高度智能化階段的形式,對通用人工智能的探討恰能體現我國對人工智能治理的前瞻性。目前我國立法中并未有關于通用人工智能的一致性定義,但近年來我國部分政策文件對通用人工智能的定義做出了一定的探索,如公安部第三研究所的《通用人工智能AGI等級保護白皮書(2023版)》提出,一種能夠像人類一樣擁有智能、學習、推理、解決問題和適應新環境的人工智能系統,也稱為強人工智能3。同時,相關新興科技的立法也可以為通用人工智能的定義提供一定的參考。以生成式人工智能、深度合成技術為例,生成式人工智能技術被認為是指具備內容生成能力的模型及相關技術4,深度合成技術被認為是利用深度學習、虛擬現實等生成合成類算法制作文本、圖像等網絡信息的技術5。由此可見,我國對新興科技的定義往往是結合技術的實現路徑、應用形式、最終目的而做出的。在未來立法中我國亦可借鑒此定義方式,結合通用人工智能的學習自主性、任務無限性、價值認知性特點,對通用人工智能做出合理定義。

從這個角度來說,通用人工智能是指能夠在多個領域和任務上表現出人類水平或者超越人類水平的智能,具有自主學習、自我進化、自我決策等能力。雖然達到通用人工智能存在多模態AI、具身智能、類腦神經等多種進路,但最終要實現的目標卻是類似的:通用性、無限性、可處理廣泛和復雜的任務。從通用人工智能的共同目標出發,借鑒我國已有的生成式人工智能、深度合成概念,可以嘗試對通用人工智能做出合理性定義:可自主無限處理復雜任務的通用性人工智能系統。

其次,明確面向AGI的人工智能治理新模式。通用人工智能與傳統人工智能有著巨大區別,在運算方面,傳統人工智能依靠符號的編碼規則來進行運算,生成式人工智能則依托于經驗的概率預測[10],而通用人工智能則是依據經驗進行更為智能化的運算,具有更強的自主性、適應性、意識性和泛化性;在商業模式方面,未來的通用人工智能生態將會呈現“1個通用基礎大模型+N個行業專用子模型”的形式[11],即通用人工智能的基礎大模型將如電腦的操作系統Windows/Linux和手機的操作系統android/iOS一樣,在世界范圍內只剩下少量幾家人工智能基礎模型提供商,而有大量的專業模型服務提供商;在技術運用方面,人機交互將會成為日常生活方式,人工智能服務能力和用戶的自我運用綜合決定人工智能的最終用途。通用人工智能帶來的巨變將會對人類生產生活方式產生深遠的影響,人工智能的監管也需隨著科技的發展而創新,隨時修改和廢止各種不合時宜的、阻礙人工智能發展的監管政策,增強監管的適應性和靈活性。

我國的人工智能治理,既要立足于生成式人工智能發展的現狀,又要前瞻性地著眼于通用人工智能發展的未來,以問題為導向,堅持可靠、可控、可信原則,促進人工智能發展,保障人工智能安全。科學有效的創新性監管要在保障人工智能安全的同時促進人工智能的發展,可以從以下幾個方面著手:其一,建立試錯容錯監管制度,對于新興人工智能科技發展要保持寬容態度,設置合理的觀察期。對于人工智能在觀察期內產生的風險,在未對市場、用戶等產生重大影響的情況下可以適當減輕處罰或免于處罰,并對其進行風險防范合規指導[12],通過價格、聲譽、對話等柔性機制[13]來促進人工智能企業自我約束和自我完善;其二,構建公私多元主體協同的治理機制[14],人工智能監管要實現多部門之間的溝通協作,明確各部門的職責分工和協作方式,形成統一協調的監管政策和措施,避免政出多門而導致抵觸,以實現監管的有效銜接和協同。同時,要尊重市場規律和社會需求,平衡各方利益和訴求,實現多元主體的共同治理;其三,實行企業自我合規減責措施,要鼓勵人工智能服務提供者自覺遵守相關規則,建立健全內部管理和風險控制機制,對于在自我合規過程中發現并及時糾正的問題或者隱患,給予免于處罰或者減輕處罰的待遇;T8hV9FOhmYlsOGclPSdHxg==其四,推進人工智能先行試點機制,對于一些具有重大創新意義的人工智能領域,允許一部分人工智能企業在安全的前提下進行創新[15],即在一定范圍內放寬市場準入條件,允許企業開展創新活動,為人工智能創新提供政策空間和制度保障。

最后,注重倫理安全,確保人工智能安全可信。人工智能倫理涉及人類的價值、權利、道德等方面的規范問題,而將在社會中廣泛使用的通用人工智能,會對社會道德倫理和生產生活秩序有著重要影響,這需要通用人工智能承擔起相應的、多方面的社會道德倫理義務。目前,生成式人工智能所帶來的虛假內容、知識侵權等風險已然引發了科技倫理領域的劇烈討論。在由弱人工智能邁向通用人工智能的過程中,人工智能的自主性和意識性將會不斷加強,現有科技的倫理規范顯然不再適應未來人工智能技術的迭代革新,一旦缺乏倫理規范的有效規制,人工智能的發展便有可能走入歧途,甚至威脅整個人類社會。

隨著人工智能的逐步類人化,可以在人工智能發展的各個階段引入“人因工程”理念,令人工智能遵循人類社會的倫理道德[16]。具體而言,可以從以下幾個方面加強人工智能的倫理建設:其一,建立人工智能的倫理原則,明確人工智能的發展和應用應遵循的基本價值和目標,尊重人類的尊嚴、自由、平等,保障人類的安全、利益、隱私;其二,建立科技倫理的風險識別與跟蹤機制。科技倫理風險識別旨在基于風險分級的理念為后續差異化的應對機制提供初步的事實基礎[17]。因此,需要完善生成式人工智能領域的風險分級具體規則,在明晰分級規則的基礎上,開展風險識別與跟蹤工作;其三,建立科技倫理審查與監管制度,敦促技術研發使用者提高人工智能技術使用的規范性[18],確保人工智能的發展和應用符合倫理原則,及時處理人工智能的倫理問題和倫理糾紛;其四,加強人工智能的倫理教育,強化人工智能的倫理意識和倫理素養的培養,提高人工智能的倫理認知和倫理判斷的能力。

五、政策完善:人工智能治理框架的優化

為實現通用人工智能的健康發展,我國應從數據、算力、開源建設、責任制度等多方面入手,推動數據共享和流通,加大對算力基礎設施的投入,積極開展開源建設,明確人工智能生成物的侵權責任歸屬和知識產權保護,為通用人工智能的健康發展提供堅實保障。

第一,支持數據共享流通,不斷提升數據質量。生成式人工智能依靠大量數據訓練學習,缺乏足夠的數據支撐將使其舉步維艱。目前我國許多數據并未能夠充分流通和利用,應構建相應機制使數據充分發揮價值。用戶在處理和運用海量數據的同時也面臨著不良數據的使用和數據泄露的法律風險。數據泄露會侵犯用戶的隱私,企業數據泄露還可能導致不正當競爭或商業秘密曝光,政府數據泄露則將帶來更為嚴重的后果,包括侵害“重要數據”安全和“國家秘密”安全等特別利益[19]。為了有效防范和應對數據泄露的法律風險,可以從以下方面進行立法規制:其一,支持數據共享流通,建立數據共享平臺和標準化的數據接口,制定完善的數據交易規則和程序,激發創新活力和社會參與,鼓勵公共數據開放,為企業、科研機構和公眾提供豐富的數據支持;其二,建立數據處理環境安全防護體系,要求人工智能的服務提供者對其語料庫數據進行分類分級,根據數據的重要性和敏感性采取相應的安全保護措施,以防止數據被非法獲取、篡改、刪除等。同時,還應加強數據的風險監測和評估,定期檢查數據處理活動的安全性能,及時發現和修復數據安全漏洞,向有關部門報送風險評估報告,完善安全評估、認證和跨境標準合同的“三個并行”具體制度[20];其三,賦予人工智能的服務提供者數據透明義務,要求其向用戶和社會公開數據處理的必要信息,包括數據的類型、來源、處理方式、標注規則等,以保障社會公眾的知情權和選擇權,促進數據處理的可信和公開。

第二,加強算力設施建設,促進算力協同發展。算力是決定人工智能發展的關鍵要素,正如電力的發展需要全國完善的電力網絡作為基礎一樣,算力網絡的建設將關系到人工智能的未來發展高度。即使在算法沒有進步的情況下,僅依靠大模型的自我學習和大量訓練,其自身性能也會不斷進行優化,正所謂“量變引起質變”,而這些大規模的學習和訓練,均離不開其背后強大算力支撐。高性能芯片、算力中心、算力平臺是影響算力發展的關鍵因素:高性能芯片決定單元算力的釋放,算力中心影響算力的整體提升,算力平臺關系著算力的共享和協作。同時,“雙碳”目標之下,人工智能算力需要在節約能源與促進發展之間進行平衡,可將《民法典》的綠色原則引入人工智能立法,并借鑒《科學技術進步法》第三條第二款。具體來說,可以從以下幾個方面加強算力建設:其一,發展綠色算力,提升資源利用效率,實現算力供應的充足可持續;其二,加大高性能芯片的研發和生產,打破國外的技術封鎖,實現芯片的自主可控;其三,統籌建設分級算力中心,針對不同地區的發展和需求,將算力資源進行有效的分配和利用;其四,培育開放的算力平臺,實現算力的共享和協作,形成算力生態網絡。

第三,推進開源生態建設,實現科技進步與革新。大模型的訓練和優化是一個智力密集型工作,開源生態在人工智能技術發展中占據了極為重要的地位。在開源環境中,世界各地人工智能工作者能夠互相分享技術思路和新發現,促進科技的迭代革新。縱觀生成式人工智能的發展歷程,數據抓取、數據訓練、模擬架構等創新性技術均是在開源平臺上出現,經過開源社區人員的討論和實驗后逐步完善并應用。未來可預見的是,通過開源方式促進大型模型的發展將成為一種不可逆轉的趨勢,也是克服大數據和大算力障礙的有效方法[21]。我國的開源建設相比于西方仍存在較大差距,在面向通用人工智能發展進程中,我國也應完善自身的開源生態建設。一方面,應科學制定開源政策,在部分領域支持建立開源平臺,培育開源文化氛圍;另一方面,也應建立政府參與的開源監督機制,防止開源技術的不合理使用,最終形成良性運轉的開源生態。

第四,加強內容安全治理,完善責任承擔機制。生成式人工智能通過數據訓練和微調可以生成各種文本、圖像、視頻等內容,但這些內容面臨著很多潛在的風險和挑戰,如生成不良、虛假或違法信息,影響用戶的信息判斷和選擇,甚至危害公共秩序和社會穩定。加強人工智能內容安全監管,防止不實信息的傳播和誤導是時代所需,具體來說,可以從以下方面對該問題進行紓解:其一,支持建立和完善人工智能的自檢測和過濾機制,確保生成的內容基于既有事實和可靠來源,提高信息的真實性和可信度;其二,生成式人工智能服務提供者應明確告知用戶其生成內容的準確性,對不確定內容提醒用戶進行辨別和核實,避免誤導用戶、防止用戶對人工智能的盲目信任,如因未履行該義務而導致用戶或第三方受到損害,應承擔相應的法律責任;其三,應建立和完善生成式人工智能的辟謠和舉報機制[22],鼓勵用戶和社會組織參與信息內容的監督和核查,及時揭露和糾正不實信息,增強公眾的信息素養和防范意識。

同時,對生成式人工智能生成內容進行標識是重要的,這樣做既能有效實現數據的溯源,追責相關主體,又能對用戶進行有效提示,避免虛假信息的泛濫。在內容生成環節,人工智能技術服務者應當添加可識別的水印或警示信息,配備人工智能過濾審核機制。在內容展示環節,應當在合理的位置和區域進行顯著的標識[23],以提示公眾內容的合成情況,避免公眾的混淆或誤認。特別是在涉及醫療、金融、教育等關鍵領域的問答服務,應當進行更加明確的風險提示。在標識的形式上,應當根據不同的需求和內容類型,采取明標識或暗標識的方式,實現對內容的有效識別和溯源。

六、結語

人工智能技術的發展,不僅是科技進步的體現,也是社會變革的推動力。從GPT邁向AGI,是人工智能技術的必然趨勢,也是人類社會面臨的重大挑戰。通用人工智能是可自主無限處理復雜任務的通用性人工智能系統,未來將會成為社會的基礎設施。我國作為人工智能世界產業的重要參與者和引領者,應該把握好這一歷史機遇,積極應對這一現實問題,在注重倫理安全的基礎上,推進人工智能制度優化,構建適應未來的人工智能時代治理體系,促進人工智能制度優化,保障人工智能的安全可信。

注釋:

1. 國務院于2017年印發《新一代人工智能發展規劃》,對我國人工智能未來發展進行戰略部署,確立了新一代人工智能發展三步走戰略目標:到2020年人工智能總體技術和應用與世界先進水平同步;到2025年人工智能基礎理論實現重大突破,部分技術與應用達到世界領先水平;到2030年人工智能理論、技術與應用總體達到世界領先水平,成為世界主要人工智能創新中心。

2. “守門人”指的是在數字市場中占據支配地位的企業,這些企業需要承擔更多的責任和義務。

3. 《通用人工智能AGI等級保護白皮書(2023版)》術語和定義:通用人工智能(Artificial General Intelligence,AGI),是一種能夠像人類一樣擁有智能、學習、推理、解決問題和適應新環境的人工智能系統,也稱為強人工智能。

4. 《生成式人工智能服務管理暫行辦法》第二十二條:生成式人工智能技術,是指具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術。

5. 《互聯網信息服務深度合成管理規定》第二十三條規定:深度合成技術,是指利用深度學習、虛擬現實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術。

參考文獻:

[1] PENG Y J,HAN J H,ZHANG Z L,et al.The tong test:evaluating artificial general intelligence through dynamic embodied physical and social interactions[J].Engineering,2023,34:12-22.

[2] 劉霜,張瀟月.生成式人工智能數據風險的法律保護與規制研究:以ChatGPT潛在數據風險為例[J].貴州大學學報(社會科學版),2023,41(5):87-97.

[3] 鄧建鵬,朱懌成.ChatGPT模型的法律風險及應對之策[J].新疆師范大學學報(哲學社會科學版),2023,44(5):91-101,2.

[4] 陸凱.美國算法治理政策與實施進路[J].環球法律評論,2020,42(3):5-26.

[5] Data and algorithm transparency agreement act[EB/OL].[2024-01-05].https://www.congress.gov/bill/117th-congress/senate-bill/1477/text?r=2&s=4.

[6] Filter bubble transparency act[EB/OL].[2024-01-05].https://www.congress.gov/bill/117th-congress/house-bill/5921?q=%7B%22search%22%3A%5B%22%5Cu00aa0Filter%5Cu00a0Bubble%5Cu00a0Transparency%5Cu00a0Act%22%2C%22%5Cu00a0Filter%5Cu00a0Bubble%5Cu00a0Transparency%5Cu00a0Act%22%5D%7D&s=4&r=1.

[7] Algorithmic justice and online platform transparency act[EB/OL].[2024-01-05].https://www.congress.gov/bill/117th-congress/senate-bill/1896/text.

[8] 周志峰,胡奇,周健工,等.啟明創投x未盡研究:生成式AI報告[EB/OL].(2023-07-12)[2024-01-05].https://www.doc88.com/p-19029466638393.html.

[9] 騰訊研究院.人工智能時代的算法治理報告(2022):構建法律、倫理、技術協同的算法治理格局[R/OL].(2022-12-28)[2024-06-02].https://max.book118.com/html/2022/1220/5313213040010034.shtm.

[10] 王沛然.從控制走向訓導:通用人工智能的“直覺”與治理路徑[J/OL].東方法學,2023(6):188-198.

[11] 張璐.通用人工智能風險治理與監管初探:ChatGPT引發的問題與挑戰[J].電子政務,2023(9):14-24.

[12] 侯東德.人工智能法的基本問題及制度架構[J].政法論叢,2023(6):61-72.

[13] 馮俏彬.發展新經濟關鍵要改進政府監管“舊”模式[N].中國經濟時報,2016-10-31(5).

[14] 馬長山.數字社會的治理邏輯及其法治化展開[J].法律科學(西北政法大學學報),2020,38(5):3-16.

[15] 王偉.數字經濟治理體系的運行邏輯:以合作治理為視角的考察[J].電子政務,2023(10):14-27.

[16] SALMON P M,BABER C,BURNS C,et al.Managing the risks of artificial general intelligence:a human factors and ergonomics perspective[J]. Human factors and ergonomics in manufacturing & service industries,2023,33(5):366-378.

[17] 石佳友,劉忠炫.科技倫理治理的法治化路徑:以基因編輯技術的規制為例[J].學海,2022(5):185-195.

[18] 陳兵.通用人工智能創新發展帶來的風險挑戰及其法治應對[J].知識產權,2023(8):53-73.

[19] 鈄曉東.論生成式人工智能的數據安全風險及回應型治理[J].東方法學,2023(5):106-116.

[20] 張凌寒.論數據出境安全評估的法律性質與救濟路徑[J].行政法學研究,2023(1):45-61.

[21] 張偉男,劉挺.ChatGPT技術解析及通用人工智能發展展望[J].中國科學基金,2023,37(5):751-757.

[22] 張凌寒,于琳.從傳統治理到敏捷治理:生成式人工智能的治理范式革新[J].電子政務,2023(9):2-13.

[23] 張欣.生成式人工智能的數據風險與治理路徑[J].法律科學(西北政法大學學報),2023,41(5):42-54.

Moving from GPT to AGI: Exploring the Future Pathways of Artificial

Intelligence Governance

Lv Zhaoshi1 Li Jinping2 Chen Yu3

[1. China University of Political Science and Law, The Institute for Data Law, Beijing, 100088; 2. State Administration of Science, Technology and Industry for National Defence, Center for Military Project Vetting, Beijing, 100037; 3. National Development and Reform Commission, Center for Innovation Driven Development (Center for Digital Economy Research and Development), Beijing, 100038]

Abstract:[Research purpose] GPT (Generative Pre-training Model) has already shown the technology prototype of AGI (General Artificial Intelligence) in the future, and AGI will become the infrastructure of the future society, and be applied to all walks of life. China has already formed the governance of “algorithm-deep synthesis-generative artificial intelligence”, but in the process of moving from GPT to AGI, the lack of data resources, shortage of arithmetic supply, backward model open-source construction, and unclear responsibility are still constraints to its development. There is an urgent need to explore the governance pathways adapted to the development of AI era. [Research method] Based on the status quo of AI development and governance in China, we analyze in depth the problems it faced, and combine foreign AI governance experiences such as the flexible regulation of the United States and the unified governance of the European Union, so as to crack the development dilemmas faced by AI in terms of logic updating and policy optimization. [Research conclusion] In terms of logical updating, China should formulate a new model of inclusive and prudent AI governance for AGI and pay attention to ethical construction so as to avoid safety risks, while making it clear that AGI is a general-purpose AI system that can autonomously and infinitely handle complex tasks. In terms of policy improvement, we should encourage data sharing and circulation, increase investment in computing power infrastructure, actively promote open-source construction, and improve the system of assuming responsibility for AI-generated objects, with a view to promoting the healthy development of AI in China.

Key words: data; algorithm; arithmetic power; general artificial intelligence; artificial intelligence governance

作者簡介:呂昭詩,男,1997年生,博士研究生,研究方向為數據法學。李金平,女,1965年生,研究員,研究方向為科研項目評估。陳宇,男,1996年生,國家發展改革委創新驅動發展中心(數字經濟研究發展中心)干部,研究方向為數字經濟、平臺經濟。

主站蜘蛛池模板: 亚洲人成电影在线播放| 3p叠罗汉国产精品久久| 亚洲国产看片基地久久1024| 国产成人精品一区二区| 热久久这里是精品6免费观看| 99re视频在线| 日韩欧美中文字幕在线精品| 国产精品区网红主播在线观看| 美女被操黄色视频网站| 免费A∨中文乱码专区| 亚洲乱亚洲乱妇24p| 精品亚洲国产成人AV| 免费毛片全部不收费的| 国产成人a在线观看视频| 91精品综合| 香蕉eeww99国产精选播放| 永久在线精品免费视频观看| 欧美一区中文字幕| 国模私拍一区二区| 国产第一色| 欧美日韩福利| 婷婷成人综合| 国产精品自拍露脸视频| 亚洲中文字幕精品| 欧美成人看片一区二区三区| 色爽网免费视频| 97av视频在线观看| 亚洲国产日韩在线观看| 好吊色妇女免费视频免费| 91国内外精品自在线播放| 久久人体视频| 91久久大香线蕉| 色综合久久无码网| 亚洲男人的天堂久久香蕉| 日韩最新中文字幕| 91在线免费公开视频| 扒开粉嫩的小缝隙喷白浆视频| 国产免费久久精品99re丫丫一| 老司国产精品视频91| 久久中文字幕2021精品| 国产chinese男男gay视频网| 亚洲AV无码精品无码久久蜜桃| 激情在线网| 国产精品永久在线| 另类重口100页在线播放| 超清人妻系列无码专区| 美女被操黄色视频网站| 日本黄色不卡视频| 亚洲精品第五页| 久久精品中文字幕免费| 伊人成人在线| 国产91精选在线观看| 又污又黄又无遮挡网站| 一区二区三区四区日韩| 日韩中文无码av超清| 国产午夜在线观看视频| 免费在线成人网| 欧美一级爱操视频| 日韩无码白| 少妇高潮惨叫久久久久久| 456亚洲人成高清在线| 成人免费网站久久久| 丝袜高跟美脚国产1区| 奇米精品一区二区三区在线观看| 国产精品微拍| 青青草一区二区免费精品| 久久久久无码精品| 欧美日韩高清| 日本爱爱精品一区二区| 青青草一区| 激情無極限的亚洲一区免费| 强乱中文字幕在线播放不卡| 在线无码九区| 一区二区三区国产| 色综合网址| 中文字幕 91| 色综合手机在线| 国产精品无码一二三视频| 国产亚洲欧美在线专区| 国产精品久久久久无码网站| 欧美国产日产一区二区| 九九九精品成人免费视频7|