999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

通用人工智能創新發展帶來的風險挑戰及其法治應對

2023-11-06 05:00:27
知識產權 2023年8期
關鍵詞:人工智能

陳 兵

內容提要:以ChatGPT大規模模型訓練為代表的通用人工智能產業在創新發展過程中對社會秩序造成了一定沖擊,存在來自科技倫理、侵權歸責、知識產權壟斷、數據安全、算法操控等多方面風險挑戰,人工智能發展面臨信任危機。基于此,應重視通用人工智能產業治理,以《生成式人工智能服務管理暫行辦法》的施行為契機,建立健全生成式人工智能服務的相關行為規范和倫理指南,用系統觀念和法治方法來推動通用人工智能技術和產業在我國規范健康持續發展,促進其在“安全、可控、可解釋、可問責”的基本標準下創新發展。以問題為導向,以目標為牽引,在法治框架下盡快建立健全該領域科技倫理監督管理規范,不斷完善相應的侵權責任規范體系,統籌公平競爭與鼓勵創新雙重價值,加強和改進人工智能領域數據安全保障制度,重視和強化算法監管,實現多領域、多主體、多制度、多工具的協同聯動治理。

一、背景與問題

全球正處在新一輪科技革命和產業變革的歷史交匯期,繼工業化、信息化之后,智能化已經成為時代強音。①孫偉平、李揚:《論人工智能發展的倫理原則》,載《哲學分析》2022年第1期,第6-17頁。在國家數字經濟的政策推動與垂直行業高質量發展的需求帶動之下,人工智能技術和產業一直保持著高速發展態勢。隨著技術創新的日趨活躍與產業融合的不斷深化,生成式人工智能技術帶動各類應用百花齊放,智能自動化、推薦、搜索、決策等技術也已與企業運營、社會服務等方面深度融合,帶來了巨大的經濟和社會效益,在優化產業結構、增強經濟韌性、實現經濟從高速增長轉向高質量發展等方面的重要性越來越突出。②郭艷冰、胡立君:《人工智能、人力資本對產業結構升級的影響研究——來自中國30個省份的經驗證據》,載《軟科學》2022年第5期,第21-26頁。

一般而言,人工智能指基于一定信息內容的投入實現自主學習、決策和執行的算法或者機器,其發展建立在計算機處理能力提高、算法改進以及數據量指數級增長的基礎之上。③曹建峰、方齡曼:《歐盟人工智能倫理與治理的路徑及啟示》,載《人工智能》2019年第4期,第40-48頁。自1956年美國達特茅斯討論會上,約翰·麥卡錫(John McCarthy)首次提出人工智能概念以來,人工智能的發展并不總是一帆風順,其在經歷了由機器學習、神經網絡、互聯網技術驅動的三次繁榮發展期的同時,也遭遇了計算機算力不足、推理模型陷入瓶頸的兩次低谷期。④姜李丹、薛瀾:《我國新一代人工智能治理的時代挑戰與范式變革》,載《公共管理學報》2022年第2期,第6-16頁。半個多世紀來,人工智能從以知識驅動,到以數據驅動,現發展到以安全可控為核心的階段。隨著人工智能應用的深入和近期GPT-4等技術的爆火,新一輪生成式人工智能(AIGC)熱潮應運而生,也讓人們看到通用人工智能的能力水平,然而在使用過程中,其自身的技術缺陷以及其帶來的算法黑箱、決策偏見、隱私泄露、數據濫用等問題引發了信任危機。

黨的二十大報告指出,要“完善科技創新體系”“加快實施創新驅動發展戰略”“堅持創新在我國現代化建設全局中的核心地位”“加強知識產權法治保障,形成支持全面創新的基礎制度”。然而科技創新不只是包含高歌猛進的輝煌成就,通用人工智能是一把雙刃劍,其作為高度智慧化的人工智能形態,帶給人類社會的便捷與風險同在,技術應用引發的信任危機不利于人工智能的進一步創新和發展。習近平總書記在主持十九屆中央政治局第九次集體學習時明確指出:“要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控。”因此,我國在大力發展人工智能的同時,必須高度重視其帶來的安全挑戰,明確安全治理目標,綜合運用包括法規政策、標準規范、技術支撐在內的多項治理措施,實施敏捷治理模式,有效提高我國人工智能安全治理能力,確保人工智能安全健康發展。

為此,亟需有效審視現有法治與人工智能技術創新發展之間的適應性。國家互聯網信息辦公室等七部門聯合公布的《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》)于2023年8月15日起正式施行。從《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《征求意見稿》)到《暫行辦法》正式出臺僅3個月時間,其速度之快體現出我國對支持和規范人工智能技術和產業發展的積極態度與重視程度。然而,《暫行辦法》主要聚焦于事前規制,或者說是預防性監管,對生成式人工智能服務產生不當內容后如何解決,并未提供有效辦法。這在一定程度上說明,《暫行辦法》更聚焦于發展目標,很多監管要求和責任都是在現有法律法規基礎上的場景化,即通過立法銜接和對照來規范生成式人工智能發展中的具體問題,而對生成式人工智能產品和服務本身引發的責任還需要明確和細化。譬如,《征求意見稿》第15條曾提出“對于運行中發現、用戶舉報的不符合本辦法要求的生成內容,除采取內容過濾等措施外,應在3個月內通過模型優化訓練等方式防止再次生成”。這一條在內容上是對事后規制缺失的補足,但是基于需要判斷的內容過于復雜、“3個月”是否為恰當整改期限難以確定等因素,該條最終并未寫入《暫行辦法》。事后如何進行規制需要制度在實際運行一段時間后再予以補充或者另行規定,抑或是利用現有法律體系來應對生成式人工智能服務法律責任的認定與承擔。

鑒于此,現階段應對通用人工智能創新發展挑戰的關鍵在于提供一種兼顧倫理、技術和法律的治理框架,⑤趙精武:《生成式人工智能應用風險治理的理論誤區與路徑轉向》,載《荊楚法學》2023年第3期,第47-58頁。既要尊重科技發展的規律,又要符合科技倫理和法律治理的要求與邏輯。然而,從理論研究和實踐現況來看,目前對于通用人工智能治理的研究和實踐尚缺乏針對性、系統性、整體性及長遠性。亟待以系統科學的法治方法來保障和推動技術突破與高水平競爭間的良性循環,實現技術創新、產業創新、制度創新、文化創新的融合,推動通用人工智能的創新發展建設。對此,本文結合生成式人工智能這一代表性產品和服務所引發的問題,從個性入手探索因應通用人工智能創新發展的法治挑戰,從以安全為底線的可解釋性、可控性、可問責性等要求出發,討論生成式人工智能服務模型訓練中的數據、算法、算力等要素支持,擴展至對促進通用人工智能創新發展的法治保障問題探討,并在此基礎上提出未來促進通用人工智能創新發展的法治方案,以期豐富該領域的理論研究。

二、通用人工智能創新發展的基本價值要求

人工智能主要分為專用人工智能和通用人工智能。通用人工智能的概念誕生于1967年,但在ChatGPT和GPT-4等橫空出世之前并未真正引起足夠的重視。專用人工智能,又稱為“狹義人工智能”“弱人工智能”,指被編程來執行單一任務的人工智能,從特定的數據集中提取信息,因此無法在設計任務之外的場景下運行。專用人工智能有著明顯的特點,即功能性強,而互通性差。但隨著GPT-4大模型的出現,其展現出的強大自然語言處理能力,為通用人工智能“大數據模型+多場景”的實現開辟了新空間。

通用人工智能(AGI)又稱“強人工智能”“完全人工智能”“深度人工智能”,是具有一般人類智慧,可以像人類一樣擁有智能、學習、推理、解決問題和適應新環境的人工智能系統,其能夠在不特別編碼知識與應用區域的情況下,對多種甚至泛化問題予以解決的人工智能技術。若其能夠克服諸如數據獲取、算法設計、計算性能、倫理和法律等多種難題,則可以為解決許多領域的關鍵問題提供極大幫助,例如醫療和健康、環境保護、教育、金融和安全等領域。

雖然迄今為止還沒有出現完全達到通用人工智能水平的技術產品,但是有學者認為部分生成式人工智能已初步達到通用人工智能的水平⑥Sébastien Bubeck, et al., Sparks of Artificial General Intelligence: Early Experiments with GPT-4, arXiv preprint arXiv:2303.12712.。GPT-3.5所帶來的安全問題已經引起人們廣泛重視,由此可知,若出現真正能夠達到通用人工智能標準的技術產品,其所帶來的安全新問題更不容忽視。基于自主智能、數據依賴性、“算法黑箱”和“難以解釋”等特征,它在技術內生、應用衍生、數據安全和隱私保護等方面將面臨嚴峻的安全和倫理挑戰,并極可能在國家安全、社會倫理和個人生命財產安全等方面產生更加嚴重的后果和更加廣泛的影響。因此,如何確保通用人工智能創新發展對人類社會有益而無害,是人類目前需要面對的巨大挑戰,對人工智能治理的研究迫在眉睫。

(一)可信:通用人工智能創新發展的價值底線

可信是現階段通用人工智能創新發展需要遵循的首要原則或“帝王條款”,是人工智能治理政策制定的重點遵循。⑦陳吉棟:《人工智能法的理論體系與核心議題》,載《東方法學》2023年第1期,第62-78頁。隨著生成式人工智能服務的出現和人工智能信任危機的發酵,普通用戶從消費者的角度出發,對人工智能產品的態度愈發謹慎;學者從技術研究的角度出發,對人工智能模型的自身缺陷所可能引發的現實應用后果產生擔憂;而企業從經營的角度出發,不得不面對通用人工智能賦能數字經濟時所要解決的用戶信任、技術隱患及同行競爭等問題。

在此背景下,構筑可信人工智能體系已成全球共識。為了提高人工智能的可信性,歐盟曾于2019年8月正式發布了《可信賴人工智能道德準則》(Ethics Guidelines for Trustworthy AI)。該準則概括性地提出了實現可信人工智能全生命周期的框架,并提出了7個可信人工智能的關鍵要素,即人的治理(人的監督),技術強大性和安全性,隱私和數據治理,透明度,多樣性、非歧視性和公平性,社會和環境福祉,以及問責。⑧Ethics Guidelines for Trustworthy AI, https://digital-strategy.ec.europa.eu/en/node/1950/printable/pdf, 2023年5月7日訪問。

2019年2月,美國國家科技政策辦公室發布了時任總統簽署的《美國人工智能倡議》(American AI Initiative)。該倡議將可信人工智能定義為具有“準確性、可解釋性、隱私性、可靠性、穩健性、安全性”等特征的人工智能。⑨American AI Initiative, https://nsarchive.gwu.edu/document/18392-national-security-archive-white-house, 2023年5月7日訪問。經濟合作與發展組織(OECD)發布的《確定OECD的人工智能發展原則》將可信人工智能的特征定義為:尊重人權和民主價值觀,為包容性增長制定標準,以人為本的價值觀和公平性,透明度和可解釋性,穩健性、安全性,以及問責制。⑩OECD, AI Policy Observatory, https://www.oecd.org/digital/artificial-intelligence/, 2023年5月7日訪問。

在我國,中國工程院院士何積豐于2017年11月在香山科學會議上首次提出了“可信人工智能”的概念;?第一財經資訊:《專訪何積豐院士:達成可信的人工智能,最重要的支點在人》,載騰訊網2021年7月16日,khttps://view.inews.qq.com/k/20210716A07WBI00?web_channel=wap&openApp=false.同年12月,工業和信息化部發布了《促進新一代人工智能產業發展三年行動計劃(2018—2020年)》。2019年6月,我國新一代人工智能治理專業委員會發布的《新一代人工智能治理原則——發展負責任的人工智能》提出了人工智能治理的框架和行動指南。2020年6月,螞蟻集團在全球人工智能大會上首次公布了可信人工智能技術架構體系;2021年7月,京東探索研究院與中國信息通信研究院聯合在世界人工智能大會上發布了中國首個《可信人工智能白皮書》。兩家企業都將隱私保護、穩定性、可解釋性、公平性作為可信人工智能的四大基本原則。

綜上,盡管國際各界對可信人工智能的具體定義略有不同,但其核心的原則都包括了穩定性、可解釋性、隱私保護和公平性等基本技術原則。穩定性、可解釋性、公平性和隱私保護構成了可信人工智能的基礎。其中,穩定性指人工智能可以在存在各類環境噪聲以及惡意攻擊的情況下作出正確決策的能力,可解釋性是指人工智能作出的決策需要讓人能夠理解,隱私保護指人工智能系統保護個人或群體隱私不被泄露的能力,公平性指人工智能系統需要包容人的個體差異,公平對待不同群體。

(二)以人為本:通用人工智能創新發展的價值導向

通用人工智能創新發展的安全底線,主要包含人、技術、信任三個要素。其中技術是支撐通用人工智能產業蓬勃興起和行穩致遠的基石,信任是促進通用人工智能行業規范持續健康發展的支柱,人是可信人工智能法律政策的核心保護對象,以人為本是通用人工智能創新發展的基本遵循。實際上,信任問題并不完全取決于人工智能開發與應用的底層邏輯,還取決于法律對人工智能技術的理解與掌控程度。對通用人工智能除了呼吁技術發展以人為本,更需要從人工智能技術本身出發,強調提升人工智能算法與模型的可解釋性。所以,從以人為本的角度看,有意愿去推動通用人工智能的安全發展,只是解決用戶信任問題的第一步。問題的關鍵,還是在于能否從法律規范層面實現人工智能的可信性,促進其以人為本。

放眼全球,在各國的人工智能政策中,都強調了以人為本這一基本原則。2018年5月,具有史上最嚴格隱私和數據保護法之稱的歐盟《通用數據保護條例》(以下簡稱GDPR)正式生效。此后法國數據保護當局(CNIL)以違反GDPR為由,對谷歌處以創紀錄的5000萬歐元罰款,為應用人工智能等技術賦能經濟的全球企業打響了警告槍。?Allison Schiff, France Slaps Google with 50 Million Euro Fine - Largest Yet Under GDPR, adexchanger (21 January 2019),https://www.adexchanger.com/privacy/france-slaps-google-with-50-million-euro-fine-largest-yet-under-gdpr/.

近年來,我國為促進通用人工智能踐行以人為本已經進行了諸多路徑的法律探索和實踐。立法方面,上海市曾于2021年12月、2022年9月和2022年11月先后發布《上海市智能網聯汽車測試與應用管理辦法》《上海市促進人工智能產業發展條例》和《上海市浦東新區促進無駕駛人智能網聯汽車創新應用規定》,強調人工智能算法可信、倫理道德、治理與監管等方面,并針對智能網聯汽車領域技術標準、數據安全與個人信息保護作了詳細規定。

此外,《上海市促進人工智能產業發展條例》明確,上海市人民政府設立“上海市人工智能戰略咨詢專家委員會”,其職能在于能夠為人工智能發展中的重大戰略、重大決策提供咨詢意見,同時設立“人工智能倫理專家委員會”,負責制定倫理規范指南、推動參與國內外人工智能領域倫理重大問題研討和規范制定。

2021年7月,上海市經濟和信息化委員會、上海市市場監督管理局印發《關于推進本市新一代人工智能標準體系建設的指導意見》(以下簡稱《意見》)。測試評估方面,《意見》圍繞智能網聯汽車、醫療影像輔助診斷、視覺圖像身份識別、智能傳感器等賽道,加快構建完善可信人工智能評測體系,同時針對測試評估建立共性標準;安全倫理方面,《意見》提出加強安全倫理標準對人工智能發展的引導和規范,提升安全保障能力,建立積極的治理規則,從安全與隱私保護規范和應用場景安全規范兩大模塊強化標準研制,并建立安全風險等級體系。

隨著社會認知的深入,保障通用人工智能創新發展的參與主體將進一步豐富,產業鏈多主體、多要素協調互動。依據《網絡安全法》《數據安全法》《個人信息保護法》等法律法規框架,深圳、上海、北京等地加快推動人工智能立法,建立公共場所人工智能分級分類應用規范,形成具有地方特色的人工智能治理體系。行業協會、聯盟和研究機構發揮積極作用,聯合行業企業圍繞先行領域制定和發布行業標準,在安全性、可靠性等領域已經取得了一些成果可為通用人工智能朝著以人為本的方向發展提供參考。“人臉識別第一案”?郭兵與杭州野生動物世界有限公司服務合同糾紛案,浙江省杭州市富陽區人民法院民事判決書(2019)浙0111民初6971號。等具體案件引發了廣泛的社會關注,人民群眾對人工智能的了解和需求增加,參與程度大幅提升,從需求層面倒逼通用人工智能朝著以人為本的方向發展。

三、生成式人工智能技術帶來的風險與挑戰

科學技術是第一生產力,科學技術的進步是促進行業發展不可缺少的原動力。隨著生成式人工智能等人工智能技術的創新發展,人們一方面發現人工智能技術具有無限可能性,可以完成一些人們未曾想象能夠完成的任務;另一方面也意識到,與一般信息系統相比,人工智能安全挑戰可能帶來更加嚴重、廣泛和復雜的后果。

首先,通用人工智能安全事件不僅會影響設備和數據的安全,還可能導致產生嚴重的生產事故,危害人類生命安全。例如,給患者看病和做手術的醫療機器人,如果因為程序漏洞出現安全問題,可能直接危及患者性命。其次,一旦人工智能被應用于國防、金融、工業等領域,出現安全事件,將影響國家安全、政治安全以及社會穩定。最后,人工智能安全挑戰還會引起更加復雜的倫理道德問題,對于此類問題目前尚無好的解決方案。例如,生成式人工智能服務產品客觀上存在一定的技術缺陷,其太過依賴訓練數據中的統計規律,無法在網絡上抓取時事信息,也無法識別并核實數據來源,易導致算法歧視、霸凌、信息繭房等問題。

總之,人工智能技術發展和深度融合應用帶來的安全挑戰日益復雜。以生成式人工智能為例,其生成的內容難辨真假,且在運行中會采集我們使用過程中提供的大量數據。其應用實踐中出現了許多由不公平的設計、不穩定的模型結論與侵犯隱私等問題所引起的用戶信任危機,當中所牽涉的企業與用戶數量廣泛。生成式人工智能技術所帶來的便利與技術得不到信任之間的矛盾,已然成為人工智能發展創新中亟待解決的問題,其應用產生的風險主要包括以下幾個方面。

(一)科技倫理風險

開展科學研究、技術創新等科技活動不能脫離科技倫理的規范,這是促進科技事業健康發展的重要保障。當前,人工智能飛速發展帶來的日益增多的科技倫理挑戰,使人們意識到現有的科技倫理體系已經難以適應創新發展的現實需要。在應對生成式人工智能技術發展的同時,我們需要明確,隨著通用人工智能的出現,倫理是人類固有的而非技術固有的這一傳統觀念也許會發生變化。

目前,生成式人工智能服務可以生成文本、圖像、音視頻等內容,應用領域極為廣泛。然而針對其使用并沒有建立相應的技術使用規范,極易產生違反倫理道德的風險,從而引發人們對生成式人工智能服務技術應用的不信任。尤其是在由弱人工智能向強人工智能過渡的階段,人工智能的自主性不斷加強,傳統的倫理框架及人類的思維本質將因此面臨空前的挑戰。

生成式人工智能服務在新聞報道、論文撰寫等方面的能力極為突出,與此相生的便是該技術淪為部分使用者制造謠言和偽造論文的工具。學術刊物《自然》(Nature)曾多次刊發關于ChatGPT的分析文章,對ChatGPT等大型語言模型(LLMs)給學術界帶來的潛在混亂,生成內容存在的潛在侵權風險,以及如何規范使用等問題進行了多方面多維度的探討?See Chris Stokel-Walker & Richard Van Noorden, What ChatGPT and Generative AI Mean for Science, Nature, 614 (7947):214-216 (Feb.2023).。在此背景下,構建系統性的價值理念和行為規范,對于明晰如何使用生成式人工智能至關重要。上述內容不明確將直接導致學術規范問題、虛假信息和謠言傳播等科技倫理問題頻發,從而引發人們對人工智能的不信任,甚至會將這種不信任帶到未使用人工智能技術的情形中?陳兵、林思宇:《正視人工智能信任危機 加快推進可信AIGC發展》,載《第一財經日報》2023年4月25日,第A11版。。

除此以外,生成式人工智能服務通過數據和算法給予的答復也具有不確定性。答復內容是否符合一定的價值理念很大程度上取決于訓練數據的質量和算法的合規程度,因此在源頭上,通過提高數據質量,力促算法合規能夠使生成式人工智能所產生的內容本身盡可能地不違反現有的倫理體系。另一方面,隨著生成式人工智能的不斷迭代,部分生成式人工智能等技術已被認為初步達到了通用人工智能的水平,能夠擁有更接近人類的智慧水平。在此類生成式人工智能發展到一定程度后是否會自主擁有與人類相似的倫理觀念這一問題引人深思。為應對此種情況,有學者提出將人因工程理念(Human Factors Engineering,HFE)引入通用人工智能研發設計之中,因為伴隨技術不斷進步,通用人工智能會越來越接近人類,其接近甚至超越人類的學習能力,將人因工程理念嵌入人工智能生命周期的始終能夠盡可能實現諸如高階生成式人工智能等通用人工智能朝著安全、可信、可控等方向發展。?Paul M.Salmon, et al., Managing the Risks of Artificial General Intelligence: A Human Factors and Ergonomics Perspective,33 Human Factors and Ergonomics in Manufacturing & Service Industries 355, 355-429 (2023).

隨著人工智能向強人工智能時代邁進,其通用屬性不斷增強,人類極有可能難以掌控甚至難以參與智能生產的過程,科技倫理的規范也將愈發重要。

(二)權責劃分挑戰

近年來,谷歌、特斯拉和Uber等公司頻現無人駕駛致人死亡事件,使得人與人工智能誰該為此擔責的倫理爭論愈演愈烈。對于無人駕駛引發的法律責任承擔困境,美國麻省理工學院曾進行“道德機器”測試,收集全世界范圍內的數據樣本,“訓練”無人駕駛汽車的人工智能系統對駕駛過程中不常見的情形作出判斷,判斷的結果也就成為了無人駕駛的行動依據。這些行為導致的責任劃分則變得更加難以明確。因此,如果權責劃分在事前并不明確,則有可能致使人工智能產品朝著脫離社會倫理、法律規范的方向發展,并對經濟社會秩序產生危害。

一方面,人工智能領域的法律規范、倫理道德尚未健全,引發了許多侵權事件。在美國,莎拉·安德森(Sarah Andersen)、凱利·麥克南(Kelly McKernan)和卡拉·奧爾蒂斯(Karla Ortiz)三位藝術家對Stability AI和Midjourney等人工智能公司和平臺提起訴訟,認為其在訓練中所抓取的數據侵犯了數百萬藝術家的版權。雖然該案法官威廉·奧里克(William Orrick)在聽證會上表達了駁回該訴訟的傾向,但也表明這些藝術家可以在搜集更多證據后重新起訴。?Andersen, et al.v.Stability AI Ltd., et al., Docket No.3:23-cv-00201 (N.D.Cal.Jan.13, 2023).當侵權事件發生后,如何確定承擔侵權責任的主體、正確劃分侵權責任,成為了難題。“責任鴻溝”是安德利亞斯·馬提亞在2004年提出的概念,所指的是算法的設計者和運營者在算法自主學習過程中未能預測未來及其運行產生的后果,也就是說人對機器的行動并沒有足夠的控制權,因此無法要求其承擔傳統的機器制造者和操作者的過錯責任。?Andreas Matthias, The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata, 6 Ethics and Information Technology 175, 175-183 (2004).

另一方面,生成式人工智能技術具有“普惠性”,使用門檻和使用成本并不高,廣大人群普遍能夠接觸并使用該技術,這在一定程度上也提升了發生侵權事故的風險。以傳播謠言為例,利用人工智能制造虛假信息和謠言輕而易舉,部分用戶為增長流量故意傳播、制造虛假信息和謠言,會增加虛假信息傳播的頻率?同注釋?。。

在生成式人工智能服務應用情境下,人工智能的自主性增強,同時需要根據外部反饋進行生成內容的優化,再不斷輸出生成內容,傳統法律法規中的因果關系判斷在隱層眾多的算法黑箱中難以實現,面臨著規制不能的困境。這也加大了侵權事件發生后,救濟與維權的難度,在使用生成式人工智能服務的過程中,用戶權益難以得到有效保護,從而加劇了公眾對人工智能的不信任。

《暫行辦法》規定,提供者應當依法承擔網絡信息內容生產者責任,履行網絡信息安全義務。涉及個人信息的,依法承擔個人信息處理者責任,履行個人信息保護義務。這初步確立了人工智能領域責任承擔的基本規則,為后續規則的制定與實施提供了依據。然而,生成式人工智能在算法研發環節、使用環節的不當,同樣會產生侵權責任,此時若仍由服務提供者承擔責任顯然會損害服務提供者的積極性,應當建立合適的歸責制度。

(三)知識產權挑戰

創新是引領發展的第一動力,在推動高質量發展的背景下,知識產權作為國家發展戰略國際競爭核心要素的作用日益凸顯。隨著生成式人工智能服務的廣泛應用,人工智能大模型的訓練數據來源是否合法,其生成式內容是否能夠被稱之為作品以及相關權屬爭議,正成為人們關切的問題。

首先,生成式人工智能本身作為計算機程序能夠被視為知識產權所保護的對象已經成為人們的共識,但是對于實現其功能背后的海量數據訓練所涉及的知識產權問題仍存較大爭議。《暫行辦法》第7條規定,“生成式人工智能服務提供者(以下稱提供者)應當依法開展預訓練、優化訓練等訓練數據處理活動,遵守以下規定:……(二)涉及知識產權的,不得侵害他人依法享有的知識產權……”在此種情況下,數據來源的合法合規性值得重視,如何平衡數據中的知識產權保護與技術創新發展同樣值得討論。數據中的知識產權保護界限缺失或界定不明晰很容易引發“公地悲劇”,但如果過于強調數據的知識產權保護則會阻礙相關技術的發展,“反公地悲劇”也難以避免。?彭輝:《數據權屬的邏輯結構與賦權邊界——基于“公地悲劇”和“反公地悲劇”的視角》,載《比較法研究》2022年第1期,第105-119頁。

具體而言,對于如何平衡數據知識產權保護與技術開發創新發展,學界仍有較大分歧,其中,涉及生成式人工智能訓練所需的海量數據集的版權保護問題尤為值得關注,譬如傳統的“避風港”原則、合理使用原則等,在人工智能特別是在生成式等通用人工智能技術和產品的開發利用中如何調適。在我國現有著作權法律法規中,生成式人工智能對數據的使用是否構成知識產權侵權的最大問題在于使用行為是否屬于“合理使用”。目前我國關于合理使用的規定中,與生成式人工智能技術領域最為接近的情形大致有“個人使用”“適當引用”和“科學研究”三種情形。結合該技術的服務群體為多數不確定人群、商業化使用等顯著特點,現行法律很難將其使用歸入“合理使用”范疇之中,依賴海量數據進行訓練的生成式人工智能等技術很難擺脫侵權的風險,而一旦嚴格地按侵權處理則會阻礙該技術的創新。這是數據來源方面知識產權與技術創新之間平衡的難點之一。

其次,關于生成式人工智能的生成內容是否能夠被認定為作品存在較大的爭議。生成式人工智能生成內容的過程,很難擺脫人的影響。生成式人工智能首先建立在大量數據訓練的基礎上,根據使用者需求生成內容,并根據使用者的要求對內容不斷完善,因此很難認定其生成的內容完全由人工智能自主生成,故引發了生成內容是否能被認定為作品的爭議。有學者認為,著作權法保護意義上的作品須具備相應條件,生成式人工智能是模擬人類思維進行新創作的整體過程,其生成內容并不是人類的智力成果,并不包含思想或者情感的表達。但是,在實踐中也有少數國家將計算機技術創造的內容視為作品,例如英國《版權、外觀設計和專利法》?? Copyright, Designs and Patents Act (1988), Article 9 (3).(CDPA)第9(3)條規定:“對于由計算機生成的文學、戲劇、音樂或者藝術作品,其作者應該是作出了進行作品創作所必需的安排的個人。”英國通過立法的方式明確規定計算機所生成的內容為知識產權所保護的作品,不少國家也在實踐中將計算機生成之外的非人類活動的產物視為作品,所以人工智能生成的內容不能視為作品的傳統觀點可能也將得到改變。

另外,《暫行辦法》規定了提供和使用生成式人工智能應“尊重知識產權”。結合上下條文分析可知,立法者試圖通過在數據訓練等源頭環節解決知識產權問題,以此謀求生成內容不再有任何知識產權侵權等問題發生,但是這樣的規制思路似乎難以奏效。首先,對于用于數據訓練等源頭環節的數據使用侵權問題,在實踐和學界中仍存較大爭議,侵權行為難以定性。其次,即使能夠保證源頭環節的數據使用不存在任何知識產權問題,提供者也不能夠保證生成內容一定不存在所謂的“知識產權侵權”情形。當然,討論生成內容是否侵權的前提是該內容能夠被認作為作品,并且有相應的權利人。

關于生成式人工智能生成內容的權屬爭議問題,雖然沒有統一的觀點,但是人工智能本身不能成為作品的權利人已成為多數學者的共識。在美國“猴子自拍照”著作權爭議案中,一只猴子使用攝影師的相機自拍,有動物權益保護組織認為,自拍照版權應當歸猴子所有。對此,美國聯邦法院則認為美國版權法中的作者概念僅指向“人”,并不包含動物,因此版權法意義上的作品也必須是“人”的創作成果,猴子無法自行持有這些圖像的著作權。該案表明美國版權法不承認非自然人享有著作權等權益,故屬于非人范圍的人工智能也不享有著作權。英國法也沒有把計算機生成作品的權利賦予計算機本身,而是將其歸于某一個自然人主體。我國《著作權法》第2條規定,中國公民、法人或者非法人組織的作品,不論是否發表,依照本法享有著作權。可見,目前我國也并未將人工智能視為著作權的主體。

(四)數據安全風險

我國的數據要素蘊涵巨大的潛在價值,若數據要素的價值能得到充分釋放,遵循“潛在價值—價值創造—價值實現”的演進形態,必將對社會經濟發展起到重要推動作用。?? 陳兵:《科學構建數據要素交易制度》,載《人民論壇·學術前沿》2023年第6期,第68-80頁。在生成式人工智能技術中,數據安全風險大致可以分為兩類:一是訓練數據本身的內在安全風險,二是數據采集、使用等過程中的安全風險。

以生成式人工智能的數據大模型訓練為例,其訓練的結果直接依賴于輸入的數據,形成前所未有的數據匯聚。然而受數據采集條件的限制,來源于不同群體的數據所占的比例并不均衡,例如當下訓練語料大多是英文和中文,其他少數語種很難融入人工智能世界當中,具有一定的局限性。《暫行辦法》提到“鼓勵采用安全可信的芯片、軟件、工具、算力和數據資源”,其中安全可信的數據資源便是針對生成式人工智能的技術特點。由于訓練數據的質量會直接影響生成式人工智能的生成內容質量,有違倫理等要素的數據此時就可被稱為具有安全風險的數據,該數據資源便不符合安全可信的要求。

除此以外,生成式人工智能的數據采集和使用過程也極易產生數據安全問題。數據泄露是信任危機誕生的主要來源,而巨大規模的參數是實現生成式人工智能服務技術的關鍵,目前GPT-4的訓練數據量已達到13萬億。雖然目前主流的生成式人工智能技術服務提供者并沒有公布數據來源,但通過現有的披露信息可知這些數據主要使用的是公共爬蟲數據集和有著超過萬億單詞的人類語言數據集。某種程度上,生成式人工智能服務技術是未來超級數字助理的雛形,在智能基礎設施的支持之下,每個人甚至可以擁有多個數字分身,協同完成任務。可以想見,數字助理的背后是大語言模型訪問、鏈接個人以及企業的私有數據,數據的融合利用一定是無縫銜接的。此類數據的訪問處理如何以安全、合規、保護隱私的方式進行,對安全技術保障措施提出了更高要求。

隨著互聯網技術的發展,個人信息數量劇增,同時也變得更容易被采集。通過使用社交軟件、購物軟件以及交通軟件,用戶信息便可被輕易采集,而在智能設備使用過程中,諸如用戶生理信息、生物特征等更多種類的數據也可被獲取,多維度多方面的數據足以形成個人畫像,一旦泄露或被非法利用將對個人權益造成損害。最近爆火的圖像生成式人工智能軟件“妙鴨相機”顯露出的霸王條款問題,已引起人們對人臉信息保護的關注。“妙鴨相機”不同于ChatGPT等人工智能,其主要數據來源是用戶提供的二十一張照片,涉及預訓練的數據僅占很少部分。起初,“妙鴨相機”在使用條款中表述其對用戶數據享有“永久的、不可撤銷的、可轉讓的……非獨家的許可,使得我方可以任何形式……使用您的內容”,一系列表述立即引起用戶普遍不滿。隨著輿論的壓力,提供者不得不對相關條款進行修改。事后,也有相關業內人士表示,此類人工智能不僅能夠按照用戶意圖生成不同風格的圖片,甚至可以生成能夠通過公安系統審核的證件照片。

2023年8月8日國家互聯網信息辦公室公布的《人臉識別技術應用安全管理規定(試行)(征求意見稿)》對人臉識別技術進行了規制。目前,雖然市面上諸如“妙鴨相機”之類的圖像生成式人工智能軟件公司都明確表示該技術不具備人臉識別功能,但是此類人工智能所涉及的人臉信息處理技術,已然對現有人臉識別技術應用和人臉信息數據安全構成潛在威脅。以公安系統的人像信息采集為例,證件照本就是識別居民個人信息的重要手段,公安機關利用算法對人臉信息的關鍵特征進行甄別,最終研判出相關個人信息。而圖像生成式人工智能則是通過算法生成不同狀態、風格甚至不同年齡階段的照片,即在用戶提供的圖像基礎之上生成現實生活中“未曾存在”的照片,并且有可能使這些生成的證件照通過公安系統審核。此種情況下,由于人工智能也會采用獨特的算法對用戶照片予以調整,并且存在模糊用戶人臉特征信息的可能,這些生成照片會對數據的真實性構成威脅,致使人臉識別技術發揮不了人臉識別的功能。該類技術的應用可能出現用算法打敗算法的情況,倘若該類圖像充斥公安等部門的數據系統,將對公共安全、國家安全產生不可逆的損害。

可見,即使在服務運營商承諾對數據進行嚴格保護的情況下,數據安全問題依舊難以完全避免。數據安全是人工智能技術獲取人們信任的關鍵,倘若這一問題得不到解決,將阻礙人工智能的發展和應用。數據、算法和算力被譽為人工智能發展的三駕馬車,隨著用戶對隱私數據的保護意識加強、數據泄露所帶來的風險加大,如何在數據保護與數據驅動的人工智能研究中謀求兩全之策,是通用人工智能創新發展過程中亟待研究問題之一。

(五)算法操控挑戰

人工智能時代,除了嚴峻的數據安全問題之外,算法的統計性質所帶來的不可控性、人工智能系統的自主學習性與深度學習黑匣子模型的不可解釋性,也成為了導致用戶信任危機的新要素。

著眼技術研發層面,實現通用人工智能創新發展的技術途徑主要是數據與算法兩個方面。如前所述,數據問題主要集中在隱私保護和安全、數據偏見以及由此帶來的不公平,而算法問題則在于可解釋性與穩健性。從底層技術邏輯的角度來看,算法在生成式人工智能服務技術訓練的硬件基礎設施、應用程序中均扮演著核心角色,塑造了用戶的習慣與價值觀。?? 張凌寒:《網絡平臺監管的算法問責制構建》,載《東方法學》2021年第3期,第24-42頁。算法公平性的背后存在人為和非人為兩種基本因素。如果說企業利用人工智能進行大數據“殺熟”,是可控的企業道德問題,那么大部分算法帶來的挑戰,則很大程度源自人工智能系統本身的不可控技術缺陷。所謂的不可控是指,人工智能模型在決策過程中存在黑箱問題,即推理過程不透明。

首先,算法缺乏穩定性。針對生成式人工智能服務的數據和系統存在多種攻擊方式,例如病毒攻擊、對抗攻擊、后門攻擊等。舉例來說,通過向模型中投喂惡意評論,便可以從源頭數據上影響推薦算法的判斷,輸出不準確的推薦結果。另外,干擾的形式不限于數字形式,也存在物理層面的干擾,例如通過打印對抗樣本等手段,直接對自動駕駛和人臉識別系統造成物理層面的干擾。

其次,算法的可解釋性尚待完善。以深度學習為代表的機器學習算法,本質上是一個端到端的黑箱。一方面,人們對擁有巨大參數量的大模型內部的算法迭代方式和運作機理尚不清楚;另一方面,人工智能算法作出決策時具體受到數據庫中哪些數據的影響,人們也不清楚。譬如,曾有實驗者向GPT-3(自然語言處理模型)提問“新冠疫情何時結束”,它的回答是“2023年12月31日”。但答案的依據是什么?研究者無從解釋,也自然難保其準確率。

最后,算法偏見與歧視問題尚待解決。算法偏見與歧視的產生具有內外多重影響因素。一方面,若算法研發者在開發階段設置了具有歧視性的因素或者錯誤設置了某些參數,會導致算法天然具有歧視偏見的導向;另一方面,生成式人工智能在大規模收集數據的過程中,數據的不全面會導致算法進行學習后產生片面的結果,由于生成式人工智能的重要特點就是根據反饋結果不斷優化生成內容,因此外界的反饋結果中一旦含有偏見與歧視,也將影響最終的生成內容。

基于此,算法應用給生成式人工智能服務技術訓練帶來了根本性變革,算法崛起帶來的最大挑戰在于算法的不穩定性與不可解釋性。基于這些特點,人們常以“黑箱”一以概之,原因在于人們時常無法理解它的邏輯或其決策機制。?? 丁曉東:《論算法的法律規制》,載《中國社會科學》2020年第12期,第138-159頁。? 石佳友、劉忠炫:《科技倫理治理的法治化路徑——以基因編輯技術的規制為例》,載《學海》2022年第5期,第185-195頁。從“生產關系適應生產力”的角度看,監管應革新,以適應算法技術帶來的生成式人工智能服務訓練的演變。

四、通用人工智能創新發展的法治對策

當前,騰訊、百度等眾多國內科技企業紛紛表示將研發類生成式人工智能服務等技術產品。面對激烈的國際競爭和對安全的挑戰,正視生成式人工智能所引發的信任危機問題刻不容緩,否則此類信任危機將殃及整個人工智能產業,阻礙相關產業的持續健康發展。為此,應當著眼于前述挑戰,探尋多維度、多領域、多層次、立體化的治理基點,加快推進通用人工智能的創新發展。

(一)建立科技倫理監督管理規范

當前,在科技倫理治理領域仍存在體制機制不健全、制度不完善、領域發展不均衡等問題,難以滿足人工智能產業創新發展、提升競爭力的現實需要。為此,要加快建立多領域的科技倫理的監管和規范,加強科技倫理審查。一方面,應當對生成式人工智能服務應用的多個領域進行風險的精準識別與跟蹤預測,提高治理的反應速度與監管效能;另一方面,明確生成式人工智能領域的科技倫理規則,展開事前監管,推進全要素監管,引導企業合規。

第一,建立科技倫理的風險識別與跟蹤機制。科技倫理風險識別旨在基于風險分級的理念為后續差異化的應對機制提供初步的事實基礎。?? 丁曉東:《論算法的法律規制》,載《中國社會科學》2020年第12期,第138-159頁。? 石佳友、劉忠炫:《科技倫理治理的法治化路徑——以基因編輯技術的規制為例》,載《學海》2022年第5期,第185-195頁。因此,需要完善生成式人工智能領域的風險分級具體規則,充分利用現有的科學技術,深入評估生成式人工智能服務新技術在大規模市場應用前的安全隱患、技術成熟度、脆弱性等各方面,區分風險等級大小,對不同等級倫理風險的生成式人工智能服務進行不同嚴格程度的規范。在分級規則清晰的基礎上,展開風險識別與跟蹤工作。這在《暫行辦法》中也有體現,其規定在利用生成式人工智能產品向公眾提供服務前,應當向國家網信部門申報安全評估,并履行算法備案和變更、注銷備案手續。

科技倫理的風險識別與跟蹤機制的建立,一方面,有利于提升監管的明確性,保證監管可預期,引導生成式人工智能服務提供者合規,提高生成式人工智能服務產品的質量與包容性;另一方面,有利于通過預防性措施,發現其數據來源、運行路徑、輸出內容等方面所存在的缺陷或風險點,有效規避風險,避免事后規制的遲滯,從而提高生成式人工智能服務的可信度。但同時,若事前審查的范圍與程度設置不當,可能會抑制生成式人工智能服務新技術產品的研發與訓練效能,客觀上會導致其發展的降速。因此,需要在統籌安全與發展的基礎上,設置合理的審查范圍,把握安全與創新的平衡。

第二,要加快建立科技倫理審查和監管制度。2023年4月4日,科學技術部發布關于公開征求對《科技倫理審查辦法(試行)》意見的公告。該辦法“主要是規范科技倫理審查的程序、標準、條件等,是覆蓋各領域科技倫理審查的綜合性、通用性規定”。?? 《關于〈科技倫理審查辦法(試行)(征求意見稿)〉的說明》,載中華人民共和國科學技術部官網2023年4月4日,https://www.most.gov.cn/wsdc/202304/t20230404_185388.html.其第4條提出科技倫理審查應堅持科學、獨立、公正、透明原則,公開審查制度和審查程序,客觀審慎評估科技活動倫理風險,依規開展審查,并自覺接受有關方面的監督。

科技倫理審查等外部監管方式較備案、自評估等制度來說強制性程度更高,能夠敦促技術研發使用者提高人工智能技術使用的規范性,以明確的準則切實規范對人工智能的道德層面約束,能夠有效提高人工智能的可信程度,維護社會公平正義、保障公眾切身利益。

(二)完善侵權責任認定與承擔規則

任何法律責任的實現均以責任主體的存在和確定為前提,以歸責原則為依據。雖然說人工智能自主性的不斷提升打破了侵權責任因果關系的傳統理論,并出現了歸責不能的困境,但從人工智能運行的底層技術邏輯來看,人工智能算法從設計研發到應用部署的每個環節都存在價值觀和主觀意圖層面的影響,因此,可將人工智能算法設計部署的主觀過錯作為追責的根本依據。

第一,采用預防性責任方式。預防性責任方式要求根據不同的具體環境損害情形采用具有預防性功能的責任方式的變形形式。生成式人工智能服務的創新應用涉及數據處理者、算法開發者、服務提供者、使用者等多方面的利益衡量,在制度設計上不宜采取在“禁止使用”與“受害人完全忍受”之間二擇一的途徑,以避免使此類訴訟救濟的途徑成為一種“零和游戲”,而應允許中間排除或部分排除的可能性。[27]胡衛:《論礦害責任承擔規則與責任方式》,載《政法論叢》2015年第2期,第121-128頁。

因此,《暫行辦法》也對提供生成式人工智能產品或服務提供者提出了較為嚴格的要求,尤其體現在信息數據安全、知識產權保護、倫理風險規制、算法訓練優化等方面。若預防性責任過于嚴苛導致合規成本過高,則會扼殺企業的創新模式。人工智能的新領域往往具有較強的不可控性與不可預知性。為此,《暫行辦法》的責任預防性價值取向之一正是確保安全,并非完全承襲既有的網絡技術先發展再治理的理念,而是希望明確新興領域發展的底線與紅線,避免技術產生的不可控的風險深度嵌入社會結構,進而出現難以應對的局面。

第二,明確責任承擔主體。《暫行辦法》規定,提供者應當依法承擔網絡信息內容生產者責任,履行網絡信息安全義務。這一規定明確了責任承擔主體為生成式人工智能服務提供者。然而,生成式人工智能是一條價值生產鏈條,其依托海量數據參與預訓練大型語言模型,可以應對C端的便捷交互、內容生成、簡化工作等需求,同時也具有面向企業、面向B端的行業化、場景化服務的能力,例如以人工智能技術為驅動的自動駕駛、利用行業或企業獨特數據資源訓練的醫療大型語言模型等。因此,面對生成內容應用的多領域、多主體,服務提供者往往難以對生成應用的風險進行完全的控制,故將責任承擔完全歸于服務提供者有失偏頗,應當考慮采用“避風港”原則,在《暫行辦法》的基礎上對提供者的責任與義務進行進一步細化規定,即沒有完成規定義務、采取必要措施防范風險的服務提供者才應當承擔責任。同時,提供者難以知曉或控制多領域應用的用途,對于主觀上不存在過錯的服務提供者,應當適用過錯責任原則,不承擔侵權責任。明確責任承擔主體與歸責原則,有利于在提前防范風險的同時,激勵人工智能產業創新發展,避免打擊產業創新的積極性。

大型語言模型帶來的是認知突破和范式轉變,不同行業的企業可借助通用模型的訓練,培育出各自具備智人般的復雜推理能力和認知能力的模型。對于企業端的運用規制,目前《暫行辦法》中尚未表明基本態度,亟待進一步明確。

第三,規范賠償損失責任方式。宏觀上,賠償損失是對受害人價值利益的賠償,僅能保障受害人的金錢價值利益。[28]李承亮:《侵權責任法視野中的生態損害》,載《現代法學》2010年第1期,第65-75頁。微觀上,人工智能產品或服務所致的倫理秩序、生命抑或情感等損害,金錢賠償難以全部彌補。為保證受害人得到充分賠償,《暫行辦法》應與《民法典》《刑法》等做好充分的銜接與互補,探尋合理的賠償計算方式,總結出對完整利益救濟的最佳責任方式。法院則應在充分考慮人工智能可行性和經濟性的基礎上,分階段進行利益衡量與動態考察,優先考慮維持受害者長遠利益和社會整體利益的責任承擔方式和適當的賠償金額。

侵權行為發生后,在責任判定過程中可以參照適用《民法典》,即若是由他人產品缺陷造成損害的,侵權責任則應由提供者承擔,并且提供者應當對被侵權者的賠償請求負責。如果平臺能夠提供充足的證據證明其已經盡到相應注意義務,出于平衡科技創新與權利保護的考慮,在責任的承擔上不宜施加嚴格責任,否則過于嚴苛的責任承擔將會阻礙技術的開發和未來的商業化應用。

(三)統籌公平競爭與鼓勵創新雙重價值

生成式人工智能服務是以數據資源為關鍵要素,以現代信息技術為主要載體生成新的文本、圖像、音頻和視頻等各種形式內容的一種新經濟形態。生成式人工智能的浪潮為算力基礎設施、人工智能平臺即服務等眾多數字產業提供了新的發展點與市場空間。對于生成式人工智能服務,一方面需要保護知識產權,另一方面也需要競爭規則的規制,既要保護競爭也要激勵創新,亟待尋求知識產權保護與反壟斷之間的平衡。

知識產權屬于私權,具有獨占性,其預設的壟斷權具有合法性,被用以加強市場力量,如果被濫用,可能會排除、限制競爭;而反壟斷法屬于公法范疇,用于限制壟斷權,尊重私權(知識產權),但防止權利濫用,如果知識產權的行使排除、限制競爭,則同樣受到反壟斷法的規制。生成式人工智能背后的文本生成模型,具有規模龐大、自監督型訓練和強通用性的技術性特點。這就意味著模型構建、訓練和運維需要大量人力、算力和數據,而訓練完成后的大規模通用型人工智能在某一特定領域內完成任務的能力則可以較為輕松地超過專門針對該領域所設計的中小型人工智能。

換言之,生成式人工智能產業前期投入大、研發周期長。但在發布后,其高效率、相較于其他途徑的低成本和廣泛的適用性,將使研發企業在市場上獲得巨大的競爭優勢。對于生成式人工智能服務的壟斷風險,要兼顧知識產權保護與反壟斷,兼顧保護競爭與激勵創新。

首先,要堅持包容審慎監管原則,鼓勵創新。一方面,要鼓勵創新,為生成式人工智能產業營造適宜發展、有效競爭的市場環境。只有建立起一個公平、開放、有序的市場環境,才能保障生成式人工智能的健康發展和社會效益。另一方面,應當關注其上下游產業存在的壟斷風險并及時規制。譬如,生成式人工智能的應用可能促進大型科技公司實施縱向一體化戰略,從而產生壟斷和反競爭的效果,這需要監管機構對芯片、云計算和下游應用市場的壟斷規制予以關注,必要時進行有針對性的規制。

其次,應建立健全人工智能領域市場規則。面對數字技術快速發展導致競爭樣態不斷翻新、涉知名網絡公司和頭部企業的網絡競爭案件層出不窮的現象,需要加強對行業競爭的規范指引、提升司法裁判的示范作用。譬如,北京知識產權法院2023年上半年發布的典型案例大多與數字經濟領域息息相關,總結了相關案件的裁判規則。其中,蟻坊公司擅自抓取微博后臺數據構成不正當競爭行為,此類新型競爭行為在此前存在規制上的爭議與困境,而典型案例的發布使得新興領域的市場規則逐漸明晰。

(四)改進人工智能數據安全保障

近年來我國對于人工智能等新技術逐漸邁入常態化監管階段,始終秉持發展與安全并重的原則,力圖實現新技術健康可持續的高質量發展。數據是喂養算法的原料,可謂人工智能的基礎,數據安全的重要性不言而喻。同時,生成式人工智能作為大模型,對數據規模有更大的要求,更需要著重考慮加強數據安全保護、降低數據安全風險方面的需求。[29]范玉吉、張瀟:《數據安全治理的模式變遷、選擇與進路》,載《電子政務》2022年第4期,第119-129頁。

第一,建立健全數據分類分級保護制度。需要結合人工智能服務應用的領域、人工智能底層算法的特性,建立健全數據分類分級保護制度。同時,應該在數據分類分級的基礎上,建立與不同類型數據以及不同風險級別數據相匹配的數據安全保護機制,實現對生成式人工智能大模型大規模參數的有序管理。在通用人工智能的治理建設中應堅持以數據安全保護為導向,依據數據所具有的可共享性、復用性、多歸屬性、高度動態性以及使用加權屬性等特征,統籌數據的發展和安全,運用場景化、動態化的方法,做好數據的分類分級及其制度實施,搭建起數據分類與分級的貫通機制。[30]陳兵、郭光坤:《數據分類分級制度的定位與定則——以〈數據安全法〉為中心的展開》,載《中國特色社會主義研究》2022年第3期,第52-62頁。

第二,加快完善數據交易制度。生成式人工智能對數據的依賴程度極高,海量的數據訓練以及算法的不斷優化,能夠使生成內容更加準確,并且符合人類預期。《暫行辦法》提到“鼓勵采用安全可信的芯片、軟件、工具、算力和數據資源”,高質量、低風險是安全可信的數據資源的應有之義。目前,生成式人工智能技術的訓練數據多來自于互聯網上的文本數據。這些數據的質量參差不齊,隱藏的風險也無法預估,降低此類數據的風險,一方面主要依據算法的優化和數據標注工作等多層面的協作;另一方面,可以通過加快數據分級分類上市交易,通過市場的特性提高交易數據的質量,并將這些安全可信的數據廣泛用于數據訓練,進而一定程度降低人工智能技術提供者的研發成本。

第三,需進一步加強數據安全的全鏈條監管,推動監管前置。《暫行辦法》明確提出,提供者應當根據國家網信部門和有關主管部門的要求,提供包括預訓練和優化訓練數據的來源、規模、類型、質量等描述,人工標注規則,人工標注數據的規模和類型、基礎算法和技術體系等。通過監管前置進行事前保護,能夠引導人工智能的訓練過程更加規范,避免風險發生后監管滯后導致損害不可挽回,從而更好地保障用戶的知情權、選擇權等權益,提高算法的可信度。

最后,還需要審視現有的隱私保護與合規機制,不斷更新、完善數據合規思路。當前移動互聯網個人信息保護實踐對于必要性原則的解釋非常嚴格,以最大程度地避免數據的不當收集與匯聚。例如《常見類型移動互聯網應用程序必要個人信息范圍規定》不僅針對每類應用區分了基本功能與附加功能,還針對基本功能收集的必要信息進行了明確。在大部分基本功能中僅能收集兩三類個人信息,例如定位和導航功能僅能收集位置信息、出發地、到達地三種信息;《App違法違規收集使用個人信息行為認定方法》更是明確:不得僅以改善服務質量、研發新產品等理由收集個人信息。這種“嚴防死守”的數據合規思路是否適合未來的人工智能應用場景值得探討。

從移動互聯網到我們正在步入的人工智能時代,雖然數據利用一直在向更廣更深的方向發展,但各類新技術應用仍將隱私保護作為價值對齊的重要方面。應明確隱私和數據安全的真諦從來就不是對數據的使用進行各種限制,或者人為提高數據使用門檻,而在于通過激烈的市場競爭、健全的法律機制和更加強大的技術安全措施來切實保障用戶隱私與數據安全。

(五)強化人工智能算法監管

生成式人工智能服務的快速發展,不僅表明大模型對數據規模和參數量需求的爆炸性增長,也表明算法迭代的復雜程度極大提高,算法的透明度與可解釋性受到了前所未有的挑戰。面對來勢洶洶的算法危機,應圍繞人工智能算法構建綜合治理體系,針對人工智能算法進行專門性、系統化治理。

首先,應健全預防算法歧視的法律法規體系及規制機制[31]相關研究參見胡晶晶:《破解公權力領域的算法歧視:權力正當程序的回歸》,載《知識產權》2022年第4期,第76-95頁。,重點關注算法源頭數據集以及訓練數據樣本來源是否合法、是否達到一定規模、是否具有完整性與代表性,避免數據層面的不完善導致產生算法歧視。服務提供者需要及時檢查并更新相應數據,對存在歧視性的特定數據內容予以剔除,同時保證數據來源達到一定規模并具有完整性。一方面,可通過《網絡安全法》《數據安全法》等法律規范,為算法治理活動明確合理邊界,賦予服務提供者相應的注意義務。另一方面,可以通過對特定領域如人臉識別、算法推薦的專門立法實現對人工智能應用中算法活動的精準監管,形成對特定應用領域中算法風險的間接識別和應對。[32]王德夫:《論人工智能算法的法律屬性與治理進路》,載《武漢大學學報(哲學社會科學版)》2021年第5期,第20-40頁。

其次,應在保證算法透明度與可解釋性的同時重視創新。面對生成式人工智能服務,應積極回應人工智能算法相關的技術屬性和應用規律,對人工智能算法治理的基本策略有所掌握和判斷。《暫行辦法》規定了服務提供者安全評估制度,并規定有關主管部門依據職責對生成式人工智能服務開展監督檢查。以上規則的建立對生成式人工智能算法的透明度提出了要求,然而不能一味要求提升生成式人工智能的透明度。一方面,面對參數量和算法隱層的劇增,算法公開透明的技術難度顯著增加;另一方面,透明度的提升很有可能會損害研發、應用主體的創新積極性,因此,需要保證創新與透明度之間的平衡。

最后,應堅持算法多元共治。在全國范圍內成立自治性行業監督管理委員會,對人工智能技術行業進行業務指導和監督。委員會利用專業層面的優勢,將分類分級監管原則貫徹落實,根據人工智能的應用場景對算法進行分級治理,輔助監管部門完成算法備案、算法審計及算法問責等工作,在此基礎上推動通用人工智能技術在內容生成上的合理適用,在規范適用中不斷完善通用人工智能算法的開發、使用及治理。

結 語

戰略性新興產業是引領未來發展的新支柱、新賽道。數字時代的法治圖景應預見通用人工智能全球治理的未來形態。通用人工智能時代已經不遠,生成式人工智能技術在短時間內飛速發展,其應用領域之廣也讓人們看到通用人工智能的革新意義,人工智能產業已經成為未來全球范圍內新的競爭點。與此同時,通用人工智能產業創新發展也面臨科技倫理、知識產權、歸責機制、數據安全和算法操控等問題,使得人工智能的可信程度受到挑戰。因此,需要進一步構建人工智能產業的法律規范體系,完善人工智能產業的科技倫理治理生態,出臺相關行為規范和倫理指南,推動人工智能產業在法治軌道上健康持續發展。針對上述科技倫理挑戰、責任侵權挑戰、知識產權和壟斷挑戰、數據安全挑戰、算法操控挑戰等問題布局研究,尋求可行的技術手段,通過建立科技倫理規范、完善侵權責任規制體系、保護競爭并激勵創新、加強人工智能數據安全保障、規范人工智能領域算法監管等方式,掃除通往通用人工智能創新發展道路上的攔路虎。

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 一级香蕉人体视频| 一级毛片在线播放| 国产成人欧美| 精品国产aⅴ一区二区三区| 麻豆国产在线观看一区二区| 亚洲欧美日韩色图| 欧美激情第一区| 国产手机在线小视频免费观看| 国产激情第一页| 91九色国产porny| 57pao国产成视频免费播放| 亚洲精品在线观看91| 波多野结衣AV无码久久一区| 无遮挡一级毛片呦女视频| 国产精品网址在线观看你懂的| 色婷婷视频在线| 最新精品久久精品| 国产精品所毛片视频| 国产精品女主播| 久久午夜影院| 亚洲av无码成人专区| 国产精品尹人在线观看| swag国产精品| 国产在线小视频| 成人国产三级在线播放| 中文无码精品A∨在线观看不卡| 美女高潮全身流白浆福利区| 99久久精品视香蕉蕉| 人妻丰满熟妇av五码区| 亚洲欧洲日产国码无码av喷潮| 亚洲综合极品香蕉久久网| 亚洲最大在线观看| 欧美精品另类| 亚洲永久色| 青青青国产在线播放| 国产一区二区三区日韩精品 | 在线观看欧美精品二区| 亚洲国产日韩欧美在线| 人人爽人人爽人人片| 久久久久人妻一区精品| 日韩无码黄色网站| 国产一级无码不卡视频| 天天干伊人| 精品欧美一区二区三区久久久| 午夜国产在线观看| 国产玖玖玖精品视频| 91毛片网| 日韩欧美中文字幕在线精品| 色综合五月婷婷| 亚洲免费黄色网| 最新无码专区超级碰碰碰| 又黄又爽视频好爽视频| www亚洲天堂| 久综合日韩| 无码免费的亚洲视频| 亚洲成A人V欧美综合| 九九这里只有精品视频| 58av国产精品| 国产成人精品2021欧美日韩| 色婷婷综合激情视频免费看 | 欧美第九页| 四虎在线观看视频高清无码| 五月综合色婷婷| 熟妇人妻无乱码中文字幕真矢织江 | 成人免费网站久久久| 在线观看国产小视频| 国产理论最新国产精品视频| 青青青国产精品国产精品美女| 欧美成人综合视频| 精品无码人妻一区二区| 伊在人亚洲香蕉精品播放| 国产精品浪潮Av| 午夜精品区| 77777亚洲午夜久久多人| 扒开粉嫩的小缝隙喷白浆视频| 高清无码不卡视频| 欧美午夜小视频| 在线观看免费国产| 成年人久久黄色网站| 欧美天堂久久| 美女免费黄网站| 亚洲无码91视频|