999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能的數據風險及其法律規制
——以ChatGPT 為例

2024-05-17 05:13:14
科技管理研究 2024年5期
關鍵詞:人工智能模型

吳 靜

(吉林大學理論法學研究中心,吉林長春 130012)

0 引言

隨著以ChatGPT 為代表的生成式人工智能技術的快速發展,其直觀易用、高效低耗的技術優勢為社會經濟帶來了新的發展機遇,同時也引發了數據安全風險、虛假信息傳播、偏見歧視等諸多問題。目前,生成式人工智能技術正處于技術概念演進豐富的階段,其未來究竟能在生產進步、產業應用、商業化演繹中發展到何種地步尚未達成基本共識,有鑒于此,我國可以考慮從順應產業發展、平衡安全與效率的角度出發,立足數據這一人工智能和算法模型的基礎原料,厘清義務邊界,完善規制措施,形成有針對性的規范體系,從而抓住數字經濟時代借助人工智能技術發展“彎道超車”的機會。

1 ChatGPT 引領生成式人工智能的發展熱潮

艾倫·圖靈在《計算機器與智能》中提出了著名的“Turing test”,即判定機器是否具智能的試驗方法,就是機器是否能夠模仿人類的思維方式來生成內容繼而與人交互[1]。隨著數據快速積累、算力性能提升和算法效力增強,生成式人工智能(以下簡稱AIGC)發展到今天不僅能夠與人類進行互動,還可以進行寫作、編曲、繪畫、視頻制作等創意工作,ChatGPT 就是其中的典型代表。

1.1 ChatGPT 的發展與演進

2022 年11 月30 日,美國人工智能公司OpenAI發布了其開發的大型語言模型ChatGPT,全稱“Chat Generative Pre-Trained Transformer”,意為聊天生成型預訓練變換模型。這是一款人工智能技術驅動的自然語言處理工具,以對話的形式與用戶進行自然交互,能夠根據用戶的文本輸入,產生相應的智能回答,完成在線搜索、翻譯、代碼編輯、文本生成、表格圖像生成、數學計算、數據分析等任務[2]。

自首次公開后,ChatGPT 就受到全球矚目,成為歷史上活躍用戶增長速度最快的信息應用技術。3 月14 日,OpenAI 再次發布新版本的GPT-4。與此前的版本相比,GPT-4 在開源合作、模型參數、算法算力、人工反饋、芯片性能、資金投入等維度進行了全方位創新升級,處理文本的長度擴展到25 000 個詞,創作能力提升,并新增圖片處理能力,多模態數據處理能力升級,性能迭代之迅速令人稱奇,微軟創始人比爾蓋茨評價ChatGPT 與互聯網的發明一樣重要[3]。隨著ChatGPT 的爆火,諸多科技類企業如谷歌、英偉達、奧多比等紛紛推出生成式AI 模型、產品和相關底層基礎設施及服務,我國則有百度公司推出“文心一言”、360 公司推出“360智腦”、阿里巴巴推出“通義千問”等生成式人工智能產品,騰訊公司的混元大模型也在2023 年9 月首批通過備案,陸續面向公眾開放。

1.2 ChatGPT 的技術路徑

作為生成式人工智能算法模型,雖然OpenAI 并未公開ChatGPT 具體技術原理,但通過Instruct GPT的說明提示,可以推證其技術路徑主要是“模型+學習機制+算法+人工反饋”的深度學習訓練方式。即通過獎勵模型、基于人類反饋的強化學習機制和近段端略優化算法進行迭代,在流暢性和連貫性方面優化輸出結果。相較于傳統的智能聊天機器人,GPT-4 擁有更強大的模型演進能力、通用能力、多輪對話能力和復雜推理能力,能生成更加自然、更像人類口語化的對話內容,在語義理解的精準度、信息輸出的準確率、邏輯性及語言流暢自然度方面優于競品。

作為一個大型的自然語言處理模型,ChatGPT在其訓練過程中使用了大規模的數據分析及基于人類反饋的數據標注訓練,無論是模仿能力、編輯能力、還是創造能力都需要在數據提煉、分析、學習的基礎上才能得出智能化結論、作出趨勢性預測。因此,從數據角度分析生成式人工智能的潛在風險,遏制生成式人工智能在技術發展中的潛在隱患,并從法律規制角度為新興人工智能技術發展消除負面影響、配合技術發展趨勢,有著迫切的現實意義。

1.3 當前ChatGPT 的法律規制比較

目前,我國已經形成了以《民法典》《網絡安全法》《數據安全法》《個人信息保護法》《電子商務法》《互聯網信息服務管理辦法》等法律法規和《互聯網信息服務深度合成管理規定》《網絡信息內容生態治理規定》《網絡音視頻服務管理規定》《互聯網信息服務算法推薦管理規定》等部門規章為框架的規范體系[4]。2023 年4 月中旬,國家網信辦公布了《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《征求意見稿》),全面規范了生成式人工智能的研發、利用。三個月后,國家網信辦等7 部門聯合公布了《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》),并于2023 年8 月15日正式實施。與《征求意見稿》相比,《暫行辦法》做出了較大改動,對于一些爭議較大的條款做出了調整修改,從安全治理與責任分配出發,梳理了服務提供者、算法、內容、用戶、監管機制等方面的義務,并強調了與《網絡安全法》等上位法,以及《互聯網信息服務算法推薦管理規定》(自2022 年3 月1 日起施行,以下簡稱《算法推薦管理規定》)、《互聯網信息服務深度合成管理規定》(自2023 年1 月10 日起施行,以下簡稱《深度合成管理規定》)等規范的銜接與承繼關系。作為全球首部針對生成式人工智能的立法,短短三個月時間,從征求意見稿到正式稿的出臺,體現了國家對于人工智能技術飛速發展的關切,彰顯出中國以人為本、安全發展并重的治理理念。

但是,相關規范在規制生成式人工智能方面面臨兩個問題:一是受到應用場景的限制,無法直接對其進行有效規制;二是規范效力不統一,導致在治理目標、治理機制和治理尺度上存在不一致的現象[5]。比如在算法備案方面,《算法推薦管理規定》《深度合成管理規定》及《暫行辦法》都明確了具有輿論屬性或者社會動員能力的提供者應當履行備案手續,但后二者要求相關服務提供者在變更、注銷時也應當履行備案手續。又如在安全評估方面,《算法推薦管理規定》和《暫行辦法》要求具有輿論屬性或者社會動員能力的服務提供者應當按照國家有關規定開展安全評估,《深度合成管理規定》則將安全評估范圍擴大為開發上線具有輿論屬性或者社會動員能力的新產品、新應用新功能的都應當按照國家有關規定開展安全評估。在內容標識方面,《算法推薦管理規定》沒有做出具體的規定。《深度合成管理規定》要求服務提供者采取技術措施對使用其服務生成或者編輯的信息內容添加不影響用戶使用的標識,并保存日志信息;明確了五種應當向公眾提示深度合成情況的具體情形,同時要求凡可能導致公眾混淆或者誤認的情況,都應當作出顯著標識?!稌盒修k法》要求提供者在研發生成式人工智能技術研發過程中制定清晰、具體、可操作的標注規則,開展數據標注質量評估、抽樣核驗標注內容的準確性,并對標注人員進行必要培訓和監督指導,提升其遵法守法意識,規范標注工作。鑒于相關規定在具體文本表述及提供者履行相關義務的邊界界定上不盡相同,立足數據這一基礎依托開展風險分析、法律回應和技術規制,對形成有針對性的人工智能法律規范體系有著重要的現實價值。

2 ChatGPT 帶來的生成式人工智能數據風險

從工作原理來看,ChatGPT 作為對話式機器人,需要與用戶進行人機交互,而后通過大模型生成相應的回答。整個大模型運行過程中涉及的數據可分為四類,即預訓練數據、人工標注數據、抓取數據、人機交互數據。在應用過程中,各種類型的數據所面臨的法律風險是有所差異的,因此我們需要結合具體場景加以分析。

2.1 預訓練數據的來源合法性風險

根據OpenAI 的介紹,ChatGPT 作為一種語言模型,擁有大量被訓練過的文本數據,并通過學習這些數據完成對自然語言語法、結構、詞語之間的關系和上下文理解的習得。但是ChatGPT 未公開其用于預訓練的語料數據集來源。根據公開報道和業界人士的反向推證,ChatGPT 訓練數據60%來自于C4語料庫(2016 至2019 年)、22%來自于由OpenAI收集整理的WebText2(數據更新至2020 年4 月)和美國政府公開數據庫數據、15%來自于書本、3%來自于維基百科,以英文數據為主,中文訓練數據少。一方面,巨量語料數據的來源合法性存疑,張學博等[6]學者甚至直言ChatGPT 目前仍屬于算法黑箱,其是否有權獲取和使用這些數據目前仍然是存在疑問的。另一方面,針對海量數據的真實完整性開展審核,不僅工作量巨大而且經濟效益低,出于成本與收益的考慮,開發者并未將預訓練數據視作事實材料,而是將其視為語料,即更注重的是其符合語言規則和文本理解,而并不強調事實的真實性、客觀性、準確性與科學性。數據來源不明、數據格式混雜、內容缺失、核查困難、可控性較低等諸多問題,使得生成式人工智能在開發過程的過程中就埋下了失實、錯誤、偏見的隱患與缺陷。

2.2 人工標注數據的價值偏差及意識形態風險

OpenAI 招募人類訓練師扮演用戶和人工智能助手角色,訓練ChatGPT 以更像人類的方式和用戶持續進行多輪模擬對話,并組建專門的人工反饋團隊,糾正回答中不符法律規范、道德約束的內容,提升溝通的真實性、無害性和有用性,對標人類預期答案。以語料數據訓練為基礎的ChatGPT 并不具備真正意義的創新能力和價值判斷能力,所產生的文字是對現有語料的深層次重組再造,呈現的價值觀是對其訓練數據所蘊含價值的反映。數據標注正是機器學習和自然語言處理領域中非常重要的一環。一方面,作為大模型背后的算法構建離不開算法工程師的編程,其在編程的過程中也會自覺或不自覺地將自身內隱偏見以代碼形式外化并嵌于模型架構之中[7]。ChatGPT 的投資公司Microsoft 和開發公司OpenAI 均為美國高科技企業,西方資本主義價值觀對模型架構的影響幾乎無可避免。另一方面,人類訓練師及數據標注員的文化價值觀、專業知識、語言和地理背景,直接影響對數據的解讀,其價值觀對數據標注結果起著決定性影響。機構效應與意識形態可以通過影響人工標注與排序的一致性,進而形成人的語義世界的價值或意識形態的重構。ChatGPT 的訓練數據來源于英語語料庫,其在中文等其他語種的對話能力、常識積累、文化儲備、文本輸出準確度和精度方面存在明顯不足,文化與價值觀的兼容性差,客觀上加大了價值觀的數字鴻溝,也加大了危害我國的意識形態安全的可能性。

2.3 抓取數據的真實性、合規性風險

人工智能的社會化應用在很大程度上依賴于大數據、決策技術和算法的交互使用[8]。ChatGPT 之所以迭代速度驚人,與其具有高度的智能化特征,能夠自主地利用互聯網收集全球開發者及用戶的反饋數據來調整參數,循環優化、高效迭代模型有關。在“實際應用-數據回流-模型改進”模式中,ChatGTP 可以自發地通過網絡抓取的方式將互聯網上所有相關字段進行采集與處理,且ChatGPT 在獲取數據方面是無差別的,可以不受人類干預與控制。這意味著,一方面ChatGPT 獲取的數據很難進行實質性的甄別與篩選,存在來源不清、信息缺失、內容虛假甚至是全然錯誤等問題,具有真實性存疑的風險。另一方面,雖然互聯網上存在大量可以自由訪問的信息,但抓取行為可能會因為數據來源的不同而產生不同的法律風險。

這些風險包括但不限于:(1)如果獲取的是已整合公布的國家數據、政務數據。鑒于相關數據即便公開亦需要遵循法定的利用規范流程的特殊性,ChatGPT 在沒有獲得授權的情況下收集、使用并深度加工國家數據、政務數據有不合規之虞。(2)如果獲取的是公共數據中已開放的個人信息,ChatGPT雖然可以根據《個人信息保護法》第27 條的規定進行收集和處理,但其利用個人信息進行算法訓練的行為是否屬于合理范圍以及該行為對個人權益有重大影響的認定仍然存在很大的爭議和不確定性。而且ChatGPT 的隱私條款中既沒有對收集到的個人信息全部僅用于訓練使用作出實際承諾,也沒有明確其收集數據時僅限于最低限度以及合理使用范圍,對應于《個人信息保護法》第6 條“處理個人信息應當限于實現目的的最小范圍”而言,這無疑存在極大的合規隱患。(3)如果獲取的數據來自對受著作權保護作品的挖掘。由于我國著作權法和司法實踐中并未承認文本挖掘構成合理使用,ChatGPT 如果在沒有獲得作者授權的情況下就對文本數據進行收集、處理、深加工,將觸及挖掘行為授權、二次創作許可、著作權侵權等法律風險。(4)如果是通過網絡爬蟲從具有禁止第三方爬取數據條款的網站獲取的數據。依據2022 年12 月公布的《中華人民共和國反不正當競爭法(修訂草案征求意見稿)》第18 條“經營者不得違反約定或者合理、正當的數據抓取協議,獲取和使用他人商業數據”,這類數據屬于企業的競爭性財產權益,在未告知的情況下抓取此類信息將構成不正當競爭。(5)如果獲取的是非法來源的數據。如用戶在合法網站上傳侵權作品、盜版書籍或非法信息,甚至直接創建非法網站,則ChatGPT的抓取、處理行為本身即是侵犯他人權益,甚至可能構成非法獲取計算機信息系統數據罪[9]。

3 生成式人工智能數據風險引發的逆向刺激

ChatGPT 作為生成式人工智能技術的里程碑式產品,在“大數據+大算力+強算法=大模型”的技術路線基礎上,向“基礎大模型+指令微調”的方向進行持續探索,成功開創了全新的技術應用范式[10]。利用大模型技術,推動人工智能技術落地模式變革,構建“低門檻、高效率、高情商”的人機共創新模式,不僅對應用場景、基礎設施等各層面產生深刻影響,更給人類社會帶來了真實而緊迫的安全風險和法律挑戰。

3.1 人機互動過程中的數據安全問題

(1)數據泄露隱患大。ChatGPT 會對用戶使用過程中輸入的信息進行迭代訓練,一經上線便被大量應用于公文寫作、代碼編寫等工作領域,產出能力極快。在使用過程中,用戶可能會向大模型披露個人信息、商業秘密甚至是國家安全信息,ChatGPT強大的推理能力導致個人、企業和政府數據存在泄露風險。三星DS 部門于2023 年3 月11 日允許員工使用ChatGPT,20 天內出現3 起機密資料外泄事件,半導體設備測量資料、產品良率等內容已被存入ChatGPT 數據庫中,并傳輸至美國公司。目前,微軟已宣布將Office 與ChatGPT 整合,推出Microsoft Teams 高級版,可自動生成會議筆記,加大政府及企業辦公數據泄露隱患。

(2)數據跨境流動風險高。ChatGPT 并非本地化部署,根據ChatGPT 隱私政策第8 部分(security and retention)及 第9 部 分(international users),Open AI 所收集的個人信息將存儲于美國,而且在存儲期限維度沒有進行明確約定。這意味著,如果國內主體使用ChatGPT 輸入個人信息、商業秘密或者國家安全信息等數據時,這些數據將先被傳輸至境外數據處理中心,再由應用反饋回復。相關數據將被存儲到ChatGPT 自身的語料庫中,且存儲期限不明確[11]。當數據傳輸量達到一定規模,大概率在事實上構成數據出境。如果未能得到及時有效的審批、監管,則不僅會引發極大的商業風險,而且可能通過滲透數字安全進而影響國家安全。

3.2 人機互動過程中生成數據的知識產權歸屬問題

以ChatGPT 為代表的生成式人工智能不單能完成自然語言的處理與輸出,其在撰寫演講稿、寫代碼、寫專利、寫論文、做翻譯、編劇本等各種跨行業的業務上幾乎無所不能。人工智能生成數據能否獲得專利權、著作權等知識產權的保護也成為理論界與實務界熱議的話題之一。

(1)關于人機互動過程中生成物的可專利性。對于符合專利法條件的人工智能技術可以獲得專利保護目前在域內外的學界和實務已基本達成共識。但是,利用人工智能技術所發明出的生成物能否獲得專利權,在實踐中還存在較大分歧。如自2019 年開始,人工智能系統DABUS 的創造者Stephen Thaler陸續在全球發起專利申請,將DABUS 指認為專利發明人,并引發持續至今的一系列案件。美國、英國、澳大利亞、新西蘭等國家相繼否認了DABUS 的發明人地位,僅有南非將其登記為發明人。關于人機互動過程中生成物的可專利性分歧產生點在于人工智能發明創造主體的身份資格認定問題,以美國專利法35U.S.C.為例,第100 條、第111(a)條都明確要求發明人和共同發明人必須是人[12]。這里的人不僅僅是指生理上的人類,而是指被專利法認可有資格的自然人,不認可機器具有發明人身份資格[13]。而南非由于其專利法并未定義發明人一詞,對專利采用的是無實質審查制度,不會在授予專利權前審查有關申請是否具有新穎性和創造性,只有在他人對專利進行申請撤銷時才會審查相關專利的實質性問題。從我國的專利保護實踐來看,我國專利法《實施細則》第13 條明確規定專利法所稱發明人或者設計人,是指對發明創造的實質性特點作出創造性貢獻的人,即從文義解釋出發,如果相關主體以生成式人工智能技術作為專利的發明人申請專利,恐難以通過實質審查,即便是人工智能技術高度自主研發的生成物也因技術本身不具備專利法上的發明人資格而不能獲得專利權。

(2)關于人機互動過程中生成物的著作權保護。傳統的分析式人工智能大多提供信息檢索或單句對話服務,學界和實務界基本達成了此類作品不符合版權注冊的要求、不受版權法保護的共識。而ChatGPT 類人工智能通過與人類的互動產生了大量的交互數據,其中既涉及文本內容的自動化編纂、智能化潤色處理、表達范式的轉換,也存在呈現內容的多模態轉換、視覺元素的重新編排,甚至代碼模型的組織架構。反對將生成式人工智能生成的內容視作《著作權法》中作品的學者認為,對于人工智能生產的內容雖然在表現形式上與傳統智力成果幾乎沒有區別[14],但本質上更多的是應用算法、規則和模板的結果,不具有個性特征,不符合作品獨創性的要求,因此不能構成作品[4]。而深圳市南山區法院在裁判騰訊訴上海盈訊公司著作權侵權案中則認為從涉案文案的外在形式與生成過程分析,該文章的特定表現形式及其源于創作者個性化的選擇和安排,并由Dreamwriter 軟件在技術上生成的創作過程均滿足著作權法對文字作品的保護條件,本院認定涉案文字屬于我國著作權法所保護的文字作品[15]。上述兩種觀點,無論是支持還是反對,其結論都是基于一個共同的前提,即人工智能缺乏自主意識。然而隨著生成式人工智能技術的迭代,也有學者指出目前ChatGPT 類人工智能已經發展到能夠在生產中注入自主意識,通過神經卷積形成深度學習能力,具有類人的智慧和自我反省能力,建議應當基于技術模型剖析生成式人工智能的知識產權屬性,對ChatGPT 的生成物賦予知識產權加以保護[16]。

康德[17]指出在自然界中,每一物件都是按照規律起作用。唯獨有理性的東西有能力按照對規律的觀念,也就是按照原則而行動,或者說,具有意志。因此,從自由意志的哲學思考和社會制度構建考慮出發,筆者認為ChatGPT 雖然在接收端受到了用戶的直接指令要求和控制,但其基于獎勵模型、人類反饋的強化學習機制和近段端略優化算法進行自主迭代并自發在流暢性和連貫性方面優化輸出結果,事實上具備了一定的自主創作能力,人機互動過程中的生成物具有獨創性與創新性,應當受到著作權保護,生成式人工智能技術可以作為共同創作者受到著作權法的保護。

3.3 虛假數據投喂導致的違法犯罪問題

ChatGPT 的前端是數據集的所有者和研發者,中端是算法模型,后端是模型的使用者。ChatGPT線上實時交互的過程中,用戶與大模型的投喂操作一方面豐富了開發者的數據集,另一方面也使得部分別有目的的用戶和組織可以利用生成式人工智能的算法原理來對大模型產生偏向性訓練,通過投放存在事實性錯誤和常識偏差等問題的內容,誤導人工智能的算法模型,從而生成含有暴力、種族歧視、淫穢內容、毒品和犯罪等傾向的不良、虛假甚至違法信息。輕則擾亂信息的真實性、客觀性與準確性,誤導普通用戶。重則若是被一些不法分子利用其高產能的便利性、大模型的偏向性,快速產生出不利我國健康穩定發展的虛假信息,并大批量投放至網絡上,將嚴重影響社會穩定,危害國家安全。

4 生成式人工智能數據風險的法律規制

ChatGPT作為生成式人工智能技術的重大突破,使得人工智能產業迎來拐點,提升了人類生產生活效率并為智能化社會帶來更大的想象空間,也為經濟社會發展帶來諸多問題和風險。這些風險看似是新技術帶來的挑戰,但實質上仍沒有超越現有的研究范疇[18]。無論是數據來源的合法性風險、信息泄露的現實挑戰還是不良、虛假或違法信息的生成問題,本質上還是傳統數據管理帶來的風險映射,根源仍然在于科學技術的進步與數據監管滯后之間的沖突。因此,筆者認為可以基于過往技術規制的經驗來選擇最佳規制理論和法律路徑。

4.1 選擇包容審慎路徑

隨著ChatGPT 這類生成式人工智能技術的變革性發展的到來,越來越多的企業、組織、國家意識到人工智能技術未來將深刻影響科技產業、社會經濟發展,甚至各國經濟科技和軍事等綜合實力對比。目前,全球人工智能發展呈現出中美兩國引領、其他國家激烈競逐的總體格局,新技術重塑世界競爭新格局的情形正在當下發生。對于監管者而言,傳統監管體系和監管手段已經無法完全適應新模式、新產業、新業態不斷涌現帶來的規制不確定性,必須要用前瞻性視角去審視科技創新,改進傳統法治手段,摒棄運動式執法或運動式治理,轉向更為靈活、敏捷的“包容審慎監管”路徑。

國務院辦公廳2017 年發布《關于創新管理優化服務培育壯大經濟發展新動能加快新舊動能接續轉換的意見》,首次明確提出探索動態包容審慎監管制度。2020 年1 月,隨著《優化營商環境條例》正式實施,包容審慎監管這一最初作為公共政策話語的概念演變為正式的法律術語。對于生成式人工智能這種一時看不準發展趨勢的新技術、新模式,筆者認為監管者應當在法治軌道上推進理性的包容審慎監管,一方面要包容監管,即對人工智能發展中可能存在或者產生的錯誤持寬容態度,特別是在這種新業態發展的初期階段,要給技術和市場的發展留足必要的發展時間和試錯空間[19];另一方面要審慎監管,即著眼于維護國家權益、公共利益及公民個人合法權益的價值取向,持續地追蹤與分析技術的重要變化,對興新技術發展帶來的潛在風險進行積極預防和控制,發展中規范、在規范中發展,實現效率與安全的平衡。

4.2 完善分類分級規制

《暫行辦法》對生成式人工智能發展提出了分類分級監管的思路,一是在第三條明確了對生成式人工智能服務進行分類分級監管的原則;二是在第六條強調了必須要有序推動公共數據的分類和分級開放,并擴大高質量的公共訓練數據資源;三是在第十六條中指出由國家有關主管部門根據生成式人工智能服務適用的不同領域制定相應的分類分級監管規則或者指引,進行行業部門監管。數據分類分級的監管思路在《中華人民共和國數據安全法》的二十一條已有類似體現,行業主管部門參與監管政策的制定可以使人工智能監管法規具有更強的針對性,二者相輔相成,共同促進立法對生產人工智能的監管體系的強化。但是目前我國并未提出進一步的數據或者生成式人工智能技術分類分級依據以及操作辦法??梢钥紤]由各行業主管部門根據行業特點或需求,依據生成式人工智能應用的服務場景,制定分類分級規范指引。對應用中可能出現的風險及影響從高到低進行排序,再根據不同風險等級劃定不同的監管方式,在強調技術治理與規范的基礎上,厘清義務邊界。

4.3 健全立法規制體系

相較于《算法推薦管理規定》《深度合成管理規定》兩部規范,《暫行辦法》不少條款從數據監管出發積極回應了生成式人工智能帶來的風險挑戰。如《暫行辦法》第四條從國家社會、主體平等及隱私安全3 個角度回應了生成數據的價值取向和真實性、合法性、安全性要求;第七條至第十七條厘清了預訓練數據、標注數據、生成數據的責任主體和基本要求,對生成式人工智能服務提供者作了安全評估、算法備案、內容標識等方面的義務規制[20]。特別是《暫行辦法》第七條明確了對預訓練數據、優化訓練等訓練數據處理活動應當遵循的原則。但相關標準界定仍處于模糊地帶,如第七條第四款要求采取有效措施提高訓練數據質量,增強訓練數據的真實性、準確性、客觀性、多樣性。從法律術語來看,這條對服務提供者所提供的要求非常高。目前的技術實踐中,大眾搜索引擎甚至學術研究提供的內容都很難保證其真實準確及客觀多樣性。再比如,第七條要求生成式人工智能服務提供者必須確保訓練數據來源的合法性,然而卻未明確規定提供者應承擔的具體責任程度,僅是提示性地要求生成式人工智能服務提供者使用的訓練數據如果包含個人信息,應當征得個人信息主體的同意或符合法律、行政法規規定的其他情形。由于《暫行辦法》效力階層所限,其本身無法為個人信息處理的合法性基礎設置例外條款,且2023 年度國務院立法工作計劃已將《人工智能法草案》列為預備提請全國人大常委會審議的法律草案,可以考慮今后參照知識產權制度中的權利用盡原則,在《人工智能法》中增加數據責任豁免制度,明確提供者通過公開的數據交易所進行數據交易獲得的數據,只要能證明其有合法來源,就可以對數據原權利人免除侵權責任。引入大數據產品供給的形式,既能厘清責任邊界、解決數據來源合法性問題,又能提高生成式人工智能技術提供者獲取數據的效率,還能打通數據與人工智能交互的上下游產業鏈條,可以形成多贏的良性循環。

5 結論

ChatGPT 作為人工智能技術的重大突破,在極大地提高人類工作效率的同時也對傳統法律體系帶來了一系列挑戰。從數據角度分析生成式人工智能的潛在風險,遏制生成式人工智能在技術發展中的潛在隱患,并從法律規制角度為新興人工智能技術發展消除負面影響是確保ChatGPT 等人工智能技術良性發展的必然選擇[21]。目前我國已針對人工智能技術建立起了初步的規范體系,但為了更好地抓住數字經濟時代借助人工智能技術發展的機遇,我們應該以包容審慎的態度,從順應產業發展、平衡安全與效率的角度出發,對生成式人工智能的專門立法進行優化,以科學的技術治理配合技術發展趨勢,形成有針對性的規范體系。

猜你喜歡
人工智能模型
一半模型
我校新增“人工智能”本科專業
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
3D打印中的模型分割與打包
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 04:56:22
主站蜘蛛池模板: 国产成人精品一区二区秒拍1o| 2021最新国产精品网站| 99人体免费视频| 欧美综合中文字幕久久| 操美女免费网站| 麻豆精品视频在线原创| 欧美α片免费观看| 日韩精品一区二区三区免费在线观看| 午夜福利网址| 无码精品福利一区二区三区| 亚洲91在线精品| 精品国产一区二区三区在线观看 | 东京热av无码电影一区二区| 中美日韩在线网免费毛片视频| 呦女亚洲一区精品| 欧美久久网| 久久综合五月| 国产精品一区二区国产主播| 欧美劲爆第一页| 国产激情在线视频| 欧美天堂在线| 国产精品毛片一区视频播 | 国产成人精品午夜视频'| 极品国产一区二区三区| 三级欧美在线| Aⅴ无码专区在线观看| 波多野结衣中文字幕一区二区| 九九久久精品免费观看| 99久久精品国产综合婷婷| 国产日韩精品欧美一区喷| 亚欧乱色视频网站大全| 亚洲综合色吧| 国产成人综合亚洲网址| 日韩少妇激情一区二区| 久久国产高潮流白浆免费观看| 国产高清不卡| 日韩欧美亚洲国产成人综合| 亚洲乱亚洲乱妇24p| 精品一区二区久久久久网站| 欧美精品成人一区二区在线观看| 91小视频在线观看| 欧美精品成人一区二区在线观看| 亚洲动漫h| 秋霞国产在线| 福利在线不卡| 国产理论一区| 四虎永久免费地址在线网站| 美美女高清毛片视频免费观看| 日韩毛片基地| 永久免费无码成人网站| 91成人免费观看| 精品视频第一页| 综合久久五月天| 色香蕉网站| 日韩黄色精品| 美臀人妻中出中文字幕在线| 玖玖免费视频在线观看| 在线观看国产精美视频| 国产一区二区三区在线无码| 91蝌蚪视频在线观看| 欧美亚洲日韩中文| 99热这里只有精品5| 国内精品久久久久久久久久影视| 在线观看欧美国产| 制服丝袜 91视频| 久久国产精品夜色| 国产浮力第一页永久地址| 无码不卡的中文字幕视频| 国产99视频精品免费视频7| 一区二区三区精品视频在线观看| 国产99视频精品免费视频7 | 国产精品女人呻吟在线观看| 国产理论最新国产精品视频| 萌白酱国产一区二区| 97国产成人无码精品久久久| 国产在线欧美| 亚洲最大情网站在线观看 | 91无码国产视频| 亚洲综合色婷婷| 国产免费久久精品44| h网站在线播放| 国产真实二区一区在线亚洲|