方卓爾 滕達奇
摘 要:《生成式人工智能服務管理暫行辦法》的出臺明確數字經濟發展與安全并重、創新與依法治理相結合的基本原則,促進了生成式人工智能服務技術的發展。生成式人工智能服務現行法的適用面臨個體數據安全保障不足、風險等級未明確、責任主體未細化等難題。生成式人工智能服務應當增強個體數據保障的法律規范性,采取分級分類監管,平衡科技創新與公民權益,釋放人工智能服務市場價值,滿足人工智能社會生活的多元化需求。
關鍵詞:生成式人工智能;數據保護;風險等級劃分;數據責任主體
基金項目:天津市科研創新服務產業專項項目“論人工智能時代下的司法輿論監督”(2022SKYZ284)
作者簡介:方卓爾(1999- ),女,廣東湛江人,天津師范大學碩士研究生,研究方向為民商法;滕達奇(1999- ),男,浙江溫州人,天津師范大學碩士研究生,研究方向為法理學。
2022年,生成式人工智能服務(Generative AI)的發展是引領新一輪科技革命和產業變革的戰略性技術。習近平總書記高度重視人工智能的發展,強調人工智能有溢出帶動性很強的“頭雁”效應,是實現高水平科技自立自強的關鍵領域,是提升國家創新體系整體效能的重要支撐。國家網信辦等七部門于2023年7月13日聯合發布,2023年8月15日正式施行的《生成式人工智能服務管理暫行辦法》(下文簡稱《暫行辦法》)旨在促進生成式人工智能服務健康發展與規范應用,維護社會公共利益,保障公民、法人和其他組織的合法權益不受侵害。不同于以往的分析式人工智能,生成式人工智能服務系統是指采用深度合成技術,通過各種機器學習(Machine Learning)方法從數據中學習對象的組件,進而生成全新的、完全原創的內容(如文字、圖片、視頻)的人工智能[1]。
一、生成式人工智能服務的立法動因
人工智能1.0時代,人工智能領域產生了諸多現實問題,對傳統法律理論提出挑戰。不置可否,法律自身的滯后性是無法突破的,但是可以在尊重立法規律的基礎上,堅持問題導向,基于國情制定相應的法律法規,如《新一代人工智能發展規劃》《人工智能標準化白皮書》《人工智能治理原則》等,為人工智能發展提供了頂層設計和指導方針,促進了人工智能產業生態的建設和完善,且大部分法律規則實際可行,為社會與市場所熟悉和接受。因此,《暫行辦法》的出臺是總結現有法律的實施情況,繼承實踐證明的經驗,對不適應現實情況的內容和制度進行修改補充,對市場需要規范的事項作出創設性規定,增強法律的可執行性,并體現前瞻性,為生成式人工智能服務發展提供法律保障。
但是,人工智能的發展向來是一把雙刃劍,在ChatGPT等生成式人工智能服務逐漸風靡全球的時候,必然會對現有的法律規制產生理論沖擊,上述所提及的法律法規對新興的生產要素難以做到有效規制。目前,生成式人工智能所帶來的法律風險主要有有如下幾種:
第一,數據的保護難度加大。OpenAI為ChatGPT提供的在線文本數據,包括約3000億個來自書籍、新聞文章、博客、社交媒體、百科全書和其他來源的單詞。然而,目前ChatGPT仍屬于算法黑箱,OpenAI并未對外公示所使用的數據來源,相關訓練數據庫是否均獲得授權還存在疑問[2]。生成式人工智能服務系統的數據來源未經“脫敏”而包含大量個人信息、企業數據、公共數據,可能導致惡意使用者的誘導性提問而泄露。
第二,部分違法犯罪的成本顯著降低,侵犯公民合法權益的方式更加多變,社會風險加劇。比如,制作、傳播虛假信息和深度偽造的技術變得更加容易,使用者可以通過人工智能自動產生大量有說服力的誤導和虛假信息,暗中操控輿論或達到其他非法目的;使用者可以利用生成式人工智能服務,通過繞開安全過濾機制,獲得違法信息;生成式人工智能使得大規模的內容生成變得可能,這可能會涉及著作權和知識產權的問題,生成的內容可能存在侵權行為,從而引發大規模的法律糾紛和知識產權爭議。
二、生成式人工智能服務立法原則之檢視
依法治理和安全問題互為表里,共同組成創新和發展的基石,而創新和發展則是國家相關立法的最終目的。生成式人工智能技術方興未艾,國家安全問題日益凸顯,警示應當重視安全與發展問題,但也不能因“絕對安全”導致技術停滯不前。相較于《生成式人工智能服務管理辦法征求意見稿》(下文簡稱《征求意見稿》)以“限制和安全”為主,《暫行辦法》明確將創新發展提到與安全保障同等位置,并將“創新與依法治理相結合”作為治理原則。
(一)依法治理原則:數據安全保障
數據安全問題是生成式人工智能技術發展最為突出的問題。生成式人工智能需要大量的數據形成訓練數據庫,于此,在海量的預訓練數據收集中,既包括個人信息、他人享有知識產權等合法數據,也包括含虛假有害、暴力等信息的數據,若不加以管控,會造成大量合法權益受到侵害,甚至會導致社會秩序的極大混亂。而在收集數據過程中,亦會存在使用者同意概括授權卻不仔細閱讀相關條款,導致部分隱私信息被非法爬取而并不知情的情況。因此,《暫行辦法》首先在總則明確規定“尊重他人合法權益,不得危害他人身心健康,不得侵害他人肖像權、名譽權、榮譽權、隱私權和個人信息權益”;其次,在“技術發展與治理”一章中規定“生成式人工智能服務提供者應當使用具有合法來源的數據和基礎模型”;再次,在“服務規范”一章中規定“提供者應當依法承擔網絡信息內容生產者責任,履行網絡信息安全義務。涉及個人信息的,依法承擔個人信息處理者責任,履行個人信息保護義務。”
(二)創新與發展原則
生成式人工智能技術仍處于發展階段,過于嚴苛的要求規范可能會導致阻礙技術的創新與發展,因此,與《征求意見稿》相比,《暫行辦法》針對提供者的義務進行減免,限縮責任承擔的范圍。主要內容包括:將“對數據來源的合法性負責”修改為“使用合法來源的數據,提供者僅需保證數據的來源合法”;刪除“違法生成內容后的整改時限”,提供者僅需采取有效措施整改并向有關部門報告;由“提供者承擔生成內容生產者責任”修改為“網絡信息內容生產者責任”;將強制性規定“保證數據的真實性、準確性、客觀性、多樣性”修改為鼓勵性規定“采取有效措施提高訓練數據質量,增強訓練數據的真實性、準確性、客觀性、多樣性”。上述規定的改變預留新技術一個觀察期,采用“審慎包容”的態度,避免法律規制過分擠壓科技創新發展的空間。
此外,生成式人工智能服務是以大算力為基礎,用強算法處理海量大數據,在大規模無標注數據上進行訓練,學習一定特征或規律以預測未來結果的人工智能大模型[3]。針對人工智能模型的發展,《暫行辦法》首次提出了“AI模型治理”,從預訓練數據的“基礎模型”到發現違法內容后“模型優化訓練”,再到生成式人工智能技術的術語定義最終也落在了“模型及相關技術”上。可見,模型的重要性并不亞于數據和算法,《暫行辦法》創新AI管理模式迎合人工智能產業發展的最新趨勢。
三、生成式人工智能服務立法內容之反思
(一)個體數據安全保障性不強
生成式人工智能服務生成的數據一直處于相對動態的過程,屬于非結構化數據,數據增長規模較結構化數據增長快,使用者實時的數據流動也快,多渠道來源的關系與非關系的數據互相產生緊密聯系。目前在實務界與學術界,使用者通過智慧主體所產生信息的權利歸屬爭論不一,但是使用者在AI生成的信息,由點及面,通過收集儲存形成的數據,應該納入個體數據的范疇。原因在于,于主觀層面,這些數據沒有允許暴露于外界“直接觀察”的意圖,且與個體人格權益息息相關;于客觀層面,使用者注冊形成的信息生成空間屬私人領域,具備合理隱私期望,享有免受他人侵擾的權利[4]。由此,隨著使用者增加,采集的數據密度越大,數據價值量越高,個體數據不斷集成于數據庫之中。實際上,提供者所保護的數據利益是群體私密性數據的利益,為防范社會連帶主體的利益受損面擴大,提供者應當合法收集與處理信息,保障使用者數據的安全。
綜觀《暫行辦法》對“個人信息”“個人隱私”“隱私權”的規定,條文明確提供者負有保護個體數據的義務,使用者享有處分個人信息的請求權。生成式人工智能服務的提供者或設計者并不直接參與內容生成的過程,所生成信息內容的時間性、完成度與表達方式更為智能化,即實施侵犯個體隱私數據行為的主體并不是法律意義上的“人”,個體數據會因智慧主體的算法、算力或數據集等因素共同作用而受侵害。在現實情境下,加害行為人利用客觀存在的算法,有意識地引導算法規避人工智能法倫理規則,生成原先不被算法允許的問題,又或借助算法侵入獲得第三人的生成結果。因此,落實提供者管理數字安全的責任,構建數據預防黑客入侵機制,能夠有效應對數據泄露危機,維護數據安全。并且根據算法運用的具體場景,設計關于個體數據事先預防救濟機制,對生成數據負有一般審查性義務,避免個體信息被泄露、侵入的風險。
(二)風險等級劃分未明確
《暫行辦法》在“總則”和“技術發展與治理”兩章中提及風險防范應當開展多元協作模式,但并未對生成式人工智能服務風險等級進行劃分,亦未作出風險評估、具體防范措施等相關規定。生成式人工智能服務的科技風險應當堅持預防原則,即“放在以法律手段應對科技風險的中心位置”[5]。在生成內容的事前階段,采取分級分類的思路,面對不同的使用場景匹配相應的風險規制措施。借鑒歐盟《人工智能法案》的“風險等級規制”理論,將人工智能風險劃分為兩個層級,針對性作出監管措施,貫穿人工智能運用的全階段[6]。
職是之故,生成式人工智能服務可以從“輸入層——提取層——轉化層——輸出層”的縱向維度考量人工智能算法的風險轉化[7],設置不同等級風險的限制性規定,從源頭規范算法技術的使用方式與對象,以風險評估制度實現法律技術化。將生成式人工智能系統分為高風險與低風險,分別構建不同的管理制度,形成體系化、過程化、標準化的風險預測控制機制。再者,風險管控模式應采取“提供者行為自律+公法監管機構監督管理”雙重模式[8]。行政監管機構不僅需要遵守不干涉科技創新的底線,基于風險發生的不同場景,有目的性以強制力干預的手段實現控制風險,分級消除各類安全風險;還需要以風險裁判者的身份,預先規制算法信任或使用者依賴帶來的風險。
(三)責任主體未細化
《暫行辦法》的適用主體主要是服務提供者,歸責對象過于簡單,難以滿足監管的需要。服務提供者可能并不是該技術服務的設計者,或不參與數據訓練、優化活動等過程,為全階段負責負擔未免過重。因此,建議可將生成式人工智能服務的主體分為四類,分別是技術支持者、服務提供者、使用者和監管者。
技術支持者為原生技術提供者,即最初創造出人工智能并申請認證系統的主體,以及包括使用受讓他方的人工智能進行二次加工創造的技術主體。服務提供者為受讓他方的人工智能的轉移權利人,主要為使用者提供相應的系統服務。使用者指的是基于生成式人工智能服務系統基礎對其進行條件限制的引導從而制成成品的使用者。監管者為監督服務系統運行的管理機構、行業協會或具有相關監督職責的行政機關。值得注意的是,技術支持者不一定是一個獨立的集合,如果服務系統符合市場“自產自銷”的模式,技術支持者亦是服務提供者。毋庸諱言,技術支持者和服務提供者可以是自然人或法人或其他組織。倘若技術支持者是自然人,則擁有技術支持者與服務提供者雙重身份。同理,若技術支持者是法人或者其他組織,則法人或其他組織也是擁有雙重身份。但此時法人或其他組織的內部人員應稱之為技術維護人員。
服務提供者作為公眾使用生成式人工智能服務系統直接對接對象,理應成為相關立法直接約束的主體,在服務系統的全部運作周期承擔相應的責任和義務。損害發生時需要證明自身已經盡到相應的義務,否則不能免除責任;有證據證明是因為技術支持者或者使用者的過錯導致的損害,由技術支持者或使用者承擔相應的責任,提供者未采取合理補救措施的,可對擴大的損害部分承擔連帶責任。
四、生成式人工智能服務立法修正路徑
(一)平衡科技創新與權益保護
我國將人工智能作為重要國家戰略,制定了《新一代人工智能發展規劃》等相關政策文件,支持人工智能技術創新和應用推廣,鼓勵開展人工智能場景創新,推動人工智能與實體經濟深度融合,在制造、農業、物流、金融、商務、家居、交通運輸等領域形成一批重大應用場景。但是在創新發展的同時,應當及時防范新技術帶來的社會風險,保障公民的合法權益。如何平衡兩者的關系,可從數據、算法和生成內容三方面著手。
1. 數據是生成式人工智能的重要基石,為其訓練、知識獲取、改進和創新提供了必不可少的支持,但是數據中亦涉及知識產權、個人信息、商業秘密、不當言論等違法數據,一旦采用的數據來源虛假或者違法,經過算法加工處理,不僅污染生成式人工智能服務系統的數據庫,還與真實的信息混雜于一體,借使用者之手傳播出去,造成更大范圍的社會影響。若將數據的來源限制過嚴,會影響技術的學習與更新。因此,可以適用《民法典》1196條與1196條,采取為網絡服務商設置“避風港”責任,初步建立信息過濾機制,保證數據來源的合法合規,待生成式人工智能產品度過投入使用的過渡期再作嚴格監管調整。
2. 算法是生成式人工智能產業的核心競爭力,為其訓練、推理和改進生成式模型提供了基礎和框架。從國內外的經驗來看,確保人工智能模型的可解釋性至關重要,其與算法透明度緊密相連。透明度要求特定目標群體能夠理解和解釋服務系統的模型和算法規范,群體范圍包括技術使用者、法律工作者、監管者以及在某些情況下的普通公眾。為減少“算法黑箱”的風險,需要建立嚴格的人工智能數據模型標準和規范,對不同層次的模型進行規范化定義。而數據提供者應向監管機構和公眾證明其可靠性和透明度,在使用人工智能時遵循行業規范標準,向監管機構提供全面的解釋,包括解決方案、算法實現原理、模型訓練方法等,并盡可能提供額外的解釋性材料,如數據治理報告和責任歸屬說明等。
3. 生成內容是生成式人工智能與使用者交互的平臺,也是技術最終的成果展現。相較于數據和算法,得益于其直觀性,是最容易發現有違法違規情況的部分。提供者有義務對生成內容進行審查,對出現違法信息產生的情況,以事后補救的方法處理即可。不必承擔額外的法律處罰,否則提供者承擔的檢查成本過高并不利于技術的發展。同時,提供者應當暢通服務投訴通道,以便使用者發現違法信息后隨時舉報投訴,提供者收到投訴后應迅速采取相應措施,排查風險解決問題,避免擴大影響范圍,并及時對使用者給予反饋。
(二)增強數據保障規范的實際效用
1. 規范使用者處理數據。生成式人工智能生成的使用者數據,其保護理念應符合我國《憲法》《民法典》對個體隱私、個人信息保護的理念。數據控制者或者提供者在處理使用者數據的過程中,應當遵循合法正當原則與知情同意原則,取得數據源發者的同意。其中“知情同意”是限制提供者濫用系統控制地位的重要原則,我國《網絡安全法》《個人數據保護法》具體規定中都轉致了該原則。但是,當提供者遇到社會公共利益或自然人生命權利在緊急情況中受到威脅場景下,應優先考慮社會責任,以社會本位為原則。為維護社會公共利益,可以優先對收集的相關數據進行脫敏化處理,脫下“身份識別”的外衣,轉化成可納入公共組織范疇的數據,對維護數據的公共安全具有現實性和必要性。
2. 落實核實使用者真實身份信息的責任。與歐盟《通用數據保護條例》不同,目前我國數據立法界不贊同把機器人作為權利與義務主體,而是針對生成式人工智能的提供者、控制者、使用者不同主體合理設計分配人工智能侵權的法律責任,按照各自的過錯程度對損害后果進行分擔[9]。因此,通過多種認證方式確認注冊使用者的身份真實性,一方面增強系統的安全性能,避免部分使用者蓄意攻擊或惡意操作導致安全事故發生;另一方面,若一方網絡使用者侵犯另一方的權益,如果提供者有初步證據證明使用者存在巨大法律風險的使用行為,提供者可以及時根據身份信息緊急叫停該行為,避免造成重大損失的后果。故可參照《互聯網信息服務深度合成規定》第9條,擬增“提供者應當基于身份證件號碼、移動電話號碼或統一社會信用代碼等方式,依法對系統使用者進行真實身份信息認證,不得向未經過認證或認證失敗的使用者提供生成式人工智能服務。”
(三)彌補服務風險防范的立法空白
1. 構建服務風險評估標準。為了應對生成式人工智能安全事件,有效防范數據安全風險,應當通過開展風險評估,構建生成式人工智能服務評估標準,引領提供者自行展開風險評估。風險評估標準應當由生成式人工智能的行業組織根據行業的規律與生產數據的模式建立一套有合理比例且有效的風險評估體系,通過成員之間的協作加強對提供者的管理與約束,確保生成式人工智能在可靠可控的范圍內發展。風險評估所涵蓋的內容對風險等級劃分、數據安全措施、隱私保護途徑、決策的公平合理性等方面產生直接影響。鑒于針對生成式人工智能服務采取雙重管理模式,提供者不僅需要承擔風險評估的義務,還需要將報告報送行政監督管理部門,不僅有利于建立事先風險發生預防處置機制,便于監管部門監督與企業自查;風險的公示與說明還有利于數據的透明化,避免出現系統“數據壟斷”的局面[10]。
2. 實現服務風險等級劃分。依據風險評估標準,采用分類分級監管的原則,進而將服務分為高、低兩種風險等級。低風險系統帶來的法律與社會風險較低,面對的使用者對象為普通類型的使用者,其涵蓋的范圍應大于高風險系統,數據處理的成本與程序應比高風險系統簡單。概言之,低風險區涵蓋的系統應包括除高風險系統以外的系統。高風險區的人工智能系統所生成的數據應當涉及國家、社會與公民的根本利益,該數據自然不能轉化為公共產品予以公開透明化,但是高風險系統兼具強烈的社會屬性與經濟屬性,要求構建具體的責任分配與監督機制,明確主體的管轄范圍。故此,行政監督管理部門基于以人為本的理念,對高風險人工智能服務可以適當介入,對系統的數據實施監督管理,約束提供者使用處理高風險數據的行為,保障數據的社會價值不受侵害。
3. 高風險生成式人工智能服務應當強制對生成的數據以合理的方式保存六個月,并不得與行業標準相違背。設計數據的儲存周期的出發點主要的考慮因素是高風險系統的使用目的與潛在影響。其一,作為人工智能技術升級產品,高風險使用者對象的范圍包括諸如醫療健康行業、軍工行業、航天工程行業等。這些行業所生成數據具有高敏感性、高價值性與流通范圍有限性的特點,故規定數據保存的期限有利于數據作為客體保持持續穩定的狀態,擁有足夠的周期促進數據價值的流動。其二,高風險系統中的數據使用與國家安全、社會公共財產利益息息相關。在周期內發生突發情況時,可以根據數據溯源,迅速確定責任承擔的主體與采取行動,盡可能減少風險帶來的損失。
五、結語
隨著人工智能技術的不斷更新迭代,生成式人工智能服務日益成為AI行業的核心競爭要素之一。《暫行辦法》的頒布改變了傳統的法律規制模式,堅持創新與安全發展同步驅動原則,應用“模型治理”應對科技變革帶來的挑戰與風險,減少法律滯后性對科技創新的阻力。但是,《暫行辦法》仍有較大的提升空間,存在數據安全保障性不強、風險等級劃分不明確等問題,可通過平衡技術創新與社會安全的關系,增強個體數據規范的實際效用性,秉承安全與發展并重的基本原則,搭建風險分級分類治理制度,從而有效促進數字經濟的長足發展。
參考文獻:
[1] 張學博,王涵睿.生成式人工智能服務系統的法律規制——以ChatGPT為例[J].上海法學研究,2023(6):246.
[2] 孫祁.規范生成式人工智能產品提供者的法律問題研究[J].政治與法律,2023(7):162-176.
[3] 支振鋒.生成式人工智能大模型的信息內容治理[J].政法論壇,2023(4):34.
[4] 盧家銀.法古循舊:人工智能時代合理隱私期待的法律適用[J].現代傳播:中國傳媒大學學報,2021,43(11):5.
[5] 陳景輝.捍衛預防原則:科技風險的法律姿態[J].華東政法大學學報,2018,21(1):13.
[6] 曾雄,梁正,張輝.歐盟人工智能的規制路徑及其對我國的啟示——以《人工智能法案》為分析對象[J].電子政務,2022(9):10.
[7] 胡小偉.人工智能時代算法風險的法律規制論綱[J].湖北大學學報(哲學社會科學版),2021,48(2):120-131.
[8] 何淵.智能社會的治理與風險行政法的建構與證成[J].東方法學,2019(1):68-83.
[9] 季衛東.數據,隱私以及人工智能時代的憲法創新[J].南大法學,2020(1):12.
[10] 李帥.人工智能的風險預測與行政法規制——一個功能論與本體論相結合的視角[J].行政管理改革,2019(10):50-58.