蔡秉坤 徐小壘
摘? 要:數據是驅動人工智能浪潮全面興起的基礎要素之一,數據安全是人工智能安全的核心。然而,人工智能的高速發展也帶來數據安全的風險挑戰。文章從個人數據安全風險、企業數據安全風險等方面總結了人工智能應用中存在的數據安全風險,并分析了人工智能應用中數據安全的法律規制,從加快數據安全立法和數據確權、數據安全的“穿透式”監管、數據安全“監管沙箱”、數據安全協同治理等方面提出相關建議。
關鍵詞:人工智能;數據安全;數據確權;“穿透式”監管;監管沙箱
中圖分類號:TP309.2 文獻標識碼:A DOI:10.19881/j.cnki.1006-3676.2023.07.07
一、人工智能與數據安全
人工智能技術已經廣泛應用到各個領域,深刻影響著國家政治、經濟、社會、國防等各個領域的運行模式,已成為世界主要國家謀求新一輪國家科技競爭主導權的關鍵技術。我國非常重視人工智能發展和數據安全保護,二十屆中央國家安全委員會第一次會議強調,要提升網絡數據人工智能安全治理水平、推進國家安全法治建設。對人工智能應用中數據安全的法律規制進行分析,為人工智能技術健康發展和保障數據安全提供建議,符合國家安全形勢和戰略要求。
數據、算法、算力是人工智能的驅動力,其中,數據是人工智能的核心,“數據為體,智能為用”。[1]一方面,數據為人工智能提供學習樣本,人工智能的工作原理是基于大數據集和統計數據驅動的模式匹配過程[2],用于人工智能機器學習的數據集越豐富,質量越高,機器學習的效果就越好。另一方面,人工智能又提升了數據收集管理能力和數據挖掘利用水平,用戶在使用人工智能系統的過程中,通過端口將數據提供給人工智能服務系統,人工智能就可以從龐大的數據集中精準找到目標數據,并對其進行深度挖掘分析,進而從中挖掘出有利用價值的信息,以提供精準服務。[3]
數據安全是人工智能技術安全的關鍵。為人工智能提供學習樣本的數據,可以稱為“訓練數據”。這些數據是人工智能算法開發者在研發人工智能系統或產品時所賦予的樣本數據,其可能存在數據質量安全、數據投毒攻擊等風險,從而導致人工智能學習到錯誤信息,以致人工智能在決策時作出錯誤判斷。[3]此類數據風險主要源于人工智能內在技術的局限性,具有技術復雜性,并非法律規制所能解決的問題,因此不在筆者的討論范圍之內。人工智能技術濫用其強大的數據收集和數據分析利用能力導致的數據安全風險,遠比人們想象的可怕。人工智能技術濫用或不當應用導致的數據安全風險,如數據過度采集、數據歧視、數據濫用、數據壟斷等數據安全風險及法律規制,是筆者討論的重點。
二、人工智能應用中存在的數據安全風險
人工智能被普遍認為是一個能夠自主學習的機器或系統,其運行原理是從海量復雜且無序的數據集中,通過算法模型計算出一個結果,作為判斷和決策的依據。[3]數據在人工智能應用中的生命周期,包括數據采集、傳輸、存儲、處理、銷毀等環節,各個環節均隱藏了數據安全風險。人工智能領域存在的數據安全風險,主要有以下幾種:
(一)個人數據安全風險
1.個人信息泄露風險
目前,人工智能主要應用在智能系統和智能設備兩大模塊,智能系統包括生物特征識別、智慧城市系統、智能醫療系統等軟件系統,智能設備包括智能手環、智能手機、智能掃地機器人等各類智能終端產品。在用戶使用這些智能系統和智能產品的同時,人工智能便采集了用戶的人臉、指紋、聲音、心跳、基因等具有強個人屬性的生物特征信息[4],甚至在用戶不知情的情況下在后臺偷偷運行,收集與其所提供的服務無關的數據。[3]此外,人工智能還可以通過計算、分析、處理收集到的數據,分析用戶的心理活動,在用戶毫無意識時,獲取更多終端用戶不會隨意透露的隱私數據,甚至還會通過其自帶的算法誘導終端用戶提供更多隱私數據。[5]個人數據在人工智能面前一覽無余,隨著機器學習的不斷深化,個人將再無任何隱私和秘密可言。
2.數據濫用
數據濫用風險主要有兩種,其一,在社會消費領域可能會帶來差異化定價。其二,在信息傳播領域可能會帶來“信息繭房”效應。[4]差異化定價,就是所謂的“大數據殺熟”,利用人工智能對用戶消費習慣、興趣偏好等數據的深度挖掘分析而進行差異化定價,侵害用戶的知情權和公平交易權。而“信息繭房”效應是指用戶更多接受滿足自己偏好的信息和內容,導致社會不同群體的認知鴻溝拉大,個人意志的自由選擇受到影響。基于這種數據濫用的個性化內容推薦,甚至會推送虛假政治廣告,對選民意識形態和政治觀點進行干預和誘導,從而影響政治選舉,給國家和社會安全帶來嚴峻挑戰。[6]
此外,人工智能終端用戶并不能輕易地將操作記錄從人工智能設備中完全刪除,且大多數用戶對于刪除操作記錄數據并無意識。人工智能通過收集分析這些記錄,可以得出相對具體的個人數據信息,而這些個人數據會隨著人工智能所有權或使用權的流轉而不斷流轉,其儲存的個人數據信息會繼續在網絡空間中傳播和共享。[5]個人數據如失去控制般在網絡中流動、共享,導致個人在網絡中處于沒有防護的狀態。智能系統通過收集個人數據,再分析出有更大利用價值的信息,如購物軟件通過分析用戶瀏覽足跡、搜索記錄、加購記錄等數據,可以得出用戶的喜好和消費傾向,進而進行相關產品推送,將用戶變成“待割的韭菜”。
另外,人工智能終端用戶并不會考慮人工智能會將通過各種端口收集到的個人數據傳送到哪里。這些數據大多情況下會被傳輸到云端,從而進行大數據云計算,而不是存儲在本地設備中,至于數據上傳到云端后究竟去了哪里,便不得而知。
由于個人數據被不斷收集、分析、流轉,數據很有可能被不法分子攫取、利用,侵犯個人隱私權、人身權和財產權。個人數據信息被泄露后,侵權人利用人工智能系統可以輕易分析出特定自然人的畫像,甚至能夠對特定自然人的心理和行為進行預判,進而實施犯罪活動。
3.數據歧視和算法歧視
人工智能深度學習的運行模式,是通過模擬人腦的神經元建立神經網絡,數據輸入后經過算法黑箱輸出算法結果,產生人工智能決策。[3]人工智能算法黑箱具有技術上的復雜性,人工智能算法的設計、開發、應用由不同程序員完成,各個研發主體的工作是編寫源程序,即機器可識別的由“0”和“1”組成的代碼,而源程序和數據如何在機器內部運算,這是賦予機器源代碼的程序員也無法解釋的問題。[5]因此,人工智能系統可能會因為人類無法解釋算法黑箱而造成更大的傷害。
機器學習存在“算法黑箱”以及不可解釋性,導致人工智能技術天然存在內在局限性,人工智能決策偏差難以消除。人工智能在選擇和分析數據時,具有特定的價值傾向和價值選擇性,其價值偏差可能是賦予其源代碼的程序員自身的價值選擇或價值偏差,也有可能是輸入數據偏差所致,如互聯網數據收集到的更多是我國經濟發達地區、青年網民的數據特征,而邊遠地區和老年人群的數據特征無法全面覆蓋,最終導致人工智能決策缺乏公平性。
(二)企業數據安全風險
1.數據壟斷
存在于人工智能領域的企業數據安全風險,最主要的是數據壟斷問題。隨著互聯網和人工智能的發展,數據逐漸資源化、商品化,成為企業重要的生產要素。數據具有巨大的潛力,可以觸發更高效的業務運營,現代經濟活動、創新、增長都依賴于數據[7],企業數據權屬問題逐漸顯露。企業通過各種人工智能端口收集了大量個人數據,部分企業通過“算法共謀”形成了事實上的壟斷狀態,導致初創企業和研究機構在算法設計和優化過程中無數據可用,損害了人工智能行業整體的競爭、發展。
2.數據利益沖突
有學者認為,由于企業通過人工智能端口收集用戶個人數據幾乎沒有成本,卻能因此獲得巨大經濟利益,因此導致了數據收集者和數據提供者之間的利益不平衡。[8]也有學者認為,企業收集數據并非沒有付出成本,數據企業本身收集、存儲個人數據也需要付出相應的成本,其需要投入成本研發各種人工智能產品和系統,并向用戶提供相應的服務,如百度地圖、滴滴等智能軟件系統。[9]因此,企業免費提供其投入大量成本研發的智能產品服務,是其收集、利用個人數據所支付的合理對價,符合公平原則。[9]以上兩種觀點的對立,本質是數據權屬不明所導致的數據產權爭議問題。個人數據商業化利用過程中造成了數據權力異化,企業與企業之間,企業與用戶之間的利益沖突無可避免。
三、人工智能應用中數據安全的法律規制分析
人工智能應用中,固然存在數據安全風險問題,人工智能的發展必然會產生安全隱患,但是人們不能為了保護數據安全而因噎廢食,從而選擇不使用或者不發展人工智能,這并不能從根本上解決問題,并且誰都無法忽視人工智能創造的巨大經濟價值和便利。為了從根本上解決人工智能創造的經濟價值和數據安全風險之間的矛盾,國內外的法學家們試圖利用法律對其進行規制和平衡,但是這些法律路徑并不能完全適用人工智能領域的數據保護,都或多或少存在局限性。
(一)個人數據安全的法律規制
人工智能領域的個人數據保護沿襲了一般數據保護的路徑,即個人數據的私法保護,主要有隱私權路徑保護和財產權路徑保護。
1.隱私權規制
采用不同的法律保護路徑,那么其保護的方式也自然不同。個人數據隱私權保護路徑,主要是將個人數據納入民法侵權責任的保護范圍,通過侵權訴訟解決人工智能領域個人數據信息被侵犯的問題。1由于個人數據可以識別出特定自然人的身份信息,從而確定特定的自然人,并且人工智能可以通過個人數據窺探個人隱私。因此,人們自然而然想到通過隱私權這一絕對的人身權利保護個人數據這一法律路徑。[9]但是此路徑有其天然的弊端,并不適用于人工智能領域的個人數據保護。
首先,我國《民法典》尚未將個人數據進行確權,而是將其視為防御性利益予以保護[10],因為并沒有明確的侵權客體,因此難以將其納入侵權法的規制之中。如果將個人數據權益納入隱私權這一人身權利之中,有可能通過傳統的隱私權侵權進行法律規制,如將可以識別自然人身份信息的個人數據納入隱私權保護之中。但人工智能領域的有些數據并不涉及個人身份信息,如經過脫敏處理的匿名化的大數據,收集、分析、存儲、披露這些數據,不會直接對個人隱私或其他相關權利造成侵害,因此并不完全適用隱私權的保護。[11]
其次,侵權主體難以確認。在傳統的隱私權侵權中,侵犯隱私權的主體具有單一性或特定性,但是在人工智能的算法黑箱中,侵犯隱私權的過程具有復雜性、系統性,隱私權受侵害的威脅常常涉及多個主體[11],難以辨認真正的侵權主體,也就無法確認侵權行為與損害后果之間的因果關系,以及侵權主體的主觀過錯。因此,不滿足侵權責任的構成要件,隱私權的保護路徑在人工智能領域難以適用。
再次,歐盟《通用數據保護條例》認為,個人數據隱私權保護的重點是通過明確個人對數據信息擁有一定的權利(如收集數據的知情同意權、數據刪除權、限制處理權等),從而增強個人對其個人數據的控制能力,實現對個人隱私的保護。[12]個人數據隱私權保護,通過明確個人權利確實起到了保護個人數據隱私安全的作用,但是其對個人數據存在保護過度的風險。有經濟分析研究表明,《通用數據保護條例》并沒有充分實現個人隱私保護和數字經濟發展之間的平衡,總體而言,該條例的實施對歐盟數字經濟的影響是負面的。[12-13]
最后,《中華人民共和國個人信息保護法》明確規定,處理個人信息應當取得個人同意,基于個人同意處理個人信息的,個人有權撤回其同意……意在賦予個人包括知情權、決定權、撤回權、更正權、刪除權等在內的多項個人信息權。在一般的個人信息保護中,這些規定可能起到一定的規制作用,但在人工智能領域,實現以上個人信息權并不現實。以知情權為例,在使用人工智能時,不可能每一步操作都經過個人的知情同意,即使有些人工智能系統在用戶使用前設有隱私聲明或用戶協議,那也只是高度格式化的隱私條款,“事實上幾乎沒有人有時間、能力或決心瀏覽一遍人工智能應用中復雜的條款和知情同意的條件,更不用說要對每次給定的同意書都進行瀏覽。”[14]用戶面臨要么選擇全部拒絕而無法使用人工智能,要么選擇全部同意以使用其提供的便利服務的抉擇。從這個角度上講,知情同意權和格式化的隱私條款對于個人來說,幾乎“形同虛設”,決定權、撤回權、更正權和刪除權同時也難以實現。
2.財產權規制
有學者提出,應當授予數據主體數據所有權,通過確立個人擁有對個人數據的財產權利來保護數據利益。[15]個人數據財產權保護是將個人數據設想成一種對抗不特定第三人的個人數據自決權或財產權,也就是說,一切獲得他人個人數據的行為,都必須事先征得數據主體的同意,未經數據主體同意,一切獲取他人個人數據的行為都是違法行為。[11]這種觀點認為,數據是現代社會中的重要生產要素,數據蘊藏著巨大的經濟價值,而數據本身來源于公民個人,數字企業獲得數據是由于公民個人的授權,公民個人天然有權決定自己的個人數據能否以及如何被他人獲取和利用。個人數據財產化之后,公民個人可以自由選擇在數據市場中將自己的個人數據當作商品進行交易,從而有利于數據流通,促進數據市場繁榮。然而,在人工智能領域和大數據技術下,以財產權保護個人數據和規范其使用,并不能實現其制度目的。理由如下:
首先,個人數據并非所有權的客體—物。傳統民法中的“物”具有可控性,但是數據天然具有可獲得性、非排他性和流通性,無法為個人所獨占和控制。公民個人無時無刻不在產生個人數據,包括出行軌跡、上網瀏覽記錄、網購記錄等各種數據信息,生活在大數據時代,公民個人不可能不產生數據,而且也不可能時時刻刻都關注自己的個人數據信息的流轉,因此根本不可能完全控制數據。此外,數據雖然具有無形性,但是并不構成“無形物”,因為數據本身并不像智力成果那樣具有信息內容的專屬性和壟斷性,數據必須要流通和共享。數據也不像電力、熱力等無形物一樣,本質上是有體財產的延伸,屬于有體財產的范圍。[16]
其次,個人數據并不具有財產性。在人工智能大數據領域,只有收集足夠多的數據,并經過深度分析處理才能產生價值,單獨交易個人數據幾乎沒有市場價值,也無法進行單獨的個人數據財產權交易。在經濟學上,產權的概念僅僅針對有價值的稀缺物品而言,因為稀缺才有產權和交易的需要,而個人數據就像陽光和空氣一樣充足,沒有競爭性也不需要產權制度來規范其使用。[17]
最后,在現代個人數據隱私泄露事件層出不窮的背景下,并非所有數據主體都愿意在公開的數據市場中交易其個人數據,市場并不是萬能的,數據市場也一樣,如果數據主體不愿再交易其個人數據,那么數據市場就會面臨失靈的危險。此外,賦予個人數據財產權,也就是將數據的控制權交到數據主體(個人)手上,容易導致數據保護過度,人工智能等數字企業收集和使用個人數據的成本將會大幅提升,從而打擊數字企業乃至整個數據產業的積極性,不利于人工智能等數據企業的創新與發展。
(二)企業數據安全的法律規制
針對人工智能領域企業數據面臨的風險,現階段主要有《中華人民共和國著作權法》(簡稱《著作權法》)和《中華人民共和國反不正當競爭法》(簡稱《反不正當競爭法》)兩種法律路徑保護。
1.《著作權法》規制
數據和知識產權所保護的智力成果都具有無形性的特點,數據與知識產權客體在性質上具有內在的相似性,知識產權的調整對象主要來自智力成果作為一種特定信息所具有的共享性[18],而數據也天然具有共享性。《著作權法》第二章第二節第十五條規定,“匯編若干作品、作品的片段或者不構成作品的數據或者其他材料,對其內容的選擇或者編排體現獨創性的作品,為匯編作品,其著作權由匯編人享有”。有學者提出,將企業數據納入《著作權法》關于匯編作品的保護范圍,該觀點認為,數字企業形成的數據合集屬于數據匯編作品而享有著作權,但是匯編作品著作權保護并不完全適應人工智能領域的企業大數據合集的保護。[19]
匯編作品受著作權保護的前提首先必須是作品,而作品要求具有獨創性,法律保護的是獨創性而非數據和事實本身,因此匯編作品著作權并不能保護所有企業數據集合,而只能保護其中構成作品且具有獨創性貢獻的部分。[19]在人工智能領域的大部分數據,只是單純收集個人數據而形成數據合集,并不具有獨創性,不能為《著作權法》所保護。只有經過人工智能對原始數據進行挑選和算法計算后,所產生的具有獨創性的選擇與編排的數據,才符合著作權的匯編作品保護的要求。
此外,著作權保護具有思想和表達二分的特點,著作權只保護具有獨創性的表達而不保護思想,為了促進社會進步和發展,思想由全人類共享。所以,著作權保護的是匯編時的獨創性而非數據本身,著作權并不能有效阻止數據本身被復制和使用,而其他數字企業通過爬蟲復制數據信息就能達到目的,其需要的往往是數據本身。在實踐中,《著作權法》對企業匯編數據的獨創性判斷缺乏統一的標準和依據,企業匯編數據的獨創性難以認定[19],這也是《著作權法》在人工智能領域數據保護中的局限性。
2.《反不正當競爭法》規制
針對《著作權法》對企業數據保護不足的問題,有學者提出通過《反不正當競爭法》中的侵犯商業秘密的條款對其進行保護。[20]在司法實踐中也已經出現侵犯數據商業秘密的不正當競爭糾紛案例。根據《反不正當競爭法》第九條規定:“商業秘密,是指不為公眾所知悉、具有商業價值并經權利人采取相應保密措施的技術信息、經營信息等商業信息。”形成人工智能領域的數據集合,需要經過數據篩選、補充、格式調整、數據刪減或加密等措施,并因此付出巨大成本,同時能為權利人帶來巨大經濟利益,人工智能數據的原始收集者往往采取技術措施阻止他方獲取自身的數據。從整體上來看,人工智能領域的數據合集符合法律對商業秘密的界定,但是這并不能說明《反不正當競爭法》的商業秘密保護條款是對數據的完美保護機制。
是否能夠認定人工智能領域中的數據集合屬于商業秘密,這本身就具有一定的可探討性。反對觀點認為,數據集合中的數據大多來自公共領域,任何人均可從公開渠道直接獲取,所以將公眾所知的數據匯編后形成的數據集合認定為商業秘密是荒謬的。[21]支持觀點則認為,只要匯編數據作為一個整體無法輕易從公共領域中獲取,就依然具備商業秘密性,成為商業秘密。[22]學界通說認為,商業秘密屬于財產性權利[22],如果認定人工智能領域的數據集合屬于商業秘密,那就應當承認人工智能數字企業對數據集合享有財產性權利,主要是享有數據集合的所有權,至于是否能夠認定數字企業享有數據集合的所有權,也仍待探討。有觀點認為,數字企業對數據集合天然享有所有權,就像因蓋房屋而原始獲得房屋的所有權一樣[9],但是這樣不可避免會導致很多數據集合無法被公眾獲取,從而加劇數據壟斷。
四、人工智能應用中數據安全的法律規制建議
現有的數據保護的法律路徑,大都不是專為保護人工智能應用中的數據安全而設定的,因此在適用過程中有些牽強。而且,現有數據隱私權、財產權和知識產權保護路徑的不適用,導致人工智能應用中的數據安全面臨著保護不足和保護過度的兩難。因此,筆者認為,簡單將數據權益納入某一現行權利體系之中,并不能一勞永逸地解決人工智能數據安全問題,應具體問題具體分析,對數據進行場景化保護。基于以上分析,筆者提出以下4個方面的建議:
(一)加快數據安全立法和數據確權
首先,現有的法律制度并不能完美解決人工智能應用數據安全規制的實踐問題,數據市場交易的穩定性、匿名化處理的數據信息、非原創數據集合保護等問題仍處于法律制度真空狀態。且各種法律規制制度呈現碎片化、分散化的狀態,缺少體系性。因此,應加快數據安全立法,構建新型的體系化的數據法才是破解問題的根本之道。
其次,數據安全立法首要應正視數據私法確權問題。數據權屬問題是制約人工智能等新興技術發展的難題,加快數據確權、厘清數據權屬關系對于保護人工智能應用中的數據安全至關重要。我國已在數據安全、網絡安全和個人信息保護層面出臺了保護數據安全的相關法律法規,但數據權屬界定問題尚不清晰[23],應在立法層面分類確立個人數據權、企業數據權和公共數據權。數據是復合型權益,在立法確權過程中應以人格權保護優先、以價值貢獻為重要依據、個人權益保護和產業發展利益平衡為原則[24],以建立物權、知識產權之外的新型數據財產權為基礎,其上設置數據來源者權、數據持有者權、數據生產者權等子權利,場景化分類確定數據權利,對數據資源進行統一規制,逐步形成數據權利基礎框架。
(二)數據安全的“穿透式”監管
“穿透式”監管是金融科技領域監管的重要方式,可以借鑒“穿透式”監管模式到一般性的人工智能應用的數據安全規制中。“穿透”是指刺破事物的面紗以發現其本質的手段,通過對人工智能應用的主體穿透、產品屬性穿透、嵌套層級穿透等技術手段,來分析人工智能應用中數據安全風險的法律本質[25],找到數據安全風險的本質與法律規范之間的連接點,從而決定具體適用何種法律規范。例如,數字企業非法爬取其他企業的數據,“穿透”其本質構成不正當競爭,相應地,則可利用《反不正當競爭法》來維護數字市場的公平競爭環境。
(三)數據安全“監管沙箱”
對人工智能應用中的數據安全進行規制,往往面臨著發展與規范的價值平衡問題。對其規制過于嚴格,導致對數據過度保護,從而產生人工智能領域的“寒蟬效應”,扭曲數據收集和數據驅動的創新,從長遠來看,會阻礙人工智能的發展,降低數據共享的社會效益。對其規制過于寬松,則會導致數據安全風險泛濫,數據相關權益受到侵害,降低公眾對人工智能技術發展的信心。因此,不妨轉變人工智能應用中數據安全的監管理念,進行包容性監管。“監管沙箱”可以為新型的人工智能產品和技術提供一個暫不受法律規制的“安全區”,創造一個安全的測試環境,以便人工智能技術試錯和完善。[26]將數據安全風險束縛在沙箱內,測試人工智能產品和服務中數據安全風險和化解方案,若測試結果表明其數據安全風險嚴重危害權利人的利益,且無法有效化解風險,那么該人工智能產品或服務將無法投入市場。在沙箱測試過程中,對測試的客戶提供損失補償等保護性措施[27],保護權利人利益同時鼓勵人工智能行業大膽創新。
(四)數據安全協同治理
對人工智能應用中數據安全的治理,并不是一蹴而就的,也并非單純依靠一方力量所能完成的,需要聚集多方治理力量,協同發揮作用,共同實現對人工智能應用中數據安全的治理。應構建全國信息資源共享體系,實現不同法律部門間的協同治理,如私法規制協同經濟法、行政法等公法規制,不同司法機關之間、不同行政部門之間協同治理,以及鼓勵社會公眾參與人工智能數據安全治理,鼓勵人工智能研發企業提升自治力度,承擔起社會責任。加強政企合作,加快公共服務領域數據集中和共享,與企業積累的社會數據進行平臺對接,提高社會協同治理水平。
注釋:
1. 《中華人民共和國民法典人格權編理解與適用》指出“《民法典》侵權責任編調整因侵害民事權益產生的民事關系,包括侵害人格權。”王利明教授指出,人格權請求權適用于未構成侵權的情形,如更正請求權、刪除請求權、回應權(參見王利明:《論人格請求權與侵權損害賠償請求權的分離》,載《中國法學》2019年第1期,第224-225頁)。因此,筆者認為當個人數據涉及個人隱私時,侵犯個人數據即侵犯個人隱私權,符合侵權責任的構成要件(過錯、侵權行為、因果關系、損害),因而適用侵權請求權要求侵權人承擔損害賠償責任。
參考文獻:
[1] 林梓瀚,郭豐.人工智能時代我國數據安全立法現狀與影響研究[J].互聯網天地,2020(09):20-25.
[2] Thomas D G,Damon J W.Show Us the Data:Privacy,Explainability,and Why the Law Cant Have Both[J].George Washington Law Review,2020(06):1350.
[3] 林偉.人工智能數據安全風險及應對[J].情報雜志,2022(10):88,105-111.
[4] 中國信息通信研究院安全研究所.人工智能數據安全白皮書(2019)[R].北京:中國信息通信研究院安全研究所,2019.
[5] 祝高峰.論人工智能領域個人信息安全法律保護[J].重慶大學學報(社會科學版),2020(04):150-160.
[6] 楊洸.數字媒體時代的數據濫用:成因、影響與對策[J].中國出版,2020(12):3-8.
[7] Burri M.Understanding the Implications of Big Data and Big Data Analytics for Competition Law:An Attempt for A Primer[J].New Developments in Competition Law and Economics,2019:241-263.
[8] Malgieri G,Custers B.Prcing Privacy-the Right to Know the Value of Your Personal Data[J].Computer Law&Security Review,2018(02):289-303.
[9] 程嘯.論大數據時代的個人數據權利[J].中國社會科學,2018(03):102-122,207-208.
[10] 李媛.民法典為個人信息保護確立方向[N].中國社會科學報,2020-07-22(A04).
[11] 丁曉東.個人信息私法保護的困境與出路[J].法學研究,2018(06):194-206.
[12] 唐要家.中國個人隱私數據保護的模式選擇與監管體制[J].理論學刊,2021(01):69-77.
[13] Chivot E,Castro D,Chivot E,et al.What the Evidence Shows about the Impact of the GDPR After One Year[EB/OL].(2019-06-17)[2023-07-02].https://www2.datainnovation.org/2019-gdpr-one-year.pdf.
[14] Richards N M,King J H.Big Data Ethics[J].Wake Forest Law Review,2014(49):393.
[15] 劉德良.個人信息的財產權保護[J].法學研究,2007(03):80-91.
[16] 梅夏英.數據的法律屬性及其民法定位[J].中國社會科學,2016(09):164-183,209.
[17] 吳偉光.大數據技術下個人數據信息私權保護論批判[J].政治與法律,2016(07):116-132.
[18] 郝思洋.知識產權視角下數據財產的制度選項[J].知識產權,2019(09):45-60.
[19] 徐實.企業數據保護的知識產權路徑及其突破[J].東方法學,2018(05):55-62.
[20] 楊雄文,黃苑輝.論大數據的商業秘密保護—以新浪微博訴脈脈不正當競爭案為視角[J].重慶工商大學學報(社會科學版),2019(04):138-145.
[21] 芮文彪,李國泉,楊馥宇.數據信息的知識產權保護模式探析[J].電子知識產權,2015(04):97.
[22] 崔國斌.大數據有限排他權的基礎理論[J].法學研究,2019(05):3-24.
[23] 韋葦,任錦鸞,李文姬.基于國際比較的數據治理體系及優化策略[J].科技智囊,2022(07):1-7.
[24] 國務院發展研究中心創新發展研究部.數字化轉型:發展與政策[M].中國發展出版社,2022:111-130.
[25] 葉林,吳燁.金融市場的“穿透式”監管論綱[J].法學,2017(12):12-21.
[26] 郭金良.我國智能投資顧問發展的法律挑戰及其監管應對[J].江海學刊,2019(06):172-178,255.
[27] 柴瑞娟.監管沙箱的域外經驗及其啟示[J].法學,2017(08):27-40.
Abstract:Data is one of the basic elements driving the full rise of artificial intelligence wave,and data security is the core of artificial intelligence security. However,the rapid development of artificial intelligence also brings the risk challenge of data security. The article summarizes the data security risks existing in the application of artificial intelligence from the aspects of personal data security risks and enterprise data security risks,and analyzes the legal regulations of data security in the application of artificial intelligence,and puts forward relevant suggestions from the aspects of accelerating data security legislation and validation,“penetrating”supervision of data security,“regulatory sandbox”of data security,and collaborative governance of data security.
Key words:Artificial intelligence;Data security;Data validation;“Penetrating”supervision;Regulatory sandbox