999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能時代個人數據保護的困境與出路

2024-08-17 00:00:00武騰
現代法學 2024年4期

摘 要:人工智能的發展離不開對大量個人數據的處理。只有妥當適用《個人信息保護法》中的目的限制原則和有關個人知情權、決定權的規則,才能有效保障人工智能安全發展。目的限制原則包括“兩肢”,一是處理目的自身的限制,二是處理目的對處理方式的限制。目的限制原則與人工智能發展之間有緊張關系,面臨適用困境。該原則喪失實效,既會造成最小必要原則等多項原則難以適用,又不利于個人知情權、決定權的行使,還易致使個人數據交易欠缺自愿性、公平性。我國目的限制原則采用“寬進嚴出”模式,個人數據處理者不必將人工智能發展和應用中對個人數據的每一步處理活動加以披露,而是應分別披露訓練機器學習模型、制作用戶標簽和畫像、提供個性化服務等不同處理目的、處理方式,并揭示其各自風險。經由人工智能制作用戶標簽和畫像的,屬于個人數據處理活動。該處理活動只有同時包含體現公平價值的設計,才具有充分的合理性。此外,還應構建程序性規則以保障個人能夠以集體的方式行使個人對標簽、畫像享有的有限決定權。

關鍵詞:人工智能;個人數據;目的限制原則;數據畫像;個人信息保護

中圖分類號:D923 文獻標志碼:A

近年來,我國高度重視推動人工智能發展。2023年7月24日,中共中央政治局會議提出,“促進人工智能安全發展”。①2023年8月15日起施行的《生成式人工智能服務管理暫行辦法》第3條強調“國家堅持發展和安全并重、促進創新和依法治理相結合的原則”,該辦法對生成式人工智能的安全風險作出專門調整。2023年6月,國際計算機學會通過了《關于開發、部署和應用生成式人工智能技術的若干原則》,將個人數據保護列為一項主要原則。

See Principles for the Development, Deployment, and Use of Generative AI Technologies, Association for Computing Machinery, https://www.acm.org/binaries/content/assets/public-policy/ustpc-approved-generative-ai-principles, last visited on June 10, 2024.新一代人工智能的發展需要利用海量個人數據,

個人數據是指記錄個人信息的數據。在人工智能語境下,不必嚴格區分個人數據與個人信息。個人數據安全是人工智能安全發展下的重要課題。

個人數據是人工智能的“燃料”,有關個人數據保護和利用的法律從源頭上影響人工智能行業的發展。

參見汪慶華:《人工智能的法律規制路徑:一個框架性討論》,載《現代法學》2019年第2期,第61頁。若嚴格適用個人數據保護相關法律,可能阻礙人工智能的發展。圍繞如何適用目的限制原則和最小必要原則,學界便產生分歧。有學者指出,無論在歐盟還是在我國,目的限制原則與必要原則的規定使得數據很難被用于人工智能訓練,因為除了極少數專門采集的個人數據,絕大部分個人數據被收集時,其目的都只和消費等個人目的相關。

參見丁曉東:《論人工智能促進型的數據制度》,載《中國法律評論》2023年第6期,第178頁。有學者則認為,生成式人工智能的算法模型運行時,其技術發展訴求不能成為違規利用個人數據的理由,不能過度收集和處理個人數據,應適用最小必要原則使個人權益受到的限制盡量處于最低水平。

參見劉艷紅:《生成式人工智能的三大安全風險及法律規制——以ChatGPT為例》,載《東方法學》2023年第4期,第34-35頁。可見,學界對人工智能快速發展背景下個人數據保護基本原則如何適用存在不同觀點。

在人工智能發展實踐中,個人數據保護的基本原則和具體規則尚未得到全面遵循,個人信息權益也未受到充分保護。大力投入人工智能技術開發的騰訊,在其《微信隱私保護指引》介紹了大規模個人信息處理的情況。該文件第1.34條規定:“我們可能將通過某些功能所收集的信息用于我們的其他服務。例如,我們可能將你在使用我們某一功能或服務時我們收集的信息,在另一功能或服務中用于向你或你的好友提供特定內容,包括但不限于展示廣告(你可以通過‘我—設置—個人信息與權限—個性化廣告管理’管理微信為你提供的個性化廣告)。”

參見《微信隱私保護指引》(2023年11月10日更新),https://weixin.qq.com/cgi-bin/readtemplate?t=weixin_agreement&s=privacy&cc=CN,2024年5月13日訪問。此處關于處理目的、處理方式的描述十分抽象難懂。該規定列出的主要示例是,“基于特征標簽進行間接人群畫像并提供更加精準和個性化的服務和內容”。制作特征標簽、進行人群畫像和提供個性化服務等活動被壓縮在一條示例之中,處理目的就落腳于個性化推薦。如此一來,前面的活動似乎僅僅是個性化推薦的一部分,用戶可以通過個性化廣告服務的管理進行自主選擇,其個人信息權益似乎已經得到周全照顧。然而,即使用戶關閉了微信中的個性化廣告服務,其個人信息仍會被大規模收集和加工,其標簽和畫像仍然會被制作,個人決定權的行使范圍十分有限。

其實,訓練機器學習模型、制作標簽和畫像、個性化推薦是三項不同的活動。三者并非在技術上必然同時發生,而是人工智能商業化應用的不同步驟,各個步驟對個人權益有不同的影響,個人可以行使的權利范圍也有所不同。實踐中已經暴露出的問題包括:其一,個人數據處理目的透明度低,機器學習訓練、制作標簽和畫像等基本上被掩蓋在個性化推薦這一目的之下,僅僅作為個性化推薦的前置條件被提及,不具有明確性;其二,制作標簽和畫像等處理目的合理性不充分,基本上依附于個性化推薦的合理性,而未顯示出其自身的合理性;其三,在人工智能商業化應用中,用戶很難獲知其標簽究竟包括什么、是否準確,也很難修改。用戶即使拒絕個性化推薦,也無力影響企業對標簽、畫像的制作。總之,無論是《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)第6條中的目的限制原則,還是該法有關個人知情權、個人決定權的規則,在實踐中尚未得到全面遵循,進而未彰顯出其本應具有的增加人工智能透明性、可解釋性和保障個人自主決定權的功效。

《個人信息保護法》是有關個人數據保護和利用的基礎性法律。該法生效后,以人工智能大模型為代表的人工智能發展浪潮迎面而來。該法的適用不僅在理論上存有分歧,在實踐中也面臨較大挑戰。有必要研究該法規定的目的限制原則能否、如何有效適用于人工智能發展活動,該法規定的個人知情權規則、個人決定權規則能否、如何適用于個人標簽、畫像的制作活動。

一、人工智能發展中個人數據保護的困境

在人工智能發展中,個人數據保護的困境主要體現在兩個方面,一是目的限制原則及相關原則的適用陷入困境,難以發揮實際功效;二是個人信息權益的實現面臨較大困境,個人知情權規則、個人決定權規則在個人標簽、畫像制作過程中未得到

有效適用。

(一)目的限制原則適用面臨的困境

目的限制原則是國內外個人數據保護法普遍接受的基本原則。在20世紀70年代美國行政部門提出的公平信息實踐原則中,區分目的特定原則(purpose specification)與使用限制原則(use limitation)。在經濟合作與發展組織(以下簡稱經合組織)《隱私保護和個人數據跨境流通指南》(1980年發布,2013年修正)

Recommendation of the Council concerning Guidelines governing the Protection of Privacy and Transborder Flows of Personal Data \,OECD, https://legalinstruments.oecd.org/public/doc/114/114.en.pdf, last visited on June 10, 2024.和歐洲《有關個人數據自動化處理中個人保護的公約》(以下簡稱《108號公約》)

Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data, The Council of Europe, https://rm.coe.int/1680078b37, last visited on June 10, 2024.中,同樣區分目的特定原則與使用限制原則。歐盟2016年《通用數據保護條例》

Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation). See Official Journal of the European Union, L 119/1.將目的限制與使用限制統一作出規定。在歐盟法中,目的限制原則包括兩部分內容:一是收集目的必須特定、明確和正當;二是使用不得與上述目的不相兼容,從而確立了目的限制原則的所謂“兩肢”。

《個人信息保護法》第6條內容豐富,國內學者針對目的限制原則的內涵及其與最小必要原則的關系提出不同意見。有的認為,該法第6條規定的目的原則相當于歐盟法上的目的限制原則和數據最小化原則。

參見張新寶:《個人信息處理的基本原則》,載《中國法律評論》2021年第5期,第22頁。有的認為,該法第6條第1款規定了目的限制原則的三個層次,第2款關于數據最小化原則的規定則是目的限制原則與必要原則在個人信息收集環節的體現。

參見程嘯:《論我國個人信息保護法的基本原則》,載《國家檢察官學院學報》2021年第5期,第10-13頁。有的認為,該法第6條確立了目的限定原則,是比例原則中適當性與必要性原則的混合。

參見申衛星:《論個人信息保護與利用的平衡》,載《中國法律評論》2021年第5期,第30-31頁。還有的認為,該法第6條第1款規定了目的性原則與必要性原則。

參見龍衛球主編:《中華人民共和國個人信息保護法釋義》,中國法制出版社2021年版,第24頁。總之,多數意見認為,《個人信息保護法》第6條第1款是目的限制原則的主要依據,且該款規定與最小必要原則有密切聯系。本文認為,一方面,應采用“兩肢法”界定目的限制原則;另一方面,應區分目的限制原則與最小必要原則。目的限制原則包括兩方面內容,一是處理目的自身的限制,即處理目的必須明確、合理;二是處理目的對處理方式的限制,即處理方式與處理目的必須直接相關。至于《個人信息保護法》第6條中有關“采取對個人權益影響最小的方式”“收集限于最小范圍”等規定,屬于對處理方式所作的具體要求,雖然需要結合處理目的來加以判斷,但明顯具有相對獨立性,適宜將其作為最小必要原則的內容。

之所以區分目的限制原則與最小必要原則,主要基于以下考慮:第一,目的限制原則與最小必要原則各有側重,前者側重于處理目的的屬性,以及目的所產生的拘束力,后者側重于處理方式的內容,以及處理方式是否超出最小范圍或者帶來不合比例的后果;第二,對于目的、手段以及兩者之間的關聯,只有分層次考察,才便于劃定處理行為的邊界,才有助于準確適用法律。

如前所述,互聯網企業發布的隱私政策大多會對個人信息處理目的予以介紹,但是有關處理目的的介紹往往層次不清、易生歧義。在司法實踐中,有的人民法院在圍繞個人數據處理行為是否符合法律規定進行審理時,尚未根據目的限制原則進行說理。在“陳某訴北京百度網訊科技有限公司個人信息保護糾紛案”

參見湖北省黃岡市中級人民法院(2021)鄂11民終3136號民事判決書。中,百度公司既經營搜索引擎,又經營貼吧,搜索引擎中有關搜索記錄的個人信息被用在貼吧產品中,用于個性化推薦。該案焦點問題之一是,上述有關搜索記錄信息的處理是否符合法律規定。人民法院認為,“一個公司基于其開發產品而獲得的用戶信息屬于公司重要資產,其有權在合理限度內在其其他產品中積極使用。同時,百度公司就百度平臺產品設置了綜合性的隱私政策平臺,對于搜索記錄這類僅反映用戶一般偏好的信息而言,將其遷移至關聯產品中予以使用的行為并未超出一般社會認知的合理期待,即未超出對用戶信息的合理使用限度”。參見湖北省黃岡市中級人民法院(2021)鄂11民終3136號民事判決書。其實,搜索記錄中很可能包含個人不希望在社交中為他人所知悉的興趣、需求,如果可以不經過個人同意,便用于其他產品之中,尤其是應用到具有社交屬性的場景中,可能超出公眾的合理期待。搜索記錄被廣泛商業化應用,可能直接威脅個人隱私的核心領域。人民法院在處理這類糾紛時,應當充分認識并發揮目的限制原則的功效。

盡管在該案審理之時《個人信息保護法》尚未生效,該案二審法院已經結合《個人信息保護法(草案)》(第二次審議稿)對涉案信息是否構成個人信息予以認定;其未認識到目的限制原則的重要作用,實屬遺憾。根據目的限制原則的指引,處理這類糾紛的應然路徑是先查明企業在處理搜索記錄信息時是否將個人信息處理目的予以明確化,再判斷該處理目的是否具有充分的合理性,最后判斷將搜索記錄用于其他產品中并開展個性化推薦是否為實現該處理目的所必需。

目的限制原則缺少實際功效的根源,在于其與人工智能發展之間具有深層次的緊張關系。傳統個人數據保護法的主要宗旨是限制個人數據的處理,并使其對數據主體透明。為此,需要使個人數據處理的各個單獨階段對數據主體保持透明,并獲得數據主體的同意。

參見\尼古拉斯·馬奇:《人工智能與數據保護的基本權利:為技術創新和創新保護打開大門》,李輝譯,載彭誠信主編:《人工智能與法律的對話2》,上海人民出版社2020年版,第39頁。目的限制原則、最小必要原則、透明原則等均是以此理念為基礎,協力促使上述目標實現。

人工智能的快速發展卻給上述目標的實現帶來嚴峻挑戰。現代意義上的人工智能(artificial intelligence,簡稱AI)誕生于1956年的達特茅斯人工智能大會,人工智能研究和應用的主要目的是,讓人造的機器能開展本來只有依靠人之智慧才能開展的活動。

參見\瑞恩·艾伯特:《理性機器人:人工智能未來法治圖景》,張金平、周睿雋譯,上海人民出版社2021年版,第29頁。人工智能主流模型有二,一種是符號主義或者經典邏輯,又被稱為老好人人工智能(Good Old-Fashioned AI),機器根據人編寫好的特定處理規則處理特定問題;另一種是聯結主義或者人工神經網絡,人并未事先編寫特定處理規則,而主要由機器根據訓練的數據自行發現特定處理規則。

參見\瑞恩·艾伯特:《理性機器人:人工智能未來法治圖景》,張金平、周睿雋譯,上海人民出版社2021年版,第37頁。近年來,計算機、互聯網等技術迅速發展,聯結主義風頭正盛。

各種人工智能類型及相關流派的發展演變,參見\瑪格麗特·博登:《AI:人工智能的本質與未來》,孫詩惠譯,中國人民大學出版社2017年版,第8-23頁。算力、算法、數據成為人工智能蓬勃發展的主要推動力量。在三者之中,數據是算法的燃料,因為只有依靠海量數據,才能訓練算法,從而發展更高級的人工智能。成功的大型互聯網企業都會運用智能技術從海量個人數據中“挖掘知識”,以滿足客戶的個性化需要。不過,計算機技術專家早已指出,數據挖掘是數據收集之后典型的二次性目的(secondary purpose);由于從數據中挖掘知識具有“探索性質”(exploratory nature),所以幾乎不可能事先知道什么該挖掘,什么不該挖掘。

See Jiawei Han & Micheline Kamber, Data Mining: Concepts and Techniques, Elsevier, 2006, p. 679.當前人工智能發展的主流模式之一是機器學習,在無監督學習的情況下,即使是開發機器學習的程序員也難以理解人工智能獲得結果的全部過程;依法規范每一步數據處理的想法與這種“黑箱”的現實格格不入。

參見\尼古拉斯·馬奇:《人工智能與數據保護的基本權利:為技術創新和創新保護打開大門》,李輝譯,載彭誠信主編:《人工智能與法律的對話2》,上海人民出版社2020年版,第40頁。如果將每一次數據收集、每一步數據處理都按照目的限制原則的要求予以披露,并獲得個人的同意,會給人工智能發展帶來巨大的成本乃至不確定性。有意見認為,嚴格適用目的限制原則不利于對個人數據的利用。

參見朱榮榮:《個人信息保護“目的限制原則”的反思與重構——以〈個人信息保護法〉第6條為中心》,載《財經法學》2022年第1期,第18頁。有意見甚至認為,在人工智能時代應當削弱甚至放棄目的限制原則,因為這一原則以及傳統的個人數據保護理念起源于20世紀70年代,已經無法對人工智能技術進步作出充分回應。

參見\尼古拉斯·馬奇:《人工智能與數據保護的基本權利:為技術創新和創新保護打開大門》,李輝譯,載彭誠信主編:《人工智能與法律的對話2》,上海人民出版社2020年版,第41頁。

然而,目的限制原則在個人數據保護法中處于“基石”地位,其他原則大多奠定在目的限制原則這一基礎之上。如果嚴重削弱甚至放棄目的限制原則,那么最小必要原則、透明原則、質量原則等諸多原則也會難以適用,從而出現個人數據保護多項原則一并失效的后果。其一,目的原則喪失功效造成最小必要原則適用困難。在目的限制原則喪失實際功效的情況下,處理目的往往不明確、不特定。如此一來,就難以判斷處理方式是否與處理目的直接相關,也無從判斷收集范圍是否最小化、給個人權益造成的不利影響是否最小化。

參見武騰:《最小必要原則在平臺處理個人信息實踐中的適用》,載《法學研究》2021年第6期,第74頁。其二,目的限制原則喪失功效意味著透明原則未被遵循。根據《個人信息保護法》第7條規定,個人信息處理者應向個人告知處理目的、處理方式等,只有目的本身足夠“透明”,滿足個人充分知情之需,才能符合透明原則的要求。目的限制原則喪失功效意味著透明原則根本未得到貫徹。其三,目的限制原則喪失功效造成質量原則適用困難。《個人信息保護法》第8條規定:“處理個人信息應當保證個人信息的質量,避免因個人信息不準確、不完整對個人權益造成不利影響。”在個人信息處理目的不明確的情況下,其所需要的個人信息的準確度、完整度也難以確定。只有將處理目的明確揭示出來,才能基于該目的判斷所收集的數據是否足夠準確、足夠完整,是否已經及時更新。總之,個人數據保護的各原則之間雖然重心有所不同,但彼此關聯緊密,拋棄目的限制原則或者放任其喪失實際功效,將造成個人數據保護的諸多原則均無法發揮作用。

(二)個人信息權益實現面臨的困境

《個人信息保護法》第44條規定,個人對其個人信息處理享有知情權、決定權,有權限制或者拒絕他人對其個人信息進行處理。知情權、決定權是個人在個人信息處理活動中的“基礎性、概括性”權利。

參見楊合慶主編:《中華人民共和國個人信息保護法釋義》,法律出版社2022年版,第113頁。知情是決定的前提,決定是知情的目的。告知規則、查閱復制規則、解釋說明規則等主要體現了知情權的要求,更正補充規則、刪除規則、可攜帶規則等主要體現了決定權的要求。這些規則中的具體權利具有工具性、手段性特點,其功能是幫助實現個人的自我決定,維護人格自主發展。自我決定是民法和憲法中的一般原則,自我決定原則是私法自治的組成部分,在意思表示瑕疵等領域有十分廣泛的體現。

參見\托馬斯·M. J. 默勒斯:《法學方法論》(全本·第6版),杜志浩譯,北京大學出版社2022年版,第511頁。不過,私法自治中“永恒存在的是權力配置不均衡時常會危及私法自治的矛盾”。

\維爾納·弗盧梅:《法律行為論》,遲穎譯,法律出版社2013年版,第11頁。在一方當事人的自主決定權被事實上剝奪時,就需要通過強制性規定來加強對該方當事人的保護,以矯正權力配置不均衡。向個人賦予個人信息相關各項權利,就是為了幫助實現個人自主決定。

個人信息權益本質上是一種維護自主決定的人格權益。

有意見認為,個人信息權利體系包括指向個人信息初次分配秩序的個人信息決定權和指向個人信息交換處理秩序的知情權、攜帶權。參見蕭鑫:《個人信息權的分析與建構》,載《法學研究》2023年第6期,第73頁。一方面,個人信息相關各項權利有憲法上的加持,能夠對國家產生效力。

參見王錫鋅:《國家保護視野中的個人信息權利束》,載《中國社會科學》2021年第11期,第115頁。另一方面,個人信息權益具有民事權益屬性,能夠對私人產生效力。當處理個人信息的企業未依法履行告知義務、更正義務、刪除義務等義務時,個人可依據《個人信息保護法》第50條第2款訴請人民法院判決該企業履行上述行為義務。

依據《個人信息保護法》第14條第1款,基于個人同意處理個人信息的,該同意應當由個人在充分知情的前提下自愿、明確作出。個人知情權規則具有基礎地位,知情權的有效實現是個人行使其他權利的前提。

然而,在有關人工智能發展的個人數據處理中,并非所有企業都向個人清楚告知了處理目的、處理方式以及相關風險。有的智能產品企業在披露其處理個人語音數據的目的時往往采用比較模糊的表述,讓人難以理解其處理方式,也難以獲知個人權益遭受侵犯的風險。百度對話式人工智能操作系統隱私政策中提到,其會利用“語音信息進行模型訓練”,如果用戶參加所謂“語音交互改進計劃”,機器會“額外收集您在喚醒設備的過程中所產生的不超過10秒的語音信息(截至設備被喚醒),并且與您發出的語音指令一起用于模型訓練,同時會在您結束交互后等待更長的時間(例如0.5秒)。”

參見《DuerOS隱私政策》(2024年3月22日更新),https://xiaodu.baidu.com/webssr/protocol?id=e02b4c0b-79f8-4cf1-a2ff-1b2aca3c40a2,2024年5月13日訪問。然而,該隱私政策并未清楚告知其基于訓練模型處理個人數據的范圍多大、風險如何。第一,所謂“額外收集您在喚醒設備的過程中所產生的不超過10秒的語音信息(截至設備被喚醒)”時間范圍不清晰。只要智能設備周圍出現語音聊天,就可能被識別為處在喚醒設備的“過程”中,設備便會持續不斷收集若干段語音信息,從而構成對語音數據的大范圍收集以及對隱私的侵犯。第二,“結束交互”的時間也不清晰,很多用戶在結束與智能設備的交流之后并不會明確發出關機指令,這就會出現雖然用戶認為交互已經結束,但是設備仍在持續不斷收集語音數據的情形。第三,結束交互后等待的時間范圍也不清晰。在該隱私政策中,0.5秒僅是一個示例,而不是其承諾的最長等待時間。即使在交互結束之后,設備也可能等待更長的時間以收集數據。可見,由于語音數據收集范圍的不確定,人工智能活動可能存在超范圍收集個人數據乃至侵犯隱私的風險。

同樣常見的是,企業沒有根據個人數據的類型、處理方式,保障個人行使決定權。人工智能容易受到偏見的影響,為減少或消除歧視,須慎重制作用戶標簽,因為標簽是影響預測質量和預測偏見的關鍵因素,仔細選擇標簽可以讓我們在最大限度降低風險的同時享受算法預測的好處。

參見\阿杰伊·阿格拉沃爾等:《權力與預測:人工智能的顛覆性經濟學》,何凱譯,中信出版社2024年版,第275頁。企業在利用個人數據添加特征標簽、制作用戶畫像時,應謹慎考察標簽能否客觀、公平地反映個人的特征,給個人以查詢、更正、刪除部分個人特征標簽的機會。但在實踐中,個人基本沒有機會查詢標簽和畫像,更沒有機會行使決定權。例如,建設銀行很早便開發智慧銀行,“將個人客戶畫像標簽歸納為七大類:基礎信息、信用與風險、金融行為、非金融行為、聯系情況、渠道特征、客戶分析,共計2229種標簽”,

參見劉筱攸、張雪囡:《智慧銀行:兩千多個標簽為客戶精準畫像》,http://www.ccb.com/cn/ccbtoday/jhbkhb/20181009_1539072441.html,2024年5月13日訪問。而用戶通過建設銀行應用程序中“我的畫像”只能查詢到極少的標簽。

個人信息權益難以實現,還會造成個人數據交易缺乏自愿性和公平性。如果個人對交易目的、交易標的物等內容不知情,甚至存在誤解,個人在參與數據流通交易時必然缺少真正的自愿,也難以保障個人數據交易的公平性。在實踐中,大規模個人數據處理目的經常被表述為“提升用戶體驗”“改善服務質量”。在交易關系中,顯然無法將“接受服務”認定為個人所付出的代價,而只能將其理解為個人所獲得的利益。實際上,個人數據本身便是發展人工智能的燃料,只有借助這些燃料,企業才有可能改善機器學習模型、算法。當個人同意企業處理大規模個人數據,從而幫助企業訓練機器學習模型、改善商業決策時,個人所提供的對價并非財產,而是勞務。原因是,個人同意企業處理的個人數據并非小規模數據,而是不間斷產生的大規模數據,大規模個人數據的實時提供具有人身專屬性,該活動與人格尊嚴的距離很近,故不適合將個人持續提供大規模個人數據定性為個人提供財產,而適合將其定性為個人提供勞務。

參見武騰:《個人信息積極利用的類型區分與合同構造》,載《法學》2023年第6期,第70頁。只有將大規模個人數據處理的主要目的——利用海量數據訓練機器學習模型、制作用戶標簽和畫像等予以單獨披露,才能揭示上述交易目的和交易性質。

二、人工智能發展中目的限制原則的靈活適用

《個人信息保護法》有關目的限制原則的規定采用“寬進嚴出”模式,這一模式有助于容納人工智能發展的需要,同時要求將人工智能相關目的全面披露。只要對目的限制原則予以靈活適用,便有助于在保護個人信息權益與促進人工智能發展之間實現平衡。

(一)“寬進嚴出”模式下應明確披露人工智能各層處理目的

在歐盟法中,目的限制原則實行“嚴進寬出”模式。

參見梁澤宇:《個人信息保護中目的限制原則的解釋與適用》,載《比較法研究》2018年第5期,第20頁。所謂“嚴進”,是指處理目的必須具有特定性,無論處理何種類型的個人數據,處理目的都必須具體、特定。所謂“寬出”,是指對處理方式與處理目的的關聯性采用“相兼容”(compatible)標準。至于是否“相兼容”,需要在具體案件中進行判斷。2022年10月20日,歐盟法院在C-77/21號判決

See Document 62021CJ0077,https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A62021CJ0077, last visited on June 10, 2024.中指出,個人數據控制者、處理者應當確保最初收集個人數據的目的與進一步處理的目的之間存在具體、合理和足夠緊密的聯系,并且確保進一步的處理不會偏離數據主體對進一步使用其數據的合理期待。

與之形成對照的是,我國目的限制原則實行“寬進嚴出”模式。《個人信息保護法》第6條第1款只要求處理目的明確、合理,而未要求“目的特定”。結合該法第28條第2款

依據該款,只有在具有特定的目的和充分的必要性,并采取嚴格保護措施的情形下,個人信息處理者才可以處理敏感個人信息。進行體系解釋,特定性并不是目的限制原則的一般性要求,而只是對敏感個人信息的特別要求。同時,在處理方式的相關性方面,該法第6條第1款規定了“直接相關”,從而僅包括與處理目的具有高度緊密聯系的處理方式。處理方式與處理目的越疏遠,越難以被初始目的所涵蓋,對個人信息的后續處理越容易被認定為是出于另外的目的,此時只能交由目的變更規則來調整。可見,我國目的限制原則允許目的具有一定的寬泛性,而在處理方式與處理目的之間的關聯性上,強調關聯的直接性、高度緊密性。

在“寬進嚴出”模式下,處理目的特定性要求有所緩和,處理者可以將具有較大彈性的內容納入其明確表示的處理目的中。不過,處理方式與處理目的之間的“直接相關性”意味著,必須將處理目的盡可能全面、完整地披露出來。如果披露不夠全面、完整,那么后續處理行為即使是技術上、商業上通常所需要的,也可能因為欠缺與處理目的之間的“直接相關性”而缺乏合法性基礎。

在人工智能發展和應用中,訓練機器學習模型、制作標簽和畫像均是有相對獨立性的活動,兩者雖然與個性化推薦緊密相關,但是并不能被納入后者之中。即使用戶拒絕接受個性化推薦服務,其個人數據也已經被用于訓練機器學習模型,其用戶標簽和畫像也往往已經被制作完成,而且會被持續用于與其他用戶數據進行關聯分析,進而程度不同地影響到自身。在處理目的不夠明確、內容不夠完整的情況下,人工智能處理個人數據的活動便“不易察覺”“不可干預”。

按照目的明確之要求,人工智能各層次處理目的必須以通俗易懂的方式清楚表達、解釋出來。而且,目的的明確最遲不得晚于個人數據收集活動發生之時。明確性要求是為了確保目的在其意義或者意圖層面不模糊、不易生歧義,不帶來理解上的疑問或者困難。

See Article 29 Data Protection Working Party, Opinion 03/2013 on Purpose Limitation, European Commission, https://ec.europa.eu/justice/article-29/documentation/opinion-recommendation/files/2013/wp203_en.pdf, last visited on June 10, 2024.明確性的判斷主體不是個人數據處理者,而是個人數據處理的所有相關主體。只有處理目的具有明確性,才有助于透明性、可預期性的實現,才有助于避免或者減少數據主體的期待與個人數據控制者的期待之間產生不一致。

See Article 29 Data Protection Working Party, Opinion 03/2013 on Purpose Limitation, European Commission, https://ec.europa.eu/justice/article-29/documentation/opinion-recommendation/files/2013/wp203_en.pdf, last visited on June 10, 2024.經合組織《隱私保護和個人數據跨境流通指南》指出,“明確化”的方式靈活多樣,無論采取何種方式都必須滿足“有質量”和“一致性”的要求。

See Article 29 Data Protection Working Party, Opinion 03/2013 on Purpose Limitation, European Commission, https://ec.europa.eu/justice/article-29/documentation/opinion-recommendation/files/2013/wp203_en.pdf, last visited on June 10, 2024.企業在基于發展人工智能的目的處理個人數據時,如果對處理目的的內容沒有完整披露,或者所表達的內容層次混亂、充滿歧義,其便可能違反明確性要求,需要承擔不利的法律后果。

在違反目的明確要求的情況下,個人數據處理者不能按照其主觀意愿或者單方解釋結論來決定其處理目的。必須重新解釋其表達出來的處理目的,對其真實的處理目的加以實質審查。此時,應當適用或類推適用格式條款規則中的不利解釋規則。

依據《民法典》第498條第2句,對格式條款有兩種以上解釋的,應當作出不利于提供格式條款一方的解釋。亦即,當出現兩種以上有關處理目的的解釋結論時,應當采用對個人數據處理者不利的解釋結論。例如,在涉及人工智能發展的隱私政策中,有的企業將訓練機器學習模型等隱含在個性化推薦目的之后。由此可能有兩種解釋結論:(1)只有為了實現個性化推薦,機器學習模型訓練才是符合處理目的的;(2)無論是否為了實現個性化推薦,機器學習模型訓練本身便當然符合處理目的。鑒于存在不同解釋結論,mmSyMObiGyYcAjJIXK+9ULHqcrdVxJS8P5UqS03w1NQ=一般應采取不利于隱私政策格式條款提供方的解釋結論。

(二)只有滿足目的合理性要求才能實現“智能向善”

目的限制原則還要求處理目的具有合理性或正當性。歐盟《通用數據保護條例》第5條第1款b項規定處理目的必須是正當的(legitimate),該正當性是指符合所有可適用的數據保護法以及其他可適用的法律。換言之,“正當”是廣義上的合法,是指符合所有成文法、判例法,既包括具體規則,又包括法律原則。伴隨科學技術的發展、社會經濟的進步,正當性的內涵也會發生改變。

See Article 29 Data Protection Working Party, Opinion 03/2013 on Purpose Limitation, European Commission, https://ec.europa.eu/justice/article-29/documentation/opinion-recommendation/files/2013/wp203_en.pdf, last visited on June 10, 2024.

我國《個人信息保護法》第6條第1款中的處理目的合理性與歐盟法上的正當性相似。要判斷合理性,必須在具體的法律關系中,綜合考慮個案中的全部情形,權衡各種相互沖突的利益,得出妥當結論。結合《個人信息保護法》第13條第1款第2項以下規定來說,只要具備一些重要的合法性基礎,就可以同時滿足形式合法和實質正當的要求。比如,緊急情況下為保護個人的生命健康處理其個人信息的,處理目的具有充分的合理性。又如,為了增進企業與其客戶之間的商業聯系處理個人信息的,處理目的也可謂具有一定合理性。不過,如果收集個人信息是為了挖掘出可能有用的知識,其合理性便不夠充分,需要添加其他因素以補強合理性。

發展人工智能的目的是否具有充分的合理性?對此無法簡單地作出肯定回答。人工智能帶來的既有機遇,也有挑戰和風險。如果從企業的角度來看,為增強市場預測能力、高效反饋能力而發展人工智能,無可非議。但在提高預測能力、改善商業決策的過程中,人工智能也可能帶來侵害個人隱私、生成虛假信息等風險。近來,世界主要國家提出在全球治理中應堅持“智能向善”(AI for good)的宗旨。

參見《中華人民共和國和法蘭西共和國關于人工智能和全球治理的聯合聲明》,載《人民日報》2024年5月7日,第3版。無論是訓練機器學習模型,還是制作用戶標簽,其本身尚不符合實質正當性的要求,也就是說,其并非當然是一件“好事”。只有在發展人工智能過程中加入體現利益平衡和倫理道德的設計,才能使人工智能活動成為一項具有實質正當性的活動。在人工智能商業化應用中,如果其主要目的是通過制作標簽和畫像給用戶分組,那么,只有在該目的同時包含追求公平等價值時,處理目的才有較充分的合理性。

綜上,為了保障人工智能安全發展,應將人工智能應用中各層次目的清晰披露出來。為使各層次處理目的具備足夠的合理性,必須將倫理因素嵌入其中。尤其是,在標簽、畫像等制作過程中必須反映公認的價值觀,以使其具有公平性、非歧視性,并尊重人格尊嚴。

三、人工智能活動及其風險的單獨告知

歐洲《108號公約》委員會在2019年通過了一份指南,為人工智能發展中的數據保護等問題提供指引。對于可能影響個人和社會的人工智能應用程序,特別是用于決策作出過程的人工智能應用程序,該公約要求,在研發和采用之時必須以保護人的尊嚴、維護人權和基本自由為核心關切,尤須注重保護個人數據。

See the Committee of the Convention for the Protection of Individuals with regards to Processing of Personal Data (Convention 108), Guidelines on Artificial Intelligence and Data Protection (adopted on 25 January 2019), Council of Europe, https://rm.coe.int/2018-lignes-directrices-sur-l-intelligence-artificielle-et-la-protecti/168098e1b7, last visited on June 10, 2024.歐盟《人工智能法案》第5條規定了不可接受的人工智能實踐,這些實踐活動大多侵犯人的基本權利。例如,采用惡意操縱或欺騙的技術,損害人的知情決定權,使人作出給自身帶來重大損害的決策。

See Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act),

European, Council, https://data.consilium.europa.eu/doc/document/PE-24-2024-INIT/en/pdf, last visited on June 9, 2024.只有將人工智能活動及其相關風險予以單獨告知,才能保障個人知情權的實現。

第一,企業處理個人信息的目的主要體現在隱私政策、用戶協議等文件中,此時不應該將訓練機器學習模型、制作標簽和畫像等內容掩蓋在“提供個性化服務”“改善服務體驗”背后。訓練機器學習模型、制作用戶標簽和畫像、提供個性化服務等三方面內容分別屬于三項相互獨立、相互關聯的活動。個人在上述三個層面所能行使的決定權也有所不同。個人依據《個人信息保護法》第24條第2款可以較為自由地拒絕個性化推薦,但只能在有限范圍內對標簽和畫像行使決定權,也難以限制企業利用已經合法收集的個人數據訓練機器學習模型。換言之,即使個人拒絕某一場景下的個性化服務,其個人數據仍然可能被用于訓練機器學習模型,其用戶標簽和畫像仍然可能生成。因此,人工智能技術發展和應用中存在不同層次的個人數據處理目的,必須通過專門方式加以告知,確保個人清楚知悉其廣泛的個人數據可能被用于不同處理目的,也使個人了解是否存在不可預見乃至不可控的風險。

第二,在沒有明確告知相關處理目的、處理方式的情況下,處理行為便沒有獲得個人的真正同意,這類處理活動便缺少合法性基礎。人臉識別是人工智能的應用之一。在有的案件中,企業在安裝人臉識別系統后,公示用途為“視頻安全巡查”,而未告知其處理目的主要是判斷消費者是屬于何種類型的客戶(如是否近期到訪),該企業的行為構成不當使用個人信息。

參見江蘇省蘇州市姑蘇區人民法院(2022)蘇0508民初5316號民事判決書。企業在基于人工智能發展或應用目的處理個人數據時,如果未告知相關處理目的和處理方式,造成個人無法清晰認識到該處理活動的性質以及相關風險,便缺少處理個人數據的合法性基礎,個人可以要求企業停止基于人工智能相關目的處理個人數據。為避免出現這種情況,制作用戶標簽、測算用戶未來行為趨勢等人工智能發展應用中的處理目的須在隱私政策中予以專門披露。此外,人工智能活動通常涉及到對敏感個人數據的處理(如智能音箱可能處理聲紋數據),根據《個人信息保護法》第29條和第30條規定,應當向個人告知處理敏感個人信息的必要性以及對個人權益的影響,并獲得單獨同意。

第三,應當向個人告知人工智能技術發展和應用中個人數據處理的“風險”類型與內容,而非每一個處理步驟。當前,人工智能技術經常由“自我學習”(self-learning)機制驅動,在自我學習過程中即使是程序員也未必知道數據到底經過何種組合、如何被權衡和使用。中國人工智能學會發布的《中國人工智能系列白皮書——大模型技術(2023版)》指出,大模型基于深度神經網絡,為黑盒模型,其工作機理仍難以理解。

參見中國人工智能學會網站,https://www.caai.cn/index.php?s=/home/article/detail/id/3172.html,2024年6月20日訪問。

在實踐中,將個人數據處理的每一個步驟告知個人,既不現實也不必要。反之,應該對數據處理系統及其場景進行總體審視,評估其是否會帶來超乎尋常的抽象危險(abstract danger),從而在保護個人數據的前提下為人工智能技術發展留下空間。

See Ralf Poscher, Artificial Intelligence and the Right to Data Protection, https://www.cambridge.org/core/services/aop-cambridge-core/content/view/26AB000E713FBF3BDB89067C23B118F1/9781009207867c16_281-289.pdf/artificial_intelligence_and_the_right_to_data_protection.pdf, last visited on July 18, 2023.概言之,有必要將評估之后發現的個人數據處理相關“風險”類型與內容告知個人。

其實,面對日益復雜的算法,“透明性”與“準確性”之間并非截然對立的關系。所謂算法越準確,透明度就越低的觀點,只適用于設計精確的游戲或其他類似的穩定環境,而不適用于充滿不確定性的環境。有的研究人員在開發有關預測貸款違約的人工智能時,采用了易于理解的軟件,并加入可視化技術,其開發的人工智能不僅透明,而且在預測貸款違約方面,與深度神經網絡和其他復雜的黑盒子模型一樣準確。

參見\格爾德·吉仁澤:《失控與自控》,何文忠等譯,中信出版社2024年版,第169-171頁。人工智能商業化應用的場景是充滿不確定性的場景,未來努力的方向應該是,在金融、零售、就業等各種充滿不確定性的場景中,增強人工智能對個人數據使用的透明性、可解釋性,一方面,滿足保護個人知情權的要求,另一方面,有助于檢驗人工智能是否存在偏見。

《個人信息保護法》不僅規定了個人知情權規則,還規定了個人決定權相關規則,包括更正權、補充權、刪除權等。在個人數據處理過程中,個人決定權的行使容易被局限在“收集”環節。因為嚴格地說,處理過程中的中間數據乃至最終評價數據,未必是可以識別到特定自然人的個人數據。

See Sandra Wachter & Brent Mittelstadt, A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age of Big Data and AI, 2019 Columbia Business Law Review 494, 617 (2019).如此一來,在人工智能應用過程中大部分個人決定權難有用武之地。然而,這種調整模式會給個人數據保護帶來巨大挑戰。既然人工智能有可能削弱人的自主決定,帶來操縱、歧視、信息繭房等后果,就應該在一定范圍內適用個人決定權規則。

四、人工智能商業化應用中個人決定權的集體行使

個人決定權主要是指個人有權選擇、限制、拒絕他人處理其個人信息,具體包括對個人信息處理的同意和撤回同意、更正、刪除、拒絕等權利。

參見張新寶主編:《〈中華人民共和國個人信息保護法〉釋義》,人民出版社2021年版,第351-352頁;程嘯:《個人信息保護法理解與適用》,中國法制出版社2021年版,第332-334頁。個人決定權不僅指向限制處理或拒絕他人處理個人信息的權利,更在宏觀上反映著個人控制信息的理念。參見姚佳:《個人信息主體的權利體系——基于數字時代個體權利的多維觀察》,載《華東政法大學學報》2022年第2期,第95-96頁。人工智能商業化應用的主要方式是,經由機器處理海量個人數據,對不同用戶添加標簽、制作畫像,然后針對其個人特征提供個性化服務。有疑問的是,個人是否可以拒絕企業制作標簽和畫像?鑒于標簽和畫像并非針對某個特定自然人制作,而是針對“一組”自然人制作,

參見趙精武:《用戶標簽的法律性質與治理邏輯》,載《現代法學》2022年第6期,第102頁。個人能否、如何行使更正權、限制使用權等權利?

(一)人工智能形成的用戶標簽、畫像屬于個人數據

所謂由機器貼標簽,是指根據用戶消費行為中的文本、圖片、視頻等數據,機器自動學習出用戶興趣、喜好等,并用不同的標簽對用戶予以分類標記。對用戶標簽和消費行為標簽進行雙向匹配,形成精細化用戶畫像,本質上是將不同自然人的思考模式、行為模式作出區分。需要探討的是,對于這些標簽數據、畫像數據,個人能否、如何基于個人信息權益行使權利。

歐盟《通用數據保護條例》第13條至第15條、第21條至第22條等規定了個人對數據畫像及相關邏輯程序的知情權、反對權。與之相比,我國《個人信息保護法》第24條第3款有關自動化決策的規定中,未詳細規定個人有權要求個人信息處理者說明的對象。

該款規定:“通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。”按照立法機關工作人員的意見,說明的對象包括自動化決策使用的個人信息種類、自動化決策的基本原理和邏輯機制,以及可能對個人產生的不利影響等。

參見楊合慶主編:《中華人民共和國個人信息保護法釋義》,法律出版社2022年版,第74頁。對于數據畫像,并未包含在說明范圍內,更未包含在拒絕范圍之內。也就是說,《個人信息保護法》第24條第3款僅允許個人拒絕單純基于自動化決策作出的決定,并未規定個人可以在一定范圍內拒絕數據畫像。

與立法中的“粗線條”設計不同,行業實踐必然朝著精細化的方向探索。2022年3月1日起施行的《互聯網信息服務算法推薦管理規定》第17條第2款規定,算法推薦服務提供者應當向用戶提供選擇或者刪除用于算法推薦服務的針對其個人特征的用戶標簽的功能。2023年8月發布的國家標準《信息安全技術 基于個人信息的自動化決策安全要求》(征求意見稿)第10.3條規定,在特定自動化決策中,個人信息處理者應當設立相關機制,以便個人選擇或者刪除用于算法推薦服務的個人特征標簽。

參見全國網絡安全標準化技術委員會網站,https://www.tc260.org.cn/front/bzzqyjDetail.html?id=20230818163540&norm_id=20221102151633&recode_id=52619,2024年6月20日訪問。

上述規定有助于實現個人對“特征標簽”的知情、自主選擇或刪除。只不過,有必要探討其背后的法理基礎和法律依據。

數據畫像的目標是實現“深度個性化”“精細分組”,對消費者個人生活“360度全景式洞察”。

See Andrew J. McClurg, A Thousand Words Are Worth a Picture: A Privacy Tort Response to Consumer Data Profiling, 98 Northwestern University Law Review 63, 68 (2003).從市場營銷角度看,只有不斷深入探明消費者購買決策的影響因素,企業才能提供適銷對路的產品或服務。基于地理的、人口的、行為的、心理的等因素對市場進行劃分,是市場細分的重要工作。

See Barrie Gunter, The Psychology of Consumer Profiling in a Digital Age, Routledge, 2016, p. 7.對消費者所在位置、所屬組群、慣常行為、內在心理進行探究,是企業開展市場營銷必然采取的行動。制作標簽、畫像本質上是由機器對自然人分組,人工智能正在推動上述目標迅速實現。雖然標簽和畫像通常不是針對特定個人專門制作,而是針對特定群體制作,但是只有在制作標簽、畫像過程中適用個人決定權規則,才能夠實現個人信息保護法的規范目的。

第一,由諸多特征標簽組成的畫像數據一般屬于推斷型數據。在實踐中,個性化標簽包括多重維度、多個類目,具體內容包括性別、居住地、年齡階段、職業類型、婚育狀況、子女年齡段、自有住房及房貸情況、銀行卡數量及種類、經常旅游地、通信套餐、通勤距離等。

參見任寅姿、季樂樂:《標簽類目體系:面向業務的數據資產設計方法論》,機械工業出版社2021年版,第149-159頁。即使自然人的姓名、身份證號碼等信息被刪除,覆蓋面廣泛的標簽所構成的畫像也足以全面揭示出其自然狀況和社會地位。個人特征的高度透明化,是人工智能深度商業化應用的結果。

歐盟《通用數據保護條例》序言第72段提到,畫像活動適用該條例有關個人數據處理的規則,包括個人數據保護的各項原則。

See Sandra Wachter & Brent Mittelstadt, A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age of Big Data and AI, 2019 Columbia Business Law Review 494, 617 (2019).這意味著,畫像行為其實是個人數據處理行為。畫像數據是結合了其他人的數據以及匿名化數據,經過關聯之后產生的,其可用于識別特定自然人。

企業完全有能力通過添加數據,對用戶畫像所關聯的個人進行識別,對此不乏實例。See Andrew J. McClurg, A Thousand Words Are Worth a Picture: A Privacy Tort Response to Consumer Data Profiling, 98 Northwestern University Law Review 63, 83-84 (2003).畫像越精準,畫像數據可識別性越強。因此,畫像數據通常屬于記錄個人特征信息的數據。

第二,對于記錄自然人個人特征信息的畫像數據,盡管企業享有一定財產權益,

參見武騰:《數據資源的合理利用與財產構造》,載《清華法學》2023年第1期,第161頁。仍應該保障個人在一定范圍內行使個人信息權益。商業秘密等企業財產權益與消費者人格權益之間關系的協調,完全不是新問題。

商業秘密保護與隱私保護之間經常存在緊張關系。參見吳漢東:《知識產權法》,法律出版社2021年版,第651、656頁。企業的商業秘密權益旨在排除其他經營者的不當利用行為,而不能排除個人正當行使權利;只要存在個人的在先權益,其仍然受到個人權益的限制。

對于數據畫像,歐盟《通用數據保護條例》第21條、第22條等規定個人有反對權。在美國,有意見認為應該賦予個人“受到合理推斷”的權利,對于具有高風險性和低可驗證性的推斷型數據,應該在事前告知和事后異議兩個方面增強個人的權利。

See Sandra Wachter & Brent Mittelstadt, A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age of Big Data and AI, 2019 Columbia Business Law Review 494, 614 (2019). 在我國也有必要承認此類權利。在人工智能應用過程中,個人就其“如何被看待”有權發言和采取行動,這類權利體現了個人信息保護法的規范目的。

第三,從精準營銷、增強用戶粘性等角度看,對消費者個人形象進行全息刻畫對現代企業具有重要意義。只不過,既然上述活動屬于個人數據處理活動,就應當具有合理的處理目的。處理目的具有合理性不能僅基于企業的角度作出判斷,還必須考慮消費者的人格權益以及社會公共利益。個人在接受各類私人服務和公共服務時,標簽、畫像是其受到區別對待的關鍵因素。用戶標簽、數據畫像因而是數字人格、數字身份的具體表現。添加標簽、制作畫像不可能是純粹技術中立的活動,而是始終牽涉到人格平等、社會公正。只有添加合理標簽、制作合理畫像,才可謂合理的個人數據處理活動。

(二)個人決定權的集體行使及其限度

鑒于標簽、畫像通常是群體型個人數據,且是企業加工后的衍生數據,個人決定權規則只能在有限范圍內適用于這類數據,且在有的場合適合以集體行動的方式行使權利。

第一,在效力內容方面,個人決定權一般局限于更正權、補充權、限制使用權等,而不包括隨時撤回同意、可攜帶權等。在適用范圍方面,更正權通常適用于具有高度敏感性的標簽或者畫像部分,補充權通常適用于標簽、畫像的使用會給個人權益帶來重大影響的場合,限制使用權通常適用于個人權益受損風險高的場景。在行使更正權、補充權時,個人應當對標簽本身的不準確、不客觀、不公平等予以說明,并根據具體情況提供必要證據。

第二,個人可以集體行使權利,要求降低畫像的精細度、修改標簽內容。個人要求降低畫像的精細度,本質上是要求增加對特定自然人識別的難度、降低人身權益和財產權益受侵害的風險。近年來,大數據技術研發者越來越重視個人隱私保護,為保護隱私,發展出隨機化方法、k-匿名和l-多樣性方法、分布式隱私保護方法等。

參見\韓家煒等:《數據挖掘:概念與技術》,范明等譯,機械工業出版社2012年版,第400頁。例如,將標簽中的“值”從整數(如3)修改為區間(如0-5),便能夠提高對隱私的保護。個人還可以借助集體行使權利,要求修改標簽內容。在標簽模板中,有的標簽名為“貪小便宜”,標簽邏輯是“近3個月內交易時采用優惠券抵扣的行為超過3次”。

參見任寅姿、季樂樂:《標簽類目體系:面向業務的數據資產設計方法論》,機械工業出版社2021年版,第266頁。該標簽制作活動顯然不是純粹技術中立的,而是屬于對消費者不妥當的評價。然而,單個個人幾乎不可能就標簽設計向企業施加影響。未來要推動構建平臺內個人集體行使權利的機制,通過程序性規則幫助個人發現歧視性標簽以及相關區別對待。只有經過集體施加反作用力,企業才會采取措施不斷改善標簽和畫像。

需要指出的是,完全拒絕標簽和數據畫像相當于拒絕類別化,其實就是拒絕了人工智能在商業中的應用。

參見\馬克·舒倫伯格、\里克·彼得斯編:《算法社會:技術、權力和知識》,王延川、栗鵬飛譯,商務印書館2023年版,第45頁。這在現實中幾乎不可能實現,也未必是值得追求的目標。很多應用程序中雖然設置了“開關”個人性化推薦的按鈕,但是即使關閉個性化推薦,相關信息仍然是結合之前的用戶畫像,基于算法來進行推送,并非純粹按照時間先后等自然順序向用戶發布信息。只有基于客觀、公平、非歧視等原則制作標簽、畫像,才可謂合理的個人數據處理活動。只有將個人對標簽、畫像數據的有限決定權確立起來,才能促進企業在發展和應用人工智能技術時,強化個人自主決定的機制設計,進而完善人工智能發展中的風險治理。

五、結語

只要人工智能安全和發展并重的原則仍然是人工智能治理的基本原則,就應該將個人數據保護作為人工智能風險治理的主要內容之一。靈活適用個人數據保護中的目的限制原則,妥當適用個人知情權規則、決定權規則,有助于發現和應對人工智能帶來的風險。特別是,人工智能的開發者和應用者應該將訓練機器學習模型、制作標簽和畫像等不同處理目的、處理方式以及相關風險明確披露出來,這既是保護個人權益的必然要求,又是實現人工智能風險治理的必要環節。未來,根據人工智能風險的類型進行區分治理,在促進人工智能相關科學技術發展的同時,增強人工智能商業化應用中的透明性、合理性,應是貫穿人工智能立法的主線。

主站蜘蛛池模板: 香蕉eeww99国产在线观看| 亚洲综合香蕉| 午夜无码一区二区三区| 国产拍揄自揄精品视频网站| 黄色在线不卡| 免费a在线观看播放| 秘书高跟黑色丝袜国产91在线 | 东京热高清无码精品| 中文纯内无码H| 99在线观看免费视频| 国产色伊人| 亚洲人成人伊人成综合网无码| 亚洲精品男人天堂| 中文成人在线视频| 国产小视频在线高清播放 | 中文字幕有乳无码| 国产无码精品在线| 精品一区二区无码av| 国产白浆一区二区三区视频在线| 中文字幕欧美成人免费| 久久久久免费精品国产| 香蕉视频在线精品| 美女无遮挡拍拍拍免费视频| 国产青榴视频| 久久99热66这里只有精品一| 国产超碰在线观看| 四虎永久免费在线| 日韩视频免费| 岛国精品一区免费视频在线观看| 久久天天躁狠狠躁夜夜躁| 欧美三级不卡在线观看视频| 一级毛片免费的| 久久久91人妻无码精品蜜桃HD| 天天操精品| 天天摸夜夜操| 亚洲不卡网| 亚洲天堂视频在线免费观看| 黄色国产在线| 欧美a级在线| 欧美日韩一区二区在线免费观看| 亚洲动漫h| 免费人成在线观看成人片| 久久综合伊人77777| 欧洲高清无码在线| 欧美亚洲国产日韩电影在线| 成人字幕网视频在线观看| 日本欧美午夜| 日韩天堂网| 91亚瑟视频| 在线观看国产小视频| 日韩精品毛片| 久久男人视频| 丰满的少妇人妻无码区| 久一在线视频| 久久香蕉国产线| 女同久久精品国产99国| 免费一级毛片在线观看| 亚洲第一av网站| www欧美在线观看| 国产午夜无码专区喷水| 一本久道久综合久久鬼色| 国产老女人精品免费视频| 国产精品短篇二区| 小说 亚洲 无码 精品| 在线国产综合一区二区三区 | 免费一级毛片不卡在线播放| …亚洲 欧洲 另类 春色| 国产成人区在线观看视频| 色婷婷成人| 草草线在成年免费视频2| 91无码视频在线观看| 亚洲AV一二三区无码AV蜜桃| 香蕉eeww99国产在线观看| 97超碰精品成人国产| 久久福利网| 无码高潮喷水在线观看| 香蕉蕉亚亚洲aav综合| 午夜性刺激在线观看免费| 亚洲永久视频| 97成人在线视频| 午夜无码一区二区三区在线app| 在线看片中文字幕|