999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

重解個人信息的本質特征:算法識別性

2023-06-21 19:46:43彭誠信

彭誠信

摘? ?要: 個人信息的可識別定性引發了個人信息權與傳統人格權的區分難題,司法裁判中既存在以傳統人格權保護個人信息,也存在以個人信息權裁判傳統人格權糾紛的現象。可識別不宜作為個人信息的本質特征,因為其脫離了個人信息制度產生的數字社會基礎,忽視了數字社會與傳統社會中的識別差異,混淆了個人信息在各部門法中的不同內涵。算法識別性才是個人信息的本質特征,個人信息權的客體范圍、法律屬性、權利內容等均產生于算法識別性。正是根據個人信息之算法識別性,方能把傳統人格權與個人信息權案件至少在民法領域中區分開來。當信息處理方式在事實層面難以查明時,仍應歸入傳統人格權侵權案件;當算法技術程度不同時,需根據個案衡量能否適用個人信息權。盡管文章是以個人信息權與傳統人格權的區分作為例證來揭示該定性的理論價值和實踐意義,但個人信息算法識別性其實關涉數字空間中可計算個人信息所有法律制度的設計。

關鍵詞: 數字社會;個人信息;個人信息權;傳統人格權;算法技術;算法識別性

中圖分類號: TP18? 文獻標識碼:A 文章編號:1004-8634(2023)03-0068-(14)

DOI:10.13852/J.CNKI.JSHNU.2023.03.008

隨著《中華人民共和國民法典》(以下簡稱《民法典》)、《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)等法律的頒布,個人信息權1 已成為我國實證法上的一項權利。盡管對個人信息權的權利屬性,尤其是如何理解其財產屬性尚存在分歧,2 但個人信息權作為一項具體人格權已基本形成共識。在我國立法規定個人信息權之前,學界的研究聚焦于論證個人信息權與傳統人格權的差異,即傳統人格權難以解決,需新增個人信息權才能予以解決的情形。3 而在我國立法規定個人信息權后,理論上的問題轉變為如何解決個人信息權與傳統人格權的重疊問題。因為就客觀表現而言,傳統非物質性人格權客體亦以個人信息的形式呈現,姓名、肖像、名譽、隱私等,概莫能外。對傳統非物質性人格權的侵害,必然也會同時表現為對個人信息的違法處理。故如何解決傳統人格權與個人信息權的重疊問題,成為立法確立個人信息權后面臨的難題。而這一問題的解決,在根本上有賴于厘清何為個人信息。本文將從司法實踐出發,展示個人信息權與傳統人格權在司法實踐中“相互交織”的適用關系,進而分析這一現象出現的原因,從而提出厘清二者關系的關鍵在于重解個人信息的本質特征,即算法識別性,最后展示算法識別性在司法裁判中的實踐價值。

一、可識別定性下個人信息權與傳統人格權的區分難題

自2017年《中華人民共和國民法總則》(以下簡稱《民法總則》)第111條規定“自然人的個人信息受法律保護”以來,我國司法裁判中既出現了以傳統人格權保護個人信息的案件,也出現了以個人信息權解決傳統人格權糾紛的案件。這些案件表明,如何區分二者已是擺在司法實務面前的現實難題。

1.以傳統人格權保護個人信息

在能適用傳統人格權保護個人信息的場合,是否還有必要強調適用個人信息權?是否還有適用個人信息權的空間?對此,被最高人民法院列入“第一批涉互聯網典型案例”的龐某信息泄露案1是典型。原告龐某委托魯某在去哪兒網平臺購買東航機票一張,訂票使用的是魯某的手機號。兩天后龐某收到航班取消的詐騙短信,他據此認為停航騙局是由于東方航空公司、去哪兒網公司泄露其個人購票信息所致,遂訴請兩被告賠禮道歉,并賠償其精神損失1000元。一審法院認為,兩被告并非掌握原告個人信息的唯一主體,原告提供的以往與東航公司的通話記錄以及購票憑證,不足以證明兩被告泄露其個人信息,駁回了原告的訴訟請求。但二審法院做出了截然不同的判決:法院首先依照《民法總則》第111條的規定,認定案涉信息受法律保護;進而指出,盡管學界對個人信息保護的立法例存在爭議,但是無論采用何種保護路徑都不妨礙法律對個人信息的保護;法院因此依據《最高人民法院關于審理利用信息網絡侵害人身權益民事糾紛案件適用法律若干問題的規定》第12條,認定自然人的行程信息屬于隱私信息,并認為姓名、手機號碼雖具有身份識別與社會交往的功能,但當這些信息和行程信息(隱私信息)結合形成整體信息時,就屬于隱私信息;在確定案涉信息屬于隱私信息后,法院采用高度蓋然性的證明標準,認定兩被告具有泄露信息的高度可能性,且被告未能證明其履行了確保信息安全的義務,因其疏于防范導致了信息泄露的發生,具有過錯,故改判兩被告侵害原告隱私權。

本案二審法院的裁判邏輯典型地反映了個人信息權與隱私權(傳統人格權)在法律適用上的諸多疑問。其一,本案原告以隱私權為請求權基礎,法院最終也以被告構成侵害隱私權做出判決。既然如此,為何法院在裁判說理中不從隱私權的構成要件展開分析,遵循所涉信息是否屬于隱私來判斷隱私權侵權成立與否的推理邏輯,而是將絕大多數筆墨用于討論個人信息的侵權問題?這一“文題不符”現象本身便表明了個人信息權與隱私權間的“交織”關系。其二,本案審判長曾指出,“如果本案發生在2021年11月1日《個人信息保護法》施行之后,則本案的判決理由就可能不一樣了”。2 其本意似乎是,該案本應適用個人信息權裁判,奈何當時的法律對個人信息未能提供詳細的保護規則,故退而求其次,采用隱私權以間接實現對個人信息的保護。但這一裁判思路令人困惑,因為從歷史視角看,隱私權的產生遠早于個人信息權,只有對隱私權無法適用的案件,才有適用個人信息權來提升保護受害人。正如《民法典》第1034條第3款規定,“個人信息中的私密信息,適用有關隱私權的規定;沒有規定的,適用有關個人信息保護的規定”。若本案所代表的案型可通過隱私權保護個人信息,那應否在個人信息的界定中做出限制,從而實現排除適用此類案型的目標呢?否則,將導致無所不包的個人信息權概念與傳統人格權的頻繁重疊,這既無助于個人信息權理論體系的構建,也將造成司法裁判的困擾。其三,就適用邏輯而言,二審法院以侵害個人信息的方式證成侵害隱私權的說理也難有說服力。侵害隱私權本就是以侵害個人信息的方式呈現,但并不能認為只要侵害了個人信息就侵害了隱私權,因為侵害隱私權需要達到的損害標準往往更高,無法以侵害個人信息這一“舉輕”方式來推論出侵害隱私權這一“明重”的結論。作為最高人民法院發布的典型案例,本案并未厘清個人信息權與傳統人格權的關系,而是充分展示了二者之間混雜不清的司法現狀。

2.以個人信息權裁判傳統人格權糾紛

隨著以侵害個人信息權為由的糾紛逐漸增多,一些傳統上以侵害名譽權、姓名權、隱私權等人格權為由的糾紛,逐漸出現了以侵害個人信息權做出裁判的案件。茲舉兩類糾紛說明如下:

第一類是小區張貼判決書案。被告因將涉原告的裁判文書張貼于小區而引發訴訟,是司法實務中的一種常見糾紛,早在個人信息權出現之前便已存在。傳統上一般適用名譽權、隱私權做出裁判。比如在“澳龍物業案”中,趙某某因拖欠物業費而被澳龍物業公司起訴,法院判決后,澳龍物業公司將法院判決書張貼于小區多處,后趙某某以侵害名譽權為由對物業公司提起訴訟,法院判決被告未侵害原告名譽權。1 類似的,在“國榮物業案”中,陳某某因拖欠物業費被國榮物業公司起訴,法院判決后,國榮物業公司以“通告”的方式將起訴的情況、判決書文號、生效及執行的時間、陳某某的房號、姓名、聯系電話及公司告誡的內容張貼在小區入口處、通告欄、電梯入口處。原告陳某某以侵害名譽權、隱私權為由提起訴訟。法院判決被告未侵害原告名譽權,但侵害了原告隱私權。2

在《民法總則》第111條規定個人信息受法律保護后,有法院開始以個人信息為由裁判小區張貼判決書案。如在“愛家物業案”中,翟某與徐某系夫妻關系,愛家物業公司起訴翟某拖欠物業費,徐某作為翟某的委托訴訟代理人參與訴訟。判決后,物業公司將判決書張貼于小區門口等位置。張貼時物業公司已將判決書中翟某和徐某字樣用“3-14-4”予以替代,但并未隱去二人的出生日期、身份證號碼和居住地址。徐某因此對愛家物業公司提起訴訟。一審法院延續了此類案件的傳統裁判思路,以被告未侵害原告名譽權為由駁回了原告的訴訟請求。但二審法院認為,依據《民法總則》第111條的規定,自然人的個人信息受法律保護。被告張貼判決書時未隱去原告身份證號碼、出生日期和地址的行為侵害了原告個人信息受法律保護的權利。據此,二審法院改判被告向原告賠禮道歉。3

本案與傳統的小區張貼判決書案在案情上并無二致,二審法院棄傳統人格權而改采個人信息權加以裁判,無疑改變了此類案件的傳統裁判思路。問題在于,這一轉變是否妥當?其一,在此類案件中若被告構成侵權,傳統上多以侵害隱私權為由(身份證號碼等信息屬于隱私信息)進行裁判;若改采侵害個人信息權,那么隱私權與個人信息權在此類案件中的關系為何?其二,若可以個人信息權來裁判,那么根據《個人信息保護法》第69條第1款應適用過錯推定原則,此類案件有必要適用過錯推定責任嗎?其三,自《民法總則》頒布以來,關于小區張貼判決書案型,除了本案改采適用個人信息權的判決外,也有案件延續了傳統裁判思路,4 還有案件同時對隱私權和個人信息權做出分析。5 這表明,個人信息權與隱私權等傳統人格權間的適用關系,目前司法裁判尚未有清晰、統一的認識。

第二類是冒名擔保案。銀行貸款時常要求借款人提供擔保,實踐中冒名擔保現象時有發生。多數情況下被冒名者對此并不知情,直到因貸款購房等原因查詢個人征信時,才發現自己因擔保的債權未依約定還款而導致征信不佳,進而被銀行拒絕放貸或被收取較高的貸款利率。被冒名者因此對冒名者或相關金融機構提起訴訟,主張消除不良征信記錄、恢復名譽、賠禮道歉以及損害賠償等。傳統上此類糾紛多以侵害名譽權、姓名權等做出判決。如在“陽新農商行案”中,原告劉某某購房向中國農業銀行申請放貸被拒,因為其在陽新農商行有擔保的貸款未還,而該貸款系石某某私拿原告身份證復印件辦理。原告遂起訴石某某、陽新農商行等,主張賠禮道歉、消除影響和損害賠償。法院以侵害名譽權為由,支持了原告的主張。1 在“武岡市農村信用合作聯社案”中,原告肖某某對被冒名擔保不知情,故以侵害姓名權為由起訴被告武岡市農村信用合作聯社,主張賠償損失等,法院最終以《中華人民共和國侵權責任法》第2條為依據,判決被告承擔賠償責任。2

在個人信息被納入我國實證法后,冒名擔保案出現了以侵害個人信息為由的判決。如在“魯山農信社案”中,原告孫某某被他人冒名擔保,導致個人征信擔保貸款被列為“次級”,因此難以從銀行獲得購房貸款。原告以侵害個人信息權為由起訴被告魯山縣農村信用合作聯社,要求消除影響、賠禮道歉并賠償損失。法院認為,“被告工作人員違規辦理貸款時,冒用原告個人信息擔保貸款,導致原告被納入征信不良記錄,侵犯了其個人信息,給原告造成一定的精神痛苦和物質損失”,故依據《民法總則》第111條等判決被告恢復原告的征信系統信用等級,并賠償其精神損失和物質損失3萬元。法院在裁判邏輯上的這一轉變無疑又引發了如何區分個人信息權與傳統人格權的疑問。如果涉個人信息的糾紛都能適用個人信息權加以裁判,那么傳統人格權將在很大限度上被個人信息權所取代,這是立法者所欲追求的目標嗎?如果不是,那要如何區分二者呢?

二、誤將可識別作為個人信息本質特征的成因

由于非物質性人格權必然以“個人信息”的方式加以呈現,若僅以可識別界定個人信息,則個人信息權取代傳統人格權現象的出現將“勢所必然”,“可識別”正是引發二者難以區分的癥結所在。誤將可識別作為個人信息的本質特征,原因在于未能從歷史變遷角度認識到個人信息制度產生的時空背景,故而也就無法真正把握民法領域中個人信息的本質特征究竟為何。在此意義上,我們首先應厘清誤將“可識別”作為個人信息本質特征的根源,具體來說,有如下三個方面。

1.脫離了個人信息制度產生的數字社會基礎

若以可識別界定個人信息,并不能凸顯其特殊性所在。個人信息自人類社會產生之初便已存在,但數千年以來,個人信息并未成為法律保護的客體。故對個人信息本質特征的把握,離不開對個人信息法律制度產生及其發展歷史的考察。個人信息保護的提出始于20世紀70年代,主要源于信息技術的應用引發個人信息安全問題的全球性擔憂。為強化對個人信息(隱私)的保護,世界諸多國家、地區以及國際組織出臺了一系列規制自動化技術處理個人信息的相關制度。

在歐洲,德國黑森州1970年出臺了世界首部個人數據保護法——《數據保護法》,隨后瑞典于1973年頒布了世界首部國家層面的數據保護法——《數據法》,這些都是當時立法的典型代表。由于當時計算機技術剛剛興起,法律規制的信息處理主體雖涵蓋公私部門,但主要針對的是政府部門對個人電子檔案的自動化處理行為。3 這些法律為后續立法提供了參考。在國際組織方面,世界經合組織(OECD)1980年公布了《隱私保護和個人數據跨境流通指南》(以下簡稱《隱私指南》),以規范個人數據的自動處理行為為目的,首次確立了個人信息保護的八項基本原則。4 2013年,世界經合組織對《隱私指南》做出重大修訂,旨在應對自動化技術廣泛應用對個人帶來的新威脅,進一步強化了對個人信息的保護。1 歐洲委員會緊隨其后,于1981年公布了《個人數據自動化處理中的個人保護公約》(以下簡稱《108公約》),2 作為全球首部個人數據保護的國際公約,《108公約》從名稱到適用范圍均體現出其規制自動化處理行為的特定性,即“適用于所有公共和私人領域的自動化個人數據文檔和個人數據的自動處理行為”。隨后,歐盟以《108公約》為藍本,在1995年制定了《數據保護指令》,該指令第3條將適用范圍限定在“全部或部分自動方式對個人數據的處理行為,以及通過自動方式以外的其他方式旨在形成個人數據存檔系統部分內容的個人數據處理”。其中“存檔系統中的個人數據”便是指“可按照特定標準訪問或獲取的結構化個人數據集合”,3 排除了個人以純粹私人或家庭活動為目的的數據處理活動。4 2016年歐盟在《數據保護指令》的基礎上進行修訂、補白,出臺了在全球具有廣泛影響力的《一般數據保護條例》(General Data Protection Regulations,縮寫為GDPR,以下簡稱《條例》),其在適用范圍上與歐盟《數據保護指令》一致。5

在美國,個人信息的概念最早由阿蘭·威斯汀提出,之后在“大隱私”的概念下被廣泛討論。但與沃倫、布蘭代斯最初提出的物理性隱私產生的背景不同,美國個人信息保護制度立足于計算機興起的技術背景。由于信息技術的創新與發展,傳統收集、存儲、利用個人信息的方式發生巨變,私人領域的隱私事務開始直接或間接地外溢到公共領域。但受美國第三方原則6 的限制,公共領域的隱私將不再受隱私權的保護。在此背景下,阿蘭·威斯汀提出“信息控制理論”,旨在強化個人對其信息的控制,之后該理論成為美國“公平信息實踐原則”的理論基礎。7 “公平信息實踐原則”最初主要針對的是美國政府采用自動化技術大規模處理個人信息而確立的,這一原則賦予了個人一系列的權利,并課以信息處理者一系列的義務和責任,后成為美國信息隱私保護立法的核心框架。8 比如,美國1974年的《隱私法》、1998年的《兒童在線隱私保護法》、2020年的《加州消費者隱私法》等,分別針對政府機構、教育機構、商事企業等主體的信息處理行為做出了規定。這些立法都以自動化信息處理技術為背景,以規制收集、利用、披露、關聯等信息處理行為為目的,“將個人信息保護的范圍限定在由自動化技術導致的持續性不平等信息關系的主體之間”。9

與比較法背景相似,我國個人信息保護制度也發端于數字社會的到來和自動化信息處理技術的應用。2012年《全國人民代表大會常務委員會關于加強網絡信息保護的決定》是我國首個對個人信息保護做出詳細規定的法律。該法的制定源于信息網絡發展引發的信息安全擔憂,尤其是為應對因新型信息技術和移動終端的發展而加劇的信息保護問題。10 之后,2013年修正的《中華人民共和國消費者權益保護法》、2015年的《中華人民共和國刑法修正案(九)》、2016年的《中華人民共和國網絡安全法》(以下簡稱《網絡安全法》)等,逐漸豐富了個人信息保護規則。2017年《民法總則》第五章“民事權利”項下首次規定了“自然人的個人信息受法律保護”(第111條第1句)。該條款立足現代信息社會,其確定的個人信息權是保護公民人格尊嚴、維護社會秩序的應有權利。1 2021年的《個人信息保護法》是我國對個人信息保護做出全面、系統規定的綜合性法律,該法的制定仍以信息化時代為背景,旨在最大限度地保障公民的個人信息利益。2 可見,我國涉個人信息保護的立法動因,皆源于信息技術帶來的社會變革。

綜上,個人信息制度發端于信息技術的發明,個人信息制度的發展伴隨自動化信息處理技術的升級,這說明數字社會才是個人信息制度產生和存在的時空基礎。對個人信息本質特征的認識,不可脫離數字社會和自動化信息處理技術這一前提。換言之,個人信息的“可識別”特征,應打上“數字社會”的烙印。

2.忽視了個人信息在社會形態中的識別差異

個人信息是已識別或可識別的個人信息,但數字社會中對個人的“識別”與傳統社會并不相同。傳統社會中信息的記錄“平臺”是自然人的大腦,故其系通過“人腦”來識別,傳播多通過紙張、竹簡乃至口頭,多限于少量的、難以規模化的使用。但進入數字社會后,在信息技術的應用下,信息通過計算機系統加以記錄,網絡中與個人關聯不大、價值甚微的零碎信息都被事無巨細地記錄下來,對個人的識別也是通過計算機系統來實現的,因此,運用智能算法分析和利用個人信息成為數字社會中的常態。

如果把傳統社會識別個人的方式界定為一種自然識別或物理識別,那么數字社會識別個人的方式可理解為一種算法識別或技術識別。在傳統線下社會,個人信息的通用功能是熟人之間根據人格標識進行相互驗證的身份符號,是通過人之大腦予以辨認的物理識別方式。而在數字社會,數字化使得個人信息的載體發生重大變化,除傳統的人腦、紙質外,個人信息更多地被存儲于互聯網中。數字化記憶代替熟人之間的“頭腦記憶”“文字記錄”,成為新的信息記憶方式。信息獲取也從人人交換的物理方式變成了人機交互的自動化方式,個人信息由此具有了可計算性特征。此時,個人信息的可算性與數字技術的互聯性相結合,將人們帶入快速運轉的網絡之中,算法技術取代人腦,將分散在網絡各處的個人信息進行歸攏和分析,如將具有明顯算法特征的IP地址、廣告ID、人臉識別信息等進行識別、關聯和分析。至此,算法技術改變了傳統識別個人的方式,實現“從個人‘認出來到技術‘看出來的轉變升級”。3 準確地說,數字社會中的識別是通過算法“算出來”的。

同時,數字社會中個人信息的“識別”具有更強的“關聯性”。在傳統社會中,由于信息記錄、傳播方式有限,信息之間的關聯相對較弱,不同場合中獲取的個人信息多僅局限于該場合被利用。而在數字社會,面對自動化技術的持續升級,信息處理者借助算法技術對個人的特定行為、興趣愛好分析預測,使碎片化信息也可能因為自動化技術分析而勾勒出“數字畫像”,4 以此推測出個人的需求偏好,進而制定精準的營銷計劃或對產品優化升級。5 在此意義上,“可鏈接性”成為個人信息的重要特點。6 關聯信息累積越多,勾勒的“數字畫像”越精確。因此,處理個人信息的主要目的與其說是識別個人身份,不如說是“識別具體個人的個性特征”。1 在數字環境下,以技術識別為中心帶來的一連串蝴蝶效應都與傳統線下社會的自然識別存在本質差異。算法的關聯性大大延伸了關聯信息的效用性,2 使個人信息與土地、石油一樣成為商業爭相追逐的資源,凸顯出巨大的財產價值。在此背景下,所有可識別的個人信息都變得重要,個人信息普遍成為法律保護的客體。

3.混淆了個人信息在各部門法中的不同內涵

數字社會引起了生活形態、行為規律、社會秩序的變革,并通過數據和算法得以實現。算法重塑著人與世界、人與人之間的關系,使人打破在物理意義上的時空限制,在現實空間之外可以虛擬出與之平行的世界。個人信息作為數字社會中的基本元素,在智能算法的“加持”下有了新的用途,同時也觸發了諸多新的法律問題,需要聯動各個部門法進行多元救濟,這決定了法律對個人信息的規范應該是全方位、綜合性的,即憲法、行政法、刑法、民法、國際法等部門法都嘗試基于其各自的問題意識、制度關懷和規范進路等,對個人信息做出相應的調整。第一,憲法和行政法對個人信息的規范目的主要有二:一是為個人提供法律上的權利來對抗作為信息處理者的國家,防范國家利用個人信息而侵害公民的合法權益。就此而言,國家應避免過度侵入個人信息領域,應尊重私人生活及其安寧。如經歷過納粹時期的德國對此便尤為謹慎,在人口普查案中,法院面臨的正是如何平衡國家對公民的信息收集和個人權益保護之間的難題。3 二是為個人對抗日漸強大的數據企業提供法律上的支撐。就此而言,個人享有“個人信息受保護權”,國家則負有通過制度性保障、組織與程序保障以及侵害防止義務的體系化,營造個人信息保護的制度生態,支援個人對抗個人信息處理中尊嚴減損的風險。4 第二,刑法對個人信息的保護,主要是為了打擊利用個人信息而開展的刑事犯罪,尤其是電信網絡詐騙犯罪行為,從而保護個體的個人信息權益和社會公共利益。5 事實上,利用個人信息實施刑事犯罪早已有之,各種類型的詐騙罪(包括信用卡詐騙罪、票據詐騙罪等)、私自開拆、隱匿、毀棄郵件、電報罪等,都與個人信息相關。但在刑法領域,真正以數字社會為背景確立的關于非法利用個人信息的罪名,是以打擊電信網絡詐騙犯罪為目的而從傳統的詐騙罪中獨立出來的“侵害公民個人信息罪”。它將傳統上已經被包含于詐騙罪等罪名中被評價的出售、提供公民個人信息等“預備”行為“正犯化”,從而更好地預防電信網絡詐騙等犯罪行為。6 第三,民法對個人信息的保護,是基于傳統人格權不足以保護數字時代個人信息所蘊含的人格尊嚴和人格自由等權益,故而將個人信息權作為一項獨立于傳統人格權的具體人格權予以確認和保護。7 具體而言,算法技術的介入改變了個人信息之于個人的意義。在數字領域,個人信息不僅呈現出巨大的經濟價值,也因此招致信息安全、人格尊嚴的威脅等問題。據此,所有的個人信息都產生了被法律保護的必要。但傳統人格權制度卻無力承擔這項重任,這不僅體現在其權利客體范圍無法覆蓋個人信息的所有利益形態,更為關鍵的是,其制度規則難以有效應對算法技術對信息雙方帶來的利益失衡問題。第四,國際法對個人數據保護的提出,則有著強烈的統一各國數據保護規則的目的,以免各國各自為政,阻礙數據跨境流通和數字經濟發展的目標。如歐盟在個人數據保護問題上的積極立法,其重要動因來自建立歐洲統一市場,增強歐洲數字產業的競爭力,削弱美國在歐洲市場中的主導地位。8

基于各部門法在保護個人信息規范目的上的差異,決定了個人信息的適用范圍也應有所不同。如刑法在認定“侵犯公民個人信息罪”時,對個人信息的理解便無須局限于數字社會中電子化的個人信息。根據《中華人民共和國刑法》第253條,構成該罪的行為包括向他人出售或者提供公民個人信息、竊取或者以其他方法非法獲取公民個人信息。為了有效打擊“后續”的電信網絡詐騙行為,將以未經計算機自動化處理的電子文檔形式提供個人信息,甚至以傳統紙質形式提供的個人信息,都納入“個人信息”范圍之內,是本條規范的應有之義。相反,若在民事領域界定如此寬泛的“個人信息”范圍,將導致個人信息權與傳統人格權難以區分,進而引發人格權制度體系的混亂。就理論而言,公法對個人信息的界定通常要比私法寬泛,這是因為公法對個人信息的規范多體現在抽象意義上對人格自由和尊嚴的保護等,而無須細分諸多具體人格權間的體系關聯和邊界。或許是個人信息法律制度史上先公后私、先刑后民的歷史“慣性”使然,我國民事領域對個人信息的理解一直與公法領域保持了一致。但鑒于各部門法規范目的的差異,不應認為各部門法探討的“個人信息”有著完全相同的內涵,也不宜將公法上界定相對寬泛的個人信息概念當然地也適用于民事私法領域。

綜上,個人信息權發端于數字社會的到來,對個人信息特征的概括應立足于數字社會。算法技術使得個人信息的識別方式發生了重大變化,數字社會中個人信息的算法識別和自動化處理,與傳統社會的自然識別和人腦處理有著顯著差別,這成為區分個人信息權與傳統人格權的關鍵因素。誤認為個人信息在各部門法中有著統一的內涵會成為阻礙民事領域準確界定個人信息的障礙之一。就民事領域而言,脫離數字社會這一時空背景研究與適用個人信息權,正是當前個人信息權與傳統人格權難以有效區分的重要原因。唯有認識到這些要點,才能準確認識作為權利客體的個人信息,才能準確適用個人信息權。

三、個人信息的本質特征:算法識別性

數字社會中的個人信息不僅要滿足“可識別”的要求,而且還應圍繞算法技術加以限定,即通過算法識別出的個人信息,才是典型的個人信息權客體。據此,個人信息應同時滿足識別性和算法性特征,即算法識別性才應是個人信息的本質特征。

1.個人信息權的客體范圍取決于算法識別

無論從各國立法對個人信息的定義還是個人信息保護的理論基礎來看,作為權利客體意義上的個人信息都是算法限定下的可識別信息。目前,大部分國家和地區對個人信息的定義都包含對“自動化處理”和“識別”的限定。以歐盟《條例》為例,一方面,其第4條第1款規定:“個人數據指與已識別或可識別的自然人相關的數據”,其中列舉的“定位數據、網絡標識數據”體現了個人數據的電子化特征;該條第2款對“數據處理”(對數據的收集、記錄、存儲、改編、刪除、銷毀等自動或非自動方式進行的處理)以及第4款對“識別分析”(對個人數據采取的任何自動化處理的方式)的定義,1 則從行為規范層面勾勒出算法處理個人信息的場景,體現了立法通過算法從正向層面確定個人信息范圍的設計架構。另一方面,《條例》第5條將識別性標準內化到算法技術中,因而規定了“假名化機制”,即采用適當的技術和措施使他人無法將數據連接到具體個人,從反向層面限定了個人數據的范圍。美國立法對個人信息的定義也體現了算法性特征。以美國《消費者隱私權保護法案(草案)》為例,該法案定義個人信息為“能夠直接識別或合理關聯到特定個人或設備的信息”,相較于歐盟《條例》概括性的識別定義,這種“關聯到設備”的具體規定體現了算法技術的可關聯性,比較準確地把握了辨別個人信息的算法特質。同時,《消費者隱私權保護法案(草案)》也從反向層面將“去識別化處理”的信息從個人信息的保護范圍內排除。2 與歐美立法相似,我國立法對個人信息的定義也帶有一定的算法色彩。《民法典》《網絡安全法》《個人信息保護法》都采用識別路徑定義個人信息,還在定義中明確使用“電子記錄”這種具有明顯技術特征的術語。

個人信息保護的理論基礎也體現了算法技術對個人信息范圍的限定。個人信息權制度的核心理念是個人對其信息的處理具有自主決定權,無論是歐盟法中的個人信息自決權還是美國法中的個人信息控制權,均將個人對其信息的控制限定在算法技術處理的情境中。首先,個人信息自決權的確立源于德國“人口普查案”,但德國聯邦憲法法院并未承認這一權利的普適性,而是對適用信息自決權的義務主體和處理場景進行了限制,即脫離了公權力機構和個人信息自動化處理行為這兩個限制因素,個人信息自決權就失去了正當化基礎。1 其次,即便是信息控制理論的提出者威斯汀,也是以計算機技術對個人隱私產生威脅為背景的,更確切地說這種信息控制主要針對的是自動化處理行為。2 由此可見,并非所有的個人信息皆可納入個人信息權的客體范圍,只有能被算法處理的個人信息,方能作為個人信息權的客體。

綜上,在數字社會,識別性僅是個人信息的自然特征,算法性則是其技術特征。個人信息應同時符合這兩個特征,才能成為個人信息權的客體,亦即算法識別性才是個人信息的本質特征。

2.個人信息權的法律屬性根植于算法識別

個人信息之所以能夠成為一項獨立的民事權利,源于當下的新型社會形態——數字社會的到來。3 以算法為代表的信息技術不僅改變了個人信息的表現形式(電子化),更是在根本上重塑了個人信息的人格本質和財產屬性,使個人信息蛻變為一項自身擁有特殊屬性的具體人格權。

一方面,算法強化了個人信息的人格屬性。傳統社會中的個人信息,除了涉姓名、名譽、隱私等之外,多數與人格關聯較弱,而未被作為人格權客體予以保護。然而,數字社會中以算法技術為媒介的個人信息則顯示出特有的時代特征,即信息數字化、數字信息的可計算化、數字網絡化以及數字智能化。4萬物數字化改變了處理個人信息的方式,自動化技術的持續整合分析成為個人信息處理的新型工具,“數字畫像”和以此為基礎的自動化決策成為個人信息利用的常態。基于智能算法的應用,個人信息與人格利益的關聯更為密切。在該技術背景下,數字社會中侵害個人信息呈現出三個不同于傳統社會的特征,即侵權主體主要為信息處理者(組織),侵權方式具有技術性、隱蔽性,以及侵害結果具有高風險性。5 因此,傳統上具有消極、被動特點的人格權很難適應社會發展的需要,6 這就需要立法以一種更為積極的方式保護數字社會中的個人信息。個人信息權作為一項獨立的權利形態便應運而生。

另一方面,算法催生了個人信息的財產屬性。一般而言,傳統社會中的個人信息很難生發出財產價值。雖然諸如肖像等信息能夠帶來財產價值,但這些財產價值與其說是肖像本身生發的財產利益,不如說是肖像權人通過自身努力而獲得的財產利益,只不過該財產利益附著于其肖像之上。7 在數字社會,個人信息財產價值的外化方式則不同,在算法技術的“加持”下,個人信息天然具有財產性基因。算法技術將個人信息的收集形式固定化,使其具有可控性;將個人信息的傳播形式豐富化,使其具有流通性;將個人信息的利用方式多樣化,使其具有效用性;將個人信息的匯聚方式規模化,使其具有稀缺性。因此,個人信息釋放的財產價值決定了其權利屬性中天然內含財產利益,也決定了個人信息權的權利屬性是內含財產利益的人格權利。8 這與傳統人格權顯著不同,雖然法律主要保護個人信息權中的人格利益,但其內含的財產利益也不應忽視。甚至可以說,恰是數字社會中個人信息的財產性價值才催生了個人信息受法律保護的必要,而恰是算法識別性決定了個人信息權是一項天然內含財產價值的具體人格權。

3.個人信息權的權利內容產生于算法識別

從個人信息權的基本原理可以看出,強化個人對其信息的控制是對個人賦權的邏輯起點。在數字社會,掌握了數據,就意味著掌握了資本和財富;掌握了算法,就意味著掌握了話語權和規制權。1 但事實上,技術優勢產生的“算法權力”實質造就了信息處理者與個人在信息能力、權力之間的鴻溝。由于技術受制于人類認知偏見、技術水平等,導致以中立為特征的算法成為公私機構推諉責任的工具。2 掌握算法權力的信息處理者,“既可能利用個人信息為個體提供更好的服務,也可能利用信息及技術優勢而算計與支配個人”。3 算法權力打破了義務對算法行為的約束,而規制算法權力的根本在于恢復義務的在場狀態。基于此,以規制算法權力為目的生成的算法權利,代表了算法活動中的基本價值立場,可以恢復個人對算法義務履行的預期,滿足個人的正當利益需求。4 即通過賦予個人知情權、選擇權、拒絕權等使個人進行積極的風險控制,由此實現個人自治以及信息的持續供給。5 這組權利都是為了約束算法處理行為生成的,不僅帶有明顯的技術性特征,而且權利的行使亦以算法處理個人信息為前提。

以歐盟《條例》規定的具體權利內容為例,6 一方面,這組權利以可識別的個人信息為客體,圍繞個人信息從收集、存儲、分析、利用到刪除整個處理過程賦予個人相應的權利,確保個人在各處理階段的參與力度。如在事前防范中個人享有知情權、決定權,事中監督中個人享有訪問權、限制處理權、反自動化決策權等,事后救濟中享有更正權、刪除權,同時規定算法解釋權、數據攜帶權等賦予個人積極參與信息處理的權利。這組權利旨在實現信息主體有能力通過自己的行為改變自己與他人、他人與他人之間規范關系的“權力”要素。7 另一方面,這組權利是為規制算法行為設立的,具有權利上的算法性特征。算法解釋權即是算法性特征的典型表現。該權利由知情權和反自動化決策權衍生,主要為規制信息處理者利用算法對個人進行大數據殺熟、大數據歧視而設,旨在賦予個人可要求信息處理者對運算結果進行解釋的權利。8 再如數據攜帶權是個人信息自我控制得以實現最為重要的權利機制,9 “在技術可行的情況下,個人有權將其個人信息轉移給另一個信息處理者”。10 從其定義可看出,個人信息的整體轉移依賴相應的技術標準來實現,顯示了權利的算法特征。

個人信息權的行使邊界以算法處理的個人信息為限。同時,作為技術架構的算法在一定意義上生成了個人信息的權利空間。在實踐中,數據企業利用人臉識別技術識別出的人臉信息,Cookies技術追蹤個人網絡痕跡并由此形成的數字畫像,個人穿戴設備收集分析的行為軌跡信息等,都是由算法生成并由算法識別的。將算法技術嵌入個人信息權中是個人信息算法識別性的內在要求,即“經設計的隱私”。11 其中,風險最小化的算法設計標準可以從正面確定個人信息的保護范圍,“解決個人信息保護與數據權利的界分問題”,12 由此催生出相應的包含算法技術的權利,如拒絕權、反自動化決策權、算法解釋權等。如歐盟在《條例》中,將“經設計的隱私”技術標準納入保護規范中,并在數據處理中融入“采用數據最小化機制”,1 再配以問責機制和認證機制落地實施,2 成為技術入典的典型條款。而匿名算法技術亦可從反面排除個人行使信息權利的空間,3 如在“余某訴查博士二手車案”中,4 二手車況信息達到了匿名化規則的要求而不受“刪除權”的保護。可見,個人信息的算法性決定了個人信息權的可計算性,而個人信息權的行使又以可識別為前提,并依賴算法來實現。

四、算法識別性作為個人信息本質特征的實踐價值——以民事侵權為例

個人信息算法識別性特征的提出,可以說對關涉數字空間中可計算個人信息的所有法律制度的設計都會帶來特定影響,此處僅以該定性能夠澄清侵害個人信息權與傳統人格權的理論差別為例。具體說來,個人信息算法識別性特征能夠基于侵害個人信息權或傳統人格權在規范目的、權利屬性和權利內容上的不同而將兩者區分開來,從而為兩種侵權糾紛確定具體的法律適用。

1.個人信息權與傳統人格權的準確適用:算法性區分

基于個人信息的算法識別性特征,個人信息權的適用以數字社會中算法技術的運用為前提,故傳統社會中的涉信息糾紛并不適用個人信息權。據此,無論是小區張貼判決書案,抑或冒名擔保案,都不應適用個人信息權。就小區張貼判決書案而言,該糾紛發生在小區這一線下場景,而非線上空間;所涉信息以紙質方式呈現,而非電子方式;處理信息的主體是物業公司,而非掌握算法技術的信息處理者;信息的處理方式是人工公開法院判決書,而非通過算法對信息自動化處理。同理,對冒名擔保案而言,此類糾紛也是發生在線下,受害人的姓名、身份證號等信息是被第三人(往往是自然人)冒用,糾紛的發生既無涉數字社會,亦無關算法。因此,無論是小區張貼判決書糾紛,還是冒名擔保糾紛,都可以通過傳統人格權予以解決,且適用傳統人格權解決此類糾紛已行之多年,并無必要在個人信息權產生后改變此類糾紛的解決途徑。

進一步言,以適用個人信息權解決傳統線下糾紛不僅無益,而且有害,因為個人信息權的制度理念和規則設計不同于傳統人格權。傳統人格權的出發點是,原被告雙方之間在法律上是平等關系,規則設計以意思自治和平等對待為原則。但在個人信息權中,算法技術的應用導致原被告雙方在信息處理上存在事實上的不平等關系,基于此種不平等,法律對信息主體給予了傾斜性保護。個人信息權規則與傳統人格權規則因此存在顯著差別,適用個人信息權解決傳統糾紛會導致“張冠李戴”的匹配失調,影響法院裁判的妥當性。具體而言,二者在民事侵權救濟上存有如下差別:

第一,歸責原則不同。《個人信息保護法》第69條第1款確立了侵害個人信息權采過錯推定責任,以此來緩解個人與信息處理者在舉證能力上的偏差,這與傳統人格權侵權的過錯責任不同。在數字環境中,由于算法的隱蔽性和專業性導致個人面臨無法證明“算法如何識別、如何歧視、如何殺熟”的舉證困境,為克服舉證能力的失衡,適用過錯推定責任成為立法者可取的選擇。5 一方面,個人信息處理者距證據較近,且專業較強,采用過錯推定有利于強化信息處理者的舉證義務,另一方面可以減輕個人的舉證負擔,對受害人提供有效的救濟。6 如在“微信讀書案”7 中,原告能夠提供的證據僅限于其可識別的信息——自動關注其微信好友并將其讀書信息公開。但該類信息的產生和利用屬于被告騰訊公司內部的技術行為,原告很難提供清晰的侵權鏈條證明騰訊公司的算法行為構成侵權。因此,法院適用過錯推定責任,將反駁原告主張的舉證責任移轉至騰訊公司。若將過錯推定責任適用于“小區張貼判決書案”等傳統人格權糾紛案件中,難有正當性可言。

第二,違法性判斷不同。《個人信息保護法》第13條規定了處理個人信息的合法性基礎,除了少量例外情形,處理個人信息原則上須事先取得個人的同意,否則便可能構成違法。但傳統社會的信息流動并不遵循告知同意規則,如“德國法上傳統的信息秩序建立在信息自由的基礎之上,亦即,原則上人們可以任意獲取、處理和利用他人的信息。……隱私權訴求不過只是‘信息交流自由之海中的個別保護島嶼罷了”。1 若傳統社會采告知同意規則,信息流動無疑會凝固,社會將無法正常運轉。但在數字社會中,信息處理借助于算法技術可以無時不在、無處不在。如果不賦予個人對其信息的自我控制權,放任信息處理者對個人信息的處理,個人將在數字社會中成為透明人,個人的人格利益和財產利益都會面臨巨大的受侵風險。因此,傳統人格權糾紛中的受害人有義務證明相關信息收集和傳播的違法性;而在個人信息權糾紛中,則應由信息處理者來證明其信息處理行為的合法性、正當性、必要性。

第三,損害認定不同。在數字社會,個人信息因算法技術的客觀記錄產生“社會典型公開性”,符合侵權損害的“客觀真實性”要求,2 但其損害后果具有潛在性和不確定性。3 信息處理者侵害個人信息權可能發生在任何處理環節。算法的循環分析還可能導致損害的衍生和可持續性,“以往的污點跟蹤技術無法有效識別處理個人信息造成損害的潛在風險”。4 個人不僅難以應對這種風險,更難以就損害進行舉證。據此,規制算法并“對強勢主體施加義務”5 成為調整信息處理者與個人之間強弱關系的必要選擇,這是個人信息傾斜保護的典型運作機制。在個人信息權糾紛中,判斷個人信息權是否受到損害是通過合法性原則反向確定的,即處理行為是否合法或是否履行了法律義務成為連接風險與損害認定的關鍵。6 在“微信讀書案”中,微信讀書自動生成原告的讀書時長、讀書內容等信息,并進行持續的識別分析,有勾勒出其人格側面的風險,這些損害及風險皆由算法計算并以客觀形式呈現。騰訊公司未向原告充分告知并取得同意就自動為其關注讀書好友并公開讀書信息,顯然違反了處理個人信息的合法性原則,侵害了原告的個人信息權。而在傳統人格權糾紛中,損害的認定更多地依賴受害人的主觀感受,需借助“社會評價降低、生活安寧受到威脅”等因素做出判斷,與數字環境中的客觀性和可計算性特征不同。

2.個人信息權與傳統人格權的模糊地帶:個案衡量

除了純粹發生于傳統線下社會和完全有賴于算法加以處理的場景外,實踐中也存在適用傳統人格權抑或個人信息權的模糊地帶。一方面,以數為媒的社會與以人為媒的社會之間不存在一條界線清晰的鴻溝,而是彼此交織地混雜在一起。7 另一方面,算法技術也有強弱之分,根據個人特征進行個性化推薦固然屬于算法,依字母順序排序和展現也未嘗不是一種算法。面對現實的復雜性和多樣性,對于適用中的模糊地帶需個案衡量。

第一,信息處理事實不明時的個案衡量。在“龐某信息泄露案”中,原告航班等信息如何泄露難以查明。由于兩被告是個人信息的實際控制者,從被告處泄露原告信息有著較高可能性,但該泄露既可能是因傳統方式(如被告工作人員口頭告知他人)而泄露,也可能是因計算機系統被侵而泄露。鑒于對信息的處理是被告的內部行為,原告難以舉證證明其信息如何被泄露,故此時認定何種案件事實,或者說適用何種權利判決更多取決于法律的價值判斷。若選擇適用個人信息權,主要是出于更好地保護受害人的角度,體現了優先保護受害人利益的價值理念;若選擇適用傳統人格權,則是選擇了優先保護行為自由,避免社會交往因寬泛的個人信息權保護而動輒得咎。基于侵權法原理,優先保障行為自由是侵權法的邏輯起點,即“損害原則上應停留于其發生之處”1。因此,除非有足夠充分且正當的理由,否則應堅持行為自由。所謂“足夠充分且正當的理由”,最主要的便是行為人的“過錯”。具體到個人信息糾紛,在信息泄露途徑和方式不明時,不宜認定企業存在“過錯”。否則,若僅以信息泄露的事實便徑直認定企業構成“過錯”,便在事實上令企業承擔了無過錯責任,因為企業基本上無從證明自己不存在過錯。在司法裁判和學理充分證成此類場合應適用個人信息權之前,基于侵權法的基本理念,適用傳統人格權解決此類糾紛應是較為穩妥的解決方案。基于此,“龐某信息泄露案”便不應適用個人信息權來判決。該案兩審法院都是基于傳統人格權侵權做出的判決,表明適用傳統人格權完全能夠解決此類糾紛。只不過二審法院在說理中過于強調對個人信息的保護,導致在論證過程中舍本逐末,偏離了傳統隱私權的適用邏輯。

第二,算法技術程度不同時的個案衡量。數字社會是適用個人信息權的前提,但并非所有發生于數字空間中的涉個人信息糾紛都可適用個人信息權。若個人信息只是單純地被發布于數字空間,未必需要適用個人信息權,如在網絡上發布侮辱誹謗他人內容的糾紛,一般應適用傳統人格權。我國人肉搜索第一案“王菲案”中,被告在網站上公布了原告的姓名、工作單位、婚外情等信息。法院認為,“在社會生活中,公民為了交往的需要,常常主動將姓名、工作單位、家庭住址等個人信息告知他人,這些個人信息有時也會被他人通過一定途徑知曉和利用。這些個人信息的披露、使用等行為是否構成侵犯隱私權,應當視行為人對這些信息的取得方式、披露方式、披露范圍、披露目的及披露后果等因素綜合認定”。2 此類糾紛中,被告并未采用算法技術對原告信息進行自動化分析,適用隱私權等傳統人格權便可有效解決,無須適用個人信息權。

此外,若案涉算法只是依字母、發布時間排序等簡單的處理技術時,也可能無須適用個人信息權。以“線上發布判決書案”為例,“貝爾塔案”與“匯法正信案”是典型。3 兩案的案情相似:被告都是提供信息查詢等服務的公司,它們將源自中國裁判文書網的法院裁判文書上傳到自己網站,供客戶查詢。被告網站的裁判文書中包括了原告與第三人間的訴訟文書,文書中涉及原告姓名、糾紛過程等信息。原告以侵害個人信息權、名譽權、隱私權等為由提起訴訟,“貝爾塔案”法院判決被告侵害了原告的個人信息權,“匯法正信案”(以侵害隱私權為由)法院則駁回了原告的訴訟請求。此類案件中,能否適用個人信息權與被告所采取的技術密切相關。若企業爬取了中國裁判文書網上公開的判決文書并收錄于自己網站,而沒有做出更多的技術處理,或只是做了案件名、案號、審級等分類編排上的處理,此時便不應適用個人信息權。若企業通過技術手段提取了判決書、企業工商注冊信息、行政處罰文書、失信被執行人名單中的當事人信息,并將這些信息相關聯,如在查看企業工商注冊信息時能看到該企業股東的判決書或行政處罰文書,對被納入失信被執行人名單的股東做出重點標注,并在數據分析基礎上提供企業或個人信用等級、交易風險預警等“增值”服務,此時適用個人信息權的可能性便明顯加大。因為企業實施了對個人信息的自動化處理行為,導致個人信息具有“可鏈接性”。據此,“貝爾塔案”中被告提供的是企業征信、企業信用評估、信用管理咨詢、企業管理咨詢等服務,用戶可以通過其網站查詢企業工商登記、涉訟裁判文書等,即被告將企業(包括股東)信息與裁判文書等做了關聯,使用戶在查看企業信息時能同時看到和鏈接到與之相關的裁判文書,可適用個人信息權。相反,“匯法正信案”中被告是法律資訊信息網站,其僅提供法律法規、司法案例、合同文本、律所律師、司法院校等信息,對司法案例的編排采取的是案由、文書類型、審理機構等常見的編排方式,故該案無須適用個人信息權。因此,涉個人信息糾紛能否適用個人信息權不應一概而論,而是要視企業所采取的技術、所運用的數據處理方式以及所提供的產品和服務等而定,其中核心的判斷標準在于,企業是否運用了算法等自動化信息處理技術。

五、結語

數字社會是個人信息權產生的生態環境,也是討論、研究個人信息法律保護的前提。1 算法技術的運用導致個人信息之于個人的意義發生了巨變,個人信息權發端于算法處理的特定領域,其權利客體、法律屬性和權利內容等都體現出數字社會特有的算法性。算法識別性由此成為個人信息的本質特征。盡管本文是以個人信息權與傳統人格權的區分作為例證來揭示該定性的理論價值和實踐意義,但是個人信息算法識別的定性其實關涉數字空間中可計算個人信息的所有法律制度的設計。最為重要的就是數據的處理、數據權屬確定及數據利益的分配問題,所有這些都跟個人信息的算法識別性本質密切相關。因為,從根源上說,正是基于個人信息的算法識別性,才改變了個人信息的人格意義,更催生了個人信息中內含的財產價值。這也使得傳統人格權制度已無法有效解決個人信息利用帶來的新問題,從而為個人信息權被法律確認為一項獨立于傳統人格權的新型人格權奠定了理論根基,而有關數字社會中一切有關數據、個人信息的討論都由此開始。

Abstract: The identifiable character of personal information has given rise to the difficult problem of distinguishing between personal information rights and traditional personality rights. Judicial decisions have been made both to protect personal information with traditional personality rights and to adjudicate disputes over traditional personality rights with personal information rights. Identifiability is not appropriate as an essential characteristic of personal information because it detracts from the foundations of the digital society from which the personal information system emerged, ignores the differences in identification between the digital society and the traditional society, and confuses the different connotations of personal information in the various sectoral laws. Algorithmic identification is the essential characteristic of personal information, and the scope of the object, legal properties and content of the right to personal information all arise from algorithmic identification. It is on the basis of the algorithmic identification of personal data that a distinction can be made between traditional personality rights and cases of personal data rights, at least in the field of civil law. When information processing is difficult to ascertain at a factual level, it should still be classified as a traditional personality rights infringement case; when the degree of algorithmic technology varies, the applicability of the right to personal information needs to be weighed on a case-by-case basis. Although the paper uses the distinction between the right to personal information and traditional personality rights as an example to reveal the theoretical value and practical significance of this characterization, the algorithmic identifiability of personal information is in fact about the design of all legal systems for countable personal information in the digital space.

Key words: digital society; personal information; personal information rights; traditional personality rights; algorithmic technology; algorithmic identifiability

(責任編輯:蘇建軍)

主站蜘蛛池模板: 国产精品美女自慰喷水| 亚洲视屏在线观看| 久久国产精品波多野结衣| 精品国产一区二区三区在线观看| 精品无码一区二区三区在线视频| 精品91在线| 国产精品亚洲欧美日韩久久| 国产精品尤物在线| 欧美黄网站免费观看| 久久免费视频播放| 国产熟睡乱子伦视频网站| 亚洲国产成人超福利久久精品| 国产精品亚洲αv天堂无码| 国产呦精品一区二区三区网站| 久久成人国产精品免费软件| 日韩精品亚洲人旧成在线| 欧美啪啪网| 国产成人精品亚洲77美色| 五月婷婷综合网| 国产精品一区二区国产主播| 91视频精品| 亚洲男人天堂久久| 成人福利在线视频免费观看| 国产激情无码一区二区APP| 欧美区日韩区| 毛片网站免费在线观看| 国产00高中生在线播放| 国产无码性爱一区二区三区| 四虎国产在线观看| 国产成人综合亚洲网址| 亚洲日本中文字幕天堂网| 欧美在线网| 成人永久免费A∨一级在线播放| 国产极品美女在线播放| 天天摸夜夜操| 日本人妻丰满熟妇区| 狠狠亚洲婷婷综合色香| 国产黄在线免费观看| 香蕉eeww99国产精选播放| 国产网站在线看| 国产区福利小视频在线观看尤物| 欧美国产在线精品17p| 国产精品开放后亚洲| 久久精品娱乐亚洲领先| 激情综合网激情综合| 找国产毛片看| 乱码国产乱码精品精在线播放| 日韩精品毛片| 国产91视频观看| AⅤ色综合久久天堂AV色综合| 欧美日韩综合网| 国产91九色在线播放| 欧洲极品无码一区二区三区| 伊人久久精品无码麻豆精品 | 久久伊人色| 国产伦精品一区二区三区视频优播 | 黄色污网站在线观看| 996免费视频国产在线播放| 色欲色欲久久综合网| 亚洲av成人无码网站在线观看| 97视频在线精品国自产拍| 在线观看亚洲精品福利片| 风韵丰满熟妇啪啪区老熟熟女| 亚洲香蕉伊综合在人在线| 9啪在线视频| www.91在线播放| 久久香蕉欧美精品| 国产经典在线观看一区| 午夜少妇精品视频小电影| 毛片免费视频| 国产区在线看| 欧美综合激情| 久久a毛片| 国产91透明丝袜美腿在线| 亚洲精品免费网站| 99国产精品国产高清一区二区| 啊嗯不日本网站| 欧美日韩国产在线观看一区二区三区| 久无码久无码av无码| 日本高清免费一本在线观看 | 欧美色视频在线| 久久久久人妻一区精品色奶水|