999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

數字人權時代人臉識別技術應用的治理

2020-08-02 10:58:03郭春鎮
現代法學 2020年4期
關鍵詞:人臉識別

郭春鎮

摘 要:在數字人權時代,人臉識別技術的發展給我們的日常生活帶來相當多的便利,但也給個人信息、隱私和財產帶來風險,并且給人的尊嚴帶來被貶損的可能。在兼顧產業發展的同時,我們應對人臉識別技術的應用持審慎態度。對該技術的應用帶來的風險、其所涉的數據提供者、控制者、使用者和監管者等各方的利益,以及公共利益進行衡量。并在此基礎上采取以下措施:首先,通過公權力機關的推動和公民自我認知的提升形塑“數字理性”主體。其次,立足現有規范體系和現實,將個人信息保護的“知情同意”架構進行柔韌化處理,建構合理的規范體系。最后,通過強化數據掌控者和監管者的責任、推動公眾和專業人士的有效參與、建構兼容“知情同意”框架的制度體系等方式,形成基于責任和參與的多重治理機制。這些措施是保護個人信息安全的路徑,也是實現數字人權的應有之義。

關鍵詞:人臉識別;個人信息;隱私; 數字人權

中圖分類號:DF920.0文獻標志碼:A

引 言

隨著科技的進步和社會的發展,人臉識別在學術研究和技術發展方面都取得了重大進步。在學術方面,人臉識別的研究成果越來越多,其中很多成果已經走入人們的生活。②

人臉識別的理論研究逐步深入,從傳統的人臉特征提取并針對特征進行高性能的分類器設計,發展到通過卷積神經網絡自動學習。在技術方面,通過使用局部二值模式(local binary pattern,簡稱LBP)的強度影像(intensity images)技術、視頻訓練的圖像序列技術(video sequences)和3D特征提取的3D信息技術,人臉信息識別、提取技術越來越實用和高效。 人臉識別技術已經嵌入到人們生產生活的各個方面,在財務行為、工作場所監督、安全防控等領域得到普遍應用。

相較于以往身份認證軟件、傳統生物特征識別(如指紋、虹膜識別等)等技術而言,人臉識別具有無需接觸、符合人類識別習慣、交互性強、不易被盜取、高效迅速等諸多優勢,且被認為在保障公共安全、信息安全和金融安全方面卓有成效且潛力巨大。但是,我們身處技術急劇進步而“國家治理體系和治理能力現代化”整體水平仍然不高、風險控制難度日趨增大的新時代,人臉識別技術固然可以提高某些方面的治理水平,可能會提高這些方面和領域的安全性,但其在風險社會中面臨的潛在風險卻有可能伴隨著技術的發展,尤其是大數據技術的發展而進一步發酵,給個人信息、隱私權、信息安全、金融安全乃至公共安全帶來巨大的威脅和隱患。因此,作為人工智能和大數據發展重大成果的人臉識別技術,應該被“認真對待”,在考慮擴充其使用范圍以便利人們生活的同時,也應將之置于風險社會的背景和框架中進行審視,并對其在某些領域的應用持審慎態度。

一、人臉信息的學理與規范意涵

在日常生活中,要確定一個人的身份,往往需要書面材料、實物證據或其他證據證明,但是在驗證這些證據材料的時候,大都需要通過校驗人臉的方式確認是否為本人。從生活常識和直覺的角度來看,人臉是最重要的個人信息之一。然而,這種信息與我國民法、經濟法、社會法、刑法、行政法乃至憲法等規范意義上的個人信息在何種程度上相關,則需要從法理層面進行觀察和論證。

(一)個人信息的規范沿革

從法學的角度看,個人信息及與之具有家族相似性的概念在最近半個世紀才得以產生并日漸受到關注。這一概念在產生之初即與隱私具有密切的關聯。在美國《隱私法》(The Privacy Act of 1974)中,個人信息被納入“個人記錄”(records maintained on individuals)名下,這里的“記錄”是指“由專門機構保存的任何有關個人的信息的項目、集合或歸類。其中包括但不限于其教育背景、財務往來記錄、病史、犯罪或受雇記錄,還包括其名字或特別分配給個人的識別號碼、符號或其他識別特征,例如手指或聲紋或照片”。從該法的名稱也可看出,這里的個人信息或個人記錄從屬于隱私。對個人信息的保護,意在限制聯邦機構,防范公權力對具有識別性的個人信息的濫用和傳播以保護個人隱私。在此之后,經濟合作與發展組織于1980年頒布《隱私保護與個人數據跨境流通指南》(以下簡稱《指南》)。《指南》把個人信息納入到“個人數據”(personal data)這一術語名下,寄望在數據自動化處理技術迅速發展的背景下,既保護個人信息和隱私,又不過分影響國際數據流動。“個人信息”(personal information)這一法律概念源自于澳大利亞1988年發布的《隱私法》,該法將其定義為“可識別或理論上可識別身份的信息及觀點”,且強調無論個人信息是否真實、是否以物質形式記錄,均屬于該法所規定的個人信息。此后,歐盟《個人數據處理保護與自由流動指令》、英國《數據保護法》、日韓《個人信息保護法》與新加坡《個人數據保護法》等均對個人數據、個人信息等概念作出法律界定。

我國法律文件中有關個人信息規定的內容出現較晚。它最早出現在工信部于2011年12月頒布的《規范互聯網信息服務市場秩序若干規定》(以下簡稱《規定》)。《規定》第11條強調未經用戶同意,互聯網信息服務提供者不得收集與用戶相關、能夠單獨或者與其他信息結合識別用戶的信息,并將這些信息稱為“用戶個人信息”。2013年4月發布的《最高人民法院、最高人民檢察院、公安部關于依法懲處侵害公民個人信息犯罪活動的通知》(以下簡稱《通知》)首次對“公民個人信息”的內容作出規定,即“包括公民的姓名、年齡、有效證件號碼、婚姻狀況、工作單位、學歷、履歷、家庭住址、電話號碼等能夠識別公民個人身份或者涉及公民個人隱私的信息、數據資料”。2016年11月頒布的《網絡安全法》首次對個人信息的概念作出法律規定,即“以電子或其他方式記錄的能夠單獨或者與其他信息結合識別自然人個人身份的各種信息”。2017年通過的我國《民法典》第111條則明確規定“自然人的個人信息受法律保護。任何組織和個人需要獲取他人個人信息的,應當依法取得并確保信息安全,不得非法收集、使用、加工、傳輸他人個人信息,不得非法買賣、提供或者公開他人個人信息。”時至今日,據不完全統計,我國大陸地區已經有3部民事法律、21部憲法和行政法領域法律、16部經濟法和社會法領域法律、3部訴訟法、2個刑法修正案、11部行政法規和數十個國務院規范性文件和部門規章對個人信息予以規制。

筆者以中國人大網的“中國法律法規信息庫”為基礎,結合北大法寶、威科先行等法律數據庫,全文檢索現行的法律、行政法規、部門規章等中有關個人信息保護的內容,通過在中國法律法規信息庫中檢索“個人信息”,共命中憲法性法律123部,行政法規及文件187部,但由于系統默認檢索“個人”“信息”“個人信息”,經排查,規定“個人信息”及有關內容的法律有50多部,行政法規和部門規章數十部。

(二)人臉信息的規范屬性

從生活常識來看,人臉是重要的個人信息。人臉附有與個人和身份相伴隨的一系列標簽和屬性,并直接或間接地表達著屬于這個人的權利與義務、權力與職責,甚至是性格與行為特征。從規范的角度來看,這些信息是否屬于個人信息則有待于進一步確認。從前述所列的關于個人信息的規范看,它們均沒有在個人信息的定義中直接列舉人臉。這就需要基于相關條文對人臉識別及人臉的規范屬性予以分析。前述的相關規范均將“可識別性”作為界定個人信息的核心要素。且在《通知》中,以列舉的方式確定個人信息的外延,同時用“等”把其他能夠識別公民個人身份或者涉及公民個人隱私的信息、數據資料進行概括式界定。相對于有效證件號碼、電話號碼和學歷等信息,人臉無疑是更容易識別和確定個人身份的個人信息。在熟人社會里,一個人的年齡、身份證號或者家庭住址可能不為人知,但一看臉就能識別出其身份。在陌生人社會里,即便知道前述諸多信息,仍需要比照人臉,進行驗證和確認。因此,從立法技術看,“等”中內在包含著人臉信息。從法律解釋看,對“等”可以運用當然解釋的方法,即“等”中當然包含著人臉信息。將這種理解和解釋延伸到法律層面,則意味著《民法典》和其他相關法律法規、規章中的個人信息應當包括人臉。

從我國法律對個人信息概念的界定來看,人臉信息屬于個人生物識別信息范疇,是個人信息的重要組成部分。根據《網絡安全法》第76條第5款的規定,個人信息包括但不限于“自然人的姓名、出生日期、身份證件號碼、個人生物識別信息、住址、電話號碼等”。生物識別信息是指與自然人的身體、生理或行為特征有關的基于特定技術處理產生的個人數據,這些數據可以確認該自然人的獨特身份。生物識別信息一般分為兩類,一類是基于人的身體或生理特征的信息,如虹膜信息、指紋信息、人臉信息、聲音信息、體味信息等;另一類是基于行為的信息,如移動方式、手寫簽名、步態分析等。我國相關規定明確指出,個人生物識別信息包括“個人基因、指紋、聲紋、掌紋、耳廓、虹膜、面部特征等”。這就在規范層面認可了人臉信息的生物識別信息屬性,表明其應當受到個人信息保護立法的規制。

受到法律規制的人臉信息包括參考模版和數字圖像兩部分。其中,參考模版根據個人圖像制作而成,將人臉面部具有代表性的部位的相對位置和相對大小作為特征予以提取,再輔之以人臉輪廓的形象信息,把人臉圖像轉化成緊湊且可識別的特征向量,然后儲存在后臺數據庫系統內供日后的識別和認證。而數字圖像則是在視頻或圖像中用以比對的人臉形象。數字圖像要成為個人信息,必須具備兩個特征:一是必須蘊含個人清晰可見的臉。如果該數字圖像包含的是遠處或模糊的場景數據,則不大可能被視為個人信息。二是必須使該人能夠被識別,這是數字圖像得以成為個人信息的實質性要素。而參考模版因蘊含個人面部特征,能夠與特定的個人相關聯,因此也應當被視為個人信息。可見,在對人臉識別規制的過程中,不僅需要對數字圖像的采集、比對、儲存等環節予以針對性調整,還需要對儲存在自動識別系統中的參考模板予以規制。

(三)人臉信息與隱私交疊

在進行人臉識別時,將所采集到的人臉圖像與后臺數據庫中的樣本模版進行比對,不僅能對特定個體進行識別,而且在某些情況下能夠進一步追蹤到個體的活動軌跡、人際關系、財產狀況等隱秘性信息,使個人隱私暴露于他人的視野中。人臉信息是重要的個人信息,但能否將人臉信息置于隱私的保護之下,需要從學理和規范層面思考個人信息與隱私權的關系。

有關個人信息和隱私權之間的學理關系,大致有三類觀點,分別是隱私權包含說、個人信息包含說與交疊關系說。隱私權包含說認為,隱私權具有消極和積極兩個面向,前者意指傳統意義上私生活不被打擾的獨處甚至“遺世而獨立”的權利,后者則是信息社會中對自身信息的自我決定權。隱私權主體不僅有權不被干擾,而且可以通過“有所為”的方式決定和使用個人信息。此時,個人信息是隱私的內在組成部分,保護個人信息的目的就是捍衛隱私權。個人信息包含說認為個人信息包含隱私。該學說認為,我國法律確認個人信息具有識別性,個人隱私由于也具有識別性,因此應內涵地被納入個人信息之中。交疊關系說認為個人信息和隱私之間既有聯系也有區別,兩者在權利主體和客體方面有相同或相似性,但在屬性和保護方式等方面存在差異。也有學者認為隱私權主要涉及不同的民事主體之間的利益衡量問題,而個人信息不僅涉及到民事主體之間的關系,還涉及到國家利益,需要在權利主體、信息從業者和國家之間尋找新的平衡。還有學者認為傳統的隱私權保護模式所能保護的個人信息僅僅是一小部分,有更多需要被保護的個人信息在當前背景下無法得到這一模式的有效保護。個人信息保護的現實需求,需要超越現有的隱私權保護模式。

從規范與學理角度看,包括人臉信息在內的個人信息與隱私權之間存在交疊關系。從我國《民法典》第110條和第111條的規定來看,至少在私主體之間,個人信息和隱私權是相關聯又有所區別的術語。

我國 《民法典》第110條規定“自然人享有生命權、身體權、健康權、姓名權、肖像權、名譽權、榮譽權、隱私權、婚姻自主權等權利”;第111條規定“自然人的個人信息受法律保護。任何組織和個人需要獲取他人個人信息的,應當依法取得并確保信息安全,不得非法收集、使用、加工、傳輸他人個人信息,不得非法買賣、提供或者公開他人個人信息”。從兩者在《民法典》中的位置來看,它們前后相互銜接,都處于第五章“民事權利”之中,且其后的諸條均規定各種具體權利及其救濟問題。然而,在權利林立的第五章中,個人信息仍沒有被表述為“個人信息權”,其自身到底是一項權利還是一種利益,則有待于進一步思考和確認。因此,從規范角度看,個人信息和隱私確實不同且有密切的相關性。從學理來看,雖然個人信息與隱私權的關系存在三種迥異的觀點,但個人信息和隱私權的語義“射程”存在較多的交錯地帶,僅憑其中的任何一個,均無法涵蓋對另一內容的保護和保障。可見,兩者處于一種復雜的交疊關系。人臉信息作為個人信息的重要構成部分,其與隱私權亦處于交疊關系中。因而,對人臉信息的收集和使用既有可能侵害到公民的隱私權,也有可能侵害到公民的個人信息。

二、 “數字人權”時代人臉信息的風險

(一)新時代是“數字人權”時代

新時代是一個“數字人權”

張文顯:《“數字人權”這個概念有著堅實的法理基礎、現實需要和重大意義——“無數字 不人權”》,載日益彰顯的時代。“數字人權”是一個嶄新的術語,是在兼容大數據時代特征的基礎上所孕育并誕生的新興人權,它有著積極和消極雙重面向。數字人權的積極面向意味著國家對數字人權的推進和實現應有所作為。在人們幾乎無法回避和逃逸出網絡化生存的背景下,互聯網如同交通、電力、自來水等一樣,成為一項公眾必不可少的基礎設施。因此,數字人權要求國家要有所作為,國家有義務和責任建設好互聯網基礎設施,做好所涉的硬件和軟件工程建設工作,以及提供基于這些軟硬件而延伸和發展起來的各項“互聯網+”公共服務。

數字人權的消極面向意味著人們在大數據時代“獨處的權利”。在每個網民都接入互聯網并拓展自己的生活空間的時候,人們仍有不被審視和窺探的權利、自己的身份在無關國家和社會安全的情況下不被識別的權利、自己的生活方式不被干預的權利以及自己的人格利益不被侵犯的權利,并在此基礎上,在不侵犯國家、社會和他人利益的前提下,提升做自己想做事情的能力。

人臉信息是數字人權所關切的重要內容,它所面臨的風險需要我們審慎對待。人臉識別技術是隨著網絡化生存而產生的技術,數字人權的積極面向促成了它的產生和越來越普遍的應用。同時,人臉是重要的個人信息,對人臉信息進行采集和應用的行動,關涉數字人權的保護、保障和實現,這在數字人權的消極面向體現得更為明顯。新時代是一個與風險社會在時空上交錯的時代,在對自然或社會的控制日趨完美的愿望下,風險社會的這種風險被掌握相關知識和話語權的專業人士界定和建構。

參見[德]烏爾里希·貝克:《風險社會》,何博聞譯,譯林出版社2004年版,第20頁。然而,他們在制造這些風險后,又將風險移轉到社會民眾、特定或不特定群體身上,使得這一風險被全社會或某些群體分擔,最終導致在這些群體的利益或權利被侵害之后,難以甚至根本無法找到承擔法律甚至道義責任的主體。因此,在數字化的風險社會中,人臉信息面臨著巨大的風險。

(二)人臉信息所面臨的隱私威脅和財產風險

在不同的文化和社會傳統中,人臉之于人都有特殊的意義。在風險社會中,人臉信息被廣泛收集并形成大數據之后,可能會對個人隱私、個人安全、社會與國家安全帶來風險和威脅。這種風險和威脅可能貫穿于人臉信息大數據形成與應用的始終。

一方面,對人臉信息的收集可能會侵犯個人隱私。人臉不是隱私的直接載體,但它是重要的個人信息,與隱私有密切的關聯。從隱私的定義來看,無論是把隱私界定為“不愿告人或不愿公開的個人的私事”,還是對抗公權力搜查和逮捕意義上的權利,抑或“半憲法性”的且與言論自由相關的自由,人臉都難稱得上是隱私。否則在日常生活中的每一天,每個人都面帶隱私出行,人們一露面就相當于隱私被主動泄露。雖然人臉自身并不是隱私,但人臉本身無疑攜帶著重要的個人信息。若將“可識別性”作為個人信息及其保護的標準的話,人臉甚至是最具有代表性的個人信息。如果按照傳統的立場和觀點,把隱私界定為包括私人信息、私人活動和私人空間在內的個人私生活秘密,那么即便人臉自身不屬于個人隱私,但其所攜帶的個人信息和它所出現的時間、空間等信息結合在一起,卻可能構成隱私。在面對真實世界中的問題時,我們需要一副“思想的眼鏡”,以敏銳的洞察力去發現我們周圍世界復雜現象背后的真相。大數據的處理方式類似于向數據處理者提供一副特殊的眼鏡,使其可以發現零碎紛亂的個人信息背后某個人真實的面貌乃至思想,對某個個體形成全方位洞察。由此,大數據技術創造了一個穿越信息迷霧、全面掌控個人信息的“大數據眼鏡”。

另一方面,對人臉信息的收集和應用有可能會給個人的人身財產安全帶來不可預測的風險,甚至威脅到公共利益和國家安全。對于生活中紛繁復雜和支離破碎的信息,有哲學家敏銳地洞察到:“有些人聽到的只是噪音,而有些人卻從中聽出了旋律”。個人信息似乎也是如此。碎片化的個人信息相當于噪音,但“有心人”通過技術手段整合個人信息,就像把噪音中的音律排列組合后形成旋律。那些生活中以分散乃至散亂的形式置于各個不同攝像頭下的人臉,對某個單獨看到這張人臉的人來說可能只是一張普通的、與自己無關的人臉,就像無意中聽到的某個或某段無意義的噪音。但在經過大數據整合之后,這些“噪音”有可能變成“旋律”,通過挖掘,可以從中得到很多個體不想為人所知的信息、秘密和隱私,甚至是事關社會穩定和國家安全的重要信息。對于個人來說,很多銀行或網絡金融產品的支付行為,小區門禁乃至私宅房門的開啟,都會應用到人臉識別技術,而這些人臉信息被人臉識別設備生產商、小區物業機構獲取后,難以保證其不被泄露而致濫用。同時,這些機構的網絡安全設施、相關人員的網絡安全意識和技術等也難以保障人臉信息長期處于安全狀態,人臉信息一旦被非相關主體收集使用后,可能會給個人帶來不可預測的風險。如果人臉信息過多地被收集,對社會秩序和國家安全都可能會帶來消極影響。

比如,通過大數據獲得某個或某些安保人員的人臉活動信息及其運動軌跡,有可能會做出近期是否有重大安保事項的推測。如果這些信息被恐怖分子獲取,可能會對公共安全和國家安全帶來重大風險。

當然,這里的風險只是意味著隱私或財產受侵害的可能性,并不意味著它一定會發生。運用人臉識別技術的企業或機構也在采取部分措施預防風險。

企業采取的人臉識別風險預防措施主要有兩大類,第一類是二維識別,要求被識別人通過網絡或應用程序提供身份證進行人臉對比,其中部分服務提供者在對比后再與權威數據源(通常是經過應用程序編程接口與公安部門的數據)進行核驗;第二類則除了前述要求之外,還要求在權威數據源校驗之前進行活體檢測,通過眨眼、張嘴等來確認是否為“真人”,以排除作弊行為,具體參見譚紅春等:《一種高效的人臉三維點云超分辨率融合技術》,載《光學技術》2016年第6期,第501-505頁。在實踐中,已有在人臉識別中通過活體檢測發現欺騙行為的案例,如某網貸APP中通過人臉識別活體檢測發現欺詐事實,并因此發現冒充檢測者的犯罪行為。與此同時,破解人臉識別的研究一直在進行,且諸多進展也讓人們對人臉識別技術的安全性保持足夠慎重的態度。有研究成果表明,通過對抗性貼紙,可以在49.6%的時間里騙過人臉識別鏡頭。

而來自莫斯科國立大學和華為莫斯科研究院的科學家們研發出一種特殊紋路的紙,可以在紙上生成對抗攻擊圖像,讓其顯示為三維立體圖像,進而可以干擾和欺騙人工智能,將這張紙貼在頭上,人臉識別系統就無法識別當事人真正的圖像。即便是活體測試,也已產生通過3D人臉建模進行破解的思路和方法。這些都充分表明:種種人臉識別欺騙性技術和手段在不斷挑戰包括企業、社會組織乃至國家的認證能力,人臉識別技術在應用過程中存在相當大的風險。

(三)人臉信息面臨的尊嚴貶損風險

有時候對人臉信息的收集,并不直接侵犯個人的隱私,卻有可能直接侵犯人的尊嚴,貶損這一人們享有的所有權利的價值核心。人的尊嚴是人類所珍視和追求的價值,人們不僅因在意自身的安全而進行自我保護,因關注自己物質生活條件的提高而追求財富,也對“自身價值有本能的和微妙的感覺,對這一點的貶損不亞于對身體和財物的損害”,甚至在很多情況下人們對這一價值的追求超越了生命和財產,這才有了“視不義富貴若浮云”和“舍生取義”之類的行為。因此,“在人這個名義中,有某種被感受到的尊嚴存在”。人的尊嚴這一核心價值已經在世界范圍內得到普遍尊重和肯定,并體現在諸多法律規范中。

如《德國基本法》第1條明確規定“人的尊嚴不可侵犯,尊重和保護人的尊嚴是全部國家權力的義務”,日本《憲法》第24條明確規定婚姻和家庭有關事項的法律必須以人的尊嚴與兩性平等為基礎。此外,《聯合國憲章》《世界人權宣言》《公民權利與政治權利國際公約》《歐盟基本權利憲章》等國際條約也明確保護人的尊嚴。我國在私法和公法層面同樣作出此類規定。

如《中華人民共和國民法典》第109條規定:“自然人的人身自由、人格尊嚴受法律保護”。《中華人民共和國憲法》第33條第3款規定:“國家尊重和保障人權”,雖然我國憲法沒有在該條文中直接明確表述人的尊嚴,但公法學的通說認為,人權的核心即是人的尊嚴。人臉識別技術的迅速發展,不斷拓展其被適用的空間與范圍,并在這一過程中迅速降低設備運行和使用成本。

在2018年上半年,筆者曾率隊參觀某一以網絡安全為核心業務的上市公司并與其法務和技術人員座談,

該公司的相關人員在展示了自己技術的同時,還對人臉識別技術的準確性及其適用的便捷性與范圍做出了較為穩健保守的陳述。但一年以后,筆者所在的事業單位就以適宜的價格安裝上了人臉識別系統。隨著成本的降低,人臉識別設備的銷量會增加,可能會在更大的范圍內被應用。在享受人臉識別這一先進技術帶來的便利的同時,我們也面臨著一些基礎性法律價值可能被侵蝕的難題。在某些情況下,人臉識別的應用直接關涉到人的尊嚴問題。

“臉”在社會文化中的意義和功能,使其內在蘊含著人的尊嚴。相對于其他種類的個人信息,我們要注意到“臉”自身的文化屬性及其對個人的心理影響。打卡、指紋簽到(此時我們暫且不考慮指紋中的個人信息保護問題)、刷臉簽到都是一種簽到方式,但無疑刷臉簽到更容易在心理上產生被冒犯的感覺。臉在中國文化圖景中具有特殊的意涵,它不僅是一個人五官的排列和集成,而且帶有豐富的社會文化功能,具有明顯的規范性和輻射性,與“一定的社會情境中表現出的一系列規格性的行為”密切相關,包含著“經過印象整飾后表現出來的認同性的心理和行為”。臉在世界各個文化體系中也都承載著深刻的社會意義,人臉不僅意味著一個人類的器官,更映射出某種情感、性格和人格。“臉”不僅僅是生理意義上的“臉”,還是一種心理意義上的“臉”,它蘊含著一些可用于判斷主體情感、觀點、態度的非語言信息。它還與“尊敬”在抽象的認知層面相關聯,意味著個人、家庭等從別人那里得到的尊敬。

因此,“臉”不僅是身體的一部分,它還代表甚至等同于包括精神在內的整個人,并與一種穩定人格形成鏈接關系,以或顯或隱的方式表征著人格。

在生活實踐中,很多人臉識別設備的安裝,并未得到當事人的知情同意,其中既包括由于當事人認知能力不足或信息不對稱而沒有在真正意義上知情,也包括知情之后未能發自內心作出同意或反對。具體而言,有以下幾種方式:第一,有的人并不知道人臉識別對個體而言意味著什么,僅僅是覺得“刷一下臉而已,自己又沒少什么東西”;第二,有的人不知道被“刷臉”之后自己的信息存儲是否安全,更不知道自己的人臉信息今后將被什么機構用于何種用途,這些用途是否有害于自己的經濟利益和人格尊嚴;第三,有的人知道或能預感到,被“刷臉”之后可能會產生對自己不利的后果,或者對后果并不了解但認為“刷臉”本身就是一種對自己的冒犯,只是由于自己是某個單位的員工或社區成員,不好意思反對或擔心反對會讓自己被所在群體疏離;第四,當事人知道人臉識別的可能風險并反對,但是迫于直接的壓力,諸如失去工作或受到減薪、降低待遇乃至暴力威脅的不利后果,而不得不接受人臉識別。無論是哪一種情況,這都是對知情同意原則的違反,更是對當事人自由意志和人格尊嚴的侵犯。

或許有人會認為,沒有經過知情同意而進行刷臉是對人的尊嚴的冒犯,那么知情同意后的刷臉就不冒犯人的尊嚴了。這種觀點強調意思自治的重要性,認為基于知情的同意體現當事人通過自己的真實意思為自己設定權利義務,使得個人信息被使用或被刷臉的行為具有正當性基礎。然而,這種認知可能忽略了“真實意思”中的“真實”一詞。首先,人們可能只是“知道”,而非真正意義上知情。囿于人們對信息的理解能力和自己對事物的判斷力,以及外部環境的影響,很多時候人們可能知道與自己相關某事的存在,卻不知道這個事件與自己真切的利害關系,因此有可能在缺乏理解或考量的情況下就“同意”。其次,即便真正“知情”,也可能不得不“同意”。這種同意,在形式意義上符合現行法律法規的要求,但未必真正體現其自由意志,因而也難稱得上是真正的同意。有時候,人們受制于強制力(coerce)而不得不同意,就像某些強買強賣在形式上合法一樣。有時候人們可能并不面臨直接或間接的武力威脅,而且清楚地知道自己的同意會帶來什么樣的后果,只是迫于形勢與現實而不得不同意,就像一個亟需養活家人的勞動者不得不簽訂一個內容對其非常苛刻且待遇微薄的勞動合同那樣。此時,他可能知道自己的最大利益所在,但受制于現實而被迫(compelled)同意。可以想見,在面臨就業或與之類似的壓力時,一個人很難拒絕刷臉簽到、刷臉領工資等制度安排。

“臉”作為個人社會身份的象征,是人際交往和構建信任的通行證。但在刷臉時代,人臉被攝像頭等設備自動抓取后生成數字圖像以識別、認證或核實特定個體,成為識別與被識別的工具。由此,未經當事人真正知情同意的的“刷臉”行為成為一種權力與服從行為——不管這種權力是國家權力還是社會權力。人臉背后的人格因素及其所承載的信任與尊嚴等價值被稀釋,被技術俘獲并遮蔽。計算機技術和新型的測量手段,成功地將一個具有獨立人格的人,變成一系列的數字和符碼,將活生生的人轉化為一行行數據。此時,識別的是人臉,得到的是數據,失去的或被貶損的則是人的主體性及其尊嚴。

三、人臉識別技術應用中的利益衡量

由于人臉識別技術在應用時涉及到重要的個人信息,且直接影響到數字人權的實現,因此應審慎適用。慎用首先意味著要“用”,要以積極的態度面對科技的進步,使其有利于國家治理體系和治理能力的現代化,有利于滿足人們的美好生活需要。慎用強調要慎重地面對,尤其是在充滿新風險的現代社會,既不能讓技術自身不受任何限制地發展,也不能讓應用該技術的產業“野蠻生長”。因為被“野蠻生長”的產業所挾裹的人臉信息,一旦流失或被濫用,就難以得到有效救濟,更難于完全恢復原態。如果說手機號碼、家庭住址甚至姓名都可以更換,進而避免使個人的利益和權利受到更大的侵害,那么由于人臉不能更換,人臉信息流失或被濫用的侵害則可能是長期甚至永久性的,其補救的難度也會呈指數級上升。因此,在應用人臉識別技術時需要科學、嚴肅的評估,對信息所有人、企業、政府等不同主體的風險、成本和收益等進行衡量。

(一)人臉識別技術應用進行利益衡量的必要性

利益衡量這一術語往往用于司法中。但在對某些行為進行規制時,也可以通過立法的形式對不同主體的相關風險、成本和收益進行衡量從而制定出更為合理的規則。對人臉識別技術應用進行治理時,可以在利益衡量的基礎上制定相應的規則,以實現不同主體間權利和義務的均衡。

在風險社會,需要對新技術帶來的風險與收益進行衡量。新技術和與其相伴而生的制度所帶來的風險是一種“人造風險”,它們有可能會超越自然風險而成為風險社會的主要內容。有些技術和制度安排,其初衷是為了讓我們的生活更加有確定性和可預測性。在其運行初期也確實達到其預期目的,但最終卻可能帶來與初衷相反的結果。相對于那種傳統或自然的不變性和固定性所帶來的外部風險,這種與科技發展和知識進步相伴而生的風險是一種被制造出來的風險。

且過去的生活經驗、技術手段和組織制度,已不足以使我們防止、規避和應對新的社會風險的威脅。人臉識別技術應用所帶來的就是這樣一種風險。它可以提供便利的支付方式、比以往更可靠的身份識別、更有序的交通秩序和更安全的社會環境,能全方位、整體性地提升我們的生活品質。同時,它所帶來的風險也同樣體現在前述領域中。這些風險對人們生活的影響難以預料,有時可能非常巨大,以至于連樂于收集個人信息并從中獲取巨大收益的微軟公司,都要求加大對生物識別隱私的監管力度以應對或避免此類風險。因此,我們在對人臉識別技術進行評估時,必須置身于風險社會及其相伴而生的“人造風險”的語境中,衡量不同主體在人臉識別應用中所面臨的風險和收益,合理分配相關主體之間的權利和義務。

(二)人臉識別應用中利益衡量的內容

在評估一項人臉識別技術的應用時,應對其成本和收益進行評估并對所涉各方的成本和收益進行合理的分配。筆者無意在本文中給出評估的指標及其體系,因為這是一個極其復雜的工作,需要一個強有力的團隊通過長時間的努力才有可能完成此項任務。如果我們認同法律的本質是某種“計劃”,那么在評估時至少應考慮如下因素:主體、成本、風險、收益,并考慮如何在不同主體間公平分擔成本、風險和收益。此外,在討論理性行為和制度約束兩者的關系時,不能忽略社會生活中固有的政治社會因素。如不同國家受歷史文化和社會制度的影響和約束,其人民對不同種類的價值有不同的偏好。

1. 關于不同主體的衡量

人臉識別技術應用的風險收益評估應該考量信息收集者、信息被收集者這兩大類主體,以及代表公共利益的社會和國家。信息收集者既包括應用這一技術的個人、企業、政府等主體,也包括開發這一應用技術的企業。這些主體能夠在銷售技術和服務之后獲取源自前述主體的人臉信息。信息被收集者是個人,不僅包括在單位被要求進行人臉識別的員工,也包括在機場、地鐵站、汽車站等場所的旅客,還包括在商場購物的顧客、在公共服務機關辦理事務的行政相對人、在醫院就診的患者乃至街頭的行人等。當然,這些人之間也可能存在著身份的交疊。

2. 風險與成本的衡量

需要強調的是,成本和風險是一體的,除了現實的支出或損失外,風險的大小及其發生的概率也是確定成本的方式,甚至僅僅風險自身也構成一項重要的成本。當然,這種成本既包括具體的物質財富的損失,也包括權利喪失所帶來的情感與精神損害,以及由此而來的對人的尊嚴的貶損。相應地,收益也有客觀和主觀的方面。如果把物質財富視為一種客觀利益的話,那么情感和精神方面的利益可以被稱為主觀利益。主觀利益具有主觀性和難以認定的特點。不同的生活空間、生活方式乃至個體的生活經歷,都可能影響到對這種利益的感覺和判斷。比如,農村和城市的人們、違法犯罪行為的加害人和受害人,可能對牽涉隱私、表達、“面子”等內容的行為會有不同的利益感知,對于刷臉是否侵害及多大程度上侵害自己的主觀利益也有不同的感受。此外,主觀利益與客觀利益如何衡量在技術上也存在著需要進一步研究的空間。比如,當人們面對不公平的分配方案時,前腦島和背外側前額葉皮質被顯著激活。而前腦島負責的是情緒加工,與厭惡和憤怒的情緒相關,背外側前額葉皮質則負責認知系統對情緒的抑制控制。這說明此時人們對于公平和公平感這種主觀利益的追求超越了經濟利益。即便主客觀利益在當前背景下尚無有效的通約計算與衡量的方法與機制,但至少在評估時應考慮這兩方面的因素。

關于主客觀利益通約的問題,也有學者進行了初步的探討。對于尚未造成損害或難以預測損害程度的風險,已經有現實的案例對其進行規制,以保護風險主體的權利和利益。比如,2008年美國伊利諾伊州頒布《生物識別信息隱私法案》(Biometric Information Privacy Act,即BIPA),該法案規定了數據的收集、存儲和處理規則,這些數據包括對視網膜或虹膜掃描、指紋、聲紋、手或臉幾何掃描產生的數據,也包括來自公眾的其他生物信息或生物識別數據。消費者可以因其信息被不當存儲或使用,或未經授權被披露而起訴侵權行為人,而不管是否造成實質性的損害,這在2019年1月25日伊利諾伊州最高法院“Rosenbach v. Six Flags Entertainment Corp”一案的判決中得到充分體現。

Six Flags游樂園把采集原告兒子的指紋作為其購買主題公園季票的一部分,原告認為自己及其兒子均未被告知其指紋收集的具體目的和保留期限,且他們都沒有簽署任何關于取指紋的書面通知,也沒有同意收集或使用該生物識別數據。雖然原告沒有說他的兒子受到任何實際傷害,但仍主張游樂園的行為違反了BIPA的要求,尋求金錢賠償和禁令救濟。具體參見Rosenbach v. Six Flags Entertainment Corp. 2019 IL 123186.

3. 公共秩序與安全的衡量

此外,還有一部分收益體現為公共秩序和公共安全。這種公共產品的收益盡管難以定價,但至少在制定公共政策的時候應予以考量。公共秩序和公共安全包括線上線下兩個領域。線上領域是指網絡安全。按照我國《網絡安全法》第76條第2款規定“網絡安全,是指通過采取必要措施,防范對網絡的攻擊、侵入、干擾、破壞和非法使用以及意外事故,使網絡處于穩定可靠運行的狀態,以及保障網絡數據的完整性、保密性、可用性的能力。”這意味著網絡安全涉及網絡產品和服務安全、網絡運行安全、網絡數據安全、網絡信息安全等主要方面。網絡安全既是國家也是公民所需要的基本公共物品。因為,“公民希望他們的政府能使他們免于網絡上的彼此傷害、防范來自國外的損害。公司需要能保障網絡的穩定性、令互聯網商務繁榮發展的法律環境”

。線下領域是指互聯網之外的真實生活中的安全,它包括良好的治安、安全的交通、有序的社會生活和可預期的行為模式與結果。這部分收益雖然不是針對特定的個體,但為所有社會主體所享有。它既能使得每個個體現實的安全得到保護,又為其長遠的發展提供保障,因而是不可或缺的公共利益。

四、人臉識別技術應用的治理路徑

2019年6月,我國工業和信息化部正式向中國電信、中國移動、中國聯通、中國廣電發放5G商用牌照。這意味著我國將正式進入5G商用元年。隨著我們和5G時代的距離拉近,萬物互聯給新技術、新應用、新業務的產生和發展帶來無限可能性,人臉識別技術的應用范圍、方式、方法等也存在著各種可能。但愈是如此,我們就愈要注意人臉識別所帶來的風險。在推動新技術應用和新產業發展的同時,尊重和保護人的尊嚴,從而確保數字人權在新時代的實現。

(一) 形塑具有“數字理性”的主體

人的理性是一個復雜的學術論題。在當前信息流動極為迅速的大數據時代,在包括人在內的萬物都是數據鏈上一環的背景下,我們需要重新認識人的理性,對人的理解需要從關注個體(以及由個體組成的群體)轉向關注“關系”,關注互動和流動性,而這種互動和流動性還應當“有溫度、有氣息、有情感”。因此,“我們不能再僅僅把自己當作謹慎決策的個體,必須要考慮那些影響個人決策,驅動經濟泡沫、政治革命和互聯網經濟的動態社會效應”。在萬物互聯的時代語境下,我們應當從關注獨立個體的經濟理性或社會理性,轉向關注人與人之間交換性或互依性的關系理性。這種理性,可以稱為“數字理性”。“數字理性”的養成,既需要人們自身不斷的學習與更新,也需要公權力機構和國家的有所作為。

1.“數字理性”主體的自我修養

主體首先應有互聯網思維。這意味著主體在互動過程中基于關系理性看待個人和網絡上的商品與服務提供者之間的關系、個人信息使用和產業發展之間的關系,理解自己為享受的服務所面臨的成本和風險,了解自己和相關主體的基本的權利義務。從互聯網初創至今,無論是在包括自媒體在內各種傳媒所宣傳的廣告中,還是在個人使用互聯網的實踐中,“免費”和“分享”都是一種共識性的判斷,好像人們沒有付錢購買就能免費使用某些網站、軟件和App。實際上,只要與互聯網上此類服務商產生連接,虛擬或實體生產就發生了。各種平臺企業“通過各種方式搜集到更多的數據,通過精妙的算法預測和塑造經濟消費習慣,提供精準的個性化服務,控制交易和生產渠道,捕獲更多的消費者剩余和生產者剩余。”

因此,“數字理性”主體不應把享受服務視為無成本消費或搭便車,而應該理解為提供包括人臉識別在內的個人信息是支付這些服務的對價,而這種對價不僅提供了互聯網企業所需要的生產力,為互聯網產業的發展提供直接動力,還給自己未來的生活帶來各種潛在的風險。他還應該意識到,在享受看似免費的互聯網服務的時候,要明了自己、服務商各自的權利和義務,在真正知情同意的基礎上使用網絡服務,而不是完全忽略知情同意書或由于其過于復雜而無視它。此外,他還應基于法律和公序良俗在互聯網上進行活動,同時知曉網絡主管部門和相關機關具有治理互聯網的權力和職責,其中包括為避免個人信息被濫用而進行有效監管的職權。

“數字理性”主體還應不斷提高其理性社會認知能力,消除認知偏差。提高理性社會認知能力是一個不斷學習和習得的過程。就像焦慮、無助等負面情感和認知可以習得一樣,樂觀和理性也可以通過習得而成為個體對社會進行認知的能力,在這個基礎上,甚至產生了“積極心理學”這樣的學科且此類研究得到高度的社會評價。

如積極心理學的創始人Seligman獲得2006 年美國心理學會(APA)頒發的杰出科學貢獻獎。同樣,就像人們可以選擇以悲觀或樂觀的態度對待世界一樣,人們也可以選擇以理性的態度對待社會問題和社會現象,消除認知偏差,理性對待人臉識別帶來的積極與消極影響。能夠從諸如徐玉玉案這樣的案件中認識到保護本人信息的重要性,也能夠從諸多對泄露個人信息的網絡平臺和個人進行追責的案件中,認識到自我保護和國家采取措施保護個人信息的必要性,從而避免夸大其中的某一面并產生認知偏差。這樣他就可以既不沉迷于網絡所帶來的便利和效率,也能謹慎持重地評估其帶來的隱私風險、安全風險和金融風險。

2. 公權力機構對“數字理性”的推動

理性社會認知能力的提高,不僅僅來自公民自我素養的習得與提升,更需要公權力機構通過溫情與冷峻的行動與制度安排有所為和有所不為。首先,公權力機構應該以負責的態度對待包括人臉在內的個人信息,這既包括對收集到的信息要采取嚴密的安防措施以免泄露,也包括讓公眾知曉收集、應用此類信息的風險;不能只宣傳人臉識別或安裝設備對于公共安全和管理的便利,有意無意忽視公開相關信息,使得公眾無法得知、了解和理解這些措施對自身所產生的潛在風險與消極影響。其次,國家應該更有效地實施法律法規,消減公眾對個人信息泄露的不安全感。通過對網絡詐騙、電話詐騙有力打擊,對網絡平臺和其他握有個人信息的公權力機關和企事業單位進行有效監管,讓人們真正享有免于個人信息泄露之恐懼的自由。再次,做好輿情引領、心理干預工作,合理引導并優化社會認知。當人們持續或長期暴露于某種刺激下,會對這種刺激產生反應鈍化現象,并導致認知、情緒和行為的長期變化,甚至形成具有某種負面特征的人格。基于這種人格和行為模式,從負面閱歷的積累中獲得的“潛意識知識儲備”可能會“自然”形成某些負面直覺反應。因此,公權力機構應做好輿情引導工作,避免公眾對某種負面行為的脫敏。就刷臉或個人信息而言,就是要避免形成“被侵權脫敏”,避免讓人們形成被侵權而不救濟的內隱性社會認知。

(二)建構合理的規范體系

對于個人信息保護,我國已經有多部相關法律、法規、規章和司法解釋以直接或間接的方式予以規定。如我國《憲法》第33條和第38條、《中華人民共和國民法典》第111條、《中華人民共和國消費者權益保護法》第14條和第29條、《中華人民共和國電子商務法》第23條等。由此形成從憲法行政法到民法經濟法和社會法乃至刑法的一整套個人信息保護規范體系。

在民事立法方面,我國有關個人信息保護的主要有《民法典》《電子商務法》《消費者權益保護法》;在憲法行政法領域,主要有《憲法》《公務員法》《網絡安全法》《公共圖書館法》《反恐怖主義法》等法律;在經濟法領域,主要有《廣告法》《旅游法》《統計法》等法律;在社會法領域主要有《未成年人保護法》《反家庭暴力法》《慈善法》等,此外在刑法領域還有刑法修正案(九)等,這些法律共同構成我國的個人信息保護體系。在人臉識別規制上,除《國務院辦公廳關于壓縮不動產登記辦理時間的通知》以規范性文件的方式直接提倡人臉識別完成身份認證外,還有43部部門規章對人臉識別進行規范,這些規章的內容主要分為兩大類,即運用人臉識別技術實現身份認證和明確人臉識別的技術或圖像標準,其中更多的規范重在推行對人臉識別技術的應用。此外,還有至少近百部地方性法規、規章和規范性文件涉及對人臉識別的治理。

筆者以北大法寶為基礎,以“人臉識別”為關鍵詞全文檢索,共命中379部地方法規規章,其中福建省38部,廣東省25部,北京市20部,上海市18部。值得注意的是,位階越低的規范越關注人臉識別技術的應用,反而在法律層級的文本更能體現出對包括人臉識別在內的個人信息的尊重和保護。這或許是因為越是在地方層面和部門層面,越注重公眾直接關切的現實利益,以及自己所轄地區和部門的業績。

如地方政府運用人臉識別技術來保障公共安全和提高行政機關的效率,減少行政機關的工作量。比如,在公租房中運用人臉識別等技術和門禁措施以實現非承租人員不得隨意出入、對流浪乞討人員人臉識別以便于尋找其家人、對醫療人員和患者進行人臉識別以打擊欺詐騙取醫保基金,等等。

總的來看,現行關于個人信息保護的規范整體呈現出形式上散亂不統一、內容上價值定位游離不定的特點。這就需要制定一部個人信息保護法。該法律應該在立法理念和原則方面體現出對公民利益和權利的尊重、保護和保障,對公共利益的強化和推進,以及對新興產業發展的重視和引領。同時,能與現行憲法和法律相互協調,保持法律體系的融貫性。有了這樣一部法律才能綱舉目張,讓關于個人信息的低位階規范在正確的價值和方向引導下,通過更具體的實施規范使前述利益和權利等價值得以實現。

未來的個人信息保護法應當以知情同意作為基本架構。相對于“場景理論”注重場景和信息流動性“社會控制”強調個人信息的社會屬性等模式,知情同意模式似乎顯得較為“傳統”,它在理論方面看起來似乎也不如那些模式顯得更具有“大數據”特色。但是,從理論的接受度與可操作性而言,知情同意模式似乎更具競爭力。首先,知情同意模式及其理論基礎在社會認知方面更具有可接受性。知情同意模式的理論基礎在于對人的尊嚴的尊重和保護,它強調個人的理性,尊重個人的自治和自決并將此視為人的尊嚴的核心內容。這一模式強調人的理性,預設人們知道自己的最大利益所在且能夠自主地去追求,這與近代民法對人的認知一致并符合法學的基本立場。其次,在制度方面更具有可操作性并與既有的制度體系有更高的契合度。“場景理論”和“社會控制”模式具有理論說服力和適應社會需求的優勢。但從操作層面來看,“社會控制”模式提供的方案更偏重于理念和原則。“場景理論”雖然在美國奧巴馬任總統時形成了《消費者隱私保護法(草案)》,但并沒有最終形成法律,它的實效并沒有得到現實的檢驗。而且即便能夠產生積極效果,也要考慮該法所依存的美國判例法制度體系對其產生的影響,而這一制度體系是我國所不具有的。再次,知情同意模式是個人信息保護的核心和基礎,是信息主體意思自治的體現。雖然知情同意框架在學理上存在諸多可爭議之處,但“不完美的自主總比沒有機會自主好,認為用戶行使不好權利就不賦予其權利的邏輯顯然存在嚴重問題”。未來個人信息保護立法應當在堅持知情同意框架的同時提升其兼容性,吸納對個人信息保護的一些新理念,力求兼容“場景理論”和“社會控制”,從而為與其相應的制度安排都留下空間,形成一個有整合性的基本法律架構,同時又有實施細則和不同層級具體實施規范的多重治理機制,那么我們就有更大的可能性對個人信息保護問題進行有效治理。

(三)基于責任和參與的多重治理機制

對于包括人臉在內的個人信息的使用和保護,應形成多重治理機制,強化數據監管者、掌控者和使用者的責任,并通過這種機制分配數據提供者、控制者和監管者之間的利益、權利和責任。這種機制立足于現有的制度框架,通過多主體參與和互動形成公意,形成具有實際操作性的實施方式,實現個人信息使用的產業化和數字人權保護的目的和功能。

1. 數據監管者和掌控者的責任

這種機制強調監管者和數據掌控者的責任。這是因為,從成本控制的角度來看,讓所有參與數據生產的用戶基于知情同意來決定是否同意個人數據被收集將耗費大量成本。由于人們的理解能力、情緒影響、信息不對稱和認知偏差,雖然提高人們的數字理性十分必要,但將每一個人培養成完全理性的主體并不現實,也是邊際收益很低的工作。因此,在培養公眾理性的同時,將注意力放在如何對數據監管者和掌控者配置義務是成本更低也更有效的工作,這更有利于進行有效的數據治理和保護公民個人信息與數字人權。我們可以參考經濟合作與發展組織《隱私保護和個人數據跨境流動指南》所確定的責任原則,授權或委托個人信息的數據監管者制定相應的規則,要求數據控制者和掌控者在符合法律原則、規則和監管理念與措施的前提下,制定行業規程并采取具體措施。比如,規定數據控制者和使用者在知情同意條款中有義務確保所收集個人信息的安全性,只要其所收集或掌握的個人信息被泄露,哪怕沒有造成實際損害,也要承擔相應的責任。通過這樣的制度安排,我們可以確保個人信息的安全性,個人信息的使用不侵害當事人的利益和權利,且符合公共利益和公序良俗。

2. 公眾和專業人士的有效參與

這種機制強調規則制定和決策的公開、民主和包容,同時強調專業人士有效參與。即便僅談現在而非未來的5G時代,個人信息的使用及其脫敏后的銷售,仍然是一樁大生意。對于這樣一項數額巨大且事關幾乎所有人信息利益和權利、公共利益乃至國家安全的事業,必須要以公開、民主的方式進行治理。公開意味著避免“暗箱操作”,而是采用公布議程、發表記錄、準許旁聽等方式,并將這些方式與互聯網結合起來,讓人們能夠了解和知曉此類問題的處理,讓事關所有人利益和權利的規則與決策能夠被知曉,這是后續民主參與的前提與基礎。這里所說的民主,既包括傳統民主中的“共同核心”——公民參與,也包括數字化時代民主自身的特征——發出的聲音應該被聽到而非淹沒在信息過載的海洋中。

在互聯網時代,往往是極小部分網站占據了極大多數的鏈接數與訪問量,更多的網站及其承載的信息難以被看到。搜索引擎在鏈接和流量分配中起著重要引導作用,有人直接把這種不平等秩序稱為“谷歌政體”(Googlearchy)。此時,互聯網時代的信息超載和信息不足(公眾看不到想看到或應該看到的信息)共存,我們需要更優質的過濾工具濾除垃圾信息以獲得有效信息。與此同時,個人信息與數據的治理需要有專業人士的參與。雖然每個人都能就個人信息問題表達自己的觀點,但對這些信息和數據的重要性、對處理它們所需要的技術工具、對于其所產生的后果這些重要和復雜的問題,需要包括互聯網、大數據、產業家和法律人等不同專業群體的共同參與。聽取來自不同行業的各種聲音,可以讓我們在理解和認識到問題復雜性的同時,也避免單一行業專家討論和決策時的“扎堆犯傻”。

3. ?提高“柔韌化”知情同意的兼容性

“柔韌化”的知情同意模式形式上具有對經典和傳統的堅守,但通過文字處理和相應的制度安排可以兼容乃至融合“場景理論”甚至“社會控制”模式的某些需求。因此,多重治理機制可以在“柔韌化”知情同意模式中得以實現。具體而言:

首先,兼顧并強調監管者和掌控者的責任。如規定個人信息保護的監管制度及監管體制,強調對個人信息保護的國家義務,規定信息業者的社會責任、行業組織和個人信息保護組織基于公益對個人信息保護的社會義務,以及圍繞這些主體而形成個人信息保護的社會化服務體系。

其次,在保持對人的個體理性尊重的同時考慮人的理性不足問題。通過對知情和同意進行“柔韌化”處理,為當事人通過合同重新配置個人與國家、信息業者三者之間權利義務提供了空間。在信息不對稱、個人認知能力不足或受制于場景而無暇詳細知情的情況下,人們往往會“不得不”知情和同意。草案制定者意識到了這種可能性并進行一定程度的補救,要求“信息業者、政務部門應當以清晰、易懂的用語,全面、準確、及時地告知信息主體其個人信息處理的目的、方式、范圍等相關事項”,同時排除“推定同意”,規定“信息主體的同意應當以明確的意思表示或者行為作出”“信息主體未予拒絕的沉默不被視為同意”。

最后,提高與場景理論的兼容度。場景理論注重“根據具體場景的不同采取差異化保障措施,變信息處理前的靜態合規遵循為信息使用中的動態風險控制”。通過規定“默示不被視為同意”的例外條款,強調在“法律、行政法規另有規定或與信息主體另有約定”的時候,可以推定主體的同意。這有助于各利益相關主體就個人信息收集、存儲、使用、交易和利益分配等問題,形成多樣化、情景化的權益安排。這同樣有助于形成以合同和交易機制為中心的個人信息制度,能更靈活地照顧到個人信息問題在不同時空語境中的不同特性,也使監管部門能夠同時借力于對格式合同的集中審查和對合同爭議的分散裁判,使這些制度獲得更有效的落實。

4. 多重治理機制的實現方式

基于責任和主體參與的多重治理機制,可以通過機構設置、制度安排、規范對接等措施得以實現。首先,設置專門的數據保護機構。在網絡信息安全領域,我國已形成以中共中央網絡安全和信息化委員會牽頭抓總的統一領導體制。但在具體工作機制層面,仍缺乏統一籌劃、部署、協調,導致許多已經訂立的原則性規范難以落實、監管對象缺乏合規指導。為強化該領域監管工作的權責統一,保障相關政策思維和實踐具有整體性,可參照歐盟和歐洲各國設立專門數據保護機構的思路,在中央統一領導下,設置或選定一個部門統籌個人信息保護領域的政策制定和執法協調工作。

其次,制定多重制度以規制多方主體,實現從公權力機關到私人機構、從法律到社會規范、從交易到保險機制的立體化治理。包括人臉在內的個人信息是識別與確認個人身份的認證信息,刷臉及其他對個人信息進行識別與認證的權力是一種安全認證權力。公共機構和私人機構在認證個人信息時有不同的資格與權限,其刷臉行為也應當相應地具有不同的規范依據或合同約定,否則會模糊公共服務和私人服務的界線,形成不同身份與權限的混同。

因此,未來個人信息保護制度建設的重點,除了在法律層面確定權利,還應推動社會規范的形成、進行較為細致的合同和交易機制設計。通過社會規范對政府和商業主體的數據行為進行制約,通過合同與交易機制促成各利益相關主體就個人信息收集、存儲、使用、交易和利益分配等問題形成多樣化、情景化的權益安排。此外,還應加強對個人信息損害保險機制的研究與設計,充分利用保險機制,彌補民事訴訟在風險管理和損失修復方面的不足。

最后,對接不同部門法規范實現對個人信息一體化保護。為了對個人信息進行有效保護,除了在民事領域合理配置權利、尊重對個人信息使用的市場創新并進行有效規制外,還應該與行政法、刑法的相關規則進行有效對接,對那些突破道德底線、性質惡劣的侵犯個人信息行為,如對個人敏感信息、未成年人信息的收集、買賣甚至用于詐騙等行為,進行嚴厲懲處并長期保持高壓態勢。

結 語

在人臉識別技術已經普遍應用的時代,我們既要對新技術的應用和新產業的發展保持開放包容心態,也要注重對數字人權的保護和保障。人臉信息是人們(至少是短時間內)不可取代的生物識別信息,是個人信息重要乃至最重要的組成部分,是數字人權所應關切的基礎性權益,我們理應“慎用”。

在對人臉識別技術的應用進行治理時,要對大數據時代背景下的風險收益進行合理分配。要對生物信息被采集人、生物信息使用者和控制者、監管者之間的權利義務和職責進行合理劃分,強化數據監管者、掌控者和使用者的責任。基于這一理念和原則,我們可以在權利主體、規范體系與多重治理機制方面做出相應的努力。首先,我們應在開放包容的心態下采取措施,形塑數字人權主體的數字理性,使其能夠對新技術帶來的便利和驚喜保持理性,對隨之而來的風險收益有基本的認知。其次,制定一部架構和內容都合理的個人信息保護法并建構一系列與之配套的、具有可操作性的多重規范體系。最后,通過公開、民主、專業化的方式,形成基于責任和參與的社會規范集合和多重治理機制。通過塑造新時代的數字理性主體、完善法律規范體系和多重治理機制,以多層次、多面向的方式提高國家和社會治理體系和治理能力的現代化。

Abstract:In the era of digital human rights, the development of face recognition technology has brought considerable convenience to our daily lives. However, it has also brought risks to personal information, privacy and property, and has the potential to degrade human dignity. While taking into account the development of the industry, we should be cautious about the application of face recognition technology. We should measure between the risks posed by the technology, the interests of the data providers, controllers, users and regulators involved, and also public interests. Based on it, the following measures should be taken. Firstly, shape “digital rational” subjects through the actions of public authority and the promotion of the citizens selfawareness. Secondly, based on the existing normative system and the reality, make the “informed consent” structure of personal information protection more flexible to construct a more reasonable normative system. Finally, build a multiple governance mechanism based on responsibility and participation by emphasizing the responsibilities of data controllers and regulators, promoting the effective participation of the public and professionals, and constructing an institutional system compatible with the “informed consent” framework. That is not only the way to protect the security of personal information, but also the way to realize digital human rights.

Key Words: ?face recognition; personal information; privacy; digital human rights

本文責任編輯:董彥斌

青年學術編輯:任世丹

猜你喜歡
人臉識別
人臉識別 等
作文中學版(2022年1期)2022-04-14 08:00:34
揭開人臉識別的神秘面紗
學生天地(2020年31期)2020-06-01 02:32:06
人臉識別技術的基本原理與應用
電子制作(2019年14期)2019-08-20 05:43:34
人臉識別技術在高速公路打逃中的應用探討
基于(2D)2PCA-LBP 的人臉識別方法的研究
電子制作(2017年17期)2017-12-18 06:40:55
淺談人臉識別技術
人臉識別在高校安全防范中的應用
電子制作(2017年1期)2017-05-17 03:54:46
巡演完美收官 英飛拓引領人臉識別新潮流
人臉識別在Android平臺下的研究與實現
基于Metaface字典學習與核稀疏表示的人臉識別方法
主站蜘蛛池模板: 婷婷丁香在线观看| 国产在线欧美| 亚洲第一成人在线| 成人午夜久久| 国产精品女在线观看| 久久中文电影| 日韩精品专区免费无码aⅴ| 就去色综合| 日韩欧美中文亚洲高清在线| 毛片视频网| 亚洲成人播放| 在线免费看黄的网站| 无遮挡国产高潮视频免费观看| 国产精品无码制服丝袜| 国产十八禁在线观看免费| 日韩不卡高清视频| 亚洲 欧美 中文 AⅤ在线视频| 国产亚洲欧美在线人成aaaa| 国产成本人片免费a∨短片| 中文无码精品a∨在线观看| a毛片免费观看| 亚洲国产欧美自拍| 久青草免费视频| 福利视频99| 看你懂的巨臀中文字幕一区二区| 亚洲国产91人成在线| www.国产福利| 韩日免费小视频| 日本一区高清| 亚洲天堂精品在线| 亚洲天堂首页| 香蕉视频国产精品人| 国产免费怡红院视频| 日本一本正道综合久久dvd| 中文字幕佐山爱一区二区免费| 永久免费AⅤ无码网站在线观看| 国产精品久久久久久久伊一| 国产97视频在线| 91福利一区二区三区| 亚洲国产成人麻豆精品| 亚洲欧美一区二区三区麻豆| 亚洲无码高清免费视频亚洲| 免费国产好深啊好涨好硬视频| 欧美在线视频不卡第一页| 欧美第九页| 国产成人无码久久久久毛片| 中文字幕无码中文字幕有码在线| 69av免费视频| 波多野结衣无码AV在线| 亚洲成人精品在线| 国产免费羞羞视频| 视频一区视频二区中文精品| 国产在线一区视频| 精品亚洲麻豆1区2区3区| 亚洲婷婷在线视频| 国产黄色片在线看| 成人av专区精品无码国产| 无码AV动漫| 国产亚洲精品在天天在线麻豆 | 91在线播放免费不卡无毒| 2021国产在线视频| 亚洲色图另类| 日本高清有码人妻| 久久精品国产一区二区小说| 久久综合九色综合97婷婷| 国产精品开放后亚洲| 日韩第九页| 亚洲国产日韩欧美在线| 亚洲欧洲日韩久久狠狠爱| 亚洲精品国产精品乱码不卞| 精品视频在线观看你懂的一区| 中国丰满人妻无码束缚啪啪| 亚洲欧美精品一中文字幕| 极品尤物av美乳在线观看| 美女免费黄网站| 欧美国产在线看| 伊人久久久久久久久久| 精品91视频| 乱人伦视频中文字幕在线| 亚洲91在线精品| 久久婷婷六月| 成人综合在线观看|