摘要:在數據時代,個人隱私安全引發人們的普遍擔憂。數據監控對個人隱私的侵犯,導致個體自為性減弱、能動性退化、自主性偏離。監控資本的精神剝削性、數據主體隱私觀念的淡薄、數據監控的無規制應用、個人控制基本范式的失效,是致使人的主體性消解的多重因素。緩解數據監控與個人隱私的沖突,需要從以下四個方面著手:規制數字資本,引入數據信義義務;增強個人隱私意識,杜絕數字拜物教思想,促進主體性重構;重構技術倫理,提升數字技術,規避技術風險;構建語境化的合理預期和隱私安全影響評估保護體系。
關鍵詞:數據監控;個人隱私;主體性;監控資本主義
中圖分類號:C91" " 文獻標識碼:A" " 文章編號:1009-3605(2024)04-0035-09
主體性是指人在實踐活動中能夠自主、能動和有目的地行動。隱私是實現個人自主的先決條件,法律保護個人隱私也就是在保護人的自由發展。在大數據時代,數字技術全方位參與社會生活,數據監控廣泛嵌入商業活動、日常生活中,存在不小的問題。首先,數據監控對人的主體性已構成一種壓制,使個體喪失對自身和自我生活信息的掌控,個體無法在自由的空間中對有關自身生活的議題做出抉擇。其次,數據監控具有復雜性、全面性等特征,現有個人控制基本范式已無法有效保障個體免受外界監視管控,需要尋找新的規范路徑。最后,從學術層面看,亟須深化理論研究以回應數據監控與個人隱私的沖突?;谶@些考慮,本文將分析數據監控與個人隱私之間的沖突,探尋其對人的主體性造成的危害,闡明主體性危機形成的根源,尋找主體性重構的進路,以期對保護個人自決權利有所裨益。
一、數據監控引發的主體性危機表征
數據技術的發展為主體人格健全提供許多新機遇,但同時也使人的主體性陷入重重困境。相較于傳統監控對個人隱私的侵害,數據監控對個人隱私的侵害呈現出一些新特征,正在消解人的主體性。本文從自為性、能動性和自主性三個方面闡述數據監控對人的主體性的消解。
(一)數據監控的規制性和隱蔽性致使個體自為性減弱
自為性是指人的實踐活動是為了滿足主體的需求,從“我”的角度來創建“我與對象”的關系。主體根據自身的需求、目的、現實情況和客觀條件,作出不同的選擇,最終導致不同的結果。馬克思把自為性看作主體性的基本維度,提出“在任何情況下,個人總是‘從自己出發的'”。[1]147數據監控嚴重消解了人的自為性。首先,數據監控對主體的規訓性,致使個體自為性減弱。在數字時代人們看似更加自由,可以在數字空間實現在現實生活中無法達成的愿景,然而這種自由不是真正的自由,數據平臺無時無刻不在監視著人們。用戶無意識地暴露行為數據,平臺通過分析數據文本,展示用戶的精神世界,用戶逐漸走入一座“超級全景監獄”。這種監控方式造成了一種有意識的和持續的可見狀態,從而確保權力自動地發揮作用。[2]被監視做出的行為與在完全私人領域做出的行為會有所不同,人們知道自己的言行受到監視,就會潛意識地調整自己的行為,或許作出并非出自本心的決定。其次,數據監控侵害個人隱私的隱蔽性,致使個體產生虛假的自為性。傳統的監控攝像頭具有可見性,而數據監控的存在方式往往不易察覺。[4]在社交網絡中,人們發表微博、更新朋友圈,分享著自己的位置、行為、心情。在無數數據主體的窺視下,最初無限自由的網絡變成一座嚴密監控下的數字化全景監獄,人的自為性受到嚴重影響,在此種嚴格監控條件下的主體性回歸,并不是真的為公共領域所需要的主體實踐,反而會產生異化。
(二)數據監控的可推斷性和精確性致使個體能動性退化
個體能動性表現在反映世界和改造世界兩個活動中,貫穿于確定目標、制定計劃和實施行動三個環節,其實質就是對目標、計劃和行為方式的選擇。數據監控正在消解個體能動性。首先,數據監控的精確性使得人們喪失自知能力。智能終端設備收集用戶的數據隱私,如智能手環收集個人心率、睡眠健康數據,導航軟件收集個人行動軌跡。人們相信生命是可以被量化的,于是便通過數字設備認識自己的健康狀況、情緒狀況。不可否認,由數據監控得來的信息較為全面、精確,但是若僅僅通過數據來認識自我,自我便會因數據分割而失去感知自我、認識自我的能力。人的主體性特質將被嚴謹精密的數字程序干擾甚至無情摧毀。其次,數據監控的可推斷性使得人們喪失自控能力。通過數據監控獲得個人隱私數據,算法便可以推算出用戶的習慣和喜好,從而推送用戶感興趣的內容和產品。用戶一般都會忽略平臺對自己隱私的侵犯,沉迷于平臺提供的便捷之中,把對自身的控制權和感知力讓渡給了數據,放棄了按照自己的意志去規劃生活,也就逐漸失去了能動性。
(三)數據監控的單向度壓迫致使個體自主性偏離
個體自主性是指人可以在實踐活動中擁有選擇的權利,有獨立思維的能力,能夠作出自己的選擇和判斷。馬克思曾言:“個人怎樣表現自己的生命,他們自己就是怎樣。”[3]147唯有真正掌握生產生活中的自然權利和社會權利,才能實現人的自主性不斷進步。發展數字技術、普及數字產品的初衷是提高人們的生活質量,滿足人們的多元化需求,比如很多數字產品帶有監控系統,可以獲取人們的生理和心理數據,輔助人們做出更好的決策,調整飲食作息,優化路線規劃,從而減少人們的選擇成本,讓人們有更多精力從事創造性活動。然而當數字技術在社會中占據基礎性、支配性地位時,就會對主體產生單向度壓迫,致使主體無法獨立行使和支配自己的權利。隱私權的基本價值在于維護個人偏好、意見和言論的自由表達,保障個人自決權的順利行使,而數據平臺的監控,影響了主體的選擇。例如,大數據公司劍橋分析的丑聞就是典型代表之一,劍橋未經授權獲取、分析、利用大約5000萬臉書用戶資料,足夠多的監控資本使得該公司能夠通過算法分析預測用戶的政治意向,進一步地,該公司能夠針對特定個體推送政治信息,塑造其政治習性,最終實現對公眾投票的動態操控。
二、數據監控引發主體性危機的原因
數據監控對個人隱私的侵犯越多,人的主體性危機就越嚴重。我們必須從根源上探尋數據監控如何規訓人類,從而引發主體性危機。
(一)根本原因:監控資本的精神剝削性
“監控資本主義”(Surveillance Capitalism)由肖珊娜·佐伯芙(Shoshana Zuboff)在其著作《監控資本主義時代》中提出。[4]她指出,這種新型的資本主義為了資本積累,侵入個人生活,挖掘隱私數據,預測、支配個體行為和決策。如今,隱私數據同土地、勞動、技術、資本一樣,成為第五大生產要素,數據公司為了實現資本增值,獲得超額利潤,通過無處不在的數據監控采集海量隱私信息,了解用戶消費生活習慣以預測用戶的行為,進而控制用戶的購買選擇。監控資本從數據隱私中獲利的同時,壓制了人的主體性,對個體精神剝削日益加重。
痕跡隱私作為一種數據隱私類型,是重要的生產要素,也是監控資本的主要收集對象。痕跡隱私包括:設備名稱、操作系統版本、IP地址、位置記錄、搜索查詢記錄、訪問時間、使用語言等。下文將列舉四種痕跡隱私,來闡述實踐中監控資本是如何通過痕跡隱私實現利益最大化的。其一,GPS位置信息。當平臺獲得用戶地址時,會抓取5千米以內的商店信息,因為這會影響用戶在平臺上購買商品的種類。具體而言,當淘寶得知用戶附近有一家藥店,便會減少藥品的推送,而用戶住所附近缺少服裝店,相關服飾商品便會出現在主頁。其二,WIFI網絡接入點。在安裝應用軟件的那一刻,數據監控就已經開始了。應用軟件通過分析WIFI網絡接入點,推測用戶相關信息。具體而言,在一個月中,用戶大部分時間連接家庭WIFI,少部分時間連接公共場所WIFI,便可得到一幅用戶的生活路線圖。其三,瀏覽痕跡。國內一家社交平臺工程師坦言:“通過點擊查看、搜索等記錄,可以推測出用戶的各類身份信息,畢業學校、婚戀狀況、工作職業、財產狀況、個人興趣等,將這些信息繪制成報表向企業出售。”[5]綜上,監控資本以一種“無感傷害”的方式對痕跡隱私進行收集、傳播和評估,但個體卻難以察覺。
個性化推薦作為數據平臺的主要商業模式,是監控資本支配個體的主要手段。個性化推薦是指“通過對用戶的跟蹤識別進行精準畫像,實現向用戶定向推送符合其喜好的產品或服務的目的”[6]。數據平臺使用精準推送的方式提升用戶滿意度,精心設計的數字環境矮化了個體的自知和自控能力,消解了個體真實的自我需求,使其喪失理性思考能力,以隱蔽的手段完成了操控、支配用戶的目的。
簡言之,監控資本依賴各種痕跡隱私,進行個性化推薦,個體沉浸在由純粹個人價值主導的數字世界,自我審視能力被削弱。
(二)主要原因:數據主體的隱私觀念淡薄
數據技術對日常生活和其他社會系統進行全方位滲透,在給人們生活帶來極大便利的同時,也使得個人隱私信息一覽無余。人們的日常社交、購物、娛樂、出行都離不開數字技術,當人們遇到困難的時候,第一時間是求助于數字平臺,而不是自主分析、獨立解決問題,在高效解決問題的同時,隱私信息和行為數據毫無保留地公開。這些用戶缺乏個人隱私的相關知識,對隱私數據的流轉毫不關心,他們對于隱私泄漏所帶來的危險也不知情。用戶在數字平臺主動分享個人信息,也成為隱私泄漏的重要原因。數字技術為我們搭建了一個展示自我的平臺,用戶為了追求存在感,自愿把自己的數據和信息放到網上。微博、小紅書、抖音等社交平臺成為人們分享自己生活點滴的主要陣地,個人通過分享的內容,塑造一個完美的網絡人格,獲得他人的贊揚,沉迷于虛幻之中。在這過程中逐漸放松了對數據監控侵犯個人隱私的警惕。
(三)直接原因:數據技術的應用
數字技術的發展,使數據監控的方式更加隱蔽、范圍更加廣泛。數字技術的發展,既有利于人的解放,也在一定程度上造成對人的規制。如今,分析收集個人信息的數字技術已經成熟,數據監控、數據挖掘、數據預測相互配合,數據監控獲取隱私信息,數據挖掘進行信息整合,數據預測呈現用戶喜好需求信息,最后實現對用戶未來選擇的干涉。上述數據技術運行的前提是對數據信息的收集,因此,平臺事先將監控、挖掘、預測程序植入系統,用戶在學習、工作、生活、娛樂、社交活動中,使用數字平臺、數字設備,這些設備實時記錄我們的一言一行,收集到大量個人數據信息。人完全暴露在大數據監控下,由此,平臺隱蔽地重塑了用戶的行為方式。
(四)關鍵原因:隱私保護規則與個人控制的失效
數據監控的全方位覆蓋使個人隱私直接裸露于數據空間,個人隱私信息被數據公司大量收集,個人逐漸喪失對隱私信息的控制能力。為了能更好地保障主體自治、自決與主體性,防止個體在數據平臺中被客體化對待,歐盟頒布一系列法律法規,通過賦予個體權利來保障個體對個人隱私信息的掌控,其中體系最完整、內容最全面的為2016年的《一般數據保護條例》。2024年4月,美國參議院和眾議院議員共同公布了《美國隱私權法(草案)》,該立法草案賦予個人控制其信息去向的權利,以及消費者有權訪問相關實體收集、處理或保留的數據,并了解數據所傳輸到的任何第三方或服務提供商的名稱,以及數據傳輸、轉移的目的。我國個人隱私保護立法同樣強調個人控制。如《中華人民共和國個人信息保護法》第44條明確了公民的知情權和決定權,第45條則對個人的閱讀、拷貝數據信息作了明確的界定,第46條則是關于個人的更改權,在此基礎上,第47條對個人的刪除權作了詳盡的規定,第48條賦予個人請求說明權利,第49條規定數據處理者須對請求作出明確的答復。不論歐美國家還是我國,立法的出發點都是個人對信息的自治,因而均賦予數據主體相關權利以保障主體對個人數據的控制。
然而,上述法律規定卻沒有得到有效實施,主要原因有兩個。一方面,個體對數字技術的認知不理性[7]。為了獲得便利的服務,個體在陷入數字技術的溫床后,喪失了對隱私泄露的警惕性,法律規定的數據隱私權利也就形同虛設。另一方面,即使個體對數字技術具有理性認知,在面對復雜的數字平臺時也無法妥善管理自己的隱私[8]。數據監控的背后是神秘的算法黑箱,這對個體理解數據監控造成巨大阻礙。同時,數據監控的操縱者可能是多方主體,包括數據控制者和數據使用者等,個體對于隱私泄露在哪個環節、是哪一方侵害其隱私并沒有明確認知。
三、數字監控引發的主體性危機治理進路
一方面,我們享受著數字技術帶給我們的便利,另一方面,無處不在的數據監控導致個人隱私泄露,以及個人自主與自由受損。因此,我們應在維護個人隱私的基礎上享受數字技術帶給我們的便利,最終促進個人主體性的重構。
(一)資本層面:規制監控資本,引入數據信義義務
數字資本為了盡可能多地獲得利潤,利用數據監控獲取海量個人隱私,作為數據主體的個人失去了隱私數據控制權,在超級平臺與個人之間形成了單向度的壓制。數字平臺具有豐富的專業知識,個體很少擁有數據監控的運行信息,因而雙方形成了脆弱的依賴關系,數字平臺可以為了自身利益最大化收集、買賣個體隱私信息,個體通常很難知曉或阻止他們的行為。當個體在使用數字產品或服務時,基于依賴關系對數字平臺給予一定信任,就如同患者信任醫生能夠治病救人、當事人信任律師能夠維護合法權益、乘客信任司機能夠安全駕駛一樣,可以說信任無處不在。
個體對數據平臺產生信任,從法律層面而言,數據控制者就應當承擔數據信義義務。在立法和司法領域,都存在確立數據信義義務的基礎。個人信息保護法第5條規定“處理個人信息應當遵循合法、正當、必要和誠信原則,不得通過誤導、欺詐、脅迫等方式處理個人信息”,為數據信義義務的確立提供了法律依據。杭州、北京、廣州互聯網法院的設立為解決個人數據及網上隱私保護的民事糾紛提供了組織保障。引入數據信義義務可以加強對個人隱私的保護。首先,數據信義義務的內容具有開放性,在具體的司法裁判案件中賦予了法官較大的自由裁量權。義務的具體內容取決于關系的性質、信任的合理性以及對個體造成侵害的嚴重性。如個體信任社交平臺不會買賣其習慣、偏好等隱私信息,個體信任智能設備不會操縱其做出投票決定。在司法案件中,法官可以根據誠信原則對數據信任義務做具體解釋,以樣本案例為指導,逐步確立數據信任義務標準。其次,引入數據信義義務并非要取代目前所使用的義務體系,而是要提高義務標準。[9]例如引入忠誠義務,忠誠義務比起透明度義務更直觀、明晰,數據平臺實施的不正當收取隱私信息、推測個體喜好行為習慣、預先設定決斷框架的行為都構成對忠誠義務的違反。最后,在責任承擔方面,除了傳統救濟之外,還可引入懲罰性賠償,以給予數據資本足夠威懾。
數據資本承擔較高的法律義務與社會責任,有助于提醒數據平臺在追逐利益的同時保護個人隱私,減少不必要的監視管控。
(二)個體層面:增強個人隱私意識,促進主體性重構
一是重塑數據監控下的主體性,培養個體的主體性意識。首先,個體應認真學習馬克思主義主體性思想,充分認識到數字技術的客體地位、個體的主體地位,摒棄數字平臺構建的虛假世界,將個人主體從數據平臺中剝離出來,脫離對數據的依賴,只有這樣才能使個人主體意識得到提升。其次,個體應舍棄不必要的數據。數據監控將個體全方位覆蓋,在數字空間中充斥著大量數據信息,個體無處可逃。在這樣的束縛狀態下,個體的理性思維、獨立分析的能力無法得到發展。因此,個體應有意識地掙脫數據監控的束縛,通過“斷舍離”的方式,減少對數字技術的依賴,為主體性的重塑留足空間。最后,個體應增強反思性意識。要實現個體主體性意識的重塑,個體還應當在實踐中增強反思性意識,逐漸認清個體在數據平臺中的主導地位,認識到數據監控對個人隱私的侵犯與對主體性的宰制,從而恢復主體性。
二是減少數據監控對隱私的威脅,增強用戶的隱私意識。用戶隱私信息受到侵害的原因,除數據平臺的監視之外,用戶也主動地上傳自己的隱私信息。數字平臺為用戶搭建了一個展示自我的空間,用戶分享自己的生活、心情,構建網絡中的數字形象。如上文所述,數據監控對個人的監視是隱蔽的,人們暴露自己后獲得正向回饋,沉浸在數字平臺的溫床之中,習慣了監視,完全被數字邏輯宰制,把握不住生活的本質,最終導致主體性的瓦解。[10]因此,國家應加大保護個人隱私的宣傳力度,通過公益廣告、宣傳標語、社區活動等形式,增強公民的隱私保護意識;企業應盡到隱私提醒義務,在用戶使用平臺時,通過彈窗等形式提醒用戶隱私泄露風險;用戶應明確數字平臺只是用來消遣娛樂、輔助生活的工具,用戶在使用時,應當保持清醒的頭腦,謹防過分沉迷、暴露個人隱私。
三是增加對數字技術的了解,杜絕數字拜物教思想。人們崇拜數字技術,作出行動、了解自我都依靠數字技術,這使得數據監控有機可乘。因此,主體在享受數字技術帶來便利的過程中,要增強對數據監控的來源、范圍、程度的清晰認識,避免因為便利而去順從個性化推送等已被預設的程序,對數字技術進行祛魅,及時發現其侵犯隱私的風險。同時,個體應鍛煉自己的批判反思、邏輯分析和判斷能力,減少對數據技術的依賴。人們應當清醒認識到:自我是不可被測量、被數字化的,雖然,有關心率、卡路里、情緒狀況等記錄會反映我們的機體和精神狀態,但是,不管數據有多精確我們都不能僅僅通過數據來認識自己,數據所構建的用戶畫像遠不如我們的自我認知精確、全面。
(三)技術層面:重構技術倫理,規避技術風險
數據監控是多種高新技術的綜合體,并非僅僅只是工具,恰恰相反,將數據監控植入相關平臺中,可以干預用戶的選擇。為更好地解決數據監控治理難題,需要對其進行倫理規制。一方面,要始終將促進人的自由全面發展作為判斷數據監控正當與否的道德準繩。馬克思、恩格斯在《共產黨宣言》中指出:“代替那存在著階級和階級對立的資產階級舊社會的,將是這樣一個聯合體,在那里,每個人的自由發展是一切人的自由發展的條件。”[3]422技術發展的最終目的是要促進人的發展,因此“人的自由全面發展”是人的主體性重構的技術倫理標尺。具體到數據監控技術層面,在編寫監控算法時,要避免360度無死角監控個人行為數據,為個人活動留有充足空間,保障人們的選擇自由。我國近期頒布的《中華人民共和國數據安全法》規定:“開展數據處理活動,應當遵循法律法規,尊重社會公德和倫理,遵守商業道德和職業道德,誠實守信,履行數據安全保護義務,承擔社會責任,不得危害國家安全、公共利益,不得損害個人、組織的合法權益。”[11]這為數據監控的發展指明了方向。另一方面,針對數字監控與個人隱私之間的沖突,倫理規范必須提前介入到用戶使用過程中[12],平臺設計者要根據倫理規范調整數字監控的范圍和程度,及時停止不符合倫理規范的不當監控,避免數據監控侵犯個人隱私。構建技術倫理規范,對技術平臺進行道德意義上的調節和引導,有助于建立符合個人自由全面發展要求的數據監控體系。
此外,數字技術本身的提升,也有助于減少數據監控對隱私的侵害。一方面,通過加固防火墻、數據脫敏等技術加密算法,對數據進行分類統計,從而劃定可共享數據的范圍,適當阻止算法獲取敏感數據。算法能夠壓制人的主體性得益于對隱私數據的收集,將數據分成強隱私和弱隱私兩類,進而限定了算法的處理范圍即弱隱私,可以有效緩解數據監控中的自我規訓。另一方面,在數據共享和移動時,確保用戶對信息的控制權,為用戶提供選擇關閉數據監控的機會。數據監控的隱蔽性、算法自身的復雜性以及平臺的故意隱瞞,致使用戶無法知曉數據監控的存在,因此需要進行算法解釋,將算法語言轉化成通用語言,填補專業性和通俗性之間的鴻溝,使用戶了解數據監控的運行,權衡使用數據監控的利弊,在必要時可以關閉數據監控。
(四)制度層面:構建語境化的合理預期和隱私安全影響評估保護體系
為了彌補個人控制基本范式的失效,需要構建新的數據隱私保護路徑,以降低數據監控侵犯個人隱私的風險,為主體能夠不受監視地發展精神世界、不受干擾地做出決斷提供制度保障。
語境化的合理預期,是指個體在具體的數據隱私收集、分析的語境中,對數據控制者和處理者產生的合理預期。在進行立法時,立法者可以采取舉例的方式,列出重要的數據隱私處理語境。具體來說主要有以下兩種:第一,數字平臺的語境,如聊天軟件、搜索網站、購物軟件等數字平臺,個體具有其聊天記錄、瀏覽記錄不被數據平臺盜取且這些個人隱私信息不被用來過度推測個人喜好的合理預期;第二,智能設備的語境,如可穿戴設備、智能家居、智能汽車,在這種語境下,個體所期待的是其身體健康信息、私人生活信息、行動軌跡信息不被用來推斷家庭狀況、生活水平等,且智能設備不會收集除上述個人隱私信息之外的其他信息。總的來說,當數據控制者和處理者做出的行為沒有超出個體使用數字服務的目的時,便符合語境化的消費者預期,沒有侵犯個人隱私,反之亦然。采用語境化的消費者預期保護路徑具有以下優點:其一,具體化生活情景便于個體行使權利,打破個體對于數據監控運行的認知障礙,當收集處理的個人隱私信息超出法律規定的合理預期時,便可及時準確地行使權利,如訪問權、更正權、擦除權、限制處理權、數據攜帶權、一般反對權;其二,語境化合理預期更能適應數據監控下的復雜環境,大部分個人隱私信息都經歷了再次分析,提取用戶有效的行為數據,并操縱用戶接收到的信息,此時個人控制機制無法發揮作用,語境化的合理預期則會對此種情形做出規范調整。
隱私安全影響評估(Privacy Impact Assessment,簡稱PIA)是指對于在個人隱私信息收集、處理、存儲過程中可能遇到的潛在影響,進行預先評估并采取相應措施規制,以確保個體在數據監控下的安全環境。在進行立法時,立法者應從設立評估的強制性、評估內容、緩解措施和第三方評估四個方面進行規定。第一,要求將個人隱私安全影響評估作為一項強制性、經常性的活動,在啟用數據監控之前啟用評估系統。同時,將評估結果納入公司風險登記冊,并對此進行監測和跟蹤。[13]第二,數據處理者和控制者在數據監控過程中,應當對監控性質、范圍、語境和目的,以及可能給主體尊嚴與自由意志帶來的危害進行評估。第三,當評估結果顯示對主體尊嚴與自由意志造成威脅時,數據控制者和處理者應當采取但不限于適當的技術措施,以保證個人隱私信息的安全環境。第四,當數據處理者和控制者沒有在數據監控過程中進行個人隱私安全影響評估時,第三方監管機構應當向其提出書面提醒,必要時有權介入數據監控程序。個人隱私安全影響評估有助于改善整個數據生命周期的隱私保障環境,防止個人隱私信息被不當使用。如今,數據監控的運行更加復雜,監控范圍全面覆蓋公民生活,監控形式更加隱蔽、多元,個人控制對此難以應對,而評估系統時刻伴隨著隱私信息的流動,能夠及時監測到數據監控范圍的不當擴大和干涉主體自由選擇的行為。
結語
數據監控已成為社會治理、商業活動和個人生活的一部分。作為實現自由意志條件的個人隱私信息,是重要的社會資源,是數據監控的主要收集對象。因此,為促進社會系統的發展,應擺脫傳統個人隱私觀念,允許數據監控收集和分析個人隱私信息。當然,這并不意味著放任數據監控對個人隱私的侵害。鑒于此,本文提出以下建議:創設新的個人隱私保護路徑,降低數據監控對個人隱私的侵害風險;在增強個體隱私保護意識的同時,強調數據控制者的信義義務;構建數據監控的技術倫理標尺,對數據平臺進行道德引導??傊?,協調好數據監控與個人隱私之間的關系,對于促進數字技術發展、維護個體的主體性地位具有重要意義。
參考文獻:
[1]中共中央馬克思恩格斯列寧斯大林著作編譯局.馬克思恩格斯全集:第3卷[M].北京:人民出版社,1960:514.
[2]張金鵬.超級全景監獄:信息方式下的權力技術:波斯特論信息方式下的統治模式[J].南京社會科學,2007(8):40-45.
[3]中共中央馬克思恩格斯列寧斯大林著作編譯局.馬克思恩格斯選集:第1卷[M].北京:人民出版社,2012.
[4]Shoshana Zuboff, The Age of Surveillance Capitalism[M], New York:PublicAffairs, 2018:39-42.
[5]李斐然.大數據背后,是誰在監視我們的生活?[EB/OL].(2018-6-19)[2024-1-15]https://baijiahao.baidu.com/s?id=1603675675897053120amp;wfr=spideramp;for=pc.
[6]中國信息通信研究院網.隱私保護計算與合規應用研究報告[EB/OL].(2021-3)[2023-12-03]http://www.caict.ac.cn/kxyj/qwfb/ztbg/202104/t20210401_372713.htm.
[7]Paul T.Jaeger and Gary Burnett, Information World[M].New York:Routledge, 2010:152-154.
[8]Frank Pasquale,The Black Box Society:The Secret Algorithms That Control Money and Information[M].Cambridge:Harvard University Press,2015:6.
[9]解正山.數據驅動時代的數據隱私保護:從個人控制到數據控制者信義義務[J].法商研究,2020(2):71-84.
[10]郝喜.數字化“圓形監獄”:算法監控的規訓與懲罰[J].昆明理工大學學報(社會科學版),2021(6):39-45.
[11]人民網.中華人民共和國數據安全法[EB/OL].(2021-6-19)[2023-12-16]http://politics.people.com.cn/n1/2021/0619/c1001-32134526.html.
[12]黃秋霞.平臺數字化監控的遮蔽與解蔽[J].自然辯證法研究,2023(6):85-92.
[13]丁曉東.什么是數據權利?:從歐洲《一般數據保護條例》看數據隱私的保護[J].華東政法大學學報,2018(4):39-53.
責任編輯:楊葉紅
收稿日期:2024-04-05
作者簡介:張新璐,女,山東聊城人,江西財經大學法學院碩士研究生,主要研究方向:數據法學;易有祿,男,江西于都人,江西財經大學法學院教授、博士生導師,主要研究方向:法理學、立法學。