杜永欣,周茂君
(1.北京大學新聞與傳播學院,北京100871;2.武漢大學新聞與傳播學院,湖北武漢430072)
在信息技術發展日新月異的數字時代,信息資源作為社會運行的“原料”,已成為商業競爭中不可或缺的關鍵要素。隨著數據信息在行業發展中的價值日益凸顯,個人信息(1)個人信息、個人隱私、個人數據是當前較常混用的概念,美國習慣使用“個人隱私”,如1974年頒布的《隱私法案》(Privacy Act of 1974);歐盟多使用“個人數據”,如最新頒布的《通用數據保護條例》(GDPR);我國多采用“個人信息”的概念,如《個人信息保護法》,并且在學術研究中也多采用“個人信息”保護的概念討論隱私問題,本文亦采用這一概念框架探討個人隱私問題。獲取與利用成為網絡服務平臺提升經濟效益、獲得競爭優勢的有效途徑。當前網絡行為追蹤、智能推薦算法等技術的應用,使得大規模的信息獲取、儲存和分析成為可能,技術的全面滲透為用戶網絡行為處理提供了前所未有的可量化維度。在一切網絡行為都可被記錄的數字化社會,數據洪流所引發的信息安全問題和隱私風險與日俱增。
隨著信息商業化應用進程加快,基于個人信息采集和利用的算法推薦服務模式,為網絡服務提供者帶來了可觀收益。然而頻繁出現的數據信息泄露事件也引發了普遍的隱私擔憂,借由網絡服務對于個人敏感信息的操控更是不斷挑戰隱私“紅線”,數字時代的個人信息與隱私保護呼聲日益高漲。早在2016年,《中國個人信息安全和隱私保護報告》(2)參見互聯網法治研究中心:中國個人信息安全和隱私保護報告.http://www.199it.com/archives/540836.html。公布的一項針對全國范圍的100多萬份問卷調查結果中,就有超七成的被訪者認為個人信息泄露問題嚴重,因網頁搜索、瀏覽等泄露個人信息,而遭受廣告持續侵擾的比例達53%,其中60%的受訪者不知如何維權。鑒于數字時代個人信息與隱私保護問題愈發緊迫,研究者們從法律保護、技術保護、行業自律以及自我防范四大方面,探討了如何應對日益嚴峻的隱私危機,[1][2]其中以行業自律為主導的美國模式,以及訴諸嚴苛法律保護的歐盟模式,在保護個人信息及隱私領域具有廣泛影響力。隨著世界范圍內個人信息保護立法潮流的興起,2018年歐洲《通用數據保護條例》(GeneralDataProtectionRegulation,簡稱GDPR)、2020年《加利福尼亞州消費者隱私保護法案》(CaliforniaConsumerPrivacyAct, 簡稱CCPA)相繼實施,旨在進一步規范互聯網時代迅速發展的個人信息收集和使用行為。在我國,2012年全國人大常委會通過《關于加強網絡信息保護的決定》,開啟了我國個人信息保護的立法之路,此后我國關于個人信息保護的規定在《網絡安全法》《消費者權益保護法》等法律法規中有所體現,至2021年《個人信息保護法》出臺,以及2022年3月國家網信辦等四部門聯合發布的《互聯網信息服務算法推薦管理規定》正式施行,網絡信息安全和隱私保護在國家層面的法律制度保護規范逐漸確立并日益完善。
依托大數據與智能算法提供精準推薦的網絡服務模式,其核心邏輯在于深度的個人信息挖掘與定制化的信息需求滿足,由此也必然面臨個人信息商業化利用與信息隱私保護之間的權衡問題。例如當前幾乎無處不在的精準推薦廣告,網絡服務提供者能夠通過實時數據獲取,精準定位目標用戶及其需求特征,以有效提升廣告傳播效果;[3]但隨著個人隱私保護意識的增強,網絡服務提供者的信息操控行為一旦被用戶感知,則往往會觸發個人隱私規避心理,從而對精準推薦內容產生“抗拒”,傳播效果也將大打折扣,[3][4]隱私關注成為用戶網絡行為與傳播效果研究的重要影響因素。[5]然而,倘若對個人信息收集和使用加以限制,則可能導致廣告效果下降,[6]缺乏針對性的廣告不僅難以奏效,而且容易造成廣告侵擾。另外,信息規范與算法規制體系的構建,也面臨相應的監管成本增加問題,同時也可能阻礙網絡服務平臺的數據驅動發展能力,增加其運行成本,從而影響企業創新發展的方向。[7][8]因此,如何有效應對由個人信息商業化利用而引發的信息權益沖突,是算法推薦模式持續發展而亟待解決的問題。如今智能算法技術已深度嵌入數字化社會,個人信息是算法推薦不可或缺的數據基礎,而隱私問題更是觸及算法推薦邏輯的核心,信息權益的合理權衡成為技術風險應對的重要命題。新時期我國對個人信息與隱私的保護進入精細化發展階段。鑒于該問題涉及多元主體以及多方利益關系博弈,探討算法推薦中的個人信息與隱私問題,有助于進一步厘清技術變革背景下個人信息商業化利用過程中所蘊含的風險,進而尋求應對個人信息與隱私危機的有效路徑。這對于推進算法推薦模式的規范發展乃至信息安全領域治理體系的完善具有重要意義。
信息與隱私密不可分。《論隱私權》一書提出了“隱私權”概念,其強調個人免受打擾的“獨處權”,來源于不受侵犯的人格權范疇。[9]桑德拉·佩特羅尼奧將“隱私邊界”視為人們管理公共領域與私人領域的界限,認為它并不是固定的,而是可滲透和可伸縮的。[10]隨著媒介技術的變革發展,信息的收集、傳播、利用和交換方式也發生改變,傳統時期界限分明的隱私觀,逐漸轉向數字化社會以個人信息自控為核心的隱私內涵,普遍的信息流動也導致了前所未有的隱私風險。
任何一種新技術的出現,往往伴隨著人們生存與生活方式的變遷。信息技術對隱私保護的沖擊,首先表現為大量的個人網絡行為被持續地記錄、保存和利用,私人領域逐漸向公共領域延伸,公共領域不斷向私人領域滲透,二者的界限日益模糊,由此隱私邊界漸趨消融。在早期以“場所”為導向的隱私界定中,“公共”和“隱私”被視為天然對立的概念,“公共”則意味著公開,非私密空間不存在任何隱私。[11]正如阿倫特所說,任何在公共場合所見、所聞的東西,都有最大程度的公開性。[12]“公共場所無隱私”的主張也一度成為法律實踐中的隱私判定標準。然而在以數據為基礎、由算法建構的數字化社會,一方面,人們的社交活動實現了以“圈子”為核心向以“關系”為紐帶的網絡交往轉向,個人信息范圍逐漸向外延伸,信息的公私邊界漸趨消融;[13]另一方面,媒介技術的變革極大增強了“萬物皆可追蹤”的可能性和海量數據長期儲存的便利性,這使得用戶成為被數據化、符號化的透明個體。個人信息被廣泛用于信息的精準匹配與傳播效果達成的目的,這意味著私人信息也成為可以被開發利用的“公共資源”。例如無論是具有公共屬性的網站搜索、留言評論行為,還是在私人網絡空間進行的朋友聊天、動態發布、好友互動與分享等,都能以數據的形式加以留存和使用。網絡虛擬世界與現實生活密切交織,信息流動與共享使得公共領域與私人領域的邊界變得模糊而難以區分,以往被視為私人領域的個人信息,如今也以“數字記憶”的方式進入公共空間。因此,數字化社會的個人信息正被賦予更多的公開性和公共屬性,用戶對其不愿公開的私密信息逐漸失去控制,作為私人領域“不受干擾”的私域空間正逐漸消失。
在傳統的隱私觀念范疇,隱私所代表的私密性是與公共空間所具有的公開性相區分的概念,隱私內涵的相對性決定了其通常是社會主體間利益協商的結果,基于不同時期社會公共利益的考量,對于隱私保護難免有所取舍。傳統時期個人信息的核心功能在于可交流屬性,它是個體參與社會生活用以標識自身的工具,[14]客觀上難以通過共享個人信息來獲取經濟利益。由于隱私權代表著人格權范疇的合法權利,其強調個體自由與個人尊嚴的不容侵犯性,這意味著私人信息的商業化利用是不被允許的。數字時代個人信息呈現出普遍的流動性特征,技術賦能使得個人信息的商業價值得以充分挖掘,由此也引發了隱私內涵的嬗變。信息的流動與交換所創造的價值增益是數字經濟發展的根本動因,數據成為蘊含巨大商業價值的社會資源,而技術變革則為個人信息獲取和使用提供了手段。在商業邏輯的助推下,作為隱私的個人信息逐漸從人格權中剝離,并能夠加以商業化利用,由此個人信息的交換價值和商品屬性得以充分發掘,其財產價值逐漸顯現。在大數據與人工智能技術應用日益成熟的背景下,個人信息也被推至商業化應用與增值的快車道,其中算法推薦廣告行業集中體現了個人信息的商業化利用過程。以實時競價(Real Time Bidding)廣告為例,數據分析與需求匹配是精準投放的關鍵,實際上在整個廣告投放流程中,個人信息在各類數據處理和廣告交易平臺上為網絡服務提供者所利用和消費。[15]盡管個人信息關涉人格尊嚴,但現實中又具有可交易的財產性特征,[14]數字化社會頻繁出現的隱私爭議,究其原因,也主要在于個人信息與隱私的保護和利用沖突。一方面,在這場以個人信息價值挖掘為核心的交易活動中,網絡服務提供者能夠通過新技術手段深入洞察用戶網絡行為特征,依據其所獲得的個人信息進行內容推薦決策,以滿足用戶個性化的信息需求,信息傳播的運行效率得以極大提升,并且服務雙方都在一定程度上有所增益。而就個人信息與隱私保護而言,當用戶網絡行為信息成為網絡服務提供者理解和滿足用戶需求的基礎,更多具有敏感性的私人信息也流向了公共空間,隱私信息不再是人格權范疇完全不容侵犯的領域,而成為能在合理預期范圍之內進行流轉的“商品”。信息隱私的這種“流動”狀態下的財產屬性,也在一定程度引發了用戶在人格權益層面的讓渡或受損風險。
信息技術的發展為更高效地釋放個人信息價值提供了可能。鑒于網絡服務提供者與用戶個體之間所掌握的信息資源差異懸殊,這種信息持有的不對稱也導致了信息價值收益的失衡。首先,數字化社會由網絡平臺主導的信息流動模式,從根本上顛覆了傳統時期以個人為導向的信息分享機制,網絡服務提供者成為個人信息的持有者和使用者,用戶則成為被算法“操控”的對象,個人信息權益越來越難以保障。借助于各種數據追蹤技術,網絡服務提供者能夠源源不斷地獲取用戶網絡行為信息,從而形成無形的“監控”網絡,通過數據資源與算法程序的結合,網絡服務提供者能夠將所獲得的個人信息充分用于提升自身效益和市場競爭力,而用戶則逐漸淪為網絡服務中被動的信息資源提供者,無法充分享有應有的信息價值收益。另一方面,算法技術的“排他性”也帶來了“算法黑箱”問題,即由于算法的不透明性所引發的令人難以理解的狀態,[16]本質上反映了算法服務的使用者對其中原理以及意圖的不知情。由于算法技術作為數據輸入、數據處理以及數據輸出的一套運作程序系統,普通用戶很難明確其中復雜的技術原理,算法的不透明性與不可解釋性特征,使得網絡服務提供者與用戶之間存在著嚴重的信息不對等,[17]前者憑借充分的信息資源持有優勢,更容易滋生算法偏見、利益操控等問題。因此,在由網絡服務提供方主導的這場資源差距懸殊的“協商”中,雙方巨大的“信息鴻溝”使得網絡服務提供者占據絕對優勢,信息資源持有失衡讓用戶更容易淪為精準傳播中一擊即倒的“靶子”。[15]數字時代的隱私憂患席卷而來,網絡服務提供者通過信息資源占有與價值開發而廣泛受益,而用戶則在算法黑箱面前無能為力,既無從知曉哪些個人信息被收集,也無法明確個人信息的使用和流向。這種信息不對稱助長了算法推薦中網絡服務雙方權利不平等局面,用戶的弱勢地位造成無可避免的隱私讓渡,隱私顧慮沖擊著網絡服務雙方的信任機制,由此難以建立持續而良好的協作溝通關系。
隱私意味著自我與他人之間的界限,是自我意識發展的前提,“沒有一定程度的隱私,就不可能有文明的生活”。[18]隱私權的保護旨在使得個人有所隱藏、保留和獨處, 得為自主而擁有一定范圍的內在自我。[19]數字化社會的算法建構無處不在,我們猶如身處透明化的社會環境之中,個人隱私卻無處遁形。由媒介技術變革所引發的隱私風險,核心在于人們無法有效控制個人信息的流動范圍,且信息自控和自決受到算法邏輯的沖擊,而當前無論是法律規約還是自律規范,都難以在個人信息的普遍商業化應用中提供有效的信息與隱私安全保障,個人信息自主性正受到全面數字化建構的侵蝕。
個人信息是一切可以識別本人的信息的總和,其中“識別”是構成個人信息的實質要素,包括直接識別和間接識別的信息。[20]個人信息的“識別性”是界定個人信息的核心以及信息賦權的基礎,[21]目前已成為世界多數國家制定個人信息或隱私保護法所采用的個人信息范圍界定依據。[22]例如歐盟1995 年《數據保護指令》、我國2021年實施的《個人信息保護法》,都將“與已識別或可識別的自然人有關的任何信息”界定為個人信息范疇。在實際的隱私糾紛案中,如“朱燁訴北京百度網訊科技有限公司隱私權糾紛案”“英國谷歌定向行為廣告案”等,能否準確識別具體個人都是重要的判定標準。
伴隨著互聯網與大數據技術的變革發展,信息的“識別性”邊界日益泛化,可識別信息范圍趨于模糊而引起諸多爭議,技術變遷背景下的個人信息與隱私保護也面臨新的挑戰。一方面,信息技術的發展引發了關于信息“識別性”的質疑,“可識別”與“不可識別”的信息范圍存在相對性,以往不具備識別性的個人信息,隨著新技術的應用也極有可能變得能夠進行準確識別。例如以往難實現的地理位置、面部表情識別等,如今都能通過技術手段加以精準識別。除此之外,關聯性信息因素使得信息識別變得更為復雜,因為即使是初始階段無法識別的個人信息,借助于數據關聯算法仍能夠準確識別出個體,“整合型隱私”衍生出更為復雜的隱私問題。[23]另一方面,匿名化處理是個人信息“去標識化”所廣泛采用的技術保護手段,并且我國相關法律規定也將匿名化處理后的信息排除在個人信息范圍之外,但實際上匿名化處理也可能面臨失效問題。由于信息“匿名化”主要是將精細化的個人信息進行模糊處理,使得信息在一般情況下難以識別具體個人,從而達到對數據庫中具有敏感性的個人信息加以保護的目的。然而由于信息技術不斷迭代,匿名化處理后的信息也會面臨“再識別”風險,通過強大的關聯算法、反加密技術等同樣能描繪出個體的“數字畫像”,匿名化的技術保護效力在實際應用中難以保證。因此,從法律中個人信息識別性的內涵變遷,到技術實踐中匿名化、數據加密等“反識別”方法的保護局限,技術變革不斷沖擊著基于“識別性”而建立的個人信息權益基礎。
當前網絡服務提供者實現精準推薦主要依賴大規模的數據資源與算法分發機制,且對個人信息收集與使用的精細化程度直接影響其收益。算法推薦對用戶個性化需求的滿足,需要在個人信息挖掘基礎上,實現用戶行為的精準預測,這個過程需要依賴大規模的原始數據,因此盡可能多地獲取大量的個人信息,是促成推薦內容“千人千面”的必然選擇。為了避免網絡服務提供者肆意進行用戶信息收集和使用,“授權同意”機制成為當前法規中信息與隱私保護的普適機制,[24]這意味著需要在用戶知情的情況下,授權允許網絡服務提供者收集和使用必要的個人信息。為此網絡服務提供者須以隱私條款的形式公開其信息收集和使用情況,以確保用戶知情后根據自身意愿做出合理選擇。雖然授權許可機制為個人信息與隱私保護提供了靈活保障,但實際上由于其中存在明顯的權利不均衡和話語不對等問題,多數情況下用戶既無法實現有效知情,也無法做出遵從其真實意愿的選擇決策。
首先,知情是用戶同意授權的基礎,而網絡服務提供者通過隱私聲明予以公開承諾的方式,既缺乏詳盡說明信息收集的動機,也無法充分告知數據處理及使用的真實情況。用戶的授權決策主要依據已發布的隱私條款,而網絡服務提供者作為信息收集和持有方,對個人信息的充分獲取與價值挖掘關乎其核心利益,擁有更多的個人信息資源即意味著更強的競爭優勢,這就導致其既沒有限制采集個人信息的動機,也缺乏有效保護隱私信息的內在動力。作為信息價值收益的獲益方,網絡服務提供者更期待的是用戶主動披露更多信息,即便是隱私聲明中的保護承諾,通常也只是出于法規限制的考慮,而為了達到“合規”的目的,所以隱私條款要么形式隱蔽難以發覺,要么內容晦澀難懂,用戶很難實現有效知情。在多數情況下,用戶并不清楚自己的哪些行為被追蹤,更不知道哪些信息、什么時候被收集以及怎樣被使用,[25]技術手段的不斷更迭使得網絡服務提供者的信息收集和使用變得更加隱蔽且難以察覺,個人信息權益侵犯也往往是在用戶“無感”狀況下發生的。另一方面,數字時代的信息流動性特征,也決定了網絡服務提供者難以實現充分告知,由于用戶授權機制所依據的隱私聲明是網絡服務提供者關于信息收集、處理和使用的事先預判,因而通常只能涵蓋常規的信息處理環節,而在個人信息的“下游”處理中,尤其是涉及第三方信息共享和交易時,信息流轉中蘊含著難以預判的未知性。除此之外,一些并不敏感的個人信息片段經過有目的排列、組合后,可能成為具有重要商業價值的信息要素,復雜的整合型隱私問題也加劇了隱私保護困難,[26]普通用戶很難充分了解其中的技術運作原理,因此更無從得知個人信息收集和使用的真實情況。
其次,個人有效同意的核心在于自主選擇,而由于網絡服務提供者與用戶之間的不平等協商,用戶授權同意往往是不得已而為之。網絡服務提供者收集和使用個人信息需要獲得用戶授權,主要借助隱私聲明的方式予以說明,用戶據此做出“同意”或“不同意”的選擇。這種協商方式本身建立于雙方信息不對稱基礎之上,處于弱勢地位的用戶難以明確網絡服務提供者自我揭示的保護規則是否合理,只能參與這場“接受或是離開”的游戲。[27]部分隱私條款甚至不被重視,且內容往往流于形式,存在語句不通、重復等明顯錯誤。[28]由此觀之,隱私聲明反而淪為網絡服務提供者“免于法律責任”的避風港,授權同意機制成為網絡服務提供者“合理”獲取個人信息、維護自身利益的另類途徑。因此,隱私聲明中“非同意即離開”的規則實際上所提供的唯一選擇就是“同意”。倘若因隱私顧慮而放棄使用某項網絡服務,則可能加劇“數字鴻溝”而淪為網絡時代的“信息隱民”,所以用戶只能參與到這場不平等的個人信息交換機制之中,[29]在此情況之下授權保護機制難有實效。
除此之外,“授權同意”機制還面臨用戶隱私決策成本問題。充分理解各項隱私政策,需要用戶投入大量的時間和精力去解讀各項晦澀難懂的隱私規定,若內容條款適時更新,則意味著用戶需要持續關注隱私條款的變動,才能獲得必要的知情信息。但如果因不滿隱私政策而選擇退出,尋求其他替代性網絡服務時又必然需要新的成本投入。當前過高的隱私管理成本同樣限制了用戶的自主選擇。事實上,用戶授權通常是只是在有限理性或者無意識情況下做出的選擇,諸多限制性因素使得授權同意保護機制面臨“失靈”危機。在尚未有效建立相應規范體系的情況下,算法推薦機制可以說是以個人信息乃至隱私的商業化利用為代價的。
人的自主性建立于自由意志發揮的基礎之上,而在由數據和算法技術打造的透明化生存環境中,算法推薦在很大程度上限制了用戶的真實選擇,個人信息自主性實現的基礎正逐漸被算法推薦邏輯所消解。Solove認為“數據庫中的信息通常只是抓住一些刻板印象和非理性行為,而無法對人們的個性做出細致入微的刻畫,因此難以反映我們的真實生活”。[30]算法推薦機制基于個人信息展開定制化服務,在此過程中網絡服務提供者根據其所獲得的用戶網絡行為信息,對個體進行數字化建構,進而理解和預測其需求及偏好,從而有針對性地推出滿足用戶需求的信息內容。由此,差異化個體被建構成為承載各種標簽的“數字畫像”,網絡服務提供者基于其捕獲的碎片化信息,不斷塑造更趨近其預期的“理想角色”,而用戶的自主決策則成為依附于算法程序的異化結果。借助算法程序的信息篩選與需求匹配,網絡服務提供者可以利用其所掌握的數據信息來推動、勸服、影響、甚至限制用戶認同,[31]數據驅動下個性化信息內容的精準觸達,實際上是網絡服務提供者對個人自主決策的“理想化”塑造,這種信息過濾和精準推薦往往并非用戶真實情況的體現,而是經由網絡服務提供者事先預設的算法邏輯的結果呈現。
網絡服務提供者對個人信息的充分占有,也為其追求自身利益最大化提供了有效途徑,而越是對用戶有更加充分的了解,網絡服務提供者就更容易找出能夠說服其進行理想化決策的理由,從而促進網絡服務交易達成。例如為追求更好的廣告效果和營銷收益,網絡服務提供者通過對個人生活習慣及需求動向的長期關注,預測用戶喜好、分析產品購買率、推測產品使用場景,為其“量身定制”滿足其特定需求的產品或服務。[32]另外,根據用戶信息而采用算法推薦技術對用戶實施差別定價,“大數據殺熟”行為侵害了用戶的合法權益,也破壞了互聯網市場的交易秩序。[33]根據北京消費者協會2022年發布的《大數據“殺熟”問題調查報告》(3)參見北京市消協發布大數據“殺熟”問題調查報告.http://www.bj315.org/xxyw/xfxw/202209/t20220909_35059.shtml。數據,七成多受訪者認為存在大數據“殺熟”現象,其目的在于獲取更多的經濟利益,有66.47%的受訪者認為大數據“殺熟”侵犯了個人信息保護權。此外,基于情感定向的精準推薦也在不斷突破用戶消費的心理防線,個人信息披露往往能帶來即時的好處(如:注冊會員即享優惠),但當對方太了解我們時,我們就失去了自主權。[34]總而言之,與網絡服務提供者所掌握的信息和技術優勢相比,用戶的劣勢地位導致了其在風險感知和預判上的滯后。所以在與網絡服務提供者的協商溝通中,用戶更容易被所謂的個性化內容觀點所裹挾,從而成為數字建構中被“捕獲”的個體。
“自主性”來源于希臘詞中表達自我管理、自我支配的概念,其哲學范疇的內涵指代人根據自由意志進行自主活動的狀態。[35]數字時代算法推薦機制對人的自主性沖擊主要表現為個人信息的“失權”危機,而當前的信息“賦權”機制尚未有效確立與落實,由此個人信息自由受到算法權力的操控。算法權力反作用于人類甚至統治支配人的現象被視為算法權力的異化,[36]這構成算法推薦機制全面內嵌于人們社會生活的現實背景下,應對技術風險需要解決的緊迫議題。概而言之,算法推薦模式引發的個人信息自主性沖擊體現在對信息獲取與信息分發的深度介入,作為信息輸入端的算法能夠實現個人信息的獲取與分析處理,而作為輸出端的算法則控制著信息需求匹配,由此建立用戶與信息服務之間的精準連接。在此過程中,算法推薦機制替代了人的自主選擇,商業利益驅動個人信息價值的釋放,程序規則的全面嵌入更加助推了人的主體性危機。基于智能算法的精準推薦模式蘊含著與個人信息自由乃至信息自主相悖離的異化力量,這集中體現了數字時代算法推薦所帶來的技術風險。
在以信息要素為基礎的數字化社會,信息資源的獲取與價值挖掘是網絡服務提供者提升自身競爭力的關鍵,個人信息自主性問題由算法推薦機制所引發的信息與隱私權益受損而起。因而應對算法共生時代個人信息自主性危機,首先需要圍繞信息與隱私的保護規范展開。個人信息作為算法系統運行的基礎資源,決定了算法推薦機制的實際效力,而用戶對個人信息的自控與自決則決定了其能在多大程度上實現信息自主。在基于“數據—算法”邏輯建構的信息流動機制中,自主性構建有賴于從兩方面重塑用戶的主體性:一是用戶對其信息的自控,即個人依據其自身意志決定透露個人信息的行為,這是數字時代個人信息與隱私管理的核心內涵;二是個人自主決定信息觸達,即意味著用戶能夠根據自身需求進行信息選擇。這種“由內而外”的信息使用權和“由外而內”的信息選擇權,共同構成了數字化社會中個人信息自主性的兩大維度。因此,當前如何規范管理個人信息及隱私是關涉自主性構建的關鍵范疇,它既觸及數字時代個人與其信息要素的所屬關系問題,也關乎實際運作中信息價值收益的合理分配,集中體現了技術風險語境下如何處理人的主體性問題需要思考的時代命題。
在與算法共生的時代,“信息賦權”旨在通過保障個人在其信息獲取、處理以及使用過程中的主體性權益,形成用戶主導的信息流動機制,以個人信息的自控與自決“倒逼”算法機制與信息處理的透明公開。早在20世紀90年代,歐盟就開啟了個人信息的立法保護規定,(4)1995年7月24日歐盟部長會議制定的《關于涉及個人信息處理的個人保護以及此類信息自由流動的第95/46號指令》(簡稱《個人信息保護指令》)以應對互聯網時代隨之而來的個人信息權益問題。如今法律規制已成為數字化生存中應對個人信息與隱私問題的普遍選擇,就現實路徑而言,法律規制中合理界定個人信息范圍是基礎依據,相應的行業自律規約是有效落實的關鍵,形成多方協同的精細化規范體系是目標追求。
1.推進差異化場景中的信息分類與風險分級
信息的實時流動使得動態場景下個人信息范圍界定變得困難,信息識別性邊界的模糊成為個人信息賦權亟待解決的問題。技術變革帶來的個人信息與隱私保護挑戰,主要在于動態的信息場景取代了以往靜態模式下“二元化”的信息預判。信息賦權基礎與構建自主性的現實路徑,首先在于實現信息流動中的個人信息分類與隱私風險分級,推進動態場景導向的個人信息與隱私保護機制的構建。“場景導向”的理念源于尼森鮑姆的“情景脈絡完整性”理論,[37]意在強調“尊重個人信息原始收集的具體場景,其后續傳播利用不得超出原初的情景脈絡”。[38]這種動態的個人信息保護理論框架在現有法律中已有所體現,例如GDPR 在授權許可的基礎上,增加了被遺忘權、數據攜帶權等,為個人提供了更加靈活的隱私信息管理方式;CCPA引入了“選擇退出”(opt-out)的方法作為授權原則的協同機制,只有在合理授權范圍內的信息處理無需經由個人再次同意,而超出此范圍則用戶有權依據其合理隱私期待而選擇退出,由此體現出差異化情景導向的隱私保護機制在信息流動場景中的適用性。
不同信息流動場景下的個人信息進行分類和風險分級,關涉到當前我們應該保護哪些個人信息這一核心問題,構成信息流動中個人信息與隱私保護機制趨于精細化的基礎。例如我國《個人信息保護法》就針對敏感信息處理做出了專門規定,對于“一旦泄露或者非法使用,容易導致人的人格尊嚴受到侵害或者人身、財產安全受到危害”的敏感信息,不僅需要充分必要的獲取目的,還需要有嚴格的保護措施,并且要獲得個人單獨同意,除此之外還需考慮未成年人敏感信息處理的特殊性;(5)參加《個人信息保護法》第二十八條. http://www.customs.gov.cn/kjs/zcfg73/4265285/index.html。GDPR也對涉及九類個人敏感數據信息做出了“禁止處理”的特殊規定。(6)參見“General Data Protection Regulation”第 9 條,第 1 款. https://gdpr-info.eu/art-9-gdpr/。伴隨信息與通信技術的發展,個人數據信息類型變得更加豐富,敏感信息的范圍也在不斷拓展,更多的信息類型被納入其中,由此被用以處理哪些信息需要進行保護的問題。[2]這也表明,信息技術的進步也使得個人信息的內涵與外延發生變化,個人信息與隱私保護的理論框架也需要不斷拓展和持續更新,未來需要基于動態場景理念,結合利益權衡原則,圍繞信息內容、信息主體和信息價值等多維度,制定個人信息分類的細化標準,為信息流動中的隱私風險評估提供詳細依據,從而推動制定個人信息與隱私保護的針對性方案。
2.技術賦能行業自律與隱私管理
隱私管理是人們對其分享信息時機、對象以及內容等方面的考慮,[39]當前由技術變革帶來的個人隱私風險問題,也有賴于借助技術手段予以解決。既有的“授權同意”保護機制之所以淪為形式條款的核心問題在于:一是脫離差異化使用場景的“全有或者全無式”預判,以及同意或者退出的選擇模式,用戶難以在有效知情的情況下做出自主決策;二是面對過高的隱私管理成本和有限的用戶理性,用戶很難充分理解網絡服務提供者發布的隱私條款,既無從判斷其內容規則的合理性,也無法進行實現常態化的隱私風險評估與決策。因此,個人信息保護實踐的推進有待于融入技術管理手段,完善差異化場景中分類信息的風險等級評估機制,以技術工具規避用戶隱私管理的非理性誤區,實現個人信息與隱私風險的實時監測與評估,并根據實際情況提供相應的解決方案建議。
首先,行業應加快構建個人信息保護的技術規范系統,依據動態場景差異為用戶提供多元化的選擇,從而為個人信息權益提供實質性的保護措施。例如美國互聯網協會推出的“個人隱私選擇平臺”(personal privacy preference platform,簡稱“P3P”),為個人的隱私管理提供了靈活的選擇空間, 在一定程度上彌補了選擇或退出的單向決策缺陷。其次,應運用技術手段為用戶提供個性化的隱私風險評估與管理方案,鑒于網絡服務提供者對個人信息的收集和使用涉及多個環節,個人信息與隱私保護應從信息流動的全流程予以考量,根據“信息生命周期”的不同和用戶網絡行為的差異,提供分階段、分場景以及分類信息的隱私風險評估報告,既要說明其中的隱私風險,也要明確信息使用為用戶帶來的價值收益,從而根據利益權衡原則為用戶提供相應的優化建議。另外,當用戶遇到高隱私風險的網絡服務應用時,應及時發布敏感信息泄露風險預警,從而提升用戶的隱私風險意識。由此,通過技術賦能為個人信息與隱私管理提供科學合理的研判機制,用切實可行的簡化操作方式,真正為個人信息與隱私保護帶來實效。
3.法律規制與自治協同構建精細化的規范體系
隨著智能算法推薦成為社會運行的常態,構建相應的個人信息與隱私問題的規制體系已刻不容緩。由于算法推薦中的隱私問題關涉多主體、多環節和多方利益,且隨著技術變革其動態化和復雜性與日俱增,個人信息與隱私保護機制的完善有賴于法律規制與自治的多方協同,推進理論框架與保護實踐的有機融合。這不僅需要從歐盟的法律規制路徑和美國行業自律模式中獲得啟發借鑒,而且要依據我國數字行業的發展階段,逐漸完善我國個人信息與隱私保護的多方協同治理體系,規范網絡服務中的個人信息收集和使用,從而打造良好的信息生態環境。
具體而言,首先需要從法律層面進一步完善行業個人信息保護特別法規體系,在以《個人信息保護法》為核心的綜合性法律保護基礎上,逐步構建更具針對性的行業特別法規體系。雖然綜合性法律具有系統而全面的優勢,但也可能會面臨細化層面的行業適應性問題,過于概括和抽象的內容難免存在實際應用的局限,這就需要針對行業特點制定相應的法律條款。我國《民法典》在個人信息保護與利用方面構成特別法;[40]歐盟的《電子通信數據保護指令》、美國的《電子通信隱私權法》《家庭教育權利與隱私法》等[41]都是針對特殊行業領域的專門法。我國各相關行業也需要依據法律規定,構建個人信息保護的行業自律規約機制和通用標準,這有賴于以中國互聯網協會等為代表的行業力量,積極推動個人信息保護行業規范體系的建立,例如借鑒美國的行業自律機制,實施行業指引(suggestive industry guidelines)和在線隱私認證在線隱私認證(online privacy program),[20]由行業聯盟根據法律要求制定整個行業適用的隱私保護自律規范,并要求行業成員遵守和執行,同時也可以通過網絡隱私認證機制,為符合隱私保護規范要求的網絡服務提供者提供隱私認證標志,以便用戶選擇更能保障信息隱私安全的網絡服務。再者,就個人信息保護的用戶自治而言,在為用戶提供相應的隱私風險監測、評估、解決及溯源問責路徑的同時,也要注重個人信息素養的不斷提升,增強個人信息與隱私保護的自我管理意識與自主性。總之,智能算法推薦時代的個人信息與隱私保護,有賴于從基礎法律規制、行業自律和個人自治層面協同推進,構建有機融合的多元并行框架,從而為信息商業價值應用與個人信息及隱私權益保護的合理權衡提供可行路徑,以期促進透明化生存時代個人信息自主性構建。
信息要素作為一種社會資源已經成為當前數字化社會運行的必要基礎,信息流動不斷革新傳統的個人信息與隱私內涵,算法機制的深度內嵌使得透明化生存中如何構建個人信息自主性成為新的時代命題。伴隨著信息技術發展潮流,數據和算法愈發成為行業創新發展的核心驅動力量,數字化社會的矛盾與沖突也日益圍繞信息資源及其價值挖掘展開。個人信息與隱私的商業化利用中所顯現的個人自主性危機,集中反映了算法技術的工具理性所帶來的人文價值的沖擊。由于個人信息與隱私保護關乎個體人格權益、經濟效益以及社會的長足發展,其不僅涉及技術、經濟、法律等多元社會議題,且相應保護機制的建立也面臨多方社會主體利益的調和與博弈。如今我國的個人信息與隱私保護制度體系的構建進入關鍵時期,在結合國際經驗,基于法制框架和行業自律路徑,探討信息商業價值挖掘與個人信息權益保護之間的有效平衡之外,未來更需要納入多元主體視角展開研究,為技術變革背景下的個人自主性構建提供理論與實踐指引。