□何躍
2018年3月17日,美國《紐約時報》和英國《觀察者報》等多家著名國際媒體曝光Facebook第三方公司劍橋分析竊取5000萬Facebook用戶信息,引起國際社會廣泛關注。劍橋分析原員工克里斯托弗·威利(Christopher Wylie)在爆料中說,該公司自2014年起非法獲取了5000萬Facebook用戶的數據,用于影響公眾政治選擇,比如美國大選、英國脫歐,這將劍橋分析和Facebook推上了輿論的風口浪尖。
原來一切數據的竊取只是源于2014年劍橋大學研究員考根(Aleksander Kogan)通過一款在Facebook上線的小程序的測試獲取的用戶數據,包括居住地和點贊內容等多方面信息,并順藤摸瓜地得到了27萬用戶的好友信息,之后繼續讓27萬用戶數據資料擴充到5000萬。他還在私下里又把這些數據賣給了另一家英國咨詢機構——劍橋分析。2015年,Facebook發現這一私下交易后,要求雙方立馬刪除用戶信息。但劍橋分析負責人只是口頭答應,實際上卻對用戶資料進行大數據分析,依據點贊、瀏覽記錄等行為對用戶的喜好、性格進行分析歸類,特朗普每一篇Twitter的發出也由該機構提供數據支持。
中國社會科學院網絡新媒體研究室主任孟威認為,大數據實際上是認識論的一種提升。依據大數據,能夠重新定位我們看待和認識世界的一種視角。簡單來說,大數據即我們使用互聯網的各種路徑和形態留下的海量信息和信息痕跡。從這一說法來看,大數據分析是極易對個人隱私造成侵犯的。而在美國法律中,隱私是一個人的權利,尤其是一個人獨處不被打擾的權利。
從傳統意義上說,隱私權的法律模式可區分為兩個場合:一種是私人場合,個人期望得到隱私權;另一種是公共場合,個人不太要求隱私權。1988年的加利福尼亞州訴格林伍德案中,最高法院判決個人對其放在住宅路邊的垃圾沒有隱私權利。
隱私經濟學中,隱私被定義成一種中間產品。一般認為消費者們要求隱私權的原因源于自己的數據被拿去做了什么,而不是厭惡數據被收集這件事本身。而經過實證分析,當人們知道自己在搜索引擎中查詢的內容被美國國安局收集起來時,就會不自覺地大幅度轉變自己的行為,盡管他們知道國安局沒有利用這些信息達到鑒別恐怖分子的目的。促使行為轉變的原因是個人隱私被他人觀看,感到不好意思而影響其后續的網絡行為。人們的這種憂慮說明,數據被收集起來這一事實和數據究竟是如何被使用的一樣重要。從法律上說,美國憲法第四修正案明確規定人們的文件和財產不受“無理搜查”和“無理扣押”,也就是說,任何機構在抓取數據這一步驟上都不能免責。
大數據時代,個人的隱私基本上處于裸奔狀態,甚至沒有隱私可言。在互聯網上瀏覽任何信息都會留下足跡,這些數據在技術機構那里就轉化成個人獨特的標簽畫像,個體即轉變為特征性信息的集合體,成為商業機構的靶向目標。精準分析下的推送一推一個準,每個都正中靶心。政治偏向、興趣愛好甚至是購物需求等信息都會第一時間出現在人們接觸的電子媒體上。然而我們現在要反思的是:我們是否真的需要這種精準的推送,這種精準帶來便捷的同時是否也削弱了人作為主體在思考上的主動性?這背后所涉及的點點滴滴的信息痕跡就是原本作為個人空間產物的隱私,而在公開或對部分人(如技術機構)公開的狀況下,隱私是否還擁有原本在個人空間中的私有權?
首先,在Facebook數據泄露這一事件中,暫且不論數據泄露是否影響了美國大選的最終結果,至少Facebook、劍橋分析兩方所使用的手段均有違媒介倫理。即使特朗普團隊依據用戶反饋進行宣傳調整的做法是合情合理的,但在投放廣告以獲得反饋的目的性上就已經存在道德倫理問題。
其次,扎克伯格在每次的發言和表態中均表示,Facebook不是一家媒體,本質上仍然是一家技術公司,所以不能用新聞倫理來約束Facebook在部分業務上出現的問題。在信息倫理學者德·喬治看來:“道德責任要求三個條件:所議論事件的因果聯系、對所做事情的認識以及做這件事情應得到的允諾。如果其中任意條件無法滿足的話,那么道德責任便會減輕或減少。減輕責任的條件便是我們熟悉的所謂的借口,它們可以或大或小地將一個人從責任中開脫出來?!雹僭瞬駷樽约洪_脫的理由符合其中第二點。隨著科技的發展,人工智能等技術進入新聞傳播領域,與媒體爭奪依舊遵循原始運行規律的傳媒市場,并似乎在一定程度上改變了媒體業的行業運行規律。而以技術自居的智能媒體行業總是把技術作為自己的旗號,有意無意地忽視技術運用在信息傳播領域帶來的媒體信息環境的變化、傳播雙方角色地位的變化,以及隨之而來不可避免的媒介責任倫理問題。這被學者德·喬治稱為“計算機和信息技術的非道德神話”:“技術以一種遠遠快于我們所估計的速度發展……企業忙于開發一切技術上可能被開發的事物,而在此之前社會沒能顧及對于這種開發可能造成的全面影響,其結果便是我稱之為‘計算機和信息技術的非道德神話’的出現。”②技術的發展自工業時代開始就以一種人類難以預見的速度向前縱深,每一次社會進程的變遷都會帶來人際相處模式即傳播模式的巨大轉變,這與舊倫理標準產生的沖突一時難以為人接受,進入信息時代時如此,對如今正在進入的智能時代同樣如此。相比于技術發展的速度,倫理標準的迭代與變遷速度幾乎不值一提,技術工具不過是人類達到目的時所采用的一種方式,無論這種方式如何改變,對于人類本身來說,人是第一位的,人的尊嚴與權利得到尊重就也是第一位的。倫理標準作為一種看不見摸不著的意識,在技術變遷的過程中會做出微調,但這種微調仍是以人的利益為標準做出的,其速度遠遠趕不上技術變遷,二者的沖突是歷史進程中不可避免的陣痛。
扎克伯格在發言中說:“世界需要新聞公司,也需要技術平臺,后者正是我們所做的。我們對此非常謹慎?!庇纱丝磥?,扎克伯格對新聞與技術分得很清楚,卻沒有承認或者還未意識到技術入侵新聞文化領域這一問題的嚴重性。
技術可以讀取個人隱私,人類同樣能控制其清除個人隱私。在2018年5月1日的Facebook年度開發大會上,扎克伯格表示Facebook開發了清除用戶瀏覽數據的新功能。用戶使用這一功能,可以直接刪除自己在Facebook上點擊和瀏覽的網頁的歷史,包括登陸Facebook賬號的應用數據。因此Facebook無法存儲與用戶賬號相關的信息。這一功能的上線可以使用戶將個人信息的控制權掌握在自己手里。但在很多網絡軟件中,此類功能并沒有廣泛應用。
即使國內還沒有出現或者沒有報道出類似Facebook泄露信息案如此重大的個人隱私信息泄露的事件,但類似今日頭條的個性化信息推送已頗為平常。我們應該注意到這些數據已經掌握在商業機構手中,他們已經成為掌握我們個人隱私的權力機構,而這可能成為一顆不定時炸彈,隨時可能產生不可挽回的傷害。
也許網絡時代來得太快,沒有任何一方做好了足夠的準備,對于傳統媒體如此,對于任何涉及傳播技術的領域都是如此。那些曾經在純技術領域運行的企業,如今不可避免地進入其他信息領域成為媒介平臺,可能會因一時難以適應而面臨價值“休克”。所以即使利用網上海量的數據信息可以清晰地梳理出各種規律,也應該考慮當這種數據收集涉及侵犯個人隱私時,技術應用的邊界在哪里。當下,我們經常談到媒體融合,這是技術發展與媒體行業在進行跨行業整合時的一種不錯的處理辦法。倫理界也可以進行類似的倫理融合。如果放任技術發展的速度遠超倫理道德的發展速度,就會頻頻出現類似的嚴重社會危害。雙方業界有必要基于技術職業與倫理要求,在各個方面尋求最大公約數。
產品使用者也應該努力提高自我信息保護的意識,仔細閱讀相關權限說明書,不能在知識泛濫的時代做被動的信息“盲人”,要始終記得不會有完全免費的產品,使用成本越低,作為消費者的個人權利就會被侵犯得越多。不要無知地讓自己的身份從主動的用戶變成任人宰割的商品,同時要適時地刪除自己的“網絡痕跡”,提高自身“被遺忘權”的行使率。
注釋:
①②[美]理查德·T.德·喬治.信息技術與企業倫理[M].李布 譯.北京:北京大學出版社,2005:7.