全 燕
臉在人類互動中扮演著核心角色,對人臉的識別問題在社會技術變革中也處于中心地位。2015年,美國谷歌公司為人臉識別開發了一款名為FaceNet的算法軟件,它通過提取人臉的128個特征點,包括眼距、鼻子長度、下巴底部、眉毛內部輪廓等來確定獨特個體的身份。2016年,HyperFace算法的人臉生物識別訓練已經達到了97.9%的準確率。到了2019年,基于深度神經網絡的人臉識別算法據稱已達到了99.9%的精度。隨著平臺企業、科技公司陸續加入研發和使用人臉識別的主流行列,算法的生物識別技術從安全領域向商業和社交媒體應用快速拓展。從看似無害的美圖自拍,到倫理上可疑的種族或個性特征分析,人臉識別正在迅速融入到日常生活實踐中。而當原本為罪犯設計的技術被廣泛部署于普通人的世界,當被監視成為個體生存的永恒狀態,我們也看到了一幅技術應用的反烏托邦圖景:谷歌的照片應用程序會將非裔美國人分類為大猩猩;在預測性警務中,人臉識別算法對深色皮膚的受試者有更高的誤分類率……這些匪夷所思的結果不僅僅是機器偏見的表現,也是一種微觀政治現象。
出于對算法生物識別技術被濫用的擔憂,公眾限制和抵制的呼聲日益高漲。在美國,舊金山市對人臉識別技術發出了禁令,隨后多個城市考慮禁止或暫停這項技術;在歐盟,被稱為人類歷史上第一部數據憲法的《一般數據保護條例》(GDPR)對人臉識別技術進行了嚴格限制;在中國,包括規范人臉識別應用在內的全新的《個人信息保護法》也于2021年11月1日起正式實施。而迫于公眾壓力,平臺企業和科技巨頭們也開始紛紛整改:亞馬遜宣布對美國警方使用其人臉識別軟件實施一年的暫停期;IBM宣布將退出一般性的人臉識別領域;Facebook將停止在用戶的照片和標簽建議中默認使用面部識別功能;微軟悄然關閉了號稱全球最大的公開人臉數據庫MS Celeb……各國的立法努力和商業公司的退守反映出人們普遍焦慮于作為個性和身份標志的人臉在算法規訓下的失控狀態。可見,人臉的生物識別并不是單純為身份管理而部署的中立技術,圍繞人臉識別算法的爭議也不應被簡單地理解為是對隱私泄露問題的質疑。我們提出,人臉識別技術的廣泛應用,在微觀政治層面引發了一種社會心理現象——“算法焦慮”(algorithmic anxiety)。為詮釋這一問題,我們嘗試從吉爾·德勒茲(Gilles Louis Rene Deleuze)和費利克斯·加塔利(Felix Guattari)提出的“臉性”(faciality)概念出發,深度解析人臉識別算法的政治邏輯,探討在算法權力背景下,社會征服和機器役使的新發生機制,在此基礎上沿索倫·克爾凱郭爾(Soren Aabye Kierkegaard)的思想,尋找人臉識別政治中算法焦慮的根源,并從建設數字社會倫理契約的角度探索算法焦慮的緩釋路徑。
早在2006年,歐盟邊檢局的一份題為《邊境安全生物識別技術》的報告中,就詳細闡釋了所謂人臉識別的自然路徑。報告提到,人臉是最自然的生物識別模式,這是人類在其社會環境中識別彼此的最有效途徑,而生物特征的人臉識別技術是對上述自然模式的一種擴展。它通過計算機分析受試者的面部結構,利用這些信息程序創建一個獨特的模板,其包含所有的數字數據,然后,這個模板可以與非常龐大的面部圖像數據庫進行比較,以識別受試者。①然而,人臉識別經歷從肉眼辨別到數字化的生物特征識別,這個轉變并不是像這份報告中所稱的,是一條自然路徑的擴展。當實際個體與儲存在人類大腦記憶中的圖像的比較過程,演變為一個生物特征模板與一個大型數據庫中的許多其他模板的比較過程,實際上意味著人臉識別已經從社會和個人互動的實踐,轉變為官僚化的、制度控制的實踐。由此也帶來了問題的進一步復雜化:當人臉的生物識別過程被描述為是自然識別的延伸,是模仿正常的大腦活動的時候,就可能導致人們一時間很難意識到將人臉轉化為機器可讀所帶來的巨大風險。
與數字化指紋和虹膜掃描等其他生物特征識別方式不同,人臉識別算法系統價格低廉、不惹人注目,而且可以在不得到被監視者主動同意的情況下在后臺操作,通過算法函數化的人臉識別遂成為監視和安全系統建設的強有力工具。但人臉識別算法不應該被簡單地理解為是一種技術,而應被視為一種強大的社會政治杠桿,它重新配置人的身份,人臉被重新概念化、政治化,人臉識別算法在新社會控制體系中也扮演著重要角色。因此,對人臉識別算法的政治分析需要一個新的概念框架。帶著這個目標,本文將通過德勒茲和加塔利關于“臉性”的概念棱鏡來折射人臉識別算法的政治意識,并提出“臉性政治”(politics of the face)的分析框架。
如果說人臉識別是人臉表征實踐的漫長歷史的一部分,那么人臉就不應該被認為是普遍的或自然賦予的,而應該被看作是特定社會組織的產物。這就是德勒茲和加塔利提出“臉性”概念的目的,即在個體與他者的倫理關系和其主體性的構成中質疑臉的普遍性。對于德勒茲和加塔利來說,臉和頭在本質上是不同的,頭屬于動物的身體范疇,而臉屬于人類的個性領域,是由特定的社會實踐產生的,是產生的特定的符號制度。②因此,德勒茲和加塔利在反對唯心主義人類學的同時,主張將人臉相對化和歷史化。這即是說,人臉總是政治的,它的重要性并不是來自某種必要的或先天的條件,而是來自某種權力的集合,即某種政治。然而,這并不意味著臉產生并解釋了社會權力,而是說某些權力的集合需要臉的產生。德勒茲和加塔利曾舉例說,原始社會并不需要臉作為權力機構,但基督教引入了臉的概念,基督的臉既表現為他的個體性(它的現世存有),也是他的普遍性(它的神圣存在)的標志。進而可以判斷,在現代世俗社會中,個人的臉孔既是其獨特個性的標志,也成為其普遍人性的標志。③因此,從基督教誕生到現代西方社會形成這一世俗化的過程中,每個人都像基督一樣,為了“成為”一個個體而必須“獲取”一張臉。例如文藝復興時期的肖像畫與近代的攝影術,都是在不斷拓寬臉的社會生產進程。這是臉性政治的發端,同時也與米歇爾·福柯(Michel Foucault)在《規訓與懲罰》中所指出的政治邏輯相吻合。
福柯借用“全景敞視監獄”概念來揭示19世紀規訓制度的權力運作機制。作為一種普遍的、典型的空間權力實踐模式,它代表的是“一種被還原到理想形態的權力機制的示意圖”④。進一步審視這一微觀政治學原理,可以發現全景監獄實際上“是一種分解成觀看/被觀看二元統一體的機制”⑤。在這個特殊的空間裝置中,權力話語被分配了最佳的“觀看”位置,監視成為一種隱蔽的空間管制策略和主體規訓路徑,“每個人在這種目光的壓力之下,都會逐漸自覺地變成自己的監視者,這樣就可以實現自我監禁。這個辦法真是妙極了:權力可以如水銀瀉地般地得到具體而微的實施,而又只需花費最小的代價”⑥。福柯進一步指出,空間規訓的最終結果就是將現代社會變成一個龐大的監視網絡,其目的就是“把整個社會機體變成一個感知領域”⑦。繼福柯之后,德勒茲和加塔利用社會征服(social subjection)和機器役使(machinic enslavement)的概念進一步闡釋了權力規訓機制。他們認為,在當代資本主義權力關系的再生產中,“(社會)征服和(機器)役使形成了并存的兩極”⑧,從社會征服的角度來看,個體與機器的關系就是主體與客體的關系。在征服狀態下,個體作為主體,通過客體機器對另一個個體實施控制行為,客體機器是主體行為所使用的手段或中介。而從機器役使的角度來看,個人并不是站在機器的對面,而是與機器相連,在役使的關系中,人類和機器成為圍繞著資本、信息的輸入和輸出而組織的生產過程中可互換的部分。換句話說,在社會征服中,主體作為一種更高的統一體而存在;而在機器役使中,沒有主體,只有身體。例如,社會征服創造了男人、女人、老板、工人等角色,它產生具有身份的個體主體,而機器役使則創造了去主體化的過程。它將主體分割開來,使其碎片化、流動化,變成了整個社會機器的組成部分。德勒茲和加塔利認為規訓(社會征服)與控制(機器役使)二者可以同時并存。
福柯、德勒茲等人的理論可以用來解釋人臉識別算法作為一種臉性政治實踐的意義,并從中看出一種整合權力是如何發揮作用的。人臉識別算法表面上將一定的社會秩序自然化為必要的與客觀的,而實質上,作為一種規訓機制,人臉識別算法正是資本主義權力關系的再生產所必需的。我們看到,算法將統計分析與特定的人臉聯系起來的過程,更像是個體化(personalization)過程,而不是個性化(individualization)過程,因為從機器役使的角度來看,人臉識別算法并不是個性化的工具,它不涉及意識和表征,也沒有一個主體作為參照,它只是生產、計算、分析元數據的計算控制機制。就像無處不在的攝像頭,它不識別人類角色,不識別人類本身,也不需要人類旁觀者,但卻能夠將給定的對象定義為潛在的消費者、罪犯或恐怖分子,等等,從而實踐著全景式的社會控制。這種矛盾同一性也使我們能夠理解到,人臉識別算法的技術規訓和社會控制實際上是兩種互補的、相互加強的權力共存。
我們當下所處的這個元數據社會(metadata society),實則為一個控制社會的強化版本,不斷尋求有效的數字化治理路徑是其總體特征。元數據是關于數據的組織、數據域及其關系的信息,用以識別資源、評價資源、追蹤資源在使用過程中的變化,以實現簡單高效地管理大量網絡化數據。因此,元數據成為衡量社會關系價值的尺度,以及預測大眾行為和實施社會控制的新工具。在這當中的人臉識別算法應被理解為一個元數據設備。在控制社會的背景下,人臉識別算法利用元數據,不僅能夠規范個人行為,還能預測特定群體或人口的模式,這一過程也成為臉性政治維度下算法控制社會的權力實現過程。在人臉識別的過程中,算法會將捕捉到的人臉與數據庫中成千上萬個人臉模型進行比對,之后生成新模板,被識別的人臉遂成為一個計算結果。在這里,人臉不再是一個獨特個體的個性化標識,而是成為了能夠被分析和被預測的生物性標識。一方面,算法技術作為一種主體化的裝置,通過人臉識別來保證主體的個體化,使人臉成為一個私有化身體的標志,使其在社會分工中象征著一個特定的角色;另一方面,個體主體的組成部分(智力、情感、感覺、認知、記憶等)不再被一個“我”統一,而是變得四分五裂,成為機器計算的對象。在算法權力的操控下,人臉在兩種不同的符號體制下共存,一方面作為主體的個體化符號存在,另一方面作為龐大統計計算機器中的齒輪符號存在。至此,人臉的唯一性被機器學習徹底解除,算法擁有了再定義人臉與身份之間關系的權力。
人臉是充滿了象征意義和社會意義的復雜面具,人們依附于臉的物質性,體驗著這一身體邊界所發揮的價值功能。例如人們會花相當多的時間在臉面上,操縱它們傳達情感,也會出于“保持臉面”的需要,根據環境偽裝、修飾、遮蓋甚至改變自己的面部外觀,或者出于文化、宗教、心理或人際關系等原因拒絕袒露面部。因此,人臉是人類聯絡社會、彼此協調互動的重要媒介。然而在人臉識別算法的規訓與控制下,臉從一種有血有肉、富于表情、變幻莫測的媒介,變成了一種受控的靜態對象,并作為一組機器可讀的二進制數,用于目標定位、測量和識別。無論是作為一種可識別的安全檢查,還是一種政治規范的強加,對人臉的生物識別都在表明一種超個體的政治敘事和規范被編織在了算法技術對面孔的捕捉中。
在掃描人群中的面孔時,算法識別軟件會立即分離所遇到的人臉信息,并將這些信息轉換成一個無實體的一維模擬,然后進入一個隱藏的、編碼的對話中,并與數據庫中的虛擬人臉進行匹配。如果匹配成功,無形的臉就會被即時識別,并被固定在一個制度化的身份上,隨時接受實時跟蹤。在大量無安檢必要性的公共場域內,人們通常是沒有經過知情同意就被捕獲面孔的,身體主權實際是被隱匿在算法機器背后的權力組織或代理、或侵蝕。用于算法分析的人臉數據庫還可能來源于人們在社交媒體上的活動,例如Facebook曾在用戶上傳的照片中創建數字化人臉的生物特征數據庫,并將這些信息與用戶活動的數據進行聚合,導致人臉不再受數據主體(上傳照片的人)的控制,而是有可能成為未知人員和機構進行二次曝露的對象,被曝露的用戶對生物數據庫的使用路徑卻無從追查。另外,人臉識別技術在招聘、交友、婚戀、教育等領域也被廣泛應用。限于技術水平、原始數據的精準度、算法隱含的價值判斷,以及數據庫樣本量的有效性等諸多因素,這類應用很可能擴大某種偏見,引發歧視。總體而言,出于對復雜多義的人臉史無前例的大規模暴露的擔憂,攝像頭下的人們產生了本文稱之為“算法焦慮”的生存感受。
本文提出的算法焦慮,不是指醫學意義上的神經癥狀,而是一種哲學意義上的關乎自我的主體性焦慮。早在19世紀中葉,存在主義哲學創始人索倫·克爾凱郭爾(Soren Aabye Kierkegaard)就對焦慮揭示出什么樣的自我認知感興趣。他發現,當一個人失去了與自我有關的選擇的可能性時,就會產生焦慮。⑨沿著克爾凱郭爾對焦慮的詮釋,我們提出的算法焦慮的概念,也是一種植根于缺乏選擇可能性的生存感受。它緣起于人們缺乏選擇拒絕被暴露、被識別、被表征的可能性;缺乏選擇拒絕被技術性他者超越和壓倒的可能性;缺乏選擇拒絕被歧視和拒絕接受既定標準審查的可能性,等等。如今,越來越多的人感受到,想要選擇隱藏在人群中的可能性變得越來越小。邊境管制、警務實踐、治安治理等只是人臉識別算法正在測試和實施的眾多領域中的一部分,更多的是日常狀態下,城市景觀中星羅棋布的機器目光,無時無刻不將城市中幾乎一切關系和流動置于冷靜的、計算的凝視之下,它們的形式包括在公共空間中進行持續觀察和識別的攝像頭、傳感器、無人機等。至于泛濫在移動終端和社交媒體中的人臉識別算法技術,則早已超出了安全和警務的需要,它們的大肆擴張,既統領了前景(公共)形式,又包含了背景(私人)形式,密集地標記和管理著空間中移動的身體,并通過虛擬人臉的輪廓來跟蹤和記錄身體的存在,其本身已是臉性政治自動化控制的突出體現。
在一般人的觀念中,自我的身份認知是個人意識中自治和獨立的部分,但在人臉識別算法這樣一種索引、規范和管理人類行為和身份的社會技術的規范下,身份被簡化為無實體的數據聚合,失去了主體意義上的可識別性。受到算法生物識別引擎的控制,每一個被鎖定的個體,都成為了一串數字、一個自我輸入的數據點、一組統計集合。這讓人們感受到了自我與人臉識別系統之間的一種不確定和危險的關系。被算法識別并標記的“自我”,顯然已不是一個自主、獨立、穩定的自我,而是一種依賴、脆弱、不穩定的存在體驗。當人們感受到“自我”的規范性受到了算法的規范性挑戰時,算法焦慮就會爆發。在算法機器監視的世界里,人們深深焦慮于還能在多大程度上以想象中的“自我”身份生活。可見,算法焦慮并不是一種與技術恐懼相關的病理,而是質疑算法對一個迷失在人臉識別技術中的個體的非正常影響,因為被識別者永遠無法得知,可能決定自己命運的算法機制到底是什么。因此,算法焦慮不僅僅是面對人臉識別攝像頭時的不確定感和缺乏控制感,它還是一種存在主義的焦慮,就像克爾凱郭爾說的那樣,是一種自我意識里的焦慮,人們會感到無法擁有自我,無法擁有對其所處的環境的決定權。在算法生物識別布下的“天羅地網”里,每一個人都在被觀察、被識別、被描述,無處躲藏。人臉的泛信息化帶來的身份危機,和其超個體性帶來的隱匿危機,都隨著人臉的大規模算法化而成為顯在事實。
克爾凱郭爾曾說,最大的威脅和阿喀琉斯之踵,存在于一個宣布未知死亡、將理性推上寶座的社會。人臉識別算法應用的泛濫,迅速拉近了人們與克爾凱郭爾所批判的理性社會的距離。我們看到,隨著生物識別技術的更新迭代,在從識別你是誰,到判斷你是怎樣的人的技術進化中,算法正在試圖用計算理性終結關于人的未知領域。例如當前的人臉識別技術已經能夠從身份管理發展到進行群體分析,會針對捕捉到的人臉就性格、情緒、意圖、健康狀況、性取向、職業、愛好等更隱秘的信息展開評估和推斷,并進行標記。值得警惕的是,算法給予人臉識別模式的優先次序,與備受爭議的顱相學、面相術不謀而合,因此算法排序意味著人們很可能因為骨相、膚色、種族、性別等被列入歧視性名單中。亞馬遜的人臉識別算法Rekognition就曾誤將28名非裔和拉丁裔的美國國會議員與罪犯進行了匹配。因此,算法焦慮還體現為人們會質疑算法對一個曝露在人臉識別的可見性制度中的個體是否真的提供了公正的對待。作為技術黑箱,算法畢竟隱瞞了人們因臉而被貼上何種標簽的原因。這使人們完全有理由擔心,人臉識別算法的無所不在和不受監管的分析和分類,在將我們帶入種族主義、階級主義和性別歧視的深淵,并引導我們走向完全量化的人性毀滅之路。
算法是真實的、普遍的、強大的政治行動者,它主導的臉性政治無論是歸咎于不對稱的權力關系還是技術理性,其創造的不可見、不透明的晦暗空間始終令人憂心忡忡。它隱蔽的數據捕獲行為和缺乏透明度的狀況,無疑侵犯了人們主宰自己身份的權力,因為只要被看見就會被捕捉,被捕捉就會被分析,被分析就會被歸納為信息,這些信息被政府和商業公司獲取,用作維持權力和增大利潤的主要工具。密歇根大學文化和數字研究者約翰·切尼-利波德(John Cheney-Lippold)就在《我們是數據:算法和數字自我的形成》一書中寫道:在算法解釋面前,我是誰,你是誰,他是誰,是由廣告商、營銷人員和政府決定的——他們秘密的、專有的算法腳本,將身份重新塑造為資本或國家權力的獨家、私人用語。而這種批判的知識景觀也表達了人文主義者的普遍擔憂:算法的生物權力是否會促使人們變成隨和、溫順的工具,進而被一個并不關心自己是誰的機器體物化。
我們體驗到了全球聯網的技術有機體的崛起,與此同時,我們也可能在算法中迷失,陷入持續焦慮的泥沼。對于受到算法焦慮困擾的人們來說,人臉識別技術也許會成為一個通往無處不監視的奧威爾式的“魚缸社會”(fishbowl societies)的入口,它或將把一個公民社會轉變成一個以身份和透明度為定義要素的算法社會。因此,隨著非安全目的的人臉識別算法系統大規模普及,無論是對臉性政治的指陳,還是對其引發的算法焦慮的描述,我們的研究都需要回歸現實層面,落腳于當前和未來人臉識別算法在部署與使用上的規范性問題。
算法焦慮是臉性政治宰制下的后果,因此防止算法權力的濫用理應成為緩解算法焦慮的出路。在此前提下,人臉識別算法技術及隱藏其后的部門組織作為權力主體,其行為就必須具有政治正當性和合理性,并成為政治倫理建設與規范的對象。目前世界范圍內的生物技術識別已經作為人工智能應用的組成部分正在接受法律監管,然而某些生物識別技術所導致的問題并不適用于法律話語,也不足以成為立法基礎,或者說很難被法律強制執行。此外,導致人們產生焦慮情緒的人臉識別系統的應用狀況是否足夠具有破壞性,從而必須成為法律監管的內容,還存在很大的爭議。例如,未經過消費者知情同意,在商業場所安裝人臉識別攝像頭捕獲客戶信息的行為顯然是不道德的,但考慮到人臉識別攝像頭在公共安全警務方面的便利性,是否應該對其進行全面禁止成為一個棘手的問題。
在這些情況下,我們除了依靠法律變革之外,還需要一個重要的治理面向,就是在倫理規范的基礎上對相關問題提出道德性指導,積極建設數字社會的倫理契約。而對人臉識別技術的道德要求與技術倫理的適當性有關,也就是說,需要解決人臉識別技術的權力支配在倫理上是否適當的問題。在臉性政治控制中,在人們已經產生主體性焦慮的當下,建立針對算法應用的、能夠顧及各利益相關方的技術倫理規范顯得尤為迫切。因此,我們將經典倫理學建構的一套基本行為準則,作為匡正算法技術及其背后的權力機構行為的依據,嘗試建設臉性政治的倫理維度。我們將在對人臉識別算法進行倫理評估的基礎上設計初步的倫理規范的框架,以此作為緩解算法焦慮的路徑,以及重建人機關系的舉措。
人臉識別算法技術的倫理評估工作應包括審計算法在特定環境下所使用的人臉數據的正當性,以及評估使用這些數據判斷和預測受試者的行為是否會對受試者的某些利益或權利產生負面影響等。這不僅需要關注算法偏見,還要關注算法濫用,而這些都取決于了解和掌握人臉識別算法開發和使用的背景狀況。因此,首先需要對商業和社交媒體的算法技術持有者展開關鍵性問詢,例如,開發某項人臉識別算法的目的是什么?是誰在部署這項技術的應用?技術使用是否應該獲得被識別者的知情同意?是否存在因不道德的人臉數據的捕獲行為,導致嚴重不公平的情況?人臉識別算法是否存在理性歧視?算法技術持有者在提供訓練的人臉數據時,是否考慮過數據污染?哪些明確的政治危害是由特定人臉識別算法決策所增強的?這些問題的答案能夠清晰勾勒出人臉識別技術倫理契約的關鍵內涵。
接下來,我們需要轉向對算法技術本身的評估。算法促進了一種獨特的本體論,即數字和量化意味著更容易達到客觀、理性、公平的目標,因此更合乎道德的目的,因為“身體不會說謊”。然而我們從臉性政治的角度來看,人臉識別算法并不僅僅是指組成輸入輸出函數的數學運算,還包括圍繞這個函數的更大的權力生成系統。因此,要切入算法細部觀察其在權力生成過程中的行為是否適當,就需要尋找算法中的那些關于倫理道德的顯著可測量特征。由于人臉識別算法是通過加權矩陣的系統來量化面部,而系統僅忠實于用于訓練和測試它的數據,在有偏差的數據源中,算法會將那些被充分表示為目標指示器的對象呈現為可見的,將那些沒有被充分表示為目標指示器的對象呈現為不可見的。那么我們首先可以運用社會偏見指標對該算法的可見性(visibility)進行測試,看看某個特定社會群體(種族、性別、文化、經濟地位等)是否會被系統性地提高或降低分數。另外,從該算法是否給予一個或多個優勢群體以系統性優勢,而給予一個或多個弱勢群體以系統性劣勢,以及是否給予后者以額外的編碼補償機制中,也能夠判斷這套算法是否具有選擇性偏好。最后,可解釋性(interpretability)也是算法透明度的重要指征。例如在對社交媒體的人臉識別算法的倫理測評中,就需要評估用戶對算法的數據收集和后續使用的了解程度,包括用戶是否知情被收集關于他們的那些生物數據,是否知情這些數據在商業機構里存儲了多長時間,是否知情機構對無償征用的生物數據進行什么樣的處理或推斷,以及出于什么目的,等等。
通常,倫理話語會將積極的道德規范與當前已被認可的實踐性總結結合在一起,為人們提供較高層次的原則以及較低級別的建議。作為人工智能倫理框架的一個總體示范性描述,牛津大學信息哲學與倫理學教授、數字倫理實驗室主任盧西亞諾·弗洛里迪(Luciano Floridi)將道德的積極規范與政治的實踐原則相結合,總結出了一套人工智能技術政治倫理規范:第一,在不貶低人類能力的情況下,使人類實現自我;第二,增強人的能動性,但不免除人的責任;第三,培養社會凝聚力,同時又不侵蝕人類的自我決定能力。根據這一描述,我們嘗試為以人臉識別算法為代表的生物識別技術倫理提供一套更詳細的建議。
首先是尊重人類的自主權,人們在接受生物識別算法的選擇時,必須能夠保持充分有效的自我決定權,此項技術不應該無理地強迫、欺騙、操縱受試者,而應該被設計為增強、補充和賦予人類認知社會和文化技能的伙伴。其次是防止傷害,應確保保護人的尊嚴以及精神和身體的完整,根據這一原則,生物識別系統及其運行環境必須是安全可靠的,它們不應造成或加劇對人類的心理傷害、實體傷害或其他不利影響。再次是生物識別的算法系統在應用過程中,在實質性上和程序上應兼有公平。實質公平意味著承諾確保多方利益平等和公正分配,確保個人和群體不會受到不公平的偏見、歧視和污名化;程序公平意味著我們應該有能力對生物識別系統和操作它們的人所做的決定提出異議,并尋求有效的補救。最后是可解釋性,生物識別計算過程必須公開透明,它的能力和目的也必須公開透明,決策必須能夠直接或間接地向受影響的人群解釋。而這些要求的實現應該貫穿于生物識別系統的整個運作周期。
與此同時,管理與商業倫理也是重要的調試路徑,為了評估在線社交網絡提供的對人臉信息的保護程度,科技公司應該在如何使用個人數據方面做得更加透明和公開,從根本上改變人們的被動接受方式,為用戶增強透明度,落實問責制。對于接受生物識別的個人而言,也需要在個人資料掌握方面變得更加知情和主動,建設數字倫理的重心需要從只關注個人信息安全和隱私問題,轉向更廣闊的將其作為社會責任的一部分。當然,主動的在線信息控制還需要人們擁有跨環境傳播的數字素養,積極了解生物識別的軌跡,重視在社交媒體和整個社會中使用人臉識別系統的安全規范性問題。
雖然我們會對公共場域的攝像頭心生恐懼,會產生主體性焦慮,不過這種焦慮感也很可能會被手機刷臉支付帶來的便利感、社交媒體刷臉交友帶來的樂趣所抵消。而人臉數據的泄露和對信息安全規范的違反,都源自人臉識別技術在日常實踐中的無節制擴散。在臉性政治的權力控制下,如果不能就我們能保護什么以及如何保護達成共識,那么算法生物識別技術的濫用就將很快成為對民主社會的真實威脅。
希望逃離鏡頭的凝視反映了人類特有的隱私需求,如果失去了互動和探索的安全區域,陷入時時處處遭到監視的境遇,對一個民主社會的影響將是悲劇性的。關于如何保護這個安全區域,我們也經常會聽到需要不斷通過新的立法加以維護的言論,但我們并不總是需要,也并不總是能夠通過立法來確保我們的社會仍然是一個公正的社會。我們還可以從建設數字社會的倫理契約出發,認真研究我們已經擁有的倫理規范,并考慮在匡正技術問題中如何優化使用它們。在人臉識別算法的政治維度中,如何重新全面審視我們身處的新的臉孔世界,如何識別我們身處的風險,以及如何尋求透明、公正與倫理保護等,也是本文在寫作中嘗試回答并期待回應的問題。
注釋:
① Vakalis I.,Hosgood B.,Chawdhry P.BiometricsforBorderSecurity.EUR 22359 EN.Warsaw:Frontex,Joint Research Unit.2006.
②③⑧ [法]吉爾·德勒茲、菲利克斯·加塔利:《資本主義與精神分裂:千高原》,姜宇輝譯,上海書店出版社2010年版,第237、248-249、662頁。
④⑤⑦ [法]米歇爾·福柯:《規訓與懲罰》,劉北成、楊遠嬰譯,生活·讀書·新知三聯書店2003年版,第230、226、240頁。
⑥ 包亞明主編:《權力的眼睛——福柯訪談錄》,嚴鋒譯,上海人民出版社1997年版,第158頁。
⑨ Kierkegaard S.TheSicknessuntoDeath:AChristianPsychologicalExpositionforUpbuildingandAwakening.trans.Hong H.V. and Hong E.H.(eds),Princeton,NJ:Princeton University Press.1983.p.36.