摘 要:
人形機器人與人工智能融合開啟的“具身智能”機器人形態(tài)具備逼真的類人外形設計、高度智能的環(huán)境感知和決策能力、語言學習和社會互動能力。人形機器人的智能化特征使其對個人隱私的影響更具隱蔽性和滲透性,人形機器人在醫(yī)療、金融服務、緊急救援、教育、航天及軍事等場景的應用相較于零售服務和娛樂場景對個人隱私的影響更具風險性。為應對人形機器人對不同類型隱私的影響,應在隱私類型化理論的基礎上考慮制定人形機器人應用場景和風險分類制定方案,包括:明確知情同意標準,以消解人形機器人對身體、空間、通信、專有等消極自由隱私的負面影響;延伸隱私權類型,以緩解人形機器人對知識、決策、結社、行為等積極自由隱私的負面影響;采用適度監(jiān)管,以應對人形機器人與歐盟《人工智能法案》分級分類中操控型人工智能結合所產(chǎn)生的負面影響;設置隱私高風險場景治理規(guī)則,以應對人形機器人與高風險人工智能結合所產(chǎn)生的負面影響。
關鍵詞:
人形機器人; 應用場景; 隱私類型化; 操控型人工智能; 隱私高風險場景治理
D913 A 0116 13
2023年10月20日,工業(yè)和信息化部印發(fā)《人形機器人創(chuàng)新發(fā)展指導意見》,按照謀劃三年、展望五年的時間安排做出戰(zhàn)略部署。到2035年,人形機器人創(chuàng)新體系將初步建立,“大腦、小腦、肢體”等一批關鍵技術取得突破,確保核心部組件安全有效供給。到2037年,人形機器人技術創(chuàng)新能力顯著提升,形成安全可靠的產(chǎn)業(yè)鏈供應鏈體系,構建具有國際競爭力的產(chǎn)業(yè)生態(tài),綜合實力達到世界先進水平。①人形機器人的飛速發(fā)展雖然能為人工智能產(chǎn)業(yè)在民生服務等更廣領域的布局添磚加瓦,但也會對個人隱私則會產(chǎn)生更具隱蔽性和滲透性的影響和危害。本文基于人形機器人的應用場景和風險分類,借鑒歐美隱私類型化理論,參考歐盟人工智能法案有關規(guī)制人工智能實踐的規(guī)定,探討人形機器人對我國不同類型隱私的影響并提出法律應對。
一、 人形機器人的發(fā)展及特征
(一) 人工智能為人形機器人發(fā)展帶來契機
“機器人”(robot)一詞最早出現(xiàn)在捷克劇作家卡雷爾·恰佩克1920年創(chuàng)作的舞臺劇《羅薩姆的萬能機器人》中。②二十年后,美國科幻作家艾薩克·阿西莫夫將“機器人”一詞從恰佩克創(chuàng)作的負面含義中解放出來,設想了一個滿是機器人的烏托邦。③雖然“機器人”一詞源于科幻作品,但是英國計算機科學家阿蘭·圖靈為搭建現(xiàn)實中的“智能機器”貢獻了理論基礎。①20世紀50年代末,人工智能(artificial intelligence)這一研究領域出現(xiàn)研究熱潮。受阿西莫夫啟發(fā)的一代人,意圖制造他作品中虛構出的機器人。②美國計算機科學家約翰·麥卡錫及其同事于1956年達特茅斯會議上將“人工智能”描述為讓機器能夠做與人類同樣的行為。③隨著人工智能在1997年擊敗國際象棋世界冠軍加里·卡斯帕羅夫,2016年戰(zhàn)勝圍棋世界冠軍李世石,人工智能在21世紀初迎來快速發(fā)展的浪潮。人工智能在寫作、繪畫、譜曲和電影編劇等領域的“創(chuàng)作”不斷縮小機器與人類智力之間的差距。④然而,近年發(fā)展的人形機器人都是根據(jù)程序反饋預設的答案,只是在弱人工智能意義上實現(xiàn)了智能交互,無法與使用者進行多場景、多任務的深度互動,尚不具有通用性特征。⑤
2022年11月30日,OpenAI公司發(fā)布名為ChatGPT(chat generative pre-training transformer,對話式生成型預訓練轉換模型)的人工智能,將人工智能技術推向生成式或通用型人工智能階段。生成式人工智能所依賴的神經(jīng)卷積模型相較于傳統(tǒng)算法模型更加復雜,對各種數(shù)據(jù)要素的分析更加深入,表現(xiàn)出強大的對話理解、復雜邏輯推理、多風格長文本生成以及程序代碼自動生成等能力,初步實現(xiàn)通用認知智能。⑥生成式人工智能通過對大量數(shù)據(jù)的收集和預處理、模型訓練、理解用戶給定提示的上下文信息、生成新文本作為回應、對生成文本進行評估和調優(yōu)五個關鍵階段,可根據(jù)用戶給定提示生成長文本、圖片或音視頻內(nèi)容,即使每次給定的提示一致,生成式人工智能也能實現(xiàn)對提示語的動態(tài)理解,調優(yōu)后產(chǎn)生不一樣的結果。⑦生成式人工智能不受限于系統(tǒng)所事先設定的規(guī)則和知識庫,自主生成內(nèi)容實現(xiàn)了技術上的重大突破。訓練生成式人工智能大模型的數(shù)據(jù)量已經(jīng)超過人類嬰兒學習語言所需的數(shù)據(jù)量⑧,生成式人工智能有可能成為人形機器人的“大腦”,開啟人形機器人的“具身智能”時代。“具身智能”人形機器人能直接聽懂人類的自然語言指令并完成復雜任務,無須額外的數(shù)據(jù)和訓練。⑨隨著生成式人工智能的迅速發(fā)展,人形機器人在人工智能的加持下將逐步由“功能”走向“智能”。⑩
(二) 人形機器人的特征及應用場景
人形機器人具有人的形態(tài)和功能,具有擬人的肢體、運動與作業(yè)技能,以及感知、學習和認知能力;人形機器人技術建立在多學科基礎之上,綜合運用機械、電氣、材料、傳感、控制和計算機技術來實現(xiàn)擬人化功能,環(huán)境適應更通用,任務操作更多元,人機交互更親和。B11人形機器人不僅具備人的身體結構,包括頭、軀干和雙足、手臂、手指、關節(jié)等四肢,還具備環(huán)境感知與決策能力、語言學習能力和為人類提供情緒價值的能力。人形機器人與人類的社會互動性、社會融入度和社會價值是其區(qū)別于此前機器人的最重要的特征。①
日本機器人工程師森政弘(Mori Masahiro)于1970年提出過“恐惑谷”(the uncanny valley)概念,即機器人的莫名詭異形象會引發(fā)人的恐懼抵觸心理。“恐惑谷效應”顯示,人形機器人擬人程度增加,人對人形機器人的好感度也會隨之增加,當逼真性達到一定的臨界值時,人會產(chǎn)生疑惑;逼真性持續(xù)升高并超過臨界值時,人對人形機器人的好感度又會急劇上升;而毫無生命跡象、僵硬、詭異設計的機器人會增加人的不適和恐懼感,使人排斥和回避機器人。②因此,極度逼真的面部設計也是人形機器人區(qū)別于此前機器人的重要特征。總結而言,人形機器人可由三部分特征形成:機器人、極度逼真的人形外貌設計、社會互動。
人形機器人廣泛運用于航天、軍事、工業(yè)、危險作業(yè)、醫(yī)療、養(yǎng)老陪護、教育、服務等諸多場景。美國國家航空航天局和通用汽車公司聯(lián)手開發(fā)Robonaut 2人形機器人用于國際空間站太空探索任務;③波士頓動力公司研發(fā)的Atlas人形機器人能做垂直起跳、跨越障礙、后空翻等動作,可用于國防軍事活動和重大災難的救援重建;④日本本田汽車、豐田汽車、索尼、富士通、日立、軟銀等公司推出的Asimo、Aibo、Pepper、Zora等人形機器人主要用于娛樂社交、看護陪伴、醫(yī)療照顧;⑤2023年挪威人形機器人公司IX推出的機器人Eve能完成開門窗、搬東西等任務;⑥軟銀推出的NAO人形機器人對學習障礙兒童、自閉癥兒童等特殊群體的教育能產(chǎn)生積極影響;⑦人形機器人還能應用于商場、餐廳、酒店等服務場所,擔任導購、服務員、前臺接待等職位。⑧
在不同的應用場景中,人形機器人對隱私的影響會有所區(qū)別。誠如2023年英國政府科技、創(chuàng)新與技術部在《促進創(chuàng)新的人工智能監(jiān)管方法》白皮書中所提及的:不應將規(guī)則或風險級別分配給整個行業(yè)或技術,應根據(jù)人工智能在特定應用情境中可能產(chǎn)生的結果進行監(jiān)管。例如,對聊天機器人等零售服務業(yè)的監(jiān)管不應像對從事醫(yī)療診斷的人工智能系統(tǒng)監(jiān)管一樣。⑨應用場景的敏感性和包容性特征,將促使我們在人工智能監(jiān)管和人型機器人的隱私風險防范方面采取一種與之相應的策略,此舉旨在避免扼殺創(chuàng)新,以及抓住利用人工智能或人形機器人帶來社會效益的機會。⑩
人形機器人在醫(yī)療、金融服務、緊急救援、教育、航天及軍事等場景的應用對個人隱私的影響和風險防控,與零售服務和娛樂場景的應用相比應有所區(qū)別。人形機器人在前一系列場景應用中,會高密度觸及敏感性隱私,包括患者身體隱私、患病記錄、銀行卡信息、個人信用信息、被救助者身體傷害隱私、被救助者心理隱私、未成年人隱私,以及航天工作人員和軍事人員的身體和心理隱私等。這一系列隱私一旦被侵犯,將會對個人的人身、財產(chǎn)和人格尊嚴造成極大危害。無論是歐美還是我國,均將此系列隱私視為重點保護對象,例如:美國有健康保險便攜性和責任法案專門保護醫(yī)療隱私,兒童在線隱私保護法為13歲以下兒童提供個人信息保護;我國個人信息保護法第28條將特定身份、醫(yī)療健康、金融賬戶、行蹤軌跡等信息,以及不滿14周歲未成年人的個人信息列為敏感個人信息。因此,這一系列應用場景也被視為人形機器人會對用戶個人隱私產(chǎn)生重要影響的高風險場景。
二、 人形機器人對不同類型隱私的影響分析
人形機器人的獨特特征使得其對個人隱私的影響將更具隱蔽性和滲透性。人工智能使人形機器人具備無差別監(jiān)視能力,導致出現(xiàn)馬克·波斯特在福柯“全景監(jiān)獄”語境下發(fā)展出的“超級全景監(jiān)獄”景象,實現(xiàn)對人全面的無時無刻的監(jiān)視。①比如:帶熱傳感器的人形機器人能夠透過墻壁看東西;具備卓越音頻功能的人形機器人能夠竊取私密的對話;人形機器人Zora的頭部、手部和腳部都配備了聲吶和傳感器,其能完美地拍攝周圍環(huán)境的圖像,它的兩個高分辨率相機能記錄每一個微小的細節(jié);②人形機器人還能捕捉同住之人或家中訪客的隱私活動,并將這些隱私信息發(fā)送給機器人開發(fā)設計公司、軟件公司或其他商業(yè)合作公司。人形機器人對隱私規(guī)范沒有與生俱來的理解力,人也不會意識到自己的隱私正在被人形機器人窺視和獲取,那些面貌極其逼真又能夠提供情感支持的人形機器人還會獲得人類的青睞,人類會主動向其傾吐隱私。因此,當前的人形機器人可在沒有人類干預、監(jiān)督的情況下侵犯個人隱私。③
人形機器人對不同類型隱私的影響源于隱私類型化理論下人形機器人對隱私的影響,以及對人工智能不同場景和程度的風險控制。考慮到生成式人工智能、視覺語言大模型、世界模型(world model)、腦機接口、功能磁共振成像(fMRI)技術發(fā)展對隱私侵入的沖擊,本部分的探討將基于歐美隱私類型化理論,區(qū)分消極自由和積極自由,參考歐盟《人工智能法案》風險分類人工智能實踐,分析人形機器人與各類不同風險的人工智能相結合對隱私產(chǎn)生的影響。
(一) 人形機器人對消極和積極自由隱私的影響
1. 歐美隱私類型化理論與我國隱私類型化分析
隱私權理論最初由美國學者沃倫和布蘭代斯于1890年發(fā)表在《哈佛法律評論》的《隱私權》一文中提出。隱私權首先作為普通法侵權行為法上的權利而得到保護,基于私法自治原理保障個人要求他人放任自己獨處而不受打擾的權利。④伴隨著政府權力的擴張,以及國家對社會經(jīng)濟生活干預的加強,私法日益受到公法的控制,隱私權理論在保持“消極不侵犯”的義務基礎上,增添了“積極去保護”的內(nèi)容。⑤而后隨著隱私權從私法領域到公法領域的延伸,隱私權不僅涵攝個人獨處不受打擾的民事消極防御權利,還體現(xiàn)主動追求個人尊嚴和自由的憲法和人權內(nèi)涵。歐美很多學者都對隱私的分類做出過嘗試。⑥
在此基礎上,歐洲學者Koops等人通過對美國、加拿大、英國、荷蘭、德國、意大利、捷克、波蘭、斯洛文尼亞九個法域的憲法隱私保護進行系統(tǒng)分析,歸納總結出八類隱私,即“消極自由”中的“身體隱私、空間隱私、通信隱私、專有隱私”和“積極自由”中的“知識隱私、決策隱私、結社隱私、行為隱私”。其中,“消極自由”的特征是獨處,“積極自由”的特征是自我發(fā)展。①Koops等人認為,信息隱私并非一種單獨的隱私類型,信息隱私覆蓋全部八種類型隱私,每種類型隱私都體現(xiàn)為一種信息,信息隱私更應被理解為“硬幣的另一面”。②
我國《民法典》第1032條將隱私明確規(guī)定為“自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動、私密信息”,在私法領域為隱私權賦予了明確的法律定義。《民法典》第1033條對侵犯私人生活安寧、私密空間、私密活動、身體私密部位、私密信息的行為進行了詳細列舉,以及規(guī)定了第(六)項其他侵害隱私權的兜底條款。《民法典》對侵犯隱私行為的列舉雖稱不上類型化,但從比較法角度可看出我國民法隱私包含身體隱私、空間或活動隱私、信息隱私等更傾向于保護獨處權利的“消極自由”隱私類型。21世紀以來,公法學者也開始逐漸關注隱私權,將其視為憲法基本權利,學者對隱私權的研究呈現(xiàn)“私法先行、公法跟進”的規(guī)律,《民法典》第1039條被廣泛認為是在規(guī)定公法上的隱私權,但我國并未出現(xiàn)明顯區(qū)別于私法隱私權的公法隱私權概念。③
在我國,無論是私法還是公法,隱私權涵攝的類型都有以下特征:第一,身體隱私、空間或活動隱私其實都應具有信息面向,否則就不構成侵犯隱私權。若無信息面向,則通過財產(chǎn)權、人格權保護即可,只有當該身體、空間或活動承載的信息遭到侵擾或有被侵擾風險時,才會涉及隱私權。④例如,拿取他人錢包、傷害他人身體、阻止他人出行,這些行為只是侵犯他人財產(chǎn)權和人格權;只有將他人錢包里的銀行卡信息泄露、將他人身體私隱部位曝光、追蹤他人行蹤才會涉及隱私侵權。這與Koops等人提出的“八種類型隱私都體現(xiàn)為一種信息,信息隱私不應成為一種單獨的類型”觀點有相似之處。第二,《民法典》第1032條和第1033條都提及“私人生活安寧”,我國隱私權類型是否應包含“私人生活安寧”,其跟空間或活動隱私是否重疊?如前述第一特征所指出,不具有信息面向的私密身體、空間或活動用財產(chǎn)權或人格權保護即可,不涉及隱私權,如“安寧”不具有信息面向,侵犯者不是以信息媒介侵擾他人生活安寧,則應通過一般人格權而非隱私權予以保護;但若以信息媒介侵擾他人生活安寧亦不必單獨歸為“安寧”一類,而可通過第1033條第(五)項違法處理他人信息加以解決。⑤第三,我國《民法典》雖規(guī)定有兜底性條款,但并不意味著隱私權能涵蓋所有消極自由和積極自由的類型,我國《民法典》列舉隱私類型偏向消極自由,缺乏“知識隱私、決策隱私、結社隱私、行為隱私”等積極自由。有民法學者主張,“人格自由、人格尊嚴”等積極自由涵攝內(nèi)容應納入《民法典》第990條第二款一般人格權范疇,而非由隱私權保護,《民法典》第990條第二款也是憲法第33條第三款“人權條款”的轉介條款。⑥我國《民法典》區(qū)分隱私權和個人信息權益,前者強調對個人信息私密性的合理期待,后者強調對個人信息處理的合理期待,⑦有別于歐美國家學者對隱私、個人數(shù)據(jù)隱私、信息隱私概念的混用。
2. 人形機器人對消極自由隱私的影響
消極自由隱私包含身體隱私、空間隱私、通信隱私、專有隱私。身體隱私既包括身體免于被觸碰或傷害、身體被限制,也包括身體功能和諸如遺傳密碼與生物識別技術等身體特征信息。⑧相較于以往聊天機器人等虛擬技術,人形機器人更有可能接觸用戶身體,其硬件、操作系統(tǒng)和軟件產(chǎn)生的累積效應將使其對物理環(huán)境產(chǎn)生交互影響,人形機器人將實際進入物理空間,與人類發(fā)生近距離互動,其收集處理個人身體信息會遠甚于虛擬技術對個人隱私的影響。
空間隱私是指個人在家或其他某一物理空間中應是自由的,應該在不被監(jiān)視的情況下自由行動,個人對家或周圍享有特定的隱私期待。①空間隱私直接指向個人獨處的權利。家是最常見的個人享有隱私期待的場所,但只要在某一物理空間內(nèi)發(fā)生的活動與個人的私人生活有關,該個人對這一物理空間也應享有隱私期待,例如辦公室、私人汽車,抑或是商業(yè)場所。空間隱私還應包括公共和半公共空間,個人能夠在其中進行匿名行動。專有隱私與空間隱私緊密關聯(lián),指個人使用財產(chǎn)保護其活動、事物、信息不被他人看到,如用錢包隱藏銀行卡和身份證信息。人形機器人除了能在房間、廚房、小型私人空間內(nèi)移動外,還配備增強其隱形移動能力的程序,使其能在不為人察覺的情形下快速移動。②人形機器人在私密空間對個人親密活動或對話的記錄無疑會侵犯空間隱私,其穿透墻壁看東西、竊聽對話、捕捉周圍圖像細節(jié)的能力,使得用有形財產(chǎn)遮擋個人信息的嘗試變?yōu)橥絼冢址笇S须[私。
侵犯通信隱私的行為通常包括攔截個人通信、竊聽或未經(jīng)同意訪問存儲的通信。③應用于民生領域的人形機器人不僅僅為家庭社區(qū)提供娛樂教育和醫(yī)療陪護等服務,還是家庭社區(qū)智能設備和互聯(lián)網(wǎng)絡的組成部分,它可以播報新聞、播放音樂、發(fā)送通知,也可以同時利用攝像頭和傳感器實時記錄個人動態(tài)信息、通信和社交互動,并通過支持這些人形機器人的云服務和聯(lián)網(wǎng)社交媒體將個人通信信息傳輸至云端,侵犯個人通信隱私。某些特定類型人形機器人還可能使人與之建立起親密關系,分享敏感通信信息,當這類人形機器人被遠程入侵或損壞時,也會使個人隱私處于極脆弱的境地。④
3. 人形機器人對積極自由隱私的影響
積極自由隱私包括知識隱私、決策隱私、結社隱私、行為隱私。這四類隱私都體現(xiàn)人格自由和人格尊嚴,涵蓋個人思想、觀點和信仰發(fā)展的隱私,親密關系下諸如兩性關系或生育決策等敏感話題決策的隱私,選擇與某個體或群體建立互動關系的隱私,以及在公開活動時如何保持個人匿名和不受曝光的隱私。⑤知識隱私是保障后三類隱私和言論自由等憲法權利的基石,在個人思想受到保護和得以自由流動的情況下,后人才能充分吸收前人智慧,迸發(fā)出更多新的思想火花、創(chuàng)作出更多的新作品。知識隱私使個人能與值得信賴的密友就有爭議的想法做出決定而能不被人監(jiān)視或發(fā)現(xiàn);相反,對知識隱私進行監(jiān)視則會阻礙個人探索新知識。⑥結社自由允許個人基于各自的思想、觀念和信仰進行選擇和組織。知識隱私、決策隱私、結社隱私、行為隱私保障個人自由思考和言論的權利。
在算法和人工智能的支持下,人形機器人極度逼真的外表設計和擬人化行為,極易讓人對其產(chǎn)生信賴和情感依賴,建立親密關系和分享交流思想觀點,加之腦機接口等軟硬件技術設備支持,其更有可能在個人無感知、無意識的情況下獲取人的思想和感受,無須個人主動分享。早在1960年,美國網(wǎng)絡先驅J.C.R. Licklider就曾設想,在不久的將來,人類的大腦將和計算機緊密結合在一起,由此產(chǎn)生的伙伴關系將使計算機能夠像人類大腦一樣思考,了解人類的思想和感受。⑦此外,人形機器人通過情感檢測和計算能夠預測和指導個人行為并評估個人行為,這可能會對個人獨立做出決策的權利產(chǎn)生負面影響。美國哈佛大學法學院教授Lawrence Lessig在《代碼》一書中也提到,計算機硬件和軟件的結合可以約束和指導人類行為。①對獨立決策能力的影響會連帶影響個人結社和行為自由,最終損害人格自由和尊嚴,阻礙言論自由和新知識的探索和產(chǎn)生。
(二) 歐盟人工智能風險分類對隱私的影響
2021年4月21日,歐盟委員會公布了《人工智能法案(提案)》,延續(xù)“基于風險”的監(jiān)管理念,對人工智能技術應用進行風險劃分,②將人工智能應用場景分為“最低風險、有限風險、高風險、不可接受的風險”四個風險等級,等級越高的應用場景受到的限制越嚴格。歐盟議會于2023年6月14日通過《人工智能法案(審議稿)》,歐洲議會、歐洲理事會和歐盟委員會于2023年12月8日就審議稿達成協(xié)議并進入下一步立法程序,歐洲議會于2024年3月13日正式通過《人工智能法案》,預計法案將于2025年初生效,2026年正式實施。③《人工智能法案》明確禁止“不可接受風險”人工智能在歐盟境內(nèi)使用;對高風險類人工智能使用規(guī)定有風險管理;有限風險類人工智能系統(tǒng)須滿足透明度條件,例如告知用戶某項內(nèi)容是人工智能生成的;最低風險類人工智能系統(tǒng)可在歐盟境內(nèi)使用,無須遵守任何法律義務。④鑒于有限風險和最低風險類人工智能的隱私隱患偏低,此部分重點分析人形機器人與操控型和高風險人工智能實踐相結合對隱私產(chǎn)生的影響。
1. 操控型人工智能的禁止性規(guī)定及對隱私的影響
“不可接受的風險”等級列出八種禁止的人工智能實踐,其中第一種是潛意識人工智能實踐,即有極大可能性通過超越個體意識的潛意識技術操縱個體行為的人工智能實踐;第二種是利用兒童或殘障人士等特定弱勢群體脆弱性的人工智能實踐,被禁止使用的潛意識或剝削性人工智能實踐被要求實質性地扭曲個體行為,從而會對個體或他人造成身體或心理傷害。⑤這兩種被禁止的人工智能實踐叫作操控型人工智能實踐(manipulative artificial intelligence practice),即試圖通過隱藏的影響顛覆有意識的決策,通常涉及對認知、情感和決策漏洞的利用。⑥
《人工智能法案》并未定義何為潛意識,但該詞通常指低于意識閾值的感知,例如在商店背景音樂中編碼以防止盜竊,又或在電影播放過程中以極快速度閃現(xiàn)“請吃爆米花”“請喝可口可樂”,這將增加爆米花和可口可樂的銷量。操控潛意識極可能改變個體行為,侵犯個體的思想隱私。⑦目前,實踐中已經(jīng)存在復雜且更具侵入性的潛意識技術,如“讀心術”“夢境黑客”“大腦間諜軟件”技術。有報道稱,大量的市場研究正在測試夢境孵化的商業(yè)用途,以尋找通過睡眠和夢境黑客攻擊來改變和推動消費行為的新方法。⑧“大腦間諜軟件”(一種被故意設計用于檢測個人信息的軟件)與腦機接口技術相結合的有效性已經(jīng)得到證明,通過腦機接口向用戶展示視覺刺激,并使用機器學習模型根據(jù)大腦的反應檢測熟悉的信息,可從用戶大腦中推斷出諸如銀行信息、識別出的人臉、身份證號、居住地點、出生年月等個人信息。①這些“讀心術”技術整合起來可成為商業(yè)操控的有效工具,能在未經(jīng)個人同意且無意識的情況下竊取個人信息和思想。
禁止剝削性人工智能實踐與禁止?jié)撘庾R人工智能實踐之間有相當多的重疊之處。在《人工智能法案(提案)》最初公開稿中,歐盟委員會專員就以玩具使用語音輔助操控兒童做危險之事為例概述了潛意識操控的危險性。②玩具不僅與兒童一對一相關,還與其他玩具或互聯(lián)網(wǎng)、數(shù)據(jù)庫連接。已有許多應用程序、玩具或游戲被證實用于監(jiān)視兒童并收集兒童個人信息或數(shù)據(jù)。③2017年,德國一家公司制作的智能娃娃在收集一名兒童的個人信息后被監(jiān)管機構建議銷毀。④剝削性人工智能實踐僅列舉兒童和殘障人士兩類弱勢群體,被批評受保護特征過于有限,且相較于年齡上的限定,身體或精神狀態(tài)的殘障也難以確定。操控型人工智能實踐產(chǎn)生的危險與易受人工智能影響的實際情況有關,而不僅僅受限于弱勢群體的脆弱性。
人形機器人與潛意識或剝削性的操控型人工智能相結合,將會利用用戶認知、情感或其他決策中的脆弱性對用戶行為施加影響,以達到某個特定意圖,該意圖不與用戶的目標一致,且用戶無法意識到受影響的意圖。操控者可從多種途徑識別出用戶的脆弱性,例如用戶所具備的個人知識或借鑒行為科學中關于認知偏見的解釋。⑤利用用戶認知、情感或其他決策中的脆弱性進行操控應與其他影響模式相區(qū)分。例如,一款幫助人戒煙的程序會使用同伴壓力或情緒訴求等利用了認知或情感脆弱性的技術,但受試者并未被剝奪反思自己決定的能力,且該有說服力的技術的影響與受試者個人目標一致,受試者也能意識到影響者的意圖,這就不能界定為操控。⑥
人形機器人與操控型人工智能結合會剝奪用戶識別和批判性反思形成其決策的外部因素的機會,⑦會妨礙用戶追求替代目標和自我定義目標的能力,使用戶按照操控者意圖行事而干擾用戶實現(xiàn)自我價值;會侵犯用戶知識隱私、決策隱私、行動隱私等積極自由類型隱私。人工智能支持下的人形機器人內(nèi)設機器學習系統(tǒng),可訪問或構建細粒度和動態(tài)的行為檔案,以識別和利用用戶決策過程中的脆弱性。設備的移動性、傳感器和跟蹤技術的普及性、基于網(wǎng)絡服務的互操作性,以及存儲容量的提升等都有助于捕獲不斷補充的大量數(shù)據(jù)信息,機器學習技術可以快速地將這些數(shù)據(jù)流轉換為對用戶脆弱性的預測,以揭示隱藏的模式、關聯(lián)、集群或相關性,并不斷從新數(shù)據(jù)中學習而無須人工編程。⑧對個人行為的持續(xù)跟蹤和分析可對自主性構成新的更大的威脅。而且,相較于人類操控而言,機器人操控不會感到疲憊、氣餒或沮喪,技術本質上是持久的。⑨
2. 高風險人工智能的管控性規(guī)定及對隱私的影響
《人工智能法案》把對自然人健康、安全或基礎權利有損害的兩類人工智能系統(tǒng)界定為高風險。第一類為用作產(chǎn)品安全組件或本身就是產(chǎn)品的人工智能系統(tǒng)。第二類為方案附件三所單獨列舉的八個領域人工智能系統(tǒng)。這八個領域的人工智能系統(tǒng)分別為:擬用于生物特征分類和用于情緒識別的遠程生物識別系統(tǒng);用作關鍵數(shù)字基礎設施、道路交通以及供水、供氣、供暖和供電的管理和運營安全組件關鍵基礎設施;用于確定參加考試、培訓機會和監(jiān)控違禁行為的教育和職業(yè)培訓人工智能系統(tǒng);用于招聘和評估就職晉升的人工智能系統(tǒng);獲得和享受基本私人服務、基本公共服務和福利的人工智能系統(tǒng),例如社保資格、信用評級、火警和醫(yī)療評級;用于評估自然人犯罪傾向或受害風險等的執(zhí)法系統(tǒng);用于測謊、評估自然人安全、健康風險的移民、庇護和邊境管制管理系統(tǒng);司法機關案例和法律解釋系統(tǒng)或擬用于影響公民投票行為的系統(tǒng)。①
法案規(guī)定這兩類高風險人工智能系統(tǒng)需要在整個生命周期建立風險管理,必須識別與人工智能系統(tǒng)相關的已知風險和可預見的風險,評估當系統(tǒng)按照其預期目的和可預見條件使用時可能出現(xiàn)的風險,以確定最合適的風險管理措施。②用于訓練、驗證和測試高風險人工智能系統(tǒng)的數(shù)據(jù)集必須符合相關性、代表性、無錯誤和完整的質量標準,而且該系統(tǒng)必須附有簡明、完整、正確和清晰的使用說明以便用戶能夠適當?shù)厥褂谩"鄹唢L險人工智能系統(tǒng)提供者在產(chǎn)品投入市場前必須遵守合規(guī)程序,進行內(nèi)部或第三方評估,實施質量監(jiān)管,將系統(tǒng)登記在法案創(chuàng)建的數(shù)據(jù)庫中。④
人形機器人廣泛應用于各類場景,極可能出現(xiàn)在人工智能法案列舉的八類高風險人工智能系統(tǒng)中,例如,與高風險人工智能系統(tǒng)結合用于識別人的情緒,對人進行職業(yè)培訓,進行監(jiān)考,參與招聘和評估晉升,評估個人犯罪傾向和測謊,評估個人受害和健康風險,等等。相較于同有限風險或最低風險人工智能系統(tǒng)結合的應用,人形機器人與高風險人工智能相結合會對個人消極自由與積極自由隱私,尤其是對涉及個人教育、就業(yè)、醫(yī)療保健、法律保障類權利產(chǎn)生更重要的影響。
三、 人形機器人對隱私影響的法律應對
鑒于人形機器人與人工智能相結合會對消極自由和積極自由隱私產(chǎn)生一系列不同于以往機器人或算法程序帶來的負面影響,參考歐美隱私類型化理論,本文擬為我國應對人形機器人對隱私產(chǎn)生負面影響提供以下法律應對:第一,明確知情同意標準,以消除人形機器人對消極自由隱私的負面影響;第二,延伸隱私權類型,以緩解人形機器人對積極自由隱私的負面影響;第三,采用適度監(jiān)管,以應對人形機器人與操控型人工智能結合產(chǎn)生的負面影響;第四,設置隱私高風險場景治理規(guī)則,以應對人形機器人與高風險人工智能結合產(chǎn)生的負面影響。雖然從學理上來看,我國隱私權概念并不區(qū)分私法和公法領域,但考慮到我國《憲法》尚需從解釋學層面發(fā)展出隱私權,這四類建議仍擬從民法體系下提出,可對《民法典》第1033條第(六)項兜底條款做進一步細化解釋,也可在其他民事法律法規(guī)或司法解釋中完善相應制度。
第一,明確知情同意標準,以消除人形機器人對消極自由隱私的負面影響。
民事法律法規(guī)或司法解釋應要求人形機器人制造者或提供者明確用戶知情同意的標準,并經(jīng)用戶授權后獲取和使用用戶的私密信息。首先,應該向用戶明確人形機器人的用途,是醫(yī)療、陪護、娛樂、教育,還是其他諸如銀行、餐飲類民生相關服務。幫助用戶建立對人形機器人特定用戶感到舒適的界限,如果用戶感到不適而拒絕這類人形機器人為其提供服務,則應將人形機器人從特定用戶服務名單中刪除。
其次,應當“刺破面紗”,詳細告知用戶人形機器人制作背后的信息,包括但不限于誰制造和誰擁有人形機器人、人形機器人的關鍵技術和核心程序開發(fā)者及產(chǎn)權所有者是誰、人形機器人如何工作以及具備哪些能力、人形機器人因何種目的而被制造、哪些互聯(lián)網(wǎng)平臺和云端為該人形機器人提供支持等。當某類人形機器人具備穿透墻壁窺探隱私、提供社交互動使用戶產(chǎn)生情感依賴從而透露敏感信息的能力時,制造者或提供者應充分提示人形機器人所具備的特殊能力,并明確告知用戶其敏感信息會被用在哪里以及如何使用。
再次,制造者或提供者應向用戶提示人形機器人存在的風險和負擔,尤其是人形機器人會對身體隱私、空間隱私、通信隱私、專有隱私產(chǎn)生的負面影響,包括但不限于人形機器人可能捕捉到的個人生理特征信息、生物識別信息、親密活動或對話信息、私密財產(chǎn)和身份信息等,以便用戶能自主決定其是否使用人形機器人。制造者或提供者應向用戶解釋人形機器人具備的音視覺記錄能力,包括能聽多遠、能看多遠,以及能否通過物質看到景象;還應提供人形機器人信息管理計劃,包括用戶能否接收信息、哪些第三方將獲取信息、信息將存儲多長時間且以何種形式存儲等。此外,不受歡迎的第三方入侵和訪問信息的風險也應一并告知用戶。①
最后,制造者或提供者應向用戶說明何種類型的私密信息將被收集,以及收集這些信息的頻率。制造者或提供者應提供聯(lián)系方式和替代方案,在用戶感到隱私被侵犯而不再愿意繼續(xù)接受人形機器人服務時,能及時終止人形機器人工作或采用替代性人工服務。在遇到人形機器人的服務對象是無法做出自主決策的無民事行為能力或限制民事行為能力人時,例如兒童或精神殘障人士,向其監(jiān)護人披露人形機器人以上內(nèi)容并取得其監(jiān)護人知情同意則至關重要。
第二,延伸隱私權類型,以緩解人形機器人對積極自由隱私的負面影響。
我國《民法典》第1033條規(guī)定第(六)項兜底條款以應對技術發(fā)展和社會環(huán)境變遷對隱私權提出的新要求。面對生成式人工智能技術支持下人形機器人對積極自由類型隱私產(chǎn)生的負面影響,我國隱私權保護不應墨守成規(guī),止步于司法實踐已有的身體隱私、通信秘密、談話隱私、犯罪信息、家庭生活秘密、個人感情信息、住址定位信息、網(wǎng)絡瀏覽痕跡等消極自由隱私。保障社會交往背景下主體人格自由發(fā)展和平等主體之間相互承認和尊重的一般人格條款并不涉及對私密信息的保護。積極自由隱私不僅僅包括個人自主決定權在隱私權領域的拓展,還包括個人私密的思想、觀念、感受不受干擾和監(jiān)視。
支持隱私保護的學者在論及隱私權價值時提到隱私權對個人和社會都很重要,其代表性觀點以Priscilla Regan為首。其觀點指出,隱私保護不僅符合個人利益,也符合共同、公共、集體目的,隱私保護對促進自由、民主和社會秩序至關重要,包括保護公民能夠自主、獨立思考,保護公民能在某些領域做決策時不受公共監(jiān)督的干擾。②通過該觀點可看到保護積極自由類型隱私有利于促進社會公共利益。另有學者認為,隱私是構建“社會人格”的必要條件,這不僅有助于滿足個人復雜的角色需求,而且還能為有利于社會福利的日常互動提供更多交易空間。③總結不同時期諸多學者對隱私的討論,可看出積極隱私一直是隱私的核心維度。①
因此,除消極自由隱私外,立法者和政策制定者應從更廣的角度來考慮如何面對包括人工智能在內(nèi)的快速發(fā)展的人形機器人技術所帶來的隱私風險,如何使社會更能適應和保障個人自由和發(fā)展,以及如何在新環(huán)境下定義隱私權的應有之義。積極隱私所涵攝的分享思想、自主決策、參與結社與民主生活的權利正是《民法典》第990條第二款所規(guī)定的自然人基于人身自由、人格尊嚴所產(chǎn)生的其他人格權益。雖有民法學者認為,此款規(guī)定的一般人格權應排除第990條第一款列舉具體人格權中的隱私權,但在德國法中,一般人格權屬于框架性權利,具有母權性質,可以具體化解釋出各種受保護的特殊人格權,包括隱私、名譽等。②因此,可考慮在立法釋義上將第990條的具體人格權和一般人格權相連接,對人身自由、人格尊嚴進行廣義解釋,包括與人身自由、自主決策自由、人格尊嚴在內(nèi)的一切法益,同樣也應包括積極隱私,從而拓展隱私類型。我國已有學者提出,現(xiàn)代技術將消極自由隱私不斷推向積極自由隱私,消極自由隱私和積極自由隱私應被協(xié)同保護。③
在《民法典》出臺前,我國的司法實踐中的部分隱私權民事糾紛案例在論及隱私權侵權時會同時涉及侵犯名譽權。《民法典》出臺后,第1024條將名譽權與隱私權列為獨立的權利,但其與隱私保護仍緊密相關。人形機器人通過與人和周圍環(huán)境互動產(chǎn)生信息流通傳播,所生成的信息如出現(xiàn)虛假或偽造,就可能會對個人聲譽產(chǎn)生消極影響,如達到侮辱、誹謗程度,則會侵犯名譽權。因此,將隱私權類型延伸至積極自由隱私時,也應適度考慮人形機器人對名譽權的影響。
第三,采用適度監(jiān)管,以應對人形機器人與操控型人工智能結合產(chǎn)生的負面影響。
為了檢測和準確利用個人決策過程中的脆弱性,人工智能系統(tǒng)需要關于個人行為新鮮和流動的數(shù)據(jù)流,遏制人工智能操控的一個方法是阻止個人行為信息的流動。④但是,在數(shù)字經(jīng)濟時代,想要阻止個人行為信息的流動是非常不現(xiàn)實的。機器學習模型通常使用最具有代表性的訓練樣本來推斷大多數(shù)人的行為,這些訓練樣本的可用數(shù)據(jù)量小但具有相同的可觀察特征。因此,即使那些仔細閱讀人工智能隱私政策并調整其隱私偏好的人,以及故意隱藏某些信息的人,仍會受到其他人共享信息意愿的影響。這些都會使試圖阻止行為信息流動的努力白費,從而為人工智能實現(xiàn)操控提供支撐。⑤此外,在收集個人私密信息時提供的隱私通知并不能預見這些信息未來如何被轉換和重新用于操控,因為操控往往具有不可預見性。⑥
因此,在一定程度上采用監(jiān)管以應對人形機器人與操控型人工智能結合所產(chǎn)生的負面影響成為不可避免的趨勢。但是否一定照搬歐盟《人工智能法案》,將操控型人工智能實踐歸為“不可接受的風險”而完全予以禁止,這點仍值得商榷。在對人工智能的監(jiān)管升級之前,法律和政策制定者有必要在不干預人工智能研發(fā)帶來的風險和過于苛責的法律責任帶來的危害之間進行平衡,過度合規(guī)審查會阻礙科技創(chuàng)新和企業(yè)成長,尤其是打壓資源薄弱的人工智能中小企業(yè)。探索平衡人形機器人和人工智能產(chǎn)業(yè)發(fā)展與用戶隱私權保障的適度監(jiān)管應是我國法律應對人工智能操控實踐的方向。
首先,適度監(jiān)管應當針對基于個人畫像的操控意圖而非廣泛的操控實踐。正如芝加哥大學經(jīng)濟學家Richard Thaler和哈佛大學法學院教授Cass Sunstein所指出的,任何對人工智能操控實踐的禁令都不應采用隨機或中立的選擇架構,而應針對操控型人工智能施加的特定威脅,那種以福利為導向、透明且受制于公眾監(jiān)督的助推活動不應被禁止。①如前所述,機器學習模型的使用為人工智能操控實踐增加了不可預測性,人工智能操控實踐的個性化和動態(tài)化消除了對人工智能操控實踐進行集體審查的保障,對人工智能操控實踐的監(jiān)管也應針對特定威脅,通過數(shù)據(jù)畫像推斷出個人層面的脆弱性。
其次,適度監(jiān)管應當僅針對與用戶個人目標不一致的擬操控用戶行為的隱藏目標,監(jiān)管不應阻止幫助個人實現(xiàn)自主制定目標的人工智能系統(tǒng)發(fā)揮功用。后一類人工智能技術被稱為勸說型人工智能,為區(qū)分勸說型人工智能與操控型人工智能,使用結合人工智能技術人形機器人的個人應當明確同意人工智能對其行為的塑造,并認同該行為塑造與其自主設定目標一致。法律規(guī)定中的適度監(jiān)管應和知情同意標準結合起來,要求人形機器人制作者或設計者告知用戶,其與人形機器人(包括其中人工智能系統(tǒng))互動的方式是勸說型還是操控型。
最后,勸說型人工智能技術的運用應限于這類技術被采用的相同背景和目的,以防止此類技術的使用變得具有操控性。如果用戶開始以不同形式和內(nèi)容接收推送,人工智能運用的機制不再透明或明顯,影響用戶行為的意圖變得模糊且游離于用戶自主設定的目的,則勸說型人工智能實踐可能演變?yōu)椴倏匦蛯嵺`。
第四,設置隱私高風險場景治理規(guī)則,以應對人形機器人與高風險人工智能結合產(chǎn)生的負面影響。
鑒于人形機器人應用于不同場景和領域對隱私產(chǎn)生的影響不盡相同,在復雜的人機關系互動中,應引入場景治理邏輯,通過設置隱私高風險場景治理規(guī)則,區(qū)分隱私高風險場景和隱私一般或較低風險場景,以應對人形機器人與高風險人工智能結合產(chǎn)生的負面影響。隱私高風險場景治理規(guī)則包括以下三個方面。
一是對隱私風險進行動態(tài)評估。隱私高風險和一般或較低風險的劃分標準不是一成不變的,隨著人形機器人與人工智能系統(tǒng)結合的動態(tài)發(fā)展,應要求應用于隱私高風險場景的人形機器人提供者在人形機器人運作的整個生命周期中按照預期設計和生產(chǎn)目的對合理可預見的隱私風險進行監(jiān)測評估,并采取針對性的風險管理措施,該措施應將隱私風險降至最低。②
二是對人形機器人侵權采用嚴格責任原則,即產(chǎn)品責任原則。當有缺陷的人形機器人造成隱私侵害時,受侵害人無須證明生產(chǎn)者過錯就能獲得賠償。這一歸責原則在歐盟通過的《產(chǎn)品責任指令》中被吸收為認定人工智能侵權責任的原則。③產(chǎn)品責任的無過錯歸責原則可督促設計者與生產(chǎn)者最大程度保障智能人形機器人產(chǎn)品的安全,產(chǎn)品責任制度的排除妨礙、消除危險、賠償損失等責任承擔方式同樣適合智能人形機器人侵權。④在產(chǎn)品責任制度安排下,受侵害人可向人形機器人產(chǎn)品的設計者、生產(chǎn)者、銷售者中的任一主體求償。責任主體承擔賠償責任后,可向造成產(chǎn)品缺陷的主體追償。如果有第三人對智能系統(tǒng)進行破壞,則第三人應是最終責任人;如果不能確定設計者、生產(chǎn)者、銷售者,則智能人形機器人產(chǎn)品管理者或使用者負有指明設計者、生產(chǎn)者、銷售者的義務。⑤
三是通過算法解釋、算法審計、沙盒監(jiān)管等手段多管齊下破解算法黑箱。算法黑箱是造成智能人形機器人隱私高風險的重要原因,它使得人形機器人的運作和最終任務缺乏透明度,其智能“大腦”所使用的樣本數(shù)據(jù)和決策過程無法被人觀測,可能做出模糊或歧視性決策,產(chǎn)生高風險隱私隱患。算法解釋是一種賦予隱私權主體解釋權以提高算法透明性進而增強算法決策可責性的算法權力規(guī)制路徑。①對算法持續(xù)進行審計可保持算法中立。審計是一種在不損害商業(yè)模式背后的人形機器人產(chǎn)品的情況下提供解釋和糾正的方法,設計易于審計的算法系統(tǒng)增加了算法可靠性,并提供了跨行業(yè)最佳實踐標準化的框架,審計是系統(tǒng)性的且可長期檢測不公平結果的必要手段。②沙盒監(jiān)管概念源自金融科技創(chuàng)新領域,企業(yè)可以在金融服務當局的“受控環(huán)境或安全空間”內(nèi)測試創(chuàng)新產(chǎn)品、服務、商業(yè)模式和交付機制,而不會立即承擔相關活動的所有正常監(jiān)管后果。③在高風險場景人形機器人投放市場或根據(jù)特定計劃投入使用之前,沙盒監(jiān)管機制可在受控環(huán)境下對主要用于高風險場景的人形機器人進行測試或驗證,此種檢測尤其針對特定高風險場景中的意圖、因果關系和責任減輕而展開,由此可修正嚴格責任的缺陷。④
Impact of Humanoid Robots on Different Types of Privacy
and the Legal Responses
HUA Jie
Shanghai International College of Intellectual Property, Tongji University,
Shanghai 200092, China
The integration of humanoid robots and artificial intelligence has enabled the emergence of “embodied artificial intelligence” robots with realistic humanoid design, highly intelligent environmental perception and decision-making abilities, as well as language learning and social interaction abilities. The unique intelligent features of humanoid robots make their invasion of personal privacy more covert and penetrating. The application of humanoid robots in medical and financial services, emergency rescue, education, aerospace, and military scenarios is riskier in terms of the impact on personal privacy compared to retail services and entertainment scenarios. To address the impact of humanoid robots on different types of privacy, appropriate strategies should be developed based on privacy typology theory, taking into account the application scenarios and risk classification of humanoid robots. Firstly, it involves setting clear standards for informed consent to mitigate effect of humanoid robots on negative aspect of freedom of privacy, such as privacy of body, space, communication, and proprietary. Secondly, it needs to extend the types of privacy rights to alleviate the negative impact of humanoid robots on positive aspect of freedom of privacy, such as privacy of knowledge, decision-making, association, and behavior. Thirdly, it should adopt moderate regulations to address the negative impact brought about by the combination of humanoid robots and manipulative artificial intelligence classified under the European Union Artificial Intelligence Act. Besides, setting governance rules for high-risk privacy scenarios should be taken into consideration to address the negative impact brought about by the combination of humanoid robots and high-risk artificial intelligence.
humanoid robots; application scenarios; typology of privacy; manipulative artificial intelligence; governance of privacy high-risk scenarios
責任編輯:楊 娟