杜明強
( 貴州大學 法學院,貴州 貴陽550025)
當前,各國立法并未對無人駕駛的概念作出統一界定,且多將自動駕駛和無人駕駛一體混用。在我國,有關規定將自動駕駛汽車定義為:在現行機動車上裝配自動駕駛系統,無需駕駛員執行物理性駕駛操作就能夠對車輛行駛任務進行指導與決策,并代替駕駛員操控行為完成安全行駛的車輛(1)2017 年《北京市關于加快推進自動駕駛車輛道路測試有關工作的指導意見( 試行) 》對“自動駕駛”的定義。。據此,所謂無人駕駛汽車,是指由智能系統執行所有核心駕駛功能,并監控整個行程路況,驅動程序僅提供目的地或導航輸入,行程開始后的任何情況下無需人為介入。系統自行操作本身等同于人類駕駛,可在各種環境下承擔所有駕駛任務。但需指出的是,無人駕駛汽車并非指車輛完全脫離人的管控,只是從物理操作上無需由人類親自實施駕駛行為,人們可以通過點擊按鈕、輸入語音等行為開啟駕駛模式。實際上,目前各國的自動駕駛技術尚未達到無人駕駛的水平,不過完全自動化階段離我們并不遙遠[1]。因為不少發達國家和我國都力圖在人工智能領域贏得全球科技競爭主動權,競相研發高度自動駕駛技術,努力向無人駕駛目標邁進。
對無人駕駛汽車而言,數據和算法是其不可或缺的兩大支撐。其中,數據是無人駕駛汽車運行的基礎,算法是其智能系統的本質。要實現無人駕駛的高度智能狀態,汽車必須靠海量數據支撐。詳言之,其所涉數據可依使用目的不同分為交通類數據和生活類數據,個人隱私數據被涵括其中。其中,交通數據的收集、保存和處理對于無人駕駛汽車安全運行至關重要,因為其智能系統的技術原理主要還是依靠計算機系統進行高速運算,憑借方向定位和導航技術的支持,將車載傳感器感知的信息與運營商數據庫內的信息相結合,通過無數次信息上傳下載,以控制車輛的轉向、速度、剎車等,從而保障車輛能在可靠道路上安全行駛。可以說,交通類數據是無人駕駛汽車的“血液”,沒有數據汽車便寸步難行。但與此同時,無人駕駛汽車也正在被視為移動數據采集處[2]。由于隨時隨地均在反復采集人們的各種數據信息,這些信息經過提取可能具備其他可資利用的價值,網絡經營者、汽車生產者自然也就可能將獲取的其中有用的個人隱私轉化為商業化利用的數據信息,由此不僅會導致人們在人工智能時代因為“人人都是透明的”而出現種種不安與憂慮,還必然會因人工智能技術本身存在的不完整性以及網絡黑客、網絡經營者等人為地利用技術手段故意侵犯隱私的高概率行為,使得隱私數據泄露的風險陡增,個人隱私安全保護問題也因此成為無人駕駛汽車產業發展中所面臨的最具挑戰性難題之一。
作為人工智能的典例,無人駕駛汽車的價值功能顯著而廣泛,包括但不限于如下方面:一是減少交通事故發生。據統計,在美國每年引發交通事故的諸多因素中,人為原因的占比為93%,主要表現為酒駕、超速、疲勞駕駛、經驗不足等情形[3]。而無人駕駛技術恰能克服人類的上述局限,不會因負面情緒引發交通事故,可降低事故發生率,提高人類安全指數。二是緩解交通擁堵。堵車已成今日之城市病,其原因不僅包括車輛數量的龐大和持續劇增,還在于人的駕駛技術限制以及對道路的利用不足。而一旦無人駕駛汽車投入使用,即使現有道路容量不變,因其更加安全、精準和強預測性,亦能大幅縮短車間距,提高道路利用率[4]。三是增加特定人群的行動自由。傳統汽車駕駛行為較為復雜,對個人體能、視力和技術都有較高要求,且必須通過專門的學習考核才可獲駕駛資格,而駕駛的安全性保證則需付出更多的練習時間。可見,人類駕駛的成本其實較高,而對部分特定人群而言( 如老人、殘疾人、盲人等) 則根本無法獨自去體驗傳統汽車帶來的移動便利[5]。無人駕駛汽車則顯然可助力這些特定人群實現駕駛夢,擴增其行動自由。
此外,無人駕駛汽車在減少空氣污染、改善城市規劃等方面也有所助益。但無人駕駛技術猶如一枚具有正反兩面的硬幣,亦是一把雙刃劍,在為人類服務的同時,也附帶了一系列安全風險,其中引發的隱私權問題尤其顯著,大數據+算法的應用使得個人隱私權較為輕易地遭受到各種侵害,而我國現行法對擁有數據的各種機構或企業嚴格使用數據規制又明顯不足,缺乏有效的監管手段,于是更加劇了無人駕駛領域的隱私權保護難度。如何實現保障個人隱私安全與企業收集利用他人數據之間的平衡對人工智能產業的發展顯得愈發重要。概而言之,人工智能時代的隱私權困境主要集中體現為如何處理好數據利用( 侵犯) 與保護之間的關系。
因受傳統隱私權理論的影響,人們普遍喜好從字面去理解隱私,認為隱私就應該是一種完全保密的狀態,這在很大程度上是顧名思義的緣故,但其實并不符合隱私的本質。隱私及隱私權的概念并非一成不變,應將其置于所處的時代背景下作深入理解分析,故需先認識到隱私( privacy) 和隱私權( the right to privacy) 的概念有所不同。前者是后者所保護的客體。在以往研究中,有少數學者已經意識到隱私和隱私權的區別,如我國臺灣地區學者詹文凱認為:隱私是私人領域內的事務,而隱私權則是對隱私的控制權[6]。對此,有學者進一步研究后指出區分隱私和隱私權具有重要意義,并從以下方面闡釋了二者的區別:其一,隱私是一種客觀社會事實,隱私權是一種主觀價值判斷。隱私是客觀存在的事實,而隱私權則是經過法律的價值過濾,是值得法律保護的一種權利,是一種帶有法律意義的價值判斷。其二,并非所有的隱私都相應地享有隱私權的保護,只有隱私必須具備了法律值得保護的法益,才可能享受隱私權的保護。其三,“公開”因素對隱私和隱私權的影響有所不同。隱私作為一種客觀社會事實,無論公開與否都不會改變其性質。對隱私權而言,公開與否影響的是權利人放棄權利與否。其四,隱私是絕對的,隱私權是相對的[7]。基于此,我們認為,有關隱私與隱私權的區分,對于探討無人駕駛汽車的侵權問題具有先決意義,因為通過數據處理侵害隱私的行為不一定都要承擔民事責任,但侵害隱私權的行為則應承擔民事責任,故在立法設計上,有必要明確隱私權受保護的范圍,以便為司法實踐提供正確的規范指引。
就具體侵權形態而言,無人駕駛汽車在行駛過程中的數據記載行為首先表現為侵害使用人或乘客的個人隱私。就車輛行駛所記錄的數據來看,所涉隱私數據的范疇有限,只有當這些數據信息對個人發展相關或者具有( 可能具有) 個人可識別性事務的特征,才可被認定為個人隱私。一般而言,可能會被侵害的個人隱私信息主要包括:一是乘客的姓名、肖像、聲音、住址、通信信息。二是乘客在車內的個人活動,包括但不限于戀人之間的親密行為、言談舉止、聊天記錄,有時還會涉及工作事務,可能會被錄音、錄像。三是自然人不愿意公開的出行軌跡,如艾滋病患者出入醫院的記錄、未婚女性到產科醫院就醫的記錄、男性出入一些敏感娛樂場所等。四是乘客的財產類信息,如交易記錄、支付賬號等。五是駕駛員或其他乘客的健康類數據。車內人員的健康類數據與交通數據一道被續記和保存,通過大數據分析,可以精準識別特定主體,甚至可知曉駕駛員健康狀況的惡化趨勢,這里的問題是汽車制造商對于收集的這些信息是否必須保存,能否形成保證人義務? 汽車智能系統將上述隱私數據自動傳輸到云端的正當性基礎何在? 都是非常具有爭議的法律問題。個人隱私作為一種客觀社會事實,一旦這些隱私數據被智能系統記錄且經過加工利用,生產者或互聯網企業從中獲取利益,就會構成對個人隱私的侵犯。因此,無人駕駛汽車生產商必須制定公正合理的“隱私方案”,說明其如何收集、存儲、使用、分享以及消除汽車用戶的個人信息,并對可能的隱私侵權風險提供何種安全保障措施。對于不愿意自己數據被共享的用戶,生產商必須給出相應的處置方案。對于同意留存的用戶信息,生產商應有力確保防止信息泄露。
隱私權的概念界定存在一定爭議,我國有民法學教材將其定義為“自然人享有的對其個人的、與公共利益無關的個人信息、私人活動和私有領域進行支配的具體人格權”[8]。在美國,聯邦最高法院以判例方式確認了隱私權,且將其作為一項憲法性權利進行保護。對此,有學者評論到:隱私權的保護范圍過于廣泛,不僅包括侵權法所保護的利益,也涉及《美國聯邦憲法》所捍衛的利益,且還與公民自由緊密相關[9]。這就導致隱私權看似能囊括一切,實則一無所有。可見,隱私權這一概念本身實際上難以準確界定,且具有動態性與開放性。根據不同的標準,對隱私權可作出不同的分類,如以保護的客體為準,隱私權可分為信息性隱私權和自治性隱私權。前者保護的客體是信息隱私,后者保護的客體是自決的思想。在美國司法判例上,聯邦最高法院在Whalen v.Roe 一案(2)See Whalen v.Roe,429 U.S.589( 1977) .中首次提出信息性隱私權( information privacy) 這一概念,并認為信息性隱私權在將來會被確認在隱私權利之內。學理上,有學者提出信息性隱私權通常是對自己信息的一種控制[10]。而自治性隱私權,則被認為是以個人自治為基礎所作的某種基礎性決定[11]。張民安教授指出,信息性隱私權是早期的隱私權歸類,指個人所享有的私人生活空間免受他人進行物理性侵擾的權利。而自治性隱私權,指私人所享有的對其日常生活的選擇免受政府規管的權利[12]。也有學者主要從司法實踐的視角將隱私權類型化為私生活安寧、私生活秘密與個人一般信息[13]。本文認為,藉由信息性隱私權和自治性隱私權的學理區分,可對無人駕駛汽車侵害隱私權的行為作分類探討。
1.侵害信息性隱私權。伴隨“大數據、人工智能技術”的深入發展,自然人正在被不斷透視,逐漸被變成“透明人”。諸如“大數據時代無隱私”的觀點亦在不斷沖擊隱私權理論,似乎是給無人駕駛汽車生產者們收集和利用車輛用戶隱私信息提供了“合理化”借口。他們憑借“知情—同意”原則,一旦用戶開啟自動駕駛按鈕,車輛行駛過程中便可依靠智能技術完整記錄和儲存乘客的行車軌跡以及最終目的地等信息。再者,如果車內安裝有視聽監控裝置,將會一并記下乘客的聲音、相貌、交談及通話內容等。車身外的視頻也在不斷記錄所經行程周遭其他人的肖像等個人信息,且同時將這些信息一并傳輸到終端系統,這就導致如下問題:生產者單方面制定的隱私政策中所確立的“知情—同意”原則是否能成為其收集、儲存、加工和利用個人隱私信息的正當性基礎? 當人們一旦進入無人駕駛汽車這個特定空間內,是否意味著在此時空內一定程度上放棄了自己的信息性隱私權? 個人隱私權在價值位階上是否低于企業財產權? 此外,車外置監控設備所收集的其他非乘車人的肖像等外部信息該如何處理? 又是否構成對他人公共場所隱私權之侵害? 因大數據由每輛無人駕駛汽車所記載的信息所構成,如遇黑客入侵,或者網絡工作者惡意侵犯乘客個人隱私,或是網絡系統崩潰導致隱私信息被泄露,都將侵害乘客個人的信息性隱私權,甚至還可能引發不可預知的下游犯罪、社會分選或歧視、監控不安等新型損害。
無人駕駛技術附帶的個人隱私權安全風險確實不容小覷。據有關無人駕駛汽車安全問題的調查所示,55%的受訪者( 風險分析師) 認為,網絡數據安全風險是無人駕駛汽車所面臨的首要挑戰,遠高于技術安全本身( 僅為6%)(3)《在保險人眼中,網絡安全是無人駕駛汽車最大的風險》,電子產品世界,http: //www.eepw.com.cn/article/201607/294721.htm.2019-12-14.。這表明,由于無人駕駛汽車對互聯網的高度信賴,網絡安全則是無人駕駛汽車得以安全運行的前提條件,也構成對社會公共安全的巨大考驗。此外,數據安全保護也會影響無人駕駛產業發展,如果不能確保車輛使用者或乘坐人的隱私安全,公眾對整個無人駕駛產業的信任度將大幅降低,此類汽車的市場前景也會因此受阻。因為基于一個理性人立場,沒有誰愿意以放棄隱私權為代價去獲取出行便利,尤其在大數據時代,隱私信息安全同個人財產安全甚至人身安全均密切相關,這也因此要求無人駕駛汽車的生產者、網絡經營者、銷售者等相關主體必須通過合力保障用戶的隱私信息安全,方能更為有效地促進無人駕駛汽車技術的迅速發展。
依據上文分析,信息性隱私是自然人具有或可能具有個人識別性信息的一種控制能力。無人駕駛汽車所收集的隱私信息要納入隱私權的保護范圍,還需具備受保護的法益。依據人格權之基本法理,信息性隱私權所保護的法益就是人格尊嚴,具體而言是指特定空間中私人的受關注度。由此,所謂信息性隱私權,可定義成為避免受到不當關注,自然人所享有的對具有或可能具有個人識別性的信息的獲取、披露或使用予以控制之權利[14]。在這里,對信息的范圍作“可識別性”的界定,是為了克服傳統立法對隱私權范圍列舉不全的弊端。而控制的含義,應當解釋為包括收集、儲存、利用和傳播。在大數據時代,我們大多數人的個人信息往往不是處于被保密狀態,而是被分散在不同的電腦文檔中,并在通過各種途徑擴散,因此在大數據、云計算等技術之下,隱私權主要關注的問題已經逐漸由如何保密向如何利用和傳播轉變[15]。所以,“秘密即是隱私,公開則無隱私”的觀念已然不合時宜,會極大限制隱私權的保護和發展。據此,無人駕駛汽車通過智能系統對車內乘客數據信息進行一并收集、傳輸的行為,以及此類信息被反復下載、匯總分析、循環利用的行為,均有可能構成對隱私權的侵害。
由上可知,無人駕駛汽車運行中引發的信息性隱私權侵權風險涉及處理者與信息利用提供者( 個人) 隱私之間的利益平衡關系。從法理上講,無論是涉及普通個人數據,還是隱私數據,車輛行駛中所收集的數據主權原則上屬于車內人員。對此,有觀點認為,從結果控制出發,應當賦予數據主體( 車內人員) 相應的數據權利,包括對隱私數據分析行為的同意權、分析情況的知情權以及分析結果的刪除權[16]。我國《民法典》雖有關于個人隱私權的保護性規定,但仍無法精確涵蓋個人的行車軌跡等數據信息,且對智能系統所記載數據的丟失、盜取等行為的規制亦有缺漏,遂給隱私權的保護造成不利。如何保護此類信息性隱私權,使其不被非法利用、泄露,并明確其相關主體的法律責任是該領域的重要議題[17]。這亦給隱私權的侵權法保護提出了新挑戰。
2.侵害自治性隱私權。在美國,受憲法所保護的自治性隱私權具體包括婚姻自主權、生育自主權、子女監護權和教育權、保持家庭和睦的權利、購買及使用避孕用具的權利、私下自愿進行同性戀行為的權利、拒絕藥物治療的權利等[18]。故自治性隱私權才被界定為私人所享有的對其日常生活之選擇免受政府規管的權利,其實質在于個人的生活方式屬于私權自治的內容,如無正當理由,政府不能對個人自決權作出限制。簡言之,自治性隱私權的價值基礎是自由。畢竟要求自由乃是人類根深蒂固的一種欲望[19]。在私法層面,自治性隱私權所保護的法益就是個人事務的決策自由,是一種不受政府、他人非法干涉的私權自治。其范圍與信息性隱私權存在部分重疊,受保護的前提是私主體享有隱私利益,或者說存在一種合理的“隱私區域”。但這種“隱私區域”的范圍具體有多大,還需要靠法律來作界定。對此,有學者指出,“隱私”本身也是對私人領域的劃分,隱私領域在本質上就是一種受法律保護的自由。只有當個人的隱私得到了普遍的保護,自由才能實現。隱私權亦是個人獨立作出生活決定和其他行為的基礎。故保護隱私亦是實現私人自治的前提[20]。可以說,自治性隱私權本身也是實現私權自治的重要體現。
筆者認為,私法中強調個人對己身事務的自我選擇和自我決定,其原初目的之一在于對抗不斷擴張的政府公權力。而在大數據、人工智能時代,強調自治性隱私權之目的還在于對抗不斷擴張的平臺私權力。在無人駕駛領域,汽車的使用者與網絡經營者、制造商或政府監管部門之間在收集、使用個人隱私數據時信息極為不對稱,后者掌握更多的信息與談判力量,可在無人駕駛汽車運營過程中憑借其單方面制定的“隱私協議或聲明”就能輕而易舉地獲取個人隱私信息,而且這些主體相對于個人( 汽車消費者或使用者) 而言,先天就處于優勢地位,而權利人卻可能所知有限[21]。當個人隱私在他們設計的系統中被儲存、加工、利用時,多數人對此類行為全然不知,即使是知情者,因為在形式上遵守了這些強勢主體所制定的“格式條款”,“要么同意—要么離開”的規則迫使個人不得不放棄部分隱私權的利益。實際上,所謂的“知情同意”原則最多是個擺設,因為用戶基本都是被迫同意,不同意則無法享受服務[22]。相較于普通的隱私權侵權,政府部門、汽車生產商以及網絡經營者擁有對汽車智能系統的強管控力和支配力,他們利用網絡及智能系統對車輛使用者隱私權的侵犯具有較強的技術性、隱蔽性,受害者更難確定和追究其侵權責任。由此可見,在無人駕駛汽車領域,無論是現行“知情同意”原則的運用,還是其他隱私政策的方案或承諾,都存在對自治性隱私權侵犯之嫌疑。也就是說,在自治性隱私權視角下,隱私信息的支配權應當屬于車輛使用人,使用人有權決定是否允許他人收集和利用自身隱私信息,知曉其具體用途,并要求使用者確保其足夠的安全性。但無人駕駛汽車智能系統的數據采集和處理技術會極大削弱個人對其隱私信息的支配力和保護力,自治性隱私權的保護在人工智能和算法技術面前危機四伏,我們的一切行蹤被無人駕駛機車記錄,一切信息被網絡所監管。誠如有學者所言: “社會個體不知自己有多少信息已被記錄,這些信息將會傳到何處,也不知為何人所用,為何而用,更無從知曉此類信息被泄露后將滋生何種后果?”[23]事實上,就目前實踐來看,滴滴或各種導航軟件都在不斷記錄著個人出行軌跡,甚至在一定程度上能預測或決定我們去哪兒。可以預測,現行私法對自治性隱私權的保護規則在未來無人駕駛汽車的智能系統中將難以奏效。
總體來看,無人駕駛汽車所帶來的隱私權侵權風險是一種人為的技術風險,這種風險由于起初默認“社會的可接受性”,會在某種程度上增加人類行為的不確定性,該風險也將突破國界的地域性限制而向全球擴散。在此背景下,人工智能的強自主性愈發明顯,人類對其產生的高度依賴性最終可能會演化為失控性[24]。如此一來,隱私權的概念界定及其法律保護均面臨系列危機。2010 年Facebook 創始人Mark Zuckerberg 提出“隱私不再是一項社會標準”之觀點(4)Emma Barnett,Facebook’s Mark Zuckerberg Says“Privacy Is No Longer a‘Social Norm’”,THE TELEGRAPH(Jan.11,2010),http: //www.telegraph.co.uk/technology/facebook/6966628/Facebooks-MarkZuckerberg-says-privacy-is-no-longer-a-social-norm.html,2020-03-11.。2013 年谷歌首席工程師Vint Cerf 曾指出,隱私也許是一個反常的概念,可能歷史上的一些東西可以幫助我們適應一個即將到來的透明社會(5)Gregory Ferenstein,Google’s Cerf Says“Privacy May Be An Anomaly”.Historically,He’s Right,TECH CRUNCH( Nov.20,2013) ,http: //www.tuicool.com/articles/AVNvm2Y,2020-03-11.。邁阿密大學Froomkin 教授更是發出“隱私已死”的質疑[25]。這些觀點讓我們為隱私權的命運深感擔憂,大數據、人工智能技術的普及和運用使得隱私權的傳統私法保護機制正在逐步失效。從信息性隱私權和自治性隱私權的原理出發,目前各國法都傾向于認可個人對其隱私信息享有控制權和自決權,公眾也想將隱私信息擁有權握在自己的手中。但因此類數據信息具有虛擬性、廣泛性和可復制性等特點,個人幾乎無法采取如控制土地、企業的方式來管控數據信息。相反,個人隱私權的命運實際上只能由互聯網巨頭企業、政府來決定。而政府和企業往往容易實現強強聯合,以利用個人數據信息達至各取所需之目的,這就使得現行隱私權保護理論和制度在大數據、人工智能技術面前顯得捉襟見肘,其局限性愈發顯著,具體表現為:
一是現行法律中所采用的隱私控制理論功能衰微。今天,隨著互聯網+大數據技術的深度發展,一個以“萬物互聯,人人在線,事事算法”為特征的人工智能時代即將來臨[26]。故在人工智能面前,無論是知情同意原則,還是匿名化或模糊化處理的隱私保護模式都將面臨困境[27]。作為“隱私例外”法律基礎的“匿名化”處理規則,將因為撞庫和大數據等再識別技術的應用而難以奏效。以美國在線隱私再識別案為例,行為人通過撞庫技術使用戶代碼與“如何殺死你的妻子”“死者照片”及“撞車照片”等聯系起來[28]。可見,這種再識別技術實則突破了匿名化技術的限制。雖然現行法試圖將控制理論作為隱私權保護的核心,以此凸顯自然人的權利主體地位,但該理論的缺陷也顯而易見,其適用價值僅限于隱私信息的采集和初用階段,對于后續隱私信息的再挖掘和復次利用,自然人的控制力便難以實現。因此,隱私控制理論的實踐價值在人工智能時代將被持續弱化。由此,人工智能時代的隱私保護規則強調的重點不應是信息收集之時的知情同意規則,而應重點規制處理者后續可能的侵權行為及責任承擔問題。因為“同意”多會被視為個人授權和允許企業再度利用其隱私數據的合理性基礎,但同意之后個人基本無力控制其隱私數據,更無法享有這些數據所帶來的財產權益。
二是人工智能技術控制隱私的能力增強,使人類活動無處不在監控中。無人駕駛汽車智能系統利用傳感器和處理器,極大地增加對使用者隱私的監控能力。其在不斷收集個人數據的同時,借助圖像識別技術,車身內外的數字攝像頭就像安裝了大腦的眼睛一樣,可以精準地從人群中自動識別人臉,鎖定監控對象,甚至預測和判斷人的行為[29]。如此一來,汽車作為使用者私密空間的“人設”已被徹底打破,我們的個人隱私數據時刻在被不斷侵蝕。盡管人工智能的強預判力確有可能讓人類社會變得更安全和高效,但是“未來一切被預測”正在漸次蠶食人們自主決策和判斷的能力。質言之,人工智能在服務于人類的同時,亦在不斷要求我們放棄或讓渡個人信息,放棄人類固有的基本權利,人類面臨逐漸喪失自我的風險。
三是自動化決策尚未明確信息處理的邊界,隱私信息與一般個人信息被一體化采集。在無人駕駛領域,算法的自動化決策使得隱私信息采集呈常態化。如谷歌公司曾經宣稱其自主生產的無人駕駛汽車采集了高達10 億的仿真數據和350 萬英里的路測數據。這些數據中必然包括隱私信息和個人信息。換言之,這種通過算法的自動化決策所作出的信息采集行為,并不會自動識別和區分隱私和個人信息,進而會導致隱私與個人信息被一體化處理。這里引發的問題是:無人駕駛汽車的運行需要人們最大限度讓渡個人信息,人們提供的信息越全面,汽車的智能化水平會越高,也更能為人類提供個性化服務,但與此同時也會加重個人被透明化的風險。隱私和個人信息的有效保護與合理利用之間的沖突難以協調。而依照我國《民法典》和《個人信息保護法》( 草案) 的相關規定,隱私權作為一項法定人格權,其受法律的保護程度要強于普通的個人信息。自然人對其隱私利益具有完全自主的支配性,以排除任何組織和個人的侵害、妨礙。故法律并未規定對“隱私權”的合理使用規則。而對于個人信息,其受保護的程度則不如隱私權那樣嚴格,需要考慮信息利用與信息自由之間的平衡,考慮公共利益的限制等因素。但就無人駕駛汽車運行過程中的信息處理來看,實際上所采取的是“一攬子”同意的方式,打包收集和處理個人的一般信息和敏感信息,包括姓名、住址、電話號碼、行蹤信息、健康信息、生物識別信息等多種類型。其中,諸如車內人員生物識別信息、健康信息、親密行為等應當屬于敏感個人信息( 甚至是隱私信息) 的范疇,而且與無人駕駛汽車運行并非必然相關,但亦會被智能錄音、錄像系統自動作一體化處理。這種一并采集車內人員健康信息等隱私信息的行為,顯然超出了“自動駕駛”所必須的信息處理界限,亦違背了法律關于隱私信息與一般個人信息區分保護的規則,自然亦會增加隱私及個人信息被侵害的風險。
四是隱私權受侵害后的司法救濟乏力。一般而言,無人駕駛汽車智能系統對個人隱私數據的收集和利用是循環反復的過程,其對個人隱私權的侵權更多體現在“量”上而非“質”上,智能系統后臺將成為大量隱私信息的載體。這種通過大數據技術的特殊侵權行為給司法實踐造成的困境是: 第一,集體行動難題導致司法程序啟動難度劇增。因為每個普通人基本都是善于功利計算的“理性人”,在面臨集體損害的情況下,“觀望”“搭便車”的心態使得權利救濟變得艱難。這同時也會反向助長侵權人的侵權行為。第二,舉證難度系數大。根據現行舉證規則,“誰主張、誰舉證”幾乎無法實現。個人想在人工智能技術面前收集證據基本無能為力,因為網絡侵權的隱秘性、高度技術性是個人無法掌控的,個人隱私數據悄無聲息地被侵害后,我們還必須請求侵權人提供相關的侵權證據,也即要求侵權人提供對己方不利的證據,這在實踐中其實行不通。第三,受害人難以確定其實際損失。在理論上,遭受隱私侵權會“損害人們精神上的安寧與舒適,且有可能造成比單純肉體傷害更加尖銳的痛苦”[30]。但如何計算這種損失,可否對侵權人適用“懲罰性賠償”規則尚存爭議。此外,這種大數據侵權行為該如何計算每一個個體所受損害也存在難題。綜上,隱私權受侵害后的司法救濟困難重重。
以上困境和局限性提醒我們,人工智能技術給隱私權帶來的風險能否被有效治理,能否通過立法來促進智能技術發展和保護個人隱私相平衡,已成我國法律所亟待解決的難題。隱私和隱私權塑造了我們稱為“自我”的標識,是人格尊嚴和人身自由的基本元素,作為自我界定和個人發展的一項基本要件。因此,面對現實中隱私權保護的種種不足,國家不能再保持純粹中立的立場,且有義務規范自己和監督企業對個人數據的處理行為,以有效保護如此重要的信息自決權。此外,企業與行業組織更不能袖手旁觀,亟需合力共同保障個人隱私安全。可供參考的隱私權保護進路如下。
1.現行民法關于隱私權的規制及其瑕疵。我國屬于典型的成文法國家,某一權利能夠為法律所認可,以至被稱為“××權”,最為直接的路徑系以立法的形式設立[31]。隱私權的演進歷程充分體現了這一點,我國最早通過類推保護隱私的方法,在《民法通則》尚未規定隱私及隱私權概念之背景下,最高人民法院制定的《民通意見》第一百四十條就規定:“以書面、口頭等形式宣揚他人的隱私,或者捏造事實公然丑化他人人格,以及用侮辱、誹謗等方式損害他人名譽,造成一定影響的,應當認定為侵害公民名譽權的行為。”這表明,當個人隱私受到侵害時,可以提起名譽權侵權之訴予以救濟。司法機關通過這種類推方法的適用來克服《民法通則》立法的局限性。此外,最高人民法院還通過創設轉介條款來解決隱私保護問題,其在2001 年制定的《精神損害賠償司法解釋》第一條中確立了侵害他人隱私可參照其他人格利益受侵害時主張精神損害賠償的規則。而關于隱私權的正式立法確認則是由《侵權責任法》來完成的,該法在第二條第二款明確了隱私權屬于民事主體的一項獨立的民事權益。直至2017 年,隱私權才在《民法總則》中被明文規定為一項完整的民事權利。可見,隱私權在我國的法定化之路用了近30 年時間,嚴格意義上講,隱私權在《民法總則》中才真正取得了權利的名分。
需注意的是,《民法總則》第一百一十條關于隱私權的概括性規定,尚不足以應對大數據、人工智能技術對隱私權的挑戰。對此,最新通過的《中華人民共和國民法典》( 簡稱《民法典》) 第一千零三十二條、一千零三十三條分別對自然人享有隱私權、隱私的含義以及侵害隱私的方式作出了具體規定。第一千零三十二條再度強調“任何組織或者個人不得以刺探、侵擾、泄露、公開等方式侵害他人的隱私權”。第一千零三十三條具體列舉了不得侵害隱私權的行為清單,從具體規定來看,立法更加注重隱私的私密性特征,將私密性的私人空間、私人活動和私人信息等歸屬于隱私的范疇。同時,個人身體私密部位、生活安寧亦屬于隱私權的保護范圍。《民法典》關于隱私權的規定,相較于以往民事立法或司法解釋而言有明顯的進步意義,也反映出我國立法者一直為建構一套完整的隱私權保護規則而作出的努力。但遺憾的是,《民法典·人格權編》并未正面列舉隱私權的保護范圍,對于公共場所的隱私、共同隱私、醫療健康隱私等也未作出回應。侵權責任編也沒有專門設置隱私權的侵權救濟規則,加之隱私權的其他配套法律保護機制的不完備,在應對大數據、人工智能技術所帶來的隱私風險時仍凸顯乏力。
2.隱私權保護之立法優化進路。針對無人駕駛汽車引發的隱私權挑戰,筆者認為,在民事立法層面,至少應該盡可能為隱私權保護確立好基礎規則。面對現行立法存在的瑕疵,可以從如下方面予以改進。首先,完善《民法典》中關于隱私權制度的立法解釋。既然我國立法者有意在民法典中設置人格權編,那就應該盡可能詳盡地規定每一項具體人格權。就隱私權而言,面對民法典的規定可能出現的適用障礙,建議在條件成熟的時候通過立法解釋的方式予以補充完善。具體可將第一千零三十二條修訂為:“自然人享有隱私權。任何組織或者個人不得以刺探、收集、侵擾、泄露、公開或者使用他人的隱私。本法所稱的隱私,是指個人具有私密性的私人空間、私人活動、私人生活和私人信息等”。因為在人工智能時代,侵害隱私的方式除了“刺探、侵擾、泄露、公開”外,更多是收集和利用,此兩種行為最為典型,有必要予以明確規定。而立法在定義隱私時忽略了私人生活,更不能完全體現隱私的內涵,應當在后續修法或立法解釋中予以補增。其次,需要新增“公共場所的隱私、共同隱私、醫療健康隱私”的保護條款,以充實現有的隱私權權利體系。在大數據和人工智能時代,隱私權的保護范圍應當及時更新,網絡侵害隱私權、無人駕駛汽車等人工智能產品的隱私權侵權不限于特定的私人場所,個人在公共場所也有合理的隱私期待,應當予以保護。同時,醫療健康隱私受侵害的可能性較高,具有受保護的必要性和可行性。最后,需要調整隱私權侵權責任歸責原則。隱私及隱私權一旦被侵犯,無法恢復原狀,加上智能網絡侵權具有隱蔽性、強技術性,難以舉證,此類侵權宜采取過錯推定原則,以便更好保護個人隱私。同時,侵權法還需進一步強化隱私信息控制者、侵權人的法律責任。故在民法典體系下,通過在人格權編創設完備的隱私權制度體系,在侵權責任編設置侵權損害的救濟規則,以從私法基本法的視角為隱私權搭建完整有效的權利實現機制,讓個人真正能夠享受立法實惠,通過隱私權保護實現自我價值。
在人工智能時代,具備深度學習和決策功能的智能算法正在脫離人的控制而發展成為一種新興的技術權力,通過對海量數據的分析處理來影響和規范人的行為[32]。但算法偏見、算法歧視往往會導致算法偏離正義,對人類科技和隱私信息安全均造成嚴重威脅。從人工智能安全的內部視角出發,對人工智能進行規制的核心在于對其算法設計的規制[33]。無人駕駛汽車的算法還關系到公共交通與公民的人身安全,更需要進行嚴格的規范。對此,筆者認為具體可采取如下規制路徑。
一是通過立法實現對規范算法技術的規范控制。要實現對算法權力的有效規制,則需要以法律形式明晰算法在設計、部署和應用的整個生命周期中所應遵守的技術規范,以算法行為的合規性實現算法可信[34]。例如,可將算法的技術性規范、倫理要求等均上升為法律規范,以法律的強制力來限制“算法權力”的任性,以確保算法的透明度、公正性。比較法上,歐盟立法率先對數據控制者自動處理個人數據信息的行為作出明確要求,其在《通用數據保護條例》序言中明確規定:“數據控制者對數據的自動處理應當符合適當的保障措施。這些措施包括:向數據主體提供特定信息,并且有權要求人為干預,表達自己的觀點,獲得對經評估所獲決定的解釋,并有權挑戰自動決策程序做出的決定。”可見,歐盟立法實際上在致力于明確數據控制者的算法透明義務,以化解人們的“算法黑箱”隱憂。
二是明確算法自主決策的應用范圍和限制條件。具體而言,首先需要限制算法決策的適用領域,即立法有必要明確算法應用的邊界。例如,《歐盟通用數據保護條例》第22 條( 1) 規定,如果算法決策對數據主體有法律效力或者重大影響,那么這種決策不應純粹由算法作出。我國《個人信息保護法》( 草案) 第二十五條也規定:“通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。”此外,還需要明確限制算法自動化處理個人信息的范圍。過度收集和處理個人信息,會徒增個人信息被濫用的風險,故需要明確信息自動化處理的邊界。在無人駕駛領域,與車輛運營無關的隱私信息( 如車內人員的健康信息、私密談話等) 不應當被一并采集。這就要求算法設計者在進行初始設計時就應當嚴格按照法律的規定進行技術設置,使其在進行信息處理時自動過濾掉與運行無關的個人信息。對此,《個人信息保護法》( 草案) 第六條也明確要求信息處理者“處理個人信息應當具有明確、合理的目的,并應當限于實現處理目的所必要的最小范圍、采取對個人權益影響最小的方式,不得進行與處理目的無關的個人信息處理。”
三是規范算法的問責機制。算法的問責包括如下兩方面內涵:其一是指算法使用者或者控制者有義務報告并證明算法系統設計和決策應用的合理性,并有義務減輕算法可能帶來的任何負面影響或者潛在危害,這是從外部監管的邏輯進行算法治理;其二是指算法相關主體就其不當行為以及算法執行中產生的損害承擔相應的法律責任[35],此為以責任分配的邏輯進行算法治理。從比較法層面看,美國部分州已開啟了算法問責的立法進程。例如,紐約早在2017 年12 月18 日就通過了美國立法史上首部針對公用事業領域的算法問責法案(6)The New York City Council,“Algorithmic Accountability Bill”,https: //legistar. council. nyc. gov/LegislationDetail. aspx? ID =3137815&GUID=437A6A6D-62E1-47E2-9C42-461253F9C6D0,2021-05-22.。該法基本建立了算法問責的核心治理框架,明確將自動化決策、算法輔助決策以及支持決策的情形納入規制對象,并規定算法問責制的適用主體為使用自動化決策系統的行政機構以及慈善組織,實施主體自動化決策工作組。2019 年4 月,在美國國會議員所提出的“算法問責法案”中,擬對每年收入超過5000 萬美元、持有100 萬人或者設備信息的公司或者主要作為買賣消費者數據的數據經紀人公司實行審查。該法案希望通過聯邦貿易委員會制定評估“高度敏感性”自動化決策的規則,以評估該系統是否存在偏見或者歧視,以及是否對消費者隱私或者安全存在風險(7)Adi Robertson,“A New Bill Would Force Companies to Check Their Algorithms for Bias”,https: //www.theverge.com/2019/4/10/18304960/congress-algorithmic-accountability-act-wyden-clarke-booker-bill-introduced-house-senate,2021-05-22.。可見,前述兩個問責法案雖然規制對象有所不同,但均主張建立算法問責機制,尋求通過外部監管的形式來進行算法治理,以限制算法權力的擴張或異化。而從我國《個人信息保護法》( 草案) 的相關規定來看,其在第五章規定了“個人信息處理者義務”,僅涉及個人信息處理者的安全保障義務( 第五十一條) 、風險評估義務( 第五十五條) 、及時通知義務( 第五十六條) 以及對個人信息處理活動的監督義務( 第五十七條) 。在第七章的“法律責任”中,主要規定的是行政責任( 第六十五條) 以及民事賠償責任( 第六十八條) 。但并未對“算法的問責”機制問題作出明確回應,第二十五條雖然對利用個人信息進行自動化決策的問題作了原則性規定,但并未對如何“保證決策的透明度和結果公平合理”的問題作進一步細化。從有效規制“算法權力”的視角來看,我國未來的立法也應建立算法的問責機制,以從源頭上解決算法正義問題。
在技術面前,法律永遠具有滯后性。以往的侵權法立法較多注重損害賠償,較少關注如何預防損害。在我國,網絡時代的隱私權保護正在經歷著“先損害—后補救”之過程。面對大數據、人工智能技術給隱私權保護帶來的風險挑戰,包括立法者、司法機關、隱私專家、政府和互聯網企業在內的社會各界普遍意識到僅僅依靠單一的法律手段來對隱私進行保護難以達到理想效果,技術難題還需要強有力的技術手段來攻克。因此,尋求隱私權的技術保護路徑,注重法律與技術的融貫成為隱私權保護的又一重要策略。因我國隱私保護的技術措施還處于初級階段,故可借鑒域外先進經驗為我所用。具體而言,可從目前國際上認可的隱私設計理論入手解決人工智能時代的隱私權保護。在比較法上,隱私設計理論主要體現在如下方面。
一是強化從設計著手隱私理念( Privacy by Design,簡稱PbD) 。該理念認為:只有從一開始就依照隱私保護的需求設計和開發數據處理產品、程序和技術,才能使數據保護更加容易實施。在PbD 理念下,隱私權保護成為了數據開發和人工智能產品設計的關鍵問題,而非附屬問題。有鑒于此,2010 年第32 屆數據保護和隱私專員國際大會一致通過了《隱私設計解決方案》,明確將隱私設計理論作為未來隱私保護至關重要的部分。當前,隱私設計理論已被美國、歐盟立法以及谷歌等互聯網巨頭企業所接受[36]。國外有學者提出了隱私設計需遵循的七項基本原則: 一是積極預防,而非被動補救; 二是將隱私保護作為默認需求;三是將隱私嵌入智能系統的設計中;四是完整功能——正和而非零和;五是整個生命周期的安全保護機制;六是可見性和透明性;七是尊重用戶隱私,確保以用戶為中心[37]。此外,依照《人工智能倫理與數據保護宣言》之規定,任何人工智能系統的創建、開發和使用都必須尊重人權,保護個人數據和隱私權以及人格尊嚴不受侵犯的權利,并確立了公平、責任、透明度、倫理設計、公眾參與以及非歧視性六項基本原則。據此,無人駕駛汽車的設計者在對智能系統的設計時就需謹遵上述基本原則,應當注重從源頭上解決隱私權保護問題,尤其需要將倫理規則設置在智能系統中,以確保人類能有效控制和理解人工智能系統,在人機關系中永遠保證人的主動權,如此方能充分實現個人隱私權的技術保障功能。
二是注重隱私增強技術的應用。網絡侵權具有較強的技術性,運用隱私增強技術可在一定程度上解決這種技術性障礙,以彌補法律保護隱私之不足。所謂隱私增強技術,是指可用于增強用戶隱私信息保護的技術,包括編碼、加密、防火墻、匿名通訊技術等(8)G.W.van Blarkom,J.J.Borking,J.G.E.Olk.Handbook of Privacy and Privacy-Enhancing Technologies: The Case of Intelligent Software Agents.College bescherming persoonsgegevens,2003:33.。實踐中,通過對個人隱私數據作匿名化處理,讓數據收集者、使用者不能輕易通過數據分析來識別與之相匹配的個人,以達限制識別之目的。如《德國聯邦數據保護法》就明確規定了匿名和化名處理規則,該法第3 條第6 款規定,匿名處理是指修改個人數據以使有關私人或事實情況的個人信息無法與已識別的或者可識別出的自然人相對應,或者該對應需要付出大量成本;化名處理是指用符號代替姓名和其他可識別出的特征,以排除識別數據主體的可能性或者使這種識別變得非常困難[38]。對于匿名化等隱私增強技術的運用,既可以保護個人的隱私數據,又有助于社會聚焦大數據。目前在法律不能完全有效保護隱私權的情形下,運用技術方案是較為現實的選擇。但所有技術的運用都蘊含著風險,如匿名化技術面臨反匿名化的問題,即黑客運用技術手段可以實現匿名數據與主體真實身份的比對,還有內部人可以使用非公知的信息重新識別被匿名化的身份信息[39]。對此,有學者提出可以聯合采用“匿名化技術措施和行政管理措施”保護數據主體的隱私[40]。一方面,加強企業的內部控制,如運用隱私安全政策、保密協議、限制接觸等內部措施防止泄露隱私;另一方面,重視外部控制和法律保護,通過行政手段和法律手段來保護個人隱私,以降低潛在的侵權人侵害隱私權的可能性。當然,這些技術要發揮實際效用,還得從設計理念入手,即將隱私嵌入設計理念與具體方案中才得以奏效。
由上可知,在以無人駕駛汽車為代表的人工智能領域,對于隱私權的保護需要采取風險預防、技術補強和法律規制的有效結合,以克服以往“告知—同意”機制的不足,讓隱私信息的管理者、信息主體參與到生產企業運作和個人隱私保護的全過程,有助于提升汽車生產商、網絡經營者對個人隱私保護的能力和主動性。法律在此過程中則更需注重平衡各種價值的實現,即其制度設計更應該關注個人隱私保護與適應新興技術變遷之間的利益衡量。
在法律制度尚不完備之時,除了通過技術措施解決隱私保護難題外,通過規范行業自律規則發揮企業自我規制功能,亦是解決隱私數據保護困境的有效路徑。在實踐中,行業規則對市場行為的規范作用不容小視,其有利于企業對數據的收集與利用,以及整個人工智能產業的發展。因為如果數據開發和利用是建立在尊重和保護用戶隱私基礎之上的,這將極大提升用戶對該行業及產品的認同感和信任值。就無人駕駛汽車而言,其本身的功能顯著,加之其生產者能夠發揮自我規制的功效,這會加速無人駕駛汽車的市場占有率,促進整個產業的健康發展。實際上,這一做法旨在發揮市場在隱私保護中的規制作用。無論是人工智能機器人,還是無人駕駛汽車最終都要投入市場應用,只有在具體應用中才會出現相應的隱私權侵權行為。故市場也應當成為隱私權保護的前沿陣地。對此張民安教授早有洞見:“非官方手段在個人隱私權保護方面往往更加高效、敏感。這在具體實踐中已獲證實——通過科技手段、市場、行業自律、企業競爭以及個人判斷,人們可以獲得相當周全的隱私權保護[41]。”為提升市場公信力,數據巨頭企業們開發出“隱私增強技術”,以注重自身產品的安全性。同時,這些企業往往會在法律出臺之前先行制定行業規則的做法已成慣例。此外,企業還通過不斷修訂和改進自身的“隱私政策”來有針對性地保護個人隱私。例如,2018 年5 月25 日,谷歌公司在全球范圍內同時發布了多語種的最新版隱私政策,以應對當日正式生效實施的歐盟《通用數據保護條例》。該新版隱私政策對上述條例中確立的企業所需遵守的基本原則進行細化,將不利于個人信息保護的舊政策予以改進。如在目的限定原則方面,新政策較為詳細地解釋了企業為何收集信息,力求將收集個人信息的目的“具體、明確”地告知用戶,并承諾將用戶信息用于企業隱私政策未涵蓋的用途時事先征求用戶同意,以滿足目的限制的要求[42]。可見,企業作為精于計算的理性人,往往更能了解用戶的需求,熟悉產品的缺陷和可能的風險,通過發揮行業自律的作用,從而在一定程度上率先保護個人隱私,提升企業自身競爭力。
在大數據、人工智能時代,個人隱私數據的商品化價值愈發突出,個人信息正在被視為當代商業領域的“新石油”,企業可憑大數據分析知曉消費者的消費行為,同時也進行商品與服務的營銷。數據產業中的經營者,可通過對收集的海量個人數據分析與獨占獲利,且還主張對其收集和儲存的個人數據信息享有財產權[43]。正如尤瓦爾·赫拉利教授所言:“到21 世紀,數據的重要性會超過土地和機器而成為最重要的資產”[44]。對于無人駕駛汽車制造商及網絡服務商而言,收集數據或許比現實獲利更重要。可見,隱私數據具有財產價值自不待言。在數據經濟高度發達的今天,隱私信息往往被作為大數據交易中的基本元素來對待,隱私權的財產屬性愈發突出,這主要表現為:一是直接將隱私作為商品進行交易;二是透過大數據分析不斷挖掘隱私信息中蘊含的經濟元素。誠如波斯納所言:“個人隱私已經成為商品市場中的無形資產,成為一種經濟利益的中間產品,其目的在于促進社會財富的最大化”[45]。故而,個人對其隱私中的財產價值應享有受法律保護的權益,個人有權交易其隱私信息以彌補其所受損失從而促進個人信息市場公平運作的實現。
有鑒于此,筆者認為,在隱私財產權的具體實現路徑方面,首先要明確隱私財產權的歸屬問題。即在確定個人隱私信息具有可交易性的前提下,關鍵還須明確誰是真正的財產所有權人。在目前的實踐中,通常都是數據企業通過一紙“隱私協議”免費獲取個人隱私信息后擅自進行各種交易,從中攫取財產利益,個人根本無法享受后續交易的利益。此種做法只關注所謂企業的數字經濟,對真正數據提供者則置之不理,這對于個人而言是明顯不公平的。因此,應當明確個人作為隱私財產權的初始主體,明確二次交易的產權分配規則,兼顧數據經濟發展與個人隱私保護。其次,應當建立個人隱私信息的有償使用機制。既然數據對于無人駕駛汽車等人工智能如此重要,用戶有理由對自己提供的個人隱私信息收取費用[46]。雖然隱私權的本質是人格權,其更多體現人身屬性,但在大數據、人工智能時代,隱私權的財產價值已非常顯著,無論個人是否愿意,隱私信息被當作“商品”一樣被交易已成為不爭的事實,其獲利主體還是他人而非自己。在此情形下,建立個人隱私信息的有償使用機制既符合隱私權本身的價值,又能增強個人的隱私保護,也在一定程度上有助于保護個人的財產權。最后,需要明確個人隱私交易的具體規則。如果將所有的隱私信息都用于交易,那么隱私權就會變成典型的財產權,這與其權利本質相悖。因此,首先需要對交易對象進行區分,那些純粹屬于個人最為私密的敏感信息應當禁止交易,如此才能保證人格尊嚴得到絕對保護。只有一般性的個人信息,才可被鼓勵用于交易。在交易模式上,不能由數據收集者以格式條款的方式規定個人信息的交易價格和形式,應當按照公平原則確定交易形式,允許隱私主體享有議價的權利。此外,建立損害賠償制度也不失為一項可供參考的選擇,當隱私權遭受侵害后,以損害賠償金、違約金等方式對被侵權人給予賠償。同時,還需要加強公共機構的監督,因為在個人與數據企業、無人駕駛汽車生產商單獨進行利益博弈的過程中,個人顯然不具有任何優勢,這就需要由政府部門等公共機構來創建市場交易規則,監督各方遵守法律和協議,預防和救濟隱私侵權損害的發生,促使個人隱私財產權得以有效保障。
作為人工智能產品的無人駕駛汽車,其研發初衷在于為人類服務,其基礎需要以數據和算法作支撐,故對其隱私權的侵犯可能性自始存在。無人駕駛汽車對個人數據及周邊交通數據的收集和掌握越翔實,就越能提升其服務能力,但這也意味著人們在享受無人駕駛汽車更多智能服務的同時,不得不讓渡更多的個人隱私信息,由此引發隱私權保護的危機,也給隱私權的傳統法律保護機制帶來嚴峻挑戰。于此,本文一方面致力于厘清無人駕駛汽車對隱私權的具體侵權形態,對個人隱私和隱私權進行差別化保護;另一方面,基于新興人工智能的無人駕駛汽車侵權行為僅依靠法律規制難以奏效的客觀現實,主張多管齊下加以應對:既要健全法律規則體系,又需強化相應的技術保障,還得注重行業自律,發揮企業的自我規制功能,更要加強公共機構的監管。通過集合個人、企業、社會組織和政府的力量,共同守護體現個體自我屬性的隱私及隱私權,合力維護無人駕駛汽車產業的健康發展,最終實現多方共贏的目標,增進人類社會的福祉。