苗芳艷
(東南大學 人文學院,江蘇 南京 211189)
社交機器人在人類生活中扮演著越來越重要的角色,為增強用戶的信任和提升用戶的接受度,其服務過程中需要收集和處理用戶的個人隱私數據。隱私數據的收集引發了與用戶相關的一個關鍵問題——隱私悖論。隱私悖論(private paradox)是“用戶一方面擔心隱私安全,另一方面熱衷于分享個人的隱私信息?!盵1]這種隱私態度和隱私行為之間的矛盾即是隱私悖論。隱私態度是用戶對自我隱私泄露或者侵害的感知和意識,隱私行為是用戶對自我隱私信息的處理和保護。研究發現,當用戶對社交機器人的感知利益超越隱私保護時[2],隱私態度和隱私行為容易出現不一致的現象。本文從用戶隱私的理性計算、隱私的認知偏差和無隱私風險的評估三個角度分析人機交互中用戶隱私悖論的成因,并嘗試從隱私設計、隱私增強和隱私制度三個層面提出消解人機交互中用戶隱私悖論的路徑。
社交機器人在協助人類完成日常任務時,與人共享著空間、環境和數據。許多用戶接受它們作為日常生活中的一部分[3]。其在開發和使用過程中通過收集用戶需求、偏好和期望等數據,了解用戶的個人習慣和生活方式,增進用戶對社交機器人的信任度。然而,如何以尊重用戶隱私的方式開發和使用社交機器人,成為發展可信社交機器人的倫理難題。由于隱私定義和分類的復雜性,人機交互背景下的隱私概念未得到學界的統一,有必要厘清社交機器人背景下隱私概念的復雜性和隱私悖論的真實性。
隱私的概念隨著技術的發展而復雜化。技術和隱私關系的討論可以追溯到19世紀90年代便攜式攝影設備的出現,技術的發展促使隱私從公共空間走向個人空間領域,改變了政府、研究人員、公眾等對技術和隱私關系的思考。以往隱私僅限于某些公共領域,如用于公共空間或經濟行為等。但隨著智能技術尤其是社交機器人的發展和使用,個人空間領域的隱私發生了很大的變化,出現了用戶數據被機器制造商收集甚至濫用的現象。學界對隱私的關注越來越多,如通信、計算機科學、心理學、社會學、信息系統、經濟和法律等學科,眾多學科對隱私的關注使隱私的概念變得更為復雜。社交機器人因其自主性的特征和多樣化的角色增加了隱私概念的復雜性。
1.社交機器人作為家庭用戶的助手,具有移動性和自主性,配備各種傳感器。例如,視覺傳感器和紅外傳感器。這些傳感器允許機器人感知周圍的環境并與用戶互動以發揮更個性化的服務。在互動中它們會接觸到有關用戶身體、偏好和生活習慣的隱私數據,可以獲取更多的個人數據。
2.社交機器人隱私的復雜性取決于人機交互中用戶如何看待社交機器人的角色,用戶對社交機器人角色的定位成為隱私邊界的關鍵。若用戶把社交機器人視為朋友、伴侶,那么,用戶愿意和社交機器人共享其更多的個人信息,甚至把潛在的敏感信息也分享給機器人。在用戶不知情的情況下,用戶的數據可能會被制造商應用于其他不道德甚至違法的數據收集活動。在此意義上,社交機器人的隱私包括兩部分:一是物理隱私。因為社交機器人以自主的方式監視個人,與用戶共享生活空間和環境;二是信息隱私。隨著社交機器人擬人化和個性化發展的需求,收集用戶越來越多的個人偏好、習慣等數據時,加大了對用戶的敏感信息以及數據訪問等披露的風險,隱私問題變得更為復雜。
20世紀90年代羅杰·克拉克提出四種不同類型的隱私,包括身體隱私、個人數據隱私、個人行為隱私、個人交流隱私[4]。他是第一個以邏輯化、結構化和連貫的方式對隱私進行分類的學者。隨著新興技術的發展,克拉克的隱私分類無法涵蓋新技術潛在的隱私問題,芬恩等人提出七種隱私類型以應對新興技術。例如,無人機、人類增強技術和生物識別技術,這一更為詳細的隱私類型同樣可以應對社交機器人隱私的復雜性。
芬恩提出的七種隱私包括身體隱私、行為隱私、信息隱私、數據和圖像隱私、思想和感情隱私、空間隱私、團體隱私[5]。在人機交互領域克里斯托夫·盧茨等學者把社交機器人的隱私類型分為物理隱私(physical privacy)、機構信息隱私(institutional informational privacy)、社交信息隱私(social informational privacy)[6]。物理隱私主要是社交機器人與物理對象和空間交互的隱私類型;機構信息隱私是機器制造商、政府機構和第三方(數據經紀人等)的信息控制、數據保護和數據處理的隱私類型;社交信息隱私是圍繞個人訪問和數據保護而進行數據收集的隱私類型。這一分類比七種隱私劃分更為簡潔。因此,本文認同用戶與社交機器人交互的隱私概念包括三大部分:物理隱私、機構信息隱私和社交信息隱私。
歐洲機器人倫理工作室成員(The Euron Roboethics Atelier)指出,隱私是與社交機器人相關的必須解決的倫理問題之一[7]。社交機器人技術與其他技術不同,它有三個重要的功能:一是任務功能,使自己“有用”,即能執行各種任務,幫助人類;二是社交功能,能夠以社會可接受的方式與人類互動;三是自適應功能,這些功能可以響應用戶的不同需求和偏好[8]。要發揮三大功能尤其是社交功能,必須通過收集用戶的數據實現個性化的服務。與用戶相關的物理隱私、機構信息隱私和社交信息隱私,一方面模糊了個人隱私信息收集的界限,另一方面使得用戶很難明確自己隱私的邊界,造成用戶在隱私態度和行為上出現矛盾,隱私悖論由此產生。
社交機器人有關隱私的實證研究也證實了用戶隱私悖論的真實存在??死锼雇蟹颉けR茨通過結構方程模型對社交機器人三種隱私進行了實證研究。研究發現:受訪者最關心的是機構信息隱私即制造商方面的數據保護,其次他們擔心社交信息隱私如黑客攻擊和跟蹤等隱私風險。相比而言,信息隱私(包括機構信息隱私和社交信息隱私)更令用戶擔憂。瑞恩·卡洛指出社交機器人背景下的隱私風險主要通過三種方式產生:直接監控、頻繁訪問和社交風險[9]。
1.社交機器人影響用戶最直接的方式是監控。社交機器人作為家庭助手,為了給用戶提供更加個性化、智能化的服務,配備了一系列精密的傳感器和探測器,包括隱藏式的紅外攝像機、聲吶或激光測距儀、氣味探測儀、GPS等,極大增強了對用戶甚至家人的監視能力。當下警方可以通過充分的法律程序進入家庭進行搜查,但根據《電子通訊隱私法》,許多社交機器人收集的數據,現在可以由政府在僅僅發出傳票甚至是發出要求的情況下全部獲取,直接監控使得購買社交機器人的家庭和用戶遭受個人隱私披露的風險。
2.社交機器人影響用戶隱私的另一種方式是訪問用戶的私人歷史數據。社交機器人成為政府、執法人員、黑客等獲取有關居民隱私空間內部信息的一種新方式。目前的技術還存在被黑客攻擊和破壞的危險,私人歷史數據一旦被披露,用戶的隱私數據潛藏著被侵犯甚至不正當利用的倫理風險。
3.社交機器人的社交風險給用戶的隱私保護增加了復雜性。社交機器人因其本身具有社會交互性和擬人化的特征,“用戶和社交機器人之間形成了信任和依戀,反過來會影響甚至操縱用戶自發地向機器人披露私人敏感信息?!盵10]研究表明,擬人化的技術使得人們會做出更加積極的反應,產生隱私保護的復雜性。這種復雜性表現在三個方面:一是用戶把社交機器人引入家中,參與到個人的生活中,會使得自身的隱私保護機會減少;二是社交機器人不僅可以獲取更多的私人信息,還擁有比人類更完美的記憶、不知羞愧的心理和不知疲倦的身體,社交機器人超越人類的有限理性,使得人們愿意信任社交機器人;三是因社交機器人社交特性導致高度敏感的個人信息披露,社交機器人將了解用戶的習慣、偏好、疾病信息和個人情況等敏感的信息。社交機器人的直接監控、頻繁訪問和社交風險使得人機交互中的隱私問題更加復雜。
社交機器人是高度個性化的產品,適合用戶的需求、行為和偏好。因此,在提供個性化服務的同時面臨著披露用戶的數據信息的倫理風險。一方面,用戶希望社交機器人能夠為其更好、更個性化地服務;另一方面,為了換取短期利益人們不得不以披露自己的隱私為手段,這樣隱私悖論就真實存在于人機交互的過程中。
隱私和數據治理在歐盟委員會的可信人工智能道德準則被確立為優先考慮的一項要求[11]。學界有多種理論可以解釋隱私悖論。例如,隱私計算理論、有限理性理論、社會理論、解釋水平理論、量子力學理論[12]。目前在隱私悖論的文獻中,隱私計算(privacy calculus)是占主導地位的一種理論解釋[13],國內也有學者從隱私關注視角下通過隱私計算闡述隱私悖論的成因框架[14]。隱私計算理論認為用戶有意識和理性權衡披露信息隱私的成本效益比[15]。具體而言,用戶會對社交機器人的隱私風險和收益進行計算。如果隱私收益大于風險,他們將愿意披露隱私以獲取更大的收益,即便社交機器人有著潛在的隱私披露風險,用戶也愿意披露隱私信息達成自己的意圖,這造成人們在隱私問題上認知和行為的分離。本文分析人機交互中用戶隱私態度和隱私行為不一致的成因如下:
用戶隱私的理性計算,是用戶通過隱私風險收益決定與社交機器人在何種程度上共享個人的數據等的行為,在社交機器人使用意向上發揮著重要的作用。用戶對隱私行為進行決策時,會通過計算權衡最大化效用和最小化風險,以決定自己的隱私信息披露的程度和保護的界限。然而,在風險收益計算中,會忽視隱私保護的問題,具體有以下幾種情況:
1.隱私利益感知大于隱私風險感知。用戶和社交機器人建立關系的過程可以分為初次使用、探索使用和管理使用三個過程。從前一個過程到下一個過程的進展源于對相關利益和風險的理解和感知。很多時候用戶還未能了解清楚社交機器人的使用功能,更無法意識到社交機器人傳感器可能收集到私人數據的界限和權限,用戶只感知到社交機器人帶來的利益,往往容易忽視社交機器人潛在的隱私披露風險。因此,社交機器人所能給予的經濟利益、個性化服務和社會效益會抵消用戶隱私感知的負面影響。用戶很難再去關注服務供應商的傳感器和位置跟蹤等系統問題,更傾向于關注實際收益。因此,會出現隱私披露的風險。
2.個性化特質導致隱私悖論。社交機器人本身作為個性化的機器人,走進人們的生活。有學者提出在隱私模型中加入五大人格因素和跨文化差異的影響[16]。無論文化環境如何,外向性和隨和性個體更能感知到收益,這會導致具有這種個性特質的人將會在人機交互中分享更多的個人隱私。隱私信息披露的程度和保護的邊界因個性化特質迥異,個性化的特質導致人們處理個人隱私的方式不同,隱私態度和行為也存在差異。
與用戶隱私的理性計算相反,隱私利益和風險權衡也會受到用戶認知偏差的影響。用戶容易感受當下可以獲得的利益,但對自己隱私披露的風險不那么敏感,甚至不在意。因此,用戶在對社交機器人個人數據的判斷上會出現系統性的偏差。研究表明,用戶的決策過程受到各種認知偏差和啟發式的影響[17]。具體影響如下:
1.啟發式。啟發式是一個經驗法則,是人們基于自己的經驗、知識和直覺做出快速判斷的心理捷徑[18]。利益啟發式傾向于披露更多的個人信息[19]。用戶在使用社交機器人時,為了使社交機器人的功能達到最優化,不斷嘗試最大化利益,在用戶有限理性的認知范圍下,選擇低于標準的方案來滿足自己的利益需求,會導致對隱私風險的認知偏差。從用戶主觀的角度講,對隱私風險的感知和評估是在用戶個人隱私保護的經驗基礎上進行的,即使用戶先前擁有隱私的相關信息,但也無法準確理解所有的信息,這導致了用戶心理上允許個人快速做出決定,引起隱私認知偏差的產生。
2.樂觀偏差。樂觀偏差有兩種情況:一種是用戶低估自己隱私被侵犯的風險,另一種是高估其他人經歷不良事件的可能性。樂觀偏差的兩種情況最終導致用戶相信自己的隱私沒有受到威脅,這種情況增加了隱私風險披露的可能性。由于樂觀偏差,偏見感知、低估隱私風險等,不了解社交機器人關乎私人數據的重要性和用途,甚至低估隱私風險。即便可以設置機器人在數據上的權限,也沒有采取適當的行為保護私人信息,造成用戶對社交機器人的感知利益超過了隱私風險,導致對未來隱私風險的風險評估不足,使得在隱私和利益權衡中出現了自相矛盾的情況。
3.即時滿足。即時滿足是用戶傾向于立即得到滿足而忽略未來隱私披露的風險,用戶會選擇短期的收益,即時滿足感超越了隱私擔憂。社交機器人既能夠為人們的生活提供便捷的服務,又能夠作為伴侶給予情感意義上的陪伴。隨著情感機器人的開發和推廣,未來社交機器人會滿足人類更多的需求和欲望,變得更加人性化。當用戶為了滿足一時的需求,而用自己的習慣、愛好、性格等私人數據作為交換,可能會面臨更大的隱私風險。例如,私人數據被披露、身份被盜竊或冒用等,從長遠來看,即時滿足潛藏著隱私披露風險的可能性,對用戶自身和社會的危害不可忽視。
在一些情況下,用戶幾乎不具備和隱私相關的知識,用戶對社交機器人的期望超出了對隱私的關注和考慮。盡管存在隱私問題,用戶往往愿意接受社交機器人的隱私政策和披露的條件,這是因為用戶可以通過訪問實現自己的期望目標。人機交互中,用戶為了便捷性忽略隱私問題,增加了個人隱私數據披露的倫理風險。
還有一種情況,用戶和銷售社交機器人的公司存在信息不對稱的情況,并非雙方了解彼此的價值觀和規則。用戶可能不知道自身隱私的重要性和隱私披露的后果,由于用戶不了解隱私的重要性,最終的隱私風險無法評估,導致用戶隱私態度和行為出現自我矛盾的情況。信息不對稱的狀態阻礙了用戶理性行動和最大化利益的評估,無法實現社交機器人為人類增加福祉的倫理目標。此外,如果用戶不知道社交機器人會自動收集自己生活習慣、性格等數據,不知道開發商如何利用他們的隱私數據,很難合理判斷未來個人隱私信息披露的可能性。
基于理性的風險收益計算,在用戶權衡收益和風險時,大多數情況下更傾向于收益而不是風險,提供個人的隱私數據以換取社交機器人提供給用戶的便捷性和個性化服務,忽視隱私的感知風險?;谡J知偏差的隱私評估,由于啟發式思維、即時滿足和樂觀偏差,用戶在隱私風險評估時產生認知偏差,導致收益和風險計算的失真?;跓o隱私風險的評估則大多因為用戶信息不對稱造成隱私問題被壓制或被忽視。用戶在社交機器人的購買意向和使用意愿中,隱私態度和隱私行為的不一致導致了隱私悖論的產生,影響了人們對社交機器人的信任,侵犯用戶的個人隱私數據,甚至被不法分子濫用。
如何消解人機交互中用戶隱私悖論的問題,我們從以下三方面提出消解的路徑:
通過技術專家的設計,社交機器人個性化的功能得以實現。要實現個性化的服務,用戶的隱私必須納入其設計的事項、目標、流程和規范操作中,以便在人機交互中提供安全和強有力的隱私保護。安·卡沃金提出了隱私設計(privacy by design),這一設計理念是在web應用程序和社交網絡背景下引入的。隱私設計的重點是通過在風險識別和管理周期整合隱私問題,把隱私整合到設計和開發的過程中[20]。為了確保社交機器人在開發和使用過程中尊重用戶的隱私,卡沃金提出了隱私設計的七大原則。把這七大設計原則轉移到社交機器人領域,為人機交互中用戶的隱私保護提供保障。
1.預防性和主動性原則。隱私設計的方法要在隱私披露發生之前預測并阻止,重點在于防止隱私披露,因而堅持預防性和主動性的原則是必要的?!半S著技術力量越來越強大,我們必須在預防性原則和主動性原則之間達成一種可持續的平衡。”[21]這要求社交機器人公司的開發者首先要明確承諾在倫理設計時制定并實施隱私的高標準,通常要高于全球法律法規制定的標準。其次要在用戶和利益相關方明確共享隱私的承諾。最后,在設計中要識別不良的隱私設計,預測不良的隱私后果,能夠主動糾正不良的隱私設計。
2.隱私作為默認設置。社交機器人的隱私設計旨在最大程度保證用戶的隱私數據。這一設計原則要求把用戶的隱私數據內置在社交機器人程序中。首先,要求在設計前主動告知用戶收集數據的目的,其目的在于使社交機器人更加個性化,符合用戶自身的需求。因此,要在收集、使用、保留和披露個人數據之前告知用戶。其次,收集數據應該保證公平、合法,限定在特定領域所必需的內容。再次,應保證用戶數據的最小化。用戶數據的可識別性、可觀察性和可鏈接性應該最小化,確保用戶信息的安全性。最后,用戶的信息應該限制在個人已同意的相關事項中,如果用戶數據被非法利用,則啟用預防原則,默認設置保護用戶的隱私。
3.在設計中嵌入隱私??ㄎ纸鹬赋鲭[私必須以整體、綜合和創造性的方式嵌入技術、運營和信息架構中,要求考慮廣泛的背景,征求利益相關者的意見。在嵌入隱私這一原則時,首先要采用一種系統的、有原則的且可以信任的隱私標準和框架。其次,要公開人機交互過程中隱私的內容和風險評估,清楚記錄隱私風險和降低這些風險所采取的措施,把事前預防和事后補救的措施嵌入和隱私設計中。
4.隱私設計要實現最大化的有益效果。對社交機器人的隱私設計不僅要滿足機器人公司所涉及的聲明和承諾,還要滿足多方利益相關者的期望。在既定的技術、流程和嵌入隱私設計中,盡最大可能兼顧不同用戶的需求,以綜合、創造性的方式實現優化和整合的功能,最大程度滿足用戶的隱私保護需求。
5.隱私設計要確保社交機器人的生命周期。社交機器人的隱私設計,需確保從開發到使用過程信息安全完整的生命周期。隱私安全關系到機器人制造商在承擔用戶個人信息安全的責任。制造商和技術專家應該確保用戶數據在整個社交機器人生命周期中的機密性、完整性和可用性。
6.隱私設計要求透明性。社交機器人的隱私設計旨在向利益相關者保證,在機器人材料、具體數據操作都是透明的,透明性對于建立問責制和信任至關重要。社交機器人隱私設計的透明性,一方面要求機器制造商在收集用戶信息時承擔保護用戶隱私數據的責任。涉及用戶隱私相關政策和程序的責任都應該有所記錄,并在適當的時候進行溝通。在向第三方傳輸用戶信息的時候,必須確保用戶個人信息的安全性。另一方面,要求制定的隱私政策公開和合規。公開和合規是問責制的關鍵。與用戶相關的隱私政策應隨時供用戶了解,建立投訴和補救機制,用戶能夠采取正當的途徑保護自己的隱私。
7.以用戶為中心的隱私設計。社交機器人的服務對象是用戶,應該把用戶的隱私利益放在首位。隱私設計要圍繞用戶的興趣和需求進行有意識的開發和設計,確保用戶個人信息的安全性、準確性。在訪問設置上,允許用戶訪問自己的個人信息,并告知用戶信息的用途和披露的目的,用戶在實際應用中可隨時做出訪問設置的調整,確保用戶個人數據的安全。
引入7大原則對社交機器人的隱私進行設計和開發,嵌入在“風險識別、隱私分析和風險緩解”[22]這一隱私框架中,使得設計隱私友好型社交機器人的倫理原則得以實施。從隱私設計上消解社交機器人隱私悖論,制造商增加對隱私友好型機器人的投資,開發隱私友好型的社交機器人,應該以簡潔透明的方式向用戶傳達隱私保護工作,設計可信的社交機器人服務好用戶。
用戶沒有意識到個人數據披露的風險,往往認為沒有隱私問題,一旦將隱私風險透明化會導致用戶對社交機器人的接受度和信任度降低?;谶@種情況,布羅德本特等學者引入了隱私增強行為(privacy enhancing behavior)[23]這一術語。作為社交機器人使用的道德主體,用戶有權控制自己的個人數據,對個人數據的使用有知情同意的權利。因此,社交機器人制造商需要遵守隱私法,考慮用戶的隱私權利。通過增強用戶和制造商隱私保護的意識,做出隱私增強的行為。
1.隱私增強需要以用戶為主體。在用戶把社交機器人視為朋友或者伴侶的場景中,信任、誠實和可靠性至關重要[24]。社交機器人被當作人類伴侶時,會給人虛幻的感覺,用戶對社交機器人的信任“像朋友一樣”,愿意分享更多的個人隱私信息。社交機器人的商業目的是為用戶提供個性化和人性化的服務,對機器人的信任程度影響著用戶購買和使用它的意圖。使用社交機器人時,用戶應該意識到自身是主體,不僅是決策的主體,也是行動的主體,社交機器人的服務功能需要用戶的數據支撐。因此,我們要以“人”為中心,增強用戶的隱私意識。以用戶為主體,促使用戶在涉及到隱私問題時能夠做出明智的決定,轉變用戶的心理狀態,從“不是我的”轉化為“是我的”。用戶意識到如果忽視隱私聲明和政策會伴隨隱私披露的風險,從而做出規避風險的判斷和決策。
2.隱私增強需要用戶參與。用戶參與,一方面能夠根據自身的實踐在隱私保護方面提供真實的體驗和社會經驗,為隱私設計提供經驗性的依據,與技術專家、倫理學家等人員共同參與隱私友好型機器人設計的過程中,尋找在用戶與社交機器人交互時規避隱私侵犯風險的方案。另一方面,用戶參與,能夠讓用戶了解到社交機器人功能中的安全和隱私問題以及潛在的風險,區分機器人可以識別、感知到的數據和機器人推斷出的信息,加強用戶對社交機器人隱私保護能力的認識和判斷。讓用戶意識到隱私問題,這種意識使用戶能夠更好地面對隱私問題,既能最大程度發揮社交機器人的個性化服務,同時保護好用戶的隱私信息。用戶參與作為一種隱私增強的方法,為社交機器人開發更多功能和服務提供了新的視角。
3.對用戶進行隱私相關知識的培訓。對用戶進行隱私知識的培訓,包括對隱私理念、隱私內容和隱私保護實踐三個方面,深化用戶對隱私的感知和理解。在隱私理念上,要提高用戶了解社交機器人隱私信息的主動性,用戶自愿接受其購買社交機器人產品的隱私培訓,及時更新培訓的內容,對不同功能的社交機器人涉及的個人隱私進行個性化的培訓,加深用戶對人機交互中涉及隱私理念的認識。在隱私內容上,主要包括對社交機器人隱私問題的風險評估、隱私安全設置管理、可訪問的控制、識別惡意的黑客或者病毒等。通過培訓的方式,既豐富用戶對隱私內容的認知,又要學會處理隱私問題,維護自身的隱私權益。在隱私培訓路徑上,有兩種方式,即在線培訓和現場培訓。在線培訓不受時空限制,方便用戶在線交流?,F場培訓可以讓用戶在現場根據實際操作進行培訓,親身感知社交機器人的隱私保護設置和隱私政策等,把隱私的理論知識和實踐問題結合起來。通過對用戶的隱私知識和實踐的培訓,提升用戶隱私保護的意識,讓用戶在實踐中可以真切地操作社交機器人的隱私設置和管理,減少用戶隱私態度和隱私行為之間不一致的情況。
用戶對隱私的擔憂影響使用社交機器人的意向,明確社交機器人隱私信任的邊界,可以增強用戶的信任。相關的研究表明,信任作為中介變量可以顯著調節隱私關注對隱私行為的影響[25]。從隱私政策聲明和隱私邊界兩個方面來完善用戶的隱私制度,明確隱私信任的邊界。
1.明確用戶對隱私政策的知情同意內容范圍。用戶購買社交機器人時,供應商和銷售商應從技術和策略上告知用戶產品的功能,以及在使用中收集個人信息數據的權限。用戶通過了解社交機器人的隱私聲明政策,感知隱私的風險,用戶根據隱私聲明政策可以修改隱私設置的方式實現隱私保護,故而減少隱私披露行為發生的可能性。
2.在法律層面規范社交機器人的隱私邊界。確定社交機器人規范化的法律準則,對社交機器人隱私的立法要有前瞻性和預見性,以便應對未來技術進步出現更為復雜的隱私問題。社交機器人未廣泛推廣個性化服務時,因研究樣本的局限性,未能對真正使用社交機器人的用戶進行實證研究,加之不同文化的差異,社交機器人隱私倫理問題的復雜性,全球對社交機器人的隱私立法還未出現。隨著社交機器人逐漸向個性化機器人、機器人管家的方向發展,對社交機器人隱私邊界的法律規范十分必要。
3.在道德層面規范社交機器人的隱私邊界。強化社交機器人產品生產方、銷售方、用戶的責任意識。一方面,在生產和銷售過程中堅持正確的義利觀,堅守良知,在企業逐利的過程中要保證產品的安全性和人性化;另一方面,要求用戶在使用產品時,深入了解產品的各種功能以及可能會出現隱私侵犯的具體情境,在隱私風險和感知利益過程中,從認知和理性雙系統角度做出理性的道德決策,促進隱私態度和隱私行為的一致。
試圖把隱私悖論放在社交機器人與人的交互應用中討論,社交機器人因其社交的特性帶來了更為復雜的隱私問題。通過用戶隱私的理性計算、認知的隱私偏差和無隱私風險的評估三個角度分析隱私悖論產生的成因,從隱私設計、隱私增強和隱私制度消解用戶隱私悖論的問題。社交機器人隱私悖論問題,無論在法律層面還是道德層面,目前未能確定可靠的解決方法處理其理論和實踐困境。唯一可以確定的是,作為具有主觀能動性的人,要謹慎地面對這些問題,在迎接新技術的同時,要提升自己在技術時代的道德品質和隱私保護意識。在未來社交機器人的隱私悖論研究中有兩個不同的方面:一是社交機器人應用場景的隱私設置較為困難。社交機器人目前的隱私保護將很難實現,包括密匙管理也可能被意外破壞。二是用戶本身的問題。用戶被視為機器人的外行,往往難以意識到隱私的風險。因此,在開發和設計中,如何以用戶為中心設計,需要參與式設計進行評估,增強用戶的隱私保護意識。既可以提高用戶對社交機器人隱私問題的敏感性,又有助于機器人專家和團隊深入了解用戶的思想、愿望和習慣,推動開發人員設計出更友好和可信的社交機器人,實現良性的人機交互。