張 迪
物聯網是物理與數字世界間的橋梁,它允許人和物在任何時間、地點與任何人和物采用任何途徑與網絡進行連接,并可使用任何相關服務,因此也被稱為“萬物互聯”[1]。物聯網是互聯網的重要組成部分,其應用場景極其廣泛,包括個人生活、醫療健康、汽車工業、航空航天業、電信業、建筑領域、零售和物流領域、制造業、農業、娛樂、保險和環保領域等[2]。如通過智能手表或手環監測個人運動量、心跳和睡眠時長,并通過算法推斷個人健康狀況;將智能空調、洗衣機、冰箱等智能家電接入互聯網可讓用戶通過手機遠程監測設備狀態并進行遠程操控;智能血壓、血糖監測儀[3]、輸液泵、胰島泵、電子藥片[4-5]和智能藥盒[6]等醫療健康設備可監測、存儲、分析個體的健康狀況,讓患者和醫生實時了解患者的健康狀況,并允許設備自身對治療方案進行調整,甚至還能主動收集有關臨床試驗受試者的數據[5]。
物聯網正在改變世界并影響人類社會未來的發展方向[2],提升人類社會整體的生產效率,這也是世界各國政府重視和推動物聯網發展的重要原因。中國政府于2005年首次提出將傳感網作為重點研究領域,2009年提出“感知中國”戰略并強調物聯網技術的重要性。預計到2025年全球物聯網設備將超過250億臺[7],市場規模約1.6萬億美元[8]。
物聯網使現實世界與虛擬世界融合,促進社會、經濟發展,使社會和個人受益,如在醫療健康領域的應用可降低醫療機構的運營成本、提升患者體驗、減少醫療差錯等。與此同時,物聯網也給社會帶來了一系列倫理挑戰[9]。第一,物聯網技術可能引發新的歧視。物聯網突破了物理與數字世界間的界限,通過物聯網設備企業可以實時獲得大量用戶個人信息,如每日運動量、心率、飲食規律和睡眠狀況等,這些數據可以單獨使用,或與用戶的其他數據整合,通過算法推出用戶的軀體、心理和精神健康狀況[10-11]。醫療健康類數據的產生不再局限于醫療機構,越來越多的數據來源于用戶的物聯網設備,并在醫療機構之外的地點存儲和分析,而這使得數據應用的目的和場景被大大拓展。此類數據如果被雇主或保險公司獲取,可能會被用于判斷是否雇傭某位應聘者或續約某位員工,或評估個人商業醫療保險費率[12]。第二,威脅個人隱私。傳統的健康數據僅保存在醫療機構內部,僅有患者個人和醫務人員知曉,加之醫療機構內的醫務人員受到醫學倫理和法律的雙重約束,對個人隱私的保護較為重視,除診療外僅限于教學與科研,患者個人信息和健康數據可以得到較好保障。然而,物聯網設備采集數據的場所不局限于醫療機構,且可采集個人方方面面的數據,物聯網企業或第三方可通過算法推測出我們是誰[13-14],我們的健康狀況、行為[15]、習慣、偏好、性格[16-17],甚至是我們行為的目的。即使對數據進行匿名化處理,通過算法也可以將數據去匿名化,從而使個人隱私受到前所未有的挑戰。在物聯網設備安全性欠佳的情況下,用戶個人信息更易被盜取并販賣,醫院內存儲的醫療健康信息每例售價在數百美元,高額回報更是加劇個人隱私受到威脅。與受醫學倫理學和醫學專業精神影響的醫學專業不同,企業常以經濟利益最大化為首要原則,在缺乏醫學專業精神、醫學倫理學約束和法律規制的前提下,企業的行為必將加深社會歧視以及對個人隱私的威脅。第三,對數據安全構成挑戰。當前個人物聯網的特點使得其易引發數據安全問題[18],包括體積較小缺乏交互界面[7]、研發和制造企業缺乏數據安全知識和經驗[8,18]、軟件安全更新不及時和缺乏行業標準與監管機制等。脆弱的物聯網終端是近些年數據安全事件的高發領域,健康手環、互聯網攝像頭的數據泄露和盜用屢見不鮮[19-20],直接威脅到數據安全和個人隱私[21-23],而醫療健康類物聯網設備的數據安全問題甚至會威脅到患者的生命健康[24-25],如控制胰島素泵調高胰島素的注射量進而導致死亡。由于篇幅所限,本文試就前兩個問題進行探討,拋磚引玉,期待使更多的研究者關注物聯網發展所引發的倫理學問題,促進相關問題的研究和物聯網的善用。
物聯網之所以會引發倫理學問題,與其自身的特點密不可分。
第一,物理世界的數字化。傳統互聯網主要通過計算機、手機兩類終端鏈接個體,且個體具有高度的自主性。物聯網設備使得個人可被數字化的內容不斷拓寬,各類數據的不斷整合可以用來預測個體的各種特征。如通過運動腕帶或智能手表中的傳感器獲悉個人血液、心率和睡眠狀況等健康信息;通過監測聲帶振動,在無需獲得個體具體講話內容的情況下預測個體的健康;通過智能手機了解個體的家庭住址、作息時間,從而推測個體的生活習慣、健康狀況和經濟水平等;通過汽車傳感器了解個體的駕駛習慣,從而推測個體的性格;通過智能音響了解個體的興趣愛好。這些數據單獨使用便可以揭示個人的諸多特征,而不同的傳感器之間產生的數據融合[26]則可以更深入地了解個人特征,實現1+1>2的效果[27]。手機中陀螺儀和加速器可以測量物體的運動方向與加速度,如果將兩者結合使用可以推測用戶的休息狀態,準確地描述線性和旋轉運動。如果分析時再加入心率監測設備的數據,還可以推測用戶當前的應激水平和情緒[28]。通過傳感器監測用戶握持手機或打電話的方式來推測用戶的情緒,通過分析用戶使用手機輸入文字的方式、打錯字的頻率和手機晃動的幅度等來推測用戶的精神狀況等[28]。不難想象,當我們使用的物聯網設備越來越多、監測精度越來越高,其所產生的海量數據將揭示更多個人的健康狀況、特征、習慣和性格,甚至預測個體行動。這意味著物聯網可以獲得更多有關個人隱私的信息,且傳統互聯網中存在的隱私和安全問題在物聯網中被放大,一旦出現負面效應更難以逆轉[29]。
第二,數據的被動收集。傳統互聯網數據中用戶信息的收集需要通過用戶自行輸入,而在物聯網中數據的收集工作由設備自行、全天候、不間斷執行,無需用戶主動輸入。這將產生兩個結果,一是產生大量數據,二是用戶可能會遺忘設備的存在進而忽略對設備的控制。海量的多元數據在算法的支持下可以更準確地預測個體的特征、在人群中甄別個體,這將對個人隱私和自主性構成更嚴峻的挑戰。
第三,缺乏交互性。傳統互聯網中,用戶通過鍵盤、鼠標、語音和手勢與設備進行交互,輸入信息和命令,并且用戶可以通過屏幕和聲音來直觀地獲得反饋,即時快速地調整電腦、手機和各類服務器的設置。而物聯網設備自身的硬件特點是微小,這使得隱私設置的便捷性劣于計算機和手機,隱私政策和用戶協議更不易被察覺,修改隱私設置的成本更高,而這將對用戶的個人隱私和同意的有效性提出挑戰。
物聯網設備可能會引發和加深社會歧視。物聯網設備所產生的數據(同時可結合算法)允許企業、機構和個人獲得更為精確的用戶數據,通過分析后可以對個體進行精確描述。這就意味著用戶的特征可以被更為細致的分類,貼上各類標簽,將個體用戶歸為不同人群類別。雇主、保險公司和其他機構可以根據這些特征、標簽制定策略,決定是否雇傭、保險費率和信用額度高低以及入學機會等,對個體進行區別對待。這可能會導致某種新形式的歧視或加深現有歧視,尤其是針對那些本就十分脆弱的人群,如由于先天因素或社會不公正而使自身健康處于不利境遇的個體。此類歧視行為可十分隱蔽,尤其是在數據收集者和使用者缺乏動力增加信息告知的透明度和促進有效同意的前提下,如缺少倫理規范和法律法規時。
首先,雇主會對物聯網數據產生興趣。雇主通過對應聘者的教育、工作和健康信息來評估個體是否能夠勝任某項工作。在這些環節中,雇主會獲得有關應聘者的各類數據和信息,通過分析來推測應聘者的能力、降低用工成本、提升投入產出比,如通過篩查應聘者的基因挑選出未來患病率低的個體。物聯網設備提供的信息將會豐富雇主對應聘者的“畫像”,在未來必將被雇主用于對應聘者的評估。
以常見的物聯網設備——運動手環(和手表)為例。運動手環能夠連續、長期監測個體的運動量(如步數,跑步、游泳時長和距離)、坐立時間、心率、睡眠狀況、體重(如配合智能體重/體脂秤使用)、運動軌跡等數據,并結合用戶通過應用或網站提供的個人信息推測用戶的健康狀況、健身習慣和常住地址等。近些年此類設備的發展迅速,以蘋果手表和小米手環為例,前者2019年的出貨量為3 070萬只[30],后者在2020年上半年出貨量為1 340萬只[31],伴隨而生的是海量的個人數據。
假設A是某運動手環的用戶,身體健康且有良好的健身習慣。當其求職時,雇主除按照傳統的招聘程序通過筆試和面試來評估其工作勝任力外,還會對其健康數據進行評估。這里的健康數據除常規入職體檢外,雇主可能會要求她主動提供或從第三方處獲取運動手環的數據,如心率、血壓、睡眠和作息規律等,從而判斷A的健康狀況、健身習慣。如果通過算法分析得出A目前擁有良好的健康,且具備“好的健身習慣”,在其他條件相近的情況下,A被該公司雇傭的機會更大。因為其未來大概率會保持健康,而這對于他履行自己的崗位職責并為公司節省醫療支出十分重要。這看起來有些不可思議,但實際上雇主們早已在應聘者不知情的前提下通過數據分析來評估潛在雇員[32-33],以獲得對雇主而言最高效、最有利的雇員。
我們嘗試通過三種方法分析其中是否存在歧視[34]。第一,從雇傭政策的目的來看。雇主可能希望獲得能夠勝任工作崗位且收益成本比最大的員工,就目的本身而言,在道德上并沒有錯誤。第二,從結果分析。這需要我們評估好的健身習慣和其他物聯網設備收集的信息是否在實際上與工作目標相關。此處的爭論在所難免,一些人會認為好的習慣代表個人較高的自律性并能預測未來健康狀況,而這些特征將有助于工作目標的實現;但另一些人會認為沒有充分證據證明沒有良好健身習慣的人不能夠勝任某些工作,至少不意味著比有這些習慣的人要差。第三,從意義和信息傳遞分析。將物聯網數據融入雇傭程序中,可能會向社會傳遞一種信號,即沒有良好健身習慣或某些特征的人是懶惰的,進而對這類人群進行貶低,甚至構成和加深污名化。當然也會有人提出反對觀點,認為健身習慣本就是社會提倡的,并且對個體和社會均有益,故將物聯網數據作為雇傭標準可傳遞好的信號,即人們應當養成良好的習慣。這些分歧預示著將物聯網數據作為衡量雇傭與否的標準存在倫理爭議,這種區別對待可能會構成歧視。
其次,保險公司十分關注物聯網數據[35-36]。長久以來保險公司通過對個體全方位的信息收集和分析來評估個體風險,從而判斷商業醫療險(如重疾險、百萬醫療險、防癌險等)的費率及是否拒保[37]。近些年,越來越多的保險公司開始投資和運用人工智能、大數據、基因、物聯網、區塊鏈等技術,對承保定價進行重塑[38]。
以上文的A為例,如果A希望投保商業醫療險,保險公司可能會要求A提供個人運動手環的數據(甚至基因檢測數據[39]),或通過第三方機構獲得個體健康數據,從而判斷A的費率及是否拒保。對于A而言他或許可以獲得商業醫療險,并能夠以較低的費率獲得保險,因為好的健身習慣和當前好的身體健康狀況預示著A短期內死亡和發病的風險較低。相反,對于那些沒有良好健康數據(如物聯網設備收集的健身數據,推算的健康狀況),他們的費率很可能會高于A。這種“個體化”保險定價看起來將是多贏的,一方面用戶可以因良好的習慣而獲得保險折扣,同時激勵一些用戶改變自己的生活習慣,另一方面保險公司可以更好地控制風險,同時獲得更穩定的利潤[40-42]。但是,這種區別對待是否能夠得到倫理辯護?是否存在不公正對待?在能否基于用戶基因信息調整費率和拒保時,類似問題同樣存在,世界各國所采取的立場也各不相同[37]。健身數據,以及其他我們尚未預見到的可能會被用于評估風險的數據,其背后可能存在更深層次的生物或社會因素。不少社會因素對健康的影響不應完全由個人承擔,如經濟和社會地位等因素本身涉及社會公正問題,基于此來調整保險費率或拒保可被視為加深社會不公正(尤其在考慮商業性保險公司應承擔一定社會責任時[37]),使醫療可及性降低,構成對特定人群的歧視。
這些物聯網數據和其他數據一同可以揭示個體的各方面特征,雇主、保險公司或其他機構可以判斷某人是否適合被雇傭、被保險或獲得某種服務。從經濟角度來看,這大概會提升機構的效率和受益,但同時可使某些群體的基本權利受到負面影響。從倫理視角審視,商業也需符合倫理,社會需要在公平與效率之間尋求平衡,而非只看重物聯網數據給某些機構帶來的商業利益,忽略他人利益。在促進物聯網設備的發展和數據合理交換的同時,通過法律來維護個人利益、避免歧視的發生十分必要。我國尚無系統的反歧視立法,且散在于各類現有法律法規中的反歧視條款也尚未涉及禁止對基于個人行為、個性或行動進行區分。
《勞動法》中明確禁止“民族、性別、宗教信仰”歧視,《艾滋病防治條例》要求尊重艾滋病患者和艾滋病病毒感染者的就業權。但對于雇主因健康原因而區別對待潛在雇員和雇員并無明確規定,對于基于健康而造成的就業歧視并未提供明確的法律規制,在一定程度上難以保障個人的就業權[43]。 《保險法》中規定在訂立保險合同時,保險人就投保相關問題向投保人詢問,投保人有如實告知義務,否則保險人有權解除合同,不承擔賠償責任甚至可以不退還保費。依據現有規定,保險人完全可以要求個人提供看似不甚敏感的個人物聯網設備數據(或通過購買、接入第三方數據庫的方式),評估被保險人的健康風險,并據此提高保險費率或拒絕投保。對此是否構成歧視或許存在爭議,就像有關基因檢測與保險的問題一樣,但如果我們認定這構成歧視,目前我國現有的法律法規并未起到預防歧視的作用,也難以為受到歧視的個體提供救濟。
由物聯網數據引發的歧視問題源于數據的匯集和分析,最終推測出個體的各類特征。在實踐中,解決該問題的最常見方式是將數據進行匿名化處理,拒絕向他人提供可識別出個體的數據。這種做法被很多企業所采納,承諾用戶的數據僅在被去標識和匿名化之后使用或轉移給第三方。但包括物聯網數據在內的各類數據以指數級增長,且數據分析能力不斷提升時,完全去標識和匿名化幾乎無法實現[44-46]。這意味著個人隱私將更加脆弱[47],隱私更易被他人獲知,如個人身份、特征、消費偏好、健康狀況和位置信息等[48]。
依據法律和企業自己制定的隱私條款,企業會將數據庫中個體(傳統意義上的)可識別信息去掉(如姓名、年齡、性別、地址、電話和社交網絡賬號等)后分享給第三方。但即便如此,對個體進行再識別也并非是件難事[49-51]。以智能手環為例,每個人都有獨特的步態[52],如果我們知道某個人的步態便可以在數據庫中定位該個體,并由此獲得該個體的所有數據,包括運動量、心率和定位信息,并通過步態和其他數據推測個體的身高、體重和性別。此外,物聯網設備可以獲得大量的個人數據,且這些數據相比傳統的互聯網數據具有更強的個人特征,這意味著獲得越多個體數據,識別出個體的可能性就越大。還是以智能手環(或智能手表、智能手機)為例,它可以監測到個體全天的移動軌跡及移動速度數據,據此可以很容易推斷出個體經常往返的位置信息,以及所使用的交通工具(汽車、地鐵或自行車)。如果機構獲得了這些匿名化的數據,并同時知道某人在何時、何地、乘坐了何種交通工具,便可以大致推斷出數據庫中哪些匿名化數據屬于該個體,并由此將屬于該個體的信息再次鏈接到一起。
除匿名化問題之外,物聯網設備還會從其他方面對隱私構成挑戰,這主要源于物聯網所產生的新的海量數據和不斷發展的算法。例如,即使企業不主動搜集用戶的位置信息,他們仍可以通過物聯網設備產生的數據獲得對用戶而言具有私密性的信息,如通過獲取某智能手機中加速器的數據,并將其與其他手機的同類數據進行比對,可以推測兩個手機用戶是否處于同一位置[53]。再例如,在一定范圍內道路的長度、走向,某一時間段擁堵程度等存在差異,當用戶攜帶智能手機駕車時(在未開導航的情況下),根據手機中加速器、陀螺儀等產生的數據并結合道路信息,即使在沒有獲得用戶的定位信息時,也可以推測用戶運行的軌跡,推測出他運動的起點和終點。這意味著通常企業和用戶(尤其是后者)所認為的非敏感信息、非隱私信息,在物聯網設備不斷增加,數據不斷增長和算法發展的背景下,可以合成或推測出個體的隱私信息。換句話而言,即使不掌握人口學信息,匿名化處理后的數據仍舊可以被用于識別個體。
物聯網數據的特點使得寄希望于通過匿名化來保護個人隱私變得更加困難,這對倫理和法律的挑戰不言而喻。在倫理學方面,技術上難以實現匿名化將對個體自主性構成挑戰。通常,個人并不擔心通過匿名化處理的數據會暴露個人隱私;在未征得個體同意的情況下,匿名化個人信息可被轉移給第三方,機構和個人并不擔心數據被再次整合并識別出具體個體,如醫療機構將患者信息進行匿名化處理并用于研究。但豐富的個人物聯網數據和算法的發展使得再標識成為可能,這意味著獲得用戶數據的機構或個人可以通過算法識別出具體個體,并利用這些個人信息實現自身的目的,如販賣個人健康信息,或通過推送保健品、藥品、醫療器械或醫療機構信息來賺取利潤。這些再識別行為可能會暴露個人隱私,影響個人生活,違背個體的自主性。此外,在受到巨大經濟利益誘惑時企業或個人進行再識別的動力將是巨大的,McDonald等[54]于2008年的研究顯示,如果所有美國用戶仔細閱讀網站的隱私條款,一年損失的機會成本約為7 810億美元。互聯網沒有免費的午餐,物聯網也不例外,奢望僅僅依靠企業自律來實現保護個人隱私或權衡隱私與經濟發展之間的關系是不切實際的。
法律方面的挑戰包括個人信息的界定、匿名化與隱私權保護。首先,物聯網數據對個人信息的界定構成了挑戰。《網絡安全法》《數據安全管理辦法》(征求意見稿)中所指的個人信息為“以電子或者其他方式記錄的能夠單獨或者與其他信息結合識別自然人個人身份的各種信息,包括但不限于自然人的姓名、出生日期、身份證件號碼、個人生物識別信息、住址、電話號碼等”;《電信和互聯網用戶個人信息保護規定》中的個人信息是指“電信業務經營者和互聯網信息服務提供者在提供服務的過程中收集的用戶姓名、出生日期、身份證件號碼、住址、電話號碼、賬號和密碼等能夠單獨或者與其他信息結合識別用戶的信息以及用戶使用服務的時間、地點等信息”[55];《信息安全技術個人信息告知同意指南》對個人信息的定義為“以電子或者其他方式記錄的能夠單獨或者與其他信息結合識別特定自然人身份或者反映特定自然人活動情況的各種信息。(注:個人信息包括姓名、出生日期、身份證件號碼、個人生物識別信息、住址、通信通訊聯系方式、通信記錄和內容、賬號密碼、財產信息、征信信息、行蹤軌跡、住宿信息、健康生理信息、交易信息等。)”[56]依據這些定義,物聯網設備所產生的大量數據都屬于個人信息,無論是單獨使用還是與其他信息結合都可以識別個人身份,如步態、移動軌跡、聲紋等。但是,從《網絡安全法》和《數據安全管理辦法》來看,其中所羅列的信息更多是傳統的人口學信息,忽略了物聯網數據和算法對個人信息概念的拓展,這可能使個人和機構只關注人口學信息,而放松對其他個人信息保護和數據安全的關注,包括由這些看似非敏感信息推出的個體健康信息或其他隱私信息。
其次,匿名化對隱私權[29]的保護作用被削弱。現有規定通常認為個人信息被匿名化處理后可很好地保護個體的隱私,故規定個人信息經匿名化處理后(或“經過處理無法識別特定個人且不能復原的除外”),可以在不征得個人信息主體同意的前提下向第三方提供[57-58]。這一規定的目的是在保護個人隱私的前提下促進數據的流動和共享,促進數據技術和經濟的發展。但現有研究提示我們,物聯網數據和算法的發展使得匿名化或無法識別特定個人的情況幾乎無法實現,而這意味著僅依靠此種方式保護個體的隱私變得更加困難,法律法規中有關匿名化的規定是否妥當有待商榷。
為了避免匿名化概念的瓦解,一些學者試圖根據數據單獨使用時可識別程度高低分為識別信息、可識別信息和不可識別信息。“識別信息”對應那些明確與個體相關的信息,如姓名、住址、身份證號、帳戶、密碼和生物識別信息等;“不可識別信息”對應那些可關聯到具體個人的可能性極低的信息;“可識別信息”則介于兩者之間[59]。但是,技術的發展使匿名化概念的瓦解無法避免,所有的生物識別信息和個人物聯網數據都屬于個人可識別信息。當下,企業更傾向于將物聯網數據視為“非個人”信息,不甚關注隱私保護技術的研發和應用。其原因可能不僅(或不主要是)在于技術和知識的缺乏,更在于缺少對相關技術應用的經濟激勵[60]。立法者、監管者似乎也沒有意識到物聯網數據可能都具有可識別性。現有法律法規尚未對這些倫理和法律挑戰做出回應,《個人信息保護法》或許是一個契機,平衡個人隱私保護、數據安全與數據共享和開發。
針對物聯網數據帶來的倫理和法律挑戰,本文分別對企業、行業協會、政府和公眾提出如下治理建議。
第一,企業應增加和強化技術善用這一倫理學要求,關注如何預防不符合倫理的事件發生,將其融入企業文化和價值觀中。企業應從避免歧視、隱私保護和數據安全等方面加強對員工的培訓。在研發階段,團隊應注重隱私保護技術和數據安全技術的應用,同時避免將歧視性內容和理念嵌入到產品之中。在應用階段,企業應關注產品使用中存在或可能引發的歧視、隱私保密和數據安全問題,及時糾正或預防問題的發生。
第二,行業協會應制定行業行為準則和技術標準,加強行業自治。行業協會(物聯網、金融業及其他行業協會)應制定明確的企業可獲取數據清單,并規范數據的使用目的和匿名化數據再鏈接的限制,避免歧視,保護個人隱私。行業協會應集中企業優勢,制定相應技術標準,協助企業強化隱私保密和數據安全技術的開發與應用。
第三,政府應從立法、監督和政策制定等方面促進物聯網數據的善用。通過立法來明確數據的權屬和各主體的權利,應賦予個人訪問、糾正與刪除數據的權利和數據可移動權[61];明確個人信息的定義(尤其需要關注物聯網對生物識別信息的擴展),要求各類匿名化數據分開存儲,并應由政府、行業協會、企業和公眾共同制定允許進行數據關聯和去匿名化的限制條件;要求企業公布算法中有邏輯意義的信息,如構建該算法的目的、當算法沒有實現或偏離目標時如何應對[62],并要求企業為避免歧視做出努力。各行業主管部門應時刻關注物聯網數據的收集和使用,關注行業內已經存在和潛在的歧視與隱私泄露風險,對弱勢群體給予適當保護。為避免物聯網數據的濫用,政府應召集利益攸關方共同探討數據轉移的限制條件,加大對歧視和隱私泄露的懲戒力度。政府應制定經濟激勵政策,鼓勵機構、個人開發和使用隱私保護與數據安全技術[63],同時鼓勵公眾對違法行為進行舉報并提出改善建議。
第四,公眾應加強自身的隱私保密和數據保護意識,關注物聯網中的用戶協議和隱私條款,積極參與對物聯網數據使用的監督工作,如違法行為的舉報和不合理行為的投訴[64]。
物理世界與數字世界的融合將會對人類社會構成前所未有的倫理、法律和社會挑戰。鑒于人類對技術發展預測的完整性和準確性上尚無法做到對技術行為因果性的準確把握,人類應將災難的預言優先于對福祉的預言[65]。如果人類希望物聯網能夠得到善用,我們必須從研發那一刻起便不斷思考物聯網對自然和人類社會的短期、中期、長期的風險,并思考應對策略和具體方案。僅憑倫理或法律無法實現物聯網的善用,我們必須從更多元化的專業和視角思考、分析和應對這些問題,逐漸形成對物聯網的善治。