王慧穎
(上海第二工業大學,上海 201209)
如今,人工智能在醫學領域的應用還屬于初級階段,主要包括:醫療智能決策、醫學影像、新藥篩選、慢病管理、人機協同等[1]。而這一切醫學人工智能應用都是以海量的醫學數據為基礎的,包括基因數據、就診病歷、住院病歷、疾病影像甚至包括可穿戴設備上的數據等。由于醫學人工智能對大量臨床數據和疾病診斷數據的深度挖掘與分析涉及了個人信息的采集、治理、應用等一系列問題,對海量數據的不斷挖掘與分析就會帶來個人隱私泄露的風險。
在醫學數據采集階段,一般醫學數據的采集方式是基于醫院HIS信息系統和接口導出。患者就醫時,很多個人隱私信息,包括:姓名、住址、身份證號、健康情況等都在就醫過程中被記錄到醫院的信息系統中。而醫院工作者所做的工作也只是記錄患者信息,并不會對這些包含了大量疾病、用藥、付費等敏感信息的數據進行保護。這大大增加了隱私數據的泄露的可能。
在醫學數據整理階段,數據整理是指對數據中的非結構化的文本進行分析與處理,實現表達形式上的轉換和一致性。包括檢查數據一致性、處理無效值和缺失值等,保證數據符合規范性、完整性、準確性等質量要求。對于敏感信息進行脫敏和加密保護處理。然而當脫敏后的這組數據與另一組數據結合起來分析可能仍會泄露患者隱私。
在醫學數據應用階段,數據應用是指將事先處理好的醫學數據通過機器學習、深度學習等處理,通過建模、分析來挖掘出具有醫療應用價值的信息。然而經過多元數據聚合分析,可能會帶來隱私信息重新識別的風險。并且在數據采集時,數據的可信性并不能得到有效保障,這就導致在數據應用階段會產生錯誤的結論。
健康隱私泄露導致的問題一般可以分為兩類:后果論和道義論。后果論關注的是在隱私泄露后,會給隱私人帶來不好的后果。比如:某人在招聘前被用人單位知道患有某種疾病或者從基因數據中看出他比常人更易患上某種疾病導致應聘失敗,或者某人因醫學隱私泄露而導致個人保險額度提高,這些都是不公平的。后果論的另一種情況不會直接帶來不好的后果,但是會被焦慮的情緒所困擾。比如:有人認為現在可能會出現身份盜竊,擔心自己的隱私權受到侵犯,可能會使人焦慮、神經緊張。
而道義論所關注的并不取決于經歷了什么不好的后果。在此類別中,即使沒有人使用隱私人的相關隱私信息也沒有人受到傷害,或者該人甚至從未意識到自己已經發生違規行為,也可能會受到隱私泄露的侵害。例如,某個組織無意中訪問了某人存儲在智能手機上的數據,在審查之后,該組織意識到這些數據對他們毫無價值并且刪除了記錄。那些審查數據的人在國外生活,絕不會在現實生活中遇到。很難說這個人在結果論的角度受到了傷害,但他失去對自己數據的控制。所以入侵即使在沒有傷害的情況下也存在著道義上的問題[2]。
在我國現有法律法規中,目前僅《民法總則》《侵權責任法》《執業醫師法》《護士管理辦法》等部分法律就個人信息的權利和隱私保護有相關涉及條款,沒有形成以隱私權為獨立個體的系統化、專門化的法律條例,司法實踐上存在較大困難。伴隨著醫學人工智能的迅速發展,沒有健全的隱私保護法律體系便難以應對人工智能時代的隱私風險。
美國關于隱私保護的立法較早,1996年通過了著名的HIPAA法案。HIPAA分為不同部分,每個部分解決醫療保險改革中的一個獨特問題。其中保護患者免受隱私泄露的最重要策略之一是通過刪除一組18個指定的標識符(如姓名和電子郵件地址)來保護其數據。歐盟的數據隱私規則,《通用數據保護條例》(General Data Protection Regulation,GDPR,簡稱《條例》)經過近兩年的討論修改,于2018年正式生效。《條例》明確調整對象、增強信息處理透明度、拓展用戶權利、禁止對個人敏感信息進行自動化處理、引入隱私設計理論[3]。參考美國和歐盟的隱私保護法,在我國的《個人隱私保護法案》中應關注以下制度的建立。
1.對數據進行多層次檢查
主要包括三方面對數據的監管要求。首先公司有義務向國家管理機構提供相關算法決策詳細解釋,或關于算法如何做出決定的資料。這主要是為了避免“歧視問題”。其次是國家要求公司開展的監管,公司應當遵守讓人工介入AI的使用過程,可以審核任意算法決策。三是由個人提出的監管要求,比如“擦除權”,即用戶如果認為該公司的產品收集了個人數據并侵犯了隱私則可要求公司擦除涉及個人隱私的數據。
2.確定與侵犯隱私程度相對應的刑法處罰
2018年5月28日報道,Facebook和谷歌等美國企業成為GDPR法案下第一批被告。2019年7月8日,英國信息監管局發表聲明說,英國航空公司因為違反《一般數據保護條例》被罰1.8339億英鎊(約合15.8億元人民幣)。刑法是調整社會關系的最后一道防線,讓侵犯隱私的人付出代價才能及時止損。
在我國沒有相關隱私保護法的情況下,大多數公司和企業都是采用技術的方法對相關隱私進行保護。
在數據采集階段,首先需要提高醫務人員的隱私保護意識,杜絕就診時有其他不相關人員在場的現象。其次是對數據進行一定程度的脫敏處理,可以參考《HIPAA法案》中規定的18項健康信息對患者的隱私進行脫敏保護。
在數據整理階段,首先做好隱私數據脫敏處理。在保證數據可用的情況下,降低黑客攻擊的風險。其次可以使用數據擾亂技術,通過添加噪聲對敏感數據進行擾亂同時保持數據或數據屬性不變。HIS(醫院信息管理系統)、EMR(電子病歷系統)應具有容災備份能力。
在數據應用階段,則重點考慮數據集相互關聯的情況下,最大化被匿名處理之后的數據使用效果,實現數據跨系統的共享與利用。一般使用平衡約束算法實現數據實用性和防止信息泄露的隱私保護之間的平衡。
侯瀅等人認為:“智慧醫療的發展關系到每一位民眾的切身利益,其數據智能的發展必須符合正義原則”[4]。醫學人工智能本質上是為每一位民眾提供更好更快的就診服務,提高民眾就醫體驗的技術,不應擴大就醫人群的地位和權力的差距。劉洋[5]等人認為有能力支付醫學人工智能治療方式的人占少數且人工智能也給老年人帶來不便,人工智能算法所基于的數據本身可能包含有意想不到的算法偏見,不可控的產生年齡、性別、種族方面的歧視,加劇現有的社會不平等。筆者覺得醫學人工智能的廣泛應用引起的公平問題不僅僅體現在患者與患者之間,也體現在醫療機構之間。在現階段大部分醫學人工智能都造價不菲,再加上平時的保養和管理的費用,以及培訓醫務人員使用人工智能的費用,這一大筆開銷使得能引進醫學人工智能的醫院少之又少,且購買人工智能設備都需相應的資質。這樣看來,只有少數有實力有資金的大醫院才可引進人工智能設備,長此以往,醫療機構之間的差距也會逐漸拉大。