李 明 李昱熙 戴 廉 李小虎
人工智能(artificial intelligence,AI)已經在醫療健康領域進行了廣泛的探索性應用,部分已經形成商業化的使用。AI將產生廣泛的影響,顯著地影響醫學實踐,改變患者體驗和醫生的日常生活。與此同時,AI先進的技術也帶來一系列新的倫理挑戰。醫療倫理自古以來就貫徹整個醫學發展的各個階段,AI作為變革性的技術,對醫療健康體系勢必產生重要的影響。本文就醫療AI倫理若干問題進行探討。
涉及患者安全的風險主要表現為 AI 提供的輔助診斷、治療建議以及操作可能誤導醫生進行錯誤的決策,直接或者間接對患者產生不同程度的機體傷害。這種危害從技術上看主要來自系統的算法偏見(algorithmic bias)與漏洞。算法偏見指的是AI系統中產生不公平結果的系統性和可重復性錯誤,偏差可能是由于許多因素造成的,包括但不限于算法本身的設計、數據編程、收集、選擇或用于訓練算法的方式相關的意外或非預期的使用或決策。 計算機產生的偏見幾乎無處不在,偏見的原因往往不在準則中,而是在更廣泛的社會過程中。使其結果存在無意識和制度偏差。算法偏見主要分為 “數據驅動造成的偏見”“人為造成的偏見”與“機器自我學習造成的偏見”三種類別[1]。
“數據驅動造成的偏見” 指由于原始訓練數據存在偏見性,導致算法執行時將歧視帶入決策過程。鑒于算法本身不會質疑其所接收到的數據,只是單純地尋找、挖掘數據背后隱含的結構和模式,如果人類輸入給算法的數據一開始就存在某種偏見或喜好,那么算法獲得的輸出結果也會與人類偏見相同。 例如,圖像識別以及使用機器學習和建立學習算法的過程中,存在潛在的偏差。訓練圖像往往來源于某個具體合作醫療機構的數據,其圖像標識過程中帶有鮮明的該醫療機構的診斷特色和習慣。此外,算法概念化的框架本身包含了工作組的主觀假設,這種基于“主觀”上的數據結果成為所謂“客觀”的數據輸入。盡管國際影像廠商設備的圖像質量趨同同質性,但更多的不同廠商影像設備也存在不同的設備型號、數字化成像質量的程度上的差異,同時模型可能造成或加劇按年齡、性別、種族、地區或其他受保護特征劃分的醫療保健人群不公平現象。這些因素導致應用的范圍存在偏差。
“人為造成的偏見”是指算法設計者為了獲得某些利益,或者為了表達自己的一些主觀觀點而設計存在歧視性的算法。這里包括主觀的偏見和客觀的偏見,一方面由于人和技術本身問題造成的,另外一方面也有人刻意而為之。斯坦福大學有學者認為,用于醫療保健應用的AI開發者的價值觀可能并不總是與臨床醫生的價值觀一致。例如,可能會有誘惑,引導系統采取臨床行動,提高質量指標,但不一定是為患者護理[2]。這些算法可能會在被潛在的醫院監管機構審查時,扭曲為公眾評估提供的數據。而也有人為的偏見是來自醫學的本身特點,尤其在治療方案上有著區域、學派的分歧,治療方案選擇上存在人為的偏見,盡管循證醫學已經成為主導,但具有主觀色彩的經驗醫學在臨床實踐上仍有效。很多時候,沒有治療唯一的“金標準”,這也就是為什么經常出現等級性質的方案推薦,有著專家共識、臨床指南、臨床規范的不等的標準。此外人為的偏見,也有可能來自系統開發機構工程師倫理知識的匱乏,缺乏專業知識。
“機器自我學習造成的偏見”是隨著算法復雜程度的日益提高,通過機器學習過程形成的決策越來越難以解釋AI內部的代碼、算法存在 “黑箱”[3],導致無法控制和預測算法的結果,而在應用中產生某種不公平傾向。
進入信息化時代后,患者個人健康信息數據(personal health information,PHI)一直被關注,亦有相應的行業規范和政策法規進行管理。隨著數據搜集、機器學習、AI等技術的使用,個人信息泄露的情況頻繁發生,個人隱私保護、個人健康信心重要性日益凸顯。當前對于醫療AI應用涉及患者的隱私問題、自我保護策略和可接受性尚還沒有清晰的策略。數據更多的泄露來源是在為AI進行訓練的患者數據。其中,人體基因組數據的泄露潛在的生物危害和商業利益更為突出。公眾對個人隱私泄露問題的顧慮占到調查人群的59.72%[4]。
從技術角度而言,醫生不了解AI算法的局限性或范圍,從而對這種不透明的“黑箱”效應產生了盲目信仰或懷疑的可能,但還是不信任的占多數。由于醫療 AI 當前還處于相對早期的臨床應用階段,無論醫生還是民眾對醫療 AI 的信任程度未達到期望。很多醫療 AI 系統沒有很好地整合到醫療工作中,即醫療 AI 解決方案并未貫穿于醫療全流程,反而部分操作增加了醫生現有的工作負擔,其帶來的價值沒有很好的體現。此外,醫生對醫療 AI 新技術存有各種顧慮,不自覺地表現出排斥和質疑的心理,某種程度上延緩了新技術的迅速推廣實施。對于新技術的接受程度,具有海外進修培訓經歷的高學歷的中青年醫生對 AI技術應用更持有理性的態度,而部分年長的醫生對新技術持有質疑和排斥的心理。此外,在醫療不同場景下的應用,也導致對 AI 的評價與接受度不同。有研究發現,在醫學培訓教育上醫生對 AI 的作用認可程度最高[5]。
醫生對 AI 系統臨床應用的另一個顧慮是誰對醫療 AI 提供的決策最終負責,如果出現錯誤,誰來承擔后果。當前階段,醫療 AI 的最后結果仍需要人工校驗審核,醫生承擔由此對患者診療結局的責任。未來臨床廣泛引入醫療 AI 后如何實現問責,現在仍不明確。
當AI應用結果導致醫療糾紛、關于人的倫理或法律沖突時,能否從技術層面對AI技術開發人員或設計部門問責,并在AI應用層面建立合理的責任和賠償體系,保障醫療 AI 在臨床發揮其應有的價值。
醫療AI在特定領域特別是影像識別上已經高于人類識別平均水平,而且具有較高的效率,但作為工具在臨床上也有濫用的風險,從而導致過度醫療。根據某城市某三級醫院院網站公開報道,自醫院引入肺結節影像識別 AI 技術后,肺結節篩查人次三年中增長73%,篩查直接帶來的收益增長 81%,加上手術治療,醫院總收益增長100%。 隨著效率的提升,醫院業務水平得到極大的提高。從公開的數字看,AI 給醫院帶來豐富的經濟回報。但從所在地區的衛生統計年鑒來看,所在地區的非傳染性疾病的疾病譜分布情況未發生明顯改變,而根據該院肺部結節患者和手術量短期大幅增加可以懷疑其利用 AI工具進行了過度醫療。這種過度醫療無疑對患者身體上和經濟上都帶來傷害。在NLST(national lung screening trial)研究中,CT篩查組中96.4%的陽性結節為良性,我國農村肺癌早診早治項目的假陽性率也較高。過高的假陽性可能導致過度診斷、過度治療、醫療資源的浪費及增加受檢者焦慮心理[6]。
醫療 AI 如同雙刃劍。2019年7月17日美國神經網絡公司Neuralink在舊金山舉行新聞發布會,宣布腦機接口系統獲得新突破。此公司研發“像縫紉機一樣”的機器人,這個機器人可以將超纖細的線植入大腦深處。目的是將AI直接植入人類大腦皮層以提高人類智能水平(即腦機接口技術),Neuralink的初衷在于幫助人類解決腦部疾病。目前,研究人員已經在猴子身上進行實驗,讓猴子能用大腦來控制電腦。根據Neuralink官方公布的實驗信息,他們把老鼠頭部連接到USB-C端口,通過電線將老鼠的想法傳到計算機,當軟件分析其大腦時,可以通過揚聲器聽到老鼠神經元發射的信號。計劃明年用于人體試驗。從技術理論上看,這種技術可以實現雙向控制,也就意味著計算機可以控制大腦以至于控制人類的行為,這無疑會產生很大的風險。
國家藥品監督管理局出臺了對醫療 AI的相關指導規范,并已啟動了認證流程,從范圍、風險、臨床試驗上進行了規定。醫院倫理委員會主要負責本醫療機構中藥物和醫療器械臨床試驗、器官移植、涉及人的醫學研究、相關技術應用、動物實驗以及醫療管理等活動的醫學倫理學審查。目前,在醫院內實際應用過程中還未有對 AI相應的倫理審查機制,有醫院參照藥物臨床試驗引入的倫理審查機制對醫療 AI 引入進行倫理審查,但很難做到完全適用。
在實踐中,有的倫理審查委員對于“不傷害”狹義地理解為不傷害身體,對風險的認識仍停留在僅關注生命健康、安全方面,忽視個人數據被不正當處理、個人信息泄露、侵害隱私權所帶來的社會心理風險[7]。更多醫院對醫療 AI 引入并未經過倫理審查,也有醫院在對患者應用醫療 AI 系統時嘗試用患者知情同意書來規避一些潛在風險。
醫學倫理基本規范沿襲《希波克拉底宣言》直至現代的《日內瓦宣言》[8],其基本原則包括對患者的不傷害原則、有利原則、公正原則和尊重原則。任何醫療新技術在醫療中應用都基于醫療倫理道德,在倫理范圍內規范醫療實踐的準則和秩序,其新技術最終目的是為了人類健康福祉服務,而非對人類的傷害。
眾多產業組織在AI倫理上制定了規范原則。目前,兩個影響較為廣泛的AI倫理共識:《阿西洛馬人工智能原則》(AsilomarAIPrinciples)和國際電氣電子工程師協會(Institute of Electrical and Electronics Engineers,IEEE)組織倡議的《人工智能倫理標準》,鼓勵技術人員優先考慮道德規范自主和智能技術創造中的影響因素。很多國際巨頭如: IBM、Google、Microsoft、Intel 等都制定了AI的產品原則和倫理規定。這些原則大部分都涉及安全、透明、保護隱私、防止濫用等內容,核心都是充分維護人類根本利益。可以看出,這些都是以人為核心的理念。
目前,美國醫學會(American Medical Association,AMA)對醫療 AI 明確提出了規范,特別強調促進精心設計、高質量、經臨床驗證的醫療保健AI的發展,即(1)根據以用戶為中心的,特別是針對醫師和其他醫務成員,進行最佳實踐的設計和評估;(2)透明;(3)符合引線標準的再現性;(4)識別并采取措施解決偏見,避免引入或加劇醫療保健差異,包括對弱勢人群測試或部署新的AI工具時;(5)保護患者和其他個人的隱私利益,并保存信息[9]。
中國的一些醫療行業協會也成立了AI分會,在醫療 AI 倫理規范上也做了一定探索。然而,僅有中國醫師協會超聲醫師分會發布了《中國超聲醫學人工智能行為準則:北京宣言》,并從“制定規范、科學管理;實現醫工結合、促進轉化;以臨床為中心,使患者利益最大化”3個方面 13條細則闡述了準則[10]。
目前,對跨學科領域的醫療AI還少有倫理上的研究與探索,推測其原因在于醫療 AI 尚未在臨床得到廣泛的應用,臨床的迫切需求不夠強烈。綜合來看,醫療AI的倫理規范仍是以人為核心、強化患者安全、保護患者隱私、AI 技術要透明、防止濫用的最終目的是促進疾病恢復,維護人類健康,實現健康民主。
盡管醫療 AI 不可能取代醫生,但是醫生相當多的重復性、規律性的診療工作可以被AI 所代替。長遠來看,AI將產生廣泛的影響,徹底改變醫學實踐,改變患者體驗和醫生的日常生活,醫務人員的職業形態也必將發生改變,這就對醫生的臨床技能提出了更高的要求,應更加注重對患者的人文關懷。
醫療 AI 應用逐漸向消費者端滲透可及,主要表現為個人、組織更加便捷地獲取各專業領域及生活行為方式的最適宜決策建議,帶來開放、可及、民主式的醫療,給公眾和醫生更多機遇,也彌補之前醫患之間“信息不對稱”的鴻溝,患者可以更加積極主動地參與自身的診療過程,實現了“健康民主”,從而對整個醫療健康體系產生重大的變革。
為醫療AI的倫理創造“法律”或“規則”是具有挑戰性的,因為倫理道德界限很難教授軟件系統或者機器[11],而且醫學和相關影響因素本身的復雜性也決定了醫療AI倫理規范定義的艱巨性。此外,更核心的問題是人類的道德與倫理規范如何實現。
醫療AI系統發現、理解并指出人類在決策過程中的不一致性時,還可能揭示出人類自身偏袒、狹隘和認知偏見的方式,反過來促進人類采取更公正或平等的觀點。形成共同價值觀的過程中,人類可能比AI進步得更多。
利用技術工具在AI中建立道德規范,部署AI的人面臨的問題之一是深度學習和神經網絡的黑盒子性質。這使得建立透明度和減少偏見有一定的困難。作為技術的提供方,越來越多的公司正在部署技術,搭建平臺來幫助解決這個問題。例如,IBM的AI OpenScale、開放源碼工具以及來自AI初創企業的解決方案,可以提供更大的透明度,并檢查偏見。在實現上,要確保創建道德的治理結構并確保AI系統的責任,明確角色和結構,將AI道德責任分配給關鍵人員和團隊,并賦予他們權力。利用調整現有的治理結構,在特定的團隊中構建問責制來實現。例如,組織中現有的道德主管(如首席道德官)也可以被委托負責研究AI中的道德問題。建立內部和外部委員會,負責合乎道德地部署AI,這些委員會是獨立的,因此不會受到急于部署AI的人的壓力。
此外,對于使用機構,醫院倫理委員會需要對醫療 AI 倫理的制度進行完善,全方位地對產品和方案進行評估,既要保證安全不傷害也要顧及技術進步性的意義。
2019年7月,中央全面深化改革委員會召開第九次會議,審議通過《國家科技倫理委員會組建方案》。會議指出,科技倫理是科技活動必須遵守的價值準則。組建國家科技倫理委員會,目的就是加強統籌規范和指導協調,推動構建覆蓋全面、導向明確、規范有序、協調一致的科技倫理治理體系。要抓緊完善制度規范,健全治理機制,強化倫理監管,細化相關法律法規和倫理審查規則,規范各類科學研究活動。這將是國家最高層級的組織機構,指導所有科技類的倫理規范。
關于未來,一方面期望中華醫學會、中國醫師協會在國家級學會層面上制定醫療 AI 倫理規范,以進行統一的指導,另一方面對于醫療 AI 生產者與使用者有必要進行教育和培訓,了解醫療AI面臨的倫理挑戰,同時確保患者充分了解如何使用這些工具來決定其診療,更好地利用醫療 AI 工具為人類健康提供服務。