劉 琪 谷笑穎
2017年,李克強總理在政府工作報告中首次提出人工智能(artificial intelligence,AI),這讓我們深深感受到了AI時代的到來。作為人們生活的重要領域,醫療領域也會因為AI技術的廣泛應用給人們帶來更多的福利。AI對于改善醫療資源配置不均、降低醫療成本、提高醫療效率問題發揮著重要的作用[1]。隨著AI在醫療實踐和醫學研究中的廣泛使用,人們將會面臨許多需要關注的問題和挑戰。醫療衛生保健從業者和生物醫學研究人員已經逐漸認識到了AI技術的巨大潛力,但同時必須重新審視長期存在的醫學倫理原則,以及是否會提出新的倫理、社會等問題。
AI概念由美國計算機科學家約翰·麥卡錫于1956年在美國達特茅斯學院召開的學術研討會上提出,“讓機器達到這樣的行為,即與人類做同樣的行為”可以被稱之為AI。AI作為一門新的技術科學,它是用來研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統[2]。
醫療AI是AI技術在醫療領域的運用與發展。AI在醫療領域已廣泛應用于醫療影像、醫學統計、虛擬助手、疾病診斷與預測等領域。2014年,電腦醫生Watson正式登上了醫療的舞臺,它通過與病人溝通來了解病人的病情,之后會在較短的時間內診斷出病人所患的疾病并開出藥方;Watson曾用10分鐘的時間為一名60歲的女患者診斷出白血病,并提出了治療方案[3]。2015年,Atomwise發現了該公司AI技術預測的兩種藥物可以在不到一天的時間內,而不是幾年的時間里,顯著降低埃博拉病毒的傳染性。2016年9月,谷歌旗下的AI公司Deepmind與Moorfield眼科醫院NHS(National Health Service)信托基金合作,通過在CT和核磁掃描成像上運用智能分隔技術,利用深度學習提高分割準確率和速度,在不降低準確率的前提下,提高分割的效率。在荷蘭,分析公司Zorgprisma Publiek通過IBM Watson的云端服務分析從保險公司獲得的數字發票,使得患者能夠避免不必要的住院治療。在加拿大,Deep Genomics公司將深度學習技術應用于基因組學中,從而揭示了疾病的遺傳根源,確定了疾病的遺傳決定因素[4]。
AI在我國醫療領域的應用尚處于起步階段,但是我國醫療AI技術擁有廣闊的發展前景。2016年國務院在印發的《“健康中國2030”規劃綱要》中明確提出要大力推動“互聯網+健康醫療”服務,之后又相繼出臺《“十三五”衛生與健康科技創新專項規劃》《新一代人工智能發展規劃》等政策。2018年6月,國內首個肺癌臨床科研智能病種庫和肺癌多學科智能診斷系統由四川大學華西醫院等單位研發成功,這套系統對小于5毫米的肺部結節檢出率可達到98%以上。AI與醫療的結合被認為是最有發展前景的領域,因為AI在醫療上的運用不僅可以提高醫療生產力[5],而且可以造福于人類。
由于AI在醫療領域所起的作用越來越顯著,使其在醫療領域的應用范圍也在不斷擴大,一些倫理困境也隨之擺在了我們面前。例如,AI會泄露患者的信息嗎?是否應該給予AI主體地位?如何處理由AI引發的醫療事故?AI的算法是由人類設定的,出現算法“歧視”怎么辦?誰將在計算機提供的臨床決策中擁有最終決定權?全知機器將會關閉循環,還是聰明的臨床醫生仍將發揮作用?保險公司或托管醫院會配置算法嗎?病人還有發言權嗎?這些問題都不得不使我們深思。
2.1.1 人機互動仍存困難
Byron Reeves和Clifford Nass都曾認為人類與機器的相互作用和人與人的關系應該是一樣的。他們認為人機互動應具有基本的社交性和自然性,就像現實生活中人與人的互動一樣[6]。但在當前的技術條件下,AI仍然不具有像自然人一樣的意識。醫療AI需要接受準確的數據輸入才能產生正確的診斷結果,而病人的癥狀并不是總能用正確的醫學術語來描述,癥狀和疾病之間的關系不總是簡單的,有許多癥狀和疾病重疊的情況,在這種情況下,對某一特定疾病的診斷,醫生們都會產生意見的分歧,病人可以完全信任一臺“智能機器”嗎?而且病人會因為害怕和恐懼隱瞞真實的病情,報告不準確或不相關的信息,而一個經驗豐富的醫生是能夠從病人的神態中讀出病人未訴諸于口的信息,這樣一個能夠傾聽和理解自己的醫生更容易得到病人的信任,從而使醫生做出正確的診療判斷。聊天機器人正在興起,在將來如果AI算法可以通過應用程序或聊天機器人來模擬同理心,那病人會愿意將信息全部分享給機器嗎?對于病人來說,同理心、有效的溝通和安慰十分重要。
2.1.2 臨床共情溝通存在障礙
醫療服務提供者和醫療需求者之間的關系是治療關系,所以醫療提供者在醫患關系中往往處于有利地位,不可避免地在一定情況下有可能對病患方造成傷害和壓力。那么,專業醫護人員與患者之間的關系就不僅僅表現為一種普通的社會關系,更有著重要的法律和道德關系。治療關系的核心是信任,因為信任是醫療提供者與患者關系的基礎。為了做出準確的診斷并提供最佳的治療方案,醫療提供者有必要與患者交流所有相關的臨床信息,這就需要進行有效的臨床共情溝通。醫患臨床共情交流中,患者告知醫生關于自身不適癥狀及內心顧慮,醫生在收集患者更多的相關信息資料后,根據對病情的判斷和病患的個人需求,進行準確的診斷和心理感知,從而提供更多的專業治療和心理安慰。與此同時,通過有效的醫患溝通,患者感受被傾聽,進而感受個人價值被理解和尊重,在心理上不再孤獨,從而接收和配合醫生的治療方案,這樣醫療共情的溝通過程可以在一定程度上提高短期和遠期療效[7]。而AI技術在臨床中的物理應用,目前更多的是關注診斷程序、用藥指導及輔助醫療手段等,醫療AI模擬技術雖然具有令人難以置信的交互性和類人的移情關懷的外觀,但當患者有意識地意識到醫療服務提供者是一臺機器時,仍然缺乏良好的溝通和信任。
2.1.3 醫療AI主體地位欠缺
醫療AI在某種意義上只能根據預設程序,被動地根據已知的選項對疾病進行檢測和診斷預測,而不能從病人的角度進行有效的情感交流,醫療AI能夠代替醫生完成一些重復性、技術含量低的工作,但是面對病情復雜的病人,醫生需要花費時間與病人溝通來了解病情。而這些冰冷的機器是非人性化的,它們無法完成醫生和病人之間的溝通。例如,如果病人的病情和手術的復雜程度會影響到手術的質量,醫生就需要提前告知病人手術存在的風險,讓病人及其家屬決定是否選擇AI進行手術。如果病人在手術前產生擔憂、反感甚至抵觸的心理,作為醫生,要及時地疏導病人的不良情緒以免影響到手術的質量。可見醫生和病人之間的互動是無法通過算法來復制的,人類醫生的主體角色地位是必須的,而AI只能充當醫生的助手,執行一些日常的和算法設定的任務。
2.2.1 醫療大數據的隱私泄露
AI在醫療上的應用,有很大部分都集中在虛擬數據處理上,即主要基于云計算和大數據的采集、處理和歸納。醫療大數據不僅包括病人的姓名、年齡、婚姻狀況、身份證號、職業等基本信息,還包括了病人大量的敏感信息,如現病史、遺傳史、身體缺陷、治療方案、治療情況、各種化驗檢查結果、各種輔助檢查報告等更多的信息,這些內容都涉及到了病人的隱私。含有病人隱私的數據保存于云端或存儲器,一旦醫院的網絡服務器遭到黑客或網絡病毒的攻擊,病人的信息就會泄露,如果這些信息被不法分子用到不正當的途徑,病人的隱私權就會遭到侵犯。2016年,全國30個省275例艾滋病感染者表示,他們收到了自稱是政府工作人員的詐騙電話,被要求提供數百元乃至上千元的手續費才能獲得政府的補助。這就意味著一些艾滋病病人的個人信息已經遭到了泄露[8]。可以看出,在醫療數據大時代下,病人的隱私權很容易受到侵害,并且一旦泄露,將呈規模大、范圍廣的趨勢。
2.2.2 數據挖掘中的隱私安全問題
任何醫療數據挖掘工作的首要任務是確保病人的機密性。尊重隱私和信任反映了自主權和尊嚴的權利,被視為個人幸福的必要條件。由于侵犯隱私或未經授權濫用信息將會導致對信任的背離,進而損害了對醫療服務提供者及其衛生健康職業的信任。
當前,醫療AI技術中利用數據挖掘技術從大量的病歷數據中通過算法搜索隱藏于其中信息的過程被廣泛應用,這種方法能夠有效地構建合理的疾病診斷相關分組,目的是使AI適應疾病診治的復雜性和多樣性,并且客觀、公平地進行醫療診斷。但在應用過程中,毫無疑問地會存在隱私泄露、數據庫被濫用,甚至會導致倫理和法律問題。例如,一個雇主可以通過訪問醫療記錄來篩選出那些有糖尿病或者嚴重心臟病的人,從而意圖削減其保險支出[9]。這種數據是收集自特定的個人,那么就會出現一些涉及保密、法律和倫理的問題。又如,在遺傳基因的數據研究中,即使這項研究不涉及創建新的實驗數據,也會使由于信息相關性挖掘而可能造成許多家庭成員相關疾病隱私的暴露。
目前的醫療領域,如果沒有醫生的參與AI是不能獨立地對病人做出診斷的。隨著醫療AI技術的不斷發展,由于機器人較人腦有更多的腦容量和更強大的學習能力,未來在AI技術成熟時,人們也越來越依賴AI技術,機器人完全可以獨立自主地做出診斷結果,它的決策分析能力甚至可以超越人類。2017年,由幾位科學家共同開發出的診斷乳腺癌的AI與病理學家展開了一場比賽,比賽結果是病理學家準確率為73.3%,AI準確率為88.5%[10]。然而,雖然利用AI診斷的準確率比較高,但是由于AI仍存在著不可預測性,醫療風險仍然不可避免。如果機器人獲得了法律上和道德上的主體地位,那么將來會出現依法執業的“機器人醫生”嗎?如果AI協助做出的醫療決策對病人造成了傷害,AI是作為一種工具(如聽診器)還是作為單個實體來處理呢?
AI技術在醫療領域的不斷應用也使得醫患關系變得十分復雜。傳統的醫患關系是指病人與醫療機構和醫務人員之間的關系,而如今就多了病人與醫療AI系統或平臺之間這層關系。這也意味著AI給原本緊張的醫患關系帶來了巨大的挑戰。所以對于AI在診療過程中發生的醫療事故,整個醫療AI供應鏈中的人,包括機器人設計者、程序員、生產廠商、設備采購員等是否都要承擔責任,這是當前醫療AI應用過程中不可避免的倫理和法律問題。
從表面上看來,算法作為一種數學結構,是很客觀的,不像人類那樣具有各種情緒和偏見,容易受到外界環境的影響,不會產生歧視。但是,實際情況卻并非如此。算法并非完全客觀,其中可能也會暗藏歧視。AI算法會出現“歧視”,這其中可能有數據本身的問題,也可能會有算法開發者和設計者的問題,因為AI算法的開發者和設計者會把自己所持有的某種歧視嵌入到算法的設計目的中去,從而被AI所繼承。由于算法運作的不可知,AI會把這種歧視進一步放大或固化,從而設計出帶有“歧視”的AI。一旦這些帶有“歧視”的AI應用到市場中去,可能會給人類帶來危害。
如果AI算法的開發者和設計者將違背醫學倫理的思想體現在算法上,那么制造出來的AI就會導致一些倫理問題。例如,如果算法開發者對某些群體具有歧視,因醫療數據涉及種族、性別、宗教信仰等信息,就會導致設計出來的醫療AI對這些群體具有診療歧視。在醫療保險領域,AI在對投保人特征及其表現行為進行分析,會對那些被識別為特殊疾病或未來發病率極高的投保人收取較多費用,這種情況會對那種健康狀況不佳且經濟條件差的投保人非常不利。所以帶有“歧視”的AI是不利于社會公正的。
AI在醫療領域的快速發展為人類健康保障提供了支撐,雖然醫療AI在應用中存在一些倫理困境,但只要對這些倫理困境進行研究和解決,就能讓醫療AI更好地造福人類。
首先,我國《職業醫師法》《母嬰保護法》等法律都對病人隱私權作出了規定,但這些法律很難具有現實操作性,制定系統完善的專門法是對病人隱私權最有力的保護。美國對隱私權法律制定方面采取的做法十分全面。1996年,美國國會通過了《健康保險轉移與責任法案》,該法案對病人的隱私保護規則非常嚴格,即使是泄露了病人的姓名也屬于違反了該法案,在懲罰措施的制定方面也十分的詳細。所以在對病人隱私權保護法律的制定上可以借鑒美國的立法經驗。其次,加強病人的隱私保護還需結合政府的力量,政府應該重視我國互聯網技術與醫療行業的結合,積極推進病人信息保護新技術的開發應用。最后,通過購買網絡保險來規避病人隱私泄露的風險。許多發達國家都會購買網絡保險來規避商業上的風險,盡量將損失降到最低。所以,醫療大數據行業企業、醫療衛生機構和病人可以考慮購買網絡保險來保護病人的隱私。
在過去的幾十年里,智能機器人的出現在醫療服務中占據了重要的地位,并且在其應用過程中,不僅是開發先進的程序來解決我們的臨床問題,而且科學家們試圖開發復制機器的心理素質。AI倡導者的主張是大腦和機器之間沒有區別,他們認為機器倫理也有可能,就像人類倫理一樣。根據AI科學家的說法,機器倫理的最終目標是創造一臺本身遵循理想倫理原則或一套原則的機器,也就是說,在作出關于它可能采取的行動路線的決定時,是以這一原則或這些原則為指導的。筆者對這種觀點持質疑態度,首先,倫理學不是一種可以計算的東西;其次,如果把思維歸因于機器,它就會引發與機器有關的倫理問題,如果不區分思維和機器,這不僅是在重新定義人類思維,而且是在重新定義整個社會;最后,心智的概念是我們倫理思考的核心,有心智就是有能力做出自愿的決定和行動。這是因為人類的心智是自我意識的,而這是機器至今所缺乏的特性[11]。醫療行業除了為病人治療身體上的疾病,人文關懷也是至關重要的,醫生和病人之間存在的醫學道德現象和醫學道德問題是AI解決不了的,所以仍要堅持人的主體地位,發揮好AI的輔助作用,構建人機共同體,讓AI更好地為病人服務。
我國現有的規范醫療損害的法律主要是《醫療事故處理條例》和《侵權責任法》。現階段,醫療AI仍不具備產生民事法律關系的主體資格,只是作為輔助醫生診療的工具,即醫療器械。醫療器械的工具屬性可以將其納入產品的范疇之中,《侵權責任法》中規定由于醫療器械產品缺陷造成的醫療損害,由醫療機構和生產者承擔連帶賠償責任。
由于AI是基于復雜的算法和醫療大數據來對病人的病例進行分析得到診療方案,在這一過程中,人們無法知道AI是如何操作的,而且目前在醫療領域也沒有一個AI技術和安全標準,所以就無法識別AI醫療器械產品存在的瑕疵。一旦發生醫療事故,也就無法知道醫療AI產品是否有缺陷。這就迫切需要成立一個醫療AI監管機構,這個機構要由醫療AI生產者代表、醫學專家、倫理學專家等組成,從醫療AI的生產到投入使用都需要醫療AI監管機構審查醫療AI的安全性和倫理性。而且,在審查過程中,還需建立強制登記制度,一旦發生醫療事故可以明確各方責任。醫療AI監管機構必須嚴格監督和審查醫療AI的生產和應用,只有這樣才能降低醫療風險,確保病人的健康權益。
正確使用算法可以識別和消除許多可避免的錯誤和不必要的醫療事故。AI要避免出現“歧視”,算法的設計就必須要合乎倫理規范。一方面,不僅要對AI的技術開發人員進行倫理培訓,還要加強相關從業人員的道德教育,使AI在開發和設計階段就接受倫理準則的約束。另一方面,AI程序員要避免將個人的敏感數據寫入程序。敏感數據指病人的種族、政治傾向、宗教信仰等。AI的輸入和輸出之間存在著人們無法洞悉的“隱層”,被稱之為“黑箱”,之所以稱之為“黑箱”意味著人們不僅不能觀察到AI中的算法是如何運作的,而且即使AI向人們解釋,也無法得到理解。所以僅僅對AI的開發者和設計者進行監督也不能完全避免AI出現“歧視”。這就需要法律要求AI研發機構履行透明、公開、程序合法等義務,一旦法律提出了相關的要求,那么算法的設計者就會接受社會的監督而變得公正。
如今,醫療AI的整體發展趨勢已經勢不可擋。AI在醫療領域的應用有效提高了人類的整體醫療水平和健康狀況,但也不能忽視AI給醫療行業帶來的一系列倫理困境,這也再次證明了“科技是一把雙刃劍”。從發展程度上看,我們仍處于“弱AI時代”,但從發展趨勢上看,“強AI時代”也許離我們并不遙遠。醫療AI關乎著人類的健康和生命,但在醫療AI技術方面才剛剛起步,所以更應該加強對醫療AI的掌控能力,積極應對醫療AI給人們帶來的倫理問題,使醫療AI技術朝著有利于人類健康的方向發展。