(蘇州科技大學 馬克思主義學院 江蘇 蘇州 215009)
2020年春節前夕,新型冠狀病毒感染的肺炎疫情在湖北武漢地區爆發,隨后打響全國戰“疫”。自這場威脅人類生存的傳染病在全國及世界范圍內蔓延以來,許多國家對此高度重視,疫情已經被世界衛生組織認定為一場國際關注的突發公共衛生事件。就在今年1月21日,英國《衛報》報道了醫療機器人治療美國首例新型肺炎病患的新聞,為了防止病毒的傳播,這名患者將由人工智能醫生進行治療。這一消息再次引發人們對人工智能在醫療衛生領域應用方面的深思。醫療人工智能可以給出專業的參考意見、增強用藥規范性、促進人類醫生的學習,甚至可以增進醫患關系的和諧,對人類醫生也起到一定的幫助和輔助作用。那么,人工智能是否可以替代人類醫生呢?沃森醫生會不會出錯?如何定義機器人醫生的主體地位?這些是醫學界必須關注和亟需解決的問題。
英國最近的一項調查報告稱,63%的成年人對允許個人數據用于改善醫療保健狀況感到不安,也不利于人工智能系統取代醫生和護士從事他們通常從事的工作[1]。本項調查反映了人們對于AI在醫療領域存在的一些擔憂和倫理考慮,沃森醫生能否代替人類醫生、是否應該給予醫療機器人主體地位、人工智能醫療能否解決醫患矛盾、增進醫患關系的和諧,這都是醫療人工智能目前所面臨的現實困境。不得不承認,醫療人工智能的飛速發展的確帶來了一系列潛在的倫理和社會挑戰,如醫療共情和人機互動、個人數據和隱私保護、主體資格和責任認定等。
1.1 醫療共情與人機互動。機器會像人類一樣擁有意識嗎?至少當前的技術仍未做到,不過人工智能在模擬人類認知功能上在不斷發展,流行的人工智能技術包括結構化數據的機器學習方法,如經典的支持向量機和神經網絡,現代的深度學習,以及非結構化數據的自然語言處理[2]。沃森醫生可以給病人看病,但必須接受精確的數據輸入才能診斷,何況有些癥狀病人無法用醫學術語對此描述,也會因為恐懼拒絕將真實的病情告知給醫療機器人,而相反一個資歷豐富的醫生卻能讀出病人神態中隱藏的有關信息。人機互動效果不佳的原因是人工智能缺乏人文關懷,在臨床表現中尤為明顯,可見醫療共情尤為重要。信任是病患關系的橋梁,醫護人員在與患者進行有效的臨床共情溝通后,得到病人的信任自然能夠做出準確診斷、提供治療方案。根據病人的需求和對其病情的判斷,醫生相應地進行一定的安撫和心理疏導,此時醫患關系更加和諧,病人不用再面對一臺冷冰冰的“機器人”,更配合治療過程。盡管醫療AI擁有類人的移情關懷的外觀,診療和用藥指導方面給人類醫生提供專業的參考意見,可仍面臨著人機互動和醫療共情不佳的困境。
1.2 個人數據與隱私保護。隨著物聯網的發展,我們儼然成為了全球互聯世界中的“透明人”,如何理解隱私和保護隱私,成為一個迫切需要重新概念化的倫理問題、法律問題和社會問題,加以重視[3]。人工智能基于醫療大數據的處理,包括患者的年齡、姓名、住址、婚姻狀況等個人信息,還包括遺傳史、各項體檢指標、過往病史、身體狀況以及診療數據等其他信息,這牽扯到個人數據與隱私泄露的風險。醫院的網絡服務器一旦遭致網絡病毒或黑客侵害,保存于云端或存儲器的含有病人隱私的信息就會被不法分子獲取,病人的隱私權得不到有效的保障。醫療人工智能的隱私保護存在的倫理困境主要有:采集醫療數據時是否得到患者的知情同意?誰有權利獲得患者的診療數據和健康信息?誰來承擔隱私泄露的風險和責任?2015年,一份由北大研究者提交的名為“關注自閉癥”的國際多中心臨床研究合作方案被北大生物醫學倫理委員會拒絕[4],委員會考量的一個現實原因正是該方案實驗參與者隱私保護的缺失,以及數據具有不可控性。
1.3 主體資格與責任認定。人工智能醫生可以代替人類醫生的主體地位嗎?如何處理由醫療AI所引發的醫療事故?是否應該賦予醫療機器人和人類一樣的“權利和義務”呢?這些問題迫使我們思考人工智能技術帶來的倫理法律困境,迫使我們重新審視科技和人類社會之間的關系,以便人工智能更好地服務人類。2016年5月,歐盟法律事務委員會已立法將智能機器定位為“電子人”,并賦予其“特定的權利和義務”,這在法律層面將顛覆我們對人工智能的認知。今年美國首例新冠肺炎患者是由醫療機器人治療,其裝備有攝像頭、麥克風和聽診器,這是人工智能參與輔助診療的最新案例。當前技術還不成熟,人工智能并未做到全程無需醫生參與的獨立診斷,未來機器人有可能會發展成一名類似于醫生的“自然人”,擁有獨立的判斷能力,在法律主體資格上極具挑戰。那么手術機器人在診療中發生醫療事故,誰來承擔相應的責任?Brent Mittelstadt在他的文章《AI Ethics-Too Principled to Fail?》中提到“原則主義”是從醫學中產生的一種理論道德框架,其基礎是從業者、研究倫理委員會的經驗,以及醫療機構在逐案處理道德問題時的經驗[5]。以原則主義的觀點剖析,實施手術的主角是機器人醫生,可主體責任歸咎于擁有從業經驗的人類醫生,也就是法律責任層面還是醫生占據主導地位。若機器人因為設計缺陷和機器故障發生傷人事件,或其做出違背設計者意圖的行為,怎么認定該行為?這涉及到機器人的程序員、設計者以及生產廠商的相關責任,主體資格與責任認定不清晰和各方的“權利和義務”不明確,是醫療AI目前的倫理和法律困境。
AI在醫療領域的快速發展為人類健康保障提供了支撐,雖然醫療AI應用中存在一些倫理困境,但只要對這些倫理困境提出相應的治理對策,就能讓醫療AI更好地造福人類。
2.1 以人為主的“人-機”醫療模式。如今智能機器人能夠通過圖像識別、大數據等技術幫助人類醫生進行臨床指導,除此之外,機器人的心智開發已然成為科學家們研究的焦點。AI倡導者認為機器也能擁有類人腦,人們創造出優于人類的、獨立自主的、具有與自然人一樣人性構建的智能體并非假想。因此,若把這樣的觀點納入醫療行業來思考,在實踐中醫療AI很有可能根據一套機器倫理來實現醫療共情與人機互動,前提是智能機器人在開始行動前首先需要遵循一定的倫理原則。最近,有一個過程“裝備”認知結構與機器學習的最新進展,可這根本不能模擬任何心理過程[6]。因此,筆者反對機器的心智可被開發和復制這一說法,盡管DeepMind研究人員提出了一種具備理解自己以及周圍智能體心理狀態能力的新型神經網絡ToMnet,可這無法證明人工智能已完全掌握人類的“心智”。AI雖有感知和思維(智能系統),但無情感系統(感受和動機)以及意志系統(意志和行動)的引導,就不能發揮其應有的能力,比如自愿做出照顧病患的決定和行為。而在以人為主的“人-機”醫療模式下,一方面能發揮AI的輔助作用,另一方面有利于護理工作中的人文關懷和相互信任,以人為主的“人-機”醫療模式的構建顯然可以促進患者的健康和福祉。
2.2 患者隱私保護法律的制定與完善。首先,通過一系列法律法規的制定可以規避病人隱私的泄露,使人工智能系統的安全性、保密性更高,從而保障患者的隱私權。我國涉及病人隱私權的法律有《職業醫師法》、《母嬰保護法》等,但這些法律轉化為實踐的行之有效的方法仍很困難,原因在于它不是系統完善的專門法,所以在對病人隱私權保護法律的制定與完善上可借鑒歐美國家的立法經驗,例如在1996年美國國會通過的法案,《健康保險轉移與責任法案》中提到泄露患者姓名也將觸犯法律。另外部分歐美國家有專門對醫療數據進行必要監管的法律條例,若分析和管理數據時有牽扯到關鍵的個人隱私信息,通過馬賽克的方式予以保護。其次,政府應加強病人的隱私保護,并利用互聯網融合醫療的模式來推進患者隱私保護新技術的開發和運用。數據加密也是一項防止隱私泄露的技術,對此進行推廣可保證數據的安全,同時再設定一套嚴格的訪問程序以防止他人竊取。最后,網絡保險的購買用于減少隱私泄露的風險也是一項防范措施,能將損失降到最低。
2.3 建立責任倫理規范與AI監管機構。在醫療人工智能發展的治理中,如何確定各個利益方的相關責任,是需要迫切解決的問題。首先,出于安全性、可控性、可靠性和問責制的考慮,可以認為在不同的應用領域實現智能系統部署的透明責任分工符合民主社會的利益,因此這些制度應按照立法權制定的道德和法律規范行事,并允許追溯,以便于司法權分配責任。那么該如何追究相關責任人呢?按照誰設計誰負責、誰使用誰負責的原則,建立合適的責任倫理規范,例如我國《侵權責任法》中規定,一旦因醫療設備和醫療產品的缺陷所引發的醫療事故,生產者和醫療機構必須承擔連帶賠償責任。其次,成立專門的由醫學專家、計算機專家、倫理學學者等構成的醫療AI監管機構,負責對人工智能的安全性、倫理性進行一定的評估報告,以減少醫療事故的發生率。最后,建議采用一定的技術手段為人工智能設定人類的道德標準,執行醫療機器人的登記制度,醫療AI監管機構監督醫療機器的生產和應用,這些治理方法都可降低醫療風險,消除人們的顧慮和擔憂。
科技與倫理就如同天平的兩端,科技的發展會給價值觀與倫理道德帶來巨大的沖擊,如何平衡兩者之間的關系是我們當前亟待解決的問題。醫療人工智能的發展勢如破竹,正向新臺階邁進,在醫療AI為我們提供優質、高效醫療服務的同時,必將帶來新一輪的倫理困境。針對醫療人工智能的倫理問題,醫學界應準確把握當前形勢,重新調整當下思路,化危機為契機、化被動為主動,將前瞻性研究與回顧性分析兩者相結合,合理評估醫療人工智能帶來的利弊,并根據臨床實踐制定出相應的有效對策,以此達到醫療與科技的融合與創新,進而推動人類醫學的進步與發展。目前世界各國均建立起相對完善的科技治理體系和倫理研究框架,我國也在積極應對風險、推進人工智能與人類的和諧共存,讓人工智能技術朝著積極的方向發展。