肖志敏,沈興蓉,劉 榮,王德斌
(安徽醫科大學衛生管理學院,安徽 合肥 230032)
人工智能的概念在1956年第一次被明確地提出,60多年以來,人工智能技術已經取得了長足的進步,它是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學[1]。人工智能在很多領域中發揮重要作用,其中包括醫療衛生領域。醫學人工智能的應用在給人類的健康管理與疾病診斷帶來極大的便利的同時也帶來了諸多倫理問題和挑戰。本文通過研究我國醫學人工智能的應用現狀,分析其存在的倫理問題,并嘗試構建我國醫學人工智能倫理治理總體框架,提高人工智能技術在醫療衛生領域中的應用水平,促進我國衛生健康事業的發展,提高人類的健康水平。
國務院《新一代人工智能發展規劃》中明確指出要推動智能醫療發展,建立精準智能服務體系,探索智慧醫院建設,開發人機協同醫療機器人、智能診療助手并加強智能健康和群體智能健康管理[2]。醫學人工智能在我國衛生健康行業的應用越來越廣泛,目前我國醫學人工智能的應用主要包括7個方面:智能臨床輔助診療應用、醫用機器人、智能公共衛生服務應用、智能醫院管理、智能化醫學教育培訓、醫療設備智能化管理和人工智能輔助藥物研發[3]。這7個方面的應用涵蓋了各級醫療衛生機構,方便了醫生精確診治的同時有效地提升了醫師的診療質量和工作效率,使醫院逐漸向互聯網化、智能化發展,大幅度提升了患者的就醫體驗和百姓的滿意度,極大地促進了我國醫療衛生領域的發展。
人工智能改變著人類的日常生活和工作方式,尤其在我國醫療領域有著廣闊的應用前景,促進了我國醫療衛生事業的發展,但是隨著人工智能技術的進步和發展一些倫理問題和挑戰也隨之出現,下文分析了在我國醫學人工智能的應用中遇到的或潛在倫理問題。
我們既享受著大數據時代給我們帶來的生活或工作上的各種便利之余,又深受著隱私泄露帶來的困擾。人工智能技術的應用則高度依賴“數據”,它們需要從海量、多樣、實時及序列的數據資源來進行訓練和學習算法,在這一過程中,用戶的很多重要數據,如身高、體重、血壓、心功能、位置信息、生活習慣等,都將不可避免地被實時地采集和保存。通過挖掘和分析這些簡單的看似是碎片化的個體資料,人工智能數據庫系統就可以自動生成內容豐富的個體“肖像圖”,從而導致使得用戶在不知情況中失去了對自身隱私的控制權[4]。這些數據被醫院或人工智能產品公司掌握,由于醫療數據本身具有較高的價值,如果這些信息被販賣給騙子或者其他醫療機構,數據主體將面臨著被詐騙或被推銷醫療產品的風險;另一方面,如果這些數據因為管理不當或系統漏洞產生泄露,也將會對數據主體及其家庭造成嚴重損害。
醫學智能化的一種重要實施途徑就是“個性化”,即向每個個體提供各不相同的醫療衛生服務。目前我國的醫療人工智能的應用主要集中在大型醫療機構,偏遠地區或基層診所的患者或居民很難獲得足夠的機會去享受應用這項技術。另外,由于目前我國醫療人工智能的研究與發展還正處于初始和起步時期,研發成本高、研發人才少,導致一些人工智能提供的服務價格高昂,只有少數有錢人可以消費得起,這也是我國人工智能醫學應用可及性和可負擔性差的重要原因。難以保證大多數人受益,保證醫學人工智能應用的公平性仍需一段漫長的道路[1]。
智能化系統的應用,已經大幅度地降低了檢驗、病理、影像、手術等工作負荷。持續不斷的智能化將會使越來越多的醫療衛生人員的工作內容發生變化、甚至變得多余,在未來高度智能化的產品可以直接生成檢查結果和針對患者的治療和建議,自助型的看病體驗可能會使醫生的專業權威甚至職業受到威脅,從而引發醫患之間的信任危機。
醫務人員監督評價系統可以有效的促進醫務人員的診療規范化,提高工作效率,衡量績效,但如果使用不當,會日益強化醫療衛生人員的“受監視”感,進而促使他們的日常工作決策與行為發生相應變化,如引發過度檢查、過度審慎、刻意規范化等一系列問題,增加醫務人員的工作量,過度檢查又會提高患者的就診費用。
一些人工智能產品的應用,如醫用機器人、醫學輔助診療技術等的應用,給醫生的診斷帶來便利的同時,如果過度使用和依賴,可能會使醫生產生依賴性,在專業知識和技術上產生懈怠;游戲型大眾宣傳與醫生教育機器人、聊天型心理治療機器人等的過度使用有可能引起患者的心理依賴、情感異化、能力退化等一系列問題。
不斷完善的智能咨詢系統及智能化私人醫生的應用,將慢慢改變現有的醫患之間存在巨大的“信息不對稱”狀況。這種改變將對醫患關系管理及醫患糾紛的防控產生深遠影響。智能化、網絡化系統的日益普及,會允許患者同時獲得多個醫生、多個智能系統的診療與治療建議。當這些診斷與建議經常出現相互矛盾時,將降低患者對醫生的信任感,可能會引起醫患糾紛[5]。
隨著醫學人工智能技術應用的日益廣泛,因技術濫用或技術不足以及技術管制中的疏忽而導致患者或居民健康與生命安全問題的機率也會相應增加。中間過程幾乎是“暗箱”的“神經網絡”的技術一旦出現偏差往往很難發現。基于云端或者互聯網的人工智能平臺很易受到非法入侵和控制,從而做出對人類有害的事情。過時或不適宜的證據與規則的應用在新環境中的錯誤應用會給出錯誤的診療建議,從而有損人類的健康與安全。當有機器人深度參與的醫療衛生服務若出現事故,又該如何界定衛生人員、機器及廠商等的責任?這一點在我國法律上還沒有明確的規定。
近些年,人工智能等前沿技術逐漸應用到醫學的方方面面,推動了新時代新型醫學得誕生和演變,同樣也賦予了傳統醫學新的理念、新的內涵、新的范圍、新的診療手段與康復模式。這些無論對醫生和患者,都帶來了深遠的影響,已經逐漸成為時代和社會發展的一種必然趨勢。在無法逆轉社會發展潮流時,必須正確處理醫學人工智能技術在應用中所帶來的倫理問題,推動醫學人工智能技術健康有序的發展。一些地區在人工智能倫理治理上已有所嘗試,歐盟在2019年提出“可信任的AI倫理準則”,即尊重人類自主原則、預防傷害原則、公平性原則、可解釋性原則[6]。中國臺灣在2019年發布《人工智能科研發展指引》,提出3個AI應遵從的核心價值:以人為本、永續發展、多元包容;還有八項核心指引:共榮共利、公平性與非歧視性、自主權與控制權、安全性、個人隱私與數據治理、透明性與可追溯性、可解釋性、問責與溝通[7]。本文參考以上準則,從理念、研發、應用、監管4個方面提出對策和建議,確保醫學人工智能在全生命周期內安全、穩健、合法且符合倫理地運行。
醫學倫理學的三大基本原則為病人利益第一、尊重病人、公正。在醫學人工智能的應用中,必須要遵循倫理學的基本原則[8],醫學人工智能產品是為人類的健康服務,在產品的開發、應用等全生命周期都應該貫徹“以人為本”的理念。以病人的需求為出發點,在應用人工智能的診療過程中充分尊重病人的各項權利和意愿。
一方面,制定產品和服務的研發標準和規范。在產品的研發過程中,將醫學倫理學原則和法律準則“嵌入”到人工智能“算法”中,并事先對醫學人工智能產品的實際應用場景、行為特點等進行道德風險評估,在前期進行道德防控[9];另一方面,嚴格保護系統,防止漏洞和黑客惡意攻擊,制定和測試安全措施以最大程度地減少意外后果和錯誤,并在系統出現問題時制定可執行的備份計劃。
醫療人工智能技術產品的部署和運行既要始終堅持其實質性的公平又必須能夠保證流程的公平,應該能夠確保其利益與成本之間的平等分配、個體和群體不被歧視或受偏見。同時,醫學人工智能技術產品的各種功能與目的必須嚴格地保證信息公開透明,特別是在醫學人工智能產品還處于臨床試驗階段時,患者應具有知情同意權,患者有權利知道醫學人工智能產品的精確度和局限性。
在醫學人工智能產品的研發、應用、銷毀等全流程都要嚴格保護用戶的數據和隱私,確保收集到的信息不被非法利用。應當從法律層面清晰地明確個人對于其信息所擁有的各種基本權利,規范企業在網絡上搜索、發布和使用個人信息等的行為。因此,目前我國醫療人工智能的應用仍然急需政府部門制定一系列的安全性標準和完善相應的法律、法規,以便于保護病人的信息隱私,在任何一個環節都要嚴格保護、嚴防泄露。諸如所有涉及接觸到訪問、傳遞和存放受保護病人信息的專業技術人員和單位都應被限制在政府部門制定的相應安全性規范內。
建立醫學人工智能技術倫理與法律風險審查體系。包括區域性(中央、省、地三級)及規模較大醫療衛生機構內的“審查委員會”,以分別負責所在地區或機構的醫學人工智能項目的倫理與法律風險的審查。強調“委員會”成員的合理組合,發揮人工智能學科專家、醫學專家、哲學倫理專家、法律專家、社會學專家的協同作用。
人工智能在現代醫學技術中得到快速的應用和發展,極大地促進了我國現代醫療衛生事業的繁榮與發展,這已經成為一個時代和社會發展的必然趨勢[10],必須重視醫學人工智能發展中帶來的倫理問題和挑戰,在醫學人工智能產品的開發、應用等過程中秉承以人為本的理念,保證產品的安全性和技術穩健性,遵循公開透明的原則,注重隱私和數據保護,建立相關審查體系,實現有效監管,讓人類更多地享受技術的進步帶來的便利,進而提高全人類的健康水平。