董星宇 陳敏
華中科技大學同濟醫學院醫藥衛生管理學院,武漢,430030
國務院《新一代人工智能發展規劃》(2017)中指出,人工智能作為新一輪產業變革的核心驅動力,必須加快其在各個行業的深度應用。人工智能在疾病診療、醫學影像、健康管理、藥物研發等多個方面具有廣闊的應用前景。醫療人工智能通過對醫療領域進行深度數據挖掘與分析,最終實現輔助或替代醫護人員提供醫療服務。醫療人工智能帶來新機遇的同時,也因其發展的不確定性帶來了新的挑戰。如何應對醫療人工智能帶來的諸多問題與風險,確保其安全、可靠、可控發展,是當前必須重視和解決的問題。
在國家全民健康信息化建設背景下,人工智能在健康醫療領域中的應用發展迅速,形成了“AI+健康醫療”的模式。主要有:①AI+疾病診療。如IBM Watson可提供乳腺癌、肺癌、子宮癌等多種癌癥的診療服務。②AI+醫學影像識別。如騰訊覓影對早期發現食管癌的準確率高達90%。未來也可支持肺癌、乳腺癌等的早期醫學影像診斷。③AI+健康管理。可在健康監測、慢病管理、情緒調節、合理膳食指導等方面提供醫療護理和健康指導。④AI+機器人。可應用于醫療咨詢、手術操作和術后護理。此外還有AI+藥物研發、AI+精準醫療、AI+基因測序等。
法律法規是規范醫療人工智能健康發展最根本的保障,倫理學則是在法律法規的基礎上,可以促進醫療人工智能的社會價值導向,體現社會的可行性。標準的規范體系在解決醫療人工智能發展的技術方面發揮著重要的作用。網絡安全、醫療安全以及隱私信息安全也至關重要。評價體系和人才培養對于推動醫療人工智能發展也同樣不可或缺,但這些方面都還很不完善。
醫療人工智能作為迅速發展的新事物,法律的滯后性非常明顯,如侵權責任的劃分問題。醫院和醫生是承擔醫療服務責任的主體,但引進人工智能產品后,對醫療服務過程中造成的醫療事故、不良事件等,如何劃分責任主體是亟待解決的問題[1]。人工智能具有獨創性,能否作為“主體”來進一步確定版權歸屬,也有待解決[2]。
醫療人工智能的應用也存在醫學倫理學的問題。首先是人權倫理問題,如醫療人工智能能否被賦予人權,人工智能的特權是否會凌駕于醫生之上。智能眼球、智能臟器等輔助設備開始應用于人體中,出現“智能人”,對人的道德主體地位也是挑戰。人工智能具有高效的學習能力、巨大的知識容量等,可以為患者實現更加優化的診療,但對醫生的地位也有極大的影響[2]。
近年來國家已開始著手人工智能標準化建設。《人工智能白皮書》(2018版)中表明,當前人工智能相關標準有200個,其中已發布81個、在研88個、擬研制31個。但醫療人工智能的相關標準仍處空白階段。行業內對醫療人工智能的內涵、應用模式等未達成共識,標準化工作基礎較為薄弱。臨床術語是醫療人工智能發展的前提和基礎,由于版權歸屬、語言障礙、醫療環境等諸多因素的限制,缺乏中文臨床醫學術語的標準,制約了健康醫療與人工智能的深度融合。醫療人工智能涉及醫學、計算機科學、心理學等多個領域,不同領域的融合都需要有相關的標準進行界定[3]。
醫療人工智能在網絡安全、醫療安全、社會安全、隱私信息安全等方面均存在不少隱患。人工智能系統如果因操作失誤或網絡受到惡意攻擊等可能會對醫生或患者造成傷害。算法模型可能帶有主觀色彩,在診療方案的選擇上存在很大的差異,也可能會引發醫療安全事故問題[4]。醫療人工智能由機器取代醫務人員部分智能化自主工作,可能會造成人員的薪酬下降、失業等一系列問題,使醫生和患者產生不安的情緒,成為社會不穩定的因素。
醫療人工智能需要對大量的健康醫療數據進行挖掘和利用,涉及個人信息的獲取、擴散、分析利用等一系列問題。個人信息可能會未經本人允許被獲取或超出用戶允許范圍之外使用,也可因經濟利益或某些商業目的造成個人健康醫療數據被非法擴散。在個人未被告知甚至非法隱瞞醫療數據的情況下,會造成個人醫療信息的泄露。此外,醫療人工智能學習和分析的能力,也會推導出其他隱私信息,造成隱私泄露[5]。
評價體系包括對醫療人工智能的算法模型、產品性能、應用效果等方面的評價,可評估產品的優劣,也是行業內的“領航標”,引領產品的發展方向。例如人工智能影像診斷,需從準確性、醫生利用率以及業務流程等方面進行評價。這些評價指標是否合理直接影響其后續發展及應用效果。缺乏醫療人工智能評價體系既無法充分評估醫療人工智能產品及系統的關鍵性能[6],阻礙推廣應用,也可能會影響產品的良好發展。
中國人工智能人才缺口預計將超過500萬人,人才缺乏導致供需嚴重失衡。醫療人工智能作為跨學科應用,涉及自然語言處理、圖像處理、醫學、統計學、機械自動化等多專業的融合,需要多樣化的人才。醫療衛生人員對人工智能新興技術的接受度還無法估計,目前也沒有建立專業化、規范化的培訓與考核體系,導致醫療衛生人員對人工智能產品接受度低、操作失誤等問題[5]。如何有針對性地培育人才、引進人才、留住人才也是亟待解決的問題[8]。
目前與醫療人工智能相關的法律規范滯后,應盡早制訂和完善相關法律法規,界定醫療人工智能產品的開發者、生產者、使用者的責任。建立一套明確法律邊界的醫療人工智能責任體系,從法律上明確責權。可設立責任認定監管機構,通過引入第三方機構來保障責任認定的公正公平[1]。在《著作權保護法》等法律中明確人工智能的創作管理。在《網絡安全法》、《信息安全等級保護管理辦法》等法律法規的基礎上,建立人工智能隱私信息安全管理辦法,加強公民的隱私保護。
在倫理風險管控方面,應堅定醫生主體地位,明確以醫生為主導、人工智能為輔助的觀念,實現醫務人員與人工智能的有機結合,為患者提供更加優質的服務。在人工智能產品的設計開發時應根據倫理學原則進行風險評估,使人工智能風險最小化、效益最大化。
醫療人工智能的標準包括基礎、平臺/支撐、技術、產品與服務、應用和安全/倫理等六大類標準體系[7]。①基礎標準。是對醫療人工智能基礎進行的規范,包括總則、術語、參考模型/框架、數據、測試評估等。②平臺/支撐標準。是對開展醫療人工智能平臺和支撐的規范,包括云計算、大數據、智能感知、人工智能平臺等。③技術標準。是對醫療人工智能關鍵技術的規范要求,包括機器學習、自然語言處理、圖像識別、虛擬現實、人機交互等技術標準。④產品與服務標準。包括機器人、智能器械、智能終端、智能服務等產品和服務標準。⑤應用標準。包括醫療人工智能在疾病診療、醫學影像、健康管理、藥物研發、精準醫療等方面的標準。⑥安全/倫理標準。主要包括醫療人工智能安全、倫理、隱私保護等相關標準。
其中基礎術語,人工智能平臺支撐,機器學習、計算機視覺、人機交互、VR/AR等關鍵技術,包括機器人在內的人工智能產品,安全/倫理等標準規范則是迫在眉睫需要制定的。
應制定醫療人工智能應用評價體系,評估其開發過程與產品性能等指標。通過指標體系對產品進行考核評價,引導醫療人工智能產品的健康發展,避免不合格產品進入市場,創造良性競爭環境,為醫療人工智能的推廣應用奠定良好的基礎。
首先,應加強復合型人才的培養。各高校應加強醫學與計算機、統計學、大數據等交叉性學科的建設,培養“人工智能+”復合人才。積極探索醫療衛生機構、醫學院校與工科類院校、企業之間的合作,共同培養復合型人才。其次,應建立醫療人工智能培訓體系。醫療機構在引進人工智能時,對相關的醫務人員進行規范化、專業化技能培訓,制定完整的考核標準。第三,建立高端人才引進機制,制定相應政策,實現醫療人工智能高端人才、精準引進[8],提供優厚待遇,引進人才并留住人才,保障醫療人工智能持續快速發展。