吉 萍 郭 銳 許衛衛 祝丹娜 肖 平 李馥宣 周麗萍
醫療人工智能泛指應用在健康領域的人工智能技術,目的是提高醫療服務水平與效率,應用場景涵蓋智能臨床輔助診療、醫用機器人、智能公共衛生、智能醫院管理、藥物研發、智能醫學教育以及健康管理等多個方面。雖然全球已形成廣泛接受的人工智能倫理共識與準則,但醫療人工智能作為新類型研究,倫理與法律風險防控仍然在探討與起步階段。通過2019年走訪深圳開展健康領域人工智能研發的企業、醫療機構以及研究機構的開發者,了解到相關的產業、醫療機構、科研院所以及行業監管部門都面臨諸多實際問題[1-4],包括:(1)如何遵循醫學科研倫理審查的通用原則與標準?(2)倫理審查時應該重點關注什么:研究價值,科學有效性,如何收集、利用數據,共享數據的可行性,合作方責任與權利?(3)醫院如何定位管理:是否作為科研轉化項目,是否應歸為醫療器械進行監管,由誰來監管,等等?負責任開發醫療人工智能產品離不開充分、有效的監管與支持。本文將結合上述問題,從倫理審查與法律層面探討,期望與相關方交流實踐中的具體考量。
我國已將人工智能上升為國家戰略,法律法規和政策體系也在進行建設。從國內外現有醫療人工智能倫理準則與共識來看,依據醫療領域研究廣泛遵循的《涉及人的健康研究國際倫理準則》《涉及人的生物醫學研究倫理審查辦法》以及健康大數據相關規范進行管理。我國國家衛生健康委員會與國家食品藥品監督管理局也陸續發布了人工智能診療、移動醫療器械注冊以及深度學習輔助決策醫療器械軟件審批要點。美國醫學會[5]、英國納菲爾德生命倫理委員會[6]對人工智能在健康領域研發及應用提出了倫理原則與考量。然而,醫療人工智能產學研轉化鏈中具有跨行業、跨機構、多學科交叉合作的特點。目前,作為重要參與方的企業以及科研院所倫理意識及倫理監管措施相對薄弱。如果是聯合申報學術課題,一般是誰牽頭誰審批,由牽頭的醫療機構或科研院所的倫理委員會進行審查。如果是企業或研究者自發的項目,多僅靠提供數據的合作醫院做倫理審查。醫院一般沿用醫學科研倫理審查機制對醫療人工智能項目進行倫理審查,甚至存在醫院未對醫療人工智能研發進行倫理審查而直接開展的情況。從整體來看,現階段在醫院開展的醫療人工智能研發多是醫學數據分析的軟件,通過算法實現對醫療的各種輔助支持,是否應歸為并按醫療器械軟件研發進行監管?行業內對醫療人工智能研發階段的定位管理還存在模糊地帶,是否是臨床研究項目?是否是科研轉化項目?如何收集、利用、共享數據以及各個合作方的職責權利等具體要求還未達成廣泛共識,存在盲區。
醫療人工智能技術的核心是基于數據和智能算法的決策過程,這一過程依賴大量的數據處理。目前,大多數人工智能產品是通過算法實現的,訓練樣本主要來自醫院患者的各類醫學數據,但醫院信息標準化和結構化工作整體還比較薄弱,數據質量不高。醫院各自為政,缺乏統一的信息標準、編碼和信息化系統,很難實現數據集成與共享的智能化。另外,雖然僅利用和共享去標識化信息的數據,但去標識化到何種程度、數據清洗個人信息的準則以及數據標注的規范格式等尚無統一標準[2]。需要考慮數據收集、數據標注中完整性及可用性與保護隱私的倫理要求平衡[3],如何最大程度地保留信息滿足分析需求,又保證其數據結果最終是可解釋的、可信任的,同時避免通過信息追溯到個人。
醫學大數據共享追求的是公共利益,在充分保護個人權利的前提下,能發揮數據的潛在價值,實現數據使用效益最大化。一方面,健康醫療數據屬于個人敏感數據,人工智能醫學應用收集的數據需要遵守個人健康醫療數據處理的一般原則,然而,存在數據泄露或非法提供、出售等違規情況[7]。一般數據處理僅限于科研目的才可以,但合作企業長遠的最終目標是商業化應用,如何約束數據控制者和處理者的權利與義務[4]是現實問題;另一方面,數據的歸屬、管理責任不清。數據控制者缺乏合作觀念[7],也缺乏從最初的設計出發,對數據收集、存儲、分析和共享等全過程可能涉及的倫理問題提出規范要求,在力所能及的范圍內確保公開透明與負責任的使用數據的觀念,阻礙了數據的流動與共享。
首先,要明確跨機構合作的醫療人工智能相關研究和產品開發的倫理審查應由誰來承擔?一般倫理審查采用誰發起誰承擔的形式,但醫院無論是作為發起方還是僅作為提供數據的參與方都應進行必要的、與研究風險相稱的倫理審查。對低風險項目,可以加快審核流程,避免過度監管而影響研究效率。
醫院對開展的醫療人工智能課題進行管理時,主要按經費來源分縱向課題和橫向課題。縱向課題為醫院主導獲得政府資助,多為早期以探索發現科研思路為主。橫向課題為醫學健康領域相關學會、協會、研究會、科研院所等以及企事業單位委托開展的合作課題,要判斷是否屬于醫療器械的產品研發范疇,如區分軟件類醫療器械、移動醫療器械與移動健康電子產品等。如果屬于醫療器械,則應按現行藥監部門的注冊申請要求及路徑進行管理,并在具有資質的醫療機構開展試驗。移動醫療器械與移動健康電子產品不存在清晰的劃分界線,凡符合醫療器械定義的移動計算設備和軟件均屬于移動醫療器械。一般情況下,預期用于健康管理的、目標人群為健康人群的、記錄統計健康信息的移動計算設備或軟件不具有醫療目的,不屬于移動醫療器械;而預期用于疾病管理的、目標人群為醫護人員和患者的、控制驅動醫療器械的、處理分析監測醫療數據/圖像的移動計算設備或軟件具有醫療目的,屬于移動醫療器械[8]。對于無法明確判斷醫療人工智能課題所屬類別的,可按學術性科研課題進行監管,保障研發過程的安全、合法、可靠。
結合醫療人工智能研發項目現有的特點,依據醫學科研倫理基本準則與標準開展適宜的審查,審查要點包括如下內容[9]。
(1)是否具有開展的價值?換言之,研究能否為個體或公共健康做出貢獻,要關注創新性與重要性。國家倡導和鼓勵政策引導下,人工智能在醫療健康領域的研發日益增多。然而,多數企業、研究機構與醫院合作時,在產品應用和價值體現方面尚缺乏深入交流與分析。從事人工智能的研發人員多來自工科專業,包括數學、電子信息、自動化和計算機專業。有訪談者表示:“懂算法的不懂醫,懂醫的不懂算法。”有些僅依據能獲得數據而開展研究,甚至未考慮診療中的實際情況,難免造成資源浪費。因此,人工智能項目應開展圍繞臨床和公共利益需求,以確保研究有開展的必要性。研究方案是否科學,是對科學有效性提出要求,即研究設計科學、能獲得可靠和有效的數據實現研究目的。人工智能項目需要關注算法設計,應當考慮算法選擇、算法訓練、算法性能評估等活動的質控要求[9]。還要考慮數據多樣性,以提高算法泛化能力,如盡可能來自多家、不同地域、不同層級的代表性臨床機構,盡可能來自多種、不同采集參數的采集設備[10]。深度學習算法的專業性可由科學審查進行或聘請獨立顧問進行判斷。
(2)如何保證數據安全可靠和隱私保護?醫療人工智能研發離不開大量醫學數據,要關注在健康領域中的數據收集、儲存和使用方面是否有充分的信息防護措施,特別是個人敏感信息處理、身份識別信息的保密辦法、與數據分析結果相聯的個人信息來源等,保證其不被泄露。另外,如何合法取得、提供、使用、共享數據,以及相應責任的承擔是否明確。相關方應建立合作協議,規定各方義務和職責。例如,數據提供方應確保收集的合規性以及質量:是否建立了數據采集操作規范,明確采集人員要求和采集過程要求;具備對數據的管理策略和能力,避免隱私信息的泄露。數據使用方應規范、合理標注,數據標注應當建立數據標注操作規范,如明確標注人員的資質、數量、培訓考核要求,以及標注流程[9]。數據使用與共享應嚴格執行方案規定的數據享用范圍,避免濫用。
(3)風險獲益是否合理?一般合理的風險獲益比評估關注研究可能涉及的風險與預期的獲益是什么,盡可能最小化研究涉及的風險,同時避免不必要的風險。在人工智能研發中要特別關注隱私和信息安全風險,避免被不正當處理、個人信息泄露、侵害隱私權所帶來的風險。
(4)研究是一個動態的過程,在人工智能研發風險獲益的評估亦是動態的,因此應結合研究過程,開展適時的、必要的跟蹤審查。
知情同意是受試者保護的重要措施之一。但是,醫療人工智能在收集和使用健康醫療大數據時,多是整合、分析、使用常規臨床情形下收集的海量數據,以創造新的價值和技術,并不是要個體可識別信息。去標識化信息在使用時安全風險較低,可以酌情考慮選擇[11-13]。
(1)知情同意的豁免(waiver of informed consen):采用既往信息開展的研究可以申請免除知情同意,應滿足如下條件:①獲取個人知情同意在操作層面或經費上無法實現;②研究必須具有重要的社會價值;③研究對受試者及其群體造成的風險不超過最小風險。
(2)泛知情同意( broad informed consent):指患者可選擇是否同意參與將來某一類型的研究,泛知情同意并不是無限制的同意;相反,其要求應詳細說明下列內容以規范患者信息在未來研究中的應用:①采集數據目的和用途;②數據的儲存條件和期限;③該信息的使用權限;④告知數據管理者的聯系方式,以便受試者可隨時了解其信息的使用情況;⑤數據信息的預期使用情況。
(3)當為了已知研究目的的研究收集數據時,應獲取具體的知情同意(specific consent)。同時,應告知研究參與者所收集數據的將來處置措施。
(4)知情選擇退出(informed opt-out):指除非患者明確拒絕,否則其相關數據可被留存并用于研究,應滿足如下條件:①患者需知曉存在該程序;②需為患者提供充分的信息;③患者需知曉其擁有撤回相關數據的權利;④需為患者拒絕參加研究提供切實可行的操作流程。如在患者就診或者入院時進行告知或公示。
醫療人工智能產品的研發往往需要大量的個人數據,研發的產品上市后可能作為醫療器械、作為輔助診斷的專家系統甚至作為獨立實施醫療診斷行為的智能診療主體而存在。故此,醫療人工智能產品研發中的法律考量主要有如下幾個方面:(1)個人信息收集和利用的邊界;(2)侵權責任主體的認定。
醫療人工智能產品依賴于收集和利用患者與用戶數據。無論是作為醫療人工智能產品開發前提的醫療數據儲存、醫療數據分析,還是給出輔助診斷意見或實施醫療診斷行為的醫療人工智能產品,都需要收集和利用個人信息。按照是否可以單獨或者通過與其他信息結合的方式識別出自然人個人身份的標準,這里提到的個人數據可以分為兩類:個人信息和去標識化信息。這兩類個人數據區分的標準是能否單獨或者通過與其他信息結合的方式識別出個人身份:前者能夠,后者不能夠。大量去標識化信息進行聚合形成的在健康醫療領域內能被有效利用的數據集群,稱為健康醫療大數據。 醫療數據收集和利益主體,應基于個人健康醫療數據的敏感性,充分尊重數據主體的個人信息權利,確保信息收集的來源和目的的合法、正當以及信息主體的知情同意,遵循最少夠用的信息收集原則,并嚴格遵守國家對于患者個人健康信息的特別規制。
去標識化信息屬經過特殊技術處理而降低了信息風險的個人信息,要求信息控制主體對敏感信息等進行去標識化處理,以及避免去標識化的數據被重新關聯到個體等,都是追求健康醫療大數據的有用性趨勢下對數據風險進行控制的重要手段。
醫療人工智能產品有其特有的特征,主要體現在軟件開發者可以在產品生命周期內改變其功能。對于需要頻繁更新軟件或依賴機器學習的產品,尤其如此。這些功能可能會帶來產品投放市場時尚不存在的新的風險。
關于侵權責任主體的認定和責任范圍的劃分,其基本原則是責任應由最合適防范風險的行為者承擔。醫療人工智能產品的開發人員最適合對開發階段和頻繁更新產生的風險負責;但在使用階段,醫療專業人士有更大的控制風險的能力,故也有可能承擔相應責任。尤其在醫療機構使用醫療人工智能產品侵害患者權利的場景下,必然產生醫療人工智能產品生產者和醫療機構作為責任主體之間的責任劃分問題。在損害完全由醫療人工智能產品缺陷導致的情況下,醫療人工智能產品生產者為實質責任的承擔主體,出于保護患者及其對于醫療機構的合理信賴的考量,若醫療機構使用的醫療人工智能產品為醫療器械,患者也可就缺陷人工智能醫療器械帶來的損害向醫療機構主張賠償責任,但醫療機構僅承擔表面責任,可就相應損失向缺陷醫療人工智能產品生產者進一步追償;在完全由醫療機構及其醫務人員的過錯致使患者在診療活動中受到損害的情況下,患者可向醫療機構主張醫療侵權責任。醫療過錯主要體現為醫療機構及醫務人員未盡到一定診療義務,義務來源包括與當時醫療水平相稱的、使用醫療人工智能產品相關的注意義務。醫療人工智能產品在提供決策支持時,醫務人員的診療義務很大程度上體現為對此決策的風險進行理性并專業的判斷和控制的義務。比較復雜的情況是導致損害的原因難以區分為醫療人工智能產品缺陷或醫療機構及其醫務人員過錯的情況下,如何認定兩個主體是否成立侵權責任或如何進一步劃定責任范圍,都應從產生損害的風險防范基本原則角度出發,結合具體的實際情況來綜合判斷。
國家出臺一系列鼓勵并推動人工智能產品研發的政策,投入力度也在增加,無疑將促進我國醫療人工智能的開發。前沿醫療人工智能作為新型以數據驅動的研究類型,具有跨行業、跨機構的多學科交叉合作特點,相應的數據安全、數據利用以及數據共享有關倫理與法律問題也日益突顯。
加強人工智能在健康領域健康發展,離不開有效、充分的監管與支持。一方面,國家應盡快明確醫療人工智能從科研到產品開發全流程中各環節的監管主體和管理政策,尤其是數據使用,為相關責任方提供規范指引,增強合法合規意識,確保應用的安全、可靠、可控。另一方面,醫療人工智能產品作為新興類別產品,缺乏實例和經驗,針對人工智能研發特點,需要相關參與方主動、負責任地協同開展研究[14],在產品開發與評估階段遵守醫學研究倫理原則和數據規范。醫療機構作為數據提供方,應建立數據治理系統,確保數據的儲存、使用全程監管,并應探索課題的主動監管,保障安全、合法、可靠地開發醫療人工智能產品。
(致謝:感謝北京大學醫學部叢亞麗教授和張海洪老師為本文提供的專業指導意見!)