〔摘要〕基于醫療人工智能不同于一般醫療器械的特性,發現醫療人工智能的臨床應用對前端準入監管規制、中端知情同意權設計以及后端致損后責任調適帶來了不同層面的沖擊。對此,有必要適當放寬準入審查,加強上市前后協同監管,同時調整醫療AI“安全、有效”的綜合判定思路;厘清關于患者知情同意權的告知“廣度”與披露“深度”;以現行產品責任與醫療損害責任體系為基礎類型化調適責任歸屬于分配,同時強化醫療強制責任險的補充適用,以強化患者的損害救濟、風險的合理化分配以及社會成本最小化。
〔關鍵詞〕醫療人工智能;準入機制;知情同意;產品責任;醫療損害責任
〔中圖分類號〕R-01 〔文獻標志碼〕A 〔文章編號〕1001-8565(2025)02-0150-09
DOI: 10. 12026/j. issn. 1001-8565. 2025. 02. 02
Front-end access regulation and liability adjustment of infringement in the middle and back-ends of medical artificial intelligence
ZHOU Wenkang1, FEI Yanying2
(1. School of Marxism, Harbin Institute of Technology 〈Weihai〉, Weihai 264209, China;2.School of Public Administration and Policy, Dalian University of Technology, Dalian 116024, China)
Abstract: Based on the unique characteristics of medical artificial intelligence (AI) that differ from general medical devices, it was found that the clinical application of medical AI has brought different levels of impacts on the front-end access supervision and regulation, the mid-end informed consent right design, and back-end post-damage liability adjustment. In this regard, it is necessary to appropriately relax the admission review,strengthen the coordination of supervision before and after listing, and simultaneously adjust the comprehensive judgment ideas of “safe and effective” medical AI; clarify the “breadth” of notification and “depth” of disclosure regarding the patients’ informed consent rights; based on current product liability and liability for medical malpractice system, typologically adjust the allocation of liability, while strengthening the supplemental application of medical compulsory liability insurance, so as to enhance the relief of patients’ damage, rationalize risk allocation, and minimize social costs.
Keywords: medical artificial intelligence; access mechanism; informed consent; product liability; liability for medical malpractice
隨著醫療人工智能(以下簡稱“醫療AI”)的臨床應用由導入期演變為拓展期,其已在很大程度上推動產生了數字化健康革命。醫療AI可以通過大數據整合分析,快速準確地篩檢疾病,預測疾病風險,了解發生機制,最終提出改善疾病的診療策略。但是,醫療AI的技術嵌入也帶來不同層面的制度風險。就前端準入規制而言,如何調整傳統準入規管,確保醫療AI普遍使用的安全有效;就中端審查而言,如何合理配置知情同意權,確保醫療AI個體在程序上適法無虞;就致損后的責任承擔而言,生產者/設計者、醫務人員、醫療機構等責任主體之間關系復雜,如何在利益平衡理念下厘定責任歸屬、分配以及損害填補等均是亟待解決的重要議題。需要指出的是,現階段醫療AI仍是輔助醫務人員決策,最終對于疾病診療方法的選擇均有賴醫務人員的專業判斷及自由裁量,因而本文的相關情景探討大多圍繞弱人工智能展開,以期為醫療AI規制發展提供階段性的建議參考。
1 醫療AI對傳統準入機制與一般侵權規則的沖擊與挑戰
1. 1 關于傳統準入機制的前端挑戰
目前醫療AI應屬于醫療器械范疇。在此基礎上,現階段對醫療AI的監管仍然要落位于醫療器械監管框架內,因此,國內外監管機構均出臺了相應政策法律,以加強醫療AI的監管創新。以美國為例,從上市前風險分類管理的基本樣態來看,美國食品和藥品監督管理局(Food and Drug Administration,FDA)的分類如下:第Ⅰ類為低風險器械,僅在注冊時就可以合法銷售;第Ⅱ類為中等風險器械,監管途徑是上市前通知,此途徑是依據FDC Act第510節第k項(簡稱“510(k)”)進行監管;第Ⅲ類為高風險醫療器械,監管途徑為嚴格的上市前許可(premarket approval,PMA)。部分第Ⅰ類、Ⅱ類的醫療器械風險較小,經FDA公告可免除510(k)或PMA申請途徑[1]。國家藥品監督管理局(以下簡稱“藥監局”)則是將醫療器械分為3類進行管理:第一類(風險程度低)、第二類(中度風險)、第三類(較高風險),判定分類的因素包括預期目的、結構特征、使用形態、接觸程度等。在監管機制中,準入機制是決定技術能否產品化并進行規模化臨床應用的前提。首先,醫療器械的準入本身應具備強監管屬性,但是考慮到醫療AI更新迭代快的特性,是否需要釋放相當程度的監管彈性,實為一個兩難的議題。一方面,過于嚴格的準入監管可能會扼殺醫療創新;另一方面,過于寬松的準入監管會造成醫療AI上市后充斥不良反應,擾亂醫療AI創新市場秩序,降低消費者對醫療AI的信任度。其次,傳統經驗表明,準入機制一般要求相對嚴格的科學理解、耗時繁雜的資料審查以及極為謹慎的臨床試驗等。關于科學理解,中國的《醫療器械監督管理條例》《醫療器械注冊管理辦法》等規章明確要求申請人需要提交各類用于科學理解的研究資料。但是,醫療AI的可解釋性本身就存在相當程度的解釋空場,未來是否可釋放無法科學解釋但準予投入臨床應用的監管彈性。再者,中國絕大部分醫療AI都必須經過臨床試驗方可上市,但臨床試驗同樣存在可能無法解釋的困境,依此,是否存在可替代性方法或者采用綜合判定法整體判斷準入與否[2]。此外,健全準入機制還須以“新質”審批人才作支撐,因此,醫療AI注冊審批隊伍建設也極為關鍵,而目前醫療AI注冊審批隊伍的量與質都存在不同程度的不足。總之,傳統醫療器械的準入監管機制已經不足以因應醫療AI發展需要,現行模式亟待調整。
1. 2 關于知情同意實施的中端挑戰
醫療AI行為并不只是“指令輸入+行為輸出”的執行過程,而是基于患者知情同意權基礎上的系統活動。不論醫療AI發展如何,保障患者的知情同意權都是必須堅持的基本價值取向。如果說前端建立準入機制是為確保醫療AI普遍使用過程中的安全有效,中端實施知情同意則是個體使用過程中的首要前提,在此基礎上,才有醫療AI的使用余地。
《中華人民共和國民法典》第一千二百一十九條、一千二百二十條對患者知情同意權作出規定。相比舊條文,《民法典》的新規定突出了具體說明和明確同意兩項要求。基于此,醫療AI使用是否應納入知情同意范疇,如果納入,那么關于“具體說明”的判斷余地何以裁量。同時,“理性醫師標準說、理性病患標準說、具體病患標準說、二重基準說以及折中說”等學說如何適用采納,特別是,醫療AI的披露標準或者告知范圍乃至程序設計如何界定。畢竟,患者能否從醫務人員所告知的內容中獲得足夠的信息,是其能夠行使自主權的關鍵,若界定不明則難以說明該知情同意是真實有效的。例如,診療過程中的告知范圍是否包括解釋醫療AI運作的依據或邏輯?這一問題梗阻的本質在于算法的黑箱屬性使然,在于算法從輸入到輸出的過程機理是不透明的。現實中,生產者/設計者通常以商業秘密為理由拒絕公開算法,而這也導致商業秘密保護有時會凌駕于解釋權之上。況且,算法公開本身也并不代表算法可被理解,公開往往只是被理解的前置環節。算法解釋并不是指對源代碼的解釋,而是指對算法判斷或決策的解釋[3]。必須承認的是,這一判斷或決策過程并非基于醫務人員都充分理解、充分驗證以及得到廣泛證據支持的生物學關系[4]。醫務人員往往只能基于觀察醫療數據而非臨床試驗來驗證這些判斷或決策[5],或者說只能轉述別人的評價來解釋說明。在此基礎上,若醫療AI所形成的診療建議與人工診療結論相沖突且不被醫務人員所充分理解,那么無論是醫務人員堅持己見的告知,還是醫務人員向醫療AI結論妥協的告知,都會增添患者疑慮。若醫務人員長期囿于理解盲點而直接選擇相信醫療AI,便可能會導致出現“批量化”后果的出現。再加上市場性行為難免會左右醫務人員的風險釋明程度[6],這些都會實質性影響患者知情同意權的實現。從“理性人”角度觀察,如果患者明確知道風險存在,卻難以進一步獲得風險相關的可理解信息時,其通常會基于既有理解或者風險臆想而作出保守決策,從而對屬于醫療AI采取排斥態度[7]。
1. 3 關于致損后的后端擔責挑戰
在現行立法框架下,醫療AI致損后的擔責形式主要涉及產品責任和醫療過失侵權責任兩大場域。在面對醫療AI這一新技術領域時,任何法律規范的涵攝失靈都在所難免,進一步說,產品責任或醫療過失侵權責任都有適用空間,也都有適用障礙,具體還應在不同情境中仔細甄別。關于產品責任的適用障礙。從性質定位來看,醫療AI本質上屬于醫療器械,產品責任完全符合現階段醫療AI屬“物”的法律地位。從功能實現來看,產品責任既能充分保護救濟受害人,又能合理限制生產者的責任,同時還能鼓勵生產者進行技術革新。但是,在醫療AI這一場域,關于產品缺陷的歸責和認定卻成為難題。產品缺陷一般包括設計、制造、警示等三種缺陷。其中,制造缺陷所指涉的認定標準(是否偏離原有設計進而存在不合理的危險)還是歸責原則(通說認為適用無過錯責任原則)往往爭議不大;相比之下,設計缺陷和警示缺陷的整體判斷則較為復雜,因而也構成了司法實踐的爭議焦點。以設計缺陷的認定為例,設計缺陷意味著設計本身存在不合理危險。關于不合理危險,由于前述算法的“黑箱”特性,醫療事故的發生往往無法從設計方面找到合理歸因的因素[8],算法追責難度極大。即便是采用近年域外較為重視的風險效用標準也相當困難,按照該標準,原告一般只要確立一個合適的安全參照設計即可完成舉證,但適用過程依然存在諸多局限,例如,美國《侵權法第三次重述:產品責任》第6(c)節規定了但書情形,即使患者能夠證明更加合理替代設計的存在,也并不代表缺陷一定存在,前提是至少對一類患者有益,且能夠讓一位負責任醫生做出此診療建議。再如,要求患者提出更加合理的替代設計成本高昂且難以實現等[9]。此外,設計缺陷認定的法定標準是指國家標準和行業標準,而中國與醫療AI相關的國家標準和行業標準并不明確也并不統一。再加上由于現實中診療的多樣性和效果的不確定性,往往只能依據抽象復雜的“不合理危險”來填補判斷余地。同時,由于標準應急性與技術認識邊界性,當出現符合國家、行業標準但存在不合理危險的產品時,又該如何認定[10]?
關于醫療過失侵權責任的適用障礙。醫療過失侵權責任的核心在醫療過失的認定。醫療過失認定最基本的標準是“合理醫生標準”。在醫療AI這一場域,是否應將AI所能達到的醫療水平全面或者選擇性融入現行的“合理醫生”標準之中?特別是,“當時的醫療水平”作為醫務人員注意義務和能力的通常標準,在不同醫療過失侵權情形下的解釋應有所不同。除了責任認定難題之外,醫療機構的擔責樣態也有待厘清。醫療機構一方面須為醫務人員的過失承擔替代責任,這點一般無異議;另一方面需要為組織過失承擔責任。組織過失通常理解為醫療機構沒有部分或完全履行確保醫療AI正常運作之義務,而醫療AI領域醫療機構組織過失的樣態何以呈現,何種責任分配形式更能彰顯體現公平效率。
2 制度吸納之一:完善醫療AI前端準入機制的策略探討
2. 1 適當放寬準入審查,加強上市前后協同監管
考慮醫療AI特性,可借鑒美國有條件排除準入監管的相關經驗,例如,美國《21世紀治愈法案》便將某些醫療AI排除在醫療器械定義之外,不受FDA管轄[11]。依此趨勢,中國的規制思路應作調整,即原則上只有涉及核心領域的醫療AI才有必要納入傳統監管框架。而且,即使屬于核心醫療領域的醫療AI,在確保安全性和有效性的前提下,也應當簡化上市程序,縮短審批流程[2]。相關應用的例證是,2018年,FDA將放射醫學圖像分析儀包括乳房X線攝影乳腺癌的計算機輔助檢測器械、超聲乳腺病變和X光上肺部結節等軟件重新分類,將其由第三類醫療器械調整為第二類醫療器械。如此一來,相似醫療器械可申請上市前通知510(k)或De Novo分類審查,不必歷經PMA[12]。此外,中國還應當進一步加快對醫療AI的審查速度,必要時以“快保護”為導向,適時開辟特殊或重大審批通道。例如,根據美國的“突破性醫療器械計劃”,針對特定疾病,FDA可以在AI器械開發期間以及上市審核過程中與企業進行密集互動與實時溝通指導,以加快FDA的審查速度,而審查程序則可以采取上市前通知FDCA 510 (k)、De Novo分類審查程序等相對簡單的程序[13]。
需要指出的是,準入機制只是系統監管機制的一環,為實現規制平衡,還應發揮不同環節的協同作用,即無論前端準入機制放寬與否,醫療AI上市后監管部門都可以根據安全性和有效性要求,隨時要求持有人執行風險管理、強制召回、停售以及下市等措施。美國也有類似實踐,當不受FDA規制的醫療AI可能對消費者利益產生威脅時,FDA可以保留對其的適法監管,并具備相當程度的執法自由裁量權。同時,為加強對醫療AI的全生命周期協同規管,中國還需要持續開展指導原則和審評要點制訂修訂工作;發展建立醫療AI預認證試點項目;引入年度報告制度完善變更控制要求等。美國相關的實踐是,FDA于2017年啟動了軟件預認證試點項目,提出將嘗試建立基于制造商質量與組織卓越文化(culture of quality and organizational excellence,CQOE)的審批模式,作為完全基于產品的傳統審批模式的選擇性,旨在評估醫療AI能否在全生命周期內確保安全、有效[14]。
2. 2 加強醫療AI安全性和有效性之多元驗證
中國《醫療器械監督管理條例》將醫療器械的注冊條件為“安全、有效”。在驗證“安全、有效”過程中,算法機理太過復雜,醫療行為本身又極具不確定性,這些誘因都會導致只依靠科學理解往往難以理想化、常態化驗證醫療AI的有效性與安全性。況且,實踐中缺乏科學理解本身也并非一定會落入不被容許的風險范疇[15],例如,消炎鎮痛藥阿司匹林的作用機理至今仍無法解釋,但其安全性和有效性確實已得到充分的實踐驗證[16]。進一步說,科學理解只是驗證安全有效的一種重要手段而非唯一的依賴,除此之外,臨床試驗與真實世界數據及證據規則(RWD /RWE)的搭配規制應被更加重視。一方面,臨床試驗目前仍然是醫療AI監管特別是通過上市前審查最為重要的方法。首先,醫療AI的臨床試驗應充分考量“PICO”原則,即P(patient/ population)患者的臨床特征;I(intervention or exposure)干預或暴露因素;C(comparison)對照措施;O(outcome)關注的結局指標,在并以此為基礎審慎設計試驗對象選擇、對照選擇、評價指標選擇等三大要素。例如,對象選擇要區分類型而差異化精準選擇,對照選擇要盡量選擇金標準,若實在無法成就選擇具有相似適應癥、基礎算法和使用條件的同類產品,評價指標的選擇應基于研究目的和臨床實際需求而設定[17]。其次,分階段厘清醫療AI臨床試驗的任務重點,在I-Ⅲ期應圍繞安全性和有效性重點研究使用者對醫療AI的理解力、接受度、信任度等,評價對臨床結局的影響;Ⅳ期臨床試驗主要是評價效果,在廣泛使用條件下分析其利弊和注意事項[18]。同時,為進一步貫穿上市前后臨床試驗的風險控制,醫療AI的臨床試驗還應全過程評估其安全、有效性,例如全周期評估過擬合和欠擬合等算法風險、假陰性和假陽性等決策風險、進口產品的中外差異風險、樣本選擇的合理性與充分性、對照方法的可接受性和可行性等。
另一方面,臨床試驗也存在諸多局限,一般而言,基于臨床試驗證據獲批的藥械通常由于病例數較少、研究時間較短、試驗對象入組條件嚴格、干預標準化等原因,存在安全性信息有限、療效結論外推不確定、用藥方案未必最優等不足,而這些不足的本質問題就是數據驅動力不足。與之相比,RWD是“從各種來源常規收集的、與患者健康狀況和(或)醫療服務相關的數據”,RWE則是進一步“通過分析RWD得出的、關于醫療產品使用以及潛在獲益或風險的臨床證據”[19],這與醫療AI的數據驅動本質高度切合,故更容易發揮其在樣本代表性和樣本數量方面的絕對優勢,進而克服高度控制的隨機對照試驗(RCT)在代表真實世界中患者群體和治療方案的局限性,進而輔助監管機構決策藥械審評審批,同時幫助醫療衛生利益相關方制定臨床實踐指南。不過,真實世界的數據并不等于真實世界的證據,只有符合證據規則的數據才能最終轉化為符合法定規則的證據。因而,未來還需要更多地關注數據質量問題(如數據缺失和數據異常等)以及模型性能問題(如模型的可解釋性、偏差和漂移),《真實世界數據用于醫療器械臨床評價技術指導原則(試行)》更是從相關性和可靠性兩方面對數據質量提出要求,并要求以此為基礎加速推動真實世界數據用于臨床評價進程,例如,推動真實世界數據用于支持產品注冊,作為已有證據的補充;推動其為單組目標值的構建提供臨床數據;支持在說明書中修改產品的臨床價值;支持附帶條件批準產品的上市后研究;用于高風險植入物等醫療器械的遠期安全性和/或有效性評估;用于治療罕見病的醫療器械全生命周期臨床評價,加快其上市進程;上市后監測等。整體來看,臨床試驗為聚焦于上市前審查的受控態研究,RWE為偏重于上市后的自然態研究,二者互相結合充分體現了“全生命周期”確保醫療AI安全性與有效性的監管理念[15]。此外,還要持續加強醫療AI注冊審批隊伍建設。例如,通過產學研用整合的誘因機制,重點培育跨部門、跨領域的復合型審批人才。重視軟法的補充性作用,細化業務流程、管理標準與產品規范,逐漸完善技術審評制度,統一審批標準尺度,突出層次化的績效激勵,全面提高審批人員積極性和執行力[20]。
3 制度吸納之二:醫療AI中后端侵權責任調適
3. 1 關于患者知情同意權的具體厘定
目前,從各國司法實踐來看,以患者需求和信息“實質性”為導向的患者標準已成為學界主流。《中華人民共和國民法典》(以下簡稱《民法典》)所規定的“具體說明”也明顯指向了患者標準。《德國民法典》則是將這一“實質性信息”趨同于“所有對患者同意治療有關鍵意義的信息”。應當說,未來當醫療AI逐步成為行業共識后的主要選擇時,醫生自然有義務將其作為“公認的醫療實踐”來披露,并將其視作重新評估注意義務程度的起點[21]。但是,目前醫療AI雖獲業界認可但卻未成行業慣例,這一階段,以履行必要的結果預見和結果避免義務為前提,還是應主要尊重醫生的專業判斷,具體有無說明義務應視具體患者的不同需求作差異化考量。如果確定醫生負有告知義務,那么其告知范圍應全面覆蓋診斷告知、治療告知、過程告知、替代告知以及風險告知等情形,特別是要釋明推薦使用醫療AI的具體理由,包括但不限于風險比例、診療效果、成本對比等詳細事證,而患者也應明確同意(不限于書面同意形式)在可容許的智能風險內責任自負。受限于醫療AI算法的黑箱屬性、醫學自身的有限性以及人體反應的不確定性,“無法科學解釋”的醫學現象將長期存在。從這個角度講,告知范圍在“覆蓋廣度”不容彈性的前提下,可以對醫療AI的披露“深度”有所放寬,具體按照“合理醫生標準”在能力范圍內履行充分告知義務即可,而對于自己能力范圍之外的相關信息,則有義務向患者釋明相應的獲取渠道。同時,為避免市場尋租行為,醫生還有義務將其所屬相關利益關系如實向患者告知,否則推定為未完全“具體說明”之情形[6]。需要指出的是,由于不同AI決策模型的透明度有所不同,導致其風險的可控性不同,而醫生的單獨告知必要性也因此不同。例如,對于目前常見的規則模型、樹模型、線性模型、距離模型、概率模型、集成模型和深度學習模型這7種模型[22],隨著其透明度依次降低,而醫生單獨告知必要性則依次增加[23]。此外,《民法典》還特別規定了知情同意中的例外——緊急情形,即出于治療急迫性而立即實施的醫療行為。此時的醫療措施應首選醫療AI急救架構,這一架構可以充分發揮手術室、急救室等數個醫療關系者的協同作用。因而,在該架構漸至成熟時,緊急情形下的知情同意適用應具更大彈性,特別是在患者因生理、精神狀態無法作出有效判斷時,不僅確認主體可以向近親屬延伸,而且程序瑕疵也應允許限期予以補正。
3. 2 關于產品責任的承擔規則構建
首先,設計與開發環節的歸責原則與認定標準是產品責任承擔的重點和難點。在這一場域下,設計開發者承擔的主要義務包括設計解釋、警示義務、跟蹤觀察、召回義務、數據保障義務等。在此基礎上,對于歸責原則而言,針對設計缺陷,設計缺陷應適用無過錯責任原則,這主要是考量到現實中很難區分醫療事故是由系統的設計缺陷所引起,或由其他醫療AI的零部件缺陷所引起,若不統一適用無過錯責任,患者舉證時將會存在模糊空間。醫療領域始終應堅持以患者利益為最高設計原則,適用無過錯責任原則能夠促使開發者持續提升醫療AI的安全性,并倒逼開發者完善履行設計解釋義務。相反,警示缺陷則應適用過錯責任原則。若生產者以恰當的方式對醫療機構或者醫務人員提出警告后,其責任可以免除,而且生產者還可以基于成本考慮彈性作出必要的安排。例如,功能強大甚至能“自我診療”的醫療AI售價高保費低,而普通的醫療AI則是售價低保費高。此時,使用者或部署者出于風險預期以判斷事故率與理賠風險,而生產者也恰當地履行了警示義務[8]。對于認定標準而言,有學者提出運用理性算法標準,即從診斷準確率、信息采集準確率、診療平均時間以及診斷增益率等指標入手,量化計算醫療AI的合理反應與理性水平。這一理性算法標準指向的是算法本體,與之相比較的是市場上同類型的一般算法[9],而這種比較也對構建事后可解釋技術提出了新要求,并高度依賴于開發者設計解釋義務的履行,即盡快研究融合白箱和黑箱模型的模型設計方法,以在模型的可解釋性與準確度之間進行平衡[24],進而促進比較場景的算法應用。與此同時,中國還應盡快明確并統一醫療AI的國家標準和行業標準,厘定過程應以技術治理和組織治理融通為導向,發揮研發企業、醫療機構、算法運營商、技術開發方等協同作用,參考內容包括但并不限于成熟的業界共識性標準、醫生權威經驗、最新資料和臨床指引等。此外,當發生符合法定標準卻存在不合理危險情形時,應允許設計開發者主張發展風險抗辯事由,但前提是設計開發者須負有較為嚴苛的舉證義務且其相關義務履行皆沒有瑕疵,若然違反或舉證不能便可推定為缺陷構成。
其次,醫療AI產品責任擔承還涉及第三方(提供者)、部署或使用者的責任分配。第三方(提供者)應重點延續開發者所承擔的跟蹤觀察、召回義務,主要觀察醫療AI使用過程中是否存在危害部署者或使用者的可能性,若履行不能應認定其與開發者共同承擔不利后果。而部署使用者的義務履行主要涉及維護及培訓、風險告知、信息披露、保密等場域。以風險告知和信息披露為例,有學者根據實踐經驗大致總結了醫療機構的下列告知義務:①醫務人員在科研或實踐中感知或確定的風險;②醫療AI的自身風險;③醫務人員使用醫療AI的資質及經驗;④醫療AI的過往應用案例;⑤醫療AI相關責任主體對本醫療機構的資助、合作關系及其他利益關系等[25]。在此基礎上,醫療機構若然不對上述內容進行告知或披露便認為其存在過失,患者可以依據《民法典》第一千二百一十九條、以妨礙知情同意權為訴求主張醫療機構承擔告知損害責任。此外,無論是第三方(提供者)還是部署或使用者都應履行必要的數據保障義務,將數據安全維護貫穿從開發到使用的全鏈條環節。同時為避免抑制創新并進行損害填補,產品責任擔承還涉及產品強制責任險的合理運用,具體應以社會最大效益為導向,考慮讓醫療AI相關責任主體按照風險高低分擔保費[26]。
3. 3 關于醫療損害責任的承擔規則構建
醫療損害責任承擔的關鍵在于醫療過失之認定。實踐中,醫療過失致損的情形大致包括三種:
①醫務人員的不作為。醫務人員應當使用AI而未使用。現階段,醫療AI使用尚未整體改變目前的診療慣例,是否使用醫療AI應當落位于醫生的專業裁量范疇,利益平衡理念下的專業裁量要求醫生不能簡單地依賴 “公認的醫療實踐”以及“專家共識”進行抗辯,換言之,還要考量“最新醫學文獻”的適用可能,并從文獻的時效性、權威程度等方面進行初步驗證,并結合患者病情、治療風險、未使用醫療AI所發生的損害大小、損害發生的概率、治療成本以及患者經濟情況等予以綜合判斷。特別是,當患者病情嚴重、傳統療法無效果且醫療AI推薦的干預措施為中低風險時,應視為醫務人員采納醫療AI的理由當然充分,此時醫務人員的未使用行為極有可能被認定為醫療過失[9]。為更好量化過失基準,司法實踐還可以引入漢德公式輔之以法經濟學判斷。在漢德公式中,醫務人員的注意義務和能力受三個因素的影響:P(損害發生概率)、L(損害發生大小)、B(預防損害成本)。若P乘以L之數值大于B,即認定醫療過失存在。雖然漢德公式也有諸多局限,特別是現實中醫療損害的責任點并不完全固定,但也可以根據個案認定得出責任點范圍,在該范圍內可通過自主裁量得出醫療行為是否達到最低預防責任點的初步結論[27]。
②醫務人員的不當作為。醫務人員不當使用所致醫療損害,具體又可大致分為兩種情形:其一,不適宜使用醫療AI卻使用。例如,結合醫療AI安全說明以及患者具體指征,此時明顯不適于醫療AI而醫務人員卻過失決策使用,則構成過失[2]。其二,確宜使用醫療AI卻在使用過程中存在過失。例如,在使用前,醫生需要按照醫療AI安全說明做好操作準備,若履行瑕疵便認定存在醫療過失。而關于過失認定標準,考慮到使用前的準備過程相對不復雜,不需要醫務人員具有高于一般水平的注意義務和能力,一般按照臨床指南確定“當時的醫療水平”即可;而在使用過程中,醫務人員對醫療AI需要具備相當程度的結果預知可能性及結果回避可能性,特別是不得將信賴原則適用于醫療AI,從而降低醫務人員客觀的注意義務和主觀的注意能力。關于上述醫療過失致損的擔責主體識別問題,本文認為,無論是上述不作為醫療的過失還是作為的醫療過失,其所致的醫療損害責任都應由醫療機構承擔,換言之該責任的擔承性質為替代責任。這一點在《民法典》中也有跡可循,《民法典》將原《侵權責任法》中的“醫療機構及其醫務人員”的“及”改為了“或者”。應當說,現代醫療行為具有高水平化和復雜化的典型特征,醫療AI場域更是往往由多個醫療關系者分別參與并在不同時刻介入整個醫療過程,醫療行為之間的流程銜接環環相扣,在界定過失歸屬時很難聚焦到特定人員或固定環節,同時又不能規定所有參與主體均負過失責任,否則不僅有失公平,還會導致醫療分工集體效率低下。再者,由于醫療AI通常是由醫療機構來購買并進行后續風控,這些都使得醫院的替代責任更容易實現。因此,在基于替代責任的外部擔責情形下,患者無須證明醫療過失由特定醫務人員造成,或醫療機構的組織管理過錯,而只需在優勢證據標準下證明醫療機構的診療活動沒有達至客觀的注意義務水平[28]。
③醫療機構自身的組織過失。醫療機構的角色則類似經營者,有義務培訓操作人員、定期保養醫療儀器、定期檢驗功能運作,以及在醫療AI正式運轉前應做好相關應急預案,出現認知或運轉障礙時應及時求助開發者等。結合當前醫療AI的現實實踐,包括但不限于以下行為可認定為醫療機構的組織過錯:擅自將醫療AI系統安裝于傳統醫療器械上使用;將禁止類或未經備案的限制類醫療AI投入臨床應用;提供瑕疵的醫療訓練數據或者虛假的診療準確率提供給智能設備學習;對醫療AI沒有盡到合理的維護和保養義務;對醫療AI存在不當使用情形,如未按照診療規范進行操作、故意干擾運行中的智能設備等情形;未對醫務人員進行相關的培訓、考核;拒絕或無法提供醫療AI的既往診療準確率;擅自拆除、拒絕提供黑匣子記錄儀的查閱請求等[26];沒有履行必要的核查或評估程序等。而針對實踐中可能出現爭議的醫療AI選取問題,一般認為,醫療AI先進性取決于醫院的取向、等級與規模,醫療機構有義務購置滿足診療需求的AI,但是患者無正當理由不得要求醫院提供超過成本或尚未普及的醫療AI。
特別需要指出的是,醫療場域本身就存在多因一果、連鎖因果、多因多果等復雜因果關聯,醫療AI產品缺陷和醫療機構過錯共同致損的情形更是常見,此時,應結合醫療AI診療模式、侵權場景、錯誤發生原因等因素,采用“以原因力大小為主、以過錯程度為輔”的比較方法綜合判定連帶責任或按份責任形式[29]。若無法區分原因力大小可酌情考量平均主義分配的個別適用。此外,為實現均衡化且普惠化的責任分配,醫療強制責任險的設置也至關重要。醫療強制責任險的設置與推廣,不僅可以減輕醫療機構和醫務人員的負擔,還可以通過擴大危險共同體的方式,使得損害賠償客觀化并能夠迅速填補損害。同時,還可考量設立補償基金或者儲備金作為補充,具體可參考工傷保險索賠程序,并借鑒美國《醫療損害賠償改革法》相關規定,適時單列精神損害撫慰金項目,根據損害程度設置不同范圍梯度[30],以確保損害填補的全面性。
4 結語
在傳統診療模式中,醫療損害范圍相對有限且可控,往往只是單一醫生出錯影響單一患者,而醫療AI出錯卻會殃及使用AI的所有患者。未來要盡快從技術、產品兩個維度完善醫療AI的全周期監管,并制度化明確責任歸屬、分配以及損害填補等工作極為迫切且關鍵。誠然,中國近年來持續開展指導原則和審評要點制定修訂工作,發布了《深度學習輔助決策醫療器械軟件審評要點》《人工智能輔助診斷技術管理規范(2021版)》《人工智能醫療器械注冊審查指導原則》等政策指南。同時,現行產品責任規則體系和醫療損害責任體系也有適應性調整,為醫療AI法律規制的最小化與程序化改造創造了空間。但是在現行制度框架下,無論是前端準入規制還是中后端侵權調適都存在相當程度的涵攝失靈和責任空場。而且就理論探討而言,對比無人車等AI領域,目前關于醫療AI規管和侵權的相關研究明顯不足。未來,應秉持全周期的系統治理理念,盡快明確實質性、具體性的規管和侵權基準,形成向外AI臨床運用、向內制度反饋與底層AI反向驅動的圈層式創新聯盟。
〔參考文獻〕
[1]洪長春.人工智能醫療器械監管措施之初探[J].科技政策觀點,2019(9):46-53. HONG C H.Preliminary exploration of regulatory measures for medical artificial intelligence[J]. Technology Policy Perspectives,2019(9):46-53.
[2]李潤生.論醫療人工智能的法律規制:從近期方案到遠期設想[J].行政法學研究,2020(4):46-57. LI R S.On the legal regulation of medical artifi? cial intelligence:from short-term plan to longterm plan[J].Administrative Law Review,2020(4):46-57.
[3]楊志航.算法透明實現的另一種可能:可解釋人工智能[J].行政法學研究,2024(3):154-163. YANG Z H.Another possibility to realize the al? gorithm transparency: explainable artificial intelli? gence[J].Administrative Law Review,2024(3):154-163.
[4]PRICE W N. Black-box medicine[J]. Harvard Journal of Law and Technology,2015(2):419-467.
[5]PRICE W N.Describing black-box medicine[J]. Boston University Journal of Science and Tech? nology Law,2015,21:347-356.
[6]皮勇.論醫療人工智能的刑法問題[J].法律科學(西北政法大學學報),2021,39(1):134-148. PI Y.Research on criminal law problems of medi? cal artificial intelligence[J].Science of Law(Jour? nal of Northwest University of Political Science and Law),2021,39(1):134-148.
[7]霍俊閣.人工智能視域下醫療事故罪的適用嬗變與調適[J].中國人民公安大學學報(社會科學版),2023,39(2):61-70. HUO J G.The application, transformation, and adjustment of medical accident crimes from the perspective of artificial intelligence[J].Journal of People’s Public Security University of China(So? cial Sciences Edition),2023,39(2):61-70.
[8]袁曾.無人駕駛汽車侵權責任的鏈式分配機制:以算法應用為切入點[J].東方法學,2019(5):28-39. YUAN Z. Chain based allocation mechanism for infringement liability of autonomous vehicles:starting from the application of algorithms[J].Ori? ental Law,2019(5):28-39.
[9]鄭志峰.診療人工智能的醫療損害責任[J].中國法學,2023(1):203-221. ZHENG Z F.Medical damage liability of artificial intelligence in diagnosis and treatment[J].China Legal Science,2023(1):203-221.
[10]許中緣,范沁寧.人工智能產品缺陷司法認定標準之研究[J].重慶大學學報(社會科學版),2022,28(1):257-269. XU Z Y,FAN Q N.Research on the judicialiden? tification standard of artificial intelligence product defect[J]. Journal of Chongqing University(So? cial Science Edition),2022,28(1):257-269.
[11]EMBDEN T V.Paging dr.robot:applying an out? dated regulated scheme to robotic medicine[J]. Nova Law Review,2019,43:387-416.
[12]FDA proposes to reclassify some types of radiol? ogy image software analyzers[EB/OL].(2018-06-01)[2024-03-21]. https://www. itnonline. com/content/fda-proposes-reclassify-some-ypesradiology-image-software-analyzers.
[13]陳鋕雄,楊哲銘,李崇僖. 人工智能與相關法律議題[M].臺北:元照出版公司,2019:44-45.
[14]彭亮.軟件預認證:有望開啟醫療器械監管新篇章[N].中國醫藥報,2019-06-04(8).
[15]李潤生.論醫療人工智能“黑箱”難題的應對策略和規制進路[J].東南大學學報(哲學社會科學版),2021,23(6):83-92. LI R S. On the countermeasures and regulatory approaches to the black box of medical artificial intelligence[J]. Journal of Southeast University(Philosophy and Social Science),2021,23(6):83-92.
[16]COHEN G.Informed consent and medical artifi? cial intelligence:what to tell the patient?[J]. Georgetown Law Journal,2020,108:1425-1467.
[17]張帆.人工智能醫療器械臨床試驗的設計考量與挑戰[EB/OL].(2024-06-18)[2024-08-21].https:// health.gmw.cn/2024-06/18/content_37386604.htm.
[18]梅婧,楊曉棟,李少春.人工智能醫療的循證和監管[J].中國食品藥品監管,2020(12):62-69. MEI J,YANG X D,LI S C.Embracing artificial intelligence with evidence-based medicine and regulation[J].China Food and Drug Administra? tion Magazine,2020(12):62-69.
[19]陳薇,陳可冀,劉建平.中醫藥真實世界研究證據的構成及分級標準建議[J].中國中西醫結合雜志,2021,41(5):608-611. CHEN W, CHEN K J,LIU J P.Suggestions on the composition and grading standards of evidence in real world research of traditional Chinese medicine[J].Chinese Journal of Integrated Traditional and Western Medicine,2021,41(5):608-611.
[20]周文康,費艷穎.醫療人工智能前沿研究:特征、趨勢以及規制[J].醫學與哲學,2021,42(19):38-44. ZHOU W K, FEI Y Y. Frontier research on medical artificial intelligence: characteristics,trends and regulations[J].Medicine and Philoso? phy,2021,42(19):38-44.
[21]FROOMKIN A M, KERR I,PINEAU J.When ais outperform doctors:confronting the challenges of a tort-induced over-reliance on machine[J]. Arizona Law Review,2019,61:33-110.
[22]HACKER P, KRESTEL R, GRUNDMANN S,et al. Explainable AI under contract and tort law: legal incentives and technical challenges[J]. Artifcial Intelligence and Law,2020,28:415-439.
[23]李潤生.醫療人工智能臨床應用中醫生告知義務的觸發條件與銜接機制[J].深圳大學學報(人文社會科學版),2023,40(1):92-100. LI R S.On the triggering condition and connect? ing mechanism of doctor’s informing obligation under clinical application of medical AI[J].Jour? nal of Shenzhen University(Humanities and So? cial Sciences),2023,40(1):92-100.
[24]LOYOLA-GONZáLEZ O.Black-Box vs. WhiteBox:understanding their advantages and weak? nesses from a practical point of view[J]. IEEE Access,2019,7:154096-154113.
[25]趙越,姜健,張洪江.藥物臨床試驗的責任倫理考量[J].中國醫學倫理學,2024,37(8):890-895. ZHAO Y, JIANG J,ZHANG H J.Ethical consid? erations for drug clinical trials[J].Chinese Medi? cal Ethics,2024,37(8):890-895.
[26]李潤生,史飚. 人工智能視野下醫療損害責任規則的適用和嬗變[J]. 深圳大學學報(人文社會科學版),2019(6):91-99. LI R S, SHI B.Application and adjustment of medical damage liability rulesfrom perspective of artificial in? telligence[J]. Journal of Shenzhen University(Hu? manities and Social Sciences),2019(6):91-99.
[27]盧臻,楊靜毅.法經濟學視角下的醫療過失判斷標準[J].湖北社會科學,2013(10):167-170. LU Z, YANG J Y.Medical malpractice judgment standards from the perspective of law and eco? nomics[J]. Hubei Social Sciences,2013(10):167-170.
[28]王軼晗,王竹.醫療人工智能侵權責任法律問題研究[J].云南師范大學學報(哲學社會科學版),2020(3):102-110. WANG Y H,WANG Z.Tort liability in the per? spective of artificial intelligence in medicine[J]. Journal of Yunnan Normal University(Humanities and Social Sciences Edition),2020(3):102-110.
[29]何煉紅,王志雄.人工智能醫療影像診斷侵權損害賠償法律問題[J].政治與法律,2020(3):27-37. HE L H, WANG Z X.Discussion on the legal is? sues concerning compensation for damage due to a tort involving AI medical imaging diagnosis[J]. Political Science and Law,2020(3):27-37.
[30]艾爾肯.論我國醫療損害責任制度的修改與完善:以《民法典·侵權責任編草案(三審稿)》的規定為視角[J].河北法學,2020,38(1):95-107. AI E K.On modification and perfection of medical injury liability system in China: from the perspec? tive of the provisions of the tort liability of civil code·draft ( the third draft)[J].Hebei Law Sci? ence,2020,38(1):95-107.