劉惠明,張盛楠
河海大學法學院,江蘇南京,210000
我國人口眾多,老齡化問題日益嚴重,就診患者數量多且呈現上升趨勢,導致醫療資源的數量和質量與老百姓的需要之間存在一定的矛盾[1]。醫療機器人是用于醫院、診所、康復中心等醫療場景的醫療或輔助醫療的機器人[2]。現階段,智能醫療機器人可基于算法設計能夠按照指令在醫護人員的操作下進行輔助診療;當智能醫療機器人可以改變或甚至完全脫離自然人為其設計好的初始算法而創制新的算法時,能夠進行深度學習和獨立思考,通過對醫療數據和醫學知識的學習進行自主決策和獨立診斷[3],其應用將對醫療模式進行顛覆性變革。智能醫療機器人的應用可以極大提高診療的質量和效率,進一步滿足老百姓看病、治病的需要。但不容忽視的是,智能醫療機器人的準確率并不能避免誤診、誤治情形的出現。近年來,智能醫療機器人診斷失誤以及手術損害等不良事件時常發生,產生的一系列侵權責任問題亟待解決[4-7]。
目前,關于智能醫療機器人侵權責任問題的研究相對較少,主要集中在醫療人工智能(artificial intelligence,AI)侵害所涉及的法律主體地位、法律責任歸責問題等方面[8-9],其中,對于醫療AI侵權責任歸責路徑的結論主要分為兩類,一是將醫療AI作為法律責任的主體,這顯然是整體法秩序內關于法律責任體系的全新架構;二是將醫療AI作為傳統自然人侵權行為的新型手段,就此而言,人工智能侵害責任仍要回歸傳統法律責任歸責路徑[10]。本文將醫療AI領域侵害責任問題進一步細分為智能醫療機器人侵權責任問題,嘗試分階段對智能醫療機器人侵權所涉及的法律責任問題進行歸責。旨在解決當前實際問題,為未來人工智能侵權法律責任體系的構建提供參考。
根據應用場景,醫療機器人可分為診療機器人、手術機器人、服務機器人、輔助機器人 4 類[11]。現階段,智能醫療機器人中比較聞名的是美國直覺外科公司的達芬奇外科手術機器人和國際商業機器公司的Watson輔助診斷系統。達芬奇手術機器人擁有世界微創外科領域的頂尖技術,憑其帶有的內窺鏡和可 540°旋轉的機械臂能夠在小瓶內精巧縫合葡萄皮,遠遠超過人手所能達到的精度。目前,達芬奇手術機器人在全球的手術量已突破100萬例,自2006年引進達芬奇手術機器人以來,已在我國完成上萬臺手術[12]。IBM 最為著名的便是 Watson腫瘤診斷系統, 其可以查出至少 13 種器官中的腫瘤,能夠在10秒內提出診療方案供醫生選擇,目前癌癥治療領域排名前三的醫院都在使用 Watson 系統[13]。外骨骼機器人是康復機器人的一種,可在對殘疾人進行輔助的同時進行后期的康復訓練[14]。服務機器人在體溫監測、巡控、消毒等方面發揮了重要作用。目前手術機器人在臨床應用中規模最大,康復機器人發展增速最快,輔助機器人中的診斷機器人和遠程醫療機器人因其實用性和高智能性具有廣闊的應用前景[15]。
醫療與健康領域無疑是關系國計民生的關鍵領域,尤其當前整個世界處于新冠肺炎疫情反復的大環境下,更加需要智能醫療、精準醫療的發展。人民對優質醫療的需求與醫療資源供給不足、質量不佳之間的矛盾體現了大眾對醫療行業改革創新的迫切需求。對醫療領域的改革,核心在于以患者為中心,發現真正能夠為醫療生態帶來創新活力的長期要素。
2017年以來,智能醫療機器人從輔助診斷發展到可以進行全科智能診斷,應用的深度和廣度明顯提升。隨著技術的發展,智能醫療機器人的自主性會越來越強。在不久的將來,智能醫療機器人取代多數外科醫生的工作或成為現實[16]。智能醫療機器人具有廣闊的應用前景,需要法律制度來調整其發展中遇到的問題。
智能醫療機器人在應用中產生醫療損害并非個例。總體來說,不同類型的醫療機器人侵權在歸責原則上并無不同,主要基于其所具備的自主性程度,在診療活動中發揮的是輔助還是主導作用進行歸責。手術機器人在臨床中應用廣泛,以手術機器人為例,美國相關機構曾發布其在 2000 年至 2013 年之間所做的統計數據,機器人手術發生事故導致 144 位患者死亡[17]。在我國司法實踐中,據裁判文書網發布的文書顯示,自2015年至今,達芬奇手術機器人所涉及的侵權案件共計15例,所涉及的醫療損害糾紛共9例。手術機器人侵權的情形包括手術失誤導致術中大出血、術后感染產生并發癥以及機器本身因斷電、信號連接中斷、故障等問題影響手術進程,對患者造成損害。在英國首例達芬奇機器人心臟瓣膜手術過程中,機器人失控“暴走”,刺穿患者的大動脈,并影響醫生操作,導致病人最終不治身亡[18]。本文將智能醫療機器人作為主體進行歸責路徑探討,其產生的侵權責任問題主要涉及以下幾方面。
智能醫療機器人侵權的主體責任尚不明確,一方面是由于其法律主體地位沒有明確,另一方面是在法律實踐中對責任主體認定存在爭議。
隨著人工智能愈發朝向高級化演進,近年來對人工智能的法律主體地位的討論愈發激烈。當智能醫療機器人具備完全自主性,可進行獨立診療、獨立操作,其可以像人一樣“思考”,此時可否賦予其法律主體地位?智能醫療機器人的法律地位影響著其侵權責任主體的認定,需從法律上對其法律地位進行明確。
現階段,盡管智能醫療機器人具備一定推理和解決問題的能力,但其決策與操作沒有脫離專業人員的控制,其程序的設計和操作,還是在設計師和醫護人員的操作下進行,因此其侵權所涉及的責任包括醫療責任和產品責任。法官在審理智能醫療機器人侵權案件時回避智能醫療機器人所涉及的責任認定,承擔責任的主體局限于醫患雙方,架空產品責任的承擔者生產者、經營者、設計者所需承擔的責任,導致雙方當事人對裁判結果存在異議,責任主體不明確,加大醫療機構的負擔和患者尋求救濟的難度,司法裁判無法起到定分止爭的作用。
由于致害原因的復雜性、技術性和專業性,傳統醫療舉證責任在認定上便存在困難,智能醫療機器人不同于傳統的醫療器械產品,其算法設計的輸入和輸出均是可見的和可理解的,但算法從輸入到輸出的運算過程是難以解釋和理解的[19]。“技術黑箱”所帶來的不透明性使舉證責任的認定更加困難。如果按照傳統醫療歸責原則的舉證責任來認定,將會導致患者尋求救濟的難度顯著增加。
在陳寧慶與浙江省人民醫院醫療損害責任糾紛案件中,患者在進行達芬奇手術機器人腹腔鏡右腎切除術后出現大量血尿導致感染產生嚴重并發癥,經過調查發現是由于術中針線縫合過程中穿刺到血管導致血管破裂。法院根據《中華人民共和國侵權責任法》(以下簡稱《侵權責任法》)判決醫院承擔30%的賠償責任。本案存在的問題是,達芬奇手術機器人以高準確度著稱,發生縫合錯誤,應考慮到產品缺陷問題,進行產品責任認定。我國目前醫療損害的責任歸責體系仍沿用傳統的醫患關系模式,患者作為原告承擔證明醫療機構存在過錯的舉證責任,在智能醫療機器人的參與下,產品責任與醫療責任相融合,患者此時不僅需要對醫療機構的過錯進行舉證,還要承擔智能醫療機器人存在故障或缺陷的舉證責任。智能醫療機器人的“技術黑箱”是目前難以破解的難題,這加重了患者的舉證難度。
在民法典施行以前(2021年1月1日起正式施行),我國對智能醫療機器人所涉及的醫療責任糾紛是依據《侵權責任法》關于醫療損害責任的部分以及《關于審理醫療損害責任糾紛案件適用法律若干問題的解釋》的相關規定。《中華人民共和國民法典》(以下簡稱《民法典》)出臺后,《侵權責任法》的相關內容納入《民法典》的侵權責任編,侵權責任編雖對侵權責任形式規則作出了重大的修改與完善,但在醫療損害責任、產品責任的規定上與《侵權責任法》所規定的內容差別不大[20]。
傳統醫療活動雖也有醫療產品的參與,但主要依賴專家的專業技能和判斷,因此在醫療損害歸責中,司法裁判統一適用醫療損害責任。產品責任一般適用基于商品缺陷導致的損害。二者在司法實踐中分開適用。智能醫療機器人不同于傳統的醫療產品,其在醫療活動中發揮的作用影響醫生的操作和判斷,醫生在智能醫療機器人的輔助下,診療的速度和正確率顯著提升,在醫療活動中的優勢大于患者,由于傳統醫療損害責任的單獨適用,可能會使智能醫療機器人成為醫生新的保護傘和擋箭牌,正如在上述陳寧慶與浙江省人民醫院醫療損害責任糾紛案件中,根據過錯認定,醫院僅承擔30%的賠償責任,患者索賠的難度將增大,單獨適用醫療損害責任已無法對智能醫療機器人參與的醫療損害進行合理的歸責。同時由于智能醫療機器人背后存在的“技術黑箱”,醫生也無法解釋其操作過程,導致對產品存在缺陷的舉證非常困難,適用產品缺陷責任會使患者舉證難度大大增加。在智能醫療機器人的參與下,兩種責任分開適用將增加患者舉證難度與訴訟成本,導致患者尋求救濟難度顯著增加。規則體系的不足導致責任分配出現失衡,這要求我們重新檢視現行侵權責任規則,對其進路進行探討。
對于醫療AI侵權致害的法律責任問題上,目前理論界的爭議主要集中于是否應賦予醫療AI以法律主體地位,誰來承擔侵權責任,是智能醫療機器人侵權責任規則體系中的核心問題。因此,不可避免的要討論智能醫療機器人的法律主體地位問題,這也是探尋合理路徑的必經之路。
人工智能體的法律主體地位問題一直受到學界關注,爭議焦點主要在于當人工智能體具備高度智能,其可以獨立自主完成工作,甚至在各個領域做的比人類更好時,此時是否賦予其法律主體地位?其實這討論的是在未來強人工智能時代將會出現的問題,目前人工智能并未具備如此高智能、高自主性。在醫療人工智能領域,目前各國對智能醫療機器人在弱人工智能階段不具法律主體地位已基本達成共識。即智能醫療機器人在將來很長一段時間內還無法脫離產品屬性,雖具備一定的智能性,但其所進行的診療活動仍在醫護人員的控制下進行,不具備完全自主性。我國在2019年世界人工智能大會上公開表明,現階段,醫療AI不具法律主體地位,設計者、生產者、經營者、使用者承擔法律責任[21]。加拿大在“加拿大衛生專業上訴和審查委員會案”(案號19-crv-0475)中,法院判定手術機器人無法獨立享有醫師等資格[10]。
強人工智能階段,學者對醫療人工智能是否具備法律地位存在分歧,有學者認為賦予強人工智能以獨立主體地位未嘗不可[9]。有持反對態度的學者認為智能醫療機器人始終是人類的輔助工具,不應賦予其法律主體地位,并提出從倫理道德層面很難接受機器人醫生看診[22]。本文認為,強人工智能階段可以賦予具備自主性的智能醫療機器人以法律主體地位。首先,法律主體是享有權利、負有義務并承擔責任的主體,包括人(自然人、法人)、機構和組織、特殊情況下,國家也是法律的主體。因此賦予人工智能法律主體地位并不是承認其為“人”,而是建構良好、平衡的法律關系。其次,人工智能、大數據、云計算技術的發展給社會帶來巨大變革,人們的生活方式發生了巨大改變,起初從對智能設備的抵觸到逐漸享受到科技發展帶來的巨大便利,理念會改變技術,技術也會改變理念[23],智能醫療機器人未來在精準醫療領域將會給人類帶來巨大便利,當高智能醫療機器人成為現實,倫理要求會在社會機制中得到實現,賦予其法律主體地位,并不違背法律倫理,此時有全方位的體系保障,只會帶來更大的便利。最后,人類中心地位在未來強人工智能時代不會改變。智能醫療機器人隨著人工智能技術的發展自主性逐漸增強,其或許可具備情緒感知功能。無論智能醫療機器人的發展如何先進,也是為人類更好的服務,這是科技賦能的基本遵循,賦予智能醫療機器人主體地位只是為了對法律責任進行更好的歸責。
強弱人工智能階段的智能醫療機器人的應用場景和侵權情形并無明顯不同,皆應用于診斷、手術、康復、服務等醫療領域。強人工智能階段智能醫療機器人擁有自主學習能力,會使決策過程的不透明性和不可預測性的風險增加。強弱人工智能醫療機器人在規則的適用上,存在侵權責任主體和責任承擔比例的不同。
需要指出的是,強人工智能階段,不是不存在弱人工智能機器人,基于分工與應用成本,弱人工智能醫療機器人也有其存在的必要性。因此這個階段是強弱人工智能醫療機器人共存的階段。這種情形下,侵權責任主體發生改變。用于輔助的弱人工智能醫療機器人在歸責上仍涉及傳統的三方主體。而具備完全自主性、可獨立完成診療工作的強人工智能醫療機器人,此時是作為一名“醫生”進行診療活動,具備法律主體地位。當其產生醫療損害侵權,侵權責任不光涉及傳統的三方主體,還涉及強人工智能醫療機器人,其可以作為獨立法律主體承擔責任。另外,各方所承擔的責任比例也將發生一定的轉移,強人工智能的智能醫療機器人可獨立完成診療工作,這就意味著在診療過程中,醫護人員僅承擔輔助作用,這就要求設計者在研究過程中對其風險管控使用前的培訓責任加大,醫療機構此時在強人工智能醫療機器人侵權層面所承擔責任較小甚至為零。由此可見,各方責任主體承擔的責任比例也存在差異。
對其階段進行區分是為了防止法學研究的虛無與泛化。目前對于智能醫療機器人的法學研究出現概念泛化和脫離實際進行設想的情況。在概念上,對人工智能發展的形態的“自主性”特征認識不清。部分學者直接跳過現階段智能醫療機器人臨床應用的實際情況,討論具備完全自主性的強人工智能侵害責任,導致所進行的制度構建無法適用當前出現的實際問題。當下的法律責任體系與法律關系主體沒有發生變化,適當調整便能夠解決當前智能醫療機器人損害所產生的醫療責任糾紛,直接進行立法為時尚早。在強人工智能階段,人工智能技術發展成熟,出現新的法律主體,產生新的社會關系,此時需建立一套人工智能法律體系來調整新型法律關系。分階段可實現法律實施效果的最大化,降低立法成本,解決實際問題的同時,為未來立法構建提供參考。
現階段,智能醫療機器人的侵權責任問題可以通過侵權責任規則自身的張力和靈活的法律解釋予以解決[24]。導致智能醫療機器人造成醫療事故的原因有:生產者設計缺陷、醫療機構存在過錯(如沒有操作經驗、不遵守診療規范等)、也可能是患者自身特異體質。因此所涉及的責任主體有生產者、使用者和患者三方主體。對其責任進行歸責涉及醫療過錯責任和產品責任。本文通過對兩種責任的歸責原則進行適應性調整,以平衡責任主體之間的責任分配。
4.1.1 醫療損害責任歸責原則。醫療侵權過錯歸責是英美法系和大陸法系一直恪守的原則[4]。
我國醫療責任的歸責原則分為過錯責任原則和過錯推定原則,一般情形下,患者在診療過程中受到損害,醫療機構和醫護人員存在過錯的,醫療機構承擔責任(《民法典》第一千二百一十八條)。另有3種特殊情形,患者在診療過程中受到損害,推定醫療機構或醫護人員存在過錯,此時需要醫療機構和醫護人員證明其不存在過錯方可免責(《民法典》第一千二百二十二條)。
智能醫療機器人背后的“技術黑箱”加重了舉證難度,使致害原因以及行為人過錯更加難以認定,致害原因的高技術性與專業性也使得鑒定成本過于高昂,加大患者的舉證難度。建議在過錯推定責任適用情形中增加智能醫療機器人醫療損害情形,即發生智能醫療機器人侵權案件時,推定醫療機構存在過錯,若其能夠證明自身不存在過錯,則無需承擔責任。采取過錯推定原則能更好平衡醫患之間的關系。
4.1.2 產品責任歸責原則的適用。產品責任歸責原則的適用前提是產品存在缺陷,醫院在診療過程中應用存在缺陷的產品,與生產者一起承擔無過錯責任,適用的是無過錯責任原則。在智能醫療機器人的參與下,產品缺陷和機器人侵權造成的損害之間的因果關系難以證明。在智能醫療機器人產品責任的適用上,建議適用因果關系推定原則來調適。醫療機構證明自身不存在過錯的情形下,由生產者、設計者對產品不存在缺陷進行舉證。一方面因為設計者生產者相對更有能力進行因果關系舉證,另一方面也可以保護處于弱勢一方的患者。
4.2.1 構建人工智能民事法律體系。強人工智能階段,探討人工智能侵害的法律責任問題,不單單是侵權責任規則體系的重構,更是整個民事法律框架、整體法秩序的重新架構。在立法上,建議成立專門人工智能民事法律規則。對人工智能領域相關法律問題進行專門立法,可以借鑒歐盟2016年10月發布的《歐盟機器人民事法律規則》,在各國還在制定人工智能體發展戰略的階段,歐盟已經制定法律草案和規則,并從法律倫理道德、法律責任與監管等方面給予明確規定。在人工智能的法律主體地位上,歐盟通過對自主性機器人的概念進行界定的情況下,賦予自主性機器人法律主體地位,為其設定“電子人格”[25]。我國可在結合人工智能實際發展的情況下,借鑒其中優秀立法成果,可以自主性為界定,賦予強人工智能體以法律主體地位。
4.2.2 完善法律責任的分配。強人工智能階段,在歸責原則上,仍需以過錯為要件進行歸責。過錯責任原則的理論基礎是基于人格平等進行的利益兼顧。在保護弱勢一方患者的同時,兼顧醫療機構的利益。制度設計可以適度傾斜,保護弱勢一方,但不可明顯傾斜。不以過錯為要件將會加重生產者與使用者的負擔,不利于人工智能的發展。同時,新責任主體的出現并不影響過錯的認定,相反會明晰責任分配。因此強人工智能醫療機器人在醫療損害責任的歸責原則上依舊遵循過錯責任原則,能夠證明強人工智能醫療機器人自身不存在過錯便無需承擔責任。
在具體的責任分配上,強人工智能醫療機器人的出現,使醫療機構和醫護人員在應用過程中不再發揮主導作用,而是對智能醫療機器人引進資質的把關、對智能醫療機器人培訓和設置應用場景上。因此醫療機構和醫護人員的責任應在其沒有盡到相關義務和操作瑕疵所產生的損害上。生產者、設計者應承擔責任的情形是,算法背后的操作者是否存在在設計上的算法錯誤和算法歧視,導致對患者身心健康的侵害,此為人類利用機器進行的侵權,實施此行為的設計者需要承擔責任。整體來看,強人工智能醫療機器人的歸責難題在于對其過錯的認定,由于其背后的“技術黑箱”具有不透明性,產生更大的不可預測性增大證明難度。當強人工智能醫療機器人在治療患者過程中出現損害,如何認定是其由于自身存在缺陷或是其他問題導致。算法透明是提供算法可責性問題的解決工具,明確算法決策的主體性、因果性或相關性,是確定和分配算法責任的前提[26]。此時可借鑒“透明性原則”,即智能醫療機器人的背后運作過程應是可說明、可理解以及記錄義務,記錄義務在技術上的表現形式便是“黑匣子”記錄[27]。可為強人工智能醫療機器人侵害產生的醫療事故糾紛在舉證方面提供專業的技術支撐,各方的責任也能得到平衡的分配。最后,自主性智能醫療機器人侵權后如何承擔責任,進行責任賠償,需要一套機制的建立以保障其有能力承擔責任,可以借鑒國外相關立法,例如歐盟明確規定為其設立專門的責任險和賠償基金[28],以便其能夠真正承擔責任。
總之,給智能醫療機器人侵權責任問題尋求一個好的歸責路徑并非紙上空談,在解決實際問題的同時,要以長期主義的視角,放大格局,看向未來,人工智能給我國甚至是世界帶來巨大貢獻,使我國的醫療領域在創新中發展在革新中健全,因此我們要以促進人工智能與人類和諧共處,平衡各方主體,讓人工智能創造更多的社會價值,給社會帶來更大的福祉。
大數據、云計算、人工智能、區塊鏈技術的發展使得很多不可能得到實現。當科技帶來的巨大便利成為現實,在倫理道德與科學技術上的沖突與分歧,隨著時間的流逝變得不再尖銳。法學法律的發展要跟進時代的進步,新技術的出現需要法律進行保駕護航。既要解決實際問題,又要看到未來,人工智能技術在醫學領域的創新滲透方面,幫助醫學創新成為改變人類命運的基礎力量,使得我們可以探索醫學的種種可能。本文對其所涉及的侵權責任問題進行深入的剖析,當前弱人工智能階段,只需對侵權責任規則進行適應性調整,未來強人工智能時代,以人機和諧共處為基本原則,賦予人工智能體以法律主體地位,建立人工智能法律責任體系,對強弱人工智能機器人侵權進行規制,更好的解決責任承擔問題。最終目的是希望讓中國患者有更多選擇,享受更好的醫療服務,促進醫療實踐與核心需要的融合,實現整個生態的共贏,讓醫療行業的發展惠及每一個人,對變化與不變的洞察,關注人類社會的長遠發展。