摘要:智慧醫療是數字社會建設的重要組成部分,更是建設健康中國的助推器。然而智慧醫療使用中的算法錯誤,會危及病患的生命權與健康權,給當事人造成難以恢復的損害結果。就其衍生的民事責任而言,可在《民法典》侵權責任編的框架內借助法解釋工具予以處理:醫療倫理責任中的醫生的告知義務應做適用性調整,基于智慧醫療的發展階段與社會大眾的接受度,動態要求醫生履行不同標準的告知義務;就醫療機構的組織責任而言,應肯定醫院負有更新醫療AI系統的義務,醫院須證明自己盡到了完善、更新醫療AI的義務。未來隨著智慧醫療的進階發展,應優化賠償模式,承認醫療AI的獨立責任,以嚴格責任為歸責原則,在證明責任上,采危險責任理論,要求生產者與使用者負擔舉證責任,而在醫療AI承擔責任的財產來源上,應采多層次的強制醫療AI責任保險,確保受有損害的病患能獲得及時有效的賠償。
關鍵詞:智慧醫療;醫療過失;責任承擔;責任保險
基金項目:國家社會科學基金青年項目“民法典合同通則在保險領域的法律適用研究”(項目編號:21CFX033)
中圖分類號:D925.1文獻標識碼:A文章編號:1003-854X(2023)12-0121-06
一、問題的提出
我國“十四五”規劃明確提出要在醫療領域開展數字化試點示范工作。從世界范圍來看,智慧醫療(或稱醫療AI)已在醫療放射(Radiology)與醫療影像 (Imaging)領域取得相當優異的成績,其檢測疾病的準確率和速率甚至超過了人類醫師(1)。就我國的現實情況來看,醫療行業存在基礎數據量大、優質醫療資源相對不足、民生需求迫切等客觀因素,智能問診、“刷臉”就醫、醫療影像輔助診斷、疾病鑒定(2)技術等在我國已獲得廣泛運用,但亟待人工智能賦能醫療行業的高質量發展。
智慧醫療(醫療AI)借助機器學習、深度學習等算法技術,使得我們可以在海量醫療數據中發掘出潛在的科學法則,進而為評估預后、作成診斷、分析影像、選擇治療等方面作出醫療判斷(3) 。但必須承認的是,目前的人工智能系統于使用上存在受制于算法與參數設計錯誤、訓練數據的非真實性、偏見以及代表性不足等問題(4),AI算法仍存在不確定性,運算準確率并非百分之百。智慧醫療決策一旦有誤,便會危及病患的生命權、健康權,給病患造成難以恢復的人身損害。未來隨著智慧醫療的發展與大規模運用,醫患糾紛可能變得更加復雜,許多不同的利害關系人(例如軟件開發人、制造商、醫院和醫師)參與了醫療AI系統的建構和使用,勢必會滋生新型法律糾紛:其一, 在智慧醫療輔助醫生進行醫療決策時,醫生應如何踐行“告知同意”規則,應以何種方式向病患釋清醫療AI的醫療建議,保障病患的自決權?其二,醫院如何善盡其管理責任,確保醫療AI的安全性,醫療機構應盡到何種程度的注意義務,方能主張免責?其三,當醫療AI獨立為醫療決策時,若發生損害責任,病患應向誰主張損害賠償責任,病患如何就醫療AI的“過失”履行舉證責任?醫療AI獨立承擔責任的財產源于何處?這些棘手難題與智慧醫療的穩健發展息息相關,皆應嚴肅對待,并求得妥當解釋。
二、責任法視角下智慧醫療責任認定的困境成因
在醫療健康產業數字化、智能化轉型的進程中,我國將加速推動醫療領域數智技術創新和應用,提高百姓對優質高效健康服務的獲得感。醫療侵權中被害人損害賠償的請求權基礎,立法上有契約責任與侵權責任兩種模式(5)。《中華人民共和國民法典》(以下簡稱《民法典》)處理醫療損害責任采英美法路徑,明確規定了醫療損害責任適用過錯責任的一般規則(6),醫療AI責任理應置于侵權責任法中過錯責任框架下進行討論。然而隨著智慧醫療的發展,不透明、不可測、非直觀的算法取代醫生的決策過程,將導致人工智能科技與醫療過失侵權責任的認定出現緊張關系。
(一)宏觀層面:醫療AI漸有替代醫生專業判斷之勢
鑒于醫療行為具有高度專業性與不確定性,在國內外實務中,醫療過失的認定,皆采醫療常規的注意標準,要求醫療機構人員在其醫療活動中負有與其專業能力相符的注意義務(7)。隨著醫療AI的發展與介入,傳統的醫療過失標準會隨時間推移而改變,若醫療AI被社會廣泛接受,且于醫療科學上并無質疑,具有較少之危險、較少之負擔或能提供較好的治療效果,則使用AI將會變成新的判斷標準。此時,在醫療實務中,如若醫師并未使用醫療AI進行診斷以提升醫療質量而發生醫療事故時,則會被認為存在過失。有美國論者認為,使用醫療AI 最終將成為整個美國醫療注意義務的新標準(8)。
若將來醫療AI取代醫生專業的診療判斷,最終結果便是誘導醫師為了避免承擔責任,舍棄自身的專業判斷,傾向于遵循AI的建議,而這樣的選擇顯非妥當,且在目前的侵權法架構下仍有責任風險,即便醫師使用了AI并遵循其所提供的建議,卻不必然意味著醫師就可以免除過失責任,因為現階段AI多作為輔助醫師診斷和治療的工具,最終的診斷決策仍須由醫師作成。因此,若醫師完全遵循AI的建議,而最后因AI錯誤造成病患的損害,法院便會要求醫生闡釋其遵循醫療AI建議之合理性,囿于醫療AI決策過程的不可解釋性,醫生無法釋明合理性,此時法院便會認為醫師忽略審查 AI 意見的適當與否,而判定醫師須對醫療事故承擔過失責任,如此判定便會讓醫生無所適從,阻礙醫療AI的接受度與推廣普及。
(二)微觀層面:算法黑箱致過失認定的可預見規則失效
侵權法上,所謂過失即行為人對侵害他人民事權益結果的發生應注意或能注意卻未注意的一種心理狀態(9)。由此可知,侵權法上的過失,重在評價行為人之決策是否合乎理性人之注意標準,行為人須對損害之發生具有預見可能性及回避可能性,始需負損害賠償責任。
人工智能的算法具有不可測性,學界稱之“算法黑箱”,其輸入和輸出雖是可見和可理解的,但從輸入到輸出的過程缺乏透明度,AI的計算過程是無法解釋和理解的。智慧醫療的不可預測性與醫療過失的可預見性之間遂產生矛盾:第一種情形,AI給出的建議錯誤比較明顯,醫師只要施以同領域醫師應有的注意即可發現,而醫師卻遵從AI的診斷意見而使病患發生損害,則應認為該醫師未盡其專業醫生必要的注意義務,存在過失。第二種情形,AI在給予醫療建議時,醫師即使運用自身醫學專業知識依然無法判斷 AI 建議或診斷正確與否,在此情況下,AI發生了不可理解的錯誤而導致誤診,此時若堅持認為應由醫生負責,實非公平。因為AI運算的黑盒子特性,醫師無法及時或根本沒有能力驗證AI的診斷正確與否,此時AI儼然是與人類醫師共同會診,AI出現誤診,要求醫師負擔AI全部的侵權責任并不合理。
三、智慧醫療中醫療責任內容的革新
醫療責任有醫療倫理責任與醫療組織責任之分,在智慧醫療的背景下,這兩種醫療責任的具體內容變革,還需進一步討論。
(一)醫療倫理責任:醫生告知義務履行方式的革新
相較于冷冰冰的智慧系統,醫患關系最為重要的是醫師與病人在溝通協調中達成共識,以取得彼此的信任。醫生履行告知義務之重點不僅在于說明之內容,也在于說明之過程,通過解釋說明讓病人產生信任而作出符合其價值信念的醫療決定。在醫患共享決策的過程中,可培養出醫師與病人間良好的信任關系,且在信息適當透明的情況下,病人以醫師未盡告知后同意規則而提起訴訟的可能性將會降低。當醫生違反“告知同意”規則,便應承擔醫療倫理責任(10) 。至于醫生如何踐行告知義務,受英美法學說的影響,我國過往實務對于告知義務的范圍多采理性醫師標準,即醫生的告知內容,應以一個謹慎而理性的醫師在相同或類似情況下應告知之內容為標準。
伴隨著醫療 AI 的介入,醫療決策中多了一層醫療 AI 算法不透明的中間環節,醫師在履行說明告知義務時會遇到“知識黑洞”和其他難以充分說明的困難(11) ,此時,系統使用者(醫師)勢必難以解釋為何系統會得出該診斷結果、診療建議。換言之,當醫師使用人工智能系統進行醫療決策,卻因系統本身的不透明性、不可解釋性而無法向病人解釋診療決策的原理時,醫師該如何履行告知義務?對此,在履行告知義務,采理性醫師標準時,還應該考量醫療實踐中人工智能適用的具體情形,斟酌醫師對于醫療人工智能的依賴程度、醫療人工智能技術成熟度以及社會大眾的接受度而動態調整應予說明之內容(12) ,詳細而言:
階段一:于醫療人工智能之使用并不普遍時,病人對于醫療人工智能的了解相對有限,若要做到全面揭露醫療人工智能的算法原理,病人可能會因接收到大量信息,滋生信息超載問題(13) ,反而產生認知混淆,影響病患的自我決策。在醫療人工智能發展的初期,可解釋性及透明性仍顯現不足,醫師固然不知醫療人工智能獲得某種結論之過程,在該階段,病患對醫師的信任遠超醫療AI,病患仍比較依賴醫生,對醫師作出相應的解釋仍有較高的合理期待。此時,醫師應依據醫療人工智能能夠被揭露之程度,立足自身專業能力,盡力向病人作出解釋,醫師專業決策與智能醫療決策之間屬主輔關系。
階段二:于醫療人工智能之使用比較普遍后,接受了大量的臨床驗證,醫師對于醫療人工智能之理解已較為豐富,醫療人工智能之透明性與可解釋性也有所改觀,病人對于醫療人工智能并不完全陌生,已較能了解醫療人工智能之運作方式,此時,可采用理性病人標準說向病人說明醫療人工智能之運作機制,說明之內容可較階段一更為豐富、全面,也不會給病人造成過重之信息負擔(14) 。此時,醫師必須考量醫療AI決策所涉之利益大小、決策邏輯利益沖突之程度,說明使用或不使用醫療人工智能之利弊,與病人共同進行決策,合理決定醫師與智能醫療之間的主輔關系。
階段三:當醫療人工智能已經十分普遍,醫師已經習慣于向病患解說醫療人工智能事項,輔助病人決策之工具已經成為流行主流,可依據病人之個性化信息需求而動態運用說明義務論滿足病患所期待之說明內容。因醫療人工智能之運用已屬常規內容且比較安全,則醫師與病人對于使用醫療人工智能具有高度信賴,理性病人此時不再需要醫師多加解釋;然而,當病人提出具體詢問、重大醫療決策、利益沖突可能性等醫療人工智能運用所生之個性化問題,醫師應遵循理性病人標準履行說明義務。
(二)醫療機構的組織責任:醫療AI數據更新義務的履行
在醫療活動中,醫師在第一線為病患實施檢查、診斷與治療等醫療行為,履行告知說明義務、建立完整病歷與保管義務、保密義務。而隨著醫療專業分工日益精細,醫療機構內所提供的醫療行為已不再限于個別醫護人員,而是結合不同領域的醫療人員、軟硬設施所提供的整體性醫療服務,醫療損害事件并非必然系因個別醫護人員的疏失,而可能是醫療機構的系統性錯誤所致。因此,醫療機構負有確保能提供適當且對病患無危險之醫療行為的義務,此即學理上所謂之“企業所負的組織責任”。(15) 至于醫療機構的組織責任,學界認為醫療機構在運營中,必須防止其受雇人員、機器設備或提供之服務,對他人之生命或身體造成損害,否則即為交易安全義務之違反,應負賠償責任(16) 。
就醫療AI的技術演變歷程而言,醫療AI會從現階段多以輔助醫師為決策建議發展至未來可能于某專業科別完全取代醫師,彼時醫療AI遂會成為醫療機構的系統組成部分,醫療AI的安全性自應成為醫院所負組織義務的應有之義。詳言之,因醫療AI系統的目的在于提供最新、最實時的醫學知識與技術,以便臨床醫師能獲得最新的可能減緩病患手術副作用的替代性療法,保障民眾的身體健康與福祉。然而倘若醫療AI于系統運算分析過程中使用錯誤、不合適之算法模型、系統透過有錯誤、偏差的病患數據,又或是未關注到實務中出現的新型診斷與治療方法,便會有潛在的致損風險。醫學科學的發展間接或直接影響病患于日后接受診斷與治療照護之成效與質量,未及時更新的醫療AI數據系統便構成了組織瑕疵。因此,隨著醫療AI之應用越趨普及且系統具備高穩定性與準確性而成為醫療常規、臨床指引時,醫療機構與醫師便應確保醫療AI之安全、穩定、正確及有效輸出之使用目的。鑒于醫療機構相較醫師更有資金與風險控管能力,應為整體醫療AI之建置、訓練、驗證、測試與監測等管理與運作事項負起主要責任,法律有必要明確賦予醫療機構對于醫療AI所為之管理與更新系統之行為義務,確保醫療AI之安全、穩定、正確且有效運作。
基于醫療機構所負之組織管理責任,當病患受有損害時,得先向醫療機構提起訴訟,若醫療機構認為其并無違反管理與監督醫療AI之注意義務時,應由醫療機構舉證證明其已善盡定期更新、維護、監測及適時培訓醫師之行為義務,若確實有履行前述相關行為義務,醫療機構始得免除責任。
四、未來智慧醫療中AI獨立責任及其實現的可能性
侵權責任法所建構的醫療責任法體系,其損害賠償責任之成立系以行為人具有過失為前提,亦即醫師或醫療機構對于醫療損害之發生具有預見可能性及回避可能性,始須負損害賠償責任。而以風險為基礎的治理是人工智能法研究的基礎(17),以風險而高階的醫療人工智能所衍生的醫療風險,常非醫師及醫療機構所能掌控,但若以醫師、醫療機構及研發廠商無法預見或不具有回避可能性而否定其損害賠償責任之成立,于被害人而言誠非公允。鑒于此,理應于法責任體系上重新劃分智慧醫療中當事人之責任歸屬,以為衡平。
(一)醫療AI責任的成立及其證明
1.醫療AI責任的產品責任底色
診療過程中,獨立自主的醫療AI因自身疏忽致病患產生損害,自應予以賠償。然何為醫療AI疏忽?其具體表現應為醫療AI在制造或設計上存在缺陷,在此意義上,醫療AI的自身責任,其邏輯底色應為產品的嚴格責任(18) ,可依據《民法典》第1223條之規定承擔醫療器械損害責任。該條之醫療產品責任,嚴格意義上不是醫療損害責任,而是產品責任(19) ,可轉引產品責任中的嚴格責任之規定。
在域外,無論是歐盟的產品責任指令,還是美國法,產品責任皆以傳統、可觸碰、可移動及大規模生產之產品為規范對象(20) 。依此觀點,單純的人工智能軟件系統不屬于商品,病患或醫療機構可能就難以向醫療AI制造商主張產品責任。但醫療AI是否屬于商品并非歸責問題之癥結所在,醫療AI承擔責任的關鍵在于是否可以在醫療AI領域推行嚴格責任。
首先,推行嚴格責任,符合“風險收益一體”理論。嚴格責任的合理性在于利益風險以及控制力的均衡分配,即行為人使他人暴露于其從中受益并受其控制的活動風險中,行為人應對此負責(21) 。另從法經濟分析的角度來看,法經濟學認為責任應分配給最小成本的避險者(22) ,企業經營者盡管也難以控制與掌握AI系統的決策過程,然其地位相較于弱勢之消費者甚至是更難以發現與檢視商品卻受到損害的第三人而言,企業經營者事前有機會檢視、驗證人工智能之科學性與安全性,倘若制造商事前切實履行驗證程序,勢必會對系統的損害、錯誤發生有一定的預防效果,制造商客觀上得負擔較少之成本而盡可能規避損害結果之發生;其次,推行嚴格責任,意味著原告病患無需舉證證明制造商主觀上有故意與過失,降低了證明難度,有利于受害者第一時間獲得救濟賠償,且企業經營者能借由市場價格機制或是產品責任保險分散損害風險,因而課予制造商嚴格責任實屬妥當。
歐盟《人工智能和其他新興數字技術責任的報告》中也明確說道,與已受嚴格責任規范的傳統風險相比,人工智能技術通常也會造成極為嚴重的重大損害,尤其是牽涉對象為不特定多數人時更應被謹慎對待(23) ,醫療 AI 之使用牽涉人類個人之身體權、健康權及生命權等重大權益,理應受到嚴格責任的規范。該研究報告倡導,隨著人類專家監督與介入之機會與能力越趨渺茫時,未來強自主性的人工智能系統,應有更為嚴格之規范,約束較有機會控制與防范人工智能系統發生損害之制造商。
2.醫療AI損害中證明責任之實現
2020年修訂的《最高人民法院關于審理醫療損害責任糾紛案件適用法律若干問題的解釋》第7條規定,患者主張醫療產品生產者承擔賠償責任的,應當提交使用醫療產品、受到損害的證據;無法舉證因果關系時,可依法申請鑒定,人民法院應當準許。回到實踐中,在醫療AI系統算法出錯而造成損害的狀況下,因為AI學習算法高度復雜且欠缺透明,對其進行回顧式因果鏈審查并不可能,要證明損害系因算法造成十分困難。舉證困難的結果便是導致負有舉證責任之受害人獨自承受了人工智能醫療產品之風險。為平衡雙方舉證能力的差異,轉換舉證責任或實施采取舉證責任減輕規則顯得尤為迫切。
鑒于人工智能系統的黑盒子效應 (Blackbox-Effects)將會導致證明產品之瑕疵要件變得極為復雜與困難,對于科技設備并不熟悉,且處于制造企業領域之外的受害人而言幾乎是無法進行證明的(24)。本文認為,醫療人工智能之損害賠償責任應適用危險責任理論,即人工智能產品之瑕疵與責任成立因果關系均有舉證責任轉換之適用,應由人工智能產品的制造人擔負舉證責任,且受害人對于產品之制造人享有信息提供請求權。
危險責任理論的思想基礎為特定人透過其產品開啟了危險源,必須承擔因此項危險實現造成他人損害的賠償責任(25)。危險責任之認定不再取決于行為人是否具有過失,原則上要求創設被容許的但無法完全控制危險源之人擔負其應負之責任,若損害原因系存在于加害人之領域,則加害者應負舉證責任,該理論旨在克服證據困難及貫徹責任規范之預防目的(26)。醫療領域奉行該證明責任理論的典型立法為德國藥品法第84條所規定之藥企責任,該條具體要求由制藥企業提供免責證據,如果事實證明造成上述損害的原因不在藥品的研發或制造過程中,制藥企業可免除賠償責任。(27)鑒于人工智能醫療產品與藥品具有相類似性,對于人工智能醫療產品采取危險責任之合理性在于即使產品有高度之安全性,但仍然無法絕對排除損害之產生,即人工智能醫療產品流通于市場后,客觀上仍有可能發生不受控制的現象發生,針對此一危險仍需為必要的規制。對此,宜借助我國民事訴訟法舉證責任緩和之規定,應允許法官于將來的司法實務中臨機應變借助種種方法對當事人的舉證責任進行調整。回到智慧醫療領域,人民法院可以根據公平原則和誠信原則,綜合當事人的舉證能力合理確定舉證責任的承擔,可推定醫療AI責任因果關系的成立,并賦予受害人向AI制造商之產品信息提供請求權。
(二)醫療AI責任之實現:責任財產的構建
人工智能雖已初步具備模擬人類智慧行為的能力,而且能在沒有人類參與下依其自主決策完成所設定之任務,但由于其本質上僅系計算機軟件程序,故在現階段,其并非權利主體,無法享受權利負擔義務,更無獨立的責任財產。
當醫療AI自主程度越高,未來甚至可能直接取代醫師為獨立診斷與治療,此時,病患向醫療機構與醫師主張醫療過失侵權責任確有現實困難,為避免病患求償無門,應允許直接向醫療AI求償,可透過無過失補償制度,對病患損害進行合理救濟。然醫療AI獨立承擔責任之財產源于何處?醫療AI得透過為自己投保責任保險“取得”對外進行賠償的責任財產,此時,如同將醫療AI視為醫師,透過投保醫療AI責任險分散因侵權行為而生的索賠風險,經由移轉與分散責任風險,由危險共同體承擔及填補被保險人損失;對于受害第三人而言,得藉由保險制度及時獲得損害填補。在醫療AI領域運用責任保險模式化解風險雖有益處,但仍有如下兩大前置議題亟待說明:
1.當前醫療AI責任保險之主要形式:醫療AI強制責任保險
目前我國關于醫療責任保險的參保模式采取的是任意商業險模式,醫療機構與醫師皆得自由選擇是否要參與投保醫療責任險。實踐中,無論是醫療機構或是醫師之責任險由于保費高、給付額度低,導致承保率低,并未取得良好實效,因此若以醫療任意責任險分散醫療AI事故中的損害風險,其實際效果可能得大打折扣。
首先,任意責任險是以承保過失損害賠償責任為基礎,而強制責任險作為典型的政策性保險,旨在化解特定領域嚴重影響公眾生活品質的風險(28),是以無過失賠償責任為理論基礎,無論被保險人有無過失,保險公司均應對被害者所受之損害予以填補,向受害者提供及時的補償。基于公共政策之需要,法律規則制定者傾向于通過立法的方式強制或鼓勵特定事業投保責任保險,以期保險能真正起到社會“穩壓器”的功能。若以任意醫療責任險為參保模式,只有當醫療機構與醫師之醫療行為成立過失,保險人方才提供保險理賠;惟醫療 AI 之算法風險具有醫療機構與醫師難以預見、難以避免之理論難題,因而,醫療過失之認定便會存在現實困難,保險給付條件難以成立,如此可能造成受害人無法順利地獲得保險理賠。因此,醫療AI之固有風險恐無法透過任意醫療責任險為分散與移轉。
其次,醫療機構、醫師于臨床上使用醫療AI并將潛在的致損風險投保時,保險公司還須先履行核保程序,精算醫療機構與醫師于使用醫療AI可能誘發的責任大小,劃定承保范圍。然而鑒于醫療 AI 之不確定性,實難事前衡量責任風險范圍,核保程序恐難開展,故可能造成無法以任意險的方式來分散醫療 AI 的固有風險。反觀強制險,該類保險具有強政策性,保險公司無需經過嚴密的核保程序,且保險公司不可拒保,基于強制險具有的補償優先屬性,站在被害人病患能獲得及時賠償的立場上,應立法強制擴大生產者、醫療機構投保責任保險。另外,考慮到強制險在進行制度設計時多會設計特別補充基金作為損害救濟的配套措施,是以,被害人得向保險人請求保險給付,亦可選擇向醫療AI事故特別補償基金請求給予補償。相較于任意險,強制險模式無疑給病患提供了雙重制度保障。
2.多層次醫療AI強制責任保險之保費來源
來源渠道之一:醫院之節省費用。倘若未來當醫療AI部分取代或完全取代人類醫師為獨立決策時,此時醫療機構即可相應地減少醫師的人力成本支出,所節約之經費可作為參加醫療強制責任險的經費來源。另外,隨著醫療 AI 之應用越來越普及,傳統的醫療任意險系以過失為理賠要件,多數醫療機構勢必會舍棄投保相關任意險,由此節省下來的任意險保費也可以充作醫療AI強制險之保費。
來源渠道之二:制造者與其他參與者之經驗收益。醫療AI因軟件故障、算法與程序設計上的瑕疵、網絡黑客侵入篡改數據等因素致醫療AI發生錯誤,因其所滋生之賠償責任,究竟系因何一主體生產的零部件誘發的侵權責任往往難以認定,因果關系的鏈條也難以確認,故傳統侵權責任所奉行之自己責任模式難以適用于智慧醫療AI責任歸屬上,域外有學者認為應以共同事業責任理論(Common Enterprise Liability)之變體——制造商企業責任理論(Manufacturer Enterprise Responsibility,簡稱 “MER”)解決此一現實困境(29),即針對醫療機構、醫師于使用醫療 AI 時遭遇之醫療損害,制造商及其他使用者應與醫療機構一同對外負擔賠償責任,各方主體成為對外賠償的責任共同體,在此賠償模式下,各方皆有移轉責任風險之需,遂對強制保險皆有合法的保險利益,理應將其納入投保人范圍之內,企業經營者、銷售者以及使用者等,按其參與程度,分別繳納一定比例之保險費用,考慮搭配制造商相較醫療機構、醫師更有機會與信息知識接近醫療 AI算法之建構與參數之設定、修改,對其潛在的索賠風險因素最大。因此,制造商應主要負擔醫療 AI 產品責任保險之保險費用。
注釋:
(1) See Thomas Hoeren, Maurice Neuhoff, Artificial Intelligence in Medical Diagnoses and the Right to Explanation, European Data Protection Law Review, 2018, 4, p.308.
(2) 王迎龍、宋業臻:《司法精神病鑒定的人工智能技術應用》,《浙江工商大學學報》2022年第1期。
(3) W. Nicholson Price Ⅲ, Artificial Intelligence in Health Care: Applications and Legal Issues, The SciTech Lawyer, 2017, 14(1), p.10.
(4) Z. Obermeyer, E. J. Emanuel, Predicting the Future—Big Data, Machine Learning, and Clinical Medicine, The New England Journal of Medicine, 2016, 375, p.1216.
(5) 陳聰富:《醫療責任的形成與展開》,臺灣臺大出版中心2020年版,第4頁。
(6) 最高人民法院民法典貫徹實施工作領導小組:《中華人民共和國民法典侵權責任編理解與適用》,人民法院出版社2020年版,第410頁。
(7) 鄒海林、朱廣新主編:《民法典評注·侵權責任編1》,中國法制出版社2020年版,第542頁。
(8) A. Michael Froomkin& Ian R. Kerr & Joelle Pineau, When Ais Outperform Doctors: Confronting the Challenges of a Tort-Induced Over-Reliance on Machine Learning, Arizona Law Review, 2019, 61, p.33.
(9) 程嘯:《侵權責任法》,法律出版社2021年版,第295頁。
(10) 楊立新:《侵權責任法》,法律出版社2021年版,第477頁。
(11) 皮勇:《論醫療人工智能的刑法問題》,《法律科學(西北政法大學學報)》2021年第1期。
(12) D. Comin & B. Hobijn, An Exploration of Technology Diffusion, American Economic Review, 2010, 100(5), pp.2031-2059.
(13) O. Ben-Shahar, C. E. Schneider, The Failure of Mandated Disclosure. University of Pennsylvania Law Review, 2011, 159, pp.647-749.
(14) 吳建昌、王昱涵:《醫師運用醫療人工智能時之說明義務──以病人自主、醫療決策及醫療人工智能發展為中心》,《月旦民商法雜志 》2021年第12期。
(15) 朱巖:《論企業組織責任——企業責任的一個核心類型》,《法學家》2008年第3期。
(16) 侯英泠:《醫療機構之組織義務再建構》,《月旦民商法雜志》2021年第12期。
(17) 陳吉棟:《以風險為基礎的人工智能治理》,《法治研究》2023年第5期。
(18) 鄭志峰:《診療人工智能的醫療損害責任》,《中國法學》2023年第1期。
(19) 王利明主編:《民法典釋評侵權卷》,中國人民大學出版社2020年版,第314頁。
(20) [美]詹姆斯·戈德雷、阿瑟·泰勒·馮·梅倫:《私法比較研究導論:閱讀、案例、材料》,張凇綸譯,中國法制出版社2021年版,第444頁。
(21) [奧] 海爾姆特·庫齊奧:《侵權責任法基本問題》 第1卷,朱巖譯,北京大學出版社2017年版,第234頁
(22) Hans-Bernd Sch?fer, Claus Ott, The Economic Analysis of Civil Law, Edward Elgar Publishing, 2022, p.367.
(23) Expert Group on Liability and New Technologies-New Technology Formation, Report on Liability for Artificial Intelligence and Other Emerging Digital Technologies, 2019, p.40.
(24) 劉明生:《人工智能醫療產品瑕疵事件舉證責任分配與舉證減輕之研究──以醫院、醫師與產品制造人為中心》,《月旦民商法雜志》2021年第12期。
(25) 李昊:《危險責任的動態體系論》,北京大學出版社2020年版,第47頁
(26) 姜世明:《新民事證據法論》,廈門大學出版社2017年版,第124頁。
(27) 佟樂:《德國藥品損害賠償法律制度對我國的啟示》,《中國藥事》2012年第11期。
(28) 江朝國:《社會保險、商業保險在福利社會中的角色》,《月旦法學雜志》2010年第4期。
(29) Kenneth S. Abrahama & Robert L. Rabin, Automated Vehicles and Manufacturer Responsibility for Accidents: A New Legal Regime for a New Era, Virginia Law Review, 2019, 105(1), pp.127-171.
作者簡介:蔡大順,湖北大學法學院講師,湖北武漢,430062。
(責任編輯 李 濤)