〔摘要〕隨著生成式人工智能技術的快速發展,ChatGPT等自然語言處理模型在醫療領域的應用成為可能。然而,醫療智能決策所涉及的倫理、法律與規制問題也逐漸凸顯。分析ChatGPT在醫療領域的應用和潛在風險,關注數據隱私保護、決策公正性和法律適應性等挑戰,并提出制定醫療決策智能化的法律框架、建立倫理準則與指南、加強監管機制與監督措施、提升決策智能化的實踐能力等規制策略,以促進醫療智能決策的可持續發展,確保其倫理、法律和社會責任的兼顧。
〔關鍵詞〕ChatGPT;醫療決策;人工智能;醫學倫理;法律規制
〔中圖分類號〕R-052 〔文獻標志碼〕A 〔文章編號〕1001-8565(2025)02-0139-11
DOI: 10. 12026/j. issn. 1001-8565. 2025. 02. 01
【基金項目】 2022年西安市科技局軟科學項目“雙碳政策下秦創原平臺產業生態體系綠色發展協同立法研究”(2RKYJ0020)
ChatGPT-driven medical intelligent decision-making: ethics, law, and regulation
LI Juping
(School of Public Security, Northwest University of Political Science and Law, Xi’an 710122, China)
Abstract: With the rapid development of generative artificial intelligence (AI) technology, the application of natural language processing models such as ChatGPT has become possible in the medical field. However, the issues of ethics, law, and regulation involved in medical intelligent decision-making have gradually become prominent. This paper analyzed the application and potential risks of ChatGPT in the medical field, focusing on challenges such as data privacy protection, decision fairness, and legal adaptability. It also proposed regulatory strategies, including formulating a legal framework for intelligent medical decision-making, establishing ethical norms and guidelines, strengthening regulatory mechanisms and supervisory measures, enhancing the practical ability for intelligent decision-making, and other aspects, to promote the sustainable development of medical intelligent decision-making and ensure the balance of ethics, law, and social responsibility.
Keywords: ChatGPT; medical decision-making; artificial intelligence; medical ethics; legal regulation
0 引言
醫療決策是一個復雜的過程,對患者的生命和健康具有重大影響,受到質量、效果、安全、成本、公平等多準則的影響與約束,需要高度可靠和準確的決策支持。傳統上,醫療決策主要依賴醫生的經驗和專業知識。近年來,從基于機器學習的醫學影像分析到自然語言處理的醫學文本挖掘,各種人工智能技術正在改變醫療實踐和決策的方式,成為推動醫學發展和解決日益增長的老齡化人口醫療需求的關鍵資產 [1]。
2022年11月,OpenAI公司開發的ChatGPT正式上線,在人工智能輔助決策支持領域迅速獲得認可。作為一種交互式的大型語言模型,ChatGPT以其強大的自然語言處理和語義理解能力為醫療決策提供了新的可能性,包括智能問診、診斷輔助和個性化治療建議等方面。然而,ChatGPT并非獨立的診斷設備,而是醫生的輔助工具,其目的是為醫療專業人員提供支持和參考。
隨著ChatGPT在醫療決策中的應用日益普及,也引發了一系列倫理問題。首先,醫療決策需要高度可靠和準確的支持,因此需要對ChatGPT決策結果的準確性和可信度進行評估和驗證;其次,醫療決策涉及倫理、法律和安全等重要問題,如何保護患者隱私和數據安全,如何確保決策的可解釋性和透明性,并維護患者的知情權和自主權,需要進一步分析ChatGPT的應用風險,并提出有針對性的規制建議;最后,醫療決策是一個涉及多方參與和協作的過程,如何有效結合ChatGPT和醫療專業人士的專業能力并實現協同決策,也是面向未來的健康診療應當研究和解決的問題。因此,本文將重點探討以ChatGPT驅動的醫療智能決策所引發的倫理問題,并提出相應的規制策略,以確保其在醫療實踐中的安全性、可靠性和倫理性。
1 ChatGPT在醫療決策中的應用與發展
ChatGPT是一種使用Transformer架構的生成式預訓練模型。它通過大規模的文本數據集進行預訓練,學習語言的潛在結構和規律,核心思想是通過將上下文輸入模型并生成連貫、合理的回復,以模擬人類對話的方式進行交互。ChatGPT可以理解自然語言輸入并生成相應的輸出回應,實現與用戶的智能對話,處理各種類型的問題,并提供個性化的回答和建議,使其在醫療決策中具備潛在的應用價值。醫療領域的專業術語和復雜概念需要準確理解和表達,而ChatGPT的語言生成能力可以為醫生和患者提供準確、清晰的信息。
1. 1 ChatGPT在醫療決策中的應用潛力
在醫療決策中,ChatGPT可以與醫生和患者進行實時對話,就病情、診斷和治療方案進行探討。這種交互式的對話模式有助于患者更好地理解和參與醫療決策過程,同時為醫生提供交流和決策支持的平臺,應用于以下幾個具體領域:
首先,ChatGPT可用于智能問診系統。通過與患者進行對話交流,ChatGPT可以收集患者的病情信息,并提供初步的診斷建議。患者可以通過與ChatGPT的交互快速獲取醫療信息和建議,詢問疾病和癥狀、治療選項及預后等問題,增加就醫體驗感并提升決策自我效能,使其能夠更好地在診療和決策過程中結合個人意愿與價值偏好,幫助臨床實現最佳的決策 [2]。智能問診系統的引入不僅節省了患者的時間和精力,還可以提供即時的醫療咨詢和指導,特別是在急診情況下,能夠及時評估病情和采取緊急措施。
其次,ChatGPT在診斷輔助方面發揮著重要作用。醫學影像和病歷數據等大量信息可以輸入ChatGPT中,它能夠分析和解讀這些數據,輔助醫生進行疾病診斷和制定治療方案 [3]。與ChatGPT的合作可以為醫生提供更全面和準確的診斷結果,改善醫療決策的質量和效果。通過結合醫學專業知識和ChatGPT的智能分析能力,醫生可以更快速地獲取診斷結果,并且在復雜病例的處理上獲得更多的支持和建議。
最后,ChatGPT還可以為個性化治療提供支持。根據患者的個人信息、病史和基因組數據等,ChatGPT可以生成針對個體的治療建議[4]。個性化的治療方案能夠更好地滿足患者的需求,并提高治療的效果和可持續性。通過分析大量的醫學數據和研究成果,ChatGPT能夠為醫生和患者提供個性化的治療方案選擇,考慮到患者的特定情況和需求,以達到最佳的治療效果。
1. 2 ChatGPT在醫療決策中的應用效果
目前,ChatGPT還沒有在實際診療中大規模應用,但已經有眾多科研團隊對其應用效果進行了試驗評估。對于廣義的臨床決策,Liu等[5]的一項實驗評估了ChatGPT是否能為改進臨床決策支持(clinical decision support, CDS)邏輯提供有用建議 ,將臨床決策支持邏輯的摘要提供給ChatGPT并要求其生成建議,由臨床醫生對ChatGPT生成和人類生成的建議進行評估。研究結果顯示,在調查中得分最高的20個建議中,有9個是由ChatGPT生成的,不僅提供了獨特的觀點,且具有高度可理解性和相關性,具有中等的有用性,低的可接受性、偏見、倒置和冗余。研究結論表明,ChatGPT生成的建議可以作為優化臨床決策支持的重要補充部分,可以發現潛在的改進邏輯的方法并支持其實施,甚至可以幫助專家制定自己的臨床決策支持改進建議。
在專業領域,Harskamp等[6]的一項實驗評估了ChatGPT對常見心臟癥狀或疾病相關醫學問題建議的準確性,測試結果顯示,ChatGPT在知識問答中正確回答了74%的問題,在冠心病(80%)、肺動脈和靜脈血栓栓塞(80%)、房顫(70%)、心力衰竭(80%)和心血管風險管理(60%)等領域的準確性存在輕微差異;在臨床案例概要中,ChatGPT的回答與實際建議相符的案例達到了90%。在更復雜的情況下,當醫生(全科醫生)向其他醫生(心臟病專家)尋求協助或決策支持時,ChatGPT在50%的案例中是正確的,但與專家咨詢相比,它經常提供不完整或不合適的建議。研究結論表明,ChatGPT作為醫學領域的人工智能輔助決策支持工具具有潛力,特別是對于簡單、低復雜度的醫學問題。
此外,對于ChatGPT與醫學教育結合的效果,Kung等[7]通過實驗評估了ChatGPT在美國醫學許可考試(United States Medical Licensing Examina? tion,USMLE)上的表現,在沒有任何專門訓練或強化的情況下,ChatGPT在其中包含的三個標準化知識考試中的表現接近或達到及格線,并在解釋方面表現出高度的一致性和洞察力。研究結果表明,ChatGPT等大型語言模型有可能在醫學教育環境中輔助人類學習者,作為未來整合到臨床決策的前奏。Huang等[8]則重點評估了最新的ChatGPT-4在醫學教育和決策制定中的潛力,發現ChatGPT-4在放射腫瘤學領域表現良好,能夠高度準確和全面地提供個性化的治療建議;在統計學、中樞神經系統和眼科、兒科、生物學和物理學等方面展示了較好的知識水平,但在骨骼和軟組織、婦科以及臨床試驗等領域存在一定的局限性。
1. 3 ChatGPT在醫療決策中的定位:可參考的輔助工具
盡管ChatGPT具有強大的語言生成和智能對話功能,但在醫療決策過程中,它應該被視為醫生和患者的合作伙伴,而不是取代醫療專業人員的決策能力。
ChatGPT的優勢在于其快速的信息獲取和處理能力,以及對廣泛領域知識的涵蓋。它可以提供大量的醫學知識和研究成果,幫助醫生和患者了解特定疾病、治療方法及健康管理方案。ChatGPT還可以輔助醫生分析和解釋患者的病歷數據,提供可能的診斷和治療方案,促進決策過程的科學性和全面性。此外,ChatGPT還可以作為教育工具,為醫學生、住院醫師和其他初級醫務人員提供指導和培訓,回答其問題、解釋醫學概念和原理,并為其提供實踐建議和學習資源。這有助于提高醫學知識的傳授效率和質量,為新一代醫務人員的培養提供支持。
ChatGPT在醫療決策中也存在一些局限性。首先,它依賴于已有的數據和知識,因此對于新興的、尚未廣泛研究的領域可能不具備足夠的信息。由于其依賴于大規模的訓練數據,可能存在潛在的偏差和錯誤。這可能導致提供不完全準確或有偏見的建議,特別是在少數群體或特定疾病領域。其次,ChatGPT缺乏臨床經驗和人類直覺的判斷能力。在復雜和高風險的醫療情況下,醫生的專業知識、經驗和判斷能力仍然不可或缺。ChatGPT可能無法提供準確和可靠的建議,因為它缺乏對個體患者的詳細了解和對不同治療選項的綜合評估。
因此,在使用ChatGPT時,醫務人員應該將其作為輔助工具,對其輸出進行審查和驗證,并將其作為決策支持的參考,而不是替代人類專業知識和經驗的工具[9]。隨著ChatGPT的應用范圍擴大,必須進一步審視與其使用相關的倫理和法律風險,確保其應用不僅具備高效性和準確性,還需保障患者的健康和福祉。
2 ChatGPT驅動的醫療智能決策中的倫理考量
ChatGPT在醫療健康領域的應用無可避免也存在“陽光下的暗礁”。其首要的困境就來自對傳統倫理秩序的沖擊,治療機器人與醫生之間的聯合令人產生主體資格的困惑,而智能醫療決策系統使患者的隱私無處遁形的同時,患者的自主權能也逐漸下降甚至喪失。
2. 1 ChatGPT與醫生的倫理角色界定
在醫療實踐中,醫生通常被視為決策的主體,他們不僅提供專業的醫療知識和技術,還在整個治療過程中給予患者人文關懷和情感支持。然而,隨著ChatGPT等智能工具的引入,首先要考慮的倫理問題是,應當如何準確定義和劃分醫生與ChatGPT的角色邊界?ChatGPT作為一種智能工具,其決策是基于算法和預訓練模型的,本身并沒有醫學背景和專業資格,那么它應當在多大程度上承擔醫生的職責?
正如前文所強調的,ChatGPT等智能工具在醫療決策中應被視為輔助而非替代。醫生的決策不僅基于客觀數據,還包括其個人的臨床經驗、專業判斷和對患者具體情況的全面了解。ChatGPT雖然可以提供大量的數據分析和初步診斷建議,但這些建議必須經過醫生的審查和驗證,才能用于實際的臨床決策。醫生的專業知識和經驗對于理解和評估ChatGPT提供的信息至關重要,他們能夠辨別出智能工具可能出現的錯誤或偏差,從而確保最終決策的準確性和安全性。
實際上,醫生的角色不僅限于提供醫學知識,他們還在治療過程中與患者建立信任關系,提供心理和情感支持,而這些人文關懷和情感支持是ChatGPT無法提供的。患者在面對疾病時,需要醫生的關懷和鼓勵,以此來緩解他們的焦慮和不安,增強他們戰勝疾病的信心。ChatGPT雖然能夠模擬人類對話,但缺乏情感理解和共情能力,無法替代醫生在心理和情感支持方面的作用。
醫生能夠根據患者的個體差異和具體需求,提供個性化的治療方案。每個患者的病情、生活方式和心理狀態都有所不同,醫生可以綜合考慮這些因素,制定最適合患者的治療計劃。而ChatGPT的決策基于已有的數據和模式,雖然能夠提供參考建議,但可能無法全面考慮患者的個體差異和特殊需求,導致治療過程缺乏個性化和針對性,影響治療效果和患者滿意度。
因此,從倫理和法律角度看,醫生應對患者的最終治療結果負責。盡管ChatGPT可以提供有價值的建議,但它不能承擔法律和道德上的責任。在應用ChatGPT輔助醫療決策時,醫生必須充分考慮患者的隱私和知情權,堅持自主、公平和保密原則,確保其應用過程中的倫理合規性,維護患者的權益。
2. 2 患者隱私與數據安全
在明確了醫生與ChatGPT在醫療決策中的角色界定后,需要綜合考量患者在接受治療中的合法和合理權益。康德(Immanuel Kant)的道德哲學強調尊重每一個人的內在價值和尊嚴。具體到處理患者數據時,必須高度重視和保護其隱私權。在利用智能工具輔助醫療決策時,如何保護患者的個人信息不被泄露或濫用,是醫療行業面臨的巨大挑戰。患者隱私與數據安全不僅涉及法律問題,更關乎患者的基本權益和信任。
首先是數據泄露和未經授權訪問問題。由于ChatGPT需要訪問和處理大量的患者醫療數據,如個人病歷、診斷結果和治療記錄,如果這些醫療數據沒有得到充分地保護,那么就可能存在數據泄露的風險,進而可能導致患者的個人隱私受到侵犯。不僅會對患者造成直接的傷害,還可能導致他們對醫療系統和智能工具的信任度下降。此外,未經授權的訪問也可能使數據被濫用或用于其他不道德的目的,對患者造成傷害。
其次,聚合數據風險也需要考慮。為了提供更準確的醫療決策,ChatGPT可能需要訪問和分析大量的醫療數據,包括來自不同患者的數據,而聚合數據的使用可能導致信息的暴露和再識別風險。即使患者的個人身份被去標識化,通過對多個數據源的交叉分析,仍有可能重新識別出個人身份,從而威脅到患者的隱私和數據安全。
因此,患者隱私和數據安全應當始終被視為醫療智能決策中的核心考量。在倫理觀念上,醫療機構和技術提供商必須將患者的權益放在首位,確保所有涉及患者數據的操作都以保護患者隱私為前提。在醫療智能決策中,保護患者的隱私和數據安全,不僅是為了符合法律要求,更是為了尊重患者的基本權利和維護其對醫療系統的信任。
2. 3 患者自主權與知情同意
醫學具有高度專業性的特點,醫患之間存在明顯信息不對等,患者處于知識的“盲區”,傳統醫患關系中醫務人員占主導地位[10]。然而,引入Chat? GPT等技術改變了這種主導地位,雖然這些技術作為醫生的輔助工具,不會直接介入醫患關系,但顯著增加了醫患之間的信任風險。尤其是在醫生依賴ChatGPT進行決策時,如果未能充分告知患者在決策過程中使用了ChatGPT,或者未能清晰解釋ChatGPT建議的來源和局限性,患者的自主權和知情同意權可能會受到侵害。
進步主義生物倫理學家魯斯·麥克林(Ruth Macklin)曾在2003年的社論《尊嚴是個沒有用途的概念》中指出,生物倫理學的基本原則應是尊重個人的自主性。每個人都有權在充分知情的基礎上作出自己的醫療決策,而任何剝奪或忽視這一權利的行為都是不道德的。麥克林強烈批評了那些通過所謂的“尊嚴”概念來掩蓋侵犯自主性的行為,認為真正的倫理實踐應聚焦于確保患者的知情同意和自主決策權。在復雜的醫學倫理問題中,自主性原則始終應該是價值判斷中的首要考量。
患者的知情同意不僅僅是法律程序,更是倫理承諾。托馬斯·斯坎倫(Thomas M. Scanlon)的非自利契約論強調,道德要求的規范性(normativity)源自人們之間的契約、協議或共識。而倫理決策也應基于一個合理的契約,即所有相關方在知情的情況下同意的原則。它要求醫療提供者在與患者溝通時,必須以清晰、易懂的方式提供全面的信息,確保患者能夠充分理解相關內容。然而,ChatGPT驅動下的智能決策具有顯著的信息不透明性,破壞了知情同意的信任基礎,因為患者往往難以理解算法邏輯和數據處理方法。
ChatGPT的決策過程依賴于訓練數據和算法模型,這些技術細節對患者來說往往是“黑箱操作”。如果醫生未能有效地解釋這些技術背景或忽略了對患者的詳細告知,患者的知情同意權將因此受損,進一步限制他們對醫療決策過程的參與和理解。即使醫生對相關情況進行告知,患者也無法充分了解ChatGPT所使用的數據來源、數據處理方式以及模型訓練的具體細節,導致其在作出知情同意決策時,很有可能為了快速獲得醫治而直接選擇同意,無法充分考慮ChatGPT的局限性和潛在風險。此外,ChatGPT作為一個通用的語言模型,缺乏個性化和情境感知能力。它無法根據患者的個人特征、價值觀和特定情境提供有效的個性化響應,可能導致決策結果與患者的健康需求、期望和價值取向不符合,從而降低患者對決策的信任和滿意度,削弱患者的自主權。更深層次來看,這是一種對患者個體尊嚴和獨特性的潛在忽視,違反了醫療倫理中的個體化原則。另一方面,患者可能過度依賴醫生使用智能決策的結果,特別是對于ChatGPT這樣的實時反饋工具。盡管ChatGPT可以大幅提高患者獲取醫療決策的便利性,但患者過度依賴這些技術工具可能削弱他們自身的自主權,減少對決策結果的審慎思考和獨立判斷能力。這種情況尤其可能在醫療決策的復雜性和緊迫性較高的場景中發生。實際上,這是對患者自主性的進一步侵蝕,削弱了其在醫療決策中的主動性和參與感。
因此,透明、尊重和支持始終是醫療決策的基礎價值理念,ChatGPT的應用不應以犧牲患者自主權和知情同意為代價。醫療機構和醫生必須確保患者在作出醫療決策時擁有充分的信息和理解,尊重患者的自主選擇,并在整個醫療決策過程中提供必要的解釋和指導。
2. 4 決策公正性與公平性
保證醫療決策的公平性,意味著每位患者無論其社會經濟地位、種族、性別或其他背景有何種區別,都應獲得同等的醫療服務和關注。然而,ChatGPT等智能工具的應用可能在無意中引入或加劇診斷和治療決策的不公平現象。
公平與公正原則在倫理學中有著深遠的歷史和理論基礎。羅爾斯(John Rawls)的正義理論強調“正義即公平”,主張在資源分配中應優先考慮最不利群體的利益,以實現社會的公平正義。應用到醫療智能決策中,意味著應特別關注那些在傳統醫療體系中可能被忽視或歧視的群體,確保他們在使用ChatGPT時不會再次遭受不公。
然而,ChatGPT的訓練數據集可能包含系統性偏見,例如納入某些種族、性別或社會經濟地位的群體的數據不足或不準確,可能會導致ChatGPT在進行醫療決策時產生偏差,影響診斷和治療建議的準確性和公正性。由于城鄉差異、地區發展不均衡以及不同社會群體之間的健康差距,ChatGPT在實際醫療場景中的應用可能產生更多結果偏差。例如,在偏遠或經濟欠發達地區,醫療資源相對匱乏,患者的健康數據往往沒有充分的醫療記錄,而此類地區的患者可能因環境、營養和生活方式差異,表現出與城市居民不同的疾病模式。如果ChatGPT的訓練數據主要來源于經濟發達地區的患者,它在面對偏遠或經濟欠發達地區患者時,可能無法準確識別其特殊的健康需求。
從倫理角度看,數據偏見帶來的決策偏差不僅是技術問題,更是嚴重的倫理問題。功利主義理論強調,通過最大化整體幸福來判斷行為的道德價值。如果ChatGPT的應用導致某些群體在醫療決策中處于劣勢,整體社會幸福并沒有得到最大化,那么這種應用顯然是有問題的。ChatGPT的醫療決策應當致力于促進健康公平(health equity),確保所有人都應有機會獲得其健康潛能,且沒有因社會地位或其他社會決定因素而受到的不公待遇。
因此,ChatGPT在醫療決策中的應用必須慎重考慮公平性和公正性問題。醫療機構和技術開發者需要采取積極措施,例如增加對弱勢群體數據的收集和分析,確保不同社會經濟地位、性別、種族和地區的患者都能公平地受益于智能醫療工具。通過實現健康公平,消除數據偏見和決策偏差,才能真正實現智能醫療技術的倫理目標,建立和維護患者和公眾對智能醫療工具的信任。
3 ChatGPT驅動的醫療智能決策的法律挑戰
與倫理困境更廣泛的道德考量相比,涉及醫療智能決策的法律問題更加迫切。明晰ChatGPT驅動的醫療智能決策的法律風險、主體義務和責任承擔,在應用和實踐中具有直接的指導和約束作用。關鍵在于將ChatGPT明確界定為醫生的輔助工具,而非獨立診斷器械,這一定位將直接影響法律責任的分配。
3. 1 醫療智能決策的法律風險
醫療智能決策涉及諸多法律風險。醫療疏忽可能導致醫生在決策過程中出現錯誤和疏漏,進而對患者的健康產生不良影響,并引發法律糾紛。隱私侵犯的風險涉及患者個人信息的保護與泄露,可能導致法律后果和隱私侵權的法律責任。患者權益保護的風險涉及患者知情權、自主決策權和權益的損害,需要法律的保護和追訴機制的支持。
其一是醫療疏忽的法律風險。由于ChatGPT的算法和數據訓練的限制,其提供的決策結果可能存在錯誤、不完整或不準確的情況,導致醫生在依賴ChatGPT進行決策時可能接受不準確或不合理的建議,可能延誤疾病的診斷、引發不必要的治療或產生其他不良后果,引發患者投訴或提起侵權訴訟。此外,醫生在使用ChatGPT進行醫療決策時,應當確保正確理解、解釋和應用ChatGPT的決策結果,并采取適當的輔助措施進行核實和驗證。如果醫生未能履行這些職責,導致患者受到損害,醫生可能需要承擔法律責任,包括賠償患者的損失或面臨其他法律制裁。
其二是隱私侵犯的法律風險。醫療智能決策需要訪問和處理患者的敏感個人信息,包括病歷、診斷結果和其他健康數據。如果ChatGPT的開發者未能采取適當的安全措施保護這些數據,或由于醫生使用ChatGPT處理患者數據導致患者的個人信息泄露,患者有權要求賠償因個人信息泄露而造成的損失,并對醫療機構和相關責任方提起法律訴訟。此外,根據《中華人民共和國個人信息保護法》,個人信息的收集、使用和披露必須符合法律規定的目的和條件,并需獲得患者的明確同意。如果ChatGPT在處理患者數據時未能遵守相關的隱私保護法律要求,患者可能有權要求隱私侵權行為的賠償,并追究相關責任方的法律責任。
其三是患者權益保護的法律風險。患者知情權與自主決策權是各國醫事立法所保護的基本權益,亦是醫療實踐中的核心價值。患者有權獲得與其健康狀況相關的信息,并有權根據自己的意愿和價值觀作出醫療決策。如果ChatGPT的決策結果未能提供準確、清晰的信息,或者醫生未能充分尊重患者的知情權和自主決策權,可能會侵犯患者的權益,引發法律糾紛。
3. 2 醫療智能決策的法律義務
為了防范化解醫療智能決策過程中的法律風險,需要醫生、醫療機構和ChatGPT的開發者分別承擔其相應的法律義務。醫生需要履行職業責任,妥善使用ChatGPT作為輔助工具,確保其在醫療決策中的正確應用;醫療機構應提供必要的支持和監督,建立安全質量管理體系, 制定醫生診斷過程中使用ChatGPT的規則,確保合規性和監督追責機制;開發者需確保技術準確性和可靠性,特別關注醫療場景的應用需求,保護隱私和遵守法律規范。各方應共同努力,確保醫療智能決策的合法性、安全性和倫理性[11]。
醫生作為醫療決策的主要執行者,承擔著最主要的法律義務。首先,醫生的專業義務和職業責任要求其在醫療決策過程中遵守相關的法律法規和倫理準則。醫生需要保持專業素養,確保決策的準確性、安全性和符合患者的具體情況,以提供最佳的醫療服務。其次,醫生應對ChatGPT生成的決策結果進行評估和審查,確保其符合專業標準和患者的需求。ChatGPT作為輔助工具,其生成的建議需要經過醫生的專業判斷和核實,而不能直接作為獨立的診斷結果使用。醫生需要對這些建議進行全面分析,結合自身的專業知識和對患者具體情況的了解,決定是否采納這些建議。醫生的職責在于確保每一個決策都是基于充分的專業判斷,而非單純依賴于智能工具的輸出。再次,醫生在與ChatGPT的協作中也需要清晰劃分責任,確保醫療決策的責任明確且可追溯。醫生必須明確,ChatGPT的作用僅限于提供輔助建議,最終的決策責任仍然在于醫生自身。無論ChatGPT提供的信息有多么詳盡和準確,醫生都需要對其進行獨立評估,并根據需要進行調整或修正。最后,醫生還應對ChatGPT的使用進行持續監控,保持高度的專業警覺,及時發現和糾正可能存在的錯誤或偏差,確保其在醫療決策中的合法性和有效性。
作為提供醫療服務的實體,醫療機構承擔著監督管理醫生使用ChatGPT的義務。首先,醫療機構有職責建立ChatGPT使用的安全質量管理體系,以確保醫療決策過程的規范性和有效性。醫療機構應制定相關的政策和流程,規定在該機構內應用ChatGPT輔助醫療決策的限度,確保其符合法律法規和倫理要求。其次,醫療機構需要關注與ChatGPT具體使用中的合規性問題,確保ChatGPT的技術合法性和隱私保護的合規性,制定明確的使用標準、操作流程和安全措施,以保護患者的權益和數據隱私。最后,醫療機構還應設立相應的監督與追責機制,確保醫療決策的合法性和安全性。為此,醫療機構應建立有效的內部監管體系,全面監督醫生在使用ChatGPT過程中的行為,包括對ChatGPT輸出結果的監控、對醫生使用該工具的方式和頻率的評估,確保其操作符合最佳實踐和法律規定。
ChatGPT的開發者在醫療決策中的應用場景中也承擔相應的前端法律義務。首先,開發者需要研發專業的醫療智能決策模型,并限制該模型的使用者只能是經過授權和認證的專業醫生,以提供可信賴的醫療決策支持。開發者應對ChatGPT的訓練數據、算法和模型進行嚴格的測試和驗證,確保其生成的決策結果具有高準確性和可靠性,尤其是在診斷、治療建議等關鍵醫療決策中,必須保證其輸出的科學性和有效性。其次,隱私保護和數據安全也是開發者應承擔的法律責任。開發者需要制定和實施嚴格的隱私保護措施,確保患者數據的安全和隱私不受侵犯,包括合理限制數據的收集、使用和存儲,并采取措施防止未經授權的數據訪問和泄露。最后,開發者還需要遵守相關的合規性要求和法律規范。他們應了解并遵守適用的法律法規,包括但不限于醫療法律、隱私法律和知識產權法律,以確保ChatGPT在輔助醫療決策中的應用符合法律規定,并避免侵權行為和違法行為的發生。
3. 3 醫療智能決策的法律責任
《中華人民共和國侵權責任法》將醫療責任劃分為醫療技術損害責任、醫療倫理損害責任和醫療產品責任三種基本類型。其中,前兩種責任主要適用過錯責任的歸責原則,即行為人在實施侵害行為時主觀上的“明知”或“應知”注意義務,卻未盡到特定標準的注意義務,從而導致他人受到損害;而醫療產品責任適用嚴格責任的歸責原則,受害人不需要證明生產者或銷售者有過錯,只需要證明產品存在缺陷,并且該缺陷導致了損害。然而,對于ChatGPT驅動的醫療智能決策而言,可能存在多種復雜因素導致的損害,如醫生的失誤決策、醫療機構的不當管理以及ChatGPT系統自身的設計缺陷等。因此,智能決策中的醫療責任可能涉及以上三種類型中的一種或多種,具體取決于問題的性質和原因。
首先,醫療技術損害責任是指由于醫療技術應用中的過失或失誤,導致患者身體或健康受到損害而產生的責任。如果醫生在使用ChatGPT時,未能正確應用其提供的輔助決策建議,或者未對其建議進行必要的驗證和評估,導致誤診或治療錯誤,屬于醫療技術損害責任。在這種情況下,醫生未能履行應有的專業職責,顯然具有過錯。作為直接的侵權責任人,醫生需要對因其失誤決策或專業疏忽導致的損害承擔主要法律責任。如果有證據證明醫生已經盡到了專業義務,則責任應轉移到醫療機構或開發者。如果醫生在醫療機構的指導下操作,且有證據證明醫生遵循了機構對ChatGPT應用的規范和流程,但仍發生損害,醫療機構需要承擔相應的監督管理責任。患者可以首先向醫療機構求償,醫療機構在賠償患者后,可以根據具體情況向醫生追責。
其次,醫療倫理損害責任是指由于醫療行為違反了醫療倫理準則或道德規范,導致患者的權利受到侵害而產生的責任。如果在使用ChatGPT的過程中,侵犯了患者的知情權、自主決策權或隱私權,導致患者的倫理權利受到損害,則屬于醫療倫理損害責任。例如,如果醫生未能充分告知患者ChatGPT的使用情況或未獲得患者同意,即利用其建議進行醫療決策;或在使用ChatGPT時,未能妥善保護患者的個人隱私信息,導致其信息泄露或被不當使用,這些行為均構成過錯,需要由醫生承擔主要責任。如果醫療機構未能對醫生提供充分的倫理培訓和監督,或者ChatGPT的使用章程具有倫理缺陷,因而導致患者權益受損,醫療機構也需承擔相應的補充責任。患者在遭受倫理損害時,也可以先向醫療機構求償,醫療機構在賠償患者后,根據具體情況向醫生追責,以追求內部責任的合理分配和落實。
最后,醫療產品責任是指由于醫療產品自身的缺陷或質量問題,導致患者身體或健康受到損害而產生的責任。如果ChatGPT作為醫療產品本身存在設計缺陷、算法錯誤或其他技術問題,導致其提供的醫療決策建議有誤,進而對患者造成損害,則屬于醫療產品責任。在這種情況下,開發者或生產者需對產品缺陷承擔相應的法律責任。然而在實踐中,此類損害很難確定因果關系。因果關系的認定是一項法律推理活動,用于分析損害原因與損害結果之間是否存在關聯。一方面,受害人難以根據有關法律規定的“產品存在不合理的危險,危及人身或財產安全”或“產品不符合國家或行業的人體健康和安全標準”證明ChatGPT驅動的醫療智能決策系統具有以上缺陷。此外,目前尚未制定醫療人工智能技術在保障人體健康和安全方面的國家或行業標準,這使受害人無法援引相關標準證明人工智能產品存在缺陷。另一方面,現代醫療智能決策系統的核心技術是深度學習和超級算法。深度學習具有廣泛快速學習的特點,但也存在不受限制的智慧,使得生產者和設計者難以預見和控制錯誤[12]。算法本身是技術黑箱,解釋對研發人員和法律工作者都相當困難,更進一步增加了因果關系認定的難度。更復雜的是,在這種情況下,根據《產品質量法》的嚴格責任歸責原則,可能需要追究醫療智能決策系統的設計者、開發者或生產者在產品制造過程中存在的技術缺陷所導致的損失。然而這些損失也可能是由系統基于大數據轉化和超級算法分析后獨立思考所作出的決策引起的,目前現實中對于該事實的認定并無法形成有效的判斷。
4 良術善治:醫療智能決策的規制策略
當前,尚未有明確的準則來規范ChatGPT在醫療決策中的使用,可能導致不同醫療機構或醫生在ChatGPT使用方面存在差異,難以評估和控制ChatGPT在決策中的準確性和可靠性,同時也給醫生和患者帶來了不確定性。正如貝卡利亞(Cesare Beccaria)所認為的,社會的法律和道德規范應當致力于最大化每個人的安全和自由。因此,要給ChatGPT一顆“良芯(良心)”“行有德之事,做有德之機”,使患者利益最大化[13]。
4. 1 建立倫理準則與指南
4. 1. 1 制定醫療智能決策的倫理準則與倫理委員會的角色
首先需要制定明確的醫療智能決策的倫理準則,明確規定ChatGPT驅動的醫療智能決策倫理要求和限制,確保決策符合道德和法律的要求。準則應涵蓋醫療智能決策的各個方面,包括數據隱私保護、決策過程的透明性、公正性原則等。此外,還應明確規定醫療智能決策涉及的倫理問題,如隱私權、公平分配等,以確保決策過程的合法性和合理性。同時,應設立專門的倫理委員會來監督和評估ChatGPT驅動的醫療智能決策的倫理問題。倫理委員會應由專業人士組成,包括醫生、法律專家、倫理學家、生成式人工智能開發人員等,負責審查和評估決策的倫理合理性。倫理委員會的職能有制定倫理準則、提供倫理咨詢和指導,以及監督決策的合規性。
4. 1. 2 確立患者知情權與自主決策權的保障機制
建立倫理準則與指南時,應重視患者知情權和自主決策權的保障機制。ChatGPT驅動的醫療智能決策應提供明確、透明的信息,使患者能夠了解決策的依據、推理過程和可能的結果,以便作出決策。同時,要確保患者自主決策權的實現,使其能夠在醫療智能決策中表達個人偏好、價值觀和意愿。
為了保障患者知情權和自主決策權,可以建立相關的機制和流程,包括提供信息透明的決策過程、明確患者的參與權和決策權、支持患者的決策。首先,倫理準則和指南應明確要求提供ChatGPT驅動的決策過程中所使用算法的解釋和解釋的可理解性,患者應獲得關于決策的適當解釋,包括決策依據、風險和利益評估,以便他們能夠理解和評估決策的基礎。此外,透明度還包括向患者提供有關決策的可能局限性和不確定性的信息。其次,患者的參與權和決策權應得到充分尊重和支持。ChatGPT驅動的醫療智能決策應將患者置于決策的中心,允許他們參與到決策的制定過程中,通過共享決策模型、提供選項和解釋決策結果的方式實現。患者應有權選擇是否接受決策結果,并在必要時提供他們自己的意見。最后,ChatGPT驅動的醫療智能決策應提供患者所需的信息和資源,包括相關文檔、解釋醫學術語、提供支持性的決策工具或咨詢服務等,以便他們能夠做出明智的決策。醫療專業人員應與患者建立有效的溝通和合作關系,以確保他們能夠充分了解患者的需求和價值觀,并尊重其決策。
通過建立這樣的機制和流程,可以確保醫療智能決策過程中的患者知情權和自主決策權得到保障,有助于建立公正、尊重和人性化的醫療智能決策環境,促進醫患雙方的合作與信任。同時也可以減少患者在決策過程中的不確定性和焦慮感,提高他們對決策結果的滿意度和依從性。
4. 1. 3 強調醫療智能決策的公正性和公平性原則
醫療智能決策的公正性和公平性是確保醫療系統的正義和平等的重要原則。在制定倫理準則與指南時,應特別強調ChatGPT驅動的醫療智能決策需符合公正性和公平性原則,以避免任何形式的偏見和不平等對決策結果的影響。公正性原則要求ChatGPT驅動的醫療智能決策在對待患者時要平等和無歧視,決策應基于患者的具體情況和臨床需求,而不受種族、性別、社會經濟地位或其他因素的影響。準則應規定禁止任何形式的偏見和歧視,確保決策過程和結果對所有患者公正公平。同時,醫療智能決策在資源分配和治療選擇上要公平合理,決策結果應考慮患者的需求、利益和權益,避免資源的不當分配和負面影響。準則可以明確規定醫療智能決策應遵循公平原則,確保決策的公正性和公平性,同時可以建立評估機制和指標,監測醫療智能決策的公正性和公平性。
4. 2 制定醫療決策智能化的法律框架
4. 2. 1 綜合運用醫療法律責任歸責模式
當前,ChatGPT尚未具備獨立自主自由意志的智能程度,ChatGPT驅動的醫療智能決策系統屬于人類研發生產的產品。若醫療機構或醫務人員在使用人工智能過程中由于操作或管理不當導致患者受損害,應由醫療機構承擔過錯責任。如果損害是由醫療智能自身程序瑕疵或設計缺陷引起的,根據產品質量法的規定,設計者和生產者應承擔無過錯的產品瑕疵責任。在司法實踐中,可以傾向于責任的證明分配,將缺陷的存在、缺陷與損害之間的因果關系的證明責任分配給設計者、生產者或醫療機構。
隨著生成式人工智能的高度發展,可能會出現基于超級算法和深度學習技術的深度應用、具有獨立自主意識能力的醫療智能決策系統。然而,這種情況是技術市場化應用的結果,要求醫療智能的生產者、制造者和使用者在享受利益的同時具備風險承擔能力。由于風險的不可預測性,高危責任的適用符合《中華人民共和國民法典》“侵權責任編”中對社會發展和科技進步所作的立法選擇。
4. 2. 2 設定智能醫療強制保險
ChatGPT驅動的醫療智能決策引發的醫療法律責任存在責任主體界定困難、過錯責任原則不適用、因果關系難以查清等現實問題,不僅導致受損害患者無法公平獲得賠償,也抑制了開發者和醫療機構進一步研發和使用先進人工智能技術的積極性。為解決這些問題,可以借鑒美國、英國、德國、日本等有關強制醫療保險制度的經驗,建立智能醫療強制保險制度,確立醫療機構和醫生的強制投保義務,以分散醫療損害賠償的風險,并及時補償受害人的損失。開發者、制造商、所有者(醫療機構)等通過多種方式支付費用,確保醫療智能決策法律責任的支付來源。這樣既能有效保障患者權益,又能使相關主體在承擔風險責任的同時不喪失技術研發和使用的積極性。
設定智能醫療強制保險制度通過確保賠償責任的支付來源來解決醫療智能決策領域中因非人為因素導致的損害負擔問題,為救濟受害人、分散醫療風險和維護社會穩定提供了合適的制度保障。當ChatGPT驅動的治療機器人投入醫學使用時,生產商可以購買保險,無需糾結于侵權責任的歸屬認定,保險公司將填補受害人的損害。
4. 2. 3 構建多元化智能醫療糾紛解決機制
在涉及ChatGPT驅動的智能醫療決策糾紛解決過程中,傳統的司法途徑可能無法滿足效率和專業性的要求。基于此,首先,可以建立專門的智能醫療糾紛解決機構或仲裁機構。這些機構可以由專業的法官、醫療專家和技術專家組成,具備豐富的智能醫療知識和糾紛解決經驗。通過專業的調解、仲裁或調查程序,可以高效、公正地解決智能醫療糾紛,確保受害人得到合理的賠償和救濟。其次,可以利用信息技術手段構建在線糾紛解決平臺,提供便捷的糾紛提交和處理流程,通過在線調解、調查或仲裁等方式解決糾紛。同時,該平臺可以整合醫療記錄、智能醫療算法和相關證據,為糾紛解決提供客觀、準確的依據,提高解決效率和專業性。最后,應鼓勵建立智能醫療糾紛調解機構,通過調解的方式解決糾紛。調解是一種自愿參與的協商方式,可以在保護當事人權益的基礎上,快速解決爭議,減少司法程序的成本和時間。智能醫療糾紛調解機構可以由具備醫療和技術背景的專業調解員組成,能夠促成雙方達成公平合理的協議。
通過構建多元化智能醫療糾紛解決機制,可以更好地應對醫療智能決策領域的法律責任問題。這樣的機制不僅能夠提供高效、專業和公正的糾紛解決服務,保護受害人的權益,促進醫療人工智能技術的發展和應用,還有助于提升醫療機構和開發者的信心,鼓勵他們進一步投入研發和使用ChatGPT驅動的醫療智能決策系統。
4. 3 加強監管機制與數據監督
為了加強對ChatGPT驅動的醫療智能決策的監管和審查,可以考慮設立專門的機構或部門來負責監督和管理醫療智能決策的實施。該機構應具備專業知識和技術能力,能夠評估和審查醫療智能決策系統的準確性、可靠性和安全性。該機構的職責包括制定監管政策和規范,審核和批準醫療智能決策系統的使用,監督醫療機構和開發者的合規性,以及處理投訴和糾紛等事務。監管機構還應積極與科研機構、醫療機構和行業協會等建立合作關系,共同推動醫療智能決策的安全和可靠性。監管機構可以采取定期檢查、抽樣調查、風險評估等手段,對智能醫療產品和服務進行監督。同時,建立舉報渠道和投訴處理機制,鼓勵公眾和患者積極參與監督,及時發現和糾正違規行為。
由于ChatGPT驅動的醫療智能決策所依賴的數據涉及患者的敏感信息,因此必須加強對醫療數據的安全監督。監管機構應制定明確的規范和標準,要求醫療智能決策系統和相關機構采取必要的技術和組織措施,保護患者數據的機密性、完整性和可用性。監管機構還應定期進行數據安全和隱私保護的審查和評估,確保醫療智能決策系統的數據處理和存儲符合相關的法律法規和行業標準。
4. 4 提升決策智能化的實踐能力
為了確保醫生能夠有效應用ChatGPT驅動的醫療智能決策技術,應制定相關的培訓要求,重點在于提高醫生對醫療智能決策的理解和應用能力。培訓課程和培訓資源涵蓋醫療智能決策的基本原理、方法、實際應用場景,同時著重于倫理相關的知識,確保醫生在使用過程中能夠協調好技術優勢與倫理責任。課程應注重實踐性,通過真實案例研究和模擬場景,幫助醫生在面對實際醫療決策時能夠將智能工具與臨床判斷有效結合。
醫療智能決策還需要醫生和技術人員的緊密合作與有效溝通。為此,應加強醫生與技術人員的跨領域合作與溝通能力的培養。在對醫生進行技術培訓的基礎上,技術人員也應了解醫學領域的專業術語和臨床實踐,以便更好地理解醫生的需求和決策背景。此外,還可以組織定期的交流,促進醫生和技術人員之間的交流和互動,幫助研發更加符合患者需求、安全、可持續的醫療智能決策系統,也為醫生的智能決策實踐提供深入的技術理解。
5 結語
ChatGPT作為一種大語言模型,以智能化的語言呈現輔助醫療決策,解決了長期以來由于醫患認知不對稱所導致的患者決策參與困境。通過海量數據分析和處理,為患者定制個性化決策支持,基于患者不同特征和決策效能,為其提供符合認知水平的可理解性決策支持,可在一定程度上確保醫患決策的一致性。然而,由于算法的原生技術缺陷,ChatGPT的應用面臨倫理困境和法律風險,一方面需要建立倫理準則和指南,以明確ChatGPT在醫療決策中的倫理原則和限制條件;另一方面需要建立專門機構進行監管與審查,加強對醫療智能決策數據安全與隱私保護的監督,最大限度地減少潛在的法律風險和濫用行為。此外,還需要制定醫生與技術人員的培訓要求與認證標準,并推動醫療智能決策技術的評估與認證體系,確保醫生和技術人員具備必要的知識和技能,能夠安全、高效地使用ChatGPT驅動的醫療智能決策技術。
〔參考文獻〕
[1]AUNG Y Y, WONG D C, TING D S. The promise of artificial intelligence: a review of the opportunities and challenges of artificial intelli? gence in healthcare[J]. British Medical Bulletin,2021,139(1):4-15.
[2]XIE Y, SETH I, HUNTER-SMITH D J, et al. Aesthetic surgery advice and counseling from artificial intelligence: a rhinoplasty consultation with chatgpt[J]. Aesthetic Plastic Surgery,2023,47(5):1985-1993.
[3]BALAS M, ING E B. Conversational ai models for ophthalmic diagnosis: comparison of chatgpt and the isabel pro differential diagnosis generator[J]. JFO Open Ophthalmology, 2023,1:100005.
[4]GARG R K, URS V L, AGARWAL A A, et al. Exploring the role of chatgpt in patient care(diagnosis and treatment) and medical research:a systematic review[J]. Health Promotion Per? spectives, 2023,13(3):183-191.
[5]LIU S, WRIGHT A P, PATTERSON B L, et al. Assessing the value of chatgpt for clinical deci? sion support optimization[J]. MedRxiv,2023,2:1-18.
[6]HARSKAMP R E, DE CLERCQ L. Perfor? mance of chatgpt as an ai-assisted decision sup? port tool in medicine: a proof-of-concept study for interpreting symptoms and management of common cardiac conditions (amstelheart-2)[J]. Acta Cardiologica, 2024,79(3):1-9.
[7]KUNG T H, CHEATHAM M, MEDENILLA A, et al. Performance of chatgpt on usmle: po? tential for ai-assisted medical education using large language models[J]. PLoS Digital Health,2023,2(2):e0000198.
[8]HUANG Y, GOMAA A, WEISSMANN T,et al. Benchmarking ChatGPT-4 on a radiation oncology in-training exam and Red Journal Gray Zone cases: potentials and challenges for aiassisted medical education and decision making in radiation oncology [J]. Frontiers in Oncology,2023,13:1265024.
[9]PEARCE C, MCLEOD A, RINEHART N, et al. Artificial intelligence and the clinical world: a view from the front line[J]. Medical Journal of Australia, 2019,210:S38-S40.
[10]譚璐,劉小紅.“人-機”醫療模式下的倫理學問題及應對策略[J].中國醫學倫理學,2019,32(9):1127-1131. TAN L, LIU X H. Ethical issues and coping strategies under the “man-machine” medical model[J]. China Medical Ethics, 2019,32(9): 1127-1131.
[11]HACKER P, ENGEL A, MAUER M. Regulat? ing ChatGPT and other large generative AI mod? els[C]. Proceedings of the 2023 ACM Confer? ence on Fairness, Accountability, and Transpar? ency, 2023:1112-1123.
[12]李政權.人工智能時代的法律責任理論審思:以智能機器人為切入點[J].大連理工大學學報(社會科學版),2019,40(5):78-87. LI Z Q. Reflections on the legal liability theory in the era of artificial intelligence-taking intelligent robots as the breakthrough point [J]. Journal of Dalian University of Technology (Social Science Edition), 2019,40(5):78-87.
[13]李倫,孫保學.給人工智能一顆“良芯(良心)”:人工智能倫理研究的四個維度[J].教學與研究,2018(8):72-79. LI L, SUN B X. Give artificial intelligence a“good core (conscience)”: four dimensions of ar? tificial intelligence ethics research [J]. Teaching and Research, 2018(8):72-79.