〔摘要〕醫療人工智能的廣泛應用為傳統診斷和治療帶來了技術突破,也改變了傳統醫患交互行為模式,形成“醫生-醫療人工智能-患者”新型醫患關系,這一關系面臨一系列挑戰:人工智能的介入可能形成新的“家長式作風”,影響共同決策模式;當其建議缺乏解釋時,可能導致臨床決策癱瘓,影響醫患信任關系;人工智能在醫療實踐過程中與醫生的角色和責任可能存在混淆,影響富有情感負責任的醫患關系構建。通過深入分析醫療人工智能對醫患關系的影響及原因,提出應當建立人工智能與專業醫生互補的協作機制,明確人工智能的輔助地位,強化醫生的主導角色,完善監管機制并動態改善醫患關系,以促進智慧醫療的健康有序發展。
〔關鍵詞〕醫療人工智能;醫患關系;信任;共同決策
〔中圖分類號〕R-052 〔文獻標志碼〕A 〔文章編號〕1001-8565(2025)01-0103-06
DOI: 10. 12026/j. issn. 1001-8565. 2025. 01. 15
【基金項目】 首都醫科大學附屬北京地壇醫院院內科研基金“泛知情同意在醫療機構中的應用研究”(DTZK-202403);首都醫科大學醫院管理研究所開放性課題“傳染病數據共享中的風險防范策略研究”(2023YGS09);北京市教育委員會社科計劃一般項目“價值共創視域下‘互聯網+’醫患關系改進對策研究”(SM202010025006)
Exploring the construction path of the new doctor-patient relationships of “doctor-medical artificial intelligence-patient”
ZHANG Ruyi1, ZHOU Yun’ao1, PENG Yingchun2
(1. Office of Ethics Committee, Beijing Ditan Hospital, Capital Medical University, Beijing 100015, China;2. School of Medical Humanities, Capital Medical University, Beijing 100069, China)
Abstract: The widespread application of medical artificial intelligence (AI) has brought technological breakthroughs to traditional diagnosis and treatment and has also altered the traditional doctor-patient interaction mode and formed a new doctor-patient relationship of “doctor-medical AI-patient” which faces a series of challenges. The intervention of AI may form a new “paternalistic style,” affecting the shared decision-making model. When its recommendations lack explanation, it may lead to clinical decision-making paralysis and affect the doctor-patient trust relationships. There may be confusion between the roles and responsibilities of AI and doctors in the process of medical practice, affecting the establishment of an emotionally responsible doctorpatient relationship. Through an in-depth analysis of the impact and causes of medical AI on the doctor-patient relationships, this paper proposed that a collaborative mechanism should be established between AI and professional doctors to complement each other, clarifying the auxiliary status of AI, reinforcing the dominant role of doctors, enhancing the regulatory mechanism, and dynamically improved the doctor-patient relationships to promote the healthy and orderly development of smart healthcare.
Keywords: medical artificial intelligence; doctor-patient relationship; trust; shared decision-making
中國人口老齡化程度不斷加深,居民的醫療需求顯著增加,人工智能正在越來越多地被開發并應用于醫學領域。中國出臺了一系列政策鼓勵和指導其發展。2017年,國務院印發《新一代人工智能發展規劃》,提出推廣應用人工智能治療新模式,探索智能醫院建設;2018年國務院辦公廳發布的《關于促進“互聯網+醫療健康”發展的意見》提出,研發基于人工智能的臨床診療決策支持系統,提高醫療服務效率。2021年,由國家發展改革委等21部門印發實施的《“十四五”公共服務規劃》提出,加強智慧醫院建設,促進人工智能在公共服務領域推廣應用。人工智能是指計算機軟件模擬人類認知過程的方式,被定義為機器的智能[1]。其在醫療行業的應用實現了智能導診、云平臺診療、臨床輔助診斷等,傳統醫療逐步轉變為數字醫療、信息醫療和智慧醫療,傳統的醫患互動方式、信息獲取渠道和醫療決策模式也隨之改變,介于患者和醫生二者之間的雙重關系,由于醫療人工智能的參與,形成了新型的“醫生-醫療人工智能-患者”共同參與的醫患關系。本文旨在分析醫療人工智能對傳統醫患關系的影響,并提出適宜的“三位一體”新型醫患關系建構路徑。

1 醫療人工智能對傳統醫患關系的影響
醫療人工智能是指在醫療領域運用人工智能技術,包括機器學習、深度學習、自然語言處理、計算機視覺技術等。其廣泛應用于藥物研發、醫學影像、輔助診療、健康管理以及疾病預測等方面[2]。傳統的醫患關系基于醫生-患者之間溝通交流,依賴醫生經驗和患者提供的信息進行醫療決策,醫療人工智能的應用提供了諸如智能設備或在線平臺等新的溝通方式、信息獲取渠道,改變了醫療決策模式和資源配置格局,對傳統醫患關系也產生了新影響。
1. 1 “家長式作風”的人工智能對患者自主權的影響
尊重患者的自主性被認為是當代醫療實踐的基本原則之一[3]。既往造成醫患之間不平等地位的重要因素之一是,醫生與患者之間存在信息鴻溝,醫生具有豐富的醫療專業知識,而患者的醫療知識相對匱乏。這在文化程度低或者醫療條件較差的偏遠地區的患者群體中更被放大。人工智能在醫療領域的應用在一定程度上可以通過為患者提供更多的醫療信息,增強患者的權能,減少地域和知識偏差對患者作出決定的限制,為其參與醫療決策提供更多的數據支持。
然而人工智能是依靠收集的患者信息,輸入數據庫檢索,并依據大數據特定的參數給出答案,因為缺乏對社會、心理、生物和精神等層面的了解,尚不能將不同患者的固有價值觀或偏好納入考慮。例如,大多數算法會根據哪種治療能最大限度地延長患者的預期壽命來推薦治療決策,然而,患者可能更喜歡減輕疼痛的治療方式。此外,醫療人工智能給出的推薦是基于海量的基礎數據和算法模型。算法偏差包含人類引起的偏差和數據引起的偏差,由人類引起的偏見受到開發商本身的道德觀念及相關利益的影響,而算法可能會繼承人類的偏見,并隨著數據的積累和迭代,使得偏差被加強和放大。由數據引起的偏差是指訓練不具有代表性而影響算法模型時的偏差,如果該算法是基于西方人的診療數據開發的,那么在診斷亞洲人群時則會不太準確[4]。因此,在智慧醫療中,有偏見的算法可能或低估或高估某些患者的風險,不具有代表性的數據可能導致某些群體邊緣化,鞏固或加劇健康差距,增加弱勢群體的風險。而這種所謂人工智能基于醫療大數據分析,引導患者做出他們認為符合患者最大利益的決策,可能會帶來新的“計算機最了解”的“家長式作風”,進而形成主體為人工智能的新型家長制關系,對患者的自主選擇權造成新的沖擊,削弱患者在醫療實踐中的主體地位[4]。此外,人工智能在智慧醫療應用場景中,“家長式”地大量收集和共享使用患者個人信息和醫療信息,并完善其可訪問的數據庫,這通常是在患者沒有明確同意和許可的情形下完成的。
1. 2 “非責任主體”的人工智能對醫生決策責任的影響
臨床醫生需要為他們作出的醫療決定負責,如果因為其錯誤診斷而對患者造成嚴重損害,臨床醫生可能會面臨醫療事故糾紛,被指控實施了“不負責任”的診療。為了減輕這種風險,醫生應當根據現有的最佳證據作出決定。倘若在智慧醫療場景中,臨床醫生和人工智能之間出現分歧,如果醫生堅持了他最初的建議,而最終的診斷結果卻是錯的,他可能被認為是采取不負責任的行為,因為其疏忽大意或是過于自信而忽略了人工智能提供的證據[4]。然而許多醫療決定是在不完善的條件下作出的,例如由于時間限制,一定程度上阻礙醫生對現有證據的深入評估。而如果醫生聽從了人工智能的建議,但是其建議是基于諸如教條主義或經驗主義等認識缺陷產生的,又或者其算法出現錯誤,導致其給出了錯誤的治療建議,誰應該為此診療決策負責?人工智能給出了錯誤的建議,而最終作出決定的是臨床醫生,醫療責任歸屬是否應當從醫生轉向人工智能?有學者認為,人工智能不具備自由意志和道德主體性,從亞里士多德的“行動必須源于主體,人不可能不知道自己在做什么”來看,人工智能既不符合傳統的自由意志標準,也不知道自己在做什么,因此人工智能不能成為負責任的主體[5]。就目前智慧醫療的實際場景而言,人工智能只是醫生用來診斷和治療疾病的輔助工具,并不具備作為負責人的資格。然而,醫療人工智能的應用涉及諸多利益相關者,包含其開發者、算法設計者以及監管者等,簡單地將醫療責任歸咎于醫生并不公平。決定將人工智能應用于醫療場景的醫療機構是否應當負責?人工智能的制造者是否應當負責?人工智能算法的設計者是否應當負責?責任不清的診療關系對智慧醫療中的醫患關系造成了新的沖擊。
1. 3 “黑箱”般的人工智能對醫患信任關系的影響
正如醫患關系建立在醫患信任基礎之上一樣,醫生和患者也必須與醫療人工智能建立信任關系,才能促使智慧醫療良性發展。信任關系的建立需要依靠信息的可靠性和可解釋性,然而,人工智能在多數情況下被稱為“黑箱”,依靠綜合大數據尋求最佳回應使得人工智能工具并不總是能夠提供可解釋性的、透明度高的信息。而由于人工智能缺乏可解釋性,可能導致“決策癱瘓”現象[6]。當患者面對人工智能提供的大量信息時,往往會因為難以理解復雜的醫學術語,而出現信息過載的問題。缺乏必要性的解釋說明時,患者會對人工智能提供的數據表現為低信任度。智慧醫療中理想的狀態是由醫生承擔患者和人工智能之間的橋梁,由醫生審查和完善人工智能提出的結論和建議,并向患者解釋或回答相關疑問。這需要醫生以正確的方式向患者傳達和解釋人工智能創新,既要證明其附加價值,又要避免技術在患者感知中取代人類醫生的風險。然而,人工智能提供的診斷可能并不能完全反映醫生的評估和想法,例如,國際商業機器公司(International Business Machines,IBM)的人工智能系統Watson for Oncology顯示出的醫療建議,醫生常對其也缺乏理解[6]。如果醫生和人工智能提供的診斷、預后和治療提供不同的意見,或是缺乏理解,這種模棱兩可或分歧的情況會導致患者體驗到不確定性,不知道該遵循何種意見,誰更有權威性或更值得相信。患者在猶豫聽從醫生建議還是選擇人工智能建議之間就可能會造成決策癱瘓或延誤[7]。
因為“黑箱”般的人工智能缺乏結果的可解釋性,可能會導致患者和醫生更加重視人工智能的準確性和有效性。換言之,醫患可能將他們的可信賴關系建立在人工智能工具提供高度確定性而不是高度透明度的理解上,對其決策的有效性產生高度依賴,而忽略人際信任價值的提升。一旦決策的有效性或準確性受到影響,都可能會摧毀智慧醫療中的醫患信任關系。相關報道顯示,IBM的沃森腫瘤系統經常推薦“不安全和不正確的”癌癥治療指南,因為用于訓練沃森算法的數據不是來自真實的患者,而且來自虛擬患者的假設和不充分的數據[5]。治療建議是根據每一類癌癥的少數專家提出的,而不是有關的指引或可靠的證據,這些數據并不代表實際復雜的臨床情況,進而不可避免地影響了人工智能決策的準確性和適用性。患者可能將錯誤決策的原因歸咎于醫生能力有限,缺乏識別人工智能不當決策的能力;醫生將錯誤決策的原因歸結于人工智能大多數時候正確且患者可能表現出對人工智能建議的傾向性,進而導致醫患信任關系受到影響。
1. 4 “程式化的”人工智能對醫患情感關系的影響
相關研究[3]顯示,同理心是以人為本醫療的基礎,同理心要求醫生要理解患者的立場、了解患者的疾病經歷和個人處境,并通過這種認知產生共鳴,感到有動力為患者提供幫助,進而有助于醫生從患者的角度以及患者個體的價值觀和目標來理解疾病。如果不站在患者的角度去理解患者的選擇,醫生難以與其達成共同決策。同理心可以激發同情心,同情心可以使得醫生具有關心、關愛患者的感覺,進而產生改善他人福祉的強烈動機。而人工智能在人際關系和情感體驗的心理表征上,不可避免地與人類存在異質性。即使接受了對自然語言的理解訓練,人工智能也無法以原始形式整合這些信息,無法獲得人類醫生與患者會診時可以使用的復雜而微妙的肢體語言和情感互動能力。對患者而言,如果在體驗智慧醫療中,提供醫療服務釋疑解惑的是人工智能醫生,他可能會產生負面情緒,感覺到自己被遺棄、不被重視。盡管也有相關研究[8]認為,人工智能在醫療領域的推廣可以節省醫生時間,讓醫患之間有足夠的溝通交流時間,以便醫生能夠獲得充分的信息與患者建立更有意義和富有同理心的關系。相關研究[9]顯示,醫療人工智能Watson for Oncology需要40秒來捕獲和分析數據,然后根據可用數據生成治療建議。相比之下,醫生手動收集和分析數據平均需要20分鐘,當腫瘤學家對病例更加熟悉時,時間會減少到12分鐘[9]。然而,目前尚不清楚這些節省下來的時間是否會用于增進醫患之間的情感交流,促進更加信任的醫患關系的建立[2]。出于醫療資源的短缺性和市場經濟的逐利性,特別是在人口老齡化加劇、醫療資源緊缺的情況下,人工智能節省的時間也可能會被用于接診更多的患者,這意味著醫生仍然沒有足夠的時間與患者進行充分且有效的溝通,患者的接診時間縮短可能會導致醫患情感關系的惡化。
2 “醫生-醫療人工智能-患者”三位一體的醫患關系構建路徑探析
2. 1 明確人工智能在智慧醫療活動中的輔助地位
基于前述醫療人工智能對醫患關系的影響,很大程度上取決于其在醫療環境中發揮的作用,其角色究竟是協助醫生還是替代醫生?一項行為學實驗發現,如果人工智能可以進行個性化的對話,參與者遵循人工智能建議的意愿就會增加,這意味著患者可能更喜歡可以進行語言溝通的真實的醫生建議[3]。另一神經學研究顯示,即使是在人工智能使用個性化的對話風格時,研究參與者大腦反應顯示出對醫療人工智能的冷漠,相比之下,真實的醫生更容易引起患者的情感反應[3]。這些研究表明,即使人工智能足夠聰明,但是也難以做到像真實的醫生一樣,感受患者情緒,理解患者期待,與患者產生情感共鳴。
相關學者提出,醫療人工智能只能通過改善溝通方式等渠道在輔助作用中對醫患關系產生積極影響[10]。例如,一項關于精神健康的研究顯示,對邊緣性人格障礙的患者使用AI補充療法可能是有益的,盡管患者知道醫生可以訪問這些信息,但他們仍然更愿意向人工智能醫生披露信息[11]。
由此可見,人工智能應當在醫療中扮演醫生的輔助角色。這需要以正確的方式向患者傳達和解釋人工智能創新,既要證明其附加價值,又要避免技術在患者感知中取代人類醫生的風險。盡管人工智能可以提供一般的健康信息和管理日常任務,但他們目前的能力并沒有擴展到會應對處理復雜的醫療問題。這些疑難雜癥的解答通常需要豐富的醫學知識、批判性的思維和多年的臨床經驗,這是人工智能所不具備的。患者在診療中享有自主選擇權和知情同意權,醫生需要向患者解釋人工智能在醫療咨詢中的作用,求助于這種技術是一種理想策略,用來提供最好的咨詢和治療,而不是人工智能正在做醫生的工作[7]。此外,醫療機構應當嘗試“泛知情”方式提前獲得對醫療數據用于人工智能機器訓練學習的許可。只有這樣,患者才能在充分知情的前提下,與人工智能工具和使用人工智能的醫生在智慧醫療行為中建立信任關系,將人工智能基于大數據算法提供的建議與醫生富有診療經驗的建議進行細致綜合評估,并共同參與醫療決策,將其作為自我健康管理的有力支持。
2. 2 強化醫生在智慧醫療中的主導地位與互動角色
首先,人工智能對醫患關系的影響是一把“雙刃劍”,如何讓人工智能對醫患關系產生正向影響,醫生作為主導者需要承擔更多的責任。法律層面缺乏對人工智能診療行為的規范,導致人工智能在醫療領域的應用尚無統一的標準化質量標準、準入體系、評價體系和保障體系。此外,醫療人工智能的算法主要基于預先存在的醫療實踐經驗,出于藥物本身的潛在風險和不確定性,無論人工智能多么科學,即使隨著其學習能力的提高,基礎知識的不斷豐富,其準確率可能會比醫生更高,但仍不能保證不犯錯。醫生是診斷患者疾病開展診療行為的主體,意味著與醫療人工智能合作開展診療行為的醫生需要承擔主體責任。因此,醫生需要清楚地認識到醫療人工智能在倫理和社會問題方面存在的缺陷,并加強對人工智能建議的甄別和監督。相關學者提出,智慧醫療時代醫生的角色應當更接近于工程師,也就是說要了解大數據和人工智能,并熟練地將其作為工具使用[12]。鑒于醫療人工智能可能會比醫生更容易獲得相關的醫療知識,在認知上可能會超過醫生,這使得醫生需要學習如何與人工智能系統和大型數據集進行互動并一起工作,將人工智能的建議納入日常診療實踐,同時保持批判性的眼光,評估人工智能輸出的信息,從而更有把握地為患者提供診療服務。
其次,醫療專業人員的作用遠比診斷疾病或推薦治療方法要多,當患者因對未知疾病感到焦慮或備受壓力時,醫護人員會為患者提供情感和精神慰藉。這種醫患關系建立在信任、和諧和理解的醫患互動基礎上,不是自動化的,也不能用人工智能聊天機器人來代替。如果人工智能可以幫助醫生更容易地獲取醫療知識,協助醫生進行醫療診斷,那么醫生應當更加注重發展與患者交往互動的綜合能力。例如,如何運用知識并充分解釋說明的能力,如何以富有同理心、同情心的方式最大限度地幫助患者。充分彌補程式化醫療人工智能的情感缺陷,發揮醫生的共情能力,提高溝通效率、提供情緒價值,構建有溫度的醫患關系。
2. 3 動態調適“醫生-醫療人工智能-患者”醫患關系的建構
人工智能醫療中的廣泛應用形成了“醫生-醫療人工智能-患者”共同參與三位一體的新型醫患關系,醫療人工智能的應用同樣需要遵循醫學倫理原則,將患者的利益放在首位,促進新型醫患關系的發展。而醫療人工智能本質是一種技術,在前文人工智能在醫療應用的論述中,已經論述了其對患者自主權、決策問責制、透明可信度的影響,這些問題的處理不僅需要技術進步,也需要醫療機構相關管理部門加大監管力度,以確保負責任地使用人工智能,并改善醫患關系。
當前人工智能本質是通過測量現實世界來獲取數據,從數據中提取算法模型,并進行相關的預測。因此數據和算法是醫療人工智能決策并提供建議的基礎。首先,相關監管部門應當關注數據質量和算法的透明度[8],并且在智慧醫療環境中使用人工智能進行準入審核,以防濫用;其次,還需要加強對算法偏倚的糾偏管理,定期收集醫生決策和人工智能決策的一致性,并反饋給人工智能制造商,及時減輕算法偏差或訓練數據集的不當影響。最后,為維護患者權益,管理部門需要對數據的收集和共享使用執行可靠的安全協議,在患者知情許可的前提下收集信息,采用區塊鏈處理隱私數據,動態加密技術等對數據交換與共享進行協同管理,合乎道德地收集且負責任地使用患者數據。
采取嚴密技術保護措施的同時,醫療人工智能作為新型醫患關系的直接參與者之一,監管部門還需重視其長期廣泛應用對醫患關系的影響情況。如,通過收集醫患共同決策的落實情況、與醫療人工智能的合作情況、醫生在為患者提供診療服務中花費的時間、醫患雙方的接受度和滿意度、醫患雙方的體驗感和獲得感等多個維度,綜合評估并識別哪些情況下人工智能可能對醫患關系產生不良影響,以便及時介入并采取有效措施以動態調適醫患關系。
3 結語
綜上,醫療人工智能對傳統醫患關系產生了廣泛影響,一方面可以為患者提供健康教育和疾病管理支持,促進醫患共同決策實踐;另一方面也可能造成新形式的“家長式作風”,侵犯患者的自主權益。同樣,醫療人工智能可能通過節省時間減輕醫生診療負擔,但尚不清楚節省的時間是否用于促進醫患情感關系的構建。此外,醫患之間的信任關系也受到醫療人工智能的影響,可解釋的人工智能可以支持信任關系,但缺乏解釋性和透明度的決策建議會對信任關系產生負面影響。本研究論述了幾種改善智慧醫療場景中醫患關系的解決辦法,以確保正確地使用和監管可以讓醫療人工智能促進以人為本醫患關系的構建。理想的“醫生-醫療人工智能-患者”共同參與的醫患關系需要人工智能與醫療專業人員進行角色互補,明確人工智能的輔助地位,強化醫生的主導角色,將數字效率優勢、醫學診療經驗及人類情感支持等結合起來,通過加強監管以及時識別這種協作方式中可能存在的沖突及風險,以便采取適當的措施改善醫患關系,促進智慧醫療的健康發展。
〔參考文獻〕
[1]韓倩雯,王有強. 醫療領域人工智能應用現狀、挑戰及如何影響患者對醫生信任的研究[J]. 衛生軟科學,2024,38(2):19-26. HAN Q, WANG Y. Research on the applications challenges and the impact of artificial intelligence in health care on patients’ trust in doctors [J]. Soft Science of Health,2024,38(2):19-26.
[2]丁春艷.醫療領域的人工智能:法律問題與規管挑戰[J].中國醫學倫理學,2020,33(7):887-896. DING C. Artificial intelligence in healthcare: le? gal issues and regulatory challenges [J].Chinese Medical Ethics, 2020,33(7):887-896.
[3]SAUERBREI A, KERASIDOU A, LUCIVERO F, et al. The impact of artificial intelligence on the person-centred, doctor-patient relationship: some problems and solutions[J]. BMC Medical Informat? ics and Decision Making,2023,23(1):73.
[4]GROTE T, BERENS P. On the ethics of algo? rithmic decision-making in healthcare[J]. Journal of Medical Ethics,2020,46(3):205-211.
[5]ZHANG J, ZHANG Z. Ethics and governance of trustworthy medical artificial intelligence[J]. BMC Medical Informatics and Decision Making, 2023,23(1):7.
[6]MCDOUGALL R J. Computer knows best?The need for value-flexibility in medical AI[J]. Journal of medical ethics,2019,45(3):156-160.
[7]TRIBERTI S, DUROSINI I, PRAVETTONI G. A “third wheel” effect in health decision mak? ing involving artificial entities: a psychological perspective[J]. Frontiers in Public Health,2020,8:117.
[8]MABILLARD V, DEMARTINES N, JOLIAT G. How can reasoned transparency enhance cocreation in healthcare and remedy the pitfalls of digi? tization in doctor-patient relationships?[J]. Interna? tional Journal of Health Policy and Management,2022,11(10):1986-1990.
[9]PRINTZ C. Artificial intelligence platform for on? cology could assist in treatment decisions[J]. Cancer,2017,123(6):905.
[10]KARCHES K E. Against the iDoctor: why artifi? cial intelligence should not replace physician judg? ment.[J]. Theoretical Medicine and Bioethics,2018,39(2):91-110.
[11]SZALAI J. The potential use of artificial intelli? gence in the therapy of borderline personality dis? order.[J]. Journal of Evaluation in Clinical Prac? tice,2021,27(3):491-496.
[12]KOLANSKA K, CHABBERT-BUFFET N,DARA? E, et al. Artificial intelligence in medi? cine: a matter of joy or concern?[J]. Journal of Gynecology Obstetrics and Human Reproduc? tion,2021,50(1):101962.