
【關鍵詞】 人工智能;全科醫學;英國;醫療服務
◆ 務實的觀點
過去一年,人工智能(artificial intelligence,AI)突飛猛進地發展,人們既興奮又發愁。全科醫生對這種“闖入者”并不特別的陌生,畢竟“谷歌醫生”已經在全科診室存在了20多年。不過醫生可能想知道AI的最新發展將如何影響他們及其病人。
AI的開發者通常是醫學外行人,但他們特別關注AI在醫療保健領域的潛在應用前景。在醫療衛生技術人員日趨缺乏的當下,他們暗示“以AI替換醫生”的愿景似乎并不遙遠。這的確讓人興奮不已,因為AI開發者宣稱他們可以為“無力支付醫療費用的人提供AI的醫療顧問”。政府也在饒有興致地揣摩AI的助攻能力,是不是能通過數據和AI技術,讓政府雇用更少的醫療保健專業人員,并同時給廣大民眾提供更公平的醫療服務?
早在50多年前,英國全科醫生朱利安·哈特(Julian Hart),根據與理查德·多爾(Richard Doll)和阿奇·科克倫(Archie Cochrane)共同完成的流行病學研究,提出了著名的“反向服務定律”——優質醫療和社會服務的可獲得性往往與服務人群的需求成反比。AI的發展很可能進一步地證實這個定律的存在。目前AI的學習材料和過程通常缺乏對社會背景的考量,因此有可能忽視服務不足群體(弱勢群體、少數群體)的需求。
在全科醫生看來,高質量的全科醫學服務顯然很難通過自動化/計算機化來提供。全科醫學服務中的人文主義、溝通互動、倫理道德、公平無偏、社區歸屬、情感連接、同理關懷等,需要真實的人的情商和智能。正如愛因斯坦所說,可以運算的并非都是重要的,重要的事情可能是無法運算的。然而,AI科技行業不太可能完全意識到這一點,他們甚至以AI可以取代醫生服務為業內榮耀(類似于蘿卜快跑替換網約出租)。
我們已經到了一個關鍵時刻,醫療服務專業人員應該帶頭討論AI并提出建議。AI應該是醫學和健康服務的支持手段,而不是相反。AI不是全科醫生的競爭者,而是讓AI更像全科醫生的助手。醫護人員應該告訴AI開發者,好的醫療服務可以而且應該是什么樣子。
AI取決于巨大的算力和龐大的數據。在后疫情時代,我們每天都能感受到COVID-19對健康的影響,特別是這次疫情推動了數字醫療及應用程序的迅速發展。在疫情高峰期推動決策的那些數據驅動方法,已融入到當下的醫療服務中,在許多情況下為人們帶來了便利并改善了醫療服務。不過我們也注意到,這些數字醫療服務也存在設計選擇不當和數據缺口問題,可能會造成或加劇病人使用服務的不平等。
數字和AI技術可以實現諸如越來越準確的風險評分和精準醫療等可能性。但是同時,數字和AI技術也帶來了道德和經濟挑戰。例如,AI在基因組預測和精準醫療方面有潛在用途,這些用途本身并不涉及提供醫療服務,但可能需要新的臨床基礎設施才能實現更多好處。數字和AI可能會產生新的健康狀態的觀察結果,這些觀察可以在不知不覺中進行,病人或居民可能對此知之甚少,甚至一無所知,他們很有限地或根本不能提供知情同意。
我們還看到更多病人生成的數據(例如來自智能手表的數據),這改變了追蹤的方式,也改變了可跟蹤的內容。這改變了病人與機構之間的關系,將大型科技設計的數據產品帶入了診室。我們醫生不一定準備好了使用病人生成的這些數據,管理者也并不總是與病人建立足夠的信任,探討怎樣使用病人生成的數據。
目前,圍繞數字和AI技術的討論大多集中在生成式AI上(generative AI),它可以生成各種各樣的輸出,例如圖像、視頻、音頻或文本。在醫學領域,尤其大語言模型(LLM),如果設計合理和使用得當的話,LLM可能為醫療服務專業人員帶來實際好處。LLM是一種基于文本數據訓練的生成式AI,可以對輸入或提示生成自然語言響應。著名的例子包括Open AI的Chat GPT-4和谷歌的PaLM-E等工具。LLM非常擅長根據提示生成流暢的文本,它們可用于協助標準化任務,例如生成信件或總結現有的醫療記錄。
◆ 謹慎的觀點
然而,數字和AI新技術仍然受制于數據來源、數據質量和基礎設施等方面的“老”問題。而且它們還能制造出具有自身問題的新的“麻煩”數據。特別是LLM,它通常接受大量來自互聯網的文本訓練,雖然LLM輸出的文本可能非常流暢且令人信服,但LLM并不“知曉事理”,如果訓練它的數據有偏見和誤解或失德,那么它制造出來的漂亮文本也會美妙地呈現出錯誤,以及缺乏倫理道德的表達。我們都知道,互聯網上魚龍混雜,良莠不齊,在優質醫學信息傳播的同時,也充斥了大量偽醫學、假醫生、錯誤信息、偏見和誤解,甚至無中生有的編造。通過這些“學習材料”的訓練而生成的“醫學”建議和診斷,我們需要謹慎使用,因為醫療服務環境是高風險的、需要高度信任的、依據嚴謹科學證據的。
在全科醫學診所,病人可能會拿著ChatGPT等工具生成的診斷,來找全科醫生看病。在全科首診的地方,全科醫生可能是最先看到病人用ChatGPT生成醫學報告的第一人。此類工具會正式警告不要用其生成的文本當作醫療建議。不過全科醫生要意識到AI可以生成流暢的文本,但漂亮的文本并非可信和有說服力,警惕它可能包含的潛在偏見或錯誤。
全科醫生給病人提供數字健康素養教育,在與病人交流時,承認AI可以給病人提供的支持,并有即時的參與感,同時要告訴病人保持警惕,讓病人了解源數據的局限性,并理解AI的輸出可取和不可取的地方。雖然AI模型可以針對特定目的進行“微調”,或者在回答問題時指出引用的特定來源,但AI可能以“天然智能”不會(或至少不應該)的方式提供虛假信息,或制造幻覺。
◆ 樂觀的觀點
理想狀態下,從長期的愿景看,AI技術將增強全科醫生的服務。數字和AI技術將支持對病人基本觀察結果和重要數據的整合,并將其與最新的疾病治療證據、實際的實時證據聯系起來。數字和AI技術還將生成處方、提供病人教育信息資源、設計服務路徑,以及安排臨床輔助檢查。這會讓全科醫生有更多時間與病人相處,提供更連續的護理,使醫生與病人之間的互動更加有意義和有效,為看診過程中身體、心理、社會和精神因素的微妙、敏感的相互作用留出空間。此外,至關重要的是,對于那些無法與AI技術互動,或可能需要更密集的真人互動的人來說,醫生將有更多時間和能力為他們提供所需的個性化關注和支持。
要實現這一目標,我們還有很長的路要走。不過,由數字和AI技術支持的更高質量的全科醫學服務是完全有可能實現的。要實現這一目標,顯然需要先邁出第一步。在技術方面,我們已經反復地得到教訓:我們首先要充分了解要解決的問題,而不是把新技術視為靈丹妙藥。AI本身并不解決公平問題。
對于醫療數字和AI技術,可能要從更簡單的問題入手,比如那些不依賴臨床數據的,或者對病人影響不大的文書工作。讓醫護擺脫文書工作,以便讓醫護人員能騰出更多時間與病人溝通互動,還可以讓全科醫生和團隊致力于了解和滿足不同人群的需求和服務。從這個角度看,數字和AI技術是可以助力全科醫學服務的,它能幫助醫護回歸到與更多真實的人(而非與電腦和文書)的關系階段,這對于實現高效的、安全的、可及的全科醫學服務愿景是至關重要的。全科醫學的愿景是公平和公正地分配醫療資源和健康收益,而不是擴大“反向服務定律”。為了實現這一目標,全科醫生要對新技術進行微妙地調整,以糾正數字和AI帶來的潛在偏差。
當AI還不能療愈“垃圾進、垃圾出”的痼疾時,關鍵的還是要清潔、修復和維護高質量的醫學信息。建設良好的數據基礎設施、持續關注數據質量和完整性,對數字無法捕獲的必要內容的采集,都是新信息技術有效支持全科醫學服務的必不可少的基礎,沒有這些,其余的事情就無法實現。
除此之外,還有許多懸而未決的問題和值得關注的領域。只要有適當的資源和醫療服務的正確領導,就可以讓數字和AI發揮真正的潛力,改善醫療服務工作,也改善醫護人員的工作和生活滿意程度。
(摘自:STOKES-LAMPARD H,MACHIRORI M,BENNETT F. AI in general practice:a tale of pragmatism,caution,and optimism[J]. Br J Gen Pract,2024,74(744):295-296. DOI:10.3399/bjgp24X738525.)
(摘譯:楊輝,澳大利亞Monash 大學)