張 榮 徐 飛
眾所周知,算法、數據和算力是人工智能時代的核心驅動力和生產力[1]。隨著硬件性能的提升以及海量數據集的建立,深度學習模型已經在智能醫學實踐中獲得一系列創新成果。在某些領域,醫生的操作權、決策權和選擇權正在逐步被智能醫學工具所取代。相比于CT、MRI等新技術在醫療領域的應用,以智能算法為主導的智能醫學更顯著地呈現出對醫生主體地位替代的新特征。這些新特征在促進醫療領域發展的同時,也在與醫療系統固有屬性的融合過程中產生不同程度的沖突,造成一定的倫理風險。剖析智能算法在智能醫學應用中的新特征,才有可能給出適合智能醫學的倫理規制建議[2]。
智能醫學以黑箱原理和復雜性科學的方法從醫療數據中挖掘最本質的信息并加以解釋,從而指導醫護人員進行后續的相關操作。智能醫學算法能夠自動識別不完善或不準確的信息,為醫生篩選出有用的信息[3]。智能算法是挖掘醫學數據潛在本質信息的重要工具,也是提升診療精度的重要途徑,對診療行為和決策具有不可替代的作用。智能醫學算法可以根據模型和數據集來做決策支持,從而實現對疾病的診斷,并主動給出治療方案。然而,由于模型本身具有自主學習的功能,可主動調整操作參數和決策規則,因此造成了智能醫學算法決策方式與結果的不確定性,這就很難明確某個特定智能診療決策是否合理,其結果是否存在系統故障或算法偏見等。隨著算法復雜度增加,算法間的輸出彼此交互與融合才能獲得決策[4]。由此產生的算法設計和操作與我們對其倫理含義的理解形成了差距,這可能會對醫護、患者以及整個醫療系統造成嚴重影響。因此,算法模型測試通常需要一個長期的、多用戶協同的過程。即便有充足的測試用例,也很難對算法的決策結果給出全面評估。一些算法只有在特定的條件下,決策錯誤或潛在問題才會顯現出來。由于風險的潛在性、模糊性以及不可表征性,在實際應用過程中,很難界定算法潛在的倫理影響與風險,現有的倫理規則與法律法規也不能完全厘清此類問題的風險特征與倫理觀念。與此同時,智能醫學應用過程中對算法的依賴性還大大削弱了醫生的主體地位并由此形成新的潛在風險[5]。
目前,學術界對智能算法決策風險的分析主要集中在討論決策的有效性、透明性、偏見性、安全性等通用領域。對醫療場景下智能醫學的特殊性所引起的新特征、新形式、新風險和新倫理的探討相對不足。本文主要針對由算法決策引起的倫理問題進行分析,通過對算法引發相關倫理問題的梳理,嘗試討論智能醫學模型在診療過程中出現的特征狀況,結合診療決策的主體性分析,探索提出匹配智能醫學的倫理規則和風險規制策略。
眾所周知,算法在計算機科學、數學和日常生活中都有著寬泛的定義。任何程序或決策過程,無論其定義多么模糊,都可以被稱為是一種“算法”[6]。醫院推出智能全程導診系統,其采用的最佳就診流程就是一種相對簡單的“算法”;醫院前臺為咨詢的患者推薦科室、醫生的策略可稱為“算法”;患者在掛號時,會根據自己掌握的醫生信息以及財務情況進行決策,這也可以稱之為“算法”。這些算法可能存在正確或錯誤的結果,但都具備固有的本質屬性。“算法”并不僅僅指一種數學結構,而是指在特定程序、軟件或信息系統中,一個或多個規則的應用和交互。
從數學上看,“算法”是指對求解過程準確而完整的描述,國內外經典的算法有很多,如歐幾里德算法、招差術、割圓術、垛積術、秦九韶算法等[7]。隨著計算機技術發展以及編程語言的普及,算法以指令的形態描述了求解過程的策略機制。一個完整的算法應該具有有窮性(finiteness)、確切性(definiteness)、輸入項(input)、輸出項(output)與可行性(effectiveness)。作為一個數據結構,算法能夠在給定約束下實現確切的目的。特定任務上表現良好的算法,其研究者必須設計和實現特定領域的功能[8]。在醫學信號處理領域,傳統算法包括水平集、統計形狀模型、圖割、小波、泛函等算法,用于描述紋理特征、形狀特征、梯度方向特征、小波分解系數特征、局部特征描述和視覺詞袋等低層次視覺問題[9]。這類算法都是人為設計,有完備的概率、泛函等數理統計支撐,具有可解釋性與自洽性。由于人工設計特征的可區分能力有限,泛化性比較差,且選擇有效特征比較難[10]。為此,人們開始研究特征學習的方法,讓機器自我學習醫學數據內部的本質結構特征,以解決人工設計特征普適性不強的問題,這已經成為智能醫學研究的熱點和趨勢,極大地提高了信號處理的精度與挖掘價值。傳統的處理算法按照規定的指令去處理輸入數據,其結果具有確定性與可預測性。智能算法則是在數據驅動下通過自我學習的不斷迭代來獲取最優結果,其運作機制和數學模型具有 “算法黑箱”的特征。智能算法內部運作機制的不透明,使得人們對這種工作方式的結果深感擔憂[11]。
樂觀的一面是,醫學領域常用的智能算法正在超越醫生的決策能力和診斷精度。智能算法以高速計算機的算力加持,通過高維數據運算進行不同維度的邏輯決策,依靠機器學習不斷產生新的模式和知識,實現非線性問題的有效求解[12]。機器學習使得智能算法獲得某種程度的自主性,這種自主性又在一定程度上呈現出不確定性,進而阻礙算法識別的精度,并導致種種倫理問題的出現。
智能醫學算法是智能算法在醫療領域的應用,覆蓋醫療行業各個環節,如病灶識別、輔助診斷、手術規劃等。隨著智能信號處理發展的成熟,近年來已出現大量智能醫學診斷算法。智能醫學的早期嘗試出現在20世紀70年代。1972年,世界上第一個臨床決策支持系統AAPhelp由英國的利茲大學研制成功,該系統采用樸素貝葉斯算法對患者的癥狀進行分析,最終計算出劇烈腹痛的可能原因[13]。盡管AAPhelp需要幾十小時的運行才能給出診斷結果,但其診斷精度已經超過資深醫生。然而,受限于當時硬件的性能,智能醫學并沒有推廣開來。得益于硬件性能的提升以及海量數據集的建立,以機器學習為代表的智能算法在醫學領域得到飛速發展。深入揭示智能醫學算法的概念體系和技術特征,才可能找到因應其倫理風險的有效路徑。
牛津大學的布倫特·密妥斯泰特(Brent Mittelstadt)博士根據醫療領域中各客體間的關系和概念間的關系,提出了算法模型概念體系的思想[14],他認為,在醫療領域,算法概念主要涉及以下三個層次:(1)將給定的輸入數據轉化為確切的結果輸出,其結果的行為受控;(2)算法以半自主的形式運行,其結果受數據驅動,可能觸發或激勵某種事件/行為的發生;(3)算法的結構復雜且龐大,以自學習或自主的形式參與行為決策。算法概念體系的建立并不是用來解決由算法錯誤運行導致的倫理問題,而是體現以算法運行層次為基礎的組織結構,可用于對倫理決策困境問題進行分析。算法概念體系的三種層次直接或間接地影響著醫療體系的運行,并具有如下特征:
(1) 數據驅動性:對于醫療大數據場景來說,智能算法按照模型的目標函數,對CT、超聲、心電等結構化/非結構化數據進行分析,揭示隱藏的規律與特征,從而為疾病診斷提供決策支持,其本質是通過數據驅動找到疾病形成的規律并加以利用[15]。智能算法不依賴人類的理解與分析能力,而是通過算法的自我訓練、自我學習過程調整參數與權重以最終實現既定目標,其處理過程大致分為數據標注、模型訓練、應用三個階段。以腎臟占位性病變診斷為例,智能診斷算法的處理邏輯是從多模態影像中提取相關的病理參數和特征信息加以定量分析,從而為醫生診斷病情和擬定最佳的治療方案提供有效的決策支持。智能算法的決策能力實際上取決于海量數據的支撐,海量的數據驅動才能挖掘出不同數據間的本質規律與認知范式。
(2) 結果不確定性:和人類智能類似,當智能算法使用統計推理模型或機器學習技術從數據中提出相應結論時,也難免可能出現不確定的結果或認知。當智能算法將過去和當前數據轉化為可執行的洞察力時,實際上是一個極其困難的過程。智能算法通常部署在系統、設備等載體中,輸入數據的質量,載體性能的不足,運行環境的變化等,都可能導致結果的不確定性。此時,醫生的介入分析和判斷依然十分重要。算法并不是萬能的,其對數據的處理存在局限,只有采用相應的輔助措施才能進一步增強智能算法的可靠性。
(3) 過程難以理解性:當輸入數據經智能算法處理后的預期輸出被用作決策依據時,輸出與輸入之間的關系應該是可理解甚至是可重復的,這才符合科學的邏輯。由于智能算法不公開與不透明,智能算法經常被描述成一個難以解析的黑箱。在智能算法中,算法的模型會隨著樣本的增加而自動學習,其相應的權值參數也在自適應調整。智能算法內部機制的高度自動化,一方面使得其智能化水平得到提升,另一方面也造成智能算法過程的可理解性的降低。
(4) 不公平性:雖然智能算法將臨床醫生從繁瑣枯燥的任務中解脫出來,且最大限度地減少了人為疲勞導致的錯誤與偏見,但并不意味著算法決策就更加公平。智能算法由數據驅動,訓練數據來自手工標注。由于算法依賴于數據驅動,而數據集的建立并非中立,這就可能導致失之毫厘差之千里,甚至還可能產生“惡意”。典型的如醫療領域中疾病診斷系統根據患者財務狀況推薦治療方案,利用算法推薦、大數據畫像、精準個性化推薦新技術等,智慧醫療和智慧商業一樣已經不再公平。智能算法的難以理解性、不確定性以及不可靠性使得模型的決策結果模糊性太高,也難以公平驅動系統運行。
(5) 責任難可追溯性:現階段的人工智能,本質上是一種模仿人類認知過程的算法,因而也不可避免地存在缺陷與漏洞。雖然目前智能算法在某些疾病的診斷精度上已超過醫生,但面對智能算法用于疾病治療輔助決策時造成的醫療事故,其問責機制的缺失往往導致決策錯誤的風險變得不可接受。目前,由于缺乏完備的法律法規,由智能算法漏檢與錯檢導致的責任既不能簡單地歸咎于算法技術的開發者,更不能將其歸咎到使用算法技術的醫護工作者。因此,智能算法的決策行為所造成的損害目前還難以得到定位與追溯,也很難確定到底由誰來對造成的損害負責。
得益于頂層設計的大力推動,人工智能新興產業正得到大力發展[16]。隨著大數據、深度學習、區塊鏈等前沿技術的高速發展與創新應用,智慧醫療正呈現出全面性、功能根本性、地位關鍵性與態度開放性的時代特征。醫療領域智能算法的技術特征與人工智能新興產業的時代特征相互疊加與融合,在給醫療行業帶來推動作用的同時,也存在一系列不容忽視的倫理問題。
智能醫學應用過程中對算法的依賴性正大大削弱醫生的主體地位進而形成潛在風險。智能醫學在應用過程中能夠根據采集的信息迅速做出決定,并觸發相應操作,實現某種功能與應用。隨著智能時代的到來,越來越多的智能算法開始被引入醫療領域輔助或代替醫生做出診療的決策。從導診、醫生推薦系統到疾病評估、體檢分析,甚至手術、放療等外科領域都可見到依靠算法進行決策與管理的影子。隨著算法主體性的增強,醫生的主體性自然相應的減弱,甚至逐漸隱退。例如,現在的智能心電設備已經完全取代了曾經的心電圖醫生,機器自動分析心電數據,并給出診斷建議;癌癥的診療指南也正代替醫生對整個治療過程進行管理。
然而,從醫學史上看,醫生從來都是醫學世界的主體,醫生通過豐富的臨床經驗與超常的風險掌控能力而完成對各種疾病的診斷與治療。然而,對算法的依賴使得醫療大數據與智能醫學的應用極易造成醫生無用論的觀點。算法依賴使疾病診療過程高度數據化,公眾也因為對科學的信賴而普遍存在相信數據結果并據此主導診療的理念,醫患矛盾也在醫生主體性的喪失中悄然凸顯。在智能醫學的診療場景中,一切事物皆可被數據化,并將其納入到宏觀的算法模型中,智能醫學模型實時監控個人的狀態數據,并給出診療建議。這不僅反映了人類對基于智能算法的疾病診療的信念,也表達了人類對未來智能診療模式的理解。在治療場景中醫生往往也被智能醫學的算法作為可預測、可控制的客體,醫生必須按指令完成相應信息采集與設備操作,此時的醫生更多已成為智能醫學系統的一個部件而不是獨立思維的主體。目前這類簡單智能醫學診療觀的潛在結果就是,從以“醫生為主體”轉向以“算法為主體”的診療模式,智能醫學對整個醫療運作體制而言不再僅僅是局部輔助的工具屬性,而是逐漸走向核心全面的本體地位。
當前,各大醫院都在大力推進人工智能與醫療健康產業的深度融合,這一具有明顯時代特征的舉措盡管勢在必行,但長遠來看,醫療智能化可能降低醫生的主體地位,剝奪醫生最終決策權的風險也正在浮現。事實上,現有的影像科醫生已經開始采用智能模型完成疾病的篩查[16]。從已經投入的智能醫學系統應用來看,智能算法已經取代了醫生的部分決策權,尤其是在病理統計、影像整理等重復工作方面已經完全可由智能算法進行代替,醫生只需要根據智能提示就可以做出下一步的決策。盡管智慧醫療的初衷是改變醫療過程中主觀性強、重復性高、勞動強度大、效率低下等缺點,提升患者的滿意度,但智能算法性能提升的同時也會增加醫生的依賴性,醫生主體地位的退化最終將淪為技術的附屬品。
醫療資源存在的特殊性、專業性和風險性的特征,使得醫患之間的信息不對稱,因此,醫患矛盾尤其是醫患信任的危機從來都是醫學哲學必須認真面對的難題。隨著智慧醫療模式的提出,在某些角度上為患者提供了便捷咨詢、高效初診服務等好處,一定程度上解決了看病難、看病貴以及誤診的情況。然而實際上,智能算法的結果不確定性與過程難以理解性,加上算法可能存在的利己性與功利主義等,都可能在實際的診療過程中對醫患信任造成新的沖擊,主要表現為:
其一,醫生的權威和知識壟斷地位受到挑戰。以往醫生對醫療專業知識和信息資源占有絕對優勢,醫患之間醫生被賦予高角色期待,也形成了醫生的高權威和高支配地位[17]。智慧醫療的出現使得患者下意識會對基于大數據智能算法給出的診療建議信任程度超過醫生,此時,醫生的任何建議可能都會遭到患者的質疑。隨著人工智能醫療診斷的效率及精確度在多數時候都大幅高于人類醫生,就使得患者更愿意相信機器而不是醫生,此時,對于某些特殊病例,醫生首先要解釋的不是患者應該怎么做,而是醫生為什么更可信。
其二,在醫療領域,隨著人工智能、大數據等智能技術的廣泛運用,就醫環境正在發生深刻變化。智能算法在時刻采集患者的數據,并為患者制定行為規則與治療建議,潛移默化地改變著患者的行為習慣和價值選擇。由于智能算法具有不確定性、不公平性等本質特征,在運行過程中可能會不斷重構公眾所處的環境,引導公眾適應并遵循其所制定的規范和要求,由此形成數據迷信:一方面智能醫療在某些領域的技術強悍,造成了患者對現在的醫生離開儀器還能不能看病多持懷疑態度;另一方面,智能算法的固有屬性也使得算法能投其所好,改變患者的行為方式,進而加劇對醫生的不信任感。
其三,某種意義上說,智能醫學中的智能算法及其決策也可能成為修復醫患信任關系的障礙。在傳統社會中,醫患間信任是基于人際信任建立起來的,是相對比較和諧的信任關系。但隨著智能醫療的深入發展,醫患信任不僅有人際信任,還增加了技術信任。已有研究發現,算法不僅客觀上可能會持有偏見,并且其決策程序可能被視為是不公平的。在社會轉型和醫療體制改革的共同作用下,醫患雙方在認知、態度和行為諸方面都產生了多重矛盾,角色定位偏移,行為模式錯位,醫患信任危機正面臨更大的緩解困難。最為典型的例證就是,患者到醫院之前,往往已經百度了一大堆信息記在腦子里,一旦醫生給出的建議和百度建議不吻合,患者就會產生懷疑,醫生是不是在推銷藥物或過度檢查,而醫生往往也對此類“百度患者”無可奈何。
人工智能可高效開展實際的醫療任務,如給MRI影像貼標簽、書寫病歷、輔助確診等, 但這些操作必須確保所有人都能從中受益,而不是加劇醫療資源分配的不均。智慧醫療(smart health care)是IBM 2009年提出的概念[18],旨在進一步提高醫療資源的優化配置,提升健康服務公平、可及和有效性。然而,搭載智能算法的醫療儀器具有高精度與便利性,其相應的成本也非常高昂,因此智能醫療的高成本往往可能加劇社會不公與資源分配不均。對于基因篩查、腫瘤標記物檢測、智能血氧檢測等高端醫療往往難以全面推廣。雖然某些角度上智慧醫療為患者提供了便捷咨詢、高效初診服務等好處,但從全局范圍來看,智慧醫療甚至還可能加重醫療資源的失衡,讓擁有優質醫療資源的醫院承接更多的醫療負擔,而資源不足的基層醫療機構則更為寂寥。
作為一種技術,智能算法正逐漸演進為一種新的權力形態,成為控制社會“無形的手”,并帶來了隱私泄露、不公平、歧視等風險,同時蘊含著強烈的精英意識和霸權思維。在實踐層面,若放任企業自主發展而不加任何制度規約,智慧醫療或許有可能造成社會分裂,加劇醫療資源的分配不均。
布萊恩·阿瑟[19]在《技術的本質:技術是什么,它是如何進化的》一書中指出:技術的本質是對現有現象有目的的復雜性探索,其結果具有不確定性。正是這種不確定性推動了技術進步與發展。隨著技術的發展,其不確定性特征與醫療場景的確定性追求存在不可調和的沖突,可能誘發預期之外的醫療風險。考察智能算法的潛在風險,首先是智能算法責任的難可追溯性。智能算法受數據驅動,具有數據前置性,其自學習的特征極易造成結果的潛在傾向性與不穩定性。從技術哲學視角看,技術的潛在傾向性主要是因為技術的應用效果與應用領域可能遠遠超出技術發明時的最初設想,其未來應用方向與場景因此而存有某種不確定性[20]。
智慧醫療的目的是建立患者醫學大數據,可以實時準確地進行各種疾病的診斷與治療。醫院是數據采集的主體,而算法模型由設備商提供,二者的分離使得醫療領域技術發展的目標與方向不可控。智能算法的自學習特征突破了傳統算法的固有局限,只要算法針對某個診療任務擁有足夠多的醫療數據,那么最終該算法會產生何種結果并不能被完全預見,因此,這些技術將以何種形態應用到醫學領域,又會造成何種影響也難以預料。
綜上所述,智能算法在醫療領域的應用盡管帶來很多便利,但也極可能使某些診療結果出現新的不確定性,并由此對醫療系統帶來不可預見的負面影響,必須引起高度的重視和研究。
目前,醫療領域的智能算法對疾病診治的應用尚處于起步階段,智能算法對整個醫療體系的影響主要還是以正面形式呈現。為防止技術陷入“科林格里奇困境”(Collingridge dilemma),在醫療領域人工智能發展的初期就應當通過法規或倫理規范來進行有效規制。遺憾的是,現有法律法規與倫理規范尚未系統全面涉及智能醫學的技術范疇。作為一種新興的技術形態,智能醫學技術正處于創新發展的重要階段, 通過同步的倫理治理研究,將智能算法與倫理價值進行有效融合,將有效防止風險的發生,構建符合智能醫學發展規律的倫理框架和行為規范。當前,應著重關注以下四方面的規制。
針對智能醫學應用過程中算法依賴性可能導致的醫生主體地位被削弱的潛在風險,其倫理規制應該是以強化醫生主體地位為根本出發點。
第一, 智能醫學的發展及其在臨床上的應用要尊重醫生的獨立性。當智能算法的輔助結果與醫生的臨床經驗發生沖突時,系統能對當前的檢測結果進行預警監控與指示,并將最終決策權交給醫生進行裁決。智能醫學系統應允許醫生自主依據輔助診斷結果進行修正而不是相反,這樣才能強化醫生的主體地位。
第二, 智能醫學技術的應用要充分尊重醫生的親歷性。主治醫生需要親自經歷診療的全過程,并有最高的權限在適當時機對診療過程進行干預。智能醫學技術開發的倫理規范應當是遵循醫生的親歷性與最終決定權。對于關鍵節點,其最終的決策應該由醫生完成,而非關鍵節點則可適當采用智能算法加以輔助,以提升診療的效率。
智能醫學算法的出現改變了醫患之間的倫理關系。在傳統的醫療模式中,醫生擁有豐富醫學知識和醫療資源,在醫患關系中處于強勢地位。隨著智能技術在臨床上的應用逐漸超越醫生,醫生的主體性正被智能機器削弱和占有,患者對醫生的依賴性和信任度也逐漸減弱,醫患關系的不確定性增加。針對智能醫學應用過程中智能算法導致的醫患之間信任危機增大的風險,其倫理規制應該是以降低醫患的信任危機為主導。
首先,要強化醫患目標共同體意識。智慧醫療模式下,患者由原來對醫生言聽計從轉為對機器決策的無條件服從,此時就需要強化醫患目標共同體的意識。無論是機器還是醫生,其目標都是希望患者早日康復,因此,充分認識醫生的主體地位,在智能醫學的輔助下,醫患之間相互信任,才可能最終共同協作實現疾病的診治。
其次,強化政府職能,加強行業監管。政府在改善醫患信任危機中具有不可替代的重要作用,除了通過政策法規等對相關智能醫療企業和機構加以規制,防止其片面夸大算法的功能與性能等,還應對利用算法營銷的各類違法違規行為予以及時處置,增強醫患的道德修養和醫療企業的責任意識。
智慧醫療旨在進一步提高醫療資源優化配置,在一定程度上可以緩解醫療資源分布不均衡的問題。然而,搭載智能算法的醫療儀器具有高精度與高端化的特色,使得高技術含量的智能醫學技術對公眾越來越難以觸及,反而造成了醫療資源配置不均衡。
要有效解決這一問題,首先,應強化政府主體責任,加大公共醫療資源供給力度。切實提升公平與公正,全面建成體系完整、分工明確、功能互補、密切協作、運行高效的整合型醫療衛生服務體系。
其次,優化醫療服務體系結構,合理配置醫療資源。只有政府合理配置基本醫療資源和高端醫療資源,才能實現普惠醫療與高端醫療的均衡性。同時,政府也應該將智能技術納入社保體系,降低公眾的觸及門檻,保證全民享有時代發展的紅利與智能醫療的服務權利。
現階段的人工智能仍然處于發展的初級階段,針對智能醫學應用過程中智能算法導致的診療結果不確定性增加的風險,其倫理規則就應該以增加診療結果的確定性為目標。
首先,應理性認識技術風險、建立技術監管機制。醫學的本質屬性是以保護和增進人類健康,預防和治療疾病為目標。無論智能算法多么完善,也不可避免地面臨各種技術風險,其技術并不是萬能的。面對智能技術在醫學領域的迅猛發展態勢,應當充分認識到其技術風險,將技術發展和應用納入社會管理系統中加以調控、引導和治理。監管部門應當對新技術的準入環節進行嚴格把關,任何用于臨床的智能算法必須經科學性、倫理合理性審查。在確保技術安全有效的情況下,對可能出現的倫理和風險問題進行相應限定,通過完善的質量保障體系來提升最終診療結果的確定性。
其次,要完善技術研究,健全理論支撐機制。將智能醫學技術應用于醫療領域時要充分關注技術瓶頸,對技術的工具價值保持合理的預期。受制于智能算法的不確定性、不可解釋性的技術特征,當前智能醫學算法在部分專業領域仍然面臨技術障礙。這就決定了在醫療領域智能算法應當具有具體場景的限制,時刻意識其具有強烈的結果不確定性,必須引入醫生主體的隨時在場。
當前智能算法對醫療領域的介入還在不斷加深,并不斷引發新的倫理疑難,而通用倫理框架顯然已無法囊括智能算法所帶來的新問題和新挑戰。如何使智能算法在醫療領域變得更符合社會預期是醫學哲學工作者需要研究的重要問題。只有正視風險與挑戰,通過理論研究、技術進步和倫理規制的協同創新,方可逐步化解智能醫療的應用困境,有效應對各種不確定性風險。