〔摘要〕算法是醫療人工智能優化患者就醫的運行關鍵。隨著醫療人工智能算法的逐步推行應用,其決策在生成樣態上呈現出數據驅動、算法黑箱以及概率范式的主要特征,這些特征推動了人工診療向智能診療的轉變,也同步滋生了相應的“算法”代替醫生決策、“算法利維坦”消解患者基本權利以及醫患信任危機等現實問題。為有效防范醫療人工智能算法決策所產生的倫理風險,應當呼喚回歸主體本位,以醫生為主體,以算法技術為羽翼,強化醫生決策能力,尊重患者基本權利;推進算法優化,規訓技術向善;錨定風險關鍵,加強醫患信任建構。
〔關鍵詞〕醫療人工智能;算法;倫理風險;規制策略;醫患關系
〔中圖分類號〕R-052 〔文獻標志碼〕A 〔文章編號〕1001-8565(2024)09-1080-07
DOI: 10. 12026/j. issn. 1001-8565. 2024. 09. 10
*基金項目:黑龍江省高等教育教學改革項目“‘習近平新時代中國特色社會主義思想概論’課程建設及教學評價研究”(SJGSJ2022020);黑龍江省省屬高等學校基本科研業務費一般項目“中華優秀傳統文化與高校思政教育融合研究”(YWF10236230120)
The ethical risks and regulatory strategies of medical artificial intelligence algorithm decision-making
SONG Guanpeng1, WANG Qifan2
(1. School of Marxism Suihua University, Suihua 152000, China;2. Second Clinical Medical College,Heilongjiang University of Chinese Medicine, Harbin 150040, China)
Abstract: Algorithms are the operational key for medical artificial intelligence (AI) to optimize the patients seeking medical treatment. With the gradual implementation and application of medical AI algorithms, their decision-making presents the main characteristics of the data-driven, algorithmic black box, and probabilistic paradigms in generating patterns. These characteristics have driven the transformation from artificial diagnosis and treatment to intelligent diagnosis and treatment, but have also simultaneously spawned corresponding practical problems such as “algorithms” replacing doctor decision-making, “algorithmic Leviathan” resolving patients’ basic rights, and doctor-patient trust crisis. To effectively prevent ethical risks arising from medical AI algorithm decision-making, it is necessary to call for a return to the subject-centered approach with doctors as the main body and algorithm technology as the wings, strengthen the doctor’s decision-making ability, respect patients’ basic rights, promote algorithm optimization, train technology to improve, anchor risk keys, and strengthen doctor-patient trust construction.
Keywords: medical artificial intelligence; algorithm; ethical risk; regulatory strategy; doctor-patient relationship
《新一代人工智能發展規劃》指出:“人工智能逐漸成為經濟發展的重要引擎。”[1]應當大力發展“智能醫療”。醫療人工智能作為“智能醫療”的基本產物,因其能夠有效提升臨床工作效率與服務質量,在很大程度上能夠緩解不同地區醫療衛生資源分布不均的問題,意味著醫療人工智能已然成為促進醫療衛生領域智能化發展的重要驅動力。
然而,伴隨著醫療人工智能的廣泛應用,其“雙刃劍”屬性逐漸凸顯。盡管人工智能已經成為醫療衛生領域的“技術紅利”,但也極易滋生多方面的潛在隱患。首先,算法作為人工智能的核心要素之一,能夠幫助人工智能完成求解、計算以及推演等過程。值得注意的是,在醫療人工智能應用中,算法正在逐漸削弱甚至替代醫生的決策權與選擇權,呈現出較為自動化的“決策”特征。這一特征與傳統醫療實踐的基本屬性產生沖突,從而滋生倫理風險。
借此,探尋醫療人工智能算法決策倫理風險產生的邏輯理路,對其衍生的倫理風險進行全面剖析,并探討醫療人工智能算法決策的規制策略,這對于規范醫療衛生領域智能化發展等方面具有現實意義。
1 醫療人工智能算法決策的倫理風險“何以可能”
就其概念而言,算法是在一定的預設程序主導下,由計算機自動完成特定功能、解決特定問題的計算指令,本質上是將數據輸入轉化為信息輸出的一種方式。數字時代,算法逐漸被當作是一種智力活動的規則與法則。在人工智能的任何活動中,算法都能以一種特定的“規則”進行輸出。隨著人工智能技術的不斷發展,算法的技術賦權逐漸得到優化,以指令代碼的形態建構了一種求解的工作機制。
算法在醫療衛生領域的應用尤為廣泛。醫療人工智能算法是算法技術在醫療衛生領域的拓展,它可以根據特定的醫療場景,在海量醫療數據中提取出具有共性的要素,針對特定的醫療問題進行反饋,再將所獲取的醫療數據加以匯聚,為未來一些類似的醫療問題提供參考。例如,深度學習、知識圖譜以及神經網絡等算法不僅可以高效地完成疾病診斷、發展預測、藥物研發以及治療手術等活動,還能快速匯聚醫療大數據,進行相應的數據匹配,形成優劣排序的診療方案,從而提升醫療服務水平。由此可見,醫療人工智能能夠發揮相應的功能,是由于內嵌的算法能夠針對特定的醫療問題,按照特定的規則與流程進行篩選和分析。
作為一種數據結構,醫療人工智能采用了相應的架構規程,達到完成診療工作的目的,并以指令的形態構建了一種獨特的“決策”機制。因此,醫療人工智能算法決策的概念隨之呈現。醫療人工智能算法通過深度學習不斷優化自身架構特征,提升技術特征的適配性,進而提升數據處理的科學性,以期實現針對醫療臨床實踐的科學決策。表面上看是醫療人工智能在工作,實際上則是醫療人工智能算法在進行決策。
然而,醫療人工智能算法決策的“算法黑箱”①特征并未完全消除,其內部代碼模型和“決策”機制具有不透明性,本質上的“技術理性”仍然存在。久而久之,醫療人工智能算法呈現出一種“類人性”,在一定程度上正在逐漸取代醫生的決策能力,沖擊疾病診斷的實際精度。“在較高算力的加持下,經由不同類型的數據運算方式,進行不同維度的邏輯決策,以實現對非線性問題的求解。”[2]正因如此,醫療人工智能算法決策表現出一定的“自主性”,會在“技術理性”的加持下產生一種“不確定性”,從而沖擊傳統醫療實踐,醫療人工智能算法決策的倫理風險隨即呈現。
2 醫療人工智能算法決策的核心特征
2. 1 數據驅動的二重性:數據依賴與結果不確定性
數據是算法的基礎,人工智能算法對數據有極強的依賴性。在醫療大數據建構的數字化場景中,醫療人工智能算法按照既定的底層邏輯設置目標函數模型,對超聲、心電以及放射等類型的數據組進行分析,通過自動化的模型分析其內在規律特征,進而借助算法機理進行決策,為疾病診斷治療提供基本依據。其底層邏輯,即算法利用數據驅動探究疾病發展的過程并生成治療策略。
醫療人工智能算法并非以人的理解能力與分析能力為支撐,而是利用算法自我訓練的基本特點,實現調整參數權重的主要目標。這個過程主要分為數據標記、模型訓練以及實際應用三個階段。數據標記是整個過程中的重要基礎。例如,在診斷心臟占位性病變時,醫療人工智能算法決策主要是通過在多模態影像中檢索相關的數據參數與疾病信息進行全面分析,進而生成特定的診療方案。由此可見,這種醫療人工智能算法的決策能力實際上是以“數據”作為重要支撐的,需要借助大量的數據方可分析數據的基本規律。
然而,當醫療人工智能算法從數據中推演得到相應結論時,不可避免地會出現不確定的結果。這是因為醫療人工智能算法將所獲取的數據轉化為具有實踐性的洞察力時,實際上是一個較為困難的過程,受到數據種類、數據質量的影響,呈現出一定程度上的不確定性。因此,醫療人工智能算法在數據處理方面仍然具有一定的局限性,需要借助一定的輔助方式方可提高醫療人工智能算法決策的準確性。
2. 2 算法黑箱的困境:決策過程的不透明性與責任劃分
由于“算法黑箱”的存在,在醫療人工智能算法決策的過程中,數據輸入后的篩選與處理都無法從外部察覺,醫生無法也無需了解算法決策的內在機理,進而形成一個難以解析的黑箱。隨著大量數據的反復訓練,算法學習的模型也會自動優化,其相應的代碼參數也產生相應調整,盡管能夠提升醫療人工智能算法的智能化水平,但是加劇了“數字鴻溝”。
盡管醫療人工智能算法的應用減少了主觀錯誤的發生,但由于“算法黑箱”的存在,算法決策并非完全公平。在數據嵌入缺乏中立的情況下,極易導致決策結果差之毫厘,謬之千里。例如,醫療人工智能算法在推薦治療方案時,不可避免地帶有“算法歧視”,如篩選性別、年齡以及地域等因素,導致對某些患者群體的治療建議產生偏差甚至錯誤。這種現象加劇了不同群體之間的醫療資源分配不均問題,使得某些患者得不到應有的治療,醫療責任難以溯源。由此醫療人工智能的雙刃劍屬性逐漸凸顯,既提升了臨床工作效率,也可能以此誘發新的醫療問題。
現階段的醫療人工智能算法決策是對人類認知過程的模仿,也不可避免地存在相應缺陷。盡管針對一些特定的疾病,醫療人工智能算法的診斷精準程度已經在一定程度上超越了醫生。但在應用醫療人工智能算法輔助醫生決策所造成的醫療事故,其責任歸屬問題會導致決策錯誤的風險無法被患者所接受。
當前,針對醫療人工智能缺乏完備的法律制度保障,醫療人工智能算法決策的風險責任無法全部歸咎于設計者,也無法完全歸咎于作為技術使用者的醫生。正因如此,醫療人工智能算法決策所衍生的責任劃分與歸屬問題仍然難以明晰。
2. 3 范式轉變:從人工診療到智能診療的變革
醫療人工智能算法決策呈現了一種“大數據、小定律”的技術特征,能夠將不同的疾病分解為多個問題子集,再根據不同的情景環境將離散化醫療數據有效匯聚篩選,進而針對子集問題作出相關性反饋[3]。其遵循的是一套標準“條件—結果”內在匹配,而這種基于數據量化分析的統計模型即“概率范式”。在這種范式下,醫療人工智能算法能夠在可視化的數據分析中,精準識別病理癥狀,確定疾病病種以及探究治療的最佳方案。算法設計者將具備一定“描述性”的分散數據定義為“大概率事件”,再由結論證成決策之合理性與科學性。
相比于傳統的醫生治療決策,這種嵌入概率模型的智能診療具有明顯的優勢。首先,它能夠在很大程度上擺脫傳統人工診療時空條件的局限;其次在診療實效性方面具有較高的效度。因此,醫療人工智能算法將這種概率范式融入醫療決策過程中,并通過智能化的工具媒介,建構了“智能醫療”的數字平臺,進而以最高效率提供相關依據并給出最佳診療方案。
例如,在目前流行的數字化醫療中,“5G醫療機器人”能夠運用網絡信號傳輸,經過精準計算后,在異地向醫生發出行為指令,進而完成診斷、治療、解剖、康復等一系列醫療活動。在應對一些臨床難題的過程中,醫療人工智能算法經過高精度的概率統計能夠生成解決方案,實現由傳統診療向智能診療的飛躍式發展。
3 醫療人工智能算法決策的倫理風險
3. 1 決策主體易位:算法決策對醫生角色的重塑
隨著智能醫療的不斷發展,越來越多的醫療人工智能算法決策輔助甚至替代醫生作出了相應的醫療決策。在預約掛號、導診系統、疾病診斷、預后研判甚至是手術放射等方面,都存在依靠醫療人工智能算法決策的現象。在這種背景下,醫療人工智能算法決策的“自主性”不斷增強,醫生的主體地位隨之削弱。
值得注意的是,醫生始終是醫療臨床實踐中的主體。然而,醫療臨床實踐對于醫療人工智能算法的依賴加劇,極易滋生出一種“醫生無用論”的觀點,醫生的主體作用逐漸被質疑,越來越多的患者逐漸傾向于信任“智能算法”,而非醫生的主體性判斷。
醫療衛生領域智能化發展的現實圖景的構建,旨在將人的行為與活動以數據形式呈現并納入醫療人工智能算法之中,并對患者進行實時的監測與反饋。當醫療人工智能的知識存儲、讀取能力遠超于醫生時,其對部分疾病的診斷效率和精確度也大幅高于醫生[4]。在一些治療場景中,醫生也逐漸成為醫療人工智能算法的“附庸”。主要表現為醫生勤于輸入指令與操作設備,惰于精進醫術與探究病情。
正因如此,醫生逐漸成為醫療人工智能算法的特定“附屬者”,而非具有主觀能動性的主體。這種風險的潛在結果就是造成臨床實踐從“醫生為主體”逐漸向“以算法為主體”轉變,進而建構出一種“技術理性”加持的診療模式。這也意味著醫療人工智能算法不再單純只是輔助醫療的“工具”,而是走向核心的全新“主體”。
以往,醫生對醫療專業知識和信息資源占有絕對優勢。醫患之間醫生被賦予高角色期待,也形成了醫生的高權威和高支配地位[5]。其應用醫療人工智能的主要目標是提升診療效率、降低勞動強度以及優化診療科學性等。然而,隨著臨床實踐對于醫療人工智能的依賴加劇,醫生的主體地位開始式微。諸如影像整理、報告分析以及病理統計等工作,完全可以由醫療人工智能算法生成、分析與統計。醫療人工智能取代醫生決策權的倫理風險逐漸凸顯。
3. 2 患者權利失效:“算法利維坦”對患者基本權益的侵蝕
權利問題始終是倫理風險探討的重要范疇。患者在接受醫療服務的過程中,享有自主權、公平權、隱私權等合法權利。然而,在“算法利維坦”①的影響下,人們無法有效應對其衍生的“技術統治”現象,無法實現對技術的有效規制與治理,進而導致患者逐漸失去了其基本權益。醫療人工智能在使用中,可能會因為數據嵌入中的性別、年齡等因素導致不公平現象。例如,不同性別和年齡的患者在醫療服務中可能會面臨算法偏見,從而無法公平地接受醫療服務。公平權利的喪失主要源于醫療人工智能將患者賦予“現實人”與“用戶”的雙重身份,這導致患者的基本權利因為“存在形態”的差異而發生異化,需要付出超越以往的代價加以彌合。
數字時代,醫療大數據在醫療人工智能中占據重要地位,已經逐漸成為 “智能醫療”的戰略性資源[6],醫療人工智能算法通過“持續控制”患者的“用戶”身份,掌握醫療大數據,可能導致患者信息的泄露。由于“數字鴻溝”的存在,社會中存在“數據孤島”現象,知情同意原則尚無法有效保障患者信息數據獲取的合法性。相反,一些代碼化的信息更容易突破時空隔閡,在數字空間被無止境地復制傳播。患者的健康狀況及其附帶的“科研價值”被算法計入,陷入信息脫敏處理困境。與此同時,受到“算法黑箱”的影響,患者在享有醫療資源的知情權方面也面臨新的困境。這是由于醫療數據樣本偏差、算法規則瑕疵以及算法設計者價值偏見等原因,有關種族、基因、地域等因素嵌入到醫療人工智能算法中,進一步加劇了知情權的缺失。在這種背景下,患者的知情權在算法復雜結構的影響下難以實現。醫療人工智能算法作為一種特定的規則,作出決策是依據統計學的相關關系,而非因果關系,其輸出結果難以憑借常理推斷,更難以重現。
現代醫學將“循證”作為一種重要方法,重視醫生的專業技能和診斷依據,臨床決策也應當遵循相應的現象表征及其因果間的內在聯系。然而,受到“算法利維坦”的影響,醫生只能通過觀察臨床數據來驗證醫療人工智能算法的決策結果。這顯然在很大程度上超出了醫生的能力范圍,在“不確定”的情況下,患者無法得到確切信息,從而逐漸喪失權利。
3. 3 醫患信任的新挑戰:表象緩解下的深層危機
構建和諧的醫患關系是醫療衛生領域的重要課題,而傳統醫患關系危機的主要原因在于信息不對稱。隨著醫療人工智能的廣泛應用,智能醫療提供了便捷、高效以及科學診療服務的同時,也拓寬了患者獲取信息的渠道。然而,受到醫療人工智能算法的固定規則影響,算法決策會導致診斷結果存在不確定性,加之“技術理性”的深度嵌入以及功利主義導向裹挾,這都會對醫患關系產生新的沖擊。
在傳統醫患關系中,醫生在知識儲備、臨床操作以及決策建議等方面占據主導地位。然而,隨著醫療人工智能的應用,患者逐漸從“信任醫生”向“信任智能”轉變,導致醫生的決策建議受到患者質疑。同時,隨著醫療人工智能技術的不斷完善,算法決策的精準性與科學性不斷優化,使得患者更容易相信“用數據說話”的醫療人工智能而非醫生。然而,醫療人工智能的決策邏輯很難體察患者微妙與無形的心理變化,被動型的診療過程還可能會導致醫學黃金時代的消解,造成的消極影響難以預見[7]。
在一些特定的情況下,醫生或許并不需要對疾病癥狀與治療方案進行闡述,而需要重點解釋“為什么醫生比醫療人工智能可信”。與此同時,醫療人工智能診療方案的應用雖然提供了便捷和科學的服務,但也在潛移默化地改變著患者的行為習慣與思想認知,帶來了新的挑戰。然而,由于“算法歧視”的存在,醫療人工智能在應用過程中不斷重構患者所處的環境,加劇了患者的“技術主義”傾向。作為“技術主義”的代表性產物,醫療人工智能會誘導患者對醫生脫離技術工具的診斷能力產生懷疑。雖然醫療人工智能算法的“投其所好”增加了患者的接受度與信任度,但同時也加劇了對醫生的不信任。
目前,雖然有觀點認為醫療人工智能可以成為“修復”醫患關系的“工具”,但值得注意的是,醫療人工智能算法決策并不能代替“人際交往”。換言之,醫生與患者之間的交流無法以“人機交互”的方式加以替代。醫療人工智能雖然提高了診療效率和準確性,但也可能導致醫生與患者之間的溝通減少,進而影響醫患關系的質量。盡管醫療人工智能拓寬了醫生的診療工具范疇,但其應用過程中的算法偏見和技術不透明性,可能會加劇患者對醫生的不信任。因此,醫療人工智能可以優化某些診療環節,但并不能徹底解決醫患關系中的深層次矛盾。
4 醫療人工智能算法決策倫理風險的規制策略
4. 1 回歸醫生主體,提升決策效能
從醫學發展史分析,醫生始終都是臨床實踐的主體,能夠憑借自身的豐富經驗與診療能力,完成對各種疾病風險的判斷并給出治療方案。然而,醫療人工智能的介入,在一定程度上動搖了醫生的主體地位。對醫療人工智能算法治理時要明確人在算法治理中處于主體地位[8],始終保持醫生作為決策的主體。
第一,強調醫生主導,重視主體判斷。醫學學科的實踐性特征決定了臨床實踐的主體是醫生。盡管醫療人工智能算法能夠在一定程度上“替代”醫生進行決策,但其本質上是以“工具”的身份在臨床加以應用,仍然無法從本質上取代醫生在臨床實踐中的主體地位。因此,在臨床實踐中醫生仍然要保持“親力親為”,全面參與到診療全過程中。醫療人工智能應作為輔助工具,助力優化診療效果,確保最終決策權由醫生掌握。
第二,減少算法依賴,拓展主體實踐。盡管長期使用醫療人工智能能夠提升醫療服務效率,算法通過機器訓練獲取數據并完善結構,但這可能加劇醫生對其依賴,進而削弱醫生的主體性作用。醫生應在臨床實踐中與醫療人工智能產生交互,獲取支撐性的臨床診斷依據和相關知識技能,與患者進行針對性交流,豐富自身的診療經驗,而不是僅依賴醫療人工智能。
第三,保持全程參與,夯實主體責任。醫療人工智能介入臨床實踐為傳統診療過程增添了新的主體。在多主體環境下,應當通過相應的干預措施,使多方主體參與到共享決策中,增加對患者的人文關懷,實現醫療人工智能算法決策的程序透明。合理預測并及時告知決策結果的可能性,引導患者在醫療人工智能參與下做出合理決策。同時,要關注患者的臨床表現和反饋,建立患者在使用醫療人工智能過程中的心理疏導機制,確保醫生在應用醫療人工智能過程中的責任落實。
4. 2 規訓技術向善,重塑患者權利
在醫療人工智能領域,患者生命健康等相關權利的實現依賴于數據匯集與代碼嵌入。然而,算法技術的應用壁壘以及信息不對稱的鴻溝,致使患者在醫療人工智能算法所“支配”的“算法利維坦”主導下,難以通過主觀行為應對技術風險。因此,有必要從技術方面著手,推動醫療人工智能算法的優化,以應對其帶來的倫理風險,保障患者的基本權益。
第一,強化算法價值導向,保障算法決策始終服務于人。面對醫療人工智能算法決策對于患者基本權利的威脅,在設計與應用過程中堅持以人為本的價值導向,完善醫療人工智能算法的“知識”“邊界”以及“價值基準”等方面,并進一步界定患者的數據自主權、隱私權、知情權以及使用權等權利。通過明確患者的權利范疇,實現算法技術的“馴化”,使醫療人工智能算法具有“道德正義”。
第二,規范倫理治理,優化算法訓練。隨著人工智能的不斷發展,“道德圖靈測試”的出現提出了一種新型的人工智能倫理問題,“道德圖靈測試”通過測試人工智能,試圖將人工智能打造成一個“道德行為者”,具備識別道德基準的同時也能夠指引決策方向,形成一種“類人”的情感關系[9]。基于“道德圖靈測試”,可以發揮醫療人工智能算法的“深度學習”特征,在臨床案例與實際應用中反復訓練,形成“正負向反饋機制”,即醫務人員要對醫療人工智能算法決策進行倫理判斷,再經醫生反饋于醫療人工智能,進而通過技術訓練建構新的智能倫理范式,使醫療人工智能逐漸符合醫學倫理規范。
第三,加強算法科學治理,構筑算法風險防治體系。針對醫療人工智能算法決策的倫理風險,應當構筑完備的治理體系,構建多元協同的算法治理范式,建立行業化、標準化的倫理規范,促進多元主體將法治化的倫理規范應用于算法決策,保障患者的數據安全,并督促算法設計者把好醫療人工智能算法設計的“審核關”。針對醫療人工智能算法風險的監測預警與跟蹤研判,形成必要的風險反饋機制,制定應急預案,重視并加強安全性審查,完善風險反饋機制與應對措施,降低技術風險帶來的倫理影響,確保醫療人工智能算法的安全可靠。
4. 3 倡導醫學倫理理念,構建信任體系
數字時代,醫療人工智能算法決策推動了傳統醫患“主—從”關系逐漸向“醫生—智能—患者”的新關系模式轉變,減少了醫患之間的交流溝通,重塑了醫患之間多層面的責任義務,為醫患關系帶來了新的挑戰。醫生與醫學人工智能共同參與醫療決策過程,會使相關的責任歸屬問題變得尤為復雜[10]。應對醫療人工智能算法決策對醫患關系的沖擊,應當借鑒中華優秀傳統文化中的醫學倫理思想,重拾醫者的仁愛之心和濟世情懷,結合關鍵性表征審視醫患關系,充分體現對患者的尊重,打破醫患間的信任壁壘。
第一,樹立醫患共同體意識,加強思想認同。隨著醫療人工智能算法的應用,患者對醫生的“信任”逐漸轉變為對“算法”的依賴,可能導致醫患關系的疏遠。因此,醫生與患者都應當樹立醫患共同體意識。醫生應強化責任意識,不斷提升對醫療人工智能應用的熟練度,發揮專業特長;患者應提升對醫療人工智能的認知和信任,幫助理解算法決策的內在機理。通過數字媒體平臺加強醫療人工智能應用的宣傳與普及,可以增進醫患之間的溝通和理解。
第二,劃清責任歸屬,規避矛盾沖突。醫療人工智能算法決策的責任歸屬是醫療人工智能治理的重要問題,需完善責任意識以防范算法風險與“救濟”實施。應當設立醫療人工智能算法設計的行業標準,提高醫療人工智能算法的科學性與規范性,在疾病診斷與健康干預過程中,醫療人工智能算法發揮“產品作用”,在經過相關認定后,可以視情況實行無過錯責任原則,將算法責任讓渡于醫生責任。還應明確醫療人工智能算法責任主體,明確算法設計者的責任,無論是算法設計缺陷,或是智能技術局限,甚至是醫療人工智能算法設計者未能有效研判的風險,都要適用“嚴格”法律責任,視后果由算法設計者承擔相應責任。
第三,完善職能部門監管,減少風險隱患。政府在醫患關系改善中擔任“調解者”的角色,具有重要作用。在出臺相關政策法規的同時,也應對醫療人工智能算法的源頭進行監管,規范算法應用。要加強對相關醫療人工智能企業及研究機構的監管,明確算法設計者及開發團隊的倫理義務,避免惡意營銷與違規設計,增強企業的責任意識。還要建立保護患者隱私的制度,細化數據保護范圍,制定醫療隱私安全保護管理規范,構建醫療數據安全保護平臺,設立專門部門與專職人員進行監督,確保數據安全。
5 結語
醫療人工智能算法的應用在提升診療效率和優化醫療服務方面展現了巨大潛力。然而,其在倫理風險方面也提出了新的挑戰,如決策過程的不透明性、算法對醫生角色的影響以及患者權利的侵蝕等。通過強化算法價值導向、規范智能倫理和加強算法治理,可以有效規避這些倫理風險。此外,借鑒中華優秀傳統文化中的醫學倫理思想,重拾醫者仁愛之心,重構醫患信任體系,將為應對醫療人工智能帶來的挑戰提供有力支撐。未來,隨著技術的不斷發展,應進一步深入研究醫療人工智能的倫理風險,并制定更為完善的法律和監管機制,確保醫療人工智能技術能夠真正服務于人類健康,最大化實現其社會價值。
〔參考文獻〕
[1]新一代人工智能發展規劃[M].北京:人民出版社, 2017:3.
[2]LIBBRECHT M W,NOBLE W S. Machine learning applications ingenetics and genomics[J]. Nature Reviews Genetics,2015,16(6):321-332.
[3]郭哲.大數據國際追逃追贓的法治治理[J].當代法學,2023(2):136-147.
[4]周羅晶,邵旸,張瑞,等.智慧醫療場景下人工智能應用倫理問題與治理路徑探討[J].中國醫院,2024,28(2):38-41. ZHOU L J, SHAO Y , ZHANG R, et al. Ethical issues of artificial intelligence applications in smart healthcare scenarios and its governance path[J]. Chinese Hospitals, 2024,28(2):38-41.
[5]張榮,徐飛.智能醫學算法決策的倫理困境及風險規制[J].醫學與哲學,2022,43(8): 10-15. ZHANG R, XU F. Ethical dilemma and risk regulation of algorithmic decision-making in intel‐ ligent medicine[J]. Medicine and Philosophy,2022,43(8):10-15.
[6]胡瑤琳,余東雷,王健.“健康中國”背景下的健康醫療大數據發展[J].社會科學家,2022(3):79-87.
[7]朱晶.復雜性哲學視角下的人工智能醫學[J].哲學分析,2018,9(5):27-37. ZHU J. AI medicine from the perspective of com‐plexity philosophy[J]. Philosophical Analysis,2018, 9(5): 27-37.
[8]徐著雨,岳遠雷.醫療人工智能算法風險防范的法治化思考[J].醫學與哲學,2023,44(11):67-71. XU Z Y, YUE Y L.Reflection on the rule of law for risk prevention of medical artificial intelli‐gence algorithms[J]. Medicine and Philosophy,2023,44(11):67-71.
[9]黃素珍.人工智能的責任困境:以自主能動性和道德圖靈測試為探討中心[J].山東社會科學,2020(4):11-18.
[10]楊軍潔,周程.醫學人工智能的算法黑箱問題:倫理挑戰與化解進路[J].科學通報,2023,68(13):1604-1610. YANG J J, ZHOU C. Algorithmic black-box problem in medical artificial intelligence: ethical challenges and solution approach[J].Chinese Sci‐ence Bulletin, 2023, 68(13): 1604-1610.
①“算法黑箱”指由于技術本身的復雜性以及媒體機構、技術公司的排他性商業政策,算法猶如一個未知的“黑箱”——用戶并不清楚算法的目標和意圖,也無從獲悉算法設計者、實際控制者以及機器生成內容的責任歸屬等信息,更談不上對其進行評判和監督。
①“算法利維坦”指算法在社會治理中的超強統治力和控制力,對個人權利和自由產生深刻影響,類似于霍布斯的《利維坦》一書中描述的國家機器對個人自由的壓制。