999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

智能醫療的倫理困境與治理*
——基于以病人為中心的考察

2022-11-28 10:53:57鄒文卿呂禹含
醫學與哲學 2022年7期
關鍵詞:人工智能智能

鄒文卿 呂禹含

早在古希臘時期,現代醫學之父——希波克拉底就提出了“以病人為中心”的臨床醫學傳統,《希波克拉底誓言》是所有醫者需要遵循的承諾。現代臨床醫學要求尊重并響應病人的個人偏好、需求和價值觀,并在臨床決策中充分堅持“以病人為中心”的基本理念。醫生的道德義務是為病人的最大利益行事,有責任確保和維護病人的權利,同時尊重病人的個人愿望和價值觀。當前,智能醫療取得了顯著進展,對醫學產生革命性影響。一些研究證實,深度神經網絡已經可以幫助解釋醫學掃描、病理切片、皮膚損傷、視網膜圖像、心電圖、內窺鏡檢查、面部和生命體征[1]。同時,人工智能在醫學檢測領域發展迅速,被譽為“21世紀的聽診器”,例如,英國檢測心臟病的人工智能程序準確率為80%,美國檢測血液感染的智能顯微鏡的準確率為95%,日本診斷癌癥生長的內窺鏡系統的準確率為94%[2]。許多研究表明,人工智能系統在疾病診斷或預后方面與臨床專家相當,甚至更好,它們給病人提供更可靠的診斷、及時的干預,并最終提高護理標準。但是也有研究表明,智能醫療給病人安全和人口健康也帶來一定的風險,其中包括大量的診斷錯誤、決策沖突、侵犯權益以及臨床醫生與病人之間溝通不足等問題,人工智能算法在某些情況下可能導致提供不符合病人利益的醫學發展結果[3]。如IBM沃森健康公司的癌癥人工智能算法,它被廣泛應用于癌癥病人的治療。該算法基于少數合成的非真實的病例,許多實際的治療建議被證明是錯誤的[4]。盡管人工智能技術在醫療領域有諸多成效并且前景廣闊,但存在著侵犯病人權益的倫理障礙和難題。如果對這些缺陷不加以重視,智能醫療就會存在造成重大醫療事故和社會問題的風險。

1 智能醫療對“以病人為中心”的臨床傳統的挑戰

1.1 醫學算法黑箱問題

雖然人工智能在醫學領域已經取得不錯的成績,但機器學習系統引起了人們對其不可解釋性的擔憂。系統的有效性受限于其無法以一種可理解的方式來解釋自己的決策,決策建議與內在的因果聯系尚不清楚。這對智能醫療來說是一個潛在的問題。

當人工智能系統不透明時,算法自身的缺陷遮掩了數據處理結果的可預測性,就會引起黑箱問題。這種隱喻的表達方式解釋了為什么人們越來越擔心黑箱性質無法保證算法的可靠性。之前的人工智能將人類思維變成符號操作法,編程人員為每一條代碼賦予能力,并且可以控制系統的設計和行為。相比之下,機器學習在建立和自我完善的過程中并不需要明確的指令即可找到解決方案。有學者對其原理進行了解讀,深度學習網絡由輸入層、輸出層和介于兩者之間的多個隱藏層的序列組成。每一層通過輸入值的加權和結果傳遞給一個激活函數,產生單元的輸出后,將單元的輸出用于后續層中的單元輸入。因此,深度神經網絡本質上是聯合實現高度復雜(非線性)函數的單元集合,該函數將給定的輸入映射到特定的輸出。深度學習網絡通過對數據訓練來學習這種功能映射,隨著數據的積累,網絡通過對之前某一層的特征集進行聚合和重組,自動提取特征,從各種低層特征逐層地移動到更高層次、更抽象的數據表示[5]。

從理論上講,深度學習網絡的運作和行為在其建立過程中是無法預測的,因為它們只取決于培訓過程中的“歷史”或“經驗”。2015年,紐約西奈山醫院的研究人員Joel Dudley將深度學習應用于醫院龐大的病人記錄儀數據庫,由此產生的程序被研究人員命名為Deep Patient。該程序使用大約70萬人的數據進行訓練,并且在沒有任何專家指導的情況下,Deep Patient在預測疾病方面展現出驚人的能力,似乎可以很好地預測肝癌以及精神分裂癥等難以預測的疾病的發生[6]。但是,研究人員也發現了它很難被理解的問題,當人們試圖了解為何這個程序可以做到這些的時候,才發現它沒有提供任何線索。以上只是眾多案例中的一起,黑箱問題在人工智能中已經非常普遍。醫療人工智能可以很好地建立一個模型來達到一定的醫學目的,但人們卻不能理解它的工作原理。

算法黑箱引發的醫學理解和解釋的缺失,會對當代醫療實踐中以病人為中心的臨床傳統造成威脅。如果人們只重視結果的輸出,忽略了數據是以何種方式呈現其中的原理,將導致臨床醫生對病人的關懷潛移默化成對治療效益的追求。當人工智能系統發現這一偏好的轉變,將會偏向于提供更多效益最大化的臨床診斷,進一步漠視病人的價值觀念,最終將引起與以病人為中心的臨床共享信息、共享思考和共享思維的理想目標的沖突[7]。另外,如果臨床醫生和系統決策之間存在分歧,或當醫生無法理解深度學習網絡中隱藏的相關醫療信息時,他也不能以一種使病人能夠合理理解和處理的方式來呈現這些信息,這會增加醫患之間的不信任,甚至激發醫患矛盾。因此,如果我們過度依賴深度學習網絡進行醫療決策,就有可能因為其黑箱本質而失去醫療理解,這與以病人為中心的醫學理想相沖突。因此,醫學變成黑箱醫學越多,我們在現代醫學中保留以病人為中心的醫學理想就越少。

1.2 智能醫療的數據隱私問題

人工智能在醫學領域應用中可能對病人權益造成侵犯的另一個重要的問題是如何確保數據的隱私和安全性。由于人工智能需要從環境中收集和存儲大量數據,在此過程中可能導致病人的個人數據與隱私受到威脅。同時,面部識別或基因組序列等方式成為獲取信息權限的途徑,無疑進一步阻礙了對病人隱私的保護。澳大利亞推出了一款智能醫療系統“我的健康”,公眾廣泛選擇退出記錄保存,表明了人們對數據隱私的擔憂。在新加坡的健康記錄數據庫遭到黑客攻擊,以及私人公司獲取此類個人數據后,人們對新加坡智能醫療的安全問題產生了擔憂[2]。

在實踐應用中,信息隱私雖然受到數據安全措施的保護,以避免數據泄露和防止人們隨意訪問這些信息。但值得注意的是,侵犯個人隱私權更多地發生在數據分享的過程中。例如,在醫療環境下,病人需要向醫生和其他衛生人員提供一些個人信息。但是當病人的私人信息被披露給未經授權的第三方時,就會發生違反隱私保密的問題。尤其是在緊急情況下,專業人員難以實施訪問控制。對于這些緊急情況,一些醫療數據庫允許合格的醫療專業人員以治療為目的訪問病人的醫療信息,即使他們沒有訪問該信息的權限。不僅如此,病人擔心數據會通過醫療保險記錄、藥物數據、基因數據等來源泄露,這些信息可能會被用于醫學研究或者其他商業領域。這種有意或無意的隱私侵犯都會引起人們來自人工智能對個人信息訪問的焦慮,擔心人工智能的治療水平得不到保障,更不愿意將個體的健康完全交付于人工智能。

人工智能在醫學領域的應用還存在另一種隱私侵犯的可能,是對“知情同意”的隱性威脅,影響個人在收集、使用和披露個人健康信息方面做出知情決定的能力[8]。在我們被動簽署“知情同意書”后,并不會被告知個人數據的去向,以及無法得知我們的數據會被用作什么途徑,將會產生怎樣的結果。病人對于這種意向不明的訪問請求通常會有所顧慮,共享數據所帶來的價值會影響一個人分享數據的意愿,甚至會影響數據的有效性。如果我們事先知道數據的屬性,如身份、種族、經濟社會地位等會對他人甚至臨床環境帶來不利的影響,或者會對敏感數據特殊對待,那么病人在數據提供時可能會刻意隱瞞或篡改數據。這種類似于病人的自我保護方式恰恰反映了智能醫療迫在眉睫的安全問題。對于病人而言,解決數據隱私問題不僅需要來自各方強有力的干預,如應用高度安全的數據平臺和政府立法的新模式,還要解決問題背后潛在的公眾擔憂,即隱私數據使用的安全性和自主性。

1.3 算法偏差導致的公平與正義問題

人工智能的偏見與其算法的不透明有著復雜的聯系。對于理解算法的不透明性存在兩種方式:對醫生和病人不透明,但對特定人員透明;或者源于算法設計和編程固有的復雜性,其本質上是不透明的。無論何種透明程度,都共同指向了數據偏見的必然性,它的輸出仍然會通過提出解釋生理狀態的具體方法來影響診斷,從而影響醫療專業人員采取的行動[9]。

醫療人工智能接受了大量數據的訓練,但這不代表人工智能不存在偏見。首先,人工智能系統只針對那些匹配輸入數據的人,但對那些不匹配輸入數據的人表現不佳。如果在某些人群中幾乎沒有遺傳研究的數據,那么設計用于預測遺傳結果的算法就會有偏差,不同區域、種族預測存在著風險的高估和低估的偏差。例如,在患有乳腺癌的女性中,與白人女性相比,黑人女性更容易被錯誤診斷患乳腺癌的風險[10]。其次,系統的不同解釋可能存在不同的目的,因此可能適合不同的利益相關者。有數據證明,機器學習算法可能無法對不同種族、性別、社會經濟地位的病人提供同樣的結果[11]。最值得注意的是,婦女、少數群體和肥胖病人的治療選擇和縱向健康結果一般較差。在醫療資源緊張的情況下,機器可能會保留醫療資源提供給身份地位更高的病人。人工智能可能對某些已經在社會上處于不利地位的人存在偏見,并為他們提供更糟糕的醫療保健。

然而問題是,即便披露了這些風險,但是仍不太可能消除在社會公平分配時的歧視與偏見。相反,人工智能的應用可能會不成比例地影響屬于某些亞人口的人,如少數民族。有研究表明,圖像識別軟件容易對某些少數民族的人產生偏見。例如,與膚色較淺的人相比,檢測深色皮膚的人的皮膚病的算法可能表現更差。這一事實可以歸因于機器學習所使用的數據不夠多樣。

智能醫療潛在的歧視與偏見引發的臨床風險不僅可能對病人造成身體傷害,還有可能影響病人的心理健康,進而造成二次傷害。病人自身成為算法受害者的同時,類似的偏見可能會無意中被納入算法。當系統自主地對病人進行分類,或者通過篩選轉診來優先考慮個人獲得臨床服務的機會,這類系統可能會導致不平等現象長期存在,從而引發重大的道德問題。

1.4 智能醫療導致的病人權益問題

1.4.1 病人權益受到侵害的責任歸屬問題

醫療人工智能設備可以在沒有人為干預的情況下行動,并且依據算法決定行動方案。隨著人工智能被賦予更多的自主性,并且以獨有的個體“意識”參與到人類自身所進行的社會行為中來,人工智能將在醫療決策過程中有更多權力,與此同時,人工智能也將承擔更多的責任。然而,如果算法被證明存在缺陷,并且人工智能提出的醫療建議對病人產生了不良影響,那么責任由誰承擔呢?我們應該怪罪人工智能的錯誤還是醫生的失職呢?

傳統的責任歸屬會帶來很多問題,因為如果人工智能在臨床中應用的程度越來越強,醫生在醫療服務中的地位則越來越弱,那么醫生就不會或不能再為醫療行為和決定負責。對于受到侵害的病人來說,對醫生追責的權重應該更偏向于人工智能的責任。但這同樣引起了爭議,因為責任主體相互獨立,部分原因是他們各自包含的行動概念不同。機器可能更傾向于對疾病的治愈,但這種概念是在道德上和行為上普遍認同的。基于這種道德概念,我們同樣很難認定責任方在于人工智能,因為這些信念、態度和價值觀會影響某些評估范圍,并且人工智能對這些標準的潛在反應為行為提供了客觀理由[12],即行為是理性、客觀、道德的,而錯誤來自于不可抗拒的“意外”。因此,當人工智能參與到責任主體范圍當中,現代醫學技術倫理的責任主體就不再限于醫生個人,而常常是一個群體,倫理責任的可分解性必然使得倫理責任的界限模糊起來[13]。面對著一個日益擴大的責任鴻溝,如果不加以妥善處理,就會對病人的健康、權利以及社會道德框架的一致性和法律責任概念的建立構成威脅。

1.4.2 共享決策與病人自主權問題

共享決策是病人行使自主權的重要前提。在臨床救治和倫理規范中,病人擁有按照個人意愿行事的權利,并且行為主體有權決定接受何種醫療建議。但是,為了使病人的同意有效,它必須被先行告知充分的信息后才能參與到臨床決策中,這意味著病人需要了解醫療程序的相關事實,即共享決策下病人自主權的有效性應該建立在真實信息的充分共享的過程中。因此,醫療信息的披露顯得尤為重要。只有醫生向病人披露有關醫療程序或條件的相關細節,病人才能對其醫療保健作出知情的決定,從而給予有效的同意[14]。

目前,沃森腫瘤學公司根據一個特定的目標對治療方案進行排序,即最大化壽命。驅動沃森排名的價值集不是由接受治療的病人個體決定的。相反,它是通用的,而且本質上是隱蔽的[15]。所以,相關醫療信息難以披露,并且它的參與可能會重新引起以人工智能為主導的家長式的醫療決策模式。

引起人們關注的是,沃森算法是將病人壽命的最大化作為治療決策各項權重中的首要因素。然而,如果病人更青睞于選擇痛苦最小化的治療,沃森算法將很難實現。因此,將人工智能納入醫療決策或許會破壞臨床醫生和病人之間的共享決策,對病人的自主權和尊嚴構成威脅。如果這類算法無法優先考慮病人的自由決策,那么將難以避免醫療人工智能系統在決策中帶來的個體傷害。例如,結果論依據“效益”作為衡量標準,使用者無法自我決定其他結果指標,包括成本效益和生活質量。如果經過診斷,認為一位病人可以不進行治療以現在有疾病的狀態生存8年,假設這位病人可以選擇經治療后痊愈且生存的時間為10年,人工智能和病人會做何選擇?他們的選擇會一樣嗎?病人可以在多個角度思考“完全健康”所需要的付出,例如,高昂的治療費用、痛苦而且漫長的治療過程,以及維持患病現狀和身體完全健康之間的權衡。而人工智能在大多數情況下難以甄別治療原則的優先排序,容易與病人主觀要求產生分歧,更難以界定對于病人而言何為“最佳行動”和“最優結果”。而實際情況將會更加復雜,病人的主觀決策和人工智能道德決策之間還有眾多衡量因素和標準,甚至不同時期的病人衡量標準也有所不同。

人工智能面向數據解析所做的決策沒有充分體現人的自由意志,或者難以周全病人的多維權利。而在具體的醫療決策中,數據通過整合、計算似乎給出了最佳的決策,但其實這種個性化決策帶有“欺騙”的意味,機器不能僅僅通過對一種病的大眾療法和病人的體態數據生成一個治療方案,這樣完全由機器自主的治療決策是對人自由權利的侵犯。數據統治下的決策本質上是算法和數據的互動,漠視了病人這一主體,打破了傳統醫學“以病人為中心”的關鍵原則。

2 堅持“以病人為中心”的倫理治理

規范智能醫療的倫理治理,需要來自多個方面因素的共同推動。它不僅要求人工智能技術的完善和發展,還需要加強與病人、醫生的互動,以及對醫學理念的終極詮釋,才能滿足智能醫療時代下“以病人為中心”的臨床需求。

2.1 增強人工智能的可解釋性

以目前的技術來看,為了確保病人的健康并維護他們的權益,保持對人工智能可解釋性的推進,并實現對人機交互的更好理解是至關重要的。首先,可解釋性的人工智能可將理論描述醫療建議和精準制定醫療決策的期望變成現實。雖然有學者指出,擁有更透明的算法并不能保證更好地解釋、預測和全面證明我們對算法結果的信任[16]。但是它會提供給我們一條明晰的進路,即當人工智能系統無法提供有關風險和副作用信息時,可以由專家來分析、補充和決定。這樣可以幫助決策參與者理解需求,以及對算法可解釋性的探究與部署。在實際應用中,增強人工智能的可解釋性需要針對具體情景來制定算法框架,這可能意味著技術成本的增加,但這是為數不多的可供探索的方案。或者可以針對不同的情景,預設透明的道德算法用以界定決策原則的主次序列。例如,該算法可以定義關鍵倫理原則和價值觀,避免機器在具體案例中不知所措,并且必要時必須犧牲一部分原則來維護關鍵原則[17]70。類似于這種在關鍵問題上設置透明“閘口”來規范算法,從而使用戶理解部分決策的制定原理的方法,在另一個角度為實現人工智能的可解釋性提供了可能。

其次,醫療風險必須要向病人披露,這意味著人工智能的可解釋性直接影響了病人的知情同意或更普遍的義務。同時,可解釋性可以有效檢測不合理的結果,不僅提高了專業人員識別人工智能錯誤的能力,還可以在一個相關的工作流程中改善病人護理。例如,決策曲線的分析,旨在量化使用模型來指導后續行動的凈效益,使他們能夠在實踐中安全且批判性地評價、采用和使用人工智能工具[18],更有效地將可解釋性轉化為醫療安全性。

2.2 建立多樣化數據降低算法偏差

在智能醫學的發展中,解決算法的歧視與偏見不應僅僅被視為是一個技術目標,而應是一個原則性問題。由于人工智能的生態系統結構內部的輸入精度和輸出精度之間存在很強的正相關性,所以數據模型的部署對于算法的影響尤其明顯。合理的模型要求數據在數量上是足夠的,在屬性上是多元化的。通過來自不同區域和社會各界的多方面努力,加之更廣泛的臨床研究來驗證智能醫療應用程序的實施,可以最大化地解除人們對算法偏差的擔憂。算法的設計應該在全球范圍內進行考量,數據的屬性包括但不限于年齡、種族、性別、社會人口階層和區域。為了減少偏差,臨床驗證應該在代表性人群中進行,它預設了系統的普適性,對于特殊數據、個性化案例,需要更加謹慎地進行臨床研究驗證。因為,即使在大型隨機對照試驗中確定了針對特定病人的特定干預措施的有效性,臨床病人也往往與臨床試驗人群不同[19]。特別是為了滿足質量持續改進的實踐要求,需要專業人員遵循機器和人為雙重控制原則,根據不斷變化的需求環境對數據庫進行審核,對模型中的數據盲點予以完善,針對不明確和不合理的數據加以調整,以明確數據在算法中實現的作用。

2.3 定義數據的道德屬性

在臨床中,醫療人工智能系統如何判定一個行為是否符合病人的道德義務?人們總是直觀地認為,人工智能不能像人類一樣思考,就無法比人做出更加人性化的倫理決策。其實不然,雖然人工智能無法模擬人類的意識,但是可以通過學習數據為基礎,以整合信息生成特有的知識和認知機制,來決定如何行動、執行任務和創造新信息[17]39-59。但是,如果只是大量的數據集合的堆積,智能系統未必能制定適合病人的道德決策。所以值得重視的是,在進行算法運算之前,設計者需要給這些數據定義屬性,什么樣的結果是“好”的,什么樣的結果是符合人類道德主體的。類似于羅斯的“顯見義務”,當機器在做道德判斷的時候,如果它的行為符合某一種顯見義務,如忠誠、正義、不傷害別人等屬性,那么它就有可能符合道德要求。在醫療行為中,針對具體的病人與情境,如果沒有其他義務比顯見義務更符合這一情形,那么這就是道德上應該去做的“實際義務”。例如,病人在以現有疾病的狀態下的生存時間仍然大于完全健康的生存時間,那么在病人知情同意條件下,適當治療來減緩病人痛苦與完全治療的兩種方式在道德上是完全正當的,完全治療并不一定完全適用于病人,所以通過適當治療維持病人的生命也是符合“實際義務”的道德決策。智能醫療系統的顯見義務是自明的,但是由于實際義務需要對具體情境加以識別判斷,所以人工智能在行動之前必須了解該行為的所有特性。只有預設數據的道德屬性和行為的合理范圍,智能醫療系統才能給予合乎倫理的決策。

2.4 明確責任界定標準

傳統上,我們要求機器的操作員或者程序設定人員對其操作的后果負責,但現在可以證明,隨著機器行為的種類越來越多,傳統的責任歸屬方式越來越與我們的正義感和社會道德框架不兼容,因為沒有人對機器的行為有足夠的控制能力來承擔責任。這些案例構成了我們所說的責任差距,所以需要對不同案例具體分析來界定責任歸屬。例如,IBM沃森健康公司的許多癌癥治療算法建議被證明是存在缺陷的,從而對病人產生了醫源性風險。但針對沃森這類情況,我們恐怕難以追溯設計者的責任。因為,最初設定的程序功能會在機器學習的過程中逐漸自治。在這一過程當中,機器會擺脫設計者的控制,并逐漸將這種控制轉移到機器本身。而且,對于設計者來說,可糾正的符號和標識在人工神經網絡中消失了,盡量避免風險的發生是他唯一能做的事情,倘若事先知道機器的局限性,他也不應該承擔責任[20]。

假設沃森給出了一個錯誤的治療建議,我們可以就這一問題具體分析。如果自治機器的錯誤表現來自其不可避免的局限性,那么必須定責機器本身。如果由代理人做出了最終的決定,我們還要考慮其他利益相關者的責任,如醫療機構和要求代理人根據自治機器的輔助算法進行醫療決策的技術設計公司,問責就會變得更加復雜。對于在不同程度上造成了醫療失誤的利益各方,他們都將涉及定責,但他們都不承擔全部責任。值得注意的是,集體式的責任概念似乎可以縮小責任差距,但事實上,對于受到傷害的病人來說并不是一件積極的結果,因為它存在潛在的責任互推的風險。因此,應該成立由醫生、病人、智能醫療程序設計者、政府、醫療機構、智能醫療設備開發公司等多主體共同參與的責任界定團體,經共同協商,建立一套詳細的、明晰的責任界定標準。

2.5 建立尊重病人自主權的共享決策模式

醫療決策涉及病人的價值觀和偏好,對一名病人的最佳治療可能不是對另一名病人的最優選擇。因此,對不同需要的病人,給予相同的醫療待遇不能說是一種公正。如果不考慮人們之間的差異,就談不上合乎道德的行動。因為公正的作用,并不建立在無視差別的基礎上,而是建立在根據差別運用一般原則的基礎上[21]。所以醫療決策應該由病人的價值觀決定,復雜的護理情況往往得益于其他專業人員和病人的參與,以實現一種在醫學上合理且符合病人價值觀的共享意識。為特定病人選擇最佳的治療需要病人和醫生的價值判斷,智能醫療應該傾聽病人、尊重病人,需要防止忽略病人的價值觀而將治療方式強加給病人。以病人為中心的現代臨床醫學第一個核心原則應是從業者應該努力將病人視為獨特的、自主的、具有特定的價值觀、偏好和生活目標的人。基于病人的宗教信仰、文化傳統以及多樣化的價值觀,不同的病人對應不同的醫療決策,當選擇涉及相似的風險和利益時,與病人共同決策最為有效。例如,當算法對治療的決策優先級排序存在倫理沖突時,可以由醫生與病人進行有意義的對話,來促進關于病人偏好和可能的治療,以便在人工智能系統忽視倫理價值向度時為病人提供選擇的機會,防止科技活動對待不同社會群體的歧視和偏見。共同決策反映了對病人作為有權干預利益和參與醫療決策的尊重以及個人承諾,臨床中價值靈活的人工智能可以成為促進共享決策和將對病人自主權的尊重嵌入臨床實踐的盟友。

2.6 堅持“以病人為中心”的臨床傳統

現代醫學要求“以病人為中心”,充分考慮到病人的多維情境,維護尊重病人的利益和意見,是在任何科學時代都不應該違反的。相較于工具理性,價值理性在行動之前預設了一個核心價值觀念,所有行動都是圍繞著這一觀念進行,從病人意愿、預后、治療費用等多角度地分析何種方案更適合。工具價值是倫理價值的前提,沒有工具價值就無法帶來智能醫療技術質的飛躍,對效率性、實用性追求是技術發展的需要,也是時代的訴求,二者的統一旨在更好地實現醫療水平的進步。倫理價值是內核,它是醫學人文精神的載體,智能醫療不僅要做到精準治療,同時也要有人文的關懷,二者的合力才是智能醫療發展的關鍵所在。

智能醫療要堅持以病人為中心,首先需要實現其技術價值要求在臨床過程中對于特定病人通過精準的分析預設診療行為,對診療行為、醫療目的以及符合的結果范圍之間進行合理的權衡。在尊重病人自主性的前提下,智能醫療的干預措施伴隨著其可能結果和相關風險性質的不確定性,做出符合病人需求和權利的理性決策存在困難。所以,智能醫療不僅要為病人綜合考慮何種治療方案能更加行之有效地消除疾病,以生命延續作為最大化效益的功利目的追求,還要融合整個行動過程中的情感和精神價值,在治療過程中始終秉承某種價值信念的合理性行為。

3 結論

2022年3月,中共中央辦公廳、國務院辦公廳印發了《關于加強科技倫理治理的意見》,提出要不斷提升科技倫理治理能力,防控高新技術研發活動帶來的倫理風險。智能醫療的最新進展為改善人類醫療保健提供了機會,然而我們也面臨著智能醫療的諸多倫理挑戰,并且在將技術轉化為有效的臨床部署仍然存在不可避免的前沿風險。因此,人們比以往任何時候都更加迫切地需要智能醫療受到約束和改進。正如本文所述,人工智能的技術風險可能會給臨床醫生的正確決策帶來威脅,而潛在的倫理風險侵害了病人的權益。人工智能如何影響醫療質量、滿足醫療要求,對于前瞻、穩健和確定性的臨床部署至關重要。這就要求人工智能加速算法確定性以及可解釋性的技術建設,在全球范圍內建立數據集,以便于評估和消除復雜因素對于不同病人的歧視與偏見,來滿足適應臨床行動和決策的衡量標準。同時為了使智能醫療真正實現以病人為中心的護理,人工智能需要理解道德認知和具備道德義務意識,并且專注于人工智能與病人和臨床醫生之間的關系和互動質量方面,確保病人接受可控人工智能醫療的同時權益也不受侵犯,真正做到“以病人為中心”進行臨床考察。“以病人為中心”的原則是智能醫療時代下的訴求和共同愿景,這一原則下的護理履行了醫護人員將病人利益置于首位并尊重病人個人自主權的義務[7],并且在醫療層面和倫理層面將會為智能醫療帶來更好的價值。

猜你喜歡
人工智能智能
我校新增“人工智能”本科專業
智能制造 反思與期望
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
智能前沿
文苑(2018年23期)2018-12-14 01:06:06
智能前沿
文苑(2018年19期)2018-11-09 01:30:14
智能前沿
文苑(2018年17期)2018-11-09 01:29:26
智能前沿
文苑(2018年21期)2018-11-09 01:22:32
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
智能制造·AI未來
商周刊(2018年18期)2018-09-21 09:14:46
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
主站蜘蛛池模板: 日韩在线播放欧美字幕| 六月婷婷激情综合| 精品人妻AV区| AV无码国产在线看岛国岛| 国产喷水视频| 波多野结衣无码中文字幕在线观看一区二区 | 香蕉网久久| 97se亚洲| 中文字幕亚洲综久久2021| 99热这里只有免费国产精品| 国产屁屁影院| 亚洲大尺度在线| 亚洲一区毛片| 大陆精大陆国产国语精品1024| 综1合AV在线播放| 免费在线不卡视频| 亚洲视频二| 91丨九色丨首页在线播放| 91网红精品在线观看| 熟妇丰满人妻| 亚洲精品国产精品乱码不卞| 四虎成人免费毛片| 国产无码精品在线| 97人人做人人爽香蕉精品| 国产欧美在线观看视频| 成人久久18免费网站| 超级碰免费视频91| 91毛片网| 99re免费视频| 欧美在线中文字幕| 亚洲av日韩av制服丝袜| 国产精品太粉嫩高中在线观看| 国产精彩视频在线观看| 玖玖精品在线| 一级毛片免费的| 五月激情婷婷综合| 香蕉eeww99国产精选播放| 特级毛片免费视频| 亚洲美女AV免费一区| 亚洲va在线∨a天堂va欧美va| 日韩天堂网| 婷五月综合| 伊人网址在线| 久久综合丝袜日本网| 免费看黄片一区二区三区| h视频在线观看网站| 国产成人乱码一区二区三区在线| 国产 日韩 欧美 第二页| 好吊色国产欧美日韩免费观看| 欧美性色综合网| 国产乱人伦精品一区二区| 亚洲第一成年人网站| 久久精品波多野结衣| 国产精品女同一区三区五区| 国产麻豆精品在线观看| 亚洲日韩精品欧美中文字幕 | 国产嫖妓91东北老熟女久久一| 亚洲青涩在线| 韩国福利一区| 亚洲AV一二三区无码AV蜜桃| 99手机在线视频| 免费观看三级毛片| 91破解版在线亚洲| 亚洲成肉网| 国产精品永久久久久| 欧美国产日韩一区二区三区精品影视| 五月天综合网亚洲综合天堂网| 欧美一级高清片欧美国产欧美| 中文字幕亚洲乱码熟女1区2区| 亚洲欧美另类久久久精品播放的| 毛片免费试看| 国产在线观看人成激情视频| 蝌蚪国产精品视频第一页| 婷婷六月综合网| 亚洲天堂啪啪| 国产日产欧美精品| 青青青草国产| 嫩草在线视频| 91视频99| a免费毛片在线播放| 国产色图在线观看| 人人看人人鲁狠狠高清|