999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能對醫患共享決策的影響機制探究

2024-10-23 00:00:00陳安天盧軍張新慶
中國醫學倫理學 2024年9期
關鍵詞:臨床應用

〔摘要〕隨著大型語言模型日臻成熟,以ChatGPT/GPT-4為代表的生成式人工智能(GenAI)有望深度嵌入臨床決策之中。然而,GenAI的臨床應用同樣存在莫拉維克悖論等隱憂,WHO發布的《衛生領域人工智能的倫理與治理:多模態大模型指南》提出了大模型應用于醫療領域時應遵守的六項原則。GenAI參與臨床決策需要醫患雙方的共同參與。臨床醫生參與到GenAI的研發與推廣應用,把控好技術發展方向。GenAI賦能患者參與決策,貼近醫療實際情況,滿足患者價值選擇偏好。深化GenAI可解釋性、責任分配體系,賦能醫患共享決策,妥善處理GenAI對傳統告知與理解帶來的挑戰,實現臨床效益最大化。

〔關鍵詞〕生成式人工智能;臨床應用;醫患關系;共享決策;倫理挑戰

〔中圖分類號〕R-052 〔文獻標志碼〕A 〔文章編號〕1001-8565(2024)09-1087-06

DOI: 10. 12026/j. issn. 1001-8565. 2024. 09. 11

*基金項目:2023年年度中央高校基本科研業務費專項資金資助課題“醫學院校‘科技哲學’專題研究與課程思政探索”(3332023182)

Exploration of the impact mechanisms of generative artificial intelligence on doctor-patient shared decision-making

CHEN Antian1, LU Jun2, ZHANG Xinqing3

(1 Department of Cardiology, Fuwai Hospital, Chinese Academy of Medical Sciences Peking Union Medical College/National Center for Cardiovascular Diseases, Beijing 100037, China;2 Department of General Surgery, Peking University Third Hospital, Beijing 100191, China;3 School of Marxism/School of Humanities and Social Sciences, Peking Union Medical College, Beijing 100730, China)

Abstract: As large-scale language models become increasingly mature, generative artificial intelligence(GenAI), represented by ChatGPT/GPT-4, is anticipated to be deeply embedded in clinical decision-making. However, the clinical application of GenAI also has potential issues, such as the Moravec paradox. The Ethics and Governance of Artificial Intelligence for Health: Guidance on Large Multi-Modal Models released by the World Health Organization proposed six principles that should be followed when large models are applied in the medical field. The participation of GenAI in clinical decision-making requires the joint engagement of both doctors and patients. Clinical doctors are involved in the research and development, promotion, and application of GenAI, as well as in controlling the direction of technological development. GenAI empowers patients to participate in decision-making, aligning with actual medical scenario and meeting the value selection preferences of patients. Deepen GenAI’s explainability and responsibility allocation system, empower doctor-patient shared decision-making, properly handle the challenges brought by GenAI to traditional information and understanding, and achieve maximum clinical benefits.

Keywords: generative artificial intelligence; clinical application; doctor-patient relationship; shared decision-making; ethical challenge

0 引言

生成式人工智能(generative AI,GenAI)的迅猛發展對醫療領域產生深刻影響,引發了一系列倫理、社會和法律難題 [1]。為此,世界衛生組織(WHO)于2024年1月發布了《衛生領域人工智能的倫理與治理:多模態大模型指南》,旨在為GenAI的醫學應用提供倫理指導與治理思路[2-3]。醫患與GenAI之間可以實現相互賦能,攜手共促醫學Ge‐nAI研發與應用。技術研發者、技術使用者、醫生、患者等利益相關者以不同形式參與到GenAI的設計、研發、使用體驗、評估和反饋之中。此外,GenAI賦能臨床共享決策(shared decision making, SDM),對醫患雙方均提出了新的挑戰與機遇,也呼吁建立醫療領域人工智能的新的倫理治理機制。

1 GenAI在臨床決策中的前景及隱憂

1. 1 臨床前景及內在缺陷

人類目前已經能夠熟練在模式識別、數據分析、結局預測、自動化制造以及自動駕駛等方面應用AI。隨著大型語言模型(large language model,LLM)的出現,以ChatGPT為代表的GenAI帶來了一種全新的對話交互模式并有望在醫學領域得到快速應用,可能會催生“三個世界,三類醫生”的醫學新框架[4]。WHO文件指出,大型多模態模型之所以引人注目,是因為其促進了人機交互,對查詢或數據輸入作出類似人類且看似權威的回應。從常規醫療服務到慢性病管理;從輔助治療方案決策到日常生活保健,AI均有不可估量的發展空間。通常,臨床醫生是在醫學知識和經驗之上,作出在當前條件下最有利于患者的決策。醫學大模型有助于發現醫生診療過程中潛在的誤診可能,降低醫護人員工作壓力,提高就診效率和醫療效果[5]。比如,醫生可將患者癥狀及檢查信息等輸入醫學大模型,將擬診和大模型的診斷結果進行核對和二次分析。通過醫學大模型還可以協助將醫學用語簡單化,將信息以患者能夠理解的方式進行傳遞,實現更有效率和效果的醫患溝通。無論患者所在區域或自身經濟情況如何,GenAI均會提供大致相當的醫療信息和建議。通過醫生和GenAI的雙重診斷、確認及核對流程,能夠提升醫療行為的可靠性,以實現公平性、安全性目標,改善患者就醫體驗和生活質量。

GenAI難以理解人類多元文化和非文字交流,因此其輔助臨床決策應用的前景受限。這就是所謂的莫拉維克悖論(Moravec’s paradox)。它是說:GenAI在處理某些復雜任務時顯示出超越人類的能力,但對人來說簡單的事情文化表達和行為,對AI來說就很難;反之亦然[6]。同樣,人類醫生在文化習得、生活歷練、職業培訓、臨床經驗等因素綜合作用下形成的專業知識、技能與價值觀念,在醫學生乃至就診患者看來,較為容易學習、理解與模仿。雖然GenAI讀取醫療信息的能力強,具備了超越人類能力的潛在優勢;但當前GenAI卻難以勝任上述的人類習慣的學習行為[7]。例如,醫患有效溝通既要求醫生對專業術語的準確表達,又需要非語言的手勢、面部表情配合,這是醫療大模型難以企及的溝通難題。

1. 2 臨床應用潛在風險與倫理指引

高新技術的臨床應用需要遵守相應的技術標準或操作規范[8],目前的GenAI仍處在發展初期,存在缺乏深入理解能力、上下文記憶欠佳、輸出內容不可重復且不可預測、難以驗證決策過程、偏見等方面的問題[9]。GenAI在某些問題上的深入理解和邏輯推理能力仍顯不足,難以跨領域學習和應用知識,多任務之間的切換尚不流暢,難以適應多變的任務環境[10]。此外,輸出信息依賴于用戶輸入的提示詞(prompt),難以充分理解并適應具體場景,無法像人類一樣作出人性化決策 [11]。此外,GenAI的透明度和可解釋性有待提高,從而導致臨床決策的不確定性[12],由此誘發因AI輔助診療錯誤而產生的責任分配不清的難題[13]。同時,科技公司對Ge‐nAI工具的附加的管理或法規限制,仍會被他人成功地規避限制,或者通過引導使AI工具作出不合理、不合法的回應。

雖然當下以GenAI為基礎的醫學大模型具有作為共享決策的輔助工具的潛力,但仍無法單獨承擔行為主體(agent)的角色。在臨床共享決策中,一個合格的獨立行為主體需要具備專業知識技能、足夠準確的判斷能力、相當的溝通能力以及同理心。目前的GenAI無法滿足這些要求,還需要充分發揮醫患雙方在臨床決策過程中的主觀能動性。

因此,在GenAI的設計、研發和臨床應用中,不僅需要從政策法規方面的強化監管,還需要加強道德規范的制定和倫理分析研判。《衛生領域人工智能的倫理與治理:多模態大模型指南》指出,醫療領域的AI應遵守以下六項原則:保護人類的自主性,增進人類福祉、安全和公共利益,確保透明性、可以解釋和可以理解,培養責任感和實行問責制,確保包容性和公平,推廣反應迅速且可持續性的AI。

上述六個倫理原則之間關系密切。具體而言,保護人類的自主性是指,本著確保患者在醫療決策中的主體地位的理念,GenAI系統應該協助而非代替醫患作出理性、知情的決策,增進患者群體的健康福祉、保護生命安全,保障其他的社會公共利益。基于GenAI的醫療決策應盡可能保證透明性,可以較好地解釋決策過程,便于醫患雙方的充分理解,增強醫患相互信任,為醫患雙方的信息共享和臨床決策參與奠定基礎。在GenAI輔助醫療決策過程中,臨床醫生要對臨床決策和行為擔負責任,要對患者安危和最佳利益負責,堅守醫療安全底線。醫療決策必須是包容的,所有條件適合的人均應有公平地參與和享用機會,并在具體使用中要做到平等對待,不得有歧視性態度和行為。GenAI研發和應用要有響應性,根據變化的醫療需求來自我調整和更新;同時,GenAI還必須是可持續的,立足當下,展望未來,不斷滿足日益增長的多元化的醫療需求。

2 醫患攜手推進GenAI技術革新與臨床應用

2. 1 臨床醫生參與研發的角色定位與影響

目前,許多臨床醫生對AI工具都有所了解,也希望應用到臨床實踐,但也存在焦慮,擔心自己的工作崗位被AI所取代,或者所學專業知識技能很快會落后于時代發展。這種擔憂或恐慌是可以理解的,但無須過度焦慮,在AI時代,臨床醫生仍然擁有廣闊的職業發展空間和機遇。

正如WHO文件所指出的那樣,考慮到GenAI顛覆核心社會服務和經濟部門的潛力,許多大型科技企業、初創企業和政府都在投資并競相引導其發展。當下的大模型多為大型科技企業所研發,應用到專業壁壘森嚴的臨床醫學領域難免會引發不可預知的系統性風險。例如,雖說GenAI的智能化程度高,能夠快速理解用戶的需求并給出答案,但也會給出錯誤答案[14]。可以說,大模型本身的能力越強,它的安全隱患也就越大。大模型能力的增強,雖然帶來了更強大的功能和更廣泛的應用前景,但也伴隨著潛在安全隱患的增加。能力越強的大模型在受到攻擊、處理敏感數據或作出重要決策時,其錯誤可能帶來更嚴重的后果。WHO文件中列舉的診療風險包括:回答不準確、不完整或錯誤,訓練的數據質量不合格,訓練數據和回答帶有偏見性以及醫護人員的技能退化等。受制于醫療大模型的專業性,從事模型開發的技術人員可能更多關注于技術內容和使用體驗,難以對醫療相關過程提出實質性意見。通過臨床醫生的參與,能夠在早期階段識別瑕疵回答,發現瑕疵數據和潛在偏見,通過深入參與研發過程,避免技能退化。臨床醫生的參與也會使得患者更為放心,在一定程度上緩解知情同意問題。

具體來說,只有臨床醫生更能夠從專業角度評估GenAI研發及臨床應用所面臨的實際問題,實現醫療AI效能的最大化。為了改善醫療AI的公平性,臨床醫生需要在模型中關注部分人數較少的人種、群體等,使得模型在具有泛化能力的基礎上實現個性化。因此,臨床醫生的參與對于醫療AI產品研發具有獨特的價值,既能夠對醫用GenAI研發團隊的專業知識進行有益補充,又可以準確反映臨床需求和患者訴求,能夠對醫療AI將來在臨床應用的適配性提供較大幫助。當然,針對臨床醫生乃至患者及社會公眾所提出的想法,研發人員需要進行可行性評估,盡可能地滿足臨床醫生和患者的訴求,臨床醫生與研發人員應密切合作,不斷完善大模型內容,提升決策水平,實現螺旋向上的產品更迭過程。

2. 2 賦能醫療服務質量的提升

GenAI可以理解和處理復雜的醫學信息,并從中提取關鍵內容,生成高質量的內容精要并給出建議。同時,GenAI可以根據用戶的需求和反饋,對生成學習內容進行個性化調整和優化。可見,GenAI應用有望在醫療教育和臨床實踐中發揮重要作用,提高醫療服務的效率和水平。在醫學教育中,GenAI可以輔助構建智能化的醫學知識學習系統,生成較為準確的內容提要、知識圖譜,幫助醫學生和臨床醫生便捷地獲取醫學知識,了解疾病的診斷、治療方案和研究進展,提高醫學知識的學習效率,培養高水平的醫學人才。

以GenAI為代表的人工智能可以被用于監測人類醫生的失誤或者提醒決策偏見,提升醫療服務質量。從醫療管理的角度來看,如果某家三甲醫院每天門診量為1萬人左右,其中約有10%的患者因各種原因掛錯了科室,這便意味著至少有1 000位患者在門診大廳或候診室的等待是無效的。GenAI提供必要的指引,以減少掛錯科室的概率,提升患者就醫體驗和患者滿意度。倘若“互聯網窗口”能夠被升級為“AI窗口”,就能輔助患者就診和慢病管理過程。對此,醫療機構則應加強臨床科室醫護人員和管理人員的AI知識與技能的培訓,臨床醫生應熟悉最新的臨床指南,充分了解AI新技術的進展、應用場景。

2. 3 賦能患者參與臨床決策的途徑與困難

2. 3. 1 以患者為中心的GenAI研發與個性化醫療

在傳統習慣里,醫生主導著從診療信息的提供到診療方案制定的全過程,患者主要是配合醫生完成就醫過程。然而,隨著醫患共享決策理念興起,患者被鼓勵從使用者和親身經歷者的角度參與臨床決策,提供就診的感受、意見和建議[15]。以人為中心的人工智能(human-centered AI)為醫患共同參與臨床決策提供了新的機遇。AI技術對于輔助決策功能的提升,有助于醫患更好地分享信息與互動,實現以患者為中心的個性化醫療。

患者群體視角審視醫學大模型,提供了外界反饋,并匯集成集體智慧,正所謂“旁觀者清”。具體來說,當涉及以下問題時,讓患者群體可以參與醫用GenAI的研發過程十分必要,具體包括:①涉及患者治療方案選擇,選擇過程中存在偏好因素;②所進行的醫療決策對于患者生命質量及醫療安全至關重要,與患者利益直接相關;③醫療決策可能存在倫理爭議,或社會關注度較高;④在決策過程中,患者體驗十分重要,如涉及少數人種、少數群體及罕見病方面的醫學大模型。促進患者群體積極參與,可以確保AI得到適當使用,了解數據共享、評估社會/文化可接受性、提高公眾的素養并衡量可接受的GenAI用途。

2. 3. 2 兼顧患者價值觀的輔助醫療決策

GenAI賦能患者以便捷的方式獲取診斷和治療信息。當患者使用GenAI進行了自我診斷,并攜帶相關的信息(如提示詞、GenAI提供的診療方案)就診時,醫生備選的診療抉擇包括:①按照GenAI對患者的診療結果進行診療;②拒絕GenAI的結果,重新獨立地為患者進行診療,不參照GenAI的任何提示和結果;③在診療的基礎上,參考GenAI的結果,綜合進行診療。臨床醫生首先與患者溝通,詳細了解其對使用GenAI的期望,并解釋診療流程,以確保獲得患者的理解和同意。同時,對GenAI提供的診斷和治療建議進行專業評估,判斷其合理性和準確性。最后,GenAI的建議將作為參考作出綜合決策,再結合醫生的專業知識和患者的具體情況,制定出個性化的診療方案。醫生需要不斷更新自己的知識,了解和掌握GenAI的基本原理和局限性,以便在臨床實踐中更好地應用和監督GenAI的使用。

GenAI輔助臨床決策深受價值觀的影響。OpenAI的CEO奧爾特曼認為,比技術更難的問題是:誰來決定默認的價值觀是什么、界限在哪里。人類的價值觀可能是多元的、動態的、模糊的,價值觀念之間會存在沖突,在GenAI難以真正理解臨床場景的背景下,凸顯了醫患決策的內在價值和意義。人類的臨床決策函數是非線性的且與場景相關,在概率和收益之間存在依賴關系。當GenAI框架和方法不符合人類的實際決策行為和偏好時,就難以適用于主觀、復雜、多目標的臨床決策問題,以及人機決策協作問題。GenAI協助人類作出臨床選擇時,應該關注到決策者的偏好、信念和行動之間的關系,利用好數據和信息來融入信念和價值觀并作為決策參考,通過技術研發者、醫生和患者的共同參與來糾偏。

3 輔助醫患共享決策的倫理挑戰

3. 1 GenAI 信息披露模式下對傳統知情選擇權的挑戰

《衛生領域人工智能的倫理與治理:多模態大模型指南》建議“披露LLM生成的內容是由人工智能系統生成的”。在醫療過程中,披露對象主要是醫生與患者,以確保在診療的全流程、多層次實現對大模型使用的知曉,以規避風險,減少對患者的傷害。如果醫生選擇尊重GenAI所作出的診斷,便體現了尊重自主意愿。需要指出的是,GenAI雖可以根據輸入內容生成所需要的答案,但其回復仍為內設程序所決定的而非存在自主意愿。患者通過自行提問,并閱讀了解回復之后,主觀上主動地選擇了GenAI所作出的醫療決策,體現了患者的自主抉擇。

在技術層面上,目前人們對GenAI的理解還不夠充分,可能存在過度期待、恐懼等復雜心態。因此,GenAI環境下,臨床醫生的告知內容應涵蓋AI的生成過程的主要方面:機制、模型準確性、生成結果及替代治療方案等。如GenAI的工作原理和數據來源,模型的準確性和不確定性,根據GenAI方案對治療方案可能進行動態調整等。此外,臨床醫生要注意如何談論死亡或一些禁忌。假如AI模型顯示了患者死亡風險極高,此時的醫生應有技巧的、在確保不影響治療基礎上,向患者本人和/或家屬進行告知。

3. 2 GenAI賦能的醫患溝通模式對傳統告知與理解的挑戰

GenAI在應用過程中仍存在困境,而《衛生領域人工智能的倫理與治理:多模態大模型指南》中的六項原則可以為困境的解決提供思路。大部分患者還難以理解大模型的機理、操作過程、利與弊,難以對比分析它與傳統治療方案之間的優劣。可解釋原則使得患者更易理解模型的決策原理與過程,增加參與臨床決策的積極性和可行性[16]。不少患者還心存疑慮,既對GenAI參與的披露主觀上不關心或存在恐懼,但是又希望診療過程有GenAI的參與;既希望GenAI參與決策,但又不希望知道過多診療細節。通過建立GenAI參與輔助醫療的責任體系,有助于壓實各方主體責任,一方面增強Ge‐nAI的可信性,另一方面則可以減輕患者的恐懼和逃避心理[17]。此外,如果患者無法獨立為自己的醫療行為作出決斷、患者意識喪失需要緊急救治等情況下,還要允許告知/理解的豁免,或者設置醫學大模型的預同意/預拒絕以簡化醫療流程。患者可以選擇完全接受/拒絕醫學大模型的參與,在后續診療過程中無須再對患者進行詢問及告知等。

GenAI輔助性用于醫患共享決策過程,應該做到以下幾點:①教育和培訓:從患者角度出發,通過視頻、圖片和簡潔通俗的文字,減少患者的恐懼和誤解。②強化溝通:臨床醫生應與患者針對GenAI的使用進行深度溝通,解釋GenAI的診療角色和作用,確保患者對GenAI知情并實現共享決策。③重視患者選擇權:除設置預同意/預拒絕選項外,在決策中充分尊重患者的意愿。④綜合決策模型:臨床醫生應綜合考慮GenAI的建議、自身的臨床經驗和患者喜好,結合具體情況作出最佳決策,與患者討論使用/不使用GenAI情況下的診療方案并動態調整。⑤緊急情況處理: 在緊急情況下,通過預先設置的明確的豁免機制,允許在患者無法自主決策時選擇是否使用GenAI輔助決策;通過簽署預先同意書,允許在緊急情況下選擇是否自動啟用GenAI。⑥重視反饋和持續改進:通過建立反饋機制,不斷改進GenAI的應用方式和患者體驗。

4 結語

GenAI作為當前AI發展的新前沿和新主流,將對臨床決策模式產生深遠影響。《衛生領域人工智能的倫理與治理:多模態大模型指南》的落地為衛生領域AI倫理治理提供了依據和思路,并具象化提出了六項原則。在倫理治理原則的指引下,通過醫患與GenAI之間的相互賦能,讓醫患共享決策模式落地生根。此外,多方參與共同決策可以從技術研發者、患者和醫生等多個層面實現對GenAI的評估,促進醫療人工智能的倫理治理體系建設。

〔參考文獻〕

[1]ROSEMANN A. ZHANG X. Exploring the so‐cial, ethical, legal, and responsibility dimensions of artificial intelligence for health-a new column in intelligent medicine[J]. Intelligent Medicine,2022,2(2): 103-109.

[2]Ethics and governance of artificial intelligence for health: guidance on large multi-modal models[EB/OL].[2024-02-20].https://www.who.int/ publications/i/item/9789240084759.

[3]王玥,宋雅鑫,王藝霏,等.衛生領域人工智能的倫理與治理:多模態大模型指南[J/OL].中國醫學倫理學:1-58[2024-05-03].http://kns.cnki.net/ kcms/detail/61.1203.R.20240304.1833.002.html. WANG Y, SONG Y X, WANG Y F, et al. Ethics and governance of artificial intelligence for health: guidance on large multi-modal models[J/OL]. Chinese Medical Ethics: 1-58[2024-05-03].http://kns.cnki.net/kcms/detail/61.1203.R. 20240304.1833.002.html.

[4]王飛躍, 平行醫生與平行醫院:ChatGPT與通用人工智能技術對未來醫療的沖擊與展望[J]. 協和醫學雜志, 2023,14(4): 673-679. WANG F Y. Parallel doctors and parallel hospi‐tals: lmpact and perspective of ChatGPT-like AIGC and AGI on medicine and medicare[J]. Medical Journal of Peking Union Medical Col‐lege, 2023,14(4): 673-679.

[5]MOULAEI K, YADEGARI A, BAHARESTANI M, et al. Generative artificial intelligence in health‐care: a scoping review on benefits, challenges and applications[J]. International Journal of Medical In‐formatics, 2024:105474.

[6]ARORA A. Moravec’s paradox and the fear of job automation in health care[J]. Lancet, 2023,402(10397):180-181.

[7]DONG X L, MOON S, XU YE, et al. To‐wards next-generation intelligent assistants lever‐aging llm techniques[C]. in Proceedings of the 29th ACM SIGKDD Conference on Knowledge Discovery and Data Mining, 2023.

[8]BEAM A L, DRAZEN J M, KOHANE I S, et al.Artificial intelligence in medicine[J]. The New England Journal of Medicine, 2023,388(13):1220-1221.

[9]李東洋,劉秦民, 論ChatGPT在醫學領域可能帶來的倫理風險與防范路徑[J]. 中國醫學倫理學, 2023,36(10): 1067-1073. LI D Y, LIU Q M. On the possible ethical risks and corresponding prevention paths of ChatGPT in the medical field[J]. Chinese Medical Ethics,2023,36(10): 1067-1073.

[10]CHENG V,YU Z. Analyzing ChatGPT’s math‐ematical deficiencies: insights and contributions[C]// The 35th Conference on Computational Linguistics and Speech Processing, 2023.

[11]DENNY P, DENNY P, LEINONEN J, et al. Prompt problems: a new programming exercise for the generative AI era[C]. In Proceedings of the 55th ACM Technical Symposium on Com‐puter Science Education V. 1, 2024.

[12]FUI-HOON NAH F, ZHENG R, CAI J, et al. Generative AI and ChatGPT: applications, chal‐lenges, and AI-human collaboration[J]. Journal of Information Technology Case and Application Research, 2023,25(3): 277-304.

[13]陳安天,張新慶. 醫學人工智能輔助診療引發的倫理責任問題探討[J]. 中國醫學倫理學, 2020,33(7): 803-808. CHEN A T, ZHANG X Q. Discussion on the medical ethical responsibility problems caused by artificial intelligence assisted diagnosis and treat‐ment[J]. Chinese Medical Ethics, 2020, 33(7):803-808.

[14]JO A. The promise and peril of generative AI[J]. Nature, 2023,614(1): 214-216.

[15]張新慶.醫患“共享決策”核心概念解析[J]. 醫學與哲學, 2017,38(10A): 12-15. ZHANG X Q. Core Concept analysis of shared decision-making between physicians and patients[J]. Medicine and Philosophy, 2017,38(10): 12-15.

[16]ADAMS J.Defending explicability as a principle for the ethics of artificial intelligence in medicine[J]. Medicine, Health Care and Philosophy,2023,26(4):615-623.

[17]YAZDANPANAH V, GERDING E H, STEIN S, et al.Reasoning about responsibility in autono‐mous systems: challenges and opportunities[J]. AI and Society,2023,38(4): 1453-1464.

猜你喜歡
臨床應用
股前外側穿支皮瓣的個性化手術設計與臨床應用
亞甲藍染色法乳腺癌前哨淋巴結活檢術的臨床應用體會
中醫護理在糖尿病足患者足部護理的臨床應用修改
今日健康(2016年12期)2016-11-17 14:54:29
超聲引導下乳腺穿刺活檢的臨床應用探討
今日健康(2016年12期)2016-11-17 12:40:48
奧美拉唑的藥學藥理分析及臨床應用探討
今日健康(2016年12期)2016-11-17 12:34:21
淺析涌泉穴
科技視界(2016年18期)2016-11-03 23:09:08
珍珠的市場前景及藥性成分、功效的研究
渭南地區道地藥材沙苑子應用研究
考試周刊(2016年77期)2016-10-09 12:39:05
超聲造影在乳腺癌診斷和治療中的臨床應用進展
主站蜘蛛池模板: 国产91线观看| 22sihu国产精品视频影视资讯| 欧美成人精品欧美一级乱黄| 亚洲精品视频免费| 91无码人妻精品一区二区蜜桃| 欧美综合在线观看| 99精品国产自在现线观看| 亚洲午夜综合网| 九九香蕉视频| 二级毛片免费观看全程| 国产91特黄特色A级毛片| 国产区人妖精品人妖精品视频| 亚洲性一区| 亚州AV秘 一区二区三区| 中文字幕天无码久久精品视频免费| 久久久久久尹人网香蕉| 国产女人水多毛片18| 福利视频一区| 久青草免费在线视频| 亚洲va欧美va国产综合下载| 国产喷水视频| 人人艹人人爽| 18禁高潮出水呻吟娇喘蜜芽| 国产精品永久不卡免费视频| 少妇精品网站| 亚洲精品中文字幕无乱码| av尤物免费在线观看| 国产欧美日韩视频怡春院| 国产免费黄| 99久久精品国产麻豆婷婷| 久久精品国产电影| 亚洲一区色| 精品第一国产综合精品Aⅴ| 精品人妻系列无码专区久久| 性69交片免费看| a毛片在线免费观看| 久久免费成人| 在线国产三级| 中文国产成人精品久久一| 国产第二十一页| 美女扒开下面流白浆在线试听| 久久人人妻人人爽人人卡片av| 国产黄网站在线观看| 天天综合亚洲| 久久久久免费看成人影片| 高潮毛片免费观看| 久久黄色毛片| 日韩欧美视频第一区在线观看| 精品欧美视频| 97亚洲色综久久精品| 精品国产自| 亚洲Av综合日韩精品久久久| 中美日韩在线网免费毛片视频 | 国产视频你懂得| 国产自在线播放| 综合亚洲网| 中文字幕无线码一区| 国产免费人成视频网| 中文字幕 91| 91在线国内在线播放老师| 欧美午夜一区| 无码人中文字幕| 欧美精品在线免费| 国产女人18毛片水真多1| 热99精品视频| 国产玖玖玖精品视频| 91毛片网| 免费一级大毛片a一观看不卡| 亚洲第一视频网| 亚洲熟妇AV日韩熟妇在线| 中文字幕亚洲精品2页| 99久久精品免费看国产免费软件| 亚洲综合久久成人AV| 91外围女在线观看| 88av在线看| 国产电话自拍伊人| 亚洲AV免费一区二区三区| 久久青青草原亚洲av无码| 精品精品国产高清A毛片| 中文天堂在线视频| 国产v精品成人免费视频71pao | 国产午夜不卡|