張 榮 徐 飛
醫學智能體是集基礎醫學、臨床醫學、基因學、計算機科學、信號分析、控制論、心理學、倫理學于一體的綜合性交叉學科。作為醫生智慧在機器上的延伸,醫學智能體通過研究智能的實質并模擬醫生的思維與行為,讓機器具備識別、歸納推理、決策分析的高層次功能[1]。本質上,醫學智能體是人工智能的一個分支,其研究的主要目標是使機器能夠代替醫生完成復雜而繁瑣的工作,如醫學影像分析、醫學診斷、疾病預測、圖像分析(放射學、組織學)、健康管理等[2]。
自1956年提出人工智能一詞開始,人工智能已經逐漸浸入到醫學領域的方方面面,并為人類的健康管理與疾病診斷帶來極大的便利。創業公司Enlitic研制基于深度學習的癌癥檢測系統,在胸部CT影像上的肺癌檢出率超過醫生;同時,該系統從數十億個既往臨床案例中提取醫學界專家的治療方案,通過深度學習網絡檢查數百萬幅醫學影像,以達到自動識別疾病并作出診斷的效果[3];IBM設計的Watson系統則通過學習大量數據和經驗,從而分析病人的醫學信息,幫助醫生制定可靠的醫療方案;國內視見醫療推出的人工智能放射輔助診斷系統、人工智能放療輔助勾勒系統和人工智能病理輔助診斷系統,可以自動對病灶進行標注,并自動完成病灶定性診斷、定量分析及三維建模,以及提供治療策略、病情發展預測等,從而幫助醫生更加高效、準確地完成病癥診斷和治療方案設計。醫療領域深度學習公司Airdoc目前已經掌握了世界領先的影像識別能力,結合數學、醫學知識和深度學習算法后,在人類醫學專家的幫助下,在心血管、腫瘤、神經、五官等領域建立了多個精準深度學習醫學輔助診斷模型,取得了良好的進展[4]。可以看出,經過近兩年的發展,基于深度學習的醫學影像輔助診斷技術在某些特定病癥上已經達到和多年臨床醫生相當的水平,而且處理速度要快很多。以深度學習為代表的人工智能技術在大數據和高性能處理器的驅動下,能夠從復雜環境中選擇最合理的行為,獲得最優的結果。另一方面,大數據的建立有利于構建智能算法訓練、學習與測試的基礎。大數據平臺以智能算法為核心,通過實時獲取臨床與非臨床數據,并通過大數據建模分析,對人類的器官組織進行全方位建模,對目標器官建立深度感知,有利于幫助醫生建立智能輔助診斷和精準需求數據庫,實現真正的智能醫學診治。
人工智能是客觀物質世界發展到一定階段的產物,本質上也是一種生產力,在造福人類的同時,也產生了危及人類的各種不良后果。在智慧醫療領域,醫療大數據在輔助診斷、精準醫療和疾病風險評估與預測等方面發揮了巨大作用,但同時也引發了數據安全、隱私窺視、數據獨裁、數據主體自主權不足和社會不公平加劇等倫理風險和社會問題[5]。
醫學大數據的最大貢獻之一是促進了智能醫學的發展。國內外科研機構已經針對不同的疾病建立了大量的數據集,并隨著5G網絡的普及,更多更大的數據集將建立起來。例如,與肺癌相關的大數據包括臨床數據、CT/MRI/PET影像數據、基因數據、病理數據、電子病歷等。根據最近的系統文獻回顧分析可知,大多數肺癌大數據來自臨床,其余數據則是由基因學和放射影像組成[5]。這些數據來源、類別、形式多種多樣,呈現信息互補、多模態及深層次的特征,且數據的收集、處理和存儲過程中也存在隱私泄露的倫理風險。尤其是在涉及諸如健康信息之類的敏感數據時,患者會擔心信息的泄露可能導致保險公司或雇主獲得歧視信息。實際上,這也是醫療大數據倫理領域面對的主要問題[6]。也就是說,智能醫學的應用必須基于基本的道德價值觀,例如自治、人性、尊嚴和尊重。
保護隱私必須是智能醫學領域各個層面設計的一部分,它包括信息的可靠性、完整性和可用性。侵犯隱私權包括在數據獲取、發布和使用過程中的侵權行為,以及未能保護數據泄露的行為[7]。傳統意義上理解的隱私權表示能夠單獨或者與其他信息結合識別特定自然人的各種信息,適用于與可識別的自然人相關聯的數據。如果無法從某些數據中識別出相應的個人,則該信息不再被視為個人信息,大多數隱私條款也不再不適用。因此,數據倫理的一個普遍規則是,在共享數據之前,必須刪除任何標識信息,以防止身份泄露。然而,智能醫學研究過程中匿名化數據阻礙了算法仿真與工程應用的發展。因此,在大數據分析中,必須確保知情同意。信息大數據是為了揭示以前沒有發現的規律,找到最本質的特征。醫療大數據智能分析在未來疾病診斷方面具有較高的價值,但是數據倫理要求從特定目的的協議轉向透明和有效的數據治理。
總的來說,人工智能的發展不僅改變了人類的生活方式,而且改變了其生產方式,對社會結構、經濟生產和科技倫理產生不可忽視的困難與挑戰。然而,由于現有的科技倫理理論仍然需要進行大量的測試,因此目前集中研究這個問題也絕非易事。本文將根據現有的科學研究成果,分析如何將科技實踐與倫理實踐進行整合,并采取相應措施以防止智能系統超出人類控制。在此基礎上,進一步探討了人工智能技術發展和設計中的倫理考慮,為研究人員在人工智能設計中提供了倫理性考慮的指導標準。
目前,人工智能算法的智力水平與醫生智力水平相當,甚至更高,但其算法也僅限于某一個領域。例如:臺大醫院開發的“骨髓抹片AI自動分類計數系統”是一款針對骨髓抹片分析的智能影像分析系統,其計算時間比人工減少50%,準確率增加12%,其上線以來大大提高了檢驗科效率。然而,該系統僅僅用于骨髓抹片,不能直接用于血液檢驗。先進的認知技能可以使人工智能比人類更好地執行任務。人工智能在新領域的應用可以為醫療診斷、疾病篩查及信息化建設帶來有效的、更安全甚至是令人驚訝的成就,同時也可以大規模地提高生產力。然而,當人工智能的認知操作在醫療領域里實現時,新的挑戰也會隨機產生。
盡管智能醫學的應用前景廣闊,但在操作過程中仍然出現了倫理問題。正如之前描述的那樣,倫理規范是一項艱難的工作,大數據分析和人工智能處理的發展使之更加復雜。許多智能算法都是一個“黑匣子”;也就是說,模型受各種參數和海量輸入數據驅動,但用戶并不清楚如何獲得輸出。在很多情況下,這并不是因為缺乏專業知識,而是因為醫學智能體執行過程很難用人類的語言描述和解釋,并且智能分析的輸出能夠獲得意想不到的結論。因此,如果不能向患者充分解釋機器的使用方法,很難獲得患者的同意。此外,如果患者不信任醫學智能體的診斷過程,他們可能希望展示算法是如何做出某個決定的,這在某些情況下可能被證明是不可能的。
電氣和電子工程師協會(IEEE)全球倫理倡議聲明[6],“最近在機器學習和感知方面的突破將使研究人員能夠探索到自下而上的智能體設計方法,而在這個過程中,人工智能系統學習其環境和人類價值觀,和一個孩子慢慢學會某些行為相類似,而這一過程是安全和可以接受的”。機器學習算法已被證實在識別和分析大數據模型方面很有效。利用大數據訓練認知算法,可提高其識別能力和性能。眾所周知,傳統的計算機算法可以分析大量數據,并根據程序員創建的特定指令和規則執行相應的信息處理和服務。機器學習通常是一組規則和指令,以算法的形式編寫,使機器按照特定的模式逐步執行任務;然而,通過使用新獲得的數據并優化出新的指令和步驟來執行非特定任務,計算機逐漸獲得更靈活的能力,并可以相應地在不同的情況下工作[3]。目前,機器學習已經在許多領域和產品中得到了應用,因此在對數據收集及數據處理上產生了更多需求,同時增加了以犧牲用戶隱私和過度分享個人或公眾信息的風險。對于人工智能使用過程中,提供特定領域下的透明數據用以評估性能是很必要的,因此數據訓練與測試過程中倫理價值觀和應用規范之間的沖突不可避免。若系統的算法是用大數據訓練和選擇優化來實現,當數據質量低,垃圾數據多時,再科學的算法也不能得到科學的決策。因此,如何在人工智能視域下將倫理實踐與科技實踐進行有效融合,是科學實踐下哲學路徑的重要研究方向。接下來,本文將對人工智能的發展對醫學領域的影響以及應用中的潛在倫理問題進行分析。
1950年,艾倫·圖靈編寫并出版了《曼徹斯特電子計算機程序員手冊》,為人工智能的出現奠定了基礎[7]。近70年的發展,人工智能已經根植于醫學領域,給患者、醫生與醫院都帶來了極大的便利。人工智能與醫學的結合,極大地提高診斷效率,減少人為失誤。然而,人工智能的飛速發展與倫理研究滯后的矛盾,使得人工智能產生很多倫理問題,既影響人工智能的發展,也給人類帶來危害。同時,由于人工智能存在于人類社會各個領域,在某些方面它們的智力和解決問題的能力甚至超過了人類,因此,不斷增長和進化的人工智能也對人類社會引發了許多倫理爭議。本文著重討論了與人工智能相關的倫理問題,包括現存及潛在的倫理問題。
創新和發展提高了人類認識世界與改造世界能力,并加快了科技的進步。因此,倫理學家有理由對人工智能的未來表示擔憂,同時他們也擔心任由人工智能技術不加約束地發展可能產生種種災難性后果。圖靈測試給我們提供了一些關鍵線索,我們可以利用這些關鍵點為基礎對“機器會思考嗎?”這一概念進行定義。試驗發現被測試者可以提問、與測試者交談、回答測試者問題。為使計算機通過圖靈測試, 測試人員只有在不能分辨答案是否是由機器或人類給出時才算機器通過測試,因此,物理特性的缺乏和機器如何模仿人類這些問題就更讓人迷惑。圖靈測試的結果說明一個復雜的人工智能可能擁有意識。這與我們對人性的定義相矛盾,因為我們只認為人類自己是一種有思想的生物,是遵循著來自于我們的經驗和大腦組織的道德準則、價值觀和自由意識進行生活的生物。
在人工智能中設計一個特定的行為規范很重要,若某個行為可能傷害到人類,該系統是絕對不允許上線的。人工智能的可預測性特征對達芬奇手術機器人的使用維護與操作流程很重要,因為智能手術系統設計的理念是通過使用微創的方法,實施復雜的外科手術,其主要目的是提供給醫院與患者一個支持性的環境,讓患者能夠享受平等的治療與高效率的服務。另一個重要的方面則是人工智能需要建立強大的防御特征以對抗誤操作和惡意編程。例如,手術導航系統在自動定位識別病灶過程中,系統執行的每一條指令都必須多方審查,避免模糊邏輯導致誤操作。智能體是一種模仿人類操作行為的實體,具有獨立自主的行為邏輯。僅僅靠代碼審查,只能是代碼角度滿足編碼規范,很難確定代碼背后系統的行為模式。現有的智能設備都存在一個中央控制器來感知行為趨勢,通過推斷行為的未知后果來響應操作流程。這種模式構建的人工智能可應用在諸多需要特定行為的領域,且這些行為所帶來的后果均是安全的。也就是說,若特定場景設計的智能體滿足行為規范,其自主行為模式趨勢可控、準確與有效,該智能體完全可以替換人類從事特定的工作。一旦智能體從事著核心任務,人類智能輔助智能體完成相應輔助工作,最終將演變成智能體與人類的主體爭論問題。例如,在醫學領域,若智能體的行為模式滿足診治要求,這就存在智能體與醫護的主體爭論問題。另一方面,人工智能算法在設計上可能會出現錯誤,導致基于種族和社會經濟階層方面不公正的結果。因此,可供人類信賴的人工智能系統應該遵循以下準則:(1)透明度 (用戶可見性操作);(2)可信度 (結果的可接受);(3)可審核性 (效率的易測量);(4)可靠性 (對抗性攻擊的穩定性);(5)可恢復性 (系統逆向兼容)。
針對人工智能的所有應用,確保人工智能在規范和倫理下研究的兼容性則非常有必要。來自不同領域的科學家和研究人員,如,生物醫學領域、心理學、倫理學、經濟學、法律和政策領域人員,均需參與到人工智能的開發中來,確定公平、公正和平等規范的概念,確定人工智能在特定領域使用的可接受性和安全性,從而確保社會對人工智能行為的可預見性與可理解性[8]。
盡管人工智能醫學實踐過程中倫理實踐需求也在增強,各學術機構也在積極制定倫理準則,到目前為止仍然沒有一個廣泛共識的倫理實踐指導規范。雖然各地政府制定了許多科技倫理風險評估和倫理審查機制,但多數監管流于形式,并沒有將抽象的倫理原則和規范體系落實到倫理實踐和技術細節中。技術專家在科技實踐過程中遇到的倫理問題大都靠自身的倫理底線和價值尺度進行把控,但若不對技術倫理規范進行約束,任其發展,其后果可能摧毀人類的生存與社會秩序。倫理實踐是科技實踐必須遵循的價值準則。只有讓倫理實踐具備可操作性,才能引導科學實踐活動始終向善。
人工智能倫理實踐操作需要全人類各界人士進行充分討論、凝聚共識。只有將技術實踐與倫理實踐有效地融合,才能為全人類帶來福祉。倫理實踐和科技實踐并不是零和博弈,也不是某種阻礙關系,而是一種相互制約,彼此影響的關系。倫理實踐為科技實踐保駕護航,科技實踐為倫理實踐提供數據支撐。當科技實踐展示出造福人類的特點時,倫理實踐就會做出讓步,調整部分規則,例如仿生手臂、人工義眼;當科技實踐涉及到人類根本利益時,倫理則就會有絕不讓步的地方,比如說克隆人。
眾所周知,大數據是人工智能的土壤,而算法是產生人工智能的直接工具。人工智能的發展離不開大數據的驅動。目前,智能醫學的算法正在以前所未有的速度收集與健康相關的臨床與非臨床數據。患者生成的海量臨床數據有助于疾病診斷算法模型的訓練與學習,醫療設備的廣泛使用使得數據獲取的門檻大大降低;尤其是5G網絡的普及,以可穿戴設備為代表的邊緣網絡采集了大量的人體非臨床數據,進一步促進了醫學智能體全面測試與性能提升。大數據和智能信號處理在醫學領域的廣泛應用,特別是醫學智能體的出現,為實現精準醫療國家戰略奠定了基礎。盡管智能醫學存在著巨大潛力,但通過大數據驅動的智能算法仍然受到若干挑戰的阻礙。智能醫學除了克服性能、操作上的障礙,還必須形成廣泛的倫理共識和監管規范。由于智能醫學本質上是跨學科領域,在沒有監督的情況下將大數據引入智能醫學可能會導致數據主體和患者的傷害和利用。隨著技術的進步,醫學智能體的性能也將逐漸提升,同時引發倫理風險和社會問題,因此智能醫學的道德反思是非常必要的。這也是確保新興技術在倫理沖突中以有益的人類的方式運行,也是確保新興技術實現為所有人,特別是窮人帶來更好診治與健康管理方法。
隨著越來越詳細的多模態數據不斷積累,算法性能也在不斷改進。雖然智能化與數字化的疾病診治加速了精確治療的落地,其結果也令人興奮,但醫生在醫療互動中所做的遠不止簡單地應用醫療知識,給患者進行診治。智能醫療改變了醫患關系的倫理價值,將智能算法引入臨床診治意味著臨床環境中的中心關系從患者-醫生到患者-醫學智能體之間轉換。因此,誠信、責任、義務的概念變得不確定,這種醫患關系轉移可能會對醫療服務產生負面影響。
在醫學研究方面,大數據驅動的醫學智能體能夠對疾病的不同方面進行大規模測試與評價。對患者本身來說,他們提供的實時醫學數據作為直接激勵,能直接促進智能算法的發展。然而,患者自身的數據超出了現有隱私規定的范圍,也超出了數據獲取的規定范圍,這可能會使人們對信息的質量和可用性產生懷疑。
與大數據相關的倫理問題已經被廣泛討論過,但在智能醫學方面討論較少。隨著人工智能技術的蓬勃發展,國內外學者對其引發的倫理問題進行了梳理,大致可以分為五個方面:(1)人工智能技術會影響經濟發展與社會就業[9];(2)智能體的主體資格[10];(3)人工智能對人權和隱私的侵犯及人類能力的侵蝕;(4)人權、道德、責任、環境等倫理問題;(5)人工智能的技術奇點不可控問題[11]。由于目前人工智能應用遇到的倫理問題大都是在實踐過程中產生,而不是技術本身具備的倫理問題。其倫理實踐過程與非技術領域專家遇到的倫理問題類似,也就是說目前人工智能領域遇到的倫理實踐是能夠以現有的倫理理論為指導。但目前技術領域沒有滿足實際應用的倫理實踐操作規范,主要歸咎于技術專家對倫理、法務、哲學、心理學等領域了解不夠,且沒有形成統一的框架。只有將技術專家與多學科研究人員一起形成制導性框架,然后以自律的形式實施,才是目前解決人工智能倫理問題的關鍵。
人工智能領域出現的倫理問題可以歸結為科技實踐與倫理實踐的不匹配問題,只有兩者有效融合才能助力人工智能發展朝著服務全人類前進。荷蘭特溫特大學哲學系Verbeek教授在《將技術道德化—理解與設計物的道德》[12]一書中對技術人工物和倫理道德關系進行了分析,提出了著名的技術道德化的論斷。任何產品的開發都是注入了開發者的設計思想,具有明顯的意向性,反應了某種需求目的。例如,腹部CT影像智能輔助腫瘤檢測分析助手只能對占位性腫瘤進行檢測,對明顯的血管內皮細胞瘤卻視而不見。雖然醫療智能體并不是全能的,只能對特定領域的任務進行處理。一旦其出現漏檢導致患者病情加重或死亡,其主體并不會因為漏檢而傷心。在關乎生與死的問題上,患者仍然希望由醫生來做決定,而不是依賴于智能體的診斷。在實際應用過程中,設計者是將人類的倫理道德思想物化到智能體中,也就是說對于人類進行約束的倫理實踐準則就可以轉變成對智能體的倫理嵌入。
智能體通過大數據驅動下才能逐漸逼近人類的操作效果,但其功能有限。然而,由于智能體具有識別、分析與推理能力, 其行為模式必定與人類倫理存在沖突。因此,在設計之初就應該評估其能引發的倫理道德風險,從設計源頭進行規范。技術實踐就是通過智能技術把倫理規范與道德準則物化為智能體,促進倫理重構。只有在技術實踐中融合倫理實踐,才能有效防范智能體所引發的倫理風險意識。智能體是一種具有自主獨立思想,可與環境交互的實體,由數據庫、代碼、硬件平臺、機械結構等組成,通過下載不同的可執行程序實現各種功能,其技術實踐與使用場景密切相關[13]。只有梳理智能體的使用場景,對其在使用過程中的倫理風險進行深入分析,才能在技術實踐中將價值觀、道德規范、倫理準則等注入到智能體中。同時,智能體的設計體現了設計者的個人意志,其對智能體的設計原理、算法模型和操作流程具有主導權。然而,在用戶端,設計者很難掌控用戶的使用行為,其所引發的倫理風險不易掌握。例如,基因組學領域的突變基因篩查系統,可以對患者的DNA采樣進行連續檢測,以找到與癌癥相關的典型突變,并將這些突變與數據庫中已知的實例進行比對,提升癌癥診斷治療的效率。然而,一旦將此技術用于基因改造,人類無形中扮演了上帝的角色。可以看出,智能體與環境交互過程中出現的倫理風險是無法掌控的。用戶并不清楚智能體是否存在不可控的倫理風險;設計者也不清楚用戶是否會將智能體置于倫理風險當中。兩者的隔離導致智能產品不敢輕易落地。用戶不敢輕易嘗試具備倫理道德風險的智能產品,而設計者不敢輕易將智能產品推向市場[13]。若能將技術實踐與倫理實踐進行融合,對設計端的技術思路與倫理規范進行約束,做到全程可追溯;對用戶端的使用場景進行監控,同時智能產品由足夠的自監督能力防止其置于倫理風險中[14]。用戶在使用智能體的過程可以看做是倫理實踐的過程,一旦使用者具備的倫理道德素養與設計者注入到智能體的倫理思想不匹配,智能體應當具備不執行相應指令的能力。
智能體的設計主要來自設計者的科技實踐,其正常使用過程中出現的任何倫理風險,其責任歸于設計者。設計者對其產品的注入的倫理思想,需要經各方同意的倫理規范下進行,具備可操作性、追溯性與可控性。設計者不僅需要具備精湛的技術水平,還應充分認識到智能體使用過程中出現的倫理風險,并將相應的倫理思想注入到產品中。用戶操作智能體時需嚴格按照用戶手冊,并在合理合規場景下使用。用戶的使用過程也是其倫理實踐的過程,用戶知曉任何超出使用范圍出現的倫理風險,其用戶需承擔主要責任。
人工智能是一把雙刃劍,科技實踐與倫理實踐的有效結合與匹配,是平衡創新與風險,充分發揮正效應,有效規避負效應,促進人工智能健康發展的關鍵。如何在設計端或用戶端建立健全可操作的理論規范顯得尤為重要。
醫學智能技術的發展應當以增強公眾福祉,賦能國家發展和造福人類社會為目的[15]。醫療智能技術的應用和推廣可以提升醫療衛生單位診斷流程的自動化、智能化程度,增強醫療衛生單位的可視化和智能化診斷水平,降低病患的就診成本,提高就診速度,實現就診過程的信息全記錄和可追溯,避免醫鬧事件的發生,從而為醫療設備企業帶來顯著的經濟效益提升,為醫療單位帶來業務水平的全面升級。智能產品促進了技術的變革與生產力的提高,并把醫生從繁重的低效率的工作中解放出來,提高醫療診斷效率,但也可能帶來不可預測的消極影響。無論是設計端的設計者,還是用戶端的消費者,在科技實踐與倫理實踐過程中都必須以人為本,堅持符合科技與倫理實踐的發展觀,設計者將以人為本的思想注入到設計中,用戶采用以人為本的思想操作智能設備,最大化地保護人類的生命安全與道德底線,不應破壞社會公正與和諧。
隨著科技的發展與技術的進步,人工智能技術不斷迭代升級,其性能指標與用戶體驗也在逐漸提升[16]。由于人工智能算法是一種大數據驅動的自學習優化算法,其本身也存在不確定性與不可靠性,雖然一定程度上促進了技術的進步,但也將影響用戶體驗。因此,科技實踐過程中,科技人員應當以嚴謹的態度、高度的責任心參與設計,使得設計的產品與人類和諧共生。人工智能系統開發過程必須考慮與人類價值觀的兼容性,并遵循特定的行為準則。在使用醫療智能體時,必須認識到信任的重要性,并認識到安全指導和倫理發展實踐的重要性,及人工智能管理的重要性,如確保數據、算法和系統完整性以及對隱私和個人信息保護的重要性。
科技實踐過程的設計智能產品,其靈魂是算法模型。由于算法的不可及性、不可理解性以及價值負載性容易使人們對算法產生信任危機,進行影響智能產品的體驗[17]。科技實踐全程受控且可追溯,是實現公開透明原則的基礎。該原則要求設計者在科技實踐中對其數據來源、算法模型與處理機制進行合法、公正和客觀的公開;用戶在使用過程中也需要全程記錄日志,必要時將數據上報到服務器供大數據分析,具備處理歷史數據、行為追蹤等功能[15]。透明的醫療診斷技術應用也會使得就診患者受益良多。比如就診過程的即時跟蹤可以讓病患對整個就診過程全透明的可追溯,一旦發生醫療糾紛可迅速排查責任方并確定賠償事宜;輔助診斷系統的應用,全面提升了初診的正確率,提高了患者的滿意度。這些有利因素都將進一步促進輔助診斷醫療市場的良性發展,最終對我國衛生醫療事業產生積極作用。
科技的發展離不開設計者對技術的調控,設計者是產品開發的責任主體,管理與掌握著技術實踐過程中的倫理方向,只有將倫理意識內化于心,外化于行,才能為產品注入符合規范要求的倫理意識。科技的雙刃性取決于人,而不取決于工具。科技實踐過程中設計者必須樹立強烈的責任感與使命感。一旦設計者的責任感缺失容易導致技術不受控,造成較大的倫理風險。具體而言,用戶與設計者需要自覺遵守倫理道德規范,自覺在合理權限范圍內設計或者使用智能產品。對于用戶而言,由于公眾普遍存在保護意識淡薄、對風險感知不足、倫理道德修養缺失等問題,只有強化倫理責任意識,自覺提高科技素養和道德修養,才能獲得最佳倫理實踐。因此,提高設計師和用戶雙方的責任意識,對于解決智能應用中的社會倫理問題具有重大意義。
智能醫學算法的性能已經大大地提升,但由于缺乏算法理解和可解釋機制,很難在臨床環境中評估其診治風險和優勢,不利于臨床醫生進行輔助診治或監管機構批準。即便監管機構批準醫學智能體應用于臨床,如何實現問責仍然是應用的關鍵。如果一臺醫學智能體在診治過程中對患者造成了傷害,那么誰應該對此負責,如何賠償損失等?一般來說,使用智能設備進行輔助診斷的醫護人員不應完全脫離責任,但如果醫療系統確實依賴于技術,而不受外界干擾,最終責任程度可能是相對的。也就是說,事故責任可以分配給醫生、開發人員和醫療機構。
另外, 數據可訪問性是公平分配醫療資源的基礎,這并不意味著數據由患者進行絕對控制。如果沒有專業人員的指導,對原始數據不受限制地訪問可能會造成算法的誤解。相反,數據的可訪問性必須有一定的限制。通過讓患者積極參與成為決策過程的利益相關者,在倫理委員會與醫學專家的專業知識輔助下,在數據主體與道德責任之間找到平衡,可以實現公正。大多數數據保護立法都隱含地將重點放在單獨的數據主體上,使群體容易受到傷害[5]。即使是完全匿名的數據也有可能被區別對待,因為對一個群體的預測會影響到所有成員對個人身份的認知,這是因為該組的成員具有共享的標識符。群體層面的醫學智能體和醫學數據的相互依賴性表明,數據應該由患者群體而不是單個患者來控制,這與經典生物倫理學中規定的獨立和自主決策原則背道而馳。
人工智能的研發、傳播和應用過程中,構建和諧穩定的倫理標準與道德規范是實現以人為本、人機和諧的關鍵。對于開發者和設計者來說,需要關注的問題應是如何通過人工智能系統來預防意外和不可預見的行為發生。為了確保安全,設立委員會來審查資源和評估項目至關重要[18]。只有將公眾利益擺在首位,構建監管機構,對涉及人工智能技術的單位與項目進行嚴格監督審查,確保其不會對社會發展造成影響,防止因技術濫用對人類造成傷害。由于科技實踐與倫理實踐能做到高度統一,一旦出現倫理社會問題,可以立即啟動法律程序層層追責。
人工智能的發展,需要多方位多角度的監管機制進行約束,通過將抽象的倫理原則和規范體系轉換倫理實踐,引導科學實踐活動始終向善,有效避免對人類社會造成傷害。國家間達成一致的“客觀性”道德準則也許永遠不可能實現,但其可以通過創造一個以常識為基礎的倫理框架來解決,它可以識別需求從而運行某種道德價值,并且使其盡可能與我們人類社會兼容,進而減少國家間的疏遠。但只有通過持續的道德評價和監測技術的不斷發展,才有可能提供安全的措施來防止任何可能出現的直接或間接的威脅。
隨著人工智能系統逐漸應用到醫學的各個領域,如何在避免潛在危險的同時最大化為醫療衛生服務是當前醫學智能體發展不可避免的關鍵問題。人工智能系統開發過程必須考慮與人類價值觀的兼容性,并遵循特定的行為準則,確保人工智能技術在倫理原則和道德價值觀方面可與人類兼容。在使用人工智能時,必須認識到信任的重要性,以及安全指導和倫理發展實踐的重要性。本文對目前人工智能場景進行了梳理,提出了可供人類信賴的人工智能系統應該遵循的準則。在此基礎上,進一步探討了醫學智能體發展和設計中的倫理考慮,為研究人員在人工智能設計中提供了倫理性考慮的指導標準。