999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

涉及醫(yī)學(xué)人工智能研究的倫理審查要點分析

2021-04-03 15:32:08謝小萍何曉波張玲希高雅潔
關(guān)鍵詞:人工智能研究

謝小萍,何曉波*,張玲希,李 衛(wèi),高雅潔

(1 浙江醫(yī)院倫理辦公室,浙江 杭州 310030,920628092@qq.com;2 浙江醫(yī)院圖書館,浙江 杭州 310030)

2017年,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,將發(fā)展新一代人工智能上升至國家戰(zhàn)略高度,使人工智能受到學(xué)術(shù)界和產(chǎn)業(yè)界的廣泛關(guān)注。同時,大數(shù)據(jù)、算法和算力的發(fā)展,也為人工智能提供了豐富的數(shù)據(jù)資源,推動了人工智能的發(fā)展。近年來,醫(yī)學(xué)人工智能在預(yù)防醫(yī)學(xué)、醫(yī)學(xué)治療、醫(yī)學(xué)診斷、健康管理、醫(yī)學(xué)科研、醫(yī)學(xué)教學(xué)、醫(yī)院管理、藥物開發(fā)等醫(yī)學(xué)相關(guān)方面發(fā)揮重要作用。雖然我國已在人工智能領(lǐng)域具備了良好的基礎(chǔ),但整體發(fā)展水平仍落后于發(fā)達(dá)國家,尤其是適應(yīng)于人工智能發(fā)展的政策法規(guī)、標(biāo)準(zhǔn)體系亟待完善。現(xiàn)行的倫理審查法規(guī)指南已無法涵蓋涉及醫(yī)學(xué)人工智能研究提出的倫理和管理要求,涉及相關(guān)問題的實際審查工作缺乏可操作化的審查標(biāo)準(zhǔn)和程序指引。因此,本文通過對國內(nèi)外相關(guān)法律法規(guī)、文獻(xiàn)等資料進行研究,對涉及醫(yī)學(xué)人工智能研究的倫理審查要點進行探討,旨在為促進涉及醫(yī)學(xué)人工智能研究的倫理審查規(guī)范提供一定的借鑒。

1 醫(yī)學(xué)人工智能研究的概念及特點

1.1 醫(yī)學(xué)人工智能研究的概念

人工智能產(chǎn)品是按照人設(shè)定的程序邏輯或軟件算法通過芯片等硬件載體來運行或工作的,通過對數(shù)據(jù)的采集、加工、處理、分析和挖掘,形成有價值的信息流和知識模型,提供延伸人類能力的服務(wù),實現(xiàn)“智能行為”的模擬[1]。人工智能在醫(yī)學(xué)領(lǐng)域的應(yīng)用研究主要包括輔助診療、影像識別、醫(yī)用機器人、虛擬助手、健康管理、醫(yī)院管理、疾病篩查與預(yù)測、藥物研發(fā)等多個方面。人工智能產(chǎn)品設(shè)計開發(fā)過程通常可分為需求分析、數(shù)據(jù)收集、算法設(shè)計、驗證與確認(rèn)、軟件更新等階段[2]。目前,醫(yī)學(xué)人工智能研究主要按照學(xué)術(shù)性科研課題和產(chǎn)品研發(fā)注冊申請兩條線進行管理。當(dāng)前市面上大部分的人工智能醫(yī)療產(chǎn)品按照醫(yī)療器械管理,主要分為人工智能獨立軟件(智能軟件)和人工智能軟件組件(智能硬件)兩種類型。根據(jù)原國家食品藥品監(jiān)督管理總局2017年9月發(fā)布的《醫(yī)療器械分類目錄》規(guī)定,僅有輔助診斷功能的軟件需申報二類器械,如果軟件能對病變部位進行自動識別并提供明確診斷提示則按第三類醫(yī)療器械進行管理[3]。截至2020年9月17日,經(jīng)國家藥品監(jiān)督管理局審查批準(zhǔn)的三類智能軟件產(chǎn)品共三款,分別是北京昆侖醫(yī)云科技有限公司生產(chǎn)的創(chuàng)新產(chǎn)品“冠脈血流儲備分?jǐn)?shù)計算軟件”、深圳硅基智能科技有限公司生產(chǎn)的創(chuàng)新產(chǎn)品“糖尿病視網(wǎng)膜病變眼底圖像輔助診斷軟件”,以及上海鷹瞳醫(yī)療科技有限公司生產(chǎn)的創(chuàng)新產(chǎn)品“糖尿病視網(wǎng)膜病變眼底圖像輔助診斷軟件”[4-5]。

1.2 醫(yī)學(xué)人工智能研究的特點

第一,醫(yī)學(xué)人工智能研究具有跨行業(yè)、跨機構(gòu)、多學(xué)科特點。

醫(yī)學(xué)人工智能研究因其包含基礎(chǔ)資源、技術(shù)體系、產(chǎn)品服務(wù)及應(yīng)用解決方案等多層次結(jié)構(gòu),具有跨行業(yè)、跨機構(gòu)合作的特點。從人工智能研究框架上看,涉及為人工智能系統(tǒng)提供計算能力支持的基礎(chǔ)設(shè)施提供者、原始數(shù)據(jù)資源和數(shù)據(jù)集的信息提供者、人工智能領(lǐng)域技術(shù)和服務(wù)的信息處理者和確保研發(fā)產(chǎn)品滿足整體要求的系統(tǒng)協(xié)調(diào)者等跨行業(yè)/機構(gòu)主體角色。從數(shù)據(jù)來源上看,人工智能使用的原始數(shù)據(jù)資源或數(shù)據(jù)集可能來自不同地區(qū)、機構(gòu)、系統(tǒng)、科室的結(jié)構(gòu)化或非結(jié)構(gòu)化數(shù)據(jù),涉及比傳統(tǒng)研究更多的利益相關(guān)者,如患者、研究人員、管理人員、醫(yī)療機構(gòu)、研究院所、商業(yè)公司等。從人工智能關(guān)鍵技術(shù)上看,包括機器學(xué)習(xí)、知識圖譜、自然語言處理、虛擬現(xiàn)實/增強現(xiàn)實等關(guān)鍵技術(shù)[1]。從學(xué)科領(lǐng)域看,醫(yī)學(xué)人工智能研究因其技術(shù)復(fù)雜性和應(yīng)用場景多樣性等特點,完成整個研究過程需要多學(xué)科交叉合作,涉及醫(yī)學(xué)、生命科學(xué)、數(shù)學(xué)、軟件工程、計算機科學(xué)、倫理學(xué)、法學(xué)等學(xué)科。人工智能研究的跨行業(yè)、跨機構(gòu)、多學(xué)科特點,導(dǎo)致目前開展研究存在法律法規(guī)和規(guī)范標(biāo)準(zhǔn)相對滯后、主體責(zé)任界定不清、相關(guān)復(fù)合型人才短缺等一系列問題,增加了倫理審查和監(jiān)督的難度,使得傳統(tǒng)模式無法滿足現(xiàn)實需求。

第二,醫(yī)學(xué)人工智能研究涵蓋多階段、多層次研究過程。

醫(yī)學(xué)人工智能研究不同于傳統(tǒng)臨床研究,其產(chǎn)品設(shè)計開發(fā)過程較復(fù)雜,通常可分為需求分析、數(shù)據(jù)收集、算法設(shè)計、驗證與確認(rèn)、軟件更新等階段,涵蓋基礎(chǔ)研究、臨床前研究、臨床研究和臨床應(yīng)用的整個轉(zhuǎn)化醫(yī)學(xué)過程,包含基礎(chǔ)資源、技術(shù)體系、產(chǎn)品服務(wù)及應(yīng)用解決方案等多層次結(jié)構(gòu),并在產(chǎn)品的全生命周期過程中不斷經(jīng)過基于高質(zhì)量帶標(biāo)注的數(shù)據(jù)訓(xùn)練集、調(diào)優(yōu)集、測試集進行產(chǎn)品研發(fā)與測試,正式上市須經(jīng)過產(chǎn)品定型、檢測、臨床試驗、注冊申報、技術(shù)審評、行政審批六個步驟[6]。從數(shù)據(jù)收集上看,包含數(shù)據(jù)采集、存儲、挖掘、應(yīng)用、運輸、傳輸、共享等環(huán)節(jié),并涉及服務(wù)器、存儲設(shè)備、網(wǎng)絡(luò)設(shè)備、基礎(chǔ)軟件等介質(zhì)。從數(shù)據(jù)集構(gòu)建與管理上看,包含數(shù)據(jù)集設(shè)計、數(shù)據(jù)收集、數(shù)據(jù)標(biāo)注、數(shù)據(jù)歸檔和數(shù)據(jù)管理等階段[7]。從數(shù)據(jù)使用階段看,即數(shù)據(jù)分析和處理,涉及模型訓(xùn)練過程和部署運行過程,包括數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、測試驗證、模型部署、實際數(shù)據(jù)處理、預(yù)測結(jié)果輸出等。從數(shù)據(jù)管理上看,包含數(shù)據(jù)集儲存、分發(fā)、使用、擴容、更新、刪減等活動。醫(yī)學(xué)人工智能研究的多階段、多層次特點,需要審批和監(jiān)管部門對其各個階段、層次的研究進行獨立審查,并結(jié)合研究過程,開展適時、必要的跟蹤審查,以確保研究的科學(xué)性和倫理性。

第三,醫(yī)學(xué)人工智能研究涉及前沿未知倫理問題挑戰(zhàn)。

①數(shù)據(jù)相關(guān)倫理問題。

醫(yī)學(xué)人工智能研究離不開高質(zhì)量帶標(biāo)注的醫(yī)學(xué)數(shù)據(jù)集,其產(chǎn)品全生命周期過程中的數(shù)據(jù)集包括訓(xùn)練集、調(diào)優(yōu)集和測試集。根據(jù)數(shù)據(jù)收集的方式,可將研究分為前瞻性數(shù)據(jù)收集研究和回顧性數(shù)據(jù)收集研究[8]。當(dāng)前,人工智能醫(yī)療公司主要通過與醫(yī)療機構(gòu)合作科研項目、從公開數(shù)據(jù)集下載數(shù)據(jù)或通過公司購買數(shù)據(jù)等三種渠道獲取數(shù)據(jù)。大多數(shù)人工智能產(chǎn)品的訓(xùn)練樣本主要來自醫(yī)院患者的各類醫(yī)學(xué)影像數(shù)據(jù),少部分來自于人類行為信息的數(shù)字化記錄等[9]。數(shù)據(jù)作為醫(yī)學(xué)人工智能研究的重要基礎(chǔ)資料,數(shù)據(jù)質(zhì)量、數(shù)據(jù)安全、數(shù)據(jù)隱私、數(shù)據(jù)知情同意及二次使用授權(quán)等問題亟待審批和監(jiān)管部門采取必要措施加以規(guī)范化管理。一旦存在數(shù)據(jù)造假、數(shù)據(jù)偏倚、數(shù)據(jù)陳舊、數(shù)據(jù)不完整、數(shù)據(jù)樣本量過低等問題,將直接影響人工智能產(chǎn)品的有效性、安全性和風(fēng)險性,嚴(yán)重的可能通過數(shù)據(jù)鴻溝造成算法歧視/偏見,擾亂社會倫理秩序,帶來新的不公平問題。大數(shù)據(jù)分析技術(shù)讓人的隱私無處可藏,越來越頻繁的數(shù)據(jù)流通削弱了個人對其數(shù)據(jù)的控制和管理。醫(yī)療數(shù)據(jù),因其涉及個體的健康、疾病、基因等關(guān)鍵信息,本身具有敏感屬性,一旦泄露,不僅關(guān)涉?zhèn)€人的隱私和尊嚴(yán),還可能侵害民族,甚至危害國家安全。如何界定和分配數(shù)據(jù)安全和隱私保護的責(zé)任,是當(dāng)前亟待解決的問題。醫(yī)學(xué)人工智能研究通過用戶提供、自動采集、間接獲取等方式采集大量訓(xùn)練數(shù)據(jù)和應(yīng)用數(shù)據(jù),用于訓(xùn)練模型或推斷預(yù)測,涉及個人敏感信息的數(shù)據(jù),存在數(shù)據(jù)采集合規(guī)性問題、數(shù)據(jù)采集與用戶授權(quán)不一致問題、用戶選擇退出權(quán)難以保障問題、匿名化數(shù)據(jù)被重識別等問題。需在最大化保留信息滿足研究需求的情況下,平衡數(shù)據(jù)主體的個人權(quán)益和社會公眾利益。

②算法相關(guān)倫理問題。

算法是人工智能實現(xiàn)應(yīng)用的核心,可以被簡單地理解為通過計算機語言實現(xiàn)的一種解決問題的方法,主要依賴于技術(shù)人員的主觀選擇和判斷,往往因為商業(yè)機密、復(fù)雜性及專業(yè)性不被外界知曉。算法方面能夠引發(fā)人工智能研究倫理問題的主要包括算法透明度問題、算法安全性問題、算法公平性問題等。算法透明性通常包括可解釋性和可追溯性,讓用戶了解人工智能中的決策過程和因果關(guān)系,關(guān)乎用戶的知情權(quán)益和信任。但過度公開透明,可能為動機不良者擾亂系統(tǒng)、操縱算法提供機會,影響研發(fā)人員和企業(yè)的積極性,不利于技術(shù)創(chuàng)新和社會進步。如何平衡公眾的權(quán)益和公司的機密,目前還沒有明確的標(biāo)準(zhǔn)。算法安全性問題,主要指算法可信賴、算法漏洞等帶來的安全風(fēng)險問題。以深度學(xué)習(xí)算法為代表的機器學(xué)習(xí)算法為例,能夠自主地調(diào)整自身的操作參數(shù)和決策規(guī)則,因此會帶來極強的不確定性,產(chǎn)生的安全性問題一旦侵害人身權(quán)益,后果可能難以挽回[10]。算法公平性問題主要是由算法歧視或偏見造成,是指由于算法的設(shè)計者或開發(fā)人員對事物的認(rèn)知存在某種偏見,或者算法執(zhí)行時使用了帶有偏見的數(shù)據(jù)集等原因,造成算法產(chǎn)生帶有歧視性的結(jié)果[11]。一旦算法公平性存在問題,可能使得一些人占有技術(shù)成果,而另一些人被排斥、被剝削,嚴(yán)重破壞社會的公平公正。

③產(chǎn)品研發(fā)相關(guān)倫理問題。

我國人工智能技術(shù)發(fā)展迅速,醫(yī)學(xué)應(yīng)用產(chǎn)品層出不窮,但目前尚沒有統(tǒng)一的監(jiān)管醫(yī)學(xué)人工智能應(yīng)用的標(biāo)準(zhǔn),也沒有醫(yī)學(xué)人工智能產(chǎn)品審批通過的標(biāo)準(zhǔn),影響了對相關(guān)產(chǎn)品應(yīng)用的安全性風(fēng)險的把控。醫(yī)學(xué)人工智能產(chǎn)品在正式上市之前,需經(jīng)過臨床試驗。一方面,當(dāng)試驗過程中出現(xiàn)錯誤的判定或結(jié)果導(dǎo)致受試者健康或權(quán)益受到損害,數(shù)據(jù)科學(xué)家、產(chǎn)品研發(fā)和設(shè)計者、生產(chǎn)商、醫(yī)生以及醫(yī)療機構(gòu)的風(fēng)險分配和責(zé)任劃分問題,現(xiàn)有的法律制度體系規(guī)定尚存在不充足性和局限性;另一方面,很多互聯(lián)網(wǎng)企業(yè)在大眾認(rèn)識到數(shù)據(jù)的價值之前,就完成了對數(shù)據(jù)的積累,在沒有征得大眾的同意和授權(quán)的情況下便開始了對數(shù)據(jù)的分析和使用。個人數(shù)據(jù)貢獻(xiàn)者是否對數(shù)據(jù)資源享有所有權(quán)、開發(fā)利用權(quán)以及產(chǎn)品利益分享權(quán)等問題,相關(guān)法律界定仍缺失。

2 醫(yī)學(xué)人工智能研究的倫理審查依據(jù)

2.1 國外倫理審查現(xiàn)狀

在人工智能倫理問題研究方面,國外研究成果較豐富。美國、日本、韓國、英國、歐洲和聯(lián)合國教科文組織等國家或機構(gòu)相繼發(fā)布了相關(guān)的準(zhǔn)則、規(guī)范、指南和標(biāo)準(zhǔn)。其中以“阿西洛馬人工智能原則”和國際電氣電子工程師協(xié)會(institute of electrical and electronics engineers,IEEE)組織倡議的人工智能倫理標(biāo)準(zhǔn)在國際上影響最廣。“阿西洛馬人工智能原則”于2017年1月初在美國加利福尼亞州阿西洛馬展開的“有益的人工智能”(beneficial AI)會議上被提出,目前共23項,其中涉及倫理方面的共13項,主要為:安全性、故障透明、判決透明、職責(zé)、價值觀一致、人類價值觀、個人隱私、自由與隱私、共享利益、共享繁榮、人類控制、非顛覆、人工智能軍備競賽[11]。IEEE分別于2016年12月和2017年12月在全球范圍內(nèi)先后發(fā)布了第1版和第2版的《以倫理為基準(zhǔn)的設(shè)計:人工智能及自主系統(tǒng)以人類福祉為先的愿景》。在第2版內(nèi)容中提出了五個核心倫理原則:人權(quán)、福祉、問責(zé)、透明、慎用[12]。

2.2 國內(nèi)倫理審查依據(jù)

我國自2016年開始圍繞人工智能在醫(yī)療健康領(lǐng)域的應(yīng)用頒布了《“互聯(lián)網(wǎng)+”人工智能三年行動實施方案》(2016)、《國務(wù)院辦公廳關(guān)于促進和規(guī)范健康醫(yī)療大數(shù)據(jù)應(yīng)用發(fā)展的指導(dǎo)意見》(2016)、《“十三五”國家科技創(chuàng)新規(guī)劃》(2016)、《智能硬件產(chǎn)業(yè)創(chuàng)新發(fā)展專項行動(2016-2018)》(2016)、《“十三五”國家戰(zhàn)略性新興產(chǎn)業(yè)發(fā)展規(guī)劃》(2016)、《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》(2017)、《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018-2020年)》(2017)、《國務(wù)院辦公廳關(guān)于促進“互聯(lián)網(wǎng)+醫(yī)療健康”發(fā)展的意見》(2018)等旨在鼓勵人工智能研發(fā)和推廣的政策文件,對于醫(yī)學(xué)人工智能研究尚處于軟性監(jiān)管階段,并未上升到法律法規(guī)層面。

醫(yī)學(xué)人工智能研究如按照學(xué)術(shù)性科研課題進行管理,屬于醫(yī)療領(lǐng)域研究,目前廣泛遵循原國家衛(wèi)計委2016年10月頒布的《涉及人的生物醫(yī)學(xué)研究倫理審查辦法》。如涉及臨床應(yīng)用,還應(yīng)遵循《人工智能輔助診斷技術(shù)管理規(guī)范(2017年版)》《人工智能輔助診斷技術(shù)臨床應(yīng)用質(zhì)量控制指標(biāo)(2017年版)》《人工智能輔助治療技術(shù)管理規(guī)范(2017年版)》相關(guān)規(guī)定。如按照產(chǎn)品研發(fā)注冊申請進行管理,則應(yīng)根據(jù)相關(guān)性,遵循由國家藥品監(jiān)督管理局發(fā)布的法規(guī)要求。目前作為醫(yī)用軟件的通用指導(dǎo)原則有三個,包括《醫(yī)療器械軟件注冊技術(shù)審查指導(dǎo)原則》《移動醫(yī)療器械注冊技術(shù)指導(dǎo)原則》及《醫(yī)療器械網(wǎng)絡(luò)安全注冊技術(shù)審查指導(dǎo)原則》。2019年6月,國家藥品監(jiān)督管理局醫(yī)療器械技術(shù)審評中心發(fā)布了《深度學(xué)習(xí)輔助決策醫(yī)療器械軟件的審評要點及相關(guān)說明》。

除此之外,國內(nèi)部分高校、研究院所、標(biāo)準(zhǔn)委員會、學(xué)會組織等也形成了一些共識原則和標(biāo)準(zhǔn)。2018年1月,在國家人工智能標(biāo)準(zhǔn)化總體組的成立大會上,《人工智能標(biāo)準(zhǔn)化白皮書(2018)》正式發(fā)布,該白皮書論述了人工智能的安全、倫理和隱私問題,認(rèn)為設(shè)定人工智能技術(shù)的倫理要求,要依托于社會和公眾對人工智能倫理的深入思考和廣泛共識,并遵循一些共識原則[1]。2019年4月,國家人工智能標(biāo)準(zhǔn)化總體組發(fā)布了《人工智能倫理風(fēng)險分析報告》,提出了人工智能2項倫理準(zhǔn)則:第一,人類根本原則,指人工智能應(yīng)以實現(xiàn)人類根本利益為終極目標(biāo);第二,責(zé)任原則,指在人工智能相關(guān)的技術(shù)開發(fā)和應(yīng)用兩方面都建立明確的責(zé)任體系。2019年6月,科技部人工智能治理專家委員會發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出人工智能發(fā)展應(yīng)遵循八項原則:①和諧友好;②公平公正;③包容共享;④尊重隱私;⑤安全可控;⑥共擔(dān)責(zé)任;⑦開放協(xié)作;⑧敏捷治理。2019年10月,全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會發(fā)布了《人工智能安全標(biāo)準(zhǔn)化白皮書(2019版)》,提出人工智能安全原則包括三項原則:①以人為本原則;②權(quán)責(zé)一致原則;③分級分類原則。且人工智能的安全屬性應(yīng)考慮保密性、完整性、可用性、可控性、魯棒性、透明性和隱私。騰訊研究院和騰訊AI實驗室、北京智源人工智能研究院、上海交通大學(xué)人工智能研究院等主流科技公司或研究機構(gòu)也紛紛就人工智能提出了各自的倫理原則。例如,騰訊在國內(nèi)率先提出“科技向善”的理念,將其與“用戶為本”一道作為新的使命愿景,并提出其人工智能研究與應(yīng)用需遵循“可用、可靠、可知、可控”原則[13]。北京智源人工智能研究院分別于2019年5月和2020年9月發(fā)布了《人工智能北京共識》和《面向兒童的人工智能北京共識》,提出人工智能的研究與開發(fā)應(yīng)遵循“造福、服務(wù)于人、負(fù)責(zé)、控制風(fēng)險、合乎倫理、多樣與包容、開放共享”原則,社會各界應(yīng)高度重視人工智能對兒童的影響,維護兒童自由表達(dá)意見與意愿的權(quán)利,公平對待和服務(wù)于所有兒童,并優(yōu)先考慮增進兒童的福祉[14-15]。

國內(nèi)現(xiàn)已頒布的多數(shù)法規(guī)條款都屬于基礎(chǔ)原則性條款,對醫(yī)學(xué)人工智能研究的規(guī)范只能起到框架性作用,缺乏具體可執(zhí)行的操作指引性。

3 醫(yī)學(xué)人工智能研究的倫理審查要點

涉及醫(yī)學(xué)人工智能的研究除需滿足傳統(tǒng)倫理審查的基本要求外,結(jié)合其研究自身特點,倫理審查應(yīng)重點關(guān)注研究風(fēng)險受益比、知情同意程序、數(shù)據(jù)安全與隱私保護措施、社會公平公正等內(nèi)容。

3.1 研究風(fēng)險受益比

研究可能遭受的風(fēng)險程度與研究預(yù)期的受益相比的合理性是評估研究能否開展的必要條件。涉及醫(yī)學(xué)人工智能的研究,其風(fēng)險是對個人或社會或國家可能的傷害,應(yīng)對該風(fēng)險的嚴(yán)重性、程度和發(fā)生概率,有無采取使風(fēng)險最小化的方法進行評估,而受益則包括對個體的受益和對社會的受益[16]。在具體實踐中,首先,應(yīng)對研究目的性質(zhì)是基于商業(yè)利益、公共利益還是國家利益進行審慎評估。唯有研究具有重要的社會價值,且不會給參與者個人或所在群體帶來超過最小風(fēng)險值的風(fēng)險才能獲得倫理的辯護[17]。其次,進一步評判從人工智能研究的數(shù)據(jù)層面、算法層面、應(yīng)用層面以及研發(fā)整個生命周期過程中相關(guān)基礎(chǔ)技術(shù)設(shè)備、平臺支撐、人員組織、制度流程等內(nèi)容的合理合法性。數(shù)據(jù)層面主要考慮數(shù)據(jù)來源的合規(guī)性,數(shù)據(jù)質(zhì)量的可靠性、數(shù)據(jù)安全的可控性、數(shù)據(jù)隱私的保密性等內(nèi)容。醫(yī)學(xué)人工智能研究所用數(shù)據(jù)集在數(shù)據(jù)質(zhì)量上應(yīng)符合樣本多樣、均衡、真實、完整、可用、時效、一致、可溯源等要求,能夠與實現(xiàn)人工智能產(chǎn)品的預(yù)期用途相匹配。數(shù)據(jù)隱私泄露是涉及醫(yī)學(xué)人工智能研究的主要風(fēng)險之一,有些風(fēng)險可能難以預(yù)測。研究人員應(yīng)對數(shù)據(jù)的收集和使用遵循最小必要原則,除非研究需要,盡可能少用可識別信息和敏感數(shù)據(jù),避免數(shù)據(jù)采集與數(shù)據(jù)主體授權(quán)不一致、過度采集數(shù)據(jù)等問題。數(shù)據(jù)使用過程中對數(shù)據(jù)采集、存儲、傳輸、處理、交換及銷毀等環(huán)節(jié)的數(shù)據(jù)安全要求要有明確嚴(yán)格的規(guī)定。算法層面主要圍繞算法模型的魯棒性、安全防護、可解釋性、可驗證性、可預(yù)測性等方面進行評估,對算法在運用中的主觀意圖、價值取向、利益與風(fēng)險分擔(dān)等展開系統(tǒng)深入的分析,使得其對相關(guān)群體和利害關(guān)系人可能出現(xiàn)的各種負(fù)面后果能夠得以充分揭示[10]。

3.2 知情同意程序

醫(yī)學(xué)人工智能研究的訓(xùn)練樣本目前主要來自于醫(yī)院患者的各類醫(yī)學(xué)數(shù)據(jù)。針對含有可識別個人信息的海量數(shù)據(jù)研究,傳統(tǒng)具體的知情同意方式已不足以應(yīng)對大數(shù)據(jù)時代的數(shù)據(jù)反復(fù)挖掘使用的特點[18]。在數(shù)據(jù)收集與使用階段,倫理審查委員會應(yīng)根據(jù)研究中所使用的數(shù)據(jù)的收集方式、涉密性、敏感性、研究預(yù)期目的、社會價值、重新獲取知情同意的難度以及管理措施,來判斷研究應(yīng)采取具體的知情同意、廣泛的知情同意、免除知情同意還是選擇退出程序以及知情同意的撤回形式。

第一,具體的知情同意:對于收集和儲存數(shù)據(jù)時已知道未來用途,無論是用于當(dāng)下特定的研究目的,還是用于未來尚未明確目的的研究,研究者均需從數(shù)據(jù)提供者處獲得具體的知情同意。同時,應(yīng)告知研究參與者所收集數(shù)據(jù)的將來處置措施,說明是否會儲存起來,如儲存起來是否可用于將來的其他研究等。當(dāng)涉及相關(guān)數(shù)據(jù)的研究方案、范圍和/或內(nèi)容發(fā)生變化時,并與原有知情同意內(nèi)容不相符,還應(yīng)再次獲取數(shù)據(jù)主體的知情同意。

第二,廣泛的知情同意:廣泛的知情同意不是“一攬子同意”,而是指對未來限定于某方面的研究進行有限的知情同意。采用廣泛的知情同意形式應(yīng)該對以下內(nèi)容進行具體規(guī)定:①數(shù)據(jù)收集的目的;②儲存的條件和期限;③數(shù)據(jù)使用規(guī)則;④數(shù)據(jù)占有或使用者的聯(lián)系方式,以及獲知數(shù)據(jù)未來使用的途徑;⑤數(shù)據(jù)可預(yù)見的用途,既包括已經(jīng)完全確定的研究,也包括部分未知或完全未知的研究;⑥數(shù)據(jù)使用的預(yù)期目標(biāo),是用于基礎(chǔ)研究、應(yīng)用研究,還是用于商業(yè)的目的;⑦出現(xiàn)未請求同意的研究發(fā)生的可能性以及相關(guān)處理措施。倫理審查委員會必須確保,提議數(shù)據(jù)的收集和儲存方案,以及知情同意程序,均符合以上規(guī)定。

第三,知情同意的選擇退出或撤回:醫(yī)學(xué)人工智能研究的數(shù)據(jù)采用由常規(guī)臨床情形下收集的數(shù)據(jù),除非數(shù)據(jù)主體一開始就明確表示反對,否則其數(shù)據(jù)被儲存并用于研究,即為知情同意的選擇退出。知情同意的選擇退出程序必須符合下列條件:①數(shù)據(jù)主體必須明確知道有這樣的程序存在;②研究者必須提供充分的信息;③必須告知數(shù)據(jù)主體可以撤回他們的數(shù)據(jù);④必須為數(shù)據(jù)主體真正提供反對的可能[17]。知情同意還應(yīng)能夠保證數(shù)據(jù)主體撤回繼續(xù)儲存和使用其個人數(shù)據(jù)的權(quán)利,知情同意的撤回包括以下方式:①不再聯(lián)系,即數(shù)據(jù)主體和數(shù)據(jù)使用者之間不再發(fā)生任何聯(lián)系或接受回訪;②不再獲得,即數(shù)據(jù)主體不再為數(shù)據(jù)使用者提供相關(guān)數(shù)據(jù)資料;③不再使用,即數(shù)據(jù)主體聲明退出研究,其原有相關(guān)數(shù)據(jù)按相關(guān)流程全部銷毀,不應(yīng)繼續(xù)使用。

第四,免除知情同意:醫(yī)學(xué)人工智能研究的數(shù)據(jù)采用以往因診療、研究或其他目的而收集和保存的數(shù)據(jù),同時又沒有獲得數(shù)據(jù)提供者對數(shù)據(jù)的未來研究的知情同意。免除知情同意的條件必須同時滿足以下三個條件:①研究具有重要的社會價值;②研究對參與者個人或所在群體的風(fēng)險不超過最小風(fēng)險;③不免除知情同意,研究不可能或不可行[19]。

倫理審查委員會在判斷研究應(yīng)采取何種形式的知情同意時,還應(yīng)關(guān)注研究是否符合公共利益,以及如何促進公眾參與和透明度等內(nèi)容[19],并不是完全聽從數(shù)據(jù)主體的自由選擇,而是在平衡數(shù)據(jù)主體和數(shù)據(jù)使用者等多方主體利益的基礎(chǔ)上,推動個人健康數(shù)據(jù)有序流通和增值使用的同時,最大化保障數(shù)據(jù)主體的合法權(quán)益[20]。

3.3 數(shù)據(jù)安全與隱私保護措施

醫(yī)學(xué)人工智能產(chǎn)品的研究離不開患者的個人健康信息和病歷信息,倫理審查委員會應(yīng)根據(jù)數(shù)據(jù)所含個人可識別信息和敏感信息等特點來審慎評估醫(yī)學(xué)人工智能研究過程中須采取的數(shù)據(jù)安全與隱私保護措施。通過對研究所涉及的人員資質(zhì)、基礎(chǔ)設(shè)施、權(quán)限控制技術(shù)、數(shù)據(jù)流通規(guī)則等內(nèi)容的審查來確定研究者是否采取恰當(dāng)?shù)拇胧┙档碗[私泄露風(fēng)險。首先,因醫(yī)學(xué)人工智能研究過程中可能涉及的對象包括個人、醫(yī)護人員、醫(yī)院管理者、政府行政管理部門、數(shù)據(jù)工程師、產(chǎn)品研發(fā)和設(shè)計人員等,倫理審查委員會應(yīng)針對研究過程中可能直接接觸研究資料的人員組織資質(zhì)、基礎(chǔ)設(shè)施、權(quán)限控制技術(shù)、數(shù)據(jù)流通規(guī)則等方面進行嚴(yán)格審查。通過對可接觸研究資料的人員的背景審查、信息安全和倫理培訓(xùn)情況,保密協(xié)議簽署情況,隱私政策法規(guī)掌握情況等資質(zhì)的審查評估,對不同類型的人員對數(shù)據(jù)的收集、存儲和使用權(quán)限進行分類分級管理,并明確數(shù)據(jù)安全責(zé)任主體,確保研究過程中的數(shù)據(jù)層、算法層及應(yīng)用層的安全和隱私保護可控,一旦發(fā)生數(shù)據(jù)的違規(guī)使用、濫用和泄露等能夠溯源追責(zé)到個人;其次,涉及醫(yī)學(xué)人工智能的研究,包含數(shù)據(jù)采集、存儲、挖掘、應(yīng)用、運輸、傳輸、共享等環(huán)節(jié),并涉及服務(wù)器、存儲設(shè)備、網(wǎng)絡(luò)設(shè)備、基礎(chǔ)軟件等介質(zhì),數(shù)據(jù)隱私保護措施應(yīng)貫徹于全流程和全介質(zhì),因此,倫理審查委員會應(yīng)關(guān)注數(shù)據(jù)載體應(yīng)用的工具和設(shè)備的安全可靠性和數(shù)據(jù)全生命周期的一切行為的可追溯性;最后,倫理審查委員會還應(yīng)關(guān)注研究數(shù)據(jù)是否有訪問控制技術(shù)、數(shù)據(jù)顯示限制技術(shù)、數(shù)據(jù)加密技術(shù)、數(shù)據(jù)使用共享限制技術(shù)等隱私保護的關(guān)鍵技術(shù)和數(shù)據(jù)使用場景,對數(shù)據(jù)隱私保護措施的合規(guī)性進行評估,來進一步規(guī)范涉及醫(yī)學(xué)人工智能研究過程中的數(shù)據(jù)利用。

3.4 社會公平公正性

醫(yī)學(xué)人工智能的研發(fā)與應(yīng)用應(yīng)以促進人類向善、增進人類福祉為目的,避免通過算法歧視和算法偏見等進一步加劇或固化社會不公平不公正現(xiàn)象。算法歧視/偏見產(chǎn)生的原因主要歸結(jié)于數(shù)據(jù)輸入和算法技術(shù)兩個方面,算法的設(shè)計又是技術(shù)人員的主觀選擇和判斷[21]。因此,倫理審查委員會應(yīng)審慎評估醫(yī)學(xué)人工智能研究中的價值設(shè)計是否公平公正地將道德規(guī)則和法律寫進程序,避免算法繼承了研發(fā)人員或數(shù)據(jù)的偏見。采取多種措施加強對訓(xùn)練數(shù)據(jù)和算法的審查和測試,確保研究數(shù)據(jù)真正具有代表性,能夠代表多元化的人群,促進人工智能在廣泛人群中的可及性和可負(fù)擔(dān)性。

猜你喜歡
人工智能研究
我校新增“人工智能”本科專業(yè)
FMS與YBT相關(guān)性的實證研究
2020年國內(nèi)翻譯研究述評
遼代千人邑研究述論
視錯覺在平面設(shè)計中的應(yīng)用與研究
科技傳播(2019年22期)2020-01-14 03:06:54
EMA伺服控制系統(tǒng)研究
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
新版C-NCAP側(cè)面碰撞假人損傷研究
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
主站蜘蛛池模板: 成人免费一级片| 在线视频亚洲色图| 麻豆精品在线播放| 一本大道无码日韩精品影视| 波多野结衣在线se| 亚洲人成人无码www| av色爱 天堂网| 伊人国产无码高清视频| 国产青榴视频| 91午夜福利在线观看精品| 亚洲国产无码有码| 亚洲Aⅴ无码专区在线观看q| 久久无码av一区二区三区| www.av男人.com| 色综合婷婷| 久久国产亚洲偷自| 狼友视频一区二区三区| 白浆免费视频国产精品视频| 国产屁屁影院| 亚洲va精品中文字幕| 黄色网址免费在线| 中文字幕啪啪| 免费午夜无码18禁无码影院| 国产一级妓女av网站| 在线免费观看a视频| 日韩av无码DVD| 99热亚洲精品6码| 制服丝袜一区| 在线国产毛片手机小视频| 99精品一区二区免费视频| 中国一级特黄大片在线观看| 国产91成人| 日韩二区三区无| 日本高清有码人妻| 亚洲天堂网2014| 日本一区二区三区精品国产| 欧美在线导航| 日韩免费无码人妻系列| 激情无码视频在线看| 久久精品女人天堂aaa| 四虎永久在线精品影院| 狠狠色香婷婷久久亚洲精品| 爱色欧美亚洲综合图区| 国产成人高清精品免费| 91午夜福利在线观看| 精品伊人久久久香线蕉| 国产一级做美女做受视频| 国产凹凸一区在线观看视频| 国产玖玖玖精品视频| 亚洲精品老司机| 国产裸舞福利在线视频合集| 国产精品嫩草影院av| 丁香婷婷综合激情| 日韩福利视频导航| 国产精品99久久久久久董美香| 亚洲日本中文字幕天堂网| 亚洲一区色| 日韩精品无码免费一区二区三区| 欧美日韩中文字幕二区三区| 色综合中文| 中文字幕自拍偷拍| 国国产a国产片免费麻豆| 久久www视频| 亚洲91在线精品| 欧美性天天| 久久这里只有精品23| vvvv98国产成人综合青青| 国产H片无码不卡在线视频| 亚洲国产日韩在线成人蜜芽| 国产成人久久综合777777麻豆| 一级黄色片网| 国产精品综合久久久| 午夜不卡福利| 国产激情无码一区二区免费| 免费在线看黄网址| 亚洲成aⅴ人在线观看| 欧美精品三级在线| 亚洲另类色| 亚洲第一精品福利| 在线观看亚洲成人| av在线无码浏览| 伊人久久婷婷五月综合97色|