湯可楨 黃 格 陶金婷 袁紫藤 張宇清
(湖北中醫(yī)藥大學(xué)人文學(xué)院 武漢430065)
2017年“新一代人工智能發(fā)展規(guī)劃”指出將在醫(yī)療領(lǐng)域推廣應(yīng)用人工智能(Artificial Intelligence,AI)治療新模式、新手段,衛(wèi)生健康領(lǐng)域正在成為人工智能最富變革力的領(lǐng)域之一。但是正如其中所言“人工智能是影響面廣的顛覆性技術(shù),可能帶來(lái)改變就業(yè)結(jié)構(gòu)、沖擊法律與社會(huì)倫理、侵犯?jìng)€(gè)人隱私、挑戰(zhàn)國(guó)際關(guān)系準(zhǔn)則等問(wèn)題,將對(duì)政府管理、經(jīng)濟(jì)安全和社會(huì)穩(wěn)定乃至全球治理產(chǎn)生深遠(yuǎn)影響”。
人工智能概念由麥卡錫等于1956年在達(dá)特茅斯會(huì)議上提出,使機(jī)器達(dá)到與人類做同樣的行為可稱為人工智能。因?qū)χ悄苓@一概念并不明確,對(duì)于何謂人工智能并未達(dá)成共識(shí)。筆者認(rèn)為人工智能是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新技術(shù)科學(xué)[1]。人工智能可分為3個(gè)層次,即弱人工智能、強(qiáng)人工智能和超越人類的超人工智能,目前所有的人工智能技術(shù)尚屬于弱人工智能階段。
隨著“人工智能+醫(yī)療”深度融合,政策和資金層面的大規(guī)模投入,人工智能技術(shù)為多個(gè)醫(yī)療細(xì)分領(lǐng)域提供了幫助。特倫斯·謝諾夫斯基在新書《深度學(xué)習(xí):智能時(shí)代的核心驅(qū)動(dòng)力量》中預(yù)測(cè):基于大數(shù)據(jù)的深度學(xué)習(xí)將改變醫(yī)療行業(yè),對(duì)疾病提供更快速、準(zhǔn)確的診斷和治療,甚至未來(lái)癌癥將變得不再可怕。目前人工智能在我國(guó)衛(wèi)生健康領(lǐng)域的應(yīng)用場(chǎng)景[2-3],見圖1。

圖1 人工智能在我國(guó)衛(wèi)生健康領(lǐng)域應(yīng)用場(chǎng)景
法律的功能是在廣泛的領(lǐng)域中指引、計(jì)劃和控制人們生活,其中包括人工智能在內(nèi)的科技發(fā)展。人工智能在法律理論上的挑戰(zhàn)體現(xiàn)為某些傳統(tǒng)觀念、看法已無(wú)法與人工智能匹配,有必要做出修正。而實(shí)踐上體現(xiàn)為法律傳統(tǒng)的風(fēng)險(xiǎn)防范、救濟(jì)機(jī)制已無(wú)法應(yīng)對(duì)人工智能引發(fā)的科技風(fēng)險(xiǎn),必須重新構(gòu)建。
2.2.1 主要學(xué)說(shuō) (1)否定說(shuō)。目前大多數(shù)學(xué)者所持的一種觀點(diǎn),即完全否定人工智能具有法律人格。主要包括鄭戈的“工具說(shuō)”,吳漢東、王利明為代表的“客體控制說(shuō)”以及楊立新為代表的“人工類人格”?!肮ぞ哒f(shuō)”認(rèn)為人工智能是人類的一種工具,在發(fā)生損害后還是由人來(lái)承擔(dān)責(zé)任,沒有必要賦予其法律主體地位?!翱腕w控制說(shuō)”認(rèn)為人工智能不是有生命的自然人,也非獨(dú)立意志的法人,不足以取得獨(dú)立主體地位[4],現(xiàn)行法律可以解決人工智能帶來(lái)的挑戰(zhàn),沒有必要賦予其民事主體資格[5]?!叭斯ゎ惾烁裾f(shuō)”認(rèn)為智能機(jī)器人盡管具有一定的自主意識(shí)能力和意志,能夠充當(dāng)一定的社會(huì)角色,但不具有法律人格,屬于物的范疇,是權(quán)利客體。(2)肯定說(shuō)。即肯定人工智能的法律主體資格,其理論來(lái)源為擬制人格的出現(xiàn)。在法律的發(fā)展歷史上,為適應(yīng)法人在社會(huì)經(jīng)濟(jì)中所發(fā)揮的作用使法人通過(guò)法律人格擬制的方式參與法律關(guān)系。未來(lái)出現(xiàn)的機(jī)器人將擁有生物大腦,甚至可與人腦相媲美,屆時(shí)可通過(guò)法律人格擬制的方式賦予智能機(jī)器人法律關(guān)系主體資格,使之參與社會(huì)經(jīng)濟(jì)生活[6]。(3)折中說(shuō)。既不肯定也不否定人工智能具有人格。主要包括“電子人格說(shuō)”以及“有限人格說(shuō)”。“電子人格說(shuō)”最具代表性的是歐盟考慮對(duì)復(fù)雜的自主機(jī)器人賦予電子人的法律地位,使其具有一定的權(quán)利和義務(wù)?!坝邢奕烁裾f(shuō)”認(rèn)為人工智能作為具有獨(dú)立意識(shí)的智慧工具,應(yīng)賦予法律主體資格,但與自然人和法人不同,人工智能承擔(dān)的責(zé)任是有限的,因而其為有限法律人格。
2.2.2 相關(guān)觀點(diǎn) 從人工智能發(fā)展趨勢(shì)來(lái)看,算法、深度學(xué)習(xí)等技術(shù)不斷進(jìn)步,其自動(dòng)化程度會(huì)越來(lái)越高。如何界定人工智能的法律屬性是對(duì)法律主體制度的巨大挑戰(zhàn)。憲法法域下法律主體是公民和國(guó)家;行政法法域下法律主體是行政機(jī)關(guān)與行政相對(duì)人;民法領(lǐng)域下則是自然人、法人及非法人組織。法律主體的范疇不能超出上述范圍。目前弱人工智能尚可按照現(xiàn)行法律歸為物,不具備法律主體資格。但面對(duì)強(qiáng)人工智能甚至超人工智能,又該如何判斷其法律主體資格?機(jī)器人“曉醫(yī)”通過(guò)國(guó)家醫(yī)師資格考試,約1個(gè)小時(shí)完成10個(gè)小時(shí)的題量;沙特阿拉伯的“索菲亞”更是被賦予公民的身份。隨著人工智能的迅猛發(fā)展,其可能會(huì)沖破人與物二分的體系,在一定程度上具有自主意識(shí),能做出簡(jiǎn)單的意思表示。2018年1月美國(guó)哥倫比亞大學(xué)的工程師們聲稱其克服機(jī)器人領(lǐng)域最大的障礙之一,一個(gè)沒有被植入指令程序的機(jī)械臂在僅僅幾個(gè)小時(shí)后開始執(zhí)行實(shí)際任務(wù)。這實(shí)際上對(duì)現(xiàn)有的權(quán)利主體、程序法治、用工制度、保險(xiǎn)制度等一系列法律制度提出挑戰(zhàn),是否賦予人工智能法律主體資格、賦予其怎樣的法律主體資格是目前所面臨的重大難題,必須妥善應(yīng)對(duì)。
2.3.1 醫(yī)療技術(shù) 人工智能的不透明性,加之人工智能開發(fā)的去中心化模式,加大責(zé)任確定和分配的難度。醫(yī)療技術(shù)損害是指醫(yī)療機(jī)構(gòu)及醫(yī)護(hù)人員在醫(yī)療活動(dòng)中違反高度注意義務(wù),具有違背當(dāng)時(shí)醫(yī)療水平的技術(shù)過(guò)失,造成患者人身?yè)p害的醫(yī)療損害責(zé)任[7]。歸責(zé)原則為過(guò)錯(cuò)責(zé)任原則,責(zé)任主體為醫(yī)療機(jī)構(gòu)及醫(yī)務(wù)人員。具備深度學(xué)習(xí)和自主決策能力的醫(yī)療人工智能使診療行為具有不可預(yù)測(cè)性,將導(dǎo)致醫(yī)療技術(shù)損害認(rèn)定困難重重。以目前的弱人工智能來(lái)看,首先是“具有違背當(dāng)時(shí)醫(yī)療水平的技術(shù)過(guò)失”認(rèn)定的困難。2015年英國(guó)手術(shù)機(jī)器人暴走事件中負(fù)責(zé)操作的主刀醫(yī)師承認(rèn)錯(cuò)過(guò)兩次機(jī)器人手術(shù)培訓(xùn)課程,當(dāng)天是其本人第1次使用該型號(hào)的機(jī)器人。在臨床應(yīng)用人工智能(尤其是外科手術(shù)機(jī)器人)之前,醫(yī)務(wù)人員必須經(jīng)過(guò)一定時(shí)期的專業(yè)培訓(xùn),但培訓(xùn)要達(dá)到何種程度目前并沒有統(tǒng)一標(biāo)準(zhǔn)或者資格、考核審查機(jī)制。雖然我國(guó)已建立國(guó)家機(jī)器人心臟外科手術(shù)培訓(xùn)基地、國(guó)際達(dá)芬奇機(jī)器人外科培訓(xùn)基地等培訓(xùn)基地,解決以往只能去國(guó)外研習(xí),周期長(zhǎng)、費(fèi)用高、難度大等問(wèn)題,但仍存在著人才缺口且培訓(xùn)考核機(jī)制不健全。這些因素導(dǎo)致醫(yī)療技術(shù)損害糾紛中被侵權(quán)人對(duì)違法診療行為以及違規(guī)診療行為與損害結(jié)果之間有因果關(guān)系的舉證難以完成,合法權(quán)益可能無(wú)法實(shí)現(xiàn)。如果人工智能達(dá)到獨(dú)立執(zhí)行診療活動(dòng)階段(強(qiáng)人工智能或超人工智能),那么是人工智能獨(dú)立承擔(dān)責(zé)任,還是生產(chǎn)商或設(shè)計(jì)者擔(dān)責(zé),再或是使用該人工智能醫(yī)療機(jī)構(gòu)擔(dān)責(zé)?如果人工智能獨(dú)立承擔(dān)責(zé)任,責(zé)任形式有哪些?批準(zhǔn)該人工智能的相關(guān)機(jī)構(gòu)是否應(yīng)當(dāng)擔(dān)責(zé)?這些都需要完善法律制度來(lái)予以應(yīng)對(duì)和規(guī)制。
2.3.2 醫(yī)療倫理 醫(yī)療倫理?yè)p害責(zé)任是指醫(yī)療機(jī)構(gòu)及醫(yī)務(wù)人員違背醫(yī)療良知和倫理要求,違背醫(yī)療機(jī)構(gòu)和醫(yī)務(wù)人員的告知或者保密義務(wù),具有醫(yī)療倫理過(guò)失,造成患者人身?yè)p害以及其他合法權(quán)益受損的醫(yī)療損害責(zé)任[7]。與醫(yī)療技術(shù)損害不同,被侵權(quán)人只需要對(duì)醫(yī)療機(jī)構(gòu)及醫(yī)務(wù)人員違法行為、損害結(jié)果以及因果關(guān)系進(jìn)行證明,醫(yī)療機(jī)構(gòu)及醫(yī)務(wù)人員需對(duì)于沒有過(guò)錯(cuò)舉證。英國(guó)機(jī)器人暴走事件中醫(yī)務(wù)人員并未告知患者其是國(guó)內(nèi)第1例且手術(shù)存在較高的風(fēng)險(xiǎn),采用傳統(tǒng)手術(shù)方法存活率將更高。醫(yī)方未盡到充分告知義務(wù),侵害患者知情同意權(quán)。手術(shù)機(jī)器人不同于一般的醫(yī)療器械,具有更強(qiáng)的自主性,即便醫(yī)療機(jī)構(gòu)手術(shù)前完成充分告知義務(wù),但使用過(guò)程中出現(xiàn)脫離人類操控、甚至違背人類意志的情形時(shí)醫(yī)療機(jī)構(gòu)是否承擔(dān)倫理?yè)p害責(zé)任?綜上,認(rèn)定醫(yī)療機(jī)構(gòu)及醫(yī)務(wù)人員是否違反告知法定義務(wù)、違反的程度以及因果關(guān)系都是現(xiàn)行法律所面臨的困難。
2.3.3 醫(yī)療產(chǎn)品 在目前人工智能不具備法律主體資格的前提下應(yīng)用于衛(wèi)生健康領(lǐng)域的人工智能產(chǎn)品僅能認(rèn)定為醫(yī)療器械。國(guó)家藥監(jiān)局醫(yī)療器械技術(shù)審評(píng)中心2017年正式成立的人工智能工作組認(rèn)為以醫(yī)療器械數(shù)據(jù)為處理對(duì)象且具有醫(yī)療用途的人工智能產(chǎn)品屬于醫(yī)療器械。該類型的醫(yī)療損害應(yīng)適用《侵權(quán)責(zé)任法》第59條醫(yī)療產(chǎn)品損害責(zé)任,歸責(zé)原則為無(wú)過(guò)錯(cuò)責(zé)任原則。被侵權(quán)人需就醫(yī)療機(jī)構(gòu)使用有缺陷的醫(yī)療人工智能產(chǎn)品與損害事實(shí)之間的因果關(guān)系進(jìn)行舉證?!懂a(chǎn)品質(zhì)量法》第46條規(guī)定產(chǎn)品缺陷的認(rèn)定依據(jù),一是存在危及他人人身、財(cái)產(chǎn)安全的不合理危險(xiǎn);二是不符合國(guó)家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)。而應(yīng)用于醫(yī)療領(lǐng)域的人工智能產(chǎn)品相較于一般的醫(yī)療器械而言復(fù)雜度高,目前并沒有關(guān)于醫(yī)療人工智能技術(shù)的國(guó)家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)。值得注意的是人工智能產(chǎn)業(yè)發(fā)展中存在著只關(guān)注創(chuàng)新、市場(chǎng)和經(jīng)濟(jì)效益,未充分考量安全因素的現(xiàn)象。以上諸多因素造成產(chǎn)品缺陷認(rèn)定異常困難,被侵權(quán)者很難就因果關(guān)系進(jìn)行證明,難以完成舉證證明責(zé)任。另外醫(yī)療人工智能是高科技產(chǎn)品,責(zé)任主體的確定也具有特殊性。在我國(guó)手術(shù)機(jī)器人已被廣泛應(yīng)用于臨床,損害侵權(quán)案例也有發(fā)生。如果按照《侵權(quán)責(zé)任法》規(guī)定確定由醫(yī)療機(jī)構(gòu)或生產(chǎn)者、銷售者承擔(dān)責(zé)任顯然不合理,還需增加設(shè)計(jì)者(發(fā)明者)這一責(zé)任主體。因?yàn)槭中g(shù)機(jī)器人依靠自身算法運(yùn)作,有自身獨(dú)特的運(yùn)作程序。而這些運(yùn)作程序有的是由設(shè)計(jì)人(發(fā)明人)基于與生產(chǎn)商之間的合同完成,并非是由生產(chǎn)商完成。不僅如此,人工智能程序的復(fù)雜度決定其可能存在多個(gè)共同研發(fā)主體,有時(shí)會(huì)難以確定具體程序的設(shè)計(jì)者,這也給責(zé)任主體的確定帶來(lái)困難。
2.4.1 個(gè)人健康信息概念 指?jìng)€(gè)人過(guò)去、目前和未來(lái)的生理和心理健康、醫(yī)療護(hù)理情況及與醫(yī)療護(hù)理相關(guān)的信息。可分為兩個(gè)部分,即電子病歷信息(Electronic Medical Records,EMR)和患者產(chǎn)生的健康醫(yī)療數(shù)據(jù)(Patient Generated Health Data,PGHD)。在衛(wèi)生健康領(lǐng)域人工智能技術(shù)依托于大數(shù)據(jù)的采集、分析和處理,除基本公民信息外(家庭住址、年齡、姓名、婚姻狀況等)還包括過(guò)往病史、診療記錄、基因檢測(cè)和遺傳史等。
2.4.2 個(gè)人健康信息保護(hù)的挑戰(zhàn) 對(duì)患者而言,個(gè)人健康信息屬于敏感信息,大多私密性較高,在存儲(chǔ)、使用和共享等方面有嚴(yán)格的隱私安全要求,一旦泄露會(huì)對(duì)個(gè)人聲譽(yù)乃至安全產(chǎn)生巨大風(fēng)險(xiǎn)。加州大學(xué)伯克利分校近期一項(xiàng)研究顯示人工智能的進(jìn)步為人們健康數(shù)據(jù)的隱私性帶來(lái)新隱患。智能醫(yī)療系統(tǒng)將收集到的患者信息保存在云端或存儲(chǔ)器,即使刪除也能被恢復(fù);人工智能沒有人的情感,任何人均可從中調(diào)取信息,即使有加密措施也無(wú)法完全阻止信息被非法調(diào)取、篡改和濫用。2017年5月谷歌旗下DeepMind獲取英國(guó)國(guó)家醫(yī)療服務(wù)體系信托基金運(yùn)營(yíng)的3家醫(yī)院160萬(wàn)患者的醫(yī)療服務(wù)體系數(shù)據(jù),其中有艾滋病病毒感染、墮胎信息和吸毒過(guò)量歷史等私密數(shù)據(jù)[8]。人工智能技術(shù)對(duì)于個(gè)人健康信息的侵害是一種本能,若要增加智能性就會(huì)要求更多的數(shù)據(jù)信息,對(duì)于收集和處理個(gè)人數(shù)據(jù)的巨大需求,使得未經(jīng)授權(quán)使用個(gè)人信息和隱私的風(fēng)險(xiǎn)大大增加。盡管我國(guó)涉及隱私保護(hù)的法律規(guī)范已經(jīng)不少,《侵權(quán)責(zé)任法》中規(guī)定患者隱私權(quán),《民法總則》將隱私權(quán)作為一項(xiàng)獨(dú)立的人格權(quán)確立給予直接保護(hù),個(gè)人信息保護(hù)也進(jìn)行專門規(guī)定,但應(yīng)對(duì)風(fēng)險(xiǎn)的機(jī)制仍不足。一方面我國(guó)現(xiàn)有隱私權(quán)保護(hù)體系并不完善,無(wú)法像美國(guó)那樣通過(guò)不斷豐富隱私的內(nèi)核來(lái)應(yīng)對(duì)人工智能時(shí)代個(gè)人信息保護(hù)需求;另一方面我國(guó)尚未健全個(gè)人信息保護(hù)法律體系,無(wú)法像歐盟那樣依靠完善的個(gè)人信息保護(hù)法律體系來(lái)有效應(yīng)對(duì),所以亟待出臺(tái)專門個(gè)人信息保護(hù)法。
人工智能應(yīng)用于衛(wèi)生健康領(lǐng)域的發(fā)展速度較快,而該領(lǐng)域與人類生命安全密切相關(guān),龐大的醫(yī)療健康數(shù)據(jù)涉及患者隱私和數(shù)據(jù)安全,需要高度嚴(yán)謹(jǐn)?shù)恼吆头ㄒ?guī)進(jìn)行監(jiān)管,給監(jiān)管部門帶來(lái)很大挑戰(zhàn)。就我國(guó)的監(jiān)管體系而言,一些監(jiān)管和準(zhǔn)入政策還有待明確。2018年8月1日施行的新版《醫(yī)療器械分類目錄》(以下稱新《分類目錄》)中出現(xiàn)對(duì)診斷功能軟件的界定,對(duì)推動(dòng)產(chǎn)業(yè)規(guī)范化發(fā)展提出新要求。根據(jù)新《分類目錄》,診斷功能軟件風(fēng)險(xiǎn)程度按照其采用算法的風(fēng)險(xiǎn)程度、成熟程度、公開程度等為判定依據(jù),不僅以處理對(duì)象(如癌癥、惡性腫瘤等疾病的影像)為判定依據(jù)。若診斷軟件通過(guò)其算法提供診斷建議,僅具有輔助診斷功能,不直接給出診斷結(jié)論,在診斷目錄中相關(guān)產(chǎn)品按照第2類醫(yī)療器械管理。若診斷軟件通過(guò)其算法對(duì)病變部位進(jìn)行自動(dòng)識(shí)別并提供明確的診斷提示,則其風(fēng)險(xiǎn)級(jí)別相對(duì)較高,在診斷目錄中相關(guān)產(chǎn)品按照第3類醫(yī)療器械管理。目前在國(guó)家藥品監(jiān)督管理局官網(wǎng)可查詢到有兩家企業(yè)已取得神經(jīng)外科機(jī)器人的3類醫(yī)療器械注冊(cè)證。國(guó)內(nèi)監(jiān)管法制體系下對(duì)于審評(píng)審批醫(yī)療人工智能產(chǎn)品的路徑也不明朗。醫(yī)療器械更新快,人工智能醫(yī)療器械更新更快,因此不能延續(xù)傳統(tǒng)的監(jiān)管思路。傳統(tǒng)醫(yī)療器械是基于產(chǎn)品本身的監(jiān)管,而人工智能產(chǎn)品應(yīng)考慮產(chǎn)品本身的風(fēng)險(xiǎn)和廠家即制造商的風(fēng)險(xiǎn)控制。不同于美國(guó)食品與藥品管理局(Food and Drug Administration,F(xiàn)DA)在人工智能醫(yī)療器械方面有全新的加速審批通道,我國(guó)國(guó)家食品藥品監(jiān)督管理總局(China Food and Drug Adminstration,CFDA)更趨向于按照新藥或新醫(yī)療器械進(jìn)行審批,比較謹(jǐn)慎。目前藥品和器械在國(guó)家監(jiān)管層面的法律法規(guī)較為完備,但醫(yī)療人工智能是新產(chǎn)品,詳細(xì)的標(biāo)準(zhǔn)尚未制定。綜上,醫(yī)療人工智能落地的最大障礙還是來(lái)自相關(guān)監(jiān)管法規(guī)。此外我國(guó)雖然在政策層面對(duì)人工智能做出一些響應(yīng),但是尚未有專門致力于數(shù)字化醫(yī)療和人工智能技術(shù)審評(píng)的新部門,而美國(guó)已開始著手成立相關(guān)部門。
在目前人類可控范圍內(nèi)的弱人工智能階段,應(yīng)尊重人工智能發(fā)展的客觀規(guī)律,一方面在立法中最大化呈現(xiàn)人工智能發(fā)展的客觀趨勢(shì)和現(xiàn)實(shí)情況,用專業(yè)化的立法技術(shù)和手段規(guī)制科技問(wèn)題,力求所立之法能夠應(yīng)對(duì)人工智能技術(shù)領(lǐng)域出現(xiàn)的新問(wèn)題,使立法高效可行。另一方面技術(shù)具有創(chuàng)造性和毀滅性的雙重屬性,只有尊重技術(shù)發(fā)展的客觀規(guī)律才能保證技術(shù)的可控性。首先要保證技術(shù)設(shè)計(jì)的無(wú)害,其次要通過(guò)科學(xué)立法,尋找被算法掩蓋或切斷的因果聯(lián)系,避免算法歧視。
技術(shù)的發(fā)展具有一定的階段性和偶然的跨越性,人工智能技術(shù)也是如此。法律具有預(yù)測(cè)和指引的功能,在人工智能相關(guān)立法過(guò)程中應(yīng)充分考慮其發(fā)展階段,加強(qiáng)前瞻性預(yù)防,預(yù)留一定的制度空間。立法者需要在保持法律穩(wěn)定性的前提下對(duì)其從事的立法活動(dòng)賦予新的結(jié)構(gòu)內(nèi)容,通過(guò)科學(xué)立法控制技術(shù)風(fēng)險(xiǎn),約束并引導(dǎo)人工智能技術(shù)進(jìn)步。
人工智能可以給人類的未來(lái)生活帶來(lái)光明前景,同時(shí)其不確定的威脅也一直存在。為將人工智能限制在利好人類的方向發(fā)展,需要在法治、監(jiān)管、技術(shù)、標(biāo)準(zhǔn)等方面做好規(guī)范,以迎接全新時(shí)代。