于 強,趙 飛
(昆明醫(yī)科大學,云南 昆明 650500)
現(xiàn)階段人工智能在醫(yī)療領(lǐng)域的發(fā)展與應(yīng)用還處在初級階段,在暢想未來精準、高效的基于人工智能技術(shù)的醫(yī)療服務(wù)時,也應(yīng)深刻地思考醫(yī)療人工智能所面臨的技術(shù)、隱私和法律問題[1]。人工智能在醫(yī)療健康領(lǐng)域的應(yīng)用主要包括虛擬助理、病歷與文獻分析、醫(yī)療影像、輔助診斷、診療結(jié)果預測、藥物研發(fā)、健康管理、疾病預測等方面。醫(yī)療人工智能應(yīng)用前景廣闊,不僅會帶來技術(shù)方面的重大革命,也存在法律關(guān)系、道德倫理、社會治理等方面的新問題和新挑戰(zhàn)。正如習近平總書記指出的“要整合多學科力量,加強人工智能相關(guān)法律、倫理、社會問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德”[2]。因此,必須未雨綢繆,做好科學理論和認識方法論上的準備和應(yīng)對。本文將從法律的角度,分析和探討醫(yī)療人工智能的法律地位,以及醫(yī)療人工智能應(yīng)用中的隱私權(quán)保護和相關(guān)法律責任問題。
2016 年,歐盟委員會的法律事務(wù)委員提交了一項動議,建議將最先進的人工智能機器人的身份定位為‘電子人’,由此引發(fā)了經(jīng)久不息的爭論,至今尚未停息[3]。對醫(yī)療人工智能法律地位的界定非常重要,只有找到科學的認知方法論,從理論上厘清這個問題,才能解釋和應(yīng)對隨著醫(yī)療人工智能的發(fā)展和運用,必然出現(xiàn)的各種復雜、具體的問題,包括高級醫(yī)療人工智能中的機器人能否獨立對其醫(yī)療行為承擔責任,發(fā)生醫(yī)患糾紛或侵權(quán)行為時追責主體和責任主體如何認定,醫(yī)生、患者和醫(yī)療人工智能之間的關(guān)系是什么等。
從法律領(lǐng)域講,醫(yī)療行為屬民事法律關(guān)系調(diào)整范疇,民事法律關(guān)系中的主體包括自然人和法人。賦予人工智能以法律主體資格,有諸多難以逾越的障礙。如果在傳統(tǒng)法律主體觀念下,機器人首先需要具有自我意識才能成為法律主體。但證明機器人具有自我意識而不受人類控制,極具挑戰(zhàn)[4]。法學學科屬社會科學領(lǐng)域,人是目的、而不是工具,這是法哲學的一個基本命題。民法理論中對自然人界定的理論基礎(chǔ)和基本邏輯是超出了自然科學領(lǐng)域生物學范疇的,其中的關(guān)鍵在于尊重人的自我意識、主觀能動性、社會性和人格。因此,考察醫(yī)療人工智能尤其是高級人工智能中的機器人是否具有民事法律關(guān)系中的法律主體地位,關(guān)鍵也在于考察其自我意識、主觀能動性、社會性和人格權(quán)。之所以要討論這個問題,出發(fā)點在于醫(yī)療高級人工智能中的機器人似乎已經(jīng)超出了傳統(tǒng)醫(yī)療輔助設(shè)備、工具的范疇,其基于人工的智能創(chuàng)造而具備了“智慧”。但事實上,醫(yī)療人工智能本質(zhì)是基于計算機運算、大數(shù)據(jù)以及移動互聯(lián)網(wǎng)技術(shù)的綜合運用,完成系統(tǒng)、復雜的計算和集成,并據(jù)此作出在速度上遠超醫(yī)生這個自然人的判斷和決策。從這個基本原理出發(fā),醫(yī)療人工智能并非真正的自我意識基礎(chǔ)上的主觀能動性創(chuàng)造和“智慧”形成。缺乏了這點,醫(yī)療人工智能也就不可能存在醫(yī)生與患者相互的思想和行為中的社會關(guān)系。總之,醫(yī)療人工智能無論發(fā)展到哪一步,無論多么“高明”,都屬于人類創(chuàng)造的自然物,永遠不能超出人類所創(chuàng)造的工具這一本質(zhì)屬性。因此,醫(yī)療人工智能無法歸入民事法律關(guān)系中的自然人主體范疇。當然,有學者認為,如同最初法人獲得法律主體地位一樣,現(xiàn)行法律同樣不需要局限于現(xiàn)有民事主體分類,完全可以新創(chuàng)設(shè)一個特殊的人工智能法律主體”[5]。筆者認為,這種設(shè)想和設(shè)計其實已經(jīng)超出了本文基于人格權(quán)對法律關(guān)系主體的探討范圍,如果從功利主義出發(fā),要賦予人工智能一個法律關(guān)系的適格主體資格,則另當別論。因此,文中涉及的醫(yī)療人工智能是法律關(guān)系中的客體,也就是醫(yī)生或者患者權(quán)利義務(wù)所指向的對象,可以具體表現(xiàn)為一種物化的工具、非物質(zhì)財富即智力成果和行為結(jié)果三類。
隱私權(quán)是一項重要和基本的人權(quán)。基本要義包括自然人的私人信息秘密依法受到保護,不被他人非法侵擾、知悉、收集、利用和公開。醫(yī)生對患者隱私權(quán)的保護有法律上的明確規(guī)制,包括醫(yī)師在執(zhí)業(yè)活動中履行保護患者隱私的義務(wù);尊重患者的知情同意權(quán)和隱私權(quán),為患者保守醫(yī)療秘密和健康隱私;泄露患者隱私,造成嚴重后果的,須承擔相應(yīng)的行政責任或刑事責任。
醫(yī)療人工智能的“智慧”來源于生理、病理、病例、藥理等方面信息的集成,從某種程度上講,這些健康醫(yī)療大數(shù)據(jù)量的積累決定了醫(yī)療人工智能“智慧”程度的高低,而這些健康醫(yī)療大數(shù)據(jù)又來源于具體的患者,屬患者的私人信息秘密。但目前的基本現(xiàn)實是,人們的隱私數(shù)據(jù)在信息時代被記錄得越來越多,被侵擾、收集和利用也越演越烈。醫(yī)療人工智能中對健康醫(yī)療大數(shù)據(jù)的收集、集成和運用,面臨著科技進步與信息安全、隱私保護之間的突出矛盾。無論是健康醫(yī)療大數(shù)據(jù)生廠商或醫(yī)療人工智能制造商,數(shù)據(jù)信息從何而來?如果沒有法律上的明確授權(quán),或是基于醫(yī)學研究或健康促進為目的的隱私侵權(quán)的責任排除,這將是一個無法回避也無法解釋的法律問題。
2017年6月1日起施行的《中華人民共和國網(wǎng)絡(luò)安全法》,對隱私保護以及信息和數(shù)據(jù)收集、使用等作出了相關(guān)規(guī)定:明確任何個人和組織不得利用網(wǎng)絡(luò)侵害他人名譽、隱私、知識產(chǎn)權(quán)和其他合法權(quán)益;網(wǎng)絡(luò)產(chǎn)品、服務(wù)具有收集用戶信息功能的,其提供者應(yīng)當向用戶明示并取得同意;任何個人和組織不得從事竊取網(wǎng)絡(luò)數(shù)據(jù)等活動;任何個人和組織不得竊取或者以其他非法方式獲取個人信息,不得非法出售或者非法向他人提供個人信息;網(wǎng)絡(luò)運營者應(yīng)當對其收集的用戶信息嚴格保密,并建立健全用戶信息保護制度;網(wǎng)絡(luò)運營者收集、使用個人信息,應(yīng)當遵循合法、正當、必要的原則,公開收集、使用規(guī)則,明示收集、使用信息的目的、方式和范圍,并經(jīng)被收集者同意等。
總體而言,目前我國對隱私權(quán)保護方面的規(guī)定散見在不同的法律規(guī)定中,且多為一些原則性的、排除性的規(guī)定,在侵權(quán)發(fā)生后的救濟過程中具有操作性的規(guī)定不足。同時個人作為侵權(quán)控方主體,在取證、舉證環(huán)節(jié)明顯處于弱勢,救濟很難達成。因此,建立和完善隱私保護方面的立法非常迫切,應(yīng)明確醫(yī)療人工智能發(fā)展和技術(shù)開發(fā)的根本目的,信息采集與隱私保護的平衡關(guān)系,授權(quán)與信賴保護的關(guān)系,信息采集和集成的主體、來源以及責權(quán)利,信息采集、集成和使用的界限,相關(guān)法律責任及救濟程序等。
醫(yī)療人工智能的運用中,必然存在相關(guān)責任的明確和追責問題。比如暫且排除醫(yī)療人工智能存在的“主觀上”過錯不談,而由于醫(yī)療人工智能數(shù)據(jù)分析和應(yīng)用的失誤或錯誤,導致輔助診療的失誤或錯誤從而造成醫(yī)患糾紛,追責主體是醫(yī)生還是患者。責任主體是作為醫(yī)療人工智能直接使用的醫(yī)生,還是作為醫(yī)療人工智能所有者的醫(yī)院,或是作為醫(yī)療人工智能開發(fā)者的生廠商,抑或是作為醫(yī)療人工智能提供者的經(jīng)營者,或者是多種責任主體的共同責任或連帶責任?有學者認為,可以考慮為人工智能設(shè)立類似公司注冊資本的基金,施行強制保險制度,在兩個維度上設(shè)立人工智能的責任承擔制度[6]。總之,追責的問題需要得到明確的法律解釋和法律明確。另一種情況是,如果醫(yī)生和醫(yī)療人工智能在診療過程中,在人機對話、交流甚至是“會診”中存在診療的意見分歧,一旦最終的事實是醫(yī)療人工智能的“智慧”超越了醫(yī)生的“智慧”,是正確的診療結(jié)論或方案而醫(yī)生未予采用從而導致誤診誤治造成醫(yī)患糾紛,醫(yī)療人工智能是否能夠作為控方患者的證據(jù)提供者指證醫(yī)生的診療過錯呢?更深層次的問題是,如若這種情況發(fā)生,可能導致醫(yī)生威信、聲譽的影響,甚至患者或社會可能對醫(yī)生高智力勞動價值的可信度和認可度大打折扣。還有一種情況,高級醫(yī)療人工智能有“情緒”和“情感”的感性認知,甚至有“思考”和“判斷”的理性思維。如若患者和醫(yī)療人工智能在診療過程中,在人機對話、交流、溝通中,由于患者的言語、行為刺激和侵犯,“惹怒”了醫(yī)療人工智能,從而引起醫(yī)療人工智能防衛(wèi)、反擊、攻擊導致侵害的責任追究,也是必須預見和思考的問題。
因此,在將來的相關(guān)法律中,應(yīng)該建立一個完整的醫(yī)療人工智能法律責任體系,在明確相關(guān)法律關(guān)系主體享有的權(quán)利、承擔的義務(wù)的同時,具體明確追責主體、責任主體、歸責原則、責任情形和法律責任等。
習近平總書記在中共中央政治局第九次集體學習時強調(diào)指出,“要加強人工智能同保障和改善民生的結(jié)合,抓住民生領(lǐng)域的突出矛盾和難點,加強人工智能在教育、醫(yī)療衛(wèi)生、體育、住房、交通、助殘養(yǎng)老、家政服務(wù)等領(lǐng)域的深度應(yīng)用”[7]。人工智能已被廣泛應(yīng)用在各行各業(yè),醫(yī)療健康領(lǐng)域更是重要應(yīng)用場景之一。據(jù)有關(guān)方面預測,到 2025 年醫(yī)療行業(yè)將占世界人工智能市場規(guī)模的 1/5。正如有專家指出,“人工智能將給未來醫(yī)療技術(shù)帶來深刻的變化,是未來醫(yī)學創(chuàng)新和改革的強大動力”[8]。醫(yī)療人工智能應(yīng)用,必將助推醫(yī)療健康產(chǎn)業(yè)發(fā)展和衛(wèi)生健康事業(yè)發(fā)展,尤其能有效解決優(yōu)質(zhì)醫(yī)療健康資源配置共享、衛(wèi)生健康大數(shù)據(jù)運用、提高預測和診療的精準度,釋放醫(yī)生高智力勞動壓力,提高醫(yī)用數(shù)據(jù)精準度和計算效率等問題。
同時,技術(shù)革新帶來的社會問題是無法回避的。人工智能時代已經(jīng)來臨,它不僅改變?nèi)祟愂澜纾矔羁谈淖內(nèi)祟惖姆芍贫萚10]。人工智能的發(fā)展將對法律形成巨大沖擊,這不僅體現(xiàn)在其對律師行業(yè)未來就業(yè)率所產(chǎn)生的壓力上,還體現(xiàn)在其對民法、刑法、侵權(quán)法、知識產(chǎn)權(quán)法等法律條文和判例體系的深遠影響[9]。自然科學與社會科學和人文科學從來都不是背道而馳,科技發(fā)展和社會進步的終極目標都在于服務(wù)人類這個最高的價值主體。法治要提供制度環(huán)境安排,這一安排的質(zhì)量將直接決定新興科技等的發(fā)育狀況[7]。法律作為社會控制的最有效手段、社會穩(wěn)定的最重要調(diào)節(jié)器和定紛止爭的評判規(guī)則,應(yīng)有效預見和應(yīng)對醫(yī)療人工智能時代的新挑戰(zhàn)和新問題。據(jù)有關(guān)報道,全國人大常委會已將數(shù)字安全法、個人信息保護法和修改科學技術(shù)進步法等人工智能方面立法列入規(guī)劃抓緊推進。法律理論、實踐和制度上的進步,必將為醫(yī)療人工智能促進人類生命健康發(fā)揮重要作用。