999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生物醫學領域人工智能應用的倫理問題

2020-02-12 09:57:56郭旭芳
基礎醫學與臨床 2020年2期
關鍵詞:人工智能人類

郭旭芳,劉 輝

(中國醫學科學院 北京協和醫學院 人文和社會科學學院,北京 100730)

英國學者托馬斯·霍布斯(Thomas Hobbes,1588—1679)曾在《利維坦》 一書中提到可以制造一種“人工動物”,人工智能(artificial intelligence,AI)的雛形誕生[1]。1956年,美國達特茅斯會議上正式確立了“人工智能”這一術語,自此打開了人工智能領域的大門。人工智能早期的定義是:一種大部分工作集中在模擬或復制人類智能的工具[2];人工智能是一種獲取并表達知識,并且運用知識的學科。從醫學和生物學的角度來看,人工智能也被稱為“一般智能”,指具有應對普遍環境的能力和智力[3]。如何定義人工智能尚無定論,但是可以總結出以下3個特點:1)根據人類活動研制出來的數字化系統;2)模擬人類的某些行為;3)執行人類能夠進行的智力活動。

人工智能在生物化學、計算機技術、醫療衛生、經濟金融等諸多領域發展迅速,給人類的生活帶來極大便利,逐步成為國際競爭的新焦點,但同時人工智能發展的不確定性也帶來新挑戰,這些挑戰不僅

局限于技術層面,更多的是倫理方面的。生物醫學領域是人工智能技術首先應用的領域之一,醫學研究以及醫療保健對于全人類有著至關重要的作用。然而,有研究證明,人工智能設備在設計之時往往沒有任何明確的倫理考慮[4]。因此,人工智能在醫學中的倫理挑戰就成為了不可忽視的問題。本文試圖通過對人工智能現存矛盾以及潛在問題的梳理,探討如何平衡人工智能帶來的利益以及倫理風險。

1 人工智能道德地位和責任問題

多年來,醫療機器人已經被用于外科手術以及醫療保健中。外科手術中機器人的運用對于頭頸部,心臟和泌尿外科等科室都是有益的[5]。這說明醫療領域人工智能的合理應用使得醫療專業人員的工作更有效率,但是醫療機器人在擴大運用范圍,提高醫院效率的同時對醫生的道德主體地位提出了挑戰,此外人工智能的使用也增加臨床診療中的不確定性風險。

在手術中,如果醫療機器人引發了法律追溯責任問題以及倫理責任問題,那么誰應該因醫療機器人造成事故承擔責任?例如,最近的神經技術可以使得大腦信號變成輸出設備執行所需動作的命令[6]。在這種框架下,當不確定性風險發生時,責任主體應該如何判定?一個主要或僅由一個設備產生的行為的責任是否應該最終歸于人類?在倫理條款,現行的“醫療道德守則”規定:專業的責任取決于患者的醫生,護理等任意一方涉及醫療責任,導致對患者造成任何損害,主管醫生應該按照醫療程序承擔主要責任[7]。但人工智能與一般醫療設備有所區別,常常看上去是一種“自主行為”,醫療機器人能否成為責任主體,它能否擁有道德主體地位?

國際學術界針對如何判定機器人的道德地位這一問題已經討論了10年,14個歐洲國家的156名人工智能專家曾聯名表明態度——授予機器人法人資格“不恰當的”。大多數學者認為現階段的人工智能機器人尚且只能屬于工具范疇,因為機器人并不具備自主意識,缺乏理性思考。然而,圖靈測試的結果意味著復雜的人工智能可能具有意識[8]。如果人工智能科技進一步發展,發展后的人工智能系統極有可能具備自主制定行動策略、自主做出道德選擇的能力。這一局面出現時,人類與智能機器人的道德地位又應該如何界定?

筆者認為對于人工智能自主性的發展應該有一定的限制。人工智能可以分為強人工智能(Strong Artificial Intelligence)和弱人工智能(Weak Artificial Intelligence),對于弱人工智能來說,不應具有道德地位;至于強人工智能,即具有自主意識的設備,本身就屬于爭議,強人工智能不僅在醫學行為中道德地位難以確定,這一技術對人類的地位本身可能造成威脅,從平衡的觀點出發,在完全了解強人工智能的利弊之前,應該謹慎對待此類技術在醫學領域的應用。技術的發展應該控制好“人類”與“人工智能工具”之間的平衡這一問題,在醫學領域的應用要控制系統行為的不可預知性和不確定性。

基于以上觀點,人工智能在生物醫學領域的應用仍然是工具屬性,醫療機器人不具備道德地位,即不能獨立承擔事故的責任,也沒有資格代替醫生在醫療行為中的角色,而強人工智能及其應用應予以慎重對待。如,在發生醫療事故致使患者利益受到損害時,是應該由研發者還是由操作者來承擔后果呢?筆者認為,應該針對事故情況具體分析,若是因為智能機器的程序故障導致醫療傷害,則主要責任應由研發者承擔,操作者承擔次要責任;若是因為操作不當導致醫療事故,損害患者權益,則應該有操作者承擔責任。

2 醫療人工智能引發的公平性問題

人工智能有著驚人的潛力,可以加速生物學和醫學的科學發現,并改善醫療保健結構,增進人群以及個人的健康,但是人工智能的應用也可能會加劇人群中現有的醫療保健差距。人工智能醫療的成本較為昂貴,因而其主要受益群眾也僅限于少數,此種前提下,醫療資源分配不公平現象將會更為突出。除此之外,人工智能算法所基于的數據本身可能包含有意想不到算法偏見[9-10],不可控的產生年齡、性別、種族方面的歧視,加強現有的社會不平等形式。例如:大腦植入是一種神經科學方面治療的新手段,可是只有有能力支付的人才能被提供這種治療方式[11-12]。在此情況下,應該如何平衡健康公平性的問題?

筆者認為,可以從以下3個方面進行考慮:第一,要實現人工智能健康效益和成本之間的平衡。在臨床領域應用的技術應該是適宜的技術,對人工智能在生物醫學領域的大規模應用需要充分論證,技術已成熟、有利于改善人的健康,且成本應具有可接受性,才能進行推廣。第二,實現個人利益與社會利益之間的平衡。堅持以人民健康福祉為中心,將應用的人工智能技術產品分類,對人的健康具有重大意義的基本醫療手段國家社會應該予以承認,納入醫療保障系統,以盡可能低的價格滿足居民健康需要;另一方面,對于促進人類健康范圍較窄且成本較高的人工智能醫療手段可規定由個人承擔。第三,堅持“不傷害”的原則。對于可能引發健康傷害風險的人工智能需要控制其使用的范圍,維護好生命健康權這一基本權益,特別是對社會弱勢群體應該予以尊重和保護。

3 個人權利與公共利益之間的張力問題

3.1 自由意志和公共利益之間的張力

當今網絡技術時代,人工智能設備不可避免運用于數據采集、整合、儲存、分析,而人工智能也需要使用個人健康信息來完成機器學習,提高診斷,治療和輔助研究的能力。在醫療領域,醫學研究者可以通過流行病學分析,鑒定某一疾病與基因、環境的關系,從而達到對于疾病更好的預防,結果可以使得全社會受益。但是人工智能所需的個人健康信息是典型的醫療大數據,因此在利用醫療大數據時,不論是基于對于數據提供者的人格尊重,還是基于保護其利益,都應取得充分的知情同意,但是大數據采集在充分的知情同意程序前卻面臨困境。例如,歐洲現行的《一般數據保護條例》(General Data Protection Regulation,簡稱 GDPR)提出要求:對個人數據(personal data)的每一次加工或分析(processing or analysis),都要獲取數據對象―專門的、知情的、明確的同意。這個條例下,研究人員會面臨著兩大壓力:數據對象難于尋求以及嚴重的經濟負擔,導致醫學研究受限、整個產業體系發展難以推進。

3.2 個人隱私與公眾利益之間的張力

生物醫學大數據是人工智能在醫學領域運用的基礎,患者健康信息包括個人社會信息、病例數據甚至影像、磁共振結果都可以作為人工智能(機器學習)的必要資料,若沒有充足的病例數據,人工智能的成熟不可想象,由此產生的健康效益難以保證。有研究表明機器診斷能力不輸于放射學專家,甚至能超越后者[14]?;趯€人隱私的保護,一般的解決思路便是去識別化(de-indentification),即把個人身份信息從數據中消除。但是,近年來,隨著人工智能系統和大數據識別技術的發展,又出現了再識別化(re-indentification)這一技術,通過大數據和人工的手段把分散在各處的信息整合并重新生成個人身份信息,從而使去識別化的手段失效,換而言之,即便去識別化手段是完全有效的,也沒有就去識別化的具體標準作出統一規定。因此可以說隱私保護和人工智能發展之間、社會健康福利之間的張力問題一直存在,而且可能更加尖銳。

為生物醫學信息庫大數據下平衡個人權利以及公眾福利的張力問題提供以下幾個解決思路:1)權利的集中與責任的集中相平衡。個人的數據集中形成大數據、大數據推動人工智能的發展,實際上是個人權利向中心節點的集中(讓度),這個節點可以是政府、高校,也可以是醫院,甚至是公司,機構節點集中保管和使用大規模個人數據就必須承擔相應的數據安全、隱私保護、規范使用等責任。2)政府部門承擔監管責任。因為大數據設計人數眾多,應該有政府有關部門制定大數據管理制度,防止個人數據濫用現象的發生。3)個人應提供醫療數據或者其他健康數據,并且應具有從相關人工智能服務中獲益的資格。人工智能因個人數據而獲得提升,理應以服務于公眾健康為目的。利用了個人醫療或者生物數據應該以并且對于所使用數據的個人予以一定程度上的回饋,比如,提供健康咨詢等。

盡管人工智能在生物醫學領域的應用上面臨著很多技術和倫理的挑戰,但是我們應該肯定一點——人工智能的合理運用可對現代醫學發展起到推波助瀾的作用?,F階段對于人類最大的挑戰在于:如何定義人工智能設備的地位,并保障其安全性、有利性、保密性、公平性等問題。針對文中所提及的現存以及潛在的倫理困境,提出一些人工智能運用的原則:

1)以“不傷害”原則作為一切人工智能應用的底線,尋求人工智能合理使用的平衡點。人工智能設備設計的初衷是“以人類為中心”,更好地服務于人類社會,無論是在身體健康層面上,還是在精神心理層面上,如若人工智能對人類造成了傷害,則此類設備應該重新進行風險評估并且嚴格監管。

2)明確人工智能的工具屬性,肯定人類的道德主體地位。人工智能無權作為一個獨立的道德體存在,更不能作為責任的承擔主體。醫學領域的人工的目的是為人類健康服務的,這是人工智能存在的價值,不可以為了經濟利益而背離這一價值。

3)保持適度的謹慎,人工智能潛在風險難以預測,對于人工智能的運用應該“取長避短”,不應該畏懼它,但也不能肆無忌憚的濫用,反對技術潮熱,倫理的研究始終應該走在技術的前端。

4)政府對于人工智能系統應盡監測責任,機構應盡保護的責任。對于生物信息數據庫,政府部門應該制定一個嚴格的監管機制,以防止醫療數據的濫用;通過制定相關政策來保障個人權利和公眾健康利益之間的平衡。

猜你喜歡
人工智能人類
我校新增“人工智能”本科專業
顫抖吧,人類
哈哈畫報(2022年4期)2022-04-19 11:11:50
人類能否一覺到未來?
人類會成長起來嗎?
英語文摘(2021年2期)2021-07-22 07:56:54
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
主站蜘蛛池模板: 污网站在线观看视频| 国产精品私拍在线爆乳| 天天色天天综合| 国产免费人成视频网| 国产日本一线在线观看免费| 999在线免费视频| 97se亚洲综合在线| 国产亚洲欧美日韩在线一区| 日韩欧美在线观看| 国产成人综合日韩精品无码首页 | 国产成人区在线观看视频| 午夜小视频在线| 国产精品页| 秋霞午夜国产精品成人片| 日日拍夜夜嗷嗷叫国产| 亚洲色无码专线精品观看| 中文字幕一区二区人妻电影| 午夜少妇精品视频小电影| 久久人妻系列无码一区| a级毛片毛片免费观看久潮| 欧美日韩中文国产| 精品国产女同疯狂摩擦2| 成人毛片在线播放| 日韩AV无码一区| 亚洲天堂网在线观看视频| 国产在线日本| а∨天堂一区中文字幕| 乱色熟女综合一区二区| 精品免费在线视频| 国产激爽爽爽大片在线观看| 国产福利在线免费| 成人精品免费视频| 欧美在线综合视频| 无码精油按摩潮喷在线播放 | 午夜欧美在线| 亚洲欧州色色免费AV| 亚洲AV电影不卡在线观看| 亚洲国产成人自拍| 青青久久91| 亚洲综合亚洲国产尤物| 国产在线观看91精品| 2018日日摸夜夜添狠狠躁| 亚洲无限乱码一二三四区| 国产综合精品日本亚洲777| 欧洲亚洲欧美国产日本高清| 高清不卡一区二区三区香蕉| 成人国产一区二区三区| 国产精品三级专区| 一级毛片基地| 亚洲国产清纯| 国产午夜不卡| 蜜芽国产尤物av尤物在线看| 一级毛片高清| 98精品全国免费观看视频| 久久综合色88| 国产免费自拍视频| 青青青国产视频| 97久久超碰极品视觉盛宴| 伊人久久大香线蕉aⅴ色| 亚洲精品免费网站| 高清国产在线| 狠狠做深爱婷婷久久一区| 日韩成人午夜| 欧美www在线观看| 一本二本三本不卡无码| 欧洲一区二区三区无码| 白丝美女办公室高潮喷水视频| 97国产精品视频人人做人人爱| 伊人久久大线影院首页| 精品99在线观看| 国产av剧情无码精品色午夜| 午夜成人在线视频| 成年人久久黄色网站| 久久精品这里只有精99品| 国产精品手机在线播放| 欧美a在线看| 国产欧美高清| 精品视频91| 国产精品人成在线播放| 欧美自拍另类欧美综合图区| 国产小视频免费| 国产免费网址|