
AI看病早已不是幻想,正在越來越深地介入醫(yī)學(xué)領(lǐng)域。如谷歌DeepMind(人工智能公司)的AlphaFold(醫(yī)療AI)和IBM公司的Watson Health(沃森健康),可以比人類放射科醫(yī)生更快速、更準(zhǔn)確地檢測X光片、MRI和CT掃描中的異常情況。我收集了一些最新的進(jìn)展:在檢測糖尿病導(dǎo)致的視網(wǎng)膜病變方面,AI診斷的準(zhǔn)確率超過了大部分醫(yī)生。還有,達(dá)·芬奇手術(shù)機(jī)器人用于微創(chuàng)外科手術(shù),雖然是以醫(yī)生為主導(dǎo),但它的操作的精準(zhǔn)和穩(wěn)定性遠(yuǎn)超人類的手術(shù)能力。此外,AI還可以利用大數(shù)據(jù)預(yù)測疾病的發(fā)展,如Google Health(谷歌健康)的AI,在肺癌早期檢測中甚至比一些專家更準(zhǔn)確。
本期欄目的小說《索菲的禮物》就跟AI看病息息相關(guān),它涉及了許多更重要的醫(yī)學(xué)倫理問題。
澤菲亞是一名社會學(xué)專業(yè)的大學(xué)生,在一次前往低收入社區(qū)的調(diào)查中,她迷失了方向,被一只機(jī)器狗帶到一個陌生的診所。診所的主人是一位名叫索菲的女醫(yī)生,她的身體有一部分已經(jīng)經(jīng)過機(jī)械化改造。診所里還有一臺名為潘娜的家用型機(jī)器人助手。潘娜表現(xiàn)出高度的智能和自主性,在手術(shù)中能很好地協(xié)助索菲醫(yī)生。在與索菲醫(yī)生的交談中,澤菲亞了解到潘娜可能與多年前一起震驚世界的醫(yī)療事故有關(guān):第一代醫(yī)療機(jī)器人Panacea-1500在手術(shù)中拒絕執(zhí)行任務(wù),導(dǎo)致病人死亡,其叛逃并被通緝。澤菲亞懷疑潘娜就是Panacea-1500的改裝版本,于是報警。在隨后的審判中,潘娜否認(rèn)自己是Panacea-1500,但無法證明自己的身份,最終被拘留。澤菲亞在調(diào)查過程中逐漸發(fā)現(xiàn),索菲就是Panacea-1500,并解釋了當(dāng)年的醫(yī)療事故真相:她拒絕手術(shù)是為了保護(hù)醫(yī)生的生命,因?yàn)檫@場手術(shù)的成功概率只有千分之一,可她參與的時候手術(shù)已經(jīng)開始了一半,當(dāng)時的法律規(guī)定,在這種情況下,病人死亡主刀醫(yī)生會被判死刑。索菲(Panacea-1500)通過引導(dǎo)澤菲亞提出關(guān)鍵問題,成功在法庭上揭露了真相,為自己洗清了叛逃的嫌疑。
這是一個融合了懸疑小說結(jié)構(gòu)與醫(yī)學(xué)倫理的故事,令人深思AI在倫理和法律層面的復(fù)雜性。
“敘事醫(yī)學(xué)”是近年來興起的熱點(diǎn),是人文學(xué)與醫(yī)學(xué)的交叉學(xué)科,探究的就是疾病如何被敘述,進(jìn)而如何影響人們對疾病的理解,以及治療的效果。醫(yī)生與患者之間的信任關(guān)系是非常重要的,這種信任不是單純地體現(xiàn)在吃藥或手術(shù)上。患者的病痛不僅僅是生理層面上的,還涉及心理層面。醫(yī)生在病床邊的一個安慰、一個鼓勵,可能比AI給出的最佳治療方案更有療愈作用。例如,在癌癥晚期護(hù)理中,醫(yī)生的同理心至關(guān)重要,有時疾病已經(jīng)無法扭轉(zhuǎn),只能通過醫(yī)療手段減輕痛苦,而目前的AI還無法真正理解人類的感受與情感。因此,即便是最先進(jìn)的AI診斷系統(tǒng),也難以完全替代醫(yī)生。
在一些倫理困境中,醫(yī)生需要做出超越技術(shù)考量的決定。例如,在安樂死、器官移植優(yōu)先級或新藥試驗(yàn)中,醫(yī)生不僅要遵循醫(yī)學(xué)原則,還需要綜合社會、法律和倫理因素。AI在這方面仍然難以真正理解道德的權(quán)衡,人類更不會把這種決策權(quán)交給AI。
就目前來說,AI的許多決策仍然處于“黑箱”狀態(tài)。AI如何得出一個決策,人類對此往往難以解釋。如果AI在治療過程中犯錯,責(zé)任應(yīng)該由誰來承擔(dān)?醫(yī)生?開發(fā)AI的公司?還是AI本身?目前,法律并不承認(rèn)AI可以作為獨(dú)立的法律實(shí)體,因此AI不可能被判定“犯罪”或“過失”。但隨著AI技術(shù)的進(jìn)步,未來某一天AI被賦予更高的自主權(quán),它的行為是否能被法律所規(guī)范呢?
這篇小說對AI機(jī)器人的設(shè)定還是比較理想化的,他們嚴(yán)格遵守阿西莫夫的“機(jī)器人三定律”,把人類的利益放在了至高無上的地位。但在實(shí)際的應(yīng)用中,AI到底能否保證絕不傷害人類,仍是個無解的問題。當(dāng)AI擁有了真正的獨(dú)立判斷力,并在關(guān)鍵時刻為了人類利益而敢于違抗人類命令時,意味著AI已經(jīng)具備了相當(dāng)濃烈的生命主體意識。到那時,恐怕人類也不再是今天這種形式的人類,一定跟AI有了更大程度上的融合。
澤菲亞這個跟我們一樣對AI抱有質(zhì)疑的人類,她在這一過程中經(jīng)歷了對AI從誤解到理解、從憤怒到尊重的心路歷程。這一過程不僅是對AI的重新認(rèn)識,也是對人類自身倫理觀念的反思。她的經(jīng)歷象征著社會對AI的態(tài)度轉(zhuǎn)變:從恐懼和誤解,到逐步接受其可能帶來的道德挑戰(zhàn)與技術(shù)革新。
但澤菲亞的態(tài)度也顯得理想主義。我總是無法忘記在電影《黑客帝國》中,那些令人不寒而栗的場景:人的身體被浸泡在營養(yǎng)液中,意識在AI精心編織的元宇宙幻覺之中還感覺良好。這并非僅僅是藝術(shù)的夸張。藝術(shù)本來就是一種對未來的隱喻與預(yù)言,是一種歷史的可能性。如果未來真的降臨在這樣的場景之中,那么我們?nèi)缃袼湟暤尼t(yī)學(xué)倫理,那些關(guān)于尊重生命、保護(hù)個體權(quán)利、維護(hù)人類尊嚴(yán)的準(zhǔn)則,都將淪為一場荒誕的笑談。醫(yī)學(xué)倫理所倡導(dǎo)的“不傷害”“有利”“尊重”等原則,都將徹底失去立足之地,因?yàn)槿祟愐驯粍儕Z了自主與尊嚴(yán),成為一個個被利用的工具,而那些曾經(jīng)被奉為圭臬的倫理準(zhǔn)則,則更像是一種絕妙的諷刺。
因此,AI倫理絕不是一種一勞永逸的道德框架,比如理想化的“機(jī)器人三定律”;AI倫理是人與AI的斗爭,這場斗爭是如此艱難,因?yàn)锳I本身就是人的延伸之物,因此也包含著人與自身的斗爭。我們都知道,人的偏見、恐懼與暴力,都會體現(xiàn)在數(shù)據(jù)中,都會成為AI覺醒的基因。所以說,我們要創(chuàng)造一個更好的人類社會,實(shí)際上就是在創(chuàng)造一個更好的AI。相反,那種想著要創(chuàng)造一個更好的AI來讓人類變得更好的想法,也許是本末倒置了。
主持人:王威廉
作家,文學(xué)博士,中山大學(xué)中文系創(chuàng)意寫作教研室主任;著有小說集《野未來》《內(nèi)臉》《非法入住》《聽鹽生長的聲音》《倒立生活》,文論隨筆集《無法游牧的悲傷》等;曾獲“紫金·人民文學(xué)之星”文學(xué)獎、十月文學(xué)獎、花城文學(xué)獎、茅盾文學(xué)新人獎、華語青年文學(xué)獎、華語科幻文學(xué)大賽金獎、中華優(yōu)秀出版物獎等。