李曉潔
(對外經(jīng)濟貿(mào)易大學(xué)馬克思主義學(xué)院,北京 100105)
20世紀50年代以來,自然語言模型持續(xù)發(fā)展,但直到近十年,深度學(xué)習(xí)技術(shù)和大數(shù)據(jù)技術(shù)的發(fā)展才取得明顯進步。自然語言處理技術(shù)的發(fā)展延續(xù)了Gartner技術(shù)成熟度曲線:在技術(shù)萌芽期(innovation trigger)因其嶄新的概念會引來不少媒體和業(yè)界的關(guān)注,到期望膨脹期(peak of inflated expectations)多種多樣的聊天機器人產(chǎn)品紛紛涌現(xiàn)。2020年,聊天機器人進入低谷期,甚至有人將其稱為“人工智障”。而2022年11月ChatGPT面世,聊天機器人相關(guān)技術(shù)進入穩(wěn)步爬升復(fù)蘇期,被視為人類進入“AIGC”(artificial intelligence generated content,生成式人工智能)時代的標志。
ChatGPT是OpenAI 開發(fā)的自然語言處理模型,它使用大型數(shù)據(jù)集生成對查詢、反饋和提示的文本響應(yīng)。ChatGPT在教育領(lǐng)域中可應(yīng)用于輔助教學(xué)設(shè)計、課后輔導(dǎo)、精準解答學(xué)生疑問等。ChatGPT代表著奇點的臨近,既為醫(yī)學(xué)教育、醫(yī)學(xué)倫理教育等帶來了契機,但也同樣會受制于技術(shù)邏輯導(dǎo)致的不公平、歧視、自主性喪失等問題。基于此,本文嘗試探討ChatGPT應(yīng)用于醫(yī)學(xué)倫理學(xué)教育中的前景及其存在的挑戰(zhàn)與建議。
ChatGPT發(fā)布以后,從GPT-1到GPT-4,從語言輸出到視頻、圖像、文本等復(fù)合輸出方式,ChatGPT脫離了傳統(tǒng)技術(shù)的線形發(fā)展模式,嵌入到教育的系統(tǒng)生態(tài)中,形成新的人-技術(shù)關(guān)系。傳統(tǒng)的以教師單方面?zhèn)魇谡n程內(nèi)容的學(xué)習(xí)模式,轉(zhuǎn)變?yōu)閷W(xué)生主動獲取知識和自主解決問題。學(xué)生提出問題,與ChatGPT對話,問題能夠隨時獲得反饋,在此過程中提高對課程材料的興趣,增強對課程內(nèi)容的主動性和信心。
醫(yī)學(xué)生的學(xué)業(yè)繁重,需要兼顧醫(yī)學(xué)理論學(xué)習(xí)和臨床實際訓(xùn)練,尤其進入醫(yī)院實習(xí)后,寫病歷是非常重要的任務(wù),往往占據(jù)較長時間。ChatGPT可用于生成患者病史摘要,使醫(yī)療記錄保存流程更加簡化。醫(yī)學(xué)生可以利用 ChatGPT 自動總結(jié)關(guān)鍵細節(jié),例如癥狀、診斷和治療,并從患者記錄中提取相關(guān)信息。需要指出的是,病歷是對患者個體疾病和綜合狀況的描述,ChatGPT的自動生成功能無法識別患者疾病中的個性化部分,繼而可能影響到患者的治療。ChatGPT可以通過提供提醒、劑量說明以及有關(guān)潛在副作用、藥物相互作用和其他重要考慮因素的信息來幫助管理患者藥物[1]。它還可以分析大量患者數(shù)據(jù)來識別符合試驗資格標準的個體,從而幫助臨床試驗招募。
教師可以在ChatGPT的協(xié)助下完成課程大綱編寫、制作教學(xué)PPT、推進差異化教學(xué),提高和改進教學(xué)效率。拉希姆扎德等[2]在《美國生命倫理學(xué)》雜志發(fā)表的一篇文章中,通過輸入問題和對話的方式展現(xiàn)了ChatGPT在對醫(yī)學(xué)倫理學(xué)案例中的核心倫理學(xué)觀點和概念總結(jié)的優(yōu)勢,在對剖宮產(chǎn)涉及的孕婦及胎兒權(quán)益進行權(quán)衡的同時,學(xué)生們從中可以感受到如何避免片面維護一方利益,協(xié)調(diào)不同的倫理學(xué)原則,發(fā)現(xiàn)其中隱含的價值沖突。教師可以將ChatGPT作為虛擬教學(xué)助手,評估醫(yī)學(xué)生臨床技能[3],為學(xué)生提供全天候指導(dǎo)咨詢,減少教師課程輔導(dǎo)工作量,使其能夠?qū)r間和精力集中在學(xué)生實踐技能的培訓(xùn)等重要方面。
ChatGPT與教育主體(教師、學(xué)生)之間建立起一種交互關(guān)系,技術(shù)隱居到背景層面,教育主體不是將ChatGPT作為一個客體去關(guān)心它,而是將其看作是感知世界的工具。正如球拍擴展了人擊打球的角度和范圍,ChatGPT在醫(yī)學(xué)教育中也擴展了學(xué)生感知和認識知識的范圍,作為技術(shù)的ChatGPT成為身體的一部分,人們通過技術(shù)獲得對世界的知覺。在此過程中,人與技術(shù)成為一個整體,人在改造客觀世界的同時,技術(shù)也對人進行了改造和技術(shù)化,與馬克思主義哲學(xué)中的異化理論類似,技術(shù)不知不覺通過“內(nèi)化方式”改造人們認知。
ChatGPT給醫(yī)學(xué)倫理教育帶來風險的根源在于醫(yī)學(xué)倫理學(xué)涉及我們對待生命方式的道德層面思考,所以與人性尤其相關(guān),教師不僅是專業(yè)知識的傳授者,也是充盈著人文精神的育人者。而ChatGPT本質(zhì)上是一種算法,而非一個道德實體,其對決策結(jié)果的倫理判斷能力不足,缺乏倫理意義上的算法描述,因而它無法帶領(lǐng)學(xué)生進行人類和文化本質(zhì)的生命倫理學(xué)討論。
ChatGPT具有快速和全面的搜索能力,可以在學(xué)生檢索醫(yī)學(xué)倫理學(xué)文獻方面提供協(xié)助,還可以基于不同算法整合數(shù)據(jù)回答學(xué)生的學(xué)術(shù)疑問。科技的進步給學(xué)生提供了強大的行動力,于是,學(xué)生可能形成“ChatGPT萬能”的錯誤認知,將ChatGPT賦予神圣地位,一切醫(yī)學(xué)倫理學(xué)問題都能夠從ChatGPT那里得到解答,工具理性無限膨脹的后果就是人的本性被壓制,人失去了對工具批判反思的能力。
一方面,倫理問題的識別需要辨別能力和批判性思維能力。如果醫(yī)學(xué)倫理教育的目的在于讓學(xué)生學(xué)習(xí)醫(yī)學(xué)倫理學(xué)基本概念知識,并掌握在實踐中分析倫理學(xué)問題的工具,那么ChatGPT可以隨時隨地幫助他們分析醫(yī)學(xué)倫理學(xué)難題,然而,分析這些難題的前提在于學(xué)生有發(fā)現(xiàn)問題的能力,因為ChatGPT本身不具備獨立思考和批判思維的能力。如果學(xué)生過于依賴機器學(xué)習(xí)給出的結(jié)果,那么只能是陳詞濫調(diào)和老生常談,分析和批判性思維得不到發(fā)展。
另一方面,對ChatGPT的依賴也會助長學(xué)術(shù)不端和作弊。在一項研究中,ChatGPT被要求使用發(fā)表在 JAMA、《新英格蘭醫(yī)學(xué)雜志》、BMJ、《柳葉刀》等著名期刊上的部分文章來生成 50 份醫(yī)學(xué)研究摘要。由此產(chǎn)生的文章隨后接受了抄襲檢測軟件、人工智能輸出檢測器和一組醫(yī)學(xué)研究人員的審查,結(jié)果發(fā)現(xiàn),ChatGPT 生成的摘要通過抄襲檢測軟件的檢查,原創(chuàng)性得分中位數(shù)為 100%,表明未檢測到抄襲,而 AI 輸出檢查器僅識別出 66% 的生成摘要[4]。
大多數(shù)人更愿意選擇捷徑,學(xué)生如果使用ChatGPT來完成醫(yī)學(xué)倫理學(xué)論文或其他書面作業(yè),知識和能力并不會得到相應(yīng)增長。富克斯[5]提到了醫(yī)學(xué)教育中能力發(fā)展的重要性,并討論了學(xué)生獲得高階思維技能(例如批判性思維或解決問題)的必要性。在將ChatGPT“拿來”使用的同時,如果缺乏必要的反思精神,那么將背離了醫(yī)學(xué)倫理教育的初衷——“理性”的智慧力量。
醫(yī)學(xué)倫理學(xué)往往需要研究某一技術(shù)(如基因編輯技術(shù)、克隆技術(shù)等)的發(fā)展給人類社會產(chǎn)生的影響,而這些技術(shù)是在相當廣泛的文化背景中實現(xiàn)的,通過醫(yī)學(xué)倫理教育,醫(yī)學(xué)生了解未來生物醫(yī)學(xué)技術(shù)的可能性和不確定性,探討不同社會文化如何看待這些可能性,作為一名醫(yī)生和研究人員具有哪些道德責任和義務(wù),并且學(xué)會對道德判斷的原則和基礎(chǔ)進行思考。對技術(shù)倫理合法性的討論必須具有前瞻性,并且要適應(yīng)多樣化的文化語境,而這些能力是ChatGPT所不具備的,因而也無法教授給學(xué)生。ChatGPT可以針對特定問題提供相關(guān)和基本的醫(yī)學(xué)倫理學(xué)分析框架,但缺乏評估和批判性討論這些理論和框架的能力。雖然學(xué)生可以通過與其互動產(chǎn)生創(chuàng)新性觀點,但這種思考能力本身,還是需要學(xué)生通過醫(yī)學(xué)倫理學(xué)課堂獲得。
ChatGPT系統(tǒng)的準確性在很大程度上取決于訓(xùn)練數(shù)據(jù)的質(zhì)量、多樣性和復(fù)雜性,以及學(xué)生提供的輸入問題的質(zhì)量。ChatGPT建立在海量數(shù)據(jù)之上,從不同角度解答問題顯然存在不足,可能傳播誤導(dǎo)性和不準確的內(nèi)容從而引發(fā)制造錯誤信息的擔憂。比如醫(yī)療出版中錯誤信息的潛在傳播可能對社會帶來重大危害[6]。
拉希姆扎德等[2]與ChatGPT的互動表明:ChatGPT醫(yī)學(xué)倫理案例分析的框架基于的是比徹姆和邱卓斯的四原則理論和美國的《田納西健康和安全法典》,而沒有涵蓋其他文化語境中特有的醫(yī)學(xué)倫理學(xué)分析框架和相關(guān)政策、法律,如儒家思想為代表的美德主義理論和中國相關(guān)政策與法律。如果我們將ChatGPT應(yīng)用于醫(yī)學(xué)倫理學(xué)教育,將可能導(dǎo)致學(xué)生對于醫(yī)學(xué)倫理學(xué)中相關(guān)理論和法律認知缺乏本土認識和理解。ChatGPT為學(xué)生提供的個性化推送可能會產(chǎn)生“信息繭房”效應(yīng),學(xué)生所獲得的知識會局限在一定范圍內(nèi),被智能遮蔽。
在醫(yī)學(xué)倫理學(xué)教育活動中,師生關(guān)系至關(guān)重要。正如列維納斯指出:“在道德中,關(guān)系是先在的;道德不是實體,而是體現(xiàn)在一種優(yōu)先的關(guān)系中。”[7]列維納斯強調(diào)了在道德中“關(guān)系”的重要性,ChatGPT能快速回答學(xué)生提出的問題,其知識儲備遠遠超過教師,然而它不能取代人際互動在醫(yī)學(xué)研究和醫(yī)療服務(wù)中的價值。當真實世界“在場”等人之間的互動變?yōu)椤疤摂M”與人在數(shù)字空間中的互動,人的真實關(guān)系被人技之間的關(guān)系取代,從而使教育主體之間逐步孤立和隔絕。醫(yī)學(xué)倫理教育需要培養(yǎng)醫(yī)學(xué)生對患者和受試者的共情能力,因為患者需要情感支持或細致入微的解釋,需要個人關(guān)注、共同探討和他人反饋,但ChatGPT 缺乏感知人類情感的能力。如果學(xué)生過度依賴人機交流,會削弱與患者在社會和心理層面的關(guān)聯(lián)。技術(shù)可能將主體奴役為“單向度”(one-dimensionality)的人,“單向度的人”是指工業(yè)社會壓制了人的批判性和自主性,產(chǎn)品操控了人們的思想,給人們帶來固定的習(xí)慣和態(tài)度,導(dǎo)致單向度思想和行為模式的出現(xiàn)[8]40。最終可能如科林格里奇困境(Collingridge dilemma)[9]一樣,技術(shù)成為教育的一部分,以至于對它的控制十分困難。
ChatGPT應(yīng)用于醫(yī)學(xué)倫理教育需要有大量的醫(yī)學(xué)倫理學(xué)文獻作為數(shù)據(jù)源進行訓(xùn)練,然而當前并不可實現(xiàn),首先是成本的投入問題,大多數(shù)醫(yī)學(xué)倫理學(xué)雜志的論文需要訂閱和購買,并不像是網(wǎng)絡(luò)資源那樣免費可得,這就增加了開發(fā)成本;其次是語言問題,需要整合不同國家、不同語言類型的論文進行訓(xùn)練,而人口少的國家和人口多的國家相比發(fā)表物數(shù)量不占優(yōu)勢,小語種醫(yī)學(xué)倫理學(xué)論文與英語的發(fā)表物相比數(shù)量不占優(yōu)勢,數(shù)據(jù)上的懸殊不可避免會造成結(jié)果的偏差。
如果用于ChatGPT機器學(xué)習(xí)模型訓(xùn)練的數(shù)據(jù)存在偏差或者算法本身是以固有偏見的方式設(shè)計,那么ChatGPT輸出的結(jié)果就可能存在偏見。研究表明,人工智能算法所依賴的語言模型(language model)可以在其輸出中復(fù)制和放大性別與種族偏見[10]。雖然OpenAI公司沒有明確公布ChatGPT用于訓(xùn)練的數(shù)據(jù)來源,但當前大部分Transformer大語言模型依賴于英文數(shù)據(jù)源,比如Common Crawl的大型數(shù)據(jù)集,這也意味著英文數(shù)據(jù)源中所隱藏的偏見和歧視會伴隨著與使用者的交互帶來歧視。特別是在醫(yī)學(xué)教育領(lǐng)域,可能導(dǎo)致學(xué)生接受不準確的或歧視性信息,產(chǎn)生特定的思想、信仰和價值觀,無法容許不同觀點和經(jīng)驗的表達,進而系統(tǒng)性地危害個人權(quán)益。這種“系統(tǒng)性歧視”(institutional discrimination)并不是一種故意行為,而是在ChatGPT數(shù)據(jù)以及算法的產(chǎn)生過程中內(nèi)嵌于其中。而學(xué)生由于無法對ChatGPT中的數(shù)據(jù)進行批判性分析,因而也無法挑戰(zhàn)和改變歧視性觀念[11]。如果僅僅依賴人工智能提供的結(jié)果,可能會導(dǎo)致醫(yī)學(xué)倫理學(xué)思維的貧乏,降低醫(yī)學(xué)生對醫(yī)學(xué)倫理問題與挑戰(zhàn)的識別和鑒別力。
ChatGPT現(xiàn)有程序是面向用戶免費提供的,OpenAI已確認免費使用ChatGPT是暫時的,該產(chǎn)品最終將被貨幣化[12]。技術(shù)、知識、資本的深度融合賦予了優(yōu)勢群體更大的權(quán)力,正如“瓊斯海灘”的案例,弱勢群體尤其是黑人因為需要乘坐公交車去海灘,但公交車高于橋梁,導(dǎo)致無法進入海灘[13]。技術(shù)的設(shè)計者的種族偏見嵌入到技術(shù)裝置的設(shè)計中,表面上所有的人都能從技術(shù)進步中受惠,然而實際上掌控技術(shù)權(quán)力的群體操縱著利益的分配。凱爾納等[14]認為在教育中信息技術(shù)被資本家壟斷,因而產(chǎn)生了技術(shù)資本主義侵蝕教育的潛在風險。技術(shù)與資本內(nèi)在的勾連,以更加隱蔽的面貌呈現(xiàn)于個體面前。資本的逐利性使企業(yè)更容易放任ChatGPT對公眾權(quán)益的侵害,比如教育公司使用ChatGPT互動收集的數(shù)據(jù)進行精準營銷,從中獲取巨大利益。
即使同一主題,ChatGPT 也可能會根據(jù)用戶提問方式(如措辭)產(chǎn)生不同的結(jié)果。學(xué)生由于醫(yī)學(xué)倫理學(xué)知識水平的差異,在采用ChatGPT作為工具進行學(xué)習(xí)時可能出現(xiàn)差距。用戶與 ChatGPT 的交互方式是有效使用 ChatGPT 的一個組成部分,因此,思考如何獲得最有用的輸出,重點研究有效使用和管理 ChatGPT 所需的能力是什么,以及這些能力應(yīng)如何培養(yǎng)等對于推進人工智能時代的學(xué)習(xí)效率至關(guān)重要。
醫(yī)學(xué)倫理問題的探討與具體的地域、文化,尤其是具體的衛(wèi)生保健體制密切相關(guān)。比如在西方社會文化中,尊重患者的自主權(quán)是不可置疑的,但在中國社會文化中家庭決策具有重要地位,因此個體的自主決定就會以完全不同的方式被評價。ChatGPT通過機器學(xué)習(xí)數(shù)據(jù)庫中的數(shù)據(jù)工作機制決定了其無法應(yīng)對不同文化中多樣復(fù)雜的道德判斷,并對此給出針對性的回應(yīng),并且也無法對難以預(yù)見的、有潛在長期應(yīng)用效果的、生理心理和社會意義上的技術(shù)發(fā)展給出合理的道德判斷,這也將影響學(xué)生相關(guān)方面能力的形成。
道德調(diào)節(jié)是一種基于義務(wù)而采取的行為方式。它要求人們對自身和他人承擔道德義務(wù)。在日常生活中,我們遵循著一系列由特定社會規(guī)范所規(guī)定的行為準則來指導(dǎo)我們的行為。當一種新技術(shù)出現(xiàn)時,伴隨新的倫理問題和挑戰(zhàn),而現(xiàn)有的倫理規(guī)范,往往無法應(yīng)對新技術(shù)帶來的負面影響。但從本質(zhì)上來說,導(dǎo)致ChatGPT技術(shù)在應(yīng)用過程中的倫理挑戰(zhàn)的根源在于技術(shù)理性背離了價值理性[15],馬爾庫塞認為技術(shù)理性內(nèi)在于技術(shù)結(jié)構(gòu)的本身,正轉(zhuǎn)變?yōu)榧夹g(shù)拜物教,作為意識形態(tài)控制著人類[8]116。而在價值理性中,人是最終目的,所面對的一切問題都是非工具性的,即什么樣的事物有益于實現(xiàn)人類美好的生活。
ChatGPT應(yīng)用過程中會出現(xiàn)師生身份感和認同感的缺失。在倫理建構(gòu)的過程中,教師尊嚴始終是其中的原點,芒福德指出,對于人的選擇和道德自律,現(xiàn)代社會如何強調(diào)都不為過[16]。面對技術(shù)與教育失衡所帶來的困境,教師要具備先行探索的意識,迅速調(diào)整自身的角色定位,回歸教學(xué)主體的主導(dǎo)地位。在ChatGPT的輔助下,教師有了更多自由時間,要將更多的精力投入到智能技術(shù)無法企及的價值教育、道德教育以及創(chuàng)新教育中。
在人工智能時代,醫(yī)學(xué)倫理教育應(yīng)引導(dǎo)學(xué)生打破固有思維慣性,激發(fā)學(xué)生獨立思考和質(zhì)疑的能力。在醫(yī)學(xué)倫理教育中,需要培養(yǎng)學(xué)生對于倫理規(guī)范性的判斷,尤其對于醫(yī)學(xué)生而言,能夠針對患者是否應(yīng)當有自主權(quán)、流產(chǎn)是否合法、知情同意的重要程度等提出不同于醫(yī)學(xué)倫理學(xué)家的不同角度的判斷,因此生命倫理學(xué)教育是培育醫(yī)學(xué)生為其所主張的忠于人類價值需求的任何規(guī)范性觀點進行辯護的能力。所以在人工智能時代,醫(yī)學(xué)倫理學(xué)教育職責就是培養(yǎng)學(xué)生敢于質(zhì)疑、思考和進行倫理判斷的能力。比如識別ChatGPT對特定人群的歧視或者偏見,避免ChatGPT中嵌入的偏見和歧視增加社會差距并對某些社會群體造成傷害等。
前瞻責任要求人要對其行為導(dǎo)致的未來結(jié)果負責,具備及時應(yīng)對智能技術(shù)與教育教學(xué)整合的風險與可能性后果的能力至關(guān)重要。醫(yī)學(xué)倫理學(xué)教師需根據(jù)生成式人工智能技術(shù)特點,思考與審查智能技術(shù)與醫(yī)學(xué)倫理學(xué)課程教學(xué)、教育評價等方面是否具有特征契合性。醫(yī)學(xué)倫理學(xué)教師可以通過為作業(yè)提供明確的指導(dǎo)方針和期望,并強調(diào)學(xué)術(shù)作弊的后果來減少作弊的可能性;還可以通過設(shè)計結(jié)合批判性思維和創(chuàng)造力的評估評價測試方案,對學(xué)生的學(xué)習(xí)效果進行評估。
本文提到的涉及ChatGPT應(yīng)用于醫(yī)學(xué)倫理教育的倫理挑戰(zhàn)雖然多是從國際視角分析的,但可以預(yù)期的是,該技術(shù)也將很快影響我國,不管是管理者、教師還是學(xué)生,都不得不面對以ChatGPT為代表的生成式人工智能帶來的教育觀念的轉(zhuǎn)變,建立人工智能時代對于醫(yī)學(xué)倫理教育的新的理解。人工智能時代,醫(yī)學(xué)倫理教育的任務(wù)不僅是基本倫理學(xué)概念、思想的介紹,一個更迫切的任務(wù)是引導(dǎo)學(xué)生理解實現(xiàn)道德保護所必需的社會的、文化的和政治的前提,評估ChatGPT為代表的智能革命帶來的相關(guān)張力和風險,以及考慮有效的道德保護的途徑。