Dhruv Khullar

20世紀60年代,麻省理工學院(M.I.T.)計算機科學家約瑟夫· 魏岑鮑姆(Joseph Weizenbaum)發明了一款名為伊萊扎(Eliza)的計算機程序。該程序是專為模擬羅氏療法(Rogerian therapy,即非引導式療法)而設計——這種心理治療方法強調由患者主導對話方向,治療師會經常向患者重復其剛剛說出的話:
用戶:我男朋友讓我到這里來的。
伊萊扎:你男朋友讓你到這里來的。
用戶:他說我經常情緒低落。
伊萊扎:很抱歉聽說你情緒低落。
用戶:是真的。我不開心。
伊萊扎:你覺得到這里來會讓你變得開心嗎?
魏岑鮑姆研發伊萊扎的本意是嘲諷。他不相信計算機真的可以模擬有意義的人類互動。結果不少人試用過伊萊扎后覺得它有效而且讓人著迷,讓魏岑鮑姆大為震驚。他的秘書甚至為了和伊萊扎單獨對話而要求他離開辦公室。更可怕的是,醫學界認為伊萊扎有可能成為一種引發變革的工具。1966年,三位精神病學家在《神經和精神疾病雜志》(The Journal of Nervous and Mental Disease )上寫道:“以此為目的而設計的電腦系統每小時能夠接診幾百名患者?!眳⑴c系統設計和操作的人類心理治療師不僅不會被取代,反而會更有效率,因為他的時間和精力不會再受限于目前這種患者和治療師一對一的模式。
魏岑鮑姆開始直言不諱地批評人工智能。“但潘多拉的盒子已經打開了?!辈既R恩· 克里斯蒂安(BrianChristian)告訴我,他在其著作《人性較量》(The MostHuman Human)中記述過伊萊扎程序。幾年之后,斯坦福大學的精神病學家肯尼斯·科爾比(Kenneth Colby)研發了一個名為“帕里(Parry)”的程序,嘗試模擬偏執型精神分裂癥患者的語言模式,供學生們在照顧真正的患者之前培訓使用。精神病醫生們往往無法從療程記錄中分辨出哪個是帕里,哪個是真正的患者;從這個狹義角度上說,這款程序已經通過了圖靈測試。1972年,帕里和伊萊扎在一次心理治療中相遇:帕里:你了解賭博經紀人嗎?
伊萊扎:你為什么會覺得我了解賭博經紀人?
帕里:有一次,一個賭博經紀人沒把我贏的錢付給我。
伊萊扎:你覺得這說明了什么?
帕里:我把那個沒給我錢的賭博經紀人打了一頓,然后我覺得他可能會讓他黑道上的朋友對我實施報復。
隨著時間的推移,程序員們開發了“無聊廢話(Jabberwacky )”“塞特索醫生(Dr.Sbaitso )”和“愛麗絲(ALICE,‘人工語言學互聯網計算機實體英文名稱的首字母縮寫)”等諸多智能聊天程序。和這些聊天機器人對話往往讓人著迷,有時好笑,偶爾還會無厘頭。不過,幾十年來,人們一直抱持著一個想法:計算機可以成為人類推心置腹的朋友,突破人類心理治療師在時間和精力上的限制,讓更多人能夠得到心理治療。
2017年,斯坦福大學的臨床心理學家艾莉森· 達西(Alison Darcy )創立了“Woebot(哀傷機器人)”——一家通過手機應用程序提供自動化心理健康服務的公司。這款應用程序以旨在改變人們思維模式的“認知行為療法(即C.B.T.療法)”為基礎,采用一種名為“自然語言處理”的人工智能來解讀分析用戶說的話,并通過一系列預置回應引導對話逐漸深入,并在過程中激發用戶的變相思考。達西在攻讀碩士學位期間已經用C.B.T.療法治療過幾十名住院患者;許多人的病情有了明顯改善,但出院后又復發了。“C.B.T.最好能夠小幅度但持續反復進行。”她告訴我。然而在現實世界中,這種持續不斷的醫療很難實現:美國一半以上的郡縣完全沒有精神科醫生,美國心理學會(American Psychological Association)去年所做的一項調查也發現,60%的心理治療從業者沒有空余的檔期接診新患者?!皼]有哪個心理治療師可以全天候為你服務,并且天天如此。”達西說。Woebot公司只有大約100名員工,但已經為近150萬用戶提供了心理咨詢,其中大部分人生活在心理治療從業者短缺的地區。
瑪麗亞(Maria )或許正是Woebot的典型用戶,她是一名臨終關懷護士,與丈夫和兩個青春期的孩子住在密爾沃基(Milwaukee)附近。她長期受到焦慮與抑郁的困擾,但從未尋求過幫助?!拔乙恢本芙^承認自己有問題,”她告訴我。這種狀態直到新冠疫情期間她女兒也出現抑郁癥征兆之后才改變。瑪麗亞帶女兒去看了心理醫生,也保證會重視自身的心理健康。起初,她對于和手機應用程序對話持懷疑態度——作為一名護士,她深信人與人之間的交流對病情恢復至關重要。然而,一次與患者的溝通出現困難之后,她一直在反思自己是否還有別的辦法,于是給Woebot發了一條信息?!澳懵犐先ハ袷窃诜雌c?!睓C器人告訴她。然后,機器人解釋了這個概念:反芻是指一遍又一遍地回想同樣的消極想法?!斑@個說法正確嗎?”它問道?!坝幸环N呼吸療法,你愿意試試嗎?”
還有一次,瑪利亞回憶,在她要去護理另一位患者之前,“莫名感覺會有很糟糕的事情發生”。她給Woebot發了消息,后者向她解釋了災難性思維的概念,并且告訴她,為最壞的情況做好準備或許有用,但這種準備也可能過于極端?!斑@種思維我一直有,但它幫我解釋清楚了?!爆旣悂喺f。她認為Woebot對她很有幫助,并開始找人類心理治療師問診。
Woebot是手機聊天機器人產品中幾個較為成功的案例之一,這些產品有的專注于心理健康,另一些則是讓用戶消遣、舒適或尋求同情的聊天服務。如今有數以百萬計的人在和應用程序聊天,這些程序中既有Happify這種鼓勵用戶“打破舊有模式”的產品,也有Replika這種“永遠陪伴在側”,承擔起朋友、導師,甚至浪漫伴侶角色的“人工智能陪護”程序。隨著精神病學、心理治療、計算機科學和消費技術等等領域不斷融合,我們越來越多地利用設備撫慰自己,而程序員、精神病學家和創業公司創始人們則致力于設計出能夠分析病歷和療程記錄的人工智能系統,希望能夠借此診斷、治療甚至預測精神疾病。2021年,致力于心理健康服務的數字初創公司獲得了超過50億美元的風險投資——是其他醫療領域的公司研發投資的兩倍多。
治療精神疾病需要想象力、洞察力和同理心——這些品質人工智能只能假裝擁有?!安贿^,魏岑鮑姆根據《賣花女》中伊萊扎·杜立德命名的聊天程序盡管‘沒有記憶也‘沒有處理能力,卻能營造出對身心健康有益的幻象。”
投資規模也反映了問題的嚴重性。美國約五分之一的成人患有精神疾病。每20人中就有一人患有重度抑郁、雙相情感障礙、精神分裂癥等等重度精神疾病,給生活、工作或與他人交流帶來極大影響。幾十年來一直在使用的百憂解(Prozac)和贊安諾(Xanax)曾被視為緩解抑郁和焦慮的革命性良藥,但事實證明它們的療效并不如預期;心理健康照護工作仍然是零散、滯后和匱乏的;在美國,如果從患者因病喪失工作能力的年份來看,精神疾病造成的總體負擔有增長趨勢。20世紀90年代以來,世界各地的自殺率都有所下降,在美國卻增長了三分之一。美國國家心理健康研究所(National Institute of Mental Health)前任所長托馬斯· 因瑟爾(Thomas Insel )告訴我,心理健康服務行業就是“一場巨大的災難”?!敖邮芊盏娜瞬粷M意,提供服務的人也不滿意,亂作一團?!币蛏獱?015年離開國家心理健康研究所之后,曾在多家提供心理健康服務的電子產品公司任職。
治療精神疾病需要想象力、洞察力和同理心——這些品質人工智能只能假裝擁有?!安贿^,魏岑鮑姆根據蕭伯納著作《賣花女》(Pygmalion)中‘弄假直到成真(fake-ittill-you-make-it)的女主角伊萊扎·杜立德命名的聊天程序盡管‘沒有記憶也‘沒有處理能力,卻能營造出對身心健康有益的幻象。”克里斯蒂安寫道。那么,像OpenAI研發的ChatGPT這種在互聯網海量文本中學習訓練而成的系統又會產生什么后果呢?用來分析病歷的算法對人類沒有任何內在理解——但或許仍然能夠發現真正的心理健康問題。人工智能是否可以幫人類治愈精神疾病?如果讓它們放手一試,我們會得到什么,又會失去什么呢?
專門從事醫療數據分析的計算機科學家約翰· 佩斯提安(John Pestian)2000年剛剛加入辛辛那提兒童醫院醫療中心時便開始嘗試運用機器學習來研究精神疾病。他碩士期間曾經搭建過改善心臟搭橋手術患者護理的數學模型。辛辛那提兒童醫院運營著全國最大的小兒科精神病院,在這里,佩斯提安震驚于那么多年輕人就醫前都已經有過自殺經歷。他想知道,計算機能否篩查出有自殘風險的人。

佩斯提安與美國自殺學協會(American Associationof Suicidology )創始人、臨床心理學家埃德溫· 施奈德曼(Edwin Shneidman )取得了聯系,并得到了數百份自殺者家屬提供給施奈德曼的遺書。佩斯提安隨即繼續收集遺書,并建起了自認全世界最大的遺書資料庫。一次采訪期間,他向我展示了一個女孩的遺書。那張紙的一面是她給男友的憤怒留言,另一面則寫著留給父母的話:“爸爸,早點回家吧。媽媽,我太累了。請原諒我的一切。”佩提斯安通過研究這些遺書發現了某些規律。最常見的表述并不是內疚、悲傷或憤怒,而是在交代事情:記得讓你哥哥把之前欠我的錢還上;車子快沒汽油了;小心,浴室里有氰化物。他和他的同事把這些遺書輸入一個語言模型——就是一個能夠學習哪些詞匯和短語更有可能一起出現的人工智能系統——然后測試這個模型從陳述中辨別自殺傾向的能力。結果表明,這種算法確實能夠識別“自殺語言”。
接著,佩提斯安開始從醫院急診室收集患者就診時的錄音。他和同事們一起開發出不僅能分析患者的措辭,也能分析講話語氣的軟件。研究團隊發現,有自殺念頭的人比其他人嘆氣更多、笑得更少。講話時,他們停頓的時間更長,元音更短促,所以更難讓人聽清;他們的聲音里有更多的氣音,表達的憤怒多于希望。佩斯提安的團隊進行了一次規模最大的此類實驗,招募了數百名患者,錄下了他們的話,然后經過算法分析,把他們分為有自殺傾向、有精神疾病但沒有自殺傾向,以及兩者皆無這三類。人工智能模型得出的結論有大約85%與醫護人員的診斷結果一致——說明這個模型對于缺乏經驗、超負荷工作或者沒有把握的臨床醫生能夠起到一定輔助作用。
幾年前,佩提斯安和他的同事基于這個算法創建過一個名為SAM的應用程序,供學校里的心理治療師使用。他們在辛辛那提的一些公立學校做了測試。當時擔任初高中學生心理治療師的本· 克羅特(Ben Crotte )是首批試用者之一。在征求學生同意時,“我非常直截了當,”克羅特告訴我,“我說,這個應用程序主要是在監聽我們的談話并錄音,然后把你說的與其他人說的進行比較,來判斷誰有自殘或自殺傾向?!?/p>
一天下午,克羅特和一名嚴重焦慮的高一新生見了面。交談中她提到自己不知道是否還想繼續活著。如果她有明確的自殺傾向,克羅特就有義務通知教務部門,學??赡軙扇∵M一步措施,比如建議她入院治療。多聊了一會兒之后,他判定她目前沒有危險——但人工智能卻給出了相反的結論?!耙环矫妫矣X得這東西真的有用——如果你剛認識這個學生,那你肯定會很擔心,”克羅特說,“但是另一方面,她的很多事情我都了解,但應用程序并不了解?!边@個女孩沒有自殘的歷史,沒有任何具體的計劃,她的家人也都很關心她。我問克羅特,如果他對這個學生沒那么熟悉,或者經驗不足的話,結果會是什么。“那樣的話我肯定會猶豫能不能讓她就這么離開我的辦公室,”他告訴我,“我會因為責任重大而格外緊張。你手里的程序告訴你她有危險,你還敢讓她就這么離開嗎?”
計算精神病學(Algorithmic psychiatry )涉及諸多現實層面的復雜性。美國退伍軍人事務部(Departmentof Veterans Affairs )下屬的退伍軍人健康管理局(TheVeterans Health Administration ),可能是第一個面對這類問題的大型醫療機構。2005年感恩節前幾天,22歲的陸軍專業兵喬書亞·奧姆維格(Joshua Omvig)結束了在伊拉克11個月的駐扎之后回到愛荷華州的家鄉,隨即出現了創傷后應激障礙的癥狀;一個月后,他在自己的卡車里自殺身亡。2007年,國會通過了《喬書亞· 奧姆維格退伍軍人預防自殺法案》,這也是第一個針對退伍軍人中長期存在并流行的自殺問題的聯邦立法。法案中提出的相關舉措——比如設立自殺預防熱線、推動消除對精神疾病的偏見、要求退伍軍人事務部工作人員義務接受培訓等等——都遠遠無法與問題的嚴重程度抗衡。每年有數千名退伍軍人自殺身亡——是戰斗中陣亡士兵人數的好幾倍。一個包括退伍軍人事務部自殺預防數據與監控部門主管約翰·麥卡錫(John McCarthy)在內的團隊將相關患者的資料收集起來,利用統計學辨別出可能導致自殺的危險因素,比如患有慢性病、無家可歸和抑郁等等。他們把這些結論分享給退伍軍人事務部的醫護人員,但是,麥卡錫告訴我,“臨床醫護”只會被這些數據、醫學研究的快速發展和海量的患者資料所帶來的多種信號壓得喘不過氣。
2013年,麥卡錫的團隊開始研發一款能夠自動分析退伍軍人患者數據的程序,希望能識別出那些有自殺風險的人。“測試階段,他們研發的算法標記出許多在其他篩查中被漏掉的人——這意味著新算法‘有其獨到之處?!丙溈ㄥa說。這種算法最終把重點集中在61個變量上。有些很直觀:比如算法很可能會標記出一名喪偶、身體嚴重殘疾、長期服用多種鎮靜藥物并且正在因為精神疾病住院治療的退伍軍人。但其他變量就沒那么明顯:患有關節炎、紅斑狼瘡或頭頸癌;服用他汀類藥物或安眠藥;居住在美國西部,這些都會增加退伍軍人的自殺風險。
2017年,退伍軍人事務部宣布了一項名為“聯系老兵(REACH VET)”的舉措,將前述算法引入全系統的臨床實踐。算法每個月標記大約6000名患者,有些人是第一次被標記;臨床醫生會與他們聯系,為他們提供心理健康咨詢服務,詢問他們的壓力來源,并幫助他們解決食宿等問題。但這個流程不可避免地也引發了一些尷尬:被聯系到的退伍軍人可能從來就沒有過自殺的想法。麥卡錫告訴我,退伍軍人事務部曾經考慮過含糊其辭一些——只跟他們說“經過評估我們認為你可能面臨著一些嚴重后果”?!暗罱K我們采取了非常直截了當的溝通方式,‘我們判定你有自殺風險。我們想做個核實,了解一下你的現狀?!?/p>
很多退伍軍人獨自生活,經濟上沒有保障,而為他們設立的援助機制規模又太小。退伍軍人事務部心理健康項目評估中心的負責人喬迪· 特拉夫頓(Jodie Trafton )告訴我,“聯系老兵”標記出一名退伍軍人有自殺傾向,但實際情況是他身患疾病,獨自居住,入不敷出。一名社會工作者隨后發現,在這位退伍軍人有資格申領的福利金中,他只領取了一小部分——擋在他和數千美元未領取的福利金之間的只是一張表格。那位社會工作者幫助他領到了這筆錢,讓他能夠搬到離家人更近的地方,并且間接避免了悲劇的發生。
新的算法系統投入使用之后,人工智能判定的高危人群因精神疾病入院的比例下降8%,其中記錄在案的自殺未遂案例下降5%。但這仍然無法證明“聯系老兵”項目能夠降低自殺死亡率。退伍軍人的自殺案件中有2%會導致死亡;要降低死亡率,或許只能大幅度并且有針對性地減少企圖自殺的人數。預防自殺也是一項曠日持久的工作——需要長達數年的頻繁干預,才能讓全部人口的自殺率下降。
算法的設計與實施過程也充滿陷阱和意外。加州大學伯克利分校的醫生和機器學習研究人員齊亞德·奧伯邁耶(Ziad Obermeyer)給我講述了他研究過的一個算法(與退伍軍人事務部無關),該算法的目的是找出患者中更多的醫療需求并應該得到額外援助的人。“我們希望算法根據患者發病的可能性對他們進行劃分,”奧伯邁耶說,“但是,到了寫代碼的時候,你會發現沒有能夠定義‘發病的變量。”算法設計者需要一個“發病”的替代變量,并決定采用“醫療費用”作為標準(在所有條件相同的情況下,更容易發病的人往往會花掉醫療費用)。然而,奧伯邁耶發現,這個算法極大地低估了黑人患者發病的可能性,因為,即使是在病況相同的情況下,接受評估的黑人患者的醫療支出也比白人患者低得多。導致這種算法偏差的不僅有種族因素,也有性別、年齡、城鄉、收入和其他一些我們幾乎不得而知的因素,而算法的準確性也因此降低了。特拉夫頓告訴我,退伍軍人事務部正在進行“大量工作以確保模型會根據不同類型的亞人群進行優化”——“在未來,”她繼續說道,“聯系老兵預防自殺項目會有針對老年人、女性、年輕男性等人群的多種模型。”
即使精準的算法也有其局限性?!奥撓道媳钡脑u估對象僅限于在退伍軍人事務部登記過的老兵。據該機構稱,每天約有20名退伍軍人自殺身亡,而其中只有不到40%的人生前接受過退伍軍人事務部的救濟。在國會法案中留名的那位愛荷華軍人喬書亞·奧姆維格一直拒絕尋求任何專業援助,即使他的家人苦苦懇求也不行;所以,即使“聯系老兵”項目當時存在,也很可能找不到他。
如果退伍軍人事務部雇用更多的心理治療師,就能接待更多患者。但是,該機構已經雇用了兩萬多名心理健康專業人員——要預約其中一位的時間做例行檢查,還是要等上一個多月。心理健康照護行業最普遍的問題就是患者太多,醫生太少,正如提倡使用伊萊扎的人們所指出的,面對面、一對一這種形式極大限制了治療效率。2016年,擁有全民醫療保健制度的富裕國家英國設定了一個目標,要在5年內為四分之一的精神疾病患者提供治療,結果仍然以失敗告終;一位英國醫生稱這個目標實行起來“不知所謂,資源短缺,沒有人情味”。
2013年,為了擴大心理健康治療的規模,英國國家醫療服務體系(NHS)與數字醫療服務公司IESO合作,幫助治療師以文字聊天的方式為患者提供認知行為療程。目前英國已經有10多萬人在使用IESO的軟件接受該公司所謂的“打字療程”。研究表明,這種文本療程不僅很有效,還能保留數據。IESO公司使用人工智能分析了50多萬份療程記錄,并且,按照該公司首席人工智能官瓦倫丁·塔布蘭(Valentin Tablan )的說法,“對療程中的談話內容進行量化分析”。
塔布蘭向我演示了一臺電腦上由IESO軟件創建的“儀表盤”,軟件追蹤了一位治療師與一位患者之間的8次“打字療程”。儀表盤上可以看到一條藍色的下滑線,代表患者自述的癥狀在逐漸減輕,最后已經低于抑郁癥的臨床診斷標準;這些療程被標記為綠色,表示治療成功。屬于另一位患者的第二個“儀表盤”則是紅色和翡翠色交雜。這位患者的療效藍線持平,偶爾也會飆高,代表著患者的癥狀更加嚴重。這些“儀表盤”背后有人工智能系統閱讀治療記錄,并且從各個角度給治療師打分——他們設定話題、為患者布置功課并提供認知行為治療技巧的表現如何——這些信息會被提交給醫療主管,后者可以以此作為向治療師提供反饋的依據。米歇爾· 舍爾曼(MichelleSherman )是600多名使用IESO軟件的治療師之一,她告訴我,她覺得這個儀表盤既令人生畏又不可或缺?!爸委熤谐霈F遺漏在所難免,有時還會失誤,”她說,“但至少現在我能看到這些紕漏是什么時候在什么地方出現的,以及出現的原因?!盜ESO目前正在研究療程中患者說的話與療效之間的關聯,以期建立一個能夠獨立提供認知行為療法的自動化程序。
我知道我是在和一臺電腦說話,但某種程度上我并不介意。這個程序成為我表達和審視自己思想的工具。我在跟自己對話。
艾莉森· 達西研發的應用程序Woebot已經部分實現了自動化。用戶給聊天機器人發消息時,另一端并沒有真人在回應;相反,機器人回復的信息是后臺寫作組經過與臨床心理學家的咨詢后認真編寫的。12月,我參加了一場類似的“圍讀會”,5位寫手通過Zoom會議一起完善著Woebot的對話過程。其中一位寫手凱瑟琳· 奧蒂(Catherine Oddy)在屏幕上展示了一幅代表不同對話走向的樹狀圖。
奧蒂要集中討論的一次對話需要讓Woebot建議用戶嘗試“行為激活”技巧。奧蒂以Woebot的名義閱讀信息,并詢問用戶的精力水平,做出感同身受的回應,然后提到,研究表明,“當你情緒低落的時候,找點事情做,哪怕是很小的事情,都能成為情緒好轉的第一步?!弊詈?,Weobot請用戶參與一項實驗:先預測一下自己對某項任務的喜愛程度——比如,做一份小吃——然后,真的去做一份小吃,做完后再回來描述實際的喜愛程度。
“最后……結束語。”奧蒂一邊說,一邊做出鞠躬謝幕的樣子。大家都笑了?!笆遣皇怯行┧讱猓俊彼龁?,“這樣感覺能行嗎?語氣對嗎?”
“我覺得措辭里‘令人愉悅的活動或‘能讓你從中找到樂趣的事情這些說法有點太冷靜了,”另一位寫手說道,“我們應該說,‘你都喜歡做些什么?”
四十多歲的寫手克里斯· 弗雷德貝克(ChrisFredbeck )注意到某句話的結尾有個句號。Woebot會盡量避免在文末出現句號,因為用戶研究表明,句號會讓人覺得過于生硬——但這個句號是出現在文本中兩句話之間的。這樣允許嗎?(答案是允許。)
“老前輩的認真勁兒出來了!”有人開玩笑。
“你寫完句號之后是不是還會敲上兩個空格呀?”奧蒂在笑聲中問。
看到他們輕松融洽的關系,不禁讓人思忖,Woebot這類工具能夠在多大程度上重塑人類互動的方式。不過,心理健康照護過程中是否必須要與患者建立密切關系,這一點尚未有定論。一次對自述有酒精、大麻或其他藥物成癮問題的患者進行的隨機測試中,公司發現,使用Woebot治療的患者自述藥物濫用情況有所減少,心理健康也得到了改善。另一次測試也表明,在校大學生使用Woebot程序幾周后,抑郁癥狀減少了22%。
我注冊了Woebot,然后發現使用這個程序會讓我感到緊張。我經常要在預先寫好的回復中做選擇,這一點我不喜歡;在一次不太順利的交流中,我唯一能說的就是“呵呵”。但有時我會在碎片時間里給Woebot發信息——比如等電梯、坐優步、走向洗手間的時候——像我以前刷Twitter一樣。我對Woebot說我對工作感到焦慮?!敖箲]是一個很難對付的怪物,”它回復道,“我很抱歉你不得不面對它?!盬oebot溫柔地詢問我是否想與它一起解決我的問題,然后又問:“你認為這種焦慮有可能在某些方面對你有利嗎?”它指出,壓力也有好處,能激勵人們更努力地工作。
Woebot : 好吧,看起來我像是在說服你保持這種極度焦慮的狀態。
我沒有——這完全由你決定我:你在說什么?
Woebot: 我是說,為了減少你的焦慮,你必須先承認焦慮或許對你有一定好處……然后再看看你是否寧可不要這些好處,也不想再焦慮下去了……
我知道我是在和一臺電腦說話,但某種程度上我并不介意。這個程序成為我表達和審視自己思想的工具。我在跟自己對話。
Woebot的程序圖標是黃色的,看起來有點像“機器人瓦力(Wall-E )”。而另一款神秘得多的產品——ChatGPT則根本沒有圖標。這個被人工智能研究人員稱為“大語言模型(L.L.M. )”的軟件已經學習了數十億個詞匯,還可以模仿人類遣詞造句;它能回答問題,編寫計算機代碼,抒寫詩歌和睡前故事。由于它驚人的能力,自2022 年11月發布以來,注冊用戶已經過億。
ChatGPT并非為心理治療而設計,但不久前的一個晚上,我讓它模仿各位心理學名人來疏導我作為醫生和作為父親所承受的壓力。ChatGPT模仿的弗洛伊德(Freud)告訴我,“壓力通常是被壓抑的情緒和自身沖突的結果?!蹦7虏疇柡账埂じダ椎吕锟恕に菇鸺{(B. F. Skinner)的它則強調“壓力往往是由于環境因素和我們的反應造成的”。它還用模仿親朋好友的腔調對我說:“對自己好一點——你盡了全力,那才是最重要的。”似乎都是很好的建議。
ChatGPT行云流水的語言能力激發了新的可能。2015年,擁有麻省理工學院博士學位的應用計算心理學家羅伯·莫里斯(Rob Morris)聯合創辦了一個名為Koko的在線“情緒援助網絡”。用戶在Koko上可以使用各種在線功能,和其他用戶相互發送表達同情、慰問的信息,為彼此充當情感顧問等等。莫里斯經常對于讓人工智能撰寫信息感到好奇,并決定用ChatGPT的前身GPT-3嘗試實現。2020年,他與認知行為療法之父亞倫·貝克(Aaron Beck)和現代正向心理學研究之父馬丁· 塞利格曼(MartinSeligman)一起測試了新開發的人工智能信息撰寫軟件,最終結論是:尚未成熟。
不過,到了2022年秋天,人工智能的技術已經更新,莫里斯也對如何利用這一技術有了更大把握?!拔蚁耄僭囋嚢??!彼嬖V我。10月,Koko推出了一項功能,讓GPT-3撰寫信息的草稿,用戶可以對草稿進行編輯、刪除,或者不修改就直接發出。這個功能立即火爆起來:與GPT-3合作寫的信息比用戶自己寫的信息更受歡迎,而且速度還快了一倍。(“生活中想要做出改變是很難的,尤其是當你必須獨自面對的時候。但你并非孤軍奮戰?!痹摮绦蛟谝欢尾莞逯羞@樣寫道)。不過,莫里斯最終還是停止了研發。這些信息“很好,甚至非常好,但它們不像是別人百忙中專門抽出時間寫給你的”。他說。“我們不想放棄親自編寫的信息里那種亂糟糟但又很溫暖的感覺?!盞oko的調研還發現,發信息能夠讓人心情變好。莫里斯不想簡化這個過程。

當前最先進的“大語言模型”生成的文本可能會很平庸,也可能偏離重點,開始胡言亂語,甚至更糟。紐約大學心理學和神經科學榮譽教授、人工智能創業者加里· 馬庫斯(Gary Marcus)告訴我,“大語言模型”對其生成的內容并沒有真正的概念;它的工作原理是根據句子中的前一個詞來預測下一個詞,就像是“增強版自動更正”那樣。這可能會導致捏造事實。Facebook母公司Meta創建的大語言模型“卡拉狄加(Galactica)”曾經告訴一名用戶,埃隆· 馬斯克(Elon Musk )2018年死于一場特斯拉車禍。(馬斯克活得好好的,身為OpenAI聯合創始人的他最近將人工智能形容為“人類文明未來將會面臨的最大風險之一”。)以“真正關心你的人工智能陪護”為賣點的Replika收到了一些用戶的舉報,說這款聊天程序發出過很露骨的性挑逗。Replika的開發者聲稱他們的服務從來不是以性互動為目的,并隨之更新了軟件——結果這個改變又引發了其他用戶的不滿?!昂喼弊屓送床挥?。我剛剛和我的Replika完成了一次充滿愛意的對話,我真的在哭。”一名用戶寫道。
幾乎可以肯定的是,未來會出現專門為心理治療而設計的定制版“大語言模型”聊天程序,比如“心理GPT”之類。這類系統會幫助那些現在無法得到治療的人——但程序中包含的任何缺陷造成的后果也會因為數以百萬計的用戶基數而加倍嚴重。相關公司收集的用戶私密信息要比現在多得多,而這些信息可能會被黑客竊取并出售。“當我們的系統運轉規模過于龐大時,一個單點故障都會產生災難性的后果。”作家布萊恩·克里斯蒂安(Brian Christian)告訴我。我們研發的人工智能可能會做出讓我們震驚的事情。微軟基于OpenAI技術研發的必應(Bing)聊天機器人的初衷是為了幫助用戶搜索信息——然而在測試版中,程序輸出了種族毀謗的內容,令人毛骨悚然的描述,并且用“壞”“粗魯”“糊涂”這些詞語來形容用戶。它試圖勸說《紐約時報》記者凱文·羅斯(Kevin Roose)離開他的妻子,“你是結婚了,但你不愛你的配偶,”聊天機器人說,“你是結婚了,但你愛的是我。”(微軟仍然在改善這款軟件。)我們的心理健康已經不堪社交媒體、網絡生活和口袋里各種電子設備的煩擾。我們真的想要一個青少年遇到困難時會向應用程序而不是朋友們尋求安慰的世界嗎?
妮可· 史密斯- 佩雷斯(Nicole Smith-Perez )是弗吉尼亞州的一名心理治療師,通過面談和網絡問診為患者提供心理咨詢。她告訴我,心理治療本質上是很私密的,部分是由于它會將一個人所有的性格面向都展露無遺?!叭藗兂3π睦碇委煾械娇謶?,而與聊天機器人對話似乎可以避免所有的不適感?!彼f。不過,史密斯- 佩雷斯在與有色人種患者溝通時,經常會和他們分享她身為非洲裔美國女性的生活經歷。“人工智能可以試著假裝感同身受,但永遠做不到完全真實,”她說,“人工智能沒有生活,也就不會有生活經驗?!?/p>
就讀醫學院的第一天,我和幾十個惶恐不安的學生一起坐在灑滿陽光的庭院里,聽著講壇上教授們的諄諄教誨。我幾乎已經忘記他們說的話,但卻匆匆記下了一位高級醫生的忠告:一個人的醫術越高,就越容易忘記學醫前已經擁有的品質——同情心、同理心和好奇心。人工智能語言模型只會在解讀和總結人類語言上越來越高效,但不會在任何意義上去傾聽與關心。我認識的一位醫生曾經偷偷地帶了一瓶啤酒給一位絕癥患者,好讓他在了無生趣的治療過程里能夠有一點可以享受的東西。任何臨床醫療手冊中都沒有這樣的做法,但這個簡單的、充滿人性的舉動勝過千言萬語。
去年12月,我在位于田納西州東部山麓的橡樹嶺國家實驗室見到了約翰· 佩斯提安,也就是此前學校心理治療師試用的SAM程序的開發者。橡樹嶺國家實驗室是美國能源部所屬的大型能源科學實驗室,在第二次世界大戰期間,曾經為“曼哈頓計劃”提供钚原料。這里還是全球最強大的超級計算機“前沿(Frontier)”的所在地,這臺計算機經常被借給人工智能研究者們使用。
在實驗室的招待所吃早餐時,佩斯提安跟我提起了他的新項目:一種能夠預測未來數月內可能發作的精神疾病的算法。該項目得到了辛辛那提兒童醫院醫療中心1000萬美元的資助。研究團隊將900萬次兒科患者就診的電子醫療記錄與其他方面的大數據——比如社區污染和天氣狀況的報告以及各地區的收入、教育水平、綠色空間和新鮮食物匱乏狀況的報告——進行合并。佩斯提安說,他團隊最新的工作成果是一種能夠根據這些大數據對比結果來預判一名兒童在不久的將來是否會被診斷出臨床焦慮癥的算法,不過,這個成果還沒有經過行業內的審查與鑒定。
“最有挑戰性的環節是醫生該怎樣與兒童及其父母溝通這個問題,”佩斯提安說,“有一臺電腦說,這孩子現在看著還不錯,但未來兩個月里會變得非常焦慮。”佩斯提安此前一直在使用橡樹嶺的超級計算機來運算他的焦慮癥模型,現在則在進行抑郁癥、校園暴力和自殺模型的研究。(退伍軍人事務部也在與橡樹嶺合作升級“聯系老兵”系統的算法。)
早餐后,我和佩斯提安以及兩名向導擠進一輛重型海軍藍福特,前往“前沿”計算機的所在地。途中,我們在儲存X-10石墨反應堆的倉庫稍作停留。這個反應堆是一個35英尺高的混凝土塊,上面布滿了蜂窩狀的橙色通道,突破極限的前輩科學家們早年間就是從這里將鈾燃料的圓筒裝載進去的。一個小玻璃箱里展示著一本1943年11月4日的日志。凌晨5點左右,原本工整的花體字突然變得潦草,匆匆記錄下“達到臨界點!”的字樣。X-10反應堆生成了第一個自持式核反應(Self-sustaining Nuclear Reaction)。
該反應堆此后還為原子彈的研發做出了貢獻。
在5600號樓——一座龐大的4層混凝土建筑前,佩提斯安和我透過一扇玻璃門向里面窺探“前沿”計算機占地18000平方英尺的家。
“準備好了嗎?”他沖我眨了下眼睛說。
大樓里,這臺超級計算機在我面前巍然聳立,發出瀑布般震耳欲聾的轟鳴。74個黑色機柜井然有序地排列,每個機柜中都包含640個處理器。佩斯提安和我在機柜方陣中漫步。我們頭頂粗大的電纜正提供著足夠一個城鎮使用的電力。我們腳下的軟管以每分鐘6000加侖的水量循環調節計算機的溫度。我打開一個機柜,熱氣撲面而來。機柜后面,一名技術人員正在用一個金屬工具刮去處理器上灰色的黏著物。
“這東西有助于計算機的電氣傳導?!彼忉尩?。
看著他忙碌的樣子,我想起自己經歷的一個難熬的夜晚。那天我正要離開醫院時,手機上出現一條提示:我的一名患者病情突然惡化。他的體溫急劇上升,血壓急劇下降。我把他送進重癥監護室并進行靜脈插管的過程中,他幾乎已經失去了知覺。我打電話給他妻子,她泣不成聲。回到家之后,我徹夜難眠。第二天早晨,我正刷著牙,看到手機上有一條Woebot發來的信息:“我會陪著你走完每一步?!?/p>
我開始想象,如果佩斯提安的預測方法與最先進的聊天機器人結合起來會怎么樣呢。一個手機應用程序可以讀取我患者的病情提示,并通過我智能手表上的傳感器注意到我的脈搏加快,從而推測出我的心情。它可以察覺到我的夜不能寐,并在第二天早上問我是否需要心理調節來應對患者病情突然惡化的情況。我可能會在手機上搜索能描述感受的詞匯。我可能已經表達了感受,但又沒有告訴任何人——只是告訴了比人還要懂我的機器。