胡泳
IBM正在考慮出售沃森健康(Watson Health),這標志著人工智能的雄心在醫療保健業遭遇重大挫折。作為這家標志性科技企業近年來的明星業務,沃森健康最重要的產品可以幫助醫生診斷和治療癌癥。它是IBM最早也是最大的AI嘗試之一。然而,盡管為了打造這一增長引擎,IBM展開了一系列有針對性的價值數十億美元的收購,但沃森健康在爭取美國國內外市場份額上的進展并不順利,并且短期內也看不到盈利的前景。
失敗的原因不一而足。醫療專家相信,沃森機器人醫生的困境凸顯了將AI用于治療復雜疾病的障礙,可能同時包括人力、財務和技術。比如,獲得具廣泛代表性的患者群體的數據一直是一項挑戰,而在另外一方面,這些疾病的結果往往取決于許多可能無法在臨床數據庫中完全捕獲的因素。同時,科技公司缺乏深厚的醫療保健專業知識,如果它們不夠了解實戰的臨床工作流程,就會增加在病患環境中實施人工智能的困難。必須知道可以在哪里插入AI,以及AI又能夠在哪些方面提供幫助,而一切都要以提高醫院的效率為準。
不過,究其根本,在醫院中應用人工智能,首當其沖的是信任問題。在相當大的程度上,我們還是第一次見證人和機器人共處一室的復雜環境。當醫生首次與沃森交流時,他們發現自己處于相當困難的境地。一方面,如果沃森提供了與他們自己的觀點相一致的治療指導,醫生們對沃森的建議就看不出太多價值。超級計算機只是告訴他們本身業已知道的東西,而這些建議并沒有改變實際的處理方式。這可能會讓醫生放心,讓其對自己的決定更有信心。然而如果只是幫忙確認,機器人醫生值得在醫院里部署嗎?另一方面,如果沃森提出了與專家意見相矛盾的建議,醫生通常會得出結論:沃森對癌癥無能為力。機器無法解釋為什么它的處理是合理的,因為它的算法太復雜了,不能被人完全理解。因此,這導致了更多的不信任和懷疑,許多醫生會忽略看起來異乎尋常的AI建議,并堅持自己的專業知識。
由此來看,沃森的腫瘤診斷問題是醫生根本不信任它。人類的信任往往基于我們對其他人如何思考的理解,以及對其可靠性的經驗了解。這有助于創造一種心理安全感。而AI對于大多數人來說仍然是相當新穎和陌生的。它使用復雜的分析系統進行決策,以識別潛在的隱藏模式和來自大量數據的微弱信號。即使可以在技術上解釋(并非總是如此),AI的決策過程對于大多數人來說通常難以理解。和自己不明白的事情互動會引起焦慮,并使我們感覺我們失去了控制。許多人也不太了解許多AI實際工作的實例,因為它們常常發生在后臺。
相反,人們總能敏銳地意識到人工智能出錯的情況:谷歌算法將黑人分類為大猩猩;一個微軟聊天機器人在不到一天的時間里成為白人至上主義者;在自動駕駛模式下運行的特斯拉汽車導致了致命的事故。這些不幸的例子受到了媒體不成比例的關注,向社會發出了人類不能完全依賴技術的信息。機器學習并非萬無一失,部分原因是設計它的人不是萬能的。雖說如此,用人工智能改進醫療保健業的努力還會繼續。原因很簡單:在這個價值萬億美元的行業里,效率只能實現40%~60%。因此,用機器學習算法或可擴展的AI之類的優雅工具使它得到顯著改善的想法,顯然還是非常誘人。然而,要想達至誘人的前景,至少需要完成三件事情:第一,打開黑箱,讓AI能夠解釋自己所做的事情;第二,發現和減輕訓練數據及算法中的偏見;第三,為人工智能系統賦予倫理價值。