麗莎·奧西彭科(Leeza Osipenko)

麗莎·奧西彭科(Leeza Osipenko)
在今年早些時候接受《華爾街日報》采訪時,谷歌健康部門負責人兼自封的占星學愛好者大衛·費恩伯格興奮地說:“如果你相信我們的所作所為不過是信息梳理,從而讓你的醫生更容易做出決策,那么我就要替你們做主了:我不會讓你作出不接受的選擇。”
沒有人反對利用技術來改善醫療保健。近年來,絕大多數美國大型高科技公司均已參與醫療技術領域。借助大數據分析、人工智能(AI)和其他全新方法,他們承諾削減正在苦苦掙扎的醫療保健系統的成本,徹底改變醫生的醫療決策方式,從現有的醫療系統中救我們于水火。有可能出現什么問題呢?
事實證明,當透明數據反饋算法運用于棒球領域時,它們取得了比預期更好的效果;但當類似的模型被用于金融、保險、執法和教育領域時,它們卻可能帶來相當具有歧視性和破壞力的后果。
個人醫療數據,容易受到主觀臨床決策、醫療失誤和不斷向前發展的醫療實踐的影響,而大型數據集合的質量,卻往往因為記錄缺失、測量錯誤以及缺少結構和標準化程序而被削弱。盡管如此,人們在兜售醫療保健領域的大數據革命時,就好像這些令人不安的限制根本不存在一樣。更糟的是,許多醫療決策者都紛紛被這樣天花亂墜的宣傳迷惑。
有人可能會說,只要新方案能帶來某些好處,付出某些代價也值得。但如果不進行大規模、精心設計的實證研究,我們的確無法知曉,數據分析和人工智能是否真能改善現狀。
比如,谷歌健康和美國大型非營利醫療系統“耶穌升天(Ascension)”合作的夜鶯計劃,《華爾街日報》去年11月首次報道兩者的秘密關系,引發了公眾對患者數據和隱私的普遍擔憂。更糟的是,就像費恩伯格短短兩個月后面對同一媒體所公開承認的那樣,“我們并不知道自己在做什么”。
鑒于大型高科技公司完全不具備醫療保健方面的經驗,這樣的大實話其實應當并不出所料。更糟的是,日益統治我們生活的算法正變成一個越來越難以進入的黑匣子—它們不受公眾或監管部門的審查,而這樣做卻僅僅是以保護企業利益為目的。而且在醫療保健領域,算法診斷和決策模型有時會返回連醫生自己都無法理解的結果。
盡管許多涌入醫療技術領域的人都是出于好意,但行業目前的做法從根本上缺乏道德,而且知情度很低—算法本身即使不向公眾公開,至少也應提供給監管人員和定制服務的相關機構。
借助大數據和人工智能來提升醫療保健,很可能比技術樂觀主義者所認為的需要多得多的試錯工作。首先,大數據推演源于統計學和數學,應用者要對這兩門學科擁有一定的理解能力。其次,人工智能系統由現有的醫療保健系統所收集的數據提供指導,從而導致其無論涉及現有的失敗還是成功,都容易自我復制。
重要的是,醫療服務提供機構和政府應當摘下玫瑰色眼鏡,學會批判性地思考醫療保健領域基本未經測試的全新應用的含義。醫院和監管機構不應僅限于簡單提供患者病例和其他數據,還應當隨時跟蹤設計體系架構和部署試驗性新系統的技術領域開發人員的進度。更多的人需要提供反饋,并質疑最初的原型假設,而后必須進行受控試驗,以便對上述技術的實際表現進行評估。
由于大規模過度炒作,大數據醫療保健方案正被急速推向市場,而缺乏有意義的監管、透明度、標準化、問責制或者高效的驗證。患者有理由期待能為他們提供保護的醫療系統和服務提供者,而不是僅僅將他們作為數據來源,用于由利潤驅動的試驗行為。
本文由Project Syndicate授權《南風窗》獨家刊發中文版。