陸崴,孫微,金銀華
結直腸癌是威脅人類健康的重大疾病。據2018年世界衛生組織統計數據表明,結直腸癌發病率及死亡率均位居全球第三位,占全球每年新發腫瘤病例的10%及全球每年腫瘤相關死亡病例的9.4%。在我國,結直腸癌同樣是高發的消化道惡性腫瘤,且其發病率和死亡率均呈持續上升趨勢,嚴重損害我國居民健康。近10 年來,在迅猛發展的信息技術支持下,影像組學、人工智能等在醫學影像領域的研究得到長足發展。影像組學能夠提供海量肉眼無法觀察到的高維影像深層特征,從而改變目前臨床診斷主觀性較強、定量信息較少的現狀,并且能夠通過整合影像以外的其他信息共同輔助臨床醫生進行疾病診斷、療效評價及預后評估,乃至基因預測等工作。與此同時,國內外眾多學者也為實現人工智能在醫學影像處理和分析上的應用做了大量探索研究,并在腫瘤、心腦血管疾病影像等方面取得了不少令人滿意的成果。人工智能技術的使用顯著提高了醫生的工作效率,并極大地提高了疾病的檢出率及診斷和評估的準確率。本文旨在回顧影像組學和人工智能技術在結直腸癌診斷和評估上所取得的研究成果,并介紹其在未來可能的發展方向。
結直腸癌患者的預后情況與就診時腫瘤進展程度密切相關,早期腫瘤患者術后5 年生存率可達90%,而晚期患者則不足12%。但事實上,由于缺乏明顯、特征性的臨床癥狀,約30%的結直腸癌患者發現時已處于中晚期或發生肝轉移,導致手術效果不佳或無法手術,其生存率大大減低。因此,開展結直腸癌篩查,及早發現早期結直腸癌及結直腸腺瘤等癌前病變并給予根治性治療,對改善患者預后,延長患者生命具有重要意義。由于CT、MR 等影像學檢查對早期腫瘤性病變的檢出率較低,目前結腸內鏡是結直腸癌篩查和早期診斷的主要方式。而隨著計算機科學的蓬勃發展,如何使用人工智能技術實現結腸鏡下病變的自動檢測和自動診斷已受到越來越多的關注并成為研究熱點。
息肉、腺瘤及癌灶等結直腸病變的檢出是臨床進行篩查的首要目的,同時也是結直腸疾病診治過程中最重要的第一步。人工智能能夠大幅降低結腸鏡檢查中息肉等病變的漏診率,從而提高早癌及腺瘤等癌前病變的檢出率。Fernández 等利用內鏡影像中息肉的邊界信息有效識別息肉,并用31 個病灶的內鏡視頻評估他們所構建的息肉自動檢測模型。結果顯示該模型的敏感性和特異性均達到了70%以上。在此之后,國內外多名學者及科研團隊均嘗試研究了利用人工智能的方法來提高內鏡下結直腸息肉的檢出率。2018 年,Misawa 等開發了一種基于深度學習的實時息肉自動檢測算法,并使用50 個息肉視頻和85 個非息肉視頻評估了其性能,其靈敏度和特異性分別達到90%和63%。同年,Urban 等利用深度學習算法開發了一個結腸內鏡下實時定位和識別息肉的模型,其在篩查中檢出息肉的準確率達到96%達到0.991。Wang 等也同樣使用深度學習開發并驗證了一個基于結腸內鏡的息肉自動檢出模型,其敏感性和特異性均達到90%以上。而與上述這些回顧性分析不同,Klare等開發了一種基于手繪特征的內鏡下結直腸息肉自動檢測模型,并對其進行了前瞻性評估。以經驗豐富的內鏡醫師在盲法下發現的腺瘤數量作為參考標準,該模型在55 例常規結腸鏡檢查中,其息肉檢出率和腺瘤檢出率分別為50.9%和29.1%,而臨床醫生的息肉檢出率和腺瘤檢出率分別為56.4%和30.9%。由此可見,人工智能在內鏡檢查中檢出結直腸病變的能力可媲美臨床醫生。在人工智能的輔助下,醫生可顯著降低結腸鏡檢查的漏診率。
結直腸病灶檢出后的定性診斷同樣十分重要,這直接關系到患者下一步該接受何種治療。人工智能的使用可以極大提高結直腸病變的定性診斷準確率,從而減少臨床上無關緊要的非腫瘤性病變或良性病變(如平滑肌瘤)的切除,避免過度治療。早在深度學習廣泛應用于醫學領域之前,Tischendorf 等就于2010 年首次報道了用于結直腸息肉分類的計算機輔助診斷系統(CAD)。其后,又有學者基于傳統機器學習方法開發了可用于區分腺瘤和增生性息肉的CAD 系統,其敏感性和特異性可達90%以上。而上述這些CAD 系統在隨后的一項前瞻性研究中得到了成功驗證,結果顯示其敏感性為93.0%、特異性為93.3%、陽性預測值(PPV)為93.0%、陰性預測值(NPV)為93.3%。最近幾年,兩個研究團隊利用回顧性數據開發了基于深度學習算法的內鏡下結直腸息肉自動診斷模型,其診斷微小(5 mm)腺瘤的NPV 均超過90%。而近年一項大規模的前瞻性研究的結果顯示,人工智能模型對結腸鏡下直腸-乙狀結腸小腺瘤實時分類的敏感性和特異性分別為91.4%和91.7%,PPV和NPV分別為88.9%和93.7%。因此,通過人工智能模型的輔助,可有望大幅提高臨床醫生在內鏡下對結直腸病變初步定性診斷的準確率,減少誤診及過度治療的發生。
腹部CT 和MRI 是目前結直腸癌術前評估的主要手段,其可以完整全面地展示腫瘤與組織、器官之間的關系以及淋巴結和遠處轉移情況,而通過增強檢查和MRI 的各種功能成像序列則可以顯示腫瘤的血供情況和代謝活性。但常規的人工影像評估方式存在一定不足,如TNM 分期準確率低、易造成過度分期。影像組學和人工智能可以提供更多高維、肉眼無法觀察到的影像深層特征,幫助醫生改變目前臨床診斷主觀性較強、定量信息較少的現狀,在提高臨床對腫瘤分期的準確性的同時,還能對腫瘤的病理和基因類型做出預判。Huang 等于2016 年就利用影像組學方法在結直腸癌淋巴結轉移預測方面開展了研究工作,其結果顯示影像組學可以有效預測結直腸癌患者淋巴結轉移的情況,將臨床淋巴結診斷70%的假陽性降低到30%左右。2019 年Ding等開發了一種基于快速區域卷積神經網絡(Faster RCNN)算法的人工智能模型用于評估直腸癌患者的淋巴結轉移情況,并對其進行了多中心驗證。其在414 例伴有盆腔淋巴結轉移的直腸癌的MR影像中,先使用該R-CNN模型識別有轉移的陽性淋巴結,而后將其結果與放射科醫生和病理科醫生的診斷結果進行比較。結果顯示該模型與放射科醫生之間的一致性為0.912,與病理診斷的一致性為0.448,而放射科醫生和病理診斷之間的一致性僅為0.134。近期,Lin 等構建了一個影像組學模型用于術前預測直腸癌T 分期,結果顯示其可良好地區分局部進展期直腸癌和早期直腸癌患者,在訓練集中模型的AUC為0.882,在驗證數據集中其AUC 為0.846,并且在該研究的前瞻性分析中,模型預測局部進展期直腸癌的AUC 可達0.859。2018 年Yang 等研究了基于CT的影像組學特征可否用于預測結直腸癌中KRAS/NRAS/BRAF 等基因的突變情況。結果顯示影像組學特征與KRAS/NRAS/BRAF突變呈顯著相關(P<0.001),預測KRAS/NRAS/BRAF突變的AUC、敏感性和特異性在訓練集中分別為0.869、0.757 和0.833,而在驗證集中分別為0.829、0.686 和0.857。同時,該研究發現患者的一般臨床資料、腫瘤分期和組織學分化程度等在訓練集和驗證集中均與KRAS/NRAS/BRAF 突變無顯著相關性(P >0.05)。近期,國內一項多中心研究顯示,基于T2WI 的影像組學標簽可在一定程度上預測直腸癌患者的KRAS基因突變,在內部及外部驗證集上的AUC 分別為0.682 和0.714。由此可見,影像組學和人工智能是對常規影像和臨床數據的重要補充,其提供了大量獨立的深層次特征,從而幫助放射科醫師及臨床做出更準確的評估和預測。
此外,由于結直腸癌癌灶和轉移淋巴結的識別和邊界界定是在臨床和科研工作中都十分重要的一個環節,如何通過人工智能技術實現直腸癌原發癌灶及轉移淋巴結或高風險淋巴結影像的自動、精準識別和勾畫,也是目前的重要研究方向之一。2017年Trebeschi 等將140 例局部進展期直腸癌患者的MRI 影像中的T2WI 和DWI 圖像利用卷積神經網絡(CNN)進行訓練,得到了一個精準的全自動直腸癌定位及分割模型。2018 年復旦大學Wang 等利用深度學習方法開發了一種可在T2WI圖像上自動分割腫瘤的新算法,其訓練樣本包含了93 名接受新輔助放化療及后續手術治療的局部進展期直腸癌患者,最終結果顯示此深度學習神經網絡自動分割的質量可媲美專業醫生手動完成的分割結果。同時,Men 等提出了一種新的深度擴大卷積神經網絡(DDCNN)方法來進行局部進展期直腸癌患者放療前腫瘤靶區和風險器官的自動分割,其方法具有較高的準確性,并可大大提高工作效率。其后,Men 團隊也同國外合作,收集了行仰臥位和俯臥位CT 檢查的直腸癌患者各50 例,以分析CNN中定位方向對直腸癌自動分割準確性的影響,其結果顯示若在同一網絡中加入相反方向的圖像,會顯著降低對腫瘤靶區和膀胱自動分割的準確性,而對股骨分割的準確性無明顯影響。隨著人工智能自動分割技術的不斷發展和完善,目前結直腸癌主要依靠手動勾畫、速度慢及主觀因素影響大的現狀必將得到很大的改觀,無論是臨床還是科研工作的效率必將得到極大的提升。
治療效果評價是臨床醫生在結直腸癌治療過程中進行動態監測的重要一環。治療效果的好壞直接關系到是否需要對當前治療方案進行調整和優化。而腫瘤的預后預測則是臨床醫生選擇最佳治療的方案的重要依據。CT 和MRI 同樣是目前臨床評價腫瘤治療后反應的重要手段,腫瘤的影像學表現也是分析預測腫瘤轉歸的重要參考因素之一。
在結直腸癌治療效果評價方面,2016 年有研究利用影像組學對結直腸癌患者的新輔助放化療進行了療效預測研究,結果證明影像組學特征可以有效預測新輔助治療的療效。2017 年Liu 等也使用影像組學的方法對局部進展期直腸癌患者在新輔助放化療后是否能達到病理完全緩解進行了分析和評價,其研究結果顯示基于治療前后MRI 影像數據的影像組學模型可有效預測局部進展期直腸癌患者的病理完全緩解情況,在訓練集和驗證集上其ROC曲線的AUC 分別高達0.9744 和0.9799。2018 年Horvat等也使用基于T2WI 的影像組學方法對局部進展期直腸癌患者的新輔助放化療效果進行了分析和評價,其研究結果顯示此影像組學模型的分類性能要優于基于T2WI 和DWI 的定量評估。2019 年Liu 等通過提取177 例直腸癌患者術前T2WI 影像的組學特征,來預測直腸癌患者發生術前同步遠處轉移的情況,其模型具有較好的特異性(94.4%),準確性可達87.0%(AUC 為0.827)。同期,Tang 等通過整合DWI 的定量特征、影像組學特征及臨床相關因素來預測局部進展期直腸癌患者新輔助治療的效果,結果顯示其模型的AUC為0.890,分類準確度為90%,校準分析更表明此模型的預測性能接近完美。
在結直腸癌患者預后預測方面,2018 年Meng等開發了影像組學模型用于預測局部進展期直腸癌患者的無病生存期,Cox 回歸分析顯示模型對高低風險患者的分類性能良好,其對患者3 年無病生存率預測的AUC 可達0.837。2020 年Li 等利用CT影像組學預測直腸癌術后遠處轉移發生的可能,結果顯示基于影像組學特征的Rad-score 與遠處轉移存在顯著相關性,而結合了病理T、N 分期的影像組學模型顯示出良好的預測能力,其在訓練集和驗證集的AUC 分別為0.842 和0.802。同時,影像組學模型與整個隊列和相應亞組的總生存期改善相關。Liu 等利用多中心數據集開發并驗證了一種基于MRI 的影像組學模型,用于預測局部進展期直腸癌的遠處轉移情況。結果顯示在所有四個多中心隊列中,該模型在區分遠處轉移高風險和低風險的患者上具有良好的準確性,而且優于臨床模型,可協助臨床預判患者對輔助化療的受益情況,從而制定有效的個體化治療方案。近期,在Badic 等的一項雙中心研究中發現,來自增強CT的影像組學模型可以良好地對II 期和III 期結直腸癌患者復發風險進行分層,從而有效地預測患者的無病生存期。
此外,由于PET 能夠在活體上顯示生物分子水平的組織代謝情況,也有學者開展了基于PET 影像的相關的研究。2018 年Lovinfosse 等利用86 例局部進展期直腸癌患者治療前18F-FDG PET/CT 影像構建了一個預測患者生存期的影像組學模型,他們發現該模型的輸出結果是一個強的獨立預測因子,要優于傳統的信號強度和體積參數。Giannini 等則通過結合18F-FDG PET和MRI的影像組學特征來構建模型,對局部進展期直腸癌患者進行新輔助治療的療效預測,同樣得到了一系列令人滿意的結果。
同時,在深度學習領域,Bibault 等利用95 例局部進展期直腸癌患者的CT影像,提取其影像組學特征,而后將這些特征放入深度神經網絡(DNN)來預測患者的病理完全緩解情況,其結果顯示DNN模型的預測準確率為80%,顯著高于通過線性回歸模型(69.5%)和SVM 模型(71.58%)所得到的結果。但此研究樣本量較少,采用的是CT 影像,較MRI影像信息量少,其模型有待進一步完善。近期,Fu 等利用基于深度學習的直腸癌DWI 影像組學特征來預測局部進展期直腸癌患者的新輔助放化療療效,其結果顯示與常用的手工設定特征(AUC 為0.64)相比,深度學習特征具有更好預測效能(AUC 為0.73)。上述研究結果均顯示影像組學和人工智能在治療效果評價和預后預測中的應用,有望在很大程度上提高直腸癌患者風險分層、治療敏感性預判的準確性,從而有助于臨床醫生制定個體化治療方案,促進療效優化,避免無效、低效或過度治療。
人工智能是一門新興且發展迅速的技術科學。基于各種醫學影像等大數據的人工智能輔助診斷模型不僅可以提高結直腸癌的早期檢出率和診斷、分期的準確性,而且還可以對患者進行準確的治療前系統性評估,有效地評價和預測手術、輔助/新輔助放化療的治療效果,并對患者的預后情況作出預測。通過不斷擴大樣本數據量,優化深度學習算法,人工智能模型的準確度和精密度都將得到進一步的提升。但是,目前所開發的各種影像組學或人工智能模型均存在一定的問題。如大多數模型是基于回顧性數據建立的,病例有嚴格的入組和排除標準,且各中心成像的標準或多或少存在些許差異,因此模型的可重復性及其在真實世界中應用的效果尚待得到充分的評估。此外,目前通過深度學習所得到的結果仍然缺乏可解釋性,即無法對人工智能模型做出正確判斷的原因和過程給出合理的解釋,且相應的深度學習特征也意義不明。現在已經有學者開始研究深度學習模式是如何根據影像等信息做出決策,剖析其“黑盒”中的因果關系,而可解釋的深度學習也已經開始成為一個活躍的研究領域。隨著包含影像組學在內的諸多人工智能技術在醫學領域越來越廣泛的應用,相信在不久的將來,基于醫學影像的人工智能模型將在為結直腸癌患者提供系統和精確的醫療服務方面發揮更加重要的作用。
(參考文獻略,讀者需要可向編輯部索取)