劉子暖,楊俊杰,陳韻岱
1解放軍總醫院第一醫學中心心血管內科,北京 100853;2南開大學醫學院,天津 300071
過去20年,心臟計算機斷層掃描血管造影(cardiac computed tomography angiography,CCTA)設備與技術水平不斷提高,逐漸成為評估冠狀動脈疾病(coronary artery disease,CAD)的重要手段。2019年歐洲心臟病學會發表的《慢性冠脈綜合征診斷與管理指南》推薦將CCTA作為疑似胸痛患者排除阻塞性CAD的初始檢查手段(Ⅰ類推薦),對可疑或新診斷的CAD患者,可應用CCTA進行危險分層(Ⅰ類推薦)[1]。由于較高的陰性預測值及診斷準確性,CCTA被視為冠脈介入手術前可靠的CAD篩查手段[2]。 此外,隨著CT心肌灌注(computed tomography perfusion,CTP)及CT血流儲備分數(computed tomography-fractional flow reserve,CT-FFR)等功能學評估手段的持續發展與深入研究,解剖學聯合功能學診斷可有效減少下游的侵入性檢查及治療[3-5]。
伴隨著功能學成像的發展,人工智能(artificial intelligence,AI)在心血管領域的應用急劇增多。AI是對人類智能進行模擬、拓展及延伸的一門新興學科,可以實現數據的自動解讀,并在短時間內對大量數據集進行分析,建立并評估復雜模型的區分度及校準度。機器學習(machine learning,ML)是AI的一個分支,可從給定的訓練數據集中運用不同的算法進行數據解析及學習,并以此為基礎構建模型,從而對外部結果進行預判[6]。深度學習是一種利用人工神經網絡實現機器學習的技術。當應用多層神經元節點進行計算時,整個體系獲得的參數越多,對真實關系的模擬程度越強,該技術被稱為深度神經網絡(deep neural network,DNN)技術。
隨著CCTA的廣泛使用及圖像分析特征的增加,圖像后處理對技術及時間的要求不斷提高,而ML不僅可以對此進行優化,還可增加圖像預處理、風險分層等方面的新應用。目前,ML在心臟CT領域的相關循證醫學證據迅速增多,本文對近年來ML在心臟CT領域,包括心臟CT圖像分析、風險模型建立、CTP及CT-FFR等方面的應用進行 綜述。
ML是一門完全由數據驅動的計算機學科,它與普通算法的主要區別在于,普通算法只能接受給定的模式及關系,而ML可通過學習對數據中多維變量的潛在關系進行自動識別并建模,實現對外部數據的預判,使工作效率大大提高。根據訓練數據集是否有學習標準,ML可分為監督學習、非監督學習、半監督學習及強化學習。監督學習主要用于解決分類及回歸問題,常見算法包括k近鄰(k-nearest neighbor,k-NN)、隨機森林(random forest,RF)、支持向量機(support vector machines,SVM)、決策樹(decision tree,DF)、邏輯回歸及大部分神經網絡。其中卷積神經網絡(convolutional neural network,CNN)及DNN默認圖像為輸入層,通過卷積提取圖像特征,配合若干全連接層完成圖像特征分類,其容錯能力好,泛化能力強,常用于處理圖像相關問題。非監督學習無明確的學習目標,通過聚類算法尋找數據集中的規律性并進行分析,常用于無人工注釋的數據。半監督學習的訓練數據同時包括標注數據及非標注數據,可視為監督與非監督學習的結合。強化學習則主要解決序貫決策問題,在目前的臨床研究中并不常用。
2.1 在圖像預處理中的應用 在圖像重建及預處理中,對圖像進行降噪處理及偽影修正可有效提高圖像質量,為后續進一步圖像分析提供保障。圖像修正一般通過不同的濾波算法完成,根據應用域不同,可分為基于空間域及基于頻域的降噪方法,通過在二維空間內對圖像像素進行處理或在頻域中識別噪聲信息頻譜差異,達到去噪的目的。這些算法多基于系統模型及數學統計模型,計算復雜,且涉及CT投影的原始數據,在實際研究中較難獲得。ML對此進行簡化,通過不同算法學習目標圖像與標準圖像間的非線性映射,進行端對端的直接學習,以此建立降噪模型。如Tatsugami等[7]提出的去噪過濾器,以高質量全模型迭代重建圖像為目標,訓練DNN模型,提高了混合迭代重建圖像的質量,使得圖像噪聲由(23.0±4.6) HU降至(18.5±2.8) HU。當缺乏標準圖像不能匹配樣本對時,仍可使用非監督學習方法,如Kang等[8]提出的循環一致性生成對抗網絡(cycle consistent generative adversarial network,Cycle GAN),通過對多相CCTA高、低劑量圖像的映射關系進行學習,建立了降噪模型。
CT輻射劑量一直是CT研究領域的熱點問題,輻射劑量的下降可減輕對人體的輻射傷害,但與此相伴的是圖像信噪比的降低。降噪模型為此問題提供了一種可靠的解決方案。一些研究致力于運用ML算法構建低劑量CT降噪器,尤其是CNN[9-10]及生成對抗網絡結構[11]。如Shan等[11]描述的GAN模型、Chen等[10]描述的3層CNN模型、Huang等[9]提出的兩階段殘差CNN等。最近,還有研究將ML算法直接用于圖像重建中,省去了重建后的降噪處理[12]。
除了與CT系統設備及重建算法相關的噪聲外,運動偽影及高密度偽影也是導致圖像質量較差的常見因素。Lossau等[13]提出一種名為CoMoFACT的模型,將合成運動偽影用于監督學習,實現對冠脈偽影的識別及量化。在此基礎上,訓練后的CNN模型實現了對偽影的校正[14]。最近,該團隊還提出了應用3組CNN對起搏器造成的金屬偽影進行消除的方法[15],該方法已在9例臨床案例中完成了測試,結果顯示金屬偽影明顯減少。除了卷積網絡外,還有研究使用U-net網絡修正正弦圖以達到抑制金屬偽影的目的[16]。
雖然ML在CT降噪及偽影校正方面取得了可喜的結果,但仍面臨一些挑戰。ML模型需要基于大量有代表性的數據進行訓練,而部分研究對訓練數據的質量要求較高,獲取成本也較高,如上述金屬偽影案例,這限制了訓練數據集的樣本量及多樣性,導致訓練后的模型泛化能力不足。Lossau等[13]通過人工模擬偽影解決了樣本量不足的問題,但這種人為合成數據并不能代表所有真實的情況,樣本多樣性難以保證,在此情形下建立的模型是否會出現過度擬合問題令人擔憂。此外,對于常見影響CCTA圖像判讀的嚴重鈣化偽影及高密度支架偽影問題,相關研究較少。由于部分容積效應的影響,高CT衰減值區域的管腔邊界不清,無法對其進一步評估,往往會導致無效檢測或診斷準確性下降。如何在高CT衰減值背景下實現管腔識別及分割可能是該領域未來的最大挑戰。
2.2 在冠脈鈣化檢測中的應用 冠脈鈣化檢測作為一種CAD的篩查工具,是心血管事件的有力預測因子。其檢測通常在非對比增強的心臟CT圖像中進行,以質量分數[17]、體積分數[18]或Agatston評分[19]來定量表示鈣化負荷,其中Agatston評分是最常用的冠脈鈣化積分(coronary artery calcium score,CACS)計算方法。目前已有許多半自動化冠脈鈣化檢測方法,但仍離不開人工手動標注,而ML的引入為冠脈鈣化自動檢測提供了更多可能性。
冠脈鈣化檢測一般以130 HU為閾值對鈣化斑塊進行識別及分割,其中對非冠脈鈣化的區分及鈣化位置特征的描述一直是兩大核心問題,特別是在非對比增強CT中,冠脈難以與周圍組織相區分。目前一些ML算法通過對病變紋理、體積、形狀等圖像特征進行學習,使用k-NN、SVM、CNN等分類器實現了對冠脈鈣化的識別。對于位置特征,Wolterink等[20]及Yang等[21]通過使用匹配的CCTA圖集進行配準,獲取非對比增強圖像上的冠脈位置信息;Isgum等[22]通過設計地圖集為冠脈鈣化的空間特征提供概率信息;Shahzad等[23]將CCTA地圖集注冊到CT掃描中進行冠脈位置估計,引入標準化空間以獲得位置特征。
與非對比增強CT不同,CCTA中由于對比劑的應用使血管顯像更加明顯,其位置特征可以不必通過提取冠脈樹獲得。Wolterink等[24]通過在心臟周圍設置邊界框,使用CNN分類器直接對該區域中所有體素進行識別,將體素在該區域內的坐標確定為位置特征。Lessmann等[25]提出的方法與之類似,但該方法主要應用于低劑量胸部CT掃描而非CCTA掃描圖集中。最近還有研究回避了冠脈鈣化分割問 題[26],利用CNN結構直接回歸計算CACS,將該方法應用于903例心臟CT及1687例胸部CT掃描圖像中,獲得的CACS與人工測量的CACS的類內相關系數達0.98,同時,該方法可在0.3 s內完成,計算效率遠遠超過其他方法。
目前已有的研究多致力于開發不同的ML算法解決冠脈鈣化自動識別問題,這些方法大多僅應用于少量特定掃描圖集中,當更換不同的掃描協議或CT掃描方案時,其性能尚不可知。van Velzen等[27]在最新研究中納入用于低劑量肺癌篩查、正電子發射計算機斷層掃描(PET)衰減校正、放射治療計劃及常規診斷目的的掃描圖集,證實了深度學習算法在大量、多樣化CT檢查中的有效性。目前,臨床中應用的冠脈鈣化檢測大多為半自動檢測,需人工手動校正。基于ML算法的冠脈鈣化全自動檢測尚無統一的標準及規范化應用,難以在臨床廣泛開展,尤其是在缺少大量手動注釋影像作為訓練集且掃描協議難以統一的背景下,這對ML在該領域的下一步應用提出了巨大挑戰。
2.3 在冠脈斑塊分析中的應用 CCTA的主要作用是對冠脈斑塊進行分析,從而獲得有指導意義的斑塊特征。有研究發現,無癥狀患者中的斑塊負荷(包括其數量、大小、形態等)是未來心血管不良事件的預測因子[28]。斑塊分析通常在CT后處理系統中由人工手動完成,其時間成本及人工成本十分昂貴,且具有一定的人為主觀性。ML基于數據進行的分析在很大程度上可提高效率,彌補這一 缺點。
由于斑塊分析僅在管腔內進行,部分斑塊自動檢測方法更關注管腔及血管壁的分割,以此作為斑塊搜索的基礎。Zhou等[29]提出了一種冠脈多尺度響應-滾動球囊區域生長法(MSCAR-RBG)用于提取冠狀動脈樹。Wei等[30]在此基礎上,通過學習血管壁徑向梯度的二維拓撲特征來檢測非鈣化斑塊。Ghanem等[31]則將血管濾過器、區域生長與水平集算法相結合,分割血管壁來進行斑塊檢測,是首個通過3D CCTA圖像數據輸入進行管壁分割的框架。這些分割方法雖然有效地提取了管腔區域,使斑塊檢測更具有針對性,但其算法較為復雜,僅有少量研究開展。
另外一種常見的思路是在沿冠脈中心線的管腔截面中提取形狀、強度及紋理特征,訓練ML模型識別斑塊。Zuluaga等[32]提出基于強度特征識別血管異常值以檢測有無斑塊;Zhao等[33]引入隨機半徑對稱特征向量進行不同斑塊類型的識別;Jawaid等[34]以平均徑向輪廓為特征檢測非鈣化斑塊。這幾種檢測方式均基于SVM模型進行。Zreik等[35]則提出了一種組合算法框架,應用CNN提取特征,通過遞歸神經網絡(recurrent neural network,RNN)聚集特征,實現對斑塊類型及狹窄程度的檢測。
目前大多數研究僅可實現對斑塊的粗略區分,即有無斑塊、斑塊類型(鈣化、非鈣化、混合斑塊)及有無狹窄等,僅有少量研究對特定斑塊類型進行了檢測。如Yamak等[36]及Masuda等[37]對纖維斑塊及脂質斑塊的檢測,Shi等[38]對易損斑塊的識別。Kolossváry等[39]提出了一種識別組織學定義的晚期粥樣硬化斑塊的方法,該方法通過將組織學圖像與體外CCTA掃描配準,確定CCTA上的參考標準,提取冠脈橫斷面特征,使用線性分類器將病變分為晚期或早期動脈粥樣硬化。不同斑塊類型對患者預后的影響不一,對高危斑塊進行識別更有意義,但由于學習樣本有限,模型難以達到廣泛適用性。Kolossváry等[39]研究中的斑塊類型由組織學切片定義,僅納入7例患者的21根血管進行建模及驗證,Masuda等[37]研究則以血管內超聲(intravascular ultrasound,IVUS)的結果作為斑塊分類標準,均難以獲得大量樣本,這大大限制了同類型研究的進一步開展。
目前,國內外均有使用基于ML的冠脈病變智能輔助診斷系統,如以色列斑馬醫療研發的HealthCCS系統可針對鈣化斑塊進行分析,于2018年經美國FDA批準上市;我國CoronaryDoc冠心病輔助診斷系統可對易損斑塊進行分析,進行冠脈血流動力學評估并給出血運重建術前規劃,現已進入AI三類證綠色通道審批階段。此外,隨著更多的諸如“阿里AI”等人工智能平臺的迅速發展,預計未來將有更多的人工智能輔助診療產品應用于臨床 實踐。
風險模型多采用ML分類算法,已在臨床各領域得到廣泛應用。常見的分類器包括RF、SVM、k-NN、決策樹、邏輯回歸及樸素貝葉斯。在心臟CT方面,ML主要使用回顧性數據建立預后模型,多用于預測疑似CAD患者的心血管不良事件,如Motwani等[40]及Ambale-Venkatesh等[41]的模型將臨床特征與CT影像特征相結合,van Rosendael等[42]及Johnson等[43]的模型則僅納入CT影像特征。其中,Johnson等[43]的研究基于16節段冠脈的4個特征,包括斑塊體積、鈣化程度、直徑狹窄率及有無正性重構,對DF、邏輯回歸、k-NN及分類神經網絡4種模型進行比較,結果顯示k-NN對結局的預測性能最佳,預測全因死亡的曲線下面積(area under curve,AUC)達0.77,預測冠心病死亡或非致死性心肌梗死的AUC達0.85。該研究還將k-NN評分與現有的非ML評分相比較,包括CAD-RADS、SSS、SIS、CT-Leaman及SPS,除SPS在冠心病死亡或非致死性心肌梗死事件中與k-NN無明顯差異外(AUC:0.84 vs. 0.85, P=0.37),其余評分的AUC均明顯低于k-NN(全因死亡:0.77 vs. 0.72~0.26,P<0.001;冠心病死亡或非致死性心肌梗死:0.85 vs. 0.80~0.83,P<0.001)。
最近一項研究利用25個臨床特征建立驗前概率模型,預測CCTA上阻塞型CAD的出現,該模型在多國、多中心CONFIRM研究人群中應用,結果顯示,與ML模型(AUC=0.773)、CAD聯盟評分(AUC=0.734)、CACS(AUC=0.866)、更新的Diamond-Forrester評分(UDF,AUC=0.682)相比,ML與CACS組合的預測性能最佳(AUC=0.881,P<0.05)[43]。
ML用于風險模型的優點在于:不基于先驗假設,即納入模型的特征不具有主觀偏向性,而是運用算法對所有能獲得的信息進行篩選,得到對結局有益的特征。如Motwani等[40]的研究中展示的信息增益排名、Al'Aref等[44]的研究中的特征重要性排名等。這有助于獲得更全面的信息,建立更精準的模型。雖然ML算法的優越性已被證實,但不同算法的計算策略、效率及精準度有所區別,目前尚缺乏大型研究對不同算法的性能進行比較[44]。另外,風險模型的建立完全是由數據驅動的,這需要有相對完整臨床信息的大樣本人群,同時要求有準確的隨訪或診斷結果作為模型分類標準。由于我國目前臨床數據的收集及隨訪程序并不十分完善,因此在我國開展此類研究還存在一定困難。
CTP是最近幾年發展起來的一種新型功能學檢查,通過觀測對比劑在心肌中的灌注及流出情況評價心肌缺血程度,可分為靜態及動態兩種模式,前者在首次灌注期間的單個時間點進行圖像捕獲,而后者在灌注期間進行多次掃描,可獲得完整的信號強度-時間曲線。檢測心肌在負荷狀態下的灌注情況,通常在動態CTP中完成,多以藥物形式進行 負荷。
ML在CTP中的應用尚不多見。Xiong等[45]采用訓練好的Adaboost分類器在靜息CCTA掃描圖集中執行左室自動分割,并以標準化灌注強度、跨壁灌注比及心肌壁厚度3個特征訓練ML模型,預測定量冠脈造影(quantitative coronary angiography,QCA)上>50%的狹窄病變。該研究將ML方法同時用于圖像分割及預測模型中,展示了ML模型組合應用的可能性,然而其局限性在于,基于CTP的預測模型是以QCA結果為分類標準的,但QCA并不能反映狹窄的功能學意義。該團隊的一項后續研究使用相似的分析及建模方法預測FFR上的顯著缺血,結果顯示,該方法的診斷準確率達63.5%,與CT顯示的冠脈狹窄(AUC=0.68)相比,靜息CTP可明顯提高對缺血病變的識別能力(AUC=0.75,P=0.001)[46]。近期van Hamersvelt等[47]對冠脈中度狹窄的患者進行研究,使用深度學習算法對患者的左室心肌形狀、紋理及對比度等圖像信息進行提取,預測FFR定義的功能性狹窄,結果顯示與僅基于狹窄等級的分類相比,該方法提高了對缺血病變的識別能力(AUC:0.76 vs. 0.68)。
在心肌灌注方面,ML更多應用于SPECT中,而CTP在檢測小面積心內膜下缺血及多血管病變等方面較SPECT心肌灌注更具優勢。即便如此,一些問題仍亟待解決,如動態CTP輻射暴露更大、對掃描硬件要求高、易受偽影影響(特別是線束硬化偽影),而靜態CTP對掃描時間的要求更為嚴格等,這些缺陷可能會成為未來ML改進的立足點。另外,動態CTP已被證明與未來不良心臟事件的發生相關,可預測冠狀動脈狹窄的預后[3],但目前尚缺少相關研究,將CTP特征引入預后模型可能會提高對相關患者的風險分層能力。
CT-FFR是另一項很有前景的新興技術,它以流體動力學為計算基礎,通過納維-斯托克斯方程(Navier-Stokes equations)將血液模擬為牛頓流體,在靜息CCTA圖像上,對心室、冠脈樹及主動脈進行三維重建,模擬冠脈最大充血狀態,與冠脈血流量、管壁彈性等參數結合,計算狹窄遠端冠脈內的平均壓力與冠脈開口處主動脈平均壓力的比值,獲得血流儲備分數。
最早提出的Heartflow模型于2014年經FDA批準用于臨床。該模型主要是基于計算流體力學(computational fluid dynamics,CFD),其臨床適用性已得到大量研究支持,最近Patel等[48]使用ADVANCE(Assessing Diagnostic Value of Non-invasive FFRCT in Coronary Care)注冊研究中接受CCTA患者的1年隨訪結果,評估基于Heartflow的CT-FFR對下游護理及臨床結局的影響,結果顯示,患者發生主要心血管不良事件(MACE)的比例較低,與CT-FFR>0.8的患者相比,CT-FFR≤0.8的患者發生心血管死亡或非致死性心肌梗死的風險明顯升高(RR=4.22,P=0.01)。然而,這種基于計算流體力學的方法對計算機硬件要求高,運算耗時長,計算成本巨大,且其依賴于經驗模型,難以完成復雜病變的計算。我國基于深度學習的CT-FFR軟件DEEPVESSEL-FFR已于去年投產上市,這是國內首個獲得AI智能醫療器械三類證的AI醫學影像產品,也是全球范圍內第二款獲批上市的CT-FFR產品。不同于Heartflow模型依靠傳統的流場仿真技術,DEEPVESSEL-FFR采用自主研發的深度學習技術,將血流動力學模型與深度神經網絡結合,能夠高效、精準地對全冠脈樹上任意一點的FFR值進行計算,可以對復雜病變進行評估,與壓力導絲測量的有創FFR具有良好的一致性(r=0.686,95%CI 0.567~0.799,P<0.001)[49]。此外,國內外多家企業也一直致力于研發基于不同深度學習算法的CT-FFR模型,并相繼進入臨床試驗及醫療審查階段,如早期由Itu等[50]提出的cFFR模型,基于12 000多個具有不同狹窄程度的冠脈模型,構建ML模型以學習解剖特征與使用CFD模型計算的FFR值之間的映射關系。該方法最大的優點是使FFR計算時間明顯縮短,可達近乎實時的結果,且其對缺血性病變的診斷能力已得到證實[51-53],包括基于不同金標準[54-55]及對特定病變[56-57]的研究。近期Lossnitzer等[58]的一項研究表明,在CT-FFR>0.8的患者中,94%經侵入性冠狀動脈造影(invasive coronary angiography,ICA)證實為無阻塞型病變,cFFR的應用可能會減少55%潛在的ICA轉診,有助于改善臨床下游管理。最近提出的uCT-FFR模型以侵入性FFR為金標準,在9個中心的338例患者中進行驗證,診斷準確率達91%,高于CCTA及ICA(P<0.001)[59]。
傳統的有創FFR基于冠脈造影,其耗材昂貴,且需藥物擴張血管,有一定風險,而CT-FFR依賴于無創影像學檢查CCTA,在降低醫療成本的同時,可精準、快速、安全地進行FFR分析,而ML算法的應用為此提供了保障。與CCTA圖像分析類似,CT-FFR分析產生的誤差主要來源于圖像質量干擾,包括CCTA圖像噪聲及重度彌漫鈣化偽影。目前有學者提出可應用減影冠狀動脈計算機斷層掃描(subtraction coronary computed tomography angiography,S-CCTA)來克服鈣化偽影的影響,或可提高CT-FFR在彌漫鈣化病變中的診斷性能[60]。另外,隨著仿真技術水平的提高,CT-FFR在提供病變功能學評估的同時,還可進行虛擬支架植入及虛擬搭橋仿真,為下游診療提供精準預案。目前的研究多圍繞CT-FFR診斷性能進行,少有預后研究評估不同模型的臨床應用價值,我國正在開展一項CT-FFR影響穩定型胸痛患者臨床決策的多中心隨機對照臨床研究(TARGET研究,ClinicalTrial.gov注冊號:NCT03901326)[61],這將為該技術在我國的開展提供更多循證醫學依據。
ML是計算機科學高速發展的產物,它基于大數據計算,對潛在的事物規律進行自主學習,優化了傳統計算模型,大幅提高了工作效率及質量。目前,ML在實際應用中面臨的挑戰主要源于算法及數據質量兩個方面。其中在算法方面,尚缺少對不同模型的橫向比較研究,不同算法采取的建模思路與計算方式各異,需要考慮針對不同類型的臨床問題采取何種算法以取得最優解,特別是對于目前尚在探索中的應用領域,如重度鈣化、支架影的識別及CT-FFR診斷灰區等問題。在數據質量方面,受限于臨床成本問題,高質量、大樣本訓練數據較難獲得,影響了以此為基礎建立的ML模型的泛化能力及穩定性。對某些復雜問題,當ML模型不具備解決能力時,尚需人為干預及校正。
近年來,隨著深度學習及卷積神經網絡等AI技術的不斷涌現,影像組學的概念被提出,以概述從醫療影像中自動提取高通量特征參數,建立模型以進行風險分層、輔助診療決策這一完整過程,其可視為AI在醫療影像評估中多個環節的組合應用,并已逐漸成為目前臨床研究的大趨勢。在心臟CT領域,已有許多AI產品落地應用,未來如何借助AI實現臨床患者診療路徑的優化管理值得進一步關注 研究。