苗政,李明洋,陳忠萍,王爍,王卓,張磊,陳麗舟,陳云天,史晟先,李昊,石光,朱萬安
1.吉林大學第一醫院 放射科,吉林 長春 130000;2.四川大學華西醫院 放射科,四川 成都 610041
腦出血是指發生在腦實質內,由非外傷引起的血管破裂出血,是腦卒中各亞型中發病率僅次于缺血性卒中的嚴重疾病。在美國等西方國家中腦出血患者約占全部卒中患者的10%,而我國腦出血患者比例則更高,約占全部卒中患者的18%~48%[1]。同時,腦出血還是致死率極高的一種疾病,發病急性期內致死率高達30%~50%[2],在所有卒中類型中死亡率最高。因此,腦出血的早期準確診斷對于挽救患者生命至關重要。
頭部CT檢查是腦出血診斷的重要手段之一[3]。頭部CT平掃可以快速且準確地顯示血腫的部位、估計血腫體積、評價占位效應以及周圍腦組織受損情況,對于預測血腫進展、降低早期死亡率具有重要意義[4]。在傳統臨床診斷工作中,可以通過放射醫師手動標注腦出血患者圖像中的血腫區域來估計血腫體積,但這種方法既費時費力又容易受到評估者間的差異影響[5]。而一些基于傳統計算機圖像處理算法的標注方法如閾值法、區域增長法等需要手動選取閾值和種子點,并不能實現全自動化分割[6-8]。近年來,隨著人工智能技術的不斷發展,基于人工智能深度學習技術的圖像分割算法亦日趨成熟[9-10]。因此,基于深度學習技術構建醫學圖像自動化分割模型,對患者頭部CT平掃圖像中血腫區域進行快速準確地標注,對于腦出血患者的臨床診斷具有重要意義[11-13]。
在基于深度學習技術的圖像分割算法方面,國內外一些研究者已經進行了大量的研究工作[14-15]。如Schlemper等[16]在傳統U-NET分割網絡上進行改進,引入了注意力機制,利用Attention Gate結構加強通道內高貢獻特征表達,同時抑制低貢獻特征輸出,進而加深模型對任務有關特征的學習和理解。但由于缺少殘差層連接,模型內部跳層連接時可能出現梯度消失等問題,使特征無法有效傳遞。Zhou等[17]則改進了U-NET網絡深度固定的缺陷,通過引入深度可變的網絡結構以及重新設計的跳層連接,使模型在不同大小的分割目標上都達到了較好的分割性能。但由于缺少對不同感受野卷積核的多面特征融合,因此模型可能無法綜合有效利用特征。本研究綜合上述算法的優勢,并針對現有算法的不足,提出了一種新型分割網絡算法ADUNET,該網絡通過構建雙編解碼結構和殘差注意力層以便于充分利用圖像特征,并應用于頭部CT圖像中血腫區域的自動分割,同時設計一種針對深度學習分割網絡在血腫區域分割問題上的后處理算法,對深度學習網絡的分割結果實現進一步優化。
本研究得到了吉林大學第一醫院醫學倫理委員會的批準[2019年審(663)號],因本研究為回顧性分析免除書面知情同意。所有檢查均按照相關指南和規定進行。回顧性分析了2018年4月至2020年8月我院腦出血患者的影像資料,納入標準:① 患者年齡均大于18歲;② 所有患者均在發病后12 h內接受CT檢查;③ 所有患者在進行CT檢查前均未接受任何手術或介入治療。排除標準:① 繼發性出血,如外傷、動脈瘤、血管畸形、缺血再灌注損傷、靜脈竇栓塞、腫瘤;② 孤立性腦室出血;③ CT圖像存在偽影影響診斷;④ 多灶性出血。在全部1331例患者中,915例因顱內血腫被排除,最終416例被納入本研究,其中男性218例,女性198例,平均年齡(56.86±12.28)歲,從發病到第一次CT掃描的中位時間為3.5 h。
所有病例CT圖像均由西門子或飛利浦CT設備采集。不同設備采集過程中均使用相同的管球電壓,管電流為300或587 mA,掃描層厚為5 mm,像素間距為0.45×0.45 mm2或0.49×0.49 mm2。為減少不同廠商掃描設備上的成像參數的差異,將所有體素重新采樣為1.0×1.0×1.0 mm3,并統一采用軟組織窗算法重建圖像。
整體流程如圖1所示,主要由三個部分組成:第一部分為數據預處理,主要包括圖像格式轉換、圖像調窗以及圖像擺正去骨等操作;第二部分為利用提出的ADUNET分割網絡對第一步預處理后的圖像進行腦出血病灶的分割;第三部分為將第二步得到的初步分割結果做后處理,以進一步修正分割結果。

圖1 整體流程圖
數據預處理主要由三部分組成,首先利用RIAS醫學影像預處理工具[18]將原始DICOM圖像轉換為Nifty格式,以便于進行后續操作;由于不同數據對比度存在差異,因此為了使模型更好地對感興趣區域分割,本研究利用RIAS工具對Nifty圖像做自適應對比度調整,并輸出bmp格式圖像(即調窗);最后,為減少拍攝體位以及患者圖像中顱骨結構對血腫分割的影響,本研究對圖像進行擺正及顱骨去除處理。其中,顱骨去除處理使用基于深度學習的VBNet網絡完成。VB-Net是Han等[19]基于傳統深度學習分割網絡V-Net[20]的改進,該方法主要運用模型壓縮技術對V-Net中的殘差模塊進行了重新設計,并加入了Bottleneck網絡結構,構建了一個全新的分割網絡模型。該分割網絡模型的結構示意圖如圖2所示。

圖2 基于VB-Net的去頭骨分割網絡模型結構示意圖
本研究首先對整體CT圖像進行擺正,盡可能將腦中線旋轉到與水平線垂直的方向,以利于后續算法的高效執行。然后使用VB-Net網絡去除掉CT圖像中的頭骨,擺正后和頭骨分割算法的效果如圖3所示。

圖3 VB-Net分割結果示例圖
本研究提出一種基于深度學習的自動分割網絡ADUNET,該網絡可針對預處理后的圖像實現腦出血區域的自動分割,ADUNET網絡結構框圖如圖4所示。

圖4 ADUNET網絡結構框圖
ADUNET主要由兩組編碼器和解碼器構成,其中第一組編解碼器用來生成粗分割結果,第二組編解碼器以進一步優化分割結果。網絡通過共同計算粗分割結果和優化分割結果的損失來訓練網絡參數,損失函數如公式(1)所示。

式中,L(out1)為網絡第一層輸出二值圖像的損失函數,L(out2)為網絡輸出端輸出的二值圖像的損失函數。其中α和β為對應損失函數的系數,α+β=1。
輸入圖像首先進入第一組編碼器和解碼器結構,其中編碼器由VGG-19網絡組成,解碼器包括卷積層、池化層。VGG-19網絡由ImageNet數據集預訓練得到,利用該網絡可以實現對圖像的特征提取。而預訓練過的VGG-19網絡由于具有自然場景圖像的低維和高維信息,因此訓練時會加速網絡的收斂并提高分割精度。通過將4種不同尺度下的VGG-19網絡特征圖輸出,經過殘差注意力層,再與不同尺度的解碼器模塊相連,實現粗分割結果的輸出。其中殘差注意力層由卷積層和注意力層組成,殘差結構可以實現特征的遠程傳遞以防止梯度消失,注意力層可以引導貢獻度較高的特征高表達,以實現高精度分割。解碼器通過上采樣可以將高維抽象特征恢復到低維特征,即實現二值圖像的結果輸出。不同大小的解碼器特征與對應大小的編碼器特征相融合,再最終將融合后的不同尺度的特征進一步融合可以充分提取原始圖像信息。同時,在編碼器輸出端和解碼器輸入端引入空洞空間卷積池化金字塔結構,通過采用不同尺度的卷積核對特征圖進行特征提取并融合,可以有效將輸入圖像不同層級的特征進行表達,有利于模型識別目標區域。最終第一組編碼器和解碼器結構輸出粗分割結果,并送入下一組編解碼器。
第二組編解碼器的輸入為粗分割結果和輸入圖像對位相乘后的圖像,第二組編碼器對輸入圖像進行不同尺度的卷積并得到特征圖,再送入第二組空洞空間卷積池化金字塔后,送入解碼器模塊。第二組解碼器通過融合第一組編碼器對應尺度的特征圖以及經過殘差注意力層后對應尺度的第二組編碼器特征圖以實現分割結果的優化。模型最終輸出為粗分割結果和優化分割結果的融合圖像,即ADUNET的分割結果。
深度學習分割網絡訓練時,學習率設為0.0001,Batch Size設為16,優化器為Adam,當驗證集Dice系數連續10輪無明顯變化時,學習率乘以0.1,最低學習率為0.00001。
本研究提出一種針對深度學習分割網絡在腦出血分割問題上的后處理算法,算法流程圖如圖5所示。由于受限于數據量或分割任務難度等因素,深度學習分割網絡可能無法完全實現腦出血區域的精細分割,如出現非標注層的假陽性結果或標注層的假陰性結果等,因此后處理算法可以進一步優化深度學習分割結果。

圖5 后處理算法流程圖
分割后處理算法主要由4個步驟組成,輸入端為網絡輸出分割結果和原始圖像。首先計算圖像內前景圖像的均值、最大值和標準差,并以均值為下界點,最大值-標準差為上界點,同時利用雙邊閾值分割得到分割標簽。由于雙邊閾值的分割會存在一定的假陽性和孔洞,因此利用腐蝕、膨脹算法及中值濾波算法進一步平滑分割結果,最后利用最大連通域算法剔除掉離散噪聲的分割結果。
本研究共納入患者416例,按照比例7∶3隨機分為訓練集291例和測試集125例。所有患者影像數據的腦出血區域由兩名高年資放射科醫生利用開源標注軟件ITKSnap(V3.8.0,http://www.itksnap.org/pmwiki/pmwiki.php)共同標注,并對最終標注結果達成一致。訓練集數據為標注層的2D圖像,測試集數據為所有層面的2D圖像。本研究通過對測試集中單個病例的所有單層圖像進行分割和后處理,最后融合成3D分割標簽。
硬件設備 :CPU :AMD EPYC 7402 24-Core Processor 2.80 GHz;GPU:NVIDIA Tesla A100(40 G);內 存:75 G。軟件 工 具:ITK-Snap;RIAS(V0.1.3);TensorFlow:2.3;Python:3.6.9。
本研究主要采用醫學圖像分割領域廣泛使用的5種方法對結果進行評價[21]。其公式分別如式(2)~(6)所示。
①Dice系數:

② HD 系數(Hausdorff-Distance):

③Jaccard系數:

④精確率(Precision):

⑤召回率(Recall):

其中,TP、TN、FP、FN分別表示真陽性、真陰性、假陽性、假陰性的數量。
基于不同深度學習分割網絡對測試集的腦出血分割結果如表1所示。表中列出測試集中所有患者的平均Dice系數、HD系數等評價指標。由表1可以看出,ADUNET相比于Attention UNET和UNET plus在各項評價指標中均最好。其中Dice系數達到0.896,相比于其他網絡提升了5%。而Attention UNET和UNET plus在各項指標中均各有優勢,無明顯差異。綜合來看ADUNET基本可以實現腦出血區域的分割且分割效能較好。在平均精確度和平均召回率上ADUNET均明顯高于其他網絡,間接說明了ADUNET可以有效避免假陽性和假陰性的分割。

表1 不同深度學習分割網絡對測試集的腦出血分割評分
針對不同分割網絡的分割結果分別應用后處理算法優化,結果如表2所示,后處理算法能在一定程度上進一步提高模型的分割精度。對于Attention UNET和ADUNET,后處理算法在平均Dice系數上有略微提高,但是在部分指標上略有下降。對于UNET Plus網絡來說,后處理算法有效提高了分割精度。相比于原始分割結果來說,加入后處理算法的分割結果指標均優于加入后處理算法前的指標。由此綜合來看,本研究提出的后處理算法對于分割結果的優化有積極作用。

表2 應用后處理算法優化后的不同深度學習分割網絡對測試集的腦出血分割評分
綜合來看,本文提出的ADUNET可以有效分割腦出血區域,同時引入后處理算法可進一步優化分割結果。不同模型在測試集中所有患者的Dice系數箱型圖如圖6所示。由圖6可以看出,在測試集的所有患者中,未使用后處理算法之前ADUNET的箱型圖的寬度相比于另外兩個模型更窄,且中位數最高。同時離群數據數量和范圍相比其他兩個模型更少和更窄。這進一步說明ADUNET可以更準確地實現腦出血定量精準分割。使用了后處理算法后,ADUNET-P相比于ADUNET來說,Dice系數中位數提高,離散值范圍減少。而使用了后處理算法的UNET Plus-P相比于UNET Plus來說,箱型圖寬度變窄,離散值范圍變少。Attention UNET-P 相比于 Attention UNET 來說,中位數提高但離群值范圍略微增加。因此通過對測試集所有患者的Dice系數結果分析,綜合來說ADUNET-P效果最優,證明本研究提出的深度學習網絡ADUNET在腦出血分割上具有較好的效能,而后處理算法可以針對不同的網絡分割結果均起到優化的作用。

圖6 測試集中所有患者的Dice系數箱型圖
不同模型和算法在同一2D層面的分割效果如圖7所示。由圖7可以看出,UNET Plus模型會存在更大的假陽性,但經過后處理算法后假陽性被有效剔除。同時ADUNET-P相比于其他模型精準度更高。

圖7 不同深度學習分割網絡及后處理算法對測試集的腦出血分割結果
本文提出了一種基于卷積神經網絡的深度學習分割模型ADUNET,以及一種針對分割結果的后處理算法,可以有效實現腦出血的自動分割及檢出,提高臨床醫生工作效率及準確度,具有較大的臨床意義。通過將原始DICOM圖像進行圖像預處理后,得到擺正、去頭骨及對比度調節后的Nifty圖像,進而送入ADUNET實現對腦出血部分的準確識別和分割,同時應用后處理算法可以進一步優化分割結果。通過對比已有的深度學習分割網絡在相同訓練集和測試集上的效能,證明ADUNET有較好的分割效能。通過橫向對比后處理算法對不同網絡分割結果的效能提升,可以證明本文提出的后處理算法的有效性。
本文提出的方法也需要做出一定改進:首先,由于ADUNET屬于2D深度學習分割網絡,因此未考慮相鄰層的圖像空間關系,對于較小病灶的識別還有待提高;其次,ADUNET的網絡架構需進一步完善和優化,以提高雙編碼器和解碼器對于特征的提取和應用效率;最后,本文提出的后處理算法在某些方面還存在假陰性等問題,因此需進一步優化算法以提高后處理精度。此外,在CT圖像采集階段,目前有濾波反投影算法、混合迭代重建算法、全模型迭代重建算法等多種重建技術[22],不同的重建技術對于頭部CT圖像質量以及后續分割模型結果的影響也有待進一步探討。今后,我們將在深度學習分割模型網絡結構的優化、不同重建算法對分割結果的影響、以及能譜CT[23]等新序列對腦出血較小病灶檢出的應用價值等多個方面進行更深入的思考和探索。
本文主要提出了一種基于頭部CT圖像的腦出血精準分割模型ADUNET,并進一步提出一種基于閾值的后處理算法以提高模型分割準確度。主要對比了后處理算法前,ADUNET和其他已有模型的分割精準度,證明了ADUNET效能最優(Dice=0.8956)。同時也驗證了提出的后處理算法可以對不同分割網絡的分割精度均有不同程度的提升,且ADUNET-P效能最優(Dice=0.8999)。因此本文提出的結合后處理算法的深度學習網絡ADUNET-P可以有效對頭部CT圖像的腦出血區域實現精準的體素分割,并為后續的出血體積測量提供了新的手段和方法。