




摘要:手動分割腦腫瘤不僅耗時,還受主觀因素影響。通過不同深度學習模型在腦腫瘤MRI圖像上進行自動分割,可篩選出最佳模型,提高分割精度并輔助臨床決策。該研究采用了3DU-Net、3DResUNet、V-Net和TransUNet四種模型,在包含1251例患者腦腫瘤MRI圖像的BraTS2021公開數據集上進行訓練和驗證。所有模型均對預訓練參數進行了調整,并利用Dice系數(DSC)和95(HD95)分位豪斯多夫距離評估模型性能。最終,TransUNet模型在整個腫瘤(WT)、腫瘤核心(TC)和增強腫瘤(ET)區域的所有指標表現均為最佳,兩個指標分別達到87.35%、83.29%、82.09%和3.01cm、5.11cm、5.56cm。結果表明,深度學習模型在腦腫瘤圖像分割上的應用具備較高準確性和有效性,將深度學習與醫學圖像結合,實現了人工智能與醫療的互利共贏,為醫生提供了極具價值的輔助手段。
關鍵詞:深度學習;腦腫瘤;MRI圖像;人工智能;圖像分割
中圖分類號:TP391
文獻標識碼:A
文章編號:1009-3044(2025)20-0001-04
0引言
腦腫瘤是中樞神經系統中最常見且最具侵襲性的惡性腫瘤之一[1]。其種類繁多,如神經膠質瘤、腦膜瘤等,不同類型在生長速度、侵襲性及治療效果方面存在顯著差異,使得診斷和治療面臨較大挑戰。世界衛生組織(WorldHealthOrganization,WHO)依據腦腫瘤對人體的危害程度,將其分為四個等級。其中,一級和二級屬于低級別膠質瘤(LowGradeGliomas,LGG),三級和四級則為高級別膠質瘤(HighGradeGliomas,HGG)[2]。低級別膠質瘤(LGG)通常以良性形式生長,通常不擴散到其他部位。手術或化療后,其復發率較低,患者預后相對較好。相比之下,HGG多由LGG惡化而來,增殖速度快,并可侵襲周圍正常腦組織,增加手術難度。惡性膠質瘤患者的平均生存期一般不超過兩年[3]。
隨著醫學成像技術的快速發展,核磁共振成像(MagneticResonanceImaging,MRI)在腦腫瘤的臨床診斷與治療中具有重要應用價值,已成為目前廣泛應用的檢測手段之一。MRI通過獲取腦部組織的詳細信息,實現對病理變化及組織形態的精準判斷,使醫生能夠更直觀地分析病灶結構,提高手術的成功率。其中,T1加權(T1-weighted,T1)、T2加權(T2-weighted,T2)、T1加權對比增強(contrast-enhancedT1-weighted,T1-CE)和液體衰減反轉恢復(FluidAttenu?atedInversionRecovery,FLAIR)是四種常見的診斷性MRI模式[4-5]。
隨著計算機技術的飛速發展,深度學習在腦腫瘤圖像分割中的應用日益廣泛。首先,基于Ronneberger等[6]提出的對稱網絡U-Net,U-Net是一種基于卷積神經網絡(CNN)的深度學習模型,對醫學圖像分割適應能力較好,廣泛應用于醫學圖像分割任務中。Dong等[7]通過在編碼器和解碼器的所有卷積層使用零填充,確保不同層級的輸出尺寸保持一致。Yang等[8]將U-Net數,以實現與樣本結合預處理MRI腦腫瘤圖像的精準分割、優化算法和交叉熵損失函。
本文采用多種具有代表性的深度學習圖像分割算法,并在醫學圖像計算與計算機輔助干預協會(MICCAI)提供的腦腫瘤MRI圖像公共數據集BraTS2021[9]上進行訓練與驗證,以實現對腦部MRI圖像中腫瘤部分的分割。所采用的模型包括3DU-Net、3DResUNet、V-Net和TransUNet。通過模型對比,期望篩選出在腦腫瘤MRI圖像分割任務中實現最佳性能和效率的網絡模型。
1本文方法介紹
1.13DU-Net
3DU-Net[10]是U-Net架構的一個變體,在編碼路徑中,每個層次首先應用兩個3×3×3卷積,卷積后依次接入批量歸一化(BatchNormalization,BN)與ReLU激活,然后通過2×2×2的最大池化(步幅為2)實現下采樣;在解碼路徑中,每個層次先進行2×2×2的上卷積上采樣(步幅為2),隨后接兩個3×3×3卷積及BN+ReLU激活操作,以恢復高分辨率特征。通過與編碼器中對應分辨率層的跳躍連接,能夠有效融合高分辨率信息。
1.23DResUNet
3DResUNet[11]是一種用于劑量預測的深度學習模型,結合了3DU-Net的編碼解碼結構和ResNet的殘差連接,以增強特征提取能力并避免梯度消失問題。其殘差連接有助于信息的高效傳遞,提升模型對細粒度信息的捕捉能力。此外,批量歸一化提高了訓練穩定性,加速收斂,同時ReLU激活函數增強了非線性表達能力。整體而言,該3DResUNet在保證高精度劑量預測的同時,具備更強的魯棒性和泛化能力。
1.3V-Net
V-Net[12]是在U-Net基礎上加入殘差學習結構,以三維卷積為基礎構建用于分割三維圖像的模型,其架構由兩大部分構成:壓縮(編碼)路徑和解壓縮(解碼)路徑,能夠很好地處理病灶和背景之間強烈的不平衡問題,且處理時間明顯縮短,并在MRI圖像分割中表現出良好性能。
1.4TransUNet
TransUNet[13]結合了CNN與Transformer架構作為編碼器,以充分發揮CNN對高分辨率空間特征的提取能力,同時利用Transformer處理全局上下文信息。在編碼過程中,輸入圖像經三層卷積進行下采樣,CNN作為特征提取器生成特征圖,隨后通過圖像塊嵌入與位置編碼操作,將數據輸入至包含12層Transformer模塊的網絡結構。解碼階段采用常規轉置卷積進行上采樣,以逐步恢復圖像空間分辨率,并通過跳躍連接融合編碼器CNN部分對應層級的特征信息,以提升分割精度。
2結果
2.1實驗數據集
本研究采用MICCAI提供的BraTS2021數據集,該數據集包含1251名患者的MRI圖像,每個樣本由155Flair張和240T2×四種模態240的圖像組成,并附有真實分割標簽。MRI數據包含。T1數據標、T1ce、注涵蓋四個部分,包括非增強腫瘤及壞死區域、水腫區域、增強腫瘤及背景。分割任務中,通常將這些區域劃分為三個主要部分:1)整個腫瘤(WT),即去除背景后的所有病灶區域;2)腫瘤核心(TC),由壞死組織、非增強及增強腫瘤構成;3)增強腫瘤(ET),僅由增強病灶組成。
此外,本文對上述數據集進行切片處理,并將不同模態信息合并,形成多通道數據,并進行數據增強操作,包括翻轉、旋轉、裁剪等,最終對這些圖像進行歸一化處理。本次實驗以4∶1的比例將數據集劃分為訓練集和測試集。
2.2實驗配置
本次實驗硬件環境:CPU為AMDEPYC7302,內存32G,GPU為NvidiaRTX409024G,具備出色的計算性能和高帶寬,極大加速了深度神經網絡的訓練過程,顯著縮短了訓練時間。軟件環境:Windows10,Py?torch1.10.1,Python3.8;參數設置:Epoch為100,Batch-size為8,學習率為1e-3,優化器選擇Adam。
2.3損失函數
針對數據訓練樣本中的類不平衡問題,為了能夠更精確地分割腦腫瘤圖像,減少外界因素的影響,本文采用二元交叉熵損失函數和Dice損失函數[14]相結合的混合損失函數作為本次實驗模型訓練的損失函數,以達到更好的模型性能效果。
二元交叉熵損失函數公式為:
式中:N為總的訓練數據,yi和pi分別為第i張圖像的真實正樣本數據和預測正樣本數據,其中i∈N。該損失函數在優化過程中通過最小化預測誤差,提高分類模型的準確性,通常與Sigmoid激活函數配合使用,廣泛應用于醫學圖像分割任務中。
Dice損失函數公式為:
式中:N為總的訓練數據,yi和pi分別為第i張圖像的真實正樣本數據和預測的正樣本數據,φ代表一個隨機噪聲,用于提高實驗模型的泛化能力。Dice損失函數常用于學習網絡參數,使預測值更接近真實值。
綜上,混合損失函數定義為:
2.4評價指標
評價指標主要用于評估圖像分割算法的性能,包括分割的準確性和一致性。本文從以下兩個評價指標對模型進行評價:Dice相似系數(DiceSimilarityCo?efficient,DSC)常用于比較圖像分割結果與真實標注之間的重疊程度。DSC的取值范圍從0到1,其中0表示沒有重疊,1表示完全重疊。較高的DSC值表明分割結果與真實標注非常接近,而較低的值則表示分割效果較差;95分位豪斯多夫距離(HausdorffDistance,HD95)用于衡量兩組點集之間的最大偏差,對極端值異常敏感,常用于評估分割所得腫瘤邊界與真實邊界之間的最大偏離程度。
Dice相似系數公式如下:
式中:A表示某一類別真實標注的體素集合,B表示預測的該類別體素集合。∣A∩B∣表示A和B的交集大小,即正確識別的體素數。∣A∣和∣B∣分別是A和B的大小,即各自包含的體素數。
HD95的公式為:
式中:X和Y分別代表兩個邊界點的集合,它們分別對應于圖像分割的預測結果和真實結果的邊界點。HD95值的大小直接反映了分割結果的邊界準確度:HD95值越小,表明分割結果與真實結果的邊界越接近,即分割效果越精確。
2.5實驗結果分析
1)損失函數。
不同網絡模型在訓練期間的損失值隨訓練次數的增加變化情況如圖1所示。從整體趨勢來看,4種模型均表現出訓練初期損失迅速下降、后期趨于平穩的變化模式,說明它們都能夠有效地從隨機初始或預設權重中學習到有用的特征。各曲線在前10個epoch左右普遍出現較大幅度的下降,體現了模型對數據特征的快速捕捉能力;此后,隨著學習率衰減以及網絡對數據分布的逐步適應,曲線波動減小,并最終收斂到一個相對穩定的水平。從模型間的對比來看,3DResUNet體現了殘差結構和和TransUNetTransformer-CNN在后期曲線波動幅度相對較小混合架構對網絡,訓練的穩定作用;而3DU-Net和V-Net在部分階段存在更明顯的波動,說明它們在應對局部復雜樣本或特征時需要更多迭代來穩定參數。
總體而言,所有模型均完成了從高損失到低損失的收斂過程,但在收斂速度和后期穩定性上略有差異,需要結合后續的評估指標與可視化分割效果進行綜合評價。
2)對比實驗結果。
本文選擇了3DU-Net、3DResUNet、V-Net和TransUNet四種網絡模型進行對比實驗,其結果如表1所示。從整體性能來看,TransUNet在Dice相似系數方面表現最佳,分別在WT(87.35%)、TC(83.29%)和ET上也表現出最低值(82.09%)上均達到最高分,表明其在腫瘤區域的邊界預測上,同時在HD95評估指標更加精準。TransUNet能夠通過CNN提取局部特征,并結合Transformer進行全局建模,有效彌補了U-Net結構的局部信息缺失問題,使其在DSC和HD95指標上均表現優異。
3DU-Net相較于其他三個模型,在所有評估指標上均處于劣勢,可能由于其僅依賴U形結構的編碼-解碼架構,缺乏全局特征提取能力,導致對復雜腫瘤區域的邊界信息恢復較差。而3DResUNet在WT和TC上的表現優于3DU-Net,但ET方面仍未能取得最佳,可能是由于ET較難分割,僅靠殘差連接可能不足以彌補信息損失。V-Net在HD95指標上表現較好,說明其特有的體素級分割策略在邊界識別方面較強,但在TC分割上仍然存在一定不足,可能是由于其對不同類型腫瘤區域的特征區分能力有限。
圖2展示了4種網絡模型在腦腫瘤圖像分割上的對比結果,直觀地呈現了各模型的分割效果。觀察圖像可知,各模型均能定位腫瘤不同區域并勾畫出大致輪廓;在形狀復雜或邊緣模糊的區域,TransUNet得到的分割結果與真實標簽最為吻合,這與表1中的數據一致。
綜上所述,這些結果驗證了基于Transformer的改進方法在腦腫瘤分割任務中具有明顯優勢,尤其是TransUNet更精確的邊界描述在保持較高分割重疊率的同時,從而為臨床診斷和治療提供了有,能夠提供力支持。
3結論
本研究探討了不同深度學習模型在腦腫瘤MRI圖像分割中的有效性,驗證了多模型方法的潛力。實驗選取了3DU-Net、3DResUNet、V Net以及TransUNet四種模型,對BraTS2021數據集進行訓練和測試。綜合指標及分割結果顯示,TransU?Net在各項評估指標中均取得最優效果,其Dice系數在整個腫瘤(WT)、腫瘤核心(TC)和增強腫瘤(ET)區域分別達到87.35%、83.29%和82.09%,同時HD95值最低,體現出模型在分割任務中的高效與準確。盡管其他三種模型也表現不俗,但各項指標均低于TransUNet。
盡管本研究中的所有模型分割效果良好,結果表明模型的分割精度仍有進一步提升的空間,未來可探索更有效的多模態學習方法,以提高對復雜腫瘤的分割準確性。
總而言之,本研究證明了深度學習在腦腫瘤MRI圖像分割任務中的有效性,深度學習為圖像分割提供了堅實的技術支撐,在生物醫學領域展現出巨大的應用潛力。通過對高效神經網絡分割模型的深入研究,能夠推動計算機輔助醫療診斷的發展,從而助力臨床決策。
參考文獻:
[1]梁志遠,黃芝瑛,耿興超,等.原發性腦腫瘤的臨床前疾病模型研究進展[J].中國新藥雜志,2023,32(8):787-792.
[2]LOUISDN,PERRYA,WESSELINGP,etal.The2021WHOclassificationoftumorsofthecentralnervoussystem:asummary[J].Neuro-oncology,2021,23(8):1231-1251.
[3]黃春,姜浩芝.核磁共振與CT檢查對顱內腫瘤的鑒別診斷價值[J].實用醫學影像雜志,2021,22(6):586-588.
[4]VANKDOTHUR,HAMEEDMA.BraintumorMRIimagesidentificationandclassificationbasedontherecurrentconvolu?tionalneuralnetwork[J].Measurement:Sensors,2022,24:100412.
[5]RAJINIKANTHV,KADRYS,NAMY.Convolutional-neural networkassistedsegmentationandSVMclassificationofbraintumorinclinicalMRIslices[J].InformationTechnologyandControl,2021,50(2):342-356.
[6]RONNEBERGERO,FISCHERP,BROXT.U-Net:convolu?tionalnetworksforbiomedicalimagesegmentation[M]//MedicalImageComputingandComputer-AssistedIntervention–MICCAI2015.Cham:SpringerInternationalPublishing,2015:234-241.
[7]DONGH,YANGG,LIUFD,etal.Automaticbraintumordetec?tionandsegmentationusingU-Netbasedfullyconvolutionalnetworks[M]//MedicalImageUnderstandingandAnalysis.Cham:SpringerInternationalPublishing,2017:506-517.
[8]YANGTJ,SONGJK.Anautomaticbraintumorimagesegmen?tationmethodbasedontheU-net[C]//2018IEEE4thInterna?tionalConferenceonComputerandCommunications(ICCC).IEEE,2018:1600-1604.
[9]BAIDU,GHODASARAS,MOHANS,etal.TheRSNA-ASNR MICCAIBraTS2021BenchmarkonBrainTumorSegmentationandRadiogenomicClassification[EB/OL].[2025-03-20].https://arxiv.org/abs/2107.02314.
[10]?I?EK?,ABDULKADIRA,LIENKAMPSS,etal.3DU-Net:learningdensevolumetricsegmentationfromsparseannota?tion[M].MedicalImageComputingandComputer-AssistedIntervention-MICCAI2016.Cham:SpringerInternationalPub?lishing,2016:424-432.
[11]PEIL,LIUY.Multimodalbraintumorsegmentationusinga3DResUNet[C]//Brainlesion:Glioma,MultipleSclerosis,StrokeandTraumaticBrainInjuries-7thInternationalWorkshop,BrainLes2021,HeldinConjunctionwithMICCAI2021,Re?visedSelectedPapers,PartI.Strasbourg,France:Springer,2021:315-323.
[12]MILLETARIF,NAVABN,AHMADISA.V-net:fullyconvolu?tionalneuralnetworksforvolumetricmedicalimagesegmenta?tion[C]//2016FourthInternationalConferenceon3DVision(3DV).October25-28,2016,Stanford,CA,USA.IEEE,2016:565-571.
[13]ZHANGYD,LIUHY,HUQ.TransFuse:fusingtransformersandCNNsformedicalimagesegmentation[M]//MedicalImageComputingandComputerAssistedIntervention–MICCAI2021.Cham:SpringerInternationalPublishing,2021:14-24.
[14]何陸灝,周永章,張燦.基于深度學習的目標分割在巖石智能識別上的應用[J].礦物巖石地球化學通報,2025,44(3):525-541,452.
【通聯編輯:唐一東】