胡 睿,何小海,滕奇志,卿粼波,廖浚斌
四川大學(xué) 電子信息學(xué)院,成都610065
由大腦和脊髓膠質(zhì)細(xì)胞癌變所產(chǎn)生的腦膠質(zhì)瘤(glioblastoma multiforme,GBM)是一種最常見(jiàn)的、原發(fā)性顱腦腫瘤,它是一種死亡率最高的腦腫瘤。根據(jù)腦膠質(zhì)瘤的危害程度,可以分為高級(jí)神經(jīng)膠質(zhì)瘤(High-Grade Gliomas,HGG)和低級(jí)神經(jīng)膠質(zhì)瘤(Low-Grade Gliomas,LGG)[1]。核磁共振成像(Magnetic Resonance Imaging,MRI)相比電子計(jì)算機(jī)斷層掃描(Computed Tomography,CT),有著軟組織對(duì)比更好、參數(shù)更多、成像方向任意、無(wú)骨像偽影和無(wú)損傷性等優(yōu)勢(shì),成為了診斷和治療腦腫瘤的主要成像方式[2]。在MRI中,腦膠質(zhì)瘤是一片異質(zhì)腫瘤區(qū)域,通常包括壞死區(qū)域(necrosis)、水腫區(qū)域(edema)、非增強(qiáng)區(qū)域(non-enhancing tumor)以及增強(qiáng)區(qū)域(enhancing tumor)四部分。由于腦膠質(zhì)瘤的不同模態(tài)成像差別很大,所以使用多模態(tài)MRI對(duì)腦膠質(zhì)瘤及其內(nèi)部結(jié)構(gòu)可以進(jìn)行更加準(zhǔn)確的分割,常用4種模態(tài)包括Flair(液體衰減反轉(zhuǎn)成像)、T1、T1c(T1加權(quán))、T2[3]。圖1顯示了不同模態(tài)MRI的腦腫瘤圖像。

圖1 多模態(tài)MRI圖像
傳統(tǒng)的腦腫瘤圖像分割方法一般有基于模糊聚類(lèi)的腦瘤分割[4]、基于閾值的分割[5]、基于區(qū)域生長(zhǎng)的分割[6]、基于形變的分割方法[7]等多種方法,但大多數(shù)傳統(tǒng)的腦瘤分割方法無(wú)法很好地提取特征。與傳統(tǒng)的腦腫瘤分割方法需要人工提取特征不同,基于深度學(xué)習(xí)的腦腫瘤分割方法可以自動(dòng)提取最合適的特征,因此可以達(dá)到更好的預(yù)測(cè)效果。Zikic等使用一個(gè)只有5層的卷積神經(jīng)網(wǎng)絡(luò)對(duì)腦膠質(zhì)瘤圖像塊進(jìn)行分割[8],該網(wǎng)絡(luò)對(duì)多通道2D卷積神經(jīng)網(wǎng)絡(luò)調(diào)整,使其可以對(duì)3D腦腫瘤圖像塊進(jìn)行分割,證明了使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行3D腫瘤圖像塊的分割方法的,但沒(méi)有對(duì)簡(jiǎn)單的CNN網(wǎng)絡(luò)進(jìn)行任何優(yōu)化,因此分割效果一般。de Brebisson等通過(guò)將全卷積神經(jīng)網(wǎng)絡(luò)和條件隨機(jī)場(chǎng)結(jié)合對(duì)腦膠質(zhì)瘤進(jìn)行分割[9],第一次使用深度神經(jīng)網(wǎng)絡(luò)解決腦腫瘤分割的問(wèn)題,并且在圖像分割后使用條件隨機(jī)場(chǎng)提升分割準(zhǔn)確率。但該網(wǎng)絡(luò)比較復(fù)雜,容易過(guò)擬合,而且網(wǎng)絡(luò)對(duì)于腫瘤邊界的分割準(zhǔn)確率較低。Saouli等通過(guò)集成學(xué)習(xí)聚合兩個(gè)基于增量深度神經(jīng)網(wǎng)絡(luò)模型的結(jié)果,提出了一種全新的用于腦腫瘤分割的端對(duì)端的深度學(xué)習(xí)網(wǎng)絡(luò)[10],在一定程度提升了分割腦膠質(zhì)瘤整體的準(zhǔn)確率,但是該網(wǎng)絡(luò)誤分類(lèi)率較高,容易將非腦瘤區(qū)域分割為腦瘤區(qū)域。
本文提出了一種結(jié)合注意力機(jī)制的3D卷積神經(jīng)網(wǎng)絡(luò),考慮到不同尺度輸入得到的特征映射關(guān)注的重點(diǎn)不同,利用注意力機(jī)制學(xué)習(xí)不同尺度之間的軟權(quán)重,最后對(duì)不同尺度輸出特征進(jìn)行加權(quán)和得到模型的輸出,提升了分割效果。此外,為了得到更好的效果,本實(shí)驗(yàn)還利用了一種將Dice損失函數(shù)和Focal損失函數(shù)相結(jié)合的超參數(shù)損失函數(shù)。實(shí)驗(yàn)證明,分割精度得到了進(jìn)一步提升。
傳統(tǒng)的圖像分類(lèi)方法,主要是根據(jù)經(jīng)驗(yàn)和人工設(shè)計(jì)方法計(jì)算圖像特征并根據(jù)特征人工選擇恰當(dāng)?shù)乃惴ǎ渲杏糜诜诸?lèi)器訓(xùn)練的特征集是集合一些有鑒別力的特征,最終完成分類(lèi)。但是傳統(tǒng)方法只能處理簡(jiǎn)單的分類(lèi)問(wèn)題,而且人工設(shè)計(jì)特征的方法不夠科學(xué)。由LeCun等人提出的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[11]是一種監(jiān)督學(xué)習(xí)方式,應(yīng)用于圖像識(shí)別[12]、自然語(yǔ)言處理[13]、語(yǔ)音識(shí)別[14]等多個(gè)領(lǐng)域并且取得了成功。卷積神經(jīng)網(wǎng)絡(luò)通過(guò)學(xué)習(xí)輸入與輸出間的映射關(guān)系,從而進(jìn)行自動(dòng)特征提取,達(dá)到分類(lèi)的目的。由于可以學(xué)到多個(gè)層次特征,包括了局部信息以及一些抽象的特征,所以卷積神經(jīng)網(wǎng)絡(luò)的分類(lèi)方法相比傳統(tǒng)圖像分類(lèi)方法效果更好。
最早使用全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Network,F(xiàn)CN)[15]通過(guò)對(duì)圖像進(jìn)行像素級(jí)的分類(lèi)進(jìn)行圖像語(yǔ)義分割。經(jīng)典的CNN網(wǎng)絡(luò)使用全連接層得到特征向量然后進(jìn)行分類(lèi),它的一個(gè)弊端是只能輸入固定尺寸的圖像,但FCN的輸入圖像可以是任意尺寸的圖像。通過(guò)反卷積層對(duì)學(xué)習(xí)到的特征映射進(jìn)行上采樣,對(duì)每一個(gè)像素產(chǎn)生預(yù)測(cè),這種方法還可以同時(shí)保留輸入圖像中的空間信息,像素分類(lèi)是在上采樣產(chǎn)生的特征映射中進(jìn)行的。目前,基于深度學(xué)習(xí)的方法在圖像分割領(lǐng)域已經(jīng)取得了顯著成就,分割準(zhǔn)確率已經(jīng)遠(yuǎn)遠(yuǎn)超過(guò)了傳統(tǒng)的分割方法。
Ronneberger等在2015年提出的U-Net[16]在分割生物醫(yī)學(xué)圖像方面達(dá)到了非常好的效果,U-Net是基于FCN進(jìn)行改進(jìn)的,它是由相等數(shù)量的下采樣層和上采樣層組成的網(wǎng)絡(luò)框架。現(xiàn)有很多醫(yī)學(xué)圖像分割網(wǎng)絡(luò)都是基于U-Net來(lái)實(shí)現(xiàn)的。U-Net之所以適用于醫(yī)學(xué)圖像分割,是因?yàn)閁-Net融合了不同尺度的特征,經(jīng)過(guò)多次下采樣后的低分辨率信息,可以提供分割目標(biāo)在整個(gè)圖像中的上下文信息,這個(gè)特征有助于物體的類(lèi)別判斷,而高分辨率的信息能夠?yàn)榉指钐峁└泳?xì)的特征,為精準(zhǔn)分割提供了定位依據(jù)。
由于醫(yī)學(xué)圖像的相鄰層還具有序列信息,使用2D CNN進(jìn)行分類(lèi)或者分割會(huì)丟棄掉這些信息。通過(guò)對(duì)2D CNN進(jìn)行改進(jìn),出現(xiàn)了3D CNN。與2D CNN相比,3D CNN可以更好地捕獲序列信息和空間維度特征,主要運(yùn)用在視頻分類(lèi)、動(dòng)作識(shí)別以及醫(yī)學(xué)圖像識(shí)別與分割等領(lǐng)域。Kamnitsas等人提出的deepmedic[17]就是使用3D CNN進(jìn)行腦瘤分割,采用兩路CNN并行處理不同分辨率的圖像,因此可以進(jìn)行準(zhǔn)確的分割和定位。
注意力機(jī)制(Attention Model)[18]是由Bahdanau等人提出的。其實(shí),深度學(xué)習(xí)里的注意力機(jī)制模擬的是人腦的注意力模型。當(dāng)看到一幅圖片時(shí),眼睛只會(huì)關(guān)注圖中某個(gè)圖案而不是整張圖片,此時(shí)人腦也只會(huì)關(guān)注某一個(gè)部分,即人腦對(duì)整幅圖每個(gè)部分的注意力并不是完全相同的,這就是注意力機(jī)制的核心思想。注意力機(jī)制從作用角度一般分為兩類(lèi):空間注意力和時(shí)間注意力。在實(shí)際應(yīng)用中,一般將注意力分為軟注意力和硬注意力,其中軟注意力是學(xué)習(xí)所有的數(shù)據(jù)并且計(jì)算每個(gè)數(shù)據(jù)相對(duì)應(yīng)的權(quán)值,硬注意力中學(xué)習(xí)到的每個(gè)數(shù)據(jù)對(duì)應(yīng)的權(quán)值只能是0或1,其中符合條件的部分的權(quán)值為1,其余部分的權(quán)值均為0。
目前,注意力機(jī)制應(yīng)用于很多方面,例如細(xì)粒度分類(lèi)[19]、圖像分割[20]、圖像描述[21]等。現(xiàn)有的大多數(shù)使用注意力機(jī)制的方法都是在2D CNN中,也可將注意力機(jī)制用于3D CNN。2018年提出的attention U-Net[22]就是一種用于醫(yī)學(xué)成像的注意力模型,該模型可自動(dòng)聚焦不同形狀和大小的目標(biāo)結(jié)果。通過(guò)注意力門(mén)控可抑制輸入圖像中的不相關(guān)區(qū)域,同時(shí)突出顯示對(duì)特定任務(wù)有用的顯著特征,相比傳統(tǒng)的U-Net同時(shí)提高了模型的靈敏度和準(zhǔn)確率。
本實(shí)驗(yàn)則是通過(guò)聯(lián)合學(xué)習(xí)一種注意力模型,該模型在預(yù)測(cè)像素的語(yǔ)義標(biāo)簽時(shí)對(duì)來(lái)自不同輸入尺度的特征進(jìn)行軟加權(quán)。因此最終輸出是由多尺度輸出的特征映射的加權(quán)和所產(chǎn)生。
本文提出了一個(gè)結(jié)合注意力機(jī)制的3D卷積神經(jīng)網(wǎng)絡(luò)分割腦膠質(zhì)瘤,并將該網(wǎng)絡(luò)命名為att-deep。att-deep主要分為兩部分,首先利用3D卷積網(wǎng)絡(luò)對(duì)不同尺度塊進(jìn)行分類(lèi),然后利用注意力機(jī)制學(xué)習(xí)不同尺度塊對(duì)應(yīng)的權(quán)重,最后將兩部分的輸出相乘并逐體素相加得到最終的分割結(jié)果。
對(duì)于卷積神經(jīng)網(wǎng)絡(luò)而言,不同分辨率的圖像塊包含的圖像信息是不同的,一般來(lái)說(shuō)分辨率越高的圖像,顯示的部位越精細(xì),因此關(guān)注圖像局部的細(xì)節(jié)信息,具有更強(qiáng)的語(yǔ)義信息,學(xué)習(xí)這些深層特征有助于對(duì)體素進(jìn)行更精確的分類(lèi)。而低分辨率的圖像包含了更多的空間位置信息,學(xué)習(xí)這些淺層特征有助于分割時(shí)進(jìn)行更精確地定位。因此使用多通路的CNN網(wǎng)絡(luò)不僅可以學(xué)習(xí)高分辨率圖像中的細(xì)節(jié)信息進(jìn)行更精確地分割,而且可以學(xué)習(xí)低分辨率圖像中的空間信息對(duì)體素進(jìn)行精確定位,使得分割結(jié)果有明顯提升。
首先,以deepmedic網(wǎng)絡(luò)為基礎(chǔ),將原來(lái)的兩路3D CNN擴(kuò)展成一個(gè)三通路的3D CNN,其中每個(gè)通路的輸入是不同尺度s的圖像塊。每一路CNN均具有9個(gè)卷積層,前面8個(gè)卷積層的卷積核大小均為3×3×3,最后1個(gè)卷積層的卷積核大小為1×1×1。為了使較深層學(xué)習(xí)到的特征信息更加完整,在網(wǎng)絡(luò)中還使用了殘差模塊[23]。經(jīng)過(guò)9層卷積以后,將低分辨率的圖像塊經(jīng)過(guò)上采樣恢復(fù)到正常分辨率圖像塊大小,然后經(jīng)過(guò)1個(gè)softmax層,每一個(gè)不同尺度的圖像塊都會(huì)產(chǎn)生不同的特征映射,將其定義為,其中i表示所有空間位置,c∈{1 ,2,…,C},其中C表示所有的類(lèi)別。圖2是一個(gè)二分類(lèi)的3D卷積神經(jīng)網(wǎng)絡(luò)示意圖。
將多尺度輸入的輸出特征合并,兩種常見(jiàn)的方法是:求所有輸出的平均池化或者最大化池化。這兩種方式意味著不同尺度的輸入所得到的輸出對(duì)最后的體素預(yù)測(cè)而言,貢獻(xiàn)程度是相同的,然而不同尺度的圖像塊所包含的重點(diǎn)信息往往不同,不同尺度圖像塊的輸出對(duì)整個(gè)網(wǎng)絡(luò)最終的體素預(yù)測(cè)結(jié)果的貢獻(xiàn)程度應(yīng)該不等,因此采用前兩種合并特征的方法可能會(huì)導(dǎo)致分割精度下降。為了使最后的分割結(jié)果更加精確,本文引入了一種注意力模塊來(lái)學(xué)習(xí)不同尺度的特征向量對(duì)應(yīng)的不同權(quán)重,將不同尺度輸出的特征向量與其對(duì)應(yīng)的權(quán)重相乘再相加即得到對(duì)應(yīng)空間位置的體素的預(yù)測(cè)結(jié)果。

圖2 二分類(lèi)的卷積網(wǎng)絡(luò)
該注意力模塊首先將原來(lái)的三路CNN產(chǎn)生的特征映射級(jí)聯(lián),然后經(jīng)過(guò)1個(gè)卷積層,其卷積核大小為1×1×1,得到一個(gè)特征映射。該特征映射實(shí)際為三個(gè)不同尺度塊對(duì)應(yīng)的權(quán)重,此時(shí)的權(quán)重是三個(gè)不同尺度塊共享的,對(duì)不同的尺度塊而言對(duì)應(yīng)不同的權(quán)重wsi,因此不同尺度的權(quán)值計(jì)算公式為式(1):

這個(gè)權(quán)值反映的是當(dāng)分辨率為s時(shí),位于位置i的體素在整個(gè)網(wǎng)絡(luò)中的重要程度。利用注意力機(jī)制學(xué)習(xí)不同尺度塊對(duì)應(yīng)的權(quán)值圖如圖3所示。
最后將三路CNN得到的不同的特征映射與其相對(duì)應(yīng)的權(quán)值映射相乘,然后將對(duì)應(yīng)位置的體素結(jié)果相加,得到最終分割結(jié)果,如式(2)所示:

這種聯(lián)合訓(xùn)練,使模型能夠自適應(yīng)地找到不同尺度的最佳權(quán)重,從而得到更好的模型,分割結(jié)果也會(huì)提升。
因?yàn)閳D像分割是逐像素標(biāo)記的,而且體積較大的部位對(duì)損失的影響更大。因此為了使分割效果更好,采用了一種新的超參數(shù)損失函數(shù)[24],將Dice損失函數(shù)與Focal損失函數(shù)[25]相結(jié)合。Dice損失函數(shù),即1減去Dice系數(shù)得到的值,它通過(guò)將體素級(jí)標(biāo)記問(wèn)題轉(zhuǎn)化為最小化類(lèi)間距離問(wèn)題,學(xué)習(xí)了類(lèi)的分布,在一定程度上解決了類(lèi)不平衡的問(wèn)題,而Focal損失函數(shù)通過(guò)更改樣本權(quán)重,讓模型在訓(xùn)練時(shí)更傾向于關(guān)注難分類(lèi)的樣本,以便更好地學(xué)習(xí)分類(lèi)錯(cuò)誤的體素。公式(3)~(5)分別為第c類(lèi)真陽(yáng)性、假陰性以及假陽(yáng)性的概率:

其中,pn是體素n屬于第c類(lèi)的概率,gn是由專(zhuān)家勾畫(huà)出的體素n屬于第c類(lèi)的概率,TPp(c )FNp(c)和FPp(c)分別是通過(guò)概率計(jì)算得到的第c類(lèi)真陽(yáng)性、假陰性以及假陽(yáng)性的概率,C是包含背景在內(nèi)的類(lèi)別數(shù)。
本文所采用的的新的超損失函數(shù)如式(6)所示:

其中,α和β是用來(lái)平衡假陰性和假陽(yáng)性的權(quán)值,本實(shí)驗(yàn)將它們均設(shè)置為0.5。λ是用來(lái)平衡Dice損失和Focal損失的權(quán)值,本實(shí)驗(yàn)中將其設(shè)置為1。N則是實(shí)驗(yàn)中CT圖像塊的體素?cái)?shù)目。
實(shí)驗(yàn)數(shù)據(jù)采用了MICCAI提供的含專(zhuān)家標(biāo)注的腦膠質(zhì)瘤的公共數(shù)據(jù)集BraTS(multimodal brain tumor segmentation challenge)[26],每個(gè)病人的圖像都包括4種MRI模態(tài)和專(zhuān)家標(biāo)注的腦膠質(zhì)瘤區(qū)域,圖像大小均為240×240×155,分辨率重采樣為1 mm×1 mm×1 mm。從BraTS數(shù)據(jù)庫(kù)選取了220例病人的腦膠質(zhì)瘤圖像,將其分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,樣本數(shù)分別為132例、44例、44例。此外為了更好的分割,對(duì)每一個(gè)樣本均勾畫(huà)了感興趣(Region of Interest,ROI)區(qū)域。
實(shí)驗(yàn)輸入Flair和T1c兩個(gè)模態(tài)的圖像塊,因此輸入前要對(duì)這兩個(gè)模態(tài)的圖像進(jìn)行歸一化處理,使得輸入圖像符合正態(tài)分布,即圖像均值為0,標(biāo)準(zhǔn)差為1。歸一化后的圖像穩(wěn)定性更強(qiáng)并且可加快網(wǎng)絡(luò)收斂。此外由于醫(yī)學(xué)圖像會(huì)受到光線的干擾,歸一化后的圖像可減小這種干擾。歸一化方法如式(7)所示:

其中,xi為位置i的體素值,mean(X)和std(X)分別為整個(gè)圖像塊的均值與標(biāo)準(zhǔn)差。

圖3 權(quán)值映射圖
實(shí)驗(yàn)環(huán)境為:Ubuntu18.04 LST64位操作系統(tǒng),32 GB內(nèi)存,顯卡NVIDIA GeForce GTX1070,CPU i5-7400。
網(wǎng)絡(luò)訓(xùn)練模型時(shí),輸入的圖像包括Flair和T1c兩個(gè)MRI模態(tài)的圖像,以及ROI圖像和已經(jīng)由專(zhuān)家分割好的腦膠質(zhì)瘤區(qū)域的圖像。為了進(jìn)行對(duì)比實(shí)驗(yàn),使用完全相同的樣本分別在U-Net網(wǎng)絡(luò)、deepmedic網(wǎng)絡(luò),以及本文提出的att-deep網(wǎng)絡(luò)里進(jìn)行了實(shí)驗(yàn)。一個(gè)訓(xùn)練循環(huán)次數(shù)為20次,總共有40次這樣的循環(huán),訓(xùn)練集樣本、驗(yàn)證集樣本還有測(cè)試集樣本的批處理數(shù)分別為10、50、10。激活函數(shù)使用PreLu(Parametric rectified Linear unit),在卷積層里使用了dropout防止過(guò)擬合并且提高泛化能力,設(shè)為0.5。0.001為初始的學(xué)習(xí)率,并且在實(shí)驗(yàn)中使用RMSProm梯度下降方法動(dòng)態(tài)調(diào)整學(xué)習(xí)率。最后,使用相同的測(cè)試樣本對(duì)訓(xùn)練好的3D CNN模型進(jìn)行測(cè)試,實(shí)現(xiàn)了對(duì)于腦膠質(zhì)瘤的分割。
腦腫瘤分割結(jié)果的評(píng)估針對(duì)3種不同的亞腫瘤區(qū),分別為整體腫瘤區(qū)、核心腫瘤區(qū)以及增強(qiáng)腫瘤區(qū),其中核心腫瘤區(qū)包括壞死區(qū)域、非增強(qiáng)區(qū)域和增強(qiáng)區(qū)域。為了評(píng)估實(shí)驗(yàn)得到的分割結(jié)果,引入3個(gè)評(píng)價(jià)指標(biāo),即召回率(Recall)、精確率(Precision)以及Dice相似度系數(shù)(Dice Similarity Coefficient,DSC)。
召回率是指分割正確的腫瘤區(qū)域占真實(shí)腫瘤區(qū)域的比例,評(píng)價(jià)的是分割算法分割出腦膠質(zhì)瘤的能力;精確率是指分割正確的腫瘤區(qū)域占訓(xùn)練模型分割的腫瘤區(qū)域的比例,評(píng)價(jià)的是分割算法正確分割腦膠質(zhì)瘤的能力;Dice相似度系數(shù)表示對(duì)象間的相似程度,主要用于衡量分割出的腫瘤區(qū)域與由專(zhuān)家標(biāo)記好的實(shí)際腫瘤區(qū)域的重合度。一般情況下,召回率和精確率是互相制約,此消彼長(zhǎng)的,很難兼得。計(jì)算方式分別如式(8)~(10)所示:

其中,P表示訓(xùn)練模型分割出的腫瘤區(qū)域,T表示由專(zhuān)家標(biāo)記好的實(shí)際腫瘤區(qū)域。
本次實(shí)驗(yàn)主要有兩組對(duì)比實(shí)驗(yàn),一組是使用Dice損失函數(shù)作為損失函數(shù)訓(xùn)練,其結(jié)果如表1所示,另一組則使用修改以后的超參數(shù)損失函數(shù)為損失函數(shù)訓(xùn)練,結(jié)果如表2所示。
表1為損失函數(shù)為Dice損失函數(shù)的模型所得到的測(cè)試結(jié)果。從整體而言,att-deep網(wǎng)絡(luò)在召回率、精確率以及Dice系數(shù)均有一定的提升并且召回率和精確率都達(dá)到了相對(duì)平衡。整體的Dice系數(shù)更是達(dá)到91.81%,雖然在核心區(qū)域以及增強(qiáng)區(qū)域的Dice系數(shù)只有77.01%和78.35%,但是相對(duì)其他兩個(gè)網(wǎng)絡(luò),att-deep得到的Dice系數(shù)仍然最高。
表2為損失函數(shù)為超參數(shù)損失函數(shù)的模型所得到的測(cè)試結(jié)果。從整體情況來(lái)看,所有的網(wǎng)絡(luò)不管是召回率、精確率還是Dice系數(shù)都得到了提升。deepmedic和att-deep網(wǎng)絡(luò)在整個(gè)腫瘤分割區(qū)域的召回率、精確率還有Dice系數(shù)甚至都超過(guò)了90%。雖然att-deep網(wǎng)絡(luò)分割核心區(qū)域的精確率略低于的deepmedic網(wǎng)絡(luò),但是其他方面att-deep都達(dá)到了最好的效果,Dice系數(shù)更是達(dá)到
95.31 %。
圖4為兩個(gè)不同的測(cè)試樣本經(jīng)過(guò)att-deep模型分割出的結(jié)果,其中(a)為Flair模態(tài)的MRI圖像,(b)為專(zhuān)家標(biāo)記的Ground Truth,(c)為att-deep模型的分割結(jié)果。整個(gè)分割區(qū)域中黃色區(qū)域?yàn)樗[區(qū)域,白色區(qū)域?yàn)樵鰪?qiáng)區(qū)域,白色部分內(nèi)部的灰色區(qū)域?yàn)閴乃绤^(qū)域,灰色區(qū)域中一些白色小點(diǎn)區(qū)域則為非增強(qiáng)區(qū)域。從結(jié)果圖看,att-deep模型分割整個(gè)腫瘤區(qū)域的能力很強(qiáng),分割出的結(jié)果與專(zhuān)家分割的Ground Truth的差別很小。

圖4 att-deep分割結(jié)果圖

表1 損失函數(shù)為Dice損失函數(shù)

表2 損失函數(shù)為超參數(shù)損失函數(shù)
為了準(zhǔn)確地分割腦部異質(zhì)腫瘤,提出了一種結(jié)合注意力機(jī)制的3D卷積神經(jīng)網(wǎng)絡(luò)分割算法,采用了一種將Dice損失函數(shù)與Focal損失函數(shù)相結(jié)合的超參數(shù)損失函數(shù)提升分割結(jié)果。通過(guò)實(shí)驗(yàn)證明,提出的結(jié)合注意力機(jī)制的3D卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)可以準(zhǔn)確地分割膠質(zhì)瘤整體。但是對(duì)于病變體素?cái)?shù)量很少的類(lèi)別分割結(jié)果不是很好,可能的原因是其病變體素?cái)?shù)太少,類(lèi)別不平衡導(dǎo)致分割結(jié)果不是很好。后續(xù)的研究中將重點(diǎn)解決類(lèi)不平衡問(wèn)題,以提高模型的分割準(zhǔn)確率。