999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結(jié)合注意力的3D卷積網(wǎng)絡(luò)腦膠質(zhì)瘤分割算法

2020-06-18 05:54:46何小海滕奇志卿粼波廖浚斌
關(guān)鍵詞:特征區(qū)域

胡 睿,何小海,滕奇志,卿粼波,廖浚斌

四川大學(xué) 電子信息學(xué)院,成都610065

1 引言

由大腦和脊髓膠質(zhì)細(xì)胞癌變所產(chǎn)生的腦膠質(zhì)瘤(glioblastoma multiforme,GBM)是一種最常見(jiàn)的、原發(fā)性顱腦腫瘤,它是一種死亡率最高的腦腫瘤。根據(jù)腦膠質(zhì)瘤的危害程度,可以分為高級(jí)神經(jīng)膠質(zhì)瘤(High-Grade Gliomas,HGG)和低級(jí)神經(jīng)膠質(zhì)瘤(Low-Grade Gliomas,LGG)[1]。核磁共振成像(Magnetic Resonance Imaging,MRI)相比電子計(jì)算機(jī)斷層掃描(Computed Tomography,CT),有著軟組織對(duì)比更好、參數(shù)更多、成像方向任意、無(wú)骨像偽影和無(wú)損傷性等優(yōu)勢(shì),成為了診斷和治療腦腫瘤的主要成像方式[2]。在MRI中,腦膠質(zhì)瘤是一片異質(zhì)腫瘤區(qū)域,通常包括壞死區(qū)域(necrosis)、水腫區(qū)域(edema)、非增強(qiáng)區(qū)域(non-enhancing tumor)以及增強(qiáng)區(qū)域(enhancing tumor)四部分。由于腦膠質(zhì)瘤的不同模態(tài)成像差別很大,所以使用多模態(tài)MRI對(duì)腦膠質(zhì)瘤及其內(nèi)部結(jié)構(gòu)可以進(jìn)行更加準(zhǔn)確的分割,常用4種模態(tài)包括Flair(液體衰減反轉(zhuǎn)成像)、T1、T1c(T1加權(quán))、T2[3]。圖1顯示了不同模態(tài)MRI的腦腫瘤圖像。

圖1 多模態(tài)MRI圖像

傳統(tǒng)的腦腫瘤圖像分割方法一般有基于模糊聚類(lèi)的腦瘤分割[4]、基于閾值的分割[5]、基于區(qū)域生長(zhǎng)的分割[6]、基于形變的分割方法[7]等多種方法,但大多數(shù)傳統(tǒng)的腦瘤分割方法無(wú)法很好地提取特征。與傳統(tǒng)的腦腫瘤分割方法需要人工提取特征不同,基于深度學(xué)習(xí)的腦腫瘤分割方法可以自動(dòng)提取最合適的特征,因此可以達(dá)到更好的預(yù)測(cè)效果。Zikic等使用一個(gè)只有5層的卷積神經(jīng)網(wǎng)絡(luò)對(duì)腦膠質(zhì)瘤圖像塊進(jìn)行分割[8],該網(wǎng)絡(luò)對(duì)多通道2D卷積神經(jīng)網(wǎng)絡(luò)調(diào)整,使其可以對(duì)3D腦腫瘤圖像塊進(jìn)行分割,證明了使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行3D腫瘤圖像塊的分割方法的,但沒(méi)有對(duì)簡(jiǎn)單的CNN網(wǎng)絡(luò)進(jìn)行任何優(yōu)化,因此分割效果一般。de Brebisson等通過(guò)將全卷積神經(jīng)網(wǎng)絡(luò)和條件隨機(jī)場(chǎng)結(jié)合對(duì)腦膠質(zhì)瘤進(jìn)行分割[9],第一次使用深度神經(jīng)網(wǎng)絡(luò)解決腦腫瘤分割的問(wèn)題,并且在圖像分割后使用條件隨機(jī)場(chǎng)提升分割準(zhǔn)確率。但該網(wǎng)絡(luò)比較復(fù)雜,容易過(guò)擬合,而且網(wǎng)絡(luò)對(duì)于腫瘤邊界的分割準(zhǔn)確率較低。Saouli等通過(guò)集成學(xué)習(xí)聚合兩個(gè)基于增量深度神經(jīng)網(wǎng)絡(luò)模型的結(jié)果,提出了一種全新的用于腦腫瘤分割的端對(duì)端的深度學(xué)習(xí)網(wǎng)絡(luò)[10],在一定程度提升了分割腦膠質(zhì)瘤整體的準(zhǔn)確率,但是該網(wǎng)絡(luò)誤分類(lèi)率較高,容易將非腦瘤區(qū)域分割為腦瘤區(qū)域。

本文提出了一種結(jié)合注意力機(jī)制的3D卷積神經(jīng)網(wǎng)絡(luò),考慮到不同尺度輸入得到的特征映射關(guān)注的重點(diǎn)不同,利用注意力機(jī)制學(xué)習(xí)不同尺度之間的軟權(quán)重,最后對(duì)不同尺度輸出特征進(jìn)行加權(quán)和得到模型的輸出,提升了分割效果。此外,為了得到更好的效果,本實(shí)驗(yàn)還利用了一種將Dice損失函數(shù)和Focal損失函數(shù)相結(jié)合的超參數(shù)損失函數(shù)。實(shí)驗(yàn)證明,分割精度得到了進(jìn)一步提升。

2 卷積網(wǎng)絡(luò)與注意力

2.1 卷積神經(jīng)網(wǎng)絡(luò)

傳統(tǒng)的圖像分類(lèi)方法,主要是根據(jù)經(jīng)驗(yàn)和人工設(shè)計(jì)方法計(jì)算圖像特征并根據(jù)特征人工選擇恰當(dāng)?shù)乃惴ǎ渲杏糜诜诸?lèi)器訓(xùn)練的特征集是集合一些有鑒別力的特征,最終完成分類(lèi)。但是傳統(tǒng)方法只能處理簡(jiǎn)單的分類(lèi)問(wèn)題,而且人工設(shè)計(jì)特征的方法不夠科學(xué)。由LeCun等人提出的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[11]是一種監(jiān)督學(xué)習(xí)方式,應(yīng)用于圖像識(shí)別[12]、自然語(yǔ)言處理[13]、語(yǔ)音識(shí)別[14]等多個(gè)領(lǐng)域并且取得了成功。卷積神經(jīng)網(wǎng)絡(luò)通過(guò)學(xué)習(xí)輸入與輸出間的映射關(guān)系,從而進(jìn)行自動(dòng)特征提取,達(dá)到分類(lèi)的目的。由于可以學(xué)到多個(gè)層次特征,包括了局部信息以及一些抽象的特征,所以卷積神經(jīng)網(wǎng)絡(luò)的分類(lèi)方法相比傳統(tǒng)圖像分類(lèi)方法效果更好。

最早使用全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Network,F(xiàn)CN)[15]通過(guò)對(duì)圖像進(jìn)行像素級(jí)的分類(lèi)進(jìn)行圖像語(yǔ)義分割。經(jīng)典的CNN網(wǎng)絡(luò)使用全連接層得到特征向量然后進(jìn)行分類(lèi),它的一個(gè)弊端是只能輸入固定尺寸的圖像,但FCN的輸入圖像可以是任意尺寸的圖像。通過(guò)反卷積層對(duì)學(xué)習(xí)到的特征映射進(jìn)行上采樣,對(duì)每一個(gè)像素產(chǎn)生預(yù)測(cè),這種方法還可以同時(shí)保留輸入圖像中的空間信息,像素分類(lèi)是在上采樣產(chǎn)生的特征映射中進(jìn)行的。目前,基于深度學(xué)習(xí)的方法在圖像分割領(lǐng)域已經(jīng)取得了顯著成就,分割準(zhǔn)確率已經(jīng)遠(yuǎn)遠(yuǎn)超過(guò)了傳統(tǒng)的分割方法。

Ronneberger等在2015年提出的U-Net[16]在分割生物醫(yī)學(xué)圖像方面達(dá)到了非常好的效果,U-Net是基于FCN進(jìn)行改進(jìn)的,它是由相等數(shù)量的下采樣層和上采樣層組成的網(wǎng)絡(luò)框架。現(xiàn)有很多醫(yī)學(xué)圖像分割網(wǎng)絡(luò)都是基于U-Net來(lái)實(shí)現(xiàn)的。U-Net之所以適用于醫(yī)學(xué)圖像分割,是因?yàn)閁-Net融合了不同尺度的特征,經(jīng)過(guò)多次下采樣后的低分辨率信息,可以提供分割目標(biāo)在整個(gè)圖像中的上下文信息,這個(gè)特征有助于物體的類(lèi)別判斷,而高分辨率的信息能夠?yàn)榉指钐峁└泳?xì)的特征,為精準(zhǔn)分割提供了定位依據(jù)。

由于醫(yī)學(xué)圖像的相鄰層還具有序列信息,使用2D CNN進(jìn)行分類(lèi)或者分割會(huì)丟棄掉這些信息。通過(guò)對(duì)2D CNN進(jìn)行改進(jìn),出現(xiàn)了3D CNN。與2D CNN相比,3D CNN可以更好地捕獲序列信息和空間維度特征,主要運(yùn)用在視頻分類(lèi)、動(dòng)作識(shí)別以及醫(yī)學(xué)圖像識(shí)別與分割等領(lǐng)域。Kamnitsas等人提出的deepmedic[17]就是使用3D CNN進(jìn)行腦瘤分割,采用兩路CNN并行處理不同分辨率的圖像,因此可以進(jìn)行準(zhǔn)確的分割和定位。

2.2 注意力機(jī)制

注意力機(jī)制(Attention Model)[18]是由Bahdanau等人提出的。其實(shí),深度學(xué)習(xí)里的注意力機(jī)制模擬的是人腦的注意力模型。當(dāng)看到一幅圖片時(shí),眼睛只會(huì)關(guān)注圖中某個(gè)圖案而不是整張圖片,此時(shí)人腦也只會(huì)關(guān)注某一個(gè)部分,即人腦對(duì)整幅圖每個(gè)部分的注意力并不是完全相同的,這就是注意力機(jī)制的核心思想。注意力機(jī)制從作用角度一般分為兩類(lèi):空間注意力和時(shí)間注意力。在實(shí)際應(yīng)用中,一般將注意力分為軟注意力和硬注意力,其中軟注意力是學(xué)習(xí)所有的數(shù)據(jù)并且計(jì)算每個(gè)數(shù)據(jù)相對(duì)應(yīng)的權(quán)值,硬注意力中學(xué)習(xí)到的每個(gè)數(shù)據(jù)對(duì)應(yīng)的權(quán)值只能是0或1,其中符合條件的部分的權(quán)值為1,其余部分的權(quán)值均為0。

目前,注意力機(jī)制應(yīng)用于很多方面,例如細(xì)粒度分類(lèi)[19]、圖像分割[20]、圖像描述[21]等。現(xiàn)有的大多數(shù)使用注意力機(jī)制的方法都是在2D CNN中,也可將注意力機(jī)制用于3D CNN。2018年提出的attention U-Net[22]就是一種用于醫(yī)學(xué)成像的注意力模型,該模型可自動(dòng)聚焦不同形狀和大小的目標(biāo)結(jié)果。通過(guò)注意力門(mén)控可抑制輸入圖像中的不相關(guān)區(qū)域,同時(shí)突出顯示對(duì)特定任務(wù)有用的顯著特征,相比傳統(tǒng)的U-Net同時(shí)提高了模型的靈敏度和準(zhǔn)確率。

本實(shí)驗(yàn)則是通過(guò)聯(lián)合學(xué)習(xí)一種注意力模型,該模型在預(yù)測(cè)像素的語(yǔ)義標(biāo)簽時(shí)對(duì)來(lái)自不同輸入尺度的特征進(jìn)行軟加權(quán)。因此最終輸出是由多尺度輸出的特征映射的加權(quán)和所產(chǎn)生。

3 結(jié)合注意力的3D卷積神經(jīng)網(wǎng)絡(luò)

本文提出了一個(gè)結(jié)合注意力機(jī)制的3D卷積神經(jīng)網(wǎng)絡(luò)分割腦膠質(zhì)瘤,并將該網(wǎng)絡(luò)命名為att-deep。att-deep主要分為兩部分,首先利用3D卷積網(wǎng)絡(luò)對(duì)不同尺度塊進(jìn)行分類(lèi),然后利用注意力機(jī)制學(xué)習(xí)不同尺度塊對(duì)應(yīng)的權(quán)重,最后將兩部分的輸出相乘并逐體素相加得到最終的分割結(jié)果。

3.1 分類(lèi)網(wǎng)絡(luò)

對(duì)于卷積神經(jīng)網(wǎng)絡(luò)而言,不同分辨率的圖像塊包含的圖像信息是不同的,一般來(lái)說(shuō)分辨率越高的圖像,顯示的部位越精細(xì),因此關(guān)注圖像局部的細(xì)節(jié)信息,具有更強(qiáng)的語(yǔ)義信息,學(xué)習(xí)這些深層特征有助于對(duì)體素進(jìn)行更精確的分類(lèi)。而低分辨率的圖像包含了更多的空間位置信息,學(xué)習(xí)這些淺層特征有助于分割時(shí)進(jìn)行更精確地定位。因此使用多通路的CNN網(wǎng)絡(luò)不僅可以學(xué)習(xí)高分辨率圖像中的細(xì)節(jié)信息進(jìn)行更精確地分割,而且可以學(xué)習(xí)低分辨率圖像中的空間信息對(duì)體素進(jìn)行精確定位,使得分割結(jié)果有明顯提升。

首先,以deepmedic網(wǎng)絡(luò)為基礎(chǔ),將原來(lái)的兩路3D CNN擴(kuò)展成一個(gè)三通路的3D CNN,其中每個(gè)通路的輸入是不同尺度s的圖像塊。每一路CNN均具有9個(gè)卷積層,前面8個(gè)卷積層的卷積核大小均為3×3×3,最后1個(gè)卷積層的卷積核大小為1×1×1。為了使較深層學(xué)習(xí)到的特征信息更加完整,在網(wǎng)絡(luò)中還使用了殘差模塊[23]。經(jīng)過(guò)9層卷積以后,將低分辨率的圖像塊經(jīng)過(guò)上采樣恢復(fù)到正常分辨率圖像塊大小,然后經(jīng)過(guò)1個(gè)softmax層,每一個(gè)不同尺度的圖像塊都會(huì)產(chǎn)生不同的特征映射,將其定義為,其中i表示所有空間位置,c∈{1 ,2,…,C},其中C表示所有的類(lèi)別。圖2是一個(gè)二分類(lèi)的3D卷積神經(jīng)網(wǎng)絡(luò)示意圖。

3.2 學(xué)習(xí)權(quán)重

將多尺度輸入的輸出特征合并,兩種常見(jiàn)的方法是:求所有輸出的平均池化或者最大化池化。這兩種方式意味著不同尺度的輸入所得到的輸出對(duì)最后的體素預(yù)測(cè)而言,貢獻(xiàn)程度是相同的,然而不同尺度的圖像塊所包含的重點(diǎn)信息往往不同,不同尺度圖像塊的輸出對(duì)整個(gè)網(wǎng)絡(luò)最終的體素預(yù)測(cè)結(jié)果的貢獻(xiàn)程度應(yīng)該不等,因此采用前兩種合并特征的方法可能會(huì)導(dǎo)致分割精度下降。為了使最后的分割結(jié)果更加精確,本文引入了一種注意力模塊來(lái)學(xué)習(xí)不同尺度的特征向量對(duì)應(yīng)的不同權(quán)重,將不同尺度輸出的特征向量與其對(duì)應(yīng)的權(quán)重相乘再相加即得到對(duì)應(yīng)空間位置的體素的預(yù)測(cè)結(jié)果。

圖2 二分類(lèi)的卷積網(wǎng)絡(luò)

該注意力模塊首先將原來(lái)的三路CNN產(chǎn)生的特征映射級(jí)聯(lián),然后經(jīng)過(guò)1個(gè)卷積層,其卷積核大小為1×1×1,得到一個(gè)特征映射。該特征映射實(shí)際為三個(gè)不同尺度塊對(duì)應(yīng)的權(quán)重,此時(shí)的權(quán)重是三個(gè)不同尺度塊共享的,對(duì)不同的尺度塊而言對(duì)應(yīng)不同的權(quán)重wsi,因此不同尺度的權(quán)值計(jì)算公式為式(1):

這個(gè)權(quán)值反映的是當(dāng)分辨率為s時(shí),位于位置i的體素在整個(gè)網(wǎng)絡(luò)中的重要程度。利用注意力機(jī)制學(xué)習(xí)不同尺度塊對(duì)應(yīng)的權(quán)值圖如圖3所示。

最后將三路CNN得到的不同的特征映射與其相對(duì)應(yīng)的權(quán)值映射相乘,然后將對(duì)應(yīng)位置的體素結(jié)果相加,得到最終分割結(jié)果,如式(2)所示:

這種聯(lián)合訓(xùn)練,使模型能夠自適應(yīng)地找到不同尺度的最佳權(quán)重,從而得到更好的模型,分割結(jié)果也會(huì)提升。

3.3 超參數(shù)損失函數(shù)

因?yàn)閳D像分割是逐像素標(biāo)記的,而且體積較大的部位對(duì)損失的影響更大。因此為了使分割效果更好,采用了一種新的超參數(shù)損失函數(shù)[24],將Dice損失函數(shù)與Focal損失函數(shù)[25]相結(jié)合。Dice損失函數(shù),即1減去Dice系數(shù)得到的值,它通過(guò)將體素級(jí)標(biāo)記問(wèn)題轉(zhuǎn)化為最小化類(lèi)間距離問(wèn)題,學(xué)習(xí)了類(lèi)的分布,在一定程度上解決了類(lèi)不平衡的問(wèn)題,而Focal損失函數(shù)通過(guò)更改樣本權(quán)重,讓模型在訓(xùn)練時(shí)更傾向于關(guān)注難分類(lèi)的樣本,以便更好地學(xué)習(xí)分類(lèi)錯(cuò)誤的體素。公式(3)~(5)分別為第c類(lèi)真陽(yáng)性、假陰性以及假陽(yáng)性的概率:

其中,pn是體素n屬于第c類(lèi)的概率,gn是由專(zhuān)家勾畫(huà)出的體素n屬于第c類(lèi)的概率,TPp(c )FNp(c)和FPp(c)分別是通過(guò)概率計(jì)算得到的第c類(lèi)真陽(yáng)性、假陰性以及假陽(yáng)性的概率,C是包含背景在內(nèi)的類(lèi)別數(shù)。

本文所采用的的新的超損失函數(shù)如式(6)所示:

其中,α和β是用來(lái)平衡假陰性和假陽(yáng)性的權(quán)值,本實(shí)驗(yàn)將它們均設(shè)置為0.5。λ是用來(lái)平衡Dice損失和Focal損失的權(quán)值,本實(shí)驗(yàn)中將其設(shè)置為1。N則是實(shí)驗(yàn)中CT圖像塊的體素?cái)?shù)目。

4 實(shí)驗(yàn)結(jié)果與分析

4.1 實(shí)驗(yàn)數(shù)據(jù)

實(shí)驗(yàn)數(shù)據(jù)采用了MICCAI提供的含專(zhuān)家標(biāo)注的腦膠質(zhì)瘤的公共數(shù)據(jù)集BraTS(multimodal brain tumor segmentation challenge)[26],每個(gè)病人的圖像都包括4種MRI模態(tài)和專(zhuān)家標(biāo)注的腦膠質(zhì)瘤區(qū)域,圖像大小均為240×240×155,分辨率重采樣為1 mm×1 mm×1 mm。從BraTS數(shù)據(jù)庫(kù)選取了220例病人的腦膠質(zhì)瘤圖像,將其分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,樣本數(shù)分別為132例、44例、44例。此外為了更好的分割,對(duì)每一個(gè)樣本均勾畫(huà)了感興趣(Region of Interest,ROI)區(qū)域。

實(shí)驗(yàn)輸入Flair和T1c兩個(gè)模態(tài)的圖像塊,因此輸入前要對(duì)這兩個(gè)模態(tài)的圖像進(jìn)行歸一化處理,使得輸入圖像符合正態(tài)分布,即圖像均值為0,標(biāo)準(zhǔn)差為1。歸一化后的圖像穩(wěn)定性更強(qiáng)并且可加快網(wǎng)絡(luò)收斂。此外由于醫(yī)學(xué)圖像會(huì)受到光線的干擾,歸一化后的圖像可減小這種干擾。歸一化方法如式(7)所示:

其中,xi為位置i的體素值,mean(X)和std(X)分別為整個(gè)圖像塊的均值與標(biāo)準(zhǔn)差。

4.2 實(shí)驗(yàn)環(huán)境及設(shè)置

圖3 權(quán)值映射圖

實(shí)驗(yàn)環(huán)境為:Ubuntu18.04 LST64位操作系統(tǒng),32 GB內(nèi)存,顯卡NVIDIA GeForce GTX1070,CPU i5-7400。

網(wǎng)絡(luò)訓(xùn)練模型時(shí),輸入的圖像包括Flair和T1c兩個(gè)MRI模態(tài)的圖像,以及ROI圖像和已經(jīng)由專(zhuān)家分割好的腦膠質(zhì)瘤區(qū)域的圖像。為了進(jìn)行對(duì)比實(shí)驗(yàn),使用完全相同的樣本分別在U-Net網(wǎng)絡(luò)、deepmedic網(wǎng)絡(luò),以及本文提出的att-deep網(wǎng)絡(luò)里進(jìn)行了實(shí)驗(yàn)。一個(gè)訓(xùn)練循環(huán)次數(shù)為20次,總共有40次這樣的循環(huán),訓(xùn)練集樣本、驗(yàn)證集樣本還有測(cè)試集樣本的批處理數(shù)分別為10、50、10。激活函數(shù)使用PreLu(Parametric rectified Linear unit),在卷積層里使用了dropout防止過(guò)擬合并且提高泛化能力,設(shè)為0.5。0.001為初始的學(xué)習(xí)率,并且在實(shí)驗(yàn)中使用RMSProm梯度下降方法動(dòng)態(tài)調(diào)整學(xué)習(xí)率。最后,使用相同的測(cè)試樣本對(duì)訓(xùn)練好的3D CNN模型進(jìn)行測(cè)試,實(shí)現(xiàn)了對(duì)于腦膠質(zhì)瘤的分割。

4.3 實(shí)驗(yàn)結(jié)果

腦腫瘤分割結(jié)果的評(píng)估針對(duì)3種不同的亞腫瘤區(qū),分別為整體腫瘤區(qū)、核心腫瘤區(qū)以及增強(qiáng)腫瘤區(qū),其中核心腫瘤區(qū)包括壞死區(qū)域、非增強(qiáng)區(qū)域和增強(qiáng)區(qū)域。為了評(píng)估實(shí)驗(yàn)得到的分割結(jié)果,引入3個(gè)評(píng)價(jià)指標(biāo),即召回率(Recall)、精確率(Precision)以及Dice相似度系數(shù)(Dice Similarity Coefficient,DSC)。

召回率是指分割正確的腫瘤區(qū)域占真實(shí)腫瘤區(qū)域的比例,評(píng)價(jià)的是分割算法分割出腦膠質(zhì)瘤的能力;精確率是指分割正確的腫瘤區(qū)域占訓(xùn)練模型分割的腫瘤區(qū)域的比例,評(píng)價(jià)的是分割算法正確分割腦膠質(zhì)瘤的能力;Dice相似度系數(shù)表示對(duì)象間的相似程度,主要用于衡量分割出的腫瘤區(qū)域與由專(zhuān)家標(biāo)記好的實(shí)際腫瘤區(qū)域的重合度。一般情況下,召回率和精確率是互相制約,此消彼長(zhǎng)的,很難兼得。計(jì)算方式分別如式(8)~(10)所示:

其中,P表示訓(xùn)練模型分割出的腫瘤區(qū)域,T表示由專(zhuān)家標(biāo)記好的實(shí)際腫瘤區(qū)域。

本次實(shí)驗(yàn)主要有兩組對(duì)比實(shí)驗(yàn),一組是使用Dice損失函數(shù)作為損失函數(shù)訓(xùn)練,其結(jié)果如表1所示,另一組則使用修改以后的超參數(shù)損失函數(shù)為損失函數(shù)訓(xùn)練,結(jié)果如表2所示。

表1為損失函數(shù)為Dice損失函數(shù)的模型所得到的測(cè)試結(jié)果。從整體而言,att-deep網(wǎng)絡(luò)在召回率、精確率以及Dice系數(shù)均有一定的提升并且召回率和精確率都達(dá)到了相對(duì)平衡。整體的Dice系數(shù)更是達(dá)到91.81%,雖然在核心區(qū)域以及增強(qiáng)區(qū)域的Dice系數(shù)只有77.01%和78.35%,但是相對(duì)其他兩個(gè)網(wǎng)絡(luò),att-deep得到的Dice系數(shù)仍然最高。

表2為損失函數(shù)為超參數(shù)損失函數(shù)的模型所得到的測(cè)試結(jié)果。從整體情況來(lái)看,所有的網(wǎng)絡(luò)不管是召回率、精確率還是Dice系數(shù)都得到了提升。deepmedic和att-deep網(wǎng)絡(luò)在整個(gè)腫瘤分割區(qū)域的召回率、精確率還有Dice系數(shù)甚至都超過(guò)了90%。雖然att-deep網(wǎng)絡(luò)分割核心區(qū)域的精確率略低于的deepmedic網(wǎng)絡(luò),但是其他方面att-deep都達(dá)到了最好的效果,Dice系數(shù)更是達(dá)到

95.31 %。

圖4為兩個(gè)不同的測(cè)試樣本經(jīng)過(guò)att-deep模型分割出的結(jié)果,其中(a)為Flair模態(tài)的MRI圖像,(b)為專(zhuān)家標(biāo)記的Ground Truth,(c)為att-deep模型的分割結(jié)果。整個(gè)分割區(qū)域中黃色區(qū)域?yàn)樗[區(qū)域,白色區(qū)域?yàn)樵鰪?qiáng)區(qū)域,白色部分內(nèi)部的灰色區(qū)域?yàn)閴乃绤^(qū)域,灰色區(qū)域中一些白色小點(diǎn)區(qū)域則為非增強(qiáng)區(qū)域。從結(jié)果圖看,att-deep模型分割整個(gè)腫瘤區(qū)域的能力很強(qiáng),分割出的結(jié)果與專(zhuān)家分割的Ground Truth的差別很小。

圖4 att-deep分割結(jié)果圖

表1 損失函數(shù)為Dice損失函數(shù)

表2 損失函數(shù)為超參數(shù)損失函數(shù)

5 結(jié)束語(yǔ)

為了準(zhǔn)確地分割腦部異質(zhì)腫瘤,提出了一種結(jié)合注意力機(jī)制的3D卷積神經(jīng)網(wǎng)絡(luò)分割算法,采用了一種將Dice損失函數(shù)與Focal損失函數(shù)相結(jié)合的超參數(shù)損失函數(shù)提升分割結(jié)果。通過(guò)實(shí)驗(yàn)證明,提出的結(jié)合注意力機(jī)制的3D卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)可以準(zhǔn)確地分割膠質(zhì)瘤整體。但是對(duì)于病變體素?cái)?shù)量很少的類(lèi)別分割結(jié)果不是很好,可能的原因是其病變體素?cái)?shù)太少,類(lèi)別不平衡導(dǎo)致分割結(jié)果不是很好。后續(xù)的研究中將重點(diǎn)解決類(lèi)不平衡問(wèn)題,以提高模型的分割準(zhǔn)確率。

猜你喜歡
特征區(qū)域
抓住特征巧觀察
永久基本農(nóng)田集中區(qū)域“禁廢”
分割區(qū)域
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
關(guān)于四色猜想
分區(qū)域
基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
主站蜘蛛池模板: 国产在线视频自拍| 在线五月婷婷| 亚洲一级色| 伊人91视频| 2022国产无码在线| 国内自拍久第一页| 试看120秒男女啪啪免费| 国产精品亚洲五月天高清| 一级一级特黄女人精品毛片| 国产亚洲精品91| 99国产精品免费观看视频| 国产欧美日韩va另类在线播放| 在线视频亚洲色图| 久青草免费在线视频| 色播五月婷婷| 亚洲欧美成人在线视频| 欧美全免费aaaaaa特黄在线| a毛片免费看| 伊人色综合久久天天| 欧美午夜小视频| 狠狠色噜噜狠狠狠狠奇米777| 国产精品浪潮Av| 国产亚洲精品97AA片在线播放| 精品人妻无码中字系列| 91视频青青草| 亚洲成人高清无码| 欧美97欧美综合色伦图| 国产情侣一区二区三区| 色悠久久久久久久综合网伊人| 婷婷六月天激情| 亚洲中文无码av永久伊人| 不卡视频国产| 久久精品无码国产一区二区三区| 久久成人18免费| 国产成人免费视频精品一区二区 | 精品成人免费自拍视频| 一区二区午夜| 亚洲天堂网站在线| 毛片大全免费观看| 亚洲aⅴ天堂| 欧美综合中文字幕久久| 亚洲二区视频| 色亚洲成人| 婷婷亚洲综合五月天在线| 日韩A∨精品日韩精品无码| 亚洲精品日产AⅤ| 97视频精品全国在线观看| 国国产a国产片免费麻豆| 99er精品视频| 日韩一级二级三级| 99久久精品国产自免费| 日韩av无码DVD| 青青久视频| 又污又黄又无遮挡网站| 国产9191精品免费观看| 国产性爱网站| 国产精品无码翘臀在线看纯欲| 欧美日韩一区二区在线免费观看 | 色香蕉影院| 三上悠亚一区二区| 亚洲美女一区| 一边摸一边做爽的视频17国产| 国产欧美日韩精品综合在线| 久青草免费在线视频| 538国产视频| 青草视频网站在线观看| 亚洲人成网站18禁动漫无码 | 无码国产偷倩在线播放老年人 | 国产va免费精品观看| 亚洲高清中文字幕| 国产成人在线小视频| 久久黄色一级视频| 99re视频在线| 国产精品爽爽va在线无码观看| 久久黄色免费电影| 国产白浆视频| 亚洲国内精品自在自线官| 无码精品国产VA在线观看DVD| 国产精品成人第一区| 狠狠躁天天躁夜夜躁婷婷| 一级香蕉视频在线观看| 四虎永久免费地址在线网站|