宮照煊,楊東升,喬建忠,覃文軍,4
1(中國科學院 沈陽計算技術研究所有限公司,沈陽 110168)
2(沈陽航空航天大學 計算機學院,沈陽 110136)
3(東北大學 計算機科學與工程學院,沈陽 110169)
4(醫學影像智能計算教育部重點實驗室,沈陽 110819)E-mail:gzxgzxppy@163.com
胰腺是人體最重要器官之一,具有內、外分泌功能.近年,胰腺疾病的發病率逐年上升,尤其是胰腺癌,為致死率最高的腫瘤之一,5年生存率小于1%.CT檢查為診斷胰腺病變最主要的檢查方式,利用CT數據早期準確的診斷胰腺病變可以有效提高病人生存率.在CT圖像上進行胰腺分割作為這一切重要前提,其研究與發展意義重大[1].胰腺組織主要位于后腹膜,形態、位置變異較大,且周圍有大量鄰近組織,如胃、十二直腸、脾臟及大血管,這些組織在CT圖像上與胰腺緊密相連且密度相似.近年來國內外學者提出了多種胰腺分割方法,Cai等人[2]提出了一種基于深度學習的胰腺組織自動分割方法,該方法在深度學習模型中引入了圖融合模型,提高了網絡模型的求解精度.Zhou等人[3]使用局部區域模型對胰腺區域進行限定,然后在限定區域利用深度學習模型訓練得到胰腺組織.Farag等人[4]提出了一種超像素及圖像堆標記的模型實現胰腺組織的提取.Li等人[5]提出了一種雙向循環序列卷積神經網絡方法實現胰腺分割,該模型可以直接分割三維胰腺組織,因考慮了二維層之間的相關性,可以有效提高網絡的求解精度.Karasawa等人[6]提出了一種基于多圖普的胰腺組織提取方法,該方法利用胰腺組織周圍的血管結構選擇與其相似的未標記影像圖譜,再利用多圖普配準實現胰腺組織的提取.王鑫[7]利用水平集模型實現胰腺組織的提取,該方法結合胰腺的形狀先驗知識構建水平集模型,通過水平集曲線演化實現胰腺組織的精確提取.吳嬌龍[8]提出了一種基于形狀約束和種子遷移生長的胰腺分割方法,該方法通過區域生長方法進行分割,并利用胃部具有的規則形狀特征進行條件約束,對目標區域胰腺實現精確提取.牛帥[9]提出了一種基于低秩分解和多圖譜的胰腺分割方法,結合低秩分解和Hessian增強方法獲取不同的圖譜,最后利用圖譜融合實現胰腺組織的提取.
近年來,水平集方法[10-13]受到廣大學者的關注,水平集方法不受目標拓撲結構的影像,在影像組織分割中具有較大的優勢.因此,本文使用水平集方法實現胰腺組織的自動提取,首先利用直方圖均衡化提高胰腺組織與其周圍組織的對比度,然后使用深度學習模型實現部分胰腺組織的提取,統計提取的胰腺組織信息并設計灰度信息約束項,結合長度項和圖像信息項共同建立水平集模型,通過對水平集模型的演化獲取最終的胰腺組織分割結果.算法流程圖見圖1.

圖1 基于灰度信息約束水平集的胰腺分割算法流程圖
胰腺在CT影像中與其周圍的組織(胃、十二直腸、肝臟)灰度差異較小,直接在原始影像上分割胰腺很難得到理想的分割效果.為了提高胰腺在影像中的對比度,本文利用分數階微分增強方法對CT影像進行預處理,在增強后的影像中提取胰腺可以有效降低分割難度.
分數階微分可以使圖像的邊緣信息更加突出,紋理信息更加清晰,并能非線性保留圖像平滑區域信息.對于信號圖像w(m,n),增強后圖像可表示為:

w(m-2,n))+(3v2-v3-2v)(w(m-3,n-3)+
w(m+3,n+3)+w(m-3,n+3)+w(m+3,n-3))
(1)
圖2展示了分數階微分增強后的結果.從圖中可以看到增強后的圖像中(圖2(b))胰腺的輪廓更加清晰,與原圖像(圖2(a))相比,增強后的影像中胰腺具有更高的對比度.

圖2 分數階微分增強結果
本文采用U-net深度學習模型[14]實現胰腺組織的提取.U-net網絡由下采樣層和上采樣層組成.主要由卷積層和池化層以及上采樣層組成.利用U-net模型只需要少量數據訓練網絡就能得到胰腺組織的初始分割結果,初始胰腺分割結果的邊界可作為后續水平集模型的初始輪廓曲線.通過統計初始胰腺分割結果的灰度信息可以得到胰腺組織的灰度值范圍:
Ilow=μ+θ1·σ,Ihigh=μ+θ2·σ
(2)
其中Ilow和Ihigh分別為利用深度學習模型得到的初始胰腺的灰度上限和灰度下限,μ和σ分別為初始胰腺區域的均值和方差,θ1和θ2為常數.
Li等人提出了一種基于距離規則化的水平集演化模型(Distance Regularized Level Set Evolution,DRLSE)[15],本文在DRLSE模型的基礎上引入灰度信息約束項,可以使水平集曲線更準確地演化至胰腺組織的邊緣.本文模型的能量函數定義如下:
ε(φ)=αEintensity(φ)+EDRLSE(φ)
(3)
其中Eintensity(φ)為灰度信息約束項,EDRLSE(φ)為DRLSE模型的能量項,α為非負常數.通過最小化該能量模型,使水平集曲線逐漸演化到胰腺區域邊緣,從而實現胰腺組織的精確分割.
DRLSE模型
DRLSE模型由三部分組成:長度約束項,面積約束項以及規則項.能量表達式為:
EDRLSE(φ)=λ1R(φ)+λ2L(φ)+λ3A(φ)
(4)
(5)
(6)
(7)
其中λ1,λ2,λ3為非負常數.公式(5)-公式(7)分別為規則項,長度約束項以及面積約束項.規則項可以保持符號距離函數的連續性,此項可以有效避免水平集重新初始化問題[16].長度項用來約束演化曲線的長度,當曲線收斂至目標邊緣時長度項的取值最小,同時該項也可以使演化曲線的表面更加光滑.面積項可以加速曲線的演化,當演化曲線離目標邊緣較遠時,該項可以有效提升曲線演化的速度.公式(5)和公式(6)的H(x)和δ(·)分別為赫維賽德(Heaviside)函數及其導數,定義為:
(8)
(9)
根據公式(5)-公式(7),公式(4)可以重寫為:
(10)
利用梯度下降流最小化公式(10),可以得到:
(11)
灰度信息約束項
為了規則化零水平集,需要得到水平集曲線φ的長度:

(12)
其中:
(13)
利用梯度下降流最小化總能量函數E(φ),可以得到:
(14)
公式(14)為本文提出的水平集演化模型,通過多次迭代可以使水平集曲線向胰腺組織的邊緣收斂,從而實現胰腺分割.
本文的數據集來自ISICDM2018胰腺分割挑戰賽上的公開數據集,我們選取了20組病人的CT影像,隨機選取每組病人數據中的含有胰腺組織的2D影像.實驗參數設置如下:λ1=0.2,λ2=2,λ3=-1,α=0.1,θ1=-1,θ2=3.
本文選用以下兩種評估指標來度量本文提出的方法及其它方法的分割結果:
1)Dice系數
(15)
S和G分別為自動分割結果及醫生手動勾畫的金標準結果.Dice系數用來度量分割結果的準確性,是一種被廣泛使用的評估指標,該度量同時考慮了分割結果得到的正確候選點及錯誤候選點.Dice系數越趨近于1代表分割結果越接近專家手動勾畫結果.
2)正陽率(TPR)
(16)

圖3展示了本文方法與其它幾種水平集方法的分割結果.初始化曲線選擇為胰腺內部的一個方塊區域(圖3(a)),CV模型(圖3(b))可以得到全部的胰腺組織,但同時也存在過分割現象;GAC模型(圖3(c))也得到了部分胰腺組織,但曲線在演化時卻無法準確地收斂至目標的邊緣.IVC模型(圖3(d))可以得到完整的胰腺組織,但圖中胰腺的左下方區域灰度差異與胰腺的灰度值差異很小,該部分為非胰腺區域,IVC模型無法準確地將這部分區域分離出來,且得到的胰腺邊緣表面不平滑,呈鋸齒狀.DRLSE模型(圖3(e))可以得到大部分胰腺組織,但受初始化曲線影響沒有準確地收斂至胰腺尾部.本文方法可以準確地使曲線收斂至胰腺邊緣,灰度信息約束項能夠有效使將胰腺與其灰度相似的區域分離.

圖3 本文方法與其它方法的胰腺分割結果對比
表1展示了本文方法得到的評估結果,多數數據得到的DC值都在0.85以上,TPR值在0.8以上,說明本文提出的胰腺分割方法可以較準確地分割出胰腺組織.數據9和16的DC值和TPR值都較低,這兩組病例中的胰腺有病變的部分,且與周圍的肝臟組織粘連在一起,故本文方法對這兩組病例的分割效果欠佳.

表1 DC和TPR值結果評估
圖4展示了本文方法與深度學習方法的結果對比,本文方法是在深度學習結果的基礎上結合水平集模型進行精確分割.從圖中可以看到,深度學習方法得到的dice值中線為0.72,而本文方法采用水平集優化后得到的dice值中線為0.82.可見本文方法在深度學習模型的基礎上引入基于灰度信息約束的水平集方法可以獲得更加精確的分割結果.

圖4 深度學習與本文方法的dice值比較
圖5比較了本文方法與其他五種方法的dice值和可預測正樣本值(TPR).從圖中可以看到,CV模型的dice中值為0.45,TPR中值為0.44;GAC模型的dice中值為0.42,TPR中值為0.44;LBF模型的dice中值為0.61,TPR中值為0.46;IVC模型的dice中值為0.68,TPR中值為0.62;DRLSE模型的dice中值為0.67,TPR中值為0.62;本文方法的dice中值為0.81,TPR中值為0.83.本文方法得到的結果可以得到更準確的胰腺分割結果.

圖5 不同胰腺分割方法的dice值及TPR值比較
本文提出了一種基于灰度信息約束的胰腺組織分割方法.利用深度學習提取部分胰腺組織,統計這部分信息并設計了基于胰腺灰度的信息約束項,提取出的胰腺輪廓作為水平集的初始演化曲線.文中提出的灰度約束項能夠有效地使水平集曲線收斂至胰腺組織的邊緣,長度約束項可以使演化曲線更光滑.實驗部分將本文方法與其他五種水平集方法做了比較,并利用兩種度量指標評價各個方法,結果表明本文方法可以更準確、有效地提取胰腺組織.未來的研究工作將集中在水平集的算法優化上,考慮結合GPU技術減少水平集方法的運行時間.