999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于注意力機制的U-Net網絡模型分割X線圖像椎弓根影

2022-12-03 01:56:46顧霄瑩張俊華王嘉慶
計算機應用與軟件 2022年11期
關鍵詞:模型

顧霄瑩 張俊華 王嘉慶

(云南大學信息學院 云南 昆明 650500)

0 引 言

脊柱側凸是一種常見的脊柱三維畸形,脊椎的軸向旋轉是脊柱側凸的基本畸形之一[1-2]。目前,X線是醫學上診斷脊柱側凸主要的成像方式[3],已有方法通過測量X線正位相中的椎弓根影相對于椎體中心產生的偏移量實現對椎體旋轉度的測量,進而完成脊柱側凸的系列評估工作[4-6]。椎弓根影在X線正位相和側位相中均可見,因此也常作為脊柱X線圖像三維重建的界標之一[7]。椎弓根作為椎弓的一部分,它起于椎體后上部,與椎體方向垂直向后方凸起,外形呈弧形。在X線圖像中椎弓根影顯示面積小且對比度不高,這給它的分割工作帶來了難度。

現有的椎弓根影分割方法按自動化程度分為手工分割、半自動分割和自動分割三種。手工分割靠醫師人工對脊柱X線圖像進行標注,耗時費力且精確的結果受到人工的主觀因素制約,操作者的誤差會直接影響后期椎體旋轉角測量結果的準確度。對此,一系列半自動分割方法被提出。Dore等[8]提出一種引入椎弓根圖像統計形狀作為先驗信息的水平集X線圖像椎弓根影分割方法,由于嚴重依賴于圖像的質量,該方法不易推廣。Zhang等[9]提出一種基于橢圓形狀約束的梯度矢量流(GVF) Snake模型的X線圖像椎弓根影分割方法,此方法需要由用戶選擇矩形感興趣區域生成初始橢圓輪廓,過程煩瑣。Kumar等[10]提出一種數學形態學增強的圖像預處理結合GVF Snake模型的X線圖像椎弓根影分割方法,該方法仍然需要用戶標記初始化輪廓。半自動分割方法只能有限地降低人為干預,最終分割精度還是取決于分割者自身的技術和經驗。鑒于人工方法和半自動方法的局限性,Cunha等[11]提出一種基于支持向量機的從平面X線圖像中全自動分割椎弓根影的新方法,但此方法難以實現大規模樣本的訓練且最佳分類器的檢測準確率僅為48%。Ebrahimi等[12]提出了一種基于隨機森林分類器的自動檢測X線圖像椎弓根影的方法,檢測精確度為84%,該方法效果雖不錯但在檢測一些不明顯的椎弓根影時,仍然會產生較大的檢測誤差。

針對上述人工、半自動、全自動方法的局限性,本文采用深度學習的方法實現X線圖像椎弓根影的全自動分割,提出一種端到端的基于注意力機制的U-Net神經網絡模型。該方法不需要人工進行干預,對脊柱X線圖像作簡單預處理后輸入到神經網絡中,通過網絡對標簽特征的學習,從而實現對X線圖像椎弓根影的高精度自動化分割。

1 方 法

1.1 U-Net神經網絡

U-Net神經網絡[13]是一種U型架構網絡,是從全卷積網絡[14](Full Convolution Network, FCN)演變而來。U-Net網絡通過引入跳躍連接的方式將用于像素定位的高分辨率層與用于精確分割的低分辨率層結合起來,這種方式使分割結果更加準確,其結構如圖1所示。

圖1 U-Net網絡架構

圖1中,左半部分是特征提取過程,每經過一個池化層,圖片大小就縮減一半;右半部分是上采樣過程,每上采樣一次,就將下采樣中的高分辨率特征與上采樣特征連接起來。下采樣路徑中每一層的寬度自上而下依次是(64,128,256,512,1 024),對應有自下而上的上采樣路徑,共18個卷積層。

1.2 改進的U-Net神經網絡模型

考慮到X線圖像中椎弓根影面積小且對比度不高,本文對原始U-Net網絡進行優化,提出一種基于注意力機制的U-Net神經網絡模型,其模型如圖2所示。

圖2 基于注意力機制的U-Net神經網絡模型

由圖2可知,改進的網絡由9個Block組成,改進網絡里的每個卷積層后都添加了規范層BN(Batch_Normalization),對前一層的激活值進行批標準化處理,避免網絡過擬合,加速網絡訓練,之后使用ReLU(R-ectified Linear Units)激活。改進網絡的每個Block后都加入通道注意力模塊[15](Channel Attention module,CA)以及在每個跳躍連接之前都增加注意力門模塊[16](Attention Gates module, AGs),既提高了網絡對目標區域提取的準確性又解決了模型跳躍連接的冗余問題。在網絡的最后,通過1×1的卷積和Sigmoid激活層將多通道特征圖譜映射到目標的分割。

各模塊內部結構如圖3所示。圖3(a)表示Block1—Block9內部結構,圖3(b)表示Conv內部結構。

(a) Block1-Block9 (b) Conv圖3 各模塊內部結構

除最后一層是1×1的卷積層外,其他所有的卷積層都采用3×3的卷積核。神經網絡的參數主要由卷積核大小和卷積核數量決定,5×5的卷積核有25個參數,而3×3的卷積核只有9個參數,能顯著減少神經網絡的計算量,同時分割效果也不會降低;網絡下采樣路徑中每一層的卷積核數量自頂向下依次是(32,64,128,256,512),大大減少了網絡的參數量。網絡的參數及輸出尺寸如表1所示。

表1 網絡參數

1.2.1注意力門模塊

圖4 AGs模塊

圖4中注意力系數(α)通過元素乘積來縮放輸入特征(xl)。AGs通過分析門控信號(g)和上下層信息來選擇目標空間區域,α在目標區域取得大的值,在背景區域取得較小的值。g通過簡單的1×1卷積層、BN層和ReLU激活層獲得,xl經過步長為2的卷積下采樣得到與g相同的特征尺度。采用雙線性插值法對特征圖進行重采樣。

1.2.2通道注意力模塊

Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F)))=

F1=Mc(F)?F

(4)

圖5 AC模塊

2 基于注意力機制的U-Net網絡的椎弓根影分割

分割框架設計如圖6所示,分為3個主要部分。

圖6 X線圖像椎弓根影分割框架

1) 圖像預處理:將原始脊柱正位相X線圖像裁剪為小的脊椎圖像,之后使用labelme對脊椎圖像打標簽構建數據集:訓練集和測試集。訓練中使用圖片生成器(翻轉、平移等操作)實現數據實時擴充。

2) 神經網絡訓練:將訓練集輸入到神經網絡中訓練,通過不斷迭代來優化網絡參數,將最優的網絡模型保存下來。

3) 測試階段:將測試集輸入到保存的最優網絡模型中,得到目標分割結果,然后使用Photoshop將分割結果在脊椎X線圖像上標注。

2.1 圖像預處理

實驗數據是由云南省昆華醫院提供的195幅脊柱正位相X線圖像。為了從脊椎X線圖像中分割出椎弓根影,本文將原始195幅脊柱正位相X線圖像裁剪成863幅脊椎圖像(包括胸椎和腰椎),圖7(a)所示是脊柱正位相X線圖像,圖7(b)為裁剪后的脊椎圖像。由于U-Net網絡要求輸入圖像尺寸一致,同時為了不使脊椎圖像變形,本文用黑色背景色將裁剪后的圖像填充成統一尺寸(128×128),如圖7(c)所示。訓練標簽由人工完成且得到醫生認可,標簽圖如圖7(d)所示。

圖7 圖像預處理

2.2 神經網絡訓練

網絡訓練使用自適應Adam優化器,Adam優化器結合了AdaGrad和RMSProp兩種優化算法的優點,使參數的更新不受梯度伸縮的變換影響,實現簡單,計算高效。Adam優化器還可以解決其他優化器中存在的問題,如學習率消失、網絡收斂速度慢或是SGD參數更新比較頻繁導致損失函數震動過大等。

由于分割X線圖像椎弓根影是二分類問題,網絡選取二元交叉熵(binary_cross_entropy)作為損失函數,損失函數越小,則模型效果越好。樣本的真實標簽為yt,該樣本的yt=1的概率為yp,則該樣本的二進制交叉熵損失公式定義如下:

log(yt/yp)=-(yt×log(yp)+(1-yt)×log(1-yp))

(5)

2.3 評價指標

1) 采用精確度(Precision,P)、召回率(Recall,R)和準確率(Accuracy,Acc)對分割結果進行評價,定義為:

式中:Tp表示正確分割椎弓根影的部分;Fp表示將背景預測為椎弓根影的部分;FN表示將椎弓根影預測為背景的部分;TN表示算法分割和人工分割外部公共區域的部分。

2) 使用Dice相似性系數來對分割結果進行評價,定義為:

式中:A表示椎弓根影分割結果;B表示與其對應的真實標簽,A∩B代表椎弓根影分割結果與真實標簽像素點的交集,Dice值越接近1,表示X線圖像椎弓根影分割結果越準確。

3) 采用Hausdorff距離對分割結果進行評價。由于Dice系數的關注點主要集中在分割結果的內部,對分割邊界的刻畫不敏感,而Hausdorff距離作為形狀相似性的一種度量,能夠為Dice系數做出較好的補充。Hausdorff距離定義如下:

式中:X表示椎弓根影分割結果;Y表示與其對應的真實標簽;d表示歐氏距離。dH越高,表示樣本的匹配度越低。

3 實 驗

本文實驗是在Windows10的計算平臺上進行,In-tel(R) Core(TM) i7-8700K CPU,16 GB×2內存,NVID-IA GeForce GTX 1080Ti GPU;開發環境為Python3.6,神經網絡的訓練使用以TensorFlow為后端的Keras深度學習框架。實驗從863幅脊椎X線圖像中選取750幅作為訓練集,剩下的113幅作為測試集。

3.1 模型訓練過程中的參數設置

為了更好地驗證本文網絡在分割X線圖像椎弓根影上的優勢,將網絡與傳統的FCN-16s、FCN-8s、U-Net和Attn U-Net[14]進行對比。

參數設置:實驗中基于注意力機制的U-Net和A-ttn U-Net采用的初始學習率為0.000 1,batch_size為8,epoch為200;原始U-Net采用初始學習率為0.000 1、batch_size為4,epoch為200;FCN-8s、FCN-16s在學習率為0.000 1時訓練,網絡損失下降很慢,難以收斂,因此考慮選取較大的學習率訓練,采用lr=0.001,epoch為100就可達到較高的準確率。

3.2 實驗結果分析

3.2.1不同分割算法的比較

本實驗根據113幅測試圖像的自動分割結果分別計算P、R和Acc的平均值來綜合評價不同網絡模型在X線圖像椎弓根影上的分割性能,結果對比如表2所示。

表2 不同網絡預測結果指標(ACC/P/R)對比

可以看出,U-Net網絡和Attn U-Net網絡的P值雖高,但R值相對較低;基于注意力機制的U-Net網絡無論是Acc值還是P值、R值都高于其他分割方法。本文提出的基于注意力機制的U-Net網絡較其他網絡表現出更加優異的性能,且平均分割一幅圖像僅需19 ms。

為更好地評價本文網絡在分割X線圖像椎弓根影上的優越性,使用Dice系數和Hausdorff距離作為評價指標,如表3所示??梢钥闯?,U-Net網絡和Attn U-Net網絡的Dice系數比傳統的FCN-8s網絡、FCN-16s網絡高,但是它們的Hausdorff距離卻大于FCN網絡,這表明無論是U-Net網絡還是Attn U-Net網絡,它們的圖像分割結果與真實圖像的匹配度并不是很高。本文提出的基于注意力機制的U-Net網絡不僅在Dice系數上優于其他的分割網絡,Hausdorff距離也明顯小于其他4種方法。

表3 不同網絡預測結果指標(Dicel Hausdorff)對比

3.2.2不同分割算法訓練時間的比較

為進一步分析算法在運行效率方面的性能,本文將不同分割算法在每一輪次上的訓練時間進行對比,如表4所示。可以看出,原始U-Net網絡每一輪的訓練時間平均為150 s,本文網絡平均為每輪73 s,遠遠低于原始U-Net網絡訓練時間。本文算法在運行效率方面顯著優于原始U-Net網絡。由表4可知本文網絡平均每輪訓練時間比Attn U-Net網絡的訓練時間稍長,但考慮到在醫學影像處理任務中精度比速度更為重要,因此本文網絡是最優的選擇。

表4 算法訓練時間對比

3.2.3不同優化器對實驗結果的影響

在神經網絡中,優化器通過更新計算影響模型訓練和模型輸出的網絡參數,使網絡參數逼近或達到最優值,從而最小化損失函數。為了證明使用Adam優化器能夠有效提高分割性能,本文在基于注意力機制的U-Net網絡下,將Adam優化器與SGD優化器進行對比,如表5所示。

表5 本文網絡下優化器對比

可以看出,雖然在召回率上Adam優化器略低于SGD,但在其他四種評價指標上,Adam優化器皆優于SGD,進一步驗證了本文網絡選取Adam優化器的正確性。

3.2.4算法分割結果的比較

為了更加直觀地表達各網絡模型的分割性能,本文將不同網絡的預測結果進行對比,如圖8所示。由圖8可知本文網絡與其他網絡的預測值相比,不僅將脊椎X線圖像中右側的椎弓根影準確地分割出來,還將左側不清晰且形狀變異的椎弓根影較完整地預測出來,能夠做到X線圖像椎弓根影的完整分割。

圖8 預測結果對比

接著將本文網絡的預測值與標簽的真實值在脊椎X線圖像中標注,進一步觀測本文網絡的分割性能,如圖9所示。可以看出本文網絡在分割X線圖像椎弓根影時有較高的分割準確率,能夠實現椎弓根影的完整分割。

圖9 X線椎弓根影分割結果(白色為標簽的真實值,黑色為本文網絡的預測值,灰色為重疊部分)

基于注意力機制的U-Net網絡自動分割方法能夠完整地將椎弓根影從脊椎X線圖像中分割出來,無論是從定量還是定性角度來看,都證實了該方法在自動分割X線圖像椎弓根影上的可行性與優越性。基于注意力機制的U-Net網絡不僅提高了分割精度,還大大縮減了分割圖像的速度。

4 結 語

脊柱X線圖像中的椎弓根影分割對后期椎體旋轉度測量以及脊柱三維重建都有重大意義。針對現有X線圖像椎弓根影分割方法中的不足,本文提出一種基于注意力機制的U-Net網絡。在原始U-Net基礎上增加CA與AGs兩種不同的注意力機制輕量模塊,不僅提高了神經網絡模型的特征提取能力,還在AGs模塊作用下,消除了跳躍連接中不相關的信息和噪聲信息,大大簡化了模型的訓練。實驗結果表明,基于注意力機制的U-Net網絡在分割X線圖像椎弓根影時可以得到良好的分割效果,在脊柱畸形疾病診斷治療中具有很好的應用前景。但本文方法在分割一些噪音較大、圖像質量很差的脊椎X線圖像時,依舊存在分割精度較低的問題,因此仍需進一步改進。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产99热| 一级毛片无毒不卡直接观看| 99久久精品视香蕉蕉| 嫩草影院在线观看精品视频| 久久国产毛片| 国产欧美日韩专区发布| 99久久婷婷国产综合精| 亚洲午夜片| 欧美不卡视频一区发布| 久久亚洲综合伊人| 第一区免费在线观看| 欧美性色综合网| 亚洲毛片一级带毛片基地| 九九九九热精品视频| 青青青国产精品国产精品美女| 国产网站黄| 免费AV在线播放观看18禁强制| 国产成人一区二区| 亚洲无线一二三四区男男| 女人av社区男人的天堂| 欧美日韩中文字幕二区三区| 美女扒开下面流白浆在线试听| 国产区免费| 久久黄色免费电影| 欧美精品1区2区| 美女内射视频WWW网站午夜 | 亚洲清纯自偷自拍另类专区| 亚洲精品男人天堂| 国产免费精彩视频| 国产自在线播放| 好久久免费视频高清| 亚洲欧美日韩动漫| 久久久精品无码一区二区三区| 国产一二三区视频| 国产在线精品人成导航| 亚洲精品中文字幕无乱码| 亚洲第一黄片大全| 老司机精品99在线播放| 日韩精品免费一线在线观看| 日本人妻一区二区三区不卡影院 | 国产不卡一级毛片视频| 国产成人1024精品下载| 精品欧美日韩国产日漫一区不卡| 中文字幕人成人乱码亚洲电影| 国产99视频在线| 亚洲精品无码不卡在线播放| 97久久免费视频| 午夜影院a级片| 国产色偷丝袜婷婷无码麻豆制服| 美女国内精品自产拍在线播放| 欧美劲爆第一页| 国产一区二区三区日韩精品 | 这里只有精品在线播放| 中文成人无码国产亚洲| 国产欧美精品午夜在线播放| jizz在线免费播放| 思思99热精品在线| 欧美午夜一区| 国产成人福利在线| 97se亚洲综合| 国产拍在线| 免费一级无码在线网站| 99re视频在线| 国产永久免费视频m3u8| 色婷婷在线影院| 国产成人高清精品免费软件| 国产乱人激情H在线观看| 久久精品无码一区二区日韩免费| 91无码人妻精品一区二区蜜桃| 91美女视频在线| 日韩小视频在线播放| 欧美日韩在线亚洲国产人| 色香蕉影院| 九色视频线上播放| 72种姿势欧美久久久大黄蕉| 五月婷婷精品| 中文纯内无码H| 露脸国产精品自产在线播| 福利国产微拍广场一区视频在线| 国产福利拍拍拍| 国产精品网拍在线| 在线观看av永久|