999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合注意力機制的TransGLnet 脈絡膜自動分割

2023-12-19 11:15:44黃文博屈超凡
光學精密工程 2023年23期
關鍵詞:特征信息

黃文博, 屈超凡, 燕 楊

(長春師范大學 計算機科學與技術學院,吉林 長春 130032)

1 引 言

脈絡膜層是位于眼底視網膜下方的血管層,其主要功能是為視網膜提供氧氣和營養[1]。臨床研究表明,觀察脈絡膜厚度的變化對于預測相關眼部疾病至關重要。如成人年齡及近視度數的增加會導致脈絡膜厚度變薄,糖尿病視網膜病變會導致脈絡膜厚度變厚[2]。因此,脈絡膜分割及厚度分析在眼部疾病的早期預測及診斷中具有重要意義。

目前,眼科醫生想要獲得準確的脈絡膜邊界,需在眼底OCT 圖像中手動測量其厚度,耗時費力。眼底OCT 圖像脈絡膜區域中,脈絡膜與鞏膜之間對比度較低,脈絡膜自動分割存在脈絡膜下邊界模糊,難以界定等困難[3]。針對這些問題,國內外學者對脈絡膜分割展開了較為深入的研究。Yan 等[4]提出了上下文高效自適應網絡(Context Efficient Adaptive Network,CEA-Net),用于OCT 圖像中脈絡膜的自動分割,以CE-Net為主干模型,整合高效通道注意力(Efficient Channel Attention, ECA)模塊以實現精確的分割性能。許祥叢等[5]提出了壓縮-激勵-拼接(Squeeze-Excitation-Connection,SEC)模塊,并與U-Net 相結合稱為SEC-Unet。SEC 模塊作為注意力機制通過自適應學習通道之間相互關系提高網絡的表達能力和性能,使網絡更適應脈絡膜分割任務,但注意力的計算僅在局部范圍內進行,對全局上下文沒有充分關注。Zhu 等[6]提出脈絡膜U 型網絡,捕捉脈絡膜層和脈絡膜血管之間的相關特征和特定特征,生成像素級分類,實現脈絡膜層的自動分割。Khaing 等[7]提出以UNet 作為主干模型,集成具有不同膨脹率的膨脹卷積,實現脈絡膜分割。膨脹卷積的空洞間隔不合適,可能導致感受野過大或過小,因此沒能捕獲更多的上下文信息來進行預測。Xu 等[8]提出結合圖像增強和基于注意力的密集(Attentionbased Dense,AD)U-Net 模型,在U-Net 基礎上加入注意力門機制,使網絡能夠加強對圖像感興趣的區域關注,從而對脈絡膜進行分割。WU 等[9]提出邊界增強編碼器-解碼器架構,邊界增強模塊構成每個編碼器-解碼器層的主干,特征提取分別使用不同擴張率的擴張卷積來獲取不同感受野下的相關圖像特征。這意味著不同位置上計算的特征主要關注局部區域,而不是圖像的全局信息。通道增強分支的重點仍是局部區域特征增強,缺乏全局信息獲取。

綜上所述,現有方法實現脈絡膜分割多數只關注局部信息,雖能對脈絡膜細節進行學習,但欠缺對圖像上下文和全局結構信息的學習,從而沒能有效兼顧脈絡膜OCT 圖像的全局信息及局部細節,導致脈絡膜在OCT 圖像分割任務中存在定位和分割困難及分割結果邊界模糊等問題,脈絡膜自動精準分割仍面臨挑戰。

本文提出一種基于TransGLnet 網絡的脈絡膜自動分割方法,用于在OCT 圖像中自動分割脈絡膜層。為了解決網絡在訓練過程中產生全局信息丟失及局部細節不準確等問題,引入專注于全局信息和局部細節的全局注意力模塊[10](Global Attention Module,GAM)和局部注意力模塊(Local Attention Module,LAM)[11],幫助網絡捕捉圖像的整體上下文和語義信息,同時網絡聚焦于圖像的細節和局部特征,跨越語義鴻溝,使得網絡能夠綜合考慮到圖像的全局結構和局部細節,從而更全面地理解圖像內容和語義信息,顯著提升模型性能。

2 網絡設計

2.1 網絡搭建

本文搭建的TransGLnet 網絡由編碼器和解碼器兩部分組成,如圖1 所示。其主干網絡為TransUnet[12]。 編碼器由卷積層、特征層及Transformer 編碼器組成。在特征提取過程中,卷積層有獲取局部信息的能力,但對獲取全局上下文的能力很弱,Transformer 對來自卷積神經網絡特征映射的標記化圖像塊進行編碼,作為提取全局上下文的輸入序列,主要衡量序列中所有元素之間的相關性,但忽略了局部細節信息。為了增強網絡對全局與局部信息獲取的能力,探索特征圖中元素之間的空間位置關系,本文引入GAM 和LAM 來探索不同范圍內元素之間的相關性以及特征圖的局部細節。為了提高圖像分割的精度和感興趣區域的重建效果,這里采用與編碼器對稱的解碼器來恢復圖像中的感興趣區域。由于下采樣在特征提取的過程中不可避免地會丟失特征圖中的一些前景信息,為了解決這個問題,通過跳躍連接將編碼器的多尺度特征信息和上采樣提取的上下文信息進行特征融合。

圖1 TransGLnet 整體框架Fig.1 Overall framework of TransGLnet

2.2 全局注意力模塊

全局注意力模塊GAM 嵌入到卷積層之中,如圖2 所示。卷積層與ResNet50[13]網絡架構基本相同。本文輸入的原始特征圖尺寸為3×224×224。經過一系列卷積運算后,最終輸出的特征圖尺寸為1 024×14×14。在計算空間有限的情況下,使用Transformer 計算特征圖中元素之間的相關性往往需要大量的計算資源。由于較大的輸入批量往往會因計算資源不足而導致實驗失敗,因此,采用組歸一化來克服批歸一化在小批量下實驗效果不佳的缺點,使用自注意力機制來實現GAM。為了提取全局特征,GAM 從輸入特征的線性卷積開始,每個卷積都具有1×1內核。這種線性變換的結果假設成f(x),g(x)和h(x)。GAM 的核心思想是特征之間的矩陣乘法,如下:

圖2 全局注意力模塊結構Fig.2 Structure of global attention module

其中S代表Sigmoid 函數;γ是一個超參數,本文設置為1。

將注意力輸出結果乘以標量γ,以調節GAM對輸出的貢獻。如果γ為零,則整個全局信息模塊的貢獻為零,輸入x直接傳遞到下一層。使用矩陣乘法能夠創建多個不同特征之間的非線性交互。例如,f(x)中的每個特征都與g(x)中的所有特征相乘,從而幫助捕獲全局特征,且無需額外的參數。在將Softmax 函數應用于矩陣乘法輸出之后,每個特征圖都成為一個注意力掩碼,可以使網絡集中注意力于h(x) 中的特定區域,忽略其他區域。將Softmax 函數輸出與h(x)相乘可以過濾掉注意力為零的區域,從而確保只有關注的區域傳遞到下一層。

2.3 局部注意力模塊

直接使用Transformer 探索全局元素的關系,網絡很難關注特征圖的細節信息。為了進一步探索特征圖中元素之間的空間位置關系,這里使用LAM 來探索局部范圍內元素之間的位置關系。LAM 流程如圖3 所示。輸入到網絡的特征圖是RC×H×W,其中C為通道數,H和W分別為特征圖的高度和寬度。為了方便介紹此模塊,這里C=1,H=W=4。

圖3 局部注意力模塊流程Fig.3 Process of local attention module

特征融合過程如圖4 所示,輸入到網絡的原始特征圖為F1∈R1×4×4,并且以1/4 的特征圖為基本單位探索元素間的空間位置關系。對輸入的原始特征圖F1進行切割,得到4 個特征塊,每個特征塊的尺寸為H/4×W/4。接著,針對每個特征塊進行所有元素的每行位置不變、每列位置從大到小重新排列,得到新的特征塊。然后,對新特征塊中元素進行轉置操作,得到改變后的新特征塊。將完成元素轉置的特征塊拼接,得到特征圖F2。類似地,特征圖F3和F4是在特征圖F2和F3的基礎上,按照相同的特征圖切割、元素空間位置偏移、轉置以及特征塊組合得到的。最后,通過4 個尺寸為1×1 的卷積分別作用于特征圖F1,F2,F3和F4,將它們相加得到特征圖J1。J1中每個元素都是通過特征圖F1 中的局部區域元素交互得到的。LAM 以1/4 特征圖為基本單元,感受野較小,因此更有利于網絡提取圖像的局部細節信息。

圖4 特征融合過程示意圖Fig.4 Schematic of feature fusion process

2.4 損失函數

醫學圖像中待分割的前景信息通常占據整幅圖像的較小比例,并且不同類別的前景區域的尺寸和形狀也不同,這使得在學習和訓練過程中,網絡容易出現過擬合現象。為了應對這種情況,這里采用Dice loss[14]作為損失函數的一部分,從而改善網絡的泛化能力和抗過擬合能力。Dice loss 基于Dice 系數,用來度量分割結果與真實標簽之間的相似度。使用Dice Loss 可以使網絡更好地學習圖像的邊界和細節信息,從而提高分割精度,其公式如下:

其中:i屬于元素的具體索引值,Pi為預測圖中第i個元素值屬于某一類別前景的概率,Gi是標簽圖中第i個元素的真實值。除此之外,本文使用交叉熵損失(Cross Entory Loss,CEL)作為損失函數的一部分,即:

其中:Pi(correct)表示某點的元素值被正確預測的概率,H×W表示最終預測圖的尺寸。

最后,損失函數由CEL 損失函數和 Dice 損失函數組成,具體公式如下:

所有實驗均默認在λ1和λ2為0.5 的情況下進行。

3 實驗及結果分析

實驗在Pytorch 深度學習框架下搭建,實驗環境為python 3.9,pytorch 2.0.0,cuda 12.0。將數據集中80%的圖像劃分為訓練集,20%的圖像劃分為測試集。采用指數衰減調整學習率ExponentialLR,其中Gamma 為0.9,優化器為Adam,訓練epoch 為50,batch_size 為2。

3.1 數據集

本文采用的數據集是廣州婦女兒童醫學中心的視網膜OCT 圖像[15]。從OCT 數據集中隨機選取300 幅圖像。脈絡膜層分割黃金標準由兩位眼科醫師使用Image J 軟件在OCT 圖像上進行手工標注。在標記脈絡膜下邊界時,眼科醫師最初通過使用分段線工具選擇稀疏點來標記,然后通過樣條線擬合操作進行平滑處理。最后進行微調,以確保繪制的曲線邊界清晰,具體過程如圖5 所示。

圖5 脈絡膜標記過程Fig.5 Choroidal labeling process

當出現邊界標注不一致時,兩位醫師會討論標注邊界的異議,共同解決標注不確定性,達成一致意見。若無法達成一致,邀請第三位眼科醫師評估標注結果,作為仲裁者解決異議,最終達成一致的脈絡膜邊界標注結果。

3.2 評價指標

本文使用Dice 系數、準確率(Accuracy)、均交并比(Miou)、F1 值以及豪斯多夫距離(Hausdorff Distance,HD)5 個指標來評估性能。其計算公式如下:

其中:TP 為預測正確的正樣本像素數量,FP 為預測錯誤的正樣本像素數量,TN 為預測正確的負樣本像素數量,FN 為預測錯誤的負樣本像素數量,k+1 為包括背景在內的類的數量。

其中:X和Y分別表示預測圖和標簽圖,x和y分別表示預測圖和標簽圖中的像素表示預測圖中像素到標簽圖中像素的最短距離集合表示該最短距離集合中的最大距離表示標簽圖中像素到預測圖中像素的最短距離集合表示該最短距離集合中的最大距離。

3.3 實驗結果

由表1 可知,本文方法的Dice 系數為0.91,準確率達到0.98,MIoU 達到0.89,F1 值達到0.9,豪斯多夫距離為6.56。實驗結果表明,使用TransGLnet 網絡訓練取得了較好的分割結果,相對于TransUnet,本文網絡的Dice 提高了10%。相對于其他脈絡膜自動分割方法,本文方法的各項性能指標均有提高,證明本文訓練策略具有很高的穩定性。

表1 不同網絡脈絡膜分割結果比較Tab.1 Comparison of choroid segmentation results among different networks

圖6 展現了脈絡膜OCT 圖像訓練和測試結果的可視化。其中,第一張圖片是原始圖片,第二張圖片是標簽圖片,接下來的幾張圖片是不同分割方法的可視化結果。將本文方法與現有的脈絡膜自動分割方法進行比較,包括U-Net[16],AttU-Net[17],R2U-Net[18],R2AU-Net[19],TransUnet[20],Swin-Unet[21]。

圖6 脈絡膜分割實例結果的可視化Fig.6 Visualization of choroid segmentation example results

U-Net 是一個由跳躍連接將編碼器-解碼連接的U 形結構,該網絡廣泛應用于醫學圖像分割任務。AttU-Net 以U-Net 為主干,在跳躍連接處加入注意力門機制,抑制輸入圖像中的不相關區域,突出特定局部區域的顯著特征。R2U-Net 以U-Net 為主干,結合殘差連接和循環連接,增強U-Net 在處理長距離依賴和特征傳遞方面的能力。R2AU-Net 結合遞歸殘差卷積層,更好地表示分割任務的特征和注意力區域,以突出顯示通過跳躍連接傳遞的顯著特征。TransUnet 將Transformer 和U-Net 結合利用Transformer 的自注意力機制來捕捉圖像中的全局上下文信息。Swin-Unet 基于純Transformer 的U 形編碼器-解碼器網絡用于醫學圖像分割,將SwinTransformer 塊作為特征表示和遠程語義信息交互學習的基本單元。

分割結果顯示,由于脈絡膜下邊界模糊,在其他網絡處理圖像中明顯可見脈絡膜下邊界參差不齊且不連續,相比之下,本文方法分割脈絡膜得到了相對平滑和完整的層邊界。在特征提取中,卷積層獲取局部信息的能力很強,但對全局的建模能力較弱。Transformer 主要衡量序列中所有元素間的相關性,卻忽略了局部細節信息的重要性。本文提出的方法得益于其對全局的建模能力的增強和增加對局部細節信息的重視,因此相比于基準網絡和其他網絡,本文網絡的學習能力得到增強。

為驗證本文模型的有效性,還針對美國國立衛生研究院國家醫學圖書館提供的500 張肺部X射線圖片[22]進行分割,分割結果如圖7 所示。實驗結果表明,本文提出的TransGLnet 模型在該數據集上也體現出優秀的性能,Dice 系數達到0.94,HD 為8.92。通過觀察分割結果發現,TransGLnet 模型對于全局建模能力以及局部細節信息的重視,使其在肺部分割任務上表現出較好的效果,進一步證明了TransGLnet 模型具有較強的泛化能力,能夠在不同數據集和任務中取得良好的性能表現。

圖7 肺部分割實例結果的可視化Fig.7 Visualization of results of lung segmentation example

4 消融實驗

為驗證添加模塊的有效性,本文進行了消融實驗,消融模型1(Ablation 1)代表只包含GAM,消融模型2(Ablation 2)代表只包含LAM,使用相同的訓練和測試集對消融模型進行訓練和驗證。

圖8 為消融實驗結果。實驗結果表明,分別添加兩個模塊到主干網絡效果都有提升,Dice 分別提高了4%和6%,同時添加兩模塊,Dice 提高了10%,模型的整體性能顯著提升。

圖8 消融實驗結果Fig.8 Ablation experiment results

5 結 論

脈絡膜分析對于確定眼病的發病機制和治療策略至關重要,使用計算機快速準確地分割脈絡膜可以輔助醫生預測相關眼部疾病。本文以TransUnet 為主干網絡,融入GAM 和LAM 模塊。通過對下采樣過程中的特征進行處理,將它與上采樣路徑中的特征進行拼接,以增加圖像細節并更充分地利用每一層的多尺度信息。實驗結果表明,本文方法的Dice 系數為0.91,準確率達到0.98,MIoU 達到0.89,F1 值達到0.9,HD為6.56,相比現有方法各項指標均有所提高,可為臨床提供可準確的脈絡膜分割結果。

猜你喜歡
特征信息
抓住特征巧觀察
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
信息
建筑創作(2001年3期)2001-08-22 18:48:14
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 伊人久久综在合线亚洲91| 日韩在线影院| 在线观看国产网址你懂的| 国产欧美日韩18| 人妻免费无码不卡视频| 免费看的一级毛片| 伊人久久青草青青综合| 亚洲无码高清视频在线观看| 成人字幕网视频在线观看| 国产香蕉在线| 国产自产视频一区二区三区| 蜜臀AV在线播放| 狠狠ⅴ日韩v欧美v天堂| 国产91九色在线播放| 亚洲啪啪网| 国产超薄肉色丝袜网站| 欧洲成人免费视频| 国产二级毛片| 国产成人免费手机在线观看视频 | 亚洲婷婷六月| 国内精品视频| 伊人久久久久久久| 2020精品极品国产色在线观看| 日本a级免费| 亚洲黄色成人| 女人毛片a级大学毛片免费| 色综合五月| 久久中文字幕不卡一二区| 日韩av无码精品专区| 久久国产V一级毛多内射| 99热亚洲精品6码| 免费又爽又刺激高潮网址| 999国内精品视频免费| 奇米精品一区二区三区在线观看| 国产精品视频a| 无码福利视频| 国产农村妇女精品一二区| 久久综合结合久久狠狠狠97色| 久久成人免费| 国产成人精品男人的天堂| 国产成人欧美| 国产极品粉嫩小泬免费看| 亚洲AV无码一区二区三区牲色| 国产精品三级av及在线观看| 中文字幕在线日韩91| 欧美在线精品怡红院| 四虎精品国产AV二区| 国产精品专区第1页| 91小视频在线播放| 国产AV毛片| 国产69精品久久久久妇女| 91精品国产91久无码网站| 国产污视频在线观看| 最新精品国偷自产在线| 国内99精品激情视频精品| 中文字幕永久在线观看| 在线不卡免费视频| 无码福利日韩神码福利片| 国产激情国语对白普通话| 在线日韩日本国产亚洲| 日本五区在线不卡精品| 婷婷六月在线| 二级特黄绝大片免费视频大片| 伊人无码视屏| 国产极品美女在线| 国产麻豆永久视频| 欧美日本在线一区二区三区| 九色在线视频导航91| 在线观看精品自拍视频| 一级毛片在线播放| 久久亚洲欧美综合| 色综合日本| 国产精品视频导航| 亚洲天堂网视频| www.91中文字幕| 91探花在线观看国产最新| 99无码熟妇丰满人妻啪啪| 日韩不卡免费视频| 国产精品久久久久久影院| 国产主播福利在线观看| 91区国产福利在线观看午夜| 午夜毛片免费观看视频 |