





摘 要:針對視網膜眼底血管分割結果存在的斷裂、分割不足等問題,提出局部與全局雙支路分割模型,局部支路先對圖像進行平均分割,對分割后的圖片進行局部特征信息提取,全局支路則是對全局信息進行特征提取,在2 條支路之間通過特征融合模塊(Feature Fusion Module,FFM) 進行連接,使得網絡之間的聯系更加密切,全局、局部支路信息共享,在局部支路的最底層加入層數為6 的Transformer 模塊,對底層的抽象通知進行高效提取利用,減少特征信息的丟失,提高網絡的分割精度。提出的模型在公開數據集DRIVE、STARE 上的準確率分別為98. 39% 、98. 76% ,與傳統模型分割精度相比得到了較大的提升。
關鍵詞:圖像分割;視網膜血管;雙通道模型;特征融合
中圖分類號:TP391. 41 文獻標志碼:A
文章編號:1003-3106(2024)12-2888-07
0 引言
人類的視網膜是一個含有非常豐富血管信息的光敏組織,而且具有非入侵和非創傷可視化的性質。血管是視網膜最重要的組成部分之一,視網膜血管的結構和形態,如直徑、角度、分支等一直都是冠心病、糖尿病、動脈硬化等疾病的重要診斷指標之一,對其進行分析可以幫助醫生診斷和治療人體各種系統疾病。目前臨床醫學的血管圖像大多是以專家手動分割為主,但是因為視網膜血管較細且密集,導致人工手動分割視網膜血管變得非常繁瑣,并且容易出錯。所以需要研究一種高效的視網膜血管自動分割算法為眼科醫生提供有價值的診斷輔助。
在視網膜血管分割中,基于Transformer 模型的研究并不常見,有些文獻中的模型通過注意力機制來提高分割的精度,但是這些網絡的編碼部分和解碼部分均由卷積層構成,隨著TransUNet 的提出,這個模型使用基于Transformer 的編碼器對圖像進行操作,并且帶有跳躍連接解碼器來分割圖像。Transformer的模型在較大數據集上的訓練效果較好,但是視網膜血管的數據集都較小,將Transformer 作用于視網膜血管圖像分割時的效果往往不會很好。