999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進的U-Net在視網膜血管分割上的應用

2022-03-13 09:19:24谷鵬輝肖志勇
計算機與生活 2022年3期
關鍵詞:特征

谷鵬輝,肖志勇

江南大學 人工智能與計算機學院,江蘇 無錫214122

眼底視網膜血管分割在糖尿病、高血壓、早產兒等眼部相關疾病的診斷中具有重要作用。然而,傳統的需要專業醫生進行手工標注血管的方法不僅任務量大,而且耗時且容易出錯。

在過去的幾十年里,為了解決這個問題,許多算法被提了出來,所提算法可以分為兩大類。一類是非監督學習算法。例如Azzopardi 等人設計出了BCOSFIRE 濾波器,該濾波器可以對不同方向上的血管主干和末端進行精確檢測,尤其對細小的血管有很好的檢測效果。另一類是監督學習的算法,利用事先標記好的血管點和背景點,再通過構造好的模型來學習輸入到輸出間的映射關系,不斷調整模型。例如Lupascu 等人首先為視網膜圖像中的每個像素點構造一個對應的特征向量,然后用訓練樣本訓練了一個AdaBoost 分類器,最后用訓練好的分類器將像素點進行分類。

近年來,隨著深度神經網絡的發展,在醫學圖像處理領域深度神經網絡也取得了良好的效果。Ronneberger 等人提出了一種具有跳躍連接結構的U-Net,讓解碼層更好地利用編碼層獲得的特征信息;然而U-Net 的跳躍結構并不能有效利用這些結構信息,會影響血管分割的性能。代洋洋等人提出了UU-Net,借鑒了級聯U-Net 的構想,以U-Net 為核心模塊構建的U 形網絡,在U-Net 內部引入殘差結構代替普通卷積,使得網絡深度增加,能獲取更多的信息,同時延緩模型訓練中的梯度消失;在U-Net 模塊之間對特征圖進行Addition 或者Concatenation 操作,構建出多條傳遞信息的路徑,每一條傳遞信息的路徑實質是一個FCN(fully convolution network)變體。Zhang 等人提出AG-Net,將注意力機制加入了傳統的指導濾波器形成注意指導濾波器,可以從不同分辨率的特征圖中恢復空間信息和合并結構信息,去除引入的復雜背景中的噪聲成分。Liu 等人提出了一種無監督集成策略,通過無監督集成網絡將多個基礎網絡所得到的血管分割結果融合起來得到更好的分割效果。Li 等人提出IterNet,用標準U-Net 作為一個基礎架構,然后通過迭代的精簡U-Net 去發現更多的血管細節,可以將斷著的血管連接起來。

上述方法能夠有效地分割血管的主要部分,但是不能夠解決由于血管邊界非血管像素部分包含血管像素的一部分而使網絡誤將其分類為血管的問題。本文提出了一種基于編/解碼模式的眼底血管分割算法。通過在編碼階段使用GCN(global convolutional network)模塊和BR(boundary refinement)模塊替換傳統的卷積操作來解決血管邊界非血管像素誤分為血管的問題;為了改善低對比度下血管分割的效果,本文將文獻[10]中的注意力模塊進行了改進,在跳躍連接部分添加了改進后的位置注意模塊(position attention,PA)和通道注意模塊(channel attention,CA);還在編碼部分使用DenseNet,受劉辰等人將ConvLSTM 應用在醫學圖像分割,并且取得良好性能的啟發,在解碼階段使用ConvLSTM來更好地獲取特征信息,得到更好的分割效果。

1 相關工作

1.1 卷積長短記憶網絡

由于普通的循環神經網絡(recurrent neural network,RNN)無法解決長時依賴問題,還可能帶來梯度消失或梯度爆炸問題,為此Hochreiter 等人提出了長短記憶網絡(long short-term memory,LSTM)。已經證明,LSTM 能夠有效解決長序列依賴問題。

傳統的LSTM 在數據的處理上能力非常強,但是如果時序數據是圖像,傳統的LSTM 由于在輸入到端和端到端的轉換中使用的是全連接操作,不能夠有效獲取圖像的空間信息。為了解決這個問題,Shi 等人提出了ConvLSTM 模型,用卷積操作來替換全連接操作去實現從輸入到端和端到端的轉換。ConvLSTM的定義如下,其中,*表示卷積函數,°表示哈達瑪函數,是Sigmoid 函數,x是輸入張量、C是記憶張量、h是隱藏張量,bbbb是輸入、遺忘、激活和輸出狀態的偏置項,W是對應于輸入狀態的權重矩陣,W是對應于隱藏狀態的權重矩陣,tanh 是雙曲正切函數。

1.2 密集卷積網絡

在傳統的U-Net 中包含一系列的卷積操作來學習不同類型的特征,然而在這樣連續的卷積操作中會學習到一些冗余的特征,為了緩和這個問題,Huang等人提出了DenseNet結構。

DenseNet是受到殘差網絡(residual network,ResNet)的啟發而設計出來的。與殘差網絡的相同之處在于每一層的輸入與前邊層有關。主要不同之處是,ResNet 對于每一層,其輸入的特征是之前有限層的輸出。而DenseNet 對于每一層,其輸入的特征是之前所有層的輸出。并且每一層的輸出特征則作為之后所有層的輸入。DenseNet的結構如圖1所示。

圖1 五層的DenseNet模塊Fig.1 Five layers of DenseNet modules

圖1 顯示了一個包含五層,層寬度為=4 的稠密模塊,層與層之間的激勵函數(即H(·))為BNReLU-Conv(3×3)的結構。第層將它之前-1 層所輸出的特征圖[,,…,x]作為輸入:

其中,~x代表前面層的輸出。

1.3 全局卷積網絡和邊界細化

為了同時提升網絡在視網膜血管分割的定位和分類能力,本文引入了GCN 模塊,其結構如圖2 所示:它使用由1×與×1 和×1 與1×的卷積操作的結合來代替用×的卷積核進行卷積。其中、為圖片寬度和高度,為輸入圖片的通道數,為輸出圖片的通道數。與普通的×卷積相比,GCN 的計算復雜度和參數量只為(2/),得到了縮減。在本實驗中,的值為3,激活函數為ReLU。

圖2 全局卷積網絡Fig.2 Global convolutional network

因為血管邊界非血管像素含有部分血管像素,所以網絡將其誤分為血管像素等現象會使得血管邊界難以識別。為了提升網絡在血管邊界的分割能力,引入了BR 模塊,其結構如圖3 所示:其中、為輸入圖片的寬度和高度,為輸入圖片的通道數,為所用卷積操作對應的卷積核的大小,本文定義*為得到的特征圖*=+(),其中為輸入的特征圖,(·)是一個卷積核為×激活函數為ReLU 的卷積操作和一個卷積核為×沒有激活函數的卷積操作。經過(·) 得到的特征圖與輸入的特征圖進行Add 操作得到最終的特征圖。

圖3 邊界細化Fig.3 Boundary refinement

2 網絡結構與算法原理

2.1 網絡結構

本文提出的AtGBU-Net(Attention_GCN_BR_UNet)框架,如圖4 所示。本文算法采用編/解碼模式的網絡架構,因為傳統U-Net 的卷積操作不能精確地對血管邊界進行分割,并且不能兼顧在眼底血管分割任務中同時需要的定位和分類能力,所以在編碼部分用GCN+BR 來替換傳統的卷積運算。為了解決在低對比度情況下將血管與背景分隔開,本文采用了兩種方式:一種是對圖像進行了預處理,提高了圖像的對比度并且緩解了中心血管線反射的現象;另外一種是在跳躍連接部分加入了改進的自適應注意力機制,將包含更豐富空間信息和語義信息的特征圖結合起來,從而去除背景中的噪聲部分。為了防止過擬合,在編碼的最后一層采用DenseNet的思想。為了更好地提取特征,在解碼部分加入了ConvLSTM。

圖4 網絡結構Fig.4 Network mechanism

編碼部分主要負責對特征圖進行特征提取。主要包括四層:前三層的每一層由一個GCN 模塊和BR模塊構成;再加上批歸一化層(batch normalization,BN),BN 有助于加快網絡的訓練速度,并且提高模型的訓練精度,歸一化的結果再通過最大池化將特征映射輸出到下一層;最后一層使用DenseNet 模塊,它能夠通過信息的流動性和重復利用性來提高網絡的表示能力,而且可以從之前產生的所有特征中受益,使網絡避免梯度爆炸或者消失的風險。在本文中,將兩個連續的卷積作為一個Dense 塊,Dense 塊的個數為3,也就是圖4 中的值為3,對上一層的特征映射經過3 個Dense 塊,其中每個Dense 塊中的卷積核尺寸為3×3,使用ReLU 作為激活函數,在每經過一個Dense 塊后都進行一次Dropout 操作。解碼部分主要負責對提取后的特征進行上采樣。在本文中,將上采樣和對應編碼層的特征圖分別執行改進的PA 和CA 操作,然后進行級聯操作;在級聯操作后,進行一次ConvLSTM 操作和2 個卷積操作;其中ConvLSTM和卷積操作的激活函數為ReLU,卷積核的尺寸為3×3;經過上采樣之后,得到和輸入圖像分辨率相同的特征圖,再經過1 個卷積核數目為2,卷積核尺寸為3×3,激活函數為ReLU 的卷積操作,和1 個卷積核數目為1,激活函數為Sigmoid,卷積核尺寸為1×1 的卷積操作獲得最終的分割結果,實現端到端的分割。

2.2 算法原理

Fu 等人提出了一種具有自注意機制的雙注意網絡(dual attention network,DANet),通過位置注意模塊來學習特征的空間相關性,通過通道注意模塊來學習通道相關性。為了更好地提升眼底血管的分割效果,本文對以上兩個模塊進行了改進,取消模塊的自適應機制,還可以得到包含更多語義信息和空間信息的特征圖,與原始的模塊相比,網絡的復雜度也得到了降低。

為了使上采樣獲取的特征圖包含更多的語義信息,本文在進行反卷積操作后加入了PA 模塊。與文獻[10]中的PA 不同,本文取消了PA 中的自適應操作,PA 模塊結構如圖5 所示,特征圖∈R直接通過Reshape 操作得到∈R和∈R,取消卷積操作;和進行矩陣相乘得到包含豐富語義信息的特征圖∈R;將與進行矩陣相乘并進行Reshape 操作得到∈R;將得到的與直接進行Add 操作和BN 操作得到最終的特征圖∈R

圖5 位置注意模塊Fig.5 Position attention module

為了使對應編碼器的特征圖包含更多的空間信息,本文在進行跳躍連接前加入了CA 模塊。與文獻[10]中的CA 不同,本文主要采用與提出的CA 類似的操作,其結構如圖6 所示,將特征圖∈R直接通過Reshape操作得到∈R和∈R;和進行矩陣相乘得到包含豐富空間信息的特征圖∈R;將與進行矩陣相乘得到∈R;將得到的與直接進行Add 操作和BN操作得到最終的特征圖∈R

圖6 通道注意模塊Fig.6 Channel attention module

3 實驗結果與分析

3.1 實驗數據集

在DRIVE、CHASE_DB1兩個視網膜眼底血管的公共數據集上對本文方法進行訓練和測試。

DRIVE 數據集包括視網膜的40 幅彩色眼底圖像,這些圖像來自荷蘭的一個糖尿病視網膜病變篩查項目,每幅圖像的像素為584×565。本文將40 幅圖像的前20 幅圖像用于訓練,其余20 幅圖像用于測試。對數據集中的每幅圖像都提供了二值視場mask和GT 圖像。

CHASE_DB1 數據集有28 張視網膜彩色圖像,每幅圖像的像素大小為999×960。本文中,前14張圖像用于訓練,其余14 張圖像用于測試。對CHASE_DB1中的28 幅圖像都提供了分割的GT 圖像。

由于眼底視網膜數據集的數據量較少,而深度學習需要大量的數據集才能有更好的效果,本文對訓練集進行了數據增強,包括旋轉和鏡像操作。對于DRIVE 數據集的20 張訓練集圖像和CHASE_DB1 的14 張訓練集圖像,擴充后,整個訓練集分別有1 200張584×565 圖像和1 680 張999×960 圖像,并且對訓練集的圖片進行了分割,每張圖片都切割為64×64 尺寸的patch塊;最后將DRIVE訓練集擴充成了120 000張64×64 尺寸的patch 塊,將CHASE_DB1 訓練集擴充成了168 000 張64×64 尺寸的patch 塊。對于擴充后的訓練數據集,其中80%用于訓練,20%用于驗證。測試集圖片只進行了圖像預處理和切片操作,沒有進行數據增強,算法得到的64×64 尺寸的patch 塊再合并成對應的圖片。

3.2 實驗環境

本文實驗是在Keras2.3.1 下進行的。使用he_normal 方法對權重進行初始化,采用二分類交叉熵損失函數,學習率使用Keras 中的回調函數ReduceLROnPlateau 來進行調整,通過檢測值的變化幅度來調整分辨率,本文的檢測值是驗證集損失;采用Adam 優化器更新參數;并用Keras 中的回調函數ModelCheckpoint 來保存最優模型,它的原理是通過判斷一個指標來決定是否更新模型參數;本文中取驗證集損失最小的模型;訓練與測試的Batchsize 分別取8 和16。

3.3 評價指標

為了評估本文算法的性能,選用敏感性()、準確性()和1-來評價本文算法的性能,評價指標的定義如下:

其中,真陽性(true positive,TP)表示將血管正確分類的像素點數;真陰性(true negative,TN)表示將背景正確分類的像素點數;假陽性(false positive,FP)表示將背景錯誤分類的像素點數;假陰性(false negative,FN)表示將血管錯誤分類的像素點數。

還通過受試者工作特征(receiver operating characteristic,ROC)曲線來評價。ROC 曲線以真陽性率為縱坐標,假陽性率為橫坐標。(area under ROC curve)面積是ROC 曲線與橫軸之間的面積,的值越接近1 表示模型的分割能力越好。

3.4 實驗結果

韓鋮惠等人通過對圖像進行預處理增加前背景對比度,來提高分割性能。由于在采集視網膜圖像的時候會受到光照不均勻等因素的影響,從而造成血管與圖像背景的對比度較低,而且有血管中心線反射等問題,因此本文對眼底視網膜圖像進行圖像預處理來提高血管與背景的對比度。具體步驟如下:

(1)將RGB 形式的眼底視網膜血管圖像轉換為對應的灰度圖像。

(2)將灰度圖像進行自適應直方圖均衡化,去提升血管與背景的對比度并且抑制噪聲。本文中,顏色對比度的閾值設置為10.0,進行像素均衡化的網格大小設置為(8,8)。

(3)利用局部自適應伽馬矯正,將視網膜圖像進行矯正,使得光照不均勻因素與中心線反射現象加以抑制。本文中,伽馬因子設置為1.0。

經過預處理,圖像變為了灰度圖像,血管與背景的對比度增加,血管中心線反射的問題得到了抑制。預處理結果如圖7 所示。圖7 左為原始圖片,圖7 右為預處理后的圖片。

圖7 預處理結果Fig.7 Preprocessing results

在數據集上是否預處理結果如表1 所示。通過預處理提高了血管和背景的對比度,網絡可以更容易地學習血管和背景的區別,從而將背景誤分為血管的像素點數減少,因此預處理后的精度明顯高于未預處理的精度,尤其是敏感性指標上。

由于網絡得到的是一張二維的灰度圖,是血管分布的概率圖,本文通過最大類間方差算法自動地尋找最佳閾值,來進行閾值分割實現二值化。通過后處理,背景被誤認為血管的像素減少,缺點是會把部分血管誤認為背景,但是后處理之后的圖像,血管部分與GT 相比差距不大,與后處理前的圖像相比噪聲問題也得到了有效的解決,后處理前后對比如圖8所示,其中圖(a)、圖(b)和圖(c)分別是GT 和后處理前后的結果,可以看出圖(c)相比于圖(b)少了很多的噪聲點,可是也會把一部分血管像素給去除掉。后處理結果如表1 所示,通過后處理,算法的性能得到了提升,進一步驗證了后處理的效果。

表1 預/后處理結果比較Table 1 Comparison of pre/post processing results %

圖8 后處理結果Fig.8 Post-processing results

為了驗證本文提出的改進策略可以有效提高算法在視網膜血管上的分割性能,本文做了三組對比實驗來說明GCN+BR、ConvLSTM、CA+PA 可以在一定程度上提高算法的分割性能。

多種改進策略結果如表2 所示。本文利用對稱的可分離的濾波器GCN 和BR 模塊作為一個邊界對齊的殘差模塊來代替傳統的卷積操作提升算法在血管邊界的分割能力,性能得到了較大的提升,尤其是和指標。本文在解碼部分通過利用ConvLSTM 的長時記憶能力來解決算法的梯度消失問題,使算法更好地提取特征信息,從而提升分割性能。為進一步提升算法的分割性能,通過加入CA 使解碼器以不同程度的權重利用到編碼的所有信息,并且在上采樣部分加入PA 來提升所獲特征圖的語義信息。為了防止過擬合問題,在編碼層的最后一層使用密集卷積網絡的思想。表2 的結果驗證了本文算法的有效性。

表2 多種改進策略的分割算法的比較Table 2 Comparison of segmentation algorithms of several improved strategies %

為了更好地驗證本文算法的性能,本文將在DRIVE 數據集和CHASE_DB1 數據集上把提出的分割算法與一些最先進的算法進行比較,算法性能都是算法對應論文中的性能,不同分割算法在DRIVE數據集和CHASE_DB1 數據集上的比較結果分別如表3、表4 所示。

表3 DRIVE 數據集不同算法的結果Table 3 Results of different algorithms on DRIVE dataset

表4 CHASE_DB1 數據集不同算法的結果Table 4 Results of different algorithms on CHASE_DB1 dataset

由表3 可以看出,本文在DRIVE 數據集上的、、和1的評價結果分別達到83.24%、96.99%、98.77%、82.91%,均優于其他算法。和基準的U-Net 相比,所有指標都取得了更好的性能,而且有較大的差距。由表4 可以看出,本文在CHASE_DB1 數據集上的、和1的評價結果分別達到97.51%、99.01%、83.55%,均優于其他算法。與基準的U-Net 相比,4 個指標中的三方面都取得了更好的性能,除了有些低于U-Net。為了更好地說明本文算法的有效性,圖9 顯示了本文方法在兩個數據集上的可視化分割結果。其中,第一列為原始RGB 眼底視網膜測試圖像,第二列為GT 圖片,第三列為U-Net 的分割結果,第四列為本文算法結果,前兩行為在DRIVE 數據集上的預測結果,后兩行為在CHASE_DB1 數據集上的預測結果。可以發現,本文算法能夠識別血管的主要部分,相較于U-Net,可以發現更多的血管末梢部分。以上結果說明了本文算法在血管分割方面的強大能力。

圖9 不同模型的分割結果Fig.9 Segmentation results of different models

4 結束語

針對視網膜血管分割中分割血管邊界和低對比度區域的問題,本文提出了一種引進注意力機制的邊界細化網絡。在下采樣過程中將原始的卷積層替換為全局卷積和邊界細化,使網絡更好地分割血管邊界,同時也提升網絡的定位和分類能力;在跳躍連接部分引入注意力,將血管與背景的差別變大,提高血管的分割效果;在編碼的最后一層使用DenseNet思想緩解過擬合問題,在上采樣過程使用ConvLSTM提升網絡的特征提取能力。實驗結果表明,本文在DRIVE 和CHASE_DB1 這兩個數據集上相較于傳統U-Net能夠取得更好的分割效果。

猜你喜歡
特征
抓住特征巧觀察
離散型隨機變量的分布列與數字特征
具有兩個P’維非線性不可約特征標的非可解群
月震特征及與地震的對比
如何表達“特征”
被k(2≤k≤16)整除的正整數的特征
中等數學(2019年8期)2019-11-25 01:38:14
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
詈語的文化蘊含與現代特征
新聞傳播(2018年11期)2018-08-29 08:15:24
抓住特征巧觀察
基于特征篩選的模型選擇
主站蜘蛛池模板: 中文字幕久久精品波多野结| 波多野结衣第一页| 她的性爱视频| 无码啪啪精品天堂浪潮av| 日韩精品专区免费无码aⅴ| 免费A级毛片无码免费视频| 国产高潮流白浆视频| AV无码无在线观看免费| 免费A∨中文乱码专区| 91久久青青草原精品国产| 欧美啪啪视频免码| 老司机久久99久久精品播放| 91视频首页| 国产福利影院在线观看| 久久免费视频播放| 综1合AV在线播放| 国产欧美视频一区二区三区| 久久综合干| 免费xxxxx在线观看网站| 国产一二三区在线| 99国产精品免费观看视频| 亚洲天堂2014| 国产91视频观看| 日本影院一区| 欧美午夜视频在线| 九月婷婷亚洲综合在线| 欧美精品三级在线| 爱爱影院18禁免费| 日韩精品毛片人妻AV不卡| 亚洲高清中文字幕在线看不卡| 无码内射中文字幕岛国片| 91伊人国产| 天天综合网亚洲网站| 免费看a级毛片| 精品一区二区三区水蜜桃| 国产精品自在在线午夜| 在线毛片网站| 久久综合激情网| 日韩在线欧美在线| 日韩亚洲高清一区二区| 国产精品视频观看裸模 | 99精品伊人久久久大香线蕉| 精品视频91| 黄片一区二区三区| 亚洲人妖在线| 在线观看国产精美视频| 在线不卡免费视频| 毛片基地视频| AV熟女乱| 国产精品亚洲综合久久小说| V一区无码内射国产| 日韩第八页| 亚洲欧洲日产国码无码av喷潮| 国产黑丝一区| 国产99免费视频| 69av免费视频| 亚洲精品国偷自产在线91正片| av天堂最新版在线| 99资源在线| 亚洲最大福利网站| 亚洲精品va| 国产精鲁鲁网在线视频| 无码综合天天久久综合网| 一区二区三区精品视频在线观看| 91精品小视频| 中文字幕在线一区二区在线| 亚洲aaa视频| 夜夜操天天摸| 国产青榴视频| 国产亚洲精品97在线观看| 日韩美女福利视频| 粗大猛烈进出高潮视频无码| 亚洲日韩精品欧美中文字幕| 久久国产精品国产自线拍| 国产va免费精品观看| 91成人在线免费观看| www.av男人.com| www精品久久| 亚洲AⅤ永久无码精品毛片| 精品人妻一区二区三区蜜桃AⅤ| 大陆国产精品视频| 亚洲国产欧洲精品路线久久|