999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進U-Net的視網膜血管分割方法研究

2023-01-13 11:29:22黃文博
長春師范大學學報 2022年12期
關鍵詞:特征模型

郭 峰,黃文博,燕 楊

(長春師范大學計算機科學與技術學院,吉林 長春 130032)

0 引言

眼底視網膜血管是人體唯一可以用肉眼直接觀察到的血管,借助先進醫學設備可以采集較為清晰且分辨率較高的彩色視網膜圖像。眼底圖像具有分布不均勻、血管結構高度復雜等問題,醫生在依據眼底圖像給病人診治時,僅憑肉眼無法對患者的病癥程度做出精確診斷。因此研究一種高效、精準的視網膜血管圖像自動檢測分割算法愈發重要,對輔助診斷各種眼科疾病具有重要意義與價值。

目前國內外研究人員提出了很多視網膜血管分割方面的解決方案,按照研究方法的不同,可大致劃分為無監督學習與有監督學習兩大類。無監督學習無需借助公共數據庫提供的標簽數據,與有監督學習算法相比,其優勢在于可以挖掘圖像數據中的特征信息及概率分布。早期CHAUDHURI等[1]提出基于匹配濾波器的方法,結合高斯濾波器對圖像濾波,綜合血管寬度、方向及曲線等因素對視網膜血管進行分析,但是該方法容易受到病變區域像素影響,從而降低血管分割的準確性。YAN等[2]基于厚血管和薄血管之間不平衡以及特性方面的差異,提出了一種網絡模型。該模型分三階段運行,首先分割厚血管,然后分割薄血管,最后將兩次的分割結果結合,從而有效地提取薄血管的特征信息,提升了模型整體的分割精度。FAN等[3]采用分層摳圖的方法實現血管與背景之間的劃分,先用區域特征的方法將圖像劃分為血管與非血管,接著使用分層圖像摳圖模型對視網膜血管進一步區分,不僅整體方法的計算時間較少,而且分割的準確率也優于多數無監督學習的分割方法。

在血管分割方面,一般監督學習方法比無監督學習方法有著更好的分割效果,監督學習方法將眼科專家標記好的血管數據樣本作為訓練集,根據訓練后得到的數據對血管與非血管像素進行分類判斷。如RICCI等[4]

采用支持向量機(Support Vector Machines,SVM)的方法并結合直線檢測器對輸入樣本圖像的像素進行分類,該方法的優點是算法實現較為簡單,并且具有較好的魯棒性,對比相對較少的樣本信息就可以提取血管的圖像特征。朱承璋等[5]在隨機森林模型的基礎上融入了多特征融合算法,從輸入圖片提取出包含二三維特征向量的灰度共生矩陣,構建特征矩陣對像素點進行分類處理,提高了血管分割的連續性和準確性。包含K近鄰[6]、AdaBoost在內的多種分類器已經成功應用在視網膜血管分割領域。

隨著圖像分割技術的快速發展,深度學習逐漸在圖像處理領域展現了自身優勢,卷積神經網絡(Convolutional Neural Networks,CNN)[7]開始應用于醫學圖像的研究。2015年,LONG等[8]在CNN模型的基礎上提出全卷積神經網絡(Fully Connected Neural Network,FCN),由此進入語義分割圖像的階段。FCN與其他模型的不同之處在于它可以處理任何尺寸大小的圖像,通過反卷積對卷積層的特征圖信息進行采樣預測,提升了算法的魯棒性和精確性。模型的缺點是FCN把像素看作獨立的個體而忽略了空間關系,上采樣過程中采樣結果不夠平滑精細,對于圖像中細節部分處理達不到精細水準。RONNEBERGER等[9]提出包含編碼與解碼結構的U-Net網絡,網絡模型的整體框架是由四次下采樣結合四次上采樣[10]串聯起來形成的U型結構。編碼器部分收集好的微小血管信息通過跳躍連接傳輸到解碼器部分,這樣在回傳的信息中既包括解碼器的語義信息,也包括從同層編碼器提取的特征信息,因此獲得了更加全面的信息,得到了質量更好且更加精準的圖像分割性能。

1 網絡模型

1.1 網絡結構與方法

U-Net作為當下熱門的醫學圖像的研究方法之一,有著獨特的編碼-解碼結構,通過四次下采樣與四次上采樣,加上激活函數的輔助作用完成對圖像的分割。雖然U-Net模型取得了較好的性能,但在視網膜血管分割方面仍存在不足之處。例如,在進行卷積操作時,由于卷積核的感受野范圍較小不能充分地提取血管特征,從而使微小血管識別不敏感,降低了整體的分割精度;在進行采樣操作時會產生梯度消失的問題,網絡模型的深度越大對模型的整體性能影響越大。

為解決上述問題,在U-Net模型的基礎上引入可變形卷積模塊[11](Deformable Convolutional Networks,DCN)和循環殘差卷積模塊[12](Recurrent Residual Convolutional Neural Network,RRCNN)對視網膜圖像特征進行優化,增強對血管特征信息的提取,模型的結構如圖1所示。視網膜血管分割中最難處理的就是微小血管,本文提出將卷積層替換成可變形卷積模塊來解決卷積操作時感受野不足的問題,增強卷積核對微小血管的分割敏感度。引入循環殘差卷積模塊,其殘差網絡可以有效地解決梯度[13]消失問題,處理噪聲問題增強模型對血管特征信息的提取,結合U-Net自身的編解碼結構,達到較好的血管分割效果。

圖1 模型結構

1.2 可變形卷積模塊

與傳統卷積相比,可變形卷積實質是在采樣過程中在圖像位置上增加了一個偏移量,卷積核的采樣位置是可變的,卷積核在執行過程中擴展到更大范圍。改變采樣位置的方法是需要先計算及預測圖像中哪些位置需要進行采樣,然后特征圖在經過卷積操作后生成特征矩陣,其作用是控制卷積核上的采樣點如何移動及變化,可變形卷積模塊如圖2所示。通過卷積操作后帶偏移值的坐標值來確定像素點,通過雙線性差值[14]計算得到新的特征圖直接作為卷積層的輸出并作為下一卷積層的新輸入。

圖2 可變形卷積模塊

下面給出雙線性差值的計算公式。

已知A11,A21,A12,A22,P的坐標及其像素值,計算x方向的單線性插值:

(1)

(2)

計算y方向的單線性插值:

(3)

綜合x方向與y方向的雙線性插值的結果:

(4)

在可變形卷積中通過雙線性插值計算偏移量并設定好采樣位置,其中偏移量是根據卷積層產生的特征圖演變而來,由此可知,可變形卷積能夠適應任意尺度、形狀、方向的特征圖像。

1.3 循環殘差卷積模塊

循環殘差卷積模塊中的殘差網絡有效解決了梯度消失問題,需要進行多次相同的卷積操作,從一定程度上提升分割的性能,循環卷積基本單元結構如圖3所示。

圖3 循環卷積基本單元結構

(5)

計算在標準的激活函數中經過循環殘差卷積層處理后的特征輸出:

(6)

其中,F(x1,w1)表示來自輸出第n層循環卷積單元,F(x1,w1)的輸出分別用于模型的下采樣層與上采樣層。計算循環卷積模塊中的輸出xn+1:

xn+1=x1+F(x1,w1),

(7)

其中,x1表示循環卷積模塊的輸入樣本,xn+1樣本直接作為下一循環卷積模塊上采樣層的輸入。

2 實驗結果與分析

2.1 數據集及數據擴充

本文實驗選用公開數據集DRIVE,圖像來自荷蘭的糖尿病視網膜病變篩查項目。數據集分為訓練集和測試集兩部分,各有20張不同的彩色眼底圖像,均為經驗豐富的眼科專家醫生手動分割的血管圖像。由于DRIVE數據集的圖像較少,為了增加訓練時的數據樣本數量,并且防止出現過擬合現象,對原始數據集圖像進行分塊處理,劃分為48×48像素的子塊,接著從處理后的圖像子塊中隨機抽取作為訓練塊,并使用部分訓練樣本作為驗證數據。

2.2 圖像預處理

深度神經網絡已經可以有效處理原始的視網膜圖像數據,但為了突出更多的微小血管特征,提高血管分割的準確性,選擇對眼底圖像進行預處理操作。通過對比,選取血管對比度最高的綠色單通道灰色圖像,接著對灰色圖像進行歸一化與自適應直方圖均衡化處理,增強血管特征的對比度,最后對圖像引入伽馬校正來減少噪聲,并且提高圖像的整體細節特征。每一步預處理后的圖像如圖4所示,通過對比可以看出,預處理后的圖像血管特征與對比度更加突出,將對分割性能的提升有較大作用。

圖4 預處理結果

2.3 評價標準

為了全面客觀地對比分析本文算法的性能,采用準確性(Accuracy,ACC)、敏感性(Sensitivity,SE)、特異性(Specificity,SP)與ROC曲線下的面積(AUC)等重要指標作為衡量標準。

(8)

(9)

(10)

AUC=P(PTP>PFP).

(11)

其中,TP(真陽性)表示正確分類為血管的像素數量;FP(假陽性)表示錯誤分類為血管的像素數量;FN(假陰性)表示錯誤分類為非血管的像素數量;TN(真陰性)表示正確預測為非血管的像素數量;AUC值是預測正樣本排在負樣本前的分類概率,其值域區間為[0,1],數值越接近1,算法的分割性能越好。

2.4 實驗結果對比分析

本文算法的分割結果如圖5所示。對比本文實驗結果圖與專家手動分割的標準圖,兩者的血管特征信息基本一致,可以分割出血管末端的微小血管分支,可以看出運用本文算法得到較好的視網膜血管分割效果。

(a)原始圖像

(b)預處理圖

(c)專家手動分割標準圖

(d)實驗結果圖圖5 實驗結果對比圖

在U-Net模型引入可變形卷積和循環殘差卷積模塊后,模型性能得到明顯提升,為了系統地評估算法性能,將本文實驗結果與目前主流的較為先進的算法[15-17]進行對比,結果如表1所示。本文方法結果均高于原始的U-Net方法結果,并且敏感性達到79.63%,準確性達到95.59%,AUC值達到了97.89%,均高于其他文獻的方法(表1)。其中特異性數值略低于Residual U-Net模型,可能是在多次卷積后圖形特征細節發生輕微變化,圖像產生少量的噪聲造成模型的特異性值降低。綜合對比可知,本文方法的分割效果較好,證明改進模型后,模型性能得到了提升,改進了視網膜血管分割的效果。

表1 在DRIVE數據集上本文方法和其他方法的對比

3 結語

針對視網膜圖像中微小血管難以精確分割的問題,本文以U-Net為基礎模型提出一種基于可變形卷積和循環殘差卷積模塊的視網膜血管分割算法。將傳統的卷積層替換成可變形卷積層,可以提高卷積核的感受野范圍,更好地捕捉血管特征信息。在網絡上采樣過程中加入循環殘差卷積模塊,有助于訓練深層網絡架構。循環殘差卷積層更好地提升了對血管特征的提取效果,有效地解決梯度消失的問題,有利于更完整地提取微小血管的特征信息,減少噪聲的干擾,從而提升模型的分割效果。通過DRIVE數據集上大量實驗數據的對比,充分證明了本文算法在視網膜血管分割方面體現出較大的優勢。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學特征認識
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 中国国产高清免费AV片| 国产成人AV综合久久| 亚洲AV无码一区二区三区牲色| 国产福利在线免费| 日韩无码视频播放| 91精品国产一区自在线拍| 欧美日韩国产高清一区二区三区| 国产精品免费露脸视频| 黄色a一级视频| 日韩 欧美 小说 综合网 另类| 日韩精品高清自在线| 一级福利视频| 黄色网址手机国内免费在线观看| 99热6这里只有精品| 亚洲精品第五页| 伊人久久久久久久久久| 国产日韩欧美成人| 国产精品露脸视频| 波多野结衣一区二区三视频| 亚洲第一天堂无码专区| 久热re国产手机在线观看| 国产成人精品18| 久久99国产综合精品女同| 丁香婷婷激情网| 欧美成一级| 四虎免费视频网站| 色婷婷电影网| 国产一在线观看| 天堂网国产| 久久毛片网| 在线观看网站国产| 26uuu国产精品视频| 日韩精品一区二区三区免费在线观看| 午夜福利无码一区二区| 91年精品国产福利线观看久久 | 国产精品黑色丝袜的老师| 在线不卡免费视频| 99ri精品视频在线观看播放| 久久精品国产999大香线焦| 无码免费视频| 免费看的一级毛片| 国产女人在线观看| 国产网站在线看| 日本免费一级视频| 嫩草影院在线观看精品视频| 免费xxxxx在线观看网站| 亚洲大学生视频在线播放| 91在线日韩在线播放| 亚洲精品自产拍在线观看APP| 成人午夜亚洲影视在线观看| 成人在线亚洲| 国产精品部在线观看| 99在线观看精品视频| 伊人久久婷婷五月综合97色| 婷婷伊人久久| 毛片a级毛片免费观看免下载| 国产日本一区二区三区| 97人妻精品专区久久久久| 成色7777精品在线| julia中文字幕久久亚洲| 国产jizzjizz视频| 亚洲天堂免费在线视频| 国产成人无码Av在线播放无广告| 尤物视频一区| 2020极品精品国产| 五月婷婷导航| 亚洲免费黄色网| 欧美亚洲激情| 亚洲国产中文综合专区在| 男女男精品视频| 尤物成AV人片在线观看| 五月天福利视频| 最新精品久久精品| 久久黄色一级视频| 99草精品视频| 亚洲欧美成人网| 国产成人三级在线观看视频| 在线免费看黄的网站| 午夜性刺激在线观看免费| 在线看片中文字幕| 欧美成在线视频| 午夜无码一区二区三区在线app|