999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的眼底病變區域自動分割*

2022-02-16 08:32:46韓俊剛祝立陽湯少杰
計算機與數字工程 2022年1期
關鍵詞:分類區域方法

李 倩 韓俊剛 賈 陽 魏 強 祝立陽 湯少杰 石 蕊

(1.西安郵電大學計算機學院 西安 710121)(2.陜西省大數據智能處理重點實驗室 西安 710121)(3.西安郵電大學自動化學院 西安 710121)(4.陜西省人民醫院眼科 西安 710068)

1 引言

黃斑是人眼中對光線最敏感的凹形區域,黃斑水腫是很多視網膜疾病的發病前兆。導致黃斑水腫的常見疾病有糖尿病視網膜病變(DME)[1]和年齡相關性黃斑病變(AMD)[2]等。因此,從眼底圖像中檢測黃斑水腫是非常有必要的。

在醫學診斷領域,由于其無創性、無輻射、非侵入、高分辨率、高探測靈敏度、圖像獲取安全高效等特點,光學相干層析成像(Optical Coherence Tomography,OCT)已廣泛應用于視網膜疾病的臨床診斷與科學研究中[3]。在OCT 眼底視網膜液體圖像中分析黃斑液體變化,已有多個研究小組開展了研究。Fernandez 等[4]用梯度矢量流模型得到視網膜液體區域面積,該方法抗噪性能較差且分割過程耗時。Dolejsi 等[5]對伴隨濕性年齡相關性黃斑變性的癥狀性滲出相關的紊亂積液區域進行分割,但是最終分割效果不夠理想。Wilkin 等[6]采用視網膜囊腫分割技術在OCT 圖像中自動分割出囊腫積液區域。文獻[4]~[6]方法本質上是相同的,都是在分割前標記出感興趣區域。Ahler 等[7]使用OCT 檢測纖維組織的色素上皮層脫離的位置并測量其體積。Quellec 等[8]采用分類方法在二維譜域OCT 圖像中檢測癥狀性滲出相關的紊亂積液區域。Penha等[9]采用Cirrus譜域OCT成像系統及其自動測量算法測量色素上皮層脫離的面積和體積。Zheng等[10]使用一個交互式分割方法來定量分析37 個譜域OCT 圖像中滲出性年齡相關性黃斑變性視網膜的上/下積液區域。何錦濤等[11]用改進的水平集方法進行糖尿病視網膜黃斑水腫區域分割。文獻[8]~[11]方法本質上是相同的,但都是單任務病變區域分割。Chiu 等[12]提出一種關于層和視網膜液分割的方法,該方法僅能從層信息的SRF中分離出視網膜內囊樣液體。Roy 等[13]提出了一種端到端學習框架ReLayNet,用于分割人眼OCT 圖像中的多個視網膜層和描述液囊,但該方法在訓練過程中操作比較復雜且分割效果仍不夠理想。Lee 等[14]使用U-Net 深度網絡框架進行流體分割,不需要分層,但該方法無法區分視網膜間和視網膜下液體類型。

綜上所述,這些分割方法基本上都存在計算量大、耗時多、分割任務單一等缺點。因此急需一種計算量小、多任務的自動分割方法。本文通過一種基于深度卷積神經網絡(CNN)的先分類后分割的眼底病變區域自動分割方法,實現了視網膜水腫(REA)、視網膜下液(SRF)和色素上皮剝離(PED)三類液膜的精準自動分割。

2 方法

本文提出一種基于深度學習的眼底病變區域自動分割方法。首先使用遷移學習InceptionV4 模型對數據集進的病變類型分類,然后在將分類結果用GAN進行OCT圖像病變區域自動分割。

2.1 數據集

視網膜水腫圖像數據集是從全球AI 挑戰賽網 頁 上 獲 取 的(https://challenger.ai/competition/fl2018)。將數據集中70 組作為訓練集、15 組作為測試集、15 組作為驗證集。數據集中原始圖像格式為OCT,圖像矩陣大小為512×1024 像素。為了平衡網絡計算,保留足夠的圖像信息,將OCT 圖像轉換為JPG 格式,并將圖像矩陣大小調整為512 像素×512像素。

整個數據集中病變數據分布嚴重不均衡,需要進行均衡增強。在預處理過程中,將像素灰度值歸一化到0~255 間,然后使用圖像熵提取圖像上的感興趣區域,對包含有用信息的圖像塊進行采樣,再對這些圖像塊用直方圖均衡算法進行有針對性的均衡增強。

圖1 圖像尺寸調整

2.2 分類網絡構建

圖2 展示了幾個視網膜水腫病變典型OCT 圖像切片。由于每張OCT 圖像切片中的病變區域形態存在較大差異,若直接使用神經網絡進行自動分割,很難做到對每張OCT圖像切片中病變區域的完美分割。考慮到目標區域的不同,首先對所有OCT圖像切片進行病變類型的分類,降低水腫病變區域差異性,提高基于GAN 的自動分割效果。為了提高視網膜水腫區域圖像的自動分割精度,對PED、SRF與REA等進行如表1中的分類編碼。

圖2 視網膜典型OCT圖像切片

表1 分類編碼標簽

InceptionV4是一個多尺度CNN,網絡結構如圖3 所示。Google 在2017 年提出InceptionV4 模型[15],并在ILSVRC 數據集上進行測試驗證,實現了3.08%的錯誤率。該模型由Inception Module 和Reduction Module 組合而成,通過進行多次卷積和非線性變化,擴增網絡性能。通過對InceptionV4 使用不同卷積核提取圖像特征,進行水腫類型的分類,可將所有OCT 圖像切片分為None、PED alone、REA+SRF、REA+PED、All不同類別。

圖3 InceptionV4分類網絡結構圖

2.3 生成對抗網絡

GAN由Goodfellow等[16]于2014年提出,該模型繞過了求解似然函數的困難,直接生成樣本擬合訓練數據的分布。GAN 由生成器G和判別器D 構成,生成器G 使用隨機噪聲z 作為輸入,并將其映射到樣本空間。判別器D 判斷出輸入樣本是真實數據還是生成數據。兩者交替訓練直到達到納什平衡,訓練流程如圖4 所示。最終生成器G 生成的數據分布與真實樣本的分布非常接近。

圖4 生成對抗網絡結構圖

GAN 本質是一個二元極大極小博弈優化問題,數學描述如下:

其中x 代表真實數據。當判別器D 的輸入為真實樣本時,其輸出D(x)接近1,即為真;當判別器D 的輸入來源于生成器G 時,輸出D(G(z))接近于0,即為假。

2.3.1 生成器

為了使得生成模型能夠分割視網膜水腫病變區域,需要對原始GAN 進行相應改進。網絡輸入為原始視網膜水腫圖像,輸出是對應水腫區域標記圖像。同時加入了L1 懲罰項,讓生成的圖像邊緣更加合理,損失函數定義如下。

圖5 生成對抗網絡結構圖

其中x和y分別表示輸入水腫圖像和所對應標記圖像。λ1和λ2分別用來平衡對抗網絡損失和懲罰項。

由于U-Net在醫學圖像分割上的優良性能,本文將其用作生成器。淺層CNN 可以提取圖像低層次特征,這些低級特征可在輸入和輸出間被大量共享,本文使用了跳遠連接(Skip Connection)來實現該功能,對于n 層的網絡結構,將第i 層和n-i+1 層進行連接,將低級特征直接連接到反卷積層,提高分割結果的空間分辨率與準確性。

2.3.2 判別器

在判別模型中,判別器D 通過CNN 提取不同視網膜水腫圖片特征上的差異作為判別依據,輸入為真實樣本數據時,輸出接近1,輸入為生成數據時,輸出接近0。在網絡中加入批標準化層,降低初始化參數對訓練結果的影響、加快訓練速度。同時使用Leaky-ReLU 作為非線性激活函數,帶步幅(Strided=2)的卷積層代替池化層(pooling)。在判別模型中,數據首先經過合并層,然后依次流經卷積層、批標準化層,最后經過全連接層輸出分類概率。

3 實驗

3.1 參數與配置

本文使用Adam 優化器來進行梯度下降,學習率為0.0002,minibatch = 1,迭代次數為300。實驗環境為DGX-1 服務器,配置8 個Tesla V100 GPU,2個Intel Xeon處理器,512GB內存。訓練時長為6小時23分鐘。

3.2 定性評價

圖6 中A~D 這四行分別是從不同病變類型的OCT 切片層中抽取的,第一列是原始OCT 圖像,第二列是醫生的標注圖像作為金標準,第三列是使用L1 正則化的損失函數作為目標函數的分割結果,第四列是使用L2 正則化的分割結果。從L1 和L2結果對比可見,L1 分割結果輪廓與真實值間的吻合度要比L2 分割結果輪廓更好。從B~D 行可見,使用L2 正則化可能將水腫區域錯誤地分割為背景區域。

圖6 原始OCT圖像、作為金標準的醫生標注圖像、自動分割結果

3.3 定量評價

為了客觀地驗證本文方法的性能,首先對不同分類結果進行對比,然后將使用GAN 與水平集方法的分割結果進行比較,并通過精確度(Precision)、靈敏度(Sensitivity)和Dice 相似性系數(Dice similarity coefficient)、召回率(Recall)等評價指標進行定量評價。Dice相似性系數定義如下:

其中X 為G 輸出分割結果的眼部水腫像素集,Y 為真實圖像的眼部水腫像素集。Dice 相似性系數越大,兩幅圖像中的分割結果越相似。三個評價指標定義如下:

其中TP表示正確分類分割為病變區域的像素數,FN表示病變區域被不正確分類分割為背景區域的像素數,FP表示背景區域被錯誤分類分割為病變區域的像素數,TN表示被正確分類分割為背景區域的像素數。Recall表示正確分割的病變區域的像素個數與真實結果中像素個數的比值。Sensitivity表示正確分割的背景區域的像素個數與整個背景像素個數之比。Precision 表示正確分割的病變區域的像素個數與整個病變區域的像素個數之比。

本文采用不同方法進行分類,對比分析結果如表2 所示,從中可見InceptionV4 分類結果的召回率、特異性、精確性指標更高,證明了本文方法的可行性。表3 中結果對本文方法的視網膜水腫圖像分割結果進行了定量分析,計算得到平均Dice相似性系數達到0.72、0.77、0.77,表明病變區域分割結果與真實較相似。召回率、特異性、精確性三個指標都很高,證明了該方法的魯棒性和準確性。從表4可見,使用本文GAN 比水平集方法的分割效果更好。

表2 定量分類結果

表3 定量分割結果

表4 不同分割方法對比

4 結語

本文利用CNN 實現了眼底圖像水腫病變區域的自動分割。發現如果直接采用GAN 對OCT 圖像進行病變區域分割,無法完整分割出病變區域;而采用先分類后分割的處理策略,最終能夠完整分割出病變區域,提高了分割的準確性。本文使用不同正則化損失函數對分割方法進行優化,并采用多種定量指標對分割結果進行評價,實驗結果表明使用L1 正則化能使病變區域的分割性能更好。與水平集分割方法相比,本文方法能夠更準確地分割視網膜水腫圖像。可以預期本文方法能否輔助相關疾病的早期診斷和治療后效果評估。

猜你喜歡
分類區域方法
分類算一算
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
關于四色猜想
分區域
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
主站蜘蛛池模板: 欧美色99| 亚洲最新在线| 在线亚洲小视频| 日韩福利视频导航| 精品国产美女福到在线不卡f| 国产精品香蕉在线观看不卡| 最新国语自产精品视频在| 91久久偷偷做嫩草影院| а∨天堂一区中文字幕| 久久99精品久久久久久不卡| 国产欧美日韩精品第二区| 国产区免费精品视频| 欧美在线网| 欲色天天综合网| 一级全黄毛片| 国产第一页亚洲| 国产 在线视频无码| 日本人妻丰满熟妇区| 丰满人妻中出白浆| 日本一本正道综合久久dvd| 国产精品亚洲欧美日韩久久| 无码粉嫩虎白一线天在线观看| 四虎成人精品| 亚洲精品无码高潮喷水A| 国产成人h在线观看网站站| 亚洲系列中文字幕一区二区| 亚洲女同一区二区| a级毛片免费看| 免费在线色| 婷婷色狠狠干| 夜夜拍夜夜爽| 中文字幕久久亚洲一区| 99在线观看精品视频| 亚洲视频色图| AV在线天堂进入| 精品久久久久久中文字幕女| 亚洲欧美天堂网| 2019国产在线| 亚洲欧美另类日本| 永久免费精品视频| 国产精品制服| 伊人精品视频免费在线| 日韩一区二区在线电影| 日韩精品无码免费专网站| 亚洲欧美一区在线| 一级毛片免费观看久| 最新痴汉在线无码AV| 欧美另类精品一区二区三区| 蜜桃臀无码内射一区二区三区 | 亚洲 欧美 日韩综合一区| 精品久久777| 久久综合丝袜长腿丝袜| 色综合五月| 日本www色视频| 欧美精品亚洲精品日韩专区va| yy6080理论大片一级久久| 国产十八禁在线观看免费| 免费大黄网站在线观看| 四虎永久在线视频| 色综合天天综合中文网| 国产剧情国内精品原创| 日本一区二区三区精品视频| 国产精品一区二区不卡的视频| 成人国产精品2021| 高h视频在线| 99资源在线| 激情综合网激情综合| 亚洲人成影院午夜网站| 国产农村1级毛片| 99国产精品国产高清一区二区| 一区二区三区精品视频在线观看| 国产小视频网站| 91色老久久精品偷偷蜜臀| 国产91av在线| 国产va在线| 国产伦片中文免费观看| 亚洲精品国产日韩无码AV永久免费网 | 久久精品视频亚洲| 97成人在线观看| 在线观看91香蕉国产免费| 亚洲国产无码有码| 亚洲国产综合自在线另类|