999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合感受野模塊的卷積神經(jīng)網(wǎng)絡視杯視盤聯(lián)合分割

2022-08-03 07:39:44于舒揚鄭秀娟
中國生物醫(yī)學工程學報 2022年2期
關(guān)鍵詞:特征模型

于舒揚 袁 鑫 鄭秀娟

(四川大學電氣工程學院自動化系,成都 610065)

引言

視神經(jīng)是將視覺信息以電脈沖的形式傳輸?shù)酱竽X視覺中心的通道,對視神經(jīng)造成的任何損害或施加在其上的壓力均會導致視力的損失。 青光眼是一種導致視神經(jīng)進行性和特征性損傷的疾病,具有高患病率及高致盲率的特點,是我國乃至全球第一位的不可逆致盲性眼病[1]。 青光眼早期篩查診斷是預防視神經(jīng)受損的關(guān)鍵。 由于青光眼使視網(wǎng)膜神經(jīng)纖維層變厚,導致視杯(optic cup,OC)相對于視盤(optic disc,OD)的尺寸增大,因此,有經(jīng)驗的眼科醫(yī)生在早期篩查和臨床診斷階段主要通過彩色眼底圖像視杯與視盤的直徑比,即杯盤比(cup to disk ratio,CDR)[2]等指標來進行評估。 一般而言,杯盤比與患青光眼的概率成正比。

在傳統(tǒng)的青光眼篩查方法中,專家人工評估眼底圖像并手動添加標簽圖像。 這種人為評判方法耗時費力,并且在很大程度上取決于專家的專業(yè)水平,而且從眼底圖像中可人為提取的信息量有限。此外,人工評估的眼底圖像由于各種人為因素(如醫(yī)生的疲勞等)的影響,在判斷上可能存在顯著差異,而且人工分級的準確性也因觀察者之間的不同而產(chǎn)生差異。 這些局限性意味著需要開發(fā)自動青光眼篩查和診斷方法,以便計算機輔助工具可以在協(xié)助臨床醫(yī)生診斷青光眼和其他眼病方面發(fā)揮重要作用[3]。

醫(yī)學圖像分割是計算機輔助診斷重要的應用方向[4],準確識別眼底圖像中視杯與視盤是計算杯盤比的前提,因此準確分割視杯與視盤是青光眼輔助篩查和診斷的焦點。 視杯視盤分割方法主要分為傳統(tǒng)方法和基于深度學習的方法。 傳統(tǒng)方法主要基于視盤的顏色[5-6]、邊界檢測[7-9]、對比度閾值[10-11]和形態(tài)學[12-14]等。 但傳統(tǒng)方法主要依賴人工提取圖像特征,分割效果會受到圖像拍攝質(zhì)量、病變區(qū)域以及眼底其他結(jié)構(gòu)等影響。 而且所提取的特征數(shù)量也較小,類型固定,影響了模型的泛化性能。

基于深度學習的分割模型克服了人工提取特征的局限性,可以自動學習數(shù)據(jù)的深層特征,對醫(yī)學圖像具有很強的分辨能力,成為計算機輔助診斷的重要研究方向。 針對醫(yī)學圖像分割任務,早期研究者采用滑動窗式卷積神經(jīng)網(wǎng)絡(convolutional neural network,CNN)進行眼底圖像分割[15],用于從輸入圖像中提取強大的特征。 為了減少模型的訓練和測試時間,采用了熵采樣的方法來選擇信息點。 該方法采用多層學習策略,將一層的結(jié)果反饋給下一層。 根據(jù)濾波結(jié)果訓練分類器Softmax,實現(xiàn)視網(wǎng)膜圖像的整體分割。 但CNN 主要利用滑動窗口的思想,使用圖像塊訓練深度學習網(wǎng)絡,極大增加了參數(shù)量和計算時間。 隨后,全卷積神經(jīng)網(wǎng)絡[16](fully convolutional neural network,F(xiàn)CN)被提出,大幅提高了訓練效率,并運用在眼底圖像分割的研究中[17],實現(xiàn)了視杯視盤區(qū)域端到端的分割。 Qin等[18]在使用FCN 的基礎上還引入了視盤定位和預處理算法,與原始FCN 相比,開發(fā)的模型獲得了更好的效果,但FCN 沒有考慮到全局上下文信息,忽略了像素之間的關(guān)系, 缺乏空間一致性。Ronnerberger 等[19]在全卷積神經(jīng)網(wǎng)絡基礎之上提出了U-Net,因其結(jié)構(gòu)簡明,成為醫(yī)學圖像分割的重要網(wǎng)絡框架。 Shuang 等[20]提出對標準U-Net 模型進行改進,采用預訓練的標準ResNet34 模型進行編碼和標準的U-Net 進行解碼,避免了從頭訓練組合模型,以減少網(wǎng)絡訓練時間。 Baidaa 等[21]提出將密集連接引入U-Net,使特征得到充分復用,減少了網(wǎng)絡參數(shù)。 Fu 等[22]提出了M-Net,該模型在U-Net 中加入多尺度輸入層和側(cè)輸出層,多尺度輸入層用于在多個層次上獲取各種大小的圖像,側(cè)輸出層的目的是將其用作產(chǎn)生局部預測的分類器。Badrinarayanan 等[23]所提出的SegNet,是一種基于編碼器-解碼器體系結(jié)構(gòu)的分段模型。 在SegNet 架構(gòu)中,編碼器/解碼器的輸出被逐像素輸入分類塊。SegNet 模型已被研究人員進行改進,用于視網(wǎng)膜眼底圖像的分割[24]。 Zhao 等[25]提出PSPnet,采用金字塔池化模塊,整合了圖像的上下文信息。 Chen等[26]提出Deeplabv3 模型加入空洞卷積池化金字塔,擴大了感受野。

目前基于深度學習的視杯視盤分割方法在效果上一定程度上優(yōu)于傳統(tǒng)方法,但是仍然存在一些問題,如編碼器提取特征能力容易受其他病變區(qū)域或者照片的亮度等因素影響,導致無法提取出有效的特征; 用于訓練神經(jīng)網(wǎng)絡的樣本少則容易出現(xiàn)過擬合問題;大部分模型對視杯視盤利用各自的特征分別進行分割,先定位到視盤,把視盤分割出再分割視杯,造成了視盤分割信息的浪費。

針對現(xiàn)存模型的局限與視杯視盤分割的難點,本研究基于SegNet[23]框架引入感受野模塊提出了Seg-RFNet 模型,實現(xiàn)端到端的視杯視盤聯(lián)合分割。首先對眼底圖像進行極坐標變換,有效平衡數(shù)據(jù)集,防止過擬合;采用特征提取能力很強的殘差網(wǎng)絡作為編碼器,并將編碼器做分支處理,進一步增強深層抽象語義信息的提取能力;同時在解碼器結(jié)構(gòu)中引入感受野模塊,增大感受野,進一步增強網(wǎng)絡的有效特征的響應。

1 材料與方法

基于SegNet[23]架構(gòu)提出用于視盤視杯分割的網(wǎng)絡框架Seg-RFNet 模型,先對編碼器部分的進行深層特征分支,并在分割細節(jié)信息恢復前進行各層特征融合后使用大量感受野模塊處理。 該體系架構(gòu)如圖1 所示,主要由殘差編碼層(ResNet layer),大量的感受野模塊(receptive field block,RFB)和解碼器層(decoder layer)組成。 采用ResNet50 編碼器結(jié)構(gòu),提取有代表性的圖像紋理及空間特征;對編碼層進行分支處理,淺層網(wǎng)絡保留更多圖像細節(jié)位置信息,而深層網(wǎng)絡具有較高水平的語義特征信息,編碼器分支可以分化深層特征,在深度不變的情況拓寬獲取特征的路徑;在編碼器和解碼器之間增加多個感受野模塊,通過多分支卷積層和空洞卷積層,在增大感受野的同時獲取不同感受野下的全局信息;解碼器根據(jù)特征層次的深淺所包含的信息量不同,仿照SegNet 模型的原生編碼器,采用兩種解碼的方式分別針對深層和淺層特征,因為淺層特征更大程度保留圖像原始的位置與結(jié)構(gòu)信息,而深層特征則包含更多的抽象信息,兩者進行融合可以使原圖像得到更好地恢復。

圖1 Seg-RFNet 網(wǎng)絡結(jié)構(gòu)Fig.1 The architecture of Seg-RFNet

1.1 分支殘差編碼層

深度殘差網(wǎng)絡ResNet[27]通過引入殘差單元,解決了網(wǎng)絡深度增加所帶來的梯度消失和性能退化的問題,大幅提升了網(wǎng)絡性能。 如圖2 所示為基本殘差單元結(jié)構(gòu),F(xiàn)(x)表示殘差路徑,x表示恒等連接路徑。 殘差路徑由2 個卷積層、批標準化(batch normalization, BN)和線性激活函數(shù)(rectified linear units, ReLU)構(gòu)成,恒等連接路徑?jīng)]有導致額外的參數(shù)量和計算復雜度。 兩條路徑的結(jié)果相加即為輸出。

圖2 基本殘差單元Fig.2 Residual block

ResNet50 即由一系列不同的殘差單元串聯(lián)而成,結(jié)構(gòu)如表1 所示。 對于輸入眼底原圖I∈RW×H×3,其中W、H、3 這3 個參數(shù)分別代表圖像的寬度、高度和通道數(shù)。 使用提取特征能力更強的Resnet50 作為編碼器模塊,替換原生SegNet 的編碼器模塊提取多層特征{Fk}k =1,將ResNet50 分為5個模塊,用layer1 和layer2 表示淺層特征提取模塊,layer3、layer4 和layer5 表示高層特征提取模塊。 由于淺層網(wǎng)絡里面保留的空間信息可以更好構(gòu)建分割對象的邊界,深層提取層可以保留特定對象的語義上下文信息[28]。 為分化深層特征,得到更多深層特征信息,在原編碼層的基礎上對第3 層進行分支處理。 在編碼器所提取的特征分為淺層{F1,F(xiàn)2},深層{F3,F(xiàn)4,F(xiàn)5}。 再通過級聯(lián)組合的方式進行特征融合以保留來自各層的豐富線索,組合可表達為

表1 ResNet50 骨干網(wǎng)絡結(jié)構(gòu)Tab.1 The backbone structure of ResNet50

式中,Cat 表示特征圖的拼接,UP 表示上采樣操作。再使用感受野模塊放大特征感受野區(qū)域。

1.2 融合感受野的解碼層

和原生的SegNet[23]解碼層所不一樣的是,進行解碼的特征信息是經(jīng)過感受野模塊處理之后的特征。 在卷積神經(jīng)網(wǎng)絡中, Inception[29]和Deeplabv3[26]是兩個經(jīng)典的模型。 Inception 在同一層中采用不同大小的卷積核進行分支處理,再將經(jīng)過各分支的特征拼接,意味著不同尺度特征的融合拓寬了網(wǎng)絡寬度。 而Deeplabv3 模型的關(guān)鍵結(jié)構(gòu)是空洞卷積(dilated convolution),可以在不改變特征圖大小的同時控制感受野,有利于提取多尺度信息。 本研究提出的感受野模塊受到了上述兩種模型的啟發(fā)。 感受野模塊具有兩個特點:一是采用不同尺寸卷積核的卷積層構(gòu)成的多分支結(jié)構(gòu);二是引入了空洞卷積層。 如圖3 所示為感受野模塊的結(jié)構(gòu),包含5 個分支{bk,k =1,2,…,5} ,在每一個分支中,先使用基礎卷積層,即(Conv(1 × 1) +BN +ReLU) 。 然后對k≤4 的分支使用尺寸為(2k-1)×(2k-1)的卷積層和一個空洞卷積層,膨脹因子為dilation =2k-1,然后將4 條分支的結(jié)果進行1×1 卷積操作, 增加更多的非線性特性,然后對它們進行拼接操作以獲取多尺度特征信息。 最后與第5 條分支殘差進行融合,提升語義表達能力的同時能加速梯度反向傳播。 另外,在多尺度卷積中,當k較大時,直接實現(xiàn)(2k-1)×(2k-1)尺寸的卷積核會極大增加計算量,因此使用(2k-1)×1 與1×(2k-1)卷積層級聯(lián)代替,在減少參數(shù)的同時還可以增加一層非線性擴展模型的表達能力[30]。 最后對5 個分支的特征進行相加并使用ReLU 函數(shù)激活得到處理后的特征。

圖3 感受野模塊結(jié)構(gòu)Fig.3 The structure of receptive field block

感受野模塊的詳細結(jié)構(gòu)如圖4 所示,用3 種不同大小和顏色的輸出疊加來展示。 用不同大小的圓形表示不同尺寸卷積核的卷積層,并結(jié)合不同擴張因子的空洞卷積層,最后將不同尺寸和擴張因子的卷積層輸出進行特征拼接。 從特征拼接圖可以看出,引入多分支多尺寸卷積核,可以捕捉不同感受野的信息,人類視野的特點就是距視野中心距離不同感受野不同,所以使用多分支結(jié)構(gòu),每個分支捕捉一種感受野,最后通過特征拼接來融合感受野信息,可以達到模擬人類視覺的效果[31]。 引入空洞卷積層,可以在不增加參數(shù)量的前提下,增大感受野。

圖4 感受野模塊詳解Fig.4 Detailed illustration of receptive field block

根據(jù)得到的感受野模塊處理后的特征,使用解碼器進行解碼。 此時由編碼器前兩層處理后得到的是淺層特征,其余是深層特征。 仿照SegNet[23]的原生解碼器,針對不同層次的特征,設計兩種解碼方式,其結(jié)構(gòu)如圖5 所示,可以看出兩種解碼方式的不同在于淺層特征沒有特征融合部分,意義在于保留之前的圖像空間細節(jié)信息。

圖5 解碼層結(jié)構(gòu)。 (a) 深層特征解碼層;(b)淺層特征解碼層Fig.5 The structure of decoding layer.(a)Deep feature decoding layer; ( b) Shallow feature decoding layer

1.3 數(shù)據(jù)集

選用REFUGE 數(shù)據(jù)集[32]進行方法驗證。REFUGE 數(shù)據(jù)集同時包括診斷、圖像分割及定位信息,其中分割定位標簽由7 位專家的手動標記結(jié)果融合,是目前青光眼眼底圖像數(shù)據(jù)庫中標注信息最全面的數(shù)據(jù)庫。 REFUGE 數(shù)據(jù)集分為訓練組、驗證組和測試組,共有1 200 視網(wǎng)膜眼底圖像。 訓練、驗證、測試數(shù)據(jù)集的比例為1 ∶1 ∶1,由于其中400 張訓練數(shù)據(jù)和400 張驗證數(shù)據(jù)包含眼底圖像和其對應的標簽,剩下的400 張測試數(shù)據(jù)只含有眼底圖像,所以采用訓練組和驗證組共計800 張眼底圖像進行試驗。 訓練組的400 張眼底圖像是由型號為Zeiss Visucam 500 眼底相機拍攝的,圖像大小為2 142 像素×2 056 像素。 驗證組400 張眼底圖像由型號為Canon CR-2 眼底相機拍攝,圖像大小為1 634 像素×1 634 像素。 兩組數(shù)據(jù)采用不同相機,具體如圖6所示。

圖6 不同眼底照相機拍攝的眼底圖像。 (a) Zeiss Visucam 500 拍攝;(b) Canon CR-2 拍攝Fig.6 Fundus images taken by different fundus cameras.(a) Taken by Zeiss Visucam 50; (b)Taken by Canon CR-2

1.4 圖像預處理

1.4.1 極坐標變換

由于REFUGE 數(shù)據(jù)集提供的是整幅眼底圖像,因此視杯視盤區(qū)域占了相當小的一部分,為防止血管、黃斑等無關(guān)區(qū)域?qū)σ暠P分割結(jié)果的影響,首先采用現(xiàn)有的視盤自動檢測提取方法確定初始視盤中心[33],然后以其為中心從整圖中裁剪出大小為480 像素× 480 像素的感興趣區(qū)域。 然后,將得到的感興趣區(qū)域以初始視盤中心為原點進行如式(2)所示的像素級極坐標變換,有

式中,u,v表示某個像素在笛卡爾坐標系下的橫縱坐標;θ,r表示某個像素在極坐標下的方向角和半徑。 極坐標變換效果如圖7 所示。

圖7 眼底圖像和標注的預處理流程。 (a)原始眼底圖像;(b)感興趣區(qū)域圖像;(c)極坐標變換后圖像;(d) 原始標注;(e) 感興趣區(qū)域標注;(f) 極坐標變換后的標注Fig.7 Preprocessing of fundus image and label.(a)Original fundus image; (b)Region of interest image;(c) Image of polar coordinate transition; ( d)Original label; (e) Region of interest label; (f)Label of polar coordinate transition

預處理引入極坐標變換,不僅可以平衡視杯視盤面積占比,而且可以使用層狀結(jié)構(gòu)表達視杯、視盤和背景的空間約束關(guān)系[20]。 通過極坐標變換后使眼底圖像具有旋轉(zhuǎn)和尺度不變性,可以簡化視盤視杯分割問題,從而有效地提取特征,有利于分割模型的訓練,實現(xiàn)更好的視盤視杯分割性能。

1.4.2 數(shù)據(jù)增強

由于數(shù)據(jù)集樣本數(shù)量較少,在裁剪得到感興趣區(qū)域并進行極坐標變換處理后,再對數(shù)據(jù)集進行數(shù)據(jù)增強。 采用離線隨機數(shù)據(jù)增強的方法,對樣本加入隨機噪聲擾動、隨機旋轉(zhuǎn)和翻轉(zhuǎn),以及進行亮度和對比度的隨機調(diào)節(jié)。 數(shù)據(jù)增強的作用是增加訓練樣本的數(shù)量以及多樣性,提升模型魯棒性。 隨機改變訓練樣本可以降低模型對某些屬性的依賴,從而提高模型的泛化能力。

1.5 實驗

1.5.1 實驗設備

實驗使用的深度學習框架是PyTorch1.2.0,計算機操作系統(tǒng)為Windows 10,采用Python 語言實現(xiàn)編程。 硬件部分,采用顯存為8 GB、型號為Nvidia GeForce GTX 2080 SUPER GPU 和主頻3.60 GHz 的型號為Inter(R)i9-9900 k CPU。 采用Adam 優(yōu)化器對深度模型進行優(yōu)化,因為其計算高效,對內(nèi)存需求少,可以在訓練時自行更新學習率。

1.5.2 實驗細節(jié)

首先對圖像進行預處理,隨后使用網(wǎng)絡訓練來學習優(yōu)化參數(shù),并在每個訓練迭代周期結(jié)束后保存最佳網(wǎng)絡模型,最后測試最佳網(wǎng)絡模型并預測結(jié)果。 初始學習率設為0.000 3。 Batch size 設置為2,訓練迭代次數(shù)為50。 本實驗以有監(jiān)督訓練的方式進行,其中75%即600 張眼底圖像用于訓練,12.5%即100 張圖像用于驗證,12.5%即100 張圖像用于測試。 訓練集每迭代一次,對驗證集進行一次整體評測,實驗測試結(jié)果與專家人工標注結(jié)果作對比,得到測試圖片的最好分割結(jié)果作評價指標的分析。實驗評價指標所得到的評價指標均使用K=5 的K折交叉驗證所得到的平均分評分,不同方法的對比所采用的數(shù)據(jù)集切分方案一致。

1.5.3 評價指標

為評估Seg-RFNet 模型的性能,采用Jaccard 相似度(Jaccard similarity,JS)和F 分數(shù)(FS)兩個評價指標,JS 和FS 計算分別表示為

式中,TP 是真正例,即網(wǎng)絡輸出為正,實際上也為正;TN 是真負例,即網(wǎng)絡輸出為負,實際上也為負;FP 是假正例,即網(wǎng)絡輸出正,但實際上為負;FN 是假負例,即網(wǎng)絡輸出正,但實際上為負。P表示精確率,R表示召回率。 可以看出,JS 指的是交集與并集的比值可以用于比較分割結(jié)果與專家分割結(jié)果之間的相似性與差異性,即視盤重合率;FS 是精確率和召回率二者算數(shù)平均值與幾何平均值的商,可以綜合反映兩指標的特性。 JS 與FS 介于0 與1 之間,越接近于1,代表結(jié)果越好。

通過對眼底圖像進行感興趣區(qū)域獲取、極坐標變換預處理,得到了更加聚焦于視盤的區(qū)域,隨后采用多種數(shù)據(jù)增強的方法,得到最終用于模型訓練和驗證的數(shù)據(jù)。 首先,為了驗證模型自身構(gòu)造的合理性,設置兩組對比實驗,第1 組為編碼器結(jié)構(gòu)對比實驗,計算3 種不同編碼器結(jié)構(gòu)的分割效果;第2 組對比實驗為感受野模塊數(shù)量對比實驗,分析感受野數(shù)量與分割效果之間的關(guān)系,驗證該模塊的有效性。 為了更加客觀地評價Seg-RFNet 的性能,引入5種現(xiàn)有的主流分割模型進行對比。 其次還探究了不同的損失函數(shù)對分割效果的影響。 以上實驗均采用JS 和FS 作為評價指標。 最后,從參數(shù)量和計算量這兩個角度評價本文提出的模型與其余5 種主流分割模型的效率。

2 結(jié)果

在其他條件不變的情況下選取3 種編碼器結(jié)構(gòu)VGG16、ResNet50、ResNet101 做對比實驗,結(jié)果如表2 所示,實驗結(jié)果表明,使用3 種編碼器在JS 和FS兩項指標的差別不大,不會對解碼器部分產(chǎn)生關(guān)鍵的影響。

表2 不同的編碼器結(jié)構(gòu)對分割效果的影響Tab.2 Influence of different encoder structures on the segmentation effect

為了驗證Seg-RFNet 在視杯視盤分割任務上的有效性,使用REFUGE 數(shù)據(jù)集和相同的實驗環(huán)境與5 種基準模型進行對比實驗,其定量結(jié)果見表3。 結(jié)果表明所提出的Seg-RFNet 整體性能要優(yōu)于其他5 種模型,表征視杯、視盤分割性能的JS 和FS 分別為0.951 5、0.872 0 和0.974 9、0.930 1,相較于原生的SegNet 框架,分別提高了2.8%~14.5%,1.5%~8.5%。

表4 表明了感受野模塊數(shù)量對分割性能的影響,可以看出感受野數(shù)量與JS 和FS 兩項指標的值呈現(xiàn)明顯正相關(guān)趨勢,說明了感受野模塊的有效性。 在Seg-RFNet 結(jié)構(gòu)中部署感受野模塊數(shù)量小于等于6 的時候深層分支數(shù)量無需增加,而當感受野模塊數(shù)量達到6 以上時需通過增多深層分支(layer4,layer5)數(shù)量,從而導致網(wǎng)絡復雜度更大,總體的參數(shù)量和浮點運算量也會增加。

表4 感受野模塊數(shù)量對分割性能的影響Tab.4 The influence of the number of receptive field Blocks on segmentation performance

通過表5 可知,使用Dice 損失函數(shù)的結(jié)果要略優(yōu)于傳統(tǒng)的交叉熵損失函數(shù)。

表5 不同損失函數(shù)對性能影響Tab.5 Impact of different loss functions on performance

6 種神經(jīng)網(wǎng)絡模型的參數(shù)量和計算量對比結(jié)果如表6 所示。 參數(shù)量和計算量都是衡量深度學習算法的重要指標,參數(shù)量對應模型的空間復雜度,計算量對應的是模型的計算復雜度,對應硬件層面,參數(shù)數(shù)量對應的是計算機內(nèi)存資源的消耗,計算量對應的是計算時間。 實驗結(jié)果表明,Seg-RFNet 的參數(shù)量和浮點運算量(floating point operations,F(xiàn)LOPs) 分別為25.743 M 和5.209 G。 Seg-RFNet在性能提升的同時,參數(shù)量沒有明顯增加,而計算量大幅降低。

表6 不同方法的參數(shù)量和計算量對比結(jié)果Tab.6 Comparison of different methods in terms of parameters and FLOPs

此外,將視杯視盤分割結(jié)果可視化,可以更直觀的比較Seg-RFNet 與其他深度學習模型的分割結(jié)果。 從REFUGE 數(shù)據(jù)集中選取11 張圖像,分割結(jié)果如圖8 所示。 可以看出其他5 種模型的分割結(jié)果不如Seg-RFNet 網(wǎng)絡,與表3 中的定量結(jié)果相吻合。

圖8 11 幅不同圖像(從上至下)采用不同模型的視杯視盤分割效果對比,其中白色區(qū)域為得到的視杯區(qū)域,灰色部分為視盤區(qū)域。 (a)原圖;(b)標注圖像;(c)FCN;(d)U-Net;(e)Deeplabv3;(f)SegNet;(g)PSPnet;(h)Seg-RFNetFig.8 Comparison of different models for optic cup and disc segmentation with 11 different pictures (From the top to the bottom).The white areas are optic cups, the gray areas are optic discs.(a) Original pictures; (b)Annotated pictures; (c) FCN; (d) U-Net; (e) Deeplabv3; (f) SegNet; (g) PSPnet; (h) Seg-RFNet

表3 不同方法在REFUGE 數(shù)據(jù)集上的對比結(jié)果Tab.3 Comparison results of different methods on REFUGE dataset

3 討論

本研究提出了融合感受野模塊的卷積神經(jīng)網(wǎng)絡Seg-RFNet,對眼底圖像中的視杯視盤進行聯(lián)合分割。 利用ResNet50 強大的網(wǎng)絡性能,并將其深層網(wǎng)絡分支,充分提高了高維特征的利用率;同時將各層特征都經(jīng)過感受野模塊的處理,更加擴寬了網(wǎng)絡的寬度,豐富了特征的語義信息,得到了比現(xiàn)有的方法更高的精確度。 針對本研究中涉及到的一些問題進行討論。

首先,網(wǎng)絡的編碼器部分使用了ResNet50 網(wǎng)絡,因為其在計算速度和硬件資源消耗方面更有優(yōu)越性,雖然ResNet101 性能指標最好,但其結(jié)構(gòu)復雜,運行較為耗時。 而VGG-16 網(wǎng)絡的特點是卷積核更小,網(wǎng)絡結(jié)構(gòu)更淺,使其在提取圖像淺層特征如形狀、紋理、輪廓的時候也獲得了大量的冗余特征和噪聲信息,從而影響分割網(wǎng)絡整體的性能,因此ResNet50 作為采用的折中方案,兼顧運行速度和質(zhì)量。

Seg-RFNet 的分割性能優(yōu)越性可以通過實驗體現(xiàn)在定性和定量兩方面,JS 和FS 均超過其他5 種方法,原因在于編碼器采用ResNet50 殘差模塊可以使網(wǎng)絡的梯度消失問題得到有效抑制,而內(nèi)部的跳躍連接可以保留淺層網(wǎng)絡的表面特征,實現(xiàn)了不同層次的特征融合。 解碼器采用感受野模塊可以模擬人類視覺的特點使模型獲得更強的特征感知能力。 而從具體的分割效果圖來看,可以看出U-Net與SegNet 分割效果較差,受到了血管等其他結(jié)構(gòu)的影響。 圖8 中第1 行、第4 行和第8 行對比尤其明顯,甚至出現(xiàn)了視杯在視盤外部的分割樣例;從第6行、第8 行和第11 行來進行對比分析,可以看出FCN 與PSPnet 的分割輪廓精度比較粗糙,邊界不夠規(guī)則,出現(xiàn)了鋸齒現(xiàn)象。 而Seg-RFNet 網(wǎng)絡輸出的分割結(jié)果更接近于專家標注的金標準,而且Seg-RFNet 網(wǎng)絡輸出的分割結(jié)果更加平滑,出現(xiàn)的不規(guī)則邊緣更少,其原因是解碼層采用殘差網(wǎng)絡,并進行深層網(wǎng)絡分支,以及融合了感受野模塊,使得Seg-RFNet 網(wǎng)絡獲得了更多樣的語義信息。 這與表2 中的定量結(jié)果相吻合。 因此可以說明Seg-RFNet 對視杯、視盤的分割效果更精確,能夠為計算杯盤比提供更加精確的依據(jù),從而減少誤診率,這對青光眼早期輔助篩查與診斷是有益的。

另一個值得探討的問題是Seg-RFNet 在性能提升的情況下,參數(shù)量沒有過多增加,而且計算量大幅降低。 主要在于編碼器的殘差連接在緩解梯度消失問題的同時,也大大降低了網(wǎng)絡模型的計算量;其次,Seg-RFNet 無需如同U-Net 模型在編碼器和解碼器之間大量使用特征拼接,也大幅減少了模型的計算復雜度。

本研究也有局限之處,數(shù)據(jù)集的預處理與分割被分離成兩個獨立的階段,如何將這兩個過程合并,從而提高眼底圖像的分割效率,是以后需要研究的重要內(nèi)容。 同時,在預處理過程中采用的感興趣區(qū)域裁剪方法有進一步優(yōu)化的空間,可以引入目標檢測的方法提升定位視盤中心的精度,從而影響后續(xù)分割的準確度。 另外,也存在反極坐標變換結(jié)果后,邊界不夠平滑的情況。

4 結(jié)論

本研究在對眼底圖像進行極坐標變換的基礎上,提出一種融合感受野模塊的視杯視盤分割網(wǎng)絡Seg-RFNet。 該模型采用ResNet50 作為編碼層,并且通過將編碼層分支,增強了提取圖像深層抽象語義特征的能力;在編碼層與解碼層之間了感受野模塊,增大了感受野,增強了有用特征的響應能力。通過REFUGE 數(shù)據(jù)集與其他5 種分割模型進行對比實驗,表明Seg-RFNet 具有較好的視杯視盤分割性能,得到了更為精確的分割結(jié)果,為計算杯盤比獲得了更可靠的依據(jù)。 未來工作還需進行跨數(shù)據(jù)集驗證Seg-RFNet 模型的泛化性和魯棒性。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學特征認識
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
主站蜘蛛池模板: 波多野结衣久久高清免费| 亚洲天堂视频网| 欧美激情综合一区二区| 久久精品视频亚洲| 热久久综合这里只有精品电影| 国产欧美日韩视频一区二区三区| 国产视频只有无码精品| 精品国产免费第一区二区三区日韩| 国产精品美女自慰喷水| 亚洲精品在线观看91| 国模沟沟一区二区三区 | 亚洲视频一区在线| 美女扒开下面流白浆在线试听| 91福利免费视频| 东京热av无码电影一区二区| 亚洲视频欧美不卡| 国产熟睡乱子伦视频网站| 国产精品99在线观看| 国产高清在线观看| 91久久国产成人免费观看| 91福利一区二区三区| 亚洲欧美日韩中文字幕在线一区| yjizz视频最新网站在线| 四虎永久免费地址| 亚洲动漫h| JIZZ亚洲国产| 99国产精品一区二区| 欧美区国产区| 久久男人资源站| 久久国产精品夜色| 亚洲啪啪网| 亚洲视频a| 亚洲av日韩综合一区尤物| 亚洲精品波多野结衣| 欧美性爱精品一区二区三区 | a毛片在线播放| 萌白酱国产一区二区| 国产丝袜无码精品| 亚洲精品爱草草视频在线| 欧美亚洲综合免费精品高清在线观看 | 91视频国产高清| 婷婷在线网站| 日韩精品一区二区深田咏美| 91丝袜乱伦| 亚洲成a人片在线观看88| 国产欧美精品一区aⅴ影院| 中文字幕波多野不卡一区| 欧美a√在线| 精品午夜国产福利观看| 国产美女91视频| 免费看美女自慰的网站| 亚洲永久免费网站| 日韩乱码免费一区二区三区| 婷婷激情亚洲| 成年人国产视频| 亚洲色图综合在线| 久久99精品久久久久纯品| 亚洲男人天堂网址| 麻豆AV网站免费进入| 久久动漫精品| 成人综合网址| 久久婷婷五月综合色一区二区| 日韩在线视频网站| 亚洲成人网在线观看| 一级成人a毛片免费播放| 国产三级成人| 自慰高潮喷白浆在线观看| 中文字幕天无码久久精品视频免费| 91久久国产综合精品| 国产在线精品人成导航| 九色最新网址| 在线看片免费人成视久网下载| 国产亚洲欧美在线中文bt天堂| 伊人成人在线视频| 91成人在线免费观看| 国产在线精品网址你懂的| 日韩东京热无码人妻| 青青草原国产| 波多野结衣中文字幕一区二区| 四虎国产在线观看| 东京热一区二区三区无码视频| 91在线中文|