999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進U-net網絡的氣胸分割方法

2022-02-24 12:35:46王康健何靈敏胥智杰王修暉
計算機工程與應用 2022年3期
關鍵詞:實驗模型

余 昇,王康健,何靈敏,胥智杰,王修暉

1.中國計量大學 信息工程學院,杭州 310018

2.中國計量大學 浙江省電磁波信息技術與計量檢測重點實驗室,杭州 310018

氣胸屬于胸外科和呼吸內科急癥[1],是肺部常見疾病之一,約有30%~39%的胸部外傷患者存在氣胸,大多是由鈍性胸部損傷、潛在肺部疾病造成的。氣胸是指空氣從肺部泄漏到肺和胸壁之間的一種病狀,會對肺部產生壓迫阻止肺部的正常擴展,導致病人呼吸困難甚至不能呼吸。如果不治療,就會導致死亡。在歐美等西方國家,平均每年大約有13萬~21萬例氣胸[2],而且復發率高達35%[3]。更可怕的是,該疾病的發作沒有任何明顯的征兆。因此,如何有效地檢測潛在氣胸成為一個很有價值的問題。

診斷該疾病的傳統方法是由放射科醫生通過胸部X光(胸片)根據經驗用肉眼進行檢測。但是因為氣胸的病灶形狀、大小有很大差異,通常與肋骨、鎖骨等組織重疊,而且基于人工的檢測結果易受醫生經驗等主觀影響,在臨床上存在較大的漏診。即便對于經驗豐富的放射科醫生來說,閱片也是一項復雜、耗時的任務,且存在漏檢的風險。據報道[2]美國平均每年約有7.4萬氣胸患者因延遲診斷或誤診而耽誤治療,同時在中國對于少量或微量的氣胸,也存在較大的漏診情況[4]。因此希望借助于計算機輔助診斷(computer-aided diagnosis,CAD)系統,實現X線氣胸的自動檢測,協助醫生提高診斷效率和準確率,減少漏診。

實際應用中,實現胸部X線氣胸的自動檢測面臨以下問題:受患者氣胸形狀、大小、拍攝角度、圖像質量以及放射參數等因素影響,胸片圖上氣胸的特征變得模糊。此外,氣胸容易與皮膚褶皺、肩胛骨、鎖骨以及胸腔引流位置重疊,也在一定程度上干擾氣胸特征的提取。而傳統的氣胸檢測方法需要手動設計不同的特征提取算法,如:Geva等[5]首先對局部異常進行紋理分析處理。在紋理分析過程中提取帶標記的圖像小塊,然后將局部分析值合并到新的全局圖像表示中,再用于圖像層面的異常訓練和檢測。基于肺的獨特形狀,考慮到典型氣胸異常的特征,提出了結合局部和全局紋理特征分析方法。Sanada等[6]首先確定易出現輕微氣胸的上肺各區域的感興趣區域(ROIs)。然后,通過在有限的方向范圍內選擇邊緣梯度來確定的后肋和胸膜的位置,并去除包括在邊緣增強圖像中的肋邊緣。最后利用霍夫變換檢測出氣胸引起的細微曲線。Chan等[7]首先利用局部二值模式從肺圖像中提取特征,然后利用支持向量機對氣胸進行分類。另一方面提出了一種基于多尺度強度紋理分割的氣胸自動檢測方法:通過去除胸腔圖像中的背景和噪聲,對肺異常區域進行分割。這些特征提取的過程十分復雜,且提取的特征可能存在信息涵蓋不全等現象,從而導致氣胸的檢測精度不高。因為上述氣胸檢測方法對特征提取的準確性要求非常嚴格,而氣胸特征提取的準確性決定了檢測結果的精度,導致傳統氣胸檢測方法的魯棒性不夠。

隨著深度學習的發展,以卷積神經網絡(convolutional neural network,CNN)為代表的神經網絡在計算機視覺領域的成功應用為CNN在醫學圖像病變檢測方面的應用奠定了基礎。CNN一般由輸入層、卷積層、池化層、激活層以及全連接層組成,自動學習從原始輸入到期望輸出間的特征映射。相較于傳統算法復雜的特征提取過程,CNN在高級抽象特征提取上的能力更顯著,尤其是對細粒度圖像的識別具有極大的優勢和潛力[8]。Wang等[9]首次提出用殘差網絡(residual network,ResNet)來檢測胸部疾病,并公開了一個超大規模的胸部數據集:ChestXray14,該算法在氣胸檢測上取得了較好的結果,曲線下面積(area under curve,AUC)為0.79。雖然現有基于深度學習的氣胸檢測方法能有效提升檢測性能,但是因為傳統的卷積神經網絡主要用來處理分類問題或者回歸問題。當使用CNN來檢測疾病時,因為缺乏解釋性,對醫生的幫助有限。Long等[10]在CNN的基礎上,創造性地提出了一種全卷積神經網絡(fully convolutional network,FCN)。他們用卷積層替換CNN中的全連接層以獲得圖像中每個像素的分類結果,最終實現圖像分割。U-net[11]是下采樣和上采樣結合的編解碼結構的分割模型,在2015年ISBI細胞追蹤競賽中獲得了冠軍,被廣泛應用于醫學影像學中。Oktay等[12]在U-net的基礎上引入注意力機制提出Attention Unet,對編碼器在各個分辨率上的特征與解碼器中對應特征進行拼接之前,使用了一個注意力模塊,重新調整了編碼器的輸出特征。注意力權重傾向于在目標器官區域取得大的值,在背景區域取得較小的值,提高了圖像分割的精度。Xiao等[13]提出了一個帶有注意力機制和跳躍連接結構的ResUnet模型用于處理視網膜血管分割中小而薄的血管分割困難以及視盤區識別能力低等問題。Chen等[14]提出了空洞空間金字塔池化結構,該結構能夠獲取不同尺度的特征信息,結合多種先進的方法設計了DeepLabV3+,是目前最優秀的通用分割網絡。然而,雖然圖像分割在醫學影像學中有被應用的先例,但在氣胸分割方面還沒有得到很好的應用。

本文的主要創新如下:

(1)網絡結構:基于U-net網絡架構,結合MBConv-Block編碼模塊和一種新的解碼模塊設計了EfficientUnet卷積神經網絡X線氣胸分割模型。該模型能有效提取圖像特征,預測圖像中是否含有氣胸并進行圖像語義分割。

(2)損失函數:在語義分割中Dice相似系數(Dice similarity coefficient,DSC)損失函數的基礎上,結合Focal損失函數,組成混合損失函數。該混合損失函數保證了網絡能夠穩定且有針對地對難以學習的樣本進行優化,從而緩解類不平衡問題,改善網絡的分割結果。

(3)閾值分割策略:針對小面積氣胸的漏檢及誤檢,提出三重閾值分割策略,降低假陰性的概率。

(4)由于成像設備、個體自身差異的影響,醫學圖像一般會含有很多噪聲。對胸片進行對比度限制自適應直方圖均衡化,去除噪點并還原圖像細節。

1 基于卷積神經網絡的氣胸分割方法

本文結合了目前深度學習領域中的最佳工作,提出了一種結合MBConvBlock編碼器模塊的EfficientUnet卷積神經網絡X線氣胸分割模型。對輸入的胸部X線圖像進行處理,從而預測胸片中是否含有氣胸。針對卷積神經網絡存在解釋性不夠的問題,進行圖像語義分割,并給檢測含有氣胸的胸片輸出相對應的掩碼,最后通過游程編碼(RLE)可視化掩碼,醫生可以很直觀地判斷患者是否患有氣胸并降低診斷的假陰性概率。

1.1 EfficientUnet

基于卷積神經網絡實現的任務,無論是目標檢測還是分類的算法,特征提取部分永遠是最重要的基礎。目前的深度學習理論已經證明增加特征提取的網絡深度可以獲得更多的語義信息,提高分類準確度。除了傳統的卷積神經網絡模型,也可以利用空間金字塔模型,通過融合多個不同尺度的特征圖得到更加豐富的特征信息來提高分類準確度。而與目標檢測或分類算法不同的是,圖像語義分割算法不僅需要獲取目標的特征信息做到像素級的分類,而且還需對圖像進行還原到原尺寸的恢復,圖像像素位置信息恢復得更加準確,分割結果更好。

本文從特征提取部分和恢復像素位置信息兩個方面入手,根據基本的U-net網絡結構,結合MBConv-Block編碼器模塊和新的解碼模塊設計了一種改進的EfficientUnet模型,其網絡結構如圖1所示。

圖1 EfficientUnet網絡結構Fig.1 EfficientUnet network structure

本文采用的MBConvBlock編碼器模塊來自于EfficientNet[15]卷積神經網絡。該模型在ImageNet數據集上獲得84.4%的Top-1精度和97.1%的Top-5精度,超越了此前表現最好的GPipe,并且速度相比GPipe提高了6.1倍。和已有的CNN模型進行對比,EfficientNet模型準確率更高、效率更高,其參數量和FLOPS都下降了一個數量級。而且模型大小方面,EfficientNet也比其他模型要小得多。對比工業界使用最多的ResNet-50[16],準確率也是勝出一籌(ResNet-50的76.0%,EfficientNet-B4的82.6%)。如表1所示。

表1 模型性能對比Table 1 Model performance comparison

EfficientNet模型綜合考慮網絡深度、網絡寬度以及圖片分辨率這三個影響卷積神經網絡處理圖片性能的因素。單獨增加其中任意一項都會提高結果的精度,但是任意一項參數的不斷增加又會導致參數增加的精度回報率降低,所以抽象出網絡深度、寬度、分辨率這三個維度的最優組合問題,其定義如下:

其中,N代表整個卷積網絡,d、w、r分別是網絡高度、網絡寬度、分辨率的倍率,X i為輸入張量,<Hi,Wi,C i>為網絡的輸出維度(省略了Batch維度)。文獻[15]通過三個維度的網絡搜索,最后得到了EfficientNet-B0。在計算量相當的情況下得到了比之前提出的模型更高的精度,更小的模型體積(參數數量),兼顧了速度和精度。

EfficientNet-B0主體是由16個MBConvBlock堆疊構成,MBConvBlock的結構如圖2左側所示,其總體的設計思路是Inverted Residuals結構和殘差結構,每個模塊主要包含四個卷積層,一個深度可分離卷積和一次特征融合操作。在3×3網絡結構前利用1×1卷積升維,在3×3網絡結構后增加了一個關于通道的注意力機制,最后利用1×1卷積降維后增加一個殘差邊。對于輸入MBConvBlock模塊的特征圖,在每經過一系列卷積操作后,所產生的特征圖便與最原始的特征圖進行融合形成新的特征圖,最后再將特征圖輸入下一個MBConv-Block模塊。此外,每個卷積層后面均添加了批量歸一化(batch normalization,BN)層和(Swish)激活層[16],定義如公式(2)所示:

圖2 編碼/解碼模塊示意圖Fig.2 Schematic diagram of encoding/decoding module

其中,批量歸一化層是為了解決網絡的訓練效果容易受到初始數據分布的影響,模型泛化能力差等問題而提出的,會對輸入數據進行歸一化操作。EfficientNet-B0是整個系列的基石,其他的版本都是在B0基礎上增加MBConvBlock的數量。EfficientNet根據不同尺度的圖片構建了8個模型,本文根據實驗效果選擇了EfficientNet-B3。

傳統的解碼器(Decoder)對提取到的特征映射進行插值重構得到每個像素的二分類結果。本文擴展路徑所用的解碼模塊是通過多次測試出來的最優結構,如圖2右側所示。解碼器模塊主要包含兩個3×3卷積和兩個scSE(spatial and channel squeeze&excitation block)注意力機制模塊[17]。scSE將空間注意力機制(sSE)模塊和通道注意力機制(cSE)模塊并聯,結合空間和通道注意力機制。具體就是將輸入特征圖分別通過sSE和cSE模塊后,然后將兩個模塊的輸出相加,得到更為精準的Feature map,scSE的結構如圖3所示。每個卷積層后面均添加了批量歸一化層和修正線性單元(rectified linear unit,ReLu)激活層。激活層之后加入scSE模塊可以帶來細粒度的語義分割提升,能夠讓分割邊緣更加平滑。在EfficientUnet的擴展路徑中,反卷積的輸出層先合并左邊特征提取網絡的跳躍接模塊,然后通過解碼器結構進行擠壓激活操作,增加層與層之間的聯系。最后利用上采樣和反卷積到原圖像大小,通過分割輸出模塊產生所需掩碼的通道數,做像素級的分類。

圖3 scSE模塊示意圖Fig.3 Schematic diagram of scSE module

1.2 損失函數

在以Dice指數為指標的二分類醫學圖像分割任務中,常用的損失函數是Dice相似系數損失函數,其定義如下:

Dice相似系數損失函數能夠指導網絡通過不斷學習,讓預測結果逐漸逼近真實結果。但是一旦預測結果中有部分像素預測錯誤,會導致預測目標的梯度變化劇烈,甚至出現無法收斂的情況。訓練誤差曲線非常混亂,很難看出關于收斂的信息,從而使得網絡的訓練變得困難。另外,雖然Dice相似系數損失函數能在一定程度上緩解類不平衡問題,但是對于微小氣胸效果不夠顯著。因此本文提出一種改進的混合損失函數解決該問題,損失函數分為兩部分,表達式如公式(4)所示:

LFocal是Focal損失函數[18],其引入主要是為了緩解類別不平衡問題。ypred反映了模型對這個樣本的識別能力;α代表類別權重,用來平衡正負樣本的比例不均,經過多次實驗設定為10;(1-ypred)γ代表難度權重,調節參數γ來減少易分類樣本的損失;對于ypred越大的樣本,越要抑制它對loss的貢獻。Focal損失函數的定義如下:

訓練時迭代次數的選擇對網絡的分割性能十分重要。如果訓練迭代次數太少,圖片中的氣胸特征信息沒有被充分挖掘,模型無法很好地擬合訓練數據的分布會出現欠擬合狀態。但是,如果訓練迭代次數過多,模型過度依賴訓練數據的分布會容易出現過擬合狀態(Overfitting),即神經網絡過分追求擬合效果,學習到了在訓練數據中完全沒有意義的特征。為了防止上述情況,訓練過程中通過對比驗證集上的Loss值,自動選擇小的保存模型權重。通過觀察實驗過程中驗證集上的Loss的變化確定合適的訓練迭代次數。圖4展示了在訓練過程中EfficientUnet在訓練集和驗證集上的損失值隨著訓練迭代次數變化的曲線圖。從圖中可以看出網絡的損失值隨著訓練迭代次數的增加而不斷降低,當訓練迭代次數接近60時,驗證集的損失值趨于穩定。因此,本文第一階段實驗中的訓練迭代次數設置為60。

圖4 EfficientUnet損失值變化Fig.4 Change of EfficientUnet loss value

1.3 三重閾值策略

語義分割模型的輸出為Sigmod激活函數輸出的每個像素的分類概率,因此關鍵需要對每一個像素點判斷其是否為氣胸像素。針對小面積氣胸的漏檢情況,本文提出一種新的閾值策略:三重閾值策略。本策略主要對模型最后的輸出采用了三重不同的閾值策略:對經過最大閾值(top score threshold)的掩碼圖片,統計整張圖片中預測為氣胸像素的面積和,若小于該最小面積閾值(min contour area),則認為是無氣胸圖片。如圖5左側所示,對于相同的閾值參數:最大閾值0.5,最小面積閾值3,上面這張圖的氣胸像素面積為4,認定該圖片含有氣胸。而下面這張圖的氣胸像素面積為2,認定為不含氣胸圖片。這是目前圖像分割領域比較主流的閾值策略,相比原始的單閾值策略更加嚴謹,但是對于醫學圖像分割任務來說適用性不夠。本文在此基礎上追加了一個最小閾值(bottom score threshold),經過雙重閾值篩選后再次判斷像素輸出概率值大于最小閾值0.3就會被最終認定為是氣胸像素。算法流程如圖5右側所示,發現使用該策略后最終兩張圖都檢測出含有氣胸。此舉是為了在滿足傳統的閾值判斷前提下,適當降低分割閾值,盡量檢測可能存在的病灶區域。該策略雖然可能會增大檢測結果中假陽性的概率,導致模型評估指標降低。但是從實際醫學的角度來看,在可能存在氣胸的情況下,對病人來說假陰性比假陽性更嚴重。

圖5 雙重/三重閾值策略Fig.5 Dual/triple threshold strategy

2 實驗與分析

2.1 實驗設置

2.1.1 數據集及評價指標

本文實驗所用的SIIM-ACR Pneumothorax數據集是由美國醫學圖像信息學會(society for imaging informatics in medicine,SIIM)和美國放射學院(American college of radiology,ACR)提供的,開源在Kaggle平臺。數據集包含12 089個DICOM文件作為訓練集,3 205個DICOM文件作為測試集(digital imaging and communications in medicine,DICOM),即醫學數字成像和通信。DICOM被廣泛應用于放射醫療,心血管成像以及放射診療診斷設備(X射線、CT、核磁共振、超聲等),并且在眼科和牙科等其他醫學領域得到越來越深入廣泛的應用。所有患者的醫學圖像都以DICOM文件格式進行存儲。這個格式包含患者的PHI(protected health information)信息,例如姓名、性別、年齡,以及其他圖像相關信息。醫學圖像設備生成DICOM文件,醫生使用DICOM閱讀器(能夠顯示DICOM圖像的計算機軟件)閱讀并對圖像中發現的問題進行診斷。

實驗分成兩個階段,第一階段將訓練集劃分成10 712個DICOM文件的訓練集,1 377個DICOM文件的測試集。使用了3種評價指標:Dice、Recall、Precision,表達式如式(6)~(8):

TP、TN、FP和FN分別表示真陽性、真陰性、假陽性和假陰性的數量。Dice指標是醫學圖像中的常見指標,可用于比較預測的分割結果與其對應的真實情況之間的像素方式一致性,常用于評價圖像分割算法的好壞。準確率是指被正確預測為氣胸的像素總數占被預測為氣胸的像素總數的比例。召回率是指被正確預測為氣胸的像素總數占實際像素總數的比例。上述指標用于氣胸分割結果的綜合評估,它們的值越大代表分割結果越好。第二階段將第一階段的訓練集和測試集合并成新的訓練集,另有包含3 205個DICOM文件的測試集。因為測試集的標簽未公開,所以第二階段的實驗結果以競賽中排行榜得分為準,即測試集中所有圖像的Dice系數的平均值。

2.1.2 實驗環境

硬件環境為NVIDIA TITAN X顯卡,128 GB運行內存,Intel E5-2678V3處理器。軟件環境為Ubuntu16系統,Python3.6,Tensorflow1.12.0和Pytorch1.1開發環境。

2.2 實驗細節

數據預處理:首先利用Pydicom庫將全部DICOM文件轉換成PNG文件。原圖大小為1 024×1 024,先將圖片縮放成512×512,為了加快訓練時梯度下降求最優解的速度對圖像再進行標準化(Normalize):mean=(0.485,0.456,0.406),std=(0.229,0.224,0.225)。為了進一步提升細節特征,方便神經網絡提取更多特征,同時能夠較好地抑制醫學圖像成像過程中產生噪點,本文采用對比度限制自適應直方圖均衡化(CLAHE)算法對圖像進行處理進行后續研究[19]。直方圖均衡化算法(AHE)會將圖像采集過程中的噪點增強,且增強幅度較大。CLAHE同普通的自適應直方圖均衡化不同的地方主要是其對比度限幅。這個特性也可以應用到全局直方圖均衡化中,即構成所謂的限制對比度直方圖均衡。在CLAHE中,對于每個小區域都使用對比度限幅來克服AHE的過度放大噪音的問題。另外經過對比度限制自適應直方圖均衡化之后,圖像的對比度會有所增強,圖像的細節能更清晰地展現出來,方便神經網絡提取特征。從圖6中可以看出處理后的圖像噪點減少很多,而且氣胸區域顯得更加明顯。

圖6 對比度限制自適應直方圖均衡化效果Fig.6 Contrast constrained adaptive histogram equalization

遷移學習以及數據增強:神經網絡對特征的學習需要大量經過人工標記樣本的訓練以及測試樣本,如用于視覺對象識別的ImageNet數據集[20]包含1 000個類別的超過120萬張高分辨率圖片。大部分情況下,數據集的規模是無法滿足深度神經網絡的訓練要求的,往往會出現過擬合的現象。導致模型在測試集上的表現遠沒有在訓練集上的那么好,網絡不具有魯棒性。本文使用多種數據增強方法擴大數據集,增強模型的抗過擬合和抗干擾能力,包括:高斯噪聲、隨機放射變換、隨機垂直或水平翻轉。另外為了加快模型的學習速度,本實驗使用遷移學習,將已經在ImageNet數據集上訓練好的EfficientNet參數作為特征提取模型的初始參數,在此基礎上進行微調(fine tune),繼承模型從ImageNet數據集上學習到的特征提取能力。

滑動采樣訓練策略:在原數據集中,有氣胸的圖片只占到了約28.37%,因此正負樣本數量是不均衡的,對模型的收斂速度以及效果會造成較大影響。因此在訓練中,對數據進行了滑動采樣策略(sliding sample rate)。具體來說,就是在當前訓練批次(batch),對數據進行隨機采樣,使正負樣本達到1∶1的比例,如圖7所示。

圖7 滑動采樣訓練策略Fig.7 Sliding sampling training strategy

實驗超參數設置:使用了Adam優化器,batch-size設置為2,初始學習率為0.000 1。學習率衰減方式為ReduceLROnPlateau,當連續訓練3個epoch而模型性能不提升時,學習率衰減為原來的1/10。損失函數的參數以及訓練迭代的次數按照1.2節中提到的策略設置。

2.3 對比模型

為了驗證本文方法在氣胸X光圖像上的分割性能,將本文方法與現有方法U-net方法[11]、Attention Unet方法[12]、ResUnet方法[13]、DeepLabV3+方法[14]進行了對比實驗。兩個階段上述網絡的訓練過程和EfficientUnet網絡的訓練過程完全相同,均采用5折交叉驗證(5-foldcross-validation),分別訓練預處理后的5份數據集。兩個階段實驗分別訓練60和100個epoch(停止標準與第一階段實驗相同),保存得分最高的模型。

2.4 分割性能對比及分析

訓練完成后,在SIIM-ACR Pneumothorax測試集上評估算法的分割性能。兩個階段的實驗分別按照2.1.1小節中的評分標準和競賽評分的標準(mean Dice)進行評估,兩個階段的對比實驗結果如表2、表3所示。

表2 第一階段實驗結果對比Table 2 Phase 1 comparison of experimental results

表3 第二階段實驗結果對比Table 3 Phase 2 comparison of experimental results

第一階段實驗在測試集上達到的Dice相似系數值、精確率和召回率分別為85.95%、93.40%和88.72%(不使用三重分割閾值策略),可以看出本文提出的Efficient-Unet相比之前提出的一系列醫學圖像分割網絡性能均有較大的提升。與原始的Unet算法相比,分別提升了6.67、1.87和6.19個百分點。對比最先進的DeepLabV3+方法也有一定的提升,分別提升了0.96、1.05和0.29個百分點。第二階段實驗EfficientUnet在測試集上達到的Dice相似系數值對比U-net方法、Attention Unet方法、ResUnet方法、DeepLabV3+方法分別提升9.41、6.32、1.49和0.69個百分點。實驗結果表明,本文提出的網絡結構能夠改善對氣胸的分割效果。

為了驗證三重閾值分割策略的有效性,做了一系列實驗。表4展示了分割結果在不同閾值參數下對EfficientUnet性能的影響,第一行是使用雙重閾值分割策略的結果,作為基準。從實驗結果來看,三重閾值分割的效果與三個閾值的設置密切相關,改變參數會使三種指標均呈現不同的變化。作為分割任務,Dice相似系數值是衡量結果好壞的主要參考指標。從表中可以看出當最大閾值(表中為Top)取值為0.5、最小面積閾值(表中為Area)取值為2 500、最小閾值(表中為Bottom)取值為0.35時,網絡的性能表現最佳。與使用雙重閾值策略的EfficientUnet算法相比,三個指標分別提升了1.26、0.24和1.41個百分點。分析可知,相比雙重閾值,表4第二行這種“寬容”的小參數設置能有效提高對小面積氣胸的檢測效果,Dice相似系數值和精確率都有較明顯的提升。使用“嚴格”的大參數設置能有效提高召回率,但是Dice相似系數值和精確率基本沒有改善,甚至有降低的表現。

表4 不同閾值參數對結果的影響Table 4 Influence of different threshold parameters on results

實驗發現,最大閾值取0.5時,總體效果比取其他值都要好。分析得到最大閾值的取值和網絡訓練時閾值的取值相關。本實驗網絡訓練時采用的閾值為0.5,故使用該策略分割時最大閾值應該選用網絡訓練時使用的閾值。另外,最小面積閾值取2 500和最小閾值取0.35作為組合時,是實驗中各最大閾值分組中效果最好的。雖然該策略能有效提高分割的效果,但是增加了調參的難度。需要通過實驗挑選有效的參數,不然效果反而會變差。

五種網絡的分割結果的可視化如圖8所示,圖中第一列是輸入模型的胸透圖片以及醫療專家標注的氣胸輪廓真實標簽,最后一列是使用EfficientUnet結合三重閾值策略對氣胸分割的結果。文獻[12]和文獻[13]方法相較于U-net,分割效果均有一定的提升。但是只能實現對氣胸的大致定位,分割效果不夠精細。對比觀察圖中前兩行的圖像,當氣胸在圖像中所占比例較小,且含有多個病灶區域時,上述方法均存在較大的漏檢情況。未改進的U-net網絡由于每一層所提取的特征通常只被學習一次,不同層次的特征之間聯系不夠密切,因此網絡對于特征的利用率較低,更容易受到與病灶相似的干擾區域的影響,最終的分割準確率不夠。其結果中有檢測不出圖片存在氣胸的情況。文獻[14]方法對大面積的氣胸分割效果較好,分割出來的形狀和邊緣與真實標簽比較接近。但是通過觀察第一行和第四行,可以發現當圖像中存在不連通的微小病灶區域時,也存在較嚴重的漏檢情況。

圖8 不同模型的氣胸分割結果圖Fig.8 Pneumothorax segmentation results of different models

相比之下,本文提出的EfficientUnet能夠有效地區分氣胸與其他肺部組織,對氣胸輪廓的預測更為精確。由于醫學圖像數量少,且目標區域與背景的比例差距較大,對其提取特征較為困難。該網絡采用多個編碼模塊堆疊,加深網絡的方式充分提取氣胸特征更適合于醫學圖像分割任務。通過跳躍連接方式,利用簡單特征用于像素準確定位以及抽象特征用于像素準確分類的特點,將兩者結合從而幫助網絡得到更為精細的分割結果。通過對比圖8后兩列,可以發現后處理時使用三重閾值分割策略有效的減少小面積氣胸的漏檢情況。綜上所述,本文提出的氣胸分割方法與其他分割算法相比,分割效果得到顯著提升,在針對微小或邊界模糊的氣胸的分割過程中魯棒性高,具有良好的性能。

3 結束語

氣胸X線圖像分割是實現氣胸疾病精確顯示、診斷、早期治療和手術計劃的關鍵一步。本文提出了一種新型的X線氣胸分割方法,模型通過結合MBConv-Block模塊,相比于其他醫學圖像分割網絡在特征提取能力上有極大的提升,使得網絡能夠有效檢測氣胸。并且創造性地使用三重閾值分割策略更加準確地分割出小面積的病灶區域,在SIIM-ACR Pneumothorax數據集的實驗中性能表現良好。實驗采用對比度限制自適應直方圖均衡化對圖像進行預處理,發現該方法對特征提取有較大的幫助,能有效去除醫學圖像中存在的噪點。上述的方法具有一定的泛化性,不僅適用于氣胸的檢測與分割,對其他醫學圖像分割研究也有參考價值。另外,實驗發現不同的數據增強和閾值參數都對實驗結果有較大的影響。對于數據增強來說,現有的方法數量繁多。對于閾值參數來說,三個參數的不同組合也會產生很多不同的效果。上述兩個方面都無法全部實驗,只能嘗試幾種常見的組合。

因此在未來的工作中,除了考慮采用更好的特征提取網絡結構之外,找出合適的數據增強方法,更好地挖掘胸透圖片的信息,以及如何實現閾值參數的自動化選取將是下一步提高分割準確率的研究重點。

猜你喜歡
實驗模型
一半模型
記一次有趣的實驗
微型實驗里看“燃燒”
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
做個怪怪長實驗
3D打印中的模型分割與打包
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 亚洲欧洲日本在线| 丁香婷婷激情综合激情| 亚洲无码视频喷水| 日韩成人午夜| 中文字幕调教一区二区视频| 91年精品国产福利线观看久久| 国产精品偷伦在线观看| 国产成人综合久久精品尤物| 成人免费视频一区| 久久国产亚洲偷自| www.youjizz.com久久| 久久中文电影| 国产三级视频网站| 亚洲视频一区在线| 国产精品视频久| 高清视频一区| 中文字幕日韩视频欧美一区| 成人国产小视频| 国产精品亚洲一区二区在线观看| 国产精品综合久久久| 国产午夜不卡| 四虎永久免费地址| 国产精品分类视频分类一区| 精品国产电影久久九九| 六月婷婷综合| 久久亚洲天堂| 亚洲v日韩v欧美在线观看| 在线视频97| 精品视频在线观看你懂的一区| 97人人做人人爽香蕉精品| 久久精品人妻中文系列| 亚洲毛片一级带毛片基地| 青青青亚洲精品国产| 国产精品.com| 日韩欧美国产成人| 超级碰免费视频91| 亚洲欧美日韩成人在线| 中文字幕1区2区| 毛片基地美国正在播放亚洲 | 欧美日韩国产精品综合 | 亚洲国产黄色| 亚洲另类国产欧美一区二区| 国产91丝袜在线播放动漫| 日韩国产综合精选| 欧美另类第一页| jijzzizz老师出水喷水喷出| 成人综合在线观看| 高清视频一区| 国产一区自拍视频| 国产无码精品在线播放| 福利在线不卡| 免费黄色国产视频| 亚洲欧美在线综合图区| 找国产毛片看| 国产美女视频黄a视频全免费网站| 欧美久久网| 色一情一乱一伦一区二区三区小说| 久操中文在线| 久久亚洲AⅤ无码精品午夜麻豆| 中文成人在线| 欧美97色| 精品久久久久久久久久久| 五月婷婷综合网| 国产视频自拍一区| 伊人五月丁香综合AⅤ| 欧美国产日韩另类| 67194亚洲无码| 91激情视频| 热这里只有精品国产热门精品| 欧美成人国产| 亚洲国产一成久久精品国产成人综合| 国产午夜福利在线小视频| a在线亚洲男人的天堂试看| 欧美精品v日韩精品v国产精品| 欧美亚洲一区二区三区在线| 黄色网站在线观看无码| 污网站免费在线观看| 极品国产在线| 91无码视频在线观看| 欧美.成人.综合在线| 在线观看免费国产| 久久精品日日躁夜夜躁欧美|