




摘 要:深度卷積神經網絡在醫學圖像分割領域運用廣泛,目前的網絡改進普遍是引入多尺度融合結構,增加了模型的復雜度,在提升精度的同時降低了訓練效率。針對上述問題,提出一種新型的WU-Net肺結節圖像分割方法。該方法對U-Net網絡進行改進,在原下采樣編碼通路引入改進的殘余連接模塊,同時利用新提出的dep模塊改進的信息通路完成特征提取和特征融合。實驗利用LUNA16的數據集對WU-Net和其他模型進行訓練和驗證,在以結節為尺度的實驗中,Dice系數和交并比分別能達到96.72%、91.78%;在引入10%的負樣本后,F1值達到了92.41%,相比UNet3+提高了1.23%;在以肺實質為尺度的實驗中,Dice系數和交并比分別達到了83.33%、66.79%,相比RU-Net分別提升了1.35%、2.53%。相比其他模型,WU-Net模型的分割速度最快,比U-Net提升了39.6%。結果顯示,WU-Net提升肺結節分割效果的同時加快了模型的訓練速度。
關鍵詞:肺結節分割;深度卷積神經網絡;WU-Net;多尺度融合;圖像分割
中圖分類號:TP391 文獻標志碼:A
文章編號:1001-3695(2022)03-044-0895-05
doi:10.19734/j.issn.1001-3695.2021.07.0292
基金項目:國家自然科學基金資助項目(60974066)
作者簡介:張宇杰(1998-),男,湖南長沙人,碩士研究生,主要研究方向為深度學習、圖像分割;葉西寧(1968-),女,陜西蒲城人,碩導,博士,主要研究方向為圖像處理、數據挖掘、嵌入式系統應用(lucifermzhang@163.com).
Improved lung nodules segmentation algorithm based on WU-Net
Zhang Yujie,Ye Xining
(College of Information Science amp; Engineering,East China University of Science amp; Technology,Shanghai 200237,China)
Abstract:Deep convolutional neural network is widely used in the field of medical image segmentation.In recent years,multi-scale fusion structure is used to improve segmentation network,which often increases the complexity of the model and reduces the training efficiency while improving the accuracy.To solve these problems,this paper proposed a novel segmentation algorithm for WU-Net pulmonary nodules.It improved the U-Net by introducing an improved residual connection module into the original down-sampling coding channel and mean while using the information channel improved by the new dep module to complete feature extraction and feature fusion.In the experiment,it used LUNA16 dataset to train and verify the model.Meanwhile,comparative experiments used some newly segmentation models.In the experiment with scale of nodules,the Dice coefficient and IoU of proposed model can reach 96.72% and 91.78% respectively.F1-score can reach 92.41% after adding 10% negative samples,which is 1.23% higher than UNet3+.In the experiment with scale of lung parenchyma,the Dice coefficient and IoU of proposed model can reach 83.33% and 66.79% respectively,which is 1.35% and 2.53% higher than RU-Net.The training efficiency of WU-Net is the highest,which is 39.6% higher than U-Net spend.The result shows that WU-Net has improved segmentation effects and training efficiency of model as well.
Key words:lung nodule segmentation;deep neural convolution network;WU-Net;multi-scale fusion;image segmentation
據統計,肺癌一直占據著我國癌癥發病率的榜首[1],一般于中晚期發現,導致死亡率很高,所以肺癌的早期診斷具有重要意義[2]。臨床上,醫生通過觀察患者胸部CT掃描圖像中肺結節的體積、形態等特征來對其良惡性進行診斷。一方面CT 圖像的數據量越來越大,給診斷醫生帶來了沉重負擔,同時長時間進行CT影像的診斷會影響判斷的準確性;另一方面,肺結節體積微小、形態各異,與肺實質中的血管等組織相似,容易干擾醫生的判斷。在這種情況下,對肺結節的自動分割方法進行研究具有十分重要的臨床價值。近年來,深度學習被廣泛運用于各種醫學圖像分割領域,并且表現出不錯的效果。Ronneberger等人[3]在端到端FCN[4]的基礎上改進并提出U-Net,通過編碼通路與解碼通路的跳躍連接增強特征的表達性,使分割性能優異,也使其在醫學圖像分割領域獲得極大關注,越來越多的學者開始對其進行改進。UNet++[5]在原模型基礎上,利用深監督學習,疊加深淺層的特征信息,不同層次之間利用不同的解碼通路從而得到不同的深度特征。UNet3+[6]在UNet++的基礎上,每一個解碼器層都融合來自編碼器中的小尺度和同尺度的特征圖,以及來自解碼器的大尺度特征圖,這些特征的融合也使得UNet3+的分割性能更優。在U-Net的基礎上,U-Det[7]引入雙向交叉連接的多尺度融合結構Bi-FPN[8],豐富每個層次的特征映射,使不同深度的特征進行融合,結果表明分割精度得到一定提升。本質而言,上述的改進模型均是類似多尺度融合結構,多層次的特征融合增加模型復雜程度的同時也增加了模型的運算量,也容易導致后期訓練出現過擬合現象,難以提升在驗證集上的表現。
針對上述問題,本文提出一種WU-Net的肺結節分割算法,該方法基于U-Net,引入改進的殘余連接模塊,并且通過一條改進的信息融合通路進行特征提取和特征融合,在提升分割精度的同時能夠有效降低運算復雜度、提升訓練效率。
1 WU-Net模型結構
1.1 WU-Net模型
本文提出一種端到端的深度卷積模型,在U-Net的基礎上去掉較深的卷積層,相反在兩端引入淺層卷積,與多尺度融合的模型不同,僅采用單一尺度的信息融合結構,同時引入res和dep模塊。多尺度融合模型的結構決定模型的復雜性,在模型進行學習中,深層的卷積也容易導致過度提取特征,從而喪失一般性,降低了泛化性能,而WU-Net模型兼顧了特征融合以及泛化性能的提升。圖1為本文模型WU-Net的結構。block的長度與卷積核個數成反比,圖中最長的block對應卷積核為32的卷積層,中心最短的block對應卷積核為512的卷積層;block×n和block+n分別表示n個相同block進行串聯和并聯。
本文提出的WU-Net結構,以512×512圖像作為輸入并輸出512×512掩膜,模型結構包括收縮和擴展兩個部分,同時也分別是網絡的編碼器和解碼器。以U-Net模型為基礎,去掉最深層1 024核的卷積部分,添加淺層32核卷積,同時將原模型編碼部分的普通卷積進行替換,替換成改進的殘余連接模塊,由res block和最大池化操作構成的編碼器向下生成尺寸減半的特征圖。解碼器由多層的卷積和上采樣模塊組成,通過上采樣操作恢復特征圖的分辨率,特征圖每經過一次解碼器,尺寸都會擴大一倍,多層的卷積能夠在特征圖恢復過程中提供更多的信息,最終能得到和初始圖像同等尺寸的特征圖。同時,同尺度的編碼器和解碼器之間利用跳躍連接進行信息整合,融合網絡提取的簡單特征與深層特征,得到更加精細的分割結果。
相比較多尺度融合的深度卷積網絡,本文改進的模型在256核的卷積層引入一條改進的信息通路,通過dep模塊和上采樣的信息恢復,再通過下采樣的信息提取,融合解碼部分的256核卷積層結果,最后通過連續的由上采樣和卷積層組合的解碼器進行同尺度結果輸出。
網絡最后一層的分類器為1×1的卷積層,激活函數為sigmoid,1×1卷積層用于減少特征圖的數量,sigmoid能夠將模型的輸出映射成0~1的值,輸出網絡的分割概率圖。
1.2 模塊改進
1.2.1 殘余連接模塊
圖2(a)為本文采用的殘余連接模塊res block,在He等人[9]提出的殘余連接模塊的基礎上進行改進,在右側的捷徑通路上引入一個卷積和一個BN模塊。初始的殘余連接提高了特征提取和原始數據的相關性,改進后的模塊,捷徑通路在一定程度上保留了原始數據的信息,同時通過簡潔特征提取和殘余連接加速了模型的收斂。BN模塊指的是batch normalization[10],通常也稱做白化操作,能將數據進行歸一化,保證數據處于統一的0均值、方差為1的正態分布,對輸入數據的白化操作能消除初始數據分布對模型的影響,加速模型收斂。將殘余連接模塊添加進網絡結構中,能夠使每層網絡結合上一層網絡提取到的特征信息,豐富網絡層次,對特征信息進行融合提取,達到提升分割精度的效果。
1.2.2 dep模塊
在殘余連接模塊的基礎上,本文針對多尺度融合結構還提出一個信息提取模塊,圖2(b)是本文采用的dep block,主要是利用seperableConv和depthwiseConv[11]兩種卷積,這兩種卷積均包含于深度可分離卷積。seperableConv實現整個深度分離卷積操作,標準卷積核需要同時學習空間上的相關性和通道間的相關性,深度可分卷積將這兩種相關性顯式地分離開來,也就是空間卷積和通道卷積。depthwiseConv為前半部分的空間卷積。空間卷積將通過單核的卷積對圖像進行特征提取,通道卷積利用與通道數相等的卷積核將各個通道的圖像分別卷積并疊加。這兩種卷積相較于傳統深度卷積而言,最大的特點是運算量少、速度更快。本文提出的dep block先進行完整的可分離卷積,提取到多維的信息,最后利用空間卷積將融合的特征信息進行再提取,快速獲取模型編碼部分的尺度信息,同時進行BN操作,加速收斂的同時使解碼部分獲取到更為豐富的特征信息。
1.3 Zloss損失函數
在分割領域利用Dice損失函數進行訓練,容易出現訓練曲線不可信的情況,在真值圖和預測圖的有效部分較小時,梯度變化劇烈,導致訓練困難。針對這個問題,本文提出一種新的損失函數Zloss,考慮交叉部分分別與真值和預測部分的相似度,如圖3所示,A為真值圖,B為預測圖,C為交集,評估方法為C占A的比例為score1,C占B的比例為score2,兩者之積為final score也即Zacc,而Zloss為1與Zacc的差值,取值為0~1,如式(1)所示。同時定義當A與B均為空集時,Zloss為0,同時為了防止分式分母為0,在實際編程設計損失函數時,分母加上了一個極小的非零正浮點數,這樣當A或B為空集時,Zloss值為1。
根據圖3,由Zloss以及Diceloss的定義可知,Z=1-C2/A×B,D=1-2C/(A+B),因為A為真值圖,當需要分割的圖像確定時,A便固定,只需考慮B和C對兩個損失函數梯度的影響。分析模型的收斂,需要考慮的是評價指標對于損失函數的梯度變化情況。這里對兩種損失函數進行比較,則需求取兩者評價指標對于損失函數的梯度變化情況的比值,通過計算可知評價指標的偏導約分后消失,且得出比值恰為損失函數自身梯度變化比值的倒數。為圖像中曲線有區分性,令M、N分別為當C和B變化時兩種損失函數梯度變化之比,則IoU對于兩種損失函數梯度變化之比分別為1/M和1/N,同時根據C≤B的關系,可以得到如圖4所示的曲線。
圖4(a)為C變化時損失函數之間的梯度之比,當A/B固定,且C/A較小時,即預測圖與真值圖的交叉部分比較小時,模型需要訓練至交叉部分越來越大,此時1/M遠大于1,表明利用Zloss損失函數訓練模型梯度變化快,模型收斂速度更快,有利于模型的訓練;同時當C/A變大時,1/M也開始變小,有利于模型后期訓練不會因為梯度過大而出現訓練不穩定的情況。圖4(b)為B變化時損失函數之間的梯度之比,當C/A固定,且A/B較小時,即預測圖比真值大時,模型需要訓練至預測圖越來越小,此時1/Ngt;1,表明利用Zloss損失函數進行訓練模型能更快收斂;當A/B變大時,1/N值開始減小,梯度變化減小,模型訓練變緩,能夠使后期訓練更穩定。
2 實驗與分析
2.1 實驗數據
本文肺結節檢測的數據采用的是LUNA2016大賽的數據集(https://luna16.grand-challenge.org/Home/),原數據集包含10個子集,且為三維的mhd格式圖像文件,總共包含1 186張CT圖像,利用Python進行切片讀取,對于每個文件能夠得到3張512×512的PNG圖像。同時利用數據集給出的標注文件,生成對應的掩膜圖像。這里對數據集進行兩種預處理,分別是生成以結節為尺度的實驗數據和以肺實質為尺度的實驗數據,以肺結節為尺度的數據利用文獻[12]的方法對肺部圖像進行肺實質分割,對不屬于肺實質的部分進行剔除。
2.2 評價指標
在語義分割圖像分割領域,通常使用Jaccard相似系數和Dice相似系數來評價算法的性能。
1)Jaccard相似系數
Jaccard相似系數通過一定的計算對樣本之間的差異性和相似性進行評價。Jaccard系數值越接近于最大值1時,樣本就越相似。給定兩個集合M與N,Jaccard系數定義為M與N交集的大小和M與N并集的大小的比值,如式(2)所示。
當M與N均為空集時,則定義此種情況Jaccard系數為1。直觀上通常將Jaccard系數理解為M與N的IoU,也就是集合的交并比。
2)Dice相似系數
Dice系數評估的同樣是樣本之間的相似度,通過定量計算來衡量兩個集合是否相似并給出相似度的值,具體如式(3)所示。
其中:M代表預測分割結果;N代表實際的標簽值。
Dice系數與Jaccard類似,用于估計集合之間的相似程度,Dice系數越接近于1,則集合越相似。
為了防止實際訓練中評價指標公式出現分母為0等情況,編程時在分式中引入了一個常量正數來消除影響。
2.3 實驗設計
本文實驗利用谷歌的Colab平臺,使用Tesla V100(16 GB顯存)進行模型訓練,實驗環境為Python3.7,Keras2.4.3,TensorFlow2.4.1。
本文主要進行三組對比實驗,均采用k為5的k-fold訓練方法,即五折交叉驗證。第一組對照實驗為以肺結節小尺度的正樣本進行的實驗,在樣本中,肺結節的位置均相對圖像中心有隨機偏移,以保證訓練的最優和泛化性能。第二組實驗在第一組的基礎上引入負樣本,負樣本是從樣本圖片中隨機分割得到的不包含結節的樣本圖片,分為兩小組,分別為引入5%與10%的負樣本,旨在考查模型的假陽性和敏感性等性能。第三組實驗是以肺實質為尺度的大范圍圖像樣本實驗,目的是評估模型在僅提供肺實質圖像情況下的肺結節分割效果。
各組實驗均利用多種模型進行測試,除了本文提出的WU-Net以及原始U-Net,還利用到近期一些在LUNA16數據集上表現較好的模型進行測試,其中有前文提到的在UNet++上改進得到的UNet3+和U-Det,文獻[13]提出的模型DeepLabv3+amp;xception65,是一個利用Xception[14]改進DeepLabv3+[15]的模型,也有基于改進殘差和改進跳躍連接的RU-Net[16]。對于LUNA16數據集各論文沒有統一的處理方法,所以實驗均采用本文的預處理方法進行統一測試。
2.4 結果與分析
2.4.1 損失函數對比
圖像分割中損失函數常用的是Dice相似系數對應的Dice損失函數,在一組基礎實驗下(以肺結節為尺度不包含負樣本),根據本文提出的Zloss損失函數,對比各種模型以肺結節為尺度分別在兩種損失函數下的分割效果,此處評價指標均采用訓練集和測試集按比例的加權平均。
如表1所示,根據對比結果可以看到,各種模型在Zloss下的分割效果明顯更優,同時從圖5可以看出,對于IoU評價指標,訓練前期在Zloss下比在Diceloss下模型收斂速度更快,后期收斂變緩同時訓練相對更穩定,在Zloss下的IoU曲線幾乎始終在Diceloss之上,同時最終得到的分割精度也更高。這與1.3節的理論分析結果一致,所以接下來的實驗均采用Zloss損失函數進行模型訓練。
2.4.2 改進模塊消融實驗
本文設計五組對比實驗來對提出的改進模塊以及改進信息通路進行比較驗證,res block和dep block代表本文提出的兩種改進模塊,改進的信息通路是一條包含dep block的信息融合通路,如圖1所示。為了單獨驗證dep模塊的效果,對比實驗中改進的信息通路是不包含dep block的。通過基礎實驗(以肺結節為尺度不包含負樣本)可以得到如表2所示的結果。
從表2的實驗結果來看,model_a與model_b、model_c與model_a、model_c與model_d、model_e與model_b、WU-Net與其他模型分別構成五組對比實驗,前三組對比實驗結果分別表明,res block、改進的信息通路、dep block的引入對模型的分割效果有較明顯的提升;后兩組對比實驗結果表明,本文提出的改進模塊與信息通路的優化效果可以疊加,最后的分割精度優于單獨使用改進模塊的精度。
2.4.3 以結節為尺度
按照實驗設計,以結節為尺度的圖像和其標注結果均會進行隨機偏移,保證模型的泛化性,同時利用五折交叉驗證的方法對圖像數據進行五等分,依次取一份為驗證集,進行訓練集與驗證集之比為4:1的實驗,最后取分割結果均值,并記錄均方差。
1) 不含負樣本
對于不包含負樣本的情況,以結節為尺度的實驗結果如下,為五折交叉實驗的均值以及均方差。tra代表的是訓練集結果,val代表的是驗證集結果,不帶前綴的評價指標代表綜合結果,綜合結果根據訓練集和驗證集的比例加權計算得來。
以表3的實驗結果來看,本文提出的WU-Net相比于原始的U-Net提升明顯,對比一些新提出的模型來看分割效果也更優,特別是在驗證集上表現明顯優于其他模型,表明改進的WU-Net泛化性能更優,不容易過擬合,也在驗證集上大幅優于其他模型。
圖6與7為表3對應的各種模型的訓練曲線,以U_v_DICE為例,U表示模型U-Net,v表示validation驗證集,DICE表示評價指標Dice系數。
從逐步訓練曲線來看,在驗證集上的表現不論是Dice系數還是IoU系數,本文提出的WU-Net均大幅領先于其他模型,并且訓練曲線更穩定、抖動較小。從逐時訓練曲線看,最復雜的UNet3+需訓練超過10 h,而本文的WU-Net模型的訓練時間短、訓練速度快,僅需不到2 h就可以完成訓練。不論是精度還是訓練效率,本文模型都是最優的。
2) 包含負樣本
對于包含負樣本的情況,負樣本的獲取是從以肺實質為尺度的圖像中隨機截取的不包含結節的圖像,并擴展至和正樣本一樣的尺寸。引入5%和10%的負樣本進行測試,主要對FPR(假陽性率)、precision(準確率)、recall(召回率,也稱敏感性)進行對比,F1-score為綜合指標,計算如下:
對于假陽性率,由于有些模型分割出的肺結節掩膜很小,對于醫師來說這樣的部分很明顯不是肺結節,所以對于在原512×512圖像中半徑小于2個像素的假陽性肺結節掩膜進行剔除。同時也考慮到在正樣本中,某些非肺結節的部分也會識別出假肺結節,最后以總的假肺結節數除以總的識別到的肺結節數作為假陽性率。準確率與假陽性率之和為1。召回率為分割出正確的結節占總的肺結節的比例。
如表4所示,從引入5%負樣本的結果來看,本文模型WU-Net僅在召回率上稍差于DeepLabv3+amp;x_65模型,但從綜合指標F1-score來看,改進模型的效果更好。
如表5所示,從引入10%負樣本的結果看,與5%負樣本的情況類似,本文模型WU-Net優于其他模型,僅在召回率上稍差于DeepLabv3+x_65,其他各項性能指標均體現出一定優勢。
2.4.4 以肺實質為尺度
肺實質大尺度的圖像包含的無關信息更多,對于肺結節的分割而言會更加困難,通過以肺實質為尺度的實驗對比可以更好地比較模型之間的性能和優勢。以肺實質為尺度的分割效果如表6所示,對比綜合的性能指標,即綜合訓練集和驗證集的結果。利用改進殘差模塊和跳躍連接的RU-Net在以肺實質為尺度的實驗中表現出一定的優勢,本文提出的WU-Net表現出最好的效果,對比原始的U-Net模型,交并比提升近14%,Dice系數也提升近10%,相比其他模型中表現最好的RU-Net,交并比和Dice系數也分別提升2.53%和1.35%。從表中結果來看,相比多尺度融合的UNet3+和U-Det,RU-Net和WU-Net在IoU和Dice相似系數下都表現優異,體現出兩個模型的改進殘余連接模塊對分割精度提升的作用,同時WU-Net引入的改進融合模塊dep block對精細特征進行提取,使分割得到進一步優化。
2.4.5 分割結果
對以上三組實驗的分割結果進行可視化處理,可以得到一系列圖像,從中選取部分結果如圖8所示。其中(a)是以結節為尺度正樣本,(b)是隨機負樣本,(c)是以肺實質為尺度。Ori是原始圖片,GT是根據標注生成的正確分割,WU是本文提出的模型,DEP是DeepLabv3+x_65模型,U是U-Net,UD是U-Det,U3是UNet3+,RU是RU-Net。
從可視化結果來看,對于以結節為尺度不含負樣本的情況,各種模型的肺結節分割效果都較好,但是對于結節不太明顯的圖像,例如圖8(a)中的第三幅圖像,本文的WU-Net分割效果最好,生成的結節掩膜沒有出現斷裂或者模糊。而對于以結節為尺度的負樣本,大多模型很難分辨出是否為結節,從而出現假陽性的情況。總體來說,WU-Net模型表現更好,原始的U-Net模型表現最差。對于以肺實質為尺度的情況,可以看到由于范圍的擴展,模型大多出現一些誤判,即假陽性情況,總體來看,WU-Net的假陽性情況更少同時分割效果更優。
2.4.6 算法時間復雜度分析
選取以結節為尺度不含負樣本的實驗對本文分析的各種模型進行算法時間復雜度分析。
模型復雜度對比如表7所示,param代表模型的參數數量,time/epoch為模型每個epoch的訓練時間,由于UNet3+的模型復雜,雖然訓練參數最少,但是在Tesla V100上僅可以進行batch size為8的實驗,最后的訓練時間是最長的。本文的WU-Net模型參數較少,同時訓練最快,訓練速度大幅領先于其他模型,每個epoch訓練時間僅為原U-Net的60.38%,在相同batch size情況下,每個epoch訓練時間僅為多尺度融合模型UNet3+的18.50%。
3 結束語
針對類U-Net深度卷積神經網絡分割效果較差,以及多尺度融合深度卷積神經網絡訓練時間過長的問題,本文提出一種WU-Net網絡,該網絡基于U-Net網絡結構,同時引入一條信息融合通路,使模型自適應地學習到更加深層和實際的信息,最終通過信息融合以及解碼還原得到輸出分割結果。WU-Net是端到端的像素級分割網絡,在LUNA16數據集上的測試表明,相比于其他方法,在肺結節尺度上的分割性能交并比達到91.78%,Dice系數達到96.72%,并且在10%負樣本的情況下,F1-score能達到92.41%,假陽性率在所對比模型中也是最低的。在肺實質尺度上的分割性能中,交并比達到66.79%,Dice系數達到83.33%,同時對于相同的數據量,訓練時長大幅下降,較為客觀地說明本文方法在分割效率和分割性能上比其他方法更有優勢,能更準確快速地分割肺結節。
本文實驗對于圖像數據方面沒有進行過多的加工處理,之后會對數據進行精細處理,提升模型在肺實質大尺度方面分割的能力;同時對于結節的分類也是一大重點,下一步也將開展對于肺結節良、惡性區分的研究。
參考文獻:
[1]鄭榮壽,孫可欣,張思維,等.2015年中國惡性腫瘤流行情況分析[J].中華腫瘤雜志,2019,41(1):19-28.(Zheng Rongshou,Sun Kexin,Zhang Siwei,et al.Analysis on the prevalence of malignant tumors in China in 2015[J].Chinese Journal of Oncology,2019,41(1):19-28.)
[2]Shaziya H,Shyamala K,Zaheer R.Automatic lung segmentation on thoracic CT scans using U-Net convolutional network[C]//Proc of International Conference on Communication and Signal Processing.Piscataway,NJ:IEEE Press,2018:643-647.
[3]Ronneberger O,Fischer P,Brox T.U-Net:convolutional networks for biomedical image segmentation[C]//Proc of International Conference on Medical Image Computing and Computer-Assisted Intervention.Berlin:Springer,2015:234-241.
[4]Long J,Shelhamer E,Darrell T.Fully convolutional networks for semantic segmentation[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2015:3431-3440.
[5]Zhou Zongwei,Siddiquee M M R,Tajbakhsh N,et al.UNet+:redesig-ning skip connections to exploit multiscale features in image segmentation[J].IEEE Trans on Medical Imaging,2020,39(6):1856-1867.
[6]Huang Huimin,Lin Lanfen,Tong Ruofeng,et al.UNet 3+:a full-scale connected UNet for medical image segmentation[C]//Proc of IEEE International Conference on Acoustics,Speech and Signal Processing.Piscataway,NJ:IEEE Press,2020:1055-1059.
[7]Keetha N V,Babu P S A,Annavarapu C S R.U-Det:a modified U-Net architecture with bidirectional feature network for lung nodule segmentation[EB/OL].(2020-03-20).https://arxiv.org/abs/2003.09293.
[8]Tan Mingxing,Pang Ruoming,Le Q V.EfficientDet:calable and efficient object detection[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition .Piscataway,NJ:IEEE Press,2020:10781-10790.
[9]He Kaiming,Zhang Xiangyu,Ren Shaoqing,et al.Deep residual learning for image recognition[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016:770-77.
[10]Sergey I,Christian S.Batch normalization:accelerating deep network training by reducing internal covariate shift[C]//Proc of International Conference on International Conference on Machine Learning.Cambridge ,MA:PMLR,2015:448-456.
[11]Chen Yifan,Peng Feng,Kang Xiangui,et al.Depthwise separable convolutional neural network for image forensics[C]//Proc of IEEE Vi-sual Communications and Image Processing.Piscataway,NJ:IEEE Press,2019:1-4.
[12]張宇杰.基于改進U-Net的肺結節檢測研究[D].上海:華東理工大學,2020.(Zhang Yujie.Research on pulmonary nodules based on improved U-Net[D].Shanghai:East China University of Science and Technology,2020.)
[13]El-Bana S,Al-Kabbany A,Sharkas M.A two-stage framework for automated malignant pulmonary nodule detection in CT scans[J].Diagnostics,2020,10(3):article No.131.
[14]Chollet F.Xception:deep learning with depthwise separable convolutions[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:1800-1807.
[15]Chen L C,Zhu Yukun,Papandreou G,et al.Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//Proc of European Conference on Computer Vision.Berlin:Springer,2018:833-851.
[16]馬巧梅,梁昊然,朗雅琨.融合殘差模塊的U-Net肺結節檢測算法[J].計算機工程與設計,2021,42(4):1058-1064.(Ma Qiaomei,Liang Haoran,Lang Yakun.Lung nodule detection algorithm combining U-Net residual module[J].Computer Engineering and Design,2021,42(4):1058-1064.)