999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度卷積神經網絡的肺結節檢測算法

2019-09-04 10:14:27鄧忠豪陳曉東
計算機應用 2019年7期

鄧忠豪 陳曉東

摘 要:在傳統的肺結節檢測算法中,存在檢測敏感度低,假陽性數量大的問題。針對這一問題,提出了基于深度卷積神經網絡(CNN)的肺結節檢測算法。首先,有目的性地簡化傳統的全卷積分割網絡;然后,創新地加入對部分CNN層的深監督并使用改進的加權損失函數,獲得高質量的候選肺結節,保證高敏感度;其次,設計了基于多尺度上下文信息的三維深度CNN來增強對圖像的特征提取;最后,將訓練得到的融合分類模型用于候選結節分類,以達到降低假陽率的目的。所提算法使用了LUNA16數據集,并通過對比實驗驗證算法的性能。在檢測階段,當每個CT檢測出的候選結節數為50.2時,獲得的敏感度為94.3%,與傳統的全卷積分割網絡相比提升了4.2個百分點;在分類階段,競爭性能指標達到0.874。實驗結果表明,所提算法能夠有效提高檢測敏感度和降低假陽率。

關鍵詞:肺結節檢測;深度卷積神經網絡;深監督;加權損失函數;多尺度

Abstract:In traditional pulmonary nodule detection algorithms, there are problems of low detection sensitivity and large number of false positives. To solve these problems, a pulmonary nodule detection algorithm based on deep Convolutional Neural Network (CNN) was proposed. Firstly, the traditional full convolution segmentation network was simplified on purpose. Then, in order to obtain high-quality candidate pulmonary nodules and ensure high sensitivity, the deep supervision of partial CNN layers was innovatively added and the improved weighted loss function was used. Thirdly, three-dimensional deep CNNs based on multi-scale contextual information were designed to enhance the feature extraction of images. Finally, the trained fusion classification model was used for candidate nodule classification to achieve the purpose of reducing false positive rate. The performance of algorithm was verified through comparison experiments on LUNA16 dataset. In the detection stage, when the number of candidate nodules detected by each CT (Computed Tomography) is 50.2, the sensitivity of this algorithm is 94.3%, which is 4.2 percentage points higher than that of traditional full convolution segmentation network. In the classification stage, the competition performance metric of this algorithm reaches 0.874. The experimental results show that the proposed algorithm can effectively improve the detection sensitivity and reduce the false positive rate.

Key words: pulmonary nodule detection; deep Convolutional Neural Network (CNN); deep supervision; weighted loss function; multi-scale

0 引言

肺癌是世界上發病率和死亡率最高的癌癥之一。肺癌的早期無癥狀表現將導致患者可能錯過最佳治療時間,為了有效地防止這種情況的出現,需要提前進行肺結節檢測。NLST(National Lung Screening Trial)實驗表明,使用低劑量胸部CT(Computed Tomography)對高危人群進行每年3次的檢查,7年后肺癌的死亡率降低了20%,CT掃描也是目前在肺癌篩查中使用最多的方法。由于CT掃描技術的發展和快速增長的需求,放射科醫生所需分析的數據量大幅度增加,導致工作量增大和診斷難度的提高,因此,計算機輔助診斷系統逐漸發展起來,用它來輔助放射科醫生分析CT圖像,幫助提高肺癌篩查的速度和準確率。

隨著人工智能在醫學圖像領域的發展,計算機輔助診斷系統發展迅速。用于肺結節檢測的計算機輔助診斷系統可以分為兩部分:1)檢測候選肺結節;2)去除假陽性(候選結節分類)。檢測候選肺結節部分,從CT圖像中盡可能多地檢測出真實結節,保證檢測敏感度;去除假陽性部分,從所有候選結節中對真實結節和假陽性結節進行良惡性二分類。

為了提高檢測敏感度和降低假陽率,Murphy等[1]利用傳統計算機視覺手工提取特征的方法,引入曲率特征和形狀指數用來計算所有體素,得到滿足閾值的可疑種子體素,這些種子體素覆蓋在候選結節周圍,再使用滯后閾值法得到候選結節,最后使用2個K-最近鄰分類器來降低假陽率。Lopez等[2]通過專門設計的濾波函數檢測候選結節,然后利用基于小型手工特征集的前饋神經網絡來實現結節分類。

使用人工設計特征的結節檢測方法存在一定缺陷,因為它總是假設肺結節存在某一特點(比如:形狀、大小、紋理等),但這些表層特征缺乏鑒別力,因為肺結節的形狀、大小、紋理等特征具有高可變性,很難識別真實結節和假陽性結節。隨著深度卷積神經網絡(Convolutional Neural Network, CNN)在圖像領域的巨大成功,從大量的訓練數據中學習到高級特征,這些高級特征的表達能力得到了廣泛的認可。在最近的研究中,Li等[3]針對單個二維卷積神經網絡學習能力的局限性提出了將輸入數據以滑動窗口為229×229的大小進行采樣,然后縮小為12×12、32×32、60×60的尺寸輸入到三種對應的二維卷積神經網絡中,肺結節的檢測結果由這3個不同網絡的輸出經過邏輯與操作之后得到。呂曉琪等[4]為了提高分類準確率設計了一個三維卷積神經網絡,網絡的輸入尺寸是以候選結節為中心的32×32×8的結節塊,該方法驗證了三維卷積神經網絡能夠更加充分地利用肺結節的三維空間信息,有效地降低假陽率。Dou等[5]為了解決由于結節的高可變性所造成的識別敏感度低的問題,引入3個不同尺度的三維卷積神經網絡,并融合候選結節在這3個尺度下的分類概率,作為最終結果。基于深度學習的肺結節檢測方法[3-8]取得更好的性能,神經網絡自主學習的高效特征能夠更有效區分真實結節和非結節。值得一提的是,雖然三維的醫學圖像數據在臨床實踐中已經廣泛流行,但是三維的卷積神經網絡在醫學圖像的應用中還處在初級階段,只有少量的用于三維數據的卷積神經網絡被提出[4-5,8-11],而利用圖像的空間維度的上下文信息可以有效地提高分類準確率,因此,設計出一個理想的三維卷積網絡對肺結節檢測系統的分類性能來說至關重要。

UNet[12]是候選結節檢測常用的神經網絡,整個網絡結構包括23個卷積層,這些卷積層包含卷積、最大值池化、反卷積、全卷積的操作,是一種編碼—解碼的拓撲結構。UNet分割網絡在結構上有3個重要的特點:下采樣、上采樣和跨層連接。淺層抓取簡單特征,通過下采樣,由于感受野的增大,抓取到更深層、抽象的特征;上采樣的作用是還原位置信息;跨層連接則整合了神經網絡層抓取的不同分辨率、不同強度語義的特征及位置信息。同時,跨層連接不增加額外的時間和計算量,但是,在特定的數據集下,UNet網絡結構中的4次下采樣并非效果最好。Zhou等[13]提出UNet++網絡,在傳統UNet的基礎上增加了更多的上采樣,將不同層次的特征通過特征疊加的方式整合,并在不同層次的語義分割結果上均加入深監督[14]。

本文提出了改進的UNet++網絡,應用于肺結節檢測的候選結節提取部分。首先精簡了UNet++的網絡結構,由4次下采樣減小到3次,然后,對于深監督的L1、L2、L3[13]的分割結果,僅取L2和L3分割結果的平均值,舍棄L1的結果。L2的分割結果更側重于找到更多候選結節,提高敏感度;L3的分割結果則更加準確,去除了L2的部分假陽結節,降低了假陽率。由于L2的下采樣次數較少,L3的較高感受野能獲取在L2下無法正確分割的真實結節。結合L2和L3的分割結果,提高了檢測敏感度,并為第二階段的結節分類任務提供更多高質量的候選結節。最后,為了進一步提高檢測敏感度,改進基于Dice系數[15]的損失函數。使用以上改進的算法,候選結節的檢測敏感度達到94.3%。

在候選結節二分類階段,本文設計了兩個獨立的三維卷積神經網絡,這兩個網絡的輸入是不同尺寸的候選結節三維塊。這一階段,充分利用結節在空間維度上的信息,更有利于鑒別真實結節和難以識別的非結節。考慮到不同肺結節的直徑大小、形狀和位置信息存在的差異,使用兩個三維卷積網絡,然后融合這兩個網絡模型的分類結果,使得分類模型更有魯棒性,獲得了0.874的平均敏感度分數。

綜上所述,本文提出了改進的肺結節檢測系統框架,具體可分為兩個階段:候選結節檢測和假陽性去除。改進的算法框架結構如圖1所示。

本文算法使用的數據集是LUNA16(LUng Nodule Analysis 2016)[16],并取得了良好的表現性能。

1 改進的基于UNet++的候選結節檢測

候選結節檢測是肺結節檢測系統的重要步驟之一,目的是在CT圖像的檢測任務中限制候選結節數目,并保證高敏感度。在這一階段,使用改進的UNet++網絡提取候選結節,輸入是經過肺實質分割之后的二維圖像,加入深監督和改進的損失函數,綜合兩層輸出的結果,得到最終的分割結果。

敏感度(Sensitivity)是檢測系統中最重要的指標之一,計算公式如下:

其中:TP(True Positive)表示真正例即真實結節數,FN(False Negative)表示假反例。

本文針對LUNA16數據集的特點,對傳統UNet++網絡進行了以下三個改進:1)精簡了網絡結構(圖1 Stage1),并使用3個堆疊的卷積操作組成了圖1 Stage1的卷積塊結構;2)加入深監督時,舍棄對L1的網絡輸出的監督,僅整合L2和L3的輸出結果;3)改進基于Dice系數的損失函數。

1.1 改進UNet++網絡結構

傳統的UNet++網絡[13]分無深監督和深監督兩個模式:無深監督就是僅輸出最后一個卷積層的結果;深監督模式則是加入了對4個子網絡分割結果的監督。

而本文使用的語義分割神經網絡如圖1中的Stage1所示。網絡結構使用了簡化的UNet++,這個網絡模型也是解碼—編碼的U型結構,核心思想是特征的再利用。首先通過下采樣提取圖像特征,每次下采樣之后都伴隨上采樣,并將它與前面所有同分辨率的特征圖作疊加。L2、L3表示了分別在經過不同的編碼—解碼的U型拓撲網絡結構后再加入1×1的卷積,得到的兩個分割結果。L2、L3中的數字,代表了經過的下采樣的次數。圖1 Stage1中的卷積塊的結構如圖2所示。

設計的一個卷積塊由3個堆疊的3×3卷積層組成,n表示當前使用的卷積核的數量,順著下采樣(圖1 Stage1)的箭頭向下,使用的卷積核數量n分別為32,64,128和256。同時,用到批量標準化[17]操作,用于加速訓練和防止模型過擬合,用ReLU(Rectified Linear Unit)作為激活函數。與傳統的UNet的2個堆疊卷積層相比,使用3個堆疊層可以更有效地整合特征信息;剪去UNet++的第4個下采樣過程[13],是為了讓模型能夠抓取更多候選結節,盡可能多地保留真實結節,為假陽性去除階段提供具有高敏感度的數據,以提高整個算法框架的性能。

1.2 基于深監督的整合算法

與傳統UNet++的深監督不同,圖1 Stage1中,網絡最后的分割結果由L2和L3兩部分的均值確定。輸入的圖像經過3個下采樣、6個上采樣及圖中對應的跨層連接操作,得到特征圖,再通過1×1的卷積核得到一個分割結果L3。同樣,L2是經過2個下采樣、3個上采樣的U型結構后得到。在訓練的過程中,監督L2和L3,并選擇在驗證集上表現最好的模型。L2和L3的分割結果側重點不同,L2獲得的分割結果是較為粗略的,對真實結節的鑒別能力較弱,但它對一些較為復雜的結節和難鑒別的非結節的同時提取,可以有效保證敏感度。L3的結果側重于分割準確度,能夠精確定位和識別真實結節。對L2和L3的輸出取平均,能夠保證敏感度和準確度,可以減小第二階段假陽性去除的難度。分割網絡最終的輸出結果如式(2)所示:

對L2使用深監督,而不是重新訓練一個更小的只有2個下采樣的U型網絡模型,是因為剪去復雜的層結構之后,網絡學習的特征太過簡單,對肺結節的識別能力較弱;相反,L2的輸出結果在訓練過程中,受到更深層的神經元的損失函數在反向傳播中的影響,能使L2分割結果綜合更多高效的特征,與L3的互相影響之下,使得加入了深監督的模型對肺結節有更強的鑒別能力。

舍棄L1[13],是因為L1學到的特征較淺,對真實結節的鑒別能力不夠,不利于提高敏感度,因此,僅選擇L2和L3的分割進行聚合。

1.3 改進基于Dice系數的損失函數

檢測階段的主要任務是保證檢測敏感度,盡可能多地保留真實結節且能排除非結節。訓練階段,輸入是二維512×512的肺實質圖像,這些圖像是從原數據集中的CT掃描件通過橫向切割并加以預處理得到的。輸出結果是相同大小的像素級別的分類結果,即輸入數據的每個像素值屬于結節的概率分布情況,然后設定閾值即可得到分割結果。利用本文前面提到的改進后的UNet++網絡,在特征提取和特征整合方面更加全面,能夠更加準確地區分血管等其他非結節區域。結節的平均直徑在約10mm,在像素級分類任務中,真實結節區域像素屬于正樣本,其他區域像素屬于負樣本,因此存在嚴重的正負樣本不平衡的問題,約為1∶2600。傳統方法是使用Dice系數的損失函數,如式(3)所示:

其中:Y和Y^表示真實標簽和像素級預測值,N表示batch的大小,k表示第k個圖像。基于Dice系數的損失函數在訓練準確度上表現很好,但是使用Dice損失函數,會出現模型為追求高Dice(損失函數里取負Dice),而使部分真實結節被“舍棄”。為了更充分地檢測并保留真實結節,排除由于模型和目標(損失)函數等原因而導致的無法檢測出一些難以鑒別的真實結節這一情況,本文對基于Dice的損失函數進行了改進。

從檢測任務的目的入手,為了讓模型可以得到更多候選結節,并提高敏感度,本文設計的損失函數的計算公式如下:

式(4)是本文在候選結節檢測階段使用的損失函數,與式(3)的損失函數相比,減少了預測值所占的權重,目的是使模型在保證分割準確度的同時,適當地增加可供選擇送入下一步分類的候選結節數量。

經過以上的候選結節檢測階段,為下一階段的分類任務提供了精選的候選結節的信息,其中包括結節位置信息、直徑大小和概率等。

2 多尺度三維卷積融合分類模型

在肺結節檢測系統的假陽性去除階段,設計使用了多尺度的候選結節三維塊作為輸入,訓練兩個對應尺度下的分類網絡模型,并采用融合后的分類分數作為最終分類結果。

2.1 多尺度的三維卷積神經網絡設計

上一階段完成了對肺結節的候選結節檢測與提取,使用的是二維肺實質分割之后的圖像,是因為考慮到訓練過程中時間和內存的代價;但是,對于已經提取到的候選結節,目標可以縮小到只有肺結節大小的范圍,這時,如果再用結節的二維像素信息作為訓練數據訓練二維的分類器,就無法充分利用CT掃描件的空間信息,使得整個肺結節檢測系統的良惡性二分類能力較弱。

本文設計了多尺度的三維卷積分類網絡。以二維的候選結節的像素中心為質心,提取兩個固定尺寸的結節三維塊作為分類網絡訓練集數據。如圖1 Stage2所示,提取塊的大小分別為25×25×8和50×50×20,再分別用于兩個不同的三維卷積分類網絡的訓練。相比單一尺度,使用多尺度有如下3個優點:1)對于直徑較大的結節,多尺度能夠完整地包含結節的所有信息,不會出現單一尺度下由于設置尺寸偏小導致的部分結節信息不全的情況;2)對于直徑較小的結節,多尺度能夠讓小的結節在小尺寸的三維塊中保持較大的占比,保證網絡學習到有用的特征;3)使用多尺度,在保證結節信息完整性的同時,增加結節周圍環境的上下文體素信息,這些環境的上下文信息能夠幫助分類模型提高識別準確率。

圖3是圖1 Stage2三維卷積分類網絡的詳細結構圖。輸入分別為25×25×8和50×50×20的候選結節體塊,后者包括了圖3所示的所有結構。前者體塊由于分辨率相對較小,不包含灰色部分的操作,除此之外,其他的網絡配置均相同。三維卷積網絡中用到了批量標準化層[17],使用了ReLU作為激活函數。

圖3對這兩種不同尺度的結節體塊使用不同的網絡。是考慮了感受野對網絡分類表現性能的重要影響。理論上,卷積神經網絡的感受野會隨著網絡層的加深而增大。如果感受野太小,網絡受限于局部信息,會對變化較大目標缺乏鑒別能力;如果感受野過大,那么過多的冗余信息和噪聲都將干擾訓練過程,降低模型的表現性能,因此,對不同尺度的輸入采用不同的卷積神經網絡結構是十分必要的。

同時,在本文設計的網絡中,前面的4個卷積操作,用到的卷積核尺寸為5×5×3和2×2×1,而并非立方體的卷積核。原因是CT掃描件的三個坐標軸(x,y,z)中,z軸的長度與x、y軸相比較窄,所以,輸入數據的尺寸都在z軸方向偏少。使用非立方體的卷積核,能夠更有效地促進結節塊在三個坐標軸方向上的特征融合和信息整合。

2.2 融合分類結果

多尺度分類網絡得到相同候選結節在兩種尺度下的兩個分類結果。對于用作測試的一個候選結節Ti而言,兩個網絡模型得到的分類結果可以分別記為P1(Y^=k|Ti;θ1)和P2(Y^=k|Ti;θ2),表示結節Ti在兩個模型下的預測值Y^等于k的概率,k取值為0(非結節)和1(結節)。

為了將不同模型所側重的多層上下文信息整合在一起進行最終分類,本文采取的方法是將這兩個網絡模型的softmax層輸出進行融合。融合操作的計算公式如下:

其中,等號左邊表示融合后的最終分類為真實結節的概率。各分類結果對應的權重wj通過網格搜索法得到(w1=0.6,w2=0.4)。

3 實驗結果與分析

本章將對本文提出的肺結節檢測算法在LUNA16數據集上的表現性能進行結果評價。LUNA16數據集來源于公開的更大的數據集LIDC-IDRI(Lung Image Database Consortium and Image Database Resource Initiative)[18]。整個數據集去除了切片厚度大于3mm的CT圖像,同時去除了space不一致和缺失部分切片的圖像,最后產生了888張CT掃描件。

這些CT掃描件的橫切圖像大小為512×512,總共包含1186個專家標注的真實肺結節。候選結節檢測任務中,檢測出的結節在真實結節標簽的半徑范圍以內時,即認為是一個正確的檢測結果;在假陽性去除階段,正負樣本由上一階段的檢測結果得到。實驗時,對LUNA16數據集進行10-折交叉驗證。

3.1 實驗設計細節

3.1.1 候選結節檢測

在候選結節檢測階段,使用的是CT掃描件的橫切面圖像。首先對這些圖像進行預處理,以得到肺實質部分。具體操作步驟的描述如下:

1)二值化;

2)清除邊界和形態學閉運算;

3)連通域分析;

4)肺部區域填充;

5)獲得肺部區域掩碼。

經過上述預處理,得到512×512的肺部區域圖像,過濾掉空氣、骨骼等冗余的像素信息,在數據輸入神經網絡之前,還作了標準化處理。

為了增加更多的樣本,防止模型過擬合,本階段對樣本進行了數據增強:隨機旋轉角度[-10°,10°];在x、y坐標軸方向上平移[-10,10];尺寸縮放比例為[0.9,1.1];加入水平翻轉。

訓練本文第1章提出的改進后的全卷積網絡,權重初始化使用基于高斯分布的方法[19],設置初始學習率為0.001,在池化層之后加入Dropout[20](系數為0.2),采用Adam優化算法,batchsize大小設置為8。訓練時,深監督中兩個分割結果的損失對全局損失的權值占比為[0.5,0.5]。處理分割結果時,以得到的候選區域為中心,提取區域面積兩倍比例的矩形框來確定檢測候選結節。

3.1.2 結節分類

對候選結節檢測得到的結果,提取對應的25×25×8和50×50×20的三維塊。使用3.1.1節中的數據增強方法來增加正樣本,并在z軸上進行相同的變換處理。初始學習率為0.01,

在池化層后加入參數為0.2的Dropout層。優化算法使用隨機梯度下降法(momentum=0.9)。三維卷積分類網絡使用的損失函數[5]如下:

其中1表示指示函數,P(Y^i=c|Ti;θ)表示輸入的結節塊屬于類別c的概率。

3.2 候選結節檢測結果

在候選結節檢測階段,評價結果的好壞主要分為以下三個指標:1)平均Dice系數,用來描述分割結果與真實值掩碼的相似度;2)敏感度,理想情況下,檢測模型應當檢測出所有的真實結節;3)每個CT掃描件中檢測出的候選結節個數(用“候選結節數/scan”表示)。性能好的檢測模型應當具備在較低“候選結節數/scan”的情況下表現較高的敏感度。

本文設計了多組對比實驗來驗證提出的改進網絡帶來的性能優化。首先對本文改進的模型進行自身對比實驗,是為了驗證1.2節中提出的基于深監督的整合算法的有效性,自身對比結果如圖4所示。圖4中,使用了相同的經過精簡的UNet++網絡結構,只是最后處理網絡輸出的過程不同,圖中第1、2、4、5個直方圖對應同一個網絡結構,第3個直方圖是在無深監督的條件下訓練的模型。可以看出,在深監督的情況下,只取L2或者L3的分割結果得到的敏感度相對較低;通過深監督所有的(L1,L2,L3)分割結果后,第4個直方圖的檢測敏感度比無深監督UNet++模型的檢測敏感度高;第5個直方圖是使用了本文的僅對L2、L3分割結果加入深監督的方法,得到了較高敏感度的提升,從第4種方法的93.2%提升至94.3%。

然后,使用傳統UNet、UNet++和經過改進的UNet++分別訓練了基于Dice損失函數和改進的損失函數的一共6個模型,并比較各模型在上述3個評價指標下的分割性能。實驗結果如表1(表中的UNet++均使用了深監督方法)。前三個對比實驗,3種網絡使用了基于Dice系數的損失函數,雖然改進的模型在平均Dice系數指標略低于UNet++,但檢測敏感度上比傳統UNet和UNet++高;使用了改進的加權損失函數之后,本文提出的模型達到0.705的平均Dice系數和94.3%的敏感度,在圖像分割性能上優于前兩個模型。表1的結果這也驗證了本文提出的基于深監督的分割結果整合算法和改進的加權損失函數能夠提高候選結節檢測的敏感度,更加能夠檢測出所有可疑的結節,與傳統UNet相比提升了4.2個百分點。

最后,本文設計實驗對比了所提算法與肺結節檢測階段相同研究工作[1,6,13,16]的其他算法在LUNA16數據集下的各項數據結果。對比實驗結果和算法比較如表2所示。

檢測框架算法這兩個列名都為算法,不恰當,列名要有所區分,請作相應調整。回復:第一列為算法框架,故列名為“檢測算法”或“檢測框架”;第二列為檢測算法中使用的具體算法,故可以改寫為“方法”或“基礎算法”。算法基礎算法敏感度/%候選結節數/scan

從表2可以看出,在使用了相同數據集的對比實驗下,本文所提算法在敏感度(94.3%)的指標上優于其他算法。同時,表2中也加入了在上一個對比實驗中(表1第二項實驗結果)的一個對比算法“Baseline”,它表示使用UNet++網絡作為檢測網絡的實驗結果。ISICAD請補充ISICAD的英文全稱。回復:ISICAD框架是文獻[1]中Murphy等人提出的算法框架的命名,文獻[1]中也未提及其英文全稱。[1]使用傳統手工提取方法,引入形狀指數(Shape Index, SI)和曲率(CurVedness, CV)特征,實驗結果獲得了85.6%的敏感度,每個CT掃描件的候選結節數為335.9;Xie等[6]使用了基于Faster R-CNN(Faster Region-based Convolutional Neural Network)[21]的改進網絡,實驗獲得86.4%的檢測敏感度和較低的候選結節數4.7/scan,雖然本文算法在降低候選結節數(50.2/scan)上不及Xie等[6]的算法,但獲得的敏感度高于該算法;ZNET[16]用了UNet網絡,實驗結果的敏感度指標為93.3%,本文所提算法與它相比,敏感度提高了1.0個百分點。

經過多組對比實驗,驗證了本文基于UNet++的改進網絡,在候選結節檢測階段可以獲得更高的檢測敏感度。雖然本文的算法在每個CT掃描件檢測的候選結節的數量相比較而言不是最低,但是達到的較高的敏感度對下一階段結節分類和整個肺結節檢測系統的性能提升都至關重要。

3.3 結節分類結果

這一階段實驗結果的評價指標是LUNA16使用的競爭性能指標CPM(Competition Performance Metric)[22]分數。這個分數是在受試者特征曲線(Free Receiver Operation Characteristic, FROC)上,計算不同的“每個CT掃描件的平均假陽性數目”(即average number of False Positives per scan, FPs/scan)在(1/8,1/4,1/2,1,2,4,8)下的敏感度均值。目前,FPs/scan在1到4的范圍廣泛使用于臨床實踐當中,因此,CPM指標具有廣泛的認可度。

首先設計實驗驗證多尺度分類融合方法的有效性。分別使用固定尺寸25×25×8、50×50×20和兩種尺度融合,它們使用對應的網絡結構(見圖1 Stage2和2.1節),一共產生三種分類結果。計算它們在不同FPs/scan下的敏感度。對比實驗結果如表3。為了描述方便,單一尺度25×25×8、50×50×20訓練的分類模型分別取名為M1和M2,同時,在表3中敏感度用小數表示。

從表3可以看出,所有模型在FPs/scan為4的時候,均達到了90%以上的敏感度。在FPs/scan為0.125,0.25和0.5的情況下取得高敏感度相對困難,M1和M2在上述情況下敏感度都低于77%。本文提出的多尺度融合分類模型在實驗結果中表現突出,在有效降低假陽性數量的同時保持了較高的敏感度。當每次掃描限制在0.125的平均假陽性數目的時候,M1和M2獲得敏感度分別為63.3%和68.5%,提出的融合模型獲得74.1%的敏感度,比前兩者提升了10.8和5.6個百分點;同時還可以看出,多尺度融合模型得到的敏感度,在每個限制條件下都高于單一尺度模型。這一對比實驗驗證了融合模型能有效地提高敏感度和降低假陽率,說明了包含不同層次上下文信息的網絡可以相互補充,它們的結合可以提高結節檢測系統的性能。

圖5(P值表示分類概率)顯示了利用多尺度融合模型識別真實肺結節的分類概率樣例,模型對形狀多樣的結節體現了良好的鑒別能力。

進一步地,本部分實驗還將本文算法框架的結果與目前流行的算法框架[16]進行比較,結果如圖6所示。本文算法取得了0.874的CPM分數,這一指標優于其他進行比較的流行算法。Xie等[6]在結節檢測和分類階段都使用了二維的卷積神經網絡,在時間和空間的節省上優于其他流行算法,從圖6可以看出,該方法在每個CT掃描件的平均假陽性數(FPs/scan)為0.125時,取得了73.4%的較高敏感度,而本文算法在0.125FPs/scan時,敏感度為74.1%,略高于Xie等[6]的方法;相比其他流行算法,雖然在FPs/scan大于2之后,DIAG CONVNET[16]和JackFPR[5]的敏感度更高,但是本文算法在平均假陽性數量為0.125,0.25,0.5和1時,均取得了更高敏感度,例如,在FPs/scan為0.25時,敏感度大于84%。

4 討論

使用本文提出的肺結節檢測系統框架,其表現性能在LUNA16數據集上得到驗證。本文算法框架對候選結節的檢測和假陽性去除兩個階段都作了改進和優化。候選結節檢測部分,結合傳統的UNet和UNet++的優點,獲得了高敏感度的檢測結果,原因在于UNet++網絡結構本身的特征再利用的性質,使得它比傳統UNet學習到更高效的特征;同時,對UNet++網絡結構的精簡和深監督對象的改進以及加權的損失函數的引入,也都有效提高了檢測部分的算法性能;但是這一階段,只用到結節的二維信息,在未來的研究工作中,如果在檢測部分也加入三維的圖像信息,可能對敏感度的提高有積極的作用。假陽性去除階段,使用了多尺度三維卷積神經網絡的融合模型用于分類。三維的上下文信息對于結節的準確分類十分重要,它能為網絡自主學習提供空間維度的信息。同時,網絡本身的結構也很重要。在分類階段,本文使用到兩種不同的網絡結構來適應不同的輸入。三維卷積神經網絡的設計中,為了得到具有更強結節鑒別能力的模型,可以引入ResNet(Residual Neural Network)[23]、DenseNet(Densely connected convolutional Network)[24-25]等經典卷積神經網絡的層結構。分類過程中,會出現結節直徑很小或結節周圍環境極為復雜的情況。針對這些結節,使用一些特殊的數據增強方法或是設計一個適應更小尺度輸入的網絡結構,可能會在一定程度上幫助提高識別率。

5 結語

肺結節自動檢測系統對醫生的輔助診斷意義重大。本文針對傳統肺結節檢測算法中檢測敏感度低、假陽性數量大的問題提出了基于深度卷積神經網絡的肺結節檢測算法。創新地提出:1)精簡UNet++模型,降低了模型復雜度,同時保證高敏感度;2)引入對最佳的分割輸出層的深監督;3)改進了基于Dice系數的損失函數;4)設計了多尺度的三維深度卷積神經網絡訓練分類模型,并融合模型結果來降低假陽率。經過多組對比實驗,所提改進算法的表現性能超過了傳統的算法;但本文算法也存在一定的局限性,在本文第4章討論了所提算法的優點、不足和針對性的改進方案。

本文提出的算法框架有較強的可遷移能力。理論上,本文的算法也可以應用在其他圖像數據集上和更多的醫學圖像處理任務當中。

參考文獻 (References)

[1] MURPHY K, van GINNEKEN B, SCHILHAM A M, et al. A large-scale evaluation of automatic pulmonary nodule detection in chest CT using local image features and k-nearest-neighbour classification[J]. Medical Image Analysis, 2009, 13(5):757-770.

[2] LOPEZ T, FIORINA E, PENNAZIO F, et al. Large scale validation of the M5L lung CAD on heterogeneous CT datasets[J]. Medical Physics, 2015, 42(4):1477-1489.

[3] LI C F, ZHU G C, WU X J, et al. False-positive reduction on lung nodules detection in chest radiographs by ensemble of convolutional neural networks[J]. IEEE Access, 2018, 6(99): 16060-16067.

[4] 呂曉琪,吳涼,谷宇,等.基于三維卷積神經網絡的低劑量CT肺結節檢測[J].光學精密工程,2018,26(5):1211-1218.(LYU X Q, WU L, GU Y, et al. Detection of low dose CT pulmonary nodules based on 3D convolution neural network[J]. Optics and Precision Engineering, 2018, 26(5):1211-1218.)

[5] DOU Q, CHEN H, YU L Q, et al. Multi-level contextual 3D CNNs for false positive reduction in pulmonary nodule detection[J]. IEEE Transactions on Biomedical Engineering, 2017, 64(7): 1558-1567.

[6] XIE H T, YANG D B, SUN N N, et al. Automated pulmonary nodule detection in CT images using deep convolutional neural networks[J]. Pattern Recognition, 2019, 85:109-119.

[7] LI W, CAO P, ZHAO D Z, et al. Pulmonary nodule classification with deep convolutional neural networks on computed tomography images[J]. Computational and Mathematical Methods in Medicine, 2016, 2016: 6215085.

[8] DING J, LI A X, HU Z Q, et al. Accurate pulmonary nodule detection in computed tomography images using deep convolutional neural networks[C]// Proceedings of the 2017 International Conference on Medical Computing and Computer-Assisted Intervention. Berlin: Springer, 2017: 559-567.

[9] KAMNITSAS, K, LEDIG C, NEWCOMBE V F, et al. Efficient multi-scale 3D CNN with fully connected CRF for accurate brain lesion segmentation[J]. Medical Image Analysis, 2016, 36: 61-78.

[10] DOU Q, CHEN H, YU L Q, et al. Automatic detection of cerebral microbleeds from MR images via 3D convolutional neural networks[J]. IEEE Transactions on Medical Imaging, 2016, 35(5): 1182-1195.

[11] CHEN H, DOU Q, YU L Q, et al. VoxResNet: deep voxelwise residual networks for brain segmentation from 3D MR images [J]. NeuroImage, 2018, 170: 446-455.

[12] RONNEBERGER O, FISCHER P, BROX T. U-Net: convolutional networks for biomedical image segmentation[C]// Proceedings of the 2015 International Conference on Medical Computing and Computer-Assisted Intervention. Berlin: Springer, 2015: 234-241.

[13] ZHOU Z W, MAHFUZUR RAHMAN SIDDIQUEE M, LIANG J M, et al. UNet++: a nested U-Net architecture for medical image segmentation[C]// Proceedings of the 2018 International Conference on Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support. Berlin: Springer, 2018: 3-11.

[14] LEE C Y, XIE S, GALLAGHER P, et al. Deeply-supervised nets [C]// Proceedings of the 2015 18th International Conference on Artificial Intelligence and Statistics. San Diego, CA: [s.n.], 2015: 562-570.

[15] SUDRE C H, LI W Q, VERCAUTEREN T, et al. Generalised dice overlap as a deep learning loss function for highly unbalanced segmentations [C]// Proceedings of the 2017 International Conference on Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support. Berlin: Springer, 2017: 240-248.

[16] SETIO A A A, TRAVERSO A, DE BEL T, et al. Validation, comparison, and combination of algorithms for automatic detection of pulmonary nodules in computed tomography images: the LUNA16 challenge [J]. Medical Image Analysis, 2017, 42: 1-13.

[17] LOFFE S, SZEGEDY C. Batch normalization: accelerating deep network training by reducing internal covariate shift [C]// Proceedings of the 2015 International Conference on Machine Learning. New York: ACM, 2015: 448-456.

[18] ARMATO S G, MCLENNAN G, BIDAUT L, et al. The Lung Image Database Consortium (LIDC) and Image Database Resource Initiative (IDRI): a completed reference database of lung nodules on CT scans[J]. Medical Physics, 2011, 38(2): 915-931.

[19] HE K M, ZHANG X Y, REN S Q, et al. Delving deep into rectifiers: surpassing human-level performance on ImageNet classification[C]// ICCV 2015: Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2015: 1026-1034.

[20] SRIVASTAVA N, HINTON G, KRIZHEVSKY A, et al. Dropout: a simple way to prevent neural networks from overfitting[J]. Journal of Machine Learning Research, 2014, 15(1): 1929-1958.

[21] REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transaction on Pattern Analysis and Machine Intelligence, 2015, 39: 1137-1149.

[22] NIEMEIJER M, LOOG M, ABRAMOFF M D, et al. On combining computer-aided detection systems[J]. IEEE Transactions on Medical Imaging, 2011, 30: 215-223.

[23] HE K M, ZHANG X Y, SUN J, et al. Deep residual learning for image recognition[C]// CVPR 2016: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2016: 770-778.

[24] HUANG G, LIU Z, LAURENS V D M, et al. Densely connected convolutional networks[C]// CVPR 2017: Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2017: 2261-2269.

[25] 秦品樂,李啟,曾建潮,等.基于多尺度密集網絡的肺結節圖像檢索算法研究[J].計算機應用,2019,39(2):392-397.(QIN P L, LI Q, ZENG J C, et al. Research on image retrieval algorithm of pulmonary nodules based on multi-scale dense network[J]. Journal of Computer Applications, 2019, 39(2): 392-397.)

主站蜘蛛池模板: 婷婷久久综合九色综合88| 美女视频黄频a免费高清不卡| 欧美日韩一区二区在线免费观看 | 国产欧美日韩另类| 欧美啪啪网| 久久精品国产精品一区二区| 亚洲国产精品一区二区第一页免 | 操国产美女| 一本大道无码高清| 另类重口100页在线播放| 成人在线第一页| 久久这里只有精品2| 亚洲国产成人麻豆精品| 丰满人妻中出白浆| 片在线无码观看| av一区二区三区高清久久| 四虎免费视频网站| 国产精品性| 亚洲天堂日韩av电影| 一级毛片免费不卡在线| 亚洲成人网在线观看| 亚洲人精品亚洲人成在线| 香蕉久久国产超碰青草| 网久久综合| 国产va免费精品| 国内精品久久人妻无码大片高| 3344在线观看无码| 2020极品精品国产| 欧美a在线| 首页亚洲国产丝袜长腿综合| 亚洲精品人成网线在线| 久久精品日日躁夜夜躁欧美| 视频二区亚洲精品| 22sihu国产精品视频影视资讯| 凹凸精品免费精品视频| 亚洲成a人在线观看| 欧亚日韩Av| 久久人人妻人人爽人人卡片av| 免费无码AV片在线观看国产| 都市激情亚洲综合久久| 欧美伦理一区| 色一情一乱一伦一区二区三区小说 | 亚洲女同欧美在线| 2021国产精品自产拍在线| 国产欧美日韩va另类在线播放| 国产精品对白刺激| 综合社区亚洲熟妇p| 日本色综合网| 国产凹凸一区在线观看视频| 91综合色区亚洲熟妇p| 天天色天天综合| 看国产一级毛片| 中文字幕第4页| 国产香蕉国产精品偷在线观看| 日韩毛片视频| 深爱婷婷激情网| 97精品久久久大香线焦| A级全黄试看30分钟小视频| 国产在线高清一级毛片| 草草影院国产第一页| 国产成人亚洲欧美激情| 精品91自产拍在线| 欧美成人影院亚洲综合图| 国产一区二区精品福利| 呦女亚洲一区精品| 91在线精品麻豆欧美在线| 国产剧情无码视频在线观看| 一级成人a毛片免费播放| 欧美午夜精品| 亚卅精品无码久久毛片乌克兰| 波多野结衣亚洲一区| 国产91丝袜在线播放动漫 | 中文字幕在线日韩91| 国产jizzjizz视频| 在线精品亚洲一区二区古装| a毛片免费看| A级毛片无码久久精品免费| 欧美在线精品怡红院| 美女免费黄网站| 欧美视频在线观看第一页| 精品福利视频网| 国产乱人视频免费观看|