萬亞利,彭仁華
(廣州商學院信息技術與工程學院,廣東 廣州 510000)
據癌癥協會2018年全球數據統計,全球范圍內預計約有1810萬人次的新增癌癥病例,約有960萬人因癌癥而死亡[1]。目前最可靠的檢測技術是病理醫生根據人工病理切片進行診斷,統計出組織病理中各項生物學指標,從而完成基于人工的組織病理圖像分類,不僅費時且費力,同時還易于出現人為主觀影響,造成誤診。依靠計算機輔助診斷技術,不僅能夠提高醫生的診斷效率,而且還能提取出客觀且有效的診斷信息,具備非常重要的臨床應用價值。
(1)基于傳統圖像算法和機器學習算法的組織病理圖像分類。Qu[2]等從病理圖像中人工提取特征,提出一種基于像素支持向量機(SVM)分類器的腫瘤巢(TNs)和基質分割方法,該方法能夠區分TNs和間質,準確率為87.1%。Abderrahmane[3]等采用關聯規則和支持向量機對特征集進行約簡的乳腺癌分類,該模型對8個及4個屬性的分類正確率分別為98.00%和96.14%。Swain等[4]采用采用盒計數法提取特征,將得到的分形維數(FD)在支持向量機分類器下進行處理,對良惡性腫瘤細胞進行分類,從而使得正確率達到98.13%。然而,上述算法都需要人工提取特征,當樣本量不斷增大,就會極大的影響模型的適應能力,模型訓練的復雜度也隨之增加。
(2)基于深度學習的組織病理圖像分類。Hou[5]用一種改進的深度卷積神經網絡(DCNN)模型完成病理圖像自動分類,通過數據增強和遷移學習的方法使準確率均達到91%。Krithiga[6]等將一種新的多層顯著細胞核檢測模型與深度CNN相結合,并將其應用于乳腺癌組織的導管癌中,生成了一個n MSDeep CNN模型,該系統的準確度為98.62%。Alzubaidi等[7]提出利用平行卷積層和殘差結構的混合模型將乳腺活檢圖像分為四類。該模型取得了最新的性能,在驗證集的分片分類準確率為90.5%,圖像分類準確率為97.4%。上述方法利用DCNN來自動學習特征,自動學習組織病理圖像的特征,來完成病理圖像分類識別。然而,這些方法在處理組織病變分類問題中,隨著網絡的加深,輕量化深度網絡模型,在提高識別率的同時也需要優化網絡的計算復雜度。
因此,本文采用深層卷積網絡模型,以此來解決復雜性和局限性的人工特征提取方式,完成自動提取組織病變圖像的特征,同時,采用深度可分離卷積的方法來避免因卷積網絡深度加深,所帶來的參數和計算量增大的問題,實驗結果表明,該方法能夠有效的提高病理圖像的識別率。
CNN卷積層的輸出特征圖(Feature map)由前一輸出層與當前層濾波器進行卷積得到,對于一張形狀為H*W*C彩色輸入圖片,經過卷積核的個數為n,k*k的卷積核進行卷積運算后,輸出n個新的特征圖,其中每個卷積核的通道數為C。因此可計算出常規卷積運算的參數數量為:N_std=n*C*k*k。
深度可分離卷積主要由兩部分組成,分別為:逐通道(Depthwise, DW)卷積(Convolution)和逐點(Pointwise,PW)卷積(Convolution)。該結構相比于常規卷積運算,可以降低參數量和運算量。
PW卷積在運算過程中,每個通道只單獨與每個卷積核進行卷積操作。假如一張彩色輸入圖片可表示為H*W*C,PW卷積運算中的卷積核(大小為k*k)的數量需要與上一層輸入的通道數相同,即此處卷積核個數為C,采用PW卷積的方式將生成C張新的特征圖。此時,卷積運算的參數為:N_d=C*k*k。由此可以看出,經過一次PW卷積運算,輸出的特征圖與輸入層的通道數相同,特征圖數量保持不變,另外,該方式在進行卷積運算過程中,獨立對每個輸入層的通道進行分別運算,沒有對特征圖之間的空間信息進行有效的融合。因此,采用PW卷積的方式來解決上述問題。
PW卷積運算過程和常規卷積類似,主要采用1*1*C的卷積核來加權組合上一層特征圖的深度,并生成一個新的特征圖,其中,C代表的是上一層的通道數,即一張輸入圖片H*W*C,與一個1*1*C的卷積核經過PW卷積運算后,得到一張新的特征圖,與n個的卷積核PW卷積運算將生成n個新的特征圖。可以看出,經過PW卷積運算后,可以對輸出維度進行擴充。同時,可計算出卷積過程中的參數量為:N_P=n*C*1*1。
經過上述分析,常規卷積的參數量可表示為:N_std =n*C*k*k。深度可分離卷積的參數量可表示為DW卷積和PW卷積運算量之和,即N_d+ N_P= C*k*k+ n*C*1*1。其中,n為輸出層生成的新的特征圖,k*k為卷積核的尺寸,C為特征圖的通道數。以常用的3*3卷積,相同的輸入為三通道特征圖,輸出五張新的特征圖為例,則常規卷積的參數量為5*3*3*3=135個,而深度可分離卷積的參數量僅為:3*3*3+5*3*1*1=42個。可以看出,深度可分離卷積參數量遠遠小于常規卷積操作,并隨著輸入輸入及輸出特征的數量,參數量的優勢更加突顯。
網絡的主體架構采用CNN常規卷積加上深度可分離卷積相結合,構建基于深度網絡的組織病理圖像分類模型。每一層常規卷積后,選用RELU激活函數,引入批量歸一化對數據進行標準化處理。在全連接前進行全局池化操作,以此來降低空間參數,使模型更加健壯,抗過擬合效果更佳。
全連接層采用dropout層以0.3的概率舍棄網絡節點,網絡優化器采用Adam,初始學習率為0.001。
實驗采用python軟件對算法進行測試。實驗所用的環境為AMD Ryzen 5 3600 6-Core Processor CPU@3.60GHZ,內存為8GB,GPU采用2060s,64位的Windows 10操作系統。
PatchCamelyon(PCam)數據集是二元組織病理圖像分類數據集,包含數字掃描提取的高分辨率全幻燈片淋巴結切片圖像。分辨率為96x96的彩色圖像約30萬張組成。
在訓練開始,采取隨機抽樣的方式選取10萬張圖像進行模型訓練和測試,為了進一步提高模型的性能,對選取的圖像進行增強處理。訓練過程中采用70%數據作為模型訓練集,20%的數據作為模型測試集,另外10%的數據作為模型驗證集。下圖1結果訓練過程中所記錄的訓練和測試數據集準確率所繪制的曲線圖。從圖1中可知,在前10個epoch訓練過程中,模型的準確率提升較快。模型的訓練正確率能達到98.5%,訓練集正確率為94.8%。由此可以看出,本文所采用的深度可分離卷積能大大縮減深度網絡的參數量,使模型收斂速度更快,同時能保證模型的分類效果。

圖1 訓練集與測試集準確率圖
由圖2看出,模型的損失值在訓練集和測試集上逐步下降。最終在訓練集和測試集上的損失值分別為0.04和0.18。采用深度可分離卷積方式,結合常規卷積層所構建的模型,能加快損失函數的收斂速度。由此可見,本文所提出的模型能夠基于組織病理圖像進行有效的完成分類識別,并具有較高的識別率。

圖2 訓練集和測試集損失值曲線圖
本文提出了一種基于深度可分離卷積的組織病理圖像分類新方法,相較于常規卷積層,能獲得更少的參數計算量,來改進深度學習中由于網絡層數加深而帶來的參數量計算過大的問題。實驗結果表明,采用深度可分離卷積能夠使網絡模型參數量更少,在保證模型性能的前提下,訓練效率更快。