陳 虎
(中南民族大學 生物醫學工程學院,武漢 430074)
黑色素瘤是皮膚癌中最致命的一種,也是皮膚癌患者中死亡率最高的種類之一,過去幾年中,每年有近60 000名患者死亡。但如果盡早發現,黑色素瘤患者的存活率能超過95%。目前,皮膚病的檢測方法主要是皮膚鏡技術,這是一種消除皮膚表面反射、增強深層皮膚可視化的成像技術。但由于皮膚病的診斷需要技術高超的專業醫生,且該診斷費時費力,帶有醫師的部分主觀看法,故而計算機輔助診斷(Computer Aided Diagnosis,CAD)在皮膚病的診斷中有其存在的價值,而皮膚病圖像的分割就是其中重要的一環。
近幾十年,很多學者研究了各種各樣的算法來對醫學圖像進行分割,大體上可分為閾值處理、主動輪廓模型、區域增長與分裂等傳統方法及卷積神經網絡(Convolutional Neural Network,CNN)、全卷積神經網絡(Fully Convolutional Network,FCN)等自動或半自動分割方法。傳統分割方法需要手工分割出目標區域,過程煩瑣復雜,容易出現錯誤。學者們大多把注意力投向機器學習的自動或半自動算法上。Long等人[1]首先提出了一種用于語義分割的FCN,用卷積層替換DCNN中全連接層,采取反卷積層進行上采樣以獲得逐像素的分類結果。在醫學圖像分割領域,Ronneberger等人[2]在FCN的基礎上提出了U-Net網絡結構模型,用于生物細胞圖像分割。后來,學者又使用了U-Net網絡變體,將其應用于肝臟、心臟、腦等圖像的分割,取得了令人欣喜的結果。
本研究所提出的方法在U-Net的基礎上進行了改進,取得了不錯效果的循環模塊、殘差模塊及注意力機制,相比普通U-Net網絡有以下幾點改進:殘差單元有助于訓練深度架構;遞歸殘差卷積層替代普通卷積層,可以使圖像特征更好地保留,提高分割精度;注意力機制可以讓網絡分割醫學圖像時更專注目標區域,弱化背景區域,從而提高目標分割精度。

圖1 改進的U-net網絡Fig.1 Improved U-net
與U-Net網絡不同的是,本網絡在編碼和解碼單元中使用帶有殘差單元的循環卷積層(Recurrent Convolutional Layers,RCL)代替卷積層,有助于延長模型的深度;RCL單元能有效保留圖像中的特征,它在基于CNN的醫學成像分割方法中得到了證明[4]。由于模型中的功能積累,提出的模型在訓練和測試階段都顯示出了良好的性能。時間步的使用使圖像特征保留得更好,有助于提取低級圖像的特征,該功能有助于提高醫學成像分割任務的精度。以下逐個介紹網絡框架中的模塊:
循環網絡模塊是一種含有隱藏狀態的神經網絡,存在時間相關性。假設Xt∈Rn×d是樣本數為n,特征數為d的序列中時間步t的小批量輸入,Ht∈Rn×h是該時間步的隱藏變量,也稱為隱藏狀態,隱藏層權重參數是Wxh∈Rd×h,隱藏層偏差參數是bh∈R1×h,h為隱藏單元個數,隱藏層的激活函數為φ,將此激活函數設置為ReLU。將上一時間步的隱藏變量Ht-1與權重參數Whh∈Rh×h結合。t時間步的隱藏變量的計算由當前時間步的輸入和上一時間步t-1的隱藏變量共同決定,表達式為:
Ht=φ(XtWxh+Ht-1Whh+bh)
(1)
由上式可知,以前時刻的輸出對當前時刻的輸出也會有影響。在時間步t的輸出計算公式為:
Ot=HtWhq+bq
(2)
其中,Ot是輸出層輸出,Whq∈Rh×q是輸出層的權重,bq∈R1×q是輸出層偏差。如圖2展示了網絡在3個相鄰時間步的計算過程。實驗中結合精確度與效率,將時間步t設為3。

圖2 循環模塊結構圖Fig.2 Structure chart of circulation module
殘差模塊由直接映射部分和殘差部分組成,其表達式為:
基建工程是一項龐大而繁雜的工程,它不僅歷時較長,耗資巨大,而且在施工過程中,所涉及的單位、人員也比較多,所需專業面也非常廣。基建檔案作為工程項目建設的第一手資料,可以為企業各環節的工作提供重要依據,減少資源浪費現象,有效維護企業權益,促進企業健康持續的發展。
xl+1=xl+F(xl,Wl)
(3)
其中,xl表示殘差網絡第l層的輸入,xl+1表示殘差網絡第l+1層的輸入,F(xl,Wl)表示殘差部分。其結構如圖3所示。在卷積網絡中,當xl和xl+1層的特征圖數量不相等時,需要使用1×1卷積進行升維或降維,這時殘差模塊的表達式變為:

圖3 殘差模塊Fig.3 Residual module
xl+1=h(xl)+F(xl,Wl)
(4)

圖4 加入11卷積層的殘差模塊Fig.4 Residual module added with 11 convolution layer
殘差模塊的加入使網絡不會出現梯度消失的問題且網絡深度加深,利用自身映射來促進訓練過程[5]。
注意力機制的應用在網絡中的位置如圖1中的紅色區域,它將編碼過程中提取的不同分辨率特征進行調整,用來控制不同空間位置處特征的重要性,輸出的調整后的編碼特征再與對應解碼部分的特征進行拼接,該模塊的結構如圖5所示。其中xl是注意門提取到的編碼過程中第l層的特征圖;g代表門控向量,它包含上下文信息,以修剪低級特征響應。網絡選擇加性注意門模塊,雖然在計算上更麻煩,但實驗證明加性注意力門比乘法注意力門獲得的注意力系數αi要更精確[6]。加性注意力門的計算公式如下:

圖5 注意力門模塊結構圖Fig.5 Structure chart of attention gate module
(5)
(6)
其中σ1是Relu函數,σ2是Sigmoid函數,Wg、Wx、φ都是卷積操作,bg、bφ都是對應卷積的偏置項,αi∈[0,1]是注意力系數,它一般在目標區域取得較大的值,在背景區域取得較小的值。Fint一般比Fg、Fl要小。注意力門的輸出是輸入特征圖和注意系數的逐元素相乘。
注意力門的使用可以使模型更專注于局部區域,提高對前景像素的敏感度;可以替代圖像分割框架中目標區域定位模塊,從而減小網絡參數。
數據來自“ISIC 2018:針對黑色素瘤檢測的皮膚病變分析”大型挑戰數據集(International Skin Imaging Cooperation ,ISIC)[7-8]。訓練數據包括2594個圖像及其對應的腫瘤分割的標簽,該標簽由皮膚癌專家進行注釋與標記,并由公認的黑色素瘤專家審查。圖像的尺寸大小不一樣,按照7∶1∶2的比例隨機將這2 594張圖像分為1 815張訓練集、259張驗證集和520張測試集。在訓練數據集中加入適量標準差為0.2的高斯噪聲,這類似于將輸入數據做隨機化處理,防止過擬合問題的發生,有助于提升訓練網絡的效果。利用隨機的旋轉、翻轉、平移等數據增強方法來對訓練數據集及其標簽進行數據擴充[9],并增強訓練數據集圖片的亮度、對比度和色調,進一步提升圖片質量。對所有圖片做歸一化處理,使圖像像素均值為0,方差為1,其作用是防止訓練過程中出現梯度爆炸問題導致訓練不收斂。
為了檢測提出網絡的分割效果,使用了七種評價指標,包括正確率(accuracy,AC)、敏感度(sensitivity,SE)、特異性(specificity,SP)、準確率(precision,PC)、F1分數(F1-score)、jaccard相似度(Jaccard similarity,JS)和Dice系數(Dice coefficient,DC)。為了得到以上的評價指標,需要使用一些其他的變量:真正例(True Positive,TP),真反例(True Negative,TN),假正例(False Positive,FP),假反例(False Negative,FN),其中分割結果與圖像標簽的混淆矩陣關系如表1所示。最終評價指標的計算公式為:

表1 混淆矩陣Tab.1 Confusion matrix
(7)
(8)
(9)
(10)
(11)
(12)
(13)
其中,GT是分割圖像的標簽,SR是網絡分割的結果。
深度卷積神經網絡的訓練算法有隨機梯度下降(Stochastic Gradient Descent,SGD)、自適應梯度下降(Adaptive Subgradient,Adagrad)及自適應動量估計(Adaptive Moment Estimation,Adam)等不同方法。挑選收斂速度較快的Adam算法作為實驗算法,經實驗得到的最適宜學習率初始值為2×10-4。
訓練過程中使用二進制交叉熵損失函數(Binary Cross EntropyLoss,BCE),該損失函數表達式為:
loss(Xi,Yi)=-wi[YilogXi+(1-Yi)log(1-Xi)]
(14)
式中,Xi,Yi,wi分別代表每個像素的預測值,每個像素的標簽值和每個像素點對應的權重值。
實驗采用改進的U-Net網絡將皮膚病圖像分割為病變部分和背景區域。網絡訓練過程使用何凱明初始化(Kaiming initialization)[10],預處理對原始皮膚病圖像做隨機的翻轉、旋轉與平移,并將圖像的尺寸調整為256×256,選擇線性修正單元(ReLU)作為激活函數。使用2.2節中的評價指標來對網絡框架進行評估,將網絡與標準U-Net網絡、結合殘差模塊的U-Net網絡及結合注意力門模塊的U-Net網絡進行對比實驗。
通過多次實驗驗證得出進行200輪訓練時網絡的訓練效果最佳,將ISIC 2018實驗數據集放入以上不同的網絡中,得到最終的實驗結果如表2:

表2 實驗結果表Tab.2 Experiment results
由得到的數據可知,方法在正確率、敏感度、F1系數、jaccard相似度和Dice系數上均比其他方法高,體現了此方法對腫瘤目標定位的精確性。
圖6是此方法分割皮膚癌測試圖像得到的實驗結果圖像。

圖6 分割測試圖像結果Fig.6 Results of segmentation testing image
由分割結果可看出此方法對皮膚癌圖像分割較為精準,但在含有毛發干擾情況時,網絡會出現誤差。如第三行的圖像,算法會將皮膚癌區域中像素值較小的部位誤認為是背景區域,這都是算法有待提高的地方。
在U-Net網絡結構基礎上,將殘差模塊、循環模塊及注意力機制加入其中,增強了網絡對目標區域的定位能力,保證了特征的提取;網絡層數的增加提高了網絡整體的魯棒性;特征的精確提取與保留在整體上提升了分割精確度。后續研究中,將深入研究如何讓網絡區分出腫瘤目標與人體自身毛發等理化特征,進一步優化圖像預處理過程,并結合圖像,提取更高質量的特征,以提高分割的精確度。