999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

加權Fisher卷積神經網絡乳腺癌檢測模型

2022-06-29 12:37:02丁曉明
計算機技術與發展 2022年6期
關鍵詞:乳腺癌模型

郝 堃,胡 磊,丁曉明

(1.重慶醫科大學附屬第一醫院 信息中心,重慶 400010;2.西南大學 計算機與信息科學學院,重慶 400010)

0 引 言

目前,乳腺癌已成為困擾女性健康的首要疾病之一。國家癌癥中心發布的《2017年中國腫瘤的現狀和趨勢》報告中顯示,乳腺癌發病率位列女性惡性腫瘤之首[1],達到女性癌癥患者的17.07%。該疾病呈年輕化趨勢,臨床表明最小患者年齡僅18歲[2]。全球每年新增感染此疾病的患者超過百萬例,死亡率約為33%[3]。中國乳腺癌發病率高達11%[4]。通過普適性、推廣性強的檢查篩查方法早期識別乳腺癌顯得尤為重要。乳腺X光攝影經過了一個世紀的技術發展,已經成為早期乳腺癌診斷和篩查必不可少且行之有效的影像檢查方法。

隨著人工智能在醫學影像識別中的逐漸應用,乳腺癌X光圖像識別主要向基于人工特征傳統乳腺癌醫學圖像分類法以及基于深度學習的乳腺癌醫學圖像分類法發展。在人工特征領域主要是使用隨機森林[5]、支持向量機[6]等展開研究。基于深度學習[7]卷積神經網絡的乳腺癌醫學圖像分類方法,利用其自主學習的特性,解決了特征需要手工處理的問題,提高了實驗效率。

當前,通過深度學習模型研究乳腺癌醫學圖像的方法有很多,比如卷積神經網絡、深度殘差網絡、密集連接網絡等[8-11]。通過這類方法能夠自動提取醫學圖像的特征,避免了之前人工提取方法的復雜性和局限性。同時,該方法在圖像的識別分類、物體識別得到了廣泛的應用[12-15],這些工作都為卷積神經網絡在乳腺癌圖像分類上打下了基礎[16-17]。

該文首先對乳腺影像圖進行預處理,如剪切、降噪、增強,然后基于加權Fisher準則對LetNet-5進行改進,并對乳腺癌的識別率進行前后對比。

1 相關理論與技術

1.1 CNN模型概述

卷積神經網絡是在經典的人工神經網絡的基礎上發展起來并形成的新型的神經網絡結構[18-19]。該網絡的出現使得神經網絡在原先的基礎上變得更加簡單且易操作[20]。目前,CNN在眾多領域中都得到了廣泛的關注,其已經成為了乳腺癌醫學圖像研究中深度算法的關鍵,且適用于多種醫學問題[21]。

1.1.1 卷積層和采樣層

卷積的公式如下所示:

(1)

卷積的作用在于:不改變對圖像特征信息提取的情況下有效減少噪聲干擾;實現共同享有局部感受野和權值;自行對圖像特征進行提取和學習,節省特征提取的時間。

采樣層的主要職責就是對經過卷積后獲得的輸出特征進行采樣操作,子采樣可以通過多種方式進行,其中比較常用的有均值子采樣、最大值子采樣等方式。

1.1.2 訓練過程

對于卷積神經網絡,在訓練時主要分為兩部分進行:

(1)前向傳播訓練。從總樣本中隨機選擇一部分為訓練使用的樣本(X,YP),然后將其輸入到已經初始化好的網絡之中,開始訓練;通過卷積神經網絡中特有的卷積操作和下采樣操作,再通過全連接操作拉長,得到輸出的最終向量Op。

(2)反向傳播訓練。對訓練樣本的輸出結果Op和其所對應的實際標簽Y兩者的殘差進行計算;將得到的殘差一層一層地向前傳播,并根據結果對每一層的參數進行修正。

1.2 AlexNet模型概述

1.2.1 AlexNet模型結構

AlexNet是基于經典的卷積神經LetNet5和傳統的BP神經網絡發展改進的深度卷積神經網絡。采用了8層結構,分為5個卷積層和3個全連接層。其中卷積層1、2、5層分別采用了MaxPooling、ReLU和LRN模塊,并且在全連接層FC6和FC7采用了Dropout模塊。最終在FC8層的softmax輸出多分類的最大后驗概率進行分類。

1.2.2 AlexNet模型分析

(1)ReLU激活函數。AlexNet采用了ReLU函數作為CNN的非線性激活函數,替代了之前的Sigmod函數。由于該函數具有稀疏性,使得模型訓練的速度進一步加快,該方法有效加快了梯度下降的速度。

(2)LRN模塊。模型中的局部歸一化對局部神經元活動創建了競爭機制,該方法使得其中的響應值變得更大,因此增加了模型的泛化能力

(3)Dropout。對于Dropout層的神經元,它通過定義的概率隨機刪除一些神經元。能夠保持輸入層與輸出層的神經元個數不變。按照神經網絡的學習方法進行參數更新。然后在后續的迭代過程中隨機刪除神經元,直到訓練結束。該種方式能夠有效避免模型過擬合,提高了模型的泛化能力。

1.3 傳統Fisher準則

對于Fisher線性鑒別[22]來說,最為關鍵的內容就是選取最合適的投影方向。多數情況都是利用準則函數對LDA的投影方向進行選擇。Fisher準則是最常用,也是最經典的準則函數之一。它表示的是樣本集類間距離和類內距離兩者分散值的比,為了保證投影方向是眾多方案中最優化的就需要確保該比值取得最大[23]。

樣本集的類內和類間散布矩陣分別表示為SW和SB,為了得到這兩個值,需要進行如下計算:

(2)

(3)

其中:

(4)

(5)

其中,pi和ui分別指的是第i類的先驗概率和平均值;u指的是總樣本的平均值。所以說,可以用下列公式來表示Fisher準則函數JF(V)。

(6)

其中,V指的是投影方向矩陣,如果JF(V)取得最大值,那Vopt就是最佳投影方向。

2 基于加權Fisher的醫學圖像分類

2.1 卷積神經網絡的代價函數

卷積神經網絡用卷積層與池化層對人工神經網絡中的簡單與復雜細胞層分別進行替代。CNN運用池化的操作對卷積后的特征做抽樣,在保留了有用特征信息的同時使圖像的維度下降[24]。經過卷積與池化的反復處理作用,最后圖像特征按照全連接形式進行輸出,并計算出輸出結果和標簽的誤差情況。同時經過反向傳播對參數進行調節。因此,合適的損失函數對于一個訓練良好的卷積神經網絡至關重要。

目前兩種常用的損失函數分別為最小平方誤差函數和softmax函數。對于一個乳腺圖像集不多的數據集而言,顯得過于單一而且很難達到很好的效果。因此,該文創新性地將加權Fisher準則運用其中,構造基于加權Fisher準則的卷積神經網絡(weighted fisher CNN,WFCNN)[25]。使用Fisher準則,確保樣本實際值與樣本標簽誤差盡可能小。

卷積神經網絡目標為訓練多層的網絡結構從而得到一個良好的分類器。在卷積神經網絡中核心是卷積核的權值W與偏置b確定。同時,卷積神經網絡的權重初始化對模型的收斂速度和性能至關重要。這就需要對權重參數W不停的迭代更新以期望能達到更好的性能[26]。因此,在初始化時該文將每層節點的權值和偏置重置為0。

2.2 基于加權Fisher的LetNet-5卷積神經網絡

線性判別分析(LDA)為在特征提取方法中最常用的方法,能夠有效反映不同類別之間特征的差異。圖1中n維的樣本模型在投影在一維的空間,設有一個類4和其他類1,2,3分的比較遠,叫做邊緣類,則傳統的LDA得到的最好的投影方向A會把類4和其他的進行分離,也就是對類間距離進行過于偏大,然而這樣造成的結果就是使得原本類間距離很小的類別1,2,3發生了重疊。

圖1 不同定義下的SB導出的不同投影方向

為了防止以上情況發生,需對合適的類間距離過大、分類情況太好的進行減小,從而使其在進行特征分解的時候起關鍵作用。Marco提出了加權Fisher準則,對類間散布矩陣做加權優化處理,也就是對類間距離不一樣的類給予不一樣的權重值,其具體計算式為:

(7)

式中,

(8)

(9)

(10)

其中,Δij為第i類與第j類樣本間的馬氏距離,erf(?)為錯誤函數,其表達式可表示為:

(11)

如此,通過如下的特征式求解可以得到基于加權Fisher準則的鑒別投影向量:

SBν=λSWν

(12)

為計算更加便捷,節約時間,用簡單的歐氏距離對權值函數ω(Δij)馬氏距離做替換,也就是:

(13)

一般是把最小的平方誤差函數作為最終的代價函數作處理,也就是真實輸出與標簽間的誤差保持盡可能小。通過引入加權Fisher準則對傳統的卷積神經網絡中的代價函數進行改進。

基于加權Fisher準則的代價函數可用下式表示:

J=J(W,b)-αJB+βJW

(14)

其中的系數一般在0到1之間。基于最小平方誤差代價函數,為了計算方便,把類間距離的度量JB與類內距離度量的函數JW分別表示成:

(15)

(16)

其中,mi為第i類均值,mj為第j類均值,為輸出層的真實輸出情況。

梯度計算以J為卷積神經網絡代價函數的迭代時,在保持誤差盡可能小,需使樣本類內距離縮小,使類間距離增加。如此進行反復的前向傳播和后向傳播計算,其權值就會朝著更加有利于分類的方向進行調節。

卷積網絡一般是把最小誤差函數當成最后的代價函數,也就是真實輸出與標簽間的誤差盡可能的小。對于此,運用加權Fisher準則,提出加權Fisher準則下的卷積網絡是為了確保真實輸出與樣本標簽間的誤差保持最小,同時還要實現對于同類樣本之間距離逐漸接近,而異類樣本的間距離盡可能的遠。

綜上,基于加權Fisher準則的卷積網絡訓練流程為:

(1)把輸入的圖片放入卷積神經網絡中進行卷積處理,獲得C1下的特征集X1;

(2)把上一步獲得的X1運用均值采樣的方法再做處理,進而獲得S2下的特征集X2;

(3)反復步驟1、2,分別獲得C3和S4特征集X3、X4;

(4)進一步對步驟1、2反復,獲得特征集X5、X6;

(5)把X6拉直而成為一個列向量,按照全連接的形式方式進行輸出;

(6)運用加權Fisher準則函數作為新代價函數,計算真實的結果與標簽間的差異,經過反向傳播傳遞殘差;

(7)將預處理好的圖像輸入到訓練好的CNN中,并計算出其識別率。

2.3 基于加權Fisher的AlexNet卷積神經網絡

AlexNet有5個卷積層和3個全連接層,在AlexNet中卷積核大小為11*11*3,步長為4,輸出為55*55*96,子采樣與LetNet的均值采樣不同,使用的是最大值的子采樣,輸入圖像的大小為224*224。AlexNet使用ReLU代替sigmoid作為激活函數。ReLU的數學表達式如下所示:

f(x)=max(0,x)

(17)

將加權Fisher準則的損失函數添加到AlexNet的網絡結構中,基于Fisher準則AlexNet其工作流程如下:

(1)把輸入的圖片放入卷積神經網絡中開始卷積處理,得出C1下的特征集X1;

(2)把第一步所獲得的X1運用最大值采樣的方法處理,進而獲得S2下的特征集X2;

(3)反復進行步驟1、2,經過五次,得到特征集X10;

(4)將特征集輸入三層全連接層,最后拉成一個列向量;

(5)運用Fisher準則函數當作新的代價函數對真實的結果與標簽間的誤差進行計算,經過反向傳播對殘差進行傳遞,進而能夠運用公式對權值做出優化處理;

(6)將驗證圖像輸入到已經訓練好了的AlexNet模型,最后計算其識別率。

3 實驗過程與結果分析

3.1 醫學圖像數據預處理

為避免采用開源數據集,因數據量不足導致實驗產生的過擬合問題,采用MIAS開源數據,同時提取某三甲醫院PACS影系統中的乳腺影像數據作為補充,采用醫生診斷結果對其進行標記[27-28]。最終統計正常圖328幅、良性圖201幅、惡性圖93幅,圖像均處理為1 024*1 024灰度圖。

首先將圖像裁剪為512*768大小,保留圖像中最有用的部分信息,然后處理圖像當中的噪聲,使用保留邊界功能的中值濾波方法對圖像去噪。由于采集圖像中存在亮度暗度不一致,為了避免影響分類效果,實驗采用直方圖均衡化的方法進行圖像增強處理。圖像預處理前后對比如圖2所示。

圖2 圖像預處理前(左)后(右)對比

為了論證圖像預處理的重要性,將原始圖像和經過處理后圖像進行均衡化直方圖對比(見圖3)[29]。圖像處理前其灰度值大多數會集中在某個部位,可分性不強,同時對比度也不夠強。在經過均衡化處理以后,其像素的排布會更均勻,層次更豐富,從而對比度得到提高。

圖3 圖像預處理前后均衡化直方圖對比

為了對采用基于加權Fisher準則的卷積網絡進行驗證,在預處理后的乳腺X影像數據集上進行一系列實驗以驗證該算法的先進性。設定一樣的迭代次數同時使用一樣的訓練樣本。

3.2 基于加權Fisher的LetNet-5圖像分類

采用識別率作為實驗的評價指標,其計算方式為:

識別率=分類正確的數據個數/算法的數據的個數。

首先將改進的LetNet-5卷積神經網絡的傳統模型(LetNet-5)和加權Fisher準則LetNet-5模型(WFLetNet-5)進行對比實驗研究,在原始的基礎上多增加了一層新的卷積層和子采樣層,并且增加了全連接層的參數,以保證輸入的圖像可以從原始的32*32的大小,調整為128*128的大小。

將預處理好的乳腺影像通過Python代碼,沿圖像寬高最短尺寸調整大小,以中心為原點再次裁剪為128*128大小。然后從建模及隨機提取出500張作為訓練集,剩余部分隨機提取122張作為驗證集,卷積層C1、C3、C5的濾波器個數分別為16、32和64,其大小都是3*3,S2、S4都是2*2的均值的采樣層,其激活函數是sigmoid,α取0.02,β取0.01。同時學習率初始設置為0.01,按訓練的輪數增長指數插值進行遞減。

圖4為迭代1 000次的LetNet-5和WFLetNet-5模型識別率對比。在500輪之后兩個模型在訓練集上的識別率都高達了100%,所以只選擇了前500輪,并且圖中只顯示了每10輪的識別率。從圖中可以很直觀地看出在大約250的訓練輪后,WFLetNet-5模型的識別率就普遍高于傳統模型。

圖4 在乳腺影像數據上的訓練識別率

接著,把兩個訓練好的模型在驗證集上做測試,LetNet-5識別率為76%,WFLetNet-5識別率為88%,提升率16%。

采用交叉驗證的方式重新對兩個卷積神經網絡進行對比,將預處理好的全部圖像集,隨機分成10份,進行十次訓練和驗證。每次的驗證集為對應次數的數據子集,其余9份為訓練集。交叉驗證對比結果如圖5所示。

圖5 十次交叉驗證的對比折線圖

在交叉驗證中,WFLetNet-5模型的識別率高于傳統的LetNet-5。該結果表現出加權Fisher準則對于LetNet-5的模型有較好的提升效果。

3.3 基于加權Fisher的AlexNet圖像分類

隨機提取500張經預處理的圖像作為訓練集,剩余122張作為驗證集。將圖片調整為224*224大小。其中卷積層C1、C3、C5數目分別是6、12與32,其大小都是3*3,S2、S4都是運用規模為2*2均值的形式,激活函數為ReLU,α取0.02,β取0.01。

圖6為迭代5 000次的AlexNet卷積神經網絡的前1 000輪的傳統模型和改進模型的識別率對比。基于加權Fisher的AlexNet網絡結構(WFAlexNet)識別率好于傳統模型(AlexNet)。

圖6 在影像數據集上的訓練識別率

使用驗證集在模型上進行實驗并計算最終的識別率,AlexNet識別率為61%,WFAlexNet識別率為68%,提升率11%。引入了加權Fisher的AlexNet卷積神經網絡在驗證集上識別準確率要好于傳統的AlexNet神經網絡。

3.4 兩種模型實驗結果對比分析

基于實驗數據對比分析,改進前LetNet-5對乳腺圖像的識別率好于AlexNet,改進后的模型具有同樣的效果。基于加權Fisher準則的LetNet-5對于模型整體質量的提升具有更為良好的效果。

為了驗證真實數據集環境下,基于加權Fisher的LetNet-5及AlexNet算法的效果,該文將原始的622張1 024*1 024圖片隨機裁剪成512*768的像素大小,進行圖像處理后通過隨機選取、裁剪的方式將訓練集分別擴充到6 200張128*128和224*224的影像訓練數據集。同時在PACS影像庫中又隨機提取100名患者的真實乳腺圖像數據作為測試集。其中良性36幅、惡性18幅、正常46幅。同樣將其進行預處理形成100張128*128和224*224的圖像,再分別進行驗證。

將真實PACS系統提取的乳腺影像數據測試集放在訓練好的加權Fisher的LetNet-5及加權Fisher的AlexNet卷積神經網絡上做驗證,其中改進的LetNet-5混淆矩陣結果如表1所示,改進的AlexNet混淆矩陣如表2所示。

表1 加權Fisher的LetNet-5的混淆矩陣

表2 加權Fisher的AlexNet的混淆矩陣

在充足的數據基礎上,加權Fisher 的LetNet-5卷積神經網絡比加權Fisher的AlexNet卷積神經網絡在乳腺檢查上識別率更高(91% VS 74%),而且因為樣本集增大的原因,使得卷積神經網絡發揮出了其針對于大量樣本有著更強的學習能力的特性,其在測試集的識別率大大超過了樣本集較少時的準確率。

綜上,引入了加權Fisher的卷積神經網絡在訓練集的收斂輪次上和驗證集、測試集的識別率都比同樣條件下的傳統模型有著更好的效果,而且基于LetNet-5的改進算法相較改進的AlexNet有著更好的效果。這對于乳腺癌檢測、分類有著很好的應用前景。

4 結束語

CNN提出時就以較高的算法性能而受到了較多的關注,這兩年隨著大數據研究的興起,深度學習,尤其是CNN又再次引起了研究者們的廣泛關注。通過機器識別輔助解決醫療問題也成為一個新興的熱點。該文簡述了CNN在醫學圖像識別領域研究的現狀,然后選擇中值濾波和直方圖均衡化的方法對圖像進行了處理,將加權Fisher準則分別應用于LetNet-5和AlexNet卷積神經網絡。

發現:(1)基于加權Fisher的卷積神經網絡比傳統的卷積神經網絡有著更好的識別效果。(2)在充足的數據基礎上,基于加權Fisher的LetNet-5卷積神經網絡比加權的AlexNet卷積神經網絡有著更強的學習能力,使得其在驗證集上的識別率大大超過了加權AlexNet卷積神經網絡。

因此,對比于傳統的卷積神經網絡模型,基于加權Fisher改進后的模型對醫學圖像預測準確率有更好的效果,基于LetNet-5的改進模型效果更優,這可以為臨床輔助診斷提供極大的幫助。

猜你喜歡
乳腺癌模型
一半模型
絕經了,是否就離乳腺癌越來越遠呢?
中老年保健(2022年6期)2022-08-19 01:41:48
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
乳腺癌是吃出來的嗎
胸大更容易得乳腺癌嗎
男人也得乳腺癌
別逗了,乳腺癌可不分男女老少!
祝您健康(2018年5期)2018-05-16 17:10:16
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 成人欧美日韩| 日韩欧美中文| 一本色道久久88| 精品国产欧美精品v| 在线不卡免费视频| 成人在线视频一区| 成人日韩视频| 精品亚洲国产成人AV| 青青久视频| 日本不卡在线播放| 福利在线免费视频| 香蕉综合在线视频91| 麻豆a级片| 激情国产精品一区| 72种姿势欧美久久久大黄蕉| 免费无遮挡AV| 午夜视频在线观看区二区| 91精品国产91久久久久久三级| 亚洲大学生视频在线播放| 99视频国产精品| 日韩欧美中文在线| 一本大道香蕉久中文在线播放 | 在线另类稀缺国产呦| 国产女主播一区| 国产精品久久自在自线观看| 午夜精品久久久久久久无码软件 | 中文字幕乱码中文乱码51精品| 久久久久久高潮白浆| 日韩精品一区二区三区中文无码| 黄色网址手机国内免费在线观看| 久久午夜夜伦鲁鲁片不卡| 亚洲无码视频图片| 日本草草视频在线观看| 亚洲成人高清在线观看| 国产精品国产三级国产专业不| 美女高潮全身流白浆福利区| 欧美日韩一区二区在线免费观看| 免费不卡视频| 欧美国产菊爆免费观看 | 日本在线欧美在线| 国产福利免费视频| 久久五月天国产自| 国产在线拍偷自揄拍精品| 人妻丰满熟妇αv无码| 欧美区一区| 亚洲国产精品日韩av专区| 五月婷婷综合在线视频| 毛片一级在线| 精品一区二区三区水蜜桃| 亚洲AⅤ永久无码精品毛片| 色有码无码视频| 伦伦影院精品一区| 免费人欧美成又黄又爽的视频| 91精品aⅴ无码中文字字幕蜜桃 | 国产精品所毛片视频| 亚洲欧洲日韩综合色天使| 国产综合精品日本亚洲777| 91在线一9|永久视频在线| 五月激激激综合网色播免费| 视频在线观看一区二区| 国产福利影院在线观看| 99视频在线免费| 亚洲无限乱码| 日韩中文无码av超清| 亚洲区一区| 精品黑人一区二区三区| 久久综合色88| 国产精品片在线观看手机版| 欧美、日韩、国产综合一区| 91亚洲视频下载| 久久国产高清视频| 久久五月天国产自| 日a本亚洲中文在线观看| 2021国产精品自产拍在线| 67194成是人免费无码| 欧美区一区| 五月天久久综合| 欧美成人第一页| 无码人中文字幕| 在线国产欧美| 久久婷婷综合色一区二区| 午夜福利免费视频|