999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度卷積神經網絡的胃活檢胃癌預測模型研究

2021-03-11 03:34:42王素英張慧芝桂坤陳炳憲
電子技術與軟件工程 2021年21期
關鍵詞:胃癌分類模型

王素英 張慧芝 桂坤 陳炳憲*

(1.寧波市臨床病理診斷中心 浙江省寧波市 315000 2.杭州智團信息技術有限公司 浙江省杭州市 310052)

1 引言

癌癥是目前人類難以攻克的頑疾,胃癌的發病率、致死率高居我國癌癥前列,盡早進行胃鏡篩查是降低胃癌發病率及死亡率的有力手段,然而胃鏡活檢高普及率大大增加了病理醫生的工作強度及負擔,其次,傳統的病理診斷存在主觀性強、重復性差等問題,人工智能走進臨床病理診斷成為必然趨勢。因此,我們聯合病理專家及計算機專家,利用計算機前沿技術,研發大數據驅動的人工智能軟件,建立胃癌預測模型,輔助應用于胃癌診斷。首先挑選大量明確診斷胃癌的活檢切片及正常胃活檢切片,將病理切片數字化(即通過全自動切片掃描儀,將病理切片圖像轉化成數字圖像),病理專家利用標識軟件對數字圖像中的腫瘤區域進行人工標識,計算機專家將已標識的圖像,采用基于深度學習的圖像分割技術,建立胃癌預測模型,進一步進行驗證及測試。

2 材料和方法

在這一章節中,我們將詳細介紹胃癌預測模型。

2.1 整體技術路線概述

整體技術路線如圖1所示。

圖1:基于深度神經網絡的胃癌預測技術框架

訓練階段:在診斷為癌的胃鏡切片中標注出患癌組織輪廓,隨后根據標注結果,截取陽性圖塊和陰性圖快,訓練深度卷積神經網絡,用于預測圖塊患癌概率。

應用階段:掃描胃活檢病理切片為數字圖像,通過全圖推理算法獲取組織前景的一系列圖塊,依次送入訓練好的深度卷積神經網絡中,完成全圖患癌部位的預測,通過對熱力圖的特征提取訓練切片級胃癌預測模型,最終完成整張胃活檢切片的癌變概率預測。

2.2 數據標注與預處理方法

數據標注:胃活檢數字病理圖像尺寸很大,平均10 萬×10 萬個像素平方大小。我們研發了專門的數據標注工具,用于標注胃癌病變區域和正常組織區域。對于患有胃癌的數字病理圖像,如圖2(a)所示,采用閉合曲線標注出所有患癌區域;對于陰性切片,如圖2(b)所示,用矩形標注工具標注正常胃組織。

圖2:切片標注示例

標注數據處理方法:對于陰性標注的圖像處理:首先在1 倍率的數字圖像中獲取胃組織的前景。具體計算公式如下所示:

其中,IS, IR, IG, IB分別為原始圖像的S 空間圖像,R,G,B 通道圖像。為對應圖像的otsu 閾值。最終計算出的It為二值圖像,像素真值部分為前景區域,零值部分為切片背景區域。

利用劃窗法截取20 倍率下數字圖像patch,步長為200,窗口大小為250*250。若窗口中組織前景的mask 占比大于0.3,則作為陰性圖塊。

對于陽性標注的圖像處理:首先在1 倍率數字圖像下將標注曲線進行輪廓填充,獲取陽性標注的mask 圖像。然后用劃窗法截取20 倍率下數字圖像圖塊,步長200,窗口大小250*250。若窗口中組織前景的mask 占比大于0.3。則作為陽性patch 數據。

2.3 訓練圖塊分類的深度卷積網絡模型

圖塊的分類網絡模型,選用Efficientnet 和resnet50 卷積網絡。Efficientnet 作者提出復合模型擴張方法結合神經結構搜索技術獲得卷積網絡合適的depth、width 及resolution。Resnet50 包含四個殘差塊,最后進行全連接操作用于分類任務。以resnet50 為例,訓練輸入圖像為標注后處理獲取的陽性及陰性圖塊。分類標簽為0-陰性圖塊,1-陽性圖塊。Loss 設計為二值交叉熵代價函數。設有m 個樣本,y(i)為樣本標簽,hθ(x(i))為模型預測的結果,則損失函數可表示為:

ResNet 模型用于圖塊分類如圖3所示。

圖3:ResNet 模型用于圖塊分類

2.4 全圖推理算法

在全圖推理階段,預測整張切片的癌變部位,并以熱力圖的形式展現。該過程的結果可以預測整張數字切片中的癌變區域具體位置,并為下一步切片分類的提供原始特征矩陣。具體的推理流程分為以下三步:

第一步:提取1 倍率下胃活檢數字病理圖像,獲取組織前景區域mask。保存為0-1 矩陣It,其中組織前景設定為1,背景設定為0。具體計算公式如下所示:

其中,IS, IR, IG, IB分別為原始圖像的S 空間圖像,R,G,B 通道圖像。為對應圖像的otsu 閾值。最終計算出的It為二值圖像,像素真值部分為前景區域,零值部分為切片背景區域。

第二步:從矩陣It中提取值為1 的坐標位置,即為1 倍率下數字圖像中為前景的像素坐標點(xi,yi)。對每個這樣的坐標點,切換到20 倍率下為(20xi,20yi),以此為中心點在20 倍率下截取224×224的矩形作為卷積神經網絡推理圖塊,推理訓練好的圖塊分類網絡,預測患癌概率

第三步:遍歷所有Itissue的真值,預測每個像素點對應20 倍率圖塊預測的生成熱力圖矩陣h:

2.5 全圖識別特征提取與切片級分類模型

利用全圖推理后獲取1 倍率下的熱力圖與1 倍率下組織前景信息,進行特征工程,提取31 個特征,詳見表1。訓練時選取了與切片陰陽性相關系數最高的五個特征進行分類器SVM,random forest,lightgbm 的訓練與評估。片級分類模型的特征及相關性詳見表2。

表1:全視野推理結果的熱力圖特征描述

表2:前五個主要特征及其與片級陰陽性的相關性分析

3 訓練方法

3.1 數據來源與處理

胃活檢數字病理圖像來源于寧波市臨床病理診斷中心,挑選了胃癌切片和良性胃活檢切片,采用寧波江豐生物信息技術有限公司提供的高精度切片掃描儀KF-PRO-400將切片掃描為數字病理圖像,掃描倍率為20 倍。

胃鏡數字切片數量分配如表3所示,截取的20 倍率圖塊數量統計如表4所示。

表3:胃鏡數字切片數量分配

表4:截取的20 倍率圖塊數量統計

3.2 圖塊分類模型訓練細節

在訓練集中用圖像增強方法提升模型泛化能力,圖像增強方法如隨機裁剪為224*224 圖像,隨機翻轉,隨機gamma 變換,隨機高斯模糊,紋理變換等。訓練時優化器為Adam,初始學習率0.01,采用early stop 策略,當驗證集loss 下降到最低點不再下降時,提前終止訓練。

圖塊分類網絡訓練時的圖像增強如圖4所示。

圖4:圖塊分類網絡訓練時的圖像增強

3.3 評估指標

(1)評價視野級分類性能的指標:

準確率 Accuracy = (TP+TN)/(TP+TN+FP+FN),指預測正確的樣本數占總樣本數的百分比。

(2)評價切片級分類性能的指標:

ROC 曲線及AUC

ROC 曲線常用于二分類問題中的模型比較,主要表現為一種真正例率 (TPR) 和假正例率 (FPR) 的權衡。具體方法是在不同的分類閾值 (threshold) 設定下分別以TPR 和FPR 為縱、橫軸作圖。

ROC 曲線圍成的面積即為AUC,AUC 越接近1 分類效果越好。

4 實驗結果和分析

4.1 分類模型評估

如表5所示,Efficientnet-b1 深度卷積網絡模型在驗證集和測試集中分類準確率最優。相交更復雜的Efficientnet-b2,Efficientnet-b3結構表現更好。

表5:CNN 模型評估

4.2 全圖識別結果可視化

基于訓練得到的Efficientnet-b1 深度卷積網路模型,對胃活檢數字切片進行全圖推理,獲取癌變區域熱力圖,如圖5所示,左圖為1 倍率下數字圖像原圖,右圖為預測癌變區域熱力圖,顏色越接近紅色的區域表示對應的組織越可能有癌變。

圖5:全圖推理預測癌變區域

下一步對切片分類訓練集和測試集中的所有切片進行全圖推理,獲取對應的預測熱力圖。提取預測熱力圖中的圖像特征進行切片級分類模型的訓練和測試。

4.3 片級分類模型評估

不同分類模型在切片測試集中的表現如圖6所示。

圖6:不同分類模型在切片測試集中的表現

在測試集中,lightgbm 的切片分類效果最優,靈敏度100%時,特異度達到53%

5 討論

自21世紀以來,人工智能在病理界有了廣泛的應用,比如遠程病理會診、病理教學、質量控制、切片管理等。近來,人們的研究轉向將AI 應用于病理輔助診斷中來,2017年9月,美國食品和藥品管理局(FDA)批準了第一個全載玻片成像掃描(WSI),2018年批準Philips IntelliSite 病理解決方案(PIPS)作為第一個用于病理診斷的WSI 方案。我們聯合了寧波臨床病理診斷中心的病理專家及寧波江豐生物信息技術有限公司的計算機專家,利用寧波江豐生物信息技術有限公司自主研發的高精度切片掃描儀KFPRO-400,將明確診斷胃癌的500 張胃活檢切片及500 張良性切片掃描成數字圖像,由多位高年資病理專家采用江豐公司自主研發的標注軟件對腫瘤區域進行標注,計算機專家探索研發一種新的計算機深度學習方法,建立胃癌預測模型,用于初步篩選胃活檢標本,從而大大提高病理醫生的工作效率診斷準確率。

隨著科技發展,計算機硬件的計算能力不斷的得到提升,深度學習開始在圖像語義分割上大放異彩,學者們提出了一系列有監督的模型并取得了卓越的分割效果。我們以胃癌為靶心,圍繞胃鏡病理切片智能識別、診斷,展開大數據與人工智能技術在胃鏡病理切片診斷及輔助治療上的應用。研究基于深度學習的粗標記胃鏡病理切片圖像分割算法,通過計算機對病理切片進行分割識別,緩解緊張的醫療資源,輔助醫生實現高準確性診斷。

傳統的醫學圖像分割算法包含區域的分割方法、邊緣的分割方法、圖論的分割方法和泛函的圖像分割方法等。隨著人工智能和計算機視覺等相關領域的快速發展,深度學習亦被運用于醫學圖像分割,并取得了顯著效果。Garcia 等[1]提出基于深度學習的胃癌免疫組織化學圖像的淋巴細胞自動檢測方法,該方法主要是基于卷積神經網絡(convolutional neural network,CNN)模型的分類任務,可以從一張免疫組織化學染色圖像中分辨出患者是否患有癌癥,但不能精確給出癌癥區域。Sharma 等[3]也提出了一種基于CNN 的分類方法用于識別胃癌,他們基于典型的AlexNet 網絡[4]提取圖片特征信息,實現對整張數字病理圖像胃癌的識別。Ficsor 等[5]提出一種細胞計數方法,Zaitoun 等[6]提出一種基于句法結構的方法。此外,Cosatto 等[7]提出通過半監督學習的方法檢測胃癌細胞,Sharma等[8]利用神經網絡提取胃癌細胞核內的紋理信息以及支持向量機(support vector machine,SVM)算法實現了對胃癌的識別。然而,這些方法并不能很好地解決胃癌病理切片的識別問題,大多是基于整張病理切片圖進行分類識別,雖然能識別出是否為胃癌患者,但不能準確定位到腫瘤區域,對于醫師的后續治療不能起到很大作用。為此,本研究采用基于深度學習的圖像分割技術實現對病理切片的胃癌區域識別,幫助醫學專業人員精準定位癌癥區域,以期對患者的后續治療產生積極意義?;谏疃染矸e神經網絡搭建的胃鏡活檢數字圖像預測框架,可以準確定數字圖像的癌變區域。在此基礎上通過特征提取搭建機器學習分類模型,可有效預測整張切片的患癌概率,在測試集中lightgbm 分類模型AUC 為0.963。實驗結果表明,有良好的切片分類性能??纱蟠鬁p輕病理醫生的診斷效率,減小誤判。

猜你喜歡
胃癌分類模型
一半模型
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
3D打印中的模型分割與打包
P53及Ki67在胃癌中的表達及其臨床意義
胃癌組織中LKB1和VEGF-C的表達及其意義
主站蜘蛛池模板: 最新精品国偷自产在线| 亚洲永久免费网站| 国产黄色爱视频| 国产杨幂丝袜av在线播放| 久久不卡国产精品无码| 国产成人精品第一区二区| 精品少妇人妻一区二区| 精品国产电影久久九九| 有专无码视频| 亚洲国产在一区二区三区| 手机精品福利在线观看| 精品剧情v国产在线观看| 韩日无码在线不卡| 亚洲精品自拍区在线观看| 精品亚洲欧美中文字幕在线看| 99热这里只有精品国产99| 欧美一级一级做性视频| 国产一区二区免费播放| 国产精品网拍在线| 久久香蕉国产线| 香蕉99国内自产自拍视频| 高清国产va日韩亚洲免费午夜电影| 久久久亚洲色| 四虎成人精品在永久免费| 狼友av永久网站免费观看| 在线亚洲小视频| 亚洲欧美不卡中文字幕| 97国产精品视频人人做人人爱| 99久久成人国产精品免费| 视频二区中文无码| 少妇露出福利视频| 欧美国产日韩在线观看| 国产性生大片免费观看性欧美| 国产v欧美v日韩v综合精品| 午夜日b视频| 成人国产免费| 美女内射视频WWW网站午夜| 天堂岛国av无码免费无禁网站| 99草精品视频| 欧美啪啪精品| 亚洲伊人天堂| 在线观看免费黄色网址| 国产拍揄自揄精品视频网站| 亚洲色欲色欲www网| 99久久人妻精品免费二区| 欧美日韩亚洲国产主播第一区| 黄色在线不卡| 国产毛片不卡| 亚洲中文字幕av无码区| 久久久久中文字幕精品视频| 久久久久人妻精品一区三寸蜜桃| 久久香蕉欧美精品| 国产精品深爱在线| 超清无码熟妇人妻AV在线绿巨人| 午夜不卡福利| 国产亚洲欧美在线人成aaaa| 丁香六月激情婷婷| 青青国产视频| 国产粉嫩粉嫩的18在线播放91| 国产精品yjizz视频网一二区| 在线免费a视频| 亚洲天堂色色人体| 国产理论最新国产精品视频| 天天干伊人| 婷婷丁香在线观看| 福利在线不卡一区| 欧美国产日本高清不卡| 激情六月丁香婷婷| 国产亚洲欧美在线专区| 伊人色综合久久天天| 欧洲精品视频在线观看| 免费一级无码在线网站| 国产青青草视频| 国产精品无码一区二区桃花视频| 亚洲天堂网在线播放| 亚洲综合亚洲国产尤物| 成人一区在线| 久久国产拍爱| 亚洲第一成网站| 欧美α片免费观看| 久久国产拍爱| 久久五月视频|