999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度判別性特征學習的醫學影像分析方法

2020-05-11 06:11:15張麗閆鑫李敏
中國實用醫藥 2020年10期
關鍵詞:模式識別特征提取深度學習

張麗 閆鑫 李敏

【摘要】 醫學影像是臨床診斷的重要工具, 對醫學影像進行自動分析能夠提高醫生的工作效率, 減少由主觀經驗引起的診斷誤差。特征提取是影像自動分析體系中的關鍵環節, 對最后疾病診斷的精度具有重要的影響。然而, 現有的方法忽略了特征的判別性信息。現有特征主要是利用病灶的低級特征, 例如紋理、邊緣等信息, 雖然能夠對病灶的主要特點進行表示, 但是忽略了病灶之間的判別性, 降低了識別性能。針對該問題, 本文研究了一種基于深度判別性特征(DDC)學習的醫學影像方法, 提出了一種新的模型雙路字典編碼卷積神經網絡來學習語義描述碼和判別性描述碼。引入圖像區塊(patch)劃分層, 生成大量的局部patch圖像, 從而為模型的訓練提供充足的數據。引入字典編碼層和分類層, 加快特征學習速度, 提高識別精度。提出的方法用在乳腺腫瘤識別, 實驗結果表明提出的方法在識別效果上優于傳統方法。

【關鍵詞】 模式識別;醫學影像分析;特征提取;深度學習

DOI:10.14163/j.cnki.11-5547/r.2020.10.088

【Abstract】 Medical image is an important tool for clinical diagnosis. Automatic analysis of medical images can improve the efficiency of doctors and reduce diagnostic errors caused by subjective experience. Feature extraction is a key step in the medical image analysis, and has an important impact on the accuracy of the final disease diagnosis. However, the discriminative information of the feature is ignored. In order to tackle this problem, this paper proposes a medical image analysis based on deep discriminative characteristics (DDC) learning. A novel two-way dictionary code convolutional neural network is proposed to learn discriminative code. The patch extraction layer is introduced to generate a large number of local patch images, thus providing sufficient data for the training of the model. Introducing dictionary code layers and classification layers to speed up feature learning and improve recognition performance. The proposed method is used for breast tumor recognition. Experimental Results ?show that the proposed method is superior to traditional Methods ?in recognition effect.

【Key words】 Pattern recognition; Medical image analysis; Feature extraction; Deep learning

乳腺癌是現在致死率較高的惡性癌癥之一。紋理特征是乳腺腫瘤分類最為常用、重要的特征[1, 2]。局部二進制模式 (local binary patterns, LBP)是最常用的紋理特征, 已經被用于進行乳腺超聲分類[3]。許多基于灰度共生矩陣的紋理特征也是常用的乳腺腫瘤分類特征[4-8]。近年來, 為了獲得更有效的紋理特征, 許多研究將焦點放在圖像變換上。考慮到小波變換的時間頻域的有效性, 先進行小波變換, 然后提取基于紋理和序統計特性的特征, 取得了較好的結果。有研究提出了一種有效的方向局部紋理描述子, 能夠融合相位信息和LBP信息[9]。有研究表明[10]在contourlet變換后, 提取其自帶的物種紋理特征有助于提升腫瘤分類的精度。考慮到shearlet的方向敏感度以及在各種分辨率上的局部信息, 在shearlet變換后再提取紋理特征也有助于提升腫瘤分類的精度。現有的特征忽略了病灶之間的判別性信息, 如果兩個不同種類的病灶的紋理特點比較相似, 則基于紋理的特征很難將兩個病灶區分開, 降低了識別性能。針對該問題, 本文提出了一種深度判別性特征(deep discriminative code, DDC)學習的病灶識別方法:提出了新的模型雙路字典編碼卷積神經網絡, 學習語義描述碼和判別性描述碼。引入patch劃分層, 生成大量的局部結構圖像, 從而為模型的訓練提供充足的數據。引入相似特征提取層和自匹配層, 加快特征學習速度, 提高識別精度。

1 深度判別性特征學習

1. 1 判別性描述碼定義 本文提出判別性碼, 主要針對具有一定相似性病灶的圖像進行判別。假設有腫瘤有N個類別(在乳腺癌分類中, N=2, 即良性和惡性), 每個類別有M幅圖像。首先使用主成分分析(PCA)方法對所有圖像提取低維特征, 基于獲取的低維特征, 利用K-means方法進行聚類, 聚類數目為N, 簇內圖像屬于同一類。例如, 經過聚類后, 類別A的6幅圖像、類別B的3幅圖像以及類別C的8幅圖像聚到了同一類, 則該簇主要用于區分類別C。因此, 在編碼時, 用于A和B的圖像編碼為0, 病灶C的圖像編碼為1。依次類推, 可以獲取N個編碼, 用于判別N個類別。基于聚類原理, 同一簇的圖像具有一定的相似性, 本文則利用判別性編碼針對不同類別的相似性圖像進行判別性分析, 能夠進一步提高識別精度。

1. 2 基于雙路字典編碼卷積神經網絡的編碼學習 為了學習獲取語義碼和判別性碼, 本文提出了一種新的雙路字典編碼卷積神經網絡模型, 適用于小數據, 并更充分的利用圖像的局部特性, 提高識別精度和速度。本文提出的網絡模型主要由patch劃分層, 中間特征提取層, 字典編碼學習層以及分類層構成。見圖1。

1. 2. 1 patch劃分層 patch劃分層主要用于提取圖像的patch以及若干原子, 從而增加樣本, 提高訓練模型的性能。patch提取器主要是由二值掩碼和非0提取器構成。其中, 二值掩碼的大小與圖像大小相同, 取值只有1和0兩種, 值為1的元素范圍由人工設定, 將原圖像與二值掩碼進行相乘, 再輸入到非0提取器。該提取器主要是保留非0的元素, 提取出想要的局部patch。本文中提到的原子即字典學習中的原子, 用于表示病灶的局部典型特點。本文使用K-means來學習原子, 通過對同一病灶的patch進行聚類, 獲得相應的原子。

1. 2. 2 中間特征提取層 為了通過原子對劃分的patch進行分類, 首先構造了一個雙路CNN結構分別提取原子和patch的特征。該雙路結構中種的兩個CNN共享相同的參數。一個CNN輸入patch, 另一個輸入原子。這種網絡結構不增加網絡的參數, 可以提供更大的靈活性。中間特征層主要由若干卷積塊組成。每個卷積塊首先引入卷積層用于學習局部特征、然后進行歸一化和ReLU非線性激活函數加快模型的收斂速度, 最后接入最大池化層降低特征的復雜度。

1. 2. 3 字典編碼學習層 字典編碼學習層用于學習每個patch與原子的相似度, 通過學習一個特征轉換空間將兩個特征(patch和原子)映射到一個相似性空間, 從而得到patch與原子的相似度, 即可得到字典編碼。具體細節如下:在學習獲取patch和原子的中間特征后, 將兩個特征向量相減得到一個新的特征向量, 然后把它送到字典編碼層中, 字典編碼層采用一個兩層的全連接神經網絡加一個softmax層, 兩層全連接層用于進行特征轉換, softmax層用于將獲得的特征進行二值化, 輸出為1表示與原子同類, 輸出為0表示與原子不同類。同理, 可以得到一個patch與所有原子的編碼, 即得到該patch的字典編碼。

1. 2. 4 分類層 獲得的字典編碼本身帶有一定的類別信息(與原子的相似度)。本文引入公式1可以從字典編碼特征的維度降到1維, 得到每一個局部patch的分類結果L。在公式1中, 表示的是局部中心的數量, C是通過相似性特征層得到的相似性特征, 代表的是相似性特征的第k個元素。設定閾值為0.5, 如果q>0.5, L=1, 否則L=0。

1. 2. 5 圖像分類 圖像的分類結果通過融合該圖像的patch的分類結果獲得, 利用公式2:

在公式2中, 是從第n幅圖像中提取出的所有局部patch的數量。是第n個病灶圖像的第k個局部patch。通過提出的雙路字典編碼卷積神經網絡對每一個語義描述碼和判別性描述碼進行學習。

2 臨床案例

2. 1 數據庫 本文在自建乳腺超聲數據庫上進行算法驗證。本數據庫中的圖像采集自186例志愿者, 共186幅乳腺超聲圖像;其中良性135例, 惡性51列。見圖2。

2. 2 實驗方法 本文主要進行三組實驗, 驗證提出方法的有效性。①比較提出的深度判別性特征和淺層特征[LBP、灰度共生矩陣(GLCM)、小波]的性能。②比較提出的深度判別性特征和深層特征(Alexnet, VGG, Resnet)的性能。③測試提出方法的魯棒性。利用曲線下面積(AUC)、準確率(ACC)、靈敏度(Sen)及特異性(Spec)作為測試指標。考慮到深度學習模型訓練需要大量的數據, 所以在訓練時要進行數據增廣。

2. 3 深度判別性特征和LBP、GLCM、小波的性能深度判別性特征取得最好的性能, 作為一種深度特征, 有更多的有效信息, 性能要遠遠優于淺層特征。見表1。

2. 4 深度判別性特征和Alexnet、VGG、Resnet的性能 深層特征比淺層特征的效果更好, 然而該類特征忽略了區分性信息的學習。深度判別性特征重點學習類別之間的區分性, 因此在深層特征中能夠取得最好的性能。見表2。

3 小結

本文針對現有醫學影像特征提取中的判別性較差問題提出了一種基于深度判別性特征學習方法。提出了判別性描述碼;提出新的模型雙路字典編碼卷積神經網絡, 學習判別性描述碼。引入patch劃分層, 生成大量的局部patch圖像, 從而為模型的訓練提供充足的數據。引入字典編碼層和分類層, 加快特征學習速度, 提高識別精度。提出的方法用在乳腺腫瘤識別, 實驗結果表明提出的方法在識別效果上優于傳統方法。未來研究工作中間將探索相關模型壓縮技術, 降低特征的復雜度, 以期改善腫瘤識別效率。

參考文獻

[1] Lee HW, Liu BD, Huang CH, et al. Breast tumor classification of ultrasound ?images ?using a reversible round-off ?nonrecursive 1D discrete periodic wavelet ?transform. IEEE Transactions on Biomedical Engineering, 2009, 56(3):880-884.

[2] Huang YL, Wang KL, Chen DR. Diagnosis of breast tumors with ultrasonic texture analysis using support vector machines. Neural Computing and Application, 2006, 15(2):164-169.

[3] Matsumoto MMS, Sehgal CM, Udupa JK. Local binary pattern texture-based classi fi cation of solid masses in ultrasound breast images. Proc. SPIE Medical Imaging, 2012:83201.

[4] Alvarenga AV, Pereira WCA, Infantosi AFC, et al. Complexity curve and grey level co-occurrence matrix in the texture evaluation of breast tumor on ultrasound images. Medical Physics, 2007, 34(2):379-387.

[5] Huber S, Danes J, Zuna I, et al. Relevance of sonographic B-mode criteria and computer-aided ultrasonic tissue characterization in differential/diagnosis of solid breast masses. Ultrasound in Medicine and Biology, 2000, 26(8):1243-1252.

[6] Lefebvre F, Meunier M, Thibault F, et al. Computerized ultrasound B-scan characterization of breast nodules. Ultrasound in Medicine and Biology, 2000, 26(9):1421-1428.

[7] Moon WK, Shen YW, Huang CS, et al. Computer-Aided Diagnosis for the Classification of Breast Masses in Automated Whole Breast Ultrasound Images. Ultrasound in Medicine & Biology, 2011, 37(4):539-548.

[8] Kuo WJ, Chang RF, Lee CC, et al. Retrieval technique for the diagnosis of solid breast tumors on sonogram. Ultrasound in Medicine and Biology, 2002, 28(7):903-909.

[9] Cai LY, Wang X, Wang YY, et al. Robust phase-based texture descriptor for classification of breast ultrasound images. BioMedical Engineering Online, 2015, 14(1):26

[10] Zhang Q, Xiao Y, Chen S, et al. Quantification of elastic heterogeneity using contourlet-based texture analysis in shear-wave elastography for breast tumor classification. Ultrasound in Medicine and Biology, 2015, 41(2):588-600.

[收稿日期:2019-12-05]

猜你喜歡
模式識別特征提取深度學習
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
淺談模式識別在圖像識別中的應用
電子測試(2017年23期)2017-04-04 05:06:50
一種基于LBP 特征提取和稀疏表示的肝病識別算法
第四屆亞洲模式識別會議
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
基于深度卷積網絡的人臉年齡分析算法與實現
軟件工程(2016年8期)2016-10-25 15:47:34
第3屆亞洲模式識別會議
基于MED和循環域解調的多故障特征提取
主站蜘蛛池模板: 国产午夜人做人免费视频中文| 国产精品亚洲欧美日韩久久| 久久www视频| 久久人人妻人人爽人人卡片av| 国产屁屁影院| 色婷婷丁香| 国产精品成人久久| 免费一级毛片在线观看| 这里只有精品在线| 亚洲色图在线观看| 在线观看网站国产| 2020久久国产综合精品swag| 青青热久免费精品视频6| 激情在线网| 最新精品久久精品| 无码日韩精品91超碰| 国产精品久久久久久久伊一| 日韩专区欧美| 亚洲国产黄色| 2020国产免费久久精品99| 九九热精品在线视频| 国产成人综合网| 国产99精品视频| 亚洲欧美自拍中文| 国产福利在线免费观看| 免费无码AV片在线观看国产| 欧美福利在线观看| 强奷白丝美女在线观看| 亚洲精品大秀视频| 99视频在线免费看| 国产精品综合久久久| 国产99视频免费精品是看6| 在线免费无码视频| 亚洲h视频在线| 91久久国产综合精品| 亚洲日本韩在线观看| 久久久久亚洲av成人网人人软件| 亚洲第一成年人网站| 四虎精品国产AV二区| 国产免费人成视频网| 午夜福利免费视频| 亚洲码一区二区三区| 久久人人97超碰人人澡爱香蕉| 国产成人亚洲综合A∨在线播放 | 日本a级免费| 亚洲精品视频网| 国产美女在线观看| 国产高潮流白浆视频| 国产福利在线观看精品| 国产福利在线免费观看| 青青草91视频| 国产美女视频黄a视频全免费网站| 狠狠躁天天躁夜夜躁婷婷| 亚洲国产在一区二区三区| 亚洲综合第一区| 手机成人午夜在线视频| 中文成人在线视频| 亚洲日韩AV无码一区二区三区人| 国产女人18水真多毛片18精品 | 欧美一级夜夜爽| 精品小视频在线观看| 就去吻亚洲精品国产欧美| 成年女人a毛片免费视频| 五月婷婷中文字幕| 一区二区欧美日韩高清免费| 青青草原偷拍视频| 亚洲国产欧美国产综合久久 | 永久免费无码日韩视频| 欧美日本二区| 婷婷六月在线| 在线a网站| 99久久精品视香蕉蕉| 在线观看国产黄色| 色综合色国产热无码一| 国产激情无码一区二区免费| 久久久国产精品免费视频| 97国产在线观看| 在线无码av一区二区三区| 日韩人妻精品一区| AV无码国产在线看岛国岛| 久久国产免费观看| 亚洲人免费视频|