999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多源數據融合的醫用影像輔助診斷模型設計

2024-01-04 15:55:08陳云虹王文軍畢衛云
現代電子技術 2024年1期
關鍵詞:分類模型

陳 迪,陳云虹,王文軍,畢衛云,李 朗

(1.空軍軍醫大學基礎醫學院,陜西 西安 710032;2.空軍軍醫大學教研保障中心,陜西 西安 710032;3.空軍軍醫大學第一附屬醫院,陜西 西安 710032)

0 引 言

以阿爾茨海默病(Alzheimer′s Disease, AD)為代表的腦部疾病臨床診斷,主要是通過評定量表的評分和磁共振成像的海馬體區域萎縮程度來進行判定,依賴于臨床醫生的經驗,費時費力且有誤診幾率,無法較早地發現和診斷疾病[1-4]。

隨著人工智能技術的興起,神經網絡(Neural Network, NN)越來越多地被用于阿爾茨海默病的分類和預測,其能有效地輔助臨床醫生對疾病進行識別診斷,從而及時發現并干預治療,因此具有重要意義。目前眾多國內外學者對此進行了研究,主要通過機器學習(Machine Learning, ML)和深度學習(Deep Learning,DL)[5-6]兩種方法展開。文獻[7]提出了一種基于多核監督神經網絡(Multi-core Supervision Neural Network)的分類方法,用于對阿爾茨海默病MRI(Magnetic Resonance Imaging)圖像的分類,通過使用核函數進行映射,將MRI 圖像映射為高維特征空間,從而實現了更高精度的分類。文獻[8]提出了一種基于二維深度卷積神經網絡(2D-Deep Convolutional Neural Network, 2DDCNN)對AD 神經成像及主動核磁共振成像進行分類,并取得了較高的準確率。文獻[9]提出了一種基于多通道級聯卷積神經網絡的深度學習方法,從二值海馬模型中逐步學習海馬形狀和不對稱性的聯合分層表示,用于AD 分類。文獻[10]提出一種預訓練CNN(Convolutional Neural Network)深度學習模型ResNet50,基于MRI 圖像實現了對AD 的自動特征提取,取得了高于85.7%的分類準確率。

目前大部分學者主要使用單模態的數據對AD 進行分類,但此方法提供的信息量較為有限,無法更準確地進行分類。為此,本文提出了基于多源數據融合的醫用影像輔助診斷模型,該模型通過結合MRI 和正電子發射斷層掃描(Positron Emission Tomography, PET)實現對該病的準確分類。

1 理論分析

MRI[11-13]是利用核磁共振原理而設計的,處于磁場中的自旋原子核將吸收與其自旋頻率一致的電磁波,當給予電磁波后就會釋放吸收的能量,基于此原理分析通過人體原子核的位置和種類,并對內部結構進行重構。由于其對人體無害、分辨率高,因此可以從不同角度對阿爾茨海默病患者的腦部結構進行顯現,所以MRI 被廣泛應用于臨床診斷中。而PET 則通過對人體注入示蹤劑,再利用計算機掃描斷層技術進行三維成像來實現對AD 患者腦部代謝情況的分析。將兩者相融合不僅可以獲得腦部結構信息,且還能獲取其功能信息,進而實現了更加準確的識別。

為了實現對AD 患者的準確分類,文中主要以基于自注意力機制(Self-Attention)的Transformer 網絡為主要架構進行改進。該模型由文獻[14]提出,并將其應用于自然語言處理領域。隨著繼續深入研究發現,該網絡對圖像處理也有較優的效果,因此被廣泛應用于圖像處理。Transformer[15]主要由編碼與解碼兩個部分組成,每個部分均堆疊了多個編碼器和解碼器。解碼器由前饋層、編碼器-解碼器注意力層和多頭注意力層組成,具體如圖1 所示。其核心思想是利用自注意力機制實現輸入序列和輸出序列之間的關聯建模,其中最重要的是多頭注意力機制,其能捕捉長序列關系,并將每組的自注意力輸出相連形成最終的輸出結果。

圖1 Transformer 結構

對于輸入的數據序列X,自注意力層將數據轉換為3 個不同的向量:鍵矩陣K、查詢矩陣Q和值矩陣V。查詢矩陣和鍵矩陣首先要計算相關性,再根據相關性對值矩陣進行加權求和,由此便可得到注意力機制的輸出,計算公式為:

由于單一組獲得的注意力機制的信息相對單一,因此本文采用多頭注意力機制來彌補此缺點,通過設置多組矩陣實現從不同角度對實體復雜關系的表達。對于輸入的序列X,將其線性變換分成h組(Ki,Qi,Vi),i=0,1,2,…,h-1,每組計算各自注意力,然后使用權重矩陣投影h個組的輸出,得到最終的結果,計算公式為:

為了能夠記錄自注意力機制的位置信息,Transformer模型增加了位置編碼,將位置編碼和輸入的序列進行相加,再輸入到編碼器與解碼器中,得到計算公式:

式中:PE 表示位置編碼;pos 表示Token 的位置;i表示維度。

2 融合PET-MRI 的診斷模型

2.1 模型架構

本次提出的模型融合了AD 患者的MRI 圖像和PET圖像信息,以改進的Transformer 網絡T2T-ViT 作為主要識別診斷模型,將多源圖像信息進行特征提取及分類,從而實現對AD 的準確分類,總體框架如圖2 所示。

首先將患者的MRI 和PET 圖像進行預處理,然后分別送入卷積網絡,接著利用T2T-ViT 來提取圖像的特征并進行融合,最終通過全連接層和Softmax 實現對疾病的分類,輔助醫生完成對影像的診斷。其中的3 個主要改進點為:

1)使用遷移學習對模型的參數進行初始化,從而提高模型的魯棒性和訓練速度;

2)將腦部MRI 圖像與PET 圖像進行融合提取特征信息,實現了對阿爾茨海默病的高效分類;

3)使用改進的Transformer 網絡T2T-ViT 架構,利用新穎的漸進式Token 化機制提升了特征的豐富性,同時降低了冗余數據。

2.2 改進的Transformer 網絡T2T-ViT

T2T-ViT 是文獻[16]對于Transformer 在圖像分類領域的一個創新架構。T2T-ViT 可以對圖像到令牌進行逐步標記,并存在一個有效的主干,能夠有效解決輸入對圖像簡單標記難以對圖像局部理想建模、訓練效率低、特征豐富度及訓練樣本有限的問題。

T2T-ViT 使用令牌到標記模塊(T2T)對圖像的局部結構信息進行建模,并逐步減少標記長度,同時,T2TViT 主干從T2T 模塊中繪制令牌上的全局注意關系。每個T2T 模塊均有重組和軟分裂兩個步驟,其結構如圖3所示。

圖3 T2T 模塊結構

給定令牌序列T,通過自注意力模塊轉換后得到T′:

式中:MSA 為帶層歸一化的多頭自注意力模塊;MLP 為帶層歸一化的多層感知器。將標記重塑為空間維度上的圖像,得到“重構”重組令牌I:

式中:“重構”將T′∈Rl×c轉換為I∈Rh×w×c,l是T′的長度,h、w和c分別是高度、寬度及通道數。

在獲得重構圖像I后,進行軟拆分操作,對局部結構信息進行建模,減少標記長度。為了避免從重構后的圖像中生成標記時造成信息丟失,本文將MRI 和PET 圖像分割成若干個有重疊的塊,每個塊均與周圍的塊相關,以建立先驗知識,即周圍的標記之間存在更強的相關性。每個拆分塊內的令牌通過連接轉換為另一個令牌,從而得到周圍像素聚合的局部信息。假設每個塊的大小為k×k,重疊尺寸為s,步長為p,則在重構圖像I∈Rh×w×c中對應輸出令牌To的尺寸為:

式中每個拆分塊的尺寸為k×k×c。首先將所有塊在空域維度上扁平化為令牌,然后再將得到的輸出令牌送入到下一個T2T 中進行處理。

2.3 遷移學習

遷移學習的主要思路是通過利用已有的知識系統,從當前任務中學習到諸多有標記的訓練數據,然后再將其用在其他具有不同數據樣本的新任務中。通過這一方式可以降低標記數據的資源成本,同時也提高了模型的學習性能。

遷移學習就是在給定源領域Ds、源領域學習任務Ts、目標領域Dt、目標領域任務Tt,且Ds≠Dt或Ts≠Tt的情況下,使用源領域Ds和Ts中的知識內容,提升或優化目標領域Dt中目標預測函數ft( ·) 的學習效果。這樣不僅可以解決因樣本量過少而引起的模型準確度下降問題,同時還可提高其魯棒性。

本文首先采用參數遷移的方法發現源域模型和目標域模型之間的共享參數或先驗,除了全連接層外,同時還使用T2T-ViT 架構對1 000 個類別的ImageNet 數據集上的模型參數進行預訓練;然后,調整卷積層的預訓練參數和初始化網絡參數;最終,用新的全連接層重新訓練整個網絡。通過遷移學習,模型的精度得到了顯著提高。

3 實驗測試與數據分析

3.1 數據集

此次實驗所選用患者的MRI 和PET 圖像數據均來自阿爾茨海默病影像學倡議ADNI 數據庫,該庫由美國食品與藥物管理局、國家醫學成像和生物研究所等單位創建。經過篩選,本次選取了350 份AD 患者的樣本,170 份認知障礙患者的樣本。其中:MCI(Mild Cognitive Impairment)為輕度認知障礙;CI 為認知障礙。此外,還選取了380 份正常人(NC)的樣本,每一份樣本均包含了MRI 與PET 圖像。

由于原始圖像存在顱骨等除腦部以外的其他干擾因素,因此在進行模型訓練前對圖像的干擾因素進行了消除預處理操作,然后再對圖像進行配準和歸一化。

3.2 實驗環境

實驗使用Windows 10 操作系統,處理器為i9-9900k,內存64 GB,顯卡為GTX2080Ti。編程語言采用Python 3.7.1,深度學習框架為PyTorch 1.0。

為了訓練分類模型,T2T-ViT 的權重由ImageNet 數據集上預先訓練的T2T-ViT 遷移參數來進行初始化。所有的訓練數據首先被調整為224×224×3,并被分成小批次進行訓練,批大小設置為32,以AdamW 作為優化器,余弦學習率衰減。對模型進行100 個epoch 的訓練,5 次訓練測試后通過折疊交叉驗證來評估分類性能,其中以80%的數據作為訓練數據,其余20%用于測試數據。

3.3 實驗結果與討論

實驗所使用的評價指標主要有:準確率(Accuracy,ACC)、敏感度(Sensitivity, SEN)和特異度(Specificity,SPE),計算方法如下:

式中:TP 表示真陽例;FP 表示假陽例;TN 表示真陰例;FN 表示假陰例。

經過100 次的迭代訓練后,整個模型取得了良好的性能,測試損耗達到最小,準確率也達到了最佳。AD 的識別準確率為0.95,MCI/CI 的識別準確率為0.93,NC 識別準確率為0.96,具體如表1 所示。

表1 識別分類結果

同時,還將實驗結果與現有的圖像分類模型進行了比較。以識別準確率作為對比指標,實驗發現在對AD的識別中,本文模型比CNN 模型高0.22,比ResNet 模型高0.14,比Transformer 模型高0.11,表明本文提出模型的分類效果更佳,具體如表2 所示。

表2 不同模型的識別分類結果

4 結 語

為了實現對阿爾茨海默病患者的早期識別和干預,提出了基于多源數據融合的醫用影像輔助診斷模型,將MRI 圖像和PET 圖像兩種數據源進行融合,并放入多模態網絡實現對阿爾茨海默病患者、認知障礙患者和正常人的分類,從而輔助醫生進行診斷。多模態網絡中通過引入遷移學習,實現網絡參數的遷移,縮短了訓練時間。同時,還利用改進的T2T-ViT 架構實現了更高精度的分類。在公開ADNI 數據集上進行的測試結果表明,所提模型對AD 的識別準確率達到了0.95,與其他同類模型相比,效果更優。但文中僅從圖像的角度對疾病進行分類,若能在此基礎上加入醫生的先驗知識和實驗室生化指標,則將進一步提高對該疾病的識別分類準確率,實現更為精準的輔助診斷,為阿爾茨海默病的治療和管理提供更理想的指導。

猜你喜歡
分類模型
一半模型
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 亚洲三级影院| 国产在线第二页| 亚洲第一区欧美国产综合| 狠狠色丁香婷婷综合| 欧洲在线免费视频| 天堂久久久久久中文字幕| 亚洲精品图区| 看看一级毛片| 免费精品一区二区h| 少妇精品网站| 美女无遮挡拍拍拍免费视频| 国产精品青青| 91亚洲免费| a级毛片免费播放| 97se综合| 天天色综网| 欧美高清日韩| swag国产精品| 欧美国产菊爆免费观看| 色悠久久久久久久综合网伊人| 亚洲第一色视频| 黄色片中文字幕| 国产男人天堂| 高清色本在线www| 欧美日韩福利| 国产黑丝一区| 伦精品一区二区三区视频| 精品视频在线一区| 99激情网| 国产成人AV综合久久| 91精品小视频| 欧美人在线一区二区三区| 国产精品粉嫩| 嫩草在线视频| 欧洲成人免费视频| 中文国产成人久久精品小说| 99热这里只有成人精品国产| 亚洲va视频| 亚洲精品视频免费看| 亚洲精品在线91| 97se亚洲| 日本一本正道综合久久dvd| 自偷自拍三级全三级视频| 影音先锋丝袜制服| 亚洲日本中文字幕乱码中文| 国产精品国产主播在线观看| 欧美激情伊人| 91视频区| 国产又粗又爽视频| 91精品久久久无码中文字幕vr| 精品少妇人妻无码久久| 少妇高潮惨叫久久久久久| 都市激情亚洲综合久久| 手机成人午夜在线视频| 久久一色本道亚洲| 亚洲天堂网2014| www.亚洲色图.com| 露脸国产精品自产在线播| 精品人妻AV区| 爱爱影院18禁免费| 国产91av在线| 伊人福利视频| 一级毛片在线播放| 四虎亚洲国产成人久久精品| 亚洲中文字幕日产无码2021| 亚洲人成人无码www| 国产精品视频999| 久久中文字幕av不卡一区二区| 污网站免费在线观看| 国产极品美女在线播放| 五月天在线网站| 无码啪啪精品天堂浪潮av| 欧洲成人在线观看| 91久久夜色精品国产网站 | 伊人天堂网| 国产成人精品18| 欧美成人免费一区在线播放| 欧美在线观看不卡| 伊人AV天堂| 久久成人18免费| 欧美日本在线一区二区三区| 亚洲AV成人一区二区三区AV|