999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于全卷積神經(jīng)網(wǎng)絡(luò)的醫(yī)學(xué)圖像語義分割研究進(jìn)展綜述

2023-11-13 07:10:20趙芝鶴楊婷婷
電腦與電信 2023年7期
關(guān)鍵詞:模型

于 營 趙芝鶴 楊婷婷

(1.三亞學(xué)院信息與智能工程學(xué)院,海南 三亞 572000;2.三亞學(xué)院陳國良院士團(tuán)隊創(chuàng)新中心,海南 三亞 572000;3.空軍軍醫(yī)大學(xué)第三附屬醫(yī)院顱頜面整形與美容外科,陜西 西安 710000)

1 引言

醫(yī)學(xué)圖像分割是計算機(jī)視覺技術(shù)在智慧醫(yī)療中的重要應(yīng)用,用于識別和提取醫(yī)學(xué)圖像中的特定結(jié)構(gòu)或區(qū)域。醫(yī)學(xué)圖像分割通過自動或半自動地對醫(yī)學(xué)圖像中的像素進(jìn)行分類,將圖像分割成不同的有意義的區(qū)域,從而能夠識別出圖像中的器官、組織或病灶,在診斷和治療過程中起著舉足輕重的作用。常用的醫(yī)學(xué)成像技術(shù)包括磁共振成像(Magnetic Resonance Imaging,MRI),計算機(jī)斷層掃描成像(Computed Tomography,CT),X光檢查(X-ray),皮膚鏡成像(Dermoscopy)等,圖1為不同成像方式得到的醫(yī)學(xué)圖像。由于成像原理和組織本身特性的不同,并且成像容易受到場偏移效應(yīng)、局部體積效應(yīng)、組織運動和噪聲的影響,醫(yī)學(xué)圖像分割存在許多挑戰(zhàn)。

圖1 不同成像方式的醫(yī)學(xué)圖像

器官分割和病灶分割是醫(yī)學(xué)圖像分割的兩個主要應(yīng)用。器官分割即識別器官的曲率或其內(nèi)部ROI區(qū)域,以便定量地分析其狀態(tài),例如心臟分割和腦部分割;病灶分割的目的是通過精確地識別和定位病灶,為疾病的早期診斷、隨訪和治療提供有效依據(jù),如腦腫瘤分割等。針對醫(yī)學(xué)圖像中目標(biāo)形狀、位置和尺寸多變,部分組織結(jié)構(gòu)成像差異小,以及部分組織邊界模糊的難題,最新的解決方案通常為改進(jìn)或優(yōu)化已有的深度學(xué)習(xí)模型。在相關(guān)文獻(xiàn)中,一些常用的CNN模型作為基礎(chǔ)網(wǎng)絡(luò)已經(jīng)證明了其在醫(yī)學(xué)圖像分割上的有效性,如VGG[1]、ResNet[2]、U-Net[3]和Transformer[4]。另外,在相關(guān)數(shù)據(jù)較少的情況下可以使用遷移學(xué)習(xí)。

2 數(shù)據(jù)集

數(shù)據(jù)集是深度學(xué)習(xí)系統(tǒng)中最重要的部分之一。一個適當(dāng)?shù)臄?shù)據(jù)集,首先應(yīng)具有足夠大的規(guī)模,樣本均衡,具有細(xì)粒度標(biāo)注,可以準(zhǔn)確地表示系統(tǒng)的用例。數(shù)據(jù)采集往往需要專業(yè)的設(shè)備獲取數(shù)據(jù),并對這些數(shù)據(jù)進(jìn)行選擇和標(biāo)注,這需要領(lǐng)域?qū)I(yè)知識和大量時間。在研究中,通常使用現(xiàn)有的標(biāo)準(zhǔn)數(shù)據(jù)集,標(biāo)準(zhǔn)數(shù)據(jù)集對問題的領(lǐng)域有足夠的代表性,方便在系統(tǒng)之間進(jìn)行公平地比較。本節(jié)將介紹目前用于醫(yī)學(xué)圖像語義分割的最流行的大規(guī)模數(shù)據(jù)集,所有這些臨床數(shù)據(jù)均為匿名并獲得機(jī)構(gòu)倫理批準(zhǔn)。

2.1 BraTS

BraTS數(shù)據(jù)來自19家機(jī)構(gòu),使用不同的MRI掃描儀采集,是MICCAI腦腫瘤分割比賽指定的多模態(tài)3D顱腦MRI數(shù)據(jù)集,每個病例包含4種MRI模式,分別為T1、T1c、T2和FLAIR,標(biāo)注為3個嵌套的腫瘤亞區(qū),分別為WT(全瘤)、ET和TC(腫瘤核心)。訓(xùn)練集劃分為低級別膠質(zhì)瘤(Low-grade glioma,LGG)和高級別膠質(zhì)瘤(high-grade glioma,HGG),每個病例是一個MR序列,包含155張圖片,圖片大小為240×240像素。

2.2 MM-WHS

MM-WHS(Heart Segmentation on Multi-Modality Whole Heart Segmentation Challenge)2017數(shù)據(jù)來自多個機(jī)構(gòu)的120例多模態(tài)全心臟圖像,包括60例心臟CT/CTA和60例覆蓋整個心臟亞結(jié)構(gòu)的3D心臟MRI。數(shù)據(jù)涵蓋上腹部到主動脈弓的整個心臟區(qū)域,在軸向視圖獲取切片。其中,訓(xùn)練集包含20例CT和20例MRI圖像,測試集包含40例CT和40例MRI圖像。對于訓(xùn)練集,提供了7個全心臟子結(jié)構(gòu)的手動標(biāo)注,分別為:左心室血腔,標(biāo)簽值為500;左心室心肌,標(biāo)簽值為205;右心室血腔,標(biāo)簽值為600;左心房血腔,標(biāo)簽值為420;右心房血腔,標(biāo)簽值為550;升主動脈,標(biāo)簽值為820,肺動脈,標(biāo)簽值為850。由于視野的不同,升主動脈和肺動脈的范圍在不同的掃描中會有所差別。

2.3 ACDC

ACDC(Automated Cardiac Diagnosis Challenge,自動心臟診斷挑戰(zhàn)賽)的目標(biāo)是,比較自動分割左心室心內(nèi)膜和心外膜作為右心室心內(nèi)膜在舒張末期和收縮末期情況下的性能,以及比較自動分類方法對正常、心力衰竭伴梗死、擴(kuò)張型心肌病、肥厚型心肌病、右心室異常5類檢查的分類性能。ACDC數(shù)據(jù)集是根據(jù)法國第戎大學(xué)醫(yī)院(Hospital of Dijon)獲得的真實臨床檢查創(chuàng)建的,數(shù)據(jù)來自150個病例,平均分為5個亞組(4個病理組與1個健康組),此外,病例數(shù)據(jù)還包含體重、身高以及舒張期和收縮期等附加信息。ACDC涵蓋了幾個定義明確的病理,有足夠的病例,能夠滿足機(jī)器學(xué)習(xí)模型本地訓(xùn)練,也可以清楚地評估從MRI影像中獲得的主要生理參數(shù)的變化,特別是舒張容積和射血分?jǐn)?shù)。

2.4 CHAOS

CHAOS(Combined(CT-MR)Healthy Abdominal Organ Segmentation)挑戰(zhàn)旨在從CT和MRI數(shù)據(jù)中分割腹部器官(如肝、腎和脾)。第一個任務(wù)為利用計算機(jī)斷層掃描(CT)數(shù)據(jù)集對注射造影劑后門靜脈期采集的肝臟圖像進(jìn)行分割,用于活體肝移植供者的預(yù)評估,采用的數(shù)據(jù)為包含40例不同患者的CT圖像;第二個任務(wù)為從兩種不同序列(T1-DUAL和T2-SPIR)獲得的磁共振成像(MRI)數(shù)據(jù)集中分割腹部四個器官(即肝、脾、右腎和左腎),采用的數(shù)據(jù)包括來自兩種不同MRI序列的120個DICOM數(shù)據(jù)集,其中,T1-DUAL序列有40個相位數(shù)據(jù)集,out序列有40個相位數(shù)據(jù)集,T2-SPIR序列有40個數(shù)據(jù)集,每一種序列均使用不同的射頻脈沖和梯度組合掃描腹部。

2.5 ISIC

ISIC是常用的皮膚病或皮膚損傷數(shù)據(jù)集,包含惡性和良性的實例,每個實例均包含病變的圖像,有關(guān)病變的元數(shù)據(jù)(包括分類和分割)以及相關(guān)患者的元數(shù)據(jù)。ISIC 2018和2019挑戰(zhàn)賽的主要任務(wù)為對數(shù)千張皮膚鏡圖像的病灶分割、病灶歸因檢測和病灶分類。ISIC 2018包括2594張訓(xùn)練集圖像(黑色素瘤占20.0%,痣占72.0%,脂油溢出性角化病占8.0%)、100張驗證集圖像和1000張測試集圖像,用于特征提取和圖像分割任務(wù),以及10015張訓(xùn)練集圖像和1512張測試圖像用于分類任務(wù),均為600×450像素。ISIC 2020對黑色素瘤分類,含2000多例患者進(jìn)行33126次掃描的圖像,以更好地支持皮膚科臨床工作。

3 評價指標(biāo)

分割效果常用Dice系數(shù)、豪斯多夫距離、Jaccard系數(shù)、靈敏性或特異性等指標(biāo)來度量和評價[5]。

3.1 Dice系數(shù)

Dice系數(shù)(Dice Similarity Coefficient,DSC)是一種集合相似度度量,定義為預(yù)測區(qū)域A與標(biāo)注區(qū)域B(ground truth)的重疊面積的兩倍除以兩幅圖像的總像素數(shù)。公式如下:

3.2 豪斯多夫距離

豪斯多夫距離(Hausdorff Distance,HD)也稱為最大對稱表面距離(Maximum Symmetric Surface Distance,MSD),描述圖像邊緣點與最近的邊緣點之間的最大距離。兩個樣本集合A和B的豪斯多夫距離定義為:

其中,h(A,B)是A到B的單向豪斯多夫距離,h(B,A)是B到A的單向豪斯多夫距離。

‖?‖是A和B之間的距離范式,如歐式距離、街區(qū)距離、棋盤距離等。雙向豪斯多夫距離度量兩個點集之間的最大不匹配程度,在語義分割任務(wù)中主要描述分割邊界與實際標(biāo)定邊界的差異性。

3.3 Jaccard系數(shù)

Jaccard系數(shù)(Jaccard Index,or Jaccard Similarity Coefficient,JSC),又稱交并比(Intersection over Union,IoU),在語義分割任務(wù)中表示預(yù)測掩碼與真實標(biāo)記像素的交疊率。平均交并比(mean-IoU,mIoU)是計算每個類別中IoU值的算術(shù)平均值,用于描述總體數(shù)據(jù)集的像素重疊情況。計算公式分別如下:

3.4 敏感性與特異性

敏感性(Sensitivity),即真陽性率(True Positive Rate,TPR),表示系統(tǒng)對陽性樣本的敏感度。特異性(Specificity),即真陰性率(True Negative Rate,TNR),表示非目標(biāo)元素(背景)被正確地識別出來的能力。

此外,在一些醫(yī)學(xué)圖像挑戰(zhàn)賽中使用其他指標(biāo)來度量預(yù)測結(jié)果與真實值之間的差異,如平均表面距離(Average Surface Distance,ASD)和體積距離(Volumetric Distance),它們是醫(yī)學(xué)圖像分割競賽CHAOS(Combined Healthy Abdominal Organ Segmentation)中的指定的評估指標(biāo)。

4 模型和關(guān)鍵技術(shù)

根據(jù)分割原理的不同,醫(yī)學(xué)圖像分割方法可以分為四代,如圖2所示。

圖2 圖像分割方法分類

全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Networks,FCN)[6]首次將深度學(xué)習(xí)方法用于圖像分割,作為深度學(xué)習(xí)語義分割的開山之作,以端到端的工作方式,依據(jù)卷積運算的稀疏連接性、參數(shù)共享以及平移不變性實現(xiàn)了自動、快速的特征提取,成功應(yīng)用于醫(yī)學(xué)圖像分割、病灶區(qū)域定位、細(xì)胞檢測、異常檢測等方面。

4.1 “編碼——解碼”架構(gòu)

采用全卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行醫(yī)學(xué)圖像分割的主要思想是基于“編碼——解碼(Encoder-Decoder)”架構(gòu)設(shè)計分割網(wǎng)絡(luò),如圖3所示。

圖3 “編碼——解碼”架構(gòu)

“編碼——解碼”結(jié)構(gòu)在U-Net[3]網(wǎng)絡(luò)中提出,它在下采樣過程中學(xué)習(xí)醫(yī)學(xué)影像數(shù)據(jù)集中高級語義信息,然后對圖像的每個像素進(jìn)行分類預(yù)測。SegNet[7]采用最大池化索引(maxpooling indices)進(jìn)行上采樣,減少了端到端訓(xùn)練的參數(shù)量,在減少內(nèi)存和提高計算效率的同時,改善了邊界劃分質(zhì)量。全卷積神經(jīng)網(wǎng)絡(luò)不受圖像大小限制,不需要對圖像進(jìn)行切塊處理,可以單階段地直接獲得整個分割結(jié)果。

4.2 空洞卷積

空洞卷積(Atrous Convolution),也稱膨脹卷積或擴(kuò)張卷積(Dilated Convolution),簡單來說就是在卷積核元素之間加入一些空格(零值)來擴(kuò)大卷積核的感受野(Receptive Field)且不改變圖像輸出特征圖的尺寸。

DeepLab v3+[8]是一種基于Encoder-Decoder結(jié)構(gòu)的改進(jìn)模型,采用了可分離卷積和空洞卷積來提高分割性能。可分離卷積可將傳統(tǒng)的卷積操作分解為深度卷積和逐點卷積兩個步驟,以減少參數(shù)數(shù)量和計算量。空洞卷積則可擴(kuò)大感受野并保留圖像的空間分辨率。這兩種技術(shù)的結(jié)合使得Deep-Lab v3+能夠在保持高分辨率的同時具有更大的感受野和更強(qiáng)的上下文信息。

4.3 注意力機(jī)制

注意力機(jī)制(Attention Mechanism)這一概念源于人的視覺機(jī)制。在觀察目標(biāo)時,人們通常有選擇性地關(guān)注某些區(qū)域。在視覺任務(wù)中,對一張圖像K使用注意力機(jī)制計算其中的重點關(guān)注區(qū)域,需要一個查詢向量q,通過一個打分函數(shù)計算q和每個像素的值ki之間的相關(guān)性,得到一個分?jǐn)?shù)。接下來對這些分?jǐn)?shù)進(jìn)行歸一化處理,歸一化后的結(jié)果即為q在每個ki上的注意力分布,根據(jù)這些注意力分布可以去有選擇性地從圖像中提取特征信息。

U-Net++[9]是一種基于U-Net架構(gòu)的改進(jìn)模型,通過引入嵌套的U-Net(Nested U-Net)結(jié)構(gòu)和注意力門控(Attention Gates)來提高分割性能。具體來說,嵌套U-Net結(jié)構(gòu)在編碼器和解碼器中分別增加了多個U-Net模塊,使模型具有更強(qiáng)的多尺度信息處理能力。同時,注意力機(jī)制可用于自適應(yīng)地選擇重要的特征圖以提高模型的精度和效率。

Attention U-Net[10]是一種基于U-Net架構(gòu)的改進(jìn)模型,通過引入注意力機(jī)制來提高胰腺分割性能。該模型在編碼器和解碼器的每個U-Net模塊中都增加了一個注意力門控單元,以使模型能夠自適應(yīng)地選擇關(guān)鍵的特征圖。此外,該模型還采用了一種漸進(jìn)的訓(xùn)練策略,以緩解數(shù)據(jù)不平衡和樣本噪聲的問題。

4.4 殘差連接

殘差連接(Residual Connections)是在ResNet[2]中提出的一種用于編碼器內(nèi)部的跳躍連接,可以有效地緩解深度神經(jīng)網(wǎng)絡(luò)隨著深度增加而帶來的退化問題。

MultiResUNet[11]是一種基于U-Net架構(gòu)的改進(jìn)模型,通過引入多分辨率分支以及殘差連接來提高分割性能。該模型將輸入圖像分別縮放為不同的分辨率并在編碼器和解碼器中分別使用多個U-Net模塊來處理不同分辨率的特征圖。此外,殘差連接可以加速梯度收斂效率,以提高模型的穩(wěn)定性和收斂性。

4.5 遷移學(xué)習(xí)

從同一領(lǐng)域(甚至其他領(lǐng)域)中已驗證的性能較好的模型中進(jìn)行遷移學(xué)習(xí)(Transfer Learning),通過刪除某些層或增加某些層,可以在訓(xùn)練樣本不足的情況下獲得更好的分類效果。Tajbakhsh等人[12]通過對放射學(xué)、心臟病學(xué)和消化病學(xué)中四個不同的醫(yī)學(xué)成像應(yīng)用,涉及來自三種不同成像模式(CT、超聲、光學(xué)內(nèi)鏡)醫(yī)學(xué)圖像的分類、檢測和分割,并研究了從頭訓(xùn)練的深度CNN與以分層方式微調(diào)的預(yù)訓(xùn)練CNN的性能的差異性。被遷移的模型可以是在一般圖像上預(yù)訓(xùn)練的網(wǎng)絡(luò),也可以是在醫(yī)學(xué)圖像上預(yù)訓(xùn)練的網(wǎng)絡(luò),對這些網(wǎng)絡(luò)進(jìn)行微調(diào),以適應(yīng)不同的目標(biāo)分割或分類任務(wù)。在源網(wǎng)絡(luò)和目標(biāo)網(wǎng)絡(luò)的任務(wù)比較相似時,遷移學(xué)習(xí)可以獲得更好的性能。

表1中總結(jié)了近年來醫(yī)學(xué)圖像分割領(lǐng)域中使用全卷積神經(jīng)網(wǎng)絡(luò)及其變體的相關(guān)研究。

表1 醫(yī)學(xué)圖像分割研究總結(jié)與比較

5 存在的挑戰(zhàn)

雖然醫(yī)學(xué)圖像分割這一領(lǐng)域已經(jīng)取得了顯著的進(jìn)展,但仍然存在一些尚未解決的問題。

5.1 多模態(tài)圖像融合

在許多應(yīng)用中,需要將不同類型的醫(yī)學(xué)圖像(如CT、MRI、PET等)融合在一起進(jìn)行分析,以獲得更加準(zhǔn)確、豐富的特征。融合這些圖像的特征,在它們之間保持準(zhǔn)確的空間對應(yīng)關(guān)系仍然是一個挑戰(zhàn)。

5.2 異質(zhì)性和變異性

組織和病變可能具有顯著的形態(tài)學(xué)和信號強(qiáng)度變異性,這使得基于圖像特征的分割方法變得復(fù)雜。采用多時相數(shù)據(jù)融合的特征提取方法,可以有效地解決這個問題。但是,由于目前開源的多時相數(shù)據(jù)集較少,相關(guān)研究仍處于早期階段。

5.3 數(shù)據(jù)標(biāo)注準(zhǔn)確性

目前醫(yī)學(xué)圖像的標(biāo)注往往依賴于醫(yī)學(xué)專家的認(rèn)知和經(jīng)驗,這種方式不可避免地帶來一些主觀因素導(dǎo)致的誤差。因此,使用深度學(xué)習(xí)算法輔助或替代醫(yī)學(xué)專家做出診斷付諸實踐的過程中還存在很多風(fēng)險,現(xiàn)有的方法也遠(yuǎn)遠(yuǎn)無法勝任醫(yī)學(xué)圖像分割中存在的復(fù)雜情況。弱監(jiān)督、無監(jiān)督方法的不斷完善和優(yōu)化可以很好地彌補(bǔ)這個問題。

5.4 數(shù)據(jù)不足和數(shù)據(jù)不平衡

對于一些罕見疾病或特定場景,可能缺乏足夠的帶有標(biāo)注的醫(yī)學(xué)圖像數(shù)據(jù)來訓(xùn)練高效的分割模型。此外,數(shù)據(jù)不平衡也可能導(dǎo)致模型在某些類別上的性能不佳。這個問題的解決方案之一是對樣本進(jìn)行加權(quán),在訓(xùn)練時對前景對象應(yīng)用更高的權(quán)重;或者利用Dice損失和Dice系數(shù),實現(xiàn)對樣本加權(quán)的自動修正。然而,在樣本極端階級不平衡的情況下,這些方法所帶來的優(yōu)化效果并不明顯。圖像分割中的數(shù)據(jù)不足和不平衡問題仍是一個有價值的研究課題。

5.5 三維圖像處理

許多醫(yī)學(xué)圖像是三維的,處理這些大規(guī)模數(shù)據(jù)會帶來計算和存儲方面的挑戰(zhàn)。不可否認(rèn),較長的推理時間以及高昂的計算成本是三維圖像處理研究和應(yīng)用的重大阻礙。使用排除策略剔除不太可能包含目標(biāo)器官的區(qū)域,可以有效縮小搜索空間,從而實現(xiàn)更快的推理。

5.6 實時性和計算效率

在某些應(yīng)用場景中,如手術(shù)導(dǎo)航和實時診斷,需要實時的圖像分割。提高分割方法的計算效率仍然是一個關(guān)鍵問題。輕量化語義分割網(wǎng)絡(luò)研究致力于減少模型參數(shù),減少內(nèi)存和訓(xùn)練時間,但模型參數(shù)和準(zhǔn)確性之間的平衡需要更多的研究去驗證。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 日本影院一区| 国产精品七七在线播放| 99久久成人国产精品免费| 国产亚洲一区二区三区在线| 午夜日b视频| 亚洲一欧洲中文字幕在线| 在线色国产| 久久一日本道色综合久久| 成人在线视频一区| 香蕉视频在线观看www| 国产视频一区二区在线观看| 亚洲美女久久| 亚洲最大综合网| 国内黄色精品| 伊人久久婷婷| 国模私拍一区二区三区| 天堂在线视频精品| 国产在线日本| 天天综合网站| 国产色伊人| 色婷婷亚洲综合五月| 国产成人夜色91| 国产成人艳妇AA视频在线| 97视频免费在线观看| 欧美日韩综合网| 女人爽到高潮免费视频大全| 91久久偷偷做嫩草影院电| 国产老女人精品免费视频| 成人夜夜嗨| 伊人激情综合| jizz亚洲高清在线观看| 成年人福利视频| 国产视频久久久久| 久草中文网| 久久国产乱子| 美女毛片在线| 美女扒开下面流白浆在线试听| аⅴ资源中文在线天堂| AV色爱天堂网| 无遮挡国产高潮视频免费观看| 国产精品成人第一区| 人妻21p大胆| 久久精品66| 伦精品一区二区三区视频| 亚洲AV人人澡人人双人| aa级毛片毛片免费观看久| 久久国产毛片| 人妻21p大胆| 一级一毛片a级毛片| 亚洲男人的天堂视频| 国产视频自拍一区| 国产黑丝视频在线观看| 欧美日韩国产在线观看一区二区三区| 波多野结衣在线se| 99久视频| 又大又硬又爽免费视频| 国产在线欧美| 久久久久无码国产精品不卡| 粉嫩国产白浆在线观看| 99久久国产综合精品2020| 久久久精品无码一二三区| 亚洲无码熟妇人妻AV在线| 激情六月丁香婷婷四房播| 午夜视频在线观看免费网站 | 8090午夜无码专区| 在线欧美日韩国产| 国产麻豆精品久久一二三| 99久久99视频| 国产一区二区福利| 99精品影院| 精品欧美视频| 国产xxxxx免费视频| 在线精品自拍| 在线精品视频成人网| 免费国产高清精品一区在线| 91人妻在线视频| 久久a毛片| 香蕉久人久人青草青草| 欧美精品三级在线| 在线视频97| 亚洲aaa视频| 2021国产精品自产拍在线|