999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于生成對抗網絡和噪聲水平估計的低劑量CT圖像降噪方法

2021-08-26 08:10:24雄楊琳琳上官宏韓澤芳韓興隆王安紅崔學英
電子與信息學報 2021年8期
關鍵詞:劑量水平方法

張 雄楊琳琳 上官宏 韓澤芳 韓興隆 王安紅 崔學英

(太原科技大學電子信息工程學院 太原 030024)

1 引言

近年,X射線計算機斷層成像(Comp ut ed Tomography,CT)技術已成為醫學診療中不可或缺的成像手段[1]。重復CT掃描檢查會使患者暴露于過量的X射線輻射傷害中,進而導致由輻射誘發的癌變、代謝異常、白血病和其他遺傳疾病等發生的概率增加[2]。因此,在臨床上倡導使用ALARA(As Low As Reasonably Achievable)原則[3],即在保證CT圖像質量滿足診斷需求的同時,將X射線對人體的輻射傷害降至最低。但是,降低輻射劑量常導致重建圖像出現斑駁噪聲和不穩定的條形偽影,進而影響臨床診斷的準確性。自從Naidich等人[4]首次提出低劑量CT(Low-Dose CT,LDCT)的概念以來,針對如何有效地抑制LDCT圖像中噪聲與偽影的問題,國內外學者不斷優化成像算法的設計方案,已在系統建模、圖像重建和后處理等方面做了大量卓越的研究工作。其中,LDCT圖像后處理方法不依賴于投影數據,直接對現有CT圖像進行處理,可移植性強,不需要對現有設備進行改進或更換,便于使用和推廣。傳統后處理算法,并沒有完全解決輸出圖像過平滑或引入新噪聲的問題,且算法魯棒性和泛化能力有待提高。

近年,深度卷積神經網絡(Convolutional Neural Networks,CNN)快速發展,為醫學成像領域提供了新的研究思路并展現出巨大潛力。從網絡框架的構建和目標函數的優化兩個角度出發,學者提出了一些基于CNN的LDCT圖像降噪方法,研究結果表明不同的算法框架(例如2D CNN[5],3D C N N[6],殘差編碼器/解碼器C N N[7]和級聯CNN[8]等)和目標函數(例如均方誤差[5,8]、對抗損失[9]和感知損失[10]等)可能會對網絡性能產生不同影響。降噪框架的設計決定了網絡的復雜度,而損失函數則會影響網絡的訓練精度。得益于CNN強大的特征學習與特征映射能力,基于CNN的LDCT圖像降噪方案可以取得一定的效果,然而CNN的特征提取能力受數據集、硬件資源及運行時間等制約,只有當數據集較大、網絡層數足夠深且迭代次數足夠多的情況下網絡才能取得比較好的降噪效果。實際應用中,很難構建足夠大的能夠滿足CNN充足訓練的數據集,數據集較小常會引起訓練不充分、網絡欠擬合等問題。為了解決這個問題,學者做了許多努力和嘗試。Goodfellow等人[11]提出的生成對抗網絡(Generative Adversarial Networks,GAN)就是其中的典型代表。GAN利用了生成器和判別器的博弈學習機制,在圖像生成[12]、超分辨率重構[13]、圖像分割[14]以及圖像降噪[15]等領域都有相對優異的表現。He等人[16]提出的條件生成對抗網絡(conditional GAN,cGAN)在一定程度上解決了GAN網絡生成數據不穩定的問題,該網絡在生成器與判別器中都加入了額外的約束條件,能夠生成滿足約束條件的圖像。Isola等人[17]在cGAN的基礎上提出了pix2pix模型,該模型已成功應用于實現不同形式圖像(如漸變圖像及含內容缺失的圖像等)之間的相互轉換。此外,針對傳統GAN降噪框架模型泛化能力較差的問題,在自然圖像盲降噪領域有一些成功嘗試。例如,Zhang等人[18]通過對噪聲水平隨空間位置變化而產生的強度變化進行估計,提出了一種采用單個網絡實現對圖像中噪聲水平不同的位置進行區別處理的方法。

綜上所述,基于GAN框架的降噪網絡仍然存在網絡訓練過程不穩定、泛化能力較差和特征提取不充分的問題。在訓練過程中,本文采用了多種損失函數對各個子網絡的輸出結果進行針對性約束,用來保障網絡訓練的穩定性;在降噪網絡結構中,增加了一個噪聲水平估計子網絡,用來估計不同劑量LDCT圖像的噪聲偽影特征圖,從而提高降噪網絡的泛化能力;在GAN網絡主通道中,本文設計了多路編碼的U-Net結構,用以提高生成器的多尺度特征表達能力,進而解決降噪網絡特征提取不充分的問題。

2 本文方法

假設X ∈R w×h表示大小為w×h的給定LDC T 圖像,Y ∈R w×h表示相應的常規劑量C T(Normal-Dose CT,NDCT)圖像。一般地,它們之間的關系可以表示為

其中,T:R w×h→R w×h表示以非線性的方式將NDCT圖像Y 退化為與之對應的LDCT圖像X的降質過程。降噪模型的目的是學習X →Y的映射關系。若A表示噪聲和偽影,則

實際中,希望設計一種可以有效抑制噪聲偽影的方法,使所獲取圖像的質量盡可能接近NDCT。本文以生成對抗思想作為指導,將LDCT圖像偽影抑制問題分為兩個子問題:偽影噪聲水平估計與偽影噪聲抑制。具體地,提出了一種基于GAN的LDCT圖像降噪網絡,如圖1所示,其結構包括噪聲水平估計子網絡和主干降噪網絡兩部分。一方面,為了提高網絡對噪聲和偽影分布存在明顯差異的不同劑量LDCT的處理能力,將噪聲水平估計子網絡設計為編解碼結構,編碼部分用來檢測噪聲水平;解碼部分用來生成能夠反映LDCT噪聲水平的噪聲圖像。另一方面,為了提高降噪圖像的質量,將主干降噪網絡設計為能夠進行內部自我優化的GAN框架,生成器G采用多路編碼U-Net結構;判別器D采用Markovian判別器[17]結構。總的來說,采用噪聲水平估計子網絡檢測不同劑量LDCT被噪聲污染的程度,將LDCT與生成的偽影圖相減獲得的初步降噪圖輸入主干降噪網絡,采用多路編碼U-Net生成子網絡進一步抑制噪聲偽影,兩者相輔相成,最終生成滿足需求的降噪圖像。此外,對損失函數進行了針對性設計:最小二乘損失及像素級L1范數用來保證網絡的穩定性;噪聲等級一致性損失用來優化噪聲水平估計子網絡;偽影一致性損失用來優化上采樣網絡。

圖1 本文降噪網絡整體框架

2.1 降噪主干網絡

(1)生成器G:傳統U-Net網絡的編碼器采用8層卷積操作(卷積核均為4×4)來提取輸入圖像特征,該操作雖然在諸如圖像識別等任務上實現了一定的效果,但是并不能充分提取圖像的特征。目前主流方法通過加深網絡結構來解決這個問題,但隨著網絡的加深,模型復雜度也不斷提升。眾所周知,卷積神經網絡的淺層主要提取視覺特征,而深層主要提取圖像語義信息。考慮到這一因素,本文對傳統U-Net網絡進行了改進,提出了一種多路編碼U-Net結構(如圖1(a)所示)。該設計不僅能夠提高網絡對LDCT的特征提取能力,而且能夠解決傳統神經網絡基本卷積單元的冗余問題,可以在無損性能的前提下,簡化模型復雜度、提升計算速度。具體地,在U-Net網絡編碼端,前3個卷積層分3路分別采用大小為2×2,3×3和4×4的卷積核對圖像進行卷積操作,將卷積后的特征映射圖級聯并入第4個卷積層。前3層網絡均采用尺寸較小的卷積核,有助于提取更為準確的LDCT圖像信息。編碼器的第4、第5層采用大小為4×4的卷積核進行卷積操作。在編碼器的后3個卷積層即第6、第7、第8層分3路分別采用大小為4×4,5×5和7×7的較大卷積核以更廣的視野來提取LDCT圖像的特征,該設計能更好地捕獲圖像的全局信息。通過在編碼端分多路分尺度對LDCT圖像進行不同的卷積操作,一方面可以提取圖像的多尺度特征,為后面的卷積層提供更加豐富的特征信息;另一方面能夠適應卷積神經網絡深淺層提取不同特征的特點,增加網絡的感受野,在去除偽影和噪聲這些細節信息方面具有較大優勢。編碼完成后,將編碼端所提取的不同尺度的特征,通過旁路連接操作并入解碼端的對應卷積層,經8層反卷積(卷積核均為4×4)操作后恢復出降噪后的圖像。

(2)判別器D:與G相對抗的D對生成圖像的質量也起著非常重要的作用,鑒于CT圖像包含豐富的細節信息,圖像敏感度較高,在設計降噪網絡時,需同時考慮偽影噪聲的去除效果和圖像原有細節的保留程度。本文判別器如圖1(c)所示,前4層采用conv+BN+LReLU操作來提取圖像不同層次的特征,其中卷積核大小為4×4、滑動步長為2。第5層通過conv+sigmoid函數來區分輸入圖像的真假,與生成器交替迭代訓練,更好約束生成器,使得最終生成高質量的降噪圖像。

2.2 噪聲水平估計子網絡

一般地,不同劑量LDCT圖像受噪聲和偽影污染的程度不同,通過訓練噪聲水平估計子網絡,可以將不同LDCT圖像的噪聲水平估計出來。與傳統降噪網絡相比,這種設計使得網絡泛化能力更強。如圖1(b)所示,本文所設計的噪聲水平估計子網采用編解碼結構,分為噪聲水平檢測支路和上采樣支路,其中,噪聲水平檢測支路包含兩個通道的噪聲水平檢測模塊,兩個檢測模塊結構相同,均為編碼網絡,采用一個5層網絡設計,第1層和最后1層均使用大小為4×4、滑動步長為2的卷積核進行卷積操作,中間3層為多尺度Inception模塊[19],Inception結構能夠在增加感受野的同時,不增加網絡的計算復雜度。將LDCT圖像和用來約束檢測模塊的理想偽影圖像分兩路輸入兩個通道,在每個通道內經過前4層操作后,分別提取出LDCT圖像的噪聲水平特征圖A和偽影圖像的噪聲水平特征圖B。在噪聲等級一致性損失函數約束下,通過不斷迭代優化,使得A和B越來越接近。在解碼端,將特征圖A輸入一個卷積核大小為1×1的卷積層,進行卷積操作后,送入上采樣網絡,進行4次上采樣操作后生成一幅代表噪聲水平的殘差圖像,該殘差圖像的質量由偽影一致性損失來約束。

2.3 損失函數

為了提高GAN降噪網絡的性能,本文在網絡的不同模塊采用了與其功能相對應的損失函數。具體地,為了約束噪聲水平估計子網的參數優化,本文利用噪聲估計子網中的編碼器模塊估計輸入圖像的噪聲等級,并利用噪聲等級檢測的交叉熵損失來設計噪聲等級一致性損失,其定義為

其中,E表示求期望,F 表示噪聲水平估計子網中的噪聲檢測網絡,X表示輸入的LDCT圖像,A表示理想的偽影圖像,Y表示NDCT圖像,該損失函數的作用是使網絡提取的LDCT噪聲水平特征圖盡可能接近真實偽影圖像的噪聲水平特征圖。為了保證最后生成的偽影圖像盡可能接近真實的偽影圖像,本文采用了與偽影相關的損失函數來保障噪聲水平估計子網的性能

?A為噪聲水平估計子網估計的偽影圖像。為了保證最終生成圖像的質量,定義了基于L1距離的全局損失

其中,λ1,λ2和λ3為超參數。

3 實驗

為了評估LDCT圖像降噪網絡的性能,本文分別在模擬和真實LDCT圖像數據集上進行了實驗。(1)模擬數據集為Mayo數據集[20],該數據集包括10名匿名患者的配對CT圖像(即每一幅NDCT都有與之對應的LDCT),其中LDCT是通過模擬 1/4標準劑量情況下的噪聲污染而獲得的。實驗中,從數據集中選取了1811幅CT圖像作為訓練集,將剩余567幅CT圖像作為測試集。(2)真實數據集為piglet數據集[21],該數據集中的LDCT是通過使用GE掃描儀(Discovery CT750 HD),將源電位和切片厚度分別設為100 kVp和0.625 mm時,通過調整管電流(或電壓),經不同強度X射線掃描而獲得的。以管電流為300 m A時的射線劑量為正常劑量,將管電流分別降低50%,25%,10%和5%便可獲得4種不同劑量的LDCT。X射線輻射劑量不同,重建CT圖像被噪聲和偽影污染的程度不同。實驗中,從piglet數據集中選擇了2260幅CT圖像(其中,從每種劑量的CT圖像中選取565幅)作為訓練集,測試集由剩余CT圖像構成,本文采用了4種不同劑量水平的LDCT圖像測試集,每個測試集包含100幅同一種劑量的LDCT。

本文采用峰值信噪比(Peak-Signal to Noise Ratio,PSNR)、結構相似性度(Structure SIMilaruty,SSIM)和視覺信息保真度(Visual Information Fidelity,VIF)這3種客觀評價指標來定量評估降噪圖像的質量。其中,PSNR值越大,表明降噪圖像中需要被保留的生理信息與需要被抑制的噪聲信息之比越大,圖像有用信息保留越完整,降噪圖像質量越高。SSIM值越大,表明降噪圖像的結構與NDCT圖像的結構越接近。VIF用于測量降噪LDCT圖像和NDCT圖像之間的視覺感知一致性,VIF值越大,降噪后的LDCT圖像視覺效果越好。此外,本文使用Python語言在Tensor Flow平臺進行實驗,并使用NVIDIA GTX 1070 Ti GPU來訓練和測試網絡,為驗證降噪網絡的有效性,還與當前3種典型算法(分別為:傳統方法BM3D,CNN類方法的典型代表RED-CNN以及基于GAN的pix2pix)進行了對比。本文中的所有網絡都經過了200次epochs迭代訓練,訓練和測試圖像尺寸均為512×512。實驗中本文采用基于動量的Adam優化器[22]訓練降噪網絡,其中,β1=0.5,β2=0.999,學習率為0.0002。考慮到參數選擇對算法的性能起著極其重要的作用,針對目標函數中涉及的3個超參數λ1,λ2和λ3,本文在Mayo數據集上進行了實驗:將3個超參數的比例關系設置為λ1:λ2:λ3=2:2:1,改變λ1的取值(λ2和λ3的取值隨之變化)對網絡進行訓練,測試結果的平均PSNR和SSIM值隨λ1取值的變化情況如圖2(a)所示。從圖中可以看出,隨著橫坐標λ1的增大,PSNR和SSIM值變化曲線呈現先增后減的變化規律,當λ1=20時,測試結果取得了最佳平均PSNR和SSIM值,因此,本文實驗中將參數設置為λ1=20,λ2=20,λ3=10。

考慮到損失函數的選擇對網絡訓練的穩定性起著極其重要的作用,本文做了一組損失函數消融實驗,即分別采用傳統對抗損失、最小二乘損失、最小二乘損失與像素級L1損失來訓練降噪網絡,并繪制了如圖2(b)所示的損失函數收斂曲線圖。可以直觀地看出,3條損失函數變化曲線中綠色曲線所示情況下網絡性能最穩定、且損失曲線收斂最快。傳統GAN的對抗損失函數的變化曲線(如圖2(b)藍色曲線所示)存在明顯波動,隨迭代次數增加,網絡并不能收斂于穩定的值;與傳統對抗損失函數相比,采用最小二乘損失函數來對網絡進行約束,能夠一定程度上緩解網絡訓練過程不穩定的問題,但迭代后期仍然存在損失值小幅度波動的現象(如圖2(b)紅色曲線所示);將最小二乘損失與像素級L1損失函數相結合,共同約束降噪網絡的訓練過程,可以獲得損失值逐漸收斂的變化曲線。因此,在訓練過程中,采用最小二乘損失與像素級L1損失能夠增加網絡的穩定性。

圖2 參數選擇對算法性能的影響

3.1 定性分析

本文方法與對比方法對腹部與胸部LDCT圖像的降噪結果分別如圖3、圖4、圖5所示。從整體上看,4種方法均可實現不同程度的偽影抑制,比較不同的降噪結果圖、偽影圖與差值圖(不同降噪結果與NDCT之差)可以發現,經傳統BM 3D處理后,CT圖像中仍然存在大量偽影和噪聲。雖然RED-CNN和pix2pix對LDCT的偽影抑制效果優于BM3D,但它們的降噪圖像中均出現了不同程度的圖像失真與邊緣模糊,如圖3(c)和圖3(d)所示。觀察圖4中紅色箭頭示意區域,可以看出,與其他3種方法相比,本文方法在偽影噪聲抑制和邊緣細節保留方面的表現均是最佳的;對比將LDCT與不同降噪圖像及N D C T 相減所獲得的差值圖像(如圖5(a2)—圖5(e2)所示),可以發現,本文方法所得結果圖與理想偽影圖像更接近,圖中偽影噪聲的強度也是4種方法所得結果圖中最大的;觀察圖5(b3)—圖5(e3)可以發現,LDCT與NDCT相減后,可以得到一個有強偽影的差值圖像,4種降噪圖與NDCT相減后所得到的差值圖中也出現了不同強度的偽影,4幅圖中圖5(b3)中殘留偽影最多,圖5(e3)中殘留偽影最少。綜上,從視覺效果來看,本文方法的降噪效果更加優異。

圖3 4種降噪方法對腹部LDCT圖像的降噪結果示意圖(顯示窗為[40,400]HU)

圖4 4種降噪方法對胸部LDCT圖像的降噪結果示意圖(顯示窗為[40,400]HU)

圖5 4種降噪方法胸部LDCT降噪結果的偽影圖與差值圖(顯示窗為[40,400]HU)

圖6展示了4種方法在piglet數據集上對不同劑量LDCT圖像的降噪效果,第1列為不同劑量的LDCT圖像,第2到4列分別為采用BM3D,RED-CNN和pix2pix與本文方法降噪效果圖,其中左下角為圖6中紅色虛線框所示意ROI區域的放大圖像。從第1列中可以觀察到,在不同劑量LDCT圖像中噪聲呈現不同的分布特征,X射線劑量越低,噪聲分布越密集,LDCT圖像被噪聲污染的程度越嚴重,當管電流變為15 mAs時,LDCT圖像質量嚴重退化,很難辨認圖像中具有臨床診斷意義的組織和細微結構。觀察第2和第3列降噪結果圖可以發現,BM3D與RED-CNN雖然能在一定程度上對噪聲進行抑制,但是當管電流分別降至30 mAs與15 mAs時,BM3D與RED-CNN的降噪圖像質量變得非常差,除了有部分噪聲殘留,還丟失了許多細節。將pix2pix、本文方法的降噪圖像與NDCT進行比較可以發現,與前面兩種方法的實驗結果相比,GAN類方法對噪聲抑制效果更加明顯,且并沒有在降噪的同時使圖像變得模糊。與第6列NDCT圖像進行對比可見,本文方法對不同劑量LDCT的降噪圖像更接近于NDCT。此外,圖中第1行—第4行分別給出了不同降噪方法對不同劑量LDCT的降噪圖像顯示。可以發現,無論采用哪種劑量的LDCT進行實驗,本文方法的降噪效果最為明顯,特別地,當噪聲比較嚴重(30 mAs與15 mAs的管電流)時,本文降噪網絡的優越性體現得更加充分,進一步證明本文提出的噪聲水平估計子網絡能夠對不同劑量LDCT中的噪聲偽影進行有效估計,降噪網絡具有更好的泛化能力。

圖6 4種方法在piglet數據集上對不同劑量LDCT圖像的降噪結果(顯示窗為[40,400]HU)

3.2 定量分析

為了對4種方法的降噪性能進行更全面的評估,本文還分析了4種降噪圖像的量化表現。圖7給出了圖3所示降噪圖像的2個ROI的SSIM、PSNR與VIF值。在同一ROI內分析4種降噪圖像的量化表現,可以發現,除了ROI2中VIF值略低于BM3D,在ROI2其他量化指標與ROI1中,本文方法降噪圖像指標值均是最大的。分析同一降噪圖像的不同ROI可以發現SSIM方面,4種降噪圖像ROI1均比ROI2的數值更高在PSNR方面,4種降噪圖像ROI1均比ROI2的數值更高;在VIF方面,4種降噪圖像ROI1的值均低于ROI2的值。總的來說,從量化角度分析,本文方法降噪性能優于其他3種方法。

圖7 圖3 所示降噪圖像局部ROI的量化指標值

表1給出了在piglet測試集上4種方法降噪結果的平均PSNR,SSIM和VIF值表現情況。將管電流分別設置為150 mAs,75 mAs,30 mAs和15 mAs時,可以獲得4種不同劑量的LDCT圖像。從表1第1行可以看出,劑量越低,LDCT圖像質量越差。管電流從150 mAs降至75 mAs時,圖像質量急劇下降;當管電流降至15 mAs時所獲得的LDCT圖像質量最差。分析4種方法對同一劑量水平的LDCT的降噪結果可以發現,當對含有少量噪聲的LDCT(例如管電流為150 m As與75 m As)進行降噪時,4種方法中RED-CNN表現最差,其次為BM 3D和pix2pix,而本文降噪網絡性能最優;當LDCT中包含大量噪聲(例如管電流為15 mAs)時,本文方法的實驗結果均取得了最佳的PSNR,SSIM和VIF值;分析每種方法對不同劑量水平的LDCT的降噪結果可以發現,BM 3D對含有少量噪聲(例如管電流為150 m As)的LDCT進行降噪時獲得了較高的PSNR和SSIM值,然而當應對含有大量噪聲的LDCT時,量化值并不理想;雖然在管電流較高的情況下,RED-CNN的實驗結果并不理想,甚至低于BM3D的實驗結果,但是隨著管電流的降低,兩者之間的差距逐漸縮小,當管電流降至15 m As時,甚至超過了BM3D降噪圖像的表現;pix2pix對不同劑量LDCT圖像的降噪性能比較穩定,本文方法對不同劑量LDCT降噪圖像的SSIM,PSNR和VIF值表現均高于pix2pix的實驗結果且均取得最大值,這主要得益于噪聲水平估計子網絡強大的噪聲偽影估計能力。總的來說,本文降噪網絡具有較強的魯棒性,對不同劑量LDCT進行降噪,均能獲得優于其他3種方法的降噪圖像。

表1 圖6所示降噪圖像的定量比較

此外,圖8給出了在不同劑量水平情況下不同算法所抑制的噪聲偽影圖(即LDCT與不同算法降噪結果的殘差圖)與理想偽影圖(由LDCT減去NDCT得到)的均方誤差值變化曲線。從圖中可以看出,與其他算法降噪結果相比,在4種不同劑量情況下,本文方法所抑制的偽影噪聲圖與真實偽影圖更加接近,4種方法中本文方法獲取的偽影噪聲圖與真實偽影的均方誤差MSE值最小。這也說明本文網絡對偽影噪聲的特征提取能力更強,進而能有效抑制更多的偽影噪聲。

圖8 不同算法所抑制的噪聲偽影圖與理想偽影圖的均方誤差值變化曲線

與基于GAN的傳統降噪網絡相比,本文降噪網絡在生成器部分設計了多路編碼結構,并增加了一個噪聲水平估計子網絡,本文通過一組消融實驗來評估這些改進對降噪網絡性能影響,具體地,分別采用“w/o多路卷積”(網絡中包括噪聲水平估計子網,主干降噪網絡的生成器采用傳統Unet結構)和“w/o噪聲水平估計子網”(網絡中不包括噪聲水平估計子網,主干降噪網絡的生成器采用改進的多路編碼Unet結構)兩個網絡在Mayo數據集上進行訓練,并比較其與本文網絡的測試結果。表2所示為不同降噪網絡測試結果的平均SSIM和PSNR值及相應的局部ROI視覺效果圖匯總表,可以看出,本文降噪網絡測試結果的平均PSNR與SSIM量化指標值是3種算法中表現最好的,“w/o多路卷積”和“w/o噪聲水平估計子網”兩種網絡降噪效果量化指標值差別不大;這里沒有展現消融網絡的視覺效果。綜合測試結果的兩種量化表現進行考慮,本文網絡的降噪性能均是最佳的,這也進一步表明,本文所做改進對改善LDCT降噪圖像的質量具有積極作用。

表2 網絡結構消融對算法性能的影響

表3給出了不同算法測試相同數據集所需要的平均測試時間。觀察表中數據可以發現,RED-CNN與BM3D算法測試的時間相對較長,由于網絡結構更加復雜,本文方法所花費時間略高于pix2pix,執行效率差距并不大,但本文方法的綜合視覺效果和量化指標表現更好。

表3 不同算法的測試時間對比

4 結束語

CT成像技術已經成為不可或缺的醫學診斷輔助手段,為了避免X射線劑量累加引發的輻射傷害,低劑量CT圖像的應用日益增多。針對由于減少輻射劑量引起的CT圖像噪聲和偽影增加問題,本文致力于設計有效的降噪卷積神經網絡模型,以期在保持CT圖像組織結構和病理信息完整的基礎上盡可能抑制圖像中的噪聲和偽影。本文提出了一種用于低劑量CT降噪的生成對抗網絡改進模型,增加了噪聲水平估計子網來提高網絡對不同劑量LDCT圖像的噪聲估計能力,并且引入了噪聲等級一致性損失函數來約束該網絡參數的優化過程,保證了噪聲估計子網的噪聲估計準確度。此外,本文提出一種多路編碼U-Net結構作為生成器的主干降噪網絡,使用了不同大小卷積核提取多尺度特征的同時增大網絡的感受野,更進一步提升了網絡的降噪性能。本文雖然一定程度上解決了生成對抗網絡用于LDCT圖像降噪中表現出來的泛化能力弱問題,針對不同輻射劑量的LDCT圖像,如何設計性能更優的噪聲估計子網來提升降噪網絡的性能仍然是很有研究價值的課題。

猜你喜歡
劑量水平方法
結合劑量,談輻射
·更正·
全科護理(2022年10期)2022-12-26 21:19:15
張水平作品
90Sr-90Y敷貼治療的EBT3膠片劑量驗證方法
加強上下聯動 提升人大履職水平
人大建設(2019年12期)2019-05-21 02:55:32
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
高劑量型流感疫苗IIV3-HD對老年人防護作用優于標準劑量型
做到三到位 提升新水平
中國火炬(2010年8期)2010-07-25 11:34:30
主站蜘蛛池模板: 国产91在线|中文| 67194亚洲无码| 国产精品免费入口视频| 少妇高潮惨叫久久久久久| 国产精品乱偷免费视频| 超碰色了色| 国产精品免费p区| 国产精品九九视频| 中文字幕色在线| 精品一区二区三区无码视频无码| 麻豆精品国产自产在线| 国产精品亚欧美一区二区| 久爱午夜精品免费视频| 亚洲国产成人无码AV在线影院L| 在线人成精品免费视频| 国产成人福利在线| 精品欧美一区二区三区久久久| 中文字幕乱码中文乱码51精品| 国产成年无码AⅤ片在线 | 亚洲天堂免费在线视频| 亚洲天天更新| 精品無碼一區在線觀看 | 99久久精品无码专区免费| 国产视频a| 国产杨幂丝袜av在线播放| 无码AV动漫| 野花国产精品入口| 五月激激激综合网色播免费| 在线观看国产网址你懂的| 国产h视频在线观看视频| 久久精品无码中文字幕| 亚洲综合九九| 免费国产高清精品一区在线| 国产不卡在线看| 日本一区中文字幕最新在线| 免费xxxxx在线观看网站| 中日韩一区二区三区中文免费视频| 极品国产一区二区三区| 国产打屁股免费区网站| 青青国产在线| 全免费a级毛片免费看不卡| 久久成人国产精品免费软件 | av一区二区三区在线观看| 欧美日韩在线第一页| 在线播放精品一区二区啪视频| 色哟哟国产成人精品| 日韩高清中文字幕| 四虎精品国产永久在线观看| 在线精品亚洲一区二区古装| 国产精品99一区不卡| 欧美亚洲香蕉| 久久久久久久久亚洲精品| 亚洲swag精品自拍一区| 最新痴汉在线无码AV| 精品国产一二三区| 毛片免费网址| A级毛片高清免费视频就| 人妻中文久热无码丝袜| 国产精品女在线观看| 在线日韩一区二区| 亚洲第一成网站| 亚洲IV视频免费在线光看| 视频二区亚洲精品| 国产玖玖视频| 亚洲三级色| 红杏AV在线无码| 亚洲av中文无码乱人伦在线r| 视频在线观看一区二区| 2022国产91精品久久久久久| 日本欧美午夜| 高清久久精品亚洲日韩Av| 欧美国产成人在线| 国产成人无码综合亚洲日韩不卡| 国产99免费视频| 尤物精品视频一区二区三区| 日本成人在线不卡视频| 国产91九色在线播放| 日韩毛片在线播放| 制服无码网站| 国产人免费人成免费视频| 成人福利免费在线观看| 日本亚洲国产一区二区三区|