999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的超低計數全身PET圖像去噪方法

2024-10-30 00:00:00賀鈺茹王方虎黃衍超路利軍
分子影像學雜志 2024年9期

摘要:目的" 使用深度學習算法改善全身低計數正電子發射計算機斷層成像(PET)的重建圖像質量,探討提出方法對不同噪聲水平PET圖像的去噪泛化性。方法" 使用MICCAI 2022 UDPET挑戰賽數據集,提出分層向量量化變分自編碼器(HVQ-VAE)算法對不同劑量衰減因子的低計數PET圖像去噪。將高斯濾波作為基準模型,結合標準均方根誤差、結構相似性、峰值信噪比3個定量指標與視覺圖像結合評估算法的去噪性能。結果" 當低計數PET圖像的劑量衰減因子為20時,經高斯濾波后圖像質量整體提升13%,經HVQ-VAE模型去噪后圖像質量總體提升20%;當低計數PET圖像的劑量衰減因子為50時,高斯濾波后圖像質量整體提升11%,HVQ-VAE模型去噪后圖像質量總體提升24%;當低計數PET圖像的劑量衰減因子為100時,高斯濾波后圖像質量整體提升12%,HVQ-VAE模型去噪后圖像質量總體提升36%。結論" 所提方法HVQ-VAE模型對不同噪聲水平的全身低計數PET圖像均有較好去噪效果,為降低患者輻射暴露風險同時保證圖像質量提供了新的可能。

關鍵詞:正電子發射斷層成像;圖像去噪;低計數PET圖像;全身PET圖像;HVQ-VAE

Ultra-low count total-body PET image denoising based on the deep learning method

HE Yuru1, WANG Fanghu4, HUANG Yanchao2, LU Lijun3

1Big Data and Artificial Intelligence Center, 2Nanfang PET Center, Nanfang Hospital, Southern Medical University, Guangzhou 510515, China; 3School of Biomedical Engineering, Southern Medical University, Guangzhou 510515, China; 4Department of Nuclear Medicine, Guangdong Provincial People's Hospital, Guangdong Academy of Medical Sciences, Guangzhou 510080, China

Abstract: Objective To improve the reconstructed image quality of low-count positron emission tomography (PET) imaging based on deep learning method and explore the generalization performance of the proposed method on different noise levels. Methods Using the dataset from the MICCAI 2022 UDPET Challenge, the hierarchical vector quantized variational autoencoder (HVQ-VAE) method was proposed to denoise low-count PET images with different dose reduction factors (DRFs). The denoising efficacy was quantitatively evaluated via metrics such as normalized root mean square error, structural similarity, and peak signal-to-noise ratio, as well as through visual assessments, against the Gaussian filter as baseline mothod. Results When the DRF of low-count PET images was 20, the overall image quality was improved by 13% after Gaussian filtering, and 20% after denoising by HVQ-VAE. At a DRF of 50, the proposed approach outperformed the Gaussian filter, delivering a 24% quality improvement compared to its 11%. At the DRF of 100, the HVQ-VAE method marked 36% improvement in overall image quality, as opposed to the 12% achieved with the Gaussian filter. Conclusion The HVQ-VAE method, as part of our proposed technique, has demonstrated a marked denoising effect on total-body ultra-low-count PET images across diverse noise levels. This research opens up novel avenues for reducing radiation exposure risks while ensuring maintenance of image fidelity.

Keywords: positron emission tomography; image denoising; low-count PET image; total-body PET image; HVQ-VAE

正電子發射計算機斷層成像(PET)是一種分子成像技術,通過向生物體注射帶有放射性核素標記的示蹤劑來反應其體內的代謝活動[1]。PET具有敏感度高、特異性強的特點,已被廣泛應用于腫瘤學、神經學和心臟病學等領域[2-5]。然而PET成像過程探測環的探測效率低、真假符合事件未明顯區分、死時間限制等因素均會導致探測器接收到的光子計數低,影響重建后的PET圖像質量[6, 7]。在臨床中通常對患者注射高劑量示蹤劑來提高PET圖像質量,這無疑會對患者和相關醫護人員造成更多輻射傷害,如何在注射較低劑量示蹤劑的情況下,提升低計數PET圖像質量是當前的研究熱點。

目前提升低計數圖像質量的方法包括改進圖像重建算法和重建后濾波兩種,PET圖像重建算法通常為統計迭代法,如最大似然期望最大化方法(MLEM)和有序子集最大似然法(OSEM)[8]。在低計數PET圖像重建中,隨著重建算法的迭代次數增加,圖像噪聲相應增大[9, 10],有學者提出使用貝葉斯方法引入先驗構造正則化重建模型[11],然而改進圖像重建算法需要PET成像過程的原始數據,這受設備供應商的影響,通常較難獲得。PET圖像重建后濾波方法由于操作簡單且不涉及PET原始數據,被廣泛應用于低計數PET圖像增強研究及臨床使用[12, 13]。

傳統的重建后濾波方法包括高斯濾波、非局部均值濾波、雙邊濾波等,這些方法操作簡單且較易部署于臨床,但存在圖像過平滑或邊緣梯度翻轉偽影的不足,這會影響醫生的診斷準確性。近年來,深度學習技術快速發展,其在圖像增強、圖像分割、圖像分類等領域均展現了較優的性能[14-21]。越來越多基于深度學習的PET圖像重建后濾波方法被提出[22-26],如3D Unet、ResNet、CycleGAN、OIF-Net等。有學者對比了ResNet、Unet、SwinIR、CycleGAN等去噪模型對whole-body PET圖像的去噪能力,結果表明CycleGAN生成式模型對去噪圖像最大標準化攝取值的估計效果最好[27],這展現了生成式模型在PET圖像去噪領域的優勢。深度生成式模型是近年來深度學習領域的研究熱點,如VAE、基于流的模型和自回歸模型等。有學者提出使用新變分編碼器(NVAE)、去噪擴散概率模型(DDPM)用于低計數PET圖像去噪[28],在峰值信噪比(PSNR)和結構相似性(SSIM)等定量指標上均有較大提升[29]。然而目前PET領域的生成式算法研究僅用于患者頭部或半身,較少對全身PET圖像進行研究。本研究提出使用分層向量量化變分自編碼器(HVQ-VAE)對全身低計數PET圖像去噪,是首次基于生成式模型對全身PET圖像的去噪研究,這為降低患者輻射暴露風險同時保證圖像質量提供了新的可能。現報道如下。

1" 資料與方法

1.1" 一般資料

本研究使用2022年MICCAI超低劑量PET成像挑戰賽的公開數據集[30, 31],包含2021年12月~2022年6月上海市瑞金醫院影像資料,共320例患者數據,其中男性162例(50.6%),女性158例(49.4%)。患者年齡17~80歲,平均55歲。數據集的PET圖像分辨率均為360×360×673,體素大小為1.667 m×1.667 m×2.886 m。由于本研究為合法獲得公開數據集,依規免除本院倫理審查。

1.2" 數據處理

根據公開數據集中描述信息,所有患者均接受了18F-FDG示蹤劑注射和聯影uEXPLORER的全身PET掃描。標準計數下所有患者的平均注射劑量為180.89 MBq,最低注射劑量為37 MBq,最高注射劑量為359.27 MBq,采集時間均為600 s,經OSEM重建后得到高計數PET圖像。對標準采集后的listmode數據重采樣重建,達到縮短采集時間的效果,OSEM重建后得到低計數PET數據。MICCAI挑戰賽公開數據集中包含不同劑量衰減因子(DRF)即不同噪聲水平的低計數PET圖像。本研究使用DRF為20、50、100的低計數數據和全計數PET數據組成高低計數PET圖像對,來驗證提出方法的去噪可行性。為提升訓練速度減少內存占用,本研究通過尺度變換將其圖像大小縮放到192×192×673。

1.3" 模型構建

受VQ-VAE-2模型的啟發,本研究提出HVQ-VAE模型對PET圖像去噪。模型結構(圖1),使用多尺度層次化編碼器將圖像有效壓縮,上下兩層編碼器分別對輸入圖像的全局信息和局部信息建模,生成多尺度潛在變量圖,將上下兩層潛在變量圖分別編碼到離散的潛在表示空間實現量化,再將上層量化后的潛在代碼上采樣至與下層潛在代碼大小一致,二者合并后輸入解碼器得到去噪后PET圖像。

本研究共使用320例18F-FDG PET數據,其中210例數據用于訓練,30例數據用于驗證,80例數據用于測試。每例數據均有高低計數的PET圖像對,取低計數圖像切片及前后各一張切片輸入網絡,高計數PET圖像作為標簽圖像以此訓練2.5D模型。模型損失函數包括重構損失和量化損失兩部分,重構損失使用平均絕對誤差來衡量真實高計數PET圖像與解碼器生成的重構PET圖像之間的像素級差異,量化損失用于約束編碼器輸出的離散碼本與離散碼本詞典之間的差異,有助于編碼器生成有效的潛在表示。

實驗基于Python的Pytorch框架進行模型構建,使用Adam為優化器,其中β1為0.5,β2為0.999。使用StepLR學習率衰減策略,初始學習率為1e-6,步長為10,衰減因子為0.5,共訓練200個epoch。訓練集的batchsize為16,驗證集的batchsize為32,模型訓練時,輸入圖像的切片選取范圍為第200~600層切片,采取圖像隨機旋轉、隨機翻轉和隨機平移的數據擴增策略。模型測試時,使用全身所有切片圖像輸入網絡。

1.4" 評估方法

為了驗證提出方法的去噪性能,使用標準均方根誤差(NRMSE)、SSIM、PSNR評估去噪后圖像和真值圖像之間像素值的差異,RMSE定義為

[RMSE=1R1Nr=1Rj=1N(xrj-xtruej)2]" " " " " " " " " " " " " " "(1)

其中N為圖像中的像素個數,[xrj]代表去噪后圖像在第r次噪聲實現中像素點j處的活度值,[xtruej]代表真值圖像在像素點j處的活度值。NRMSE是將 RMSE 除以圖像的像素值范圍來實現標準化。SSIM是結合圖像亮度、對比度、結構三方面與真值圖像做比較,定義為

[SSIM=(2μxμy+C1)(2σxy+C2)(μ2xμ2y+C1)(σ2x+σ2y+C2)]" " " " " " " " " " " " (2)

其中[μx]和[μy]分別代表去噪后圖像和真值圖像的均值,[σ2x]和[σ2y]分別代表去噪后圖像和真值圖像的方差,[σxy]代表兩圖像的協方差,C1、C2是為了避免分母為零而設置的常數。PSNR的公式如下,其中MAX為圖像的峰值強度。

[PSNR = 20 * log10 (MAXRMSE)]" " " " " " " " " " " " " " " (3)

2" 結果

當低劑量PET圖像的劑量衰減因子為20時,使用NRMSE、SSIM、PSNR量化模型對低劑量PET圖像的去噪效果。量化結果顯示,高斯濾波和所提出方法對低計數PET圖像均有去噪效果,其中所提出方法對低計數PET圖像的質量提升有明顯效果。衰減因子為20的低計數PET圖像經過高斯濾波,平均NRMSE從0.0328降低到0.0240,下降了27%,平均SSIM從0.9570提升至0.9675,提升1%,平均PSNR從31.3594提升至34.3719,提升10%,3個量化指標總體提升13%。經過提出方法去噪模型,平均NRMSE從0.0328下降至0.0187,指標下降了43%,平均SSIM從0.9570提升至0.9773,提升了2%,平均PSNR從31.3594提升至35.5766,提升了13%,3個定量指標總體提升20%(表1)。

DRF為20時,提出方法的去噪后PET圖像更接近全計數圖像,特別是腦部區域。相比于高斯濾波,提出方法對圖像邊緣的保持效果也更佳(圖2)。

當低劑量PET圖像的劑量衰減因子為50時,使用NRMSE、SSIM、PSNR量化模型對低劑量PET圖像的去噪效果。量化結果顯示,所提出方法對低計數PET圖像的質量提升有明顯效果,低計數PET圖像經過高斯濾波,平均NRMSE從0.0507降低到0.0384,下降了24%,平均SSIM從0.9324提升至0.9439,提升1%,平均PSNR從27.4048提升至29.8909,提升9%,3個量化指標總體提升11%。經過所提出方法去噪模型,平均NRMSE從0.0507下降至0.0252,指標下降了50%,平均SSIM從0.9324提升至0.9605,提升了3%,平均PSNR從27.4048提升至32.9356,提升了20%,3個定量指標總體提升24%(表2)。

DRF為50時,所提出方法的去噪后PET圖像更接近全計數圖像,在膀胱區域,所提出方法去噪后PET圖像與全計數圖像更接近,高斯濾波結果圖像存在高攝取區域范圍蔓延的情況。圖3G相比于圖3F的腦部區域更接近全計數PET圖像(圖3)。

當低劑量PET圖像的劑量衰減因子為100時,使用NRMSE、SSIM、PSNR量化模型對低劑量PET圖像的去噪效果。量化結果顯示,與臨床常用方法高斯濾波相比,所提出方法對低計數PET圖像的質量提升有明顯效果,低計數PET圖像經過高斯濾波,平均NRMSE從0.0813降低到0.0622,下降了23%,平均SSIM從0.9063提升至0.9172,提升1%,平均PSNR從23.1499提升至25.4430,提升10%,3個量化指標總體提升12%。經過所提出方法去噪模型,平均NRMSE從0.0813下降至0.270,指標下降了67%,平均SSIM從0.9063提升至0.9506,提升了5%,平均PSNR從23.1499提升至31.8888,提升了38%,3個定量指標總體提升36%(表3)。

DRF為100時,高斯濾波和提出方法對低計數PET圖像均有良好去噪效果,其中提出方法相比與高斯率結果更平滑,與全計數PET圖像的相似度更高(圖4)。

3" 討論

本文提出HVQ-VAE去噪模型用于全身低計數PET圖像,是VQVAE-2的第一階段的訓練過程,使用編碼器、解碼器和離散量化器組成的分層多尺度圖像重建模型。編碼器用于將輸入數據編碼成潛在表示,量化器接受編碼器的輸出,將其映射呈離散狀態,解碼器接受量化器的離散表示,生成與原始數據相匹配的去噪后PET圖像。

與目前大多數研究使用Unet[12]、ResNet[13]等卷積神經網絡對低計數PET圖像去噪不同[14, 22, 24, 32],本研究使用基于VAE生成式網絡架構[33],通過編碼器學習低計數PET圖像的潛在分布,通過解碼器和損失函數生成更接近真實數據分布的重建圖像。生成式網絡結構通過隱變量空間對圖像有效壓縮表示,減少噪聲對圖像質量的影響,可以更有效地處理PET圖像的復雜噪聲分布。

與既往研究提出的NVAE用于PET圖像去噪[10]不同,本研究使用分層多尺度結構,在不同分辨率上對圖像編碼和解碼,提高圖像的一致性和保真度。與VAE的部分生成模型不同,本研究使用離散表示學習框架,通過查找最近鄰的碼本向量來量化潛在空間的連續變量,該離散化過程一方面降低了模型的復雜度,訓練更加穩定,另一方面離散結構化表示更容易捕獲圖像的全局和局部特征。該方法首次用于PET圖像去噪。

相比于其他低計數PET圖像研究的去噪模型多應用于半身或腦部圖像[22, 27, 32],在全身超低計數PET圖像上取得較好去噪結果。有研究共使用35例患者數據使用NVAE實現腦部PET圖像去噪,該研究將300×300的圖像大小預處理為256×256,增加前后各一張切片輸入網絡實現2.5D訓練[10]。本研究參考上述研究且考慮到內存容量限制,將360×360的圖像大小預處理為192×192,模型輸入3個切片數據實現2.5D研究。本研究共使用320例數據,是上述研究數據量的10倍。

本文使用不同劑量衰減因子的低計數PET圖像驗證HVQ-VAE去噪模型對不同噪聲水平圖像的處理能力,結果表明提出模型對DRF為20、50、100不同程度的低計數PET圖像均有較好去噪效果。隨著低計數圖像噪聲的增加,去噪效果越來越明顯,其中DRF為100的超低計數圖像去噪效果最明顯,去噪后圖像相比于噪聲圖像整體質量提升38%,DRF為20的低計數PET圖像整體提升13%。高斯濾波對不同噪聲水平PET圖像的質量提升效果較為均衡,對DRF為100的低計數圖像質量提升10%,低于所提方法在任一噪聲水平下的量化提升值。從視覺圖像可以看出,隨著噪聲水平的增加,高斯濾波的圖像去噪能力逐漸減弱,而提出方法仍保持較好去噪能力,且提出方法對圖像邊緣保持和高攝取區域圖像恢復展現了較大優勢。這是由于高斯濾波使用待估計像素點鄰域像素值的加權平均來估計該點像素值,鄰域大小取決于高斯濾波窗口大小,估計過程僅提取了濾波窗內的局部特征。本研究提出的去噪算法使用上下兩層編碼器分別提取了全局和局部的多尺度圖像特征,這大大提升了提出方法的去噪性能,且對不同噪聲水平的低計數PET圖像均有較好去噪效果。

本研究顯示,隨著DRF的降低,網絡輸出圖像的PSNR越來越大,NRMSE越來越小。這是由于DRF代表相對于全劑量示蹤劑的劑量衰減因子,DRF越小,其低計數PET圖像越接近全劑量圖像,低計數PET圖像本身信噪比越高。隨著DRF的增大,網絡輸出圖像相比于低計數圖像的PSNR、SSIM提升幅度更大,這得益于本研究使用網絡輸出圖像與標簽圖像的L1范數作為損失函數,通過增加網絡迭代次數優化模型,使網絡輸出圖像更加接近全劑量PET圖像。

本研究證明了提出方法對不同噪聲水平PET圖像的去噪能力,但仍然存在一定的局限性。研究使用2.5D去噪模型,雖然已有研究表明3D模型的結果更優,有助于減少層間偽影[34],但其計算量較大,待升級硬件后考慮進一步嘗試3D去噪模型。本研究初步探索了多尺度特征提取對低計數PET圖像去噪的優勢,后續將改進HVQ-VAE網絡結構,對多尺度特征融合方式進行深入研究。

綜上所述,本研究提出HVQ-VAE模型用于全身低計數PET圖像去噪,通過NRMSE、PSNR、SSIM 3個量化指標和視覺評估展現了該模型對不同噪聲水平PET圖像的去噪能力,為降低患者輻射暴露風險同時保證圖像質量提供了新的可能。

參考文獻:

[1]" "Townsend DW, Carney JP, Yap JT, et al. PET/CT today and tomorrow[J]. J Nucl Med, 2004, 45(Suppl 1): 4S-14S.

[2]" "Nordberg A, Rinne JO, Kadir A, et al. The use of PET in Alzheimer disease[J]. Nat Rev Neurol, 2010, 6(2): 78-87.

[3]" Schindler TH, Schelbert HR, Quercioli A, et al. Cardiac PET imaging for the detection and monitoring of coronary artery disease and microvascular health[J]. JACC Cardiovasc Imaging, 2010, 3(6): 623-40.

[4]" "Sch?der H, G?nen M. Screening for cancer with PET and PET/CT: potential and limitations[J]. J Nucl Med, 2007, 48(Suppl 1): 4S-18S.

[5]" "Wang FH, Xu WP, Lv WB, et al. Evaluation of the diagnostic value of joint PET myocardial perfusion and metabolic imaging for vascular stenosis in patients with obstructive coronary artery disease[J]. J Nucl Cardiol, 2021, 28(6): 3070-80.

[6]" "Teymurazyan A, Riauka T, Jans HS, et al. Properties of noise in positron emission tomography images reconstructed with filtered-backprojection and row-action maximum likelihood algorithm[J]. J Digit Imaging, 2013, 26(3): 447-56.

[7]" "Townsend DW. Physical principles and technology of clinical PET imaging[J]. Ann Acad Med Singap, 2004, 33(2): 133-45.

[8]" "Dey J, King MA. Theoretical and numerical study of MLEM and OSEM reconstruction algorithms for motion correction in emission tomography[J]. IEEE Trans Nucl Sci, 2009, 56(5): 2739-49.

[9] Gaitanis A, Kontaxakis G, Spyrou G, et al. PET image reconstruction: a stopping rule for the MLEM algorithm based on properties of the updating coefficients[J]. Comput Med Imaging Graph, 2010, 34(2): 131-41.

[10] Reader AJ, Zaidi H. Advances in PET image reconstruction[J]. PET Clin, 2007, 2(2): 173-90.

[11]" Vunckx K, Atre A, Baete K, et al. Evaluation of three MRI-based anatomical priors for quantitative PET brain imaging[J]. IEEE Trans Med Imaging, 2012, 31(3): 599-612.

[12]" Dutta J, Leahy RM, Li QZ. Non-local means denoising of dynamic PET images[J]. PLoS One, 2013, 8(12): e81390.

[13] Christian BT, Vandehey NT, Floberg JM, et al. Dynamic PET denoising with HYPR processing[J]. J Nucl Med, 2010, 51(7): 1147-54.

[14]" Gong YL, Qiu HJ, Liu XY, et al. Research and application of deep learning in medical image reconstruction and enhancement[J]. Front Comput Intell Syst, 2024, 7(3): 72-6.

[15]" Upadhyay AK, Bhandari AK. Advances in deep learning models for resolving medical image segmentation data scarcity problem: a topical review[J]. Arch Comput Meth Eng, 2024, 31(3): 1701-19.

[16]" Zi Y, Wang Q, Gao ZJ, et al. Research on the application of deep learning in medical image segmentation and 3D reconstruction[J]. Acad J Sci Technol, 2024, 10(2): 8-12.

[17] Ullah F, Ullah I, Khan RU, et al. Conventional to deep ensemble methods for hyperspectral image classification: a comprehensive survey[J]. IEEE J Sel Top Appl Earth Obs Remote Sens, 2024, 17: 3878-916.

[18]" Huang SC, Pareek A, Jensen M, et al. Self-supervised learning for medical image classification: a systematic review and implementation guidelines[J]. NPJ Digit Med, 2023, 6(1): 74.

[19]" Chen XC, Hendrik Pretorius P, Zhou B, et al. Cross-vender, cross-tracer, and cross-protocol deep transfer learning for attenuation map generation of cardiac SPECT[J]. J Nucl Cardiol, 2022, 29(6): 3379-91.

[20] Subramanyam Rallabandi VP, Seetharaman K. Deep learning-based classification of healthy aging controls, mild cognitive impairment and Alzheimer's disease using fusion of MRI?PET imaging[J]. Biomed Signal Process Contr, 2023, 80: 104312.

[21] Park J, Kang SK, Hwang D, et al. Automatic lung cancer segmentation in 18FDG PET/CT using a two?stage deep learning approach[J]. Nucl Med Mol Imaging, 2023, 57(2): 86-93.

[22] de Vries BM, Golla SSV, Zwezerijnen GJC, et al. 3D convolutional neural network?based denoising of low?count whole?body 18F-fluorodeoxyglucose and 89Zr-rituximab PET scans[J]. Diagnostics, 2022, 12(3): 596.

[23] Chen KT, Toueg TN, Koran MEI, et al. True ultra?low?dose amyloid PET/MRI enhanced with deep learning for clinical interpretation[J]. Eur J Nucl Med Mol Imaging, 2021, 48(8): 2416-25.

[24] Cui JN, Gong K, Guo N, et al. PET image denoising using unsupervised deep learning[J]. Eur J Nucl Med Mol Imaging, 2019, 46(13): 2780-9.

[25] Cui JN, Xie YT, Gong K, et al. PET denoising and uncertainty estimation based on NVAE model[C]. 2021 IEEE Nuclear Science Symposium and Medical Imaging Conference (NSS/MIC), Piscataway, NJ, USA. IEEE, 2021: 1-3.

[26]" He YR, Cao SL, Zhang HY, et al. Dynamic PET image denoising with deep learning-based joint filtering[J]. IEEE Access, 1998, 9: 41998-2012.

[27]" Kruzhilov I, Kudin S, Vetoshkin L, et al. Whole-body PET image denoising for reduced acquisition time[EB/OL]. [2024-05-09]. http://arxiv.org/abs/2303.16085.

[28]" Gong K, Johnson K, El Fakhri G, et al. PET image denoising based on denoising diffusion probabilistic model[J]. Eur J Nucl Med Mol Imag, 2024, 51(2): 358-68.

[29]" Sanaat A, Mazandarani HR, Mansouri Z, Amini M, Salimi Y, Shiri I, et al. Computational Efficient Brain PET Image Denoising by Diffusion Probabilistic Models[C]. 2023 IEEE Nuclear Science Symposium, Medical Imaging Conference and International Symposium on Room?Temperature Semiconductor Detectors, 2023. https://ieeexplore.ieee.org/document/10338186

[30]" Xue S, Guo R, Bohn KP, et al. A cross-scanner and cross-tracer deep learning method for the recovery of standard-dose imaging quality from low-dose PET[J]. Eur J Nucl Med Mol Imaging, 2022, 49(6): 1843-56.

[31]" Ultra-Low Dose PET Imaging (UDPET) Challenge 2024[EB/OL].[2024-05-10]. https://ultra-low-dose-pet.grand-challenge.org/.

[32]" Sanaat A, Shiri I, Arabi H, et al. Deep learning-assisted ultra-fast/low-dose whole-body PET/CT imagingEB/OLEur J Nucl Med Mol Imaging, 2021, 48(8): 2405-15.

[33] Diederik P, Max W. Auto?Encoding Variational Bayes[EB/OL].arXiv, 2022. https://doi.org/10.48550/arXiv.1312.6114.

[34]" Chen GY, Liu S, Ding WX, et al. A total-body ultralow-dose PET reconstruction method via image space shuffle U?net and body sampling[J]. IEEE Trans Radiat Plasma Med Sci, 2024, 8(4): 357-65.

(編輯:郎" 朗)

收稿日期:2024-05-28

基金項目:南方醫科大學南方醫院院長基金(2021C012)

作者簡介:賀鈺茹,碩士,工程師,E-mail: hyrbme@163.com

通信作者:路利軍,博士,教授,E-mail: ljlubme@gmail.com

主站蜘蛛池模板: 国产区成人精品视频| 中文一区二区视频| 青草视频在线观看国产| 最新痴汉在线无码AV| 亚洲国产无码有码| 丝袜久久剧情精品国产| 美女无遮挡被啪啪到高潮免费| 国产一区二区网站| 爽爽影院十八禁在线观看| 免费全部高H视频无码无遮掩| 国产欧美亚洲精品第3页在线| 国产杨幂丝袜av在线播放| 天堂av综合网| 久久精品只有这里有| 国产一区二区三区精品久久呦| 精品偷拍一区二区| 国产成人综合在线观看| 亚洲国产日韩在线成人蜜芽| 欧美国产日韩一区二区三区精品影视 | 久久香蕉欧美精品| 亚洲一区二区三区中文字幕5566| 日韩精品毛片| 欧美一区二区三区国产精品| 亚洲综合日韩精品| 狠狠色丁香婷婷综合| 国产福利拍拍拍| 超碰aⅴ人人做人人爽欧美 | 丁香五月婷婷激情基地| 好吊色妇女免费视频免费| 久热中文字幕在线| 福利在线一区| 中文字幕2区| 久久婷婷综合色一区二区| 国产精品成人一区二区| 国产成人精品免费视频大全五级| 亚洲无码视频喷水| 国产精品视屏| 亚洲国产成人久久77| 91伊人国产| 毛片基地美国正在播放亚洲 | 亚洲免费播放| 精品欧美日韩国产日漫一区不卡| a国产精品| 欧美伦理一区| 伊人久久大香线蕉综合影视| 91口爆吞精国产对白第三集| 亚洲高清在线播放| 久久久波多野结衣av一区二区| 欧美一区精品| 欧美精品啪啪| 成人字幕网视频在线观看| 亚洲人成日本在线观看| 黄色三级毛片网站| 精品成人一区二区三区电影 | 一区二区偷拍美女撒尿视频| 日本AⅤ精品一区二区三区日| 久久一色本道亚洲| 伊人久久婷婷五月综合97色| 99re66精品视频在线观看| 狠狠色香婷婷久久亚洲精品| 亚洲啪啪网| 国产一级裸网站| 欧美专区在线观看| 色成人亚洲| 国产亚洲欧美日韩在线一区| 成人伊人色一区二区三区| 欧美一区二区三区欧美日韩亚洲| 一级毛片免费观看久| 91精品国产无线乱码在线| 成人午夜在线播放| 97se亚洲| 久久窝窝国产精品午夜看片| 女人av社区男人的天堂| 99视频只有精品| 亚洲成人黄色在线| 国产精品午夜福利麻豆| 在线观看国产精美视频| 日韩专区欧美| 久久五月视频| 国产剧情一区二区| 91精品免费久久久| 国产精品永久久久久|