999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于殘差密集融合對抗生成網絡的PET-MRI圖像融合

2024-01-27 11:06:36劉尚旺楊荔涵
關鍵詞:融合信息模型

劉尚旺,楊荔涵

(河南師范大學 計算機與信息工程學院;智慧商務與物聯網技術河南工程實驗室,河南 新鄉 453007)

近年來隨著醫學成像技術與計算機科學的發展,醫學影像呈現出越來越多的模態,而單模態醫學圖像所提供的信息有限,不能反映相關組織的所有細節信息.其中正電子發射斷層掃描(positron emission computed tomography,PET)選用正電子核素標記葡萄糖等代謝物作為顯像劑,可以為臨床診斷提供生物代謝信息,但其灰度分辨率較低,常使用偽彩色增強進行標識.核磁共振圖像(magnetic resonance imaging,MRI)雖不包含代謝信息,但其軟組織分辨率高于PET,可以更好地提供解剖學精細信息.因此,通過圖像融合技術融合兩種模態的醫學圖像的信息,實現優勢互補,為醫生提供高質量的臨床診斷依據[1].

在融合過程中,需要將MRI數據中的組織結構信息引入PET中,得到同時具有MRI圖像的空間信息以及PET圖像的代謝信息的融合結果[2],超越單模態醫學圖像的局限,提高圖像在診斷和評估醫學問題上的臨床適用性.

基于深度學習的研究在過去幾年成為圖像融合領域的一個活躍話題.許多基于深度學習的融合方法相繼被提出,并逐漸形成了一個重要的分支.盡管這些方法已經取得了不錯成果,但大部分融合規則的設計仍然是人工的.因此,整個方法不能擺脫傳統融合方法的局限性.利用深度學習進行圖像融合最大障礙是缺失真實標簽數據,直接獲取真實的PET-MRI融合圖像是不可能的,本文只能采用自監督的方式構建邏輯閉環訓練模型,GAN作為最有前景的生成式模型之一,通過生成器與鑒別器的對抗性博弈,能生成和辨別更真實的樣本[3-4].

受此啟發,本文設計了自適應的殘差密集生成對抗網絡(ADRGAN)來實現高質量的兩種模態醫學圖像融合.為了避免顏色失真,首先將RGB通道的PET圖像轉化為YCbCr模式,以分離亮度通道(Y)與顏色通道(Cb,Cr).將Y通道亮度圖像與MRI圖像輸入到ADRGAN進行融合,輸出融合后的亮度圖像Ifused,之后,將Ifused與Cb與Cr分量經過RGB分解的逆變換,生成RGB圖像,隨后與(Cb,Cr)反變換得到RGB通道的輸出結果.生成器中包含了一個自適應決策塊,用于判斷像素是否被聚焦.另外本模型為篩選映射專門設計了與之對應的損失函數,從而約束生成器生成一個與清晰的源圖像一致的融合圖像.本文還建立了生成器和鑒別器之間的對抗博弈從而進一步增強融合圖像的紋理細節.經過連續的對抗學習,融合圖像的梯度映射與PET-MRI聯合梯度映射逐漸相似,融合圖像的紋理細節逐漸清晰.值得一提的是,由于小卷積核的使用以及特征通道的控制,網絡參數被限制在一定范圍內,能夠更快速地完成融合任務.對比以往方法,本模型擁有以下優點:1)提出了一種用于醫學圖像融合的基于聯合梯度的自適應生成對抗網絡,使用端對端框架解決問題,不需要真實數據作為標簽,不需要人為規則設計與后續處理,提高了模型魯棒性.2)使用包含兩幅源圖像特征的聯合梯度圖與融合圖像梯度圖進行對抗博弈,解決了以往生成對抗網絡丟失源圖像特征的問題.3)基于醫學圖像融合對紋理細節的需求,設計了結構性內容損失函數以及對抗性損失函數來保護高頻信息.融合圖像輪廓清晰,更易于尋找病灶.

1 相關工作

傳統醫學圖像融合領域應用最廣泛的技術是像素級融合[5].該技術可分為空間域與變換域兩類.其中,前者融合規則直接作用于像素,規則簡單,但融合效果較差.如,文獻[6]中將圖像轉換為亮度、色度、飽和度(intensity,hue,saturation,IHS)通道,而IHS變換會造成顏色與空間失真[7].基于變換域的圖像融合技術大多采用多尺度變換(multi-scale transform,MST)技術,它分為分解、融合、重構3個過程.源圖像首先變換到頻域根據某種規則進行融合,然后使用融合后的系數與變換基進行圖像重構;其很好地保護了源圖像的細節信息,但忽視了空間一致性,導致融合圖像亮度與顏色失真.傳統融合方法的規則需要人為地設計與選擇,MST中選擇不同的濾波器參數,得到的融合效果差異很大.但是,由于特征提取的多樣性和融合規則的復雜性,人工設計融合方法變得困難,使得模型魯棒性降低.隨著近年來深度學習的崛起,神經網絡被用來解決上述問題.

現有基于深度學習的圖像融合大多使用卷積神經網絡(convolutional neural network,CNN)構建模型.圖像融合領域基于深度學習的研究在過去幾年逐漸活躍[8].學者們相繼提出了眾多融合方法,逐漸形成了一個重要的分支.在一些方法中,深度學習框架被用來以端到端的方式提取圖像特征以進行重建.具有代表性的是,文獻[9]將卷積稀疏表示(CSR)應用于圖像融合,提取多層特征,并利用這些特征生成融合圖像.IFCNN將卷積神經網絡加入變換域圖像融合算法[10];文獻[11]基于稀疏表示和孿生卷積神經網絡提出了用于醫學圖像的融合方法,文獻[12]選擇在傳統圖像融合方案中加入深度學習技術,CNN框架被用于融合低頻系數與高頻系數.Densefuse包括卷積層、融合層密集塊,編碼器負責為網絡提供輸入,網絡得到特征圖后,通過解碼器重建融合圖像[13];文獻[14]通過組合CNN和RNN提取特征,然后融合進行分割[15]首次將生成對抗網絡引入到紅外與可見光圖像融合中.DDcGan構筑了雙鑒別器生成對抗網絡[16];文獻[17]提出通過生成性對抗網絡融合生物圖像;PMGI利用圖像梯度與對比度提取信息,并在同一條路徑上進行特征重用[18].

雖然這些工作取得了很好的效果,但仍然存在一些不足:1)深度學習框架僅用來彌補傳統融合方法的某些缺陷,例如特征提取,整個融合方法的設計仍舊是基于傳統方法的[19-20].2)由于標簽數據的缺失,導致依賴損失函數設計的解決方案不全面.3)基于傳統生成對抗網絡的解決辦法只能使結果與一幅源圖像相似,另一幅源圖像包含的部分信息丟失.

本文設計出一個無監督殘差密集生成對抗網絡ADRGAN來解決上述問題,該網絡基于梯度約束且擁有自適應能力.

2 本文方法

2.1 預處理

將PET圖像作為彩色圖像處理,其顏色可以反映代謝功能.為了使融合圖像擁有與PET圖像相同的顏色信息.對PET圖像進行預處理,將圖像從RGB通道轉換為YCbCr通道,分離色差與亮度,以避免顏色失真.

YCbCr是一個色彩空間.具有紅、綠、藍RGB通道彩色圖像可以轉換為y、Cb和Cr分量,其中y是亮度分量,Cb和Cr分別是藍色和紅色的色差分量.

對Y通道單獨融合可不影響顏色空間中的色彩,可以用來解決色彩畸變問題.YCbCr是處理顏色和知覺一致性的合適近似值,它將相應的紅、綠、藍三原色[21]處理成有意義和可感知的信息,比其他顏色空間更好地保留了亮度分量的詳細信息[22].這種變換可以用于多傳感器圖像的融合.YCbCr與RGB變換過程公式化如下:

(1)

逆變換方程

(2)

經過變換后的圖像融合迭代,只需要處理MRI圖像和PET圖像中Y通道分量的灰度信息.

2.2 網絡架構

為了避免圖像融合過程中空間信息的丟失,保護MRI與PET圖像所具有的空紋理結構,本文提出了基于生成對抗網絡的ADRGAN架構.下面詳細介紹生成對抗網絡以及ADRGAN的總覽、生成器、鑒別器和區域殘差學習模塊.

2.2.1生成對抗網絡

生成對抗網絡(generative adversarial network,GAN)是古德費羅等人提出的一種創新的生成模式[23],它可以在不依賴任何先驗假設的情況下估計目標分布,并生成與其匹配的數據.基于此特性,GAN被廣泛應用于各種視覺任務,包括圖像融合[24],并取得了良好的性能.GAN通過同時訓練兩個模型(生成模型G和鑒別器模型D[25])的對抗過程來估計生成模型.

G生成器捕獲分布式數據,并將其發送到生成網絡,生成新的樣本.新樣本可表示為x=G(Z),其中Z代表了從數據空間中采集的噪聲,其作為生成器的輸入.由于生成網絡多樣性,樣本形成的概率分布Pg(X)可以很復雜.對于雙輸入,G的訓練目標是使PG(x,y)和Pdata(x,y)盡可能接近,優化公式

(3)

其中,Var()代表了兩個分布之間的差異,然而由于其他項都是未知的,無法計算差異值.這時,就需要鑒別器G來解決這個問題,因為他的樣本標簽來自輸入圖像而不是G,D的目標函數

(4)

其中,

V(G,D)=Ex,y~Pdata(x,y)[lgD(x,y)]+Ex,y~PG(x,y)[lg(1-D(x,y))].

(5)

目標值越大,Jensen-Shannon發散度越大,鑒別器越容易區分出真假數據.因此,G的最優化公式可以進一步轉換

(6)

在訓練對抗生成網絡時時,G和D的對抗過程就是一個最大-最小博弈.G生成不斷接近于源圖像的假數據用來迷惑D,D被一直訓練從而更好地辨別真假數據.在訓練過程中,區分虛假數據和真實數據變得越來越困難.直到鑒別器無法分辨真假數據.此時,形成的生成器是所需的生成器,生成的數據可以視為實際數據.

2.2.2網絡總體架構

ADRGAN架構可以將PET 圖像的低分辨率Y分量(PET_Y)與具有更高空間分辨率的灰度圖像MRI融合,獲得包括豐富的結構信息和更高的空間分辨率的融合圖像.為了同時保存高分辨率圖像的紋理與細節信息以及低分辨率圖像的結構信息,模型使用調整損失函數的機制來進行預測結果的優化.并且,圖像融合任務會出現平滑效果從而損失圖像的細節,而細節的缺失在醫學圖像中是不能接受的.基于以上考慮,本文設計了一個基于聯合梯度約束的自適應生成性對抗網絡,它的總體架構如圖1所示.

網絡的自適應來源于如圖1所示的決策塊.它可以引導融合結果逼近源圖像的亮度與梯度分布.其原理是評估每個像素的清晰度,從而生成一個具有有效信息位置的篩選圖.區別于傳統深度學習的固定損失函數,模型使用篩選圖動態構造損失函數.在優化過程中,只有那些被判決塊判定為有效的像素才能參與損失函數計算.

為了在自適應的基礎上增強圖像的紋理細節,基于梯度圖在生成器與鑒別器之間建立對抗性博弈.首先,使用拉普拉斯算子(·)與maximum原則計算兩幅輸入圖像的聯合梯度圖,鑒別器會將聯合梯度圖定義為真實數據,與被定義為偽數據的融合圖像梯度圖進行持續性的對抗學習.因此,可以獲得含有更多紋理細節的高質量圖像.因此,GAN的目標函數

(7)

2.2.3生成器架構

生成器的結構,如圖2所示.

模型將MRI與PET_Y分成兩條路徑分別處理.在基于CNN的網絡中簡單的每條路徑都使用了3個卷積層與一個LRLP來提取特征,其中LRLP模塊會在2.2.4中詳細介紹.在準備模塊中,第一卷積層用來提取淺特征Fpre.

Fpre=Hconv(I),

(8)

其中,Hconv表示淺特征提取層中卷積核為5×5的卷積運算.隨后將提取出的淺特征送入提取模塊的LRLP層中,LRLP層的輸出可以通過

F1=HLRLP(Fpre),

(9)

得到,其中HLRLP是LRLR層運算的復合函數;F1是充分利用塊內每一層卷積產生的,可以將其視作局部特征.之后進一步卷積實現深層特征提取,為了避免卷積過程中丟失特征,基于殘差連接的思想,在隨后的卷積層中,輸入都是之前所有層以及RDB模塊的輸出級聯.同時,為了將多層次的信息充分融合,在兩條路徑之間也設置了參數共享.第三層輸出

F2=Hconv(HRL(λ1·Fpre,λ2·F1)),

(10)

其中,HRL代表殘差連接;λ為殘差融合時的權重.第四層與第三層同理,其輸入基于前三層的輸出級聯.第四層輸出

F3=Hconv(HLR[λ1Fpre,λ2F1,λ3F2]),

(11)

其中,Hconcat代表了特征圖拼接運算.提取模塊最后一層被設置為特征圖拼接后加入1×1的卷積,輸出公式

Fext=Hconv(Hconcat(W(Fpre,F1,F2,F3))),

(12)

其中,W為融合提取模塊前四層的權重矩陣.之后兩條路徑的輸出Fext,1,Fext,2進入融合模塊,經過融合運算后,最終融合圖像,如式(13)所示:

Ifuse=Hfuse(Fext,1,Fext,2),

(13)

其中,Hfuse代表融合模塊的復合運算.

2.2.4鑒別器架構

鑒別器的結構,如圖3所示.其輸入有兩個來源,輸入的兩張圖像通過拉普拉斯算子計算梯度圖,隨后經過maximum函數得到的聯合梯度圖以及融合圖像通過拉普拉斯算子計算得來的梯度圖作為鑒別器的兩個輸入.4個卷積層與一個線性層組成了模型的鑒別器.卷積層的卷積核大小均設置為3×3,步長設置為4,使用relu作為激活函數.最后一層是線性層,用來計算概率,從而判斷生成數據的真假.

2.2.5區域殘差學習模塊(LRLP)

在卷積神經網絡的前向傳輸過程中,隨著網絡深度加大,卷積得到的特征圖蘊含信息會逐漸減少,該結論可以由DPI(數據處理不等式)證明.為了解決上述問題,本文使用了區域殘差學習模塊,通過不同層之間信息的直接映射,盡可能保存每一層蘊含的特征.其中LRLP架構如圖2所示.假設LRLP有c個卷積層,那么它的最終輸出,如下,

F=Hactive(W(Hconcat[F1,F2,…,Fc])),

(14)

其中,Hactive表示對拼接后的數據進行ELU激活;W是一組代表了拼接時各卷積層權重的聯合函數;Hconcat代表了特征圖的拼接函數;Fc為第c個卷積層的輸出.在LRLP塊中,前面每一層的輸出都作為下一層的輸入,既保留了前饋特性,又提高了對輸入數據的利用程度.

2.3 損失函數

為了在GAN中實現對抗性學習,本文提出了一組可區分的半監督損失函數.其中包括生成器的損失函數與鑒別器的損失函數.

2.3.1生成器損失

生成器的損失函數基于對抗性損失,像素級歐幾里得損失以及紋理損失,損失函數

ζ=ζGan+λ1ζpixel+λ2ζtexture,

(15)

其中,ζGan是來自生成器-鑒別器網絡的對抗性損失;ζpixel是利用篩選圖優化的像素級歐幾里得損失;ζtexture表示基于梯度圖的紋理損失;λ1和λ2分別是像素級損失和紋理損失的權重,用來保證3種損失函數重要性相同.

2.3.2對抗性損失

為了生成器生成的圖像更加接近于理想的融合圖像,需要在生成器與鑒別器之間建立損失.傳統的對抗損失將最大-最小問題簡化為lg(1-D(G(1))),但訓練開始階段,lg (1-D(1))就可能飽和,所以使用D(G(1))最大化來訓練生成器網絡.為了提供更強的梯度,在最大化操作基礎上加入了平方操作.ζGan定義如下,

(16)

其中,M是訓練期間一個batch的圖像數量;c是鑒別器鑒定真假圖像的概率標簽;本模型取表示使用拉普拉斯算子來進行梯度圖的計算;M,Y表示輸入的MRI圖像與PET圖像Y通道.

2.3.3像素級歐幾里得損失

模型利用融合圖像與原圖像像素之間的歐幾里得距離來約束融合圖像與原圖像在清晰區域的強度分布.

(17)

其中,h,w表示第h行第w列的像素值;H,W分別是圖像的高度與寬度;Map1,Map2代表了判決塊基于兩個輸入圖像所產生的篩選圖.

2.3.4紋理損失

圖像的梯度可以部分表征紋理細節,對比尖銳的MRI圖像更是如此,因此要求融合圖像與輸入圖像具有相似的梯度.結合篩選圖,紋理損失可以公式化如下,

(18)

2.3.5鑒別器損失

不僅生成器需要損失函數優化融合圖像的質量,鑒別器也需要損失函數準確地識別出融合圖像的真假.本文為鑒別器設計了基于梯度圖的損失函數,其中“假數據”是融合圖像的梯度圖,可以公式化為

Gradfused=abs(G(W,Y)).

(19)

鑒別器需要的“真數據”來自MRI與PET_y構造的聯合梯度圖,公式化為式(20)所示:

Gradunion=maximum(abs(M),abs(Y)),

(20)

其中,abs表示絕對值函數;maximum代表了最大化函數.

基于以上兩個梯度圖,損失函數

(21)

其中,a為“假數據”的標簽,設置為0;b為“真數據”的標簽,設置為1.從而使鑒別器將圖像的聯合梯度圖視為真數據,融合圖像的梯度圖視為假數據.此約束可以引導生成器基于Gradunion來調整Gradfused,在對抗中增強融合圖像的紋理.

3 實驗結果與分析

在本節,為了驗證ADRGAN對于PET-MRI圖像融合的優越性和魯棒性,本文基于公開數據集將其與現有的5種方法進行定性與定量比較.

3.1 訓練細節

本實驗所使用的PET,MRI圖像來自哈佛大學醫學院網站的公開數據集(http://www.med.harvard.edu/AANLIB/home.html).其中,MRI圖像為大小256×256的單通道圖像;PET圖像為大小256×256×3的偽彩色圖像.需注意的是,本模型不需要標簽數據.

根據對抗性過程迭代地訓練生成器和鑒別器.批處理大小設置為b,訓練一個迭代需要k步驟.鑒別器訓練數與生成器訓練數之比為p,共訓練M次.在實驗中,經過多次試驗得到:設置b=32,p=2,M=300,ADRGAN中的參數由AdamOptimizer更新.為使GAN的訓練更加穩定,對損失項參數使用軟標簽:對于應該設置為1的標簽,將其設置為從0.7到1.2的隨機數.

圖像經過預處理從RGB通道到YCbCr顏色空間.因為Y通道(亮度通道)可以表示結構細節和亮度變化,只需要融合Y通道.使用基于顏色空間方法融合Cb和Cr通道.然后將融合分量逆變換為RGB通道.本模型的實驗環境為:Windows 10,CPU AMD R5 5600X,內存16 G GPU RTX-3060(6 G).軟件環境為Python 3.7.6和Pytorch 1.10.0.數據集的訓練集,驗證集和測試集按照7∶2∶1劃分.

3.2 定量評價指標

本文使用5個評價指標客觀評價本方法與對比方法,5種指標分別為Qabf,Qcv,PSNR,SSIM以及RMSE.

Qabf算法使用局部度量來估計融合圖像中輸入的重要信息的性能.Qabf值越高,融合圖像的質量越好,

(22)

其中,W用來劃分局部區域;λ(w)代表局部區域權值;A,B,F分別是兩個輸入圖像與融合圖像.

Qcv通過計算融合后的區域圖像和源區域圖像的加權差圖像的均方誤差,得到局部區域圖像的質量.最后,融合后的圖像質量是局部區域圖像質量測度的加權和[26].公式化如下,

(23)

其中,D為局部區域相似性度量函數.

波峰信噪比(PSNR)是融合圖像中波峰功率與噪聲功率的比值,反映了融合圖像的失真情況.計算方法如式(24)~(27)所示:

(24)

(25)

(26)

(27)

其中,MSE為均方誤差,表示圖像中i行j列的像素;r表示融合圖像的峰值,峰值信噪比越大,融合圖像越接近源圖像.

結構相似度(SSIM)用來模擬圖像的丟失和失真.該指數由3部分組成,分別是相關損失、對比損失和亮度損失.這3個分量的乘積是融合圖像的評估結果,定義如下:

(28)

其中,x和f分別表示源圖像與融合圖像中的一塊;σxf為兩個塊之間的協方差;σx,σf表示標準差(SD);ux,uy表示兩個塊之間的平均值.另外加入C1,C2,C3使損失函數更穩定.

均方根誤差(RMSE)基于MSE,通過計算源圖像和結果圖像的均方誤差,完成對源圖像與融合圖像之間差異的定量化描述.計算如下,

(29)

3.3 定量與定性對比結果

為了驗證本模型對于PET-MRI圖像融合的效果并驗證其魯棒性.實驗選取了DDcGan,Densefuse,GCF,IFCNN,PMGI等5種方法與本文方法比較.以上方法均在以往的醫學圖像融合中取得了很好的效果.

6種相關方法的視覺實驗效果,如圖S1(見附錄)所示.其中,DDcGan的結果(第3列)存在顏色失真的問題,且邊緣較本模型模糊;Densefuse(第4列)損失了PET圖像中顏色的強度,損失部分功能信息,加大尋找病灶的難度;GCF(第5列)顏色保存較好,但多幅圖像出現大面積噪聲塊,結構信息直接丟失,其信息丟失會誤導臨床判斷,魯棒性差.IFCNN(第6列)在邊界線附近會模糊損失細節,紋理密集處不夠清晰;PMGI(第7列)在融合時,雖然顏色強度高,功能信息保存完整,但背景虛化,高頻信息丟失,無紋理細節.本文方法的融合圖像無以上問題,結構與功能信息保存完好,細節清晰且對比度高.尤其邊緣處對比明顯,紋理密集處細節清晰,包含足以滿足臨床診斷所需圖像信息.由于這些方法大多嘗試通過直接的目標增強和梯度來銳化邊緣,因此融合后的圖像的自然性和真實度差異仍然很大.此外,幾乎所有這些方法都依賴于大型數據集.而本文提出的結構性內容損失函數以及對抗性損失函數分別來保護高頻信息和內容信息,通過分別的非線性損失約束提升融合圖像的效果.僅僅用人眼的主觀感覺定性評估融合效果具有很大局限性,為了客觀驗證本文方法的優越性,本文選擇客觀評價方式對本模型實驗結果進行定量評估,其結果如表1所示.

表1 定量化對比表Tab. 1 Quantitative comparison table

可以看出,本文方法在5個指標上均分別優于其余5個對比方法.Qcv指標基于人體視覺系統(HVS)與區域均方誤差,得益于自適應模塊,模型可以自適應地判斷像素權重,從而提高區域相似度.本方法相比于DDcGan降低了20.7%,證明了在人眼感知意義上強于其余方法且區域相似度更高;對抗性博弈使模型擁有優秀的去噪能力,從而使PSNR提升,證明相比于其他方法,本模型噪聲更少,干擾信息少;SSIM指標傾向于對結構信息的驗證,與最優異的IFCNN相比增加了11.4%,該指標更高說明本文方法紋理結構保存完整,模糊區域少,其中PMGI結構相似性僅為本方法的21.0%,結構保存差,與定性對比結果;模型采用低像素尺度控制策略,像素之間歐幾里得距離控制良好,像素級融合指標Q(A,B,F)更高,視覺信息完善,融合圖像與源圖像像素層面差距小;同時更小的RMSE表明本模型融合后的圖像具有更少的誤差和失真.

4 結 論

本文通過構造自適應的殘差密集生成對抗網絡(ADRGAN),結合基于YCbCr的顏色空間方法,提出了一種新的基于聯合梯度圖像融合方法.(1)采用區域殘差學習模塊與輸出級聯加深生成網絡;(2)設計自適應判決塊動態引導生成器產生與源圖像分布相同的融合圖像;(3)在融合圖像梯度圖與輸入圖像聯合梯度圖之間進行對抗性博弈,從而得到細節豐富且紋理清晰的融合圖像.該算法不需要真實數據作為標簽進行訓練,可以在不引入傳統框架的情況下融合不同分辨率的圖像.此外,為了進一步增強融合結果的邊緣銳度,引入了自適應的對抗性損失函數.經過測試,本文提出的方法在哈佛醫學院MRI/PET數據集的測試中達到PSNR=55.212 4,SSIM=0.469 7,RMSE=0.196 8,Qabf=0.363 5和Qcv=2 009.348,均優于目前最先進的算法,且圖像具有更多的細節及內容信息更有助于臨床應用診斷.在此基礎上,未來將針對使用注意力機制更好的過濾和融合高維特征進行更深入研究,致力于提供更高質量的融合模型.

附錄見電子版(DOI:10.16366/j.cnki.1000-2367.2022.08.11.0003).

猜你喜歡
融合信息模型
一半模型
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
重要模型『一線三等角』
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
重尾非線性自回歸模型自加權M-估計的漸近分布
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
主站蜘蛛池模板: 成人综合在线观看| 无码AV动漫| 重口调教一区二区视频| 国产原创演绎剧情有字幕的| 激情影院内射美女| 另类综合视频| 天天综合天天综合| 久久亚洲国产最新网站| 久久综合五月| 91娇喘视频| 国产自无码视频在线观看| 久久香蕉国产线看观看亚洲片| 在线视频亚洲欧美| 免费观看男人免费桶女人视频| 亚洲中文制服丝袜欧美精品| 色综合久久久久8天国| 国产91丝袜| a级毛片免费网站| 日韩在线网址| 中文字幕色在线| 国产XXXX做受性欧美88| 高潮爽到爆的喷水女主播视频 | 色有码无码视频| 国产高清在线精品一区二区三区| 露脸真实国语乱在线观看| 无码电影在线观看| 久久久久久高潮白浆| 久久久久人妻一区精品色奶水| 国产人人乐人人爱| 中文字幕佐山爱一区二区免费| 亚洲精品日产精品乱码不卡| 97se亚洲综合在线韩国专区福利| 欧美精品在线视频观看| 伊人久久久久久久久久| 亚洲av色吊丝无码| 91福利免费视频| 国产高颜值露脸在线观看| 99国产精品国产| 欧美日本二区| 伊人狠狠丁香婷婷综合色| 日韩在线2020专区| 日韩二区三区| 99热这里只有精品在线播放| 久久综合干| 国产高清精品在线91| 亚洲欧美在线精品一区二区| 日本免费一区视频| 亚洲AV成人一区国产精品| 制服丝袜国产精品| jizz国产在线| 深夜福利视频一区二区| 99人妻碰碰碰久久久久禁片| 成人在线观看不卡| 一本一道波多野结衣av黑人在线| 在线视频亚洲色图| 激情爆乳一区二区| 婷婷伊人五月| 激情六月丁香婷婷| 久爱午夜精品免费视频| 亚洲欧美成人在线视频| 欧美区日韩区| 日韩欧美在线观看| 538国产在线| 国产av剧情无码精品色午夜| 毛片大全免费观看| 国产本道久久一区二区三区| 伊人激情综合网| 992tv国产人成在线观看| 六月婷婷精品视频在线观看| 欧美视频在线不卡| 亚洲αv毛片| 国产精品99久久久久久董美香| 日韩久久精品无码aV| 日日碰狠狠添天天爽| 99草精品视频| 1024你懂的国产精品| 少妇被粗大的猛烈进出免费视频| 国产丝袜精品| 爱做久久久久久| 亚洲九九视频| 伊伊人成亚洲综合人网7777| 欧美日韩第二页|