999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

用于醫學圖像分割的多層特征交叉融合網絡研究

2025-07-06 00:00:00劉玉何立風朱紛張夢穎
陜西科技大學學報 2025年3期
關鍵詞:特征融合實驗

Abstract:To address the deficiencies of the U-shaped architecture in medical image segmentation tasks,such as significant feature discrepancies between the encoder and decoder,shallow feature loss,and insufficient learning of abstract features,we designed a Multi-layer Feature Cross-Fusion Network (MFCF-Net). Firstly,a deep attention aggregation module was crafted,utilizing depth-wise separable convolutions to extract features at multiple scales and employing a hybrid attention mechanism to suppress background interference.Secondly,a multiscale rapid fusion module was designed to integrate the multi-scale feature information extracted by various pooling strategies to enrich the abstract features of the deep network. Finally,the detailed information of the deep network is supplemented by the encoding branch. Experimental results on the NIH dataset,ISIC2Ol7 dataset,and ISIC2Ol8: dataset showed that the segmentation performance of MFCF-Net is better than that of other advanced networks,especially on the NIH dataset,the DSC reaches O.883 7 and IoU reaches 0.999 2.

Key words:medical image segmentation;U-shaped structure;multi-scale fusion;attention mechanism;Convolutional Neural Network

0 引言

計算機輔助技術在臨床診斷領域的應用極為廣泛且深遠,它不僅為醫生提供了強有力的工具以精準判斷病情,還極大地輔助了治療方案的制定與實施,從而顯著提升了醫療服務的效率與質量.隨著醫學影像設備的不斷發展,醫學成像已經成為輔助醫生診斷的一個關鍵工具1.根據統計,圖像數據在臨床數據中所占比例高達 80% ,這意味著充分挖掘醫學圖像信息對臨床智能診斷、決策支持以及疾病預防起到至關重要的作用.在眾多應用中,醫學圖像分割任務在醫學圖像定量分析領域至關重要,其目的是將關鍵目標信息以機器視覺技術從醫學圖像中準確提取出來[2].

由于人體結構的復雜性和醫學成像技術的原理多樣性,傳統的醫學圖像處理方法(例如基于邊界信息、閾值、區域生長等)[3.4]存在部分局限性,往往因多種因素的變化而波動,其分割結果易受影響,魯棒性較低,難以應對復雜多變的醫學圖像挑戰.隨著計算機技術及硬件性能的快速發展,基于深度學習的醫學圖像分割算法應運而生,并迅速得到了廣泛應用[56].這些基于深度學習的方法憑借其展現出的強大的計算能力和高效的數據處理能力,已經成為該領域的主流方法,極大的解決了醫學圖像分割方面的問題.由Ronneberger等7提出的U-Net語義分割使得深度學習方法備受關注并取得了巨大進展.該方法實現了端到端的圖像分割,在生物醫學圖像處理中表現出色.此后研究人員設計了多種基于U型結構的卷積神經網絡,專門用于處理醫學圖像分割任務.

Oktay等8在跳躍連接操作之間加入新型注意力門,將編碼器特征通過注意力門后與解碼器特征進行融合,從而提升了醫學圖像分割任務的效果,但同時也增加了模型的計算復雜度還可能會增加模型過擬合的風險,影響模型的泛化能力.Wang等[9]提出的基于雙輸人的V-mesh-Net,采用基于對比度的圖形視覺顯著算法對圖像進行對比度加強作為網絡的第二個輸入,再通過密集連接的方式加強編解碼器之間的語義聯系級別,提高分割精度.但該方法高度依賴于圖像預處理步驟,雙輸入和密集連接的設計使得模型結構更加復雜,增加了模型訓練的難度.

Guo等1°提出了SA-UNet,在U-Net中加人了空間注意力模塊,幫助網絡集中在重要區域,抑制不必要區域特征.DenseSUNet是Tang等]在SA-UNet的基礎上提出,其使用了通道注意力機制和空間注意力機制,以提高對圖像目標區域的關注度和精度.Qiu等[12通過引入級聯結構和多尺度特征校準,旨在提高模型對不同尺度特征的捕捉能力,從而提升分割精度.然而,這種設計的復雜性也帶來了計算資源消耗大和參數調優復雜的問題.Shen等[13]結合HarDNet模塊和多編碼注意力機制模塊,對編碼和解碼兩個階段進行優化,提高模型的分割性能.然而,這種結合也導致了模型復雜度的顯著增加,進而影響了訓練效率和推理速度.Ji等[14提出了ResDAC-Net,設計了一個殘差的雙非對稱卷積模塊突出胰腺重要特征維度的同時也增加了模型的復雜性.Lei等[15]提出了SGU-Net,提出了一種能夠實現雙可分離卷積的超輕卷積,不僅有效減少了參數數量,而且極大的增強網絡魯棒性.但超輕卷積的使用在處理具有復雜特征的醫學圖像時可能會限制模型的特征提取能力.

基于上述分析,在醫學圖像分割領域,U-Net通過引入跳躍連接操作有效地保留了輸入圖像的關鍵空間特征,顯著增強了模型對圖像細節的捕捉能力.然而,隨著編碼器層級的增加,網絡深度的增長雖然增強了深層特征提取能力,卻導致解碼階段因路徑過長丟失淺層語義信息的問題.這限制了模型對小目標特征的提取能力,并導致深層抽象特征學習變得單一.針對U型網絡進行醫學圖像分割時存在的這些問題,本文設計了一種多層特征交叉融合的醫學圖像分割網絡(Multi-LayerFeatureCross-FusionNetwork,MFCF-Net).本文的主要貢獻如下:

(1)設計了深度注意力聚合模塊(DeepAttentionAggregation Module,DAAM),該模塊采用可分離卷積混合模塊(Depth-WiseConvolutionMixModule,DWConvMix)進行分層特征提取,并結合注意力機制來聚焦目標特征、抑制背景干擾.

(2)設計了多尺度特征快速融合模塊(RapidFusionofMulti-ScaleFeaturesModule,RFMF),該模塊能夠逐層融合來自不同池化策略提取的多尺度特征,來加強網絡深層細節信息并豐富網絡深層抽象特征.

(3)設計了一條并行的多尺度編碼支路,通過殘差旋結構將淺層信息融人到深層,以彌補丟失的細節信息.

(4)在NIH數據集、ISIC2017數據集和ISIC2018數據集上進行實驗分析,并與其他先進的分割網絡進行對比,證明了MFCF-Net在醫學圖像分割上的有效性.

1實驗方法

1.1 整體結構

為了克服U型網絡進行醫學圖像分割時存在的編解碼器特征差異大、淺層特征丟失、抽象特征學習不足等問題,本文設計了MFCF-Net,通過優化網絡結構提高圖像分割精度,整體網絡結構如圖1(a)所示.

MFCF-Net由編碼器、解碼器、編碼支路、DAAM模塊、RFMF模塊組成.首先,在編碼階段該網絡采用兩條支路并行策略:編碼器主路和多尺度編碼支路.編碼器主路使用連續卷積進行特征提取,而多尺度編碼支路采用殘差旋結構將編碼器主路第一層卷積的輸出經過最大池化后送人RFMF模塊中進行特征學習,殘差旋結構如圖1(b)所示.

其次,在編解碼器之間的跳躍連接引入了DAAM模塊,該模塊包括DWConvMix和混合注意力兩個部分.DWConvMix完成對多尺度深度可分離卷積特征圖的融合,弱化編碼器低級細節信息來縮小與解碼器高級抽象特征之間的語義跨度,同時還可以減少編解碼器之間的特征差異,增加兩者的兼容性,降低網絡卷積的參數量.混合注意力機制則在通道和空間上強化關鍵特征、抑制無關背景噪聲信息.因此,經過DAAM模塊輸出的特征圖與解碼器特征圖融合效果更佳.然后,RFMF模塊利用多尺度的金字塔池化來學習深層抽象特征,并在多尺度編碼支路和網絡瓶頸處發揮作用,分別起到補充網絡深層細粒度特征和擴充深層抽象特征表達的作用.同時金字塔的并行策略能加速特征融合,提高融合速度.最后,解碼器通過融合上采樣恢復的特征和DAAM模塊提供的特征信息補充,得到最終的分割結果,從而提高網絡分割精度.

圖1 MFCF-Net網絡具體流程

1.2 DAAM模塊

為了減小U型網絡編解碼器之間的語義特征差異、增強跳躍連接融合效果、抑制淺層特征的背景干擾,本文設計了DAAM模塊,通過采用DWConvMix和混合注意力機制,可以實現分層提取多尺度特征,從而豐富細節信息并聚焦于目標器官,同時抑制噪聲和背景干擾.具體結構如圖2所示.

圖2 DAAM模塊結構圖

DAAM模塊由DWConvMix和混合注意力機制兩部分組成.DWConvMix是一個使用深度可分離卷積進行特征學習的輕量級模塊,其結構如圖3所示.深度可分離卷積通過將標準的 d×d 卷積分解為 1×d 和 d×1 卷積,在保證效果的同時減少參數量.在DWConvMix中,深度可分離卷積被用于提取多尺度特征,其輕量級特性不但可以減少編解碼階段特征的語義跨越度,同時增強了網絡對極大或極小器官的特征提取能力,有效緩解尺度變化對特征提取帶來的影響.

DAAM的輸入為 f(i) ,經過DWConvMix后得到輸出特征 DW(i) .然后將 DW(i) 通過混合注意力機制分別得到 fC(i) 和 fs(i) ,抑制無關信息的干擾并將更多權重分配給感興趣區域,具體過程用公式(1)、(2)、(3)表示:

DW(i)=DWConvMix(f(i))

fc(i)=Mc(DW(i))?DW(i)

fs(i)=Ms(fc(i))?fc(i)

式(1)中: DW(i) 表示生成的可分離卷積混合特征圖, DWConvMix(???) 表示通過DWConvMix進行特征提取, f(i) 表示輸入特征圖, ⑧ 代表元素乘法;式(2)中: fC(i) 表示生成的通道注意力特征圖, Mc(?) 表示通道注意力機制;式(3)中: fs(i) 表示生成的空間注意力特征圖, Ms(?,) 表示空間注意力機制.

圖3 DWConvMix模塊結構圖

通過殘差結構引入輸入 f(i) 及 DW(i) ,可以補充卷積層和池化層丟失的特征,最終輸出 fD(i) 是通過卷積等操作得到的,具體過程用公式(4)、(5)表示:

fD(i)=conv1×1(Concat(DW(i),fr(i)))

式(4)中: 表示生成的混合注意力特征圖, Concat(?) 表示通道拼接操作, conv3×3(α?α) 表示 3×3 卷積操作, fs(i) 表示空間注意力特征圖;式(5)中: 表示生成的注意力聚合特征圖,conv1×1(??) 表示 1×1 卷積操作, DW(i) 表示可分離卷積混合特征圖.

在DWConvMix模塊中分兩路進行編碼,第一路通過 3×3 卷積后進人階梯狀的類Inception結構進行特征學習,每層階梯采用 1×d 和 d×1 的深度可分離卷積(其中 d=7,5,3,1) .每經過一次卷積,都會進行BN、ReLU處理,逐層深人并保留多尺度特征,按階梯向下拼接融合多尺度特征.第二路采用最大池化操作捕獲全局特征后,與第一路經過深度處理后的輸出特征進行融合,這樣不僅增強了對編碼階段特征的深層學習能力,還保留了淺層特征中的細節信息.

1.3 RFMF模塊

在MFCF-Net中,為了解決U型結構網絡淺層特征圖細粒度信息豐富但語義信息低級的問題、深層特征圖像素點含義豐富但缺少空間幾何特征導致深層網絡對幾何信息的表征能力不足的問題以及為了加速網絡整體運行速率,設計了RFMF模塊.

RFMF模塊可視為三個階段(池化、卷積、融合),整體設計為并行結構,其目的是為了加快數據處理速度,最終提升網絡整體效率.該模塊在網絡中有兩個不同的應用位置:一是在解碼階段之前記為RFMF1,用來學習深層抽象特征;二是在編碼支路中記為RFMF2,為后續網絡操作提供豐富的淺層語義信息.

首先,在池化階段根據使用位置采用了適合各自功能的池化策略,具體來說,RFMF1采用平均池化用于深層特征學習,因為在這一階段,感受野重疊區域較大,一個像素表示一個區域內信息或相鄰區域間的特征信息.如果采用最大池化會丟失大量高級語義信息,因此采用平均池化來保留這些信息.而RFMF2用于淺層信息提取,在這里采用最大池化可以降低維度并去掉冗余信息.如果采用平均池化則會引入背景信息影響分割效果,因此采用最大池化.其次,卷積和融合階段采用輕量化卷積和下采樣的多種并行組合策略來加速網絡特征的融合,同時減少硬件資源的消耗.

RFMF1模塊的結構如圖4所示,該模塊接收一個尺寸為 h×ν×c 的特征圖作為輸人.首先進行池化操作,分別用 8×8.4×4.2×2.1×1 四種尺寸的濾波核進行平均池化,得到輸人尺寸為 1/8 、1/4.1/2 以及原尺寸大小的四個特征圖.將這些特征圖通過 1×1 的輕量化卷積等操作后,轉換為四個通道為C的特征圖,依次記為 l(1),l(2),l(3),l (4).然后進行融合操作:首先將(1)上采樣后與 ξl (2)融合得到 l(1) ,然后將 l(1) 上采樣和卷積后與(3)融合得到 l(2) ,之后將 l(2) 與上采樣后的l(1) 進行通道拼接得到 l(3) ,再將 l(3) 與上采樣和卷積后的(4)融合得到 l(4) ,最后將 l(4) 與上采樣后的 l(3) 進行通道拼接得到 l(5) ,并通過卷積操作輸出最終結果為 h×CO×C 的特征圖.

RFMF2模塊的融合操作同RFMF1相似,區別在于其采用最大池化,并且濾波核大小分別為16×16.8×8.4×4.2×2

圖4 RFMF1模塊結構圖

2 實驗結果與分析

2.1 數據集

實驗所使用的數據集為NIH胰腺圖像數據集、ISIC2017皮膚圖像數據集和ISIC2018皮膚圖像數據集.NIH數據集進行預處理后共計11177張圖像,其中原始圖像有7059張,數據增廣得到的有4118張圖像,在數據集劃分上,訓練集總數的 60% ,驗證集與測試集各占 20% .ISIC2017數據集包括2000張訓練圖像、150張驗證圖像以及600張測試圖像,而ISIC2018數據集包括2594張訓練圖像、100張驗證圖像以及1000張測試圖像.

2.2實驗環境及參數設置

實驗在Pytorch1.13.O深度學習框架下進行、GPU為 NVIDA GeForceRTX 3090、CPU為Intel(R)CORE(TM)i7-12700K、顯存為24GB、操作系統為64位的Windowsl0系統.實驗所使用超參數如表1所示.

表1MFCF-Net實驗超參數設置

2.3 評價指標

本文采用醫學圖像分割中常用的三種評價指標:DSC相似系數(Dice Similarity Coeffici-ent,DSC)、交并比(Intersection overUnion,IoU)、準確率(Accuracy,ACC),這三者的值所屬范圍均為[0,1].DSC和IoU是用于衡量兩個集合之間相似度的評價指標,在圖像分割領域用來衡量網絡預測結果和真值區域之間的相似性.Dice相似系數越高,說明預測區域與真值區域邊緣擬合越好,分割效果越佳.計算公式如公式(6)所示:

式(6)中:A表示預測區域;B表示真值區域.

IoU計算方法如公式(7)所示:

式(7)中:A表示預測區域;B表示真值區域

ACC是指網絡正確分類樣本數在總樣本數中的占比,用來評價網絡整體分類性能的好壞,其數值越高,說明總體像素分類正確的情況越好.ACC的計算方法如公式(8)所示:

式(8)中:TP表示標簽與預測結果均為正值的像素;TN表示標簽為負而預測結果為負的像素;FP表示標簽為負而預測結果為正的像素;FN表示標簽為正而預測結果為負的像素.

2.4 實驗結果分析

為驗證MFCF-Net的有效性和準確性,本文在NIH數據集、ISIC2017數據集和ISIC2018數據集三個數據集上進行實驗,并與其他先進的分割網絡進行對比.

2.4.1NIH數據集上的對比結果

在相同的實驗條件下將MFCF-Net同U-Net、AttentionU-Net、V-mesh-Net、ResDAC-Net等先進網絡在NIH數據集上進行實驗對比,定量結果如表2所示,可視化結果如圖5所示.MFCF-Net在DSC上達到了0.8837、在IoU上達到了

0.7745、在ACC上達到了0.9992,這些指標表現優于其他對比網絡,其中加粗字體表示實驗的最佳結果.

與基礎U-Net相比,MFCF-Net在DSC上提升了0.0612、在IoU上提升了0.0375,證明了對U-Net結構缺陷的改進是有效的.即使與對比方法中表現較好的V-mesh-Net、ResDAC-Net、RTU-Net、SCPMan等相比,MFCF-Net在DSC和IoU上均有進一步的提升,證明了其分割的有效性和準確性.由此可以看出,MFCF-Net在NIH數據集分割任務中取得了更高的精確性.

表2NIH數據集對比實驗結果
圖5NIH數據集可視化結果

從圖5的可視化定性結果可以看出,MFCF-Net分割結果更接近于真實目標區域,對面積小、邊緣崎嶇的目標能精準分割并保留更多細節信息,在分割性能表現上優于對比網絡,分割任務的魯棒性更強.

2.4.2 ISIC2017數據集上的對比結果

在相同的實驗條件下,針對ISIC2017數據集,將MFCF-Net與CE-Net、PSP-Net、DNN、SA-Net等先進網絡進行對比.如表3所示,MFCF-Net在關鍵評估指標上展現出了顯著優勢,具體表現為:DSC達到了0.8874,IoU達到了0.8007,ACC則高達0.9620.特別是在DSC和ACC兩項指標上,MFCF-Net均超越了所有對比網絡.其中粗體表示了實驗的最佳結果.

從表3所示的量化實驗結果看出,MFCF-Net在ISIC2017數據集上的總體性能表現優于其他對比網絡,這一結果證明MFCF-Net在皮膚病變圖像分割任務中仍然具有優越的分割性能.進一步的,圖6所示的可視化定性結果直觀展示了MF-CF-Net在分割邊緣模糊目標時的能力.與對比網絡相比,針對邊緣模糊的目標MFCF-Net能界定并分割出目標區域,且分割效果更準確、邊界更清晰,驗證了MFCF-Net在處理復雜圖像分割任務時的有效性.

表3ISIC2017數據集對比實驗結果

2.4.3 ISIC2018數據集上的對比結果

在相同的實驗條件下,在ISIC2018數據集上實驗驗證MFCF-Net的分割效果,與SA-Net、MedT、BCDU-Net、FANet等先進網絡進行對比,實驗結果如表4所示.由表可以看到MFCF-Net在DSC上達到了0.8951、在IoU上達到了0.8075、在ACC上達到了0.9591,其中粗體表示了實驗的最佳結果.

圖7ISIC2018數據集可視化結果

在ISIC2018數據集,MFCF-Net再次證明了其分割能力,其總體性能明顯優于其他對比網絡,進一步證明對網絡結構改進的有效性.圖7所示的可視化結果進一步展示了MFCF-Net針對邊緣模糊的目標依然能清晰分割出來的效果,表現優于其他先進的對比網絡,說明了MFCF-Net的有效性與準確性.

表4ISIC2018數據集對比實驗結果

2.5 消融實驗

為了驗證DAAM模塊、RFMF模塊和編碼支路的有效性,在NIH數據集上進行消融實驗.本實驗以UNet為基礎網絡,在U-Net上分別添加DAAM模塊和RFMF模塊進行性能測試;將兩個模塊同時添加到U-Net上進行性能測試,實驗結果如表5所示,其中粗體表示消融實驗最佳結果.可視化結果如圖8所示

表5消融實驗對比結果

從表5可知,在U-Net編解碼器之間添加DAAM模塊與原始U-Net相比,在DSC上提升了0.3870、在IoU上提升了0.3160,這一結果證明DAAM模塊能夠有效增強特征提取,并使編解碼階段的特征融合更加全面.此外,在U-Net解碼器之前添加RFMF模塊也對網絡性能有所提升,其比普通U-Net在DSC上提升了0.11O0、在IoU上提升了O.0600,證明RFMF模塊對深層高級語義信息的學習方面的有效性.最后將MFCF-Net與結合了U-Net、DAAM模塊、RFMF模塊的網絡進行比較,MFCF-Net在DSC上提升了0.1780、在IoU上提升了0.1290,進一步證明了編碼支路對網絡具有提升作用.綜上所述,DAAM模塊、RFMF模塊及編碼支路均有效地提升了網絡的分割精度.

.。.。。.。 aaaaaaa 原圖 SA-Net DenseASPP FANet UNeXt MedT EMCAD MFCF-Net

圖8消融實驗可視化結果

3結論

針對醫學圖像分割中U型編解碼網絡存在的編解碼器特征差異大、抽象特征學習不足、小目標特征丟失以及細粒度信息缺失等問題,本文提出了一種多層特征交叉融合的醫學圖像分割網絡MF-CF-Net.首先,深度注意力聚合模塊采用深度可分離卷積增強特征提取,并采用混合注意力機制來抑制背景干擾.同時,使用多尺度特征快速融合模塊來增強深層高級語義信息的學習,并通過編碼支路來補充網絡深層的細粒度信息.最后通過實驗證明了MFCF-Net對U型編解碼結構改進的有效性.在未來工作中,將向實現U型分割網絡輕量化方向進行探索.

參考文獻

[1]孫淑婷,劉鋮根,周廣茵,等.圖像分割算法在醫學圖像中 的應用綜述[J].現代儀器與醫療,2024,30(2):59-68.

[2]Wang R,Lei T,Cui R,et al.Medical image segmentation using deep learning:A survey[J].Image Processing,2022, 16(5):1 243-1 267.

[3]An F,Liu J.Medical image segmentation algorithm based onmultilayer boundary perception-self attention deep learning model[J].Multimedia Tools and Applications, 2021,80(10):15 017-15 039.

[4]Xia Y,Qiao S,Ye Q. Automatic liver segmentation method based on deep learning and region growing algorithm[J]. International Journal of Performability Engineering,2020, 16(12):1 900-1 909.

[5]Li X,Xu C,Yuan M,et al.Research on medical image segmentation algorithm based on deep learning[C] //Proceedings of the International Conference on Algorithms. Zhuhai,China:SPIE,2022:158-165.

[6]宋杰,劉彩霞,李慧婷.基于U-Net 網絡的醫學圖像分 割研究綜述[J].計算機技術與發展,2024,34(1):9-16.

[7]Ronneberger O,Fischer P,Brox T.U-net:Convolutional networks for biomedical image segmentation[C]//Proceedings of the 18th International Conference on Medical Image Computing and Computer-Assisted Intervention. Munich,Germany:SpringerInternational Publishing, 2015:234-241.

[8] Oktay O,Schlemper J,Folgoc L L,et al. Attention u-net: Learning where to look for the pancreas[C]// Proceedings of the 1st Conference on Medical Imaging with Deep Learning. Amsterdam,The Netherlands:IEEE,2018; 1-10.

[9]Wang Y,Gong G,Kong D,et al. Pancreas segmentation using a dual-input v-mesh network[J].MedicalImage Analysis,2021,69:101 958.

[10] Guo C,Szemenyei M,Yi Y,et al. Sa-unet: Spatial attention u-net for retinal vessel segmentation[C]// Proceedings of the 25th International Conference on Pattern Recognition.Milan,Italy:IEEE,2021:1 236-1 242.

[11]Tang P,Zu C,Hong M,et al. DA-DSUnet:Dual attention-based dense SU-net for automatic head- and-neck tumor segmentation in MRI images[J]. Neuro Computing,2021,435:103-113.

[12] Qiu C,Song Y,Liu Z,et al. CMFCUNet:Cascaded multiscale feature calibration UNet for pancreas segmentation [J].Multimedia Systems,2023,29 :871-886.

[13] Shen T,Huang F,Xu H. HarDNet and dual-code attention mechanism based model for medical images segmentation[J].Access,2023,11:47 827-47 835.

[14] Ji Z,Liu J,Mu J,et al. ResDAC-Net:A novel pancreas segmentation model utilizing residual double asymmetric spatial kernels[J].Medical amp;.Biological Engineering amp;. Computing,2024,62(7) :2 087-2 100.

[15]Lei T,Sun R,Du X,et al. SGU-Net:Shape-guided ultralight network for abdominal image segmentation[J]. Journal of Biomedical and Health Informatics,2023:27 (3),1 431-1 442.

[16] Fu H,Cheng J,Xu Y,et al. Joint optic disc and cup segmentation based on multi-label deep network and polar transformation[J]. Transactions on Medical Imaging, 2018,37(7):1 597-1 605.

[17]Yurtkulu SC,Sahin Y H,Unal G.Semantic segmentation with extendeddeepLabv3 architecture[C]//Proceedings of the 27th International Conference on Signal Processing and Communications Applications. Sivas,Turkey:IEEE,2019:134-146.

[18] Li M,Lian F,Wang C,et al. Accurate pancreas segmentation using multi-level pyramidal pooling residual U-Net with adversarial mechanism[J].Medical Imaging,2021, 21(1):1-8.

[19]Chen H,Liu Y,Shi Z,et al. Pancreas segmentation by two-view feature learning and multi-scale supervision [J]. Biomedical Signal Processing and Control,2o22,74: 103 519.

[20] Qiu C,Liu Z,Song Y,et al. RTUNet: Residual transformer UNet specifically for pancreas segmentation[J]. Biomedical Signal Processing and Control,2023,79(2): 227-239.

[21] ZengL,Yang X,Chen W,et al. SCPMan:Shape context and prior constrained multi-scale attention network for pancreatic segmentation[J].Expert Systems with Applications,2024,252:124 070.

[22]Gu Z,Cheng J,Fu H,et al. Ce-net:Context encoder network for 2d medical image segmentation[J].Transactions on Medical Imaging,2019,38(10):2 281-2 292.

[23]Wei J,Hu Y,Zhang R,et al. Shallow attention network for polyp segmentation [C]//Proceedings of the 24th International Conference on Medical Image Computing and Computer-Assisted Intervention. Strasbourg,France: IEEE,2021:699-708.

[24] Yang M,Yu K,Zhang C,et al. Denseaspp for semantic segmentation in street scenes[C]//Proceedings of the Conference on Computer Vision and Pattern Recognition. Salt Lake City,USA:IEEE,2018:3 684-3 692.

[25]TomarNK,Jha D,RieglerMA,etal.Fanet:A feedback attention network for improved biomedical image segmentation[J].IEEE Transactions on Neural Networks and Learning Systems,2022,34(11):9 375-9 388.

[26]Valanarasu J M J,Patel V M.Unext:Mlp-based rapid medical image segmentation network[C]//Proceedings of the International Conference on Medical image Computing and Computer-Assisted Intervention. Cham: Springer Nature Switzerland,2022:23-33.

[27]Rahman MM,Munir M,Marculescu R. Emcad:Efficient multi-scale convolutional attention decoding for medical image segmentation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.Shanghai,China:IEEE,2024:11 769-11 779.

[28]ValanarasuJMJ,Oza P,Hacihaliloglu I,et al.Medical transformer:Gated axial-attention for medical image segmentation[C]//Proceedings of the 24th International Conference on Medical Image Computing and ComputerAssisted Intervention-MICCAI. Strasbourg, France: Springer International Publishing,2O21:36-46.

[29]Rahman M M,Marculescu R.G-CASCADE:Efficient cascaded graph convolutional decoding for 2D medical image segmentation[C]//Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision. Waikoloa,HI,USA:IEEE,2024:7 728-7 737.

【責任編輯:陳 佳】

猜你喜歡
特征融合實驗
記一次有趣的實驗
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
NO與NO2相互轉化實驗的改進
主站蜘蛛池模板: 亚洲日本中文字幕天堂网| 三上悠亚精品二区在线观看| 国产成人综合在线观看| 亚洲免费播放| 午夜一区二区三区| 亚洲二三区| 久久99热这里只有精品免费看| 婷婷六月综合| 色九九视频| 精品国产女同疯狂摩擦2| 国产激爽大片高清在线观看| 欧美日本不卡| 青青草国产免费国产| 国产免费a级片| 国产一级精品毛片基地| a毛片免费观看| 青草视频久久| 欧美日韩精品一区二区视频| 久久男人视频| 亚洲嫩模喷白浆| av在线人妻熟妇| 亚洲无码高清视频在线观看 | 波多野结衣无码视频在线观看| 国产亚洲精品97在线观看| 在线观看网站国产| 久久狠狠色噜噜狠狠狠狠97视色| 性做久久久久久久免费看| 欧美视频二区| 中文字幕在线视频免费| 国产精品浪潮Av| 国产综合色在线视频播放线视| 日韩福利在线观看| 免费 国产 无码久久久| 欧美亚洲欧美区| 在线观看91香蕉国产免费| 国产精品伦视频观看免费| 九九线精品视频在线观看| 国产青青操| 91无码视频在线观看| 91在线高清视频| 特级毛片免费视频| 爆乳熟妇一区二区三区| 久久久久久午夜精品| 91口爆吞精国产对白第三集| 高清亚洲欧美在线看| 2021国产在线视频| 91美女视频在线| 国产人碰人摸人爱免费视频| 中文字幕无码av专区久久| 国产人妖视频一区在线观看| 亚洲无码免费黄色网址| 九九九精品视频| 亚洲美女视频一区| 国产91精品调教在线播放| 91亚瑟视频| 亚洲嫩模喷白浆| 亚洲精品免费网站| 四虎永久在线精品影院| 极品国产一区二区三区| 久久伊伊香蕉综合精品| 国产成人精品一区二区秒拍1o| 欧美激情一区二区三区成人| 欧美午夜网| 国产性生大片免费观看性欧美| 日韩精品毛片人妻AV不卡| 国产精品久久久久婷婷五月| 国产香蕉国产精品偷在线观看| 91免费片| 黄色网址手机国内免费在线观看| 国产精品美女免费视频大全 | 在线欧美a| 欧美成人精品欧美一级乱黄| 日韩欧美91| a网站在线观看| 中文字幕va| 制服丝袜一区| 国产91特黄特色A级毛片| 91九色视频网| 亚洲无码高清免费视频亚洲| 亚洲看片网| 国产最新无码专区在线| h视频在线观看网站|