999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積膠囊編碼器和多尺度局部特征共現的圖像分割網絡

2024-04-29 00:00:00秦辰棟王永雄張佳鵬
計算機應用研究 2024年4期

摘 要:U-Net在圖像分割領域取得了巨大成功,然而卷積和下采樣操作導致部分位置信息丟失,全局和長距離的語義交互信息難以被學習,并且缺乏整合全局和局部信息的能力。為了提取豐富的局部細節和全局上下文信息,提出了一個基于卷積膠囊編碼器和局部共現的醫學圖像分割網絡MLFCNet (network based on convolution capsule encoder and multi-scale local feature co-occurrence)。在U-Net基礎上引入膠囊網絡模塊,學習目標位置信息、局部與全局的關系。同時利用提出的注意力機制保留網絡池化層丟棄的信息,并且設計了新的多尺度特征融合方法,從而捕捉全局信息并抑制背景噪聲。此外,提出了一種新的多尺度局部特征共現算法,局部特征之間的關系能夠被更好地學習。在兩個公共數據集上與九種方法進行了比較,相比于性能第二的模型,該方法的mIoU在肝臟醫學圖像中提升了4.7%,Dice系數提升了1.7%。在肝臟醫學圖像和人像數據集上的實驗結果表明,在相同的實驗條件下,提出的網絡優于U-Net和其他主流的圖像分割網絡。

關鍵詞: U-Net;卷積膠囊編碼器;注意力機制;多尺度特征局部共現

中圖分類號: TP18文獻標志碼:A 文章編號: 1001-3695(2024)04-045-1264-06

doi: 10.19734/j.issn.1001-3695.2023.07.0352

Medical image segmentation network based on onvolution capsule encoder and multi-scale local feature co-occurrence

Qin Chendong, Wang Yongxiong, Zhang Jiapeng

Abstract:U-Net has achieved great success in the field of image segmentation. However, some of the position information is lost in the process of convolution and downsampling, model is difficult to learn global and long-range semantic interaction information and lacks the ability to integrate global and local information. To extract rich local detail and contextual information, this paper proposed an image segmentation network called MLFCNet, combining a convolutional module and a capsule encoder. Based on the U-Net, this paper introduced a capsule network module to learn target positional information and the relationships between local and global information. At the same time, the proposed attention mechanism could retain the information discarded by the network pooling layer. This paper designed a new attention mechanism so that multi-scale features could be fused, where global information was captured and background noise was suppressed. In addition, it proposed a new local feature co-occurrence algorithm to better learn the relationship between local features. The proposed method was compared with nine methods on two public datasets, mIoU improves 4.7% and Dice coefficient improves 1.7% in liver medical images compared to the second highest performing model. Experimental results on the dataset of liver and dataset of human show that under the same experimental conditions, the proposed network is superior to U-Net and other mainstream image segmentation networks. Key words:U-Net; convolutional capsule encoder; attention mechanism; multi-scale local feature co-occurrence

0 引言圖像分割是一項像素級的分類任務,即標注出圖像中每個像素所屬的對象類別。目前已經有許多經典的基于卷積神經網絡(CNN)分割方法,如U-Net等。U-Net的結構包括一個捕捉上下文的下采樣結構和一個對稱的上采樣結構[1],因其出色的性能而被廣泛用于圖像分割領域。然而,該網絡依靠固定的學習權重矩陣連接各層之間的特征,同時下采樣中的池化層通常會丟棄重要的信息,如位置信息[2,3],并且由于卷積操作的局限性,如感受野受限以及平移不變性,全局和長距離的語義交互信息很難被U-Net學習。

為了克服上述U-Net的限制,文獻[4]提出了Attention U-Net。 在該模型中,不同形狀和大小的目標能夠自動被關注。然而,編碼器和解碼器特征圖之間的語義差距仍然很大。為了突破這個局限,文獻[5]提出了UNet+ +。該模型是一個基于嵌套和密集跳躍連接的分割架構,在該方法中,前景物體的細粒度細節可以被有效地捕捉。 文獻[6]提出了ResUNet,其中網絡層內豐富的跳躍連接可以促進信息的傳播。Alom等人[7]提出了R2U-Net,其中的遞歸殘差卷積層可用于特征積累,確保分割任務有更好的特征表示。Gu等人[8]提出了CE-Net,使更多的高層信息被捕獲,并且空間信息極大程度地被保留。這些網絡在各種數據集上均取得了良好的性能,但是由于卷積操作的局限性,不能很好地學習全局和長距離的語義交互信息。

為此,文獻[9]提出了膠囊網絡,其中部分與整體的關系以及物體各部分之間的位置和方向都被編碼。為了更好地學習特征之間的關系,文獻[10~12]提出了動態路由機制,其在各種任務中均表現良好。膠囊網絡的輸入和輸出都是向量,可以保存相對的位置信息,如物體的準確位置、旋轉、厚度、傾斜度、大小等。因此,只需要一個簡單而統一的架構即可應對不同的分割任務,在分割任務中只需要較小的數據量就可以獲得很好的性能。為了更好地捕捉深層特征,本文在編碼器的最后一層使用膠囊網絡,利用膠囊模塊構造每個特征矢量,并保存其空間位置信息。膠囊網絡由卷積層、主膠囊層和數字膠囊層組成。膠囊網絡的動態路由算法負責在高層膠囊和低層膠囊之間建立權重關系。動態路由算法通過迭代過程來確定高層膠囊與低層膠囊之間的連接強度,從而使得膠囊網絡能夠捕捉對象之間的空間關系,同時保留U-Net架構以便更好地學習淺層特征。利用膠囊網絡和CNN的優勢,可以有效地構建全局關系和局部特征,因此用較小的數據量、位置特征和變形就可以很好地被網絡捕捉。針對全局的語義交互信息很難被學習的問題,提出了多尺度局部特征共現算法,將兩個不同尺度的特征圖交換對應的查詢向量,再為每個向量計算得分,從而能夠更好地理解圖像中不同區域之間的上下文關系和依賴關系,進一步提升網絡性能。

為了充分利用卷積特征通道之間的相互依賴關系,Hu等人[13]提出了擠壓和激發網絡(SENet),通過突出信息豐富的通道特征從而提高網絡的表示能力。然而,同一尺度的特征圖包含的信息有限。因此,本文提出了一個新的注意力機制。不同尺度和層次的特征圖被融合在一起,不同尺度的信息可以被注意力模塊所捕獲,從而獲得更高精度的分割效果。本文的貢獻可以概括為以下幾點:a)針對基于卷積的傳統U-Net存在的全局和長距離的語義信息交互不能很好地被學習的缺點,本文提出了一個卷積膠囊編碼器,以充分學習目標的位置關系和局部與整體之間的關系信息。b)提出了一種新的注意力機制用于精準地捕捉邊緣信息。多尺度特征能夠被注意力模塊融合,然后通過捕捉全局信息和抑制不相關區域,從而強調對特定任務有用的特征。c)提出了多尺度局部特征共現算法,該算法能夠更好地理解圖像中不同區域之間的上下文關系和依賴關系,以提升網絡的性能。

d)該方法在肝臟醫學圖像和人像數據集上均取得了良好的效果,優于現有的主流圖像分割方法。

1 相關工作

1.1 圖像分割的主流方法

近年來,深度學習算法被應用于圖像分割領域并取得了突破性進展。Long等人首先提出了全卷積網絡,在此基礎之上Ronneberger等人[1]提出U-Net,它由編碼器-解碼器組成,并且深層網絡與淺層網絡之間通過跳躍連接結構解決了全卷積網絡無法捕獲上下文信息和位置信息的弊端。跳躍連接結構已經被證明有助于恢復網絡輸出的空間分辨率,因此U-Net在語義分割領域表現優異。受此啟發,Tulsani等人[5]提出了UNet+ +,利用一系列嵌套的密集跳躍連接結構,減少編碼器和解碼器特征圖之間的語義差距,在圖像分割領域取得了很高的精度。Attention U-Net[4]中,不同形狀和大小的目標能夠自動被關注并且抑制輸入圖像中的不相關區域,突出對特定任務有用的顯著特征。所提出的注意力機制具有很小的計算量,同時提高了模型的計算精度。在兩個大型CT醫學圖像中進行了實驗,結果表明所提出的網絡架構在保持計算效率的同時,提高了U-Net的整體性能。然而,由于卷積操作的局限性,這些主流方法在構建位置關系方面受到限制。目前主要通過數據增強解決這個問題[14],但是這種做法會增加訓練負擔和訓練時間。還有其他研究通過擴張卷積的方式解決這個問題[15],但會導致一些像素點的缺失,并且長距離信息有時是不相關的。本文提出利用卷積膠囊編碼器學習目標位置、部分與整體之間的關系信息。

1.2 膠囊網絡

膠囊網絡的編碼器主要分為三層:第一層是卷積層,用于提取底層特征;第二層是初始膠囊層,用于進行二次卷積并初始化膠囊輸入;最后一層是數字膠囊層,通過動態路由機制對空間信息進行編碼。膠囊網絡的工作原理是將每個膠囊中所有重要的特征狀態信息以向量的形式進行封裝和輸出。通過保留更多的特征信息,目標位置的信息和部分與整體的關系能夠很好地被學習。目前,用于圖像分割的膠囊網絡包括2D-SegCaps[16]等,輸入向量與權重矩陣相乘,從而將圖像中的底層特征與高層特征之間的重要空間關系進行了編碼,然后通過動態路由機制加權輸入向量。與傳統U-Net相比,膠囊網絡對圖像的不規則邊緣更為敏感,在醫學圖像數據集的實驗中表現出色,然而完全使用膠囊網絡提取低層次特征的短程信息的表現是欠缺的。為了解決膠囊網絡提取淺層特征的問題,提出了卷積膠囊編碼器,本文將深層編碼器替換為膠囊模塊,而淺層網絡仍然使用傳統的U-Net架構。

1.3 注意力機制

近年來,注意力機制由于其優越的性能和較小的計算代價而得到了廣泛的應用。文獻[13]提出了一種經典的注意力網絡 (squeeze and excitation networks,SENet),通過對每個通道的特征圖進行加權,網絡可以更好地關注重要的特征,并且抑制不重要的特征。SENet包括squeeze和excitation操作。在squeeze階段中,它采用全局平均池化降低特征圖的維度;在excitation階段中,它通過兩個全連接層學習每個通道的重要性權重。SENet相對于其他網絡結構,在較少的參數下取得了很好的效果,并已經成為了圖像識別領域的經典模型之一。Woo等人[17]提出了卷積塊注意力模塊(convolutional block attention module,CBAM),并廣泛應用于各種計算機視覺任務。CBAM模型包含通道注意力機制和空間注意力機制,能夠自適應地學習輸入數據中最相關的特征信息。通道注意力機制用于控制不同通道特征圖的重要性,以便突出對模型而言最重要的特征;空間注意力機制則關注輸入圖像中每個像素的位置,以關注最具代表性的空間區域和特征。CBAM結構相對于其他網絡結構,在增加較少計算量的情況下提升了模型的性能,可以作為即插即用的模塊集成到現有的網絡架構中,并避免了大量的重復參數和計算。然而,在CBAM中,深層特征和淺層特征不能很好地相互關聯。本文對現有注意力模塊進行了改進,提出一種新的注意力機制,有效地利用了通道和特征空間之間的相互依存關系,提高了分割的精度。

2 分割方法

2.1 分割模型

本文分割模型由CNN、膠囊網絡和注意力模塊組成。CNN的特征提取器由一個卷積層和一個子采樣層組成。CNN的卷積層包含幾個特征模態,每個特征模態由一些神經元組成。同一特征平面內的神經元共享權重參數。在膠囊網絡中,更多的位置信息被用來推斷目標的位置,從而構建局部特征和全局特征之間的關系。每個特征都是以高維形式表達的。經過編碼器的編碼,最終的輸出矢量通過膠囊層。第一步是找到膠囊網絡的輸入:

其中: u i是上一層膠囊層i的輸出向量; W ij是通過膠囊訓練和學習得到的權重值。向量 u i以權重矩陣 W ij為膠囊的輸入,其中權重矩陣編碼了空間位置信息和其他重要信息的淺層特征和深層特征。然后將得到的輸入與動態路由機制輸出的權重相乘之后再相加。第二步求出動態路由系數:

擠壓函數被更新以獲得新的權重,通過三次迭代獲得最終的權重值。最后膠囊的輸入被分別乘以權重值,從而計算動態路由的權重:

其中:cij為路由系數,通過動態路由機制的更新和迭代得到的權重值;sj是上一步確定的路由系數和加權輸入向量的線性組合。通過非線性函數計算得到路由系數,非線性函數不僅保證了矢量的方向被保留,而且長度被歸一化。整個模型結構如圖1所示。圖中,AMIMF (attention mechanism incorporating multi-scale feature)模塊是一種新的注意力機制,其融合多尺度的特征以捕獲更多的邊緣特征;CBAM (convolutional block attention module)為注意力模塊;CapsuleNet為膠囊網絡模塊;UP為上采樣。輸入圖像經過五次卷積和最大池化后得到的特征圖輸入注意力模塊和膠囊模塊,再經過注意力模塊輸出。在編碼器的最后一層,利用膠囊模塊構造每個特征矢量,并保存其空間位置信息。編碼器第一、二層的輸出被作為淺層融合多尺度特征的注意力機制(AMIMF)模塊的輸入,同樣地,編碼器第三、四層的輸出被作為深層AMIMF模塊的輸入。深層AMIMF模塊的輸出經過1×1卷積后與編碼器最后一層的輸出在全局信息指導模塊(GIGM)融合。淺層AMIMF模塊經過1×1卷積后的輸出與GIGM模塊的輸出作為局部共現模塊(MLCM)的輸入。最后,將MLCM模塊的輸出經過上采樣得到輸出分割結果。整體的網絡結構和原理如算法1所示。本文網絡每一層的參數如表1所示。

算法1 MLFCNet

輸入:dataset D。

輸出: Y。

d=(xi,yi)∈D

for i∈[ epochs]

x1i←Conv2D(xi)

x2i←Maxpooling+Conv2D(x1i)

x3i←Maxpooling+Conv2D(x2i)

x4i←Maxpooling+Conv2D(x3i)

x5i←Maxpooling+Conv2D+Maxpooling(x4i)

x6i←CBAM(x5i)

x7i←CapsuleNet+CBAM(x6i)+x6i

X1←AMIMF(x1i,x2i)

X2←GIGM(AMIMF(x3i,x4i)+x7i)

output←MLCM(X X2)

end for

2.2 多尺度局部共現模塊

多尺度局部共現模塊通過分析圖像中相鄰像素或區域之間的空間關系來實現,共現特征的分布能夠被該模塊捕捉,這些特征在識別圖像像素的類別標簽方面發揮著重要作用。

通過分析不同尺度特征之間的遠距離關系,可以更好地學習局部特征之間的關系。多尺度局部共現模塊將輸入特征X1變換為特征矩陣 x 1=[x1 x12,…,x1D],其中x1D∈

2.3 膠囊模塊

編碼器的最后一層采用了膠囊模塊,膠囊網絡每層輸出的張量如表2所示。在膠囊網絡中,首先進行卷積核大小為9的卷積運算。在主膠囊層中,再次進行卷積核大小為9的卷積運算,并對通道維度進行拆分,通道的維度從256被重新劃分成8×32,并輸入到數字膠囊層,最終通過路由機制得到編碼器的輸出。經過三個全連接層,所有的像素點被重建,生成與輸入相同大小的特征圖。輸出后的特征圖通過雙線性插值實現上采樣,并在解碼器的最后一層通過核大小為1的卷積得到預測的二值分割圖像[11]。

2.4 AMIMF模塊

在AMIMF模塊中,分別將深層特征送入卷積核大小為3的卷積和卷積核大小為1的卷積,并將卷積后的特征圖相加,再通過上采樣與淺層特征圖拼接得到新的特征圖。新的特征圖作為CBAM的輸入,每個通道的二維特征通過全局平均池化壓縮成一個實數。輸出權重的數量與特征圖中輸入

通道的數量相同。最后,將得到的歸一化權重對每個通道特征和位置特征進行加權。提出的融合多尺度特征的注意力網絡如圖2所示,其中X1為淺層輸入特征圖,X2為深層輸入特征圖,X2經過卷積和上采樣,與X1拼接得到拼接特征圖X3,再經過通道注意力機制與空間注意力機制得到最終輸出特征圖output。

2.5 損失函數

在訓練階段,考慮提高模型的泛化能力和訓練中的過擬合問題,使用交叉熵損失函數和重構損失函數之和作為訓練過程的損失函數[9,18]:

其中: 是整個網絡輸出的預測值;y是實際值。

3 實驗和結果分析

3.1 數據集和實驗環境

本文使用的肝臟醫學圖像[17~19,21]包含400張CT斷層掃描圖像。每張CT圖像的大小為512×512像素,每張CT圖像都有一個對應的標簽。人像數據集包含5 700張圖像,每張圖像的大小為1200×800像素,每張人像圖像都有一個對應的標簽。肝臟醫學圖像分割實驗是在10核Intel Xeon Platinum 8255C CPU @2.50 GHz v4 @2.40 GHz和顯存為24 GB 的RTX 3090上進行的,人像數據集是在Intel CoreTM i7-9700 CPU @ 3.00 GHz和顯存8 GB的RTX2060SUPER上進行訓練的。在訓練前對數據集進行預處理,用ImageNet的平均值和標準差減去數據集的平均值進行歸一化[22],然后減去數據集相應維度的統計平均值,以消除共同部分,突出個體之間的差異和特征。對于肝臟醫學圖像數據集,實驗以原始分辨率訓練,訓練過程持續了400輪,學習率從0.000 1開始。對于人像數據集,實驗中將圖像分辨率縮小至224×224,從而提高訓練與測試的效率。將實驗數據按8 ∶2劃分為訓練集和測試集,在訓練階段,首先將訓練集圖像數據輸入所提出的網絡,將輸入圖像經過五次卷積和最大池化后得到的特征圖輸入注意力模塊和膠囊模塊,編碼器中間層的多尺度特征分別輸入AMIMF模塊。在AMIMF模塊中,分別將深層特征送入卷積核大小為3的卷積和卷積核大小為1的卷積,并將卷積后的特征圖相加,再通過上采樣與淺層特征圖拼接得到新的特征圖。深層AMIMF模塊的輸出經過1×1卷積后與編碼器最后一層的輸出在全局信息指導模塊(GIGM)融合。在GIGM模塊中,輸入特征圖經過兩次步長為2的1×1卷積和一次步長為1的1×1卷積后通過上采樣,再與編碼器最后一層的輸出相乘,得到GIGM模塊最終的特征圖。淺層AMIMF模塊經過1×1卷積后的輸出與GIGM模塊的輸出作為局部共現模塊的輸入。在局部特征共現模塊,分別計算每個輸入特征圖的查詢(query)、鍵(key)和值(value)三個向量。對兩個特征圖交換對應的查詢向量,再為每個向量計算得分:score= Q·K,即Q與K 的內積。再對score進行歸一化處理,經過softmax激活函數之后,點乘值(value)得到加權的每個輸入向量的評分,將評分相加得到輸出結果。最后將兩個特征圖的輸出結果相加,再經過多次上采樣恢復空間維度,得到最終的預測結果。通過損失函數計算預測結果與真實標簽之間的誤差,再使用梯度下降算法更新網絡參數,最小化損失函數,直到網絡收斂。在測試階段,將測試集圖像數據輸入訓練好的模型中,輸出預測的分割結果。將分割結果與真實標注的掩膜對比,得到最終實驗結果。訓練過程持續了400輪,學習率從0.000 1開始。分割模型是基于深度學習框架PyTorch,并使用Adam優化器。

3.2 評價指標

為了客觀地評價模型的性能,本文用準確率、交并比、平均交并比和Dice系數四個指標對模型分割性能進行定量評估。準確率評價指標定義為

其中:X代表實際值;Y代表預測值。

3.3 對比實驗

在肝臟醫學圖像中,將本文方法與幾個最先進的圖像分割方法進行了比較,包括U-Net、UNet+ +、Attention U-Net、ResU-Net、ChannelUNet、CE-Net、R2U-Net和FCN8s。模型在肝臟醫學圖像和人像數據集中的性能比較如表3所示,最好的模型精度被加粗。

由于保留了CNN提取短程信息的優點,同時構建了膠囊網絡模塊,從而解決了CNN在全局特征方面的缺陷,分割性能得到很大程度的提升。與性能第二的ResUNet相比,mIoU在肝臟醫學圖像中提升了4.7%,Dice系數提升了1.7%;在人像數據集中,IoU提升了0.5%,MIoU提升了0.2%。與目前主流的圖像分割模型相比,該模型在這兩組數據上的性能指標有了很大的提高。多種對比方法的可視化分割結果如圖3和4所示。

3.4 消融實驗

為了驗證提出的膠囊模塊、注意力模塊以及多尺度局部共現模塊的有效性,在肝臟醫學圖像上分別對這三個模塊進行了消融實驗,如表4所示。由于膠囊網絡(CAP)能夠較充分提取目標的位置關系、部分與整體之間的關系信息,與U-Net相比,嵌入CAP模塊后,mIoU提高了0.6%。由于利用注意力機制(AMIMF)強調了信息量大的特征,抑制了無效的特征,并融合了多尺度特征。與U-Net相比,嵌入AMIMF模塊后,mIoU提高了2.8%。與不添加多尺度局部共現模塊(MLCM)相比,嵌入MLCM模塊后,mIoU提高了0.8%。因此,消融實驗驗證了提出的每個模塊都能夠提高模型的精度。比較網絡中不同模塊對性能的影響如表4所示。

模型在肝臟數據集分割和人像數據集分割中都取得了較高的性能,在二維圖像分割任務中表現出色。在未來的實驗中,本文模型將被應用于小目標的分割,如血管醫學圖像和其他數據集。

4 結束語

本文提出了一個高效的圖像分割網絡,利用膠囊網絡模塊在網絡深層建立部分與整體的關系,細節信息通過卷積層學習。該卷積膠囊編碼器能夠充分學習目標的位置關系和局部與整體之間的關系信息,從而提升了分割的精度。本文的注意力機制可以精準地捕捉邊緣信息,同時多尺度特征能夠被注意力模塊融合,然后通過捕捉全局信息和抑制不相關區域,強調對特定任務有用的特征,從而使得模型相比于U-Net有更好的表現。本文提出了多尺度局部特征共現算法,該算法能夠更好地理解圖像中不同區域之間的上下文關系和依賴關系,以提升網絡的性能。與已知相關方法對比,本文提出的基于卷積膠囊編碼器和注意力機制的圖像分割網絡達到了99.1%的準確率,優于大多數現有的深度學習方法,促進了深度學習在圖像分割領域的進展。然而,模型中大量的參數被添加到編碼器的最后一層,導致模型的訓練過程出現很大負擔。因此,對膠囊網絡的研究還有很大的上升空間,今后將對動態路由機制作更多的研究和分析。

參考文獻:

[1]Ronneberger O,Fischer P,Brox T. U-Net: convolutional networks for biomedical image segmentation [C]// Proc of the 18th International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin: Springer International Publishing,2015: 234-241.

[2]Ryu J,Yang M H,Lim J. DFT-based transformation invariant pooling layer for visual classification [C]// Proc of European Conference on Computer Vision. Cham:Springer,2018: 89-104.

[3]Nirthika R,Manivannan S,Ramanan A,et al. Pooling in convolutional neural networks for medical image analysis: a survey and an empirical study [J].Neural Computing and Applications ,2022, 34 (7): 5321-5347.

[4]Maji D,Sigedar P,Singh M. Attention Res-UNet with guided decoder for semantic segmentation of brain tumors [J].Biomedical Signal Processing and Control ,2022, 71 : 103077.

[5]Tulsani A,Kumar P,Pathan S. Automated segmentation of optic disc and optic cup for glaucoma assessment using improved UNet+ + architecture [J].Biocybernetics and Biomedical Engineering ,202 41 (2): 819-832.

[6]Aslam M S,Younas M,Sarwar M U,et al. Liver-Tumor detection using CNN ResUNet [J].Computers Materials amp; Continua ,202 67 (2): 1899-1914.

[7]Alom M Z,Hasan M,Yakopcic C,et al. Recurrent residual convolutional neural network based on U-Net (R2U-Net) for medical image segmentation [EB/OL]. (2018-05-29). https://arxiv.org/abs/1802.06955.

[8]Gu Zaiwang,Cheng Jun,Fu Huazhu,et al. CE-Net: context encoder network for 2D medical image segmentation [J].IEEE Trans on Medical Imaging ,2019, 38 (10): 2281-2292.

[9]LaLonde R,Bagci U. Capsules for object segmentation [EB/OL]. (2018-04-11). https://arxiv.org/abs/1804.04241.

[10]Wang Dilin,Liu Qiang . An optimization view on dynamic routing between capsules [EB/OL]. (2018-02-13). https://openreview.net/forum?id=HJjtFYJDf.

[11]Survarachakan S,Johansen J S,Pedersen M A,et al. Capsule nets for complex medical image segmentation tasks [C]// Proc of the 10th Colour and Visual Computing Symposium. 2020.

[12]Hinton G E,Sabour S,Frosst N. Matrix capsules with EM routing [C]// Proc of International Conference on Learning Representations. 2018.

[13]Hu Jie,Shen Li,Albanie S,et al. Squeeze-and-excitation networks [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2018: 7132-7141.

[14]Huang Y P,Singh A,Liu S I,et al. Developing transformed fuzzy neural networks to enhance medical data classification accuracy [J].International Journal of Fuzzy Systems ,2018, 20 : 1925-1937.

[15]Yu F,Koltun V. Multi-scale context aggregation by dilated convolutions [EB/OL]. (2016-04-30). https://arxiv.org/abs/1511.07122.

[16]Kosgiker G M,Deshpande A,Anjum K. Significant of multi-level pre-processing steps and its proper sequence in SegCaps skin lesion segmentation of dermoscopic images [J].Materials Today: Procee-dings ,2022, 51 : 129-141.

[17]Woo S,Park J,Lee J Y,et al. CBAM: convolutional block attention module [C]// Proc of the 15th European Conference on Computer Vision. Berlin: Springer-Verlag,2018:3-19.

[18]Zhang Zhilu,Sabuncu M. Generalized cross entropy loss for training deep neural networks with noisy labels [C]// Proc of the 32nd International Conference on Neural Information Processing Systems. Red Hook,NY: Curran Associates Inc.,2018:8792-8802.

[19]Bock S,Goppold J,Wei M. An improvement of the convergence proof of the ADAM-Optimizer [EB/OL]. (2018-04-27). https://arxiv.org/abs/1804.10587.

[20]Kumar K K. An efficient image classification of malaria parasite using convolutional neural network and ADAM optimizer [J].Turkish Journal of Computer and Mathematics Education ,202 12 (2): 3376-3384.

[21]Li Xiaoya,Sun Xiaofei,Meng Yuxian,et al. Dice loss for data-imbalanced NLP tasks[EB/OL]. (2020-08-29). https://arxiv.org/abs/1911.02855.

[22]Krizhevsky A,Sutskever I,Hinton G E. ImageNet classification with deep convolutional neural networks [J].Communications of the ACM ,2017, 60 (6): 84-90.

[23]Chen Yilong,Wang Kai,Liao Xiangyun,et al. Channel-UNet: a spatial channel-wise convolutional neural network for liver and tumors segmentation [J].Frontiers in Genetics ,2019, 10 : 1110.

[24]Ribeiro A H,Tiels K,Aguirre L A,et al. Beyond exploding and vani-shing gradients: analysing RNN training using attractors and smoothness [C]// Proc of International Conference on Artificial Intelligence and Statistics. [S.l.]:PMLR,2020: 2370-2380.

[25]Long J,Shelhamer E,Darrell T. Fully convolutional networks for semantic segmentation [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2015: 3431-3440.

[26]Guo Menghao,Xu Tianxing,Liu Jiangjiang,et al. Attention mechanisms in computer vision: a survey [J].Computational Visual Media ,2022, 8 (3): 331-368.

[27]Hardie R C,Ali R,De Silva M S,et al. Skin lesion segmentation and classification for ISIC 2018 using traditional classifiers with hand-crafted features [EB/OL]. (2018-07-18). https://arxiv.org/abs/1807.07001.

[28]Aljanabi M,Abdullah A S,Mohammed J K,et al. Assessment of skin lesions segmentation on database ISIC 2018 by bee colony link [C]// IOP Conference Series: Materials Science and Engineering. [S.l.]: IOP Publishing,2021: 012051.

[29]郭穎,王永雄,楊慧敏,等. 改進EfficientNet的多視圖特征融合的CIN診斷 [J/OL]. 控制工程.(2022-03-05). https://doi.org/10. 14107/j. cnki. kzgc. 20210900. (Guo Ying,Wang Yongxiong,Yang Huimin,et al. Improved EfficientNet based on multi-view feature fusion for CIN diagnosis [J/OL].Control Engineering .(2022-03-05). https://doi.org/10. 14107/j. cnki. kzgc. 20210900.)

[30]張歡,劉靜,馮毅博,等. U-Net及其在肝臟和肝臟腫瘤分割中的應用綜述 [J]. 計算機工程與應用,2022, 58 (2): 1-14. (Zhang Huan,Liu Jing,Feng Yibo,et al. Review of U-Net and its application in segmentation of liver and liver tumors [J].Computer Enginee-ring and Applications ,2022, 58 (2): 1-14.)

收稿日期:2023-07-22;修回日期:2023-09-09 基金項目:上海市自然科學基金資助項目(22ZR1443700)

作者簡介:秦辰棟(2000—),男,安徽六安人,碩士,CCF會員,主要研究方向為深度學習、醫學圖像處理等;王永雄(1970—),男(通信作者),上海人,教授,博士,主要研究方向為機器學習和智能機器人等(wyxiong@usst.edu.cn);張佳鵬(1996—),男,江蘇鹽城人,博士研究生,主要研究方向為醫學圖像處理、計算機視覺.

主站蜘蛛池模板: 日韩精品毛片| 亚洲国产天堂久久综合226114| 国产91透明丝袜美腿在线| 午夜激情婷婷| 国产一级做美女做受视频| 伊人国产无码高清视频| 国产三级国产精品国产普男人| 欧洲熟妇精品视频| 国产va免费精品观看| 夜夜操天天摸| 久久人与动人物A级毛片| 97在线碰| 成年看免费观看视频拍拍| 亚洲婷婷六月| 国内熟女少妇一线天| 伊人久久久久久久| 丰满人妻中出白浆| 国产欧美高清| 亚洲成人网在线播放| 免费国产在线精品一区| 精品国产美女福到在线直播| 午夜福利亚洲精品| 亚洲一区二区三区国产精品 | 在线免费观看AV| 国产精品美女网站| 久久综合九色综合97婷婷| 久久男人资源站| 免费jizz在线播放| 欧美专区日韩专区| 亚洲国产天堂久久综合226114 | 国产内射一区亚洲| www.91中文字幕| 麻豆精品在线| 日韩午夜伦| 国产在线98福利播放视频免费 | 91毛片网| 国内精品小视频福利网址| 黄网站欧美内射| 国内自拍久第一页| 亚洲日韩精品无码专区| 十八禁美女裸体网站| 久久99热这里只有精品免费看| 免费人成视频在线观看网站| a毛片免费在线观看| 久久精品娱乐亚洲领先| 91娇喘视频| 2020最新国产精品视频| 激情午夜婷婷| 找国产毛片看| 一区二区影院| 亚洲人成在线精品| 国产99视频精品免费视频7| 青青久在线视频免费观看| 中国黄色一级视频| 91精品国产麻豆国产自产在线| 国产成人av大片在线播放| 成人免费一级片| 人妻无码中文字幕第一区| 亚洲国产精品日韩av专区| 国产精女同一区二区三区久| 亚洲综合第一页| 国产精品免费露脸视频| 国产在线欧美| 中文字幕调教一区二区视频| 老司机午夜精品视频你懂的| 欧美国产日产一区二区| 2020极品精品国产| 国产精品一线天| 欧美精品v欧洲精品| 色噜噜久久| 1024你懂的国产精品| 少妇被粗大的猛烈进出免费视频| 日韩一区精品视频一区二区| 97国产精品视频自在拍| 在线观看精品国产入口| 片在线无码观看| 精品1区2区3区| 亚洲中文字幕23页在线| 久久semm亚洲国产| www.91在线播放| 久久国产精品影院| 国内精品视频在线|