999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合PVTv2和多尺度邊界聚合的結直腸息肉分割算法

2023-01-01 00:00:00梁禮明何安軍董信李仁杰盛校棋
計算機應用研究 2023年5期

摘要:考慮到結直腸息肉圖像中病灶區域和周圍粘液存在對比度低、邊界模糊和形狀不規則等復雜特性,導致現有大部分算法無法實現高精準的分割結直腸息肉。鑒于以上難點,提出一種融合PVTv2和多尺度邊界聚合的結直腸息肉分割算法。首先,利用PVTv2逐層提取腸息肉圖像中的病灶特征,解決傳統卷積神經網絡對病灶區域特征提取能力不足的問題;然后,針對網絡對復雜病灶區域的空間特征信息表征能力不強的問題,在網絡跳躍連接處構建多尺度上下文空間感知模塊;其次,設計多尺度擠壓適配融合模塊聚合不同尺度的特征信息,以減少各個尺度特征的語義差異;最后,為進一步加強邊緣細節特征的識別能力,創造性構造殘差軸向雙邊界細化模塊。該算法在Kvasir-SEG和CVC-ClinicDB數據集上進行大量實驗驗證,其相似性系數分別為93.29%和94.52%,平均交并比分別為88.36%和89.88%。實驗結果表明,對于復雜的病灶區域以及病灶邊界模糊的情況,所提算法在分割精度上均有較大的提升。

關鍵詞:結直腸分割;PVTv2;上下文空間感知;擠壓適配融合;殘差軸向雙邊界細化

中圖分類號:TP183文獻標志碼:A

文章編號:1001-3695(2023)05-042-1553-06

doi:10.19734/j.issn.1001-3695.2022.09.0441

0引言

結直腸癌是世界上最常見和最致命的惡性腫瘤之一,其后期死亡率高達90%。腸黏膜息肉是結直腸癌的前體,容易發生惡性病變,如果不及時治療將會導致結直腸癌變[1]。也就是說,早發現和準確診斷腸黏膜息肉是有效降低死亡率的關鍵。結腸鏡檢查是一項有效篩查和預防結直腸癌的技術,它可以篩選出結直腸息肉的位置和外觀信息,使醫生在發展為結直腸癌之前予以切除[2]。研究表明,利用結腸鏡進行早期檢查可使結直腸癌發病率下降到30%[3]。然而,息肉通常在大小、顏色和質地上各異,且息肉與其周圍粘膜之間對比度非常低,息肉的邊界幾乎無法區分,導致息肉分割不準確,出現漏檢和錯檢的問題。因此,在臨床醫學下設計一種準確的自適應結直腸息肉分割算法對于預防結直腸癌具有重要意義。

結直腸息肉分割方法大致可分為兩類,即基于手工特征提取的傳統方法和基于深度學習的方法。傳統手工特征提取方法主要是通過提取顏色、輪廓、邊緣和紋理等低層次的特征,然后使用分類器來區分息肉和正常的腸粘膜。然而,傳統的特征提取和分類的策略高度依賴于設計者的經驗,在不同的腸息肉圖像中息肉的大小和形狀質地各異,導致傳統的分割方法分割性能較差,存在較高的漏檢率和錯檢率。近年來,隨著深度學習的普及,卷積神經網絡(convolutionalneuralnetwork,CNN)在各種計算機視覺任務中都取得了顯著的突破。比如Zhou等人[4]在原U-Net[5]的基礎上添加了一系列嵌套的密集跳躍路徑,形成了一個具有深度監督密集連接的編解碼器網絡U-Net++。密集跳躍路連接和卷積操作,能有效地提高小物體的分割性能,實現了良好的深層聚合。Khanh等人[6]提出一種空間通道注意門(scAG),并將其引入U-Net,用于異常組織分割。scAG可將上下文信息嵌入到編碼器的低級特征中,引導網絡模型更多地關注重要區域,從而減小編碼器和解碼器特征之間的語義差異。Fang等人[7]構建一種具有面積和邊界約束的三步選擇性特征聚合網絡用于息肉分割,該方法充分考慮了區域和邊界之間的依賴關系,并在額外的邊緣監督下獲得了良好的分割結果。Zhang等人[8]為了提高對全局上下文特征信息建模的效率,同時防止底層細節特征的丟失,提出一種基于Transformer和CNN的并行分支架構網絡TransFuse。

與傳統方法相比,基于深度學習的方法在其準確性和泛化性上得到了質的飛躍,但依然存在問題,比如在局部過度曝光區域分割結果容易出現偽影、分割邊緣不連續、出現誤分割等。為了提高分割精度以及銳化邊緣細節,本文提出一種融合PVTv2(PyramidVisionTransformerv2)[9]和多尺度邊界聚合的結直腸息肉分割算法,主要包括以下工作:a)Transformer和CNN的結合,利用PVTv2作為主干網絡,逐層提取息肉圖像的語義信息和空間細節,構建特征信息之間的長期依賴關系,緊接著利用CNN對特征信息進一步提取,以提升網絡的魯棒性和泛化性;b)為了減少編碼器與解碼器之間的語義鴻溝和增強對待分割目標區域的表征能力,在跳躍連接處構建多尺度上下文空間感知模塊;c)為了有效地融合高級特征、低級特征和全局上下文特征,本文設計一種多尺度擠壓適配融合模塊;d)創造性地構建一種殘差軸向雙邊界細化模塊,以高級位置特征信息作為邊界約束,協同淺層特征信息,進一步銳化目標區域的邊緣細節,提升分割性能。

1算法描述

針對現有方法不能充分利用位置特征信息以及對病灶特征的邊緣像素點劃分不準確,導致出現其分割邊界模糊、錯分割和漏分割等問題,本文提出一種融合PVTv2和多尺度邊界聚合網絡(PVTv2andmultiscaleboundaryaggregationnetwork,PMBA-Net)。PMBA-Net模型總體架構如圖1所示,該模型主要結構包括四個部分即編碼器、多尺度上下文空間感知模塊(scalecontextspatialawarenessmodule,CSAM)、多尺度擠壓適配融合模塊(multi-scaleextrusionfittingfusionmodule,MSEM)、殘差軸向雙邊界細化模塊(residualaxialdoubleboundaryrefinementmodule,RADBRM)。編碼器采用金字塔視覺變壓器PVTv2作為主干網絡,逐層提取息肉圖像的語義信息和空間細節,捕獲特征信息之間的長期依賴關系。多尺度上下文空間感知模塊利用不同的感受野去適應不同大小的分割目標,并動態地構建多個尺度特征信息之間的空間聯系;多尺度擠壓適配融合模塊通過逐級上采樣操作聚合來自不同層次的上下文空間特征信息,增強每個層次通道特征信息的表征能力,弱化不同層次之間的語義鴻溝;殘差軸向雙邊界細化模塊利用所得的高級位置特征信息作為雙邊引導,并通過額外的邊界監督來抑制非病灶區域的邊界特征,從而細化病灶區域的邊界。

1.1多尺度上下文空間感知模塊

由于不同結直腸息肉圖像中待分割目標區域大小和位置存在巨大的差異,單一尺度的特征學習往往不能兼顧上下文信息以及不能有效地對全局和局部特征信息進行自適應加權。在一定程度上將導致其特征提取能力不足,最終影響分割性能。為了獲得圖像的空間上下文特征信息,得到相應的具備上下文空間相關性信息的多尺度特征注意力圖,受文獻[10,11]的啟發,提出多尺度上下文空間感知模塊。CSAM能動態地分配不同尺度下的權重,增強對待分割目標區域的表征能力,其結構如圖2所示。CSAM主要包括多尺度上下文表征模塊[12](multiscalecontextrepresentationmodule,MCRM)、空間注意力機制[13](spatialattentionmechanism,SAM)和殘差連接結構三個部分。為了減少計算的空間復雜度和時間復雜度,特征圖在輸送到多尺度上下文表征模塊前,使用1×1的卷積核提取特征并壓縮通道數量。MCRM由四個并行分支組成,以空洞卷積級聯方式堆疊而成,每個分支都設置不同的空洞卷積率,空洞卷積率依次為1,1,3和5,最終每個分支獲得的感受野分別為3,7,9和19。經過卷積后,每個分支的通道數量與原輸入通道數量保持一致。最后,將提取到的四個多尺度特征注意力圖進行矩陣加法運算。為了強化不同分支之間的空間特征響應,聚焦特征圖中的病灶部分,弱化背景顏色的特征激活,本文在MCRM之后引入空間注意力機制SAM。SAM首先對特征圖進行全局最大池化和全局平均池化操作,其中全局最大池化是對腸息肉圖像中的病灶區域進行去噪,最大池化主要作用是凸顯病灶區域;接著將兩種池化后的特征圖進行拼接,然后對所得特征圖采用7×7的卷積操作建立局部與全局特征信息的聯系,利用sigmoid激活函數計算特征圖向量。最后將原始特征圖與經過sigmoid激活函數后得到的特征向量進行乘法。為了避免梯度消失,加快網絡收斂速度,本文在SAM輸出后面引入殘差短連接。

1.2多尺度擠壓適配融合模塊

網絡解碼部分得到不同尺度的特征圖主要包含編碼路徑提取的低級語義特征和解碼路徑編譯的高級語義特征。高級語義信息具有豐富的空間細節信息,低級語義信息含有明顯的輪廓細節。通過簡單的上采樣操作去放大不同尺度的特征圖,容易造成特征圖局部信息丟失。為了適應性地捕獲和聚合多個層次上的局部細節信息和全局語義信息,并且能自適應不同大小和形狀的病灶區域分割。Liu等人[14]提出領域上下文細化模塊通過循環利用上下文信息,從而精準定位病變區域。Zamir等人[15]提出選擇性核特征融合模塊對多尺度信息進行自適應聚合,互補不同階段上的語義空白,進而減少局部信息的丟失。本文構建多尺度擠壓適配融合模塊MSEM來處理不同尺度之間的特征聯系,其結構如圖3所示。圖3中X2,X3和X4(Xi∈{H/2i+1,W/2i+1},i∈(2,3,4),H和W為特征圖的高和寬)分別為編碼器stage2、stage3和stage4經過多尺度上下文空間感知模塊后輸出的特征圖。該模塊主要分為以下三個部分:

1.3殘差軸向雙邊界細化模塊

傳統的結直腸息肉分割網絡,主要是通過上下采樣的方式,在進行圖像分割時容易產生邊界模糊。文獻[17]提出一種反轉注意力模塊用于結直腸息肉分割,有效地改善了邊緣細節模糊的問題,但容易丟失邊界外的上下文信息,在此基礎上,文獻[18]提出雙邊邊界提取模塊來解決病灶邊緣像素點劃分和精準定位病灶區域。文獻[19]通過軸向注意操作,以增強邊緣病變特征之間的信息交互。本文結合反轉注意力、雙邊邊界特征提取和軸向殘差結構的優點提出殘差軸向雙邊界細化模塊RADBRM,以高級的位置信息作為雙邊引導,增強息肉的邊界特征響應,并通過額外的邊界監督來抑制背景顏色的特征激活,其結構如圖4所示。該模塊由三個級聯分支構成,在第一條分支和第三條分支中,將輸入特征圖F1進行上采樣操作,得到與X1具有相同尺寸的特征圖U2和U3,為了凸顯息肉圖像的非病灶區域,將采樣后的特征圖U2與X1進行矩陣乘法。對特征圖U3使用reverse操作以獲得更好的邊界像素級預測的特征表示F2。其中reverse操作是從單位矩陣中減去輸入特征圖經過sigmoid激活函數后的取反操作。在第二條分支中,為了增強通道、空間特征表征能力,同時額外地為第三條分支提供輪廓信息,本文利用軸向注意力機制[20]對特征圖X1中的每一行、每一列像素點做相關性的建模,并引入殘差結構來緩解梯度消失問題。同時,為了進一步減少非病灶區域的響應和聚焦病灶區域的邊緣細節,將第一條分支和第三條分支所獲得的結果進行矩陣加法。

2實驗結果與分析

2.1數據集及實驗設置

實驗采用三個公開的醫學影像數據集來驗證本文模型的有效性和泛化性。使用CVC-ClinicDB[21]數據集和Kvasir-SEG[22]數據集驗證模型的有效性,使用ETIS[23]數據集驗證模型的泛化性。其中CVC-ClinicDB數據集是由醫學圖像計算機與計算機輔助干預國際會議于2015年發布。Kvasir-SEG數據集是由挪威奧斯陸大學醫院內窺鏡專家采集并標注。ETIS數據集是由MIC-CAI息肉挑戰賽于2017年發布。3個數據集的具體細節如表1所示。實驗中CVC-ClinicDB數據集按照文獻[17,24]的劃分方法把數據集按照8:1:1劃分為訓練集、驗證集、測試集;Kvasir-SEG數據集按照文獻[25,26]的方法將88%的數據作為訓練集,12%的數據作為測試集;ETIS數據集全部作為測試集。

本文算法硬件設備參數為IntelCorei7-6700HCPU,16GB內存,顯卡為NVIDIAGeForceGTX2070,內存為8GB;軟件環境為Ubuntu16.04操作系統,深度學習框架為PyTorch1.7.1。為了客觀地評價本文算法的準確性,在進行算法模型對比時,采用的模型參數幾乎保持一致。輸入到模型的圖像大小統一調整為256×256,在訓練過程中采用Adam優化器,初始學習率設置為0.0001,動量和權重衰減分別設置為0.9和0.0005,使用加權IoU損失和加權二進制交叉熵損失之和,批量處理量設置為12,迭代次數設置為100,并使用多尺度訓練策略{0.75,1,1.25}。當驗證集的平均相似性系數連續20輪不再變優,則提前終止訓練。本文算法迭代到57次時停止訓練。

2.3實驗結果分析

為了驗證本文模型的分割性能,將本文算法(PMBA-Net)與目前最具代表性的算法進行對比,包括U-Net[5]、U-Net++[4]、PraNet[17]、HarDNet-MSEG[25]和CaraNet[27],最終得到不同模型的分割性能指標。在Kvasir-SEG和CVC-ClinicDB數據集上的分割性能指標如表2所示。表2中加粗表示此項指標最優。

從表2中的結果可以發現,本文算法在Kvasir-SEG數據集上的指標均高于在同一配置環境下對比的其他算法,其相似性系數、平均交并比、精確度、召回率、F1分數和F2分數分別為93.29%、88.36%、94.13%、93.21%、93.29%和93.13%,同時浮點運算速度(FLOPs,用于衡量模型的復雜度)為5.538G,均低于上述五種算法。相比U-Net算法在這六項指標中分別提高了6.14%、8.23%、2.84%、6.89%、6.14%和6.79%。與CaraNet算法相比,在相似性系數和平均交并比這兩個指標上分別提高了1.37%和1.93%。在CVC-ClinicDB數據集上對比的六項指標分別為94.52%、89.88%、94.05%、95.24%、94.52%和94.92%。除了召回率和F2值略低外,其他四項指標均高于對比算法,其中PraNet算法在F2值上取得最優,CaraNet算法在召回率獲得最優,均比本文算法略高0.88%和0.06%,而本文算法在平均相似性系數上比PraNet和CaraNet算法高出0.52%和0.35%,在平均交并上比PraNet和CaraNet算法高出0.52%和0.43%,進一步說明本文算法能很好地抑制背景顏色的干擾,精準定位息肉以及權衡背景像素和前景像素不平衡問題。圖5和6分別展示了本文算法與其他分割算法在Kvasir-SEG和CVC-ClinicDB數據集上的分割結果對比。圖(a)代表數據庫的原始圖像,圖(b)對應的是真實標簽,圖(c)~(h)分別代表U-Net、U-Net++、PraNet、HarDNet-MSEG、CaraNet和本文算法分割結果。在圖5的第一行和第二行的結直腸病變圖像中,病變區域和正常的組織在顏色上高度一致,U-Net、U-Net++和PraNet不能有效地精準定位息肉,容易將背景像素誤分割成息肉,導致分割邊界出現偽影,分割結果內部不連續,出現了錯分割現象,使得結果誤差極大。而HarDNet-MSEG和CaraNet能有效地區分病變區域和正常的組織,但在病變邊界上,分割結果依然存在誤分割的情況。本文算法通過采用金字塔結構的PVTv2通過重塑圖像結構,縮短遠距離特征間距,充分捕獲更多的空間細節,減少背景與前景的誤分類,能清晰地識別病灶位置和大小,使分割結果更加精準。在圖5中的第3行、第4行和圖6中第1行、第4行結直腸病變圖像中,病變區域存在局部過度曝光的現象,U-Net和U-Net++分割算法抑制背景顏色干擾能力差,在局部過度曝光的小區域容易產生漏分割以及分割邊界處存在偽影,而PraNet、HarDNet-MSEG和本文算法在分割局部過度曝光區域時,能夠有效地抑制背景顏色干擾,減少漏分割和分割邊界不連續的問題以及在過度曝光區域產生假陽性的概率大大減少。在圖6中第2、3中的結直腸病變圖像中息肉邊界區域與周圍黏膜之間的對比度非常低,在對比度低的區域容易錯分割和漏分割,例如U-Net、U-Net++、PraNet和HarDNet-MSEG均出現邊緣細節模糊不平滑。本文算法豐富的特征提取能準確地定位息肉,邊界細節處理模塊能有效地將息肉邊緣平滑處理,減少誤分割、錯分割的弊端,而其他算法卻不同程度地出現了邊界錯分,產生錯分斑點,其邊緣細節的平滑處理進一步驗證本文算法的準確性和魯棒性。基于上述分析,本文算法在采用金字塔結構的Transformer同時采用多尺度上下文空間感知模塊、擠壓適配融合模塊和殘差軸向雙邊界細化模塊,使分割結果在邊緣細節處理上和病變區域內部連貫上更加接近掩膜。

為了更加直觀地體現本文算法的優越性,圖7給出了不同算法在Kvasir-SEG數據集上的受試者工作特征(ROC)曲線圖7(a)和精度召回率(PR)曲線圖7(b)走勢。ROC圖中曲線越靠近左上角表明分割精度越高,PR圖中曲線與靠近右上角表明正負樣本區分效果越好。從圖7(a)可以看出,本文算法PMBA-Net曲線更接近于左上角和最高的AUC值,進一步說明了本文算法PMBA-Net比其他先進算法分類息肉和非息肉像素點能力更強,能有效地弱化背景顏色的干擾。由圖7(b)可以看出本文算法PMBA-Net曲線越接近于右上角,說明分類息肉圖像像素時錯誤分類為非息肉像素的概率最低。

2.4消融實驗

為了驗證本文算法模型中各個模塊的有效性,采用控制變量法在Kvasir-SEG數據集上進行消融實驗,分別缺失多尺度上下文空間感知模塊、多尺度擠壓適配模塊和殘差軸向雙邊界細化模塊測試算法性能,實驗結果如表3所示,其中最優指標加粗表示。通過對比表3中第1行和第4行的實驗結果,結果表明多尺度上下文空間感知模塊能夠提升1.11%的RMDice和1.4%的RmIoU指標,驗證了多尺度上下文空間感知模塊能有效地聚焦特征圖中的病灶部分,弱化病理和噪聲的影響,從不同尺度中捕獲更多的空間細節,進而提升分割性能。通過對比表中第2行和第4行的實驗結果,精確度由原來的93.07%提升到了94.13%,召回率由原來的92.99%提升到了93.21%,表明殘差軸向雙邊界細化模塊能有效地識別病灶邊緣像素點,增強網絡對特征的適應能力,在提高邊緣像素點劃分能力的同時能有效地定位病變區域,使預測結果精度更高。通多對比第3行和第4行的實驗結果,RMDice、RmIoU、P和RF2均提高了0.55%、0.79%、0.96%和0.07%,表明多尺度擠壓適配融合模塊能減少聚合過程中由于語義空白而引起的鴻溝問題,并充分融合不同層次上的特征信息,為病灶區域分配更高的權重,對全局信息進行有效建模。以上實驗結果說明,本文所提的PMBA-Net具有一定的合理性和有效性。

2.5泛化性能

為了進一步驗證本文模型算法的泛化性能,本文分別在Kvasir-SEG和CVC-ClinicDB數據集上進行訓練,在ETIS數據集上進行測試。在實驗中,本文依然將Kvasir-SEG數據集按照88%劃分為訓練集,12%劃分為測試集,將CVC-ClinicDB數據集按照8:1:1的方式劃分訓練集、驗證集和測試集,ETIS數據集作為測試集,并分別與U-Net、U-Net++、PraNet、HarDNet-MSEG和CaraNet模型進行對比。其各種量化結果如表4所示,加粗表示此項指標最優。

在Kvasir-SEG數據集上訓練,在ETIS數據集上測試泛化結果:從表4可以看出,本文算法在相似性系數、平均交并比,F1值和F2值取得了最優的效果分別為74.73%、66.42%、74.73%和76.99%。其中PraNet算法在精確度指標上最優為76.04%,CaraNet算法在召回率指標上獲得最優值為79.93%,相比本文算法略高1.81%和0.44%,但F1分數均比本文算法低17.23%和4.04%,F2分數均比本文算法低18.27%和1.86%。

在CVC-ClinicDB數據集上訓練,在ETIS數據集上測試泛化結果:從表4中可以看出,本文算法在相似性系數、平均交并比、準確度和F1分數上取得最優的結果,與HarDNet-SEGM先進算法相比,分別提高了5.65%、4.27%、2.24%和5.65%,其召回率和F2分數取得次優的結果。綜合分析對比,本文算法在未知數據集上的泛化能力較強,在保證分割精度的同時能權衡召回率和精確度。

3結束語

針對結直腸息肉圖像中病灶區域和周圍粘膜對比度不均勻、邊界模糊、病灶區域變化尺度大和形狀不規則等復雜特性,提出一種融合PVTv2和多尺度邊界聚合的結直腸息肉分割算法。其中多尺度上下文空間感知模塊能根據病灶區域的大小自適應地分配權重,并捕獲不同尺度特征信息之間的位置關聯性。為了減少不同階段之間的語義鴻溝,構建多尺度擠壓適配融合模塊聚合不同層次的抽象語義信息和空間細節特征。通過設計殘差軸向雙邊界細化模塊來增強邊緣細節特征的識別能力,構建邊界與全局的聯系。在Kvasir-SEG和CVC-ClinicDB數據集對該算法進行測試,其相似性系數、平均交并比分別為93.29%和94.52%,88.36%和89.88%。相對于經典算法U-Net這兩個評價指標分別提升了6.14%和2.04%,8.23%和2.9%。同時,在Kvasir-SEG數據集上進行了消融實驗,實驗結果表明三個創新模塊的有效性。最后,為了驗證本文算法的泛化性,在ETIS數據集上進行了對應實驗驗證,實驗結果進一步說明了本文算法在未知數據集上的適應能力較強,魯棒性較好。

參考文獻:

[1]SiegelRL,MillerKD,FuchsHE,etal.Cancerstatistics[J].CA:aCancerJournalforClinicians,2021,71(1):7-33.

[2]ZauberAG,WinawerSJ,O′BrienMJ,etal.Colonoscopicpolypectomyandlong-termpreventionofcolorectal-cancerdeaths[J].NationalLibraryofMedicine,2012,366(8):687-696.

[3]HaggarFA,BousheyRP.Colorectalcancerepidemiology:incidence,mortality,survival,andriskfactors[J].ClinicsinColonandRectalSurgery,2009,22(4):191-197.

[4]ZhouZongwei,SiddiqueeMMR,TajbakhshN,etal.UNet+:anestedU-Netarchitectureformedicalimagesegmentation[M]//DeepLearninginMedicalImageAnalysisandMultimodalLearningforClinicalDecisionSupport.Cham:Springer,2018:3-11.

[5]RonnebergerO,FischerP,BroxT.U-Net:convolutionalnetworksforbiomedicalimagesegmentation[C]//ProcofInternationalConferenceonMedicalImageComputingandComputer-AssistedIntervention.Cham:Springer,2015:234-241.

[6]KhanhTLB,DaoDP,HoNH,etal.EnhancingU-Netwithspatial-channelattentiongateforabnormaltissuesegmentationinmedicalimaging[J].AppliedSciences,2020,10(17):5729.

[7]FangYuqi,ChenG,YuanYixuan,etal.Selectivefeatureaggregationnetworkwitharea-boundaryconstraintsforpolypsegmentation[C]//ProcofInternationalConferenceonMedicalImageComputingandComputer-AssistedIntervention.Cham:Springer,2019:302-310.

[8]ZhangYundong,LiuHuiye,HuQiang.TransFuse:fusingtransformersandCNNsformedicalimagesegmentation[C]//ProcofInternationalConferenceonMedicalImageComputingandComputerAssistedIntervention.Cham:Springer,2021:14-24.

[9]WangWenhai,XieEnze,LiXiang,etal.PVTv2:improvedbaselineswithpyramidvisiontransformer[J].ComputationalVisualMedia,2022,8(3):415-424.

[10]張宇杰,葉西寧.基于WU-Net網絡的肺結節圖像分割算法[J].計算機應用研究,2022,39(3):895-899,905.(ZhangYujie,YeXi-ning.ImprovedlungnodulessegmentationalgorithmonWU-Net[J].ApplicationResearchofComputers,2022,39(3):895-899,905.)

[11]梁禮明,盛校棋,藍智敏,等.自適應尺度信息的U型視網膜血管分割算法[J].光學學報,2019,39(8):126-140.(LiangLiming,ShengXiaoqi,LanZhimin,etal.U-Shapedretinalvesselsegmentationalgorithmbasedonadaptivescaleinformation[J].ActaOpticaSinica,2019,39(8):126-140.)

[12]GuZaiwang,ChengJun,FuHuazhu,etal.CE-Net:contextencodernetworkfor2Dmedicalimagesegmentation[J].IEEETransonMedicalImaging,2019,38(10):2281-2292.

[13]WooS,ParkJ,LeeJY,etal.CBAM:convolutionalblockattentionmodule[C]//ProcofEuropeanConferenceonComputerVision.Cham:Springer,2018:3-19.

[14]LiuQi,WangJingkun,ZuoMengying,etal.NCRNet:neighborhoodcontextrefinementnetworkforskinlesionsegmentation[J].Compu-tersinBiologyandMedicine,2022,146:105545-105545.

[15]ZamirSW,AroraA,KhanS,etal.Learningenrichedfeaturesforrealimagerestorationandenhancement[C]//ProcofEuropeanConfe-renceonComputerVision.Cham:Springer,2020:492-511.

[16]HuJie,ShenLi,SunGang.Squeeze-and-excitationnetworks[C]//ProcofIEEEConferenceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2018:7132-7141.

[17]FanDengping,JiGepeng,ZhouTao,etal.PRANet:parallelreverseattentionnetworkforpolypsegmentation[C]//ProcofInternationalConferenceonMedicalImageComputingandComputer-AssistedIntervention.Cham:Springer,2020:263-273.

[18]YueGuanghui,HanWanwan,JiangBin,etal.Boundaryconstraintnetworkwithcrosslayerfeatureintegrationforpolypsegmentation[J].IEEEJournalofBiomedicalandHealthInformatics,2022,26(8):4090-4099.

[19]DucNT,OanhNT,ThuyNT,etal.ColonFormer:anefficienttransformerbasedmethodforcolonpolypsegmentation[EB/OL].(2022-06-07).http://doi.org/10.48550/arxiv.2205.08473.

[20]WangHuiyu,ZhuYukun,GreenB,etal.Axial-DeepLab:stand-aloneaxial-attentionforpanopticsegmentation[C]//ProcofEuropeanConferenceonComputerVision.Cham:Springer,2020:108-126.

[21]BernalJ,SánchezFJ,Fernández-EsparrachG,etal.WM-DOVAmapsforaccuratepolyphighlightingincolonoscopy:validationvs.saliencymapsfromphysicians[J].ComputerizedMedicalImagingandGraphics,2015,43:99-111.

[22]JhaD,SmedsrudPH,RieglerMA,etal.Kvasir-SEG:asegmentedpolypdataset[C]//ProcofInternationalConferenceonMultimediaModeling.Cham:Springer,2020:451-462.

[23]SilvaJ,HistaceA,RomainO,etal.TowardembeddeddetectionofpolypsinWCEimagesforearlydiagnosisofcolorectalcancer[J].InternationalJournalofComputerAssistedRadiologyandSurgery,2014,9(2):283-293.

[24]HuangXiaodong,ZhuoLi,ZhangHui,etal.Polypsegmentationnetworkwithhybrid.channel-spatialattentionandpyramidglobalcontextguidedfeaturefusion[J].ComputerizedMedicalImagingandGraphics,2022,98:102072.

[25]HuangCH,WuHY,LinYL.HarDNet-MSEG:asimpleencoder-decoderpolypsegmentationneuralnetworkthatachievesover0.9meandiceand86FPS[EB/OL].(2021-01-18).https://arxiv.org/abs/2101.07172v2.

[26]TomarNK,JhaD,BagciU,etal.TGANet:text-guidedattentionforimprovedpolypsegmentation[EB/OL].(2022-05-09).http://doi.org/10.48550/arxiv.2205.04280.

[27]LouAnge,GuanShuyue,KoH,etal.CaraNet:contextaxialreverseattentionnetworkforsegmentationofsmallmedicalobjects[EB/OL].(2022-01-13).http://doi.org/10.48550/arxiv.2108.07368.

主站蜘蛛池模板: 久久精品电影| 国产一级片网址| 小13箩利洗澡无码视频免费网站| 亚洲免费三区| 无码中文字幕精品推荐| 一本大道香蕉高清久久| 丁香六月综合网| 制服丝袜亚洲| 午夜毛片免费观看视频 | 国产黄色视频综合| 无码视频国产精品一区二区| 九九这里只有精品视频| 久久亚洲国产视频| 亚洲人人视频| 天堂成人在线| 欧美啪啪精品| 成人噜噜噜视频在线观看| 浮力影院国产第一页| 91免费国产在线观看尤物| 日韩123欧美字幕| 啦啦啦网站在线观看a毛片| 日韩激情成人| 国产成人a毛片在线| 婷婷午夜影院| 热99re99首页精品亚洲五月天| 国产真实乱子伦精品视手机观看 | 亚洲AV无码精品无码久久蜜桃| 在线毛片免费| 精品午夜国产福利观看| 国产chinese男男gay视频网| 国产精品亚欧美一区二区三区 | 色综合激情网| 亚洲av无码成人专区| 亚洲国产综合精品一区| 999精品视频在线| 欧美高清国产| 青青草久久伊人| 久久综合色88| 欧美精品另类| 99ri国产在线| 久久精品亚洲中文字幕乱码| 日本成人福利视频| 美美女高清毛片视频免费观看| 992Tv视频国产精品| 国内精品伊人久久久久7777人| 亚洲成人精品在线| 亚洲V日韩V无码一区二区| 9久久伊人精品综合| 久久国产成人精品国产成人亚洲 | 久久香蕉国产线看观看式| 青草国产在线视频| 5555国产在线观看| 国产精品理论片| 欧美日韩国产在线播放| 青青草a国产免费观看| 国产香蕉97碰碰视频VA碰碰看| 欧美精品成人| 亚洲视屏在线观看| 亚洲高清在线天堂精品| 欧美一区精品| 午夜天堂视频| 一级毛片基地| 亚洲AⅤ波多系列中文字幕| 日韩经典精品无码一区二区| 日韩第一页在线| 美美女高清毛片视频免费观看| 漂亮人妻被中出中文字幕久久| 乱色熟女综合一区二区| 精品日韩亚洲欧美高清a| 波多野结衣视频网站| 国模在线视频一区二区三区| 男人天堂亚洲天堂| 538国产视频| 欧美亚洲综合免费精品高清在线观看| 亚洲天堂精品在线观看| 免费中文字幕一级毛片| 成人欧美日韩| 久久久亚洲色| 国产日韩精品欧美一区喷| 欧美亚洲另类在线观看| 操国产美女| 美女啪啪无遮挡|