999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

殘差混合注意力與自適應(yīng)特征融合的腦腫瘤分割

2025-09-02 00:00:00吳進(jìn)旭吳云

關(guān)鍵詞:腦腫瘤分割;自適應(yīng)特征融合;殘差混合注意力;雙動(dòng)態(tài)卷積增強(qiáng)中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1001-3695(2025)08-037-2525-07doi:10.19734/j.issn.1001-3695.2024.10.0432

Brin tumor segmenttion sed on residul mixed ttention nd dptive feture fusion

Wu Jinxua,b,WuYuna,bt (a.StateKeyLaboratoryofublicBigData,b.ColegeofomputerSienceamp;Technology,GuzhouUniersty,Guiyang550ina)

Abstract:Theautomatedsegmentationofbrain tumorimagesiscrucialintheauxiliarydiagnosisandtreatmentof brain tumors.This paper proposed abrain tumor segmentation method RAC-Net,which combined aresidual mixedattention mechanismandadaptivefeaturefusion toaddress theproblemsofcomplexandvariablelesions inbrain tumorimages,as well as blurredboundariesbetweenlesionsandthebackgroud.FirstlyDDCEmoduleenhancedfeatureextractionflexibilityndimprovedthe adaptabilityofthe model.Then,RMA moduleextractedbothglobalandlocal features fromtheimage.Finally, AF2Mfused deepand shalowfeatures inthe decoding path,thereby enriching thefeature representation.Experiments on the public datasetsBraTS2019 and BraTS2O21andcros-dataset validation with BraTS2O23showthatRAC-Netoutperformsmost existingsegmentationmethodsacross varousmetrics,demonstrating itspotentialforasistingintediagosisofclinicalyrelevant brain tumor diseases.

Key words:brain tumor segmentation;adaptive feature fusion;residual mixed atention;dual dynamic convolution enhancement

0 引言

腦膠質(zhì)瘤是一種源自腦內(nèi)神經(jīng)膠質(zhì)細(xì)胞的腫瘤,是最常見(jiàn)的原發(fā)性顱腦惡性腫瘤,約占據(jù)所有原發(fā)性中樞神經(jīng)系統(tǒng)腫瘤的 40%~60% 。腦膠質(zhì)瘤的病變區(qū)域分布與形狀大小都具有很大的不確定性。目前,核磁共振成像在診斷和治療腦腫瘤方面優(yōu)于其他成像方式,因?yàn)樗哂袩o(wú)創(chuàng)性、不暴露于電離輻射并且在軟組織中具有良好的圖像對(duì)比度[1]。在臨床診斷中,很大程度上依賴于醫(yī)生對(duì)腦膠質(zhì)瘤病變區(qū)域的手動(dòng)標(biāo)注。由于標(biāo)注的精確度取決于診斷醫(yī)生的專業(yè)性,且手動(dòng)標(biāo)注病變區(qū)域較為耗時(shí),所以實(shí)現(xiàn)腦膠質(zhì)瘤的自動(dòng)分割對(duì)醫(yī)學(xué)領(lǐng)域的發(fā)展具有積極意義。

傳統(tǒng)用于腦腫瘤分割的機(jī)器學(xué)習(xí)算法有:多譜直方圖的專家系統(tǒng)2、模板分割[3、強(qiáng)度直方圖的圖形模型4、潛在圖譜的腫瘤邊界檢測(cè)[5]。與最近的腦腫瘤分割算法相比,早期的工作是在強(qiáng)條件下制定的,依賴于不現(xiàn)實(shí)的假設(shè)。其次,手工設(shè)計(jì)的特征工程受到先驗(yàn)知識(shí)的約束,不能完全推廣。

隨著深度學(xué)習(xí)技術(shù)[的革命性突破,越來(lái)越多的研究開(kāi)始專注于將深度神經(jīng)網(wǎng)絡(luò)應(yīng)用于計(jì)算機(jī)視覺(jué)的相關(guān)任務(wù)中。Shelhamer等人[7提出全卷積神經(jīng)網(wǎng)絡(luò),使用卷積層替換網(wǎng)絡(luò)中所有的層,同時(shí)使用上采樣對(duì)圖像的大小進(jìn)行恢復(fù),但其分割精確度較差。Ronneberger等人8在全卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上提出了U-Net,使用對(duì)稱的編碼器-解碼器結(jié)構(gòu)并結(jié)合了卷積神經(jīng)網(wǎng)絡(luò)與跳躍連接。U-Net的編碼器部分通過(guò)卷積層提取特征,而解碼器部分則通過(guò)轉(zhuǎn)置卷積將低分辨率的特征圖恢復(fù)到與輸入圖像相同的尺寸,并且跳躍連接使得解碼器能夠充分利用來(lái)自編碼器的高分辨率特征,這提高了網(wǎng)絡(luò)在邊緣細(xì)節(jié)處理上的能力。Chen等人[9將編碼器-解碼器結(jié)構(gòu)與空洞可分離卷積進(jìn)行結(jié)合,提出了DeepLabv3+結(jié)構(gòu),在減少計(jì)算復(fù)雜度的同時(shí)保持高分辨率特征的提取能力。

醫(yī)學(xué)圖像不同于自然圖像,其往往具有更復(fù)雜多變的結(jié)構(gòu)與低對(duì)比度等特點(diǎn),對(duì)病灶區(qū)域分割的精確度要求較高。雖然深度學(xué)習(xí)在圖像處理中得到了充分的發(fā)展,但在應(yīng)對(duì)醫(yī)學(xué)圖像分割任務(wù)時(shí),可能難以達(dá)到預(yù)期效果。所以,近年來(lái),許多針對(duì)醫(yī)學(xué)圖像分割任務(wù)的深度學(xué)習(xí)模型被提出。Chen等人[10]將Transformer與U-Net進(jìn)行結(jié)合,利用Transformer的全局感受野與卷積操作的局部特征提取能力,以實(shí)現(xiàn)更精確的分割。Valanarasu等人[1]在Transformer的基礎(chǔ)上引人了新的自注意力機(jī)制(gatedaxial-attention)與訓(xùn)練策略(local-global訓(xùn)練策略),在減少傳統(tǒng)Transformer模型計(jì)算成本的同時(shí),也提高了模型的分割精度。隨著Transformer和多層感知機(jī)等新型架構(gòu)的發(fā)展,越來(lái)越多的研究聚焦于更加高效、快速的分割方法。Valanarasu等人[12]提出了UNeXt,使用多層感知機(jī)替換U-Net中的卷積層,以避免卷積運(yùn)算帶來(lái)的高計(jì)算開(kāi)銷并使模型能有效運(yùn)用于實(shí)時(shí)醫(yī)學(xué)圖像分割任務(wù)。Liu等人[13]提出了一種新的混合架構(gòu),其融合了卷積操作的局部特征提取能力與Trans-former的全局上下文建模能力,并引入金字塔卷積和多層感知機(jī),以進(jìn)一步提升分割性能。Huang等人[14]提出了MISSFormer,通過(guò)在Transformer的基礎(chǔ)上設(shè)計(jì)的ReMix-FFN和ReMixedTransformercontextbridge模塊,以更好地捕獲全局依賴關(guān)系和局部上下文,從而提升醫(yī)學(xué)圖像分割性能。Roy等人[15]受Transformer全局特征提取能力的啟發(fā),在ConvNeXt的基礎(chǔ)上提出了一種大核卷積網(wǎng)絡(luò),以提升數(shù)據(jù)稀缺的醫(yī)學(xué)圖像分割性能。Wang等人[16設(shè)計(jì)了新的注意力機(jī)制與Transfor-mer模塊,以實(shí)現(xiàn)不同層次特征的有效融合。Wang等人[17]基于VisualMamba提出了Mamba-UNet,以獲取醫(yī)學(xué)圖像中復(fù)雜的細(xì)節(jié)和更廣泛的語(yǔ)義上下文信息。Cao等人[18]在MedNeXt的基礎(chǔ)上融合了動(dòng)態(tài)卷積技術(shù),以提高病灶區(qū)域邊界與整體的分割性能。

在腦科醫(yī)學(xué)領(lǐng)域,腦腫瘤分割的研究也取得了許多進(jìn)展。衣斐等人[19提出了一種將灰度直方圖與改進(jìn)細(xì)胞自動(dòng)機(jī)相結(jié)合的腦腫瘤分割算法,以解決因腦腫瘤圖像邊界模糊、復(fù)雜而導(dǎo)致的分割不準(zhǔn)確問(wèn)題。Zhou等人[20]提出一種模態(tài)缺失的腦腫瘤分割算法,用于在模態(tài)缺失的情況下獲得更好的分割精度。Zhou等人[21]提出了一種全新的三維深度卷積神經(jīng)網(wǎng)絡(luò),并在網(wǎng)絡(luò)的基礎(chǔ)上采用了三維深度監(jiān)督機(jī)制,以促進(jìn)三維腦腫瘤的精確分割。單成響等人22提出一種多視圖卷積輕量級(jí)腦腫瘤分割算法,以緩解三維卷積神經(jīng)網(wǎng)絡(luò)復(fù)雜度較大以及對(duì)硬件設(shè)備要求較高的問(wèn)題。

盡管上述各個(gè)方面對(duì)于腦腫瘤圖像分割方法已經(jīng)取得了一定的成果,但是由于腦腫瘤圖像病灶區(qū)域與背景區(qū)域的對(duì)比度較低與組織結(jié)構(gòu)復(fù)雜多變的特點(diǎn),使現(xiàn)有深度學(xué)習(xí)算法在分割病灶區(qū)域及其邊緣時(shí),容易出現(xiàn)誤分割與分割精度降低的問(wèn)題。為解決這一問(wèn)題,本文提出了一種結(jié)合殘差混合注意力與自適應(yīng)特征融合的腦腫瘤分割方法(RAC-Net)。首先,提出雙動(dòng)態(tài)卷積增強(qiáng)(DDCE)模塊,以實(shí)現(xiàn)模型對(duì)不同尺寸和形狀病灶區(qū)域的靈活適應(yīng)與精準(zhǔn)建模;然后,采用殘差混合注意力(RMA)模塊,在保留對(duì)病灶區(qū)域形態(tài)特征關(guān)注能力的同時(shí),增強(qiáng)對(duì)每個(gè)特征相關(guān)性的關(guān)注能力;最后,在解碼路徑中通過(guò)自適應(yīng)特征融合(AF2M)模塊融合不同尺度和層次的特征,以獲取更豐富的特征信息。實(shí)驗(yàn)結(jié)果表明,RAC-Net在BraTS2019和BraTS2021數(shù)據(jù)集上的表現(xiàn)優(yōu)于現(xiàn)有方法,并通過(guò)BraTS2023數(shù)據(jù)集驗(yàn)證了其跨數(shù)據(jù)集的泛化性能,說(shuō)明對(duì)臨床相關(guān)腦腫瘤疾病的輔助診斷具有一定的應(yīng)用價(jià)值。本文的主要貢獻(xiàn)如下:a)在U-Net的跳躍連接與下采樣部分提出殘差混合注意力模塊,通過(guò)捕獲腦腫瘤圖像中的局部特征或區(qū)域之間的相關(guān)性,增強(qiáng)網(wǎng)絡(luò)的表征能力,使網(wǎng)絡(luò)模型能夠更好地提取圖像的有效特征。b)設(shè)計(jì)一種自適應(yīng)特征融合模塊應(yīng)用于U-Net的解碼器部分,通過(guò)拼接操作融合U-Net解碼器部分的淺層與深層特征,以獲取更加豐富的特征信息,同時(shí)采用注意力機(jī)制將融合后的特征進(jìn)行有效的提取,提高模型泛化性能的同時(shí)提供更全面、更準(zhǔn)確的特征表示。

1相關(guān)工作

1.1 自注意力機(jī)制

自注意力機(jī)制[23]不再是僅僅對(duì)相鄰元素建立聯(lián)系,而是對(duì)每個(gè)元素與序列中的其他元素建立關(guān)聯(lián),最后通過(guò)計(jì)算元素之間的相對(duì)重要性來(lái)自適應(yīng)地捕捉元素之間的長(zhǎng)程依賴關(guān)系。由于自注意力機(jī)制只能關(guān)注到每個(gè)元素之間的關(guān)聯(lián),而忽略了元素與元素組之間的關(guān)系。Ge等人[24]提出了group-mixatten-tion模塊,利用了組聚合器同時(shí)捕捉元素與元素、元素與元素組和元素組與元素組的關(guān)聯(lián),并在標(biāo)準(zhǔn)的視覺(jué)識(shí)別基準(zhǔn)上進(jìn)行的廣泛實(shí)驗(yàn)證明了所提模塊的有效性。Zhao等人[25]提出了一種基于區(qū)域自注意力機(jī)制的網(wǎng)絡(luò)模型。該模型可以有效降低特征圖的噪聲和冗余特征的干擾,并在圖像分割細(xì)度與邊緣完整性方面優(yōu)于其他模型。Zhang等人[2提出了可變定向自注意力模塊與深度通道自注意力模塊,分別實(shí)現(xiàn)同時(shí)提取全局信息和局部信息與對(duì)通道之間的上下文信息進(jìn)行建模的功能,最后結(jié)合可變定向自注意力模塊與深度通道自注意力模塊提出了deformablehybridTransformer模塊對(duì)圖像進(jìn)行高質(zhì)量的物體分割。Tian等人[27]通過(guò)在YOLOv3的架構(gòu)中引入膨脹卷積和自注意力模塊,提出了一種快速準(zhǔn)確的目標(biāo)檢測(cè)器SA-YOLOv3。此外,還重建了基于GIoU和焦點(diǎn)損失的損耗函數(shù),以進(jìn)一步優(yōu)化圖像檢測(cè)性能。通過(guò)上述工作可知,自注意力機(jī)制能夠捕捉圖像中所有像素點(diǎn)之間的全局依賴關(guān)系,提供豐富的上下文信息,從而提升分割的準(zhǔn)確性和細(xì)節(jié)處理能力。考慮到這一優(yōu)點(diǎn),本文設(shè)計(jì)了一個(gè)混合殘差注意力模塊,并將其引入至U-Net編碼器與解碼器過(guò)渡的部分。

1.2 特征融合方法

在計(jì)算機(jī)視覺(jué)的相關(guān)任務(wù)中,特征融合通過(guò)結(jié)合不同來(lái)源或?qū)蛹?jí)的特征來(lái)增強(qiáng)模型的性能和魯棒性,提高任務(wù)完成的準(zhǔn)確性。特征融合豐富了特征的表示,有助于模型更好地理解和處理圖像數(shù)據(jù)。腦腫瘤圖像由于其存在圖像數(shù)據(jù)質(zhì)量較差、熱噪聲與電磁噪聲等問(wèn)題,導(dǎo)致病灶區(qū)域與背景區(qū)域?qū)Ρ榷容^低,使病灶區(qū)域的分割更加困難。引入特征融合方法,可以有效地融合不同層級(jí)的特征,以實(shí)現(xiàn)病灶區(qū)域的有效分割。Tan等人[28提出了一種基于多類型醫(yī)學(xué)圖像分割(SCIF-Net)和上下文信息融合的網(wǎng)絡(luò)結(jié)構(gòu)。該結(jié)構(gòu)包含特征金字塔編碼器、多尺度特征動(dòng)態(tài)聚合和自適應(yīng)空間信息融合三個(gè)模塊,使模型具有增強(qiáng)特征圖表示與有效聚合多尺度特征的能力。為了有效利用特征,Xie等人[29]提出了一種有效的基于通道分割的特征融合模塊用于特征復(fù)用,并利用通道分組機(jī)制加強(qiáng)了多尺度目標(biāo)的適配,最后在多個(gè)醫(yī)學(xué)數(shù)據(jù)集上取得了最先進(jìn)的性能。

通過(guò)已有的工作可知,特征融合方法能夠整合來(lái)自不同層級(jí)的特征信息,提高分割模型對(duì)圖像內(nèi)容的理解和表達(dá)能力,從而增強(qiáng)分割的準(zhǔn)確性和魯棒性。考慮到這一優(yōu)點(diǎn),本文設(shè)計(jì)了一個(gè)自適應(yīng)特征融合模塊,并將其引入至U-Net解碼器部分。

2 本文方法

2.1 總體結(jié)構(gòu)

在設(shè)計(jì)腦腫瘤分割模型的總體結(jié)構(gòu)方面,本文綜合考慮到網(wǎng)絡(luò)結(jié)構(gòu)、參數(shù)數(shù)量與分割性能等因素,在不遷移大模型的基礎(chǔ)上,體現(xiàn)模型腦腫瘤分割的高性能。因此,本文提出RAC-Net模型,其模型結(jié)構(gòu)如圖1所示,包含編碼器、解碼器與跳躍連接。首先,為了使網(wǎng)絡(luò)能夠更多關(guān)注到腦腫瘤病灶區(qū)域的細(xì)節(jié)特征,在網(wǎng)絡(luò)的編碼器與解碼器中,使用帶有動(dòng)態(tài)卷積的DDCE模塊替換原始U-Net中的卷積模塊。因?yàn)镈DCE模塊能夠更好地適配腦腫瘤的形狀結(jié)構(gòu),所以DDCE模塊的使用能夠加強(qiáng)模型對(duì)于病灶區(qū)域特征的提取能力。然后,在編碼路徑中,網(wǎng)絡(luò)在U-Net的基礎(chǔ)上采用了RMA模塊來(lái)近一步提取有效特征,模塊中引入組聚合器用以聚合不同的元素,并同時(shí)捕捉元素與元素、元素與元素組和元素組與元素組的關(guān)聯(lián),以學(xué)習(xí)到更多有效的特征關(guān)系。最后,為使網(wǎng)絡(luò)能夠同時(shí)學(xué)習(xí)到粗、細(xì)粒度的特征,在解碼路徑中加入AF2M模塊,以用于調(diào)整特征并使模型學(xué)習(xí)到更為有效的語(yǔ)義特征。該模塊將各尺度特征進(jìn)行融合操作后經(jīng)過(guò)一個(gè)高效通道注意力(efficientchan-nelattention,ECA)模塊并將最淺層的特征經(jīng)過(guò)一個(gè)全局上下文注意力(globalcontextattention,GC)模塊,然后將兩個(gè)注意力模塊得到的特征圖進(jìn)行融合。

2.2 雙動(dòng)態(tài)卷積增強(qiáng)模塊

由于動(dòng)態(tài)卷積能夠很好地適應(yīng)不同尺寸和形狀的目標(biāo),所以它在圖像分割中能夠更準(zhǔn)確地捕捉到圖像中不同區(qū)域的特征,從而提高分割的精度和細(xì)節(jié)表現(xiàn)。然而,單一動(dòng)態(tài)卷積的固定卷積核大小可能限制其對(duì)多尺度特征的適應(yīng)能力,尤其是在處理多尺度病變區(qū)域時(shí),難以同時(shí)兼顧大范圍的全局信息和小范圍的局部細(xì)節(jié)。為此,本文提出了雙動(dòng)態(tài)卷積增強(qiáng)模塊(DDCE),通過(guò)引入兩個(gè)動(dòng)態(tài)卷積分支,分別采用不同大小的卷積核來(lái)提取多尺度特征。較大的卷積核分支側(cè)重于捕獲全局上下文信息,較小的卷積核分支專注于細(xì)粒度的局部特征表達(dá)。最終,通過(guò)融合兩分支提取的特征,以實(shí)現(xiàn)對(duì)不同尺寸和形狀病灶區(qū)域的精準(zhǔn)建模。DDCE模塊結(jié)構(gòu)如圖2所示。

圖2雙動(dòng)態(tài)卷積增強(qiáng)(DDCE)模塊

Fig.2Dual dynamic convolution enhancement module

具體來(lái)說(shuō),對(duì)于輸入特征圖 x∈RH×W×C ,首先先經(jīng)過(guò)一個(gè)傳統(tǒng)的 3×3 卷積模塊、BN層(batchnormalization)ReLU激活函數(shù)來(lái)對(duì)輸入特征圖中的腫瘤區(qū)域特征進(jìn)行預(yù)提取,為得到更多有效的全局上下文與局部特征信息,再將預(yù)提取后的特征圖分別經(jīng)過(guò)兩個(gè)不同卷積核大小的CondConv模塊[30],以進(jìn)行不同尺度信息的有效提取,此過(guò)程如圖2(b)所示。CondConv模塊旨在根據(jù)輸入特征圖的特性來(lái)動(dòng)態(tài)調(diào)整卷積核的參數(shù),從而提高模型的性能和效率。因此在處理輸入的特征圖之前,Cond-Conv模塊使用一個(gè)條件函數(shù)(通常是一個(gè)輕量級(jí)的神經(jīng)網(wǎng)絡(luò))對(duì)輸入特征圖進(jìn)行分析,即將輸入特征圖輸出為條件向量 s∈ Rn ,其中 n 為卷積核的數(shù)量。然后,CondConv模塊動(dòng)態(tài)地計(jì)算一個(gè)加權(quán)卷積核 Wα ,該卷積核是 n 個(gè)卷積核的加權(quán)和,權(quán)重由條件向量 s 決定。具體地,加權(quán)卷積核 ψα 的計(jì)算可以表示為

其中: Wm 為第 m 個(gè)卷積核; b?m 是第 ?m 個(gè)卷積核的權(quán)重系數(shù)。bm 可以通過(guò)條件向量 s 和一個(gè)可學(xué)習(xí)的路由函數(shù) q 計(jì)算得到:

其中: q(s)m 是路由函數(shù) q 對(duì)條件向量 s 的第 m 個(gè)元素的處理結(jié)果。然后,將輸人的特征圖與加權(quán)卷積核 ψα 進(jìn)行卷積,得到最終的CondConv模塊的輸出特征圖。

最后,將得到的不同尺度信息的特征圖在元素維度上進(jìn)行相加操作,以實(shí)現(xiàn)不同尺度信息的融合。

2.3殘差混合注意力模塊

在原始U-Net中,通常使用 3×3 的卷積塊來(lái)對(duì)圖像進(jìn)行特征提取,傳統(tǒng)卷積操作盡管有著出色的平移不變性與局部細(xì)節(jié)特征提取能力,但缺乏全局特征學(xué)習(xí)能力與較大的感受野,而單純的堆疊下采樣模塊雖能逐步擴(kuò)大感受野,但也會(huì)帶來(lái)細(xì)節(jié)特征丟失的問(wèn)題,對(duì)類似腦腫瘤這樣邊緣模糊的分割任務(wù)尤為不利。為了克服這一問(wèn)題,本文結(jié)合組混合注意力機(jī)制、殘差連接與ECA注意力模塊的思想來(lái)有效學(xué)習(xí)圖像中每個(gè)區(qū)域之間的關(guān)聯(lián)性,使得網(wǎng)絡(luò)有著更好的特征提取能力,在保留對(duì)病灶區(qū)域形態(tài)特征關(guān)注能力的同時(shí),增強(qiáng)對(duì)每個(gè)特征相關(guān)性的關(guān)注能力,RMA模塊的結(jié)構(gòu)如圖3所示。

圖3殘差混合注意力(RMA)模塊Fig.3Residual mixed attention module

具體來(lái)說(shuō),對(duì)于輸入的特征圖,首先經(jīng)過(guò)一個(gè)patchembed-ding層,將特征圖拆分成查詢 (query)、鍵K(key)和值 ν (value)三個(gè)部分,并將拆分得到的查詢、鍵與值部分進(jìn)行均勻拆分,每個(gè)部分被均勻地拆分為四個(gè)特征組,然后分別對(duì)每個(gè)部分中的三組進(jìn)行聚合得到組代理,其中未與其他組進(jìn)行聚合的組則單獨(dú)進(jìn)行聚合,以使組代理能夠捕獲特征組之間的相關(guān)性,從而提供更豐富的上下文信息。在進(jìn)行聚合操作以后,通過(guò)ECA模塊(efficientchannelattention)來(lái)融合每個(gè)組代理,以學(xué)習(xí)每個(gè)組代理之間的關(guān)聯(lián)性,再經(jīng)過(guò)一個(gè)線性層,以學(xué)習(xí)特征組與組代理之間的關(guān)聯(lián)性。最后將提取有效特征后的特征圖與原始特征圖進(jìn)行融合,再經(jīng)過(guò)一個(gè)ECA模塊,以增強(qiáng)特征圖在維度上有效特征的提取。總體來(lái)看,殘差混合注意力模塊能夠有效提高全局上下文特征的提取能力,以劃分特征組與組代理的方式,提取全局上下文信息。

2.4 自適應(yīng)特征融合模塊

在原始U-Net網(wǎng)絡(luò)解碼器的每個(gè)層級(jí)中,只運(yùn)用了傳統(tǒng)的卷積與上采樣操作,但特征在多次卷積與上采樣后會(huì)丟失掉一些重要的語(yǔ)義與位置特征,從而降低圖像的分割精度。本文在網(wǎng)絡(luò)解碼器的每個(gè)層級(jí)中,通過(guò)AF2M模塊對(duì)每個(gè)層級(jí)的特征進(jìn)行有效融合與學(xué)習(xí),以增強(qiáng)與利用每個(gè)層級(jí)學(xué)習(xí)到的特征。具體而言,AF2M模塊通過(guò)對(duì)每個(gè)維度的特征進(jìn)行動(dòng)態(tài)加權(quán)調(diào)整,突出和增強(qiáng)關(guān)鍵特征,以提升重要信息的提取能力。同時(shí),AF2M模塊還作用于淺層特征,通過(guò)自適應(yīng)地調(diào)整與增強(qiáng)邊緣和細(xì)節(jié)信息,確保在特征融合過(guò)程中保留重要的細(xì)節(jié)和邊緣信息。自適應(yīng)特征融合模塊的結(jié)構(gòu)如圖4所示。具體來(lái)說(shuō),對(duì)于解碼器部分的四個(gè)不同尺度大小的特征圖,首先使用上采樣操作改變它們尺度的大小,緊接著將四個(gè)特征在通道維度上進(jìn)行拼接。然后將拼接后的特征圖輸入到ECA模塊中,以計(jì)算每個(gè)通道之間的相關(guān)性,并通過(guò)局部卷積操作自適應(yīng)地調(diào)整每個(gè)通道的權(quán)重。緊接著將淺層特征圖輸入到GC模塊,以計(jì)算淺層特征的全局上下文信息,并自適應(yīng)調(diào)整全局上下文信息與局部特征信息的融合。最后將ECA與GC模塊輸出的特征圖在元素維度上進(jìn)行相加,得到AF2M模塊的輸出。AF2M模塊的詳細(xì)步驟如下。

Iβ=GC(I)

O=add(Iα,Iβ

(204號(hào) 分別表示自適應(yīng)特征融合模塊四個(gè)不同尺度輸入的特征圖;UP表示上采樣操作; 表示特征在通道維度上的拼接操作;ECA與GC分別表示ECA和GC注意力模塊;add表示特征圖在元素維度上的相加操作; Iα∈RH×W×4C 表示 ECA模塊輸出的特征圖; Iβ∈RH×W×C 表示GC模塊輸出的特征圖; O∈ (204號(hào) RH×W×2 表示 AF2M 模塊輸出的特征圖。

圖4自適應(yīng)特征融合(AF2M)模塊Fig.4Adaptive feature fusion module

ECA模塊[31如圖5所示。首先,將輸入特征圖經(jīng)過(guò)全局平均池化(globalaveragepooling,GAP),緊接著使用一維卷積操作來(lái)學(xué)習(xí)通道間的依賴關(guān)系,然后通過(guò)sigmoid函數(shù)得到通道注意力圖,最后再將該通道注意力圖與ECA模塊的輸入特征圖進(jìn)行逐像素相乘,從而得到ECA模塊輸出。

圖5高效通道注意力(ECA)模塊Fig.5Efficientchannel attentionmodule

GC模塊[32如圖6所示。首先,將輸人特征圖經(jīng)過(guò) 1×1 的卷積模塊與softmax激活函數(shù)后與輸入特征圖進(jìn)行相乘以獲取全局上下文信息特征圖,緊接著通過(guò)兩個(gè) 1×1 的卷積模塊與LayerNorm模塊以捕獲通道依賴關(guān)系。最后,將處理后的特征圖與輸入特征圖進(jìn)行相加得到最終GC模塊的輸出。

圖6全局上下文注意力(GC)模塊Fig.6Global contextmodule

3 實(shí)驗(yàn)和結(jié)果分析

3.1實(shí)驗(yàn)數(shù)據(jù)集

a)BraTS2019數(shù)據(jù)集[33]。BraTS2019包括335名患者的1340張MRI掃描,每位患者都包含T1、T1ce、T2和FLAIR四種模態(tài)的MR圖像,并且每一張MRI掃描的病灶區(qū)域都由經(jīng)驗(yàn)豐富的臨床醫(yī)生進(jìn)行標(biāo)注。本文實(shí)驗(yàn)中,將選取FLAIR模態(tài)的數(shù)據(jù)集,并按照 8:1:1 的比例將圖片劃分為訓(xùn)練集、驗(yàn)證集與測(cè)試集。

b) BraTS2021數(shù)據(jù)集[34]。BraTS2021 是一個(gè)大規(guī)模的腦部多模態(tài)MR腦膠質(zhì)瘤分割數(shù)據(jù)集,包括1251位患者的5004張MRI掃描,每位患者都包含T1、T1ce、T2和FLAIR四種模態(tài)的MR圖像,并且每一張MRI掃描的病灶區(qū)域都由經(jīng)驗(yàn)豐富的臨床醫(yī)生進(jìn)行標(biāo)注。本文實(shí)驗(yàn)中,將選取FLAIR模態(tài)的數(shù)據(jù)集,并按照 8:1:1 的比例將圖片劃分為訓(xùn)練集、驗(yàn)證集與測(cè)試集。

c)BraTS2023數(shù)據(jù)集[35]。BraTS2023包含了多個(gè)來(lái)自不同醫(yī)療機(jī)構(gòu)的腦部MRI掃描圖像,這些圖像覆蓋了不同類型的腦腫瘤,如成人腦膠質(zhì)瘤、兒童腦膠質(zhì)瘤、腦轉(zhuǎn)移瘤等。本文實(shí)驗(yàn)中,該數(shù)據(jù)集主要用于跨數(shù)據(jù)集驗(yàn)證。

3.2 數(shù)據(jù)預(yù)處理

由于原始圖像未進(jìn)行標(biāo)準(zhǔn)化操作,在對(duì)模型訓(xùn)練過(guò)程中會(huì)出現(xiàn)模型訓(xùn)練不穩(wěn)定的問(wèn)題。所以在將數(shù)據(jù)集圖片輸人網(wǎng)絡(luò)模型之前,會(huì)對(duì)其進(jìn)行預(yù)處理,包括變換分辨率、圖像標(biāo)準(zhǔn)化與灰度轉(zhuǎn)換操作。在完成以上步驟后,由于BraTS2019與BraTS2021數(shù)據(jù)集提供的訓(xùn)練圖片較少,不能很好地提高網(wǎng)絡(luò)的泛化性能,需要對(duì)圖片進(jìn)行擴(kuò)充操作:對(duì)圖像分別進(jìn)行隨機(jī)翻轉(zhuǎn)、隨機(jī)平移、隨機(jī)縮放與垂直翻轉(zhuǎn)等操作。最后得出14394張大小為 256×256 的圖片用于訓(xùn)練、驗(yàn)證與測(cè)試。

3.3 評(píng)價(jià)指標(biāo)

在圖像分割任務(wù)中,Dice系數(shù)、特異性(SP)Jaccard相關(guān)系數(shù)、MIoU與 F1 -score五個(gè)指標(biāo)常作為評(píng)價(jià)模型分割結(jié)果優(yōu)劣的標(biāo)準(zhǔn),本文也將其作為評(píng)價(jià)指標(biāo),其公式如表1所示。

Tab.1Formulaofevaluationindex

其中:A代表預(yù)測(cè)分割結(jié)果的元素集合; B 代表正確分割結(jié)果的元素集合;真陽(yáng)性 TP 為正確分類的病灶區(qū)域像素個(gè)數(shù);真陰性TN為正確分類的背景點(diǎn)像素個(gè)數(shù);假陽(yáng)性 FP 為背景像素誤分成病灶區(qū)域像素的個(gè)數(shù);假陰性 FN 為病灶區(qū)域像素誤分成背景像素的個(gè)數(shù); k 代表圖像中類別的個(gè)數(shù),由于本文中僅存在病灶區(qū)域和背景區(qū)域兩個(gè)類別,所以 k=2 ;特別地, TPi 為第 i 類別被正確分類的像素個(gè)數(shù), FPi 為預(yù)測(cè)為第 i 類但真實(shí)不是第 i 類的像素個(gè)數(shù), FNi 為真實(shí)為第 i 類但預(yù)測(cè)不是第 i 類的像素個(gè)數(shù)。

表2訓(xùn)練參數(shù)設(shè)置Tab.2Training parameter setting

3.4 實(shí)驗(yàn)設(shè)置

本文的所有實(shí)驗(yàn)代碼都是在PyTorch2.0.0框架下實(shí)現(xiàn)的,在訓(xùn)練與測(cè)試階段,模型運(yùn)行在一個(gè)包含L20(48GB)顯卡、100 GB內(nèi)存、 Platinum 8457C CPU、Ubuntu操作系統(tǒng)的實(shí)驗(yàn)平臺(tái)上。在訓(xùn)練中使用RMSprop作為優(yōu)化器來(lái)讓模型有更好的性能表現(xiàn),學(xué)習(xí)率為1E-8,批量大小設(shè)置為8,epoch輪數(shù)設(shè)置為100,細(xì)節(jié)參數(shù)設(shè)置如表2所示。

3.5 實(shí)驗(yàn)結(jié)果

為了驗(yàn)證本文方法在腦腫瘤分割上的有效性和可行性,在BraTS2019和BraTS2021兩個(gè)常用公開(kāi)數(shù)據(jù)集上對(duì)RAC-Net與其他表現(xiàn)優(yōu)異的基于深度學(xué)習(xí)的分割方法進(jìn)行比較,比較結(jié)果如表3、4所示,其中最優(yōu)指標(biāo)加粗表示。

表3RAC-Net與其他方法在BraTS2019數(shù)據(jù)集上的比較Tab.3Comparison between RAC-Net with other methods on BraTS2019

表4RAC-Net與其他方法在BraTS2021數(shù)據(jù)集上的比較

由表3、4可以看出,本文方法在兩個(gè)不同腦腫瘤數(shù)據(jù)集上表現(xiàn)優(yōu)異,在腦腫瘤分割性能上強(qiáng)于其他分割網(wǎng)絡(luò)模型。在BraTS2019數(shù)據(jù)集上,RAC-Net的Dice、SP、Jaccard F1 -score與MIoU系數(shù)指標(biāo)均已達(dá)到最優(yōu)并相較于次優(yōu)的模型分別提高了1.21,0.11,0.22,0.11,1.82 百分點(diǎn)。在BraTS2021數(shù)據(jù)集上,RAC-Net的 F1 -score ,sp 、Jaccard與MIoU系數(shù)指標(biāo)亦達(dá)到最優(yōu),相較于次優(yōu)的模型分別提高了 0.14,0.14,0.60,3.05 百分點(diǎn)。

在處理復(fù)雜的醫(yī)學(xué)圖像時(shí),RAC-Net的表現(xiàn)更優(yōu),這主要?dú)w因于其結(jié)構(gòu)設(shè)計(jì)上的有效性。對(duì)比MISSFormer和MedNeXt模型,盡管它們?cè)谔卣魈崛『腿诤戏矫娌捎昧藦?fù)雜的網(wǎng)絡(luò)架構(gòu),但它們?cè)谔幚韴D像中細(xì)節(jié)和邊緣信息的增強(qiáng)上相對(duì)不足,導(dǎo)致無(wú)法有效分割背景模糊的區(qū)域。對(duì)比HybridCNNTrans模型,盡管它結(jié)合了卷積神經(jīng)網(wǎng)絡(luò)和Transformer架構(gòu),增強(qiáng)了特征表達(dá),但在處理細(xì)粒度特征和局部信息方面的能力相對(duì)較弱,導(dǎo)致在細(xì)節(jié)和邊緣區(qū)域的分割精度較低。

圖7是使用典型腦腫瘤分割方法與本文方法在BraTS2021數(shù)據(jù)集上的可視化對(duì)比,可以看出本文方法相較于U-Net、UNeXt、MedT與TransUNet,在病灶區(qū)域形狀不規(guī)則、輪廓邊界模糊、病灶區(qū)域?qū)Ρ榷鹊偷惹闆r下均取得了很好的分割效果,其分割結(jié)果最接近真實(shí)標(biāo)簽。模型中的RMA模塊能夠改善U-Net在模糊邊界特征提取方面的不足。該模塊中的自注意力機(jī)制可以有效地提取更多的圖像上下文信息。而ECA注意力機(jī)制可以進(jìn)一步增強(qiáng)模型對(duì)分割目標(biāo)的關(guān)注度,從而提升分割性能。AF2M模塊能夠有效融合融合不同尺度的特征信息,以獲取更豐富的特征信息,進(jìn)一步提升分割性能。同時(shí)使用DDCE模塊替換傳統(tǒng)卷積模塊能改善傳統(tǒng)卷積操作在特征提取能力上的不足,以實(shí)現(xiàn)更靈活的特征提取和增強(qiáng)的模型適應(yīng)能力。

圖7不同方法在BraTS2021數(shù)據(jù)集上的分割結(jié)果Fig.7Segmentationresultsof BraTS2O21 dataset bydifferentmethods

3.6消融實(shí)驗(yàn)

為進(jìn)一步驗(yàn)證RAC-Net中各模塊的有效性,本文將在公共數(shù)據(jù)集BraTS2019、BraTS2021上進(jìn)行消融實(shí)驗(yàn),結(jié)果如表5、6所示,其中最優(yōu)指標(biāo)加粗表示。

表5BraTS2019數(shù)據(jù)集上的消融實(shí)驗(yàn)結(jié)果

Tab.5Resultsof ablation experiments onBraTS2019

表6BraTS2021數(shù)據(jù)集上的消融實(shí)驗(yàn)結(jié)果

由表可知,在原始U-Net的基礎(chǔ)上,將RMA模塊添加到模型后,在BraST2019、BraST2021數(shù)據(jù)集上,Dice、 sp 特異性系數(shù)、Jaccard -score與MIoU系數(shù)分別得到了有效的提升。這說(shuō)明融合殘差連接與組聚合的自注意力機(jī)制模塊可以更多地提取圖像中的關(guān)聯(lián)關(guān)系。在加入RMA與AF2M模塊后,模型對(duì)比原始U-Net網(wǎng)絡(luò)在Dice、 sp 特異性系數(shù)、Jaccard、 F1 -score與MIoU系數(shù)指標(biāo)中均取得了一定的提升。具體而言,RMA模塊能夠聚焦于腫瘤圖像中關(guān)鍵的局部特征,這些特征對(duì)于區(qū)分腫瘤區(qū)域與正常組織尤為重要;同時(shí),RMA模塊通過(guò)建模不同局部區(qū)域之間的相關(guān)性,實(shí)現(xiàn)了全局與局部信息的動(dòng)態(tài)結(jié)合,避免了下采樣操作可能導(dǎo)致的信息丟失問(wèn)題,從而提升了模型對(duì)復(fù)雜特征模式的學(xué)習(xí)能力;AF2M模塊則有效融合了淺層細(xì)節(jié)特征與深層語(yǔ)義特征,進(jìn)一步提高了模型對(duì)不同層級(jí)特征的提取能力;最后,將DDCE模塊替換傳統(tǒng)卷積模塊后,五個(gè)指標(biāo)均有較大的提升,進(jìn)一步說(shuō)明了該模塊有效的特征提取和增強(qiáng)模型的適應(yīng)能力,提升了模型的分割效果。

為了更好地展示RAC-Net的分割效果,本文將消融實(shí)驗(yàn)的預(yù)測(cè)結(jié)果進(jìn)行了可視化比較。如圖8所示,將BraTS2021數(shù)據(jù)集上消融實(shí)驗(yàn)的部分預(yù)測(cè)結(jié)果及其細(xì)節(jié)部位進(jìn)行了可視化比較。首先,由第一與二張圖像的放大分割結(jié)果可以看出,消融實(shí)驗(yàn)的其余模型都出現(xiàn)了比較明顯的背景誤分割成腦腫瘤病變區(qū)域的問(wèn)題,雖然RAC-Net在一些邊緣區(qū)域也出現(xiàn)了一定的誤分割問(wèn)題,但是相較于消融實(shí)驗(yàn)的其它模型的分割效果好很多。由第三張圖像的放大分割結(jié)果圖可以看出,除了RAC-Net,消融實(shí)驗(yàn)的其余模型對(duì)紫色區(qū)域的分割都出現(xiàn)了很明顯的誤分割現(xiàn)象(見(jiàn)電子版)。綜上所述,可以看出RAC-Net是最為接近專家標(biāo)注結(jié)果的。

圖8消融實(shí)驗(yàn)的可視化比較 Fig.8Visual comparison of ablation experiment

3.7跨數(shù)據(jù)集驗(yàn)證

為驗(yàn)證RAC-Net模型的泛化能力,本文進(jìn)行了跨數(shù)據(jù)集驗(yàn)證,具體來(lái)說(shuō),本文使用BraTS2021數(shù)據(jù)集作為訓(xùn)練集,而數(shù)據(jù)集BraTS2023作為驗(yàn)證集,驗(yàn)證結(jié)果如表7所示。與其他模型相比,RAC-Net在各個(gè)指標(biāo)中的表現(xiàn)均優(yōu)于對(duì)比模型,這一結(jié)果驗(yàn)證了RAC-Net擁有較好的泛化性能。

圖9為RAC-Net與其他主流分割模型在跨數(shù)據(jù)集上驗(yàn)證的可視化比較。雖然RAC-Net在某些復(fù)雜區(qū)域中仍存在少量誤分割現(xiàn)象,但相比其他分割方法,其分割結(jié)果整體上更接近于真實(shí)標(biāo)簽,表現(xiàn)出更高的準(zhǔn)確性和魯棒性。尤其是在腫瘤邊界模糊或形狀復(fù)雜的情況下,RAC-Net能夠更準(zhǔn)確地捕捉到腫瘤區(qū)域的關(guān)鍵特征,實(shí)驗(yàn)結(jié)果表明RAC-Net在處理跨數(shù)據(jù)集任務(wù)中的泛化能力顯著優(yōu)于其他方法。

3.8參數(shù)對(duì)模型的影響實(shí)驗(yàn)

為進(jìn)一步探究其他參數(shù)對(duì)實(shí)驗(yàn)結(jié)果的影響,本節(jié)在BraTS2021數(shù)據(jù)集上進(jìn)行了各參數(shù)分析的實(shí)驗(yàn)。主要分析了DDCE模塊卷積核大小與模型深度對(duì)分割結(jié)果的影響。本文根據(jù)可選取的參數(shù)設(shè)置了四個(gè)實(shí)驗(yàn)方案(實(shí)驗(yàn)A、B、C與RAC-Net)。具體而言,實(shí)驗(yàn)A:DDCE卷積核大小分別設(shè)置為 3×3 和 7×7 ,模型深度設(shè)置為4。實(shí)驗(yàn)B:DDCE卷積核大小分別設(shè)置為 3×3 和 5×5 ,模型深度設(shè)置為3。實(shí)驗(yàn)C:DDCE卷積核大小分別設(shè)置為 3×3 和 7×7 ,模型深度設(shè)置為3。其結(jié)果如表8所示。

表8RAC-Net在BraTS2021數(shù)據(jù)集上不同參數(shù)的結(jié)果對(duì)比Tab.8Comparison of RAC-Net results for different parameters on theBraTS2021 dataset

實(shí)驗(yàn)B、C在將模型深度設(shè)置為3的情況下,模型的各項(xiàng)指標(biāo)出現(xiàn)了一定的下降。這表明了模型深度減少時(shí),模型無(wú)法有效捕捉圖像中的復(fù)雜模式、語(yǔ)義信息和全局結(jié)構(gòu),導(dǎo)致模型分割性能下降。實(shí)驗(yàn) A,C 將卷積核大小設(shè)置為 3×3 和 7×7 模型性能同樣出現(xiàn)了一定的下降。增大卷積核雖然能捕獲更大范圍的圖像信息,從而更好地理解圖像的全局結(jié)構(gòu)和語(yǔ)義特征,但是會(huì)增加計(jì)算成本并且會(huì)損失一定的局部特征細(xì)節(jié),導(dǎo)致模型分割性能下降。

綜上實(shí)驗(yàn)結(jié)果以及分析表明,不同卷積核大小與模型深度會(huì)對(duì)模型最終的分割精度產(chǎn)生一定的影響,因此本文將卷積核大小分別設(shè)置為 3×3 和 5×5 ,模型深度設(shè)置為4,作為模型的最優(yōu)參數(shù)。

4結(jié)束語(yǔ)

針對(duì)腦腫瘤圖像分割精度低的問(wèn)題,本文提出一種結(jié)合殘差混合自注意力與自適應(yīng)多尺度特征融合的腦腫瘤分割方法。在編碼路徑上使用殘差混合自注意力模塊來(lái)提取到更多的關(guān)聯(lián)特征;在解碼路徑中加入自適應(yīng)多尺度特征融合模塊來(lái)對(duì)每個(gè)層級(jí)的特征進(jìn)行有效融合與學(xué)習(xí),以增強(qiáng)與利用每個(gè)層級(jí)學(xué)習(xí)到的特征,避免因重要特征丟失而導(dǎo)致分割精度的下降。實(shí)驗(yàn)結(jié)果表明,本文方法在腦腫瘤分割任務(wù)中有較好的表現(xiàn),優(yōu)于現(xiàn)有方法,不僅具有較好的魯棒性與泛化性,而且對(duì)邊界模糊區(qū)域有較好的分割能力。但本文的實(shí)驗(yàn)數(shù)據(jù)是二維平面的圖像,并未考慮到三維圖像中豐富的空間信息,因此下一步研究重點(diǎn)應(yīng)著重于從3D圖像人手構(gòu)建神經(jīng)網(wǎng)絡(luò),充分利用其空間信息來(lái)提升分割效果。

參考文獻(xiàn):

[1]Wu Mingliang,Ye Haili,Wu Yun,et al.Brain tumor image segmentation based on grouped convolution [J]. Journal of Physics: Conference Series,2022,2278(1):012042.

[2]Clark M C,HallL O,Goldgof DB,et al.Automatic tumor segmentation using knowledge-based techniques[J]. IEEE Trans on Medical Imaging,1998,17(2):187-201.

[3]Prastawa M,Bulitt E,Ho S,et al.Abrain tumor segmentation framework based on outlier detection[J].Medical Image Analysis,2004,8(3):275-283.

[4]Corso JJ,Sharon E,Dube S,etal.Efficient multilevel brain tumor segmentation with integrated Bayesian model classification[J].IEEE Trans on Medical Imaging,2008,27(5): 629-640.

[5]Menze B H,van Leemput K,Lashkari D,et al.A generative model forbrain tumor segmentation in multi-modal images [M]// Jiang Tianzi,NavabN,PluimJPW,et al.Medical Image Computing and Computer-Assisted Intervention.Berlin:Springer,201O:151-159.

[6]陳英,鄭鋮,易珍,等.肝臟及腫瘤圖像分割方法綜述[J].計(jì)算機(jī) 應(yīng)用研究,2022,39(3):641-650.(Chen Ying,Zheng Cheng,Yi Zhen,et al. Review of liver and tumor image segmentation methods [J]. Application Research of Computers,2022,39(3):641-650.)

[7]Shelhamer E,Long J,Darrell T.Fully convolutional networks for semantic segmentation[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2017,39(4): 640-651.

[8]Ronneberger O,F(xiàn)ischer P,Brox T.U-Net:convolutional networks for biomedical image segmentation [M]// Navab N,Hornegger J, WellsW,et al. Medical Image Computing and Computer-Assisted Intervention. Cham:Springer,2015: 234-241.

[9]Chen L C,Zhu Yukun,Papandreou G,et al. Encoder-decoder with atrous separable convolution for semantic image segmentation [C]// Proc of the 15th European Conference on Computer Vision. Cham; Springer,2018:833-851.

[10]Chen Jieneng,Lu Yongyi,Yu Qihang,et al. Transunet:Transformers make strong encoders for medical image segmentation [EB/ OL].(2021)[2024-12-26]htps://arxiv.org/abs/2102.04306.

[11]Valanarasu JMJ,OzaP,Hacihaliloglu I,etal.Medical Transformer: gated axial-attention for medical image segmentation[M]//de Bruijne M, Catin Philippe C, Cotin S,et al.Medical Image Computing and Computer Assisted Intervention-ICCAI2021.Cham:Springer,2021:36-46.

[12]Valanarasu JMJ,Patel VM.UNeXt:MLP-based rapid medical image segmentation network[M]//Wang Linwei,Dou Qi,F(xiàn)letcherP T,et al.Medical Image Computing and Computer Assisted InterventionMICCAI 2022. Cham: Springer Nature Switzerland,2022: 23-33.

[13]Liu Xiaowei,Hu Yikun,Chen Jianguo.Hybrid CNN-Transformer model for medical image segmentation with pyramid convolution and multi-layer perceptron[J].Biomedical Signal Processing and Control,2023,86:105331.

[14]Huang Xiaohong,Deng Zhifang,Li Dandan,et al. MISSFormer:an effective transformer for 2D medical image segmentation[J].IEEE Trans on Medical Imaging,2023,42(5):1484-1494.

[15]RoyS,KoehlerG,UlrichC,etal.MedNeXt:Transformer-driven scaling of ConvNets for medical image segmentation[M]// Greenspan H,Madabhushi P,Mousavi P,et al. Medical Image Computing and Computer Assisted Intervention-MICCAI 2023. Cham: Springer, 2023:405-415.

[16]Wang Cheng,Wang Le,Wang Nuoqi,et al. CFATransUnet:channelwise crossfusionattention and transformer for 2Dmedical image segmentation[J].Computers in Biology and Medicine,2024,168: 107803.

[17]Wang Ziyang,Zheng Jianqing, Zhang Yichi, et al. Mamba-UNet: UNet-like pure visual Mamba for medical image segmentation [EB/ ULJ (∠U∠4-05-JU) itps: arxiv. org/ UJUIY

[18] Cao Haoyu,Han Tianyi, Yang Yunyun.HDNeXt: hybrid dynamic MedNeXtwith level set regularization formedical imagesegmentation [C]//Proc of the 17th Asian Conference on,et al.Computer Vision. Singapore:Springer,2025:401-417.

[19]衣斐,龔敬,段輝宏,等.結(jié)合灰度直方圖和細(xì)胞自動(dòng)機(jī)的多模 態(tài)MRI腦膠質(zhì)瘤分割[J].計(jì)算機(jī)應(yīng)用研究,2019,36(9): 2849-2855.(YiFei,GongJing,DuanHuihong,etal.Brainglioma segmentation for multi-modality MR images based ongraylevel histogram and cellular automata [J]. Application Research of Computers,2019,36(9):2849-2855.)

[20]Zhou Tongxue,Canu S,Vera P,et al. Brain tumor segmentation with missing modalities via latent multi-source correlation representation[M]// Martel AL,AbolmaesumiP,Stoyanov D,et al. Medical Image Computing and Computer Assisted Intervention.Cham: Springer,2020:533-541.

[21] Zhou Zexun,He Zhongshi,Shi Meifeng,et al. 3D dense connectivity network with atrous convolutional feature pyramid for brain tumor segmentation in magnetic resonance imaging of human heads [J]. Computers in Biology and Medicine,2020,121:103766.

[22]單成響,李鏘,關(guān)欣.多視圖卷積輕量級(jí)腦腫瘤分割算法[J]. 激光與光電子學(xué)進(jìn)展,2023,60(10):202-209.(Shan Chengxiang,Li Qiang,Guan Xin.Lightweight brain tumor segmentation algorithm based on multi-view convolution [J]. Laser amp; Optoelectronics Progress,2023,60(10): 202-209.)

[23] Vaswani A,ShazerN,ParmarN,etal.Atentionisallyouneed [EB/OL]. (2023-08-02). https://arxiv.org/abs/1706.03762.

[24]Ge Chongjian,Ding Xiaohan,Tong Zhan,etal.Advancing vision Transformers with group-mix attention [EB/OL]. (2017-06-12). https://arxiv.org/abs/2311. 15157.

[25]Zhao Danpei, Wang Chenxu,Gao Yue,et al.Semantic segmentationof remote sensing image based on regional self-attention mechanism [J]. IEEEGeoscienceand Remote Sensing Letters,2021,19:8010305.

[26] Zhang Yan,Gao Xiyuan,Duan Qingyan,et al.DHT:deformable hybrid Transformer for aerial image segmentation[J].IEEE Geoscienceand Remote Sensing Letters,2022,19:6518805.

[27]Tian Daxin,Lin Chunmian,Zhou Jianshan,etal.SA-YOLOv3:an efficient and accurate object detector using self-attention mechanism for autonomous driving[J]. IEEE Trans on Intelligent Transportation Systems,2022,23(5): 4099-4110.

[28]Tan Dayu,Yao Zhiyuan,Peng Xin,et al.Multi-level medical image segmentation network based on multi-scale and context information fusion strategy[J]. IEEE Trans on Emerging Topics in Computational Intelligence,2024,8(1):474-487.

[29]Xie Linsen,Cai Wentian,Gao Ying.DMCGNet:a novel network for medical image segmentation with dense self-mimic and channel grouping mechanism [J]. IEEE Journal of Biomedical and Health Informatics,2022,26(10): 5013-5024.

[30]Yang B, Bender G, Le Q V,et al. CondConv: Conditionally Parameterized Convolutions for Effcient Inference[C]//Proc of the 33rd International Conference on Neural Information Processing Systems. Red Hook,NY: Curran Associates Inc.,2019:1307-1318.

[31]Wang Qilong,Wu Banggu,Zhu Pengfei,et al.ECA-Net: efficient channel atention for deep convolutional neural networks[C]//Proc of IEEE/CVF Conference on Computer Vision and Patern Recognition.Piscataway,NJ: IEEE Press, 2020:11531-11539.

[32]CaoYue,Xu Jiarui,LinS,etal.GCNet:non-local networksmeet squeeze-excitation networks and beyond[C]//Proc of IEEE/CVF Intenational Conferenceon Computer Vision Workshop.Piscataway, NJ:IEEE Press,2019:1971-1980.

[33] Bakas S,Reyes M, Jakab A,et al.Identifying the best machine learning algorithms for brain tumor segmentation,progresson assessment,and overall survival prediction in the BRATS challenge [EB/ OL].(2019-04-23). https://arxiv.org/abs/1811.02629.

[34]BaidU,Ghodasara S,MohanS,etal.TheRSNA-ASNR-MICCAI BraTS 2021benchmark on brain tumor segmentation and radiogenomic classification.[EB/OL].(2021-09-12).https://arxiv.org/abs/2107.02314.

[35]Li Hongwei, ConteG,AnwarS,et al.The braintumorsegmenation (BraTS)challenge 2023: brain MR image synthesis for tumor segmentation(BraSyn) [EB/OL].(2024-11-24).htps://arxiv.org/ abs/2305. 09011.

收稿日期:2024-10-30;修回日期:2024-12-27 基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(62266011);貴州省科技計(jì)劃資助項(xiàng)目(黔科合基礎(chǔ)-ZK[2022]一般119);研究生創(chuàng)新人才計(jì)劃資助項(xiàng)目

作者簡(jiǎn)介:吳進(jìn)旭(1999—),男,貴州安順人,碩士,CCF會(huì)員,主要研究方向?yàn)橛?jì)算機(jī)視覺(jué)、醫(yī)學(xué)圖像處理;吳云(1973—),男(通信作者),江西景德鎮(zhèn)人,副教授,博士,CCF高級(jí)會(huì)員,主要研究方向?yàn)槿斯ぶ悄堋⒂?jì)算機(jī)視覺(jué)、醫(yī)學(xué)圖像處理、推薦系統(tǒng)(wuyun_""126. com) .

主站蜘蛛池模板: 国产精品hd在线播放| 久久免费成人| 国产屁屁影院| 亚洲综合九九| 国产在线高清一级毛片| 日韩中文精品亚洲第三区| 欧美在线视频a| 国产成人h在线观看网站站| 欧美成人一区午夜福利在线| 亚洲乱伦视频| 狠狠v日韩v欧美v| 亚洲妓女综合网995久久| 美美女高清毛片视频免费观看| 久草视频中文| 国产偷倩视频| 国产精品一区二区国产主播| 蝌蚪国产精品视频第一页| 性色一区| 国产无码精品在线| 97久久超碰极品视觉盛宴| 熟妇无码人妻| 国产成人精品一区二区秒拍1o| 91国内视频在线观看| 精品国产成人国产在线| 国产精品一区二区无码免费看片| 亚洲性视频网站| 国产毛片片精品天天看视频| 成人福利在线看| 国产色网站| 毛片免费在线| 喷潮白浆直流在线播放| 久久精品国产电影| 欧美色亚洲| 亚洲欧美国产视频| 国产成人精品免费av| 97视频精品全国在线观看| 日韩欧美中文| 毛片在线看网站| 人人妻人人澡人人爽欧美一区| 久久久久久午夜精品| 少妇被粗大的猛烈进出免费视频| 日韩精品专区免费无码aⅴ | 欧美午夜性视频| 久久亚洲国产一区二区| 欧美一区二区福利视频| 婷婷开心中文字幕| 国产精品va免费视频| 动漫精品中文字幕无码| 日韩国产 在线| 午夜不卡福利| 波多野结衣亚洲一区| 国产精品免费入口视频| 中文字幕免费视频| 日本亚洲最大的色成网站www| 国产a网站| 91成人在线观看| 亚洲精品视频在线观看视频| 欧美日韩在线成人| 日本爱爱精品一区二区| 18禁黄无遮挡网站| 亚洲色欲色欲www在线观看| 中文字幕天无码久久精品视频免费 | 99久久精品免费看国产免费软件| 国产成人精品一区二区| 日本少妇又色又爽又高潮| 国产91在线免费视频| 日本午夜视频在线观看| 九九热精品视频在线| 国产v欧美v日韩v综合精品| 亚洲第一黄色网址| 国产免费久久精品99re不卡 | 人妻中文久热无码丝袜| 性欧美精品xxxx| 日韩欧美中文亚洲高清在线| 欧美国产另类| 国产美女主播一级成人毛片| 美女视频黄频a免费高清不卡| 天天综合天天综合| 国产H片无码不卡在线视频| 在线看片中文字幕| 日本不卡在线| 天天视频在线91频|