999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多尺度偏移感知網(wǎng)絡(luò)的結(jié)腸息肉目標(biāo)檢測

2025-01-25 00:00:00池曉鑫杜曉剛王營博雷濤
陜西科技大學(xué)學(xué)報 2025年1期

摘 要:一些息肉目標(biāo)檢測方法難以充分提取全局及長距離語義信息,導(dǎo)致在具有環(huán)境噪聲的情況下對尺寸差異較大的息肉目標(biāo)檢測精度低.為了解決該問題,提出了一種基于多尺度偏移感知的息肉檢測網(wǎng)絡(luò).首先,設(shè)計了多尺度偏移感知注意力模塊,通過在不同尺度上對圖像特征進行注意力加權(quán)和偏移感知,提高了圖像特征的提取和融合能力.其次,設(shè)計了漸近特征融合模塊,對不同尺度的特征圖進行自適應(yīng)空間加權(quán)融合,從而捕捉了更豐富的上下文信息.通過大量實驗證明,該方法在三個不同類型的息肉數(shù)據(jù)集上分別達到了94.8%、94.6%和95.8%的檢測精度,相比于當(dāng)前主流的目標(biāo)檢測方法取得了更好的檢測結(jié)果.

關(guān)鍵詞:醫(yī)學(xué)圖像; 息肉檢測; 注意力機制; 多尺度特征; 特征融合

中圖分類號:TP391.41

文獻標(biāo)志碼: A

Multi-scale offset-aware network for colon polyp detection

CHI Xiao-xin, DU Xiao-gang*, WANG Ying-bo, LEI Tao

(School of Electronic Information and Artificial Intelligence, Shaanxi Joint Laboratory of Artificial Intelligence, Shaanxi University of Science amp; Technology, Xi′an 710021, China

Abstract:Some polyp detection methods struggle to adequately extract global and long-range semantic information,leading to lower detection accuracy of polyp targets with significant size variations in the presence of environmental noise.In order to address this issue,a polyp detection network based on multi-scale offset awareness is proposed.Firstly,a multi-scale offset-aware attention module is designed to enhance the extraction and fusion capability of image features by applying attention weighting and offset awareness to features at different scales.Secondly,an asymptotic feature fusion module is designed to adaptively spatially weight and fuse feature maps of different scales,thereby capturing richer contextual information.Extensive experiments demonstrate that this method achieves detection accuracies of 94.8%,94.6%,and 95.8% on three different polyp datasets,outperforming current mainstream object detection methods.

Key words:medical imaging; polyp detection; attention mechanism; multi-scale feature; feature fusion

0 引言

息肉檢測是胃腸道疾病早期診斷和治療的關(guān)鍵步驟之一.然而,由于胃腸道內(nèi)部結(jié)構(gòu)復(fù)雜且息肉形態(tài)多樣,使得傳統(tǒng)的人工檢測方法效率低下且存在主觀性,因此研究一種自動化的、高效的息肉檢測方法具有重要意義.

當(dāng)前,在復(fù)雜環(huán)境噪聲影響下對大尺度差異息肉的高精度檢測仍面臨很大挑戰(zhàn).該領(lǐng)域研究主要集中在兩個方面:(1)基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的檢測方法;(2)基于Transformer架構(gòu)的檢測方法.

基于CNN的檢測方法主要分為兩類:一階段方法和兩階段方法.一階段方法通過單個神經(jīng)網(wǎng)絡(luò)同時完成目標(biāo)定位和分類.例如,王博等[1]提出一種改進的M2det息肉檢測方法,使用FFMs模塊融合主干網(wǎng)絡(luò)特征,同時增加scSENET注意保留有效特征,但對于一些對比度較低且形狀不規(guī)則息肉依然存在誤檢.Pacal等[2]采用改進的YOLO系列網(wǎng)絡(luò)對息肉進行目標(biāo)檢測,在公開數(shù)據(jù)集ETIS-Larib[3]中獲得了91.62%的精度,仍有待提升.Ohrenstein等[4]提出了一種SSD聯(lián)合GAN的檢測方法,GAN用于提升數(shù)據(jù)集中小目標(biāo)的分辨率,在保證SSD檢測的速度上,提升了檢測小目標(biāo)息肉的精確度,但依舊有可提升的空間.一階段方法結(jié)構(gòu)簡單,運行速度快,但檢測精度偏低.

兩階段方法則是先生成候選框(Region Proposal),然后對這些候選框進行分類和回歸.例如:Mo等[5]使用Faster R-CNN在內(nèi)窺鏡息肉數(shù)據(jù)集上檢測并獲得了較高精度,但實驗結(jié)果對于尺度較小及對比度不高和含有鏡面反光區(qū)域的息肉檢測效果不佳.Chen等[6]提出將Faster R-CNN整合自注意模塊用于對數(shù)據(jù)增強后的息肉圖像檢測,對于隱蔽型息肉檢測效果不理想.Qadir等[7]針對傳統(tǒng)卷積網(wǎng)絡(luò)提出整合區(qū)域候選網(wǎng)絡(luò)(Region Proposal Network,RPN)和減少假陽性(False Positive,F(xiàn)P)單元來提升息肉檢測整體性能并分別在Faster R-CNN和SSD上測試,雖然精度有所提升,但參數(shù)量較大,且需要一定的計算資源.兩階段方法準(zhǔn)確性高、泛化能力強,但速度慢、網(wǎng)絡(luò)復(fù)雜,對訓(xùn)練數(shù)據(jù)要求高.

在基于Transformer的檢測方法中,Yoo等[8]提出將Transformer集成到Y(jié)OLO體系結(jié)構(gòu)中,專注于調(diào)整負(fù)責(zé)特征融合的部分,但是,所構(gòu)建的輕量化息肉檢測模型在精度和召回率上仍有一定提升空間.針對Transformer注意力模塊在處理圖像特征圖時收斂速度慢且特征空間分辨率有限的問題,Zhu等[9]通過引入可變形注意力機制并結(jié)合可變形卷積的稀疏空間采樣以及Transformer的關(guān)系建模能力,提出了Deformable-DETR.Dai等[10]提出了Dynamic-DETR方法,通過在DETR的編碼器和解碼器階段引入動態(tài)注意力來突破其對小特征分辨率和訓(xùn)練收斂速度的兩個限制.Wang等[11]基于Transformer提出Anchor-DETR方法,其提出的目標(biāo)檢測查詢設(shè)計和一種新的注意力變體可以在實現(xiàn)與DETR中標(biāo)準(zhǔn)注意力相似或更好的性能的同時減少內(nèi)存開銷.Cao等[12]通過優(yōu)化粗糙特征和預(yù)測位置,即提出了一個由粗糙層和精細(xì)層構(gòu)成的新型粗到細(xì)(CF)解碼器層來解決DETR在小目標(biāo)檢測性能較低的問題.Peng等[13]指出卷積和級聯(lián)的自注意模塊在特征提取中存在一定缺陷,并提出一種稱為Conformer的混合結(jié)構(gòu),在檢測任務(wù)中充分利用卷積操作和自注意力機制增強表示學(xué)習(xí).

綜上,基于CNN的檢測方法對局部信息敏感,對全局語義信息的理解能力較弱,不能充分提取全局及長距離有效信息.基于Transformer的檢測方法雖然有較好的全局理解能力和長距離依賴處理能力,但其本身計算復(fù)雜度過高,對一些環(huán)境噪聲較大且密集的小目標(biāo)檢測效果不佳.

針對上述問題,本文提出一種基于多尺度偏移感知的息肉檢測網(wǎng)絡(luò)來實現(xiàn)自動準(zhǔn)確的息肉目標(biāo)檢測.采用多尺度偏移感知注意力引導(dǎo)特征提取的方式來解決傳統(tǒng)方法難以處理長距離依賴及全局信息提取不充分的問題.通過漸近自適應(yīng)空間特征融合策略來有效分離噪聲并充分融合有效特征,從而提升模型對小目標(biāo)息肉的特征學(xué)習(xí)能力.通過大量實驗證明,該方法在不同噪聲環(huán)境下,能夠有效提升不同形態(tài)息肉的檢測準(zhǔn)確性.

1 本文方法

1.1 總體架構(gòu)

圖1是本文提出的多尺度偏移感知息肉檢測網(wǎng)絡(luò)整體模型,由多尺度偏移感知模塊(Multi-Scale Offset-aware Attention Module,MOA)、漸近特征融合模塊(Asymptotic Feature Fusion Module,AFFM)和分類回歸模塊三部分組成.首先,輸入圖像經(jīng)過MOA進行特征偏移對齊并提取多尺度特征;其次,這些特征圖通過AFFM逐次從低級到高級進行漸近特征融合.本文采用漸近自適應(yīng)空間融合結(jié)構(gòu),避免了非相鄰層特征融合時可能出現(xiàn)由于語義差距過大導(dǎo)致融合不充分的問題.同時,為了避免出現(xiàn)過擬合現(xiàn)象,本文在AFFM的最淺層和最深層分別引入類殘差結(jié)構(gòu),進一步補充局部及全局語義信息.最后,融合后的特征進入分類回歸模塊.在分類回歸模塊,本文采用基于卷積操作的預(yù)測器而非傳統(tǒng)基于感興趣區(qū)域的池化操作,其具有更高的效率、更豐富的空間信息、更好的泛化能力和更簡單的訓(xùn)練過程.該預(yù)測器分為兩個分支,分別用于預(yù)測每個Anchor的所屬類別和回歸目標(biāo)邊界框參數(shù),最終輸出預(yù)測結(jié)果.這種結(jié)構(gòu)設(shè)計能夠更好地捕獲目標(biāo)的語義信息和空間關(guān)系,提高模型的準(zhǔn)確性和魯棒性.

1.2 多尺度偏移感知模塊

特征提取網(wǎng)絡(luò)中,單一尺度特征所包含的語義信息是有限的,多尺度特征提取則能更全面地捕捉到圖像中的有效信息,且不同尺度下提取的特征能更好地適應(yīng)不同尺度下的環(huán)境變化和噪聲,但由于物體形變以及尺度選擇的不確定性往往會造成一定程度的特征偏移.

針對該問題,本文設(shè)計了MOA模塊.該模塊通過結(jié)合多尺度注意力和特征偏移感知,有效提取不同尺度、姿態(tài)和噪聲下的特征并避免了特征在圖像中位置偏移的問題.MOA的整體結(jié)構(gòu)如圖2所示.基于傳統(tǒng)的ResNet50[14]網(wǎng)絡(luò)結(jié)構(gòu),本文在Conv2-4_x卷積層加入由EMA模塊和Offset Map組成的殘差分支所構(gòu)成的多尺度偏移感知注意力模塊(MOA模塊).MOA模塊通過結(jié)合高效多尺度注意模塊(Efficient Multi-Scale Attention Module,EMA)[15]與Offset Map對齊模塊,能夠在捕捉不同尺度下關(guān)鍵信息的同時,運用偏移感知,實現(xiàn)對不同尺度下特征的定位與調(diào)整,從而更精確地把握特征間的空間關(guān)聯(lián),實現(xiàn)多尺度信息的有效融合.

多尺度注意力能在進行多尺度特征提取時,選擇合適的尺度范圍和間隔.不同的圖像可能需要不同的尺度范圍來捕捉其特征.本文采用EMA模塊如圖2所示.EMA通過對圖像特征進行多尺度的注意力加權(quán),提高模型在多尺度信息融合和特征提取方面的效率和性能.EMA采用三分支并行處理,對輸入圖像特征進行特征分組,并編碼了跨通道信息以調(diào)整不同通道的重要性.同時,精確的空間結(jié)構(gòu)信息也被保留在通道中.EMA通過建立通道位置之間的相互依賴關(guān)系,實現(xiàn)了跨空間信息聚合,從不同的空間維度方向進行了更豐富的特征聚合.并且,采用3*3和1*1卷積可以在中間特征之間利用更多的上下文信息,進一步提高了特征提取的效果.

針對多尺度特征提取時存在的特征偏移,本文采用Offset Map對齊模塊結(jié)合EMA精確調(diào)整多尺度特征.如圖2所示,輸入特征圖經(jīng)過RoI池化生成池化特征圖,經(jīng)過全連接層生成歸一化的偏移量,這里的全連接層是通過反向傳播進行學(xué)習(xí)的,所生成偏移量的歸一化是必要的,以使得偏移量的學(xué)習(xí)對感興趣區(qū)域(RoI)的大小具有不變性.然后將偏移量與可變形卷積映射后的特征圖相結(jié)合,經(jīng)過特征偏移對齊得到最終的輸出特征圖.

1.3 漸近特征融合模塊

特征融合網(wǎng)絡(luò)中,與許多基于特征金字塔網(wǎng)絡(luò)的目標(biāo)檢測方法一樣,首先通過多層卷積神經(jīng)網(wǎng)絡(luò)提取圖像不同尺度的特征,這些特征包括低級的邊緣和紋理信息,以及高級的語義信息.然后,不同尺度的特征被送入一個漸近特征融合模塊,該模塊能夠?qū)⒉煌叨群驼Z義層次的特征進行有效地融合,從而得到更加全面和豐富的特征表示.最后,將融合后的特征輸出并用于分類和回歸任務(wù),如圖1所示.

在進行特征融合之前,輸入圖像經(jīng)過多尺度偏移感知模塊得到一組不同尺度的特征,將其表示為{C2,C3,C4,C5}.為了進行漸近特征融合,低級特征C2和C3首先輸入到特征金字塔網(wǎng)絡(luò)中,然后依次添加C4和C5.因為所有層次特征均參與了特征融合,可能會遺失底層原始信息和抽象的高級特征而導(dǎo)致過擬合.為了解決該問題,本文用類殘差結(jié)構(gòu)分別將低級和高級特征補充到漸近特征融合網(wǎng)絡(luò)的輸出端,最終形成一組多尺度特征{P2,P3,P4,P5}輸出到分類回歸模塊.

通過觀察漸近特征融合網(wǎng)絡(luò)的體系結(jié)構(gòu),在主干網(wǎng)絡(luò)的自下而上的特征提取過程中,本文采用漸近集成低級、高級和頂級的特征,有效避免了特征融合不充分問題.具體來說,漸近特征融合網(wǎng)絡(luò)最初融合了低級特征,然后是深層特征,最后整合最抽象的特征.非相鄰層次特征之間的語義差距大于相鄰層次特征之間的語義差距,特別是對于底部和頂部特征.這直接導(dǎo)致了非相鄰層次特征的融合效果較差.因此,直接使用C2,C3,C4和C5融合是不合理的.由于該體系結(jié)構(gòu)是漸近的,這將使不同層次特征的語義信息在漸近融合過程中更接近,從而緩解上述問題.

在多層次特征融合過程中,本文利用自適應(yīng)空間特征融合(Adaptive Spatial Feature Fusion,ASFF)為不同層次的特征分配不同的空間權(quán)重,增強關(guān)鍵層次的重要性,減輕來自不同對象的差異信息的影響.融合了三個層次特征的ASFF模塊如圖3所示.設(shè)xn→lij表示從第n層到l層(i,j)處的特征向量,特征向量ylij經(jīng)過多層次特征的自適應(yīng)空間融合得到.這里定義為三個尺度特征向量x1→lij、x2→lij和x3→lij的線性組合,如公式(1)所示:

ylij=αlij·x1→lij+βlij·x2→lij+γlij·x3→lij

(1)

式(1)中:α1ij,β1ij和γ1ij表示第1層三個層次的空間權(quán)重,且αlij+βlij+γlij=1.考慮到漸近特征融合網(wǎng)絡(luò)各階段融合特征數(shù)量的差異,實現(xiàn)了階段特定數(shù)量的自適應(yīng)空間融合模塊.

2 實驗結(jié)果與分析

2.1 實驗數(shù)據(jù)集

本文采用三個不同類型的息肉數(shù)據(jù)集,包含胃腸鏡息肉圖像集、視頻幀以及息肉CT圖像集.三個數(shù)據(jù)集中涵蓋了不同尺度以及不同模態(tài)的息肉,這有助于驗證模型性能,檢驗其泛化能力和魯棒性.

2.1.1 AI_2020_VOC數(shù)據(jù)集

AI_2020_VOC是一個用于息肉檢測和分割任務(wù)的數(shù)據(jù)集.該數(shù)據(jù)集由中國醫(yī)學(xué)科學(xué)院和清華大學(xué)合作收集和標(biāo)注.數(shù)據(jù)集包含來自結(jié)腸鏡檢查的息肉圖像,涵蓋了不同類型和大小的息肉.每個圖像都經(jīng)過專業(yè)醫(yī)生標(biāo)注,標(biāo)注信息包括息肉的位置和形狀.該數(shù)據(jù)集包含7 804張息肉CT圖.

2.1.2 PolypGen2021_MultiCenterData_v3數(shù)據(jù)集

PolypGen2021_MultiCenterData_v3[16]數(shù)據(jù)集(簡稱PolypGen)起源于Endocv2021挑戰(zhàn)的一部分,旨在解決息肉檢測和分割的通用性.該數(shù)據(jù)集包含3 446個帶注釋的息肉標(biāo)簽,由6名高級胃腸病學(xué)家驗證了息肉邊界的精確劃定.該數(shù)據(jù)集共計3 762幀的陽性樣本,包含了小、中、大息肉的像素級標(biāo)注.

2.1.3 Dataset-acess-for-PLOS-ONE數(shù)據(jù)集

本數(shù)據(jù)集是提交給PLOS One的論文數(shù)據(jù)集(簡稱DfPlos One)[17].該數(shù)據(jù)集包括404張胃息肉圖像,這些圖像來自中國浙江省邵逸夫醫(yī)院215名接受內(nèi)鏡檢查的患者.所有圖像均包含至少一個息肉,并由經(jīng)驗豐富的內(nèi)窺鏡醫(yī)師進行了標(biāo)記.為了構(gòu)建測試數(shù)據(jù)集,對圖像進行重排并隨機選擇了50張圖像.鑒于剩下的354張圖像對于訓(xùn)練而言過少,對354張帶標(biāo)簽的圖像進行180度旋轉(zhuǎn)以增強數(shù)據(jù).經(jīng)增強后共得到708張圖像用于訓(xùn)練.

2.2 實驗設(shè)置

實驗硬件環(huán)境為Intel Core i9-12900k處理器與一塊NVIDIA A30顯卡.操作系統(tǒng)使用Linux Ubuntu20.04,深度學(xué)習(xí)框架選用Pytorch1.7.1,開發(fā)語言版本是Python 3.7.

在訓(xùn)練過程中,模型進行有監(jiān)督迭代訓(xùn)練,設(shè)置模型學(xué)習(xí)率為0.001,動量為0.9,批數(shù)量為16,訓(xùn)練迭代輪數(shù)為150,測試過程對于全部目標(biāo)域圖像進行分類驗證,批處理數(shù)量設(shè)置為4.所有圖像經(jīng)過預(yù)處理調(diào)整為300×300像素.對于DfPlos One數(shù)據(jù)集,在模型訓(xùn)練前對輸入圖像進行上、下、左、右、左上、右上、左下、右下和中心共9個方位的裁剪,以及隨機圖像旋轉(zhuǎn)和翻轉(zhuǎn)進行數(shù)據(jù)擴充,確保每幅輸入圖像的息肉區(qū)域的語義表達.

2.3 評價指標(biāo)

為了客觀全面地評價網(wǎng)絡(luò)性能,并與其他算法進行公平比較,模型在訓(xùn)練和測試過程中均采取目標(biāo)檢測評價指標(biāo)中常用的COCO指標(biāo),并從中選用精確率(Precision)、召回率(Recall)、平均精度(Average Precision,AP)和均值平均精度(mean Average Precision,mAP)作為模型的性能評估指標(biāo).

精度衡量正確預(yù)測的目標(biāo)所占百分比,定義為:

Precision=TPTP+FP

(2)

式(2)中:TP代表真陽性,F(xiàn)P代表偽陽性.

召回率是指能夠被正確檢測的患者在所有患者中所占的百分比,計算公式(3)為:

Recall=TPTP+FN

(3)

式(3)中:TP代表真陽性,F(xiàn)N代表偽陰性.

AP是在不同置信度閾值下計算出的精度的平均值,通過計算P-R曲線下的面積來衡量算法在不同置信度閾值下的性能表現(xiàn),如式(4)所示:

AP=∫10P(R)dR

(4)

式(4)中:P和R分別代表精度和召回率.

mAP反映了在所有類別中的精度表現(xiàn),如式(5)所示:

mAP=1N∑Ni=1∫10P(R)dR

(5)

式(5)中:N代表類別個數(shù),P和R分別代表精度和召回率.

2.4 MOA模塊實驗對比

表1展示了在PolypGen數(shù)據(jù)集上添加不同注意力模塊后的對比結(jié)果.

值得注意的是,當(dāng)添加MOA模塊時,網(wǎng)絡(luò)的參數(shù)數(shù)量最少,僅為37.85M,模型的計算能力表現(xiàn)最優(yōu),同時mAP(0.5)達到了最高的94.1%,mAP(0.5∶0.95)也達到了最佳的76.0%.相較于添加CBAM、SE、ECA、SA等注意力模塊,MOA模塊能夠在捕捉不同尺度下關(guān)鍵信息的同時,利用偏移感知實現(xiàn)對各尺度下的特征定位與調(diào)整,從而更精確地把握特征間的空間關(guān)聯(lián).此外,MOA具有高效的設(shè)計結(jié)構(gòu),減少了計算負(fù)擔(dān),提高了模型的計算效率.

2.5 對比實驗

為了體現(xiàn)本文模型在不同尺度息肉檢測上的準(zhǔn)確性和魯棒性,在三個不同規(guī)格數(shù)據(jù)集總計上萬張息肉圖像上進行了對比實驗.實驗結(jié)果如表2所示.從表2可以看出,與YOLOv7相比,本文方法在三個數(shù)據(jù)集上的精度提升了分別為3.5%、6.7%、9.0%,mAP指標(biāo)提升了分別為5.6%、6.4%、2.2%.與目標(biāo)檢測中無錨框方法FCOS相比,本文方法精度提升了分別為1.0%、3.0%、15.1%,mAP指標(biāo)提升了分別為0.9%、3.0%、0.5%.與最新的基于信道重參數(shù)卷積YOLO體系結(jié)構(gòu)RCS-YOLO相比,本文模型在AI_2020_VOC數(shù)據(jù)集和PolypGen數(shù)據(jù)集上的精度分別提升了3.1%和3.0%,在DfPlos One數(shù)據(jù)集上相差1.0%,但是在mAP指標(biāo)上分別提升了8.1%、14.4%、0.2%.綜上,本文模型在三個數(shù)據(jù)集上的精度和平均準(zhǔn)確率上具有很大的優(yōu)勢,但在召回率上與當(dāng)前一些主流方法相比仍有一定的差距.這些結(jié)果充分展現(xiàn)了本文方法在不同尺度息肉檢測上的準(zhǔn)確性和魯棒性.

圖4展示了本文模型在三個不同息肉數(shù)據(jù)集上的檢測結(jié)果.

左圖是真實息肉位置,右圖是模型輸出的預(yù)測結(jié)果.通過對比可以發(fā)現(xiàn),盡管許多息肉存在微小、對比度低、不規(guī)則形狀、殘渣以及胃液等噪聲,檢測難度較大,但本文模型仍然能夠準(zhǔn)確地檢測出息肉位置.此外,本文模型在處理息肉CT圖時同樣能夠精確地預(yù)測其位置.這表明本文模型在處理不同類型的息肉數(shù)據(jù)集時具有很好的泛化能力和抗干擾能力,進一步驗證了本文模型在息肉檢測上的魯棒性.

圖5為基于精確率與召回率繪制的不同檢測方法在不同數(shù)據(jù)集上的P-R曲線.圖5(a)所示為胃腸鏡息肉數(shù)據(jù)集PolypGen,圖5(b)所示為胃部息肉CT數(shù)據(jù)集AI_2020_VOC.與目標(biāo)檢測領(lǐng)域最新的方法相比,本文方法在傳統(tǒng)胃腸鏡息肉以及息肉CT圖上的P-R曲線均表現(xiàn)出優(yōu)異的性能,進一步驗證了本文方法的有效性和可行性.

2.6 消融實驗

為了驗證各模塊在息肉數(shù)據(jù)集上的有效性,比較了單獨加入MOA模塊、AFFM模塊以及同時加入二者的性能,實驗結(jié)果如表3所示.與基線結(jié)果相比,在ResNet50主干中融入MOA模塊后,三個數(shù)據(jù)集上的mAP分別增加了1.4%、0.7%和0.4%;用AFFM模塊替換原FPN網(wǎng)絡(luò)后,三個數(shù)據(jù)集上的mAP分別提升了3.6%、4.0%和1.2%;而當(dāng)同時加入MOA模塊和AFFM模塊時,與基線網(wǎng)絡(luò)RetinaNet相比,mAP分別提升了7.5%、6.2%和3.7%.綜上,實驗結(jié)果表明了MOA模塊和AFFM模塊的有效性.

3 結(jié)論

針對息肉檢測任務(wù)中息肉尺度差異大、環(huán)境噪聲復(fù)雜等問題,本文提出了一種多尺度偏移感知息肉檢測網(wǎng)絡(luò).通過多尺度偏移感知注意力提取并對齊不同尺度有效特征,有效解決了傳統(tǒng)目標(biāo)檢測方法在環(huán)境噪聲影響下難以充分提取全局及長距離有效信息的問題.同時,采用漸近的自適應(yīng)空間融合結(jié)構(gòu)有效解決了不同尺度特征融合過程中由于非相鄰層特征語義差距大導(dǎo)致融合不充分的問題,進一步提升了模型在息肉檢測上的準(zhǔn)確性和可靠性.經(jīng)過大量實驗證明,本文方法在三個息肉數(shù)據(jù)集上的檢測精度均優(yōu)于當(dāng)前主流方法.

參考文獻

[1] 王 博,張麗媛,師為禮,等.改進的M2det內(nèi)窺鏡息肉檢測方法[J].計算機工程與應(yīng)用,2022,58(2):193-200.

[2] Pacal I,Karaboga D.A robust real-time deep learning based automatic polyp detection system[J].Computers in Biology and Medicine,2021,134:104 519.

[3] Silva J,Histace A,Romain O,et al.Toward embedded detection of polyps in wce images for early diagnosis of colorectal cancer[J].International Journal of Computer Assisted Radiology and Surgery,2014,9:283-293.

[4] Ohrenstein D C,Brandao P,Toth D,et al.Detecting small polyps using a Dynamic SSD-GAN[J].ArXiv Preprint ArXiv,2020,2010:15 937.

[5] Mo X,Tao K,Wang Q,et al.An efficient approach for polyps detection in endoscopic videos based on faster R-CNN[C]// Proceedings of the 24th International Conference on Pattern Recognition (ICPR).Beijing,China:IEEE,2018:3 929-3 934.

[6] Chen B L,Wan J J,Chen T Y,et al.A self-attention based faster R-CNN for polyp detection from colonoscopy images[J].Biomedical Signal Processing and Control,2021,70:103 019.

[7] Qadir,Hemin Ali,Ilangko Balasingham,et al.Improving automatic polyp detection using CNN by exploiting temporal dependency in colonoscopy video[J].IEEE Journal of Biomedical and Health Informatics,2019,24(1):180-193.

[8] Yoo,Youngbeom,Jae Young Lee,et al.Real-time polyp detection in colonoscopy using lightweight transformer[C]// Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision.Waikoloa,Hawaii:IEEE,2024:7 809-7 819.

[9] Zhu X,Su W,Lu L,et al.Deformabledetr:Deformable transformers for end-to-end object detection[J].ArXiv Preprint ArXiv,2020,2010:04 159.

[10] Dai X,Chen Y,Yang J,et al.Dynamicdetr:End-to-end object detection with dynamic attention[C]// Proceedings of the IEEE/CVF International Conference on Computer Vision.Montreal,QC,Canada:IEEE,2021:2 988-2 997.

[11] Wang Y,Zhang X,Yang T,et al.Anchordetr:Query design for transformer-based detector[C]// Proceedings of the AAAI Conference on Artificial Intelligence.California,USA:AAAI,2022:2 567-2 575.

[12] Cao X,Yuan P,F(xiàn)eng B,et al.Cf-detr:Coarse-to-fine transformers for end-to-end object detection[C]// Proceedings of the AAAI Conference on Artificial Intelligence.California,USA:AAAI,2022:185-193.

[13] Peng Z,Guo Z,Huang W,et al.Conformer:Local features coupling global representations for recognition and detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2023,45(8):9 454-9 468.

[14] He K,Zhang X,Ren S,et al.Deep residual learning for image recognition[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas,NV,USA:IEEE,2016:770-778.

[15] Ouyang D,He S,Zhang G,et al.Efficient multi-scale attention module with cross-spatial learning[C]// ICASSP 2023-2023 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP).Acoustics,Speech:IEEE,2023:1-5.

[16] Ali S,Jha D,Ghatwary N,et al.PolypGen:A multi-center polyp detection and segmentation dataset for generalisability assessment[J].ArXiv Preprint ArXiv,2021,2106:04 463.

[17] Zhang X,Chen F,Yu T,et al.Real-time gastric polyp detection using convolutional neural networks[J].PloS One,2019,14(3):e0 214 133.

[18] Woo S,Park J,Lee J Y,et al.Cbam:Convolutional block attention module[C]// Proceedings of the European Conference on Computer Vision (ECCV).Munich,Germany:Springer International Publishing,2018:3-19.

[19] Hu J,Shen L,Sun G.Squeeze-and-excitation networks[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Salt Lake City,UT,USA:IEEE,2018:7 132-7 141.

[20] Lin T Y,Goyal P,Girshick R,et al.Focal loss for dense object detection[C]// Proceedings of the IEEE International Conference on Computer Vision.Venice,Italy:IEEE,2017:2 980-2 988.

[21] Wang Q,Wu B,Zhu P,et al.ECA-Net:Efficient channel attention for deep convolutional neural networks[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.Seattle,WA,USA:IEEE,2020:11 534-11 542.

[22] Zhang Q L,Yang Y B.Sa-net:Shuffle attention for deep convolutional neural networks[C]// IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP).Toronto,Canada:IEEE,2021:2 235-2 239.

[23] Liu W,Anguelov D,Erhan D,et al.Ssd:Single shot multibox detector[C]//Proceedings of the Computer Vision-ECCV 2016:14th European Conference.Amsterdam,The Netherlands:Springer International Publishing,2016:21-37.

[24] Wang C Y,Bochkovskiy A,Liao H Y M.YOLOv7:Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.Vancouver,BC,Canada:IEEE,2023:7 464-7 475.

[25] Ren S,He K,Girshick R,et al.Faster R-CNN:Towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis amp; Machine Intelligence,2017,39(6):1 137-1 149.

[26] Tian Z,Shen C,Chen H,et al.Fcos:Fully convolutional one-stage object detection[C]// Proceedings of the IEEE/CVF International Conference on Computer Vision.Seoul,Korea (South):IEEE,2019:9 627-9 636.

[27] Kang M,Ting C M,Ting F F,et al.RCS-YOLO:A fast and high-accuracy object detector for brain tumor detection[C]// International Conference on Medical Image Computing and Computer-Assisted Intervention.Cham,Switzerland:Springer Nature,2023:600-610.

【責(zé)任編輯:陳 佳】

主站蜘蛛池模板: 69av免费视频| 91午夜福利在线观看| 日韩精品亚洲一区中文字幕| 久久综合结合久久狠狠狠97色| 亚洲综合欧美在线一区在线播放| 亚洲欧美极品| 国产一区成人| 国产激爽爽爽大片在线观看| 亚洲无线国产观看| 国产精品浪潮Av| 啪啪啪亚洲无码| 国产精品成人免费视频99| 国产在线97| 亚洲一区二区精品无码久久久| 88国产经典欧美一区二区三区| 亚洲精品第一页不卡| 国产成人福利在线视老湿机| 波多野结衣AV无码久久一区| 日本午夜精品一本在线观看| 国产精品毛片一区| 99热这里只有精品免费国产| 玖玖免费视频在线观看| 日韩在线观看网站| 日本成人精品视频| 午夜小视频在线| 91破解版在线亚洲| 18禁色诱爆乳网站| 国产无码网站在线观看| 婷婷六月在线| 不卡国产视频第一页| 四虎综合网| 国产精品无码制服丝袜| 午夜性爽视频男人的天堂| 亚洲欧美综合精品久久成人网| 国产成熟女人性满足视频| 日本成人福利视频| 亚洲乱强伦| 波多野结衣二区| 亚洲中文字幕精品| 国产浮力第一页永久地址| 日韩在线1| 97久久精品人人做人人爽| 国产精品部在线观看| 色综合日本| 小蝌蚪亚洲精品国产| 国禁国产you女视频网站| 国产夜色视频| 成人免费网站在线观看| 麻豆精品在线视频| 波多野结衣在线se| 国产另类视频| 欧美a在线| 亚洲欧美不卡中文字幕| 丰满人妻一区二区三区视频| 四虎永久免费在线| 日本午夜三级| jizz亚洲高清在线观看| 午夜福利无码一区二区| 不卡色老大久久综合网| 香港一级毛片免费看| 色综合久久88色综合天天提莫 | 色视频国产| 国产v精品成人免费视频71pao| 伊人中文网| 日本不卡免费高清视频| 亚洲狼网站狼狼鲁亚洲下载| 欧美国产另类| 毛片最新网址| 鲁鲁鲁爽爽爽在线视频观看| 亚洲香蕉在线| 久久精品aⅴ无码中文字幕| 在线免费观看AV| 国产91丝袜在线观看| 99热这里只有精品国产99| 色婷婷亚洲综合五月| 国内精品视频在线| 亚洲人成人伊人成综合网无码| 五月综合色婷婷| 99re在线观看视频| 亚洲成人网在线观看| 成人国产精品一级毛片天堂| 中国黄色一级视频|