999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于遞進式特征增強聚合的偽裝目標檢測

2022-07-29 08:49:40譚湘粵胡曉楊佳信向俊將
計算機應用 2022年7期
關鍵詞:特征融合實驗

譚湘粵,胡曉,楊佳信,向俊將

基于遞進式特征增強聚合的偽裝目標檢測

譚湘粵1,胡曉2*,楊佳信1,向俊將1

(1.廣州大學 電子與通信工程學院, 廣州 510006; 2.廣州大學 機械與電氣工程學院,廣州 510006)( ? 通信作者電子郵箱huxiao@gzhu.edu.cn)

偽裝目標檢測(COD)旨在檢測隱藏在復雜環(huán)境中的目標。現(xiàn)有COD算法在結合多層次特征時,忽略了特征的表達和融合方式對檢測性能的影響。為此,提出一種基于遞進式特征增強聚合的COD算法。首先,通過主干網(wǎng)絡提取多級特征;然后,為了提高特征的表達能力,使用由特征增強模塊(FEM)構成的增強網(wǎng)絡對多層次特征進行增強;最后,在聚合網(wǎng)絡中設計鄰近聚合模塊(AAM)實現(xiàn)相鄰特征之間的信息融合,以突顯偽裝目標區(qū)域的特征,并提出新的遞進式聚合策略(PAS)通過漸進的方式聚合鄰近特征,從而在實現(xiàn)多層特征有效融合的同時抑制噪聲。在3個公開數(shù)據(jù)集上的實驗表明,所提算法相較于12種最先進的算法在4個客觀評價指標上均取得最優(yōu)表現(xiàn),尤其是在COD10K數(shù)據(jù)集上所提算法的加權的F測評法和平均絕對誤差(MAE)分別達到了0.809和0.037。由此可見,所提算法在COD任務上擁有較優(yōu)的性能。

卷積神經(jīng)網(wǎng)絡;偽裝目標檢測;特征增強;鄰近聚合模塊;遞進式聚合策略

0 引言

偽裝目標檢測(Camouflaged Object Detection, COD)致力于檢測隱藏在背景環(huán)境中的目標。作為一項復雜背景下的檢測技術,COD有助于推動農(nóng)業(yè)昆蟲控制[1]、軍事檢測[2]、醫(yī)學圖像分析[3-4]等領域的發(fā)展。與顯著性目標檢測(Salient Object Detection, SOD)[5-10]和通用目標檢測(Generic Object Detection, GOD)[11-13]不同,COD是更具有挑戰(zhàn)性的研究方向。由于偽裝目標的視覺特征與背景環(huán)境具有高度相似性,因此,相比SOD與GOD,COD要求更高的特征表達能力和算法魯棒性[1]。

近年來,深度學習的發(fā)展推動了COD的研究進程。Le等[14]提出了基于端到端的分支網(wǎng)絡(Anabranch Network, ANet),通過分類網(wǎng)絡對圖像中偽裝目標進行感知,再采用全卷積神經(jīng)網(wǎng)絡(Fully Convolutional Neural Network,F(xiàn)CN)進行偽裝目標分割。Yan等[15]提出了一種雙流分割網(wǎng)絡,通過翻轉圖像作為輸入的對抗分割流實現(xiàn)對主分割流的增強,提高檢測偽裝目標的能力。然而,這兩種算法的分割思想忽略了語義特征之間的相關性,限制了算法推斷全局特征和局部特征的能力,不利于生成完整、準確的偽裝預測圖[16]。

研究者們發(fā)現(xiàn)豐富的感受野能夠獲取更多的上下文信息,加強全局特征和局部特征之間的聯(lián)系,進而增強有利于檢測的特征表達[17]。Dong等[18]設計了雙分支混合卷積模塊,利用多個非對稱卷積層和膨脹卷積層擴大特征感受野,提取圖像中的上下文信息,并設計了交互融合模塊聚合含有豐富上下文信息的多尺度特征。Ren等[19]設計了紋理感知細化模塊用于強化圖像中的上下文信息,實現(xiàn)偽裝目標和背景的分離。Fan等[1]提出了搜索識別網(wǎng)絡(Search and Identification Network,SINet),通過擴大感受野以及部分解碼組件聚合多級特征,逐步實現(xiàn)搜索和識別偽裝目標。

雖然上述算法不同程度地增強了特征的表達能力,提高了COD模型的檢測性能,但并未考慮不同層特征信息對檢測網(wǎng)絡的貢獻[16,20]以及跳躍式特征融合方式的局限性[21],使得低層特征中非目標區(qū)域的細節(jié)信息融合到高層次的檢測特征中,導致檢測目標出現(xiàn)模糊的現(xiàn)象。因此,一種有效的特征聚合策略對COD算法性能的提升顯得尤其重要。此外,文獻[18]的研究表明,注意力機制在一定程度上可以抑制網(wǎng)絡中的噪聲,提高特征的表達能力以及網(wǎng)絡的理解能力。Lv等[22]最新提出的偽裝檢測模型,論證了注意力機制在COD任務中的有效性。因此,本文引入注意力機制用于輔助網(wǎng)絡的優(yōu)化,提高網(wǎng)絡的檢測能力。

綜上所述,針對特征的表達能力以及特征聚合兩個方面,本文提出了基于遞進式特征增強聚合的偽裝目標檢測。算法由3個部分組成:主干網(wǎng)絡、增強網(wǎng)絡和聚合網(wǎng)絡。首先,采用有效的特征提取網(wǎng)絡Res2NeXt-50[23]作為主干網(wǎng)絡提取多尺度、多層次特征;然后,增強網(wǎng)絡通過基于注意力和感受野的特征增強模塊(Feature Enhancement Module, FEM)提高特征的表達能力,實現(xiàn)多尺度特征的有效增強;最后,在聚合網(wǎng)絡中設計基于注意力的鄰近聚合模塊(Adjacency Aggregation Module, AAM),將相鄰特征的信息進行融合以突出偽裝目標區(qū)域;并提出遞進式聚合策略(Progressive Aggregation Strategy, PAS),使多級特征充分聚合的同時抑制噪聲,從而提高模型檢測偽裝目標的能力。在3個公開數(shù)據(jù)集上的實驗表明,本文的算法在4個客觀評價指標上顯示了一定的優(yōu)越性。

1 相關工作

目前,偽裝目標檢測算法[1,18-19,22]主要通過感受野模塊、注意力機制以及特征聚合策略三大影響因素提升偽裝目標檢測的性能。

1)感受野模塊。文獻[17]研究表明,感受野模塊具有增強特征可判別性和魯棒性的作用。最典型的感受野模塊有起始塊(Inception Block)[12]、空洞空間金字塔池化(Atrous Spatial Pyramid Pooling, ASPP)[24]和感受野塊(Receptive Field Block, RFB)[17]。起始塊[12]具有多個分支結構,通過不同大小的卷積核捕獲多感受野特征。在初始塊的基礎上,ASPP[24]引入了膨脹卷積擴大感受野的范圍,但使用相同大小的卷積核容易使背景和目標之間發(fā)生混淆的現(xiàn)象。為了解決上述問題,Liu等[17]提出了RFB模塊,通過使用較小的卷積核為靠近中心位置的目標分配更大的權重,從而增強特征的表述能力。Fan等[1]在RFB的基礎上提出了感受野(Receptive Field, RF)模塊,進一步擴大了特征的感受野范圍,取得了更好的性能。

2)注意力機制。注意力機制能夠有選擇性地關注圖像中最重要的部分,提高網(wǎng)絡的理解能力[25]。早期,Hu等[26]提出了壓縮與激勵(Squeeze-and-Excitation,SE)模塊,通過學習的方式自動獲取每個特征通道的關注度,并根據(jù)獲得的關注度加強重要的特征。在SE模塊的基礎上,Roy等[27]考慮到空間注意力對網(wǎng)絡的影響,結合通道和空間兩個維度實現(xiàn)特征圖的增強。Woo等[25]提出的卷積塊注意力模塊(Convolutional Block Attention Module,CBAM)沿著通道和空間兩個獨立的維度依次輸入注意力映射,并將注意力映射與輸入特征圖相乘實現(xiàn)自適應特征優(yōu)化功能。

3)特征聚合策略。特征聚合策略是提升網(wǎng)絡性能的一個重要因素[18]。為了實現(xiàn)特征的有效聚合,Lin等[11]提出了一種特征金字塔網(wǎng)絡(Feature Pyramid Network,F(xiàn)PN),通過從上到下的側向連接結構,實現(xiàn)多級特征的信息融合。Zhou等[28]提出了一種新的U型網(wǎng)絡(UNet++),通過一系列稠密的跳躍連接方式,進而減少編、解碼網(wǎng)絡中的語義缺失。然而,上述算法通過跳躍融合操作直接將差異較大的特征進行聚合,容易引入大量的噪聲,使得網(wǎng)絡的整體性能降低[21]。此外,Wu等[9]認為低層特征消耗了大量的計算成本,進而提出了只聚合較高層特征的級聯(lián)部分解碼器(Cascaded Partial Decoder,CPD),然而該算法丟失了低層特征包含的細節(jié)信息,不利于網(wǎng)絡生成具有清晰邊界的預測圖。

綜上所述,本文考慮到不同特征層的重要性以及跳躍式融合方式的局限性,提出了一種PAS,對鄰近特征進行漸進式融合,實現(xiàn)高、低層特征的有效聚合。此外,本文以注意力機制和感受野模塊為基礎,設計了FEM,旨在豐富特征的感受野,增強特征的表達能力。

2 偽裝目標檢測算法

2.1 主干網(wǎng)絡

在COD領域,常用的主干網(wǎng)絡是殘差系列,包括基本的殘差網(wǎng)絡(Residual Network,ResNet)[29]以及其改進版ResNeXt[30]、Res2Net[23]和Res2NeXt[23]。ResNeXt結合了分組卷積和ResNet的思想,其每一個分支具有相同的拓撲結構,因此網(wǎng)絡的參數(shù)量較小、運行速度較高;Res2Net在ResNet的基礎上,通過對殘差塊的內(nèi)部結構進行改進,增加了分層的殘差類連接,形成了具有更強的多尺度感知能力和更大的感受野的主干網(wǎng)絡;而Res2NeXt是將Res2Net改進的殘差塊集成到ResNeXt中,結合了兩者參數(shù)量少和感知能力強的優(yōu)點,具有更強大的特征提取能力。因此,本文選擇采用Res2NeXt作為主干網(wǎng)絡,以實現(xiàn)網(wǎng)絡參數(shù)量和性能之間的平衡。

2.2 增強網(wǎng)絡

本文考慮到主干網(wǎng)絡提取的多級特征的表達能力有限,直接聚合多層次特征通常會使信息丟失或引入模糊的特征。因此,本文在聚合多層次特征之前,先將其經(jīng)過具有4個FEM的增強網(wǎng)絡,對偽裝目標區(qū)域的特征進行增強,抑制背景環(huán)境的干擾,以充分地利用有效信息,提高特征的表達能力。

為了對主干網(wǎng)絡提取的特征進行有效的增強,本文基于文獻[1,25]引入FEM,如圖1所示,在主干網(wǎng)絡提取出來的每個特征圖之后引入FEM,提高特征的表示能力,突出偽裝目標區(qū)域的特征。

圖1 本文算法的總體框架

具體而言,如圖2所示,F(xiàn)EM首先通過CBAM[25]賦予重要的通道和空間更大的權重,挖掘與偽裝目標相關的通道和空間信息;然后通過RF[1]擴大感受野范圍來整合更具鑒別性的特征表示,實現(xiàn)特征的有效增強。FEM可描述為:

為了進一步增強特征的表達,本文利用RF模塊擴大特征感受野,獲取全局上下文信息。如圖2所示,RF模塊包括5個分支,可詳細表示為:

本文提出的FEM,從通道、空間以及感受野3個角度挖掘豐富的目標特征信息。考慮到操作順序對特征表達能力的影響,本文在FEM的消融實驗中設計了6組實驗驗證不同的順序組合方式對網(wǎng)絡的影響。表1的實驗結果證明了依次進行通道、空間和感受野操作對增強特征表達能力更為有效。

2.3 聚合網(wǎng)絡

為了充分且有效地聚合多層次特征信息,本文采用一種遞進式聚合策略實現(xiàn)多級特征的聚合。與跳躍式融合操作不同,該策略逐級聚合相鄰特征避免了跨層融合引入噪聲的問題。在聚合的過程中,為了有效整合鄰近特征的信息,本文設計AAM用于保留相鄰特征的重要信息并抑制噪聲。如圖1所示,聚合網(wǎng)絡采用了6個AAM對成對的相鄰特征進行遞進式聚合,實現(xiàn)偽裝目標的精準檢測。

2.3.1鄰近聚合模塊

首先,本文設計的鄰近聚合模塊(AAM)的輸入均為二鄰近特征,即兩個具有較小差異的相鄰特征,避免了具有大量干擾信息的低層特征與高層語義特征的直接融合,這在一定程度上解決了跨層聚合引入較多噪聲的問題;其次,AAM引入了注意力機制來聚合二鄰近特征的上下文信息,自適應地選擇具有最高響應的共同特征,并將其傳遞給下一個AAM;最后,AAM的輸出維度需要與輸入維度保持一致,為實現(xiàn)遞進式聚合奠定基礎。

圖3 鄰近聚合模塊結構

2.3.2遞進式聚合策略

其中,,表示更新的鄰近特征,即聚合網(wǎng)絡中第個遞進層的第個AAM的輸出特征;例如,表示圖1聚合網(wǎng)絡中第1個遞進層的第1個AAM的輸出特征;表示AAM。整個聚合網(wǎng)絡包含三個遞進層,由6個權值不共享的AAM組成。對最后的輸出特征進行簡單的卷積降維操作以及上采樣操作,即可獲得最終的偽裝圖。遞進式聚合策略中間特征的可視化如圖4所示,較低層特征包含較多的紋理細節(jié)信息,較高層特征包含明顯的位置信息,每一次遞進操作將差異較小的二鄰近特征進行融合,逐步聚合偽裝目標的位置信息和紋理信息,進而使偽裝目標(飛蛾)逐層變清晰,且從圖中可以明顯看出在特征聚合的過程中無關的噪聲得到了抑制,達到了預期的效果。

不同于UNet++[28]、PFANet(Pyramid Feature Attention Network for saliency detection)[7]、和F3Net(Fusion, Feedback and Focus for salient object detection)[20]算法的聚合方式,本文提出的遞進式聚合策略顯著優(yōu)勢在于利用相鄰特征融合的優(yōu)點,避免了跳躍融合操作,進而達到抑制噪聲的目的。此外,與僅融合更深層特征而丟棄低層特征的CPD算法[9]不同,本文的遞進式聚合策略考慮到不同特征層的重要性,既利用低層特征中的細節(jié)信息,又利用高層特征中的語義信息,充分且有效地表達目標特征。

3 實驗設計與結果分析

3.1 實驗細節(jié)

3.1.1訓練損失

3.1.2實驗設置

本文算法基于Pytorch框架在單張RTX 2080Ti GPU上設計實驗。主干網(wǎng)絡(Res2NeXt-50[23])的參數(shù)根據(jù)ImageNet上預先訓練的模型進行初始化。在訓練階段,采用隨機梯度下降(Stochastic Gradient Descent, SGD)算法以0.9的動量和0.000 5的權重衰減訓練網(wǎng)絡,批量化大小設置為16,輸入的RGB圖像尺寸調(diào)整為352×352。整個訓練過程需要迭代150次,初始學習率設為0.002,采用學習率計劃策略,在迭代次數(shù)達到60后學習率下降10%,以優(yōu)化網(wǎng)絡的收斂情況。

3.1.3數(shù)據(jù)集

本文使用了3個公開的偽裝目標檢測數(shù)據(jù)集。CAMO數(shù)據(jù)集[14]包含8個偽裝類別,共1 250張偽裝圖像,其中1 000張偽裝圖像用于訓練,250張用于測試。CHAMELEON數(shù)據(jù)集[31]包含76張偽裝圖用于測試。最新的COD10K數(shù)據(jù)集[1],包括5個超類(兩棲動物、水生動物、空中動物、陸地動物以及其他類)和69個子類,共有5 066張偽裝圖像,其中3 040張偽裝圖像用于訓練,2 026張用于測試。本文在上述3個數(shù)據(jù)集的測試集上對網(wǎng)絡模型進行評估,為了進行公平的比較,采用了文獻[1]相同的訓練數(shù)據(jù)集,該訓練集由3 040張COD10K訓練圖像和1 000張CAMO訓練圖像組成。

3.1.4評估指標

平均絕對誤差[32]表示預測偽裝圖與真值圖之間的平均絕對誤差。其數(shù)學表達式為:

S測評法[33]是一種判斷預測偽裝圖和真值圖結構相似性的評價指標。其數(shù)學表達式為:

加權的F測評法[34]是一種基于區(qū)域相似度的評價指標,其數(shù)學表達式為:

增強-匹配測評法[35]是一種基于視覺感知機制的評價指標,利用圖像級和局部像素級統(tǒng)計來評估預測圖。其數(shù)學表達式為:

此外,為了形象地展示實驗數(shù)據(jù)及對比各算法性能,本文繪制了各算法的精確率-召回率(Precision-Recall, PR)曲線。

3.2 消融實驗

為了驗證特征增強模塊(FEM)和鄰近聚合模塊(AAM)設計的有效性,對模塊內(nèi)部結構進行了消融性研究。此外,還討論了文中增強網(wǎng)絡和融合網(wǎng)絡對模型檢測性能的影響,設計了一組網(wǎng)絡間的消融實驗。本文所有的消融性實驗都采用3.1節(jié)4個評價指標進行評估。

1)為了驗證FEM結構的有效性,本文對通道注意力機制、空間注意力機制以及感受野模塊三個組件的順序進行探討。由于不同組件具有不同的功能,因此不同的順序會在一定程度上影響網(wǎng)絡的整體性能。表1是FEM的消融性實驗結果,表中加粗字體表示最優(yōu)結果,CA表示通道注意力機制,SA表示空間注意力機制,RF表示感受野模塊。如表1所示,在CHAMELEON和CAMO數(shù)據(jù)集上,CA+SA+RF是6種不同組合方式中整體表現(xiàn)最優(yōu)的,這驗證了本文依次從通道、空間以及感受野3個方面來提升特征表達能力的有效性。

2)為了驗證AAM結構的有效性,本文設計了三組實驗。表2是AAM的消融性實驗結果,表中加粗字體表示最優(yōu)結果。圖5展示了各實驗方案的具體結構。由表2可知,與三鄰近-二鄰近(圖5(a))和二鄰近-三鄰近(圖5(b))相比,本文設計的二鄰近(圖5(c))結構取得了最優(yōu)性能,這驗證了二鄰近聚合的優(yōu)越性。如圖5所示,本文提出的AAM融合了具有二鄰近特點的相鄰特征,旨在避免容易引入噪聲的跳躍融合操作。此外,與三鄰近的特征相比,二鄰近的特征之間具有更大的相似性,以便達到突出偽裝目標區(qū)域并抑制噪聲的效果。

表1CHAMELEON和CAMO數(shù)據(jù)集上FEM的消融實驗結果

Tab.1 Ablation experimental results of FEM on CHAMELEON and CAMO datasets

表2CHAMELEON和CAMO數(shù)據(jù)集上AAM的消融實驗結果

Tab.2 Ablation experimental results of AAM on CHAMELEON and CAMO datasets

圖5 3種不同鄰近方式的AAM組合結構

3)為了驗證本文算法設計的增強網(wǎng)絡和聚合網(wǎng)絡的有效性,本文設計了消融實驗。實驗選擇Res2NeXt-50[23]作為主干網(wǎng)絡,將主干網(wǎng)絡提取的4層特征分別經(jīng)過文獻[6]中的降維模塊,再將降維后的特征輸入具有跳躍式融合操作的U-Net[6]作為實驗的基本網(wǎng)絡(即No.1)。消融實驗設置為:用增強網(wǎng)絡替換基本網(wǎng)絡中的4個降維模塊(即基本網(wǎng)絡+增強網(wǎng)絡,No.2)以及用聚合網(wǎng)絡替換基本網(wǎng)絡中的U-Net(即基本網(wǎng)絡+聚合網(wǎng)絡,No.3)。表3是網(wǎng)絡間的消融實驗結果,表中加粗字體表示最優(yōu)結果。如表3所示,由No.1和No.3實驗數(shù)據(jù)可知,聚合網(wǎng)絡在本文算法中起了主要作用,這也驗證了本文提出的AAM和遞進式聚合策略的有效性;其次,在基本網(wǎng)絡+聚合網(wǎng)絡的基礎上,使用增強網(wǎng)絡替換基本網(wǎng)絡的4個降維模塊(即基本網(wǎng)絡+增強網(wǎng)絡+聚合網(wǎng)絡,No.4),性能得到進一步提升,這也表明了本文算法的有效性;此外,圖6展示了采用跳躍式聚合方式的算法(No.2)和本文遞進式聚合方式的算法(No.4)輸出層前一層特征圖的可視化結果。由圖6可知,跳躍式聚合方式生成的特征圖(圖6(c))存在大量噪聲,而本文的遞進式聚合方式生成的特征圖(圖6(d))的噪聲較少,質(zhì)量較高,直觀地驗證了遞進式聚合策略有效避免了跳躍式融合帶來的噪聲問題。

表3 COD10K數(shù)據(jù)集上網(wǎng)絡間的消融實驗結果

圖6 跳躍式聚合與遞進式聚合的特征可視化結果

3.3 與先進算法對比

將本文算法與12種最先進的(State-Of-The-Art, SOTA)深度學習算法進行了比較,包括FPN[11]、UNet++(a nested U-Net architecture for medical image segmentation)[28]、PFANet(Pyramid Feature Attention Network for saliency detection)[7]、PoolNet(a simple Pooling-based design for real-time salient object detection)[8]、CPD[9]、EGNet(Edge Guidance Network for salient object detection)[10]、SINet[1]、PraNet(Parallel reverse attention Network for polyp segmentation)[3]、MCIF-Net(towards accurate camouflaged object detection with Mixture Convolution and Interactive Fusion)[18]、Rank-Net(simultaneously localize, segment and Rank the camouflaged objects)[22]、TANet(deep Texture-Aware features for camouflaged object detection)[19]。為了進行公平比較,本文利用了文獻[1]提供的算法測試結果和算法原文提供的可運行代碼,在CHAMELEON數(shù)據(jù)集[31]、CAMO[14]和COD10K[1]的測試集上對模型進行評估,其中,最新的MCIF-Net[18]、Rank-Net[22]和TANet[19]偽裝目標檢測算法原文還未公開完整代碼和相關數(shù)據(jù),因此,本文直接采用了上述算法的原文數(shù)據(jù)進行對比。

1)客觀評價。

表4各算法在3個COD數(shù)據(jù)集上的客觀評價

Tab.4 Objective evaluation of different algorithms on three COD datasets

圖7 9種算法在3個COD數(shù)據(jù)集上的精確率-召回率曲線對比

2)主觀評價。

圖8是本文算法與9種SOTA算法預測結果的直觀比較。如圖8所示,本文算法優(yōu)于所有競爭算法,生成了最接近真值圖的預測結果。這歸功于本文算法聚合高低層特征時采用了遞進式聚合鄰近特征的方式,避免了跳躍融合操作,生成的偽裝圖存在較少的噪聲,進而呈現(xiàn)出更清晰的視覺效果。相比之下,競爭算法無法準確地檢測到偽裝目標,呈現(xiàn)的視覺效果不佳。此外,本文算法在昏暗光線的環(huán)境(第1、2行)、細長的偽裝目標(第3、4行)、低對比度環(huán)境(第5、6行)以及目標遮擋問題(第7、8行)上始終表現(xiàn)出優(yōu)異的性能,表明了本文算法具有較好的魯棒性。

4 結語

本文提出了一種基于遞進式特征增強聚合的偽裝目標檢測算法。為了有效地增強特征的表達能力,算法采用由FEM構成的增強網(wǎng)絡,通過利用注意力機制和感受野模塊對主干網(wǎng)絡提取的特征進行優(yōu)化;此外,算法考慮到跳躍融合操作引入噪聲的問題,在聚合網(wǎng)絡中設計AAM融合相鄰特征,并提出PAS利用鄰近特征的優(yōu)點實現(xiàn)多層特征信息的有效聚合,以突出偽裝目標區(qū)域并抑制噪聲。在3個公共數(shù)據(jù)集上的實驗表明,與12種SOTA算法相比本文算法在性能上具有一定的優(yōu)越性。

在未來的工作中,針對偽裝目標檢測的細節(jié)問題,將進一步研究特征的聚合方式以及低層特征攜帶的細節(jié)信息對網(wǎng)絡性能的影響,探索新的網(wǎng)絡結構以加強細節(jié)處理,并考慮其他形式的輸入作為指導(如深度圖、熱圖等),實現(xiàn)更精準的偽裝目標檢測。

圖8 9種算法的可視化對比

[1] FAN D P, JI G P, SUN G L, et al. Camouflaged object detection[C]// Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2020: 2774-2784.

[2] FANG Z, ZHANG X W, DENG X T, et al. Camouflage people detection via strong semantic dilation network[C]// Proceedings of the 2019 ACM Turing Celebration Conference - China. New York: ACM, 2019: No.134.

[3] FAN D P, JI G P, ZHOU T, et al. PraNet: parallel reverse attention network for polyp segmentation[C]// Proceedings of the 2020 International Conference on Medical Image Computing and Computer-Assisted Intervention, LNCS 12266/LNIP 12266. Cham: Springer, 2020: 263-273.

[4] FAN D P, ZHOU T, JI G P, et al. Inf-Net: automatic COVID-19 lung infection segmentation from CT images[J]. IEEE Transactions on Medical Imaging, 2020, 39(8): 2626-2637.

[5] 溫靜,宋建偉. 基于多級全局信息傳遞模型的視覺顯著性檢測[J]. 計算機應用, 2021, 41(1): 208-214.(WEN J, SONG J W. Visual saliency detection based on multi-level global information propagation model[J]. Journal of Computer Applications, 2021, 41(1): 208-214.)

[6] WU Z, SU L, HUANG Q M. Stacked cross refinement network for edge-aware salient object detection[C]// Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE, 2019: 7263-7272.

[7] ZHAO T, WU X Q. Pyramid feature attention network for saliency detection[C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019: 3080-3089.

[8] LIU J J, HOU Q B, CHENG M M, et al. A simple pooling-based design for real-time salient object detection[C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019: 3912-3921.

[9] WU Z, SU L, HUANG Q M. Cascaded partial decoder for fast and accurate salient object detection[C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019: 3902-3911.

[10] ZHAO J X, LIU J J, FAN D P, et al. EGNet: edge guidance network for salient object detection[C]// Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE, 2019: 8778-8787.

[11] LIN T Y, DOLLáR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 936-944.

[12] SZEGEDY C, LIU W, JIA Y Q, et al. Going deeper with convolutions[C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2015: 1-9.

[13] 劉子威,鄧春華,劉靜. 基于非對稱沙漏網(wǎng)絡結構的目標檢測算法[J]. 計算機應用, 2020, 40(12): 3526-3533.(LIU Z W, DENG C H, LIU J. Object detection algorithm based on asymmetric hourglass network structure[J]. Journal of Computer Applications, 2020, 40(12): 3526-3533.)

[14] LE T N, NGUYEN T V, NIE Z L, et al. Anabranch network for camouflaged object segmentation[J]. Computer Vision and Image Understanding, 2019, 184: 45-56.

[15] YAN J N, LE T N, NGUYEN K D, et al. MirrorNet: bio-inspired camouflaged object segmentation[J]. IEEE Access, 2021, 9: 43290-43300.

[16] CHEN Z Y, XU Q Q, CONG R M, et al. Global context-aware progressive aggregation network for salient object detection[C]// Proceedings of the 34th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2020: 10599-10606.

[17] LIU S T, HUANG D, WANG Y H. Receptive field block net for accurate and fast object detection[C]// Proceedings of the 2018 European Conference on Computer Vision, LNCS 11215/LNIP 11215. Cham: Springer, 2018: 404-419.

[18] DONG B, ZHUGE M C, WANG Y X, et al. Towards accurate camouflaged object detection with mixture convolution and interactive fusion[EB/OL]. (2021-05-26) [2021-05-31].https://arxiv.org/pdf/2101.05687.pdf.

[19] REN J J, HU X W, ZHU L, et al. Deep texture-aware features for camouflaged object detection[J].IEEE Transactions on Circuits and Systems for Video Technology, 2021(Early Access): 1-1.

[20] WEI J, WANG S H, HUANG Q M. F3Net: fusion, feedback and focus for salient object detection[C]// Proceedings of the 34th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2020: 12321-12328.

[21] PANG Y W, ZHAO X Q, ZHANG L H, et al. Multi-scale interactive network for salient object detection[C]// Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2020: 9410-9419.

[22] LV Y Q, ZHANG J, DAI Y C, et al. Simultaneously localize, segment and rank the camouflaged objects[C]// Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2021: 11586-11596.

[23] GAO S H, CHENG M M, ZHAO K, et al. Res2Net: a new multi-scale backbone architecture[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 43(2): 652-662.

[24] CHEN L C, PAPANDREOU G, KOKKINOS I, et al. DeepLab: semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4): 834-848.

[25] WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[C]// Proceedings of the 2018 European Conference on Computer Vision, LNCS 11211/LNIP 11211. Cham: Springer, 2018: 3-19.

[26] HU J, SHEN L, ALBANIE S, et al. Squeeze-and-excitation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8): 2011-2023.

[27] ROY A G, NAVAB N, WACHINGER C. Concurrent spatial and channel ‘squeeze & excitation’ in fully convolutional networks[C]// Proceedings of the 2018 International Conference on Medical Image Computing and Computer-Assisted Intervention, LNCS 11070/LNIP 11070. Cham: Springer, 2018: 421-429.

[28] ZHOU Z W, RAHMAN SIDDIQUEE M M, TAJBAKHSH N, et al. UNet++: a nested U-Net architecture for medical image segmentation[C]// Proceedings of the 2018 International Workshop on Deep Learning in Medical Image Analysis and 2018 International Workshop on Multimodal Learning for Clinical Decision Support, LNCS 11045/LNIP 11045. Cham: Springer, 2018: 3-11.

[29] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 770-778.

[30] XIE S N, GIRSHICK R, DOLLáR P, et al. Aggregated residual transformations for deep neural networks[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 5987-5995.

[31] SKUROWSKI P, ABDULAMEER H, B?ASZCZYK J, et al. Animal camouflage analysis: CHAMELEON database[DB/OL]. [202-05-31].https://www.polsl.pl/rau6/chameleon-database-animal-camouflage-analysis/.

[32] PERAZZI F, KR?HENBüHL P, PRITCH Y, et al. Saliency filters: contrast based filtering for salient region detection[C]// Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2012: 733-740.

[33] FAN D P, CHENG M M, LIU Y, et al. Structure-measure: a new way to evaluate foreground maps[C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2017: 4558-4567.

[34] MARGOLIN R, ZELNIK-MANOR L, TAL A. How to evaluate foreground maps[C]// Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2014: 248-255.

[35] FAN D P, GONG C, CAO Y, et al. Enhanced-alignment measure for binary foreground map evaluation[C]// Proceedings of the 27th International Joint Conference on Artificial Intelligence. California: ijcai.org, 2018: 698-704.

TAN Xiangyue, born in 1998, M. S. candidate. Her research interests include deep learning, camouflaged object detection.

HU Xiao, born in 1969, Ph. D., professor. His research interests include computer vision, artificial intelligence, intelligent video analysis.

YANG Jiaxin, born in 1996, M. S. candidate. His research interests include deep learning, salient object detection.

XIANG Junjiang, born in 1996, M. S. candidate. His research interests include video analysis, object detection.

Camouflaged object detection based on progressive feature enhancement aggregation

TAN Xiangyue1, HU Xiao2*, YANG Jiaxin1, XIANG Junjiang1

(1,,510006,;2,,510006,)

Camouflaged Object Detection (COD) aims to detect objects hidden in complex environments. The existing COD algorithms ignore the influence of feature expression and fusion methods on detection performance when combining multi-level features. Therefore, a COD algorithm based on progressive feature enhancement aggregation was proposed. Firstly, multi-level features were extracted through the backbone network. Then, in order to improve the expression ability of features, an enhancement network composed of Feature Enhancement Module (FEM) was used to enhance the multi-level features. Finally, Adjacency Aggregation Module (AAM) was designed in the aggregation network to achieve information fusion between adjacent features to highlight the features of the camouflaged object area, and a new Progressive Aggregation Strategy (PAS) was proposed to aggregate adjacent features in a progressive way to achieve effective multi-level feature fusion while suppressing noise. Experimental results on 3 public datasets show that the proposed algorithm achieves the best performance on 4 objective evaluation indexes compared with 12 state-of-the-art algorithms, especially on COD10K dataset, the weighted F-measure and the Mean Absolute Error (MAE) of the proposed algorithm reach 0.809 and 0.037 respectively. It can be seen that the proposed algorithm achieves better performance on COD tasks.

Convolutional Neural Network (CNN); Camouflaged Object Detection (COD); feature enhancement; Adjacency Aggregation Module (AAM); Progressive Aggregation Strategy (PAS)

This work is partially supported by National Natural Science Foundation of China (62076075).

TP391.4

A

1001-9081(2022)07-2192-09

10.11772/j.issn.1001-9081.2021060900

2021?06?03;

2021?08?01;

2021?08?06。

國家自然科學基金資助項目(62076075)。

譚湘粵(1998—),女,湖南衡陽人,碩士研究生,主要研究方向:深度學習、偽裝目標檢測; 胡曉(1969—),男,湖南郴州人,教授,博士,主要研究方向:計算機視覺、人工智能、智能視頻分析; 楊佳信(1996—),男,廣東揭陽人,碩士研究生,主要研究方向:深度學習、顯著性目標檢測; 向俊將(1996—),男,湖南益陽人,碩士研究生,主要研究方向:視頻分析、目標檢測。

猜你喜歡
特征融合實驗
記一次有趣的實驗
村企黨建聯(lián)建融合共贏
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
《融合》
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
NO與NO2相互轉化實驗的改進
主站蜘蛛池模板: 91精品网站| 国产日本欧美亚洲精品视| 99精品福利视频| 噜噜噜久久| 亚洲视频在线观看免费视频| 欧美一区二区三区国产精品| 精品国产免费观看| 国产精品30p| 青青青国产视频手机| 91久久性奴调教国产免费| 国产成人综合亚洲欧美在| 欧美成人二区| 日本高清免费一本在线观看 | 91福利免费| 久久这里只精品国产99热8| 国产午夜人做人免费视频中文| 97精品伊人久久大香线蕉| 本亚洲精品网站| 五月天在线网站| 国产爽歪歪免费视频在线观看 | 亚洲无码精彩视频在线观看| 久久亚洲日本不卡一区二区| 国产免费一级精品视频| 毛片免费在线视频| 亚洲三级成人| 久久久波多野结衣av一区二区| 国产婬乱a一级毛片多女| 四虎免费视频网站| AV不卡在线永久免费观看| 欧美精品啪啪| 中国黄色一级视频| 999福利激情视频| a级毛片免费在线观看| 第一区免费在线观看| 亚洲中文字幕国产av| 久久国产精品国产自线拍| 久996视频精品免费观看| 国产一区二区在线视频观看| 国产高清自拍视频| 国产成人综合欧美精品久久| 精品国产成人三级在线观看| 精品国产网站| AV老司机AV天堂| 丁香五月婷婷激情基地| 国产高清无码麻豆精品| 欧美三級片黃色三級片黃色1| 欧美成人区| 久久精品国产免费观看频道| 日本成人一区| 99精品热视频这里只有精品7 | 国产一区免费在线观看| 亚洲国产日韩一区| 人人91人人澡人人妻人人爽| 九九热免费在线视频| 99热精品久久| 久久中文电影| 亚洲男人在线| 美女高潮全身流白浆福利区| 欧美另类一区| 自偷自拍三级全三级视频 | 欧美亚洲国产精品久久蜜芽| 亚洲熟女偷拍| 最新亚洲人成无码网站欣赏网| 五月综合色婷婷| 国产中文一区二区苍井空| 超薄丝袜足j国产在线视频| 亚洲欧洲综合| 中文字幕无码电影| 亚洲无码A视频在线| 99re热精品视频中文字幕不卡| 99在线视频免费| 婷五月综合| 国语少妇高潮| 久久动漫精品| 久青草免费在线视频| 不卡无码h在线观看| 欧美色综合久久| 亚洲综合欧美在线一区在线播放| 国产手机在线观看| 亚洲免费三区| 爱色欧美亚洲综合图区| 亚洲综合精品香蕉久久网|