999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)Deformable-DETR 的水下圖像目標(biāo)檢測(cè)方法

2024-02-25 14:11:52崔穎韓佳成高山陳立偉
應(yīng)用科技 2024年1期
關(guān)鍵詞:特征檢測(cè)方法

崔穎,韓佳成,高山,陳立偉

哈爾濱工程大學(xué) 信息與通信工程學(xué)院,黑龍江 哈爾濱 150001

水下目標(biāo)檢測(cè)技術(shù)是水下探測(cè)任務(wù)中的重要技術(shù)[1]。由于水下環(huán)境的復(fù)雜性和待檢測(cè)目標(biāo)的多樣性,常規(guī)的目標(biāo)檢測(cè)方法在水下環(huán)境中通常缺乏足夠的能力處理這些問題[2]。深度學(xué)習(xí)技術(shù)在多個(gè)領(lǐng)域的任務(wù)中表現(xiàn)出了良好的效果。在目標(biāo)檢測(cè)領(lǐng)域,常見的深度學(xué)習(xí)算法經(jīng)過多年間不斷的更新和優(yōu)化,已經(jīng)可以在多種目標(biāo)檢測(cè)任務(wù)上表現(xiàn)出良好的檢測(cè)效果[3?5]。基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)(regions with CNN features,RCNN)系列[6?8]目標(biāo)檢測(cè)方法是將卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks, CNN)引入到檢測(cè)領(lǐng)域的開山之作,其引入的卷積網(wǎng)絡(luò)能大幅提升檢測(cè)的準(zhǔn)確度。在此之后,YOLO(you only look once)系列[9?12]的檢測(cè)方法是應(yīng)用較為廣泛的一類檢測(cè)技術(shù),有著較快的推理速度和較好的檢測(cè)精度,被廣泛用于各種各樣的檢測(cè)任務(wù)中。類似的一階段或二階段檢測(cè)方法還有很多[13?14],大多會(huì)引入預(yù)先設(shè)計(jì)好形式的錨框或者感興趣區(qū)域作為檢測(cè)的基準(zhǔn)位置。近些年來,隨著硬件條件不斷的提升,訓(xùn)練一個(gè)較為復(fù)雜的模型已經(jīng)成為檢測(cè)任務(wù)的常態(tài)了[15?18],將Transformer 模塊由自然語言處理任務(wù)引入到檢測(cè)中的DETR(detection transformer)類方法就是這樣的類型。DETR 類方法通常有著簡(jiǎn)單的模型結(jié)構(gòu)設(shè)計(jì)和相對(duì)較多的模型參數(shù),其各個(gè)部分之間較低的耦合性使其很容易同一些性能較好的單個(gè)組件或者模塊進(jìn)行結(jié)合,以提升模型整體的性能。除此之外,DETR 類的方法沒有預(yù)設(shè)的錨框,其采用查詢向量作為一種軟錨框的形式以獲取目標(biāo)的位置。但是由于這樣的設(shè)計(jì),軟錨框通常不能較快的收斂,這導(dǎo)致了原始的DETR 方法通常需要較長(zhǎng)的訓(xùn)練時(shí)間。為了解決這樣的問題,研究者們提出了較多的改進(jìn)方法,這使得模型的收斂速度大大提升。在大量的改進(jìn)彌補(bǔ)方法自身存在的一些問題后,DETR 類方法成為一類較為新穎且相對(duì)成熟的一類檢測(cè)方法。目前很少有研究者將這一類的方法引入到水下檢測(cè)的任務(wù)中。本文將其引入水下目標(biāo)檢測(cè)并進(jìn)行改進(jìn),以提高模型在水下檢測(cè)任務(wù)中的性能。

1 水下光學(xué)圖像目標(biāo)檢測(cè)方法介紹

為了實(shí)現(xiàn)水下光學(xué)圖像目標(biāo)檢測(cè)任務(wù),解決由于水下復(fù)雜環(huán)境造成的檢測(cè)精度低的問題,本節(jié)將主要介紹基于改進(jìn)Deformable-DETR 水下檢測(cè)模型設(shè)計(jì)。

1.1 改進(jìn)的Deformable-DETR 模型總述

Deformable-DETR 模型是DETR 模型的一個(gè)性能良好的改進(jìn)模型Deformable-DETR-DA。本文以此為基礎(chǔ)改進(jìn)并設(shè)計(jì)水下檢測(cè)模型。模型結(jié)構(gòu)主要包含主干網(wǎng)絡(luò)、深度特征金字塔、改進(jìn)編碼器組、解碼器組和用于預(yù)測(cè)的預(yù)測(cè)頭。具體結(jié)構(gòu)如圖1 所示。模型輸入經(jīng)過預(yù)處理后的圖像,由主干網(wǎng)絡(luò)部分進(jìn)行特征提取,為了平衡模型的參數(shù)量和訓(xùn)練時(shí)間,這里選擇ResNet-50 作為模型的主干網(wǎng)絡(luò),并輸出4、8、16、32 倍下采樣的特征圖。經(jīng)過一個(gè)用于增加模型深度的深度特征金字塔模塊后,將多級(jí)特征分別進(jìn)行序列化后進(jìn)行拼接,獲得特征向量。在獲得特征圖的同時(shí)也對(duì)其進(jìn)行位置編碼并序列化及拼接,這里沿用了可學(xué)習(xí)位置編碼的形式。將特征向量和編碼向量疊加輸入到添加了注意力引導(dǎo)模塊的編碼器進(jìn)行特征的強(qiáng)化,并將結(jié)果輸入解碼器中進(jìn)行預(yù)測(cè),最終獲得模型預(yù)測(cè)的預(yù)測(cè)框和類別,經(jīng)過用于匹配的匈牙利算法獲得最后的檢測(cè)結(jié)果。

圖1 改進(jìn)后的 Deformable-DETR-DA 模型結(jié)構(gòu)

1.2 深度特征金字塔模塊

在模型中設(shè)計(jì)了一個(gè)容易嵌入的深度特征金字塔(deep feature pyramid networks,DFPN)模塊,用于增加模型的深度,同時(shí)此模塊也容易嵌入到其他的模型中以獲得性能上的提高。

DFPN 部分的主要結(jié)構(gòu)如圖2(a)所示,采用了通常特征金字塔的結(jié)構(gòu)設(shè)計(jì),使用標(biāo)準(zhǔn)的Transformer 編碼器塊作為深度特征的強(qiáng)化部分,這里設(shè)置N為6。獲得的深度強(qiáng)化特征經(jīng)過上采樣后同輸入的多級(jí)特征進(jìn)行融合,經(jīng)過嵌入空間注意力模塊進(jìn)行融合,多次重復(fù)這個(gè)過程直到獲得深化的多級(jí)特征。其中,用于融合特征的空間注意力模塊是深度可分離卷積同SAM[19]模塊的結(jié)合,其結(jié)構(gòu)如圖2 (b) 中的空間注意力(spatial attention,SA)模塊所示。SA 模塊首先是由一個(gè)3×3 的深度可分離卷積作為輸入部分,輸出的結(jié)果形式為(b,c,h,w), 分別經(jīng)過通道方向的均值池化和最大值池化后進(jìn)行維度拼接,獲得通道方向經(jīng)過壓縮的結(jié)果,為(b, 2,h,w)。接下來經(jīng)過1×1 卷積和Sigmoid 激活函數(shù)后,獲得空間維度的注意力權(quán)重,為(b, 1,h,w)。將注意力權(quán)重和深度可分類卷積的輸出相乘即可獲得注意力強(qiáng)化后的特征。將強(qiáng)化過的特征由殘差連接后得到的結(jié)果即為模塊輸出。

圖2 DFPN 結(jié)構(gòu)及空間注意力結(jié)構(gòu)

SA 部分的計(jì)算過程如下:對(duì)于特征圖C∈RN×C,線性映射后分別經(jīng)過通道方向的一維自適應(yīng)最大值池化層和一維自適應(yīng)均值池化層,獲得2 個(gè)尺寸為N×1的向量w1和w2。將二者在通道方向進(jìn)行拼接,而后經(jīng)過全連接層壓縮通道維度,獲得空間注意力權(quán)重向量, 并使用Sigmoid 函數(shù)對(duì)其規(guī)范化。空間注意力權(quán)重生成過程如下式所示:

式中:Cin由C經(jīng)過線性映射獲得。

將獲得的權(quán)重WC同特征向量Cin相乘獲得強(qiáng)化空間關(guān)注的特征Cout,如下式所示:

1.3 使用注意力引導(dǎo)改進(jìn)的編碼器模塊

DETR 類模型中編碼器部分主要的作用是增強(qiáng)主干網(wǎng)絡(luò)部分提取的多尺度特征,而在編碼器中起主要作用的是多頭自注意力(multi-head selfattention, MHSA)部分。雖然MHSA 能夠使模塊對(duì)特征中的重要部分給予更多的關(guān)注。但是,MHSA 的設(shè)計(jì)上仍然存在一些問題。MHSA 的計(jì)算過程可以分解成幾個(gè)部分:由輸入向量生成用于計(jì)算的Q、K、V共3 個(gè)向量;分別將Q、K、V多次線性映射而后計(jì)算自注意力,即“多頭”設(shè)計(jì);將每個(gè)“頭”計(jì)算獲得的注意力結(jié)果進(jìn)行通道維度的拼接;對(duì)拼接后的結(jié)果進(jìn)行線性映射,獲得輸出。在整個(gè)過程中,“多頭”設(shè)計(jì)能夠較明顯地降低計(jì)算時(shí)所需的內(nèi)存。但是,“多頭”設(shè)計(jì)同樣會(huì)使高維特征的不同通道組之間降低關(guān)聯(lián)性,不同的“頭”對(duì)物體關(guān)注的傾向性不同,這制約了編碼器部分對(duì)特征有效部分的增強(qiáng)和特征整體的關(guān)注性。DETR 類模型在注意力部分后級(jí)聯(lián)了一個(gè)前饋神經(jīng)網(wǎng)絡(luò)(feed-forward networks,F(xiàn)FN)結(jié)構(gòu),用于調(diào)整通道特征。普通的FFN 結(jié)構(gòu)雖然能擴(kuò)展和重組單一特征并聚合信息,但其忽略了某一通道或某一“頭”的特征的重要程度。Deformable-DETR 模型作為DETR 類模型中比較高效的模型之一,其MHSA 部分使用可形變注意力進(jìn)行改進(jìn),但類似“多頭”和FFN 的設(shè)計(jì)仍然有所保留,因此Deformable-DETR 模型同樣存在上述問題。

為了解決這個(gè)問題,提高模型的精度和魯棒性,Deformable-DETR-DA 模型設(shè)計(jì)了一個(gè)改良的編碼器塊進(jìn)行替代。改良編碼器塊的具體結(jié)構(gòu)如圖3 所示,其將原始Deformable-DETR 模型的編碼器部分轉(zhuǎn)變成一個(gè)全注意力結(jié)構(gòu)。具體來說,改良編碼器塊的結(jié)構(gòu)設(shè)計(jì)上仍然保留了多尺度可形變注意力部分,用于在空間維度強(qiáng)化特征。不同的是,改良編碼器塊在FFN 部分額外添加了一個(gè)通道注意力引導(dǎo)結(jié)構(gòu),用于在通道維度聚合特征信息。這樣的設(shè)計(jì)能促進(jìn)FFN 部分形成更多的特征組合形式,使模塊充分考慮每個(gè)通道特征的重要性,并賦予重要信息更高的權(quán)重。受卷積注意力機(jī)制模塊啟發(fā),結(jié)合通道注意力引導(dǎo)機(jī)制(channel attention guided mechanism,CAGM)的通道注意力引導(dǎo)前饋神經(jīng)網(wǎng)絡(luò)FFN-CAGM 如圖4所示,對(duì)應(yīng)的計(jì)算過程如下:

圖3 改良編碼器部分結(jié)構(gòu)

圖4 通道注意力引導(dǎo)前饋神經(jīng)網(wǎng)絡(luò)部分結(jié)構(gòu)

模塊使用多尺度可形變注意力部分的輸出作為FFN-CAGM 部分輸入的特征向量D∈RN×C,其中N指的是輸入特征向量的長(zhǎng)度,C表示特征向量的通道數(shù)目。特征向量D分別經(jīng)過一維的自適應(yīng)最大值池化層和一維的自適應(yīng)均值池化層,并分別經(jīng)過全連接層進(jìn)行映射,獲得帶有不同通道權(quán)重信息的向量D1和D2,將二者疊加后作為特征向量D通道方向的權(quán)重,并使用Sigmoid 函數(shù)對(duì)其進(jìn)行規(guī)范化。通道權(quán)重的生成過程如下式所示:

輸入向量D還需要經(jīng)過FFN 處理。FFN 部分由兩個(gè)全連接層結(jié)合一個(gè)線性整流(rectified linear units,ReLU)激活函數(shù)組成,F(xiàn)FN 首先對(duì)輸入向量D的通道維度進(jìn)行擴(kuò)展,其中,通道維度的擴(kuò)展系數(shù)設(shè)置為4。擴(kuò)展后的向量D經(jīng)過激活函數(shù)處理后增添了非線性因素,再次通過全連接層將通道維度壓縮至初始大小,輸出FFN 處理后的特征向量。這一過程中,F(xiàn)FN 對(duì)向量D的特征進(jìn)行了豐富和重組。最后,將處理后的特征向量與權(quán)重WD相乘,實(shí)現(xiàn)通道注意力引導(dǎo)的過程。這個(gè)過程如下式所示:

2 水下目標(biāo)檢測(cè)實(shí)驗(yàn)

2.1 水下目標(biāo)檢測(cè)數(shù)據(jù)集及數(shù)據(jù)預(yù)處理

本文使用URPC2020 水下目標(biāo)檢測(cè)數(shù)據(jù)集作為實(shí)驗(yàn)用的數(shù)據(jù)集。URPC2020 是由大連市人民政府和鵬城實(shí)驗(yàn)室等共同主辦的URPC 2020(大連)水下目標(biāo)檢測(cè)算法賽中提出的真實(shí)水下環(huán)境目標(biāo)檢測(cè)數(shù)據(jù)集,數(shù)據(jù)來源于真實(shí)水下環(huán)境中拍攝,涵蓋包括海參、海膽、扇貝和海星4 個(gè)目標(biāo)類別。本文使用的訓(xùn)練集共有5 543 張圖片,測(cè)試集共有800 張圖片。

本文的模型使用多尺度訓(xùn)練的方式。模型首先使用隨機(jī)翻轉(zhuǎn)。隨機(jī)選擇以下2 種方式:一種是使用隨機(jī)圖像大小調(diào)整。這個(gè)過程先將圖像的短邊調(diào)整大小,隨機(jī)選擇[480, 768]中每隔32 的取樣數(shù)值之一作為短邊的長(zhǎng)度,長(zhǎng)邊依照原圖像的縱橫比進(jìn)行放縮。設(shè)置最大長(zhǎng)邊尺寸為768,若放縮后圖像長(zhǎng)邊大于768,則改變圖像大小調(diào)整方式為長(zhǎng)邊調(diào)整至768,短邊依原圖縱橫比進(jìn)行調(diào)整。另一種方式是先使用隨機(jī)尺寸調(diào)整,將圖像的短邊調(diào)整至[400, 500, 600]其中之一,長(zhǎng)邊依比例調(diào)整。之后使用隨機(jī)剪裁,將剪裁的結(jié)果依照第一種圖像大小調(diào)整的方式再次進(jìn)行調(diào)整,獲得輸入圖像。模型使用上述過程進(jìn)行訓(xùn)練集的數(shù)據(jù)增強(qiáng)并歸一化。針對(duì)測(cè)試集,模型將測(cè)試圖像的尺寸固定至768×768 并歸一化。

2.2 實(shí)驗(yàn)環(huán)境和參數(shù)設(shè)置

本文中所有模型均使用PyTorch 框架和Python語言構(gòu)建,在Pycharm 平臺(tái)中進(jìn)行模型的訓(xùn)練和評(píng)估。硬件環(huán)境包括Intel i7-10700 處理器(CPU),64 GB 內(nèi)存,NVIDIA GeForce GTX 3060(12 GB)圖形處理器(GPU),操作系統(tǒng)為Window10。程序運(yùn)行環(huán)境具體版本如下:Python 版本為3.9.12,Pytorch-gpu 版本為1.11.0,CUDA 版本為11.2。

模型參數(shù)設(shè)置上,批處理大小(batch_size)設(shè)置為1,主干網(wǎng)絡(luò)使用ResNet-50,加載torchvision中其在ImageNet 數(shù)據(jù)集上訓(xùn)練的權(quán)重,并給這部分權(quán)重設(shè)置學(xué)習(xí)率為1×10?5。設(shè)置模型的其余部分參數(shù)的初始學(xué)習(xí)率為1×10?4,訓(xùn)練代數(shù)(epoch)設(shè)置為50,在40 epoch 的時(shí)候?qū)⑦@部分參數(shù)的學(xué)習(xí)率下降至原來的0.1 倍。模型使用AdamW 作為優(yōu)化器,dropout 設(shè)置為0.1,隨機(jī)數(shù)種子設(shè)置為42。模型設(shè)置編碼器和解碼器的深度均為6 層。FFN 中線性層的擴(kuò)張維度設(shè)置為1 024,每一尺度的特征圖通道維度統(tǒng)一調(diào)整至256,設(shè)置查詢向量的尺度為300。

2.3 損失函數(shù)設(shè)置

Deformable-DETR-DA 模型中延續(xù)了原始Deformable-DETR 模型中使用的組合損失函數(shù)。DETR 類模型是一類集合匹配模型,這類方法預(yù)測(cè)的結(jié)果同真實(shí)值之間主要存在兩方面的差異:一方面,DETR 類模型通常使用Hungarian 匹配方法將預(yù)測(cè)值和真實(shí)值關(guān)聯(lián),這個(gè)過程存在較大的匹配誤差;另一方面,DETR 類模型預(yù)測(cè)的目標(biāo)框坐標(biāo)同真實(shí)的標(biāo)注框坐標(biāo)之間存在一定誤差。這2 個(gè)方面直接影響模型的檢測(cè)效果,因此損失函數(shù)對(duì)這2 個(gè)方面進(jìn)行約束,以提高模型性能。此外,由于DETR 類模型中通常會(huì)一次性預(yù)測(cè)大量的目標(biāo),這些預(yù)測(cè)目標(biāo)中有效的正樣本只有少數(shù)部分,更多預(yù)測(cè)目標(biāo)是錯(cuò)誤的或者重復(fù)的負(fù)樣本,因此損失函數(shù)中引入了聚焦損失(focal loss)解決這類預(yù)測(cè)目標(biāo)中正負(fù)樣本數(shù)量差異較大的問題。

匈牙利損失(Hungarian loss)是DETR 類模型損失組成中的關(guān)鍵部分,其來源于DETR 類模型預(yù)測(cè)目標(biāo)和真實(shí)值之間的匹配過程。Hungarian loss 的計(jì)算公式為

式中:y和分別為真實(shí)的標(biāo)注集合和預(yù)測(cè)的目標(biāo)集合;N為匹配的目標(biāo)數(shù)目,表示目標(biāo)的預(yù)測(cè)類別;為預(yù)測(cè)目標(biāo)集合和真實(shí)值集合的最佳匹配;為最佳匹配時(shí)目標(biāo)的預(yù)測(cè)坐標(biāo);bi為對(duì)應(yīng)的標(biāo)注坐標(biāo)。

DETR 類模型預(yù)測(cè)集合中的元素包含2 部分:一部分是目標(biāo)預(yù)測(cè)類別及置信度;另一部分是目標(biāo)預(yù)測(cè)框的坐標(biāo)。而Hungarian loss 主要包含類別的預(yù)測(cè)損失和預(yù)測(cè)框的坐標(biāo)損失2 個(gè)部分。對(duì)于類別的預(yù)測(cè)損失,使用最佳匹配下的預(yù)測(cè)目標(biāo)置信度計(jì)算focal loss,計(jì)算公式為

對(duì)于預(yù)測(cè)框的坐標(biāo)損失,使用廣義交并比損失(GIoU loss)和L1 損失進(jìn)行衡量。其計(jì)算過程公式為

式中:B(bi,)為同時(shí)包含標(biāo)注框和預(yù)測(cè)框的最小矩形框; λiou和 λL1分別為GIoU loss 和L1 損失的權(quán)重,默認(rèn)值為λiou=2和λL1=5。

2.4 評(píng)價(jià)指標(biāo)

在本文中使用coco 數(shù)據(jù)集的評(píng)價(jià)指標(biāo)形式對(duì)模型的檢測(cè)效果進(jìn)行評(píng)價(jià),以目標(biāo)的預(yù)測(cè)框和實(shí)際標(biāo)注框之間的交并比(intersection over union,IoU)為閾值進(jìn)行劃分。平均準(zhǔn)確度(average precision,AP)指的是交并比在[0.50,0.95]中每隔0.05 取樣后計(jì)算準(zhǔn)確度的平均值。AP50、AP75分別表示IoU 閾值為0.5、0.75 時(shí)的AP 測(cè)量值。APS、APM、APL分別表示像素面積小于32×32、大于32×32且小于96×96、大于96×96的目標(biāo)框的AP 測(cè)量值,用于評(píng)估小目標(biāo)、中型目標(biāo)和大型目標(biāo)。AP 的計(jì)算公式為

式中mAP是以查全率(recall)為橫軸、查準(zhǔn)率(precision)為縱軸構(gòu)成的P-R 曲線下的面積。AP 數(shù)值越大,說明目標(biāo)檢測(cè)的性能越好。其中,查全率mrecall、查準(zhǔn)率mprecision計(jì)算公式為

式中:NTP為IoU 大于設(shè)定閾值的檢測(cè)框數(shù)目,NFP為IoU 小于設(shè)定閾值的檢測(cè)框和對(duì)同一個(gè)標(biāo)注多余的檢測(cè)框數(shù)目,NFN為未檢出的被標(biāo)注目標(biāo)數(shù)目。

2.5 URPC2020 數(shù)據(jù)集上目標(biāo)檢測(cè)的實(shí)驗(yàn)情況

本文將模型在URPC2020 數(shù)據(jù)集上進(jìn)行測(cè)試并同一些DETR 類檢測(cè)方法進(jìn)行比較,結(jié)果如表1 所示。其中,表1 中的“模型尺度”一欄表示方法中模型主干網(wǎng)絡(luò)輸出的特征圖形式,multi 表示多尺度特征圖,F(xiàn)5 表示輸入特征圖尺寸為原尺寸的32 倍下采樣。表1 可見,與原方法相比,改進(jìn)后的方法AP 值提升1 左右。此外,改進(jìn)后的模型在URPC2020 數(shù)據(jù)集上獲得了最佳的AP 值,即有著最好的檢測(cè)效果。和多數(shù)對(duì)比方法相比,在小目標(biāo)的檢測(cè)APS以及粗略檢測(cè)AP50上均有著一定的提升。

表1 URPC 數(shù)據(jù)集的多模型檢測(cè)效果定量比較

本文還將各個(gè)方法的水下檢測(cè)結(jié)果進(jìn)行可視化,如圖5。圖5 中表明改進(jìn)后的方法有著更好的準(zhǔn)確率,檢測(cè)框的準(zhǔn)確度更好。除此之外,改進(jìn)后的方法同其他的方法相比誤檢率有所降低。在質(zhì)量較低的水下圖像中,沒有使用圖像增強(qiáng)之類的預(yù)處理方式,模型也有較好檢測(cè)效果。

圖5 各種對(duì)比方法的可視化結(jié)果

2.6 消融實(shí)驗(yàn)

本文針對(duì)各部分的改進(jìn)設(shè)計(jì)消融實(shí)驗(yàn)進(jìn)行驗(yàn)證,結(jié)果如表2 和圖6 所示,其中圖6 中紅色框代表標(biāo)注,黃色框代表檢測(cè)結(jié)果。

表2 Deformable-DETR-DA 模型中改進(jìn)模塊的有效性實(shí)驗(yàn)結(jié)果比較%

圖6 URPC 數(shù)據(jù)集上消融實(shí)驗(yàn)效果比較

由表2 可知,單獨(dú)添加CAGM 部分能對(duì)模型的檢測(cè)效果有著一定的提升。而單獨(dú)添加DFPN對(duì)檢測(cè)的效果幾乎沒有提升,這和Deformable-DETR論文中提到的相同,均由于可形變注意力具有融合多級(jí)特征的能力,可以替代特征金字塔的作用。但是,在DFPN 和CAGM 模塊同時(shí)添加后,模型的性能又能在僅添加CAGM 的基礎(chǔ)上有所提升,這是因?yàn)镃AGM 模塊帶來更多的通道方向的關(guān)注,使得DFPN 在通道方向?qū)δP彤a(chǎn)生更深的影響,可以進(jìn)一步針對(duì)通道方向進(jìn)行調(diào)節(jié),從而提升模型性能。由圖6 可見,在添加了DFPN和FFN-CAGM 之后,模型的漏檢和誤檢有所下降。這也可以體現(xiàn)模型改進(jìn)的有效性。

3 結(jié)束語

針對(duì)水下光學(xué)圖像目標(biāo)檢測(cè)問題,本文將DETR 類檢測(cè)方法引入到水下檢測(cè)任務(wù)中并加以改進(jìn)。通過添加設(shè)計(jì)的DFPN 和FFN-CAGM 部分以提升模型的性能;通過在水下數(shù)據(jù)集上的對(duì)比實(shí)驗(yàn)和消融實(shí)驗(yàn)證明本文所用方法的有效性和設(shè)計(jì)改進(jìn)的有效性,并通過可視化結(jié)果進(jìn)一步體現(xiàn)。DETR 類方法在水下目標(biāo)檢測(cè)任務(wù)上值得進(jìn)一步探索。后續(xù)研究可進(jìn)一步完善檢測(cè)模型,針對(duì)模型的參數(shù)量和計(jì)算量進(jìn)行輕量化設(shè)計(jì),進(jìn)一步提升模型的實(shí)用性,也可以通過添加圖像增強(qiáng)等預(yù)處理方法進(jìn)一步提升模型性能。

猜你喜歡
特征檢測(cè)方法
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
小波變換在PCB缺陷檢測(cè)中的應(yīng)用
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 国产美女在线免费观看| 国产性爱网站| 国产乱人乱偷精品视频a人人澡| 人妻丰满熟妇AV无码区| 在线视频亚洲色图| 爆操波多野结衣| 国产偷国产偷在线高清| 成人免费网站在线观看| 欧美乱妇高清无乱码免费| 亚洲午夜福利在线| 久久精品午夜视频| 亚洲第一黄片大全| 91免费片| 亚洲国产综合自在线另类| 日本高清免费不卡视频| 欧美.成人.综合在线| 国产天天射| 国内99精品激情视频精品| 国产精品极品美女自在线看免费一区二区 | AV天堂资源福利在线观看| 午夜少妇精品视频小电影| 国产黑丝一区| 无遮挡国产高潮视频免费观看 | 91精品国产91久久久久久三级| 国产办公室秘书无码精品| 久久国产精品影院| 成人午夜视频网站| 亚洲视频色图| 一级毛片免费不卡在线| 国产精品视频导航| 国产成人av一区二区三区| 在线免费亚洲无码视频| 欧美不卡二区| 福利小视频在线播放| 久草美女视频| 亚洲国产理论片在线播放| 久久综合激情网| 国产精品专区第1页| 国产第一页免费浮力影院| 国产亚洲精品97AA片在线播放| 成人自拍视频在线观看| P尤物久久99国产综合精品| 欧美曰批视频免费播放免费| 日日噜噜夜夜狠狠视频| 国内丰满少妇猛烈精品播| 日本久久网站| 亚洲免费毛片| 亚洲日韩每日更新| 色综合综合网| 亚洲最大在线观看| 日本欧美在线观看| 婷婷色婷婷| 日本欧美一二三区色视频| 久久一色本道亚洲| 新SSS无码手机在线观看| 全部免费毛片免费播放| 在线视频97| 永久免费av网站可以直接看的| 四虎永久在线精品影院| 久久6免费视频| 青青草国产精品久久久久| 亚洲高清中文字幕在线看不卡| 国产成人亚洲精品色欲AV | 热99精品视频| 一级毛片在线免费看| 日韩福利视频导航| 日日摸夜夜爽无码| 亚洲国产成人久久精品软件| 国产一区二区三区在线观看视频 | 伊伊人成亚洲综合人网7777| 丁香婷婷激情网| 91小视频在线观看免费版高清| 国产综合网站| 中美日韩在线网免费毛片视频 | 色婷婷亚洲十月十月色天| 熟妇丰满人妻| 久久青草视频| 国产日韩AV高潮在线| 精品国产一区91在线| 国产在线无码av完整版在线观看| 欧洲成人免费视频| 人妻熟妇日韩AV在线播放|