999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于元學(xué)習(xí)和輕量化注意力機(jī)制的小樣本圖像檢索方法

2025-03-04 00:00:00宋阿隆崔學(xué)榮
物聯(lián)網(wǎng)技術(shù) 2025年5期

摘 要:圖像檢索算法在化工廠安全防護(hù)中起著重要作用,但是部分化工廠圖像檢索任務(wù)由于其場景特殊,缺乏標(biāo)記樣本,圖像檢索精度較低。為解決上述問題,提出基于元學(xué)習(xí)和輕量化注意力機(jī)制的小樣本圖像檢索方法,基于元學(xué)習(xí)思想構(gòu)建小樣本圖像檢索框架,使用深度可分離卷積提取圖像特征時能夠降低網(wǎng)絡(luò)復(fù)雜度;為增強(qiáng)網(wǎng)絡(luò)的特征提取能力,在深度可分離卷積中引入注意力模塊,構(gòu)建輕量化注意力機(jī)制的特征提取網(wǎng)絡(luò)。試驗(yàn)結(jié)果表明,采用該方法進(jìn)行圖像檢索時的mAP是65.41%,參數(shù)量是2.13 MB,計(jì)算量是5.98 GFLOPs;與其他網(wǎng)絡(luò)相比,降低了參數(shù)量和計(jì)算量,提高了檢索精度。

關(guān)鍵詞:圖像檢索;小樣本;元學(xué)習(xí);深度可分離卷積;注意力機(jī)制;輕量化

中圖分類號:TP183 文獻(xiàn)標(biāo)識碼:A 文章編號:2095-1302(2025)05-00-04

0 引 言

與一般的圖像檢索場景[1]相比,化工廠的圖像檢索任務(wù)場景比較特殊,受安全性和隱私性限制,部分圖像檢索任務(wù)缺少訓(xùn)練樣本,此時傳統(tǒng)的圖像檢索算法的檢索精度較低。因此,亟需基于少量圖像構(gòu)建泛化能力強(qiáng)的圖像檢索模型。

目前,主流的小樣本[2]問題解決方法是元學(xué)習(xí)(Meta-Learning)[3],元學(xué)習(xí)方法模型可從不同的子任務(wù)中學(xué)習(xí)面對一個新任務(wù)時如何較好地進(jìn)行泛化。與模型無關(guān)[4]的元學(xué)習(xí)(Model-Agnostic Meta-Learning, MAML)方法是其中重要的一種,其核心思想是使模型能夠在一系列任務(wù)上學(xué)習(xí),快速、有效地適應(yīng)新任務(wù)。

將元學(xué)習(xí)和度量學(xué)習(xí)(Metric Learning)[5]相結(jié)合是針對元學(xué)習(xí)方法進(jìn)行研究的主流方向之一。文獻(xiàn)[6]提出了關(guān)系網(wǎng)絡(luò)(Relation Network),對輸入的關(guān)系進(jìn)行建模,通過學(xué)習(xí)樣本之間的關(guān)系進(jìn)行圖像處理。文獻(xiàn)[7]提到的原型網(wǎng)絡(luò)(Prototypical Network)是通過學(xué)習(xí)每個類別的原型向量,將輸入樣本映射到這些原型向量的空間中,再通過最接近的原型進(jìn)行圖像匹配。

上述元學(xué)習(xí)方法均面向的是圖像分類任務(wù),對于圖像檢索問題,情況有所不同。圖像檢索是在一個圖像數(shù)據(jù)庫中根據(jù)查詢圖像找到相似的圖像,這種任務(wù)不同于圖像分類任務(wù),因?yàn)樗恍枰R別圖像的類別,只需要在圖像集合中尋找與查詢圖像相似的圖像。上述元學(xué)習(xí)方法對樣本質(zhì)量要求高,且要求模型不能太復(fù)雜。基于上述原因,提出一種基于元學(xué)習(xí)和輕量化注意力機(jī)制的小樣本圖像檢索方法MS-LCAM。該方法通過構(gòu)建小樣本圖像檢索框架和輕量化特征提取網(wǎng)絡(luò),有效地提高小樣本圖像檢索的精度。

1 MAML算法概述

1.1 MAML算法原理

元學(xué)習(xí)與傳統(tǒng)的深度學(xué)習(xí)思想不同,傳統(tǒng)的深度學(xué)習(xí)需要大量的訓(xùn)練數(shù)據(jù),從而模擬該任務(wù)的模型參數(shù),而元學(xué)習(xí)是從不同的任務(wù)中學(xué)習(xí)經(jīng)驗(yàn)與知識,做到“學(xué)會學(xué)習(xí)”。元學(xué)習(xí)分為元訓(xùn)練和元測試兩個階段,元學(xué)習(xí)問題一般包含兩個數(shù)據(jù)集:目標(biāo)數(shù)據(jù)集Ds和輔助數(shù)據(jù)集Dh,Ds內(nèi)僅含有少量的帶標(biāo)記目標(biāo)樣本,Dh數(shù)據(jù)集內(nèi)包含足夠多的帶有標(biāo)簽的樣本,可以根據(jù)目標(biāo)數(shù)據(jù)集制作。在元訓(xùn)練階段,每次會在輔助數(shù)據(jù)集Dh中采樣得到不同子任務(wù),在每個子任務(wù)中,從輔助數(shù)據(jù)集中選擇出N個類,然后從N個類中選取K個樣本構(gòu)成了支持集Support Set,查詢集Query Set會在N個類中的剩余樣本數(shù)據(jù)中采樣得到,這種任務(wù)被稱為N-way K-shot任務(wù)[8]。在元學(xué)習(xí)訓(xùn)練階段,使用構(gòu)建的子任務(wù)訓(xùn)練模型,學(xué)習(xí)經(jīng)驗(yàn)與知識。在元學(xué)習(xí)測試階段,使用目標(biāo)數(shù)據(jù)集Ds提供的帶標(biāo)簽的數(shù)據(jù)與元訓(xùn)練階段學(xué)到的知識對網(wǎng)絡(luò)進(jìn)行微調(diào),可以在新任務(wù)上迅速學(xué)習(xí)和適應(yīng)。

1.2 MAML算法缺點(diǎn)

MAML是一種元學(xué)習(xí)框架,可以幫助模型在小樣本情況下快速適應(yīng)新任務(wù)。然而,MAML并不是設(shè)計(jì)用于解決小樣本圖像檢索任務(wù)的框架,在解決小樣本圖像檢索任務(wù)時,需對MAML框架進(jìn)行優(yōu)化。

在MAML框架下,對模型要求嚴(yán)格,要求模型不能太復(fù)雜。在每個子任務(wù)的訓(xùn)練樣本數(shù)量很少的情況下,如果模型過于復(fù)雜,可能會在任務(wù)訓(xùn)練階段學(xué)習(xí)到任務(wù)特定的噪聲,而不是泛化到新任務(wù)的規(guī)律。

2 MAML框架改進(jìn)

對MAML框架進(jìn)行改進(jìn),使其適用于小樣本圖像檢索任務(wù),得到小樣本圖像檢索框架MS。MS分為2個階段:第1個階段是元訓(xùn)練階段,根據(jù)MAML思想在輔助數(shù)據(jù)集上劃分小樣本圖像分類子任務(wù),訓(xùn)練出圖像分類網(wǎng)絡(luò);第2個階段是元測試階段,在這個階段會刪除元訓(xùn)練階段的圖像分類網(wǎng)絡(luò)的最后一層分類層,保留其他層作為元測試階段的特征體提取網(wǎng)絡(luò),在元測試階段對特征提取網(wǎng)絡(luò)進(jìn)行微調(diào),使其提取的特征更適用于圖像檢索任務(wù)。MS框架如圖1所示。

元訓(xùn)練階段的具體過程分為內(nèi)循環(huán)和外循環(huán)兩部分。首先,初始化模型參數(shù)?。內(nèi)循環(huán)時,從任務(wù)集合中隨機(jī)選擇一個子任務(wù),模型使用子任務(wù)的支持集來進(jìn)行訓(xùn)練并更新模型參數(shù),對于每個子任務(wù)都要進(jìn)行類似的參數(shù)更新,第n個子任務(wù)得到新的模型參數(shù)θn,使用得到的模型參數(shù)計(jì)算子任務(wù)對應(yīng)查詢集的損失loss n′。外循環(huán)時,將所有子任務(wù)的損失累積,使用梯度下降來更新模型的初始化參數(shù)?。通過進(jìn)行內(nèi)循環(huán)和外循環(huán)的多次迭代,可以學(xué)習(xí)到一組初始化參數(shù),使得模型在面對新任務(wù)時能夠通過少量的梯度更新快速適應(yīng)新任務(wù)。

在元測試階段,需要使用元訓(xùn)練階段得到的初始化參數(shù),由于元訓(xùn)練階段得到的初始化參數(shù)的模型是圖像分類網(wǎng)絡(luò),并不適用于圖像檢索任務(wù)。因此,在元測試階段對模型進(jìn)行微調(diào)時,去掉圖像分類網(wǎng)絡(luò)的最后一層分類層,使網(wǎng)絡(luò)變?yōu)橐粋€特征提取網(wǎng)絡(luò),提取到圖像的一維特征。根據(jù)孿生網(wǎng)絡(luò)思想,使用目標(biāo)數(shù)據(jù)集構(gòu)建少量樣本對圖像,將樣本對圖像輸入到特征提取網(wǎng)絡(luò),得到成對一維特征,使用對比損失對模型進(jìn)行微調(diào),加大同類圖像對之間的相似度,減小不同類圖像對之間的相似度。通過少量樣本對圖像的微調(diào),使特征提取網(wǎng)絡(luò)適應(yīng)目標(biāo)數(shù)據(jù)集上的圖像檢索任務(wù)。

3 特征提取網(wǎng)絡(luò)的改進(jìn)

3.1 網(wǎng)絡(luò)整體結(jié)構(gòu)

為提取輸入圖像的一維特征,衡量圖像相似性,構(gòu)建輕量化特征提取網(wǎng)絡(luò)LCAM,LCAM主要由標(biāo)準(zhǔn)卷積和添加卷積注意力機(jī)制(Convolutional Block Attention Module, CBAM)[9]的深度可分離卷積D-CBAM模塊組成。LCAM的整體網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

LCAM主要包含5層,每層都包含1個最大池化的下采樣操作,用于改變特征圖的大小,第1層和第2層操作相同。首先使用了2個標(biāo)準(zhǔn)卷積提取圖像的低維特征,然后使用最大池化降低維度的特征,增加模型的魯棒性。后3層操作相同,使用3個相同的D-CBAM模塊提取圖像的高維特征,然后經(jīng)過最大池化降低維度特征,減輕模型的過擬合風(fēng)險(xiǎn)并保留主要特征。經(jīng)過5層操作后,特征進(jìn)入全連接層輸出圖像一維特征。LCAM同時兼?zhèn)渖疃瓤煞蛛x卷積和CBAM的優(yōu)點(diǎn),使得網(wǎng)絡(luò)更加輕量、高效。

3.2 輕量化特征提取模塊

使用深度可分離卷積提取特征時,網(wǎng)絡(luò)復(fù)雜度雖然下降,但特征提取能力也隨之下降。為增強(qiáng)網(wǎng)絡(luò)判別性特征的提取能力,在特征提取網(wǎng)絡(luò)中使用CBAM注意力模塊。構(gòu)建了輕量化注意力特征提取模塊D-CBAM,如圖3所示。

對于大小是C×H×W的輸入特征,D-CBAM模塊首先進(jìn)行深度卷積,沿通道將特征分為C個,每個特征的大小都是1×H×W,對C個子特征分別進(jìn)行標(biāo)準(zhǔn)卷積,提取圖像特征。深度卷積通過多個卷積層逐層堆疊,可以逐漸學(xué)習(xí)到輸入數(shù)據(jù)的層次化特征,捕獲輸入數(shù)據(jù)的局部和全局特征。

將深度卷積的結(jié)果經(jīng)過CBAM注意力模塊,CBAM模塊能夠自適應(yīng)地學(xué)習(xí)圖像中不同區(qū)域的通道注意力和空間注意力,有助于提取更具區(qū)分性的特征,強(qiáng)化關(guān)鍵信息,增強(qiáng)模型對圖像中重要特征的關(guān)注,從而提高圖像檢索性能。

在CBAM后使用一個1×1逐點(diǎn)卷積,對特征進(jìn)行降維,改變特征的通道數(shù),并且對不同位置上的特征進(jìn)行信息整合。為了防止網(wǎng)絡(luò)退化和梯度消失,在D-CBAM模塊上添加了殘差操作,將D-CBAM的輸入與逐點(diǎn)卷積之后的結(jié)果相加,作為整個模塊的輸出。

4 實(shí)驗(yàn)及結(jié)果分析

4.1 實(shí)驗(yàn)數(shù)據(jù)和評價指標(biāo)

采集化工廠圖像數(shù)據(jù)構(gòu)建目標(biāo)數(shù)據(jù)集(Target Dataset, TD),將其應(yīng)用于元測試階段,以此評價本文提出的方法,TD共有5個類別,每個類別包含50張圖像。同時,從其他公開數(shù)據(jù)集上選取與目標(biāo)數(shù)據(jù)集TD相似的數(shù)據(jù)構(gòu)建輔助數(shù)據(jù)集(Auxiliary Dataset for Chemical Plants, ADCP),ADCP共由16個類別組成,每個類別包含100張圖像。

實(shí)驗(yàn)使用平均精度均值(mean Average Precision, mAP)評價算法性能。精度表示前n個結(jié)果中有多少是同一類別的,平均精度是不同召回率上的平均值,mAP是對所有平均精度進(jìn)行平均的結(jié)果。將mAP作為綜合性評價指標(biāo),能夠更全面準(zhǔn)確地評估模型。

4.2 實(shí)驗(yàn)設(shè)置

本文方法基于Pytorch深度學(xué)習(xí)框架實(shí)現(xiàn),在元訓(xùn)練階段,子任務(wù)通過5-way和1-shot的元學(xué)習(xí)思想對ADCP數(shù)據(jù)集進(jìn)行數(shù)據(jù)劃分,每個子任務(wù)中含有5個支持集和5個查詢集,訓(xùn)練任務(wù)每代有24個子任務(wù),使用Adam優(yōu)化算法[10],內(nèi)部學(xué)習(xí)率為0.04,外部學(xué)習(xí)率為0.001,輸入圖像大小為224×224×3。在元測試階段,根據(jù)孿生網(wǎng)絡(luò)思想對TD數(shù)據(jù)集進(jìn)行小樣本圖像檢索任務(wù)劃分,輸入成對圖像,將輸出成對特征的余弦相似度作為損失函數(shù),使用SGD優(yōu)化算法[11]對模型進(jìn)行微調(diào)。

4.3 實(shí)驗(yàn)結(jié)果及分析

為了驗(yàn)證對MAML框架的改進(jìn)是否有利于小樣本圖像檢索任務(wù),將其與其他元學(xué)習(xí)方法進(jìn)行了對比實(shí)驗(yàn)。具體而言,其他方法在元訓(xùn)練和元測試階段均以圖像分類任務(wù)為目標(biāo)進(jìn)行訓(xùn)練和微調(diào),獲得圖像分類模型后,直接使用其全連接層輸出作為圖像的一維特征表示。在此基礎(chǔ)上,本文將基于此方法的圖像檢索結(jié)果與所提方法進(jìn)行了對比分析,結(jié)果見表1。

相較于直接使用圖像分類模型的全連接層作為圖像特征,本文提出的方法在TD上的圖像檢索準(zhǔn)確率最高,mAP達(dá)到了65.41%。相較于性能較好的Meta-baseline,本文方法的mAP提高了2.04個百分點(diǎn)。Prototypical Network和Relation Network方法的mAP很低,不適用于小樣本圖像檢索任務(wù)。由此驗(yàn)證了MS-LCAM算法在小樣本圖像檢索任務(wù)中的有效性。

由表2可知,LCAM網(wǎng)絡(luò)在小樣本圖像檢索任務(wù)中取得了最高的mAP,在TD數(shù)據(jù)集上達(dá)到65.41%。相較于VGG16、ViT,LCAM網(wǎng)絡(luò)的參數(shù)量和計(jì)算量明顯降低,檢索性能反而更高。與RepVGG相比,盡管RepVGG計(jì)算量較低,但是它的參數(shù)量卻是LCAM的3.68倍,且RepVGG的mAP比LCAM低了5.5個百分點(diǎn)。ResNet50的計(jì)算量較低,同時圖像檢索性能只比LCAM模型低了1.78個百分點(diǎn),然而ResNet50的參數(shù)量卻是LCAM的11倍。總體而言,LCAM模型不僅在性能上有顯著優(yōu)勢,而且在參數(shù)和計(jì)算效率上相對較優(yōu)。

為了驗(yàn)證文中所提出的網(wǎng)絡(luò)改進(jìn)策略對小樣本圖像檢索性能的影響,在網(wǎng)絡(luò)改進(jìn)前后進(jìn)行了圖像檢索實(shí)驗(yàn)對比,結(jié)果見表3。改進(jìn)后網(wǎng)絡(luò)的參數(shù)量降低12.59 MB,計(jì)算量降低9.42 GFLOPs,mAP提高了8.19個百分點(diǎn),證明了改進(jìn)模型的有效性,在小樣本圖像檢索任務(wù)中使用輕量化網(wǎng)絡(luò)可以取得更好的檢索結(jié)果。

5 結(jié) 語

針對化工廠圖像檢索任務(wù)中樣本數(shù)據(jù)缺乏的問題,提出基于元學(xué)習(xí)和輕量化注意力機(jī)制的小樣本圖像檢索方法。基于MAML和孿生網(wǎng)絡(luò)思想構(gòu)建了小樣本圖像檢索框架MS,同時構(gòu)建了輕量化注意力機(jī)制的特征提取網(wǎng)絡(luò)LCAM,在深度可分離卷積中加入CBAM模塊,構(gòu)建了D-CBAM模塊,降低了網(wǎng)絡(luò)復(fù)雜度并提高了其在小樣本情況下的特征提取能力。實(shí)驗(yàn)通過構(gòu)建的輔助數(shù)據(jù)集ADCP進(jìn)行訓(xùn)練,在采集的化工廠小樣本數(shù)據(jù)集TD上進(jìn)行驗(yàn)證。結(jié)果表明,相比于現(xiàn)有的模型和元學(xué)習(xí)方法,本文方法擁有更高的mAP,達(dá)到65.41%,為小樣本圖像檢索提供了一個有效的方法。下一步的研究將考慮設(shè)計(jì)一種損失函數(shù),將評價指標(biāo)mAP直接應(yīng)用于模型訓(xùn)練過程,以提高圖像檢索的性能。

參考文獻(xiàn)

[1] 楊慧,施水才.基于內(nèi)容的圖像檢索技術(shù)研究綜述[J].軟件導(dǎo)刊,2023,22(4):229-244.

[2] ZHANG D, PU H, LI F, et al. Few shot object detection via a generalized feature extraction net [J]. Journal of internet technology, 2023, 24(2): 305-312.

[3] 李凡長,劉洋,吳鵬翔,等.元學(xué)習(xí)研究綜述[J].計(jì)算機(jī)學(xué)報(bào),2021,44(2):422-446.

[4] FINN C, ABBEEL P, LEVINE S. Model-agnostic meta-learning for fast adaptation of deep networks [C]// Proceedings of the 34th International Conference on Machine Learning. Sydney, NSW, Australia: JMLR.org, 2017: 1126-1135.

[5] HU J, LU J, TAN Y P, et al. Deep transfer metric learning [J]. IEEE transactions on image processing, 2016, 25(12): 5576-5588.

[6] SUNG F, YANG Y, ZHANG L, et al. Learning to compare: Relation network for few-shot learning [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE, 2018: 1199-1208.

[7] SNELL J, SWERSKY K, ZEMEL R S. Prototypical networks for few-shot learning [C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach, California, USA: Curran Associates Inc, 2017: 4080-4090.

[8] 王圣杰,王鐸,梁秋金,等.小樣本學(xué)習(xí)綜述[J].空間控制技術(shù)與應(yīng)用,2023,49(5):1-10.

[9] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional block attention module [C]// Proceedings of the European Conference on Computer Vision (ECCV). Springer, Cham, 2018.

[10] LOSHCHILOV I, HUTTER F. Decoupled weight decay regularization [C]// Proceedings of the European International Conference on Learning Representations. [S.l.]: [s.n.], 2017.

[11] LU F. An overview of improved gradient descent algorithms for DNN training within significant revolutions of training frameworks [C]// 2021 2nd International Conference on Computing and Data Science (CDS). Stanford, CA, USA: IEEE, 2021: 181-186.

主站蜘蛛池模板: 国产女人在线观看| 九九热视频在线免费观看| 国产性猛交XXXX免费看| 国产男女XX00免费观看| 日韩精品无码不卡无码| 国产青榴视频在线观看网站| 午夜视频免费试看| 国产一区在线观看无码| 久久人搡人人玩人妻精品| 日本影院一区| av尤物免费在线观看| 欧美第二区| 亚洲性色永久网址| 99精品在线看| 亚洲av片在线免费观看| 欧美第一页在线| 香蕉精品在线| 99久久国产综合精品2020| 91久久夜色精品国产网站| 九色综合伊人久久富二代| 亚洲人成影视在线观看| 特黄日韩免费一区二区三区| 欧美日韩午夜视频在线观看| 亚洲无码高清一区| 久久综合伊人 六十路| 永久成人无码激情视频免费| 国产香蕉97碰碰视频VA碰碰看| 亚洲成肉网| 欧亚日韩Av| a级毛片一区二区免费视频| 青青青视频蜜桃一区二区| 日韩第八页| 呦女亚洲一区精品| 亚洲国产天堂久久综合| 日韩av手机在线| 麻豆AV网站免费进入| 国产精品一区在线麻豆| 国产男女免费视频| 高清无码一本到东京热| 在线日本国产成人免费的| 国产91久久久久久| 新SSS无码手机在线观看| 免费人成在线观看视频色| 91视频99| 亚洲欧洲日产国产无码AV| 国产男女免费完整版视频| 国产午夜无码片在线观看网站 | 伊人婷婷色香五月综合缴缴情| 中文字幕人妻无码系列第三区| 久久免费观看视频| 国产人成乱码视频免费观看| 99热这里只有精品免费| 99热这里只有免费国产精品| 91探花国产综合在线精品| 亚洲色图欧美视频| 国产精品网址你懂的| 精品91视频| 精品久久久久久成人AV| 国产综合亚洲欧洲区精品无码| 欧美三级日韩三级| 亚洲中文字幕无码mv| 亚洲欧美日韩成人高清在线一区| 国产网友愉拍精品视频| 欧美日韩成人| 国产资源免费观看| 国产清纯在线一区二区WWW| 国产成人8x视频一区二区| 久热中文字幕在线| 夜夜拍夜夜爽| 国产一级毛片yw| 色播五月婷婷| 激情無極限的亚洲一区免费| 国产欧美日韩精品综合在线| 欧美高清三区| 亚洲精品中文字幕午夜| 久爱午夜精品免费视频| 青青草欧美| 国产亚洲精品97在线观看| 日本精品中文字幕在线不卡 | 亚洲人成影视在线观看| 欧美国产在线看| 亚洲天堂精品视频|