999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向高價(jià)值目標(biāo)識別的SKConv-MobileNetV3改進(jìn)

2025-11-13 00:00:00鄭鵬程云劉波葉晨浩王石杰
指揮控制與仿真 2025年5期

關(guān)鍵詞:計(jì)算機(jī)應(yīng)用;目標(biāo)識別;輕量級網(wǎng)絡(luò);MobileNetV3;自適應(yīng)選擇性卷積中圖分類號:TP391.41 文獻(xiàn)標(biāo)志碼:A DOI:10.3969/j.issn. 1673-3819.2025.05.006

Abstract:High-valuetarget recognitionusuallrequires high timelinessandaccuracy,andthelarge numberof parameters of traditionaldepconvolutionalneuralnetworksleads toalargenumberofapplicationscenariosbeing limited.Ahigh-value targetrecognitionmethodbasedon SKCony-MobileNetV3isproposed,byfusingtherecognitionresultsof SKConvconvolutionalkernelwiththeweightedoutputfeaturemapsofMobileNetV3convolutionallayer,andusingtheatentionmechanismto selectthemostrelevantimagecontentforfeature extraction,wecanimprovethefeatureinformation extractioncapabilityof theSKCon-MobileNetV3model whileimproving learning eficiency,under theconditionthatthenumberof parametersremainsunchanged,MobileNetV3model’sabilitytoextractfeatureinformation,whileimprovingthelearningeficiencyand recognitionaccuracy.Through theabovealgorithmimprovementandoptimization,sevenhigh-valuetargets withstrongcorrelation are selected in the NWPU-RESISC45 datasetand tested,and the resultsshow that the accuracy is improved by 7.01% (204號 compared withMobileNetV2 and 4,08% compared withMobileNetV3,which isable to better improve the recognitionaccuracy of high-value target recognition accuracy.

Keywords:computerapplication;targetidentification;lightweightnetwork;MobileNetV3;selectivekernelconvolution

信息化戰(zhàn)爭條件下,衛(wèi)星、雷達(dá)、無人機(jī)偵察平臺、精確制導(dǎo)彈藥等的應(yīng)用,使得戰(zhàn)場環(huán)境日益復(fù)雜多變,作戰(zhàn)形勢發(fā)生深刻變化。如何利用光學(xué)成像或其他成像設(shè)備捕捉圖像,并從中解讀、處理和提取預(yù)期目標(biāo)的類型、方位、速度等信息,并充分利用這些相關(guān)信息進(jìn)行指揮決策和精確打擊日益成為軍事斗爭的關(guān)鍵性問題。針對這一問題,已有學(xué)者進(jìn)行了相關(guān)研究。

在非軍事目標(biāo)識別中,Jia等[1]受EfficientNet思想的啟發(fā),使用縮放系數(shù)對MobileNetV3網(wǎng)絡(luò)結(jié)構(gòu)作為一個(gè)整體在寬度和高度方面進(jìn)行縮放。Zhang等[2]采用多尺度信息融合(MSIF)-MobileNetV3,來分析魚類的攝食行為,用MSIF替代擠壓-激發(fā)(SE)模塊,利用空間信息集成和多尺度特征融合提高模型對攝食圖像中魚群行為的關(guān)注權(quán)重。Shahi等[3]利用預(yù)先訓(xùn)練的Mo-bileNetV2模型和注意模塊提出了一個(gè)輕量級深度學(xué)習(xí)模型。

在軍事高價(jià)值目標(biāo)識別中,張煥[4]基于卷積神經(jīng)網(wǎng)絡(luò)提出了改進(jìn)激活函數(shù)的組合卷積模塊,并與VGG-Net(標(biāo)準(zhǔn)卷積)、GoogleNet(Inception模塊)、Mobilenet(深度可分離卷積)、 ResNet (殘差模塊)進(jìn)行了對比,證明了改進(jìn)方法的有效性。吳迪[5對紅外弱小目標(biāo)識別問題開展基于多模態(tài)特征的紅外弱小目標(biāo)智能化識別技術(shù)研究,用于解決全時(shí)段、遠(yuǎn)距離目標(biāo)精確識別的問題,為武器系統(tǒng)提供準(zhǔn)確目標(biāo)識別情報(bào),為解決高價(jià)值目標(biāo)識別中小樣本和數(shù)據(jù)集不足的問題提出了一種

思路。

傳統(tǒng)的基于計(jì)算機(jī)視覺的方法首先提取低層特征,然后使用機(jī)器學(xué)習(xí)方法進(jìn)行圖像分類;基于深度學(xué)習(xí)的方法則有效地提取特征并執(zhí)行端到端圖像分類。在傳統(tǒng)的計(jì)算機(jī)視覺和圖像處理方法中,圖像特征(例如裝備特征、顏色和輪廓)被用作高價(jià)值目標(biāo)分類的輸入。以上方法對高價(jià)值目標(biāo)識別做了大量工作,但基本采用整體圖像識別,圖像特征提取的過程采用卷積核對全局進(jìn)行卷積,拉高了模型算力消耗和訓(xùn)練時(shí)間成本。可以看出,MobileNetV3已經(jīng)具備了高效性、準(zhǔn)確性和可拓展性等優(yōu)點(diǎn),相較于MobileNetV2加入了SE機(jī)制,已有了較大進(jìn)步;但是由于網(wǎng)絡(luò)規(guī)模較小,特征表示能力相對較弱,并且遷移性和普適性不佳[7,在特定領(lǐng)域的數(shù)據(jù)集上使用時(shí),可能會(huì)出現(xiàn)性能下降的情況。

針對上述問題,本文基于卷積神經(jīng)網(wǎng)絡(luò)中的Mo-bileNetV3模型,利用SKConv卷積核,能夠高效地提取到目標(biāo)特征,自適應(yīng)特征大小改變卷積核大小,有效降低了算力和時(shí)間成本開銷,并且能夠利用SKConv卷積核提高M(jìn)obileNetV3的特征抓取效率,彌補(bǔ)其在網(wǎng)絡(luò)規(guī)模方面的不足以及改善在不同數(shù)據(jù)集上的學(xué)習(xí)效率,提高了模型的遷移性和普適性。

1模型結(jié)構(gòu)

1. 1 模型改進(jìn)

為克服MobileNetV3的不足和缺陷并提高模型識別準(zhǔn)確率,本文提出通過加人selectivekernelconvolu-tion(SKConv)自適應(yīng)選擇性卷積模塊來幫助Mobile-NetV3能夠更好地識別和提取圖片中的關(guān)鍵信息,提升模型的學(xué)習(xí)效率和識別準(zhǔn)確率。

1.1.1 自適應(yīng)選擇性卷積

SKConv是一種卷積神經(jīng)網(wǎng)絡(luò)中的卷積操作,它可以自適應(yīng)地選擇卷積核的大小和形狀,從而提高網(wǎng)絡(luò)的準(zhǔn)確性和效率[8]

傳統(tǒng)的卷積操作使用固定大小和形狀的卷積核來進(jìn)行特征提取,這種方法可能會(huì)忽略一些重要的特征信息或者提取到一些無關(guān)緊要的特征[9]。為了解決這個(gè)問題,本文引入了自適應(yīng)選擇性卷積機(jī)制,即在卷積層中引入選擇性卷積核后,使用注意力機(jī)制來選擇最相關(guān)的卷積核進(jìn)行特征提取。

選擇性核卷積[8]是通過Split、Fuse和 Select3個(gè)操作實(shí)現(xiàn)的,其使神經(jīng)元能夠自適應(yīng)地調(diào)整其感受野大小。Split操作生成具有不同核大小的多個(gè)路徑;Fuse操作通過元素求和融合多個(gè)路徑的信息,并使用全局平均池化生成通道統(tǒng)計(jì)信息,通過全連接層創(chuàng)建緊湊特征 以指導(dǎo)精確和自適應(yīng)的選擇;Select操作使用softmax注意力根據(jù)緊湊特征描述符 自適應(yīng)地選擇不同空間尺度的信息。

SKConv主要由重復(fù)的瓶頸塊組成8,稱為SK單元,每個(gè)SK單元由 1×1 卷積、SK卷積和 1×1 卷積序列組成。SKConv從ResNeXt出發(fā),將原始瓶頸塊中的所有大核卷積替換為SK卷積,使網(wǎng)絡(luò)能夠以自適應(yīng)的方式選擇合適的感受野大小。目前,主要的三種網(wǎng)絡(luò)架構(gòu)為SKConv-50({3,4,6,3}個(gè)SK單元)、SKConv-26({2,2,2,2}個(gè)SK單元)和SKConv-101({3,4,23,3}個(gè)SK單元)。

SK卷積中的3個(gè)重要超參數(shù)是路徑數(shù)量 M 組號G 和壓縮比 r 。路徑數(shù)量 M 決定了聚合的不同內(nèi)核的選擇數(shù)量,即分支數(shù)量,決定模型能夠獲取的多尺度信息的豐富程度。組號 G 控制每個(gè)路徑的基數(shù),在分組卷積中,決定了參數(shù)和計(jì)算成本的分配。壓縮比 r 主要用于控制Fuse操作中全連接層的參數(shù)數(shù)量,從而影響緊湊特征 的維度。通過調(diào)整壓縮比的值,可以在一定程度上控制模型的復(fù)雜度和計(jì)算量。

1.1.2 MobileNetV3和SKConv的融合

為了解決MobileNetV3中深度可分離卷積存在的單一卷積核的局限性,每個(gè)卷積核只負(fù)責(zé)一個(gè)輸入通道,這可能導(dǎo)致對不同通道之間的關(guān)系捕捉不足,導(dǎo)致模型表達(dá)能力受限。本文采用并聯(lián)加權(quán)求和的方式,將深度可分離卷積和SKConv的結(jié)果特征圖融合。即同時(shí)輸入相同原始圖片,兩個(gè)卷積部分分別進(jìn)行特征提取,之后將兩個(gè)結(jié)果特征矩陣進(jìn)行加權(quán)融合。其過程如下:

(1)Split操作

輸入特征圖為 ,其中, H,W 分別表示特征圖的高度和寬度,C表示通道數(shù)[10]

通過兩個(gè)不同的變換生成兩個(gè)分支的特征圖:

在默認(rèn)條件下,這兩個(gè)變換的卷積核大小分別為3和5。需要注意的是, F1 和 F2 都由深度卷積、Batch Nor-malization和ReLU函數(shù)依次組成。為了進(jìn)一步提高效率,傳統(tǒng)的 5×5 卷積被替換為dilationsize為2的 3×3 擴(kuò)張卷積。具體步驟如下:

對于第一個(gè)分支,使用卷積核大小為 K?1×K?1 的卷積操作,其中, C1 表示第一個(gè)分支經(jīng)過卷積操作后的通道數(shù):

這里的卷積操作(對于輸入特征圖上的位置( i j) )可以表示為

其中, W1,k,c,m,n 是第一個(gè)分支卷積核的權(quán)重參數(shù)。

類似地,對于第二個(gè)分支,使用卷積核大小為 K2× K2 的卷積操作與第一個(gè)分支一致,但是卷積核大小 ?K2 、分支經(jīng)過卷積操作后的通道數(shù) C2 、分支卷積核在對應(yīng)位置的權(quán)重參數(shù) W2,k,c,m,n 要對應(yīng)第二個(gè)分支中的參數(shù)。

(2)Fuse操作

首先,將兩個(gè)分支的特征圖進(jìn)行融合:

U=U1+U2

其中, U 表示融合兩個(gè)分支后的特征圖,其通道數(shù)為兩個(gè)分支通道數(shù)之和[]

其次,進(jìn)行全局平均池化生成通道統(tǒng)計(jì)信息,即對于 U 的每個(gè)通道 Uc 進(jìn)行全局平均池化:

通過全連接層創(chuàng)建緊湊特征:

z=Ffc(s)=δ(β(Ws))

其中, δ 是ReLU函數(shù), β 表示BatchNormaliztion,用于歸一化處理, d 通過減少壓縮比例 r 控制:

其中, L 是 d 的最小值。

(3)Select操作

使用softmax注意力根據(jù)緊湊特征描述符 z 在通道維度上自適應(yīng)地選擇不同空間尺度的信息[12],對通道維度上的數(shù)字應(yīng)用softmax操作,計(jì)算注意力權(quán)重 ac 和b:

其中, ac,bc 分別表示兩個(gè)分支的soft注意力向量, A,B 表示隨機(jī)初始化生成的參數(shù)矩陣,并且在后續(xù)訓(xùn)練過程中根據(jù)反向傳播算法計(jì)算損失函數(shù)對各個(gè)參數(shù)的梯度進(jìn)行不斷更新矩陣參數(shù)。其中:

最終的特征圖通過注意力權(quán)重對不同核的特征圖進(jìn)行聚合得到:

Vc=ac?U1c+bc?U2c

由 ac+bc=1 ,可知:

輸出特征圖的尺寸與輸入特征圖的尺寸相同(高度為 H ,寬度為 W ),但通道數(shù)取決于Split操作中兩個(gè)分支輸出通道數(shù)之和

(4)加權(quán)融合

假設(shè)通過SKConv生成的特征圖為 通過深度可分離卷積生成的特征圖為Vpw ∈ RHwxCpw,本文融合之后的特征圖通道數(shù) c 設(shè)為與深度可分離卷積生成特征圖 CD/w 一致的通道數(shù),即 C=CDW 。加權(quán)融合時(shí), α 和 β 分別對應(yīng) VDW 和 V 的權(quán)重,且 α+β=1 。加權(quán)融合之后的特征圖 Vco∈RH×W×C 中的每個(gè)位置( i,j ,k ),其中 ,i∈{1,2,3,…,H},j∈{1,2,3,…,W} , k∈ {1,2,3,…,C} ,有

Vco(i,j,k)=α?V?DW(i,j,k)+β?V?CK(i,j,k)

得到的 Vco 可直接進(jìn)入后續(xù)的MobileNetV3的運(yùn)算中。同時(shí)可知,輸出的融合了特征圖不同尺度的信息通過注意力機(jī)制自適應(yīng)地調(diào)整了不同分支特征的貢獻(xiàn),使得模型能夠更關(guān)注對當(dāng)前任務(wù)更有價(jià)值的特征信息,從而提高模型的性能和泛化能力。

1.2 模型對比

本文提出的基于SKConv的MobileNetV3模型與傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)相比,MobileNetV3模型增加了倒殘差模塊和自適應(yīng)卷積核,通過倒置了傳統(tǒng)的殘差模塊的結(jié)構(gòu)來實(shí)現(xiàn)更高的效率。一個(gè)典型的倒殘差模塊[7]由以下幾個(gè)層組成:逐通道擴(kuò)展、深度可分離卷積、線性瓶頸、恒等映射。通過使用倒殘差模塊,MobileNetV3在保持高精度的同時(shí),實(shí)現(xiàn)了更高的模型效率。

同時(shí),本文采用的自適應(yīng)卷積核通過自適應(yīng)選擇卷積核的大小,使得在進(jìn)行圖像識別時(shí),讓計(jì)算機(jī)能有“視覺\"處理的能力,并且SKConv的計(jì)算量增加不大,只是輕微地增加了參數(shù)和計(jì)算成本,但是提高了模型的運(yùn)算速度和準(zhǔn)確性。與MobileNetV3相比,SKConv的增加讓模型在識別圖像時(shí)更加高效集約,并且能提高準(zhǔn)確率。在此基礎(chǔ)上,模型可以更加靈活地處理不同位置的信息,尤其是對于需要關(guān)注細(xì)節(jié)或特定區(qū)域的任務(wù),如目標(biāo)的精確定位或圖像分割等,其中,SKConv模塊如圖1所示。

通過引入SKConv模塊,本模型在保留倒殘差高精度的同時(shí),提高了模型在特征提取步驟的針對性、適應(yīng)性和準(zhǔn)確性,在高價(jià)值目標(biāo)的識別上,能夠更好地適應(yīng)和減小復(fù)雜多變環(huán)境對特征提取的不利影響,提高模型的識別準(zhǔn)確率和運(yùn)算效率。

圖2NWPU-RESISC45數(shù)據(jù)集上的混淆矩陣Fig.2 Confusionmatrixon the NWPU-RESiSC45 dataset

2 實(shí)驗(yàn)設(shè)計(jì)

2.1 實(shí)驗(yàn)環(huán)境

本文實(shí)驗(yàn)軟、硬件配置如表1所示。所有對比模型均在同一個(gè)平臺上運(yùn)行。SKConv的路徑數(shù)量M設(shè)置為2,組數(shù)量 G 為32,壓縮比例 r 為 16

表1實(shí)驗(yàn)環(huán)境配置表

Tab.1Experimental environment configuration table

2.2實(shí)驗(yàn)數(shù)據(jù)集

NWPU-RESISC45數(shù)據(jù)集[13]是由西北工業(yè)大學(xué)(NWPU)創(chuàng)建的一個(gè)公開可用的遙感圖像場景分類(RESISC)基準(zhǔn)。該數(shù)據(jù)集包含31500張圖像,涵蓋45個(gè)場景類別,每個(gè)類別包含700張圖像。該數(shù)據(jù)集主要包含了以下場景[13]。類別包括飛機(jī)、機(jī)場、船舶、港口、鐵路、跑道、儲(chǔ)油罐、橋梁、矮林、密集住宅區(qū)、高速公路、工業(yè)區(qū)、島嶼、熱電站和濕地。

本文選擇了飛機(jī)、機(jī)場、船舶、港口、鐵路、跑道、儲(chǔ)油罐7種類型,作為本文的實(shí)驗(yàn)數(shù)據(jù)。

2.3 模型訓(xùn)練與測試

本文模型在NWPU-RESISC45數(shù)據(jù)集上進(jìn)行訓(xùn)練和測試,訓(xùn)練過程中均使用隨機(jī)初始化權(quán)重值和偏置,批量大小為32,迭代次數(shù)為280次。初始學(xué)習(xí)率為0.02,采用梯度下降優(yōu)化器,動(dòng)量因子為0.8。訓(xùn)練中使用NWPU-RESISC45訓(xùn)練集(4200幅)進(jìn)行訓(xùn)練,公共測試集(700幅)作為驗(yàn)證集,讓模型自行調(diào)整參數(shù),最后在私有測試集(700幅)上進(jìn)行測試。本文圖像識別模型在訓(xùn)練數(shù)據(jù)集上進(jìn)行圖片數(shù)據(jù)訓(xùn)練前,對樣本進(jìn)行了隨機(jī)排序等預(yù)處理。

本圖像識別模型在NWPU-RESISC45數(shù)據(jù)集上的混淆矩陣如圖2所示。本文圖像識別模型在NWPU-RESISC45數(shù)據(jù)集上達(dá)到 83.57% 的準(zhǔn)確率且模型的權(quán)重文件只有 16.2MB 。其中,飛機(jī)( airplane87% )機(jī)場( airport86% )船舶( ship90% )、港口( harbor87% )相比于其他目標(biāo),更具有辨識度,所以識別率比較高。

鐵路(railway 76% )、跑道(runway 79% )、儲(chǔ)油罐(storage )因?yàn)樗幁h(huán)境必然干擾因素較多,影響模型對此類目標(biāo)的識別學(xué)習(xí),容易造成誤判,導(dǎo)致準(zhǔn)確率相對較低。

3 實(shí)驗(yàn)結(jié)果與分析

SKConv在split步驟中將原圖分為卷積核大小不同的兩個(gè)子圖,在后續(xù)運(yùn)算中,通過緊湊特征 計(jì)算得到的計(jì)算注意力權(quán)重 ac 和 bc 來控制在兩個(gè)特征子圖之間的取舍,實(shí)現(xiàn)對卷積核的大小調(diào)整,進(jìn)而實(shí)現(xiàn)自適應(yīng)卷積。

3.1SKConv可視化

特征提取過程中的SKConv機(jī)制經(jīng)過可視化后,我們可以更加直觀地理解SKConv機(jī)制在其中發(fā)揮的作用。我們選取了測試集中的ship_640、ship_623、air-plane_625、island_3444張照片作為樣本,展示SKConv機(jī)制熱力圖的可視化情況。

由結(jié)果可知,SKConv機(jī)制在對圖片核心部分信息提取中較好地縮小了范圍,提高了針對性和準(zhǔn)確性,使得模型在進(jìn)行目標(biāo)識別時(shí)更加聚焦核心,省去了不必要的計(jì)算量和運(yùn)算成本,較好地節(jié)約算力,提高了運(yùn)算速度和運(yùn)算效率。

從圖3可以看出,加入了SKconv模塊后,模型對圖片的特征提取更加集中于有目標(biāo)的部分,而無關(guān)像素則被賦予更低權(quán)重,減小了非必要特征提取,對于算力消耗和時(shí)間成本都有一定程度的改善。因此,SKconv機(jī)制的采用使得針對圖像中關(guān)鍵信息和目標(biāo)的識別結(jié)果和效率均可得到提升。

3.2結(jié)果對比及分析

為了便于分析模型改進(jìn)效果,本節(jié)將與目前主流圖像識別模型進(jìn)行對比。具體數(shù)據(jù)如表2數(shù)據(jù)所示,在NWPU-RESISC45數(shù)據(jù)集上,本文的圖像識別模型準(zhǔn)確率提高到 83.57% ,與傳統(tǒng)深度神經(jīng)網(wǎng)絡(luò)模型VGG19相比,權(quán)重文件大小下降了75.2MB,下降率為83.97% ,同時(shí),在NWPU-RESISC45數(shù)據(jù)集上準(zhǔn)確率提高了 13.27% ,運(yùn)行效率也得到顯著提高。與Mobile-NetV2相比,準(zhǔn)確率提高了 7.01% ,與改進(jìn)前的Mobile-NetV3相比,準(zhǔn)確率提高了 4.08% 。因此,本文圖像識別模型與傳統(tǒng)圖像識別模型相比在準(zhǔn)確率方面有明顯提升。

表2不同模型在數(shù)據(jù)集上的圖像識別準(zhǔn)確率Tab.2Image recognition accuracy ofdifferentmodelsonthedataset

圖4乘加運(yùn)算次數(shù)與準(zhǔn)確率

Fig.4The trade-off between MAdds and accuracy

為了體現(xiàn)模型在識別效率上的差異,本文隨機(jī)選取了各個(gè)類別的450張圖片作為效率測試樣本,檢測訓(xùn)練好的各模型在相同數(shù)量樣本的識別中的用時(shí)情況。各模型用時(shí)如表2所示。

此外,在使用圖像識別模型進(jìn)行目標(biāo)識別時(shí),人們還需要通過其他指標(biāo)來綜合衡量模型特性,比如,乘加運(yùn)算次數(shù)和模型復(fù)雜度。乘加運(yùn)算次數(shù)(MAdds)是衡量神經(jīng)網(wǎng)絡(luò)計(jì)算復(fù)雜度的一個(gè)重要指標(biāo)。MAdds的值越高,通常意味著模型的計(jì)算復(fù)雜度越高,需要更多的計(jì)算資源和時(shí)間來進(jìn)行推理。通過比較不同模型的MAdds和準(zhǔn)確率的對應(yīng)關(guān)系,我們可以評估模型在計(jì)算效率和準(zhǔn)確性之間的權(quán)衡關(guān)系。本實(shí)驗(yàn)中,不同模型的MAdds和準(zhǔn)確率之間的權(quán)衡如圖4所示。

從圖5中可以發(fā)現(xiàn),當(dāng)延遲時(shí)間小于 50ms 時(shí),本模型的準(zhǔn)確率低于MobileNetV3與MobileNetV2。這是由于本文用來作為對照實(shí)驗(yàn)的兩個(gè)模型在訓(xùn)練中提前導(dǎo)人了基礎(chǔ)權(quán)重文件mobilenet -v3- large.pth 和 mobilenet_v2.pth,所以,這兩個(gè)模型在訓(xùn)練初期體現(xiàn)了一定的優(yōu)勢。而本文的SKConv-MobileNetV3為了呈現(xiàn)SKConv模塊的必要性和有效性,在訓(xùn)練中并沒有提前導(dǎo)入權(quán)重文件,并且模型在延遲時(shí)間超過 50ms 、積累了一定的模型復(fù)雜度后,準(zhǔn)確率便快速上升,體現(xiàn)了本模型具有較好的學(xué)習(xí)率與發(fā)展?jié)摿Α?/p>

通過在NWPU-RESISC45數(shù)據(jù)集上與目前主流深度卷積神經(jīng)網(wǎng)絡(luò)以及輕量級圖像識別模型對比可知,本文圖像識別模型在降低權(quán)重文件大小的同時(shí),提高了準(zhǔn)確率和訓(xùn)練效率,綜合性能高于目前主流輕量級網(wǎng)絡(luò)。本文添加了SKConv模塊,使得MobileNetV3的注意力機(jī)制運(yùn)行更加準(zhǔn)確高效,減弱了無效信息的提取,加強(qiáng)了對有效特征信息的提取能力。

4結(jié)束語

本文立足于高價(jià)值目標(biāo)識別任務(wù),更加貼近于未來戰(zhàn)場作戰(zhàn)需要。針對目前現(xiàn)有的圖像識別模型存在軍事應(yīng)用場景受限、軍事運(yùn)用模型不成熟的問題,通過改進(jìn)現(xiàn)有的MobileNetV3模型,在特征提取部分加入SKConv模塊,提出了SKConv-MobileNetV3模型,提高了識別準(zhǔn)確性,減少了計(jì)算成本,改善了泛化能力。相比傳統(tǒng)的CNN模型,MobileNetV3在設(shè)計(jì)上更加輕量化,展現(xiàn)了高性能、低計(jì)算復(fù)雜度和可擴(kuò)展性的優(yōu)勢。這使得它成為在資源受限環(huán)境下進(jìn)行圖像識別的理想選擇,并在許多實(shí)際應(yīng)用中取得了良好的效果。綜上,本文研究改進(jìn)的模型能夠出色地識別高價(jià)值目標(biāo),為深度學(xué)習(xí)模型移植到軍事運(yùn)用場景中提供了思路。

參考文獻(xiàn):

[1]JIALQ,WANGYW,ZANGY,etal.MobileNetV3 with CBAM for bamboo stick counting[J]. IEEE Access,

2022(10) : 53 963-53 971.

[2]ZHANG YQ,XU C,DU RX,et al. MSIF-MobileNetV3:an improved MobileNetV3 based on multi-scale information fusion for fish feeding behavior analysis[J]. Aquacultural Engineering,2023(102):102 338.

[3]SHAHI T B,SITAULA C,NEUPANE A,et al. Fruit classification using attention-based MobileNetV2 for industrialapplications[J].PLoSOne,2022,17 (2)::e0 264 586.

[4]張煥.基于圖像處理與深度學(xué)習(xí)的典型軍事目標(biāo)識別 [D].南京:南京理工大學(xué),2021. ZHANG H. Typical military target recognition based on image processing and deep learning[D]. Nanjing:Nanjing University of Science and Technology,2021.

[5]吳迪.基于多模態(tài)特征的紅外弱小目標(biāo)識別技術(shù)研究 [D].長春:中國科學(xué)院大學(xué)(中國科學(xué)院長春光學(xué)精 密機(jī)械與物理研究所),2023. WU D.Research on infrared weak target recognition technology based on multimodal features[ D]. Changchun: University of Chinese Academy of Sciences(Changchun Institute of Optical Precision Machinery and Physics,Chinese Academy of Sciences),2023.

[6]嚴(yán)春滿,張翔,王青朋.基于改進(jìn)MobileNetV2的人臉 表情識別[J].計(jì)算機(jī)工程與科學(xué),2023,45(6):1 071-1 078. YANC M,ZHANG X,WANGQ P. Facial expression recognition based on improved MobileNetV2[J]. Computer Engineeringamp; Science,2023,45(6):1 071-1 078.

[7]廖慕欽,周永軍,湯小紅,等.基于SSD-MobilenetV3 模型的車輛檢測[J].傳感器與微系統(tǒng),2022,41(6): 142-145. LIAOMQ,ZHOUYJ,TANGXH,etal.Vehicledetection based on SSD-MobilenetV3 model[J]. Transducer and Microsystem Technologies,2022,41(6): 142-145.

[8]LI ZY,HUF,WANGCL,et al.Selective kernel networks for weakly supervised relation extraction[J]. CAAI Transactions on Intelligence Technology,2021,6(2): 224-234.

[9]CHU J,CAI JP,LI L,et al.Bilinear feature fusion convolutional neural network for distributed tactile pressure recognition and understanding via visualization[J].IEEE Transactions on Industrial Electronics,2022,69(6): 6 391-6 400.

[10] JIAC K,LONG M,LIU Y C.Enhanced face morphing attack detection using error-level analysisand efficientselective kernel network[J]. Computers amp; Security,2024 (137) : 103 640.

[11] ZHANG Z L. GAO HW.WU X G. Detection of pedestriansand vehicles in autonomous driving with selective kernel networks[J].Cognitive Computation and Systems, 2023,5(1) : 64-70.

[12]YUX G,ALQANESSM A A. ASK-HAR:attentionbased multi-core selective kernel convolution network for human activity recognition[J].Measurement,2025 (242):115 981.

[13]CHENGG,HANJW,LUXQ.Remote sensingimage sceneclassification:benchmark and state of the art[J]. Proceedingsof theIEEE,2017,105(10):1865-1883.

[14]BINBUSAYYISA.HybridVGG19and2D-CNNforintrusiondetection in the FOG-cloud environment[J].Expert Systemswith Applications,2024(238):121 758.

[15]GAO MQ,LIJJ,ZHOUDZ,et al.Fall detection basedon OpenPoseand MobileNetV2 network[J].IET ImageProcessing,2023,17(3):722-732.

(責(zé)任編輯:張培培)

主站蜘蛛池模板: 欧美伊人色综合久久天天| 黄色网在线| 日韩精品一区二区三区中文无码| 乱系列中文字幕在线视频 | 午夜福利网址| 无码免费视频| 国产产在线精品亚洲aavv| 国产成人亚洲无吗淙合青草| 91口爆吞精国产对白第三集| 在线观看精品国产入口| 制服丝袜 91视频| 九色91在线视频| 免费又爽又刺激高潮网址| 欧美一区二区三区国产精品| 欧美日韩高清在线| 亚洲AV无码乱码在线观看裸奔| 91成人免费观看| 在线欧美一区| 亚洲女同欧美在线| 国产微拍精品| 婷婷中文在线| 国产资源免费观看| 久久一级电影| 欧洲熟妇精品视频| 亚洲欧美极品| 韩日免费小视频| 色首页AV在线| 青草视频免费在线观看| 久久特级毛片| 五月天天天色| 亚洲国产精品不卡在线 | 欧美综合成人| 色135综合网| 91在线中文| 久久一本精品久久久ー99| 国产91丝袜在线播放动漫| 精品在线免费播放| 国产福利大秀91| 国产免费高清无需播放器| 成人综合在线观看| 又污又黄又无遮挡网站| 亚洲第一福利视频导航| 亚洲国产精品无码AV| 免费黄色国产视频| 国产精品视频第一专区| 欧洲高清无码在线| 丝袜美女被出水视频一区| 人妻出轨无码中文一区二区| av一区二区三区高清久久| 国产手机在线ΑⅤ片无码观看| 国产哺乳奶水91在线播放| 成人福利视频网| 国产成人精品一区二区免费看京| 午夜啪啪福利| 亚洲天堂网2014| 国产午夜福利片在线观看| 国产视频你懂得| 国产自在线播放| 福利在线一区| 精品自窥自偷在线看| 国产成人高清精品免费| 青青青伊人色综合久久| 久久大香香蕉国产免费网站| 综合久久久久久久综合网| 亚洲男人的天堂久久香蕉 | 久久窝窝国产精品午夜看片| 亚洲色图欧美| 亚洲综合色婷婷| 波多野结衣AV无码久久一区| 国产另类乱子伦精品免费女| 在线观看视频99| 亚洲视频欧美不卡| 亚洲狼网站狼狼鲁亚洲下载| 午夜福利在线观看入口| 国产成人盗摄精品| 亚洲二三区| 亚洲天堂久久久| 91视频首页| 国产网站在线看| 精品1区2区3区| 国产欧美日韩在线一区| 日本不卡视频在线|