999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

無人機(jī)目標(biāo)分類的深度卷積網(wǎng)絡(luò)設(shè)計(jì)與優(yōu)化①

2021-05-21 07:23:02張志力張春澤
關(guān)鍵詞:特征優(yōu)化實(shí)驗(yàn)

皮 駿,張志力,李 想,張春澤

1(中國民航大學(xué) 通航學(xué)院,天津 300300)

2(中國民航大學(xué) 航空工程學(xué)院,天津 300300)

3(天津訊聯(lián)科技有限公司,天津 310600)

隨著科技水平的提高,無人機(jī)(Unmanned Aerial Vehicle,UAV)在軍事領(lǐng)域發(fā)展迅猛,其在多次戰(zhàn)爭中立下顯赫戰(zhàn)功,成為戰(zhàn)場利器.此外,無人機(jī)更是憑借其體積小、靈活、用途廣泛等優(yōu)勢,逐漸進(jìn)入民用市場,在災(zāi)害檢測救援、農(nóng)業(yè)、地質(zhì)勘探、測繪、治安反恐等領(lǐng)域都發(fā)揮著不可替代的作用,更加貼近生活的自拍、航拍都可以消費(fèi)級無人機(jī)作為載體來完成.民用無人機(jī)火熱的同時(shí),也給空域管理帶來新的挑戰(zhàn).目前無人機(jī)的實(shí)際監(jiān)管還存在很大的難點(diǎn),如何保障空域安全和有效利用有限的空間資源、防止無人機(jī)違規(guī)飛行、降低違法行為的概率成為現(xiàn)階段亟待解決的問題.

無人機(jī)目標(biāo)識別技術(shù)是反無人機(jī)系統(tǒng)的重要組成部分,包括無人機(jī)的分類和目標(biāo)檢測,主要是將監(jiān)測系統(tǒng)所拍攝得到的圖像進(jìn)行分析并加以處理,從中正確識別出無人機(jī)目標(biāo)[1].近年來,隨著以深度學(xué)習(xí)為代表的人工智能方法在圖像識別領(lǐng)域的應(yīng)用愈發(fā)成熟,大量的目標(biāo)識別任務(wù)都采用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)來完成,與傳統(tǒng)機(jī)器學(xué)習(xí)方法相比其具有更強(qiáng)大的特征學(xué)習(xí)和特征表達(dá)能力[2].文獻(xiàn)[3]針對低空快速無人機(jī),提出一種優(yōu)化YOLOv3 無人機(jī)識別模型,利用殘差網(wǎng)絡(luò)和多尺度融合的方式進(jìn)行優(yōu)化,結(jié)果表明該方法的平均準(zhǔn)確率高于原始方法,但在昏暗條件下的準(zhǔn)確率還有待驗(yàn)證.文獻(xiàn)[4]針對無人機(jī)目標(biāo)較小時(shí)易受干擾的問題,提出一種基于多隱含層深度神經(jīng)網(wǎng)絡(luò)的弱小無人機(jī)檢測模型,完成對深度網(wǎng)絡(luò)模型的訓(xùn)練和優(yōu)化,結(jié)果表明該模型具有良好的變尺度檢測能力和抗干擾效果.文獻(xiàn)[5]提出一種基于雙通道的快速低空無人機(jī)檢測算法,利用紅外和可見光無人機(jī)圖像同時(shí)輸入到殘差網(wǎng)絡(luò)中進(jìn)行特征提取,利用多尺度預(yù)測網(wǎng)絡(luò)對無人機(jī)目標(biāo)進(jìn)行分類和位置回歸.文獻(xiàn)[6]通過搭建深度殘差網(wǎng)絡(luò)和預(yù)測網(wǎng)絡(luò),提出一種基于紅外圖像的低空無人機(jī)檢測識別方法.

以上方法基本都是通過設(shè)計(jì)多通道、多尺度融合的神經(jīng)網(wǎng)絡(luò)模型來增強(qiáng)網(wǎng)絡(luò)的特征提取和抗干擾能力,而將注意力機(jī)制用于強(qiáng)化無人機(jī)特征提取的研究卻稍顯空白.傳統(tǒng)的CNN 模型在對圖像進(jìn)行特征提取時(shí),往往難以有效地將圖像主體特征與噪聲特征區(qū)分開來,而引入注意力機(jī)制,可以捕獲場景中目標(biāo)對象的顯著性信息,增強(qiáng)其特征提取能力.2014年,Google Deep Mind團(tuán)隊(duì)率先在循環(huán)神經(jīng)網(wǎng)絡(luò)模型上引入注意力機(jī)制完成多個(gè)物體的高效準(zhǔn)確識別,驗(yàn)證了注意力機(jī)制在圖像識別領(lǐng)域的有效性[7].褚晶輝等[8]針對表情特征易受干擾的問題,通過通道和空間注意力模型對特征元素進(jìn)行加強(qiáng)或抑制,并證明了該方法的優(yōu)越性.如何將注意力機(jī)制與神經(jīng)網(wǎng)絡(luò)更為有效的結(jié)合,已經(jīng)成為深度學(xué)習(xí)各領(lǐng)域共同關(guān)注的問題.

基于以上背景,設(shè)計(jì)了一種UAV-CNN 模型對三類具有代表性的大疆無人機(jī)進(jìn)行自動分類.該模型在AlexNet 網(wǎng)絡(luò)基礎(chǔ)上進(jìn)行改進(jìn),通過調(diào)整模型層數(shù)、卷積核尺寸等多項(xiàng)參數(shù),以期獲得最適應(yīng)無人機(jī)數(shù)據(jù)集的模型,并引入批歸一化和通道/空間注意力機(jī)制對模型進(jìn)行優(yōu)化,抑制噪聲干擾,以提升模型的泛化性和特征提取能力,最終建立專門適用于無人機(jī)分類的神經(jīng)網(wǎng)絡(luò)模型.結(jié)果表明該模型在無人機(jī)數(shù)據(jù)集上具有較高的準(zhǔn)確率和收斂速度,可實(shí)現(xiàn)針對大疆無人機(jī)的有效分類.

1 基本原理

1.1 卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)中最具代表性和應(yīng)用最廣泛的結(jié)構(gòu)之一,如圖1所示.經(jīng)過訓(xùn)練的模型通過交替連接的卷積層和池化層,將輸入圖像轉(zhuǎn)換成一系列的特征圖,最后通過全連接層完成對圖像特征的分類表達(dá).CNN 強(qiáng)大的特征表達(dá)能力也使其在中藥藥材識別[9]、醫(yī)療診斷[10]、青銅器銘文識別[11]、蟲害識別[12]等多方面的應(yīng)用倍受到人們的關(guān)注.

1.1.1 卷積層

卷積層作用是對輸入圖像進(jìn)行特征提取,其內(nèi)部包含多個(gè)卷積核,分別與輸入數(shù)據(jù)進(jìn)行卷積運(yùn)算,產(chǎn)生多個(gè)特征圖,并作為下一層網(wǎng)絡(luò)的輸入.卷積核和卷積層數(shù)的選擇一定程度上會影響網(wǎng)絡(luò)的性能,需要適當(dāng)?shù)脑O(shè)計(jì)才能有效的避免過擬合和欠擬合.卷積運(yùn)算的具體公式如式(1):

式(1)中,x表示接受區(qū)域?yàn)?M,N)的二維向量;ω表示長和寬分別為j、i的卷積核;b表示每個(gè)輸出特征映射所加的偏置項(xiàng);yconv表示輸出的卷積結(jié)果;M表示二維向量的長,N為二維向量的寬;f表示激活函數(shù).

圖1 卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)

1.1.2 池化層

在卷積層對特征進(jìn)行提取后,輸出的特征圖會進(jìn)入池化層進(jìn)行特征選擇和信息過濾,池化層不會引起額外的參數(shù),可以在保持特征尺度不變性的情況下,大大減少網(wǎng)絡(luò)的參數(shù).常見的池化方式有最大池化(max pooling)和均值池化(average pooling).以最大池化為例,其公式如式(2)所示:

式(2)中,fpool表示特征圖像最大池化結(jié)果.

1.2 批歸一化

批歸一化(Batch Normalization,BN)[13]是一種由Ioffe和Szegedy 提出的訓(xùn)練優(yōu)化方法,其注意到中間協(xié)變量遷移,使得網(wǎng)絡(luò)訓(xùn)練過程對參數(shù)初始值敏感,收斂速度變慢,把BN 作為神經(jīng)網(wǎng)絡(luò)的一部分,可以使每層的輸入有相同的、穩(wěn)定的分布.BN 簡單有效,合理配置可以有效提升網(wǎng)絡(luò)的訓(xùn)練速度,并且可以在一定程度上提升網(wǎng)絡(luò)的準(zhǔn)確率.

1.3 注意力機(jī)制算法及結(jié)構(gòu)

注意力機(jī)制(Attention Module,AM)是一種模擬人腦注意力機(jī)制而衍生出的模型,通過計(jì)算注意力的概率分布,來突出某些關(guān)鍵部分對輸出的影響.2017年,Hu 等[14]提出基于通道間權(quán)值的分配來實(shí)現(xiàn)通道間重要性選擇的算法SeNet,引起了人們對于通道注意力(Channel Attention Module,CAM)的關(guān)注.2018年,Woo 等[15]基于此提出卷積注意力模塊(Convolution Block Attention Module,CBAM),其在通道注意力基礎(chǔ)上,又加入空間注意力(Spatial Attention Module).CBAM 結(jié)構(gòu)兼顧通道和空間的權(quán)值選擇,是一個(gè)較為輕量級的模塊,可以簡單的嵌入卷積神經(jīng)網(wǎng)絡(luò)模型中,優(yōu)化模型提取特征的能力.其結(jié)構(gòu)如圖2所示.

1.3.1 通道注意力模型

通道注意力的作用是篩選出包含重要語義信息的特征通道.輸入的特征圖H×W×C(H表示特征圖的高度,W表示寬度,C表示通道數(shù))分別經(jīng)過最大池化和均值池化,得到兩個(gè)1×1×C的特征向量,將其輸入一個(gè)含有隱藏層的多層感知機(jī)中,最后將分別輸出的特征向量的元素對應(yīng)求和,經(jīng)過Sigmoid 函數(shù)激勵后得到最后的通道注意力特征向量Mc.它可以理解為通道的權(quán)重,包含重要信息的通道會被賦予更大的權(quán)值.將通道注意力特征向量Mc與輸入特征圖對應(yīng)相乘即可得到經(jīng)通道注意力模塊作用后的特征圖.其結(jié)構(gòu)如圖3所示.

圖2 卷積注意力模塊結(jié)構(gòu)

圖3 通道注意力模型

1.3.2 空間注意力機(jī)制

空間注意力的作用篩選出包含重要特征信息的空間位置.其在通道維度上分別做最大池化和均值池化,然后得到兩個(gè)H×W×1的特征圖,并將其串聯(lián)得到H×W×2的特征圖.再使用一個(gè)包含7×7×2×1 卷積核的卷積層進(jìn)一步提取特征,經(jīng)Sigmoid 函數(shù)激勵得到空間注意力特征圖(如圖4).空間注意力特征圖可以理解為一個(gè)通道中每個(gè)像素區(qū)域的權(quán)值,包含重要信息的像素區(qū)域會被賦予更大的權(quán)重.將空間注意力特征圖Ms與輸入特征圖對應(yīng)相乘,即可得到經(jīng)空間注意力模塊作用后的特征圖.

圖4 空間注意力模型

2 實(shí)驗(yàn)與分析

2.1 數(shù)據(jù)集與實(shí)驗(yàn)環(huán)境

數(shù)據(jù)集采用自建的大疆無人機(jī)數(shù)據(jù)集,選取3 款典型的大疆無人機(jī)作為研究對象,分別為曉Spark 系列,精靈Phantom 系列,悟Inspire 系列,如圖5所示.圖像數(shù)量分別為543 張、550 張、495 張,總計(jì)1588 張.選取處于復(fù)雜背景下的無人機(jī)圖像,例如湖泊、叢林、巖石、荒漠、火山等,以增加了圖像的多樣性,更符合實(shí)際應(yīng)用場景.將原圖像壓縮到227×227×3 像素,并將像素值歸一化到[0,1]之間,以便于模型的收斂.每類無人機(jī)圖片按照4:1的比例隨機(jī)劃分訓(xùn)練集和測試集,其中訓(xùn)練集共計(jì)1271 張,用于網(wǎng)絡(luò)訓(xùn)練,測試集共317張,用于測試網(wǎng)絡(luò)性能.部分無人機(jī)數(shù)據(jù)集如圖6所示.

圖5 無人機(jī)型號

圖6 部分無人機(jī)數(shù)據(jù)集

實(shí)驗(yàn)環(huán)境配置如下,硬件:CPU為Intel Core(TM)i5-8300H,內(nèi)存為16 GB,GPU為NVIDIA GTX 1050Ti,軟件:操作系統(tǒng)為Windows10 64 bit 版本,編程框架為基于Python的Tensorflow 框架,編譯軟件為Spyder.

2.2 無人機(jī)分類模型設(shè)計(jì)

由于CNN 本身的數(shù)學(xué)模型還沒有得到完善的數(shù)學(xué)驗(yàn)證和解釋,學(xué)術(shù)界普遍采用以實(shí)驗(yàn)效果為導(dǎo)向的研究方式.例如VGG的深層網(wǎng)絡(luò)結(jié)構(gòu)、GoogLeNet中Inception 模塊以及ResNet的short connection 等方法對于網(wǎng)絡(luò)改善的有效性都是通過實(shí)驗(yàn)證實(shí)的.因此本文設(shè)計(jì)多組對比實(shí)驗(yàn),分析不同模型結(jié)構(gòu)對無人機(jī)目標(biāo)分類效果的影響,并選取最優(yōu)結(jié)構(gòu).

模型設(shè)計(jì)思路源于AlexNet 模型,其針對大型目標(biāo)分類任務(wù),網(wǎng)絡(luò)結(jié)構(gòu)深,模型復(fù)雜計(jì)算量大,考慮到無人機(jī)數(shù)據(jù)集樣本較少和實(shí)驗(yàn)設(shè)備的限制,所以本文將在AlexNet 模型基礎(chǔ)上改進(jìn),探索適用于無人機(jī)數(shù)據(jù)集的模型.

實(shí)驗(yàn)參數(shù)設(shè)置如下,學(xué)習(xí)率設(shè)為0.0001,Batch_Size為100,優(yōu)化器選擇Adam,損失函數(shù)選擇交叉熵(cross entropy),隨機(jī)失活(Dropout)率設(shè)為0.7,迭代250 次,取最后10 次迭代的平均值作為該模型的準(zhǔn)確率,每個(gè)模型進(jìn)行3 組實(shí)驗(yàn),取其平均值.實(shí)驗(yàn)中將綜合考量模型的測試集準(zhǔn)確率(test accuracy),訓(xùn)練時(shí)間(times),準(zhǔn)確率首次到達(dá)80%的迭代數(shù)(Epoch-80%),準(zhǔn)確率首次到達(dá)90%的迭代數(shù)(Epoch-90%)以及準(zhǔn)確率90%以上的迭代數(shù)占總迭代數(shù)的比率(rate)的平均值,來作為衡量網(wǎng)絡(luò)性能的參照標(biāo)準(zhǔn).

實(shí)驗(yàn)首先對卷積層數(shù)進(jìn)行選取,在卷積層、池化層、全連接層堆疊的模型中分別搭建卷積核為3×3的不同層數(shù)(2 層、3 層、4 層、5 層)的網(wǎng)絡(luò)結(jié)構(gòu),并基于不同卷積層數(shù)設(shè)計(jì)的網(wǎng)絡(luò)分別進(jìn)行3 組實(shí)驗(yàn),各項(xiàng)參數(shù)如表1所示.

表1 不同卷積層層數(shù)模型的各項(xiàng)參數(shù)

分析可知設(shè)計(jì)2 層卷積層時(shí),由于模型所需訓(xùn)練的參數(shù)較少,訓(xùn)練速度快,但模型容量小,擬合能力不足,平均準(zhǔn)確率僅85.90%.設(shè)計(jì)3 層卷積層時(shí),平均準(zhǔn)確率達(dá)到91.17%,且Epoch-80%和Epoch-90%的值較高,說明模型收斂速度較快,準(zhǔn)確率90%以上迭代數(shù)的占比最高,說明模型穩(wěn)健性較好.設(shè)計(jì)4 層和5 層卷積層時(shí),模型容量較大,參數(shù)較多,隨著訓(xùn)練時(shí)間的增加,準(zhǔn)確率反而呈現(xiàn)下降的趨勢.綜合考慮,后續(xù)的結(jié)構(gòu)設(shè)計(jì)和優(yōu)化均建立在3 層卷積層的基礎(chǔ)上.

卷積核尺寸選取是另一個(gè)重要的關(guān)乎網(wǎng)絡(luò)性能的參數(shù).第2 組實(shí)驗(yàn)在3 層卷積層的基礎(chǔ)上,設(shè)立3 種不同尺寸卷積核的模型.第1 種按照經(jīng)典AlexNet 網(wǎng)絡(luò)中卷積核由大到小的慣例,依次選擇9×9、5×5、3×3的卷積核.第2 種均選取5×5的卷積核,第3 種均選取3×3的卷積核,分別進(jìn)行3 組實(shí)驗(yàn),各項(xiàng)參數(shù)如表2所示.

表2 不同卷積核尺寸模型的各項(xiàng)參數(shù)

分析可知卷積核尺寸均為3×3的模型具有最高的準(zhǔn)確率,并且尺寸越大,模型的準(zhǔn)確率越低,模型參數(shù)越復(fù)雜,所需的訓(xùn)練時(shí)間也越長.第一個(gè)卷積層選用9×9 卷積核的模型,平均需要經(jīng)過92 次迭代才能達(dá)到80%的準(zhǔn)確率,遠(yuǎn)低于選擇小尺寸的卷積核.該結(jié)果也證實(shí)了采用較小卷積核的網(wǎng)絡(luò)可提取更加細(xì)致、深層次的無人機(jī)圖像特征,進(jìn)而提高識別準(zhǔn)確率,同時(shí)減少參數(shù).

第3 組實(shí)驗(yàn)對每層卷積核數(shù)量進(jìn)行選取,設(shè)置5 組對照實(shí)驗(yàn),結(jié)果表明卷積核數(shù)量對影響網(wǎng)絡(luò)的較為明顯,卷積核數(shù)量不足將導(dǎo)致網(wǎng)絡(luò)準(zhǔn)確率低,而數(shù)量過多亦會導(dǎo)致準(zhǔn)確率下降,適當(dāng)?shù)木矸e核數(shù)量顯得尤為重要,卷積核數(shù)量分別選擇48,96,128 時(shí),準(zhǔn)確率最高.各項(xiàng)參數(shù)如表3所示.

表3 不同卷積核數(shù)量模型的各項(xiàng)參數(shù)

全連接層將池化層下采樣獲得的特征圖映射到樣本空間,將具有類別區(qū)分的局部信息組合分類,在這一層后,神經(jīng)元被壓平,最終形成3200 個(gè)神經(jīng)元.第4 組實(shí)驗(yàn)探究全連接層層數(shù)對網(wǎng)絡(luò)性能影響,分別設(shè)置層數(shù)為一層、兩層或三層的全連接層.實(shí)驗(yàn)發(fā)現(xiàn)全連接層數(shù)設(shè)置為2 層且神經(jīng)元個(gè)數(shù)為1200、100的網(wǎng)絡(luò)結(jié)構(gòu)的準(zhǔn)確率最高為91.17%,各項(xiàng)參數(shù)如表4所示.

第5 組實(shí)驗(yàn)探究池化核對網(wǎng)絡(luò)的影響,典型的LeNet-5和VGG-16 網(wǎng)絡(luò)均采用k=2,s=2 大小的池化核,而AlexNet 網(wǎng)絡(luò)采用k=3,s=2 大小的池化核,其中k表示池化核或滑動窗口的大小,s表示滑動步長.實(shí)驗(yàn)的各項(xiàng)參數(shù)如表5所示.

表4 不同全連接層層數(shù)和神經(jīng)元數(shù)目模型的各項(xiàng)參數(shù)

表5 不同池化方式模型的各項(xiàng)參數(shù)

分析可知選用最大池化的網(wǎng)絡(luò)的準(zhǔn)確率比使用均值池化的網(wǎng)絡(luò)的準(zhǔn)確率高1.2%左右,最大池化選取該區(qū)域內(nèi)最大的值,可以更好的保留圖像的紋理特征,均值池化是對區(qū)域內(nèi)所有不為零的像素值取平均,以此得到數(shù)據(jù)特征,該方法更好地保留了對圖像背景信息的提取.而不同池化核的影響更大,經(jīng)實(shí)驗(yàn)證明不論是采用最大池化還是均值池化,采用3×3 池化核的網(wǎng)絡(luò)比2×2 卷積核的網(wǎng)絡(luò)準(zhǔn)確率高4~5 個(gè)百分點(diǎn),因此選用滑動窗口大小大于滑動步長產(chǎn)生的重疊池化,可以有效的提升網(wǎng)絡(luò)的分類能力.

綜合上述的實(shí)驗(yàn)結(jié)果,設(shè)計(jì)一個(gè)10 層的CNN 模型,其中8 層為隱含層,包括3 層卷積層,3 層池化層,2 層全連接層.CNN 模型結(jié)構(gòu)和參數(shù)如表6所示.

表6 CNN 模型結(jié)構(gòu)和參數(shù)

2.3 無人機(jī)分類模型優(yōu)化

2.3.1 BN 對模型優(yōu)化的影響

在AlexNet 網(wǎng)絡(luò)中使用了局部響應(yīng)歸一化層(LRN)來增加網(wǎng)絡(luò)的泛化能力,但通過數(shù)據(jù)實(shí)際測試后發(fā)現(xiàn)對網(wǎng)絡(luò)性能并沒有太大的改善,反而增加了訓(xùn)練時(shí)間.而BN 作為一種簡單有效的網(wǎng)絡(luò)優(yōu)化方法,可以對每一層的輸入數(shù)據(jù)做歸一化處理,穩(wěn)定其數(shù)據(jù)分布的同時(shí),加速網(wǎng)絡(luò)的訓(xùn)練,并允許梯度迭代的過程中使用更大的學(xué)習(xí)率,且不會引起梯度更新的發(fā)散.BN通過引入兩個(gè)可以和神經(jīng)網(wǎng)絡(luò)訓(xùn)練參數(shù)一起訓(xùn)練的參數(shù),很好的保留了神經(jīng)網(wǎng)絡(luò)的原始表達(dá)能力.因此引入BN 層對模型進(jìn)行優(yōu)化,加入BN 層后模型如圖7所示.

圖7 優(yōu)化后的模型

2.3.2 注意力機(jī)制對網(wǎng)絡(luò)優(yōu)化的影響

由于無人機(jī)本身置于復(fù)雜環(huán)境中,與背景之間區(qū)分度較小以及部分圖像從視頻中截取而來像素較低,存在較大的噪聲干擾,二者都會影響網(wǎng)絡(luò)分類的效果.同時(shí)在網(wǎng)絡(luò)學(xué)習(xí)的過程中,隨著網(wǎng)絡(luò)層數(shù)的增加,這些噪聲像素在特征圖中的權(quán)值也會逐步增加,這將會對最終的分類結(jié)果有較大的影響,因此如何弱化噪聲干擾給網(wǎng)絡(luò)訓(xùn)練帶來負(fù)面影響,是網(wǎng)絡(luò)優(yōu)化任務(wù)重點(diǎn)解決的問題.

對于眾多特征,并不是每一個(gè)特征層都能提取到有用的信息,而通道注意力的引入可以通過再學(xué)習(xí)的方式允許網(wǎng)絡(luò)進(jìn)行特征信息的重新校準(zhǔn),使模型對包含重要特征信息的特征層賦予更大的權(quán)值,同時(shí)減小無關(guān)信息特征層的權(quán)值,幫助模型獲取表達(dá)能力更強(qiáng)的語義信息.空間注意力可以捕捉圖像中對于某一特定任務(wù)貢獻(xiàn)顯著的某些區(qū)域,忽略帶來負(fù)面效應(yīng)的區(qū)域,有效的增強(qiáng)模型的擬合能力,提升分類效果.

因此在CNN 模型中引入卷積注意力模型,經(jīng)初步實(shí)驗(yàn)分析將通道和空間注意力模型設(shè)置在卷積層和池化層中間可以取得最優(yōu)的效果,引入通道和空間注意力后的模型如圖7所示.

2.3.3 優(yōu)化結(jié)果分析

首先設(shè)置CNN 模型與引入CBAM的CNN 模型的對比實(shí)驗(yàn).為獲得更為合理、準(zhǔn)確的比較結(jié)果,將迭代次數(shù)由250 增加至1000 次,使得模型可以充分訓(xùn)練,通道注意力模型的壓縮比設(shè)置為8,其余實(shí)驗(yàn)參數(shù)與前文所述一致.由于模型的準(zhǔn)確率存在一定范圍內(nèi)的波動,因此取后100 次迭代的準(zhǔn)確率的平均值作為模型最終的準(zhǔn)確率.

本部分實(shí)驗(yàn)首先分析引入CBAM 對模型的影響.分別對先前設(shè)計(jì)的普通的CNN 模型與基于CBAM的CNN 模型,應(yīng)用無人機(jī)數(shù)據(jù)集進(jìn)行訓(xùn)練,然后將兩者的識別準(zhǔn)確率進(jìn)行比較.每次10 次迭代記錄其測試樣本的準(zhǔn)確率,然后將記錄好的數(shù)據(jù)繪制成圖,即圖8所示的測試準(zhǔn)確率(test accuracy)與迭代次數(shù)(epoch)關(guān)系圖.

曲線A 表示未經(jīng)CBAM 優(yōu)化的CNN 模型的識別準(zhǔn)確率曲線,曲線B 表示經(jīng)CBAM 優(yōu)化后模型的識別準(zhǔn)確率曲線.由圖8可以看出本文設(shè)計(jì)的模型收斂較快,在100 次迭代前后就可以達(dá)到90%的識別準(zhǔn)確率,200 次迭代已經(jīng)可以基本收斂.說明本文設(shè)計(jì)的模型訓(xùn)練效果較好,能夠快速達(dá)到較為理想的訓(xùn)練狀態(tài).經(jīng)CBAM 優(yōu)化后的模型具有更好的平均準(zhǔn)確率,可以達(dá)到92.13%,較優(yōu)化前提升1.19%.本文認(rèn)為注意力機(jī)制的引入較好的增強(qiáng)了特征的判別性,起到了特征選擇的作用,提升了分類效果.

圖8 測試準(zhǔn)確率與迭代次數(shù)關(guān)系圖

實(shí)驗(yàn)的第二部分在引入CBAM的基礎(chǔ)上再引入批歸一化層(BN)對模型進(jìn)行改進(jìn).實(shí)驗(yàn)結(jié)果如圖9所示.曲線B 表示僅CBAM 優(yōu)化的模型的識別準(zhǔn)確率曲線,曲線C 表示經(jīng)CBAM和BN 共同優(yōu)化后的模型的識別準(zhǔn)確率曲線.

圖9 測試準(zhǔn)確率與迭代次數(shù)關(guān)系圖

由圖9可以看出引入BN層后模型的收斂速度明顯加快,在獲得較高的準(zhǔn)確率的基礎(chǔ)上,模型震蕩水平更小,說明模型更加穩(wěn)定.由表7可以看出經(jīng)CBAM和BN 共同優(yōu)化后的模型的準(zhǔn)確率可以達(dá)到92.44%,較僅引入CBAM的模型又提升0.31%.

2.3.4 與其他卷積神經(jīng)網(wǎng)絡(luò)模型對比分析

采用不同的卷積神經(jīng)網(wǎng)絡(luò)模型對無人機(jī)數(shù)據(jù)集進(jìn)行識別,實(shí)驗(yàn)結(jié)果如表7所示,識別準(zhǔn)確率曲線對比如圖10所示,可以看出本文提出的基于CBAM和BN的模型的最終準(zhǔn)確率可以達(dá)到92.44%,較LeNet-5和AlexNet 模型分別提升了11.82%和20.78%,且收斂速度更快,參數(shù)量較經(jīng)典的AlexNet 模型大大減少.證明本文設(shè)計(jì)的模型更加適用于無人機(jī)目標(biāo)的識別,可以滿足基本的大疆無人機(jī)圖像的識別需求.

表7 不同模型在無人機(jī)數(shù)據(jù)集上各項(xiàng)參數(shù)對比

圖10 不同模型在無人機(jī)數(shù)據(jù)集上識別準(zhǔn)確率對比圖

3 結(jié)論

本文設(shè)計(jì)了一個(gè)基于深度卷積神經(jīng)網(wǎng)絡(luò)的無人機(jī)目標(biāo)分類模型,可以完成多款大疆無人機(jī)的分類任務(wù).通過多組對比實(shí)驗(yàn)選擇最適用于無人機(jī)數(shù)據(jù)的模型參數(shù),然后引入卷積注意力機(jī)制對網(wǎng)絡(luò)進(jìn)行優(yōu)化,加強(qiáng)模型的特征提取能力,同時(shí)引入批歸一化層,加速網(wǎng)絡(luò)的訓(xùn)練,提升模型穩(wěn)健性.實(shí)驗(yàn)結(jié)果表明本文提出的方法適用于無人機(jī)數(shù)據(jù)集的目標(biāo)分類,較LeNet-5和AlexNet模型分別提升了11.82%和20.78%,可以基本滿足實(shí)際場景中無人機(jī)目標(biāo)分類的要求.但本文的數(shù)據(jù)集僅選擇了3 種型號的無人機(jī),數(shù)量較少.后續(xù)將研究更深層次的模型上的多類型目標(biāo)分類任務(wù).

猜你喜歡
特征優(yōu)化實(shí)驗(yàn)
記一次有趣的實(shí)驗(yàn)
超限高層建筑結(jié)構(gòu)設(shè)計(jì)與優(yōu)化思考
民用建筑防煙排煙設(shè)計(jì)優(yōu)化探討
關(guān)于優(yōu)化消防安全告知承諾的一些思考
一道優(yōu)化題的幾何解法
如何表達(dá)“特征”
做個(gè)怪怪長實(shí)驗(yàn)
不忠誠的四個(gè)特征
抓住特征巧觀察
NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
主站蜘蛛池模板: 中文字幕日韩丝袜一区| 国产免费人成视频网| 久久综合亚洲鲁鲁九月天| 青青青视频91在线 | 亚洲伊人久久精品影院| 亚洲精品动漫| 国产精品一线天| 中文字幕人妻av一区二区| 国产日韩精品欧美一区喷| 久久99国产乱子伦精品免| 日韩精品一区二区三区中文无码 | 91久久青青草原精品国产| AV熟女乱| 国产成人1024精品| 国产无码网站在线观看| 国产一二三区在线| 在线观看国产精品日本不卡网| 波多野结衣一区二区三区四区| 国产乱人乱偷精品视频a人人澡| jizz国产在线| 日韩精品成人网页视频在线| 综合久久五月天| 欧美国产三级| 国产sm重味一区二区三区| 日本精品影院| 五月激情综合网| 国产成人免费高清AⅤ| 国产色网站| 中文字幕在线日韩91| 米奇精品一区二区三区| 麻豆国产在线观看一区二区 | 99久久精品久久久久久婷婷| 99久久精品免费看国产免费软件 | 国产免费久久精品99re不卡| 免费高清毛片| 91探花国产综合在线精品| 免费观看三级毛片| 欧亚日韩Av| 88av在线| AV熟女乱| 宅男噜噜噜66国产在线观看| 亚洲国产精品久久久久秋霞影院| 国内毛片视频| 色窝窝免费一区二区三区 | 国产小视频a在线观看| 国产成人亚洲精品无码电影| 国产在线精品99一区不卡| 性做久久久久久久免费看| a在线亚洲男人的天堂试看| 亚洲黄网视频| 精品国产www| 国产网站黄| 欧美日韩成人在线观看 | 亚洲无码视频喷水| 精品视频一区二区观看| 国产精品青青| 亚洲高清中文字幕| 国产一级毛片在线| 无码免费视频| 天天激情综合| 亚洲综合香蕉| 欧美亚洲国产精品久久蜜芽| 天天色天天操综合网| 久久性妇女精品免费| 日韩成人免费网站| 国产99精品久久| 色香蕉影院| 国产精品视频a| 青青草91视频| 青青青视频蜜桃一区二区| 久久公开视频| 99视频精品在线观看| 欧美亚洲国产日韩电影在线| 在线国产毛片| 午夜视频免费试看| 天天综合网在线| 久久国产热| 毛片a级毛片免费观看免下载| 在线免费亚洲无码视频| 欧美怡红院视频一区二区三区| 国产亚洲精久久久久久无码AV| 国产尤物视频网址导航|