999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

不均衡樣本下的低分辨雷達目標識別算法

2021-11-17 03:12:22朱克凡王杰貴葉文強
計算機仿真 2021年3期

朱克凡,王杰貴,葉文強

(1.國防科技大學電子對抗學院,安徽 合肥 230037;2.中國人民解放軍63768部隊,陜西 西安 710000)

1 引言

雷達目標識別(Radar Target Recognition,RTR)是雷達研究的一個重要方向。由于高分辨雷達研究成本高、周期長、難以普及,現(xiàn)役雷達大部分是低分辨雷達,且隨著脈沖壓縮技術(shù)的普及,傳統(tǒng)低分辨雷達也能擁有很高的徑向分辨力,能夠提取目標一維距離像等細微特征,基于低分辨雷達的目標識別技術(shù)研究仍然是雷達研究的一個重要熱點[1-3]。

傳統(tǒng)低分辨雷達目標識別是基于特征提取的目標識別,即首先基于回波起伏、極點分布以及調(diào)制譜特性等特征,對目標進行特征提取,然后采用貝葉斯、支持向量機(Support Vector Machine,SVM)、最近鄰分類、隱馬爾科夫模型等方法對目標進行分類識別。通過提取目標特征的方法可以實現(xiàn)對目標的分類識別,然而特征多為人工設(shè)計[4],屬于淺層特征,具有不完備性,不利于目標識別率的進一步提高,且特征往往只針對特定目標設(shè)計,方法的泛化性也存在不足。

自Hinton等人提出深度學習理論后,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)作為該領(lǐng)域里的重要模型,由于能夠自學習數(shù)據(jù)深層本質(zhì)特征,應(yīng)用在目標分類識別領(lǐng)域,識別準確度可以獲得較大提升,較傳統(tǒng)方法有明顯優(yōu)勢[5-8]。但基于深度學習的低分辨雷達目標識別方法往往需要足夠多且不同類別數(shù)量均衡的訓練樣本。在現(xiàn)代戰(zhàn)爭中,當雷達目標是先進的非合作目標或隱身目標時,對該目標通常難以獲取足夠多的訓練樣本,導致不同類別樣本數(shù)是極端不平衡的,目標識別率較低。

針對樣本不均衡問題,傳統(tǒng)低分辨雷達目標識別技術(shù)采用改進的SVM算法,如加權(quán)SVM(weighted SVM,WSVM)[9],代價敏感SVM(Cost-sensitive SVM,CS-SVM)[10]等,基于提取的特征進行目標識別,但由于識別特征本身具有不完備性,識別效果欠佳。文獻[11-13]利用合成少數(shù)類過采樣技術(shù)(Synthetic Minority Oversampling Technique,SMOTE)擴充少數(shù)類樣本數(shù)以平衡樣本集,提高識別率,但由于SMOTE算法使用噪聲合成新樣本,數(shù)據(jù)集擴充效果不理想。文獻[14]提出了焦點損失函數(shù),通過大幅度降低簡單樣本的權(quán)重使網(wǎng)絡(luò)訓練側(cè)重于對困難樣本的識別,提高目標識別率。但由于訓練初期的網(wǎng)絡(luò)對不同類別樣本沒有識別能力,無難易之分,初期訓練過程受同類數(shù)量多的樣本主導,訓練緩慢且容易陷入傾向于將目標識別為樣本數(shù)多的類別的局部極值點。文獻[15]使用類別均衡交叉熵損失函數(shù)來自動平衡正負樣本產(chǎn)生的損失。但由于在交叉熵損失函數(shù)中添加類別均衡權(quán)重,相當于改變了原始數(shù)據(jù)分布,所以CNN擬合的分布較原始數(shù)據(jù)分布有偏差,識別效果提升有限。

針對以上問題,在樣本不均衡條件下,本文提出了基于分段損失函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)低分辨雷達目標識別算法,該算法首先通過CNN自動提取數(shù)據(jù)深層本質(zhì)特征,然后使用分段損失函數(shù)計算誤差,最后將誤差反向傳播優(yōu)化權(quán)值以提高識別效果。仿真結(jié)果驗證了本文算法的有效性和較傳統(tǒng)識別方法的優(yōu)越性。

2 基于分段損失函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)低分辨雷達目標識別算法

2.1 CNN

CNN是一種深度前饋人工神經(jīng)網(wǎng)絡(luò),包括卷積層、池化層及全連接層,結(jié)構(gòu)如圖1所示。卷積層采用不同的卷積核,在隱式地提取數(shù)據(jù)特征的同時減少了訓練參數(shù);池化層對卷積層提取的特征進行降采樣,進一步減少訓練的數(shù)據(jù)量。全連接層將特征進行綜合,并可與Softmax分類器結(jié)合,在模式分類領(lǐng)域具有明顯優(yōu)勢。

圖1 卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)

2.2 分段損失函數(shù)

分類問題中常用的損失函數(shù)是交叉熵損失函數(shù)

(1)

由于交叉熵損失函數(shù)平等累加每一個樣本損失,當某一類樣本數(shù)較多時,就會在誤差反向傳播過程中起主要作用,不利于網(wǎng)絡(luò)的訓練。針對樣本不均衡問題,有兩種改進的交叉熵損失函數(shù)。

一是類別均衡交叉熵損失函數(shù)[15]

(2)

式中:βi表示類別i的均衡權(quán)重。

二是焦點損失函數(shù)[14]

(3)

式中:γ是焦點參數(shù),γ≥0。

由于類別均衡交叉熵損失函數(shù)改變了原始樣本分布,使CNN擬合的分布較原始數(shù)據(jù)分布有偏差;而焦點損失函數(shù),使CNN在初期訓練較慢且容易陷入傾向于將目標識別為樣本數(shù)多的類別的局部極值點。基于此,本文提出了分段損失函數(shù),在焦點損失函數(shù)的基礎(chǔ)上,訓練初期引入類別均衡交叉熵損失函數(shù),類別均衡交叉熵損失函數(shù)的加入使初期網(wǎng)絡(luò)訓練較快,且對多類目標都有一定的識別效果,在分段點,結(jié)合類別均衡交叉熵損失函數(shù)訓練后的權(quán)重優(yōu)于隨機初始化訓練后的權(quán)重,更容易避開傾向于將目標識別為樣本數(shù)多的類別的局部極值點;后期只使用焦點損失函數(shù),專注于困難樣本,提高網(wǎng)絡(luò)的識別性能。同時,為了防止在分段點,由于損失函數(shù)的突變而過快或過多的扭曲權(quán)重,借鑒模擬退火思想,采用線性衰減的方式,引入衰減參數(shù)。

(4)

式中:αi是類別i的衰減參數(shù),βi表示類別i的權(quán)重,M表示分段的迭代次數(shù),n表示當前的迭代次數(shù)。則分段損失函數(shù)可以表示為

(5)

2.3 基于分段損失函數(shù)的CNN低分辨雷達目標識別算法

2.3.1 CNN結(jié)構(gòu)

CNN最初是針對圖像數(shù)據(jù)設(shè)計,更適合于處理二維圖像。由于低分辨雷達目標信號是一維時序信號,無法直接將目標信號的采樣數(shù)據(jù)輸入CNN,常見方式是對數(shù)據(jù)進行時頻變換,將時序信號轉(zhuǎn)換為時頻圖像,文獻[16]提取信號全雙譜特征輸入CNN,文獻[17]提取信號時頻特性作為CNN的輸入。由于人工提取特征會損失數(shù)據(jù)信息,為保留目標全部差異信息,盡可能提高目標識別率,本文采取調(diào)整CNN結(jié)構(gòu)的方式,設(shè)計了一維CNN結(jié)構(gòu),網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。

表1 一維CNN網(wǎng)絡(luò)模型結(jié)構(gòu)

2.3.2 算法步驟

1)取大量雷達目標信號采樣數(shù)據(jù)作為訓練樣本輸入卷積層,使用多個初始權(quán)值不同的卷積核對輸入數(shù)據(jù)進行卷積,獲得數(shù)據(jù)的特征映射向量并輸入池化層;

2)池化層通過一維窗口,采用不重疊的步進方式,對特征向量進行下采樣處理,有效降低數(shù)據(jù)維度;

3)Dropout層按照設(shè)置的概率隨機地將輸入神經(jīng)元置零以緩解過擬合現(xiàn)象;

4)根據(jù)網(wǎng)絡(luò)卷積層、池化層和Dropout層數(shù)量,重復步驟1)-3),對輸入數(shù)據(jù)進行多層卷積、池化和Dropout操作,并將第3次Dropout后的數(shù)據(jù)輸入到全連接層;

5)全連接層將輸入的多個特征整合成一維特征向量,并通過Softmax函數(shù),輸出各類識別概率組成向量,取概率向量中值最大的作為本次識別結(jié)果;

6)將當前迭代次數(shù) 與分段迭代次數(shù)M比較,選取合適的損失函數(shù),根據(jù)預測結(jié)果和真實標簽計算損失并反向傳遞;

7)根據(jù)預設(shè)的最大迭代次數(shù)循環(huán)步驟1)—6)將網(wǎng)絡(luò)訓練完畢。

3 實驗結(jié)果與分析

3.1 實驗數(shù)據(jù)集

3.1.1 低分辨雷達目標回波建模

現(xiàn)代雷達輻射源信號常采用脈沖壓縮信號,如相位編碼信號、線性調(diào)頻(Linear Frequency Modulation,LFM)信號等,使用脈沖壓縮技術(shù)可使雷達具有很高的徑向分辨力,當雷達目標的尺寸大于徑向分辨力時,運動目標占據(jù)多個距離單元,此時可以使用多散射點模型來模擬目標回波信號。

當雷達發(fā)射信號是LFM信號時,將與發(fā)射信號斜率相同的LFM參考信號作為本振信號,對接收到的回波信號進行變頻、采樣和幅度歸一化處理后,獲得的回波采樣數(shù)據(jù)為

(6)

3.1.2 數(shù)據(jù)集參數(shù)設(shè)置

實驗數(shù)據(jù)集由python編程軟件生成,仿真參數(shù)設(shè)置:LFM信號載頻為3 GHz,調(diào)頻周期為0.1 ms,調(diào)頻帶寬為100 MHz,中頻采樣頻率為5 MHz。數(shù)值仿真對地面目標進行目標識別,分別為卡車、摩托車和人。取1個調(diào)頻周期內(nèi)的采樣數(shù)據(jù)作為1個樣本,通過計算可知樣本大小為1×500,類別標簽采用獨熱碼方式表示,維度是1×3。訓練樣本集與測試樣本集分別獨立產(chǎn)生,其中,訓練集卡車樣本數(shù)為30,摩托車為300,人為3000,共3330個樣本,測試集卡車樣本數(shù)為200,摩托車為200,人為200,共600個樣本。

3.2 分段損失函數(shù)參數(shù)選擇

分段損失函數(shù)中存在可變的類別均衡權(quán)重,焦點參數(shù)和衰減參數(shù),在本文算法中,對類別均衡權(quán)重,焦點參數(shù)和衰減參數(shù)做如下選擇。

3.2.1 類別均衡權(quán)重

在類別均衡交叉熵損失函數(shù)中,設(shè)置類別均衡權(quán)重的目的是平衡各類目標數(shù)量差異對損失反向傳播的影響,所以權(quán)重值與各類別數(shù)目比例有關(guān),常見的設(shè)置方式如下[15]

βiNi=βjNj

(7)

3.2.2 焦點參數(shù)

焦點參數(shù)的作用是大幅度減少樣本集中簡單樣本的權(quán)重,使CNN側(cè)重于對困難樣本的訓練。不同γ下的焦點損失值如圖2所示,其中預測概率指的是CNN將目標預測為真實標簽的概率。

圖2 不同γ下的焦點損失值

文獻[14]將預測概率高于0.6的樣本看作簡單樣本,從圖2可以看出,引入γ可以有效減少簡單樣本的損失,使CNN在訓練時側(cè)重于對困難樣本的識別,本文選擇γ=2作為焦點參數(shù)值。

3.2.3 衰減參數(shù)

衰減參數(shù)主要由分段的迭代次數(shù)M決定,M的不同會影響目標識別效果,當M=0時,分段損失函數(shù)退化為焦點損失函數(shù)。在同樣條件下對不同的分段迭代次數(shù)M進行對比實驗,識別效果如表2所示。

表2 不同分段迭代次數(shù)M下的識別效果

通過對比實驗,本文選擇M=100作為分段的迭代次數(shù)。

3.3 不同損失函數(shù)對識別效果的影響

為了驗證本文所提分段損失函數(shù)的有效性,對使用不同損失函數(shù)的CNN進行識別實驗。用添加高斯白噪聲的方法對數(shù)據(jù)進行加噪處理,實驗采用SNR=-4dB的仿真目標回波采樣數(shù)據(jù)作為網(wǎng)絡(luò)輸入,使用設(shè)計的一維CNN結(jié)構(gòu)作為識別網(wǎng)絡(luò)。圖3是使用四種損失函數(shù)的CNN在不同迭代次數(shù)下的測試集識別率。

圖3 使用四種損失函數(shù)的CNN識別率

從圖3可以看出,分段損失函數(shù)結(jié)合了類別均衡交叉熵損失函數(shù)和焦點損失函數(shù)的優(yōu)點,初期訓練速度較快,獲得較好的訓練權(quán)值,后期挖掘困難樣本,較焦點損失函數(shù)和類別均衡損失函數(shù)識別率有所提高,四種損失函數(shù)的平均識別率如表3所示。

表3 四種損失函數(shù)的平均識別率

為了更加直觀的展示不同損失函數(shù)的識別效果,各損失函數(shù)的混淆矩陣如圖4所示,圖5~圖8是接收者操作特征曲線(receiver operating characteristic curve,ROC)曲線和ROC曲線下方的面積(Area under the Curve of ROC,AUC)。其中混淆矩陣中每一列表示目標所屬的真實類別,每一行表示一維CNN的識別結(jié)果,標簽從上至下,從左至右依次為卡車,摩托車和人。

圖4 混淆矩陣

圖5 使用交叉熵損失函數(shù)的ROC曲線和AUC值

圖6 使用類別均衡交叉熵損失函數(shù)的ROC曲線和AUC值

圖7 使用焦點損失函數(shù)的ROC曲線和AUC值

圖8 使用分段損失函數(shù)的ROC曲線和AUC值

從圖4的混淆矩陣和圖5~圖8的ROC曲線和AUC值可以看出,基于交叉熵損失函數(shù)的CNN識別算法對卡車和摩托車的識別效果較差,通過使用類別均衡交叉熵損失函數(shù)或焦點損失函數(shù),可以提高算法對卡車的識別效果,但仍然無法有效識別摩托車,且焦點損失函數(shù)更傾向于將分類錯誤的摩托車樣本識別為樣本數(shù)較多的人,而基于分段損失函數(shù)的CNN識別算法能夠有效識別三類目標,且在識別性能方面明顯優(yōu)于其它算法,充分說明了本文所提分段損失函數(shù)的有效性。

3.4 基于分段損失函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)低分辨雷達目標識別算法的識別效果

為了進一步說明本文所提基于分段損失函數(shù)的CNN低分辨雷達目標識別算法的有效性和較傳統(tǒng)方法的優(yōu)越性,將本文方法與其它五種方法進行比較,方法一是使用文獻[9]所提WSVM算法的傳統(tǒng)識別方法,其中WSVM算法基于目標的雷達散射截面積和一維距離像的中心矩特征進行識別,方法二是使用交叉熵損失函數(shù)的CNN低分辨雷達目標識別算法,方法三是使用類別均衡交叉熵損失函數(shù)的CNN識別算法,方法四是使用焦點損失函數(shù)的CNN識別算法,方法五是文獻[12]所提基于SMOTE和CNN的識別算法。同時為了驗證本文方法的魯棒性,通過添加高斯白噪聲的方法在不同信噪比條件下進行識別實驗,不同方法的識別效果如表4所示。

表4 不同方法的識別效果

從表4可以看出,本文方法在不同信噪比條件下的識別率最高,較傳統(tǒng)基于WSVM的識別算法識別率至少提高了10.38%,較基于交叉熵損失函數(shù)的CNN識別算法識別率至少提高了6.37%。

4 結(jié)論

針對樣本不均衡條件下,傳統(tǒng)低分辨雷達目標識別方法識別率較低的問題,本文提出了基于分段損失函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)低分辨雷達目標識別算法。首先通過CNN獲取數(shù)據(jù)深層本質(zhì)特征,然后使用分段損失函數(shù),使CNN在初期能夠更快訓練,獲得更好的權(quán)值,避開傾向于將目標識別為樣本數(shù)多的類別的局部極值點,在后期則側(cè)重于對困難樣本的訓練,最后將損失反向傳播,提高網(wǎng)絡(luò)識別性能。仿真結(jié)果表明本文所提算法較傳統(tǒng)識別方法有明顯優(yōu)勢,使用分段損失函數(shù)能夠有效提高CNN在樣本不均衡條件下對低分辨雷達目標的識別效果。

主站蜘蛛池模板: 免费国产高清精品一区在线| 久久精品免费看一| 伊人丁香五月天久久综合| 色哟哟色院91精品网站| 中文字幕在线观| 国产男女免费完整版视频| 亚洲色婷婷一区二区| 欧美中日韩在线| 中文字幕第4页| 成人伊人色一区二区三区| 久久香蕉国产线看精品| 精品午夜国产福利观看| 午夜福利无码一区二区| 国产情精品嫩草影院88av| 国产超碰一区二区三区| 国产美女自慰在线观看| 色九九视频| 国产欧美专区在线观看| 午夜日本永久乱码免费播放片| 亚洲视频免费播放| 亚洲综合色在线| 午夜影院a级片| 伊人丁香五月天久久综合| 激情乱人伦| 青青国产视频| 亚洲Va中文字幕久久一区| 久久毛片免费基地| 啊嗯不日本网站| 国产粉嫩粉嫩的18在线播放91| 久久6免费视频| 少妇精品网站| 欧美成人精品在线| 一本久道久久综合多人| 亚洲国产精品美女| 久久无码高潮喷水| 手机在线看片不卡中文字幕| 69免费在线视频| 国产欧美日本在线观看| 国产精品成人观看视频国产 | 欧美精品aⅴ在线视频| 久久黄色影院| 91精品国产福利| 一本大道香蕉久中文在线播放| 91在线精品麻豆欧美在线| 啦啦啦网站在线观看a毛片| 亚洲国产精品久久久久秋霞影院| 久久久久国色AV免费观看性色| a级毛片免费看| 国产视频自拍一区| а∨天堂一区中文字幕| 色视频久久| 亚洲精品免费网站| 啪啪啪亚洲无码| 国产乱码精品一区二区三区中文| 澳门av无码| 在线观看欧美精品二区| 91综合色区亚洲熟妇p| www.亚洲一区二区三区| 久热99这里只有精品视频6| 日本人妻一区二区三区不卡影院| 青青操视频在线| 欧美国产综合视频| 国产精品林美惠子在线观看| 亚洲欧美一区二区三区蜜芽| 国产精品自在在线午夜区app| 无码免费视频| 亚洲日韩精品无码专区| 亚洲国产成人久久精品软件| 国产视频a| 亚洲美女久久| 欧美精品黑人粗大| 欧美色香蕉| 日本精品αv中文字幕| 亚洲天堂在线免费| 亚洲欧美在线综合图区| 国产精品微拍| 国产精品自拍露脸视频| 亚洲AV成人一区国产精品| 波多野结衣无码中文字幕在线观看一区二区| 午夜a级毛片| 谁有在线观看日韩亚洲最新视频| 亚洲欧洲美色一区二区三区|