999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于時(shí)延神經(jīng)網(wǎng)絡(luò)模型的艦船輻射噪聲目標(biāo)識(shí)別*

2023-09-20 06:50:06趙乾坤劉峰梁秀兵宋永強(qiáng)
應(yīng)用聲學(xué) 2023年5期
關(guān)鍵詞:特征信號(hào)實(shí)驗(yàn)

趙乾坤 劉峰 梁秀兵 汪 濤 宋永強(qiáng)

(軍事科學(xué)院國防科技創(chuàng)新研究院 北京 100071)

0 引言

水聲目標(biāo)識(shí)別技術(shù)對(duì)維護(hù)海洋權(quán)益、海洋資源開發(fā)具有十分重要的作用,在反潛、魚雷防御、海底地形勘探等領(lǐng)域應(yīng)用廣泛[1]。前期研究表明,水聲信道受海洋環(huán)境的影響會(huì)產(chǎn)生多徑、衰減、畸變等復(fù)雜變化,多種類別的水聲信號(hào)耦合在一起,使得艦船信號(hào)往往淹沒在背景噪聲之中。同時(shí),艦船輻射噪聲具有較大的類內(nèi)差異性和類間相似性,使得同類型目標(biāo)在不同的航行狀態(tài)和環(huán)境下,具有不同的噪聲輻射特性。除此之外,水聲目標(biāo)類別十分廣泛,如漁船、貨輪、軍艦等水面目標(biāo);潛艇、海洋生物、鉆井平臺(tái)等水下目標(biāo),這些問題都增加了水聲信號(hào)的識(shí)別難度。因此,水聲信號(hào)目標(biāo)識(shí)別一直是國內(nèi)外水聲領(lǐng)域公認(rèn)的難題。

傳統(tǒng)的水聲信號(hào)特征提取方法經(jīng)過多年的發(fā)展,已經(jīng)從簡(jiǎn)單的時(shí)域或頻域特征發(fā)展到時(shí)-頻結(jié)合、人耳聽覺感知、高階統(tǒng)計(jì)量等特征分析方法。其中,時(shí)頻分析方法提供了時(shí)間域與頻率域的聯(lián)合分布信息,可以清楚地描述信號(hào)頻率隨時(shí)間變化的關(guān)系,是目前最為常用的特征提取方法,如短時(shí)傅里葉變換(Short time Fourier transform,STFT)[2]、梅爾頻率倒譜系數(shù)(Mel-Frequency cepstral coefficients,MFCC)[3]、希爾伯特-黃變換(Hilbert-Huang transform,HHT)等。分類器設(shè)計(jì)方面,常用的方法包括隱馬爾科夫模型(Hidden Markov model,HMM)、高斯混合模型(Gaussian mixed model,GMM)、支持向量機(jī)(Support vector machine,SVM)以及級(jí)聯(lián)分類器等都在水聲信號(hào)識(shí)別中得到了應(yīng)用。然而,傳統(tǒng)方法的參數(shù)有限無法對(duì)大規(guī)模數(shù)據(jù)和海洋環(huán)境進(jìn)行建模,系統(tǒng)部署后難以進(jìn)行數(shù)據(jù)的迭代更新,這些問題都使得水聲信號(hào)依然長(zhǎng)期依賴人工判讀。

近年來,深度學(xué)習(xí)技術(shù)的快速發(fā)展,以其對(duì)非線性系統(tǒng)的良好擬合能力,為水聲目標(biāo)識(shí)別領(lǐng)域提供了新思路。基于深度學(xué)習(xí)的水聲目標(biāo)識(shí)別算法可以利用神經(jīng)網(wǎng)絡(luò)自動(dòng)地學(xué)習(xí)特征并完成分類。越來越多的研究人員開始采用深度學(xué)習(xí)進(jìn)行聲目標(biāo)識(shí)別研究,并借助深度神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)特征優(yōu)化和目標(biāo)識(shí)別[4-5],可有效提高自動(dòng)識(shí)別系統(tǒng)的泛化能力和環(huán)境適應(yīng)性。Kamal等[6]首先將深度置信網(wǎng)絡(luò)(Deep belief network,DBN)模型應(yīng)用于水聲信號(hào)被動(dòng)目標(biāo)識(shí)別任務(wù)中,在40 個(gè)類別的目標(biāo)共1000 個(gè)測(cè)試樣本的測(cè)試集上取得了90.23%的分類正確率,結(jié)果表明利用深度學(xué)習(xí)模型進(jìn)行水下目標(biāo)識(shí)是一種可行的途徑。王強(qiáng)等[7]從3 類目標(biāo)的實(shí)測(cè)水聲數(shù)據(jù)庫中提取梅爾倒譜特征及傅里葉變換特征,比較了DBN、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural networks,CNN)、SVM的識(shí)別率,其中DBN的識(shí)別率最高。Yue等[8]使用CNN和DBN對(duì)16種不同類型的水聲目標(biāo)進(jìn)行了分類,在有監(jiān)督和無監(jiān)督的情況下,其準(zhǔn)確率分別達(dá)到94.75%和96.96%,其結(jié)果優(yōu)于對(duì)比實(shí)驗(yàn)中SVM 和Wndchrm(用于生物圖像分析的開源程序)的識(shí)別精度。考慮到水聲目標(biāo)信號(hào)的時(shí)序性質(zhì),也有學(xué)者應(yīng)用時(shí)序模型開展智能識(shí)別研究。張少康等[9]應(yīng)用長(zhǎng)短時(shí)記憶(Long short-term memory,LSTM)網(wǎng)絡(luò)分別對(duì)水下目標(biāo)噪聲的時(shí)域時(shí)間序列數(shù)據(jù)、頻譜數(shù)據(jù)、梅爾倒譜數(shù)據(jù)進(jìn)行深層次特征提取與識(shí)別,并使用實(shí)際水聲目標(biāo)噪聲信號(hào)對(duì)該方法進(jìn)行了驗(yàn)證。結(jié)果表明,在上述3 種輸入數(shù)據(jù)情況下,采用LSTM 模型均能有效實(shí)現(xiàn)水下目標(biāo)噪聲特征提取與智能識(shí)別。Li等[10]提出了一種基于時(shí)延神經(jīng)網(wǎng)絡(luò)(Time delay neural network,TDNN)的分類器,用濾波器組(Filter bank,Fbank)提取包含頻譜信息的特征作為網(wǎng)絡(luò)的輸入,實(shí)驗(yàn)結(jié)果表明,該方法比SVM 等傳統(tǒng)方法具有更高的分類精度,且在真實(shí)環(huán)境下的三重分類實(shí)驗(yàn)中準(zhǔn)確率達(dá)到90%以上,說明該分類器在建模時(shí)間序列和表示復(fù)雜非線性關(guān)系方面具有很大的優(yōu)勢(shì)。隨著注意力機(jī)制(Attention) 在自然語言處理領(lǐng)域的成功應(yīng)用,許多學(xué)者將注意力機(jī)制運(yùn)用到水下目標(biāo)識(shí)別領(lǐng)域,也取得了不錯(cuò)的識(shí)別效果。Li等[11]提出了一種基于注意機(jī)制和遷移學(xué)習(xí)的船舶輻射噪聲識(shí)別方法,在公共數(shù)據(jù)集上實(shí)現(xiàn)了99%的識(shí)別準(zhǔn)確率;徐承等[12]將多維自注意力機(jī)制引入多特征融合水下目標(biāo)識(shí)別框架,分別在特征維度和時(shí)間維度高效完成深層次目標(biāo)弱信息特征抽取,顯著提升了識(shí)別效果。

經(jīng)以上研究啟發(fā),本文嘗試基于注意力機(jī)制和TDNN 構(gòu)建深度網(wǎng)絡(luò)架構(gòu),進(jìn)行有效地艦船輻射噪聲數(shù)據(jù)深層特征挖掘和分類識(shí)別。結(jié)果表明,本文驗(yàn)證的網(wǎng)絡(luò)架構(gòu)方法有效。

1 方法介紹

1.1 Fbank初級(jí)特征提取

人耳在不同頻率下的感知是多樣化和非線性的,基于人耳聽覺特征的MFCC和Fbank被廣泛應(yīng)用,它們都使用梅爾濾波器組,不同之處在于Fbank特征沒有進(jìn)行離散余弦變換,離散余弦變換去除了各維信號(hào)之間的相關(guān)性,這也使得沒有進(jìn)行此步驟的Fbank 特征更具有聲音的本質(zhì)信息,且比MFCC計(jì)算量更小[13]。Fbank 特征不僅可以改善聲信號(hào)的線性感知能力,能更好地表征聲頻的在低頻部分的頻域特征,提高聲紋識(shí)別的性能,而且在聲紋識(shí)別實(shí)驗(yàn)中發(fā)現(xiàn)Fbank 特征比MFCC 特征表現(xiàn)更好。由于水聲目標(biāo)識(shí)別與聲紋識(shí)別的任務(wù)相似性,所以本文采用Fbank特征輸入后續(xù)網(wǎng)絡(luò),如圖1所示,它的一般步驟是:預(yù)加重、分幀、加窗、STFT、梅爾濾波等。

圖1 Fbank 特征提取流程Fig.1 Fbank feature extraction process

預(yù)加重:主要是對(duì)高頻部分進(jìn)行補(bǔ)償,將艦船輻射噪聲信號(hào)輸入傳遞函數(shù)的高通濾波器進(jìn)行處理,能夠提升高頻的能量,幫助提升識(shí)別的效果。對(duì)于n時(shí)刻信號(hào)的采樣值x[n],經(jīng)過預(yù)加重處理后得到的輸出:

其中,a為預(yù)加重系數(shù),取值一般在0.9~1之間。

分幀:艦船輻射噪聲信號(hào)具有短時(shí)平穩(wěn)性,為了能在短時(shí)“小段”上進(jìn)行傅里葉變換,將信號(hào)按照給定長(zhǎng)度切割成一個(gè)個(gè)小段,稱之為分幀。為了避免分幀后的相鄰幀變化過大,一般會(huì)保留一些兩幀間的重疊區(qū)域。

加窗:是在信號(hào)分幀后對(duì)每一幀乘上一個(gè)不斷移動(dòng)的有限長(zhǎng)窗函數(shù)的過程。窗外的值設(shè)定為0,其目的是消除各個(gè)幀兩端可能會(huì)造成的信號(hào)不連續(xù)性,避免出現(xiàn)吉布斯效應(yīng)。本文使用漢明窗:

其中,N為窗口長(zhǎng)度。

快速傅里葉變換(FFT):為了將信號(hào)從時(shí)域轉(zhuǎn)換到頻域,得到頻譜上的能量分布,便于觀察不同的信號(hào)特性。在乘上漢明窗后,每幀要經(jīng)過FFT 以得到各幀的頻譜。假設(shè)采樣點(diǎn)是N,則計(jì)算如下:

梅爾濾波器組:將功率譜通過一組梅爾刻度的三角濾波器來提取頻帶,濾波器組中的每個(gè)濾波器都是三角形的,中心頻率為f(m),中心頻率處的響應(yīng)為1,并向0 線性減小,直到達(dá)到兩個(gè)相鄰濾波器的中心頻率,其中響應(yīng)為0,各f(m)之間的間隔隨著m值的增大而增寬。經(jīng)過FFT 的信號(hào)分別與每個(gè)濾波器進(jìn)行頻率相乘累加,得到的值即為該幀數(shù)據(jù)在該濾波器對(duì)應(yīng)頻段的能量值。單獨(dú)濾波器的表達(dá)式為

最后,計(jì)算每個(gè)濾波器組輸出的對(duì)數(shù)能量為

得到梅爾頻譜圖如圖2所示。

圖2 梅爾頻譜圖Fig.2 Mel spectrum

1.2 基于TDNN模型的高級(jí)特征提取

水聲信號(hào)是一種典型的時(shí)序信號(hào),存在著時(shí)間關(guān)聯(lián)特性。本實(shí)驗(yàn)利用改進(jìn)的TDNN 沿時(shí)間軸采用一維卷積結(jié)構(gòu)作為特征提取器[14],將水聲信號(hào)有區(qū)別地嵌入到一個(gè)向量空間中,利用水聲信號(hào)的短時(shí)平穩(wěn)特性提取幀級(jí)特征,然后將聲頻的幀級(jí)特征的均值和標(biāo)準(zhǔn)差連接起來作為長(zhǎng)時(shí)特征,最后通過前饋網(wǎng)絡(luò)實(shí)現(xiàn)目標(biāo)類別的劃分。深度特征提取網(wǎng)絡(luò)依次由1 個(gè)TDNN 模塊(卷積核長(zhǎng)度為5)、3個(gè)帶有壓縮激勵(lì)和分層類殘差連接的殘差塊(SERes2Block)、1 個(gè)TDNN 模塊(卷積核長(zhǎng)度為1)和1個(gè)注意力統(tǒng)計(jì)池化模塊(Attentive statistics pooling,ASP)組成。其中TDNN 模塊均包含ReLU 激活層和一個(gè)批處理規(guī)范化層(Batch normalization,BN)。而且,由于神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)分層特征,這些更深層次的特征是最復(fù)雜的,應(yīng)該與艦船類別密切相關(guān),更淺的特征圖也有助于提取更魯棒的艦船聲紋嵌入碼。因此,采用的網(wǎng)絡(luò)模型連接所有SERes2Block 的輸出特征,多層特征聚合(Multi-layer feature aggregation,MFA)之后,用一個(gè)全連接層(Fully connected layer,FC)處理連接的信息,輸入到ASP后,生成得到幀維度的均值向量和標(biāo)準(zhǔn)差向量[15],再經(jīng)過一個(gè)FC 生成192 維度的特征,然后用AAM-Softmax 方式進(jìn)行分類識(shí)別。具體網(wǎng)絡(luò)結(jié)構(gòu)如表1 所示,其中T為時(shí)間幀數(shù),k表示卷積核長(zhǎng)度,d表示空洞卷積維度。

表1 深層特征提取網(wǎng)絡(luò)結(jié)構(gòu)Table 1 Deep feature extraction network structure

其中,SE-Res2Block 模塊作為特征建模模塊,如圖3 所示,由兩個(gè)相同的帶有ReLU 激活層和BN 層的TDNN 模塊、1 個(gè)帶有ReLU 激活層和BN層的分層類殘差連接的殘差塊(Res2Block)、1 個(gè)壓縮激勵(lì)模塊(Squeeze-and-excitation block,SEBlock)和1 個(gè)從輸入到輸出的直接連接構(gòu)成。一維Res2Net 模塊將輸入通道平均分成8 個(gè)部分,如圖4所示,第一個(gè)特征圖保留,不進(jìn)行變換,這是對(duì)前一層特征的復(fù)用,同時(shí)也降低了參數(shù)量和計(jì)算量。從第二個(gè)特征圖開始,都經(jīng)過一個(gè)3×512 的一維卷積,并且當(dāng)前特征圖的卷積結(jié)果,會(huì)與后一個(gè)特征圖進(jìn)行殘差連接(逐元素相加)。然后,后一個(gè)特征圖再進(jìn)行3×512的一維卷積。最后,將所有輸出通道部分合并為Res2Block 輸出。這樣使得層內(nèi)融合了不同尺度的特征,可獲得更強(qiáng)的表征。整體網(wǎng)絡(luò)模型1~3層Res2Block的空洞卷積膨脹率d分別為2、3、4。

圖3 SE-Res2Block 結(jié)構(gòu)示意圖Fig.3 SE-Res2Block structure diagram

圖4 Res2Conv1DReLUBN 結(jié)構(gòu)Fig.4 Res2Conv1DReLUBN structure

在SE-Res2Block 的最后使用了SE-Block,它是現(xiàn)代卷積神經(jīng)網(wǎng)絡(luò)所必備的結(jié)構(gòu),引入通道注意力機(jī)制,對(duì)通道間的依賴關(guān)系進(jìn)行了建模,可增強(qiáng)有用的通道和抑制無用的通道,能夠有效地提升性能,而且計(jì)算量并不大。基本思路如圖5 所示,是將一個(gè)T ×1×512 的特征圖的每個(gè)特征通道都映射成一個(gè)值(常用全局平均池化,即:取該特征通道的均值,代表該通道),從而特征圖會(huì)映射為一個(gè)向量,長(zhǎng)度與特征通道數(shù)一致。之后,向量通過FC (與用1 維卷積等價(jià))進(jìn)行降維,輸出長(zhǎng)度為特征通道數(shù)的1/4(即128)。然后經(jīng)過激活函數(shù)ReLU。再通過一個(gè)FC,輸出長(zhǎng)度與特征通道數(shù)一致(即512)。接著經(jīng)過激活函數(shù)Sigmoid,此時(shí)輸出向量的每一個(gè)值,范圍都是0~1 之間。最后用輸出向量的每一個(gè)值,對(duì)輸入特征圖的對(duì)應(yīng)通道進(jìn)行加權(quán)相乘。

圖5 SE-Block 結(jié)構(gòu)Fig.5 SE-Block structure

ASP 是帶有注意力機(jī)制的統(tǒng)計(jì)池化層,因其在說話人嵌入方面的優(yōu)異性能而被安置在深度特征提取的最后[16]。具體結(jié)構(gòu)如圖6 所示,對(duì)輸入的1536×T的特征圖,按照T維度計(jì)算每個(gè)特征維度的均值和標(biāo)準(zhǔn)差,將均值和標(biāo)準(zhǔn)差分別在T維度重復(fù)堆疊T次,再將原輸入特征圖、均值和標(biāo)準(zhǔn)差在特征維度進(jìn)行串聯(lián),得到的特征圖維度為4608×T。然后進(jìn)行一維卷積將4608×T特征圖降維,經(jīng)過tanh激活函數(shù)得到維度為128×T的特征圖,再對(duì)其進(jìn)行一維卷積將其升維到1536×T,進(jìn)行Softmax 激活,在T維度上對(duì)幀權(quán)重進(jìn)行了標(biāo)準(zhǔn)化處理,避免了不同批次之間的巨大差異,而且,此時(shí)特征圖每一行特征在T維度上求和都等于1,可以將其視為一種注意力分?jǐn)?shù),求出基于注意力的均值和標(biāo)準(zhǔn)差,再將它們按照特征維度進(jìn)行串聯(lián),得到ASP最終的輸出。

圖6 ASP 結(jié)構(gòu)Fig.6 ASP structure

1.3 分類器設(shè)計(jì)及模型優(yōu)化

本文采用基于AAM-Softmax[17]的分類。原始的Softmax沒有考慮優(yōu)化去使得類內(nèi)具有高度相似性而類間具有顯著差異性。但是艦船輻射噪聲通常面臨海洋環(huán)境干擾、行駛狀態(tài)改變等引起的類內(nèi)差異大類間差異小的問題。而采用AAM-Softmax(如公式(6))進(jìn)行分類時(shí),在cosθ內(nèi)加入了角度余量損失(angular margin)m,增強(qiáng)類內(nèi)緊湊性和類間差異性,從而提高的判別能力,以及提升了訓(xùn)練的穩(wěn)定度。

這里使用Adam 來對(duì)網(wǎng)絡(luò)模型進(jìn)行優(yōu)化,算法計(jì)算梯度平方的指數(shù)加權(quán)平均以及gt的指數(shù)加權(quán)平均:

其中,β1和β2分別為兩個(gè)移動(dòng)平均的衰減率,通常取值為β1=0.9,β2=0.99。

Adam算法的參數(shù)更新差值:

2 實(shí)驗(yàn)

2.1 實(shí)驗(yàn)數(shù)據(jù)

本文采用兩組實(shí)驗(yàn)數(shù)據(jù)作為驗(yàn)證,分別為開源數(shù)據(jù)集ShipsEar和課題組自行采集的實(shí)驗(yàn)數(shù)據(jù)。

其中,第一組數(shù)據(jù)為ShipsEar 數(shù)據(jù)集,該數(shù)據(jù)集共包含90 段聲頻記錄,分為5 個(gè)類別,數(shù)據(jù)是利用自容式水聽器對(duì)碼頭上往來的船只噪聲信號(hào)進(jìn)行記錄,以采集不同船速下的噪聲以及與進(jìn)塢或離塢時(shí)的空化噪聲。由于數(shù)據(jù)是在真實(shí)開放水域中采集的,部分信號(hào)中混雜了人說話聲、自然背景噪聲,偶爾也會(huì)記錄到海洋哺乳動(dòng)物的聲音。經(jīng)初步處理后,消除了背景噪聲干擾強(qiáng)烈和模糊不清的信號(hào)。對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,去除空白信號(hào),并將原始信號(hào)按照5 s 時(shí)長(zhǎng)進(jìn)行分幀和標(biāo)注,共生成1956 個(gè)標(biāo)注樣本。詳細(xì)信息如表2 所示,第一列是聲信號(hào)目標(biāo)類別,第二列是每類對(duì)應(yīng)的細(xì)分船只,第三列是每類目標(biāo)的幀數(shù)。

表2 第一組實(shí)驗(yàn)數(shù)據(jù)Table 2 First set of experimental data

第二組數(shù)據(jù)為課題組自行采集的數(shù)據(jù)(如圖7所示),該數(shù)據(jù)采集利用4 組自容式水聽器對(duì)航道上過往的船只進(jìn)行記錄,并利用船舶自動(dòng)識(shí)別系統(tǒng)(Automatic identification system,AIS)對(duì)來往的船只進(jìn)行標(biāo)注,包括目標(biāo)類別、距離、航向、航速等信息。采集過程中變換了多個(gè)采集地點(diǎn),實(shí)驗(yàn)共持續(xù)4天,每天平均采集時(shí)間7 h,采集區(qū)域水深10~18 m,經(jīng)過聽聲和記錄比對(duì),濾除記錄缺失數(shù)據(jù)、空聲數(shù)據(jù)、干擾數(shù)據(jù)等,共計(jì)43種目標(biāo)(包括捕撈船、貨船、拖船、客船、集裝箱船、快艇等),144組wav文件。為了更加貼近真實(shí)場(chǎng)景下的應(yīng)用效果,將144 段目標(biāo)數(shù)據(jù)劃分為4個(gè)類別,分別為客輪(Passenger)、貨船(Cargo ship)、小漁船(Yacht)和其他(Others),并將采集的整段數(shù)據(jù)隨機(jī)選取放入訓(xùn)練集或者測(cè)試集,再按照5 s的固定時(shí)長(zhǎng)對(duì)數(shù)據(jù)進(jìn)行截取,這樣可以保證數(shù)據(jù)的獨(dú)立性。若采取先截取再隨機(jī)采樣的方式劃分?jǐn)?shù)據(jù),由于同一目標(biāo)或相鄰時(shí)間內(nèi)的信號(hào)數(shù)據(jù)變化不大,會(huì)使得訓(xùn)練集和測(cè)試集中的數(shù)據(jù)具有較強(qiáng)的相似性。經(jīng)劃分后共獲得8530 組數(shù)據(jù),其中訓(xùn)練集5971組,測(cè)試集2529組。

圖7 第二組實(shí)驗(yàn)數(shù)據(jù)Fig.7 Second set of data

2.2 參數(shù)設(shè)置

模型是由Pytorch和Librosa編制的。網(wǎng)絡(luò)模型在5 s 長(zhǎng)的片段上訓(xùn)練了500 個(gè)歷時(shí)。初始學(xué)習(xí)率被設(shè)定為0.001。如果驗(yàn)證集的準(zhǔn)確度在連續(xù)5個(gè)歷時(shí)中沒有提高,則學(xué)習(xí)率呈指數(shù)衰減,如公式(10)所示:

采用Adam 優(yōu)化器。隨著網(wǎng)絡(luò)中層數(shù)的增加,分布會(huì)逐漸發(fā)生變化。緩慢收斂意味著整體分布接近非線性函數(shù)取值區(qū)間的上界和下界,導(dǎo)致梯度在反向傳播過程中消失。所以引入歸一化、L2 正則化和激活函數(shù),使輸入值落入更敏感的區(qū)域。它可以使梯度變大,學(xué)習(xí)收斂變快,加快收斂速度。相關(guān)參數(shù)設(shè)置如表3所示。

表3 網(wǎng)絡(luò)訓(xùn)練相關(guān)參數(shù)設(shè)置Table 3 Network training related parameter settings

2.3 實(shí)驗(yàn)結(jié)果對(duì)比及分析

選擇循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent neural network,RNN)模型和深度神經(jīng)網(wǎng)絡(luò)(Deep neural networks,DNN)模型作為對(duì)照實(shí)驗(yàn),來驗(yàn)證本文實(shí)驗(yàn)?zāi)P偷挠行浴1? 中比較了基于ShipsEar 數(shù)據(jù)集各種模型的水下聲學(xué)信號(hào)識(shí)別的準(zhǔn)確率。根據(jù)實(shí)驗(yàn)結(jié)果,本文采用的基于注意力機(jī)制改進(jìn)的TDNN 模型(Fbank-attention-TDNN)的錯(cuò)誤率最低,其準(zhǔn)確率表明有79.2%的機(jī)會(huì)正確識(shí)別水下聲學(xué)信號(hào)的類型。由于全連接神經(jīng)網(wǎng)絡(luò)(Fully connected neural network,FCNN)模型的FC 的參數(shù)最多,模型在訓(xùn)練過程中更容易過擬合,因此會(huì)提高了模型的錯(cuò)誤率,使模型在測(cè)試過程中準(zhǔn)確率最低。雖然傳統(tǒng)的RNN模型和DNN模型利用連接的模型也同樣穩(wěn)定地收斂了,但效果不及本文實(shí)驗(yàn)的模型。原因是TDNN 結(jié)合了信號(hào)的長(zhǎng)時(shí)關(guān)聯(lián)性,更好地利用了梅爾譜圖前幀和后幀的時(shí)間相關(guān)性以及頻率的結(jié)構(gòu)信息,同時(shí),本文實(shí)驗(yàn)的模型也使用了殘差連接多尺度特征聚合,可以接受全局信息的特點(diǎn)使得模型在訓(xùn)練過程中學(xué)習(xí)每個(gè)網(wǎng)絡(luò)層的信息,會(huì)令模型的錯(cuò)誤率逐漸下降,當(dāng)注意力機(jī)制被引入模型時(shí),模型的效果更加穩(wěn)健。在不犧牲特征信息的情況下,本文采用的模型相較于傳統(tǒng)結(jié)果可能會(huì)大幅減少參數(shù),使其能夠產(chǎn)生最好的結(jié)果。

表4 實(shí)驗(yàn)結(jié)果(基于ShipsEar 數(shù)據(jù)集)Table 4 Experimental results(Based on ShipsEar dataset)

采用上述相同的方法對(duì)本文構(gòu)建的數(shù)據(jù)集進(jìn)行驗(yàn)證。從圖8和圖9 中可以看出,訓(xùn)練集中的數(shù)據(jù)隨著迭代次數(shù)的增加識(shí)別率逐漸提高,但測(cè)試集中的數(shù)據(jù)在收斂到70%附近時(shí)振蕩較為明顯,且無法再提高識(shí)別率,模型訓(xùn)練存在一定的過擬合現(xiàn)象。分析其原因,一是在數(shù)據(jù)劃分的時(shí)候,訓(xùn)練集和測(cè)試集中的數(shù)據(jù)偏差較大,難以實(shí)現(xiàn)較好的擬合;二是每個(gè)類別中包含了多種不同型號(hào)的船只,這些目標(biāo)的類內(nèi)一致性和類間可分性問題還值得進(jìn)一步研究,如其他類別中包含了海監(jiān)船、拖船等多種型號(hào)的船只;三是由于采集環(huán)境受限,本文的數(shù)據(jù)采集位于近岸,噪聲干擾較大,難以穩(wěn)定采集到觀測(cè)目標(biāo)的聲紋信號(hào),這些都會(huì)對(duì)分類問題造成干擾。本次實(shí)驗(yàn)所測(cè)數(shù)據(jù)更接近真實(shí)環(huán)境下的需求,可在一定程度上對(duì)本文所提方法進(jìn)行驗(yàn)證。

圖8 訓(xùn)練和測(cè)試準(zhǔn)確率對(duì)照曲線Fig.8 Comparison curve of training and test accuracy

圖9 訓(xùn)練和測(cè)試損失對(duì)照曲線Fig.9 Comparison curve of training and test loss

圖10 為本文方法在測(cè)試集識(shí)別結(jié)果的混淆矩陣,可用來呈現(xiàn)算法性能的可視化效果,每一列代表了預(yù)測(cè)類別,每一列的總數(shù)表示預(yù)測(cè)為該類別的數(shù)據(jù)的數(shù)目;每一行代表了數(shù)據(jù)的真實(shí)歸屬類別,每一行的數(shù)據(jù)總數(shù)表示該類別的數(shù)據(jù)實(shí)例的數(shù)目[18]。如第二行的Passenger,共有測(cè)試樣本514 個(gè),正確分類結(jié)果為426個(gè),誤分類為Others、Cargo boat和Little boat 的個(gè)數(shù)分別為60 個(gè)、9 個(gè)和19 個(gè),通過混淆矩陣能夠很快地分析每個(gè)類別的誤分類情況。

圖10 分類混淆矩陣Fig.10 Confusion matrices for of targets

3 結(jié)論

本文以典型的船舶類水下輻射噪聲信號(hào)為研究對(duì)象,以水聲信號(hào)的分類識(shí)別為目的,研究了采用一種基于注意力機(jī)制的TDNN 網(wǎng)絡(luò)模型在水聲信號(hào)分類識(shí)別的應(yīng)用能力。分別對(duì)ShipsEar開源數(shù)據(jù)集和課題組自行采集的實(shí)驗(yàn)數(shù)據(jù)進(jìn)行了實(shí)驗(yàn),提取信號(hào)梅爾頻譜作為輸入特征,識(shí)別準(zhǔn)確率分別達(dá)到79.2%和73.9%,驗(yàn)證了實(shí)驗(yàn)?zāi)P驮谒暷繕?biāo)識(shí)別問題上的有效性。下一步將驗(yàn)證多特征融合輸入是否會(huì)提高模型得識(shí)別準(zhǔn)確率。

猜你喜歡
特征信號(hào)實(shí)驗(yàn)
記一次有趣的實(shí)驗(yàn)
信號(hào)
鴨綠江(2021年35期)2021-04-19 12:24:18
完形填空二則
如何表達(dá)“特征”
做個(gè)怪怪長(zhǎng)實(shí)驗(yàn)
不忠誠的四個(gè)特征
基于FPGA的多功能信號(hào)發(fā)生器的設(shè)計(jì)
電子制作(2018年11期)2018-08-04 03:25:42
抓住特征巧觀察
NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
實(shí)踐十號(hào)上的19項(xiàng)實(shí)驗(yàn)
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 亚洲精品福利视频| 在线免费观看AV| 在线精品亚洲国产| 人妻21p大胆| 熟女视频91| 成人午夜视频在线| 女高中生自慰污污网站| 激情综合图区| 国产乱子伦一区二区=| 在线亚洲精品福利网址导航| 精品视频福利| 亚洲综合天堂网| 国产人免费人成免费视频| 亚洲高清中文字幕在线看不卡| 国产91熟女高潮一区二区| 最新国产麻豆aⅴ精品无| 青青青国产精品国产精品美女| 精品小视频在线观看| 精品久久国产综合精麻豆| 亚洲精品综合一二三区在线| 亚洲免费福利视频| 91青青视频| a级毛片免费播放| 亚洲一区二区约美女探花| 国产视频只有无码精品| 亚洲视频一区在线| 亚洲经典在线中文字幕| 伊人久热这里只有精品视频99| 免费A∨中文乱码专区| 国产美女主播一级成人毛片| 永久在线精品免费视频观看| 欧美69视频在线| 日本不卡在线播放| 国产精品亚洲一区二区在线观看| 国产综合网站| 国产91透明丝袜美腿在线| 91丝袜美腿高跟国产极品老师| 精品亚洲欧美中文字幕在线看| 成人福利在线免费观看| 亚洲欧美日韩另类| 国产成人精品午夜视频'| 免费可以看的无遮挡av无码| 日韩在线永久免费播放| 99久久精品国产精品亚洲| 国产凹凸一区在线观看视频| 午夜啪啪网| 国产成人精品一区二区不卡| 国产色图在线观看| 国产欧美视频综合二区| 亚洲天堂免费在线视频| 国产一区免费在线观看| 国产高清无码第一十页在线观看| 成人国产精品网站在线看| 亚洲国产中文综合专区在| 免费人成视网站在线不卡| 五月婷婷丁香色| 久久黄色免费电影| 婷婷亚洲最大| 97青草最新免费精品视频| 日本www在线视频| 免费视频在线2021入口| 国产不卡一级毛片视频| 人妻一区二区三区无码精品一区| 欧美激情视频一区| 国产精品福利尤物youwu| 亚洲一区免费看| 动漫精品啪啪一区二区三区| 激情综合婷婷丁香五月尤物| 亚洲人成在线免费观看| a毛片免费在线观看| 四虎影视库国产精品一区| 亚洲日韩欧美在线观看| 国产鲁鲁视频在线观看| 九色在线视频导航91| 久久人搡人人玩人妻精品| 国产成人AV综合久久| 国产一区成人| 永久免费无码成人网站| a级毛片免费网站| 国产喷水视频| 久久亚洲欧美综合| 国产精品三级av及在线观看|