999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于麥克風陣列的聲源定位算法研究

2016-09-26 07:20:13王鴻鵬
計算機應用與軟件 2016年3期

李 揚 王鴻鵬

(哈爾濱工業大學深圳研究生院計算機科學與技術學院 廣東 深圳 518055) (深圳物聯網關鍵技術及應用系統集成工程實驗室 廣東 深圳 518055)

?

基于麥克風陣列的聲源定位算法研究

李揚王鴻鵬

(哈爾濱工業大學深圳研究生院計算機科學與技術學院廣東 深圳 518055) (深圳物聯網關鍵技術及應用系統集成工程實驗室廣東 深圳 518055)

在基于時延估計的聲源定位系統中,由于定位算法分為兩個階段:時延估計和定位,時延估計階段的誤差會在定位階段被放大,導致聲源定位的成功率和精度較低。從原始信號去噪,時延值插值和定位算法三方面入手,提高聲源定位的精度。結合自行設計的四元十字麥克風陣列,給出一種新的時延值篩選算法,實現了一個室內聲源定位系統。實驗結果表明,在二維定位場景中,該系統對聲源方位角的估計成功率超過70%,平均誤差小于5°;該系統對聲源距離估計的成功率和精度與聲源方位角有關,當聲源方位與X、Y軸的夾角不超過15°且聲源距離不超過2.5m時,聲源距離估計的成功率能達到50%以上。

聲源定位時延值篩選時延值冗余自適應特征值分解小波去噪

0 引 言

基于麥克風陣列的聲源定位系統通過多個麥克風拾取聲源信號,對接收到的多路信號進行分析和處理,最終得到聲源的位置。聲源定位系統無論在民用[1,2]還是軍用[3,4]領域都扮演著重要的角色。基于麥克風陣列的聲源定位技術大致可分為三種:基于最大輸出功率的可控波束形成技術[5]、基于高分辨率譜估計技術[6]和基于時延估計的技術[7]。

其中,基于時延估計的聲源定位技術由于原理簡單、運算量小和易于實現而被廣泛應用。在基于時延估計的聲源定位系統中,定位過程分為兩個階段[8]:時延估計階段和定位階段。由于雙曲面的幾何特性,時延值估計的誤差在定位階段被放大[9],造成定位階段的成功率不高,定位結果誤差較大。因此如何提高時延估計的成功率和精度便成了聲源定位系統的關鍵問題。本文通過對原始語音信號進行小波去噪,采用抗混響能力強的自適應特征值分解算法,同時對時延估計值進行插值,提高時延估計的精度。在進行時延估計之后,為了避免無謂的計算,需要剔除錯誤的時延值。但是聲源位置未知的情況下,時延值的實際值無從得知,因此無法通過與實際值比較的方法對時延估計值進行篩選。本文根據時延值之間的相關性,給出了一種時延值篩選算法。在定位階段,為了充分利用時延值的冗余信息,給出了一種基于時延值冗余的定位算法。最終實現了一個基于四元十字陣的室內聲源定位系統。該系統在一般室內環境中,方位角估計能達到70%以上的成功率,平均誤差小于4.5°;當聲源方位與XY軸的夾角不超過15°且聲源距離不超過2.5m時,聲源距離估計的成功率能達到50%以上。

1 時延估計

1.1小波去噪

對原始語音信號進行小波去噪的基本原理[10]為:語音信號和噪聲信號分別進行小波變換之后,其小波系數具有不同的布特征。噪聲信號頻譜比較分散,小波系數較小,語音信號頻譜分布比較集中,小波系數較大。利用這一特性可先對帶噪語音信號進行小波變換,然后在每一層尺度上對小波系數進行處理。

本文小波變換的實現方法如下:首先對原始語音信號進行三階小波變換,得到小波系數,按照一定閾值抑制高頻系數,再進行小波逆變換,得到經過去噪的語音信號。圖1為小波去噪前后的音頻信號對比。

圖1 小波去噪前后的音頻信號對比

1.2自適應特征值分解算法

傳統的時延估計算法如廣義互相關法(GCC)基于一種理想的聲音傳播模型:單路徑模型。在這種模型中,不考慮障礙物對聲源信號的反射作用。然而在實際的室內環境中不可避免的存在混響,這種理想的單路徑模型是不成立的。自適應特征值分解算法(AED)在建立聲音傳播模型時考慮了混響這個干擾因素,因此能獲得更好的時延估計效果[11]。自適應特征值分解算法的迭代公式[12]為:

e(n)=uT(n)x(n)

(1)

(2)

其中:

(3)

xi(n)=[xi(n)xi(n-1)…xi(n-M+1)]Ti=1,2

(4)

(5)

(6)

其中,u為收斂步長,e(n)為預估誤差,u(n)和u(n+1)分別為更新之前和之后的特征向量。在迭代開始之前,g2初始化為單位沖激函數,g1初始化為0。迭代結束之后,分別對g1和g2進行峰值檢測,其峰值位置之差即為麥克風對的時延估計。

1.3時延值篩選

經過時延估計后可得到時延值的整數部分,在進行后續計算之前,需要剔除錯誤的時延值。本文給出了一種時延值篩選算法,它利用時延值之間的相關性,判斷時延估計值是否正確。

以四元麥克風陣列為例,每一次時延估計產生6個時延值,分別是:

(7)

其中τi,j=τi-τj,τi,j是麥克風i相對于麥克風j的時間延遲,τi,τj為聲源信號到達麥克風i和j的時間。

理想情況下,時延值之間的關系可用式(8)和式(9)表示:

τi,k=ti-tk=(ti-tj)+(tj-tk)=τi,j+τj,k

(8)

τi,j=ti-tj=-(tj-ti)=-τj,i

(9)

其中ti表示聲源到達麥克風i的時間。

由于存在時延估計誤差,式(8)左右兩邊只是近似相等,即二者存在一個小的差值。因此可以利用這一特性對時延值進行篩選,剔除錯誤的時延值。具體步驟如下所示:

1) 根據自適應特征值分解算法得到時延值的整數部分;

2) 對于所有麥克風組合Mi、Mj和Mk,其中i,j、k互不相等,計算:

(10)

3) 設定合理的時延值誤差閾值,如果對于所有麥克風組合,式(10)都小于該閾值,那么式(7)通過時延值篩選;否則拋棄這組時延值。

1.4時延值插值

經過時延值篩選后,只能獲得時延估計值的整數部分。為了提高時延估計的精度,需要對自適應特征值分解法中的g2向量進行插值,得到時延估計值的小數部分。

目前比較常用的插值算法有拋物線插值法[13],拋物線插值法計算量小,原理簡單。拋物線插值法得到的峰值點位置為:

(11)

其中(xpeak,ypeak)為插值之前的峰值點坐標,(xleft,yleft)和(xright,yright)分別是峰值點的左相鄰點和右相鄰點,τ為經過拋物線插值之后的峰值位置。

由于拋物線插值法只利用了峰值點的左右相鄰點的信息,因此插值得到的時延值誤差較大。本文對拋物線插值法進行了改進,給出了基于四階多項式的插值法。該算法的步驟如下所示:

1) 分別取峰值點(xpeak,ypeak)的左邊和右邊兩個相鄰點,如圖2所示。將這四個點和峰值點帶入式(12)中:

(12)

求得高階多項式的系數,并得到極大值點。此極大值點的橫坐標即為經過插值的時延值。

2) 對經過插值得到的時延值進行二次篩選,如1.3節所示。

圖2中的實線為g2對應的曲線,虛線為式(12)對應的曲線,三角形標注點為1)中選取的點,圓形標注點為插值之前的峰值點,正方形標注點為插值之后的峰值點。在插值之前,峰值點位于x=206;經過四階多項式插值之后,峰值點的位置位于x=206.37。

圖2 基于四階多項式的插值法示意圖

2 基于時延值冗余的定位算法

實際上,對于四元麥克風陣列來說,一組時延值是存在很多冗余信息的。為了利用這種冗余,得到更加精確的聲源位置,一般的做法[14]是:

1) 分別以每一個麥克風為參考麥克風,得到其他麥克風相對參考麥克風的時延值。

2) 在1)中的時延值的基礎上,推導得到其他時延值。例如,已知τ1,4、τ2,4、τ3,4,利用麥克風之間的幾何關系可得:

(13)

(14)

(15)

因此完整的一組時延值為:

(16)

3) 利用幾何位置定位算法,估計聲源位置。剔除其中不合理的值并求平均值,得到最終的聲源位置。

在上述方法的基礎上,為了更加有效地利用時延值的冗余信息,我們對其進行了兩點改進:

1) 在上述方法中,聲源估計位置是基于最多四組樣本的平均值。由于樣本數太少,估計位置易受異常樣本的干擾。為了獲得更多的聲源位置樣本,每次從一組時延值中取出三個不相關的時延值。根據組合原理,共有16種符合條件的時延值組合。分別對每一種組合進行聲源位置估計,從中剔除錯誤值并求平均值。

2) 幾何位置定位法是基于遠場的一種定位算法,在計算聲源位置的過程中采取了某種近似,而這種近似條件在聲源距離較近時是不成立的[15]。因此在本文中不采用帶近似條件的幾何位置定位法,直接對式(17)-式(19)構成的方程組求解。假設1)中某一組時延值組合為(τi1,j1,τi2,j2,τi3,j3)

(17)

(18)

(19)

其中Ts為對麥克風信號的采樣周期,r是聲源位置,c是聲速,rmi是麥克風mi的位置。

3 系統實現

本實驗在一個7m×8m×3.5m的空間內進行,存在一定的噪聲和混響。麥克風陣列采用四元十字陣,四個麥克風處在同一個平面上,每一個麥克風距離十字陣中心點的距離為25cm,對麥克風信號的采樣頻率為40kHz。

在預處理階段,使用矩形窗進行加窗,每一幀長度為1024個采樣點,幀與幀之間的重疊率為75%;端點檢測采用短時平均能量作為檢測標準。采用自適應特征值分解法進行時延估計,使用基于時延值冗余的定位算法求得聲源位置。

3.1聲源位置對定位結果的影響

分別以四元十字陣的對角線為X軸和Y軸,十字陣中心為原點,建立直角坐標。本實驗聲源位置位于第三象限內,方位角分別為180°, 195°, 210°, 225°, 240°, 255°, 270°。對于每一個方位角,聲源分別在距離麥克風陣列中心0.5、1.0、1.5、2.0、2.5、3.0、3.5、4.0、4.5、5.0、5.5、6.0m的位置,如圖3所示,其中空心點教是麥克風陣列的中心,實心點為聲源擺放的各個位置。

依次將聲源按照圖3中的位置擺放,在每個位置進行30~50次實驗,每次實驗都對聲源的音頻信號進行采集,并使用上述算法得到聲源位置的估計,因此每一個聲源位置對應一組聲源位置的估計。以10°和0.5m作為聲源方位角估計值和距離估計值的最大誤差閾值,剔除誤差超出閾值的數據,然后分別計算這個位置的方位角估計和距離估計的成功率和平均誤差。圖4到圖7為是時延估計通過篩選的情況下,對聲源方位角估計和距離值估計的統計,統計數據包括估計成功率和估計平均誤差。

圖3 麥克風中心位置和聲源位置示意圖

從圖4和圖5可以看到,方位角估計成功率最低為70%, 最高為100%。方位角的平均誤差最低0°,最高為4.4°。在同一方位角下,隨著聲源距離的增加,方位角估計的平均誤差有逐漸減小的趨勢。

圖4 方位角估計成功率與聲源距離、方位角的關系

圖5 估計方位角平均誤差與聲源距離、方位角的關系

從圖6和圖7中可看到,聲源距離估計的成功率與聲源的方位角和距離有關。在同一方位角下,其成功率隨著距離增加呈現迅速衰減的趨勢;在同一距離下,聲源方位角越偏離X或Y坐標軸,即方位角越靠近X軸和Y軸的角平分線,距離估計的成功率越低。聲源距離估計的平均誤差最小為0.03m,最大為0.45m。從圖中可以看到,當聲源方位角與坐標軸(X軸或Y軸)的夾角不超過15°,且聲源距離不超過2.5m時,聲源距離估計能獲得50%以上的成功率。

圖6 聲源距離估計的成功率與聲源距離、方位角的關系

圖7 距離估計平均誤差與聲源距離、方位角的關系

3.2對聲源距離估計結果的分析

在二維定位場景中,麥克風i和j的理想時延與聲源位置的關系如下:

(20)

(21)

其中M=xjDi-xiDj,N=yjDi-yiDj。計算r關于τi,j(i≠j,i,j∈{1,2,3,4})的拉氏算子:

(22)

給定r值,▽2r與θ的關系如圖8所示。從中看到,當聲源的方位角趨近于45°、135°、225°和315°時,▽2r趨近于無窮大。簡而言之,當聲源的方位角靠近上述角度時,極小的時延估計誤差會造成極大的聲源距離估計偏差,導致聲源距離估計的成功率和精度下降。

圖8 ▽2r與θ的關系

3.3時延值插值算法的對比實驗

根據1.3節,時延估計值越精確,式(10)的值越小;同樣的,在麥克風個數為4時,時延估計值越精確,式(23)越小:

(23)

其中:

(24)

1) 采集聲源信號,對多路信號進行去噪,加窗分幀和時延估計,得到時延估計的整數值;

2) 分別使用四階多項式插值法和拋物線插值法對時延估計值進行插值,得到插值之后的時延估計值;

表1 兩種插值法的對比結果

從表1中可以看到,四階多項式插值法的時延估計平均誤差小于拋物線插值法,時延估計的平均誤差減小了8.7%,該實驗說明四階多項式插值法的效果好于拋物線插值法。

3.4定位算法的對比實驗

為了比較第2節中幾何位置定位法和本文給出的定位方法(以下分別簡稱為算法1和算法2)的效果,進行以下實驗:將聲源放置在方位角為270°,距離為3m的位置,進行38次實驗。在每一次實驗中,首先采集聲源信號,再進行小波去噪,加窗分幀,時延估計等操作,最后分別使用算法1和算法2得到各自的聲源位置估計。分別統計采用算法1和算法2的情況下,方位角估計和距離估計的成功率、平均值和平均誤差,實驗結果如表2所示。

表2 算法1和算法2的對比結果

從表2中可看出,使用算法1進行聲源定位的成功率和精度明顯優于算法2,聲源距離估計的平均誤差減小了52.9%。

4 結 語

本文實現了一個基于四元十字陣的聲源定位系統。在實現過程中,首先使用小波去噪算法對語音信號進行預處理,再使用抗干擾能力較強的自適應特征值分解算法進行時延估計,并給出了時延值篩選算法,用于剔除錯誤的時延值。在拋物線插值的基礎上,給出了四階多項式插值法,最后給出了基于時延值冗余的聲源定位算法,估計聲源的方位角和距離。

實驗結果表明,本定位系統對聲源方位角的估計能達到超過70%的成功率,平均誤差小于5°;當聲源在45°、135°、225°和315°方向時,聲源距離估計存在奇點,當聲源方位角與X、Y軸的夾角不超過15°且聲源距離不超過2.5m時,聲源距離估計的成功率達到50%以上。

在時延值插值的對比實驗中,通過四階多項式插值法得到的時延估計平均誤差比拋物線插值法小8.9%;在定位算法的對比實驗中,通過本文給出的定位算法得到的距離估計平均誤差比幾何位置定位法小52.9%。在后續的研究中將致力于提高聲源距離估計的精度,減小聲源實際距離和方位角對距離估計的影響。

[1]KotusJ,LopatkaK,CzyzewskiA.Detectionandlocalizationofselectedacousticeventsinacousticfieldforsmartsurveillanceapplications[J].MultimediaToolsandApplications,2014,68(1):5-21.

[2]ZhongX,WangS,DormanM,etal.Soundsourcelocalizationfromtactileaidsforunilateralcochlearimplantusers[J].TheJournaloftheAcousticalSocietyofAmerica,2013,134(5):4062.

[3] 裴少雄.基于DSP的聲響槍襲定位系統研究[D].南京理工大學,2014.

[4] 張西爽.超音速子彈聲源定位算法的研究與設計[D].北京交通大學,2013.

[5]HahnW,TretterS.Optimumprocessingfordelay-vectorestimationinpassivesignalarrays[J].IEEETransactionsonInformationTheory,1973,19(5):608-614.

[6]KnappC,CarterGC.Thegeneralizedcorrelationmethodforestimationoftimedelay[J].IEEETransactionsonAcoustics,SpeechandSignalProcessing,1976,24(4):320-327.

[7]WangH,KavehM.Coherentsignal-subspaceprocessingforthedetectionandestimationofanglesofarrivalofmultiplewide-bandsource[J].IEEETransactionsonAcoustics,SpeechandSignalProcessing,1985,33(4):823-831.

[8]PourmohammadA,AhadiSM.Realtimehighaccuracy3-DPHAT-basedsoundsourcelocalizationusingasimple4-microphonearrangement[J].SystemsJournal,IEEE,2012,6(3):455-468.

[9]Pertil?P.Acousticsourcelocalizationinaroomenvironmentandatmoderatedistances[D].TampereUniversityofTechnology,2009.

[10]YanH,ZhangY,YangQ.Time-DelayEstimationBasedonCross-CorrelationandWaveletDenoising[C]//Proceedingsof2013ChineseIntelligentAutomationConference.SpringerBerlinHeidelberg,2013:841-848.

[11]ChenJ,BenestyJ,HuangYA.Timedelayestimationinroomacousticenvironments:anoverview[J].EURASIPJournalonAdvancesinSignalProcessing,2006:1-19.

[12]BenestyJ.Adaptiveeigenvaluedecompositionalgorithmforpassiveacousticsourcelocalization[J].TheJournaloftheAcousticalSocietyofAmerica,2000,107(1):384-391.

[13] 趙圣,崔牧凡,尤磊,等.基于小型麥克風陣列的聲源定位技術[J].華中科技大學學報:自然科學版,2013,41(S1):188-191.

[14] 周峰.室內麥克風陣列聲源定位算法研究和實現[D].復旦大學,2009.

[15]LinanZ,PengY,HaoS,etal.Soundsourcetargetlocalizationsystemofmobilerobot[C]//Singapore:11thIEEEInternationalConferenceonControlAutomationRobotics&Vision,2010:2289-2294.

RESEARCHONSOUNDSOURCELOCALISATIONALGORITHMBASEDONMICROPHONEARRAY

LiYangWangHongpeng

(School of Computer Science and Technology,Shenzhen Graduate School,Harbin Institute of Technology,Shenzhen 518055,Guangdong,China) (Shenzhen IOT Key Technology and Application Systems Integration engineering laboratory,Shenzhen 518055,Guangdong,China)

Insoundsourcelocalisation(SSL)systemsbasedontimedelayestimation(TDE),thelocalisationalgorithmisdividedintotwostages:thetimedelayestimationandthesoundsourcelocalisation.ThesuccessrateandprecisionofSSLcouldbeverylowbecausetheestimationerrorinTDEstagewouldbemagnifiedinSSLstage.Proceedingfrom3aspects:rawsignaldenoising,timedelayvalueinterpolationandSLLalgorithm,weimprovedtheprecisionofSSL.Combinedwithaself-designedfour-elementcrossmicrophonearraywepresentedanewtimedelayvaluescreeningalgorithm,andrealisedanindoorSSLsystem.Experimentalresultsshowedthatinscenarioof2-DSSL,thesuccessrateofsoundsourceazimuthestimationinthesystemwasatleast70%,itsmeanerrorwaslessthan5°.Thesuccessrateandprecisionofsoundsourcedistanceestimationwererelatedtorealsoundsourceazimuthanddistance.Whenrealsoundsourcedistancewaslessthan2.5m,andtheincludedanglebetweensoundsourceazimuthandX-Yaxiswasnomorethan15°,thesuccessrateofsoundsourcelocalisationcouldreach50%orhigher.

SoundsourcelocalisationTimedelayscreeningTimedelayredundancyAdaptiveeigenvaluedecompositionWaveletdenoising

2014-10-08。深圳市戰略性新興產業發展專項資金項目(深發改[2013]716號)。李揚,碩士生,主研領域:聲源定位。王鴻鵬,教授。

TP391.4

ADOI:10.3969/j.issn.1000-386x.2016.03.038

主站蜘蛛池模板: 国产黄网站在线观看| 亚洲性网站| 国产成人免费视频精品一区二区| 2020最新国产精品视频| 久久国产精品无码hdav| 亚洲永久精品ww47国产| 国产精品无码翘臀在线看纯欲| 91精品国产情侣高潮露脸| 亚洲 欧美 中文 AⅤ在线视频| 制服无码网站| 成人午夜网址| 92午夜福利影院一区二区三区| 中文字幕无码中文字幕有码在线 | AV不卡在线永久免费观看| 夜精品a一区二区三区| 五月激情综合网| 中文一区二区视频| 色哟哟国产精品| 欧美激情综合一区二区| 99在线国产| 国产香蕉国产精品偷在线观看| 毛片大全免费观看| 亚洲性影院| 91区国产福利在线观看午夜| 国产精品视频免费网站| 在线五月婷婷| 久草中文网| 精品久久久久成人码免费动漫 | 国产精品午夜福利麻豆| 日本不卡免费高清视频| 日本午夜网站| 亚洲免费播放| 欧美一区二区三区香蕉视| 毛片网站在线播放| 亚洲欧洲天堂色AV| 国产成人精品第一区二区| 国产凹凸视频在线观看| 国产剧情一区二区| 福利在线不卡| 国产午夜看片| 国产午夜精品一区二区三| 青青草国产在线视频| 中国国产高清免费AV片| 国产成人久久综合777777麻豆| 久久久久久国产精品mv| 日韩天堂在线观看| 日韩激情成人| 女高中生自慰污污网站| 丰满的少妇人妻无码区| 精品免费在线视频| 久久青草视频| 丰满人妻久久中文字幕| 天堂网亚洲系列亚洲系列| 国产在线97| 国产一区二区人大臿蕉香蕉| 国产亚洲视频免费播放| 成人免费黄色小视频| 91精品日韩人妻无码久久| 又爽又大又黄a级毛片在线视频| 狠狠色丁婷婷综合久久| 国产成人精品一区二区| 欧美视频免费一区二区三区| 欧美三級片黃色三級片黃色1| 国产中文在线亚洲精品官网| 亚洲免费人成影院| 中文字幕自拍偷拍| 欧美日韩中文字幕二区三区| 日本黄色不卡视频| 亚洲天堂视频在线免费观看| 欧美另类第一页| 97国产精品视频自在拍| 成人小视频网| 亚洲国产综合精品一区| 亚洲制服丝袜第一页| 91系列在线观看| 国产99精品视频| 精品久久久无码专区中文字幕| 亚洲熟女中文字幕男人总站| 不卡视频国产| 99ri精品视频在线观看播放| 中日韩一区二区三区中文免费视频| 熟妇人妻无乱码中文字幕真矢织江 |