999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種低信噪比條件下的高可懂度的語音增強算法

2016-11-08 08:42:15馬建芬張雪英
計算機應用與軟件 2016年10期
關鍵詞:方法

孟 欣 馬建芬 張雪英

(太原理工大學計算機科學與技術學院 山西 太原 030024)

?

一種低信噪比條件下的高可懂度的語音增強算法

孟欣馬建芬*張雪英

(太原理工大學計算機科學與技術學院山西 太原 030024)

研究表明,增強后的語音與純凈語音相比,會存在兩種不同類型的畸變:放大畸變和衰減畸變,而放大畸變對語音可懂度的影響較大。傳統的語音增強算法大多不能有效提高語音增強后的可懂度,因為這些算法僅使用最小均方誤差的方法來限制這兩種畸變,從而抑制噪聲,提高語音的質量,但忽略了不同的畸變類型對可懂度的影響不同。提出一種基于子空間的提高可懂度的語音增強算法,使用先驗信噪比及增益矩陣來判斷語音畸變的類型。同時注意到,在估計先驗信噪比時會存在估計誤差:高估和低估,而高估會產生放大畸變,對可懂度造成較大的影響。先對高估先驗信噪比(小于-10dB)的增益矩陣進行修正,然后再對幅度譜畸變大于0dB及6.02dB的語音進行不同的限制。實驗表明,所提出的算法能夠有效增強語音的可懂度。

子空間語音可懂度語音畸變先驗信噪比增益矩陣

0 引 言

語音增強所關心的問題是改善加噪語音的感性性能,目的是提高加噪語音的質量和可懂度。在長時間聽一段語音時,聽者的疲勞度會增加,提高語音質量可以降低聽者的疲勞度。所以到目前為止,很多算法(包括譜減法、維納濾波算法、統計模型算法及子空間法)都致力于提高語音的質量,且它們都能在一定程度上提高語音的質量。但它們都不能有效地提高語音的可懂度[1],因為它們都是使用最小均方誤差的方法來抑制噪聲。實際上,增強后的語音與純凈語音相比存在兩種畸變:放大畸變和衰減畸變。放大畸變指的是語音增強后的幅度譜大于相對應的純凈語音的幅度譜;衰減畸變正相反,指的是語音增強后的幅度譜小于相對應的純凈語音的幅度譜。研究表明[2],不同的畸變類型對可懂度的影響不同。最小均方誤差的方法把放大畸變和衰減畸變混在一起計算平均誤差,忽略了不同的畸變類型給可懂度帶來的影響。

近年來,很多研究都致力于通過減少語音畸變來提高語音增強的性能,包括改進的子空間法[3]、改進的譜減法[4]、改進的維納濾波算法[5]、基于統計的方法(包括使用壓縮感知[6]和非負矩陣分解[7]等)以及深度神經網絡(DNN)的方法[8]。文獻[3-5]是基于傳統子空間法、譜減法和維納濾波方法的改進,這些方法能在一定程度上提高語音的可懂度,但均只考慮了放大畸變大于6.02dB時對可懂度的影響。經實驗驗證,這些方法只有在實驗數據量較少時能夠提高少量加噪語音的平均可懂度,在實驗數據較多時并沒有明顯提高語音的平均可懂度。而文獻[6-8]中的方法雖然采用了先進的技術,但復雜度明顯提高且可懂度并沒有很大程度提高。

本文利用“直接判決”法[10,11]估計先驗信噪比,在估計先驗信噪比時會存在兩種不同類型的誤差[9,12]:高估和低估。高估指的是使用增強算法時估計的先驗信噪比高于理想條件下的先驗信噪比,低估指使用增強算法估計時先驗信噪比低于理想條件下的先驗信噪比。在文獻[9]中采用聚類的方法減少“直接判決”法引入的高估和低估,但復雜度也明顯提高。在文獻[12]中通過限制先驗信噪比小于-10db區域的高估同樣能有效提高語音的可懂度。

為了減少復雜度,本文提出了一種改進的基于子空間的方法。但不同于文獻[3-5]中的方法,本文討論了所有放大畸變對可懂度的影響,并采用文獻[12]中的方法,對先驗估計信噪比進行修正,從而獲得更高可懂度的語音增強算法。在實驗中使用大量的實驗數據證明本文提出的算法能夠更有效提高可懂度。

1 子空間語音增強算法

假設噪音信號為x,純凈語音信號為s,噪聲信號為n,且s與n互不相關,即:

x=s+n

(1)

其中x、s、n都是K維的信號矢量。

定義:

(2)

其中R·表示相應的信號矢量的協方差矩陣。對Σ進行特征分解:

ΣV=VΛΣ

(3)

式中V和ΛΣ分別代表Σ的特征向量和特征值。此處假設Σ的特征值按照λΣ(1)≥λΣ(2)≥…≥λΣ(k)排序,估計語音信號子空間的維度定義為:

(4)

(5)

條件:

(6)

通過特征值分解以及代換處理[13,14],可以得到第m幀的增益矩陣的第k個對角線元素為:

(7)

其中μ可以通過如下公式計算得到[15]:

(8)

其中μ0=4.2,s0=6.25。SNRdB(k,m)為第m幀第k個譜分量的信噪比,記相應的后驗信噪比為γ(k,m),則SNRdB(k,m)=10lgγ(k,m),其中:

(9)

記先驗信噪比為ξ(k,m),可以由“直接判決”法[10,11]計算:

(10)

其中:a表示平滑系數,一般為0.8~1,此處取0.98。

2 修 正

在估計先驗信噪比時,存在高估和低估,文獻[9,12]中對高估和低估產生的區域及其對可懂度產生的影響進行了實驗說明。通過對比真實信噪比和先驗信噪比的值,得出在小于-10dB時,高估的情況較多。并通過試聽測試,對比說明了高估時對可懂度的影響較大。

本文充分利用該技術,先對本算法的增益矩陣進行修正,即通過文獻[12]的人工引入偏差方法對先驗信噪比小于-10dB區域的增益矩陣進行修正,來提高可懂度:

gw(k,m)=(1-B)·g(k,m)+B20lg(ξ(k,j))<-10dB

(11)

其中,B為引進的修正系數。在本文中,分別對B取0.1、0.2、0.3、0.5、0.6、0.7、0.9,結果顯示B取0.2時得到的效果最好。

3 高可懂度算法

設第m幀第k個譜分量的純凈信號與增強信號比為:

(12)

將式(12)進行推導:

(13)

根據不同的放大區域對幅度譜進行限制:

(14)

實驗中,根據不同放大倍數對ρ(k,m)進行了從0.5~1的以0.05為增幅的遞增取值,共進行了10×10,即100組實驗。根據實驗顯示,當0.5

(15)

(16)

根據本文所述的思路,可以通過如下步驟得到增強后的語音信號:

(1) 計算出后驗信噪比γ(k,m),見式(9);

(2) 計算出系數μ,見式(8);

(3) 計算出修正高估后增益矩陣的第m幀第k個對角元素gw(k,m),見式(7)和式(11);

(4) 估計先驗信噪比ξ(k,m),見式(10);

(5) 估計純凈信號與噪音信號比SNRs/e,見式(13);

4 實驗結果及分析

本文使用Matlab仿真驗證語音可懂度算法的增強效果。噪聲信號來源于Noisex-92噪聲庫中的4種噪音,分別為babble、car、street、train。純凈句子語音信號來自IEEE句子語音庫的全部720組句子,純凈輔音信號來自IEEE輔音庫的全部30組輔音。純凈語音及噪音的采樣率均為8KHz,量化精度為16bit。

研究表明,經過增強算法增強過的語音與加噪未增強的語音相比,可懂度會降低,最好的情況就是持平,且子空間法是所有增強算法中效果最好的一種增強算法[1]。所以本文選用子空間法和加噪未增強與本文的增強算法進行對比。

本文對720組純凈句子語料分別在信噪比為-5dB,0dB及5dB的情況下進行加噪。在同一組信噪比條件下,分別使用加噪未增強、子空間算法和本文算法對加噪語音進行處理。同一種信噪比下的同一種類型噪聲經過同一種降噪處理可以得到1種測試條件,再將這種測試條件下的720組句子的客觀可懂度的平均值作為最終的可懂度值。這樣的測試條件共有3×4×3,即36種。本文對30組純凈輔音語料分別在-15、-10、-5及5dB的情況下進行加噪。與句子相同,在同一組信噪比條件下,分別使用加噪未增強、子空間算法和本文算法對加噪語音進行處理。這樣,測試條件共有4×4×3,即48種。

〗本文的可懂度測試采用NCM(歸一化協方差法)[17]。該方法對于句子來說,與主觀可懂度評價的相關度系數值r=0.89,標準偏差σe=0.07。相關系數值越大,說明與主觀可懂度評價越相近,評價越精確。對于輔音來說,與主觀可懂度評價的相關系數值r=0.77,標準差σe=0.08。相對于PESQ來說,對于句子而言,該方法整體優于PESQ,對于輔音而言,該方法與PESQ持平,所以最終選擇NCM方法。

句子和輔音的客觀評價結果分別如表1、表2所示。

表1 句子NCM值

表2 輔音NCM值

NCM值越大,可懂度越高。由表1和表2可以看出,對高估先驗信噪比進行修正,對不同放大區域進行分段限制對于信噪比較低,尤其是信噪比為負值的加噪語音影響較大,這也進一步驗證了猜想。與傳統的子空間方法相比,本文提出的算法能夠在負信噪比時較大程度提高語音的可懂度,且與加噪未增強的噪音相比,可懂度也明顯提高。

5 結 語

本文首先論述了現今很多算法都是利用最小均方誤差的方法進行語音增強,忽略了不同語音畸變區域對可懂度的影響,繼而闡述了不同畸變區域對可懂度的影響不同。在估計先驗信噪比時,會存在高估和低估,所以首先對小于-10 dB區域內的增益矩陣高估進行修正。為了驗證猜想,在頻域上約束子空間的特征分解法的基礎上,使用先驗信噪比和增益矩陣對不同的語音畸變區域(大于0 dB和大于6.02 dB)分段進行了限制。經過Matlab實驗仿真結果可知,本文提出的算法確實能夠有效地減小先驗信噪比高估,降低畸變對語音的影響,提高了語音的可懂度。

[1] Hu Y,Loizou P C.A comparative intelligibility study of single-microphone noise reduction algorithms[J].Journal of the Acoustical Society of America,2007,122(3):1777-1786.

[2] Loizou P C,Kim G.Reasons why current speech-enhancement algorithms do not improve speech intelligibility and suggested solutions[J].IEEE Transactions on.Audio,Speech and Language Processing,2011,19(1):47-56.

[3] 劉鵬,馬建芬.具有較高可懂度的子空間語音增強算法[J].計算機工程與設計,2013,34(7):2619-2622.

[4] Yang Y X,Ma J F.Speech Intelligibility Enhancement Using Distortion Control[J].Advanced Materials Research,2014,912-914:1391-1394.

[5] 郭利華,馬建芬.具有高可懂度的改進的維納濾波的語音增強算法[J].計算機應用與軟件,2014,31(11):155-157.

[6] Sharma P,Abrol V,Sao A K.Supervised speech enhancement using compressed sensing[C]//Communications (NCC),2015 Twenty First National Conference on.IEEE,2015:1-5.

[7] Kwon K,Shin J W,Sonowat S,et al.Speech enhancement combining statistical models and NMF with update of speech and noise bases[C]//Acoustics, Speech and Signal Processing (ICASSP), 2014 IEEE International Conference on. IEEE,2014:7053-7057.

[8] Xu Y,Du J,Dai L R,et al.A Regression Approach to Speech Enhancement Based on Deep Neural Networks[J].Audio,Speech and Language Processing,IEEE/ACM Transactions on,2015,23(1):7-19.

[9] Djendi M,Scalart P.Reducing over- and under-estimation of the a priori SNR in speech enhancement techniques[J].Digital Signal Processing,2014,32:124-136.

[10] 張亮,龔衛國.一種改進的維納濾波語音增強算法[J].計算機工程與應用,2010,46(26):129-131.

[11] Lu Y,Loizou P C.Speech enhancement by combining statistical estimators of speech and noise[C]//Proceedings of IEEE International Conference on Acoustics,Speech and Signal Processing,2010:4754-4757.

[12] Chen F,Loizou P C.Impact of SNR and gain-function over- and under-estimation on speech intelligibility[J].Speech Communication,2012,54(2):272-281.

[13] 武奕峰,賈海蓉,郭欣.用子空間提高有色噪聲背景下的語音質量[J].太原理工大學學報,2015,46(2):192-195.

[14] 陳國明,趙力,鄒采榮.窄帶噪聲下的子空間語音增強算法[J].應用科學學報,2007,25(3):243-246.

[15] Hu Y,Loizou P C.A generalized subspace approach for enhancing speech corrupted by colored noise[J].Speech and Audio Processing,IEEE Transactions on,2003,11(4):334-341.

[16] Loizou P C,Ma J.Extending the articulation index to account for non-linear distortions introduced by noise-suppression algorithms[J].Journal of the Acoustical Society of America,2011,130(2):986-995.

[17] Ma J,Hu Y,Loizou P C.Objective measures for predicting speech intelligibility in noisy conditions based on new band-importance functions[J].Journal of the Acoustical Society of America,2009,125(5):3387-3405.

ASPEECHENHANCEMENTALGORITHMWITHHIGHINTELLIGIBILITYUNDERLOWSNRCONDITION

MengXinMaJianfen*ZhangXueying

(CollegeofComputerScienceandTechnology,TaiyuanUniversityofTechnology,Taiyuan030024,Shanxi,China)

Researchshowsthatcomparedwithpurespeech,therewillbetwotypesofdistortioninenhancedspeech:theamplifierdistortionandtheattenuationdistortion,andtheamplifierdistortionhasabiggerinfluenceonthespeechintelligibility.Mostoftraditionalspeechenhancementalgorithmscannoteffectivelyimprovetheintelligibilityafterthespeechbeingenhanced,becausetheyonlyusetheminimummeansquareerrormethodtolimitthesetwokindsofdistortionsforsuppressingnoiseandimprovingthequalityofthespeech,butneglectthedifferentdistortionshavingdifferenteffectsonintelligibility.Thispaperproposesasubspace-basedspeechenhancementalgorithmwhichcanimprovetheintelligibility,itusespriorisignal-to-noiseratio(SNR)andgainmatrixtojudgethetypeofspeechdistortion.Atthesametime,itisnoticedthatwhenestimatingtheprioriSNR,thereistheestimationerror:overestimationandunderestimation.Theoverestimationwillproduceamplifierdistortion,andhasabiginfluenceontheintelligibility.WefirstcorrectthegainmatrixoftheoverestimatedprioriSNR(lessthan-10dB),andthenmakedifferentrestrictionsonthespeecheswithamplitudespectrumdistortiongreaterthan0dBand6.02dBseparately.Experimentalresultsshowthattheproposedalgorithmcaneffectivelyenhancetheintelligibilityofthespeech.

SubspaceSpeechintelligibilitySpeechdistortionPrioriSNRGainmatrix

2015-06-23。國家自然科學基金項目(61371193)。孟欣,碩士生,主研領域:語音信號處理。馬建芬,教授。張雪英,教授。

TP

ADOI:10.3969/j.issn.1000-386x.2016.10.032

猜你喜歡
方法
中醫特有的急救方法
中老年保健(2021年9期)2021-08-24 03:52:04
高中數學教學改革的方法
河北畫報(2021年2期)2021-05-25 02:07:46
化學反應多變幻 “虛擬”方法幫大忙
變快的方法
兒童繪本(2020年5期)2020-04-07 17:46:30
學習方法
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
最有效的簡單方法
山東青年(2016年1期)2016-02-28 14:25:23
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 精品久久人人爽人人玩人人妻| 国产成人精品一区二区不卡| 伊人色综合久久天天| 99热国产在线精品99| 国产粉嫩粉嫩的18在线播放91| 污视频日本| 99久久精彩视频| 怡春院欧美一区二区三区免费| 欧美视频在线观看第一页| 97在线碰| 亚洲熟妇AV日韩熟妇在线| 国产精品hd在线播放| 九九线精品视频在线观看| 91久久夜色精品国产网站| 久久国产精品波多野结衣| 97青青青国产在线播放| 国产欧美中文字幕| 97青青青国产在线播放| 免费a在线观看播放| 国产凹凸视频在线观看| 亚洲第一色视频| 日韩av资源在线| 亚洲成人一区二区| 全裸无码专区| 一级毛片免费高清视频| 全免费a级毛片免费看不卡| 日韩欧美网址| 欧美一级99在线观看国产| 人妻丰满熟妇αv无码| 成色7777精品在线| 精品成人免费自拍视频| 日本亚洲成高清一区二区三区| 人妻无码中文字幕第一区| 国产不卡网| 亚洲中文字幕日产无码2021| 国产特一级毛片| 国产噜噜噜视频在线观看| 2021精品国产自在现线看| 国产在线97| 午夜精品福利影院| 伊人久久福利中文字幕| 精品久久久久成人码免费动漫| 久久美女精品| 中国国产A一级毛片| 1769国产精品视频免费观看| 免费人欧美成又黄又爽的视频| 亚洲精品亚洲人成在线| 538精品在线观看| 日本福利视频网站| 国产成人1024精品| 亚洲视频欧美不卡| 美女毛片在线| 久久精品免费国产大片| 亚洲IV视频免费在线光看| 午夜福利视频一区| 中文字幕日韩视频欧美一区| 精品国产女同疯狂摩擦2| 亚洲人成网站色7777| 中文无码精品A∨在线观看不卡| 二级特黄绝大片免费视频大片| 日韩av手机在线| 日韩小视频网站hq| 色网在线视频| 91精品免费高清在线| 亚洲水蜜桃久久综合网站| 国产微拍一区二区三区四区| 国产aⅴ无码专区亚洲av综合网| 国语少妇高潮| 久久动漫精品| 亚洲无码精品在线播放| 一级爱做片免费观看久久| 国产黑丝视频在线观看| 露脸国产精品自产在线播| 久久国产成人精品国产成人亚洲| 欧美一级在线看| 无码国产偷倩在线播放老年人| 天堂成人在线视频| 久久久久亚洲av成人网人人软件| 91精品视频在线播放| 国产激情第一页| 亚洲免费福利视频| 亚洲高清日韩heyzo|