999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于生成對抗網絡的語音增強算法研究*

2018-06-05 11:46:05徐志京
網絡安全與數據管理 2018年5期
關鍵詞:信號模型

柯 健,徐志京

(上海海事大學 信息工程學院,上海 201306)

0 引言

語音一直是人與人之間交流與信息共享的主要方式,為人們的日常生活帶來了極大的便利。然而社會環境是一個復雜的客體,時常會伴隨著各種復雜的背景噪聲,對語音清晰度產生極大影響[1]。語音增強的目的主要是從帶噪語音中提取純凈語音或者去除復雜的背景噪聲,以提高語音清晰度和可懂度[2]。

對語音增強的研究開始于20世紀60年代,傳統語音增強算法主要有維納濾波法、譜減法、最小均方誤差法、子空間法等,該類方法大多需要依賴于對噪聲的估計,因此噪聲估計在傳統語音增強方法研究中尤為重要。傳統的語音增強算法原理簡單,實現容易,但是由于對噪聲譜的估計不準,導致存在“音樂”噪聲。維納濾波算法雖然有效解決了該問題,使殘留噪聲近似于白噪聲,不再是音樂噪聲,輸出語音聽起來更加悅耳,但維納濾波器是基于最小均方誤差估計,在處理非平穩噪聲信號上效果不理想,容易造成語音失真。

隨著神經網絡的迅速發展,越來越多的神經網絡模型也被應用到語音增強算法中,為語音增強算法帶來新的可能。深度神經網絡的隱含層數目多,而且隱含層的傳遞函數是非線性函數,可以更好地提取語音信號中的結構化信息和高維信息,具有更強大的表達與建模能力,但是其泛化能力有待提升。傳統的語音增強算法中認為人耳對于相位并不敏感,故忽略了相位在語音增強中的作用性,然而2013年Martin Krawczyk等人[3]研究表明相位在提高語音質量上同樣具有重要作用。因此,本文提出一種端到端的語音增強方法,采用生成對抗網絡(Generative Adversarial Network,GAN),無需提取復雜的語音特征,保留原始特征,進一步有效提高語音質量。

1 維納濾波算法

維納濾波算法是基于最小均方誤差估計的線性濾波算法[4],假設輸入為平穩隨機過程,且它的統計特性已知,求解維納-霍夫方程即可得到最佳濾波器的沖擊響應。

圖1為維納濾波語音增強在時域上的算法圖,輸入含噪聲信號為:

y(t)=x(t)+n(t)

(1)

其中x(t)為純凈語音信號,n(t)為加性噪聲信號,對式(1)進行傅里葉變換得到:

Y(t,k)=X(t,k)+N(t,k)

(2)

式(2)為第t幀、第k頻譜上的輸入信號頻域表示。輸入信號經過譜估計器h(t)得到增強信號s(t),其估計過程如下:

(3)

e(t)=x(t)-s(t)

(4)

E[e2(t)]=E[(x(t)-s(t))2]

(5)

其中,式(4)表示輸出信號與預期信號之間的誤差,式(5)為該誤差的均方估計,對其進行求導,可獲得濾波系統h的最優均方誤差,得出維納增益為:

(6)

其中ξ(t,k)表示先驗信噪比。

S(t,k)=H(t,k)·Y(t,k)

(7)

式(7)通過H(t,k)與Y(t,k)相乘得到增強語音信號的頻譜估計,再利用傅里葉反變換即可得到增強語音信號時域波形。

圖1 維納濾波語音增強時域算法圖

2 生成對抗網絡算法

生成對抗網絡啟發自博弈論中的二人零和博弈,由GOODFELLOW I J于2014年提出[5],此后在圖像生成方面成績顯著,并在圖像處理、語音識別和自然語言處理等領域中有著廣泛應用。生成對抗網絡是一種生成式模型,學習服從某種分布Z的樣本z映射為服從另一種分布X的樣本x,其博弈雙方為生成模型(generative model)和判別模型(discriminative model),學習的過程就是兩者相互對抗的過程,對抗的最終目標是獲得納什均衡,即生成器生成近似真實樣本分布,判別器無法辨出真假。

圖2為生成對抗網絡算法框圖,定義輸入的隨機噪聲z服從Pz(z)分布(高斯分布、均勻分布等),生成模型G是一個多層感知機,用來捕捉樣本數據的分布,輸出G(z)表示生成模型的生成樣本,訓練目標是生成近似于真實樣本的假樣本,其損失函數表示為:

log(1-D(G(z)))

(8)

圖2 GAN算法框圖

在生成模型后再接上一個多層感知機,作為判別模型D,它可以看作是一個二分類器,輸入為來自生成模型的假樣本G(z)和真實樣本x,輸出為D(x)。D(x)表示判斷真假樣本的概率,其目標是揪出G模型生成的假樣本,并判別輸出結果D(G(z))概率為0,對于真實樣本,判別輸出結果D(x)概率為1。其損失函數表示為:

-(log(D(x))+log(1-D(G(z))))

(9)

兩者在訓練過程中性能不斷得到優化,判別模型D的判別能力越來越強,生成模型G的生成樣本愈加真實,該網絡的代價函數表示為:

Ez~p(z)[log(1-D(G(z)))]

(10)

當最終D(G(z))=0.5時,即判別模型無法對輸入數據做出判決,可以認為生成模型模擬出了近似于真實樣本的分布。

3 基于GAN的語音增強算法

本文通過設置對抗網絡來進行語音增強,輸入原始語音信號,輸出增強語音信號。生成模型G結構設置為全卷積神經網絡(Fully Convolutional Networks, FCN),全卷積神經網絡由卷積神經網絡發展而來,與經典卷積神經不同,全卷積神經網絡取消了最后一層用于得到固定長度的特征向量進行分類的全連接層,轉而采用偏置卷積對最后一個卷積層的特征圖進行上采樣,使它恢復到原始輸入尺寸,因此全卷積神經網絡可以接受任意尺寸的輸入。

圖3為全卷積神經網絡結構圖,在卷積階段,輸入信號通過多個卷積層和池化層被降維壓縮,每N步就會得到一個卷積結果,并且每層使用校正線性單元(The Rectified Linear Unit, ReLU)[6]作為激活函數,之所以選擇該激活函數是因為在反向傳播過程中,ReLU減輕了語音訓練過程中梯度彌散。圖4為生成模型G的訓練結構圖,生成模型G的網絡結構是一個端到端的對稱結構,類似于自動編碼器的編碼和解碼過程。本文使用16 kHz對原始語音進行上采樣,經過N個濾波器得到卷積結果c,并與潛在特征向量z連接,此時目標函數可表示為:

(11)

圖3 全卷積神經網絡結構圖

圖4 生成模型G的訓練結構圖

為了穩定訓練并提高G中生成的樣本的質量,本文使用改進的生成對抗網絡,將目標函數的交叉熵損失函數用最小二乘代替,則生成模型G損失函數表示如下:

(12)

同時為減小誤差損失,本文采用L2范數防止訓練出現過擬合,提升網絡的泛化能力,生成模型G的損失函數更新如下:

(13)

偏置卷積過程為卷積過程的逆過程,包括上采樣和跳躍連接結構[7]。傳統的池化會縮小樣本尺寸,使一些細節信息丟失,通過上采樣恢復原始尺寸,可以保留更詳細的信息。跳躍連接結構用來優化輸出,保證輸出結果更加精細。

4 實驗設置

4.1 數據集設置

所有的實驗都是基于TIMIT語音數據集構建的[8],本文使用了320條純凈語音數據集,其中男女生語音各一半;噪聲數據集來自加性噪聲和9種來自Aurora2(Pearce et al.,2000)[9]的噪聲數據集,其中每種噪聲信噪比分為15 db,10 db,5 db,0 db,-5 db 5個等級。在訓練集中將280條純凈語音數據與各種類型噪聲數據相加來構建多種條件的訓練語音數據集。在測試集中,選取另5種噪聲數據集與40條純凈語音數據相加來構建不同條件的測試集。

4.2 實驗設置

本文所有的語音信號均采用16 kHz下采樣,相應幀長設置為1 s,幀移為500 ms,采樣點數為16 384,在訓練和測試過程中均使用預加重系數a為0.95的預加重濾波器對輸入語音進行預處理。

在訓練階段,本文的訓練樣本由兩部分組成,如圖5所示,第一部分是判別模型D的輸入為噪聲信號和純凈語音信號的合成,輸出標記為1,第二部分判別模型D的輸入為生成模型G生成的增強語音信號,輸出是假樣本并標記為0。本文設置訓練模型學習率(learning rate, lr)為0.000 2,批尺寸(batch-size)為150,訓練周期為150次。

圖5 基于生成對抗網絡語音增強結構圖

生成模型G網絡結構的卷積部分由11個卷積層構成,步長為2,輸入服從N(0,1)的標準正態分布作為隨機噪聲z,維度和深度均為256,特征圖的個數隨著濾波器個數的增加而增加,每層卷積特征圖數增加一倍,樣本數減小一倍。如前所述,反卷積階段與卷積過程相反,參數相同。

判別模型D的網絡結構與生成模型G的卷積階段結構類似,是一個二分類卷積神經網絡,判別模型D有兩個輸入為16 384×1維的通道,每層卷積層使用參數α為0.3的Leaky-ReLU非線性激活函數。

4.3 實驗結果

語音增強的評價標準主要分為主觀評價和客觀評價。本文采用的是客觀評價法,客觀評價是目前使用比較廣泛的一種方法,本文選取分段信噪比(Segmental SNR,SSNR)和語音質量聽覺評估(Perceptual Evaluation of Speech Quality, PESQ)兩種方法對模型進行評估。分段信噪比(SSNR)計算公式如(14)所示:

SSNR=

(14)

其中,l(l=0,1,…,L)表示幀號,L為總的幀數,N為窗長。分段信噪比(SSNR)越大,語音質量越高[10]。

語音質量聽覺評估(PESQ)是語音質量評價中的一種典型算法,受到廣泛使用,與主觀評價相似度較高[11],其采用的是線性評分制度,數值在-0.5~4.5之間,表示輸入測試語音與輸出語音相比語音質量的高低,分數越高,語音質量越好。

本文選取5種不同類型的噪聲數據集與40條純凈語音數據相加構建不同條件的測試集對該生成對抗網絡進行評估。對測試集的處理與輸入模型中的方法相同,用測試集驗證方法的準確性。表1為客觀評價結果,其中,Noisy表示原始語音信號,Winner表示使用維納濾波算法的語音增強信號,Gan表示使用生成對抗網絡算法的語音增強信號。為便于分析,將本文算法與傳統方法中的維納濾波語音增強方法相比較,從表1可以看出,生成對抗網絡的PESQ分數相比較于傳統的維納濾波算法略高0.97%,而在分段信噪比上生成對抗網絡要比維納濾波算法高15.91%,實驗表明使用生成對抗網絡進行語音增強可懂度略微提高,語音信號的清晰度較好,進一步驗證了本文提出方法的可行性和有效性。

表1 客觀評價結果

5 結論

本文以一種新的方法實現了語音增強,不同于傳統的基于譜估計算法和深度神經網絡算法,本文采用一種端到端的語音增強算法,利用對抗方式生成增強語音信號,保留原始語音信號時域上的相位細節信息,對生成對抗網絡在語音增強領域做了初步探索。通過實驗表明,該方法不僅可行,并可以有效替代傳統流行方法,得到更好的增強性能。

由于本文采用生成對抗網絡模型,在訓練過程中存在一些新的問題。首先,在對數據集的選取上,噪聲類型不夠全面,語音數量較少,以后可以進一步擴大數據庫,進行相應的研究。其次,未來在對生成對抗網絡結構優化上還需進一步研究。

[1] LOIZOU P C. Speech Enhancement:theory and pratice (2nd ed)[M]. Boca Raton, FL, USA:CRC Press, Inc., 2013.

[2] YANG L P, FU Q J. Spectral subtraction-based speech enhancement for coghlear implant patients in background noise[J]. Journal of the Acoustical Society of America, 2005, 117(3): 1001-1004.

[3] PALIWAL K, WJCICKI K, SHANNON B, The importance of phase in speech enhancement[J]. Speech Communication, 2011, 53(4):465-494.

[4] LIM J S, OPPENHEIM A V. Enhancement and bandwidth compression of noisy speech[J]. Proceedings of the IEEE, 1978, 67(12):1586-1604.

[5] GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C]. Advances in Neural Information Processing Systems(NIPS), 2014: 2672-2680.

[6] HE K, ZHANG X, REN S,et al. Delving deep into rectifiers: surpassing human-level performance on imagenet classification[J]. Proceedings of the IEEE International Conference on Computer Vision(ICCV), 2015: 1026-1034.

[7] RADFORD A, METZ L, CHINTALA S. Unsupervised representation learning with deep convolutional generative adversarial networks[J]. arXiv preprint arXiv:1511.06434, 2015.

[8] GAROFOLO J S. Getting started with the DARPA TIMIT CD-ROM: an acoutic phonetic continuous speech database[J]. National Institute of Standards and Technology(NIST), Gaithersburgh, MD, 1988, 107: 16.

[9] PEARCE D, HIRSCH H G. The aurora experimental framework for the performance evaluation of speech recognition systems under noisy confitions[C]//Proceedings of the 6th International Conference on Spoken Language Processing, 2000:29-32.

[10] DELLER J R, HANSEN J H L. Discrete-time processing of speech signals (2nd ed)[M]. New York: IEEE Press, 2000.

[11] RIX A W, BEERENDS J G, HOLLIER M P, et al. Perceptual evaluation of speech quality(PESQ)-a new method for speech quality assessment of telephone networks and codecs[C]//ICASSP. IEEE Computer Society, 2001:749-752.

猜你喜歡
信號模型
一半模型
信號
鴨綠江(2021年35期)2021-04-19 12:24:18
重要模型『一線三等角』
完形填空二則
重尾非線性自回歸模型自加權M-估計的漸近分布
孩子停止長個的信號
3D打印中的模型分割與打包
基于LabVIEW的力加載信號采集與PID控制
一種基于極大似然估計的信號盲抽取算法
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 国产精品污视频| 欧美三級片黃色三級片黃色1| 99在线国产| 一级毛片免费观看不卡视频| 成年人免费国产视频| 香蕉网久久| 色丁丁毛片在线观看| 波多野结衣爽到高潮漏水大喷| 亚洲欧洲日韩综合色天使| 天天综合网色中文字幕| 91九色最新地址| 97青青青国产在线播放| 亚洲欧美日韩中文字幕一区二区三区| 日韩av无码精品专区| 日韩二区三区| 99精品国产自在现线观看| 激情综合五月网| a级毛片毛片免费观看久潮| 国产9191精品免费观看| 亚洲成人动漫在线| 伊人色在线视频| 日韩在线网址| 午夜精品久久久久久久无码软件| 麻豆精品国产自产在线| 日韩黄色在线| 91在线国内在线播放老师| 午夜人性色福利无码视频在线观看 | 成人在线欧美| 自拍中文字幕| 日韩午夜福利在线观看| 人人91人人澡人人妻人人爽| 一级毛片免费的| 国内精品91| 日韩精品专区免费无码aⅴ| 天天干天天色综合网| 欧美精品在线视频观看| 国产免费网址| 三级视频中文字幕| 国产成人1024精品下载| 国产成人免费| 噜噜噜久久| 精品色综合| 国产真实自在自线免费精品| 欧美亚洲第一页| 国产偷倩视频| 在线视频亚洲欧美| 国产色爱av资源综合区| 久青草国产高清在线视频| 国产高清国内精品福利| 国产在线一区视频| 亚洲欧美另类日本| 91无码网站| 亚洲欧美国产五月天综合| 丰满少妇αⅴ无码区| 日韩欧美在线观看| 五月天天天色| 久久精品91麻豆| 国产在线视频自拍| 亚洲欧美不卡中文字幕| 亚洲三级视频在线观看| 2020极品精品国产 | 中文国产成人精品久久一| 天堂成人在线| 91亚洲精选| 日韩欧美国产中文| 伊在人亞洲香蕉精品區| 人妻一区二区三区无码精品一区 | 欧美h在线观看| 国产高清在线观看| 五月天久久婷婷| 伊人AV天堂| 人妻丰满熟妇AV无码区| 国产视频自拍一区| 婷婷综合在线观看丁香| 国产日本欧美在线观看| 超碰aⅴ人人做人人爽欧美 | 国产91导航| 亚洲日韩国产精品综合在线观看| 91在线激情在线观看| 成人国产精品网站在线看| 国产亚洲欧美日韩在线一区| 伊人久久福利中文字幕|