999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于MAP+CMLLR的說話人識別中發聲力度問題

2017-05-24 14:45:22黃文娜彭亞雄
計算機應用 2017年3期
關鍵詞:方法模型

黃文娜,彭亞雄,賀 松

(貴州大學 大數據與信息工程學院,貴陽 550025) (*通信作者電子郵箱yxpeng68 @163.com)

基于MAP+CMLLR的說話人識別中發聲力度問題

黃文娜,彭亞雄*,賀 松

(貴州大學 大數據與信息工程學院,貴陽 550025) (*通信作者電子郵箱yxpeng68 @163.com)

為了改善發聲力度對說話人識別系統性能的影響,在訓練語音存在少量耳語、高喊語音數據的前提下,提出了使用最大后驗概率(MAP)和約束最大似然線性回歸(CMLLR)相結合的方法來更新說話人模型、投影轉換說話人特征。其中,MAP自適應方法用于對正常語音訓練的說話人模型進行更新,而CMLLR特征空間投影方法則用來投影轉換耳語、高喊測試語音的特征,從而改善訓練語音與測試語音的失配問題。實驗結果顯示,采用MAP+CMLLR方法時,說話人識別系統等錯誤率(EER)明顯降低,與基線系統、最大后驗概率(MAP)自適應方法、最大似然線性回歸(MLLR)模型投影方法和約束最大似然線性回歸(CMLLR)特征空間投影方法相比,MAP+CMLLR方法的平均等錯率分別降低了75.3%、3.5%、72%和70.9%。實驗結果表明,所提出方法削弱了發聲力度對說話人區分性的影響,使說話人識別系統對于發聲力度變化更加魯棒。

說話人識別;發聲力度;最大后驗概率;最大似然線性回歸;約束最大似然線性回歸

0 引言

發聲力度是一個隨著說話人與收聽者之間交流距離遠近變化的主觀生理量,在人們的日常交流中,不可能一直使用同一發聲力度[1]。例如,人們試圖隱藏說話內容(耳語);交流距離較大,情況緊急(高喊)[2]。不同發聲力度下的語音,其聲學特征及發音方式存在極大的差異。然而,現在的說話人識別研究中,通常使用正常發聲力度下的語音訓練說話人模型,所以,當測試語音來自不同發聲力度時,訓練語音與測試語音便會產生失配,從而導致說話人識別系統識別性能下降[3]。文獻[4-5]中,將發生力度由低到高分為5個量級:耳語(whisper)、輕聲(soft)、正常(normal)、大聲(louder)、高喊(shouted)。

自2010年美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)在說話人識別評測的語料中加入了發聲力度的變化后,說話人識別中發聲問題逐漸得到關注與研究。文獻[5]中提出了基于不同發聲力度語音特征,通過語音識別器將耳語與其他語音進行分類,使得耳語在其專門的模型上測試,而其他發聲力度語音在同一個模型上測試,但是由于識別器的誤差以及其他語音的混雜測試,得到的識別結果不甚理想;文獻[6]在說話人識別模型訓練階段,通過使用卷積變換(Convolutional Transformation, ConvTran)等方法訓練了一個針對于耳語語音的通用高斯背景模型(Universal Background Model, UBM),使系統性能有了一定提高;文獻[7]中,通過使用聯合密度高斯混合模型(Gaussian Mixture Model, GMM)映射法補償梅爾倒譜系數(Mel Frequency Cepstral Coefficient, MFCC)特征,一定程度上改善了高喊語音對說話人系統性能的影響;文獻[8]中提出的使用不同的頻譜分析計算MFCC特征,但是實驗結果表明不同頻譜分析方法之間性能差距較小,對說話人識別系統性能提升也不夠明顯。

與上述研究僅側重模型層面或特征層面不同,本文將同時從模型與特征著手,基于對不同發聲力度下語音的聲學特性以及模型分布與偏倚情況的分析,提出了不同發聲力度語音可以看作特殊子空間的假設,使用最大后驗概率(Maximum A Posteriori, MAP)+約束最大似然線性回歸(Constraint Maximum Likelihood Linear Regression, CMLLR)的方法更新模型、投影轉換特征,從而解決訓練與測試語音失配的問題,提高說話人識別系統性能。

1 不同發聲力度下語音信號分析

1.1 正常、耳語、高喊語音聲學特性分析

2010年,NIST說話人評測提供給參賽單位的Tarball數據庫中,包括了低發聲力度、正常發聲力度、高發聲力度三種情況下的語音,結合在文獻[4-5]中對耳語(whisper)、輕聲(soft)、正常(normal)、大聲(louder)、高喊(shouted)五種量級語音的聲學特性的分析以及文獻[5]中的說話人識別的結果,本文僅討論耳語(whisper)、正常(normal)、高喊(shouted)三個量級的語音。

不同發聲力度下的正常、耳語、高喊語音其發音方式各有不同。正常語音是通過聲帶的周期性振動,使聲門處的空氣流入咽部、口腔、鼻腔產生;耳語語音產生時,聲帶雖然保持著打開狀態但并不發生振動;高喊語音產生時,增加了肺部用力,繼而聲帶產生快速的周期性振動并且帶有明顯的聲音激勵[7];同時,由于不同發聲力度下的語音其聲壓、頻率、頻譜各有不同,從而導致不同發聲力度下的語音音量分貝也各有不同[9]。所以從直觀角度來看,通過發聲方式確定發聲力度與通過音量分貝確定發聲力度存在著一定的聯系。

本文使用同一個人在不同發聲力度下對同一句話的演繹,分析正常、耳語、高喊語音的部分聲學特征,其寬帶語譜與共振峰如圖1所示。

首先,由圖1可知,耳語語音因其獨特的發音方式,不存在基頻結構[6];而高喊語音較與正常語音相比,其基頻結構向高頻位置發生了一定的偏移[10]。其次,頻譜能量按照高喊、正常、耳語的順序由強變弱,且具有耳語、正常、高喊語音頻譜能量分別主要分布在高頻段、低頻段、均勻分布的特點。最后,不同發聲力度下的語音共振峰也發生了明顯的變化,高喊語音的基頻(F0)與第一共振峰(F1)相比正常語音向高頻處產生了偏移[6];耳語語音的第一共振峰(F1)和第二共振峰(F2)相比正常語音也向高頻處產生了偏移且帶寬變寬[11]。

1.2 模型分布可視化

在說話人識別中,特征通過一定的算法被訓練為模型。由于在基于高斯混合模型-通用背景模型(Gaussian Mixture Model-Universal Background Model, GMM-UBM)的說話人識別系統中,GMM的均值向量最能體現特征在特征空間上的分布特性,所以本文中將采用t-分布鄰域嵌入(t-Stochastic Neighbor Embedding,t-SNE)降維算法,將某一高斯混合的均值向量從高維空間按照最大區分的方向,投影到低維度的二維空間上,從而可以直觀地觀察到同一說話人不同發聲力度語音模型均值向量的位置分布以及它們之間相對位置的偏移情況,繼而體現出說話人區分性信息的變化。圖2是三種語音模型均值向量在二維空間的分布示意圖,其中三種語音均取同一個高斯混合進行降維,二維空間的均值向量用(X,Y)表示,nor表示正常語音模型均值向量,wh表示耳語語音模型均值向量,sh表示高喊語音模型均值向量。

圖1 三個量級語音的寬帶語譜與共振峰

圖2 語音模型均值向量在二維空間的分布示意圖

圖2中,同一個人的不同類型語音模型的均值向量之間由一根直線進行連接,這個線條的長短表示了模型之間的位置的偏移。耳語語音與高喊語音模型分別與正常語音模型存在明顯的偏移,且耳語語音與高喊語音模型分別與正常語音模型相互穿插,嚴重混淆了正常語音的模型分布,使得說話人的區分性降低。

通過對正常、耳語、高喊語音聲學特性以及t-SNE降維后三種語音模型位置與相對位置偏移的可視化分析,充分說明了正常、耳語、高喊語音之間存在明顯差異。所以,本文提出耳語語音與高喊語音的特征可以看作相對獨立且穩定的特殊特征子空間的假設,通過使用模型更新或特征投影轉換的方法,學習或削弱耳語、高喊語音的區分性信息,減少耳語、高喊語音區分性信息對說話人區分性的影響。

2 最大后驗概率

MAP是一種貝葉斯方法,它引入了模型參數分布的先驗信息,利用有限的數據,以模型參數后驗概率最大為準則對模型參數進行重新估計。在GMM-UBM框架中,由于參數中均值向量對識別結果的影響最大,所以,在此僅對均值進行重新估計[12]。

(1)

此方案使用前提為訓練語音中除了正常語音數據外,還存在少量的耳語、高喊語音數據。MAP自適應方法利用少量的耳語、高喊語音更新了正常語音訓練的說話人模型,使更新后的模型學習到了耳語、高喊語音帶有的區分性信息,能改善訓練與測試語音數據的失配。MAP自適應方法的測試方案如圖3所示。

圖3 基于MAP自適應方法的說話人識別

3 (約束)最大似然線性回歸

假設耳語語音與高喊語音的特征都是一個特殊的獨立子空間,并且與原始的正常語音特征空間存在著一定的對應關系,那么就可以用一組與耳語、高喊語音相關的線性變化來使耳語語音與高喊語音分別與正常語音的特征空間相互投影,互相學習之間的區分性信息。最大似然線性回歸(MaximumLikelihoodLinearRegression,MLLR)方法最早由劍橋語音小組提出,該方法可以用較少的訓練數據學習出兩組數據之間的差異得到轉換矩陣,從而改善數據之間的偏移。在GMM-UBM框架中,不同混合中的均值向量最能體現說話人的區分性,所以在MLLR的方法中,僅考慮了均值向量的變化,保持協方差矩陣不變。

根據文獻[13-14]可知MLLR方法:

μm=Aμ+b=Wξm

(2)

其中:μm代表第m個高斯分量的均值向量,ξm是擴展的均值向量,W是涉及偏移的三角矩陣。用最大似然方法來優化W,得到如下計算公式:

(3)

(4)

(5)

其中:τ代表時間,oi(τ)是在τ時刻特征向量的第i個元素,γm(τ)是oi(τ)屬于第m個高斯分量的概率,σm(i)是第m個分量的標準差向量的第i個元素。

該方法使用時,訓練語音中無需存在耳語、高喊語音。若MLLR轉換矩陣訓練有效,那么由正常語音訓練說話人模型經過投影轉換后,將會學習到耳語、高喊語音的區分性信息,從而改善訓練與測試語音的失配問題。MLLR訓練測試如圖4所示。

圖4 基于MLLR模型投影的說話人識別

CMLLR(ConstraintMLLR)方法在MLLR方法的基礎上增加一定的約束條件,以實現對說話人模型均值與方差同步更新[15]。CMLLR的學習過程類似于MLLR,但特別的是,由于CMLLR方法認為說話人模型均值與方差共享同一轉換矩陣,所以,對模型的轉換相當于在特征空間對特征進行轉換。若CMLLR轉換矩陣有效,那么經過投影轉換后的測試語音中的耳語、高喊的區分性信息將會被削弱,所以該方法同樣改善了訓練與測試語音之間的失配問題。CMLLR方法的測試方案如圖5所示。

圖5 基于CMLLR特征空間投影的說話人識別

4 最大后驗概率+約束最大似然線性回歸

MAP自適應方法充分使用訓練語音中存在的少量耳語和高喊語音數據來更新正常語音訓練的說話人模型,使更新后的說話人模型帶有耳語、高喊語音的區分性信息,從而改善訓練語音與測試語音的失配;而CMLLR特征空間投影方法則是利用較少的包含正常語音、耳語、高喊的訓練語音數據學習出兩兩數據之間的差異,從而生成一個通用的投影矩陣,經過該投影矩陣轉換后的耳語、高喊測試語音其帶有的耳語、高喊區分性信息將會被削弱,同樣實現了改善訓練語音與測試語音的失配問題。

雖然MAP自適應方法與CMLLR特征空間投影方法看似是一個相互抵消、矛盾的過程,但實際上這兩種方法結合起來共同作用,相當于共同向著削弱與學習耳語、高喊語音區分性信息中間的一個平衡點靠攏,當學習到耳語、高喊語音區分性信息的模型與削弱了耳語、高喊語音區分性信息的測試語音特征達到一個平衡點時,兩者相互制衡,說話人區分性信息將得以突出,說話人識別系統性能勢必得以提升。將這一方法稱為MAP+CMLLR方法, 其方案如圖6所示。

圖6 基于MAP+CMLLR的說話人識別

5 實驗及分析

5.1 基線系統

本實驗數據庫共由30個人錄制,其中男女各15人,包含正常、耳語、高喊三種類型語音,每種語音各22句話。錄音環境為安靜的實驗室環境。說話人識別系統基于經典的GMM-UBM設計,特征為13維的MFCC加上其一階導數和二階導數一共39維,并采用倒頻譜平均值和方差歸一化來減少信道、背景噪聲等對識別造成的不良影響。

在整個實驗中遵循著同一組實驗采用同一組測試數據、同一個基線系統的原則。本實驗基線系統以耳語和高喊語音作為測試語音提取其13維的MFCC加上其一階導數和二階導數一共39維,分別在正常語音訓練的GMM-UBM模型上進行測試。由于不同實驗的測試數據的組織不同,導致基線系統性能不同。關于不同的數據組織,將在每組實驗前說明。

5.2MAP自適應方法

在MAP自適應方法性能測試實驗中,選取全數據庫30人,以正常語音(12句)訓練說話人模型,正常、耳語、高喊語音(各8句)作為測試語音,耳語、高喊(各2句)作為自適應數據。經過識別打分后,用等錯誤率(EqualErrorRate,EER)來衡量系統性能,結果如表1所示,更新后模型可視化如圖7所示,其中所有模型均值向量取自同一高斯混合,使用t-SNE方法降維到二維空間的均值向量以(X,Y)表示,nor1、nor2表示正常語音模型均值向量,wh表示耳語語音模型均值向量,sh表示高喊語音模型均值向量,MAPwh表示經耳語語音通過MAP自適應方法更新后的正常語音模型均值向量nor2,MAPsh表示經高喊語音通過MAP自適應方法更新后的正常語音模型均值向量nor2。

表1 MAP自適應方法測試性能

圖7 更新后模型可視化

由表1可以明顯觀察到,當訓練語音中存在少量耳語、高喊語音(1條自適應語音)的前提下,MAP自適應方法使得說話人識別系統EER明顯降低;并且,隨著自適應數據(2條自適應語音)的增多,系統性能穩步提升,體現了MAP自適應方法良好的漸進性。

同時,圖7顯示了經過更新后模型的均值向量在低維度的二維空間的位置分布,兩種語音模型的均值向量之間連接線條的長短表示了模型之間的位置的偏移。由圖(b)、(c)分別與圖(a)對比可見,耳語語音或高喊語音通過MAP自適應方法更新后的正常語音模型與原正常語音模型之間位置發生了明顯的偏移,模型之間相互混雜。由此說明了經過耳語語音或高喊語音MAP自適應更新后的正常語音模型學習到了耳語、高喊語音的區分性信息,從而與原正常語音模型產生了偏移。由圖(d)與圖(e)、圖(f)與圖(g)對比可以直觀看到,經過耳語語音或高喊語音通過MAP自適應方法更新后的正常語音模型與原耳語、高喊語音模型不再相互混雜,且更新后的正常語音與耳語、高喊語音模型之間的平均距離偏移減小。說明經過耳語語音與高喊語音通過MAP自適應更新后正常語音模型學習到了耳語、高喊語音的區分性信息,從而分別與耳語語音模型、高喊語音模型之間的偏移得到了明顯改善。

5.3MLLR、CMLLR及MAP+CMLLR方法

為了滿足存在少量耳語、高喊語音情況,此處統一選擇耳語、高喊語音各2條作為自適應語音數據,針對全數據庫30人,分別選用10人、14人、20人作為開發集,10人作為評估集(12條正常語音訓練說話人模型;三個量級各8條語音作測試)。經過識別打分后,用EER來衡量系統性能,測試性能如表2所示。

由表2可知,首先,MLLR方法與CMLLR方法的單獨使用均對說話人識別系統有著一定的提升。特別的是,在不同開發集下,CMLLR方法改善效果均優于MLLR方法,并且隨著開發集人數增加,MLLR與CMLLR方法改善系統性能效果也逐漸提升。當開發集人數達到20人時,CMLLR方法使得測試語音為耳語、高喊情況下說話人識別系統分別提高了16.6%和12.6%。其次,使用MAP+CMLLR方法對說話人識別性能的提升優于單獨使用MAP與CMLLR方法,但是,耳語與高喊使用MAP+CMLLR方法所需開發集人數不同,當開發集人數為14人時,高喊語音使用MAP+CMLLR的方法取得了最佳效果,使其EER比基線降低了85.6%;當開發集人數為20人時,耳語語音使用MAP+CMLLR方法取得了最佳效果,使其EER比基線降低了64.9%。究其原因是因為在發聲方式、聲學特性等方面,高喊語音相比耳語語音與正常語音更為接近,當對模型更新的自適應語音數據固定時,高喊語音能夠通過使用較少開發集人數的轉移矩陣達到MAP+CMLLR方法改善性能最優的平衡點。最后,MAP+CMLLR雖然比CMLLR方法性能提升明顯,但相比MAP自適應方法提升不是很大,究其原因是MAP自適應方法通過使用測試者語音預留時少量的耳語、高喊語音數據,學習到了豐富的耳語、高喊語音的區分性信息,而且MAP自適應方法具有良好的漸進性,可以使得更新后的正常語音模型非常近似于耳語或高喊語音模型。然而CMLLR方法采用的是與測試者無關的開發集訓練的投影轉換矩陣對測試語音的耳語或高喊區分性信息進行削弱,其學習與削弱能力不及MAP自適應方法的學習能力。MAP+CMLLR方法是在MAP自適應更新模型的同時利用CMLLR方法對測試語音進行投影轉換,使用MAP+CMLLR方法后的說話人識別系統可以看作是一個削弱了一定程度的耳語或高喊語音區分性信息的耳語或高喊測試語音在學習到了豐富耳語或高喊區分性信息的正常語音模型上測試,所以才會出現MAP+CMLLR方法相比MAP自適應方法提升不大,相比CMLLR方法提升明顯的現象。

表2 EER性能測試結果對比

6 結語

本文基于對不同發聲力度下正常、耳語、高喊語音的聲學特征以及其在低維空間中模型分布、模型之間相對位置偏移的分析,討論了MAP自適應方法、MLLR模型投影方法、CMLLR特征空間投影方法在改善說話人識別系統性能上的使用前提與效果,提出了使用MAP+CMLLR方法實現對說話人模型更新的同時對測試語音進行投影轉換。實驗結果表明,可以充分利用訓練語音中存在少量耳語、高喊語音數據,使用MAP+CMLLR方法,該方法對說話人系統性能改善效果優于單獨使用MAP、CMLLR方法,從而使說話人識別系統更具有魯棒性。

)

[1]TRAUNMüLLERH,ERIKSSONA.Acousticeffectsofvariationinvocaleffortbymen,women,andchildren[J].TheJournaloftheAcousticalSocietyofAmerica, 2000, 107(6): 3438-3451.

[2] 黃庭.情感說話人識別中的基頻失配及其補償方法研究[D].杭州:浙江大學,2011:136-139. (HUANGT.Researchonpitchmismatchanditscompensationmethodsinemotionalspeakerrecognition[D].Hangzhou:ZhejiangUniversity, 2011: 136-139.)

[3]BRUNGARTDS,SCOTTKR,SIMPSONBD.Theinfluenceofvocaleffortonhumanspeakeridentification[C]//INTERSPEECH2001:Proceedingsofthe7thEuropeanConferenceonSpeechCommunicationandTechnology, 2ndINTERSPEECHEvent. [S.l.]:ISCA, 2001: 747-750.

[4] 晁浩,宋成,彭維平.基于發音特征的聲效相關魯棒語音識別算法[J].計算機應用,2015,35(1):257-261. (CHAOH,SONGC,PENGWP.Robustspeechrecognitionalgorithmbasedonarticulatoryfeaturesforvocaleffortvariability[J].JournalofComputerApplications, 2015, 35(1): 257-261.)

[5]ZHANGC,HANSENJHL.Analysisandclassificationofspeechmode:whisperedthroughshouted[C]//INTERSPEECH2007:Proceedingsofthe8thAnnualConferenceoftheInternationalSpeechCommunicationAssociation. [S.l.]:ISCA, 2007: 2289-2292.

[6]FANX,HANSENJHL.Acousticanalysisandfeaturetransformationfromneutraltowhisperforspeakeridentificationwithinwhisperedspeechaudiostreams[J].SpeechCommunication, 2013, 55(1): 119-134.

[7]HANIL?IC,KINNUNENT,SAEIDIR,etal.Speakeridentificationfromshoutedspeech:analysisandcompensation[C]//ICASSP2013:Proceedingsofthe2013IEEEInternationalConferenceonAcoustics,Speech,andSignalProcessing.Piscataway,NJ:IEEE, 2013: 8027-8031.

[8]POHIALAINENJ,HANILCIC,KINNUNENT,etal.Mixturelinearpredictioninspeakerverificationundervocaleffortmismatch[J].IEEESignalProcessingLetters, 2014, 21(12): 1516-1520

[9] 熊子瑜.Praat語音軟件使用手冊[EB/OL].[2016- 09- 09].http://www.doc88.com/p-943562730984.html. (XIONGZY.Themanualofpraatspeechsoftware[EB/OL]. [2016- 09- 09].http://www.doc88.com/p-943562730984.html.)

[10]THOMASIB.Perceivedpitchofwhisperedvowels[J].TheJournaloftheAcousticalSocietyofAmerica, 1969, 46(2B): 468-470.

[11] 王琰蕾.基于JFA的漢語耳語音說話人識別[D].蘇州:蘇州大學,2010:25-28. (WANGYL.SpeakeridentificationinChinesewhisperedspeechbasedonsimplifiedjointfactoranalysis[D].Suzhou:SoochowUniversity, 2010: 25-28.)

[12]LEEC-H,LINC-H,JUANGB-H.AstudyonspeakeradaptationoftheparametersofcontinuousdensityhiddenMarkovmodels[J].IEEETransactionsonSignalProcessing, 1991, 39(4): 806-814.

[13]LEGGETTERCJ,WOODLANDPC.MaximumlikelihoodlinearregressionforspeakeradaptationofcontinuousdensityhiddenMarkovmodels[J].ComputerSpeech&Language, 1995, 9(2): 171-185.

[14]GALESMJF,WOODLANDPC.MeanandvarianceadaptationwithintheMLLRframework[J].ComputerSpeech&Language, 1996, 10(4): 249-264.

[15]GALESMJF.MaximumlikelihoodlineartransformationsforHMM-basedspeechrecognition[J].ComputerSpeech&Language, 1998, 12(2): 75-98.

ThisworkispartiallysupportedbytheSocialResearchPlanofGuizhouProvince(20133015),theEngineeringTechnologyResearchCenterConstructionProjectofGuizhouProvince(20144002).

HUANG Wenna, born in 1990, M. S. candidate. Her research interest include speaker recognition.

PENG Yaxiong, born in 1963, associate professor. His research interests include signal processing.

HE Song, born in 1970, M. S., associate professor. His research interests include signal processing.

Vocal effort in speaker recognition based on MAP+CMLLR

HUANG Wenna, PENG Yaxiong*, HE Song

(CollegeofBigDataandInformationEngineering,GuizhouUniversity,GuiyangGuizhou550025,China)

To improve the performance of recognition system which is influenced by the change of vocal effort, in the premise of a small amount of whisper and shouted speech data in training speech data, Maximum A Posteriori (MAP) and Constraint Maximum Likelihood Linear Regression (CMLLR) were combined to update the speaker model and transform the speaker characteristics. MAP adaption method was used to update the speaker model of normal speech training, and the CMLLR feature space projection method was used to project and transform the features of whisper and shouted testing speech to improve the mismatch between training speech and testing speech. Experimental results show that the Equal Error Rate (EER) of speaker recognition system was significantly reduced by using the proposed method. Compared with the baseline system, MAP adaptation method, Maximum Likelihood Linear Regression (MLLR) model projection method and CMLLR feature space projection method, the average EER is reduced by 75.3%, 3.5%, 72%, 70.9%, respectively. The experimental results prove that the proposed method weakens the influence on discriminative power for vocal effort and makes the speaker recognition system more robust to vocal effort variability.

speaker recognition; vocal effort; Maximum A Posteriori (MAP); Maximum Likelihood Linear Regression (MLLR); Constraint Maximum Likelihood Linear Regression (CMLLR)

2016- 07- 22;

2016- 09- 17。

貴州省社會攻關計劃項目(黔科合SY字[2013]3105 號);貴州省工程技術研究中心建設項目(黔科合G字[2014]4002號)。

黃文娜(1990—),女,貴州赤水人,碩士研究生,主要研究方向:說話人識別; 彭亞雄(1963—),男,貴州遵義人,副教授,主要研究方向:信號處理; 賀松(1970—),男,貴州貴陽人,副教授,碩士,主要研究方向:信號處理。

1001- 9081(2017)03- 0906- 05

10.11772/j.issn.1001- 9081.2017.03.906

TP391.4

A

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
學習方法
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 国产在线啪| 国内嫩模私拍精品视频| av在线手机播放| a国产精品| 91亚洲精选| 国产欧美日韩专区发布| 99视频在线免费| 全裸无码专区| 国产91精品最新在线播放| 91精品视频网站| 日韩欧美网址| 国产女人18水真多毛片18精品| 亚洲天堂成人在线观看| 国产日韩久久久久无码精品 | 色噜噜狠狠色综合网图区| 亚洲欧洲日韩久久狠狠爱| 秋霞一区二区三区| 久久99久久无码毛片一区二区| 91视频99| 国产sm重味一区二区三区| 久久久精品无码一二三区| 欧美激情综合| 热99精品视频| 最新国产精品鲁鲁免费视频| 国产视频入口| www.日韩三级| 国产成人综合网| 欧美精品v欧洲精品| 国产乱人免费视频| 亚洲另类国产欧美一区二区| 超清无码一区二区三区| 91最新精品视频发布页| 巨熟乳波霸若妻中文观看免费| 久久精品免费国产大片| 亚洲欧美在线综合图区| 国产91小视频| 波多野结衣在线一区二区| 亚洲国产成人综合精品2020| 乱人伦视频中文字幕在线| 亚洲免费毛片| 亚洲欧美一区二区三区图片| 亚洲午夜福利精品无码| 日韩毛片免费| 在线看AV天堂| 亚洲天堂网2014| 日韩精品无码不卡无码| 国产综合网站| 日韩欧美国产另类| 69视频国产| 露脸国产精品自产在线播| 国产精品无码一二三视频| 无码人中文字幕| 国产日本欧美在线观看| 成年女人a毛片免费视频| 国产免费看久久久| 国产成年无码AⅤ片在线| 国产美女免费网站| 日韩精品一区二区三区视频免费看| 精品国产三级在线观看| 国产精女同一区二区三区久| 亚洲精选无码久久久| 黄色免费在线网址| 中文字幕66页| 成人免费黄色小视频| 天天躁夜夜躁狠狠躁图片| 成人无码区免费视频网站蜜臀| 欧美日韩国产综合视频在线观看| 不卡无码网| 亚洲国产综合第一精品小说| 毛片三级在线观看| 中日无码在线观看| 亚洲精品国产自在现线最新| 麻豆国产在线不卡一区二区| 国产情侣一区二区三区| 亚洲精品国产成人7777| 欧美一区二区福利视频| 亚洲欧美在线综合图区| 日韩av无码DVD| 99re在线视频观看| 无码AV日韩一二三区| 国产精品v欧美| 久久久久国色AV免费观看性色|