999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

DSP嵌入式說話人識別系統的設計與實現

2010-06-22 03:41:08洪家高俞一彪
現代電子技術 2009年22期

洪家高 俞一彪

摘 要:介紹一種基于浮點型數字信號處理器(TMS320C6713),并通過語音識別說話人身份的實用系統。為構建一個穩定實用的基于DSP說話人識別系統。以Mel倒譜系數作為特征參數,采用高斯混合模型作為識別模型,模型參數采用FLASH ROM存儲,并實現自舉運行。經過調試,實現了系統的自舉運行,自舉運行時可選擇系統的訓練和識別功能,并可方便地選擇參加訓練和識別的說話人,識別的范圍為10人,識別的速度在3 s之內,準確率達98%以上。達到了系統設計的目的要求。與其他系統相比,該系統在實現算法上加以一定的改進,保證了識別率,并實現自舉運行同時充分考慮可操作性,具有更大的實用價值。

關鍵詞:DSP;說話人身份識別;端點檢測;MEL倒譜系數;高斯混合模型

中圖分類號:TP368.1;TP274

文獻標識碼:A

0 引 言

說話人身份識別屬于生物認證技術的一種,是一項根據語音中反映說話人生理和行為特征的語音參數來自動識別說話人身份的技術。近年來,說話人身份識別以其獨特的方便性、經濟性和準確性等優勢受到矚目,在信息安全等領域的應用逐漸增大,并成為人們日常生活和工作中重要且普及的安全驗證方式。目前,說話人身份識別在理論上和實驗室條件下已經達到了比較高的識別精度,并開始走向實際應用階段。AT&T;、歐洲電信聯盟、ITT、Keyware、T[CD*2]NETIX,Motorola和Visa等公司相繼開展了相關實用化研究,國內這方面研究主要在中科聲學所,中科院自動化所,清華大學等研究所和大學中進行。

基于嵌入式的說話人身份識別系統具有高精度,適時性好,低功耗,低費用,體積小等優勢,逐漸成為說話人身份識別面向實際應用的新熱點。而隨著DSP新技術的發展,DSP芯片無論在處理速度、精度、功耗或者體積等方面都取得了突破性的進展。DSP也越來越多的應用于說話人身份識別。但目前這方面研究主要局限于小數據量、與PC機配套使用上,沒有太大的實用價值。在此介紹一種基于TMS320C6713 DSP芯片設計的嵌入式,10個人范圍的說話人身份識別系統。該系統可以自舉運行,并可靈活的選擇訓練、識別或者更換訓練者、識別者,識別率達98%以上。

1 系統的架構及硬件構成

系統總體實現流程如圖1所示。系統主要分為訓練和識別兩部分,系統初始化后由操作者控制訓練或識別。訓練目的是提取說話人模型參數并將其存儲在FLASH ROM中。識別目的是讀取待識別者語音信息并將獲得的模型參數與訓練的模型參數比較,從而獲得識別結果。オ

1.1 系統的主要硬件構成

系統硬件構成如圖2所示,主要包含語音采集模塊、數據處理模塊(DSP)、程序數據存儲及自舉FLASH模塊、數據存儲器RAM模塊、系統時序邏輯控制CPLD模塊、JTAG接口模塊。

語音采集模塊主要由TLV320AIC23音頻編解碼器來完成,該芯片是TI公司的一款高性能的立體聲音頻Codec芯片,內置放大器,輸入/輸出增益可編程設置。模數,數/模轉換集成在一塊芯片中。采樣率8~96 kHz可編程實現。另外還具有低功耗,連接電路簡單,性價比高的特點。

語音處理DSP采用TI公司的TMS320C6713芯片,該芯片實現浮點運算,最高時鐘頻率225 MHz,使用該芯片外部存儲器接口可實現對外部存儲器(SDRAM)數據傳輸和程序存儲器(FLASH ROM)進行程序讀寫;依靠JTAG接口電路通過仿真器進行仿真調試,實現與主機數據交換;通過片內外設McBSP完成串行數據的接收和發送,實現對音頻處理模塊的控制等工作。

FLASH ROM最大可提供512 KB空間,通常為前256 KB可用。SDRAM最大容量為16 MB,為該系統提供較大的數據存儲空間。CPLD為存儲器的擴展實現邏輯編碼。電源為TPS54310芯片,可為系統提供3.3 V和1.26 V兩種電壓。

1.2 選擇說話人

該系統要訓練10個人的語音,每個人的語音存放在FLASH ROM的不同位置。在訓練的開始階段,系統需確定當前訓練者的身份,以便對訓練完成后說話者模型參數存儲位置有準確的判斷。對當前訓練者身份的選擇由系統中的4個Switch實現。若把每個Switch的開關兩種狀態看成是二進制數的0,1,則最終可形成16種組合,代表16個人。該系統選取前10個組合。

1.3 AIC23語音采集

考慮到系統的實用性,語音的輸入由mic in接口輸入。語音采集若設為雙聲道,則采集的左右聲道數據差別不大,對識別沒有太大的幫助,而且采集到的語音會占用太大存儲器空間,故采用單聲道采樣;對于采樣精度要求,TLV320AIC23可實現8~96 kHz,16 b,20 b,24 b,32 b,的不同采樣,隨著采樣頻率的提高,采樣間隔將相應的縮短,要求更大的內存空間和更長的處理時間,實驗表明,采樣率由16 kHz下降到8 kHz,所造成的識別率的微乎其微,但是可以節省50%的動態存儲空間,并可減少大量的運算。對于采樣位數,16 b精度已能滿足該系統要求,故采樣精度設為8 kHz,16 b采樣。

1.4 數據的存儲

由TLV320AIC23獲得的語音信號的數據,只有賦值給相應的數組,才能在接下來的算法中有所應用。為此在SDRAM中定義一片數組存儲區域。對于數組大小及類型的選擇基于以下兩點

(1) 數組大小選擇。該系統算法中包含訓練和識別兩個內容。語音信號的訓練需要大量的數據才能準確的提取語音的特征參量。該系統采用8 kHz采樣率的10 s的語音信號,所需的數組空間大小為80 000個數據單位;語音信號的識別要求快速性,該系統采用時間較短的8 kHz 3 s語音信號,所需數組空間大小為30 000個數據單位,為了減少數據空間,系統設定為與訓練數組共用前30 000個數據單位的空間。

(2) 數組類型為浮點型,由于設定的采樣格式是16 b采樣,而采樣后數據類型是Uint32,語音數據位于低16位,所以賦值過程中取低16位數據賦值給數組。

[BT3]1.5 模型參數存入與參數調出

將模型參數存入FLASH ROM的目的是保存訓練所得的參數,以供識別時調用。訓練可能用于多次識別,或者訓練和識別可能處于不同的時間地點,所以,保存參數的存儲器選定為具有掉電時數據不丟失特點的FLASH ROM。每個說話者語音參數代表一個說話者身份,所以每個說話者模型參數應存儲在FLASH ROM中一個確定的位置。為此,該系統在FLASH ROM中分配了10塊的區域,每個說話者模型參數占有一塊特定的區域。

在FLASH ROM中存入數據格式為32 b無符號整數。而訓練得到的是浮點型的數據。這就要求在數據存入之前將浮點數轉換為32 b無符號類型的整數,假設要轉換的數據為float x[M][N]則轉換方法如下:

通過統計實驗數據發現歸一化后數據的范圍為10-5獈1,故獽選擇為108,既可以實現較大精度的轉化,又不會影響第31位的數值。轉換得到的有符號整型數組珁[M][N]范圍為-108~108,在存儲器中正數為原碼表示,負數為補碼表示,通過計算發現,該范圍的正數第31位為0,負數第31位為1,所以,上述┑(3)步,將有符號數轉換為無符號數后,數值的正負改為使用第31位標識。

在識別階段,要將說話者的GMM參數依次從FLASH ROM中讀出,逐個與待識別者語音的MFCC參數比較,求最大似然值。參數調出過程與以上存入過程相反。

1.6 說話人身份識別的結果顯示

說話人的身份顯示通過LED的組合顯示確定。在DSK上有4只LED燈,將每個LED燈看成是一位┒進制數。則4個LED燈最大可表示16個人的身份。該系統取前10個組合來表示所識別的說話人的身份。

1.7 自舉的實現

以上程序都是通過PC機與DSP組合實現,要想使系統在DSP上單獨完成,還必須實現自舉。該系統采用ROM方式自舉。在自舉實現過程中,程序的燒寫可以通過CCS自帶的FLASHBorn工具實現。在燒寫過程中應正確的分配FLASH ROM的空間。FLASH ROM空間總體分為程序存儲區和數據存儲區,經計算,程序代碼段大小為0x162C0,故在FLASH ROM中劃分127 KB的空間供程序代碼使用,空間中未使用的部分供程序擴展使用。數據存儲區劃分的大小為64 KB的空間,每個說話者模型參數占用空間為4.2 KB左右,最多可存放15個說話人GMM模型參數。該系統訓練者數目為10個,占用空間為42 KB左右。剩余的空間可用來擴展訓練人數,也可用于后期系統的改進。如可以利用語音提示來顯示說話人身份,而提示語音的數據可以存放于此區域。具體的存儲的安排如┍1所示。

2 系統的算法與軟件設計

說話人識別系統的實現方案如圖3所示。

輸入的模擬語音先通過預處理,包括預濾波、采樣、量化、加窗、端點檢測、預加重等。語音經過預處理后進行特征提取。在訓練階段,對提取的特征進行相應的處理后就可以獲得參考模型。識別階段,語音通過同樣的通道獲得特征參數,生成測試摸型,之后將測試摸型與參考摸型進行匹配,從而根據判決邏輯獲得判決結果。

2.1 語音信號的端點檢測

語音信號的端點檢測目的是去除語音信號中的噪聲段。端點檢測從很大程度上影響到識別率。常用方法有短時能量法,短時過零率法和雙門限法等。本系統選用雙門限法,實驗表明,效果優于前兩種方法。

[JP2]在雙門限方法端點檢測中,閾值的選擇尤為關鍵,該系統的語音采樣頻率設為8 kHz,語音分幀為每幀80個點。經過多次實驗,這里短時能量低閾值通過┦(3)的動態方式得到,高閾值設為低閾值的5倍。而過零率的閾值選取應充分考慮到噪聲的影響,通過大量實驗發現系統中噪聲的過零率一般不超過5,所以對過零率的閾值選取為25,取得了很好的效果,準確率達到95%以上。

在端點檢測過程中有時會遇到突發性的干擾噪聲,這種噪聲持續時間很短,一般小于5 ms。為了消除這種干擾,這里用檢測后的起止長度判斷它是不是語音。如果所檢測到的語音長度足夠的短,則可以把它當成是噪聲。

2.2 特征參數的提取

語音信號的特征提取是說話人身份識別的難點。能否用相對簡單的方法提取出一種最能體現說話人個性信息的特征將成為以后研究的方向。該系統中用的是能體現人耳聽覺特性的Mel倒譜系數(MFCC)。

MFCC著眼于人耳的聽覺機理,依據聽覺的結果來分析語音的頻譜,獲得了很好的識別率和很好的噪聲魯棒性,它利用了聽覺系統的臨界效應,描述人耳對感知的非線性特性[6,7]。在DSP硬件資源配置中,㎝FCC在識別性能和DSP內部空間占用方面也取得了很好的平衡。在該系統中使用16個濾波器(玀=16)構成的濾波器組。圖4所示是MFCC的提取過程。

2.3 識別方法選擇與實現

基于該系統對速度、識別效率、存儲空間的要求,這里的識別方法選為高斯混合模型。高斯混合模型(GMM)可以看成是狀態數為1的連續分布隱馬可夫模型CDHMM。一個玀階混合高斯模型的概率密度函數是由M個高斯概率密度函數加權求和得到,所示如下:[JP]

Иp([WTHX]X[WTBX]/λ)=∑Mi=1ω璱b璱([WTHX]X[WTBX])[JY](4)И

式中:[WTHX]X[WTBX]是一個D維隨機向量;b璱([WTHX]X[WTBX]璽)是子分布,i=1,2,…,M是子分布;ω璱是混合權重,i=1,2,…,M。對獹MM模型參數的估計方法該系統采用最大似然估計。對于一組長度為T的訓練矢量序列[WTHX]X[WTBX]={[WTHX]X[WTBX]1,[WTHX]X[WTBX]2,…,[WTHX]X[WTBX]璗},GMM的似然度可表示為:

由于式(5)是參數Е說姆竅咝院數,很難直接求出其最大值。因此,該系統采用獷M算法估計參數λ。И

2.4 算法實現過程中的具體考慮

(1) FFT變換點數的選擇。FFT變換點數選擇很重要[8],如果選擇太大,則運算復雜度變大,使系統響應時間變長,如果選擇太小則可能造成頻率分辨率過低,提取參數誤差過大。該系統中選取的點數為240點。

(2) 模型參數的選擇。首先模型階數玀必須適中,必須足夠大,可以充分表示出空間的分布。然而,階數也不能太大,否則數據數量不足,也無法準確描述特征空間分布。考慮該系統對參數的存儲空間要求,并綜合以上考慮,該系統選用的階數為32階。

(3) 協方差矩陣類型。考慮到減少計算量,這里采用對角陣。在高維特征空間中,對角陣比全矩陣優勢更為明顯[9]。

(4) 方差限定。當訓練數據不足或者是存在噪聲干擾時,方差幅度會很小,這樣會導致模型概率函數的奇異性,所以每次EM迭代時,都需要對方差進行限定。即:

根據實驗結果,該系統選取玈2﹎in為0.025

(4) 模型初值的設定:EM算法是尋找局部最大概率的模型。不同的初值會導致不同的局部極值。該系統中采用的是獽均值法。

2.5 獽均值法應注意的幾個問題

(1) 聚類中心的初始化。

對于聚類中心數目由GMM模型決定,假設是N。對于聚類中心的初始化,一般取前N個矢量作為聚類中心[10],但在實驗過程中發現,這種方法不具有針對性,往往設立的初始的聚類中心不具有很好的聚類效果。所以這里采用取質心法。具體方法為:

[JP2]第一步先求出訓練集S中全體矢量[WTHX]X[WTBX]的質心,然后在S中找出一個與此質心的畸變量最大的矢量[WTHX]X[WTBX]璲,再在S中找到一個與[WTHX]X[WTBX]璲的畸變量最大的矢量[WTHX]X[WTBX]璳。以[WTHX]X[WTBX]璲和[WTHX]X[WTBX]璳為基準進行胞腔劃分,得到S璳和S璲兩個子集。對這兩個子集分別按照同樣的方法劃分得到4個子集。依次類推,得到N個子集。這N個子集的質心即為初始的聚類中心。[JP]

(2) 聚類中心改進量δ的選擇。

對于聚類中心改進量δ的選擇,若選擇太大,則聚類不充分,影響訓練效果;若太小,則會導致訓練無法完成,該系統通過試驗,取比較適中的數0.01。И

[JP2](3) 最大迭代次數的選擇。

對于最大迭代次數的選擇,太小會導致誤判,太大導致訓練不成功時過多的占用系統時間。該系統迭代次數設為100,比較適中。[JP]

3 實驗結果及改進點

[JP2]通過系統調試及改進,該系統最終實現10個說話人的身份識別,并自舉運行。運行時通過Switch組合可方便的選擇訓練或識別的功能,并可更新說話人。訓練,識別的進度及結果通過LED組合顯示。利用該系統對5男5女10個人進行訓練,每人500次測試,結果正確識別率為98%,識別時間為3 s左右。說明該系統可以有效的識別說話人的身份。對于該系統,識別時間及識別率上還有改進空間,以后工作可圍繞識別時間上改進。[JP]

參 考 文 獻

[1]王炳錫,屈丹,彭宣.實用語音識別基礎[M].北京:國防工業出版社,2005.

主站蜘蛛池模板: 成年人国产网站| 全裸无码专区| 日本免费一区视频| 国产成人精品一区二区免费看京| 国产黑丝视频在线观看| 日本国产在线| 色婷婷亚洲十月十月色天| 全部免费特黄特色大片视频| 国产超碰在线观看| 欧美午夜网| 91精品视频在线播放| 欧美成人综合视频| 91无码人妻精品一区| 国产香蕉国产精品偷在线观看| 东京热一区二区三区无码视频| 亚洲欧洲一区二区三区| 青青草原国产| 91国内在线视频| 国产97视频在线| 精品偷拍一区二区| a级免费视频| 欧美国产日韩一区二区三区精品影视| 99热这里只有精品免费| 欧美日本在线观看| 超碰91免费人妻| 国产色婷婷| 91精品国产自产在线老师啪l| 久久久波多野结衣av一区二区| 五月综合色婷婷| 日本高清有码人妻| 国产香蕉在线| 欧美一区日韩一区中文字幕页| 国产在线日本| 四虎永久在线精品国产免费 | 久久国产热| 最新国产在线| 国产人人射| 天堂网亚洲系列亚洲系列| 一本久道久综合久久鬼色| 白丝美女办公室高潮喷水视频| 99青青青精品视频在线| 日韩 欧美 小说 综合网 另类| 91久久国产综合精品女同我| 久久精品嫩草研究院| 欧美中文一区| 高清无码手机在线观看| 亚洲成人一区二区三区| 五月婷婷亚洲综合| 久久精品无码一区二区日韩免费| 久久国产精品电影| 国产欧美日韩18| 欧美日韩一区二区在线免费观看| 九九热精品免费视频| 理论片一区| 国产免费好大好硬视频| 精品视频一区在线观看| 精品国产电影久久九九| 亚洲欧洲日产国码无码av喷潮| 九色在线观看视频| 波多野结衣视频一区二区| 久久综合五月| 国产不卡在线看| 久久综合结合久久狠狠狠97色| 91色在线观看| 久久免费看片| 免费精品一区二区h| 亚洲第一区欧美国产综合 | 国产精品久久自在自线观看| 国产成年女人特黄特色毛片免 | 伊人色综合久久天天| 国产三级毛片| 国产精品香蕉| 色老头综合网| 免费看av在线网站网址| 在线欧美日韩| 六月婷婷精品视频在线观看| 成人在线第一页| 精品无码国产一区二区三区AV| 婷婷色在线视频| 国产成人a在线观看视频| 国产免费久久精品44| 日本午夜精品一本在线观看 |