999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于語音識別的課堂簽到器

2018-10-26 11:32:24朱泰管震臻李新戰韓雪白玉帥
科技資訊 2018年10期
關鍵詞:數據庫

朱泰 管震臻 李新戰 韓雪 白玉帥

摘 要:采集大量不同說話人的語音信息,將音頻信號轉換成電信號,然后把說話人話音中的個人特征提取出來,利用

sql server 2012軟件建立一個學生信息數據庫,用于存儲待簽到的學生信息,最后基于高斯混合模型(GMM),把待說話人的語音與保留在數據庫中的語音進行匹配判決,再通過比對數據庫中的信息,以此找出待識別的人,從而達到簽到的目的。

關鍵詞:高斯混合模型 數據庫 個人特征

中圖分類號:G64 文獻標識碼:A 文章編號:1672-3791(2018)04(a)-0032-02

Abstract:Gauss Collecting a large number of different speaker's voice information, the audio signal is converted into electrical signals, and the personal characteristics of the speaker voice extracted. By using SQL Server 2012 software to establish a database for storing student information, student information to sign in, based on Gauss mixture model (GMM), the voice of the speaker and the voice to be retained in the database for matching decision, and then by comparing the information in the database, in order to find out the recognition of people, so as to achieve the purpose of attendance.

Key Words:Gauss Mixture Model; DataBase; Personal Characteristics

每個人都是一個獨立的個體,每個人的聲音也是各具特色的。把人的聲音單獨提取出來作為人的一項特征來分辨說話人的身份,這在理論上是行得通的。事實上也是,現代科學技術對于語音的應用已經相當廣泛了,比如:在工業、軍事、交通、醫學、民用諸方面,特別是在計算機、信息處理通信與電子系統、自動控制等領域中有著廣泛的應用[1]。

1 說話人識別方法和系統結構

圖1是說話人識別系統的結構圖,它由預處理、特征提取、模式匹配計算、參考模板制作和識別判決等幾大部分組成。首先將聲音錄入到設備中,將其在計算機中把語音信號轉變成電信號,通過波譜分析,提取出不同說話者的個人特征。

然后在特定數據庫中存入大量不同學生的個人信息,將特征提取步驟中提取到的個人特征對應到相應的學生項之中。接著在需要識別學生個體的時候,將此時的說話人聲音與數據庫中存儲的數據進行匹配,從而分辨出學生的個人身份。在此過程中,預定相似度達到某一個值即可確認出該學生身份。因為在不同環境和時間,說話人發出的聲音可能會有細微的差別,因此不可能每次都能夠百分之百的還原之前錄入到數據庫中的音頻特征信息。

2 說話人識別特征的選取

在理想情況下,選取的特征應當滿足下述準則。

(1) 有效區分不同的說話人。

(2) 易于從語音信號中提取。

(3) 不易被模仿。

(4) 盡量不隨時間和空間變化。

同時滿足上述所有要求的特征目前是不可能找到的,所以只需滿足其中部分即可。

3 GMM模型的識別問題

在給定的一個語音樣本中,說話人辨認的目的是要決定這個語音是屬于N個待識別說話人中的哪一個。在一個封閉的待選人集合里,只需要確認該語音屬于語音庫里的哪一個說話人,在辨認任務中,目的是找到一個說話者i^*,他對應的模型λi^*使得待識別語音特征矢量組X具有最大后驗概率P(λ_i/X)。基于GMM的說話人辨認系統結構框圖如圖2所示

根據Bayes理論,最大后驗概率可表示為:

4 建立數據庫

要實現語音識別簽到,首先需要有一份待識別人的個人信息,所以需要建立一個數據庫,用以存儲這些個人信息。我們以學校課堂簽到為例,需要的信息有:姓名(Sname)、性別(Ssex)、學號(Snumber)、院系(Sdept)、以及預處理時提取出的聲紋特征(Svoice)。其中以學號每個學生都不相同,取唯一值[3]。

Create table Student

( Snumber CHAR(10),

Sname CHAR(20) UNIQUE,

Ssex CHAR(2),

Sdept CHAR(20),

Svoice CHAR(50),

在建立好的學生信息表中輸入一定數量的學生信息,如表1所示。

5 結語

人在說話的時候,發音常常會隨著環境的變化、說話人的情緒變化、說話人的健康狀況變化而變化,因此說話人的個人聲紋特征不是固定不變的,這些變化對識別系統存在較大的準確性影響 在這些不定因素的影響下,如何較為正確的識別出說話人仍是一個較難攻克的課題。

參考文獻

[1] 王俠.語音識別應用無限[J].計算機世界報,1999:24-26.

[2] 沈忱,基于遺傳算法的混合高斯模型在與文本無關的說話人識別中的應用[D].東南大學,2007.

[3] 邵妍,霍春寶,金曦.基于改進的高斯混合模型算法的說話人識別[J].遼寧工業大學學報:自然科學版,2010,30(1):8-10.

[4] 何湘智.語音識別的研究與發展[J].計算機與現代化,2002(3):3-6.

猜你喜歡
數據庫
數據庫
財經(2017年15期)2017-07-03 22:40:49
數據庫
財經(2017年2期)2017-03-10 14:35:35
兩種新的非確定數據庫上的Top-K查詢
數據庫
財經(2016年15期)2016-06-03 07:38:02
數據庫
財經(2016年3期)2016-03-07 07:44:46
數據庫
財經(2016年6期)2016-02-24 07:41:51
數據庫
財經(2015年3期)2015-06-09 17:41:31
數據庫
財經(2014年21期)2014-08-18 01:50:18
數據庫
財經(2014年6期)2014-03-12 08:28:19
數據庫
財經(2013年6期)2013-04-29 17:59:30
主站蜘蛛池模板: 午夜精品区| 另类欧美日韩| 波多野结衣一二三| 日韩专区第一页| 尤物在线观看乱码| 波多野结衣第一页| 国产无码高清视频不卡| 久久国产乱子| 在线日韩一区二区| 再看日本中文字幕在线观看| 国产肉感大码AV无码| 国产欧美精品专区一区二区| 国产精品露脸视频| 日韩a在线观看免费观看| 啦啦啦网站在线观看a毛片| 亚洲精品大秀视频| 久久国产精品嫖妓| 国产成人精品高清不卡在线| 少妇人妻无码首页| 国产精品免费久久久久影院无码| 一级爆乳无码av| 亚洲AⅤ无码国产精品| 国产精品欧美激情| 国产福利一区二区在线观看| 亚洲男人天堂久久| 蜜臀AV在线播放| 99在线观看视频免费| 欧美五月婷婷| 天天做天天爱天天爽综合区| 啪啪啪亚洲无码| 国产综合在线观看视频| 无码日韩人妻精品久久蜜桃| 欧美精品亚洲精品日韩专区| 91免费在线看| 亚洲娇小与黑人巨大交| 亚洲欧美激情小说另类| 第一页亚洲| 国产永久免费视频m3u8| 久久中文字幕不卡一二区| 黄色在线不卡| 在线精品视频成人网| 2020最新国产精品视频| 日韩国产高清无码| 亚洲国产精品久久久久秋霞影院| 日本精品一在线观看视频| 亚洲色图另类| 免费又爽又刺激高潮网址 | 国产精品亚洲专区一区| 尤物精品国产福利网站| 亚洲欧美成aⅴ人在线观看| 视频一区亚洲| 国产女人综合久久精品视| 亚洲美女一区| 中文字幕久久波多野结衣| 午夜啪啪网| 日本中文字幕久久网站| 亚洲天堂区| 午夜视频日本| 国产欧美日韩91| 亚洲一级毛片免费看| 很黄的网站在线观看| 亚洲中文字幕日产无码2021| 日韩精品一区二区三区视频免费看| 亚洲欧州色色免费AV| 欧美激情综合一区二区| 欧美特黄一级大黄录像| 一级毛片在线免费看| AV无码一区二区三区四区| 日本黄色不卡视频| 日本一区二区不卡视频| 亚洲精品色AV无码看| 日韩无码真实干出血视频| 亚洲精品视频网| 一级福利视频| 国产一二视频| 国产精品自在在线午夜区app| 日韩午夜片| 一区二区无码在线视频| 亚洲AV无码一二区三区在线播放| 亚洲性网站| 久久这里只有精品23| 日日拍夜夜操|