999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

手語(yǔ)識(shí)別研究綜述

2021-03-12 07:01:22秦夢(mèng)現(xiàn)
軟件導(dǎo)刊 2021年2期
關(guān)鍵詞:特征提取分類深度

秦夢(mèng)現(xiàn)

(河北工業(yè)大學(xué)人工智能與數(shù)據(jù)科學(xué)學(xué)院,天津 300401)

0 引言

中國(guó)是聾啞人口最多的國(guó)家,聾啞人由于聽(tīng)力受損、發(fā)聲不完全等原因,只能用手語(yǔ)與健聽(tīng)人士進(jìn)行溝通交流。手語(yǔ)由連續(xù)手勢(shì)動(dòng)作組成,指使用手形變化,手的位置、方向以及手臂擺動(dòng),再配以口型表達(dá)、面部動(dòng)作和一定語(yǔ)法規(guī)則表示特定語(yǔ)義,是聾啞人和外界溝通交流的一種語(yǔ)言。然而,聾啞人畢竟是少數(shù)群體,大部分人由于不懂手語(yǔ)而極大影響聾啞人在日常生活中的正常交流及生活。如何減少聾啞人溝通障礙,實(shí)現(xiàn)聾健融合是亟待解決的問(wèn)題。隨著計(jì)算機(jī)技術(shù)的快速發(fā)展,自然語(yǔ)言處理技術(shù)正在不斷打破局限,并逐漸應(yīng)用于各相關(guān)領(lǐng)域。在語(yǔ)音識(shí)別方面,科大訊飛的語(yǔ)音識(shí)別技術(shù)可實(shí)現(xiàn)精準(zhǔn)的語(yǔ)音識(shí)別,為聾啞人和健聽(tīng)人之間的正常溝通搭建了良好通道。將聾啞人的手語(yǔ)以文本或語(yǔ)音交互方式反饋到計(jì)算機(jī)上的技術(shù)被稱為手語(yǔ)識(shí)別技術(shù),該技術(shù)為聾啞人士與健聽(tīng)人群的交流提供了支持,其在人機(jī)交互、手勢(shì)控制和手語(yǔ)教學(xué)等領(lǐng)域具有廣闊的應(yīng)用前景。

1 手語(yǔ)識(shí)別技術(shù)

手語(yǔ)識(shí)別研究是將手語(yǔ)通過(guò)計(jì)算機(jī)處理翻譯成文字,涉及圖像識(shí)別、自然語(yǔ)言處理等多個(gè)方向。手語(yǔ)視頻中手臂運(yùn)動(dòng)速度、手形變化及口型等信息均對(duì)計(jì)算機(jī)處理能力有較高要求。計(jì)算機(jī)視覺(jué)[1]是手語(yǔ)識(shí)別技術(shù)的關(guān)鍵技術(shù),其在人工智能的推動(dòng)下得到快速發(fā)展。近年來(lái),人工智能領(lǐng)域中的深度學(xué)習(xí)受到高度關(guān)注,深度學(xué)習(xí)讓數(shù)以百計(jì)的實(shí)際問(wèn)題得到了更好解決,已廣泛應(yīng)用于自然語(yǔ)言處理、人機(jī)交互等領(lǐng)域。隨著數(shù)據(jù)的增長(zhǎng)和計(jì)算能力的提高,深度神經(jīng)網(wǎng)絡(luò)中數(shù)據(jù)缺少、難以訓(xùn)練等問(wèn)題正逐步得到解決。目前,以深度學(xué)習(xí)為基礎(chǔ)的計(jì)算機(jī)視覺(jué)發(fā)展最快且最成熟,其在圖像分類[2]如人臉識(shí)別[3]等領(lǐng)域已具有極大優(yōu)勢(shì),在其它方面,比如人體行為檢測(cè)、無(wú)人駕駛等領(lǐng)域也有了快速發(fā)展。計(jì)算機(jī)視覺(jué)技術(shù)應(yīng)用廣泛,能夠幫助聾啞人更好地融入社會(huì)、認(rèn)識(shí)并了解世界。

2 手語(yǔ)識(shí)別研究現(xiàn)狀

隨著計(jì)算機(jī)技術(shù)和人工智能的不斷發(fā)展,手語(yǔ)識(shí)別在國(guó)內(nèi)外受到了越來(lái)越多的關(guān)注[4]。手語(yǔ)識(shí)別方法根據(jù)特征處理方式可分為兩類:基于傳統(tǒng)方法的手語(yǔ)識(shí)別[5]和基于深度學(xué)習(xí)的手語(yǔ)識(shí)別[6]方法。

2.1 基于傳統(tǒng)方法的手語(yǔ)識(shí)別

基于傳統(tǒng)方法的手語(yǔ)識(shí)別算法涉及4 個(gè)階段:圖像預(yù)處理、手部分割、特征提取和分類識(shí)別。圖像預(yù)處理是為了減小噪聲等因素影響;手部分割是對(duì)手語(yǔ)演示過(guò)程中的感興趣區(qū)域進(jìn)行定位;特征提取是對(duì)能夠表達(dá)手語(yǔ)信息的關(guān)鍵點(diǎn)進(jìn)行采集;識(shí)別是根據(jù)提取的特征訓(xùn)練一個(gè)分類器,以便對(duì)后續(xù)輸入的特征映射到事先設(shè)定好的分類中。其中,特征提取和分類識(shí)別是手語(yǔ)識(shí)別算法的核心關(guān)鍵(見(jiàn)圖1)。

Fig.1 Sign language recognition process based on the traditional method圖1 基于傳統(tǒng)方法的手語(yǔ)識(shí)別流程

2.1.1 圖像預(yù)處理與手部分割

采集到的原始圖像中存在大量噪聲,因此需對(duì)圖像進(jìn)行預(yù)處理以減少噪聲干擾,使其突出肢體運(yùn)動(dòng)區(qū)域信息。Pansare 等[7]首先將輸入圖像閾值化為二值圖像,然后采用高斯濾波對(duì)圖像中的每一個(gè)像素點(diǎn)進(jìn)行卷積計(jì)算,并加入到原始圖像中進(jìn)行噪聲點(diǎn)覆蓋。但這會(huì)造成圖像中的像素點(diǎn)與周圍像素點(diǎn)相似,降低圖像清晰度。因此,Rao 等[8]采用索貝爾算子進(jìn)行邊緣計(jì)算,對(duì)肢體部分進(jìn)行邊緣銳化,增強(qiáng)圖像關(guān)鍵信息。

分割目的是將手語(yǔ)圖像分割成感興趣區(qū)域和其它區(qū)域,并將感興趣區(qū)域從圖像中分離出來(lái)。手語(yǔ)圖像由于膚色和背景存在差異,因此一般采用膚色分割獲得手部這一感興趣區(qū)域。例如,Chen 等[9]在RGB 色彩空間中,使用R>G>B 的規(guī)則進(jìn)行膚色選擇定位,將得到的區(qū)域與預(yù)先存儲(chǔ)的樣本膚色匹配,以找到手部區(qū)域并將其分離。

2.1.2 特征提取

特征是對(duì)輸入圖像中的關(guān)鍵信息進(jìn)行描述,為了方便算法對(duì)圖像數(shù)據(jù)的處理,將圖像轉(zhuǎn)換成緊湊的特征向量集。在手語(yǔ)識(shí)別研究中,一般采用針對(duì)圖像空間外觀特征(肢體的輪廓、顏色、紋理、運(yùn)動(dòng)方向)的方法進(jìn)行數(shù)據(jù)建模。如Huong 等[10]使用主成分分析(Principal Components Analysis,PCA)對(duì)25 個(gè)手語(yǔ)類別特征進(jìn)行降維,以加快對(duì)樣本有價(jià)值信息的處理速度,找到肢體運(yùn)動(dòng)的關(guān)鍵特征,達(dá)到91.5%的準(zhǔn)確度。但是,使用PCA 進(jìn)行線性降維后,樣本間的非線性相關(guān)性很可能丟失,導(dǎo)致識(shí)別結(jié)果降低。Harwat 等[11]利用二維圖像提取手勢(shì),通過(guò)尺度不變特征轉(zhuǎn)換(Scale-Invariant Feature Transform,SIFT)對(duì)手部特征點(diǎn)進(jìn)行有效的特征提取,獲得手的形狀、方向等信息,形成對(duì)手部這一局部圖像的描述,提升算法魯棒性。

2.1.3 分類識(shí)別

分類的主要作用是將樣本數(shù)據(jù)中提取的特征映射到與其對(duì)應(yīng)的類別中,這是整個(gè)手語(yǔ)識(shí)別模型中的最后一步。根據(jù)識(shí)別圖像種類不同,可以分為靜態(tài)手語(yǔ)和動(dòng)態(tài)手語(yǔ)兩類。靜態(tài)手語(yǔ)識(shí)別的是單幀圖像,不涉及時(shí)間框架。KNN 是常用的分類方法,其核心思想是尋找訓(xùn)練樣本中與其距離最短的K 個(gè)樣本。如Gupta 等[12]將KNN 用于對(duì)每26 個(gè)手勢(shì)的30 張測(cè)試圖像進(jìn)行分類,總體精度最高達(dá)90%。與靜態(tài)手語(yǔ)分類不同,動(dòng)態(tài)手語(yǔ)分類增加了時(shí)間維度。HMM 由于能夠?qū)R手語(yǔ)幀并計(jì)算相似性而被廣泛應(yīng)用,方高林等[13]將自組織映射的強(qiáng)大提取能力和HMM 良好的處理時(shí)間序列屬性相結(jié)合,實(shí)現(xiàn)非特定人群手語(yǔ)識(shí)別,實(shí)驗(yàn)結(jié)果表明,該方法比傳統(tǒng)HMM 識(shí)別率高5%。

綜上所述,基于傳統(tǒng)方法的手語(yǔ)識(shí)別需根據(jù)經(jīng)驗(yàn)知識(shí)設(shè)計(jì)和提取區(qū)分度較強(qiáng)的特征,尤其是在特征提取和分類識(shí)別兩個(gè)階段,需基于強(qiáng)大的理論基礎(chǔ)知識(shí)對(duì)其進(jìn)行多次實(shí)驗(yàn)驗(yàn)證。并且,傳統(tǒng)手語(yǔ)識(shí)別方法少,進(jìn)行手工特征提取需耗費(fèi)大量時(shí)間,且多數(shù)用于手語(yǔ)孤立詞[14]的識(shí)別,不具有普適性。動(dòng)態(tài)手語(yǔ)識(shí)別需要建立更為可靠的長(zhǎng)期時(shí)序關(guān)聯(lián)性,這些因素導(dǎo)致手語(yǔ)識(shí)別發(fā)展受限。

2.2 基于深度學(xué)習(xí)的手語(yǔ)識(shí)別

隨著計(jì)算機(jī)性能的大幅度提升,深度學(xué)習(xí)技術(shù)逐漸興起。它能夠避免人工經(jīng)驗(yàn)特征提取的主觀性及繁瑣性,使得手語(yǔ)識(shí)別方向有了新的切入點(diǎn),有效提高了手語(yǔ)識(shí)別率。具體流程如圖2 所示。

Fig.2 Sign language recognition process based on deep learning圖2 基于深度學(xué)習(xí)的手語(yǔ)識(shí)別流程

2.2.1 特征提取

隨著深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域的快速發(fā)展,其在手語(yǔ)識(shí)別方面的運(yùn)用也得到不斷提升。在視頻特征提取方面,卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)[15]在分類、分割等視覺(jué)任務(wù)上展現(xiàn)出了強(qiáng)大的能力,尤其是三維卷積神經(jīng)網(wǎng)絡(luò)(3D Convolution Neural Network,3D-CNN)的出現(xiàn),更是促使該方法以高效率、高性能的優(yōu)點(diǎn)逐漸取代了傳統(tǒng)手工特征模型。手語(yǔ)信息由姿勢(shì)、運(yùn)動(dòng)軌跡、面部表情等組成,這些包含在視頻的時(shí)序信息中,3D-CNN 可以對(duì)其進(jìn)行較好提取。如Zhu 等[16]利用3D-CNN 提取視頻幀序列的時(shí)間和空間特征,充分保證特征的完整性,最終取得了較好識(shí)別效果。3D-CNN 通過(guò)構(gòu)建一個(gè)三維卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)較短時(shí)間片段上時(shí)空信息的有效學(xué)習(xí),增強(qiáng)了相鄰視頻幀間的連續(xù)性。

2.2.2 手語(yǔ)識(shí)別

循環(huán)卷積神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)針對(duì)提取的特征建立語(yǔ)言模型,將手語(yǔ)視頻序列翻譯成完整句子。如Ye 等[17]將3D-CNN 的全連接層和RNN 進(jìn)行融合,極大地降低了序列塊之間的信息丟失率。但是RNN 無(wú)法解決長(zhǎng)時(shí)依賴問(wèn)題,因此Xu 等[18]將提取的特征通過(guò)長(zhǎng)短期記憶(Long Short-Term Memory,LSTM)進(jìn)行時(shí)間關(guān)系學(xué)習(xí),提高了序列時(shí)間建模準(zhǔn)確率;Cihan 等[19]在手語(yǔ)識(shí)別編碼和解碼階段采用門控循環(huán)單元(Gated Recurrent Unit,GRU),以更好地捕捉時(shí)間序列中時(shí)間步距離較大的依賴關(guān)系。

此外,手語(yǔ)識(shí)別可以看作視頻序列和文本語(yǔ)句序列對(duì)應(yīng)的關(guān)系任務(wù)。HMM 可以進(jìn)行連續(xù)時(shí)間學(xué)習(xí),如Koller等[20]將CNN 端到端地嵌入到HMM 中,以進(jìn)行良好的時(shí)間序列處理,但序列匹配度不高,某一隱藏狀態(tài)對(duì)之前隱藏狀態(tài)的依賴程度較大。為了解決此問(wèn)題,Pu 等[21]通過(guò)(Connectionist Temporal Classification,CTC)損失建立不同手語(yǔ)單詞之間的依賴關(guān)系;Huang 等[22]在編解碼器中使用注意力機(jī)制,將輸入序列分配的不同權(quán)重加入到解碼階段進(jìn)行手語(yǔ)識(shí)別。

綜上所述,基于深度學(xué)習(xí)的手語(yǔ)識(shí)別利用深度學(xué)習(xí)強(qiáng)大的學(xué)習(xí)能力和擬合能力獲取更全面、更抽象的特征,突破了傳統(tǒng)手語(yǔ)識(shí)別方法的局限性。但大部分連續(xù)手語(yǔ)識(shí)別方法只注重網(wǎng)絡(luò)結(jié)構(gòu)創(chuàng)新,忽略了數(shù)據(jù)本身的優(yōu)化處理,使得模型在輸入階段丟失大量有用信息,增加了識(shí)別難度,且對(duì)序列內(nèi)部上下文間的關(guān)聯(lián)性關(guān)注度較低,導(dǎo)致序列時(shí)序關(guān)系提取不完整等問(wèn)題。因此,手語(yǔ)識(shí)別仍然是一個(gè)需深入研究的課題。

3 結(jié)語(yǔ)

隨著計(jì)算機(jī)視覺(jué)領(lǐng)域的不斷發(fā)展,手語(yǔ)識(shí)別研究初顯成效,很多有效算法相繼被提出。但是依然存在一些不足,如輸入階段數(shù)據(jù)較為單一、特征提取到的關(guān)鍵信息較少等。如何在當(dāng)前基礎(chǔ)上進(jìn)一步優(yōu)化模型,最終實(shí)現(xiàn)實(shí)時(shí)手語(yǔ)識(shí)別是未來(lái)研究方向。此外,不同類型的手語(yǔ)數(shù)據(jù)分布不同,如何將不同的手語(yǔ)數(shù)據(jù)訓(xùn)練成同一分布,以更好地進(jìn)行手語(yǔ)識(shí)別也有待深入研究。

猜你喜歡
特征提取分類深度
分類算一算
深度理解一元一次方程
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
分類討論求坐標(biāo)
深度觀察
深度觀察
深度觀察
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
主站蜘蛛池模板: 日韩精品一区二区三区视频免费看| 亚欧美国产综合| 老司机午夜精品网站在线观看| 久久国产精品无码hdav| 国产福利影院在线观看| 重口调教一区二区视频| 欧美精品另类| 亚洲第一色网站| 国产激情无码一区二区免费| 一本大道香蕉久中文在线播放 | 谁有在线观看日韩亚洲最新视频| 一本一道波多野结衣av黑人在线| 高清免费毛片| 中文字幕首页系列人妻| 亚洲天堂成人| 国产精选自拍| 国产精品久久久久久搜索| 99re精彩视频| 亚洲国产成人久久77| 88国产经典欧美一区二区三区| 日韩美毛片| 免费观看精品视频999| 亚洲精品人成网线在线| 人妻中文久热无码丝袜| 亚洲va精品中文字幕| 欧美曰批视频免费播放免费| 996免费视频国产在线播放| 久久亚洲美女精品国产精品| 久久中文字幕不卡一二区| 国产香蕉一区二区在线网站| 欧美色香蕉| 狠狠干欧美| 国内精品自在自线视频香蕉 | 日韩欧美高清视频| 极品国产一区二区三区| 亚洲一区二区无码视频| 高清欧美性猛交XXXX黑人猛交 | 免费人成在线观看视频色| 亚洲欧洲自拍拍偷午夜色| 国产欧美精品一区二区| 亚洲精品动漫| 久久精品亚洲专区| 色综合热无码热国产| 成人伊人色一区二区三区| 91久久夜色精品国产网站| 日本午夜精品一本在线观看| 亚洲第一综合天堂另类专| 亚洲乱码视频| 操美女免费网站| 久久免费成人| 成人av专区精品无码国产 | 香蕉综合在线视频91| 亚洲精品国产自在现线最新| 黄色在线不卡| 色噜噜在线观看| 99视频国产精品| 91福利一区二区三区| 五月丁香在线视频| 一区二区影院| 国产性爱网站| 久久久国产精品无码专区| 久久精品无码国产一区二区三区| 日本成人福利视频| 欧美午夜视频在线| 国产办公室秘书无码精品| 亚洲人视频在线观看| 国产精品私拍99pans大尺度| 在线观看亚洲人成网站| 亚洲激情区| 日韩精品成人网页视频在线 | 国产成人精品日本亚洲77美色| 久久精品人人做人人| av午夜福利一片免费看| 国产日产欧美精品| 欧美a在线看| 一本二本三本不卡无码| 日韩在线欧美在线| 久久毛片网| 国产精品香蕉在线观看不卡| 亚洲国产亚洲综合在线尤物| 久久毛片网| 亚洲日韩Av中文字幕无码|