999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

虛擬現(xiàn)實交互游戲中的手勢識別

2019-06-27 10:36:04陳立李穎昉劉志遠(yuǎn)王禮華王艷柏
科技創(chuàng)新與應(yīng)用 2019年20期

陳立 李穎昉 劉志遠(yuǎn) 王禮華 王艷柏

摘 要:隨著虛擬現(xiàn)實技術(shù)的發(fā)展和手勢識別技術(shù)的不斷提升,人們對自然交互的方式不斷提出迫切需求。對于交互體驗的游戲而言,尤為突出。此前的研究主要利用普通攝像頭采集圖像,獲取手勢的運(yùn)動形態(tài)及像素信息,無法獲得具有深度信息手勢的三維特征。隨著Leap Motion等深度傳感器的出現(xiàn),更多的深度信息可以被獲取,為識別復(fù)雜的手勢提供了可靠的數(shù)據(jù)保障。文章使用一種基于深度經(jīng)網(wǎng)絡(luò)的游戲交互手勢識別系統(tǒng),與以往的方法相比,具有更好的性能。

關(guān)鍵詞:虛擬現(xiàn)實;手勢識別;卷積神經(jīng)網(wǎng)絡(luò)

中圖分類號:TP393 文獻(xiàn)標(biāo)志碼:A 文章編號:2095-2945(2019)20-0022-03

Abstract: With the development of virtual reality technology and the continuous improvement of gesture recognition technology, people continue to put forward an urgent need for the way of natural interaction. For interactive experience of the game, especially prominent. Previous studies mainly used ordinary cameras to collect images to obtain the motion form and pixel information of gestures, but could not obtain the three-dimensional features of gestures with depth information. With the emergence of depth sensors such as Leap Motion, more depth information can be obtained, which provides a reliable data guarantee for the recognition of complex gestures. In this paper, a game interactive gesture recognition system based on depth neural network is used, which has better performance than the previous methods.

Keywords: virtual reality; gesture recognition; convolution neural network

引言

近年來,在人機(jī)交互、機(jī)器人學(xué)、計算機(jī)游戲等眾多的領(lǐng)域中[1,2],手勢識別[3,4]吸引了越來越多學(xué)者的研究興趣。其中,人機(jī)交互從最初的簡單通過二維圖像界面交互發(fā)展到了更為直觀的自然手勢或姿態(tài)的交互。Leap Motion等深度傳感器的出現(xiàn),可以獲取更多的深度信息,為識別復(fù)雜的手勢提供了可靠的數(shù)據(jù)保障。本文使用深度神經(jīng)網(wǎng)絡(luò)處理交互游戲中的手勢識別,經(jīng)實驗,有良好的性能。

1 深度傳感器Leap Motion

Leap Motion通過雙目視覺以及紅外攝像頭,來獲取每一幀的手部幾何數(shù)據(jù),將數(shù)據(jù)綁定模型中的手部骨骼,在虛擬場景中呈現(xiàn)虛擬手。Leap Motion以圖像中的數(shù)據(jù)幀作為采集的基本單位,將識別到的幾何信息封裝在一個Frame實例中。表1中列出了其中的數(shù)據(jù)類型和意義。

Leap Motion采集到的數(shù)據(jù)格式為一組基于時間的序列信息,記錄的是每個時刻下的序列元素,包含了手勢位移變化、手勢角度變化、手型彎曲變化和手指變化四個特征維度的數(shù)據(jù)集合。本文通過設(shè)定手勢采集起始點(diǎn)和結(jié)束點(diǎn)的閾值,解決采集判斷問題,定義動態(tài)手勢的語義及手勢特征并進(jìn)行分解提取和存儲。最后,通過對提取的數(shù)據(jù)進(jìn)行歸一化處理,以降低后續(xù)模型訓(xùn)練的計算成本。

2 手勢識別

基于視覺的手勢識別通常分為:手勢檢測與分割、手勢建模和手勢識別三個階段。通常根據(jù)圖像信息之間的向量差,或根據(jù)手部信息比如膚色、手型輪廓等來做檢測或者分割。手勢建模則是基于圖像的信息向量序列進(jìn)行模型分析,比如手部輪廓、向量特征、區(qū)域直方圖或運(yùn)動向量軌跡特征等。手勢識別是通過對手勢區(qū)域進(jìn)行分割后對圖像進(jìn)行特征值提取,再對手勢進(jìn)行建模,可將參數(shù)空間中的動態(tài)點(diǎn)集合映照到該片區(qū)域中的里某些子集里。一般的手勢識別過程如圖1所示。

有許多國內(nèi)外學(xué)者開展了手勢識別的相關(guān)研究。如:Zhou和Du[5]比較了人類動物情感機(jī)器人觸摸數(shù)據(jù)集(HAART)中手勢識別的各種深度學(xué)習(xí)算法的性能,包括二維CNN、三維CNN和LSTMS,比較了GM LSTMS、LRCNS和3D CNN在社交觸摸手勢識別任務(wù)中的表現(xiàn)。其所提出的3D CNN方法的識別精度達(dá)到76.1%,明顯優(yōu)于其它算法。文中卷積層為4層,每層卷積核的數(shù)目分別為16-32-64-128。與8-16-32-64和32-64-128-256相比,3D CNN獲得了最佳性能。Jung等人[6]應(yīng)用了4種不同的方法和54種特征,如平均和最大壓力、壓力變異性、每行和每列的平均壓力、每幀的接觸面積,使用留一交叉驗證用來評估算法的性能。其中分類準(zhǔn)確率分別為,Bayesian分類器采用前饋網(wǎng)絡(luò)訓(xùn)練60%,支持向量機(jī)(SVM)57%(SD=11%),決策樹算法48%。

3 卷積神經(jīng)網(wǎng)絡(luò)(CNN)

受Hubel和Wiesel對貓視覺皮層電生理研究啟發(fā),有人提出卷積神經(jīng)網(wǎng)絡(luò)(CNN),其在手寫數(shù)字識別領(lǐng)域,一直保持領(lǐng)先。最近,卷積神經(jīng)網(wǎng)絡(luò)在多個方向持續(xù)發(fā)力,在語音識別、人臉識別、通用物體識別、運(yùn)動分析、自然語言處理甚至腦電波分析方面均有突破。卷積神經(jīng)網(wǎng)絡(luò)通常包含卷積層、線性整流層、池化層和分類層。

3.1 卷積層

卷積層由若干卷積單元組成,每個卷積單元的參數(shù)都是通過反向傳播算法優(yōu)化得到的。卷積運(yùn)算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一些低級的特征如邊緣、線條和角等層級,更多層的網(wǎng)絡(luò)能從低級特征中迭代提取更復(fù)雜的特征。每個卷積操作都由步幅、卷積核大小和零填充指定。步幅是一個正整數(shù),它決定了滑動步幅。在同一卷積運(yùn)算中使用的所有卷積核上,卷積核大小必須是固定的。零填充主要是為了在輸入矩陣的邊緣包含數(shù)據(jù)。在沒有零填充的情況下,卷積輸出的大小比輸入的小。因此,網(wǎng)絡(luò)大小通過具有多個卷積層而縮小,這限制了網(wǎng)絡(luò)中卷積層的數(shù)量。而零填充可以防止網(wǎng)絡(luò)的收縮,并在網(wǎng)絡(luò)體系結(jié)構(gòu)中提供無限的深層結(jié)構(gòu)。

3.2 線性整流層

使用非線性單元的主要目的是調(diào)節(jié)或切斷產(chǎn)生的輸出。CNN中有幾種非線性函數(shù),校正線性單元(ReLU)是應(yīng)用于各種領(lǐng)域的最常見的非線性單元之一。

3.3 池化層

池化層的引入,主要是為了減少輸入的維度。常用的如Max Pooling,是一個廣泛的和有希望的方法,因為它提供了顯著的結(jié)果,通常可降低輸入尺寸大小的75%。

3.4 分類層

SoftMax層是證明分類分布的一種很好的方法,主要用于輸出層,是輸出值的標(biāo)準(zhǔn)化指數(shù)[7]。這個函數(shù)是可微的,表示輸出的一定概率。此外,指數(shù)元素增加了最大值概率。

4 本文方法

本文使用CNN和傳感器數(shù)據(jù)對游戲交互手勢進(jìn)行分類識別,具體實現(xiàn)畫圓、畫叉、向左劃、向右劃、向上劃、向下劃、向前劃和向后劃8種手勢的分類。其中,主要的困難在于找不到一個最佳的CNN架構(gòu)。為此,本文首先定義網(wǎng)絡(luò)的輸入和輸出結(jié)構(gòu),具體結(jié)構(gòu)見表2。LeapMotion以超過每秒200幀的速度追蹤手部移動,每個樣本都是一個640×240的矩陣。本文采集實驗了5~50幀數(shù)的數(shù)據(jù),為有效實現(xiàn),輸入幀數(shù)固定為25,并對具有短幀的樣本使用零填充。網(wǎng)絡(luò)輸入(640×240×25)為CNN提供了一個巨大的輸入

量,并且計算成本很高。因此使用固定長度分割樣本,將每個樣本劃分為子樣本。當(dāng)幀數(shù)不能完全被給定的子樣本長度整除時,對于幀數(shù)小于給定子樣本的用零填充。該方法具有以下優(yōu)點(diǎn):

(1)訓(xùn)練神經(jīng)網(wǎng)絡(luò)的樣本數(shù)量增加,具體數(shù)量由幀長度決定。幀長度短的表示附加的子樣本信息較少,反之亦然。

(2)從主樣本的一部分獲得了子樣本。

(3)在接收到固定幀數(shù)的數(shù)據(jù)后識別手勢。

本文使用傳感器中的輸出數(shù)據(jù)作為計算分類,具有8個類的SoftMax函數(shù)是方法的輸出。在CNN中,卷積階段的輸出特征圖數(shù)量等于使用的卷積核數(shù)量。因此,在卷積層中使用的卷積核的增加會導(dǎo)致輸出特征映射的增加。通過輸入通道增加,從而增加卷積運(yùn)算,如前所述,卷積運(yùn)算的計算成本很高。

5 結(jié)論

對于交互手勢的分類識別,本文方法使用Python語言實現(xiàn),Jupyter NoteBook作為開發(fā)環(huán)境,深度學(xué)習(xí)框架使用Keras和TensorFlow。輪數(shù)為50,批量大小為250,簡單隨機(jī)梯度下降(SGD)作為學(xué)習(xí)函數(shù);動量項為0.9,學(xué)習(xí)率分別為1、0.5、0.1、0.05和0.001。在每10個周期中,通過前一批數(shù)據(jù)搜索一個新的學(xué)習(xí)率,并選擇損失最小的學(xué)習(xí)。并在算法中進(jìn)行了二次采樣,產(chǎn)生了更多的訓(xùn)練數(shù)據(jù),提高了正確的分類率,表3為本文方法的識別率。該方法不需要數(shù)據(jù)預(yù)處理或人工特征提取,可以端到端應(yīng)用。其次,可以在接收到少量的傳感器數(shù)據(jù)后識別分類。

參考文獻(xiàn):

[1]Kumar S, Singh S K, Singh R, et al. Deep Learning Framework for Recognition of Cattle Using Muzzle Point Image Pattern[J]. Measurement, 2017,116.

[2]Yawei Hou, Huailin Zhao. Handwritten Digit Recognition Based on Depth Neural Network[C]. ICIIBMS 2017-2nd International Conference on Intelligent Informatics and Biomedical Sciences , Nov.24-26,2017, Okinawa, Japan. P35-38.

[3]Tian C, Liu J, Peng Z M. Acceleration Strategies for Speech Recognition Based on Deep Neural Networks[J]. Applied Mechanics & Materials, 2014,556-562:5181-5185.

[4]Zhang Q , Yang L T , Chen Z , et al. A survey on deep learning for big data[J]. Information Fusion, 2018,42:146-157.

[5]N. Zhou and J. Du, "Recognition of social touch gestures using 3D convolutional neural networks," in Proceedings of Chinese Conference on Pattern Recognition, November 2016,Changsha,China, pp. 164-173.

[6]M. M. Jung, M. Poel, R. Poppe, and D. K. Heylen, "Automatic recognition of touch gestures in the corpus of social touch,"Journal on Multimodal User Interfaces, 2017, vol. 11, no. 1,pp. 81-96.

[7]Nnhacks,https://nnhacks.github.io/A_Simple_Introduction_to_Soft

max_Function.html, 2017.

主站蜘蛛池模板: 国产又粗又爽视频| 99热最新网址| 国产男女XX00免费观看| 99这里只有精品在线| 中文字幕免费播放| 国产高清国内精品福利| 久久久久亚洲av成人网人人软件| 男人天堂亚洲天堂| 又爽又大又黄a级毛片在线视频| 97人妻精品专区久久久久| 久久特级毛片| 亚洲天堂日本| 日韩无码一二三区| 一级毛片免费观看久| 欧美精品v欧洲精品| 国产高清在线精品一区二区三区 | 91九色最新地址| 日韩欧美一区在线观看| 国产一区三区二区中文在线| 国产v精品成人免费视频71pao| 亚洲毛片网站| 久久精品国产999大香线焦| 午夜视频www| 国产美女91视频| 最新加勒比隔壁人妻| 亚洲乱伦视频| 五月婷婷伊人网| 黄色不卡视频| 亚洲高清资源| 国产人碰人摸人爱免费视频| 中文国产成人精品久久| 91青青草视频在线观看的| 久久久久亚洲Av片无码观看| 91成人在线免费视频| 在线观看亚洲天堂| 久久夜色撩人精品国产| 国产门事件在线| 夜色爽爽影院18禁妓女影院| 国产主播在线观看| 亚洲人免费视频| 国产女主播一区| 国产欧美一区二区三区视频在线观看| 日韩最新中文字幕| 四虎精品国产永久在线观看| 欧美高清三区| 色哟哟国产精品| 在线视频精品一区| 午夜毛片免费观看视频 | 四虎亚洲精品| 超级碰免费视频91| 538精品在线观看| 国产精品浪潮Av| 538精品在线观看| 白浆免费视频国产精品视频| 久久黄色视频影| 天天色天天操综合网| 久久亚洲美女精品国产精品| 久久中文字幕不卡一二区| 青青久视频| 又粗又硬又大又爽免费视频播放| 久久性妇女精品免费| 白浆视频在线观看| 曰韩人妻一区二区三区| 国内精品自在自线视频香蕉| 91精品亚洲| 四虎永久免费地址在线网站| 手机成人午夜在线视频| 超碰aⅴ人人做人人爽欧美| 亚洲欧美日韩综合二区三区| 欧美精品在线观看视频| 超碰色了色| 国产一区二区丝袜高跟鞋| 亚洲精品免费网站| 制服丝袜国产精品| 狠狠五月天中文字幕| 国产精品久久久久无码网站| 天天爽免费视频| 亚洲男人天堂2020| 国禁国产you女视频网站| 呦系列视频一区二区三区| 怡春院欧美一区二区三区免费| 国产后式a一视频|