999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進卷積神經網絡的動態手勢識別①

2020-09-22 07:45:38付天豪于力革
計算機系統應用 2020年9期
關鍵詞:分類

付天豪,于力革

(江南大學 輕工過程先進控制教育部重點實驗室,無錫 214122)

人機交互的方式有很多種,如鼠標鍵盤交互、觸摸屏交互、語音交互、體感交互等.手勢交互作為一種新型的人機交互方式,目前已經成為人機交互的重要方式之一.人手作為身體上最靈活的器官,將它作為人機交互的方式,可以使交互更加便利、通用性能更強.

非接觸式的動態手勢交互已經被應用到體感游戲、輔助駕駛以及手語識別等領域,為人們帶來了簡潔方便的用戶體驗.但是因為手勢具有時間和空間上的多樣性和不確定性,而且人手本身也是復雜的可變形體,所以目前這種人機交互方式還處于實驗階段,理論不是很成熟,能夠識別的范圍比較小.因此,對動態手勢的識別技術研究具有重要意義.常用的動態手勢識別方法有:基于模板匹配的動態時間規整(Dynamic Time Warping,DTW)方法[1,2]和基于模式識別的隱馬爾科夫模型方法[3,4].其中,采用DTW 方法在解決大數據量、復雜手勢、組合手勢識別等問題比較其他方法處于劣勢[5];采用隱馬爾科夫模型識別手勢,該方法復雜、需要大量的訓練數據[2]并且識別總類少.由于深度學習模型具有強大的非線性建模能力,能夠表達更高層次、更加抽象的內部特征等特點,近年來深度學習被用于動態手勢識別[6,7].文獻[6]結合EgoHands 手勢數據集,改進深度卷積網絡模型中的參數和網絡結構,對深度卷積網絡模型進行訓練,得到高識別率動態手勢識別模型,識別準確率能夠達到85.9%,識別速度每秒鐘可達到16.8 幀.文獻[7]利用改進的多維卷積神經網絡提取手勢的時空特征,融合多傳感器信息并通過支持向量機實現微動手勢識別,針對多類動態手勢數據集能達到87%以上的識別準確率,并且對手勢的背景和光照都具有較好的魯棒性.目前動態手勢識別仍存在以下問題:復雜背景干擾、指尖特征點識別和定位困難、光照環境的變化[8],這些問題導致了動態手勢識別識別率低.

針對以上存在問題,提出的動態手勢軌跡特征提取方法能夠有效排除復雜背景的干擾、指尖特征點獲取和定位困難;提出的聯合CNN-Softmax-SVM 的手勢識別算法能夠對動態手勢進行有效識別,從而大大提高了動態手勢識別率.本文中的動態手勢識別系統主要流程如圖1所示.

圖1 動態手勢識別系統流程

首先在HSV 顏色空間下提取指尖貼紙坐標獲取動態指尖重心坐標,通過膚色分割和射線法排除膚色輪廓外復雜背景的干擾,得到待識別的二值化軌跡圖片;其次采用CNN-Softmax 和CNN-SVM 對手寫軌跡樣本訓練分別得到軌跡樣本訓練模型,最后利用訓練好的軌跡樣本分類模型對動態手勢識別.

1 動態手勢特征提取

1.1 獲取每幀圖像指尖軌跡點

為了在復雜背景下很好地對動態手勢指尖順序軌跡點進行采集,在指尖貼上便攜式貼紙,通過檢測每幀貼紙輪廓的質心坐標來定位指尖中心點,其中貼紙要被指尖完全覆蓋.先把每幀圖像從RGB (Red,Green,Blue)顏色空間轉換到HSV (Hue,Saturation,Value)顏色空間:

式中,H為色調,S為飽和度,V為明亮度.利用式(1),將RGB 顏色空間的圖像(圖2(a))轉換成HSV 顏色空間(圖2(b)).本文所選指尖貼紙為藍色,設置圖2(c)的HSV各個分量的閾值范圍為H∈[100°,124°]、S∈[0.169,1]、V∈[0.180,1]得到圖2(c)所示的指尖貼紙二值化圖.

圖2 指尖貼紙預處理

對圖2(c)采用輪廓檢測獲得指尖貼紙輪廓在每一幀圖上的坐標,通過輪廓的矩計算輪廓的質心并作為指尖中心點坐標.

1.2 剔除異常軌跡點

當復雜背景中存在類貼片顏色干擾時,仍然會被誤判為指尖中心點,因此通過判斷指尖中心點是否在膚色輪廓內部,來排除類貼片顏色的背景干擾.在RGB空間里人的膚色受亮度影響較大,把RGB 轉為YCbCr顏色空間提取膚色分量Cr、Cb信息,在一定范圍內可以忽略亮度分量Y的影響.

利用式(2)提取圖2(a)的Cr、Cb分量在Cr∈[127,176] 和Cb∈[85,129]范圍內的值,如圖3(a)和圖3(b)所示.利用大津法(Otsu)對圖3(a)和圖3(b)進行自適應閾值分割,得到相應的二值化圖.然后將Cr和Cb分量的二值圖與操作,則得到二值化的膚色圖.最后采用輪廓檢測獲取二值化膚色圖的連通域輪廓坐標集合.

圖3 膚色分割

通過射線法判斷指尖中心點是否在膚色輪廓坐標連通域內.以待判斷點的坐標點開始,沿橫坐標水平向右作射線,判斷射線與膚色輪廓交點的個數,若為奇數則為指尖中心點如圖4(a)所示,若為偶數則為異常干擾點如圖4(b)所示.

圖4 射線法剔除異常指尖軌跡點

1.3 獲取動態手勢

首先獲取每一幀圖像的膚色輪廓和指尖中心點;其次剔除背景異常點之后將每幀指尖中心點按順序保存至數組中;最后以第一個指尖中心點坐標為手勢起始狀態,以最后一個檢測的指尖中心坐標為手勢結束狀態,將每一個指尖中心點按數組順序相連,即可構成表示該手勢的運動軌跡.如圖5所示為獲取數字字符“2”的動態手勢,其中圖5(b)的字符軌跡包含150 幀的指尖中心順序相連,待用于手勢識別輸入.

圖5 獲取動態手勢

2 聯合CNN-Softmax-SVM 的手勢識別

2.1 卷積神經網絡

卷積神經網絡(Convolutional Neural Networks,CNN)是一種深度前饋人工神經網絡,廣泛應用于圖像分類等計算機視覺問題.CNN 模型主要包括卷積層、降采樣層、全連接層[9].卷積層由濾波器組成,用于“滑動”輸入圖像的寬度和高度,并計算輸入區域的點積和權值學習參數,提取圖像的紋理特征,實現圖像特征的增強.第m層特征圖第j個神經元的輸入為[10]:

當輸入經過卷積層時,若得到的特征圖仍然較大,可以通過下采樣層來對每一個特征圖進行降維操作.下采樣層公式為[10]:

式中,β是下采樣層的權重系數;是下采樣層的偏置項;符號down(·)表示下采樣函數,它通過對輸入特征圖通過滑動窗口方法劃分為多個不重疊的n×n圖像塊,然后對每個圖像塊內的像素求和、求均值或最大值.

提取的特征向量首先通過全連接層,然后再通過Softmax 層得到分類權重,Softmax 層的函數為:

式中,aj表示通過全連接層之后的向量里的第j個值,由于aj沒有范圍大小,通過Softmax 函數之后得到的Pj為類別的概率,范圍在0-1 之間;n為待輸出總類數;e為歐拉常數.

2.2 支持向量機

支持向量機(Support Vector Machine,SVM)[11]是一種機器學習算法,通過將輸入向量映射到一個高維的特征空間,在這個空間中構造最優分類面,從而達到兩類或者多類的樣本劃分,在多數情況下,SVM 比CNN全連接層的線性分類泛化能力好[12].

設樣本集為 (ui,vi),i=1,2,···,n,ui∈Rd,vi∈{1,-1},其中vi是類別標簽;設M為分類間距:過各類樣本中離分類平面最近且平行于分類面的平面之間距離;設所求最優超平面方程為:

式中,w為超平面法向量,決定了超平面的方向,s為位移量,決定了超平面與原點的距離.對式(7)進行歸一化處理使得滿足式(8):

若使M最大,即求||w||2最小.以式(9)為約束條件求 ||w||2最小是一個二次規劃問題,可以轉為對偶問題求解.

以式(9)為約束條件,對ai求解式(10)的最大值:

其中,ai為所求問題的Lagrange 乘子.則最優超平面分類問題可表示為:

由于基于RBF 核函數的支持向量機識別精度高,穩定性強[13].因此文中采用基于RBF 核函數K(u,v)=exp的支持向量機,即令K(ui,uj)=ui·uj,則式(10)的分類函數可表示為:

若支持向量機需要識別k類,采用1-v-r 算法使用k個支持向量機獨立訓練,每個分類器表示1 個類別[14].若k個分類的預測結果中存在多個二分類的正樣本類,將精確率作為分類的置信度,精確率定義如下:

其中,TP是測試的樣本預測為正樣本,并且測試的樣本實際也為正樣本的樣本數;FP是測試的樣本預測為正樣本,并且測試的樣本實際為負樣本的樣本數.最后將置信度最大的正樣本類作為最終的預測類別:

其中,PCi是第i類的精確率.

2.3 聯合CNN-Softmax-SVM 算法

聯合CNN-Softmax-SVM 算法是同時采用在原CNN 模型的基礎上添加了SVM 分類過程和權重判定層,其算法結構如圖6所示.

圖6 算法模型結構

將待識別軌跡特征輸入卷積層、降采樣層、全連接層得到一維形式的特征向量之后,分別通過CNN 網絡的全連接層的Softmax 層和用SVM 分類函數代替CNN 網絡的全連接層的分類函數,得到兩種預分類結果,將兩種預分類結果輸入權重判定層,通過權重判定決定最終輸出.聯合CNN-Softmax-SVM 算法的實現步驟如算法1.

算法1.聯合CNN-Softmax-SVM 算法輸入:1) 待識別手勢軌跡圖 ;ˉM 2) 采用CNN-SVM 訓練樣本后的每種類別識別正確率的平均值集合,其中 是采用C N NSVM 訓練測試集的第i 類,是采用CNN-SVM 訓練樣本后的第i 類平均測試正確率;PCNN-SVM={p1(ˉx1),p1(ˉx2),p1(ˉx3),···,p1(ˉxn)} ˉxi p1(ˉxi)3) 采用CNN-Softmax 訓練樣本后的每種類別識別正確率的平均值集合,其中 是采用CNNSoftmax 訓練測試集的第i 類;是采用CNN-Softmax 訓練樣本后的第i 類平均測試正確率;Class_x PCNN-Softmax={p2(ˉy1),p2(ˉy2),p2(ˉy3),···,p2(ˉyn)} ˉyi p2(ˉyi)輸出:識別類別ˉM→m 1 經過卷積層、降采樣層、全連接層得到一維特征向量 .2 根據式(6)獲取 的類別yCNN-Softmax;根據式(14)獲取 的類別xCNN-SVM.ˉPCNN-SVM=→m→m n∑i=1 p1(ˉxi)3 獲取CNN-SVM 測試樣本識別正確率的平均值 ;獲取CNN-Softmax 測試樣本識別正確率的平均值yCNN-Softmax xCNN-SVM n∑nˉPCNN-Softmax=i=1p2(ˉyi)n 4 if=then

5=6 elseˉPCNN-SVM≥ˉPCNN-Softmax 7 if then p1(xCNN-SVM)≥p2(yCNN-Softmax)Class_x yCNN-Softmax 8 if Class_x xCNN-SVM 9=10 else Class_x yCNN-Softmax 11=12 end if 13 else p1(xCNN-SVM)≤p2(yCNN-Softmax)14 if Class_x=yCNN-Softmax 15 16 else Class_x=xCNN-SVM 17 18 end if 19 end if 20 end if

3 實驗分析

實驗環境的硬件:intel(R) Core(TM) i5-9400 CPU@ 2.90 Hz 2.90 GHz;內存:8.00 GB;系統類型:64 位操作系統,基于x64 的處理器;便攜式手貼紙:貼紙形狀為圓形,貼紙直徑為1 cm,貼紙顏色采用藍色(在HSV顏色空間下貼紙顏色范圍:1 00 ≤H≤124,4 3 ≤S≤255,46 ≤V≤255);攝像頭:羅技(Logitech) C270i IPTV 高清網絡攝像頭720P.

實驗從NIST 數據集[15]中整理出0-9 數字字符樣本圖片各2000 張用于改進卷積神經網絡訓練和測試,實驗樣本數據的訓練和預測都是僅在CPU 下運行.訓練相關參數如表1.

表1 參數分配表

CNN 中所有網絡各層的參數設置如表2所示,其中F、S、P分別表示卷積池化窗的大小、窗口滑動的步長、圖像的邊界填充,Kf表示在當前網絡層中卷積池化窗的個數,Df表示當前網絡層輸出特征的維度.

表2 CNN 各層參數設置

CNN-Softmax 和CNN-SVM 在訓練過程中的誤差下降散點圖如圖7所示,訓練過程的精度折線圖如圖8所示.其中CNN-Softmax 的測試平均精確度為98.23%.另一方面,CNN-SVM 的測試平均精確度為98.04%.

圖7 訓練誤差下降散點圖

圖8 訓練精度折線圖

實驗邀請8 名長期使用臺式電腦的志愿者進行簡單的互動,每位志愿者每個數字字符累計實驗15 次.其中手與攝像頭距離閾值設置在0~60 cm 范圍內;手指與攝像頭中心之間角度閾值設置在0~18.3°范圍內.采用聯合CNN-Softmax-SVM 算法對動態手勢進行識別,識別結果如圖9手勢識別混淆矩陣所示,識別混淆矩陣中第一橫軸為識別出的結果,第一縱軸為識別的類別.

由圖9混淆矩陣可知,本文方法對于動態手勢軌跡具有較高的識別準確率.在識別大部分數字字符上準確率可達到95%以上.

由于數字“0”和“6”、“2”和“3”、“4”和“6”、“5”和“6”、“5”和“8”在基于單目視覺下書寫軌跡具有一定的相似性,容易存在一定程度誤判的情形.單獨采用CNN-Softmax 算法在書寫并識別“5”和“6”時識別率小于93%;單獨采用CNN-SVM 算法在識別數字字符軌跡“2”、“3”、“4”時識別率小于93%;采用本文提出的聯合CNN-Softmax-SVM 算法對0~9 數字字符識別平均準確率能達到95%以上,提高了相似字符識別的準確率.

圖9 志愿者字符手勢識別混淆矩陣

表3給出了本文所提出的聯合CNN-Softmax-SVM 算法和單獨采用CNN-Softmax 和CNN-SVM 算法的對比結果.由表3可知,盡管本文算法的平均識別時間略長,但還是能滿足實時性;另外,采用本文方法在識別率上相比其他幾種方法有了較明顯的提升.

表3 不同動態手勢識別方法的對比

4 結論與展望

基于單目視覺的特征軌跡提取方法,有效地解決了復雜背景的干擾,增強了手勢數據的有效性并且能夠適應大部分動態手勢變換.聯合CNN-Softmax-SVM動態手勢識別算法能夠有效提取動態手勢的軌跡特征,在識別率上也有一定的提高.但由于部分數字字符在基于單目視覺下書寫軌跡具有相似性,容易存在一定程度誤判的情形.在今后研究中應該進一步提高相似字符軌跡的識別率和識別時間.除此之外,本文研究是針對數字字符軌跡分類的手勢識別,也可以嘗試對字母字符軌跡的手勢識別進行實驗研究,以便更好地滿足人機交互的需求.

猜你喜歡
分類
2021年本刊分類總目錄
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
星星的分類
我給資源分分類
垃圾分類,你準備好了嗎
學生天地(2019年32期)2019-08-25 08:55:22
分類討論求坐標
數據分析中的分類討論
按需分類
教你一招:數的分類
主站蜘蛛池模板: 青草精品视频| 亚洲色图欧美激情| 伊人久久综在合线亚洲91| 动漫精品啪啪一区二区三区| 四虎成人精品| 国产亚洲精品自在久久不卡 | 毛片一区二区在线看| 免费看的一级毛片| 91麻豆精品国产高清在线| 欧美成人手机在线观看网址| 亚洲综合狠狠| 亚洲伦理一区二区| 日韩国产精品无码一区二区三区| 亚洲啪啪网| 超清无码熟妇人妻AV在线绿巨人 | 在线欧美国产| 香蕉久久国产超碰青草| 国产精品极品美女自在线| 拍国产真实乱人偷精品| 97色伦色在线综合视频| 久久国产香蕉| 美女被操91视频| 日韩精品一区二区三区视频免费看| 激情综合激情| 国产在线视频欧美亚综合| 欧美日韩第三页| 在线不卡免费视频| 国产毛片久久国产| 2021国产乱人伦在线播放| 国产亚洲欧美日韩在线一区二区三区 | 久久人妻xunleige无码| 高清视频一区| 国产高清在线丝袜精品一区| 青青国产成人免费精品视频| 亚洲男人天堂网址| 真人免费一级毛片一区二区| 日本精品一在线观看视频| 亚洲色图综合在线| 欧美一级专区免费大片| 亚洲女同一区二区| 成人午夜网址| 亚洲视频免| 国产成熟女人性满足视频| 人禽伦免费交视频网页播放| 在线播放真实国产乱子伦| 色综合日本| 亚洲午夜国产精品无卡| 伊人久久精品无码麻豆精品| 国产欧美一区二区三区视频在线观看| 成AV人片一区二区三区久久| 国产一级无码不卡视频| 亚洲欧美精品一中文字幕| 亚洲精品老司机| 亚洲精品爱草草视频在线| 高清无码不卡视频| 亚洲精品在线观看91| 日本高清免费不卡视频| 国产麻豆福利av在线播放| a级毛片在线免费| 国产欧美日本在线观看| 亚洲成人www| 91久久夜色精品国产网站| 美女被躁出白浆视频播放| 五月六月伊人狠狠丁香网| 国产精品亚洲欧美日韩久久| 精品无码视频在线观看| 亚洲va在线∨a天堂va欧美va| 亚洲视频欧美不卡| 日韩av无码DVD| 国产波多野结衣中文在线播放| 久久人人妻人人爽人人卡片av| 国产一区二区三区视频| 久久黄色毛片| 亚洲午夜综合网| AV在线麻免费观看网站| 国产精品综合久久久| 中文成人在线| 一级片一区| 久久一色本道亚洲| 九九免费观看全部免费视频| 国产清纯在线一区二区WWW| 久青草免费视频|