999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于輪廓圖像空頻域特征的舞蹈翻騰姿態識別模型

2019-04-28 12:24:23耿君
現代電子技術 2019年24期

摘要:文中旨在研究基于輪廓圖像空頻域特征的舞蹈翻騰姿態識別模型。該模型先將待識別舞蹈視頻圖像實施腐蝕、膨脹、中心歸一化等預處理,利用處理后圖像提取舞蹈翻騰姿態能量圖,通過離散余弦變換提取舞蹈翻騰姿態能量圖頻域特征,利用C ontourlet變換提取舞蹈翻騰姿態能量圖空域輪廓特征,采用特征級融合方法融合以上特征獲取舞蹈輪廓圖像的空頻域特征向量集,再將待識別舞蹈視頻序列候選姿態利用Baum-Welch算法訓練為隱馬爾可夫模型,利用舞蹈輪廓圖像的空頻域特征向量集將隱馬爾可夫模型量化至觀察序列,通過前向后向算法獲取觀察序列姿態概率,觀察序列概率值最大的隱馬爾可夫模型對應姿態即為所需識別舞蹈翻騰姿態。實驗結果表明,該模型可較好地提取具有空頻域特征的舞蹈輪廓圖像,有效識別舞蹈視頻中舞蹈翻騰姿態,且識別100幀有陰影舞蹈視頻圖像中舞蹈翻騰姿態識別準確率高于96%。

關鍵詞:舞蹈翻騰姿態;姿態識別;輪廓圖像;空頻域特征;模型訓練;對比驗證

中圖分類號:TN911.73-34;TP391

文獻標識碼:A

文章編號:1004-373X( 2019) 24-0146-04

隨著社會不斷進步,舞蹈藝術逐漸進入普通人的生活,人們鑒賞水平以及藝術關注度逐漸提高,如何提升舞蹈藝術水平成為近年來急需解決的問題。利用姿態識別分析人體運動行為已成為近年來相關專家學者的重要研究方向[1]。舞蹈翻騰技巧是評價舞蹈演員基本功以及綜合能力的重要指標,識別舞蹈翻騰姿態對于藝術教學以及研究具有重要意義。目前,人體姿態識別已取得較大成效。文獻[2]方法先通過人體姿態時空特征建立人體結構信息高層描述模型,再采用圖像特征識別方法識別人體姿態。該方法需要通過完整度較高的人體輪廓識別姿態,而視頻中圖像多數無法提取完整度較高的人體輪廓,因此識別準確率較低。文獻[3]方法先提取人體行為特征,利用人體行為特征建立時空與或圖模型,再采用視頻序列運動目標檢測與識別方法識別時空與或圖模型中人體姿態。該方法僅可識別二維圖像中人體姿態,未考慮視頻圖像變化情形,導致識別穩定性較差。文獻[4]方法利用面向情感語音識別方法識別人體姿態特征,該方法選取單一特征識別人體姿態,導致無法準確區分目標區域以及背景區域,識別結果準確性較差。為了解決以上問題,本文提出基于輪廓圖像空頻域特征的舞蹈翻騰姿態識別模型,先提取輪廓圖像的頻域特征以及空域輪廓特征,再通過隱馬爾可夫模型識別舞蹈翻騰姿態特征,具有較強的識別性能,便于人們識別視頻中舞蹈翻騰姿態。

1 舞蹈翻騰姿態識別模型

基于輪廓圖像空頻域特征的舞蹈翻騰姿態識別模型的識別基本流程如圖1所示。

將待識別舞蹈視頻圖像通過腐蝕、膨脹、中心歸一化等預處理后,提取舞蹈翻騰姿態能量圖。利用離散余弦變換以及C onto urlet變換方法提取舞蹈翻騰姿態能量圖中頻域特征以及多方向多分辨率空域輪廓特征[5];利用提取特征區分人體在舞蹈翻騰姿態時高低頻分量并捕捉舞蹈翻騰特征細節信息;采用特征級融合方法融合以上特征獲取輪廓圖像的空頻域特征向量集等進行處理。

1.1 提取舞蹈翻騰姿態能量圖

通過舞蹈翻騰姿態能量圖體現人體舞蹈翻騰姿態速度以及形態等詳細信息,提取舞蹈翻騰姿態能量圖可過濾隨機噪聲,具有較高的魯棒性。

計算待識別視頻各圖像中包含像素點數量,獲取目標像素數量極小時幀號,將相鄰三個具有極小值幀號的圖像幀設置為完整姿態周期,獲取周期內姿態圖像幀數。設一個舞蹈翻騰姿態周期具有n幀圖像,經中心歸一化方法預處理后可得第t幀舞蹈翻騰姿態圖像為Bi(x,y),第t幀舞蹈翻騰圖像所對應舞蹈翻騰姿態能量圖公式如下:式中,G(x,y)為灰度圖像,圖像中各像素點灰度值為該點舞蹈翻騰姿態周期內能量,即舞蹈翻騰過程中像素點出現于此處的頻次。灰度值大小體現該像素點出現于此處的頻次高低[6]。

1.2 提取輪廓圖像空頻域特征

通過離散余弦變換方法提取舞蹈翻騰姿態能量圖中頻域特征,利用頻域信息劃分舞蹈翻騰姿態中高低頻分量;通過C ontourlet變換方法提取舞蹈翻騰姿態能量圖中空域輪廓特征[7]。

1.2.1 提取頻域特征

采用局部二值法等局部特征描述方法無法描述完整舞蹈翻騰姿態。而離散余弦變換方法可區分舞蹈翻騰姿態中高頻與低頻成分,將舞蹈翻騰姿態中動作較小的頭和肩等低頻部分與高頻的四肢擺動動作區分,有效提取舞蹈翻騰姿態頻域特征。利用離散余弦變換方法可準確區分人體舞蹈翻騰姿態時各種頻率,且計算簡單,輕松提取舞蹈翻騰姿態頻域特征[8]。式中f(x,y)表示舞蹈翻騰姿態能量圖中像素點坐標為(x,y)的灰度值;u表示像素點(x,y)水平方向變換率即水平空間頻率;v表示像素點(x,y)垂直方向變換率即垂直空間頻率;F(u,v)表示離散余弦變換后頻率系數,其中,F(O,0)表示圖像頻域特征直流部分。

通過離散余弦變換方法計算舞蹈翻騰姿態能量圖C(x,y)后,獲取與原圖像尺寸相同的變換系數矩陣,該變換系數矩陣體現舞蹈翻騰姿態能量圖像隊形的頻域特征一,。舞蹈翻騰姿態能量圖中低頻分量處于頻率幅度譜左上角,表示圖中像素值較大區域,即變換較慢區域,該區域為舞蹈翻騰姿態能量圖主體部分;舞蹈翻騰姿態能量圖中高頻分量處于頻率幅度譜右下角,表示圖中像素值較小區域,該區域體現舞蹈翻騰姿態能量圖細節以及邊緣部分。

1.2.2 提取空域輪廓特征

1.3 舞蹈翻騰姿態識別

為增加識別準確性,將待識別視頻序列候選姿態訓練為隱馬爾可夫模型[10],需要尋找最優模型參數(A,B,π),使基于該模型生成觀察序列o的概率P(OIA)存在最大值。通過隱馬爾可夫模型中前向后向算法構造輔助變量尋找最優參數識別舞蹈翻騰姿態。前向變量局部概率公式如下:

將待識別視頻序列候選姿態利用Baum-Welch算法訓練為隱馬爾可夫模型,利用輪廓圖像的空頻域特征向量集將隱馬爾可夫模型量化至觀察序列,通過前向后向算法以隱馬爾可夫模型為條件獲取觀察序列的姿態概率P(Ot|λt),即計算所有候選姿態隱馬爾可夫模型生成的觀察序列概率P(Ot|λt),其中f表示候選姿態類別編號。

2 實驗分析

選取CPU為Intel i7 8700,內存為8 GB的PC作為實驗平臺,利用Matlab 7.0數據分析軟件分析實驗結果。從互聯網中選取5段具有翻騰姿態的舞蹈視頻作為實驗對象。

2.1 舞蹈翻騰姿態識別結果

從5段視頻中各截取舞蹈翻騰姿態視頻1 min,其中1 min視頻包括圖像1 440幀。采用本文模型識別5段1 min視頻中的舞蹈翻騰姿態,截取舞蹈視頻中識別的舞蹈翻騰姿態圖像如圖2a)所示,采用本文模型獲取具有空頻域特征的輪廓圖像和5段視頻舞蹈翻騰姿態識別結果如圖2b)所示。

通過圖2識別結果可以看出,采用本文模型可較好地提取具有空頻域特征的舞蹈輪廓圖像。在5段具有1 440幀圖像的舞蹈翻騰視頻中,本文模型識別結果分別為1 429幀、1 429幀、1 431幀、1 427幀、1 419幀。通過以上實驗結果表明,采用本文模型可有效識別舞蹈視頻中舞蹈翻騰姿態。

2.2 舞蹈翻騰姿態識別準確率

以上實驗結果表明,本文模型可有效識別舞蹈翻騰姿態。為進一步檢測本文模型識別性能,將本文模型與分層次模型以及動態路徑模型對比。視頻圖像中存在的陰影嚴重干擾識別舞蹈翻騰姿態準確率,從5段實驗視頻中選取有陰影以及無陰影圖像樣本各100幀,統計三種模型識別情況,對比結果如表1所示。

通過表1實驗結果可以看出,采用本文模型在有陰影的5段100幀視頻圖像中識別舞蹈翻騰姿態準確率均在96%以上;在無陰影的5段100幀視頻圖像中識別舞蹈翻騰姿態準確率均在98%以上。而采用分層次模型在有陰影的5段100幀視頻圖像中識別舞蹈翻騰姿態準確率均在88%以上;在無陰影的5段100幀視頻圖像中識別舞蹈翻騰姿態準確率均在85%以上。采用動態路徑模型在有陰影的5段100幀視頻圖像中識別舞蹈翻騰姿態準確率均在77%以上;在無陰影的5段100幀視頻圖像中識別舞蹈翻騰姿態準確率均在78%以上。

分析實驗結果可知,本文模型在陰影干擾下識別舞蹈翻騰姿態準確率有所降低,但識別結果均高于96%,而分層次模型以及動態路徑模型雖受陰影干擾影響不大,但識別準確率明顯低于本文模型,驗證了本文模型識別舞蹈翻騰姿態的準確性。采用三種模型重復識別5段實驗視頻10次,取10次識別結果平均值,統計三種模型的誤識別率,檢測三種模型識別魯棒性。采用三種模型重復識別舞蹈翻騰姿態誤識別率結果如圖3所示。

通過圖3實驗結果可以看出,采用本文模型重復識別5段視頻中舞蹈翻騰姿態誤識別率均在4%以下,明顯低于采用分層次模型以及動態路徑模型識別舞蹈翻騰姿態誤識別率結果,再次驗證了采用本文模型識別視頻中舞蹈翻騰姿態的準確性。

3 結論

本文研究一種基于輪廓圖像空頻域特征的舞蹈翻騰姿態識別模型,通過離散余弦變換提取舞蹈翻騰姿態能量圖頻域特征,采用Contourlet變換提取舞蹈翻騰姿態能量圖空域輪廓特征,有效提高了利用隱馬爾可夫模型識別舞蹈翻騰姿態精準度。并通過實驗驗證本文模型在有無陰影情況下均可有效識別視頻中舞蹈翻騰姿態,且識別準確率高。

參考文獻

[1]王曲,趙煒琪,羅海勇,等,人群行為分析研究綜述[Jl計算機輔助設計與圖形學學報,2018. 30(12):163-175.

WANG Qu, ZHAO Weiqi, LUO Haiyong, et al.Research oncrowd behavior analysis:a review [J]. Journal of computer-aid-ed design&computer graphics, 2018, 30( 12): 163-175.

[2]鄭瀟,彭曉東,王嘉璇.基于姿態時空特征的人體行為識別方法[J]計算機輔助設計與圖形學學報,2018,30(9):1615-1624.

ZHENG Xiao. PENG Xiaodong, WANG Jiaxuan. Human ac-tion recognition based on pose spatio-temporal features [J]. Jour-nal of computer-aided design&computer graphics. 2018. 30(9):1615-1624.

[3]易唐唐.基于時空與或圖模型的視頻人體動作識別方法[Jl.控制工程,2017 .24(9):1792-1797.

YI Tangtang. Video human action recognition based on spatialtemporal and-or graph model[J]. Control engineering of China,2017. 24(9):1792-1797.

[4]宋春曉,孫穎.面向情感語音識別的非線性幾何特征提取算法[J]計算機工程與應用,2017,53( 20):128-133.

SONG Chunxiao, SUN Ying. Nonlinear geometric feature ex-traction algorithm for emotional speech recognition [J]. Comput-er engineering and applications, 2017. 53(20): 128-133.

[5]周濤,范影樂,朱亞萍,等.基于主視通路層級響應模型的輪廓檢測方法[J],航天醫學與醫學T程,2018.31(3):75-83.

ZHOU Tao, FAN Yingle, ZHU Yaping, et al.Fast contour de-tection method based on hierarchical response model of prima-ry visual pathway [J]. Space medicine&medical engineering,2018, 31(3):75-83.

[6]陳家益,黃楠,熊剛強,等.基于灰度最值和方向紋理的概率濾波算法[J]計算機工程與應用,2017 .53(8):186-192.

CHEN Jiayi, HUANG Nan. XIONG Gangqiang, et al.Proba-bility filtering algorithm based on maximum and mini - mumgray and directional texture [J]. Computer engineering and ap-plications, 2017. 53(8): 186-192.

[7]范哲意,蔣姣,曾亞軍,等.基于空一頻域特征和線性判別分析的視頻步態識別[J]光學技術,2017.43(4):374-380.FAN Zheyi. JIANG Jiao, ZENG Yajun, et al.Video humangait recognition based on space-frequency domain features andlinear discriminant analysis [J]. Optical technique, 2017, 43(4):374-380.

[8]倪曉航,肖明波,基于改進邊緣活動輪廓模型的超聲圖像分割[J]計算機工程與設計,2018,39(6):183-186.

NI Xiaohang, XIAO Mingbo. Ultrasound image segmentationbased on improved edge active contour model [J]. Computer en-gineering and design, 2018. 39(6): 183-186.

[9]蘇富林,錢素娟,魏霖靜,等,頻域內基于鄰域特征學習的單幅圖像超分辨重建[J]計算機工程.2017 .43 (5):255-260.

SU Fulin, QIAN Sujuan, WEI Linjing, et al.Single-image su- per- resolution reconstruction in frequency domain based onneighborhood feature learning [J]. Computer engineering,2017. 43(5):255-260.

[10]康乃馨,何明浩,韓俊,等.時頻域綜合分析的雷達信號識別方法[J]現代防御技術,2017.45(5):162-169.

KANG Naixin, HE Minghao, HAN Jun. et al_Radar signalrecognition method via synthetic analysis in time-frequency do-main [J]. Modern defense technology, 2017, 45(5): 162-169.

作者簡介:耿君(1982-),女,山東濟南人,博士,講師,研究方向為計算機應用。

主站蜘蛛池模板: 97久久人人超碰国产精品| 亚洲高清国产拍精品26u| 国产综合在线观看视频| 激情五月婷婷综合网| 韩日午夜在线资源一区二区| 国产亚卅精品无码| 91毛片网| 在线欧美日韩| 國產尤物AV尤物在線觀看| 精品人妻一区二区三区蜜桃AⅤ | 女人18一级毛片免费观看| 国产欧美日韩18| 亚洲IV视频免费在线光看| 91青青草视频| 青草午夜精品视频在线观看| 欧美日韩va| 免费国产高清精品一区在线| 欧美成人亚洲综合精品欧美激情| 国产成人精品无码一区二| 一级毛片基地| 99尹人香蕉国产免费天天拍| 国产激爽大片高清在线观看| 成人国产精品2021| 亚洲精品va| 成人免费一区二区三区| 亚洲精品国产首次亮相| 蝌蚪国产精品视频第一页| 亚洲无码高清视频在线观看| 精品三级网站| 影音先锋亚洲无码| 67194亚洲无码| 欧美怡红院视频一区二区三区| 欧美亚洲国产视频| 美女无遮挡免费视频网站| 91久久偷偷做嫩草影院| 国产二级毛片| 欧美视频在线第一页| 成人午夜久久| 国产精品亚欧美一区二区三区 | 国产亚洲欧美日韩在线一区二区三区 | 久久精品丝袜高跟鞋| 欧美国产综合色视频| 色综合久久综合网| 精品无码日韩国产不卡av | 日韩欧美国产精品| 亚洲男人的天堂在线观看| 手机精品福利在线观看| 久久国产精品影院| 国内精品九九久久久精品| 伊人久久婷婷| 欧美色伊人| AV在线天堂进入| 久久综合一个色综合网| 日韩A级毛片一区二区三区| 亚洲精品第一在线观看视频| 免费jizz在线播放| 51国产偷自视频区视频手机观看| 精品三级网站| 日本午夜三级| 亚洲成a∧人片在线观看无码| av色爱 天堂网| 91精品专区国产盗摄| 久热精品免费| 国产欧美视频在线| 日韩国产一区二区三区无码| 成年人免费国产视频| 欧美中文字幕一区二区三区| 国产精品视频观看裸模| 国产成人综合日韩精品无码首页 | 亚洲国产黄色| h网站在线播放| 欧美精品一区二区三区中文字幕| 日韩视频福利| 亚洲色图欧美视频| 色天堂无毒不卡| 欧美成人午夜视频免看| 亚洲日韩第九十九页| 免费A级毛片无码免费视频| 老司机久久99久久精品播放| 欧美国产日韩一区二区三区精品影视| 亚洲二三区| 潮喷在线无码白浆|