摘要:文中旨在研究基于輪廓圖像空頻域特征的舞蹈翻騰姿態識別模型。該模型先將待識別舞蹈視頻圖像實施腐蝕、膨脹、中心歸一化等預處理,利用處理后圖像提取舞蹈翻騰姿態能量圖,通過離散余弦變換提取舞蹈翻騰姿態能量圖頻域特征,利用C ontourlet變換提取舞蹈翻騰姿態能量圖空域輪廓特征,采用特征級融合方法融合以上特征獲取舞蹈輪廓圖像的空頻域特征向量集,再將待識別舞蹈視頻序列候選姿態利用Baum-Welch算法訓練為隱馬爾可夫模型,利用舞蹈輪廓圖像的空頻域特征向量集將隱馬爾可夫模型量化至觀察序列,通過前向后向算法獲取觀察序列姿態概率,觀察序列概率值最大的隱馬爾可夫模型對應姿態即為所需識別舞蹈翻騰姿態。實驗結果表明,該模型可較好地提取具有空頻域特征的舞蹈輪廓圖像,有效識別舞蹈視頻中舞蹈翻騰姿態,且識別100幀有陰影舞蹈視頻圖像中舞蹈翻騰姿態識別準確率高于96%。
關鍵詞:舞蹈翻騰姿態;姿態識別;輪廓圖像;空頻域特征;模型訓練;對比驗證
中圖分類號:TN911.73-34;TP391
文獻標識碼:A
文章編號:1004-373X( 2019) 24-0146-04
隨著社會不斷進步,舞蹈藝術逐漸進入普通人的生活,人們鑒賞水平以及藝術關注度逐漸提高,如何提升舞蹈藝術水平成為近年來急需解決的問題。利用姿態識別分析人體運動行為已成為近年來相關專家學者的重要研究方向[1]。舞蹈翻騰技巧是評價舞蹈演員基本功以及綜合能力的重要指標,識別舞蹈翻騰姿態對于藝術教學以及研究具有重要意義。目前,人體姿態識別已取得較大成效。文獻[2]方法先通過人體姿態時空特征建立人體結構信息高層描述模型,再采用圖像特征識別方法識別人體姿態。該方法需要通過完整度較高的人體輪廓識別姿態,而視頻中圖像多數無法提取完整度較高的人體輪廓,因此識別準確率較低。文獻[3]方法先提取人體行為特征,利用人體行為特征建立時空與或圖模型,再采用視頻序列運動目標檢測與識別方法識別時空與或圖模型中人體姿態。該方法僅可識別二維圖像中人體姿態,未考慮視頻圖像變化情形,導致識別穩定性較差。文獻[4]方法利用面向情感語音識別方法識別人體姿態特征,該方法選取單一特征識別人體姿態,導致無法準確區分目標區域以及背景區域,識別結果準確性較差。為了解決以上問題,本文提出基于輪廓圖像空頻域特征的舞蹈翻騰姿態識別模型,先提取輪廓圖像的頻域特征以及空域輪廓特征,再通過隱馬爾可夫模型識別舞蹈翻騰姿態特征,具有較強的識別性能,便于人們識別視頻中舞蹈翻騰姿態。
1 舞蹈翻騰姿態識別模型
基于輪廓圖像空頻域特征的舞蹈翻騰姿態識別模型的識別基本流程如圖1所示。
將待識別舞蹈視頻圖像通過腐蝕、膨脹、中心歸一化等預處理后,提取舞蹈翻騰姿態能量圖。利用離散余弦變換以及C onto urlet變換方法提取舞蹈翻騰姿態能量圖中頻域特征以及多方向多分辨率空域輪廓特征[5];利用提取特征區分人體在舞蹈翻騰姿態時高低頻分量并捕捉舞蹈翻騰特征細節信息;采用特征級融合方法融合以上特征獲取輪廓圖像的空頻域特征向量集等進行處理。
1.1 提取舞蹈翻騰姿態能量圖
通過舞蹈翻騰姿態能量圖體現人體舞蹈翻騰姿態速度以及形態等詳細信息,提取舞蹈翻騰姿態能量圖可過濾隨機噪聲,具有較高的魯棒性。
計算待識別視頻各圖像中包含像素點數量,獲取目標像素數量極小時幀號,將相鄰三個具有極小值幀號的圖像幀設置為完整姿態周期,獲取周期內姿態圖像幀數。設一個舞蹈翻騰姿態周期具有n幀圖像,經中心歸一化方法預處理后可得第t幀舞蹈翻騰姿態圖像為Bi(x,y),第t幀舞蹈翻騰圖像所對應舞蹈翻騰姿態能量圖公式如下:式中,G(x,y)為灰度圖像,圖像中各像素點灰度值為該點舞蹈翻騰姿態周期內能量,即舞蹈翻騰過程中像素點出現于此處的頻次。灰度值大小體現該像素點出現于此處的頻次高低[6]。
1.2 提取輪廓圖像空頻域特征
通過離散余弦變換方法提取舞蹈翻騰姿態能量圖中頻域特征,利用頻域信息劃分舞蹈翻騰姿態中高低頻分量;通過C ontourlet變換方法提取舞蹈翻騰姿態能量圖中空域輪廓特征[7]。
1.2.1 提取頻域特征
采用局部二值法等局部特征描述方法無法描述完整舞蹈翻騰姿態。而離散余弦變換方法可區分舞蹈翻騰姿態中高頻與低頻成分,將舞蹈翻騰姿態中動作較小的頭和肩等低頻部分與高頻的四肢擺動動作區分,有效提取舞蹈翻騰姿態頻域特征。利用離散余弦變換方法可準確區分人體舞蹈翻騰姿態時各種頻率,且計算簡單,輕松提取舞蹈翻騰姿態頻域特征[8]。式中f(x,y)表示舞蹈翻騰姿態能量圖中像素點坐標為(x,y)的灰度值;u表示像素點(x,y)水平方向變換率即水平空間頻率;v表示像素點(x,y)垂直方向變換率即垂直空間頻率;F(u,v)表示離散余弦變換后頻率系數,其中,F(O,0)表示圖像頻域特征直流部分。
通過離散余弦變換方法計算舞蹈翻騰姿態能量圖C(x,y)后,獲取與原圖像尺寸相同的變換系數矩陣,該變換系數矩陣體現舞蹈翻騰姿態能量圖像隊形的頻域特征一,。舞蹈翻騰姿態能量圖中低頻分量處于頻率幅度譜左上角,表示圖中像素值較大區域,即變換較慢區域,該區域為舞蹈翻騰姿態能量圖主體部分;舞蹈翻騰姿態能量圖中高頻分量處于頻率幅度譜右下角,表示圖中像素值較小區域,該區域體現舞蹈翻騰姿態能量圖細節以及邊緣部分。
1.2.2 提取空域輪廓特征
1.3 舞蹈翻騰姿態識別
為增加識別準確性,將待識別視頻序列候選姿態訓練為隱馬爾可夫模型[10],需要尋找最優模型參數(A,B,π),使基于該模型生成觀察序列o的概率P(OIA)存在最大值。通過隱馬爾可夫模型中前向后向算法構造輔助變量尋找最優參數識別舞蹈翻騰姿態。前向變量局部概率公式如下:
將待識別視頻序列候選姿態利用Baum-Welch算法訓練為隱馬爾可夫模型,利用輪廓圖像的空頻域特征向量集將隱馬爾可夫模型量化至觀察序列,通過前向后向算法以隱馬爾可夫模型為條件獲取觀察序列的姿態概率P(Ot|λt),即計算所有候選姿態隱馬爾可夫模型生成的觀察序列概率P(Ot|λt),其中f表示候選姿態類別編號。
2 實驗分析
選取CPU為Intel i7 8700,內存為8 GB的PC作為實驗平臺,利用Matlab 7.0數據分析軟件分析實驗結果。從互聯網中選取5段具有翻騰姿態的舞蹈視頻作為實驗對象。
2.1 舞蹈翻騰姿態識別結果
從5段視頻中各截取舞蹈翻騰姿態視頻1 min,其中1 min視頻包括圖像1 440幀。采用本文模型識別5段1 min視頻中的舞蹈翻騰姿態,截取舞蹈視頻中識別的舞蹈翻騰姿態圖像如圖2a)所示,采用本文模型獲取具有空頻域特征的輪廓圖像和5段視頻舞蹈翻騰姿態識別結果如圖2b)所示。
通過圖2識別結果可以看出,采用本文模型可較好地提取具有空頻域特征的舞蹈輪廓圖像。在5段具有1 440幀圖像的舞蹈翻騰視頻中,本文模型識別結果分別為1 429幀、1 429幀、1 431幀、1 427幀、1 419幀。通過以上實驗結果表明,采用本文模型可有效識別舞蹈視頻中舞蹈翻騰姿態。
2.2 舞蹈翻騰姿態識別準確率
以上實驗結果表明,本文模型可有效識別舞蹈翻騰姿態。為進一步檢測本文模型識別性能,將本文模型與分層次模型以及動態路徑模型對比。視頻圖像中存在的陰影嚴重干擾識別舞蹈翻騰姿態準確率,從5段實驗視頻中選取有陰影以及無陰影圖像樣本各100幀,統計三種模型識別情況,對比結果如表1所示。
通過表1實驗結果可以看出,采用本文模型在有陰影的5段100幀視頻圖像中識別舞蹈翻騰姿態準確率均在96%以上;在無陰影的5段100幀視頻圖像中識別舞蹈翻騰姿態準確率均在98%以上。而采用分層次模型在有陰影的5段100幀視頻圖像中識別舞蹈翻騰姿態準確率均在88%以上;在無陰影的5段100幀視頻圖像中識別舞蹈翻騰姿態準確率均在85%以上。采用動態路徑模型在有陰影的5段100幀視頻圖像中識別舞蹈翻騰姿態準確率均在77%以上;在無陰影的5段100幀視頻圖像中識別舞蹈翻騰姿態準確率均在78%以上。
分析實驗結果可知,本文模型在陰影干擾下識別舞蹈翻騰姿態準確率有所降低,但識別結果均高于96%,而分層次模型以及動態路徑模型雖受陰影干擾影響不大,但識別準確率明顯低于本文模型,驗證了本文模型識別舞蹈翻騰姿態的準確性。采用三種模型重復識別5段實驗視頻10次,取10次識別結果平均值,統計三種模型的誤識別率,檢測三種模型識別魯棒性。采用三種模型重復識別舞蹈翻騰姿態誤識別率結果如圖3所示。
通過圖3實驗結果可以看出,采用本文模型重復識別5段視頻中舞蹈翻騰姿態誤識別率均在4%以下,明顯低于采用分層次模型以及動態路徑模型識別舞蹈翻騰姿態誤識別率結果,再次驗證了采用本文模型識別視頻中舞蹈翻騰姿態的準確性。
3 結論
本文研究一種基于輪廓圖像空頻域特征的舞蹈翻騰姿態識別模型,通過離散余弦變換提取舞蹈翻騰姿態能量圖頻域特征,采用Contourlet變換提取舞蹈翻騰姿態能量圖空域輪廓特征,有效提高了利用隱馬爾可夫模型識別舞蹈翻騰姿態精準度。并通過實驗驗證本文模型在有無陰影情況下均可有效識別視頻中舞蹈翻騰姿態,且識別準確率高。
參考文獻
[1]王曲,趙煒琪,羅海勇,等,人群行為分析研究綜述[Jl計算機輔助設計與圖形學學報,2018. 30(12):163-175.
WANG Qu, ZHAO Weiqi, LUO Haiyong, et al.Research oncrowd behavior analysis:a review [J]. Journal of computer-aid-ed design&computer graphics, 2018, 30( 12): 163-175.
[2]鄭瀟,彭曉東,王嘉璇.基于姿態時空特征的人體行為識別方法[J]計算機輔助設計與圖形學學報,2018,30(9):1615-1624.
ZHENG Xiao. PENG Xiaodong, WANG Jiaxuan. Human ac-tion recognition based on pose spatio-temporal features [J]. Jour-nal of computer-aided design&computer graphics. 2018. 30(9):1615-1624.
[3]易唐唐.基于時空與或圖模型的視頻人體動作識別方法[Jl.控制工程,2017 .24(9):1792-1797.
YI Tangtang. Video human action recognition based on spatialtemporal and-or graph model[J]. Control engineering of China,2017. 24(9):1792-1797.
[4]宋春曉,孫穎.面向情感語音識別的非線性幾何特征提取算法[J]計算機工程與應用,2017,53( 20):128-133.
SONG Chunxiao, SUN Ying. Nonlinear geometric feature ex-traction algorithm for emotional speech recognition [J]. Comput-er engineering and applications, 2017. 53(20): 128-133.
[5]周濤,范影樂,朱亞萍,等.基于主視通路層級響應模型的輪廓檢測方法[J],航天醫學與醫學T程,2018.31(3):75-83.
ZHOU Tao, FAN Yingle, ZHU Yaping, et al.Fast contour de-tection method based on hierarchical response model of prima-ry visual pathway [J]. Space medicine&medical engineering,2018, 31(3):75-83.
[6]陳家益,黃楠,熊剛強,等.基于灰度最值和方向紋理的概率濾波算法[J]計算機工程與應用,2017 .53(8):186-192.
CHEN Jiayi, HUANG Nan. XIONG Gangqiang, et al.Proba-bility filtering algorithm based on maximum and mini - mumgray and directional texture [J]. Computer engineering and ap-plications, 2017. 53(8): 186-192.
[7]范哲意,蔣姣,曾亞軍,等.基于空一頻域特征和線性判別分析的視頻步態識別[J]光學技術,2017.43(4):374-380.FAN Zheyi. JIANG Jiao, ZENG Yajun, et al.Video humangait recognition based on space-frequency domain features andlinear discriminant analysis [J]. Optical technique, 2017, 43(4):374-380.
[8]倪曉航,肖明波,基于改進邊緣活動輪廓模型的超聲圖像分割[J]計算機工程與設計,2018,39(6):183-186.
NI Xiaohang, XIAO Mingbo. Ultrasound image segmentationbased on improved edge active contour model [J]. Computer en-gineering and design, 2018. 39(6): 183-186.
[9]蘇富林,錢素娟,魏霖靜,等,頻域內基于鄰域特征學習的單幅圖像超分辨重建[J]計算機工程.2017 .43 (5):255-260.
SU Fulin, QIAN Sujuan, WEI Linjing, et al.Single-image su- per- resolution reconstruction in frequency domain based onneighborhood feature learning [J]. Computer engineering,2017. 43(5):255-260.
[10]康乃馨,何明浩,韓俊,等.時頻域綜合分析的雷達信號識別方法[J]現代防御技術,2017.45(5):162-169.
KANG Naixin, HE Minghao, HAN Jun. et al_Radar signalrecognition method via synthetic analysis in time-frequency do-main [J]. Modern defense technology, 2017, 45(5): 162-169.
作者簡介:耿君(1982-),女,山東濟南人,博士,講師,研究方向為計算機應用。