999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于感知學習算法的啦啦操動作風格識別與性能分析

2024-01-01 00:00:00徐靜
景德鎮(zhèn)學院學報 2024年3期
關鍵詞:機器學習

摘"要:為了解決傳統(tǒng)啦啦操動作風格評價因過度依賴裁判主觀判斷而導致的不準確性,文章提出了一種基于感知學習的啦啦操動作風格識別與評價方法。研究對象為正負樣本不均衡的啦啦操初學者,他們被隨機分為實驗組與對照組。同時,采用基于PUCNN和循環(huán)神經(jīng)網(wǎng)絡的模式識別算法對標準姿勢輸入數(shù)據(jù)進行特征提取,并建立三種感知學習類型的識別評價模型,從而驗證PUCNN和循環(huán)神經(jīng)網(wǎng)絡的模式識別算法的有效性。在感知學習過程中,基于PUCNN和循環(huán)神經(jīng)網(wǎng)絡的模式識別算法與專家評委的打分相近;與DT算法、PCNN算法及LRCN算法相比,該算法的識別準確率最高,達976%,GPU運行時間最短,為2.2小時。

關鍵詞:啦啦操;動作風格識別;感知學習;計算機視覺;機器學習

中圖分類號:G837"""""文獻標識碼:A""""""文章編號:20959699(2024)03004805

啦啦操作為一種富有創(chuàng)造力、表現(xiàn)力和藝術性的現(xiàn)代體育項目,吸引了越來越多的關注[1]。啦啦操表演不僅可以增進團隊合作意識、培養(yǎng)學生的想象力和創(chuàng)造力,還可以提高個體的身體素質(zhì)與協(xié)調(diào)性。傳統(tǒng)的啦啦操動作風格的識別與評價通常依賴于教練或裁判的經(jīng)驗和觀察[2]。然而,這種主觀評價方式容易受到評價者個人認識和喜好的影響。為了克服這些局限性,基于機器學習和計算機視覺的動作識別技術得到了廣泛關注和研究[3]。

劉文萍等[4]提出了一種基于圖像識別的方法,利用圖像處理與特征提取技術識別和分析啦啦操上臂動作,從而檢測和糾正動作誤差。吳子依和陳泯融[5]介紹了一種融合時空域注意力模塊的多流卷積人體動作識別方法,通過對人體動作時空信息的建模和關注,提高了動作識別準確性。李麗等[6]以基于美國啦啦操教學模式為理論基礎,提出了一種基于協(xié)同治理理論的教學模式,以提升高校啦啦操教學的效果和質(zhì)量。畢春艷、劉越[7]探討了基于深度學習的視頻人體動作識別的研究,綜述了深度學習在該領域的應用,包括基于3D卷積神經(jīng)網(wǎng)絡和循環(huán)神經(jīng)網(wǎng)絡的方法以及利用時空特征和注意力機制進行動作識別的技術。這些研究為啦啦操動作誤差識別、人體動作識別、教學模式和動作審美等方面提供了一些有益的見解。然而,仍然存在一些挑戰(zhàn)和問題亟待解決,例如不同動作風格的識別、數(shù)據(jù)集標注的一致性等[8]。特別是,對于正負樣本不均衡的動作樣本,識別效果常常不佳。姿態(tài)卷積神經(jīng)網(wǎng)絡(Pose Convolutional Neural Networks,PCNN)是一種能夠有效處理正負樣本不平衡問題的深度學習模型[9]。在啦啦操動作風格識別中,正樣本通常是指特定風格的動作,而負樣本則涵蓋其他風格的動作或者非啦啦操動作。在訓練動作風格識別中,正樣本數(shù)量往往較少,而負樣本數(shù)量較多,導致傳統(tǒng)分類算法的識別效果較差。因此,采用PCNN能夠有效處理樣本不平衡的情況,提高動作識別的準確性和穩(wěn)定性[9]。

文章通過引入感知學習方法,從學生的動作特征中提取信息,并根據(jù)個人的表演風格提出識別與評價學生啦啦操動作風格的方法。通過對動作風格的識別與評價,學生可以更好地了解自己的表演特點,并獲得個性化的指導和反饋。該研究為啦啦操教學帶來了個性化和智能化的變革,提高了學生的學習體驗和效果。同時,教練也能從中受益,可以更好地理解學生的特點和需求,針對性地進行教學和指導。這對于啦啦操教學領域的發(fā)展具有重要意義。

1"資料與方法

1.1"一般資料

該實驗選擇啦啦操選修班的學生作為實驗對象,隨機將學生分成實驗組與對照組,學生年齡在16至17歲之間。實驗組共有21名學生,男生5人,女生16人,其中5名學生(23.8%)有啦啦操學習經(jīng)歷。對照組同樣有21名學生,男生6人,女生15人,其中6名學生(28.5%)有啦啦操學習經(jīng)歷。

1.2"方法

1.2.1"測試方案

實驗組和對照組學生學習啦啦操中的規(guī)定動作和32個基本手位,共計16課時。根據(jù)風格劃分,該啦啦操內(nèi)容分為視覺(80%以上為腳步運動)、聽覺(80%以上為嘴部運動)和觸覺(80%以上為手部拍擊動作)等三種類型,三種類型內(nèi)容分別占據(jù)整體啦啦操時長的1/3。首先,采用深度攝像頭采集多名學生標準動作的視頻樣本,并使用python語言系統(tǒng)進行系統(tǒng)開發(fā)。然后,利用計算機視覺技術和姿態(tài)估計算法提取演示視頻的關鍵幀或關鍵點,將動作轉(zhuǎn)化為機器可識別的數(shù)值表示。通過專家評委打分確定標準動作的訓練得分。實驗中采用循環(huán)神經(jīng)網(wǎng)絡和PoseUpgrade CNN算法(以下簡稱為PUCNN),其采用5通道圖片處理模式,包括灰度信息、三維梯度和方向光流。經(jīng)過數(shù)據(jù)處理后,使用4位卷積核和池化核進行處理,最后,通過分類器得到結(jié)果。PUCNN在PCNN算法的基礎上增加輸入幀數(shù),從7幀增加到17幀,以適應啦啦操運動員在訓練或比賽中使用的復雜連續(xù)動作。

訓練過程中,以及在16課時學習結(jié)束后,分別對實驗組與對照組進行評分,通過評分結(jié)果激勵學生的積極性與自我糾正意識;其中,實驗組基于感知學習模型的樣本視頻關鍵幀進行感知學習進行打分,對照組則采用傳統(tǒng)的教學老師進行打分。課程結(jié)束后,由專家評委老師對實驗組與對照組的學生進行打分,以檢驗學習效果。通過統(tǒng)計學分析方法對打分結(jié)果進行分析,衡量識別模型性能,驗證基于感知學習的教學是否比傳統(tǒng)教學有更加積極的影響。

1.2.2"人體動作智能捕捉

通過PUCNN算法基于RGB視頻提取人體三維骨骼數(shù)據(jù),如圖1所示,黑點為檢測到的關鍵點,黑線表示各個關鍵點的物理連接。鑒于體操動作的復雜性和變化性較大,為準確識別復雜的體操動作,提高動作識別與評估的準確性,文章提出增加特征歸納法進行特征規(guī)范處理。該方法針對訓練樣本視頻庫中的動作樣本提取特征,使用TDF202視頻庫作為樣本庫。通過最大時長的計算獲取尺度不變特征變化匹配度值,并結(jié)合運動歷史圖像來完成特征提取。將目標矩形分割成小塊并計算匹配度值,選擇中心位置進行采樣。該值依賴于物體周圍的關鍵點,與圖像的位置無關,并減少光線等環(huán)境因素的影響。

1.2.3"基于循環(huán)神經(jīng)網(wǎng)絡算法和PUCNN算法

使用三維卷積核實現(xiàn)相連幀的重復疊加,相連的幀的特征提取矢量圖通過與i-1層的對等相連幀勾連后,經(jīng)過卷積層模擬人體動作信息[10]。計算公式如下所示:

Pabcij=CATHxij+∑n∑Qi-1q=0∑Ri-1r=0∑Si-1s=0wqrsijntx+qy+rz+si-1n(1)

式(1)中,Pabcij表示i層與j層之間特征比對的圖像點位a,b,c的結(jié)果數(shù)值,CATH()為雙曲線正切函數(shù),xij為相鄰的兩層卷積層之間的凸顯差異值,n表示上一層識別的特征要素數(shù)量。Qi、Ri、Si、wqrsijn分別為三維卷積核的時間維度、空間維度、卷積核數(shù)量、卷積核的權重值;tx+qy+rz+si-1n為時間t的偏置向量。文中選擇3×3矩陣作為池化核的大小。

運動歷史圖像是基于圖像位置的變化軌跡,模擬并突出顯示人體動作的情況,具體算法如式(2)所示:

Isx,y,t=τ,ifφx,y,t=1max0,Isx,y,tδ(2)

式(2)中,使用x,y,t代表時間和空間維度值,τ表示持續(xù)時長,δ表示衰減值,φ表示幀與幀之間的差異函數(shù),φx,y,t=1,ifDx,y,tδ0,esle,其中的D函數(shù)為Ix,y,t-Ix,y,t+ω,ω表示幀間的位置差。通過關鍵幀圖片記錄了與動作相關的信息,在視頻樣本模型建立過程中,將提取的特征動作信息與訓練模型信息進行比對與分類,實現(xiàn)規(guī)范化處理。

然而,在大型視頻樣本分析中,數(shù)據(jù)量過大可能會引發(fā)梯度消失等問題。為了解決這一問題,文章在原有神經(jīng)循環(huán)網(wǎng)絡算法基礎上[11],引入了LSTM遺忘門結(jié)構[12],其計算方法為:

ft=sigmoidWfht-1xt+cf (3)

it=sigmoidWiht-1xt+ci(4)

ct=CATHWchc-1xt+cc(5)

ot=sigmoidWoht-1xt+co(6)

式中,ot為上一層輸出結(jié)果;ht-1為上一時刻的輸出結(jié)果,xt為當前的輸入數(shù)據(jù)。ft為遺忘門輸出結(jié)果,用于決定是否遺忘上一時刻的狀態(tài)。it和ct分別表示輸出結(jié)果和當前的狀態(tài)。它們的主要作用是確定是否更新當前狀態(tài)并將新的信息加入細胞狀態(tài)中。ct和ct-1分別表示更新前和更新后的細胞狀態(tài)。Wf、Wi、Wc、Wo表示權重矩陣,用于對遺忘門、輸入門和輸出門進行加權調(diào)整。cf、ci、cc、co表示偏置向量,用于進行偏置調(diào)整。

所有研究均在Linux 14.04操作系統(tǒng)中完成,測試環(huán)境為:CPU (6核,1.6 GHz)、GPU GTX1080 (顯存8GB),使用Caffe框架。基于循環(huán)神經(jīng)網(wǎng)絡和PUCNN的識別算法執(zhí)行過程包括以下步驟:特征提取、卷積操作、池化操作、歸一化操作和循環(huán)迭代等。循環(huán)神經(jīng)網(wǎng)絡與PUCNN算法流程如圖2所示,需要將光流數(shù)據(jù)和待識別的 RGB 圖像數(shù)據(jù)作為并行輸入進行處理。在模型中進行各種模式識別和樣本訓練步驟,并對訓練結(jié)果進行加權處理,最終完成對啦啦操動作風格的識別。

1.3"評價標準

全國啦啦操委員會審定的《啦啦操評分標準》明確規(guī)定,啦啦操評判指標分為四個部分:“啦啦操動作完成技術;啦啦操團隊協(xié)作能力;編排設計因素;觀眾吸引能力”。因此,文中采用感知學習得分與專家評委打分作為實驗組和對照組的得分構成。

1.4"統(tǒng)計學方法

采用SPSS 20.0軟件進行數(shù)據(jù)處理,感知學習得分與識別計量資料以平均值表示;采用t檢驗進行單因素分析,其中顯著性水平Plt;0.05,表示數(shù)據(jù)差異具有統(tǒng)計學意義。

2"結(jié)果分析

2.1"感知學習識別與評價

為驗證識別與評價的效果,根據(jù)上述測試方案進行實驗,分別對實驗組與對照組進行t檢驗分析,結(jié)果如表1所示。從表1可知,實驗組視覺類型的均值為51.50分,聽覺類型的均值為45.66分,觸覺類型的均值為47.25分;對照組視覺類型的均值為52.33分,聽覺類型的均值為46.27分,觸覺類型的均值為46.58分。實驗組與對照組的評分非常接近,說明該訓練模型能夠有效的識別與評價啦啦操動作風格,有助于動作訓練指導。在不同風格類型方面,視覺類型學習者的感知學習得分相對較高,而聽覺和觸覺類型的學習者得分則相對較低。視覺和聽覺類型學習者的標準差較接近,分別為2.28和2.38,這意味著這兩類學習者之間的得分變異度相對較小,具有一定的一致性。在聽覺類型學習者中,t值為8.25,P值為0.004。這表明聽覺學習者與其他兩種類型的學習者存在顯著差異;而視覺類型與觸覺類型的t值分別為10.83與11.22,且差異不顯著(Pgt;0.05)。

2.2"光流數(shù)據(jù)與RGB圖像數(shù)據(jù)的訓練準確率

為了測試靜態(tài)圖像與動態(tài)視頻圖像對循環(huán)神經(jīng)網(wǎng)絡和PUCNN算法識別準確率的影響,以錄制的啦啦操訓練視頻作為光流數(shù)據(jù)[13],隨機選取幀作為RGB圖像數(shù)據(jù),分別進行大量的循環(huán)迭代訓練。實驗結(jié)果表明,隨著訓練次數(shù)的增加,動作識別準確率逐漸提升,并在后期趨于平穩(wěn),見圖3。其中,光流數(shù)據(jù)神經(jīng)網(wǎng)絡在循環(huán)次數(shù)達到15 000次之前表現(xiàn)出顯著增幅,之后準確率趨于穩(wěn)定;而RGB圖像數(shù)據(jù)神經(jīng)網(wǎng)絡在循環(huán)次數(shù)9 000次后達到穩(wěn)定閾值。兩者的準確率均能保持在95%以上。但光流數(shù)據(jù)的神經(jīng)網(wǎng)絡需要更多的循環(huán)次數(shù)來達到穩(wěn)定閾值,而RGB圖像數(shù)據(jù)神經(jīng)網(wǎng)絡則相對較少。

2.3"光流數(shù)據(jù)與RGB圖像數(shù)據(jù)融合對動作識別的影響分析

在實驗過程中,對光流數(shù)據(jù)和RGB圖像數(shù)據(jù)按照一定的權重值進行融合。通過參數(shù)值的驗證,發(fā)現(xiàn)光流數(shù)據(jù)的動作識別整體上優(yōu)于RGB圖像數(shù)據(jù)的識別效果,具體數(shù)據(jù)如圖4所示。識別準確率的峰值出現(xiàn)在光流數(shù)據(jù)權重為0.6時,達到最佳效果。該測試顯示出光流數(shù)據(jù)在動作識別中的重要性及其運動信息捕捉的優(yōu)勢。因此,將光流數(shù)據(jù)與RGB圖像數(shù)據(jù)融合能夠有效提升動作識別的準確性。

為驗證文中提出的混合算法的識別效果,以UCF101數(shù)據(jù)庫的視頻圖像作為樣本集,總計6 680段視頻,分別對比決策樹(Decision Tree,DT)算法[14]、分離式長期循環(huán)卷積網(wǎng)絡(Separate longterm recurrent convolutional networks,LRCN)算法[15]、PCNN模型算法[9]以及循環(huán)神經(jīng)網(wǎng)絡和PUCNN算法的識別效果,結(jié)果如表2所示。文中提出的算法在動作識別準確率方面表現(xiàn)出色,達到了97.6%;相比之下,DT模型算法的識別準確率為76.5%,LRCN模型算法為83.9%,PCNN模型算法為88.7%。文中提出的算法在動作識別任務中具有顯著優(yōu)勢,且取得更高準確率。同時,在運行時間方面,文中提出的算法相較于其他三種算法表現(xiàn)出明顯優(yōu)勢,運行時間分別減少約82%、67%和86%,為實際應用和實時場景的需求提供便利。

3"結(jié)論

研究提出的混合算法在啦啦操動作風格識別與評價任務中呈現(xiàn)出明顯優(yōu)勢。通過將光流數(shù)據(jù)和RGB圖像數(shù)據(jù)的融合,并依托感知學習方法進行特征提取與模型訓練,使動作風格的識別和評價更加客觀和準確。在實驗過程中,光流數(shù)據(jù)和RGB圖像數(shù)據(jù)的循環(huán)迭代訓練準確率與訓練次數(shù)呈正相關。光流數(shù)據(jù)神經(jīng)網(wǎng)絡在達到穩(wěn)定循環(huán)次數(shù)后準確率優(yōu)異;而RGB圖像數(shù)據(jù)神經(jīng)網(wǎng)絡則較早達到穩(wěn)定閾值。通過對光流數(shù)據(jù)和RGB圖像數(shù)據(jù)的融合實驗,發(fā)現(xiàn)基于光流數(shù)據(jù)的識別準確率整體高于基于RGB圖像數(shù)據(jù)的效果。在權重為0.6時,光流數(shù)據(jù)的識別準確率達到97.6%的峰值。由此可見,該研究對提升啦啦操動作風格識別與評價的重要性,為教學、訓練和比賽等領域提供理論與實踐指導。未來的研究可以進一步探討基于感知學習的方法在其他體育項目中的應用,并結(jié)合更多的數(shù)據(jù)和算法優(yōu)化策略,提升動作識別的準確性和實用性。

參考文獻:

[1]張慶如.啦啦操運動發(fā)展演進及特征表現(xiàn)[J].北京體育大學學報,2010,33(12):142144.

[2]李萍,周楊.高校啦啦操“課程思政”:緊迫性、特色優(yōu)勢與實踐路向[J].廣州體育學院學報,2021,41(06):115118.

[3]王駿昇,吳盡,尹軍.國家射箭隊運動員不同技術環(huán)節(jié)的身體姿態(tài)特征研究[J].中國體育科技,2022,58(11):36.

[4]劉文萍,李影.基于圖像識別的啦啦操上臂動作誤差識別方法[J].滄州師范學院學報,2023,39(01):106112.

[5]吳子依,陳泯融.融合時空域注意力模塊的多流卷積人體動作識別[J].華南師范大學學報(自然科學版),2023,55(03):119128.

[6]李麗,呂萬剛,區(qū)峻,等.美國啦啦操項目協(xié)同治理的經(jīng)驗與啟示[J].體育與科學,2022,43 (03):8088.

[7]畢春艷,劉越.基于深度學習的視頻人體動作識別綜述[J].圖學學報,2023,44(04):625639.

[8]孫冬,宋楊,岑炫震,等.基于計算機視覺的運動動作無標記識別技術研究進展[J].上海體育學院學報,2021,45(09):16.

[9]張耕慎.基于深度學習的三維計算機視覺下的6D姿態(tài)估計[D].深圳:中國科學院大學(中國科學院深圳先進技術研究院),2021.

[10]周玉林,李翰君,姚天奇,等.基于神經(jīng)網(wǎng)絡預測足球運動員側(cè)切變向動力學[J].醫(yī)用生物力學,2021,36(S01):148.

[11]姜華,歐陽紅,方紅旺,等.一種雙向長短時記憶循環(huán)神經(jīng)網(wǎng)絡的問句語義關系識別方法[J].福州大學學報(自然科學版), 2018,46 (01):5258.

[12]楊賀羽,杜洪波,朱立軍.基于順序遺忘編碼和BiLSTM的命名實體識別算法[J].計算機應用與軟件,2020,37(02):213217.

[13]陳旭東,周昱琪,李夢杰,等.基于SoC FPGA和CNN模型的動作識別系統(tǒng)設計[J].電子技術應用,2019,45(02): 97104,108.

[14]丁曉慧,周磊.基于DTSVM優(yōu)化算法的人體姿態(tài)特征提取與識別研究[J].太原師范學院學報(自然科學版),2024,23 (01):3944,52.

[15]李學翰,胡四泉,石志國,等.基于SLRCN的微表情識別算法[J].工程科學學報,2022,44(01):104113.

責任編輯:肖祖銘

Action Style Recognition and Performance Analysis ofCheerleading Based on Perceptron Learning Algorithm

XU Jing

(College of Physical Education, Huainan Normal University, Huainan 232001, China)

Abstract:In order to address the inaccuracies in traditional cheerleading style evaluation stemming from an overreliance on referee′ subjective judgments, this paper proposes a method of recognizing and evaluating cheerleading styles based on Perceptron Learning. Cheerleading beginners with uneven positive and negative samples are randomly divided into experimental group and control group. A pattern recognition algorithm based on PUCNN and recurrent neural network has been employed to extract features from the standard posture input data, and three types of Perceptron Learning style recognition evaluation models have been established to verify the effectiveness of the style recognition algorithm based on PUCNN and recurrent neural network. In the Perceptron Learning, the scores from the pattern recognition algorithm closely align with those from expert judges. Compared to DT algorithm, PCNN algorithm and LRCN algorithm, this algorithm achieves the highest recognition accuracy rate of 97.6% and the shortest GPU runtime of 2.2 hours.

Keywords:cheerleading; action style recognition; Perceptron Learning; computer vision; machine learning

猜你喜歡
機器學習
基于詞典與機器學習的中文微博情感分析
基于網(wǎng)絡搜索數(shù)據(jù)的平遙旅游客流量預測分析
時代金融(2016年27期)2016-11-25 17:51:36
前綴字母為特征在維吾爾語文本情感分類中的研究
科教導刊(2016年26期)2016-11-15 20:19:33
下一代廣播電視網(wǎng)中“人工智能”的應用
活力(2016年8期)2016-11-12 17:30:08
基于支持向量機的金融數(shù)據(jù)分析研究
基于Spark的大數(shù)據(jù)計算模型
基于樸素貝葉斯算法的垃圾短信智能識別系統(tǒng)
基于圖的半監(jiān)督學習方法綜述
機器學習理論在高中自主學習中的應用
極限學習機在圖像分割中的應用
主站蜘蛛池模板: 日韩在线播放欧美字幕| 在线另类稀缺国产呦| 丰满人妻久久中文字幕| 九九热在线视频| 中文字幕天无码久久精品视频免费| www.国产福利| 高清国产在线| 这里只有精品在线播放| 爱色欧美亚洲综合图区| 亚洲aⅴ天堂| 国内精品久久人妻无码大片高| 男人天堂伊人网| 在线人成精品免费视频| 扒开粉嫩的小缝隙喷白浆视频| 97久久人人超碰国产精品| 最新国产麻豆aⅴ精品无| 日本91在线| 热re99久久精品国99热| 中文字幕第4页| 亚洲精品欧美重口| 97se亚洲综合| 亚洲男人在线天堂| 三上悠亚精品二区在线观看| 中文字幕在线看视频一区二区三区| 亚洲精品成人片在线播放| 国产精品va| 伊人久久久久久久久久| 国产午夜在线观看视频| 国产一区二区三区在线观看免费| 精品一区二区三区自慰喷水| 欧美在线观看不卡| 亚洲欧洲综合| 国产99视频在线| 亚洲天堂视频在线观看| 国产在线一区视频| 人妻21p大胆| 欧美国产精品拍自| 国产97色在线| 欧美色视频网站| 精品国产Ⅴ无码大片在线观看81| a欧美在线| 日韩麻豆小视频| 婷婷六月综合网| 亚洲第一精品福利| 激情無極限的亚洲一区免费| 在线观看国产精品一区| 欧美日韩国产一级| 日韩无码视频播放| 亚洲天堂网视频| 日本免费a视频| 尤物亚洲最大AV无码网站| 国产精品成人免费视频99| 国产精品入口麻豆| 色婷婷天天综合在线| 久热中文字幕在线观看| 亚洲精品无码成人片在线观看| 亚洲Aⅴ无码专区在线观看q| 亚洲天堂精品视频| 国产乱人免费视频| 2020国产免费久久精品99| 精品亚洲国产成人AV| 超碰91免费人妻| 91网址在线播放| 91麻豆精品国产91久久久久| 动漫精品啪啪一区二区三区| 日韩一区二区三免费高清| 秘书高跟黑色丝袜国产91在线| 色综合综合网| 91在线播放国产| 国产高清毛片| 秋霞国产在线| 亚洲成A人V欧美综合天堂| 国产午夜不卡| 欧美成人看片一区二区三区| 色香蕉影院| 免费不卡视频| 狠狠色狠狠色综合久久第一次| 久久久久无码精品| 强奷白丝美女在线观看| 无码一区中文字幕| 999国内精品久久免费视频| 农村乱人伦一区二区|