999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結(jié)合注意力卷積網(wǎng)絡與分塊特征的步態(tài)識別

2022-02-24 12:37:10胡少暉王修暉
計算機工程與應用 2022年3期
關(guān)鍵詞:特征實驗

胡少暉,王修暉

中國計量大學 信息工程學院 浙江省電磁波信息技術(shù)與計量檢測重點實驗室,杭州 310018

人體步態(tài)是在行走過程中由身體不同部位的運動信息綜合體現(xiàn)出來的生物特征。與其他生物特征相比較,步態(tài)具有非侵犯性、無需被檢測者的刻意配合、無需特定的采集設備、無需高分辨率的圖像、難于偽裝和隱藏等優(yōu)點[1]。因此,在犯罪偵查、安全檢查等多種場景下,步態(tài)特征作為安全識別具有很大的應用潛力。但是,因為被識別對象的衣著變化、行走速度和采集角度等外部因素的影響,步態(tài)識別研究仍然面臨著嚴峻的挑戰(zhàn)。

針對步態(tài)識別的特征表達問題,Han等人[2]首先提出了一種新的時空步態(tài)表示方法,即步態(tài)能量圖(gait energy image,GEI),并利用一種輪廓圖像失真分析方法合成步態(tài)能量圖以解決缺乏訓練步態(tài)數(shù)據(jù)的問題,然后借助于統(tǒng)計特征融合方法在真實和合成的步態(tài)能量圖中獲取步態(tài)特征進行個體識別。Jeevan等人[3]在提出了GPPE方法對步態(tài)時域特征進行表征的基礎上,采用主成分分析和支持向量機進行特征提取和步態(tài)分類,該方法在一定程度下能夠減小外觀變化帶來的影響。王修暉等人[4]提出了一種基于連續(xù)密度馬爾可夫模型的人體步態(tài)識別方法,該方法借助Cox回歸分析的自適應算法對訓練過的步態(tài)模型進行參數(shù)自適應和步態(tài)識別。More等人[5]提出一種融合兩種特征的步態(tài)識別方法,首先使用交叉小波變換和二部圖模型提取動態(tài)特征和靜態(tài)特征,歸一化之后進行特征融合,最后將通過k均值聚類獲得每個特征向量和聚類中心之間的歐式距離用作相似性度量。馬勤勇等人[6]提出了一種瞬時步態(tài)能量圖,相對于步態(tài)能量圖增加了步態(tài)的運動信息,與步態(tài)能量圖共同構(gòu)成步態(tài)特征,最后用最近鄰算法進行步態(tài)分類。魯繼文等人[7]提出了一種基于獨立成分分析和多視角信息融合的步態(tài)識別方法,先通過對提取的步態(tài)特征使用獨立成分分析進行壓縮,再用支持向量機進行步態(tài)分類和識別,最后通過融合不同視角下的步態(tài)特征完成多視角下信息融合的步態(tài)識別。Wang等人[8]通過Gabor小波提取不同的方向和比例信息形成步態(tài)能量圖,然后采用二維主成分分析減小特征空間維數(shù),最后使用支持向量機進行步態(tài)識別。綜上所述,目前傳統(tǒng)機器學習方法已經(jīng)大量地在步態(tài)分類中得到應用,并取得了一定的成果,但是在存在較大視角變化和著裝差異的情況下,步態(tài)識別正確率仍然難以滿足身份識別等實際應用的要求。

近年來,深度學習技術(shù)在運動目標檢測與跟蹤、圖像分類與識別等方面受到日益廣泛的關(guān)注,在步態(tài)識別研究中也得到了一定的應用。相對于傳統(tǒng)方法,卷積神經(jīng)網(wǎng)絡能夠更有效地提取特征的有用信息,從而提高實驗效果。Chen等人[9]提出基于特征圖池化的步態(tài)識別網(wǎng)絡(feature map pooling,F(xiàn)MP),從步態(tài)輪廓序列中提取和聚合有用信息,而非通過平均輪廓圖像簡單地表示步態(tài)過程,然后采用特征圖池化策略來聚合序列特征。Wolf等人[10]利用3D卷積神經(jīng)網(wǎng)絡學習步態(tài)運動的時空特征。Shiraga等人[11]提出步態(tài)能量圖網(wǎng)絡(GEINet)。GEINet以GEI為輸入樣本,由兩組卷積池化歸一層和兩個連續(xù)的全連接層組成,最后用softmax進行分類。Chao等人[12]研究的跨視角步態(tài)識別方法是首先使用度卷積VGG-D提取特征,然后用主成分分析進行降維,最后用聯(lián)合貝葉斯進行步態(tài)分類。Takemura等人[13]研究的是一種基于輸入/輸出結(jié)構(gòu)的神經(jīng)網(wǎng)絡跨視角步態(tài)識別方法,它們設計了一個用于驗證的暹羅神經(jīng)網(wǎng)絡和用于標識具有高級差異結(jié)構(gòu)的CNN的三元組網(wǎng)絡。Zhang等人[14]研究的是一種采用距離度量學習來驅(qū)動相似度量的暹羅神經(jīng)網(wǎng)絡,該方法中通過減小同一人和不同人的步態(tài)對的相似度量差值大小來實現(xiàn)步態(tài)識別;Tong等人[15]提出了一種應用于步態(tài)識別的新型時空深度神經(jīng)網(wǎng)絡(spatial-temporal deep neural network,STDNN),STDNN包括時間特征網(wǎng)絡(temporal feature network,TFN)和空間特征網(wǎng)絡(spatial feature network,SFN),豐富了步態(tài)特征。Wu等人[16]提出了一種通過深度卷積神經(jīng)網(wǎng)絡(DeepCNNs)進行相似度學習的步態(tài)識別方法。

綜上所述,現(xiàn)在的很多步態(tài)識別方法通過卷積塊獲取全局特征,忽略了對一些重要信息的加權(quán)和可以反映局部信息的步態(tài)特征。針對上述問題,本文提出了一種基于注意力卷積神經(jīng)網(wǎng)絡和分塊特征的跨視角步態(tài)識別方法,以步態(tài)輪廓圖作為輸入。首先經(jīng)過注意力卷積神經(jīng)網(wǎng)絡進行有效信息的提取和增強,然后水平分成兩塊處理用以獲取局部特征,最后將兩部分的步態(tài)特征融合后進行步態(tài)分類。通過在兩個經(jīng)典步態(tài)數(shù)據(jù)集上的對比實驗,證明了本文方法相對現(xiàn)有的方法,具有較好的識別效果。

1 模型算法

本文提出的基于注意力卷積神經(jīng)網(wǎng)絡和分塊特征的具體網(wǎng)絡模型如圖1所示。該網(wǎng)絡主要由注意力卷積神經(jīng)網(wǎng)絡和分塊特征網(wǎng)絡組成。使用無序的步態(tài)序列作為輸入,首先用卷積神經(jīng)網(wǎng)絡提取幀級步態(tài)特征。在卷積神經(jīng)網(wǎng)絡中添加了通道和空間注意力機制[17](convolutional block attention module,CBAM)來增加特征在空間和通道上的表現(xiàn)力,在卷積神經(jīng)網(wǎng)絡的后部分使用了多通道卷積特征融合技術(shù)使步態(tài)特征具有多樣性。然后幀級特征進行全局最大池化處理成能代表個人身份的特征塊。分塊特征網(wǎng)絡主要是將輸出的特征塊水平分成上下兩部分,然后每部分通過池化處理各生成一條一維矢量特征。最后聯(lián)合triplet loss和softmax loss進行訓練,增強網(wǎng)絡的特征提取能力并有利于收斂。測試時通過計算訓練時保存的序列特征與待測序列之間的歐式距離來預測待測人的身份。

圖1 基于注意力卷積神經(jīng)網(wǎng)絡和特征分塊的網(wǎng)絡模型Fig.1 Network model based on convolutional neural network with attention and part-level features

1.1 基于注意力卷積神經(jīng)網(wǎng)絡的特征提取

1.1.1 注意力機制

相對于傳統(tǒng)方法,卷積神經(jīng)網(wǎng)絡能夠更有效地提取特征的有用信息,但是在卷積和池化的操作中也會導致步態(tài)圖像很多重要信息的丟失,使用注意力機制可以提高對步態(tài)重要信息的關(guān)注度。因此本文在使用卷積神經(jīng)網(wǎng)絡的基礎上加入了注意力機制CBAM以更好地對步態(tài)特征進行提取。

CBAM表示卷積模塊的注意力機制模塊,結(jié)構(gòu)如圖2所示。是一種結(jié)合了空間(spatial)和通道(channel)的注意力機制模塊。相比于SENet[18](squeeze-andexcitation networks)只關(guān)注通道(channel)的注意力機制可以取得更好的效果。

圖2 注意力結(jié)構(gòu)圖Fig.2 Attention module map

一幅輸入的特征圖為F=?C×H×W要經(jīng)過一維的通道注意力M C=?C×1×1和二維的空間注意力M S=?1×H×W,過程表示為:

(1)通道注意力模塊

將輸入的特征進行空間維度壓縮時,首先分別經(jīng)過基于寬和高的全局最大池化和全局平均池化,得到兩個不同一維矢量特征在一定程度上可以信息互補。然后分別經(jīng)過一個共享的多層感知機。最后將多層感知機輸出的特征進行基于elementwise的加和操作,再經(jīng)過sigmoid激活操作,生成最終的通道注意特征圖。通道注意力模塊可以表示為:

其中,F(xiàn)表示輸入特征,W0和W1代表多層感知機模型中的兩層參數(shù),σ代表sigmoid函數(shù)。

(2)空間注意力模塊

將通道注意模塊輸出的特征圖作為本模塊的輸入特征圖。首先做一個基于通道層面上的的全局最大池化和全局平均池化,得到兩個二維的特征F Savg∈?1×C×H和F Smax∈?1×C×H。接下來將這2個二維特征按通道維度拼接起來。然后經(jīng)過一個卷積(卷積核尺寸為7×7)操作,降維為1個通道。再經(jīng)過sigmoid生成最終的空間注意特征。通道注意力模塊可以表示為:

其中F表示輸入特征,f7×7表示網(wǎng)絡的卷積核尺寸是7×7。

對于一幅輸入的步態(tài)圖像,通道注意力和空間注意力分別關(guān)注圖像中的特征內(nèi)容和特征位置,在一定程度上相互補充,提升了網(wǎng)絡的特征提取效果。經(jīng)過多次實驗之后,將該注意力機制放在第一個卷積層之后可以獲得更好的效果。

1.1.2 網(wǎng)絡結(jié)構(gòu)設計

本文在設計網(wǎng)絡時參考了經(jīng)典的VGGNet[19]網(wǎng)絡,經(jīng)過多次實驗,設計出了一個包含6個卷積層的網(wǎng)絡,如圖3所示(圖中卷積層用C表示,池化層用P表示)。每兩個卷積層后接一個池化層,后兩個卷積層的后面不需要加入池化層,具體網(wǎng)絡參數(shù)設置將在2.3節(jié)中以表格形式詳細闡述。隨機選擇了特定幀數(shù)的步態(tài)輪廓圖作為網(wǎng)絡的輸入,每幀步態(tài)圖像都經(jīng)過參數(shù)相同的卷積神經(jīng)網(wǎng)絡,從而輸出高度抽象的步態(tài)圖像特征。在模型中使用了多通道卷積特征融合技術(shù),多通道卷積特征融合技術(shù)可以得到具有多樣性特征的步態(tài)特征。如圖1所示,將Conv-Block2和Conv-Block3的輸出在通道維度上整合在一起作為新的輸出,把多通道技術(shù)放在后層卷積的原因是后層提取的是抽象的高級圖形特征,更接近目標特征,更有利于步態(tài)識別。

圖3 注意力卷積網(wǎng)絡結(jié)構(gòu)圖Fig.3 Convolutional neural network with attention module map

1.2 特征分塊和損失計算

1.2.1 特征分塊

現(xiàn)在的步態(tài)識別方法大多數(shù)只考慮全局特征,卻忽略了局部特征也具有很重要的意義。不同的區(qū)域可以有不同變化特點和區(qū)分規(guī)則,給步態(tài)識別提供了不同的積極作用。頭部相對來說變化幅度小,考慮的是一些本體特征,如腦袋形狀等。而腳部分變化幅度大,除了本體特征之外更重要的是動態(tài)特征,如腿的動作幅度和彎曲程度等。為了更好地利用局部信息提高識別效果,將經(jīng)過卷積聚合后的特征圖水平切分成了兩塊,然后用基于寬和高全局池化分別處理兩塊特征,處理過程如下:

其中,f′i表示池化處理后的特征,Zi表示第i塊特征(i∈1,2)。

池化后得到的是兩條一維矢量特征,特征長度為C(即通道數(shù))。接下來需要將兩條特征向量進行不同的操作。訓練時,將兩條特征向量融合成尺寸為2×C直接進行損失訓練;測試時,將兩條特征向量在通道維度上進行融合得到一條長度為2C的特征向量。

1.2.2 損失函數(shù)

本文使用的Triplet loss和Softmax loss進行聯(lián)合訓練網(wǎng)絡,聯(lián)合使用效果高于單獨使用任意一個損失函數(shù)。雖然基于Triplet loss的神經(jīng)網(wǎng)絡模型可以很好地對細節(jié)進行區(qū)分,但是三元組的選取會導致數(shù)據(jù)的分布不一定會很均勻,所以使得訓練過程不太穩(wěn)定,收斂慢,結(jié)合Softmax loss可以對數(shù)據(jù)分布有進一步的約束,而且加速收斂,訓練過程更加穩(wěn)定。

(1)Triplet loss

從訓練組中隨機選一個樣本,稱為A,然后再隨機選取一個和A屬于同一類的P和不同類的N,構(gòu)成三元組(A,P,N),三元組損失Ltriplet由此計算:

其中,ya、yb、y n分別表示屬于A、P、N的一類,D a,p表示A與P之間的歐式距離,Da,n表示A與N之間的歐式距離,α表示margin。

(2)Softmax loss

其中,qtarget為真實值對應類別的預測概率。

結(jié)合后的損失為:

其中Ltriplet代表Triplet loss,Lsoftmax代表Softmax loss,β代表Triplet loss和Softmax loss之間的平衡因子,設為0.1。

2 實驗與分析

2.1 評價指標

為了驗證該方法的有效性,選擇在CASIA-B步態(tài)數(shù)據(jù)庫和OU-ISIR-MVLP步態(tài)數(shù)據(jù)集上進行實驗評估,并與一些方法做對比。測試時給定待測樣本庫(Probe)中的一個序列p,輸入到網(wǎng)絡中生成待測步態(tài)特征Feature_p,目標是在目標樣本庫(Gallery)中遍歷全部序列找到相同的ID的樣本g。同樣g也經(jīng)過網(wǎng)絡生成目標步態(tài)特征Feature_g,待測步態(tài)特征與樣本步態(tài)特征通過計算歐式距離來判斷一次命中的識別正確率,即Rank1識別率。具體步驟如圖4所示。

圖4 Rank1識別率的計算步驟Fig.4 Rank1 recognition rate calculation steps

2.2 實驗數(shù)據(jù)與實驗環(huán)境配置

CASIA-B數(shù)據(jù)集是目前使用最廣泛的跨視角步態(tài)數(shù)據(jù)集之一。該數(shù)據(jù)集提供了124個人的步輪廓圖,每個人有正常條件(NM)、背包條件(BG)和穿大衣條件(CL)三種條件,每種條件又包含了11種不同的視角(0°,18°,…,180°)。每個人都有10組步態(tài)序列圖像,其中正常條件下的步態(tài)序列圖像有6組,背包條件下的步態(tài)序列圖像有2組,穿大衣條件下的步態(tài)序列圖像有2組。圖5展示了CASIA-B數(shù)據(jù)集中同一個人在不同條件下的步態(tài)輪廓圖。OU-ISIR-MVLP數(shù)據(jù)集是目前世界上最大的公共步態(tài)數(shù)據(jù)集。包含10 307個人,每個人有14個視角(0°,15°,…,90°;180°,195°,…,270°)。每個視角分為00和01兩個序列。這兩個數(shù)據(jù)集都屬于目前步態(tài)識別領(lǐng)域最常用的經(jīng)典步態(tài)數(shù)據(jù)集。

圖5 CASIA-B數(shù)據(jù)集中的樣圖展示Fig.5 Sample graph display in CASIA-B dataset

實驗中三元組損失的margin選擇的是0.2,用于控制三元組類間和類內(nèi)的距離。選擇Adam作為優(yōu)化器,網(wǎng)絡初始學習率設為1E-4。編程環(huán)境為Pycharm,Python版本為3.6.0。深度學習框架是PyTorch,使用的GPU型號為NVIDIA GeForce GTX TITAN X。

2.3 在數(shù)據(jù)集CASIA-B上的實驗結(jié)果及分析

在數(shù)據(jù)集CASIA-B的實驗中,所有輸入圖片的大小經(jīng)過調(diào)整后為64×44,批尺寸為(8×16),即隨機選擇8個人,然后每個人中隨機選擇16張序列圖,迭代次數(shù)為80 000次。在特征提取部分的網(wǎng)絡參數(shù)如表1所示。

表1 在數(shù)據(jù)集CASIA-B上的卷積模塊具體參數(shù)Table 1 Specific parameters of convolutional module on CASIA-B dataset

表2為各方法在CASIA-B數(shù)據(jù)集上小訓練樣本情況下的Rank1識別率對比。對比方法為基于局部運動特征選擇的支持向量回歸模型(support vector regression based on local motion feature selection,SVR)[20]、相關(guān)運動聯(lián)合聚類模型(correlated motion co-clustering,CMCC)[21]、視角不變判別投影模型(view-invariant discriminative project,ViDP)[22]、深度卷積神經(jīng)網(wǎng)絡(Deep CNNs)[16]、非周期性步態(tài)識別模型(aperiodic gait recognition,AGR)[23]、注意力時空融合網(wǎng)絡(attentive spatialtemporal summary networks,ASTSN)[24]。實驗結(jié)果數(shù)據(jù)來自文獻[16]和文獻[24],且用前24人作為訓練,后100人用于測試,該實驗只針對正常條件(NM)下的步態(tài)測試。本文的模型在54°和126°的Rank1識別率與0°和90°的Rank1識別率有比較明顯的差距,說明角度是影響識別率的一個重要因子。同時本文模型在0°、54°、90°和126°的Rank1識別率比ASTAN的效果高3.65、12.51、9.13和12.82個百分點,比DeepCNNs的效果高2.4、1.5、3.4、3.5個百分點。由實驗結(jié)果對比證明本文方法在CASIA-B數(shù)據(jù)集上訓練數(shù)據(jù)較小的情況下識別結(jié)果較優(yōu),同時在小訓練數(shù)據(jù)樣本情況下本文模型沒有出現(xiàn)過擬合問題。

表2 各方法在CASIA-B數(shù)據(jù)集上小訓練樣本情況下的Rank1識別率Table 2 Rank1 recognition rate of each method in case of small training samples on CASIA-B dataset %

為了展示訓練數(shù)據(jù)較充足情況下的跨視角步態(tài)識別效果,表3為各方法在CASIA-B數(shù)據(jù)集上的Rank1識別率。除了用前62個人訓練,其余的實驗配置與表2相同。對比實驗包括基于自動編碼器的不變特征提取深度模型(auto-encoderfor invariant gait extraction,AE)[25],生成對抗網(wǎng)絡模型(GaitGAN)[26],多任務生成對抗網(wǎng)絡模型(MGAN)[27]。為了證明本方法在各種條件和角度下都有一定效果,本次實驗包括了三種條件和各個角度。由表結(jié)果對比可知,本文的模型在正常條件(NM)下的效果最好,其次是背包條件(BG),最后是大衣狀態(tài)(CL)。原因可能是大衣對人的體型干擾嚴重導致特征的辨識度降低,最終影響步態(tài)識別的效果。本文模型在正常條件、背包條件和大衣條件下11個角度的平均識別精度比MGAN方法分別高19.6、20.5、19.5個百分點。本文方法在CASIA-B數(shù)據(jù)集訓練集較充足的情況下識別效果依然明顯。

表3 各方法在CASIA-B數(shù)據(jù)集上訓練樣本較充足情況下的Rank1識別率Table 3 Rank1 recognition rate of each method in case of sufficient training samples on CASIA-B dataset %

2.4 在數(shù)據(jù)集OU-ISIR-MVLP上的實驗結(jié)果及分析

在OU-ISIR-MVLP的實驗中,由于實驗數(shù)據(jù)偏大,所以將批尺寸設置為20×10。將用5 153個人進行訓練,5 154個人進行測試。00作為目標樣本集(Gallery),01作為待測樣本集(Probe)。網(wǎng)絡結(jié)構(gòu)參數(shù)與數(shù)據(jù)集CASIA-B上的相同。迭代次數(shù)為1 500 000次。表4為各方法在OU-MVLP數(shù)據(jù)集上的Rank1識別率。對比實驗包括GEINet[11]、輸入輸出結(jié)構(gòu)卷積神經(jīng)網(wǎng)絡模型(input/output)[13],由于目前很少有針對14個視角的實驗,因此本文實驗抽取四個視角(0°、30°、60°、90°)方便進行實驗對比。由表4結(jié)果對比可知,本文方法的識別效果明顯優(yōu)于其他兩個對比實驗的結(jié)果。這是因為相較于對比實驗,本文模型不僅對全局特征進行提取,還通過特征分塊對局部特征進行獲取。這使得最終的特征更具表現(xiàn)力。綜上可知,本文方法在OU-ISIR-MVLP數(shù)據(jù)集這種人數(shù)很多有挑戰(zhàn)性的數(shù)據(jù)集上依然可以取得不錯的結(jié)果。

表4 各方法在OU-MVLP數(shù)據(jù)集上的Rank1識別率Table 4 Rank1 recognition rate of each method on OU-MVLP dataset %

2.5 消融實驗

為了證明本文提出的方法的有效性,將進行消融實驗進行驗證。實驗將分為以下幾部分:

(1)Baseline。此基線方法具體為先經(jīng)過卷積網(wǎng)絡,然后直接進行全局池化(分塊),損失函數(shù)全為

Triplet loss。

(2)Baseline+Part-level。在(1)的基礎上進行了分塊處理,設置該實驗的目的是證明特征分塊的有效性。

(3)Baseline+Part-level+CBAM。在(2)的基礎上加入了注意力機制CBAM,目的是證明CBAM的有效性。

(4)Baseline+Part-level+CBAM+Cat。在(3)的基礎上加入了多卷積特征融合技術(shù),目的是證明多通道卷積技術(shù)的有效性。

(5)Baseline+Part-level+CBAM+Cat+Softmax loss。在(4)的基礎上將只用Triplet loss改成Triplet loss和Softmax loss聯(lián)合使用,目的是證明聯(lián)合損失的有效性。

在CASIA-B數(shù)據(jù)集上進行上述5次實驗對比,本次實驗使用74個人作為訓練,得到的結(jié)果如圖6~8所示,圖6、圖7和圖8分別為NM、CL、BG條件下的對比結(jié)果。

圖6 NM條件下的實驗結(jié)果Fig.6 Evalutation results under NM

圖7 BG條件下的實驗結(jié)果Fig.7 Evalutation results under BG

圖8 CL條件下的實驗結(jié)果Fig.8 Evalutation results under CL

由圖中對比結(jié)果可知,本文提出的各部分方法對步態(tài)分類的結(jié)果都有一定的貢獻度。尤其是特征分塊,在各條件下的提升效果都尤為顯著。經(jīng)過特征分塊,NM條件、BG條件和CL條件下的平均Rank1識別率分別提高了7.38、8.5和4.39個百分點。這說明局部特征的關(guān)注對步態(tài)識別有明顯的提升精度價值。加上注意力機制CBAM之后NM條件,BG條件和CL條件下的平均Rank1識別率在上面的基礎上分別又提高了1.76、3.09和2.17個百分點,說明了該注意力機制通過對通道和空間的特征處理有效地提升了特征的表現(xiàn)力。多通道卷積技術(shù)和聯(lián)合損失函數(shù)對本文模型的效果也有一定的貢獻度,同時聯(lián)合損失函數(shù)可以加快步態(tài)識別收斂速度,更快捷地實現(xiàn)步態(tài)特征的提取。綜合上述實驗可得,本文方法在各種尺寸和環(huán)境的數(shù)據(jù)集中都有較強的識別效果,同時應用性很強。

3 結(jié)束語

為了更好地利用步態(tài)的局部信息,本文提出一種基于注意力卷積神經(jīng)網(wǎng)絡和分塊特征的跨視角步態(tài)識別方法,該方法首先以步態(tài)輪廓圖作為輸入,經(jīng)過相同的注意力卷積神經(jīng)網(wǎng)絡處理后融合成一個整體特征,然后通過將整體特征進行分塊處理實現(xiàn)模型訓練和步態(tài)識別。最后,在兩個公開數(shù)據(jù)集上進行的對比實驗,證明了本文方法與現(xiàn)有方法相比,具有較好的識別效果。

不足之處是,本文在分塊時只是粗略地分成了兩塊,沒有對各區(qū)域的具體作用大小進行深入探討。曾嘗試分成多塊處理,但是沒有明顯提升而且增大計算量。今后將研究更加具體的分類方法和各分塊對識別效果的作用大小,以提高分類精度。

猜你喜歡
特征實驗
抓住特征巧觀察
記一次有趣的實驗
微型實驗里看“燃燒”
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
NO與NO2相互轉(zhuǎn)化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 欧美无遮挡国产欧美另类| 久久国产精品无码hdav| 亚洲婷婷丁香| 特级aaaaaaaaa毛片免费视频 | 99久久婷婷国产综合精| 欧美中文字幕在线播放| 91黄色在线观看| 人人爽人人爽人人片| 国产成人亚洲精品蜜芽影院| 精品国产自在现线看久久| 免费人成视网站在线不卡| 国产亚洲欧美日韩在线一区| 热久久这里是精品6免费观看| 71pao成人国产永久免费视频| 亚洲成a人片在线观看88| 亚洲色成人www在线观看| 巨熟乳波霸若妻中文观看免费| 亚洲IV视频免费在线光看| 亚洲第一区在线| 香蕉视频在线观看www| 久久免费视频播放| 亚洲国产成人精品一二区| 亚洲国产成熟视频在线多多 | 精品成人一区二区三区电影| 国产第一页第二页| 91亚洲免费视频| 免费A级毛片无码无遮挡| 一本一道波多野结衣av黑人在线| 成人国产精品一级毛片天堂| 在线无码av一区二区三区| 美女裸体18禁网站| 国产一级裸网站| 东京热一区二区三区无码视频| 午夜精品福利影院| 国产精品欧美亚洲韩国日本不卡| 国产二级毛片| 国产极品美女在线播放| 国产精品美人久久久久久AV| 国产精品亚洲欧美日韩久久| 综合天天色| 久久黄色毛片| 亚洲男人天堂网址| 好吊妞欧美视频免费| 国产成人亚洲精品无码电影| 国产激情无码一区二区免费| 亚洲中文字幕在线观看| 97超级碰碰碰碰精品| 亚洲毛片一级带毛片基地| 伊人五月丁香综合AⅤ| 国产成人免费手机在线观看视频| www.亚洲国产| 免费jjzz在在线播放国产| 亚洲欧美精品日韩欧美| 波多野结衣中文字幕一区二区| 3p叠罗汉国产精品久久| 久久黄色视频影| 一级黄色欧美| 国产精品无码AV片在线观看播放| 国产精品太粉嫩高中在线观看| 国产日韩欧美成人| 久久婷婷六月| 日韩精品专区免费无码aⅴ| 在线观看热码亚洲av每日更新| 青青草91视频| 中文字幕乱码二三区免费| 免费看美女自慰的网站| 亚洲国产日韩在线成人蜜芽| 999国内精品久久免费视频| 国产成人精品一区二区免费看京| 成年午夜精品久久精品| 亚洲第一极品精品无码| 久久综合一个色综合网| 亚洲AV人人澡人人双人| 18禁黄无遮挡网站| 久久国产热| 91丝袜美腿高跟国产极品老师| 福利视频99| 中文字幕欧美成人免费| 国产人人射| 波多野结衣在线se| 国产永久在线视频| 成人伊人色一区二区三区|