999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于高分辨率網絡的人體姿態估計方法

2021-07-06 12:02:08任好盼王文明危德健高彥彥康智慧王全玉
圖學學報 2021年3期
關鍵詞:關鍵點方法模型

任好盼,王文明,危德健,高彥彥,康智慧,王全玉

基于高分辨率網絡的人體姿態估計方法

任好盼,王文明,危德健,高彥彥,康智慧,王全玉

(北京理工大學計算機學院,北京 100081)

人體姿態估計在人機交互和行為識別應用中起著至關重要的作用,但人體姿態估計方法在特征圖尺度變化中難以預測正確的人體姿態。為了提高姿態估計的準確性,將并行網絡多尺度融合方法和生成高質量特征圖的方法結合進行人體姿態估計(RefinedHRNet)。在人體檢測基礎之上,采用并行網絡多尺度融合方法在階段內采用空洞卷積模塊來擴大感受野,以保持上下文信息;在階段之間采用反卷積模塊和上采樣模塊生成高質量的特征圖;然后并行子網絡最高分辨率的特征圖(輸入圖像尺寸的1/4)用于姿態估計;最后采用目標關鍵點相似度OKS來評價關鍵點識別的準確性。在COCO2017測試集上進行實驗,該方法比HRNet網絡模型姿態估計的準確度提高了0.4%。

姿態估計;多尺度融合;高質量特征圖;人體檢測;關鍵點相似度

1 研究背景

人體姿態估計就是從圖像或視頻中,提出多個人體的位置以及骨架上的稀疏關鍵點位置,其作為人類行為理解的基礎,一直是計算機視覺領域具有挑戰性的問題,因而備受關注。準確的關鍵點估計可以用在遠程控制機器人進行危險作業、安保系統中監控人員行為、交通中檢測行人動作輔助駕駛、影視業中不需要專業的數據采集設備就能采集人體運動參數等。人體姿態估計方法大致分為:自底向上(Bottom-Up)和自頂向下(Top-Down)的方法。

自底向上(Bottom-Up)的方法[1-3],首先通過人體關鍵點的熱圖來定位圖像中所有的人體關鍵點,然后使用組合算法將其組合成不同個體。該方法只需提取一次有效的人體特征,速度快、實時性好,但準確度偏低。OpenPose[2-4]使用2分支多階段的網絡,分別用于熱圖估計和關鍵點組合。其使用關節點仿射場(part affinity fields,PAFs),通過計算2個關鍵點之間的線形積分來描述關鍵點之間的關聯度,并與最大的得分進行關鍵點組合。文獻[1]使用部件強度場(part intensity field,PIF)來定位人體關節點位置;部件關聯場(part association field,PAF)將人體關節點連接起來形成人體姿態。總之,自底向上的方法可一次性檢測圖像中所有的人體部件,即使人體數目增加也不會重復進行卷積操作,一般模型小、效率高,但在不同的光照、背景、遮擋等情況下,會出現關鍵點聚類算法的匹配錯誤。

自頂向下(Top-Down)的方法[5-8]主要是使用單個人體姿態檢測器識別人體框之后,再對每個人體框進行關鍵點檢測。其多次剪裁和調整邊框,并多次提取有效特征信息,在多種人體姿態估計基準上通常高于自底向上的方法,但實時性偏低。文獻[8]中網絡模型Alphapose首先通過目標檢測,得到人體框,然后輸入到STN+SPPE模塊中,自動檢測人體姿態,再使用Pose-NMS得到最終的人體姿態。其中STN對稱空間變換網絡能在不準確的人體邊框中提取人體區域。Pose-NMS參數姿態非最大化抑制能夠解決冗余的人體姿態。文獻[5]中網絡模型CPN分為GlobalNet和RefineNet 2個階段,其中GlobalNet負責檢測容易檢測和較難檢測的關鍵點,對于較難檢測的關鍵點,使用網絡深層的更高層次的語義信息來解決。RefineNet主要解決遮擋、復雜背景和尺度不適等更難或不可見關鍵點檢測,使用Hard Negative Mining策略界定關鍵點難易程度。雖然自頂向下的方法已經取得了不錯的效果,但是姿態估計的準確度和實時性仍有待提高。

以往自頂向下的方法[5-6,9]主要是使用上采樣和下采樣的方法進行多尺度的融合,并且采用特征圖的最高分辨率來預測關鍵點的熱圖。文獻[6]中高分辨網絡(high-resolution net,HRNet)模型的各個階段采用多尺度的融合,生成高質量的熱圖,僅使用最高分辨率的熱圖來進行人體姿態的估計,但是通過上采樣生成的熱圖的質量有待提高。文獻[5]中網絡模型CPN采用上采樣的方法將低分辨率特征圖逐漸融合到高分辨率特征圖中,不斷提高用于估計人體關鍵點熱圖的質量,但是忽略了并行網絡多尺度的融合,即不同分辨率的特征圖的融合。為了解決上述問題,本文提出了一種基于HRNet的人體姿態估計方法RefinedHRNet。

2 姿態估計方法

HRNet在計算機視覺領域取得了優秀的成績,超越了所有的基于深度學習的人體姿態估計方法,但是仍然有提升的空間。本文首先分析了該模型,提出特征圖的問題;然后引入本文的RefinedHRNet模型以及并行多尺度融合和生成高質量熱圖的方法。

2.1 HRNet模型

HRNet采用的是逐步增加高分辨率到低分辨率的子網形成更多的階段和多分辨率子網并行連接的方法,并且在整個過程中保持高分辨率表征,取得較高的準確度,因此RefinedHRNet采用HRNet作為主干網絡。

HRNet以高分辨率子網絡作為第一階段,在隨后的每個階段中,都會將一個與當前分支最低分辨率的1/2的新分支并行加入到當前分支中,逐步添加高分辨率到低分辨率的子網,形成新的階段,且并行連接多分辨率子網,并自始至終保留先前階段的分辨率,最后階段采用融合后的最高分辨率進行姿態估計。

雖然HRNet具有較好的準確度,但是僅僅通過最緊鄰上采樣得到的特征圖質量有待提高,因此本文提出了RefinedHRNet模型。

2.2 RefinedHRNet模型

本文采用與HRNet類似的方式實例化主干網絡,網絡包含4個階段,主體為4個并行的子網,其分辨率依次降低一半,相應的通道數目增加一倍。網絡從主干網絡開始,由2個步長為2的3×3的卷積組成,將分辨率降低至輸入圖片的1/4。第1階段包含4個殘差單元,每個單元由一個寬度為64的bottleneck組成,然后是3×3卷積,將特征圖的寬度降低到。第2~4階段分辨包含1,4,3個多分辨率塊,每個塊由4個殘差單元組成,其每個分辨率中的殘差單元均有2個3×3卷積,以第4階段為例,分辨率的卷積寬度分別為,2,4,8。總共有8個交換單元,需進行8次多尺度的融合。圖1為本文提出的RefinedHRNet模型,黃色層疊方塊為特征圖,箭頭為卷積操作。

圖1 RefinedHRNet模型結構圖

2.3 并行多尺度融合

在多尺度融合中仍采用并行子網絡的交換單元,使每個子網重復接受來自其他并行子網的信息。HRNet中,不同分辨率的特征圖進行多尺度的融合時,采用步長為3×3的卷積做下采樣,步長為1×1的卷積做最近鄰上采樣。雖然可以大幅度減少參數,但是會造成空間層級化信息丟失和小物體無法重建等問題。

文獻[10-11]提出的空洞卷積能有效解決多尺度融合中信息丟失的問題。在不丟失分辨率的前提下,使用空洞卷積,能夠有效擴大感受野。圖2展示了并行網絡多尺度融合過程。通過設置dilation rate,在卷積核中填充0,感受野隨dilation rate發生變化,能夠有效捕捉上下文信息。因此,本文采用空洞卷積來解決信息缺失的問題。多尺度融合公式為

其中,為在階段s中第b塊分辨率為r的卷積單元;為相對應的交換單元。式(1)與圖3對應,均以RefinedHRNet網絡第3階段為例,第3階段由3個并行的子網絡組成,需要進行3次特征的融合,圖3描述的過程為一次特征融合。

圖3 從下到上特征融合

輸入特征圖的聚合輸出為

其中,為采用最近鄰上采樣,將輸入矩陣從分辨率提高到,其中dilation rate設置為4;為采用步長為2的3×3卷積進行下采樣,將輸入矩陣分辨率降低到;=為分辨率相同,為不采取任何操作,用于相同尺寸特征圖的整合;上采樣和下采樣均可以通過連續卷積增加或降低特征圖的尺寸。

各個階段交換單元的額外輸出特征圖為

其中,{1,2,···,}為輸入特征矩陣;{1,2,···,}為輸出的特征矩陣,其分辨率和寬度與輸入相同,為并行子網絡數目。

2.4 生成高質量熱圖

使用反卷積模塊有效生成高質量和高分辨率的特征圖[9,12]如圖3所示,在階段之間添加了反卷積模塊和上采樣模塊,使圖像從低分辨率恢復到高分辨率,進而特征圖包含更加豐富的特征信息。

在生成高質量的特征圖時,在階段之間采用從下到上特征融合方法,從低分辨率到高分辨率逐次添加反卷積模塊和上采樣模塊。以第3階段為例,從下到上進行特征融合時,使用反卷積和最近鄰上采樣提高分辨率(上采樣)。圖3中從上至下,特征圖的通道數目為,2,4,通過連續的上采樣可以將低層特征圖寬度由4降低到,圖像的分辨率提高至原來的4倍。從下到上的特征融合計算為

與HigherHRNet不同,本文仍然采用第4階段產生的通道寬度為的特征圖來預測關鍵點的位置,并未生成更高分辨率的熱度圖,反卷積模塊和上采樣模塊的輸入是并行子網絡低分辨率的特征圖,輸出是高分辨率的特征圖,用于后續階段的特征融合。

3 訓練和測試

訓練和測試采用COCO2017數據集,其包含了200 000張圖片和250 000個帶有17個關鍵點的人體實例。該數據集的訓練集、驗證集、測試集分別有57 k,5 k,20 k張圖像。在訓練集(train2017)上進行訓練,在驗證集(val2017)和測試集(test-dev2017)上評估本文方法,并且與其他最新方法進行了比較。

在訓練和測試中,使用COCO官方提供的測試方法,按式(5)計算網絡模型預測出的關鍵點坐標與標簽中真實值坐標的誤差,通過設置不同的閾值來確定關鍵點位置的置信度。關鍵點相似性為

其中,d為檢測到的關鍵點與其對應的ground truth之間的歐式距離;v為ground truth的可見性標記;為目標尺度;k為控制衰減的每個關鍵點常數。

3.1 訓練階段

本文采用相同的設置與HRNet模型進行對比。使用隨機旋轉(–45°,45°),隨機縮放規模(0.65,1.35),并且采用圖片的翻轉等數據的增強方式。使用Adam優化器,基本學習率為1e-3,在170和200遍訓練中分別降低到1e-4和1e-5,總計對模型進行了210遍訓練。并從數據集圖像中裁剪出輸入網絡的圖像,調整為固定比例,高﹕寬=4﹕3,輸入圖像的尺寸分別為128×96,192×128,256×192,320×224和384×288。在整個訓練過程中,著重增強64×48熱圖的細節特征,用于最后階段估計人體姿勢的關鍵點。

3.2 測試階段

本文采用與HRNet網絡相同的人體檢測器,檢測人體框,然后使用網絡估計人體關鍵點。檢測到的人體框按照固定的比例(高﹕寬=4﹕3)輸入到網絡中。根據HRNet,對原始圖像和反轉后的圖像進行平均來計算熱度圖。同時,采用可視化的工具,將估計出的人體關鍵點進行連接,得到如圖4所示的人體姿態估計圖。

圖4 人體姿態估計圖

4 實驗與分析

4.1 實驗平臺

實驗在ubuntu18.04操作系統、3.7 GHz的CPU、6核心12線程以及1個NVIDIA 1080Ti GPU組成的服務器上完成。采用COCO2017數據集和MPII數據集用來訓練和測試,并在test-challenge2020 (keypoint)上與本文結果進行對比。

4.2 實驗過程

實驗過程主要分為人體檢測和關鍵點估計2個步驟。本文主要關注人體的關鍵點估計。在圖5中綠框為人體檢測模塊檢測到的人體邊框,藍空心圓為姿態估計模塊定位的人體關鍵點。

4.3 實驗數據對比

為了更好地說明算法的精確性,表1和表2分別在COCO2017驗證集和測試集中進行實驗對比,即自頂向下和自底向上2種方法對比以及網絡中輸入不同尺寸的圖像進行對比。

圖5 人體檢測和姿態估計

表1為在COCO2017驗證集下,與文獻[5-6]在參數量、計算量以及準確度等方面的對比。其中文獻[5]代表從上至下使用PN和CPN+OHKM(在線數據挖掘)網絡模型;文獻[12]代表從上至下分別使用ResNet-50,ResNet-101和ResNet-152作為主干網絡的SimpleBaseline網絡模型;文獻[6]均采用hrnet_w32作為主干網絡,僅輸入圖像的尺寸不同。實驗結果表明,本文方法在中型和大型對象識別準確度方面均有一定提高,具有更高的準確度。

表1 COCO val2017中方法對比

表2為在COCO2017測試集下的與先進的方法進行對比。文獻[4]和文獻[7]為自底向上的方法,其余方法為自頂向下。從表2可看出,本文方法在準確度方面遠遠高于自底向上的方法。在使用相同的人體檢測器和圖像尺寸的前提下,本文RefinedHRNet網絡超過文獻[12]SimpleBaseline網絡和文獻[6]HRNet網絡,具有更高的準確度。

表2 COCO test-dev2017結果對比

為了對比多尺度融合方法和具有空洞卷積的多尺度融合方法(并行多尺度融合)以及生成高質量熱圖的方法對于網絡模型的準確度的影響,本文進行了4種網絡模型方法的實驗:①多尺度融合方法;②具有空洞卷積的多尺度融合方法;③將多尺度融合和生成高質量熱圖方法(用上采樣模塊代替空洞卷積模塊)的結合;④將具有空洞卷積的多尺度融合方法和生成高質量熱圖方法的結合;實驗結果見表3。方法①與②對比,說明空洞卷積模塊能提高網絡模型的準確度(提高了0.2);②與④對比空洞卷積和反卷積模塊能共同提高模型的準確度(相對HRNet提高了0.4);②和③對比,說明空洞卷積和反卷積模塊都提高模型準確度的能力相同。

表3 不同方法對網絡模型準確度的影響

表4為不同網絡模型對于關鍵點估計的準確度實驗結果。實驗中模型的圖像輸入尺寸均為384×288,實驗采用COCO2017驗證集。通過計算關鍵點正確估計的比例PCK(計算檢測的關鍵點與其對應的groundtruth間的歸一化距離小于設定閾值的比例)來對比不同模型識別人體關鍵點的準確度。表4中頭部、肩部、肘部、腕部、臀部、膝蓋、腳裸分別代表頭部5個關節點的平均值和肩部、肘部、腕部、臀部、膝蓋、腳裸各2個關節點平均值及所有關節點的平均值。由表4可知,本文模型具有更高的平均準確度,在單個關節點識別的準確度上都有一定程度的提升,但膝蓋關節點的識別準確度略低于HRNet_48。

表4 不同網絡模型對不同關鍵點檢測PCK值比較

4.4 實驗結果分析

表1采用相同的方法進行姿態估計,當輸入圖像的尺寸由256×192變為384×288時,HRNet網絡和本文方法均提升1.4%,說明圖像的輸入尺寸對于準確度有一定的影響。參考文獻[13-14]的實驗平臺設置,參考文獻[15-16]對實驗影響因素進行分析,考慮到基于RGB圖像的姿態估計還會受到光照、遮擋等情況的影響,因此本文分別進行了不同圖像分辨率和不同場景的實驗。

4.4.1 圖像分辨率對實驗的影響

本文RefinedHRNet方法主要是依靠圖像進行學習,不同分辨率的圖像進行訓練得到的模型準確度不同。本文推測不同尺寸的圖像包含的紋理信息和關鍵點之間特征信息不同,較大尺寸熱圖包含的特征信息相對較多,但是會造成模型參數較大。在圖像分辨率對于實驗影響的研究中,均采用開始使用的COCO2017訓練集訓練,訓練得到的模型在COCO2017驗證集上進行測試,最終得到網絡模型的準確度。

為了證明本文的推測,在COCO2017數據集中進行5組實驗與HRNet網絡對比,圖像分辨率分別設置為128×96,192×128,256×192,320×224和384×288。

圖6為不同圖像分辨率對于識別準確度和運算量的影響。由圖6可知,在相同的網絡模型基礎下,增加輸入圖像的尺寸,一定程度上提高姿態估計的準確度,但是同時運算量也大幅度增加。表5的實驗結果表明通過增加輸入網絡圖像的分辨率,對于中型人體和大型人體姿態估計的準確度都有一定程度的提高。

圖6 輸入圖像分辨率與平均準確度的關系

表5 精確度與分辨率的關系

4.4.2 不同場景對實驗的影響

為了驗證本文方法的有效性,考慮到光照條件、人體遮擋對于實驗結果的影響,本文從COCO2017驗證集中根據光照條件隨機選取400張具有人體標注的圖片,進行了下述實驗。

首先根據圖像光照條件分為2組,每組200張,然后再根據圖像中人體有、無遮擋情況分成2組,在各個實驗條件下進行姿態估計。光照良好條件下,有遮擋和無遮擋圖像數目分別為120和80;光照較差條件下,有遮擋和無遮擋圖像數目各為100。并根據準確姿態估計的圖像數目與該實驗條件下圖像總數的比值作為姿態估計的準確度,見表6。

表6 光照條件和人體遮擋對準確度的影響

圖7(a)與圖7(b)分別為在光照良好的條件下,人體有、無遮擋對于實驗結果的影響。圖7(c)與圖7(d)分別為在光照條件較差的情況下,人體有、無遮擋對于實驗結果的影響。由表6可知,在相同光照條件下,人體遮擋會導致姿態估計準確度降低;與人體遮擋相比,光照條件對姿態估計準確度影響更大。

以上實驗表明,在不同光照條件、人體遮擋的情況下,本文方法具有一定的魯棒性,能準確估計人體的姿態。

本文方法雖然取得了較好的實驗結果,但是仍具有很大的提升空間。圖7實驗表明在人體遮擋條件下,人體檢測器很難檢測到遮擋的人體,因此無法進行姿態估計。該方法采用人體檢測器檢測人體,使用性能更好的人體檢測器能夠進一步提高姿態估計的準確度。其次是相對于從底向上的本文方法實時性較差,未來的工作將在保證網絡準確度的同時減少參數量和計算量,提高實時性。

5 結束語

本文提出了基于RGB圖像人體姿態估計方法RefinedHRNet,將并行多尺度融合的方法和生成高質量熱圖的方法相結合,利用目標關鍵點相似度OKS來評價關鍵點識別的準確度。實驗結果表明,該方法與其他采用深度學習的姿態估計方法相比,具有更高的準確度,并且對于光照條件、人群密度、人體遮擋等具有較好的魯棒性。人體姿態估計不僅能在PC端實現,在未來還能更多應用在移動便攜設備中,更應該關注模型的輕量化設計,在保證模型準確度的基礎上提高模型的實時性。

[1] KREISS S, BERTONI L, ALAHI A. PifPaf: composite fields for human pose estimation [C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2019: 11969-11978.

[2] CAO Z, SIMON T, WEI S E, et al. Realtime multi-person 2D pose estimation using part affinity fields[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2017: 1302-1310.

[3] WEI S E, RAMAKRISHNA V, KANADE T, et al. Convolutional pose machines[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2016: 4724-4732.

[4] CAO Z, HIDALGO G, SIMON T, et al. OpenPose: realtime multi-person 2D pose estimation using part affinity fields [EB/OL]. (2018-12-18) [2020-04-15]. https://arxiv.org/abs/1812.08008.

[5] CHEN Y L, WANG Z C, PENG Y X, et al. Cascaded pyramid network for multi-person pose estimation[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2018: 7103-7112.

[6] SUN K, XIAO B, LIU D, et al. Deep high-resolution representation learning for human pose estimation[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2019: 5686-5696.

[7] LI J F, WANG C, ZHU H, et al. CrowdPose: efficient crowded scenes pose estimation and a new benchmark[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2019: 10855-10864.

[8] FANG H S, XIE S Q, TAI Y W, et al. RMPE: regional multi-person pose estimation[C]//2017 IEEE International Conference on Computer Vision (ICCV). New York: IEEE Press, 2017: 2353-2362.

[9] CHENG B W, XIAO B, WANG J D, et al. HigherHRNet: scale-aware representation learning for bottom-up human pose estimation [EB/OL]. (2019-8-27) [2020-04-27]. https://arxiv.org/abs/1908.10357.

[10] YU F, KOLTUN V. Multi-Scale context aggregation by dilated convolutions [EB/OL]. (2016-4-30) [2020-04-15]. https://arxiv.org/abs/1511.07122.

[11] LIU C X, CHEN L C, SCHROFF F, et al. Auto-DeepLab: hierarchical neural architecture search for semantic image segmentation[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2019: 82-92.

[12] XIAO B, WU H P, WEI Y C. Simple baselines for human pose estimation and tracking [EB/OL]. (2018-8-21) [2020-04-11]. https://arxiv.org/abs/1804.06208.

[13] 陳國軍, 楊靜, 程琰, 等. 基于RGBD的實時頭部姿態估計[J]. 圖學學報, 2019, 40(4): 681-688.

CHEN G J, YANG J, CHENG Y, et al. Real-time head pose estimation based on RGBD[J]. Journal of Graphics, 2019, 40(4): 681-688 (in Chinese).

[14] 劉瑜興, 王淑俠, 徐光耀, 等. 基于Leap Motion的三維手勢交互系統研究[J]. 圖學學報, 2019, 40(3): 556-564.

LIU Y X, WANG S X, XU G Y, et al. Research on 3D gesture interaction system based on leap motion[J]. Journal of Graphics, 2019, 40(3): 556-564 (in Chinese).

[15] 李白萍, 韓新怡, 吳冬梅. 基于卷積神經網絡的實時人群密度估計[J]. 圖學學報, 2018, 39(4): 728-734.

LI B P, HAN X Y, WU D M. Real-time crowd density estimation based on convolutional neural networks[J]. Journal of Graphics, 2018, 39(4): 728-734 (in Chinese).

[16] 吳珍發, 趙皇進, 鄭國磊. 人機任務仿真中虛擬人行為建模及仿真實現[J]. 圖學學報, 2019, 40(2):200-205.

WU Z F, ZHAO H J, ZHENG G L. Modeling and simulation implementation of virtual human behavior for ergonomics simulation[J]. Journal of Graphics, 2019, 40(2):200-205 (in Chinese).

Human pose estimation based on high-resolution net

REN Hao-pan, WANG Wen-ming, WEI De-jian, GAO Yan-yan, KANG Zhi-hui, WANG Quan-yu

(School of Computer Science and Technology, Beijing Institute of Technology, Beijing 100081, China)

Human pose estimation plays a vital role in human-computer interaction and behavior recognition applications, but the changing scale of feature maps poses a challenge to the relevant methods in predicting the correct human poses. In order to heighten the accuracy of pose estimation, the method for the parallel network multi-scale fusion and that for generating high-quality feature maps were combined for human pose estimation. On the basis of human detection, RefinedHRNet adopted the method for parallel network multi-scale fusion to expand the receptive field in the stage using a dilated convolution module to maintain context information. In addition, RefinedHRNet employed a deconvolution module and an up-sampling module between stages to generate high-quality feature maps. Then, the parallel network feature maps with the highest resolution (1/4 of the input image size) were utilized for pose estimation. Finally, Object Keypoint Similarity (OKS) was used to evaluate the accuracy of keypoint recognition. Experimenting on the COCO2017 test set, the pose estimation accuracy of our proposed method RefinedHRNet is 0.4% higher than the HRNet network model.

pose estimation; multi-scale fusion; high-quality feature maps; human detection; object keypoint similarity

TP 391

10.11996/JG.j.2095-302X.2021030432

A

2095-302X(2021)03-0432-07

2020-07-09;

2020-08-23

9 July,2020;

23 August,2020

任好盼(1995-),男,河南許昌人,碩士研究生。主要研究方向為計算機視覺、姿態估計等。E-mail:1838817927@qq.com

REN Hao-pan (1995–), male, master student. His main research interests cover computer vision, pose estimation, etc.E-mail: 1838817927@qq.com

王文明(1967-),男,北京人,副教授,碩士。主要研究方向為信息安全、區塊鏈技術等。E-mail:wenmingwang2004@aliyun.com

WANG Wen-ming (1967–), male, associate professor, master. His main research interests cover information security, blockchain technology, etc. E-mail: wenmingwang2004@aliyun.com

猜你喜歡
關鍵點方法模型
一半模型
聚焦金屬關鍵點
肉兔育肥抓好七個關鍵點
今日農業(2021年8期)2021-11-28 05:07:50
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
醫聯體要把握三個關鍵點
中國衛生(2014年2期)2014-11-12 13:00:16
主站蜘蛛池模板: 国内精品自在自线视频香蕉| 中文字幕无码电影| 国产网友愉拍精品视频| 国产毛片一区| 成人在线观看一区| 五月综合色婷婷| 色综合久久久久8天国| 亚洲成人网在线观看| 欧美精品在线观看视频| 一级毛片视频免费| 亚洲成aⅴ人在线观看| 99热国产在线精品99| 一区二区三区国产| 成人福利在线视频免费观看| 高清国产va日韩亚洲免费午夜电影| www.狠狠| 亚洲一区国色天香| 毛片网站免费在线观看| 亚洲最黄视频| 天堂中文在线资源| 国产激情无码一区二区三区免费| 国产呦视频免费视频在线观看| 日韩国产一区二区三区无码| 国产av一码二码三码无码| 无码av免费不卡在线观看| 国产爽歪歪免费视频在线观看 | 亚洲精品无码人妻无码| 无码粉嫩虎白一线天在线观看| 国产视频 第一页| 国产欧美日韩综合在线第一| 国产91精选在线观看| 毛片一区二区在线看| 欧美激情第一欧美在线| 国产极品美女在线| 国产免费观看av大片的网站| 国产精品jizz在线观看软件| 国产又粗又爽视频| 国产麻豆永久视频| 国产精品深爱在线| 中文字幕丝袜一区二区| 久久久久久国产精品mv| 久久男人资源站| 国产欧美日韩va另类在线播放| 日韩在线播放中文字幕| 欧美激情视频二区| 欧美成人午夜影院| 在线视频97| 午夜日韩久久影院| 自拍偷拍欧美| 亚洲av无码久久无遮挡| 九九久久精品免费观看| 精品国产网| 亚洲娇小与黑人巨大交| 国产成人精品一区二区三区| 国产白浆在线| 国产一级特黄aa级特黄裸毛片| 日韩精品专区免费无码aⅴ| 亚洲精品欧美日本中文字幕| 99成人在线观看| 天天色综网| 欧美成人在线免费| 国产福利大秀91| 国产又色又刺激高潮免费看| 亚洲欧洲日韩综合色天使| 午夜福利亚洲精品| 久久久久青草线综合超碰| 黄色网页在线播放| 潮喷在线无码白浆| 久久国产V一级毛多内射| 国产欧美视频一区二区三区| 国产日韩丝袜一二三区| 国内毛片视频| 国产永久无码观看在线| 亚洲视频色图| 女同久久精品国产99国| 国产农村1级毛片| 免费高清自慰一区二区三区| 久久a毛片| 亚洲精品男人天堂| 国产精品网拍在线| 精品伊人久久久香线蕉| 午夜国产大片免费观看|