999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

多層次深度特征交換的人體解析方法

2020-01-08 01:37:04羅文劼
小型微型計算機系統 2020年1期
關鍵詞:語義特征方法

羅文劼,倪 鵬,張 涵

(河北大學 網絡空間安全與計算機學院,河北 保定 071002)

1 引 言

人體解析是語義分割領域中一種更加精細化的任務,其目的是將圖像中的人體分割成特定的語義部位,例如帽子、頭發、臉、四肢、衣物種類等,如圖1所示,第一行為原始圖像,第二行為標注圖像.精確的人體分割系統應用前景巨大,已經應用于人體重識、自動化監控、智能安防等領域.目前,人體解析已經成為計算機視覺領域的熱門研究任務,受到越來越多的研究人員關注.然而,人體解析作為一種像素級別的分類任務,依然面臨著多變的人體姿態、多樣的著裝、復雜的背景等因素帶來的挑戰.隨著深度學習的發展,卷積神經網絡依靠強大的特征提取能力被應用于語義分割領域.如VGG[1]通過多次池化操作降低了特征圖的分辨率并學習到更高維的語義特征,對于較低分辨的特征圖并不能很好的保留高分辨特征圖的細節信息.

文獻[2]提出的Segnet網絡是一種編碼解碼類型的網絡,其編碼網絡用于產生低分辨率特征圖,解碼網絡用于從低分辨特征圖還原高分辨特征圖,但這種用低分率特征圖還原高分辨特征圖的做法,會導致還原回來的高分辨特征圖缺乏更為細節的局部特征.U-Net[3]網絡是一種被用于醫學圖像分割的編碼解碼類型的網絡,其通過將下采樣過程產生的特征圖與上采樣過程對應的特征圖相結合進行特征提取,雖然保留了高分辨率的特征信息但依然存在不足.首先U-Net網絡是通過上采樣低分辨率特征圖并結合對應低維特征圖來恢復高分辨率特征圖,其對于高分辨率特征圖的高維特征信息學習不足,其次忽視了各分辨率下的特征信息交叉結合學習.

圖1 原始圖像與標注圖像Fig.1 Original image and annotation image

針對傳統編碼解碼類型網絡存在的不足,本文提出一種用于人體解析的多層次深度特征交換網絡DFEnet,該網絡的第一個優點是能夠在保持高分辨率情況下學習更加高維的人體特征信息,同時又能夠像編碼解碼網絡一樣學習從高到低不同分辨率下的特征信息.DFEnet的另一個優點體現在特征密集交換學習上,高分辨率特征會下采樣與低分辨率特征融合學習,低分辨率特征會上采樣與高分辨率特征融合學習.最終能夠融合多分辨率特征信息,更好的學習全局與局部特征信息.

此外,空洞卷積[4]能夠在不增加學習參數的情況下擴展卷積核大小使其擁有更大的感受野,能學習更大的空間上下文信息但過大的擴張率會導致其學習能力不足.空洞金字塔池化(ASPP)[5]被應用于語義分割任務,它組合不同擴張率的空洞卷積進行多尺度的學習,避免單一過大擴張率造成的學習能力不足.不同于一般的語義分割任務,由于圖像中的人體部位相對集中且互相關聯,本文設計了一種用于人體解析的空洞沙漏池化AHP,空洞沙漏池化將不同擴展率的空洞卷積與不同卷積核大小的普通卷積相結合來處理相對集中且尺度不一的人體語義部位.本文主要工作如下:

1)提出一種新的人體解析方法,能夠學習多分辨率、多尺度人體特征信息,具有更高的精確度.

2)對于現有編碼解碼網絡進行改進,提出一種多層次深度特征交換網絡.它可以將不同分辨率的特征進行交換學習,又可學習不同分辨率下的高維特征.

3)提出多尺度特征信息融合處理的空洞沙漏池化.

2 相關工作

人體解析傳統的非卷積神經網絡的方法有,Basela等人[6]使用馬爾科夫隨機場模型應用于人體衣物解析.此后,Edgar等人[7]將衣物解析作為一種姿態意識的條件隨機場推理問題,它利用人體的外觀、姿態和位置以及不同部位之間的相似性與對稱性進行推斷操作.Chen等人[8]將SVM與條件隨機場相結合,提出一種全自動化的人體解析與姿態估計系統,但只是對人體上半身進行操作.這些方法需要手動的設計特征提取器,使用不夠靈活.最近,基于卷積神經網絡的方法在人體解析中取得了很大的成功,其中文獻[9]提出將人體解析作為一種活動模板回歸問題,利用卷積神經去學習模板相關系數與活動類型參數,忽視人體關節之間的關系直接去解析人體部位,并使用超像素平滑方法去改進解析結果.Liu等人[10]將卷積網絡與聚類算法相結合提出了一種卷積神經網絡KNN非參數模型.該模型將原始圖像與經過處理的KNN區域圖像分別作為輸入,然后進行卷積操作輸出人體結果.Liang等人[11]提出Co-CNN網絡,該方法將跨層次上下文信息、語義邊緣上下文信息和局部超像素上下信息整合到統一的網絡中進行人體解析.此外,支等人[12]提出步態人體語義分割方法,將人體解析與步態識別任務相結合.

人體解析與姿態估計是兩個相近的任務,因此出現了一些將人體解析與姿態估計相結合的方法.如文獻[13]使用一種與或圖結構的框架用人體姿態估計結果去指導人體解析.文獻[14]引入了更有挑戰更多樣的人體解析數據集Look Into Person(LIP)彌補了大數據集的缺失,同時結合姿態估計與人體解析任務提出一種自我監督結構意識的損失函數.文獻[15]將人體解析與姿態估計任務一起進行操作,并設計了一種轉換解析結果去輔助姿態估計的網絡.但是這類方法需要額外引入人體姿態標注信息,同時也增加了額外的計算消耗.

本文提出的 DFEnet的方法不同以往的方法,在特征提取方面結合了編碼解碼網絡與特征金字塔模型[16]的優點,既學習到不同分辨的高維人體特征信息,又充分融合全局與局部人體特征信息.此外在最后階段使用了空洞沙漏池化,不同于場景解析中PSPnet[17]和DenseASPP[18],DenseASPP中過于密集的連接導致其參數過大,而PSPnet只使用了普通的卷積操作,本文提出的空洞沙漏池化,將空洞卷積與普通卷積相結合,在多個尺度處理人體特征信息并綜合學習這些人體特征信息,接下來的部分將詳細介紹本文方法.

3 多層次深度特征交換的人體解析方法

本文方法的整體過程如圖2所示,令I代表人體圖像,3wh代表輸入圖像格式,其中3為通道數,w代表圖像寬度,h代表圖像高度.目的是輸出解析結果圖cwh,其中c代表解析出的類別數.圖像I被輸入網絡后,首先多層次深度特征交換網絡會提出人體語義特征,之后將提取的特征輸入空洞沙漏池化模型進行處理輸出學習后的特征,最后應用分類器輸出最終的人體解析結果.下面將分別介紹多層次深度特征交換網絡與空洞沙漏池化.

圖2 本文方法整體流程Fig.2 Overall flow of the method in this paper

3.1 多層次深度特征交換網絡

在設計DFEnet時考慮到了以下兩方面,第一如何避免多次池化操作導致的局部細節特征不足或缺失,第二如何更加有效的綜合學習全局與局部特征信息.受Segnet與特征金子塔模型的啟發,綜合Segnet的編碼解碼網絡與特征金子塔模型的多尺度特征學習特點設計了DFEnet網絡,該網絡整體類似一個倒金字塔結構如圖3所示,最頂層特征圖擁有最高的分辨率,每下降一層特征圖分辨率下降一倍,channel數量增加1/2倍,DFEnet從最左側輸入原始圖像,從最右側輸出人體語義特征圖.自底向上每增高一層會多出一個卷積塊,如最底層為1塊,第二層為2塊,第三層為3塊以此類推相鄰層間每經過一次卷積塊會進行一次特征信息交換學習.DFEnet每層的首次下采樣路徑與最后一次上采樣路徑構成了編碼解碼類型網絡,各層組合到一起構成了特征金字塔模型.

DFEnet的下采樣操作沒有使用Segnet中的最大池化操作,每層下采樣時使用卷積核大小為3,跨度為2的卷積加批處理與ReLU操作,上采樣使用雙線性插值法.特征信息交換學習時會先進行1×1的卷積操作,使其擁有不同權重,然后將其連接進行融合學習.本文使用5層DFEnet模型,其原始圖像會先經過跨度為2,padding為3,卷積核大小分別為7和3的卷積預處理,其輸出通道數為256,然后送入DFEnet中,DFEnet的輸入與輸出大小為原始圖像的1/4,最低層為原始圖像大小的1/64.經過DFEnet處理得到人體語義特征圖緊接著會被送入空洞沙漏池化進行處理.

圖3 多層次深度特征交換網絡DFEnet結構圖Fig.3 Structure diagram of multi-level deep feature exchange network

3.2 空洞沙漏池化

空洞卷積與普通卷積的結構如圖4所示,圖4(a)為擴張度為2卷積核大小為3的空洞卷積,圖4(b)為卷積核大小為5的普通卷積,這兩者都擁有相同大小的感受野,但空洞卷積的卷積核會被嵌入不參與學習其值為的參數以此來增大卷積核.其空洞卷積的卷積核大小可以用數學表達式表示如下:

圖4 空洞卷積與普通卷積結構圖Fig.4 Structure of atrous convolution and ordinary convolution

K=k+(r-1)×(k-1)

(1)

其中k代表原始卷積核大小,r為擴張率,K為被擴展后空洞卷積核的大小.空洞卷積擴展后的卷積核相當于在感受野區域進行像素級別稀疏采樣操作,而普通卷積的卷積核相當于在感受野區域進行像素級別密集采樣.ASPP使用不同擴張率的空洞卷積,在分辨率不變的情況下通過擴大卷積核來達到池化的效果,從而學習多尺度特征,而PSPnet使用不同卷積核大小的普通卷積去嵌入不同上下文信息,本文提出的空洞沙漏池化AHP,如圖5所示,整體結構類似一個沙漏模型,其上半部分分別使用擴張率為2、3,卷積核大小為2與3的空洞卷積,下半部分分別為卷積核大小為3、5、7的普通卷積,中間部位是卷積核大小為1×1的普通卷積,它們的通道數為輸入通道的1/4,使用連接的方式將AHP的特征圖進行融合并應用1×1的卷積,使各個特征擁有不同的權重,綜合學習多尺度特征信息.

圖5 AHP結構圖Fig.5 AHP structure diagram

使用Aij表示擴張率為i,卷積核大小為j的空洞卷積,Ci表示卷積核大小為j的普通卷積,AHP的整體表達式為:

P=A22○A23○A33○C1○C3○C5○C7

(2)

其中○代表連接操作,通過AHP提取出多尺度融合特征圖后,使用1×1的卷積作為分類器,其分類器的輸入通道為特征圖的通道數,輸出的通道數為類別數.在訓練階段其損失函數這里使用多分類交叉熵損失,其數學表達式為:

(3)

4 實 驗

4.1 數據集

Look Into Person(LIP)數據集擁有50462張圖像,其中包含了19081張全身圖像,136672張上半身圖像,403張下半身圖像,3386張頭部缺失圖像,2778張背影圖像,21028張遮擋圖像.LIP被隨機分成訓練集、驗證集、測試集,其中訓練集包含30462張圖像,驗證集包含10000張圖像,10000張測試集圖像.LIP擁有包括19種像素級別的人體語義部位標注類別和一個背景標準類別.

4.2 評價指標

本文使用三種評價指標來評價人體解析模型的性能,三種指標分別是:像素精度(PA)、均像素精度(MPA)、均交并比(MIoU).

4.3 實驗細節

本文使用PyTorch來實現,基于Linux操作環境,使用NVIDIA GTX1080Ti顯卡進行訓練,在訓練階段原始圖像會經過-10度到10度之間隨機旋轉,0.8到1.5比例之間隨機縮放.圖像的分辨率被設置為256×256,經過卷積預處理后,進入DFEnet的特征大小為64×64,batch大小為16,每個卷積塊使用ResNet[19]深度為4,DFEnet與AHP單獨訓練,首先預訓練DFEnet,初始學習率設置為0.0005,每隔40輪學習率下降一倍,使用RMSProp優化器進行參數學習,一共訓練200輪.然后加上AHP進行訓練,學習率設置為0.0001,其訓練方式與DFEnet相同.

4.4 實驗結果與分析

本文方法與其他方法實驗結果如表1所示,本文提出的DFEnet取得84.36%AP,54.79%MPA,43.96%MIoU,經過AHP處理后各個指標分別提高了0.76%、0.86%、0.62%,結果表明經過AHP多尺度特征處理后,其擁有更精確的解析結果.

表1 在LIP驗證集下不同方法的結果
Table 1 Comparison with different methods on LIP validation

Method PA(%)MPA(%)MIoU(%)SegNet[2]69.0124.1218.17FCN-8s[20]76.1436.8328.29DeepLab[5]82.6851.6241.65Attention[21]83.4254.3942.92SS-JPPNet[14]83.7654.4743.23DEFNet84.3654.7943.96DEFNet+AHP85.1255.6544.68

在測試階段使用DFEnet處理每張圖像平均需要0.124秒,加入AHP后處理每張圖像平均時間需要0.129秒,處理時間增加了約4%,雖然增加了時間開銷但整體可以接受.在AP指標下與SS-JPPnet相比提高了1.56%,與SegNet相比提高了近15.11%,在MPA指標下相比SegNet提高了31.53%,比SS-JPPnet提高了0.86%,在MIoU指標下相比SegNet提高了26.51%,比SS-JPPnet提高了0.72%,從表中可以看出在三種評價指標上均優于其他先進方法.

為了更加詳細比較各個語義類別的解析結果,表2展示了不同方法在人體語義類別的具體結果,其采用交并比的評價指標,從中可以發現不同方法對不同的人體語義類別擁有不同的處理效果,從表2中可以看出SegNet對于太陽鏡、裙子等多種語義部位不能有效識別,而本文方法在解析帽子、手套、上衣、裙子、面部、背景擁有更高的解析精度,綜合解析能力要高于其他方法,說明DFEnet對于全局與局部特征信息擁有更好的學習效果.

表2 在LIP驗證集下各類別結果
Table 2 Results of each category under the LIP verification set

classMethodSegnetFCN-8sDeepLabAttentionSS-JPPNetDEFNetDEFNet+AHPhat26.6039.7959.2358.8758.6559.3459.75hair44.0158.9665.7366.7867.2367.3367.25glove0.015.3223.4023.3225.226.7229.95sunglasses0.003.0824.2519.4821.4319.8421.57upperclothes34.4649.0859.3463.2064.9163.4165.3dress0.0012.3613.7829.6325.1830.4529.49coat15.9726.8247.9349.7051.6351.0951.92socks3.5915.6638.3835.3235.2140.2738.52pants33.5649.4167.3366.0466.0167.4570.02jumpsuits0.016.486.3824.7323.2522.7824.48scarf0.000.009.8412.8411.7510.5912.32skirt0.002.1619.7520.4122.1420.4622.16face52.3862.6570.4070.5869.8570.2371.13leftarm15.3029.7852.1150.1750.2149.2552.44rightarm24.2336.6354.9354.0353.1252.8855.38leftleg13.8228.1241.1338.3541.2942.3740.23rightleg13.1726.0539.1037.7039.7335.7839.00leftshoe9.2617.7627.9926.2028.2133.8129.12rightshoe6.4717.7028.3027.0926.4230.8729.03background70.6278.0283.7384.0083.2184.2884.56avg18.1728.2941.6542.9243.2343.9644.68

接下來為了更詳細分析DFEnet的層數與卷積塊深度對解析精度的影響,首先使用深度為4的卷積塊與不同層數的DFEnet對比,其分別使用3、4、5層,結果如圖6所示,層數的增長結果也隨著提高,從使用3層的40.38%到使用5層的43.96%其增長了3.58%,實驗結果表明增加DFEnet的層數能有效的提升解析精度.

使用5層DEFnet與不同卷積塊深度做對比,設置其深度分別為2、3、4,網絡類型為ResNet,結果如表3所示.從表3中可以看出隨著卷積塊中網絡深度的加深其解析結果也相應的提高.從39.71%提升到了43.96%,由此可知加深卷積塊的深度與增加DFEnet層數均可有效提高解析精度.

表3 在LIP驗證集下對比實驗結果
Table 3 Comparison of experimental results on LIP validation set

MethodMIoU(%)DFEnet(depth-2)39.71DFEnet(depth-3)42.83DFEnet(depth-4)43.96

圖7展示了不同方法的可視化解析結果圖,與其他方法對比可以發現Segnet解析結果較為粗糙,解析區域不連續,識別錯誤比較嚴重,而SS-JPPnet解析結果要明顯優于Segnet,本文方法的結果圖對比其他方法解析出來的結果要更加精細,識別區域也比較完整.

圖6 不同層數實驗結果Fig.6 Different layers of experimental results

5 結 論

本文提出的人體解析方法,采用多層次深度特征交換網絡DEFnet可以在不同分辨率下學習高維特征信息,又可滿足不同分辨率特征之間的交換學習,相比SegNet擁有更好的特征提取能力,空洞沙漏池化AHP能夠融合學習多尺度特征信息.經過DEFnet多分辨率下特征提取與AHP多尺度融合學習能夠有效的提高人體解析效果.實驗結果表明了本文方法的有效性,相比其他先進方法擁有更好的解析結果.接下來的工作是近一步優化網絡模型,使其在人體解析領域具有更好的表現,同時對多人場景進行研究.

圖7 可視化人體解析結果Fig.7 Visualization of human parsing results

猜你喜歡
語義特征方法
語言與語義
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
認知范疇模糊與語義模糊
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 日韩亚洲高清一区二区| 亚洲国产中文欧美在线人成大黄瓜| 亚洲黄色成人| 免费国产在线精品一区| 国产91全国探花系列在线播放| 亚洲第一天堂无码专区| 国产一区二区色淫影院| 国产精品亚洲天堂| 国产女人在线观看| 国产欧美网站| 亚洲AⅤ波多系列中文字幕| 亚洲人成日本在线观看| 99中文字幕亚洲一区二区| 国产在线观看人成激情视频| 夜夜拍夜夜爽| 热九九精品| 欧美色视频网站| 国产欧美精品一区二区| 国产精品3p视频| 欧洲一区二区三区无码| 国产国模一区二区三区四区| 亚洲h视频在线| 亚洲一区二区视频在线观看| 国产成人高清精品免费| 亚洲第一成人在线| 久久黄色视频影| 精品一区二区三区视频免费观看| 亚洲国产成人精品青青草原| 91av成人日本不卡三区| 亚洲中文字幕久久精品无码一区 | 国产96在线 | 成人国产一区二区三区| 国产精品任我爽爆在线播放6080| 国产原创第一页在线观看| 国产成人啪视频一区二区三区 | 综合亚洲色图| 国产日韩欧美黄色片免费观看| 四虎免费视频网站| 国产成人AV综合久久| 色婷婷亚洲综合五月| 99热国产这里只有精品无卡顿" | 操操操综合网| 亚洲视频a| h视频在线播放| 国产精品亚洲а∨天堂免下载| 99无码熟妇丰满人妻啪啪| 成人久久18免费网站| 久久窝窝国产精品午夜看片| 很黄的网站在线观看| 国产 在线视频无码| 中文字幕久久精品波多野结| 精品国产免费观看一区| 亚洲无码电影| 国产白浆在线| 亚洲愉拍一区二区精品| 26uuu国产精品视频| 丁香婷婷久久| 中文字幕永久在线看| 国产免费网址| AV熟女乱| 亚洲一区免费看| 久久免费视频播放| 有专无码视频| 国产视频自拍一区| 成人福利视频网| 亚洲无码在线午夜电影| 婷婷综合在线观看丁香| 久久人午夜亚洲精品无码区| 精品视频福利| 欧美日韩动态图| 无码中文字幕乱码免费2| 青青青国产精品国产精品美女| 免费精品一区二区h| 亚洲精品欧美重口| 国产成人三级| 国产一级毛片网站| 97在线观看视频免费| 在线中文字幕日韩| 中文字幕在线视频免费| 亚洲精品福利网站| 国产欧美日韩va| 亚洲va视频|