999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于位置依賴的密集融合的6D位姿估計方法

2020-06-24 05:09:03黃榕彬
現代信息科技 2020年22期
關鍵詞:深度特征融合

摘? 要:基于RGBD的6D位姿估計方法的一個關鍵問題是如何進行彩色特征信息和深度特征信息的融合。先前的工作采用密集融合的方法,主要關注的是局部特征和全連接層提取的全局特征,忽略了遠距離像素間的位置依賴關系。文章提出通過捕獲像素間的位置關系,并將其與彩色特征圖和幾何特征圖進行密集融合,最后逐像素預測物體的6D位姿。實驗結果表明,該文的方法相比其他方法在YCB-Video數據集上獲得更優的結果。

關鍵詞:6D位姿估計;弱紋理;RGB-D;密集融合

中圖分類號:TP751? ? ? ?文獻標識碼:A 文章編號:2096-4706(2020)22-0016-04

6D Pose Estimation Method Based on Position Dependent Dense Fusion

HUANG Rongbin

(Guangdong University of Technology,Guangzhou? 510006,China)

Abstract:One of the key problems of the 6D pose estimation method based on RGBD is how to fuse the color feature information and depth feature information. Previous work used dense fusion method,mainly focused on local features and global features extracted from fully connected layer,ignoring the position dependence between remote pixels. The article proposes that by capturing the positional relationship between pixels and intensively fusing it with the color feature map and geometric feature map,the 6D pose of the object is predicted pixel by pixel. Experimental results show that the proposed method achieves better results than other methods on YCB-Video dataset.

Keywords:6D pose estimation;weak texture;RGB-D;dense fusion

0? 引? 言

物體的6D姿態估計可以廣泛應用于機器人抓取、虛擬現實、自動駕駛等領域。筆者實驗室致力于研究機器人的工業應用,為將物體6D位姿估計應用到機器人抓取或者工業焊接領域,需進一步提高6D位姿估計算法的精度和魯棒性。為此,筆者提出將一種新的RGBD融合方法,以提高6D位姿估計的精度。

目前6D位姿估計的主要方法大致可以分為基于RGB的方法和基于RGBD的方法?;赗GB的方法主要有:傳統方法[1,2]、基于關鍵點的方法[3]和直接回歸[4]的方法。其中,基于關鍵點的方法主要通過獲取圖像的關鍵點,再利用PnP計算目標物體位姿。直接回歸的方法是通過CNN直接回歸得到物體的位姿,由于缺乏深度信息,導致這類方法在使用時存在較大的困難[5]。

基于RGBD的主流方法有通過RGB獲取粗略的位姿,再利用深度信息細化位姿和通過融合RGB特征和深度特征獲取位姿。第一種方法實時性較低,第二種方法的典型代表是PointFusion[6]和DenseFusion[5]。PointFusion采用全局融合RGB特征和深度特征,進而回歸得到物體的位姿。由于是基于全局特征回歸得到位姿,當物體存在遮擋時,被遮擋部分將直接影響識別精度。DenseFusion采用逐像素密集融合的方法,通過每個融合的像素特征分別回歸得到位姿,再通過投票得到置信度最高的位姿。然而DenseFusion主要關注的是局部特征和通過多全連接層獲取的全局特征,忽略了像素之間的位置關系。受Non-local[7]的啟發,本文提出逐像素融合物體像素之間的位置關系,進一步豐富每個像素特征的信息,以提高每個像素的識別精度。

1? 算法介紹

基于RGBD的6D位姿估計問題是指給定目標物體所在場景的彩色圖像和深度圖像,計算物體的旋轉矩陣R∈SO(3)和平移向量t∈3,為方便計算,通常統一為:

其中,T為齊次變換矩陣,SO(3)為特殊正交群,SE(3)為特殊歐式群。

1.1? 總體概述

受Non-local的啟發,本文介紹了一種新的RGB數據和深度數據融合方法,主要應用于物體的6D位姿估計。該方法是在DenseFusion的基礎上,通過自注意力機制獲取像素間的位置依賴,進一步融合像素之間的位置依賴,以豐富每個像素的特征信息,提高位姿估計的精度。本文提出的方法的網絡結構如圖1所示,主要包含三個步驟,語義分割、位置依賴特征提取與逐像素融合,最后通過改進的位姿細化網絡優化得到的位姿。

1.2? 語義分割

第一步,采用語義分割網絡獲取彩色圖像中目標對象的掩摸,然后利用掩摸從彩色圖像和深度數據中獲取只包含目標對象的圖像塊和目標對象的深度數據,并將深度數據轉換為點云數據。在此為了更好的與已有的工作進行對比,采用了PoseCNN[8]的語義分割結果。

1.3? 位置依賴特征提取與逐像素融合

第二步,從目標對象的圖像塊和點云數據中分別提取彩色嵌入特征、幾何嵌入特征和位置依賴特征。在此,采用了DenseFusion中的Encoder-Decoder結構的卷積神經網路從圖像塊中提取彩色嵌入特征,采用PointNet[9]從點云數據中提取幾何嵌入特征?;贜on-local網絡提取位置依賴特征。

DenseFusion采用全連接層獲取全局特征。全連接層可定義為:

其中,i為輸入的位置索引,j為輸出的索引,x為輸入信號,w為權重,f為激活函數,y為輸出信號。

全連接層的輸出僅考慮每個位置的響應對于輸出的影響,而忽略了每個位置之間的依賴關系對于輸出的影響。受Non-local的啟發,本文提出進行逐像素融合時,考慮像素間的依賴關系,將像素間的依賴關系作為位置依賴特征與彩色嵌入特征和幾何嵌入特征進行融合。位置依賴特征的定義為:

其中,g為計算i,j兩個位置間的依賴關系的函數,C為歸一化因子。若函數g采用嵌入空間下的高斯函數或者點積相似函數,那么可以采用矩陣乘法進行替代計算[7]。在此選用嵌入空間下的高斯函數[7]:

因此,將式(3)轉成矩陣相乘,轉換成了圖1中位置依賴特征的提取模塊。通過該模塊獲取位置依賴特征圖,將彩色嵌入特征圖、幾何嵌入特征圖、位置依賴特征圖進行逐像素融合。最后將融合的結果輸入位姿預測器中回歸得到每個像素的預測結果和對應的置信度,將置信度最高的位姿作為最終的預測結果。

1.4? 位姿細化改進模塊

由于采用ICP算法細化位姿的實時性較差,DenseFusion[5]提出了一個細化迭代網絡,主要思想是采用預測的初始位姿渲染模型獲取點云數據,并將其輸入PointNet[9]中獲取幾何嵌入特征,將得到的幾何嵌入特征和彩色嵌入特征圖融合獲取全局特征,并用于預測位姿殘差,生成新的位姿,再進行下一次迭代。該網絡也沒有考慮像素間的位置關系。因此,本文提出通過提取像素間位置關系,與全局特征圖進行融合,進一步豐富特征信息,以提高精度。改進后的位姿細化網絡結構圖如圖2所示。

1.5? 損失函數

損失函數采用ADD和ADD-S[8]。ADD是指計算真實位姿下的對象模型上的采樣點與預測位姿下的對象模型上的對應點的距離。給定真實的旋轉矩陣R和平移向量t以及預測的旋轉矩陣? 和平移向量? 的情況下,損失函數Lu定義為:

其中,Lu為第u個像素預測的位姿的損失值,M為從三維點云模型任意選擇的點的數量,xv為M個點中的第v個點。

ADD對于非對稱性物體表現良好,ADD-S則是針對對稱物體,具體是指計算估計位姿下的對象模型的采樣點與真實位姿下的對象模型上最近點的距離,定義為:

其中,k為真實位姿下的對象模型上點的索引。

本文采用每個像素均預測一個位姿和置信度的方法,為使得網絡學習平衡每個像素的誤差和置信度,將整體的誤差定義為[5]:

其中,N為特征圖像素特征的數量,ω為平衡超參數,cu為第u個像素預測的位姿對應的置信度。

2? 實驗結果

本文采用YCB-Video數據集[8]評估本文提出的方法,并和其他方法進行對比。評價指標采用Yu Xiang等人[8]提出的ADD和ADD-S。

表1展示了本文提出的方法與其他方法的對比,可以看出進行位姿細化的結果比其他方法更優,整體的平均AUC提升了1%,其中picher_base和wood_block兩個類別均提升了4%,extra_large_clamp更是提高了19%。當然,也存在部分物體的精度下降了,其中scissors下降了17%,目前的判斷是因為該物體較小,當使用圖像塊預測位姿時,物體所占的像素比例較小,導致像素之間的位置關系引進了更多的噪聲,進而導致識別精度較低,本文提出的方法對于體積較大的物體精度較高。但整體而言,如圖3所示,本文提出的方法在YCB-Video數據集上表現優于目前的主流方法。

3? 結? 論

本文提出了一種基于位置依賴的逐像素融合的6D位姿估計網絡。在我們的方法中,通過提取像素間的位置依賴關系獲取位置依賴特征圖,將位置依賴特征圖逐像素融合進位姿估計網絡中和位姿細化網絡中,以豐富每個像素的特征信息。在YCB-Video數據集中的實驗表明,與DenseFusion相比,我們的方法的性能得到了提升。

參考文獻:

[1] LUCA V,VINCENT L,PASCAL F. Stable real-time 3D tracking using online and offline information [J].IEEE transactions on pattern analysis and machine intelligence,2004,26(10):1385-1391.

[2] LOWE D G. Object recognition from local scale-invariant features [C]//Proceedings of the Seventh IEEE International Conference on Computer Vision.Kerkyra:IEEE,1999:1150-1157.

[3] PENG S D,LIU Y,HUANG Q X,et al. PVNet:Pixel-wise Voting Network for 6DoF Object Pose Estimation [C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Long Beach:IEEE,2019:4556-4565.

[4] KEHL W,MANHARDT F,TOMBARI F,et al. SSD-6D:Making RGB-Based 3D Detection and 6D Pose Estimation Great Again [C]//2017 IEEE International Conference on Computer Vision (ICCV).Venice:IEEE,2017:1530-1538.

[5] WANG C,XU D F,ZHU Y K,et al. DenseFusion:6D Object Pose Estimation by Iterative Dense Fusion [C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Long Beach:IEEE,2019:3338-3347.

[6] XU D F,ANGUELOV D,JAIN A. PointFusion:Deep Sensor Fusion for 3D Bounding Box Estimation [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:244-253.

[7] WANG X L,GIRSHICK R,GUPTA A,et al. Non-local Neural Networks [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:7794-7803.

[8] XIANG Y,SCHMIDT T,NARAYANAN V,et al. PoseCNN:A Convolutional Neural Network for 6D Object Pose Estimation in Cluttered Scenes [J/OL].arXiv:1711.00199 [cs.CV].(2017-11-01).https://arxiv.org/abs/1711.00199.

[9] QI C R,SU H,MO K C,et al. PointNet:Deep Learning on Point Sets for 3D Classification and Segmentation [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Honolulu:IEEE,2017:77-85.

作者簡介:黃榕彬(1995—),男,漢族,廣東揭陽人,碩士研究生在讀,研究方向:6D位姿估計。

猜你喜歡
深度特征融合
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
深度理解一元一次方程
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
深度觀察
深度觀察
深度觀察
主站蜘蛛池模板: 国产精品成人观看视频国产| 性喷潮久久久久久久久| 毛片在线播放网址| 国产美女主播一级成人毛片| 91国内在线观看| 久久精品66| 国产99精品视频| 毛片卡一卡二| 国产成人调教在线视频| 四虎综合网| 日本不卡在线| 高h视频在线| 91色在线观看| 久久久久久久蜜桃| 三区在线视频| 亚洲精品男人天堂| 精品人妻AV区| 农村乱人伦一区二区| 国产午夜精品一区二区三区软件| 亚卅精品无码久久毛片乌克兰| 亚洲无码视频一区二区三区| 亚洲午夜天堂| 精品无码专区亚洲| 欧美一级片在线| 亚洲欧美另类专区| 久久伊人久久亚洲综合| av免费在线观看美女叉开腿| 日韩 欧美 小说 综合网 另类| 国产激情无码一区二区三区免费| 国产色婷婷视频在线观看| 中文一区二区视频| 99热这里只有成人精品国产| 亚洲一级毛片| 怡红院美国分院一区二区| 亚洲中文字幕久久无码精品A| www精品久久| 手机在线免费不卡一区二| 国产成人久久777777| 国产麻豆另类AV| 国产精品美女自慰喷水| 制服丝袜一区| 色天天综合| 日韩欧美91| 精品撒尿视频一区二区三区| 国产一区二区三区精品久久呦| 亚洲美女AV免费一区| 日韩 欧美 国产 精品 综合| 青青草原国产精品啪啪视频| 高清久久精品亚洲日韩Av| 天堂va亚洲va欧美va国产| 久久久久人妻精品一区三寸蜜桃| 久久91精品牛牛| 久久永久视频| 亚洲综合片| 国产精品女熟高潮视频| 多人乱p欧美在线观看| www.精品视频| 五月激情综合网| 国产成人免费高清AⅤ| 午夜电影在线观看国产1区| 久草视频一区| 国产91熟女高潮一区二区| 久996视频精品免费观看| 国产丝袜91| 91伊人国产| 精品国产91爱| 丝袜久久剧情精品国产| A级毛片无码久久精品免费| 欧洲精品视频在线观看| 亚洲A∨无码精品午夜在线观看| 黄色网站在线观看无码| 国产成人一区在线播放| 色噜噜久久| 中文字幕亚洲电影| 亚洲美女久久| 亚欧美国产综合| 国产白浆视频| 久久人妻xunleige无码| 国产在线视频福利资源站| 国产精品99r8在线观看| 精品国产Av电影无码久久久| 国产91特黄特色A级毛片|