999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

局部特征表征的6D位姿估計(jì)算法

2022-12-31 00:00:00王晨露陳立家李珅范賢博俊王敏連晨軒王贊劉名果
計(jì)算機(jī)應(yīng)用研究 2022年12期

收稿日期:2022-04-08;修回日期:2022-05-26" 基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(61901158);河南省科技廳重點(diǎn)研發(fā)與推廣專項(xiàng)資助項(xiàng)目(202102210121);河南省科技發(fā)展計(jì)劃資助項(xiàng)目(科技攻關(guān))(212102210500);開封市重大專項(xiàng)資助項(xiàng)目(20ZD014);開封市科技項(xiàng)目(2001016);開封平煤新型炭材料科技有限公司(2021410202000003)

作者簡(jiǎn)介:王晨露(1995-),女,河南鄭州人,碩士研究生,主要研究方向?yàn)樯疃葘W(xué)習(xí)、圖像處理、人工智能;陳立家(1979-),男(通信作者),河南開封人,副教授,碩導(dǎo),博士,主要研究方向?yàn)橹悄苡?jì)算、數(shù)字信號(hào)處理、濾波器、人工智能算法(chenlijia_just@163.com);李珅(1982-),男,河南開封人,主要研究方向?yàn)樯疃葘W(xué)習(xí)、圖像處理;范賢博俊(1994-),男,河南義馬人,碩士研究生,主要研究方向?yàn)槿褐悄芩惴ā?shù)字信號(hào)處理、人工智能、機(jī)器人;王敏(1997-),女,山東菏澤人,碩士研究生,主要研究方向?yàn)樯窠?jīng)網(wǎng)絡(luò)、機(jī)器人、機(jī)器學(xué)習(xí);連晨軒(1999-),男,河南鄭州人,碩士研究生,主要研究方向?yàn)樯疃葘W(xué)習(xí)、圖像處理、人工智能;王贊(1984-),男,河南開封人,副教授,碩導(dǎo),博士,主要研究方向?yàn)槔走_(dá)信號(hào)、神經(jīng)網(wǎng)絡(luò)、機(jī)器學(xué)習(xí);劉名果(1984-),男,河南鞏義人,副教授,碩導(dǎo),博士,主要研究方向?yàn)槿褐悄芩惴ā⑷斯ぶ悄埽?/p>

摘 要:為解決有紋理模型在遮擋條件下6D位姿估計(jì)精確度不高的問(wèn)題,提出了一種局部特征表征的端到端6D位姿估計(jì)算法。首先為了得到準(zhǔn)確的定位信息,提出了一個(gè)空間—坐標(biāo)注意力機(jī)制(spatial and coordinate attention),通過(guò)在YOLOv5網(wǎng)絡(luò)中加入空間—坐標(biāo)注意力機(jī)制和加權(quán)雙向特征金字塔網(wǎng)絡(luò)(bidirectional feature pyramid network),YOLOv5-CBE算法的精確度(precision)、召回率(recall)、平均精度均值(mAP@0.5)分別提升了3.6%、2.8%、2.5%,局部特征中心點(diǎn)坐標(biāo)誤差最高提升了25%;然后用 YOLOv5-CBE算法檢測(cè)局部特征關(guān)鍵點(diǎn),結(jié)合3D Harris關(guān)鍵點(diǎn)通過(guò)奇異值分解法(singular value decomposition)計(jì)算模型的6D位姿,最高遮擋70%的情況下仍然可以保證二維重投影精度(2D reprojection accuracy)和ADD度量精度(ADD accuracy)在95%以上,具有較強(qiáng)的魯棒性。

關(guān)鍵詞:局部特征;6D位姿估計(jì);YOLOv5檢測(cè)網(wǎng)絡(luò);空間—坐標(biāo)注意力機(jī)制;加權(quán)雙向特征金字塔網(wǎng)絡(luò)

中圖分類號(hào):TP391.41"" 文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1001-3695(2022)12-046-3808-07

doi:10.19734/j.issn.1001-3695.2022.04.0163

6D pose estimation algorithm for local feature representation

Wang Chenlu1,Chen Lijia1,Li Shen2,F(xiàn)an Xianbojun1,Wang Min1,Lian Chenxuan1,Wang Zan1,Liu Mingguo1

(1.School of Physics amp; Electronics,Henan University,Kaifeng Henan 475000,China;2.Kaifeng Pingmei New Carbon Material Technology Co.,Ltd.,Kaifeng Henan 475000,China)

Abstract:In order to solve the problem of low accuracy of 6D pose estimation for textured models under occlusion,this paper proposed an end-to-end 6D pose estimation algorithm based on local feature representation.Firstly,this paper proposed a spatial and coordinate attention mechanism to obtain accurate localization information.A YOLOv5-CBE detection network formed by adding the attention mechanism to the backbone network and introducing a weighted bidirectional feature pyramid Network in the detection layer.The precision,recall and mAP@0.5 of YOLOV5-CBE algorithm rise by 3.6%,2.8% and 2.5% respectively,and the coordinate error of local feature center point decreases by 25% at most.Secondly,the YOLOv5-CBE network detected the local feature key points and calculated 6D pose of the model with 3D Harris key points by singular value decomposition,and the algorithm can guarantee 2D reprojection accuracy and ADD accuracy above 95% with 70% occlusion,which has a strong robustness.

Key words:local feature;6D pose estimation;YOLOv5 detection network;spatial and coordinate attention;bidirectional feature pyramid network

0 引言

機(jī)器人視覺(jué)識(shí)別技術(shù)是移動(dòng)機(jī)器人平臺(tái)十分關(guān)鍵的技術(shù),檢測(cè)物體及其6D位姿(3D位置和方向)是許多機(jī)器人應(yīng)用的重要任務(wù),包括物體的拾取操作、工廠零件裝配等。在復(fù)雜的現(xiàn)實(shí)環(huán)境中,6D位姿估計(jì)一般包括兩個(gè)階段:第一階段是目標(biāo)檢測(cè),在RGB圖片中使用目標(biāo)檢測(cè)算法或者分割網(wǎng)絡(luò)獲取目標(biāo)在圖片上的位置;第二階段則是對(duì)檢測(cè)出來(lái)的目標(biāo)物體進(jìn)行6D位姿估計(jì)。近幾年來(lái),基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)發(fā)展迅速,但是6D位姿估計(jì)仍然面臨很大的挑戰(zhàn)。傳統(tǒng)的6D位姿估計(jì)的方法主要是局部特征匹配,如SIFT[1],但是這種方法只適用于紋理豐富的對(duì)象,對(duì)于表面紋理較弱的物體,通常采用模板匹配[2]的方法,這種方法對(duì)于光照和遮擋情況較為敏感。

隨著深度學(xué)習(xí)的發(fā)展,特別是卷積神經(jīng)網(wǎng)絡(luò)以及YOLO系列檢測(cè)算法的快速發(fā)展,使得深度學(xué)習(xí)算法在目標(biāo)分類[3]、目標(biāo)檢測(cè)識(shí)別[4]、目標(biāo)分割[5]等方面都取得了顯著的進(jìn)步,特別是YOLOv5目標(biāo)檢測(cè)算法,對(duì)于物體的檢測(cè)速度快、精度高。目前也有很多學(xué)者將深度學(xué)習(xí)算法應(yīng)用到有紋理模型的6D姿態(tài)估計(jì),2017年Kehl等人[6]對(duì)SSD算法進(jìn)行延伸,所提出的SSD-6D采用基于顏色的方法減少模型對(duì)深度數(shù)據(jù)的依賴,利用3D模型姿勢(shì)空間的分解處理對(duì)稱性并推斷物體6D姿勢(shì),以此達(dá)到三維物體的位姿估計(jì);2018年Xiang等人[7]提出了新的卷積神經(jīng)網(wǎng)絡(luò)PoseCNN先預(yù)測(cè)2D圖片中心與攝像頭的距離,通過(guò)Hough投票來(lái)預(yù)測(cè)物體的中心位置,并很好地解決了有紋理對(duì)稱模型的姿態(tài)估計(jì)問(wèn)題;2019年李飛飛等人在PoseCNN的基礎(chǔ)上提出了建立在三維物體RGB-D圖像的6D位姿估計(jì)的深度學(xué)習(xí)框架DenseFusion[8],該算法在YCB-Video和LineMOD兩個(gè)數(shù)據(jù)集上都表現(xiàn)優(yōu)秀;谷歌提出的MediaPipe是一種實(shí)時(shí)的3D對(duì)象檢測(cè)管道,該管道在2D圖像中檢測(cè)物體,并通過(guò)在Objectron數(shù)據(jù)集上訓(xùn)練機(jī)器學(xué)習(xí)(ML)模型來(lái)估計(jì)物體的姿態(tài)和大小,非常的靈活并且輕量化,但是該算法前期訓(xùn)練的數(shù)據(jù)集大小達(dá)到4 TB,很難工程化部署。

以上深度學(xué)習(xí)方法對(duì)于三維物體的6D位姿估計(jì)在公共數(shù)據(jù)集上有著不錯(cuò)的性能,但是工程化部署較難,并且對(duì)于物體的6D位姿估計(jì)的精確度會(huì)隨著遮擋程度的增大而導(dǎo)致精確度顯著降低。YOLOv5算法模型常用于物體的檢測(cè)和定位,圖像推理速度極快,識(shí)別檢測(cè)精度高,可以訓(xùn)練自己的樣本模型[9]。

基于目前6D位姿估計(jì)算法出現(xiàn)的問(wèn)題,以及YOLOv5檢測(cè)算法的優(yōu)越性,本文主要工作如下:

本文針對(duì)有紋理模型提出了一個(gè)局部特征表征的端到端6D位姿估計(jì)算法。首先為了得到更加精確的定位信息,將空間注意力(spatial attention,SA)[10]與坐標(biāo)注意力(coordinate attention,CA)[11]結(jié)合,提出了一個(gè)空間—坐標(biāo)注意力機(jī)制(spatial and coordinate attention,SCAA),在原有的YOLOv5算法網(wǎng)絡(luò)的基礎(chǔ)之上,加入了空間—坐標(biāo)注意力機(jī)制(SCAA)和加權(quán)雙向特征金字塔網(wǎng)絡(luò)(bidirectional feature pyramid network,Bi-FPN)[12],形成了一個(gè)YOLOv5-CBE目標(biāo)檢測(cè)網(wǎng)絡(luò)。用YOLOv5-CBE網(wǎng)絡(luò)對(duì)模型的局部特征檢測(cè)并定位,結(jié)合深度信息,得到中心點(diǎn)坐標(biāo),并與3D Harris關(guān)鍵點(diǎn)通過(guò)奇異值分解法(singular value decomposition,SVD)[13]計(jì)算出旋轉(zhuǎn)矩陣R與平移矩陣T,可以實(shí)時(shí)估計(jì)樣本模型的6D位姿,并驗(yàn)證實(shí)驗(yàn)誤差。

1 6D位姿估計(jì)算法框架

本文提出的6D位姿估計(jì)算法的整體思路如圖1所示,首先將樣本的三維模型轉(zhuǎn)換成所需要的點(diǎn)云模型,然后利用3D Harris關(guān)鍵點(diǎn)提取算法[14]提取特征點(diǎn)作為點(diǎn)云的關(guān)鍵點(diǎn),用標(biāo)注軟件對(duì)自定義樣本模型數(shù)據(jù)集特征進(jìn)行標(biāo)注,使得點(diǎn)云模型的關(guān)鍵點(diǎn)與特征的中心點(diǎn)對(duì)應(yīng)。然后用YOLOv5-CBE目標(biāo)檢測(cè)算法對(duì)樣本數(shù)據(jù)集標(biāo)注局部特征學(xué)習(xí),此時(shí)特征的中心點(diǎn)即為樣本模型的關(guān)鍵點(diǎn)。得到兩組對(duì)應(yīng)關(guān)鍵點(diǎn)以后,利用奇異值分解法(SVD)計(jì)算出旋轉(zhuǎn)矩陣R和平移矩陣T,得到6D位姿。YOLOv5目標(biāo)檢測(cè)算法檢測(cè)速度快,檢測(cè)精度高,但是在物體的局部特征檢測(cè)與準(zhǔn)確定位方面,性能還有待加強(qiáng)。本文選取的樣本模型,局部特征復(fù)雜且不易區(qū)分,定位不準(zhǔn)確,為了更好地對(duì)樣本的局部特征進(jìn)行檢測(cè)并定位,本文在YOLOv5算法的基礎(chǔ)之上,提出了一種YOLOv5-CBE目標(biāo)檢測(cè)算法。

1.1 YOLOv5-CBE算法

YOLOv5算法結(jié)構(gòu)如圖2所示,包括輸入端、主干網(wǎng)絡(luò)、檢測(cè)層和輸出端。輸入端用Mosaic數(shù)據(jù)增強(qiáng)的方式對(duì)輸入圖片自適應(yīng)縮放。主干網(wǎng)絡(luò)包括Focus、Conv、C3和SPP模塊,可以從輸入圖像中獲取豐富的特征信息。檢測(cè)層則沿用了YOLOv4的多尺度檢測(cè)結(jié)構(gòu),通過(guò)兩次上采樣和三次卷積操作,分別在20×20、40×40、80×80三個(gè)尺度條件下,實(shí)現(xiàn)大中小目標(biāo)的識(shí)別和位置預(yù)測(cè)。

針對(duì)YOLOv5算法對(duì)模型的局部特征檢測(cè)精度有所下降,定位不準(zhǔn)等問(wèn)題,本文通過(guò)在主干網(wǎng)絡(luò)加入SCAA模塊,在neck檢測(cè)網(wǎng)絡(luò)中加入BiFPN模塊,提升算法對(duì)于局部特征檢測(cè)以及定位的精度,改進(jìn)后的算法在自定義數(shù)據(jù)集上測(cè)試具有很大的優(yōu)越性,這為6D位姿估計(jì)實(shí)驗(yàn)打下了基礎(chǔ)。

1.1.1 Backbone網(wǎng)絡(luò)加入SCAA模塊

對(duì)于整體的輸入圖像,局部特征信息在整體圖像中占比很小,其余的圖像信息均作為背景出現(xiàn),在多次卷積后,背景信息會(huì)多次迭代累積,從而造成信息冗余的現(xiàn)象,對(duì)本文標(biāo)記的特征信息造成干擾。本文通過(guò)對(duì)模型的局部特征進(jìn)行檢測(cè)并定位,利用各部分特征的位置信息進(jìn)行后續(xù)的6D位姿估計(jì),因此精準(zhǔn)的定位非常重要。為了得到更加精確的定位,本文將空間注意力機(jī)制(SA)與坐標(biāo)注意力機(jī)制(CA)結(jié)合起來(lái),特征信息通過(guò)空間注意力機(jī)制以后進(jìn)行加權(quán)融合,再通過(guò)坐標(biāo)注意力機(jī)制,將帶有空間信息的特征分別沿水平方向和垂直方向進(jìn)行聚合加權(quán),形成兩個(gè)獨(dú)立的特征圖;最后將帶有方向編碼信息的特征進(jìn)行儲(chǔ)存,這樣對(duì)于局部特征信息的雙重定位將會(huì)使檢測(cè)更加準(zhǔn)確。SCAA模塊結(jié)構(gòu)如圖3所示。假設(shè)輸入的特征信息為N,在通道維度層面對(duì)輸入特征進(jìn)行壓縮,然后對(duì)壓縮以后的特征進(jìn)行最大池化和平均池化操作,也就是分別在兩個(gè)通道時(shí)提取最大值和平均值,最后將兩個(gè)通道的特征圖進(jìn)行融合,經(jīng)過(guò)一個(gè)卷積層,得到權(quán)重系數(shù)Ns,輸出特征Nf是輸入特征N與權(quán)重Ns的乘積,權(quán)重系數(shù)Ns表達(dá)式如式(1)所示。

Ns=σ(f7×7([AvgPool(N);MaxPool(N)])=

σ(f7×7([Nsavg;Nsmax]))(1)

整個(gè)空間范圍高為H,寬為W,在(H,1)的垂直范圍里,用池化核對(duì)垂直方向的坐標(biāo)信息編碼并保存;在(1,W)的水平范圍里,用池化核對(duì)水平方向的坐標(biāo)信息進(jìn)行編碼并保存,用式(2)和(3)表示。

Dhc(h)=1W∑0≤ilt;WNf(h,i)(2)

Dhc(w)=1H∑0≤jlt;HNf(j,w)(3)

將具有精確編碼信息的特征進(jìn)行拼接,然后經(jīng)過(guò)1×1卷積變換函數(shù)F1和非線性激活函數(shù)δ,可以得到編碼空間信息的中間特征f,用式(4)表示。

f=δ(F1([Dh,Dw]))" f∈Euclid Math TwoRApC/τ×(H+W)(4)

然后用1×1卷積Fh和Fw生成注意力權(quán)重mh和mw,用式(5)表示。

mh=σ(Fh(fh)),mw=σ(Fw(fw))(5)

最終通過(guò)式(6)計(jì)算注意力模塊的輸出特征Nc:

Nc(i,j)=xc(i,j)×mhc(i)×mwc(j)(6)

為了突出目標(biāo)的特征信息,本文在主干網(wǎng)絡(luò)backbone層的C3模塊后加入了SCAA模塊,在經(jīng)過(guò)C3模塊獲得深層次的特征信息后,對(duì)空間權(quán)重大的特征信息在水平方向和垂直方向進(jìn)行編碼,對(duì)目標(biāo)模型局部特征更好的識(shí)別和定位,新的網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。

1.1.2 多尺度融合網(wǎng)絡(luò)

YOLOv5的neck結(jié)構(gòu)同YOLOv4一樣,采用的是路徑聚合網(wǎng)絡(luò)(path aggregation network for instance segmentation,PANet)[15]和特征圖金字塔網(wǎng)絡(luò)網(wǎng)絡(luò)(feature pyramid networks,F(xiàn)PN)[16],本文引入的BiFPN模塊結(jié)構(gòu)如圖4[12]所示。與YOLOv5的檢測(cè)網(wǎng)絡(luò)使用的PANet+FPN相比,BiFPN模塊刪除了對(duì)于特征融合網(wǎng)絡(luò)貢獻(xiàn)比較小的節(jié)點(diǎn),簡(jiǎn)化了雙向網(wǎng)絡(luò);并且在原始輸入節(jié)點(diǎn)和輸出節(jié)點(diǎn)之間增加了一個(gè)跳躍連接,可以在不增加太多運(yùn)算量的條件下融合更多的特征;每個(gè)雙向路徑(自頂向下和自底向上)可以多次重復(fù),實(shí)現(xiàn)了高層次的特征融合。

鑒于BiFPN結(jié)構(gòu)特征融合方式的優(yōu)越性,本文將BiFPN結(jié)構(gòu)融合到Y(jié)OLOv5算法模型中,改進(jìn)后的模型結(jié)構(gòu)如圖5所示。

下面說(shuō)明新型特征融合網(wǎng)絡(luò)的工作方式,將特征融合的方式用式(7)表示。

feature=[f1;f2;f3](7)

其中:f1、f2、f3表示雙向特征融合網(wǎng)絡(luò)的三個(gè)特征;[;]表示將兩個(gè)特征按照通道維度數(shù)進(jìn)行兩兩拼接;feature表示特征按照通道維度拼接后生成的新的特征。在圖5中,Pi表示前饋深度神經(jīng)網(wǎng)絡(luò)提取到的多尺度融合特征。

如圖5所示,N3、N4、N5是通過(guò)新型的雙向特征融合網(wǎng)絡(luò)后生成的多尺度融合特征,以特征N3生成為例,特征P3是特征P2通過(guò)下采樣生成的,特征F4通過(guò)上采樣并與特征P3按通道維度拼接生成特征F3,多尺度融合特征N3則是特征N2、特征F3和特征P3按照通道維度拼接后生成的,YOLOv5結(jié)構(gòu)中的CSP算子記做函數(shù)F,downsample是指通過(guò)卷積二倍下采樣,特征N3融合方式如式(8)所示。

N3=F[downsample(N2);F3;P3](8)

同理,特征N4、N5融合方式如式(9)和(10)所示。

N4=F[downsample(N3);F4;P4](9)

N5=F[downsample(N4);P5](10)

這樣設(shè)計(jì)直接將底層特征信息與高級(jí)語(yǔ)義信息融合送入到損失函數(shù)中,既包含底層的定位信息,又包括了高層語(yǔ)義信息,有助于檢測(cè)局部小特征,性能更加優(yōu)越。

1.2 用奇異值分解法計(jì)算6D位姿

首先,將樣本的三維模型轉(zhuǎn)換成所需要的點(diǎn)云模型,原始點(diǎn)云模型的點(diǎn)數(shù)太多,無(wú)法作為全部的特征點(diǎn)進(jìn)行學(xué)習(xí),需要提取代表性較強(qiáng)的關(guān)鍵點(diǎn)作為特征點(diǎn)。3D Harris關(guān)鍵點(diǎn)提取算法可以提取出具有關(guān)鍵特征的局部特征點(diǎn),因此本文采用3D Harris關(guān)鍵點(diǎn)作為特征關(guān)鍵點(diǎn),提取的點(diǎn)云特征關(guān)鍵點(diǎn)如圖6所示,提取的關(guān)鍵點(diǎn)分別代表樣本模型的局部特征較強(qiáng)的點(diǎn),并以點(diǎn)云模型的質(zhì)心為原點(diǎn),輸出點(diǎn)云坐標(biāo)系下關(guān)鍵點(diǎn)的三維坐標(biāo)。假設(shè)點(diǎn)云坐標(biāo)系和相機(jī)坐標(biāo)系完全重合,將此時(shí)兩坐標(biāo)系重合時(shí)的點(diǎn)云模型姿態(tài)定義為初始姿態(tài)。

樣本模型數(shù)據(jù)集中的圖片,保證在相機(jī)可以拍到的視角內(nèi),每個(gè)姿態(tài)的局部特征不少于四個(gè),選取在相機(jī)視野下可以看到的點(diǎn)云3D Harris 關(guān)鍵點(diǎn),并用標(biāo)注軟件對(duì)樣本模型數(shù)據(jù)集特征標(biāo)注,使點(diǎn)云模型的關(guān)鍵點(diǎn)與特征的中心點(diǎn)對(duì)應(yīng)。YOLOv5-CBE算法網(wǎng)絡(luò)對(duì)樣本數(shù)據(jù)集的標(biāo)注特征學(xué)習(xí)完以后,特征的中心點(diǎn)即為樣本模型的關(guān)鍵點(diǎn),假設(shè)特征標(biāo)注框的四個(gè)角點(diǎn)坐標(biāo)分別是(x1,y1),(x1,y2),(x2,y1),(x2,y2),那么特征的中心點(diǎn)坐標(biāo)(u1,v1),則可以用式(11)和(12)表示。

u1=(x1+x2)/2(11)

v1=(y1+y2)/2(12)

結(jié)合Intel D435i雙目相機(jī),計(jì)算出中心點(diǎn)坐標(biāo)(u1,v1)和此刻的深度信息Zc,根據(jù)坐標(biāo)轉(zhuǎn)換式(13),結(jié)合第1章求出的相機(jī)內(nèi)參,可以計(jì)算出此時(shí)每個(gè)關(guān)鍵點(diǎn)在相機(jī)坐標(biāo)系下的相機(jī)坐標(biāo)(Xc,Yc,Zc)。

Zcuv1=fx0u00

0fyv00

0010XcYcZc1(13)

由此得到了兩組對(duì)應(yīng)的關(guān)鍵點(diǎn)集,即點(diǎn)云模型關(guān)鍵點(diǎn)和樣本模型的對(duì)應(yīng)關(guān)鍵點(diǎn),兩組點(diǎn)集分別命名為點(diǎn)集A和B,其中R是旋轉(zhuǎn)矩陣,T是平移矩陣。利用SVD方法計(jì)算A、B兩組對(duì)應(yīng)點(diǎn)集之間的旋轉(zhuǎn)平移矩陣,可以分為以下步驟:

a)根據(jù)式(14)和(15)分別計(jì)算出兩組點(diǎn)集的平均中心centroidA和centroidB,這里的平均中心指的是點(diǎn)集中點(diǎn)的平均值。

centroidA=1N∑Ni=1Ai(14)

centroidB=1N∑Ni=1Bi(15)

其中:Ai和Bi都是3×1的向量,代表點(diǎn)的坐標(biāo)值,表達(dá)形式為xyz。

b)尋找最優(yōu)的旋轉(zhuǎn)矩陣。先將兩個(gè)點(diǎn)集A和B集中于原點(diǎn),接著根據(jù)式(16)計(jì)算點(diǎn)集之間的協(xié)方差矩陣H,用SVD方法計(jì)算出矩陣的U、S、V,最后根據(jù)式(18)計(jì)算出旋轉(zhuǎn)矩陣R。

H=∑Ni=1(Ai-centroidA)(Bi-centroidB)T(16)

[U,S,V]=SVD(H)(17)

R=VUT(18)

c)計(jì)算平移矩陣。首先計(jì)算兩個(gè)坐標(biāo)系之間的尺度,雖然點(diǎn)云坐標(biāo)系和相機(jī)坐標(biāo)系的原點(diǎn)和坐標(biāo)軸重合,但是兩個(gè)坐標(biāo)軸的尺度是不同的,設(shè)兩者的尺度比例為λ,則

λ=average‖A-centroidA‖‖B-centroidB‖(19)

等量關(guān)系變?yōu)?/p>

(B-centroidB)=1λR(A-centroidA)(20)

對(duì)以上等式化簡(jiǎn)可得:

B=1λRA-1λR*centroidA+centroidB(21)

此時(shí)計(jì)算的旋轉(zhuǎn)矩陣為1λR,平移矩陣為-1λR*centroidA+centroidB,也就是求出的6D位姿。

2 實(shí)驗(yàn)結(jié)果與分析

實(shí)驗(yàn)分為兩個(gè)部分,第一部分是YOLOv5算法與改進(jìn)后的YOLOv5-CBE算法在自定義數(shù)據(jù)集上的訓(xùn)練效果與性能分析,并與當(dāng)前主流的目標(biāo)檢測(cè)網(wǎng)絡(luò)進(jìn)行對(duì)比實(shí)驗(yàn),并分析性能;第二部分是利用改進(jìn)后的YOLOv5-CBE算法網(wǎng)絡(luò)對(duì)單個(gè)模型、多個(gè)模型分別在復(fù)雜背景條件以及遮擋環(huán)境下進(jìn)行6D位姿估計(jì),并分析其性能。

2.1 實(shí)驗(yàn)環(huán)境

本實(shí)驗(yàn)所用的處理器為:Intel CoreTM i5-10200H CPU @ 2.40 GHz,16 GB運(yùn)行內(nèi)存,顯卡為NVIDIA GeForce RTX3050 Laptop GPU,操作系統(tǒng)為Windows 10,64位,所用的實(shí)驗(yàn)軟件是Visual Studio 2017和PyCharm,整個(gè)實(shí)驗(yàn)基于深度學(xué)習(xí)框架PyTorch1.9.0,實(shí)驗(yàn)環(huán)境是Python 3.8,GPU加速軟件是CUDA 11.1和cuDNN8.1.1,實(shí)驗(yàn)所用的深度相機(jī)是Intel D435i雙目相機(jī)。

2.2 相機(jī)內(nèi)參

本實(shí)驗(yàn)所用的攝像頭為Intel D435i雙目相機(jī),YOLOv5在得到樣本模型各部分特征的像素坐標(biāo)后,需要根據(jù)相機(jī)內(nèi)參,將像素坐標(biāo)轉(zhuǎn)換到相機(jī)坐標(biāo)系下,因此用張正友標(biāo)定法[17]對(duì)Intel D435i相機(jī)內(nèi)參進(jìn)行標(biāo)定,得到的相機(jī)內(nèi)參如表2所示。其中,fx、fy分別表示X方向和Y方向的等效焦距;u0、v0分別表示相機(jī)感光板中心在像素坐標(biāo)系下的坐標(biāo)。

2.3 實(shí)驗(yàn)數(shù)據(jù)集

由于YOLOv5-CBE目標(biāo)檢測(cè)算法在對(duì)樣本模型的局部特征識(shí)別時(shí),特征的顏色和紋理是學(xué)習(xí)的重要信息,本文提出的6D位姿估計(jì)算法需要雙目相機(jī)同時(shí)獲取模型的深度信息和紋理特征信息,而現(xiàn)有的公共數(shù)據(jù)集無(wú)法滿足本實(shí)驗(yàn)的要求,所以本次實(shí)驗(yàn)的數(shù)據(jù)模型都是基于自定義的樣本模型數(shù)據(jù)集。

本實(shí)驗(yàn)中自定義數(shù)據(jù)集使用的樣本模型為小貓(cat)、鴨子(duck)、相機(jī)(camera)、熨斗(iron)、熊貓(panda)和電鉆(drill),用Intel D435i雙目相機(jī)采集不同姿態(tài)環(huán)境下的樣本照片1 500張,通過(guò)鏡像、裁剪、旋轉(zhuǎn)、平移等方式將數(shù)據(jù)集擴(kuò)充至3 000張,并用LabelImg軟件對(duì)每張圖片的樣本模型特征按照編號(hào)進(jìn)行標(biāo)注,樣本模型數(shù)據(jù)集按照8:1:1的比例被隨機(jī)劃分訓(xùn)練集、測(cè)試集和驗(yàn)證集,其中訓(xùn)練集2 400張,測(cè)試集和驗(yàn)證集各300張,標(biāo)注后的特征如圖7所示。

2.4 YOLOv5-CBE算法的實(shí)驗(yàn)驗(yàn)證與性能分析

2.4.1 評(píng)估指標(biāo)

為了驗(yàn)證YOLOv5-CBE算法改進(jìn)的性能,本文使用召回率R(recall)、精確度P(precision)、平均精度AP(average precision)、平均精度均值mAP@0.5(IOU=0.5)和mAP@ 0.5:0.95等評(píng)價(jià)指標(biāo)[18]。召回率含義為在實(shí)際為正的樣本中被預(yù)測(cè)也為正的概率,可以用式(22)表示;精確度含義為在預(yù)測(cè)為正的樣本中實(shí)際為正的概率,可以用式(23)表示。其中TP代表預(yù)測(cè)為1,實(shí)際為1,預(yù)測(cè)正確;FP代表預(yù)測(cè)為1,實(shí)際為0,預(yù)測(cè)錯(cuò)誤;FN代表預(yù)測(cè)為0,實(shí)際為1,預(yù)測(cè)錯(cuò)誤。平均精度AP是P-R曲線中曲線與坐標(biāo)軸圍成的面積,mAP含義是各類平均精度的均值,可以用式(24)(25)表示;mAP@0.5含義是當(dāng)IOU=0.5時(shí)的平均精度均值。

recall=TPTP+FN(22)

precision=TPTP+FP(23)

AP=∫10P(R)(24)

mAP=∑cj=1APj/C(25)

2.4.2 模型訓(xùn)練參數(shù)設(shè)置

用YOLOv5-CBE網(wǎng)絡(luò)訓(xùn)練自定義數(shù)據(jù)集時(shí),輸入圖片尺度為640×640,設(shè)置訓(xùn)練迭代次數(shù)為150,采用隨機(jī)梯度下降策略(簡(jiǎn)稱SGD)優(yōu)化損失函數(shù),具體的參數(shù)設(shè)置如表3所示。

2.4.3 實(shí)驗(yàn)驗(yàn)證與分析

為了驗(yàn)證 SCAA模塊的性能效果,分別按照表1的組合方式,在主干網(wǎng)絡(luò)的相同位置加入CA和SCAA模塊,圖8是改進(jìn)前后的邊框損失曲線。

由圖8可以看出,在主干網(wǎng)絡(luò)中加入CA和SCAA模塊邊框損失都比原始的YOLOv5算法要小,但是兩者相比較,加入SCAA模塊邊框損失收斂速度更快,損失更小,說(shuō)明邊框定位更加準(zhǔn)確,更加符合本文對(duì)于局部特征定位準(zhǔn)確的要求。

基于第2章提出的改進(jìn)策略,分別在YOLOv5算法網(wǎng)絡(luò)中加入空間—坐標(biāo)注意力機(jī)制和多尺度特征融合網(wǎng)絡(luò),并對(duì)兩個(gè)改進(jìn)模塊做消融實(shí)驗(yàn)(ablation experiment),改進(jìn)后的實(shí)驗(yàn)結(jié)果如圖9所示,橫軸代表迭代次數(shù)(epoch),縱軸分別代表精確度(precision)、召回率(recall)、IOU=0.5時(shí)的平均精度均值(mAP@0.5)和mAP@0.5:0.95。

由圖9(a)可知,當(dāng)?shù)螖?shù)在50~150次時(shí),與原始的YOLOv5算法相比,YOLOv5+ SCAA模塊和YOLOv5+BiFPN模塊的精確度都要高于原始的YOLOv5算法,并且都比原始的YOLOv5算法達(dá)到收斂的速度快;YOLOv5+BiFPN模塊的精確度增幅要高于YOLOv5+SCAA模塊的增幅,當(dāng)?shù)螖?shù)達(dá)到60次時(shí),YOLOv5+BiFPN模塊的曲線開始收斂,此時(shí)YOLOv5+SCAA模塊的曲線并沒(méi)有收斂,當(dāng)?shù)螖?shù)達(dá)到80次時(shí),YOLOv5+SCAA模塊曲線開始收斂。這就說(shuō)明這兩個(gè)改進(jìn)模塊方案對(duì)于提高算法精確度方面起到的效果都是正向的,但加入BiFPN模塊比加入SCAA模塊的收斂效果顯著。對(duì)這兩個(gè)改進(jìn)方案做消融實(shí)驗(yàn)可知,與分別加入BiFPN和SCAA模塊相比,YOLOv5-CBE在提高精確度方面,優(yōu)勢(shì)更加明顯;與原始的YOLOv5算法相比,YOLOv5-CBE收斂速度更快,性能更加優(yōu)越。由圖9(b)可知,召回率的收斂性能曲線與精確度的收斂曲線的走勢(shì)大體上是相似的,但是又稍有不同,迭代到第10次以后,YOLOv5+SCAA模塊、YOLOv5+BiFPN模塊以及YOLOv5-CBE的召回率高于原始的YOLOv5算法,并且三者的收斂速度依次遞增,YOLOv5-CBE在迭代到75次時(shí),達(dá)到收斂。說(shuō)明加入SCAA和BiFPN模塊對(duì)于提高算法的召回率都起正向的效果,但是兩者相比,加入BiFPN模塊的效果更好;由圖9(c)(d)可知,兩者的收斂曲線與召回率的收斂曲線走勢(shì)大體一致,即與原始的YOLOv5相比,加入SCAA和BiFPN模塊對(duì)于mAP@0.5和mAP@0.5:0.95的提升都有正向促進(jìn)作用,但是加入BiFPN模塊的正向促進(jìn)作用更加明顯,消融后的YOLOv5-CBE算法的收斂速度較前三個(gè)都要快,性能最好。

以上是從曲線走勢(shì)分析各個(gè)改進(jìn)模塊對(duì)于網(wǎng)絡(luò)性能提升的促進(jìn)作用,表4則以量化的方式分析各改進(jìn)模塊對(duì)于精確度(precision)、召回率(recall)、IOU=0.5時(shí)的平均精度均值(mAP@0.5)和mAP@0.5:0.95的影響。

由表4可知,加入SCAA和BiFPN模塊對(duì)于precision、recall和mAP@0.5均有提升,對(duì)于識(shí)別和檢測(cè)樣本模型的深層特征效果更好;將兩個(gè)改進(jìn)點(diǎn)模塊同時(shí)作用于YOLOv5算法時(shí),改進(jìn)后的算法對(duì)于三項(xiàng)指標(biāo)分別提高了3.6%、2.8%、2.5%,這些改進(jìn)對(duì)于更好的識(shí)別和定位樣本模型的局部特征具有顯著的促進(jìn)作用。

為了驗(yàn)證YOLOv5-CBE算法網(wǎng)絡(luò)對(duì)于樣本模型的局部特征檢測(cè)的實(shí)驗(yàn)效果,從測(cè)試數(shù)據(jù)集中挑選出不同姿態(tài)的樣本模型照片進(jìn)行測(cè)試,實(shí)驗(yàn)結(jié)果如圖10所示。改進(jìn)后的YOLOv5-CBE算法對(duì)于局部特征檢測(cè)的置信度更高,目標(biāo)檢測(cè)性能更好。

為了更加精確地對(duì)比算法改進(jìn)前后的定位效果,對(duì)圖11改進(jìn)前后計(jì)算出的四個(gè)特征的中心點(diǎn)坐標(biāo)與實(shí)際測(cè)量出的中心點(diǎn)坐標(biāo)進(jìn)行了誤差分析,分析結(jié)果如表5所示,其中改進(jìn)前代表YOLOv5算法,改進(jìn)后代表YOLOv5-CBE算法。

由表5可知,改進(jìn)后算法計(jì)算出的四個(gè)特征點(diǎn)的相機(jī)坐標(biāo)與改進(jìn)前的相比誤差有所減小,特征mouth誤差由2.7 mm減小到2.0 mm,準(zhǔn)確度提升了25%;特征head誤差由4.2 mm減小到3.9 mm,準(zhǔn)確度提升了6.7%;特征tail誤差由4.1 mm減小到3.3 mm,準(zhǔn)確度提升了19.6%;特征wing誤差由3.2 mm減小到2.5 mm,準(zhǔn)確度提升了21.4%。由此可以得出結(jié)論,相比于原始的YOLOv5算法,改進(jìn)后的YOLOv5-CBE算法對(duì)局部特征的定位具有顯著的效果,最高可以提升25%。

為了驗(yàn)證YOLOv5-CBE算法對(duì)于樣本模型局部特征檢測(cè)的優(yōu)越性,將自定義的樣本模型數(shù)據(jù)集在現(xiàn)有的主流目標(biāo)檢測(cè)算法YOLOv3、YOLOv4、YOLOv5、Faster-RCNN、SDD上進(jìn)行訓(xùn)練,并以精確度(precision)和每秒檢測(cè)幀數(shù)FPS作為衡量指標(biāo),檢測(cè)其性能的優(yōu)越性,實(shí)驗(yàn)結(jié)果如表6所示。

由表6可知,用主流檢測(cè)算法訓(xùn)練自定義的樣本模型數(shù)據(jù)集,YOLOv5-CBE算法對(duì)于目標(biāo)特征檢測(cè)的精確度最高,達(dá)到98.7%;YOLOv5-CBE算法每秒檢測(cè)幀數(shù)(FPS)位于第二位,比YOLOv5算法慢了1幀,原因是加入坐標(biāo)注意力機(jī)制,主干網(wǎng)絡(luò)結(jié)構(gòu)更加復(fù)雜,使檢測(cè)速率減慢,但是在檢測(cè)精確度上卻有很大的提升。YOLOv5-CBE算法網(wǎng)絡(luò)在檢測(cè)速率并沒(méi)有大幅降低的同時(shí),檢測(cè)精確度有顯著的提升,為接下的位姿估計(jì)實(shí)驗(yàn)奠定良好的實(shí)驗(yàn)基礎(chǔ)。

2.5 6D位姿估計(jì)的實(shí)驗(yàn)驗(yàn)證與性能分析

2.5.1 評(píng)估指標(biāo)

在6D位姿估計(jì)實(shí)驗(yàn)中,有兩個(gè)精度檢測(cè)評(píng)價(jià)指標(biāo),分別是二維重投影精度[19] (2D reprojection)和ADD度量精度[20]:

1)二維重投影 二維重投影誤差是6D位姿估計(jì)在二維層面的一個(gè)衡量指標(biāo),指的是物體真實(shí)位姿的3D bounding box 8個(gè)頂點(diǎn)的二維投影與預(yù)測(cè)位姿的的3D bounding box 8個(gè)頂點(diǎn)的二維投影的平均距離小于5個(gè)像素時(shí),則認(rèn)為此時(shí)的位姿估計(jì)是正確的。

2)ADD度量精度 ADD度量是6D位姿估計(jì)在三維層面的一個(gè)衡量指標(biāo),是指物體真實(shí)位姿的3D bounding box 8個(gè)頂點(diǎn)與預(yù)測(cè)位姿的的3D bounding box 8個(gè)頂點(diǎn)的平均3D距離小于物體直徑的十分之一,則認(rèn)為此時(shí)的位姿是正確的,可以用式(26)表示,其中M代表3D bounding box 8個(gè)頂點(diǎn)的集合,[R/T]代表真實(shí)的旋轉(zhuǎn)平移矩陣,[R^/T^]代表預(yù)測(cè)的旋轉(zhuǎn)平移矩陣。

ΔADD=1|M|∑x∈M‖(Rx+t)-(R^x+)‖(26)

2.5.2 實(shí)驗(yàn)驗(yàn)證與分析

如圖12所示,(a)組圖代表單目標(biāo)物體的6D位姿估計(jì),(b)組圖代表多目標(biāo)物體的6D位姿估計(jì),其中紅色框代表真實(shí)的6D位姿,藍(lán)色框代表預(yù)測(cè)的6D位姿框。可以看出在雜亂背景中,該算法對(duì)于不同姿態(tài)樣本模型,都可以正確估計(jì)其6D位姿。

位姿估計(jì)精度結(jié)果如表7所示,6個(gè)樣本模型的二維重投影精度和ADD度量精度都在90%以上,并且6個(gè)模型的二維重投影精度和ADD度量精度平均值都在95%以上,說(shuō)明本文算法對(duì)模型的6D位姿估計(jì)具有不錯(cuò)的效果。

物體遮擋的實(shí)驗(yàn)結(jié)果如圖13所示,當(dāng)遮擋情況在20%、40%、60%、70%時(shí),都可以準(zhǔn)確預(yù)測(cè)其6D位姿,并且與無(wú)遮擋時(shí)模型的6D位姿進(jìn)行比較可知,遮擋后的6D位姿估計(jì)與遮擋前的6D位姿估計(jì)精確度并無(wú)明顯下降,表8則是不同遮擋條件下,本算法對(duì)于模型6D位姿估計(jì)的精確度。

當(dāng)遮擋情況存在時(shí),只要未遮擋區(qū)域的局部特征關(guān)鍵點(diǎn)數(shù)至少存在三個(gè),此時(shí)就可以準(zhǔn)確估計(jì)模型的6D位姿,而精確度并不因遮擋情況的存在而有較大波動(dòng),說(shuō)明本算法引入的局部特征檢測(cè)對(duì)于處理遮擋情況具有很大的優(yōu)越性,對(duì)于遮擋情況下的6D位姿估計(jì)具有很強(qiáng)的魯棒性。

圖14則是多目標(biāo)物體在遮擋情況下的6D位姿估計(jì)情況,可以看出,多目標(biāo)物體同時(shí)遮擋的情況下,本算法對(duì)于多目標(biāo)物體6D位姿估計(jì)依然有較好的魯棒性,每個(gè)目標(biāo)物體位姿都能夠準(zhǔn)確估計(jì)。

本文提出的6D位姿估計(jì)算法需要輸入RGB圖片以及點(diǎn)云模型關(guān)鍵點(diǎn),同時(shí)用雙目相機(jī)測(cè)量局部特征的深度信息,因此YCB-Video數(shù)據(jù)集在本實(shí)驗(yàn)中是不適用的,表9是不同位姿估計(jì)算法在不同數(shù)據(jù)集中的平均精確度。

由表9可以看出,針對(duì)有紋理數(shù)據(jù)集的6D位姿估計(jì)算法,本文算法對(duì)于有紋理模型的平均精確度是95.2%,比其他三種6D位姿估計(jì)算法針對(duì)有紋理模型的平均精確度都高,說(shuō)明本文提出的6D位姿估計(jì)算法針對(duì)有紋理模型的位姿估計(jì)是有效的。

本文提出的6D位姿估計(jì)算法結(jié)合Intel D435i雙目相機(jī),可以實(shí)現(xiàn)對(duì)相機(jī)視角下場(chǎng)景模型實(shí)時(shí)性的6D位姿估計(jì),檢測(cè)速率可以達(dá)到35 fps。表10是當(dāng)前6D位姿估計(jì)算法中的檢測(cè)速率對(duì)比。

3 結(jié)束語(yǔ)

本文針對(duì)目前6D位姿估計(jì)算法中對(duì)于遮擋物體的6D位姿估計(jì)的精確度不高的問(wèn)題,提出了一個(gè)局部特征表征的端到端6D位姿估計(jì)算法。首先將空間注意力(SA)與坐標(biāo)注意力(CA)結(jié)合,提出了一個(gè)空間—坐標(biāo)注意力機(jī)制(SCAA),然后在YOLOv5的主干網(wǎng)絡(luò)中加SCAA網(wǎng)絡(luò),在檢測(cè)層引入加Bi-FPN網(wǎng)絡(luò),組成一個(gè)新的YOLOv5-CBE檢測(cè)網(wǎng)絡(luò),改進(jìn)后算法的精確度、召回率、平均精度均值分別提升了3.6%、2.8%、2.5%,并且局部特征中心點(diǎn)坐標(biāo)誤差較改進(jìn)前的算法最高提升25%左右;其次,用 YOLOv5-CBE算法檢測(cè)局部特征關(guān)鍵點(diǎn),并與3D Harris關(guān)鍵點(diǎn)通過(guò)奇異值分解法計(jì)算出模型的6D位姿,在最高遮擋70%的情況下,仍然可以保證二維重投影精度和ADD度量精度在95%以上,具有較強(qiáng)的魯棒性。該算法在RTX3050顯卡上幀率可以達(dá)到35 fps,具有很好的實(shí)時(shí)性。

目前該算法主要針對(duì)的是有紋理的模型,對(duì)于無(wú)紋理或者弱紋理的模型特征檢測(cè)可能比較困難,后續(xù)將考慮檢測(cè)模型的關(guān)鍵點(diǎn),實(shí)現(xiàn)對(duì)于無(wú)紋理或者弱紋理模型的6D位姿估計(jì)。

參考文獻(xiàn):

[1]Lowe D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.

[2]Zhang Tielin,Yang Yang,Zeng Yi,et al.Cognitive template-clustering improved LineMod for efficient multi-object pose estimation[J].Cognitive Computation,2020,12(4):834-843.

[3]Qiu Linrun,Zhang Dongbo,Tian Yuan,et al.Deep learning-based algorithm for vehicle detection in intelligent transportation systems[J].The Journal of Supercomputing,2021,77(10):1-16.

[4]Yang Xi,Wu Tan,Wang Nannan,et al.HCNN-PSI:a hybrid CNN with partial semantic information for space target recognition[J].Pattern Recognition,2020,108:107531.

[5]Chen Zixuan,Zhou Huajun,Lai Jianhua,et al.Contour-aware loss:boundary-aware learning for salient object segmentation[J].IEEE Trans on Image Processing,2021,30:431-443.

[6]Kehl W,Manhardt F,Tombari F,et al.SSD-6D:making RGB-based 3D detection and 6D pose estimation great again[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2017:1521-1529.

[7]Xiang Yu,Schmidt T,Narayanan V,et al.PoseCNN:a convolutional neural network for 6D object pose estimation in cluttered scenes[EB/OL].(2017-11-01).https://arxiv.org/abs/1711.00199.

[8]Wang Chen,Xu Danfei,Zhu Yuke,et al.DenseFusion:6D object pose estimation by iterative dense fusion[C]//Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:3343-3352.

[9]許德剛,王露,李凡.深度學(xué)習(xí)的典型目標(biāo)檢測(cè)算法研究綜述[J].計(jì)算機(jī)工程與應(yīng)用,2021,57(8):10-25.(Xu Degang,Wang Lu,Li Fan.Review of typical object detection algorithms for deep learning[J].Computer Engineering and Applications,2021,57(8):10-25.)

[10]Yu Tingzhao,Guo Chaoxu,Wang Lingfeng,et al.Joint spatial-temporal attention for action recognition[J].Pattern Recognition Letters,2018,112(9):226-233.

[11]Hou Qibin,Zhou Daquan,F(xiàn)eng Jiashi.Coordinate attention for efficient mobile network design[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:13713-13722.

[12]Tan Mingxi,Pang Ruoming,Le Q V.Efficientdet:scalable and efficient object detection[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:10781-10790.

[13]Kleibergen F,Paap R.Generalized reduced rank tests using the singular value decomposition[J].Journal of Econometrics,2006,133(1):97-126.

[14]趙萬(wàn)金,龔聲蓉,劉純平,等.一種自適應(yīng)的Harris角點(diǎn)檢測(cè)算法[J].計(jì)算機(jī)工程,2008,34(10):212-214.(Zhao Wanjin,Gong Shengrong,Liu Chunping,et al.Adaptive Harris corner detection algorithm[J].Computer Engineering,2008,34(10):212-214.)

[15]Liu Shu,Qi Lu,Qin Haifang,et al.Path aggregation network for instance segmentation[C]//Proc of IEEE Conference on Computer Vision and Pattern recognition.Piscataway,NJ:IEEE Press,2018:8759-8768.

[16]Tsung L Y,Dollár P,Girshick R,et al.Feature pyramid networks for object detection[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:2117-2125.

[17]李洪海,王敬東.攝像機(jī)標(biāo)定技術(shù)研究[J].光學(xué)儀器,2007,29(4):7-12.(Li Honghai,Wang Jingdong.Research on camera calibration techniques[J].Optical Instruments,2007,29(4):7-12)

[18]Zhu Xingkui,Lyu Shuchang,Wang Xu,et al.TPH-YOLOv5:improved YOLOv5 based on transformer prediction head for object detection on drone-captured scenarios[C]//Proc of IEEE/CVF International Confe-rence on Computer Vision.Piscataway,NJ:IEEE Press,2021:2778-2788.

[19]Hung Y S,Tang W K.Projective reconstruction from multiple views with minimization of 2D reprojection error[J].International Journal of Computer Vision,2006,66(3):305-317.

[20]Hinterstoisser S,Lepetit V,Ilic S,et al.Model based training,detection and pose estimation of texture-less 3D objects in heavily cluttered scenes[C]//Proc of Asian Conference on Computer Vision.Berlin:Springer,2012:548-562.

[21]Li Yi,Wang Gu,Ji Xiangyang,et al.DeepIM:deep iterative matching for 6D pose estimation[C]//Proc of European Conference on Compu-ter Vision.2018:683-698.

[22]Wu Chenrui,Chen Long,He Zaixing,et al.Pseudo-Siamese graph matching network for textureless objects’ 6D pose estimation[J].IEEE Trans on Industrial Electronics,2021,69(3):2718-2727.

[23]Tekin B,Sinha S N,F(xiàn)ua P.Real-time seamless single shot 6D object pose prediction[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:292-301.

主站蜘蛛池模板: 欧美爱爱网| 久久精品无码一区二区日韩免费| 视频在线观看一区二区| 欧美精品1区2区| 久草国产在线观看| 都市激情亚洲综合久久| 99无码中文字幕视频| 国产欧美日韩另类| 九九视频免费在线观看| 亚洲综合18p| 丁香六月激情婷婷| 婷婷成人综合| 亚洲三级影院| 蝌蚪国产精品视频第一页| 人妻丝袜无码视频| 亚洲日韩精品无码专区97| 国产菊爆视频在线观看| a亚洲视频| 精品久久久久久中文字幕女| 国产亚洲精久久久久久无码AV| 亚洲综合色区在线播放2019| 毛片大全免费观看| 福利小视频在线播放| 91精品国产一区自在线拍| 国产无码性爱一区二区三区| 五月婷婷综合色| 中文字幕66页| 国产精品丝袜视频| 欧美黄色a| 久久视精品| 久久这里只精品国产99热8| 欧美日韩国产精品va| 日韩精品一区二区三区大桥未久 | 亚洲欧美一区二区三区麻豆| 巨熟乳波霸若妻中文观看免费| 一区二区三区四区日韩| 美女内射视频WWW网站午夜 | 丝袜高跟美脚国产1区| 亚洲国产成熟视频在线多多| 成年人国产视频| 人妻无码一区二区视频| a级毛片免费看| 五月天丁香婷婷综合久久| 亚洲天堂福利视频| 国产成本人片免费a∨短片| 国产哺乳奶水91在线播放| 看av免费毛片手机播放| 国产精品不卡永久免费| 欧美专区日韩专区| 狠狠做深爱婷婷久久一区| 亚洲精品视频免费| 日本久久网站| 国产一区二区福利| 99视频在线免费| 2022国产91精品久久久久久| 日韩经典精品无码一区二区| 国产又粗又爽视频| 日本精品一在线观看视频| 欧美97色| 亚洲天堂2014| 99资源在线| 青青操视频免费观看| 日韩中文字幕亚洲无线码| 亚洲中文字幕无码爆乳| 亚洲精品国产乱码不卡| 99在线视频免费| 国产自视频| 久热中文字幕在线| 欧美三级自拍| 国产精品爆乳99久久| 亚洲天堂色色人体| 国产一级无码不卡视频| 免费一级毛片在线播放傲雪网| 麻豆精品在线| 无码人中文字幕| 就去吻亚洲精品国产欧美| 一区二区欧美日韩高清免费| 在线a视频免费观看| 9丨情侣偷在线精品国产| 91精品日韩人妻无码久久| a级毛片在线免费观看| 毛片三级在线观看|