摘 要: 提出了一種基于二次誤差的特征描述子,該特征描述子具有旋轉(zhuǎn)不變性。通過提取點(diǎn)的二次誤差和鄰域點(diǎn)二次誤差得到兩種特征描述子?;诟咚够旌夏P偷狞c(diǎn)云配準(zhǔn)算法層出不窮,主要原因是概率模型在噪聲和離群值方面具有更好的魯棒性,然而該類方法對(duì)于尺度較大的旋轉(zhuǎn)表現(xiàn)并不好,為此將二次誤差特征描述子作為高斯混合模型的局部特征優(yōu)化了高斯混合模型較大旋轉(zhuǎn)中的配準(zhǔn)效果,并提出基于雙特征的配準(zhǔn)策略優(yōu)化了單一特征的缺陷。通過實(shí)驗(yàn)與魯棒的ICP(iterative closest point)以及流行的基于特征的配準(zhǔn)算法在配準(zhǔn)效率和配準(zhǔn)精度方面進(jìn)行對(duì)比,效率是魯棒性ICP的3~4倍。在大尺度的旋轉(zhuǎn)中提出的算法具有良好的魯棒性并且優(yōu)于大多數(shù)流行的算法。
關(guān)鍵詞: 配準(zhǔn); 二次誤差; 高斯混合模型; 點(diǎn)集; 幾何特征
中圖分類號(hào): TP391.41"" 文獻(xiàn)標(biāo)志碼: A
文章編號(hào): 1001-3695(2022)01-048-0270-05
doi:10.19734/j.issn.1001-3695.2021.04.0193
Point cloud registration algorithm based on quadric error
Lu Yueni,Huang Jianmin, Xu Guangrun, Zhou Ming, Zhou Lei
(School of Computer Science amp; Engineering, Guangxi Normal University, Guilin Guangxi 541006, China)
Abstract: This paper proposed a feature descriptor based on quadratic error,which had rotation invariance.It obtained two feature descriptors by extracting the quadratic error of the point and the quadratic error of the neighboring point.It emerged point cloud registration algorithms based on the Gaussian mixture model in an endless stream.The main reason was that probabilistic models had better robustness in terms of noise and outliers.However,this type of method did not perform well for larger-scale rotations.This paper used the quadratic error feature descriptor as a local feature of the Gaussian mixture model to optimize the registration effect in the larger rotation of the Gaussian mixture model,and proposed a dual-feature-based registration strategy to optimize the defects of a single feature.Through experiments,compared with the robust ICP and popular feature-based registration algorithm in terms of registration efficiency and precision,the efficiency of the algorithm is 3~4 times that of the robust ICP.In large-scale rotation,the proposed algorithm has good robustness and is superior to the most popular algorithms.
Key words: registration; quadric error; Gaussian mixture model; point set; geometric features
0 引言
近年來,隨著深度傳感設(shè)備價(jià)格逐漸低廉,計(jì)算機(jī)視覺的研究已經(jīng)從二維成像和激光成像轉(zhuǎn)移到三維視覺領(lǐng)域,目前基于三維點(diǎn)云數(shù)據(jù)進(jìn)行實(shí)時(shí)重建、點(diǎn)云分割、點(diǎn)云配準(zhǔn)已成為廣泛研究的課題。
三維點(diǎn)云配準(zhǔn)作為三維模型處理的關(guān)鍵技術(shù),在醫(yī)學(xué)圖像、三維重建、SLAM等方面有著廣泛應(yīng)用。圖1所示有目標(biāo)點(diǎn)集A={x1,x2,…,xm}和源點(diǎn)集B={p1,p2,…,pn},滿足
其中:R、t分別表示旋轉(zhuǎn)矩陣和平移向量;n和m分別表示兩個(gè)點(diǎn)集點(diǎn)的數(shù)量,nlt;m。三維模型剛性配準(zhǔn)的最終目標(biāo)是找到最優(yōu)的變換矩陣,使得目標(biāo)函數(shù)E最小。
在已有的剛性配準(zhǔn)中可以分為基于優(yōu)化的配準(zhǔn)算法和基于特征的配準(zhǔn)算法兩類。基于優(yōu)化配準(zhǔn)算法通過迭代方式將每一次的結(jié)果輸出作為下一次迭代的輸入,這種方式具有良好的配準(zhǔn)精度,但是通常該類方法對(duì)于大角度的旋轉(zhuǎn)不具有魯棒性。基于特征的配準(zhǔn)算法通過提取模型本身的特征構(gòu)成特征描述,然后通過特征描述尋找特征點(diǎn)最終求解點(diǎn)集的變換矩陣,該類算法對(duì)于大角度的旋轉(zhuǎn)具有較好的魯棒性,但是對(duì)噪聲和離群點(diǎn)魯棒性較差。
本文首次將二次誤差的概念引入到點(diǎn)云配準(zhǔn)中,提出了基于二次誤差的特征描述子,該特征描述子具有旋轉(zhuǎn)不變性;使用基于二次誤差的特征描述子進(jìn)行點(diǎn)云配準(zhǔn)并且進(jìn)一步計(jì)算鄰域點(diǎn)的二次誤差,優(yōu)化在數(shù)量級(jí)較大時(shí)會(huì)出現(xiàn)誤差的問題;將二次誤差引入高斯混合模型框架,提出一種基于雙特征的高斯混合模型的配準(zhǔn)算法,該算法對(duì)于噪聲、離群點(diǎn)和大角度旋轉(zhuǎn)具有良好的性能。
1 相關(guān)工作
三維點(diǎn)集配準(zhǔn)是計(jì)算機(jī)視覺中廣泛研究的問題,配準(zhǔn)方法可以分為基于特征的配準(zhǔn)方法和無特征的配準(zhǔn)方法。
基于幾何特征的配準(zhǔn)算法都是通過提取幾何形狀的特征形成特征描述子,將這些特征描述子作為特征值、特征向量進(jìn)行配準(zhǔn)。
在配準(zhǔn)算法發(fā)展初期,很多基于2D圖像的3D配準(zhǔn)算法保留了在二維空間處理圖像的方法,對(duì)三維空間作出一些適應(yīng)性改變。Johnson等人[1]提出了基于點(diǎn)云空間分布的經(jīng)典的特征描述算法spin images,該算法通過將點(diǎn)云分布轉(zhuǎn)換成2D的spin image,然后對(duì)圖像進(jìn)行相似性度量,算法對(duì)遮蔽和背景干擾具有較強(qiáng)的穩(wěn)定性。其不足在于不具有尺度不變性,需要較大的存儲(chǔ)空間并且要求數(shù)據(jù)均勻分布[2]。
基于直方圖的幾何特征算法,這一類包括所有采用直方圖的形狀描述符。統(tǒng)計(jì)直方圖通常是一個(gè)累加器或容器,收集從特定形狀中計(jì)算出的特征數(shù)值。2019年馬新科等人[3]提出模糊shape context配準(zhǔn)算法,將shape context放在一個(gè)圓形扇區(qū)內(nèi)提高了對(duì)于特征點(diǎn)的識(shí)別。
基于無形狀特征的配準(zhǔn)算法即不是基于點(diǎn)云模型的形狀特征進(jìn)行配準(zhǔn),主要是通過點(diǎn)云的坐標(biāo)點(diǎn)信息及模型深度信息進(jìn)行配準(zhǔn)。
1992年Besl等人[4]提出了配準(zhǔn)中經(jīng)典的配準(zhǔn)算法迭代最近點(diǎn)(iterative closet point,ICP)算法,由于其簡單和高效的優(yōu)點(diǎn)至今仍然廣泛使用,但I(xiàn)CP算法需要一個(gè)較好的初始狀態(tài),并且容易陷入局部最小導(dǎo)致誤匹配。2013年,Yang等人[5]提出了GO-ICP算法,該算法提出了在L2誤差度量下歐氏空間中匹配兩組點(diǎn)云的全局最優(yōu)算法,解決了ICP算法只能收斂到局部最優(yōu)的問題。盡管ICP算法很受歡迎,但它容易受到噪聲、異常值和遮擋的影響。
隨機(jī)化方法的配準(zhǔn),1981年由Fischler等人[6]提出采樣一致性算法(random sample consensus,RANSAC)。RANSAC主要思想是通過使用觀測到的數(shù)據(jù)點(diǎn)來估計(jì)數(shù)學(xué)模型參數(shù)并進(jìn)行迭代的方法,RANSAC方法通過定義明確的內(nèi)點(diǎn)和外點(diǎn),常用于剔除誤匹配點(diǎn),它是一種非確定性算法,能夠在一定概率下得到一個(gè)合理的結(jié)果[7]。RANSAC在模型參數(shù)估計(jì)方面可靠性較高,缺點(diǎn)是其計(jì)算參數(shù)的迭代次數(shù)沒有上限,有的時(shí)候不比暴力枚舉效率高;另一個(gè)缺點(diǎn)是需要設(shè)置與問題相關(guān)的閾值。David和Mustafa等人提出了G-4PCS,在4PCS[8]的基礎(chǔ)上構(gòu)建一個(gè)4點(diǎn)不共面,提升了配準(zhǔn)效率。Nicolas等人提出Super-4PCS算法,該算法同樣是基于RANSAC對(duì)確定對(duì)應(yīng)點(diǎn)的策略進(jìn)行了優(yōu)化,并且通過角度的約束手段減少了無效點(diǎn)對(duì)的產(chǎn)生,采用了一種柵格化的方法,計(jì)算距離的二次復(fù)雜度,降低了配準(zhǔn)復(fù)雜性。2015年,Mohamad等人[9]結(jié)合G-4PCS和Super-4PCS算法,提出了Super G-PCS算法。2017年Theiler等人提出基于關(guān)鍵的4PCS算法。2019年Le等人[10]提出將點(diǎn)云對(duì)齊作為一種特殊的圖匹配實(shí)例,利用一種有效的半定松弛算法,采用一種新的采樣機(jī)制,這種緊松弛方案能夠快速拒絕樣本集中的異常值,從而產(chǎn)生高質(zhì)量的匹配效果。
基于概率的方法主要是通過概率密度函數(shù)來描述3D點(diǎn)集的空間分布。2010年Myronenko等人[11]提出了相干點(diǎn)一致(coherent point drift,CPD)算法,該算法是基于高斯混合模型的算法通過最大期望算法估計(jì)最優(yōu)變換,其缺點(diǎn)是迭代計(jì)算的復(fù)雜度較高。2014年Evangelidis等人[12]提出了多點(diǎn)集聯(lián)合配準(zhǔn)(joint registration of multiple point sets,JRMPS)算法,該算法同樣是基于高斯混合模型的配準(zhǔn)算法,與以往不同的是,它提出了多個(gè)點(diǎn)集的聯(lián)合配準(zhǔn)方法,將配準(zhǔn)問題轉(zhuǎn)換為聚類問題,突破了傳統(tǒng)的成對(duì)點(diǎn)集配準(zhǔn)[13]。2018年Lawin等人[14]提出了基于KL散列的密度自適應(yīng)算法,該算法是基于相關(guān)性的配準(zhǔn)算法[15~17],其成功地解決了密度不均勻問題。2018年Eckart等人[18]提出分層高斯混合配準(zhǔn)算法(hierarchical gaussian mixtures for adaptive 3D registration,HGMR),通過在GPU上遞歸并行運(yùn)行多個(gè)小尺度數(shù)據(jù)的似然分割構(gòu)建了點(diǎn)云數(shù)據(jù)的自頂向下的多尺度表示,與以往的迭代最近點(diǎn)和基于GMM的點(diǎn)關(guān)聯(lián)算法相比,提高了算法的效率及通用性。2020年Yuan等人[19]提出了基于深度學(xué)習(xí)框架的高斯混合模型配準(zhǔn)方法(deep Gaussian mixture registration,DeepGMR),它是第一個(gè)顯式利用概率機(jī)制的基于學(xué)習(xí)的配準(zhǔn)方法,在配準(zhǔn)效率和抗噪聲方面表現(xiàn)優(yōu)異。
3 實(shí)驗(yàn)
數(shù)據(jù)集采用配準(zhǔn)算法中廣泛認(rèn)可和使用的Stanford數(shù)據(jù)集。實(shí)驗(yàn)環(huán)境是i5-1035g1 CPU,16 GB RAM。由于dragon和desk模型數(shù)據(jù)量較大,超過600 000個(gè)點(diǎn),進(jìn)行降采樣后的數(shù)據(jù)點(diǎn)都在16 000個(gè)點(diǎn)左右。二次誤差分為粗配準(zhǔn)和精配準(zhǔn)步驟。粗配準(zhǔn)能夠通過二次誤差找到相近的對(duì)應(yīng)點(diǎn),這樣能夠得到一個(gè)較好的粗配準(zhǔn),然后使用ICP進(jìn)行精配準(zhǔn)。在精配準(zhǔn)中利用鄰域關(guān)系提高算法精度,但是算法復(fù)雜度就進(jìn)一步提高了。實(shí)驗(yàn)結(jié)果通過20次實(shí)驗(yàn)取平均值得到。配準(zhǔn)的誤差使用均方誤差,公式如下:
MSE=1m∑mi=1(yi-T^i)2(9)
3.1 算法運(yùn)行時(shí)間對(duì)比實(shí)驗(yàn)
本節(jié)對(duì)比實(shí)驗(yàn)首先比較了不同點(diǎn)數(shù)點(diǎn)云(圖7)的Quadric、Quadric-opt的運(yùn)行時(shí)間與其他三種方法的運(yùn)行時(shí)間,實(shí)驗(yàn)情況如表4所示。本節(jié)實(shí)驗(yàn)代碼均是在MATLAB中實(shí)現(xiàn),對(duì)比實(shí)驗(yàn)的代碼通過原作者或者開源框架獲得。在本實(shí)驗(yàn)中,使用Stanford 3D掃描庫中的bunny點(diǎn)云,將原始數(shù)據(jù)下采樣到不同點(diǎn)數(shù)的點(diǎn)云中。
通過固定旋轉(zhuǎn)變換將其變換到一個(gè)新的位置,這里本文統(tǒng)一在x軸順時(shí)針旋轉(zhuǎn)60°,形成參考點(diǎn)云,因此可知從移動(dòng)點(diǎn)云到參考點(diǎn)云的地真變換,以及兩個(gè)點(diǎn)云之間的點(diǎn)對(duì)應(yīng)關(guān)系。然后用這四種方法分別對(duì)移動(dòng)點(diǎn)云和參考點(diǎn)云進(jìn)行配準(zhǔn)。對(duì)于每一個(gè)數(shù)的點(diǎn),本文用不同的隨機(jī)地面真值變換進(jìn)行了20次配準(zhǔn)求均值。關(guān)于點(diǎn)個(gè)數(shù)的平均運(yùn)行時(shí)間如圖8所示。當(dāng)點(diǎn)的數(shù)量達(dá)到10 000時(shí),GMMTree[7]的運(yùn)行時(shí)間超過了半個(gè)小時(shí),這里GMMTree并沒有通過GPU進(jìn)行優(yōu)化。本文特別對(duì)比了ICP[4]和Quadric,可以看到,Quadric和ICP比其他兩種方法快得多,Quadric的速度是ICP的3~4倍。在實(shí)驗(yàn)中,所有方法都能成功地對(duì)移動(dòng)點(diǎn)云和參考點(diǎn)云進(jìn)行配準(zhǔn)。在3 000個(gè)移動(dòng)點(diǎn)和3 000個(gè)參考點(diǎn)之間的一次配準(zhǔn)過程中,Quadric-opt只花了0.235 s配準(zhǔn)完成了。
從實(shí)驗(yàn)可以看出,與主流算法對(duì)比,基于二次誤差的算法具有明顯的優(yōu)勢,因?yàn)槎握`差在初始狀態(tài)就是對(duì)應(yīng)點(diǎn)的狀態(tài),并不需要重復(fù)的迭代過程,所以在效率上是經(jīng)典的ICP算法的3~4倍,即使是效率更低的Quadric-opt,效率也是ICP的2~3倍。
3.2 旋轉(zhuǎn)角度實(shí)驗(yàn)誤差分析
本節(jié)對(duì)Quadric、Quadric-opt與其他的幾種特征描述子算法的旋轉(zhuǎn)誤差和均方誤差進(jìn)行對(duì)比,通過對(duì)同一個(gè)配準(zhǔn)模型設(shè)置不同的旋轉(zhuǎn)角度(30,60,90,120),能夠得到一個(gè)參考點(diǎn)云。如圖9所示,原始點(diǎn)云的35 937個(gè)點(diǎn)降采樣到10 000個(gè)點(diǎn)左右,進(jìn)行20次重復(fù)實(shí)驗(yàn)取平均值,在不考慮時(shí)間的情況下,盡可能讓各個(gè)配準(zhǔn)算法能收斂到較好的程度。FPFH[29]、NDT[11]、IMICP[23]、GICP[31]等算法都是在C++平臺(tái)上實(shí)現(xiàn)的,F(xiàn)ilterReg[24]算法是基于probreg開源實(shí)現(xiàn)的。通過估計(jì)的位姿與地面真實(shí)位姿之間的偏差來測量方法的姿態(tài)精度,本文遵循統(tǒng)一的標(biāo)準(zhǔn)[24],計(jì)算旋轉(zhuǎn)誤差的公式為
|α|=arc cos(trace(R-1gtRest)-1)(10)
其中:Rgt、Rest分別是初始的旋轉(zhuǎn)真值、配準(zhǔn)后的旋轉(zhuǎn)矩陣;α表示真值旋轉(zhuǎn)和配準(zhǔn)后旋轉(zhuǎn)矩陣之間的差異(單位為°)。
從實(shí)驗(yàn)結(jié)果來看,基于二次誤差的配準(zhǔn)算法不論是Quadric還是Quadric-opt,旋轉(zhuǎn)角誤差和均方誤差都是接近于0,并且完全沒有受到旋轉(zhuǎn)角度的影響(均方誤差的尺度比較小,原因是數(shù)據(jù)模型的尺度較小),對(duì)比同樣基于法向特征的FPFH[29]來看,Quadric比在旋轉(zhuǎn)表現(xiàn)最為優(yōu)秀的FPFH效果還要好。
通過與ICP及其變體Go-ICP[5]、Tri-ICP[8]、FPFH、3DSC[30]、Spin-Image[1]等基于幾何形狀的特征在算法效率和算法精度方面進(jìn)行比較,可以看出,在旋轉(zhuǎn)角度較小的情況下,各個(gè)算法的表現(xiàn)良好,但是旋轉(zhuǎn)角度一旦超過90°,基于ICP及其變體算法都出現(xiàn)了不同程度的錯(cuò)誤匹配,基于概率模型的CPD、NDT表現(xiàn)同樣較差。能夠得出以下結(jié)論:基于二次誤差的幾何特征的配準(zhǔn)算法在相同配準(zhǔn)的前提下在運(yùn)行效率和配準(zhǔn)精度上比這些算法都要優(yōu)秀[32]。
3.3 基于二次誤差的高斯混合模型實(shí)驗(yàn)
高斯混合模型是通過概率模型估計(jì)點(diǎn)云空間分布,在噪聲和離群點(diǎn)的魯棒性方面表現(xiàn)優(yōu)秀[25],但是在較大旋轉(zhuǎn)中表現(xiàn)較差,并且沒有利用到點(diǎn)云中豐富的幾何形狀信息[26]。本文算法將二次誤差嵌入到流行的GMM算法FilterReg中,在保證離群點(diǎn)算法魯棒性的同時(shí)降低了算法對(duì)于旋轉(zhuǎn)角度的敏感性[27]。如圖10所示,在噪聲和離群點(diǎn)的環(huán)境中仍然能夠保持配準(zhǔn)精度。
基于高斯混合的配準(zhǔn)算法如FilterReg算法的實(shí)驗(yàn)結(jié)合了特征配準(zhǔn)算法二次誤差,并與主流的基于高斯混合模型算法在旋轉(zhuǎn)角度方面進(jìn)行對(duì)比,通過對(duì)同一個(gè)配準(zhǔn)模型設(shè)置不同的旋轉(zhuǎn)角,在x軸中設(shè)置30°旋轉(zhuǎn)角不變,y軸設(shè)置30°~120°旋轉(zhuǎn),z軸不設(shè)置旋轉(zhuǎn)。本實(shí)驗(yàn)采用犰狳模型降采樣至3 500個(gè)點(diǎn),得到一個(gè)參考點(diǎn)云,進(jìn)行20次重復(fù)實(shí)驗(yàn)取平均值。旋轉(zhuǎn)角誤差通過式(9)計(jì)算。主要對(duì)比CPD[11]、GMMTree、FilterReg、FilterReg-FPFH等基于高斯混合模型的算法,結(jié)果如表5所示。
圖11中第一行是y軸旋轉(zhuǎn)30°,第二行是y軸旋轉(zhuǎn)60°,第三行是y軸旋轉(zhuǎn)90°,第四行是y軸旋轉(zhuǎn)120°。從圖中可以看出, CPD算法在旋轉(zhuǎn)90°之前能夠有很好的配準(zhǔn)精度,一旦旋轉(zhuǎn)角度超過90°出現(xiàn)了錯(cuò)誤匹配,F(xiàn)ilterReg的配準(zhǔn)精度相對(duì)更差。FilterReg-FPFH是結(jié)合了FPFH特征的概率模型算法,能夠在單個(gè)旋轉(zhuǎn)軸中表現(xiàn)良好,但是在多個(gè)旋轉(zhuǎn)軸的環(huán)境下表現(xiàn)很差,相比較而言,本文算法在多軸旋轉(zhuǎn)和大尺度的旋轉(zhuǎn)中能夠保持穩(wěn)定的配準(zhǔn)精度。
3.4 基于雙特征配準(zhǔn)實(shí)驗(yàn)
實(shí)驗(yàn)設(shè)置:模型選用不均勻的6 500點(diǎn)云數(shù)據(jù)模型,實(shí)驗(yàn)分別比較基于歐氏距離的高斯混合模型配準(zhǔn)方法(FilterReg)、基于快速直方圖(FPFH)的高斯混合模型算法(FilterReg-FPFH),以及兩種特征同時(shí)配準(zhǔn)的雙特征配準(zhǔn)算法(簡稱FilterReg-OF)。設(shè)置y軸旋轉(zhuǎn)120°,z軸旋轉(zhuǎn)120°,通過均方誤差和旋轉(zhuǎn)誤差進(jìn)行評(píng)估,詳見式(9)和(10)。
圖12所示是配準(zhǔn)后的結(jié)果圖、旋轉(zhuǎn)角及誤差對(duì)比。FilterReg和FilterReg-FPFH都出現(xiàn)了不同程度的誤差配準(zhǔn), FilterReg-OF明顯優(yōu)于基于單特征的配準(zhǔn)算法,F(xiàn)ilterReg-Quadric的配準(zhǔn)效果稍微優(yōu)于FilterReg-OF。表6顯示各個(gè)算法在實(shí)驗(yàn)環(huán)境下的旋轉(zhuǎn)誤差和均方誤差,表6中A表示y軸旋轉(zhuǎn)90°,B表示z軸旋轉(zhuǎn)120°。
4 結(jié)束語
本文提出了一種基于二次誤差的配準(zhǔn)方法,其次針對(duì)粗配準(zhǔn)出現(xiàn)的誤匹配問題提出了一種基于鄰域的優(yōu)化方案,最后將二次誤差作為特征嵌入到概率模型的框架中,并且結(jié)合局部特征和全局的在不同階段的優(yōu)勢提出一種雙特征的配準(zhǔn)方案。通過在Stanford公開數(shù)據(jù)集上進(jìn)行大量的對(duì)比,對(duì)旋轉(zhuǎn)角度和旋轉(zhuǎn)精度進(jìn)行實(shí)驗(yàn)。結(jié)果表明,本文方法在配準(zhǔn)效率和大角度旋轉(zhuǎn)的實(shí)驗(yàn)中優(yōu)于大部分主流的配準(zhǔn)算法,其次提出的雙特征配準(zhǔn)方案優(yōu)于基于單個(gè)特征的配準(zhǔn)方案。
參考文獻(xiàn):
[1]Johnson A E.Spin-Image:a representation for 3-D surface matching[D].[S.l.]:Carnegie Mellon University,1997.
[2]郭裕蘭,魯敏,譚志國,等.距離圖像局部特征提取方法綜述[J].模式識(shí)別與人工智能,2012,25(5):783-791. (Guo Yulan,Lu Min,Tan Zhiguo,et al.Overview of local feature extraction methods for distance image[J].Pattern Recognition and Artificial Intelligence,2012,25(5):783-791.)
[3]馬新科,楊揚(yáng),楊昆,等.基于模糊形狀上下文與局部向量相似性約束的配準(zhǔn)算法[J].自動(dòng)化學(xué)報(bào),2020,46(2):342-357. (Ma Xinke,Yang Yang,Yang Kun,et al.Registration algorithm based on fuzzy shape context and local vector similarity constraint[J].Acta Automatica Sinica,2020,46(2):342-357.)
[4]Besl P J,Mckay H D.A method for registration of 3-D shapes[J].IEEE Trans on Pattern Analysis amp; Machine Intelligence,1992,14(2):239-256.
[5]Yang Jiaolong,Li Hongdong,Jia Yunde.Go-ICP:solving 3D registration efficiently and globally optimally[C]//Proc of IEEE International Confe-rence on Computer Vision.Piscataway,NJ:IEEE Press,2013:1457-1464.
[6]Fischler M A,Bolles R C.Random sample consensus:a paradigm for model fitting with applications to image analysis and automated carto-graphy[J].Communications of the ACM,1981,24(6):381-395.
[7]Eckart B,Kim K,Kautz J.Fast and accurate point cloud registration using trees of Gaussian mixtures[EB/OL].(2018).https://arxiv.org/abs/1807.02587.
[8]Aiger D,Mitra N K,Cohen-Or D.4-points congruent sets for robust pairwise surface registration[C]//Proc of ACM SIGGRAPH.New York:ACM Press,2008.
[9]Mohamad M,Ahmed M T,Rappaport D,et al.Super generalized 4PCS for 3D registration[C]//Proc of International Conference on 3D Vision.2015:598-606.
[10]Le H,Do T T,Hoang T,et al.SDRSAC:semidefinite-based randomized approach for robust point cloud registration without correspondences[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:124-133.
[11]Myronenko A,Song Xubo.Point set registration:coherent point drift[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2010,32(12):2262-2275.
[12]Evangelidis G D,Kounades-Bastian D,Horaud R,et al.A generative model for the joint registration of multiple point sets[C]//Proc of ECCV.2014.
[13]Biber P,Strasser W.The normal distributions transform:a new approach to laser scan matching[C]//Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems.Piscataway,NJ:IEEE Press,2003:2743-2748.
[14]Lawin F J,Danelljan M,Khan F S,et al.Density adaptive point set registration[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:3829-3837.
[15]Stoyanov T,Magnusson M,Lilienthal A J.Point set registration through minimization of the l2 distance between 3D-NDT models[C]//Proc of IEEE International Conference on Robotics amp; Automation.Piscataway,NJ:IEEE Press,2013.
[16]Bing Jian,Vemuri B C.A robust algorithm for point set registration using mixture of Gaussians[C]//Proc of IEEE International Confe-rence on Computer Vision.Piscataway,NJ:IEEE Press,2005.
[17]Campbell D,Petersson L.An adaptive data representation for robust point-set registration and merging[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2015:4292-4300.
[18]Eckart B,Kim K,Kautz J.HGMR:hierarchical Gaussian mixtures for adaptive 3D registration[C]//Proc of ECCV.2018.
[19]Yuan W,Eckart B,Kim K,et al.DeepGMR:learning latent Gaussian mixture models for registration[C]//Proc of European Conference on Computer Vision.Berlin:Springer,2020:733-750.
[20]Garland M,Heckbert P S.Surface simplification using quadric error metrics[C]//Proc of the 24th Annual Conference on Computer Graphics and Interactive Techniques.1997.
[21]Hoppe H.New quadric metric for simplifying meshes with appearance attributes[C]//Proc of IEEE Visualization.Piscataway,NJ:IEEE Press,1999:59.
[22]Bellekens B,Spruyt V,Berkvens R,et al.A benchmark survey of rigid 3D point cloud registration algorithms[C]//Proc of the 4th International Conference on Ambient Computing.2015.
[23]Low K L.Linear least-squares optimization for point-to-plane ICP surface registration,Technical Report TR04-004[R].[s.l.]:University of North Carolina at Chapel Hill,2004.
[24]Gao Wei,Tedrake R.FilterReg:robust and efficient probabilistic point-set registration using Gaussian filter and twist parameterization[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:11087-11096.
[25]Sattler T,Maddern W,Toft C,et al.Benchmarking 6DOF outdoor vi-sual localization in changing conditions[C]//Proc of Conference on Computer Vision and Pattern Recognition.2018:8601-8610.
[26]Liu Yinlong,Wang Chen,Song Zhijian,et al.Efficient global point cloud registration by matching rotation invariant features through translation search[C]//Proc of ECCV.2018.
[27]Yang Changjiang,Duraiswami R,Gumerov N A,et al.Improved fast Gauss transform and efficient kernel density estimation[C]//Proc of the 9th IEEE International Conference on Computer Vision.Pisca-taway,NJ:IEEE Press,2003:664-671.
[28]張星.基于激光點(diǎn)云與影像融合的三維可視化研究[D].武漢:華中科技大學(xué),2017. (Zhang Xing.Research on 3D visualization based on laser point cloud and image fusion[D].Wuhan:Huazhong University of Science and Technology,2017.)
[29]Rusu R B,Blodow N,Beetz M.Fast point feature histograms(FPFH) for 3D registration[C]//Proc of IEEE International Conference on Robotics amp; Automation.Piscataway,NJ:IEEE Press,2009.
[30]Frome A,Huber D,Kolluri R,et al.Recognizing objects in range data using regional point descriptors[C]//Proc of European Conference on Computer Vision.Berlin:Springer,2004:224-237.
[31]Segal A,Hhnel D,Thrun S.Generalized-ICP[J].Robotics:Science and Systems V,2009,2(4):DOI:10.15607/RSS.2009.V.021.