999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于重疊域采樣混合特征的點云配準算法

2022-12-31 00:00:00胡江豪王豐
計算機應用研究 2022年11期

摘 要:針對部分重疊的兩片點云配準效率低、誤差大等問題,提出了一種基于重疊域采樣混合特征的點云配準算法。首先,通過編碼和特征交互的方式預測每個點的重疊分數,獲得更豐富的點云特征;其次,提取重疊點的局部幾何特征,基于重疊分數和點特征的顯著性保留重疊關鍵點;最后,利用重疊關鍵點的幾何信息和空間信息構建混合特征矩陣,計算矩陣的匹配相似度,采取加權奇異值分解運算得到配準結果。實驗結果表明,該方法具有較強的泛化能力,能在保證配準效率的同時顯著提升點云配準精度。

關鍵詞:機器視覺; 點云配準; 重疊區域; 混合特征

中圖分類號:TP391 文獻標志碼:A 文章編號:1001-3695(2022)11-050-3503-06

doi: 10.19734/j.issn.1001-3695.2022.03.0111

Point cloud registration algorithm based on mixed-features sampling for overlapping domain

Hu Jianghao, Wang Feng

(School of Information Engineering, Guangdong University of Technology, Guangzhou 510006, China)

Abstract:Aiming at the problems of low efficiency and large error in the registration of two partially overlapped point clouds, this paper proposed a point cloud registration algorithm based on the mixed-features sampling for overlapping domain. Firstly, it used coding and feature interaction predicted the overlap score of each point to obtain richer point cloud features. Secondly, it extracted the local geometric features of overlapping points and retained the overlapping key points based on overlapping scores and the significance of point features. Finally, it used the geometric information and spatial information of overlapping key points to construct a hybrid feature matrix, calculated the matching similarity of the matrix, and obtained registration results by using weighted singular value decomposition. Experimental results show that the proposed method has strong generalization ability and can significantly improve the registration accuracy of point cloud while ensuring registration efficiency.

Key words:machine vision; point cloud registration; overlapping areas; hybrid feature

基金項目:國家自然科學基金資助項目(61901124);廣東省自然科學基金資助項目(2021A1515012305);廣州市基礎研究計劃資助項目(202102020856)

作者簡介:胡江豪(1999-),男,江西吉安人,碩士研究生,主要研究方向為三維模型配準;王豐(1987-),男(通信作者),廣東廣州人,副教授,碩導,博士,主要研究方向為通信信號處理、移動邊緣計算與機器視覺(fengwang13@gdut.edu.cn).

0 引言

點云配準是計算機視覺中的一項重要任務,旨在尋找一種剛體變換,使一個三維源點云與另一個三維目標點云對齊[1]。它在姿態估計[2]、三維重建[3]、目標定位[4]等領域有著廣泛的應用,得到了國內外學者的廣泛關注。配準問題可以描述為:給定源點云X={xi∈R3|i=1,…,N}和目標點云Y={yj∈R3|j=1,…,M},點云配準的目標是找到剛性變換{R,t}使得兩個點云X和Y能夠對齊,其中R∈SO(3)是旋轉矩陣,t∈3為平移向量,X∈N×3為源點云,Y∈M×3為目標點云。

在實際應用中,由于連續幀之間的攝像機運動,大多數情況下會產生部分重疊的三維點云[5]。部分點云配準是現實世界中常見的一種配準方法。由于部分重疊的點云數據規模不一致、特征密度低,部分重疊的點云面臨著配準效率低、誤差大等挑戰。傳統的配準方法中最常用的是迭代最近點(iterative closest point,ICP)[6]算法,但該方法對點云初始位置較為敏感,容易陷入局部最優。快速全局配準(fast global registration,FGR)[7]算法通過快速點特征直方圖[8]和交替優化技術來加速全局配準,但其對于噪聲較為敏感。全局優化迭代最近點算法(globally optimal ICP,Go-ICP)[9]通過分支定界的方法解決了局部極小值問題,但其對初始位置仍然敏感。隨著點云數據規模的劇增,傳統的配準方法在效率和精度上已不能滿足實際需求。

近年來,基于深度學習的點云配準算法和方案設計成為了三維點云配準的研究熱點。與傳統配準算法相比,深度學習的方法具有精度高、魯棒性強等特點。Aoki等人[10]提出了一種魯棒高效的點云配準算法PointNetLK,將點網 (deep learning on point sets,PointNet)[11]深度學習網絡和改進的Lucas-Kanade[12]算法相結合,在中等尺度變換和噪聲條件下提高了配準精度。Wang等人[13]提出了深度最近點(deep closest point,DCP)網絡,運用動態圖卷積神經網絡[14]提取點云特征,并使用注意力機制計算點的相關性。Wang等人[15]提出部分到部分配準的自監督學習(self-supervised learning for partial-to-partial registration,PRNet)深度學習網絡,使用Gumbel-Softmax[16]和一個直接梯度估計器來采樣關鍵點的對應關系。Li等人[1]提出迭代距離感知相似矩陣卷積網絡(iterative distance-aware similarity matrix convolution,IDAM),融合了點云的局部幾何特征和距離特征,同時運用互監督的混合消元法提高了配準精度。Yew等人[17]結合混合特征與退火算法,降低初始位置對最終配準結果的影響,增強了網絡的泛化能力,但運算速度較慢。

然而,上述的方法都沒有明確處理非重疊點。相比于重疊點,非重疊點可以提取的特征有限,而配準的準確性在很大程度上依賴于特征提取的質量。非重疊點對全卷積點特征描述符的有效感受野影響較小[18,19]。因此,改變特征的提取方法對部分重疊點云配準性能的提升是有限的。對于部分重疊的點云,若能學習在何處采樣特征點,則可以有效提升部分點云配準的性能。熊豐偉等人[20]提出了一種基于法向量投影協方差分析的關鍵點提取方法。Huang等人[21]對以往關鍵點提取方法進行了補充,并將其延伸至低重疊場景[22]。張元等人[23]將聚類區域分塊和凸優化問題相結合,提升了重疊程度較低的點云的配準性能。李鑫等人[24]通過降采樣和閾值分離的方式保留貢獻度更大的點對。Xu等人[25]通過學習重疊掩膜來拒絕非重疊區域,將部分重疊點云配準轉換為相同形狀的點云配準,并取得了優異的配準性能。但由于噪聲點和非重疊點的存在,采樣重疊點可能會使目標點云中正確的對應點被移除,導致配準性能下降。

為此,本文提出了一種基于重疊域采樣混合特征的點云配準算法。在有效提取重疊點的同時降低目標點云中正確對應點被移除的概率。首先,通過編碼和特征交互的方式提取每個點云內部的交互特征,增強網絡對局部幾何結構的描述能力,提取具有豐富特征的重疊關鍵點,提高配準效率。其次,結合點云的局部幾何特征和距離特征,利用了不同點對特征的相互作用,減少初始位置對配準性能的影響,提升了配準精度。最后,為了平衡性能和效率,提出了有效性分數計算網絡。降低采樣關鍵點時錯誤移除目標點云中的對應點對配準性能的影響,提高點云配準尤其是部分重疊點云配準的精度和魯棒性。

1 點云配準框架及算法設計

本文提出了一種基于深度學習的點云配準算法,算法結構如圖1所示,其主要由四個部分組成,即重疊分數預測、顯著特征采樣、混合特征提取、相似度和有效性分數計算。首先,使用PointNet對點云進行編碼,編碼后送入特征交互模塊,用PointNet解碼輸出點云的重疊分數,根據重疊分數采樣K個重疊分數高的重疊點。其次,提取重疊點的局部幾何特征,保留L個顯著特征點,并計算顯著特征點的距離特征,將局部幾何特征和距離特征結合構成混合特征矩陣,計算相似度和有效性分數,根據有效性分數為每個點分配不同的權值,采取加權奇異值分解求解得到剛性變換。

1.1 重疊分數預測

值得注意的是,非重疊部分對全卷積特征點描述符的影響較小,而重疊部分點云包含更多的數據量,具有更豐富的特征[18,19]。因此,在重疊區域中的點能夠有效提升配準性能。本文將重疊問題看成二分類問題[5],提出了一種特征交互模塊,如圖2所示,計算源點云和目標點云中點的重疊分數,并采樣重疊度較高的K個數據點。

使用修改后的PointNet提取源點云的全局特征FX和目標點云的全局特征FY。對全局特征FX和FY進行一次最大池化操作,由此得到池化特征FmX和FmY。接下來,堆疊若干個特征FmX、FmY,使其特征維度和FX、FY保持一致,如圖2所示。重疊分數預測的問題可視為二分類問題。因此,將全局特征、擴展后的池化特征及其差值相串聯,并用修改后的PointNet進行解碼操作,得到源點云的重疊分數OX和目標點云的重疊分數OY,即

其中:pd代表解碼PointNet;e(·)代表堆疊擴展操作;cat代表連接操作。獲取重疊分數后,根據重疊分數采樣K個點,得到采樣后的源點云X′={x′i∈3|i=1,…,K}和目標點云Y′={y′j∈3|j=1,…,K}。

1.2 顯著特征采樣

使用所有的點特征進行對應關系搜索需要花費大量的內存和時間。不顯著的特征會導致配準性能的下降,而顯著的特征包含更豐富的信息,具有更強的判別性。因此,本文提出顯著特征采樣模塊,如圖3所示。首先,用圖神經網絡(graph neural network,GNN)[26]提取源點云中點xi的局部幾何特征fx(i)和目標點云中點yj的局部幾何特征fy(j)。其次,對特征向量應用多層感知機,得到源點云和目標點云特征的顯著分數s(i)和s(j)。最后,保留顯著分數最高的L個數據點,去除顯著分數低的點。采樣后的源點云記為X″={x″i∈3|i=1,…,L},目標點云記為Y″={y″j∈3|j=1,…,L}。

1.3 混合特征提取

現有的基于學習的方法大多僅采用局部幾何特征進行對應關系匹配。由于不同點對之間的匹配方式是相同的,故僅采用局部幾何特征識別兩點之間相似度的能力有限。ICP使用距離特征進行對應關系匹配,該方法對點云的初始位置較敏感。結合局部特征和距離特征,充分利用點云的幾何信息和空間信息,能獲得更高的配準精度,減少初始位置對配準性能的影響。本文計算采樣后點云中點的距離特征,將距離特征和1.2節獲取的局部幾何特征連接,得到采樣后點云的混合特征,即

其中:cat表示連接操作;n表示更新距離特征后混合特征內部迭代的次數。

2 相似度與有效性分數計算

2.1 相似度計算

1.3節得到了點云的混合特征矩陣。首先,對混合特征H(n)(i,j)應用一系列二維卷積。然后對每一行都應用softmax函數得到相似度矩陣,記為S(n)(i,j)。S(n)(i,j)的每一行為歸一化的概率分布,即xi和yj對應的概率。對相似度矩陣的每一行取最大值,得到一組點{(x″i,x*i)|x″i∈X″},其中x*i為目標點云中與x″i對應概率最大的點。

2.2 有效性分數計算

采樣源點云和目標點云中的特征顯著數據點能夠顯著提高配準效率,但同時也可能造成源點云中某些點在目標點云中的正確對應點被消除。因此,本文提出了有效性分數計算網絡,計算匹配結果的可信度,如圖4所示。

首先,計算源點云中每一個點的有效性分數,對混合特征矩陣運用一維卷積操作,對卷積后的結果取最大值并通過全連接層計算有效性分數,如下:

有效性分數可以看做源點云和目標點云中的點匹配正確的概率。根據有效性分數,計算每一個點對應的權值,如下:

2.3 損失函數

網絡的損失函數由四個部分組成,采用多監督的形式。重疊分數預測損失函數為LOL。重疊分數預測只有重疊和非重疊兩種情況,因此把它看做一項二分類任務,用交叉熵損失函數來監督它。重疊分數預測損失函數定義如下:

其中:OX為源點云重疊分數的真實值;OY為目標點云重疊分數的真實值。關鍵點采樣損失函數定義如下:

其中:s(i)為源點云中第i個點xi的顯著分數。在早期配準時局部幾何特征比距離特征更為重要。因此,僅在第一次迭代中使用關鍵點采樣損失函數。

定義混合特征匹配監督的損失函數如下:

3 實驗及結果分析

3.1 實驗環境及設計

本文的實驗使用Python編程語言,配置環境為PyTorch深度學習框架。實驗采用的計算機硬件環境為Intel CoreTM i9-12900KF 3.19 GHz CPU處理器和RTX3080 GPU。

本文在合成點云數據集ModelNet40和斯坦福大學公布的真實點云數據集上評估所提出的算法,所選數據集被廣泛應用于點云配準。ModelNet40數據集包含12 311個CAD模型,共有40種不同的類別。數據集劃分為訓練集和測試集,訓練集共有9 843個物體,測試集共有2 468個物體。對于一個物體,隨機采樣1 024個點生成物體點云。對于每個點云,隨機旋轉[0°,45°]并在每個坐標軸上平移[-0.5,0.5]。將初始點云視為源點云,變換過后的點云視為目標點云。為了生成部分重疊的點云,本文在與兩個點云相距較遠的地方隨機固定一個點,每個點云保留離該點最近的768個點。

3.2 實驗參數設置

在算法實施中,采樣重疊分數靠前的717個點,混合特征迭代次數為3,保留128個顯著特征點,重疊分數預測損失函數超參數α設置為0.6。使用Adam優化器訓練模型,訓練次數為40個回合,初始學習率為0.000 1,權重衰減設置為0.001,每30個回合學習率乘以0.1。

3.3 實驗評估

將本文的方法和傳統的算法(如迭代最近點ICP方法[6]、快速全局配準FGR方法[7]、Go-ICP方法[9])以及基于深度學習的方法(如PointNetLK[10]、DCP[13]、PRNet[15]和IDAM[1])進行比較。所有的基于深度學習的方法都是在同一個訓練集上訓練的,使用旋轉矩陣和平移向量的均方根誤差(RMSE)和平均絕對誤差(MAE)作為評價指標。對于旋轉矩陣,旋轉均方根誤差(RMSE(r))和旋轉平均絕對誤差(MAE(r))的單位為度。對于位移向量,用平移均方根誤差(RMSE(t)) 和平移平均絕對誤差(MAE(t))表示。

3.4 不可見形狀的點云配準

對于不可見形狀實驗,在ModelNet40數據集上訓練和測試本文的算法。ModelNet40數據集包含9 843個訓練對象以及2 468個測試對象,共計40種類別。

圖5為本文方法和IDAM算法在測試集上的配準性能對比,當迭代次數為11時,IDAM算法性能達到最優,RMSE(r)為1.52,迭代次數為13時,本文方法性能達到最優,RMSE(r)為0.87。最終結果如表1所示。

由于缺乏良好的初始位置,迭代最近點ICP算法的配準性能較差,Go-ICP算法通過分支定界的方法解決了局部極小值問題,但其對初始位置仍然敏感。快速全局配準FGR算法利用幾何形狀特征進行配準,得到了更精確的配準結果,但和基于深度學習的方法相比,仍具有較高的誤差。

基于深度學習的DCP、PRNet等算法均采用幾何特征進行配準,而IDAM使用混合特征進行配準,比其他基于深度學習的方法獲得了更好的性能。但其未對非重疊點進行處理,提取的特征中包含不豐富的特征信息。本文的算法結合幾何特征和距離特征,同時考慮點云的重疊區域,采樣比非重疊點具有更豐富特征的重疊關鍵點,去除非重疊點,消除冗余信息。將部分重疊點云配準轉換為相同形狀的點云配準。在配準時對包含豐富特征信息的重疊點給予更高的權重。相比IDAM算法以及其他的深度學習方法,本文方法對點云的局部幾何結構具有更強的描述能力。

實驗結果表明,本文方法優于所對比的傳統方法以及基于深度學習的方法,在四項評價指標上均得到了更精確的配準結果,RMSE(r)和RMSE(t)分別為0.87和0.004,顯著提升了點云配準的精度。

圖6為本文方法的可視化配準結果(見電子版),其中綠色點云為源點云,對源點云隨機旋轉[0°,45°]并在每個坐標軸上平移[-0.5,0.5]得到紅色目標點云,如圖6(a)所示。本文方法的配準結果如圖6(b)所示,可以清楚地看出,本文方法對不可見形狀的點云能夠精確配準。

3.5 不可見種類的點云配準

對于不可見種類的點云配準泛化實驗,使用前20個類別進行訓練,用剩下的20個類別進行測試。

圖7為本文方法和IDAM算法在測試集上的配準性能對比,當迭代次數為24時,IDAM算法性能達到最優,RMSE(r)為1.59,迭代次數為26時,本文方法性能達到最優,RMSE(r)為0.95。最終結果如表2所示,ICP、Go-ICP和FGR等傳統的算法不需要使用訓練集來學習參數。因此,傳統的算法所受到的影響較小,而基于深度學習的方法由于訓練模型和測試模型屬于不同類別,配準性能有所下降。但本文算法性能在各項指標上均優于其他的對比方法,對不可見類別的點云數據具有良好的泛化能力。

圖8為本文方法的可視化配準結果(見電子版),其中綠色點云為源點云,對源點云隨機旋轉[0°,45°]并在每個坐標軸上平移[-0.5,0.5]得到紅色目標點云,如圖8(a)所示。本文方法的配準結果如圖8(b)所示,可以清楚地看出,本文方法對于不可見種類的點云能夠精確配準。

3.6 含高斯噪聲的不可見形狀點云配準

由于連續幀之間的攝像機運動,真實場景中的掃描模型往往帶有噪聲。本文對所有的形狀都加入標準差為0.01的隨機高斯噪聲,以模擬真實場景。將噪聲裁剪到[-0.05,0.05],其他設置和3.4節的實驗一致。

實驗結果如表3所示,由于高斯噪聲對形狀特征的影響較大,FGR算法的配準性能受到了較大的影響。而ICP、Go-ICP算法對噪聲具有一定的魯棒性。由于訓練過程中噪聲的增強提高了局部特征描述符的魯棒性,所以DCP、PRNet、IDAM以及本文方法的性能比無噪聲時下降許多。本文方法使用特征交互的方式過濾噪聲點和非重疊點。在配準時計算有效性分數,對于不匹配的噪聲點給予較低的權重,提高了算法面對噪聲時的魯棒性。本文方法的配準性能在RMSE(r)、MAE(r)和MAE(t)三項指標上優于對比方法,在RMSE(t)上略次于PRNet,具有對抗噪聲的良好泛化能力。

3.7 算法時間復雜度

本文在ModelNet40測試集上對算法的運算性能進行評估,對比不同的算法處理一個點云數據的平均運行時間。對于點云數據,分別采樣512、1 024和2 048個點,單位為s,結果如表4所示。從結果可以得知,基于深度學習的方法通常比傳統的方法更快。基于特征提取的深度學習算法無法避免地會提取非重疊點、不顯著特征點的幾何特征,導致配準效率不高。本文方法通過雙層采樣的方式對非重疊點、不顯著的特征點進行過濾,極大減少了算法的計算量,提升了算法的運行效率。表4表明本文方法的效率僅次于DCP算法,是FGR算法的4、5倍,是PRNet、PointNetLK算法的2、3倍,顯著優于ICP和IDAM等算法。

3.8 斯坦福數據集上的點云配準實驗

本文在斯坦福大學公布的Stanford 3D掃描點云數據集上進行實驗,以進一步驗證本文算法的泛化能力。與ModelNet40數據集相比,Stanford數據集中的點云分布不均勻,配準更具挑戰性。本文選取數據集中的bunny、hand模型,將點云降采樣至2 048個點。對于每個點云,隨機旋轉[0°,45°]并在每個坐標軸上平移[-0.05,0.05]得到目標點云。采用和ModelNet40數據集相似的處理方式生成部分重疊的點云。本文選取在ModelNet40數據集上性能較優的DCP、PRNet、IDAM算法與本文算法進行對比,最終結果如表5所示。

驗結果可視化如圖9所示,其中紅色點云為源點云,藍色點云為變化后的目標點云(見電子版)。對于數據分布不均的點云,本文方法通過預測重疊分數、顯著分數消除冗余的信息,保留更多的特征信息,同時對特征信息豐富的重疊點給予較高的權重。實驗結果表明,本文方法在配準性能誤差上低于所對比方法,對數據分布不均勻的點云具有良好的泛化能力。

3.9 含高斯噪聲的斯坦福數據集配準實驗

對真實數據模型加入標準差為0.01的隨機高斯噪聲,并將噪聲裁剪到[-0.05,0.05],其他設置和3.8節的實驗一致。實驗結果如表6所示,由于高斯噪聲對形狀特征的影響,所有模型的配準性能都有所下降。本文方法運用特征交互的方式過濾噪聲點及非重疊點。對于不匹配的噪聲點給予較低的權重,因此本文方法的性能在RMSE(r)、MAE(r)和MAE(t)三項指標上優于對比方法,展現了面對噪聲點云的魯棒性。

3.10 可視化分析

對于部分重疊的點云,本文通過采樣相同數量的重疊關鍵點、提取重疊關鍵點的混合特征的方式解決部分重疊點云數據規模不一致、特征密度低等問題。可視化結果如圖10所示,其中綠色點云為源點云,紅色點云為目標點云,藍色為提取的重疊關鍵點(見電子版)。本文僅采用重疊關鍵點進行配準,可以充分利用重疊點云的豐富特征信息,降低計算量,提高配準運算效率。

圖11為本文方法與ICP、FGR算法的配準結果。其中綠色點云為源點云,紅色點云為目標點云(見電子版)。從結果可以看出,面對點云數據規模不一致、特征密度低的部分重疊點云,ICP算法易陷入局部最優,FGR算法未能高效地識別兩點之間的相似度。本文方法在面對部分重疊點云時能獲得更高的配準精度,在數據集上的定量比較和視覺效果上都優于所對比的方法。

4 結束語

本文提出了一種基于重疊域采樣混合特征的點云配準算法。在有效提取重疊點的同時降低目標點云中正確對應點被移除的概率。首先,運用特征交互和采樣顯著特征的方式獲得更豐富的點云特征,增強了算法對特征信息的學習能力,降低了計算量;其次,結合點云的幾何信息和空間信息構建混合特征矩陣,利用了不同點對特征之間的相互作用,降低了初始位置對點云配準的影響;最后,采用有效性分數計算網絡為每個點分配相應的權值,增強了網絡對重要信息的鑒別能力。在合成點云數據集ModelNet40和真實點云數據集上的實驗結果表明,本文方法在面對部分重疊點云時能獲得更高的配準精度,在保持配準效率的同時具有更高的魯棒性和更好的泛化能力。

參考文獻:

[1]Li Jiahao,Zhang Changhao,Xu Ziyao,et al. Iterative distance-aware similarity matrix convolution with mutual-supervised point elimination for efficient point cloud registration[C] //Proc of European Confe-rence on Computer Vision. Cham: Springer,2020: 378-394.

[2]Wong J M,Kee V,Le T,et al. SegICP: integrated deep semantic segmentation and pose estimation[C] //Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway,NJ:IEEE Press,2017: 5784-5789.

[3]Blais G,Levine M D. Registering multiview range data to create 3D computer objects[J]. IEEE Trans on Pattern Analysis and Machine Intelligence,1995,17(8): 820-824.

[4]Lu Weixin,Zhou Yao,Wan Guowei,et al. L3-Net: towards learning based LiDAR localization for autonomous driving[C] //Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2019: 6389-6398.

[5]Zhu Lifa,Liu Dongrui,Lin Changwei,et al. Point cloud registration using representative overlapping points [EB/OL]. (2021). https://arxiv.org/abs/2107.02583.

[6]Besl P J,McKay N D. A method for registration of 3-D shapes[J]. IEEE Trans on Pattern Analysis and Machine Intelligence,1992,14(2):239-256.

[7]Zhou Qianyi,Park J,Koltun V. Fast global registration[C] //Proc of European Conference on Computer Vision. Cham:Springer,2016: 766-782.

[8]Rusu R B,Blodow N,Beetz M. Fast point feature histograms (FPFH) for 3D registration[C] //Proc of IEEE International Conference on Robotics and Automation. Piscataway,NJ:IEEE Press,2009: 3212-3217.

[9]Yang Jiaolong,Li Hongdong,Campbell D,et al. Go-ICP: a globally optimal solution to 3D ICP point-set registration[J]. IEEE Trans on Pattern Analysis and Machine Intelligence,2016,38(11): 2241-2254.

[10]Aoki Y,Goforth H,Srivatsan R A,et al. PointNetLK: robust amp; efficient point cloud registration using PointNet[C] //Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ:IEEE Press,2019: 7163-7172.

[11]Qi C R,Su Hao,Mo Kaichun,et al. PointNet: deep learning on point sets for 3D classification and segmentation[C] //Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ:IEEE Press,2017: 652-660.

[12]Lucas B D,Kanade T. An iterative image registration technique with an application to stereo vision[C] //Proc of the 7th International Joint Conference on Artificial Intelligence. [S.l.]:Morgan Kaufmann Publishers Inc.,1997.

[13]Wang Yue,Solomon J M. Deep closest point: learning representations for point cloud registration[C] //Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ:IEEE Press,2019: 3523-3532.

[14]Wang Yue,Sun Yongbin,Liu Ziwei,et al. Dynamic graph CNN for learning on point clouds[J]. ACM Trans on Graphics,2019,38(5): 1-12.

[15]Wang Yue,Solomon J M. PRNet: self-supervised learning for partial-to-partial registration[EB/OL].(2019-10-27). https://arxiv.org/abs/1910.12240.

[16]Jang E,Gu Shixiang,Poole B. Categorical reparameterization with Gumbel-Softmax [EB/OL].(2016). https://arxiv.org/abs/1611.01144.

[17]Yew Z J,Lee G H. RPM-Net: robust point matching using learned features[C] //Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ:IEEE Press,2020: 11824-11833.

[18]Choy C,Park J,Koltun V. Fully convolutional geometric features[C]//Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ:IEEE Press,2019: 8958-8966.

[19]Bai Xuyang,Luo Zixin,Zhou Lei,et al. D3feat: Joint learning of dense detection and description of 3D local features[C] //Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ:IEEE Press,2020: 6359-6367.

[20]熊豐偉,莊健,沈人. 基于鄰域曲率的低特征辨識度點云配準方法[J]. 計算機應用研究,2022,39(1):285-290.(Xiong Fengwei,Zhuang Jian,Shen Ren. A low feature recognition degree point cloud registration method based on neighborhood curvature [J] Computer Application Research,2022,39(1): 285-290.)

[21]Huang Shengyu,Gojcic Z,Usvyatsov M,et al. Predator: registration of 3D point clouds with low overlap[C] //Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition. Piscataway,NJ:IEEE Press,2021: 4267-4276.

[22]秦紅星,劉鎮濤,譚博元. 深度學習剛性點云配準前沿進展[J]. 中國圖象圖形學報,2022,27(2): 329-348.( Qin Hongxing,Liu Zhentao,Tan Boyuan. Advances in rigid point cloud registration for deep learning [J]. Chinese Journal of Image and Graphics,2022,27(2): 329-348.)

[23]張元,李曉燕,韓燮. 一種低重疊率的三維點云配準方法[J]. 激光與光電子學進展,2021,58(8):170-179.( Zhang Yuan,Li Xiao-yan,Han Xie. A 3D point cloud registration method with low overlap rate [J]. Progress in Laser and Optoelectronics,2021,58(8): 170-179.)

[24]李鑫,莫思特,黃華,等.自動計算重疊度的多源點云配準方法[J].紅外與激光工程,2021,50(12):270-278.(Li Xin,Mo Site,Huang Hua,et al. Multi source point cloud registration method for automatic calculation of overlap [J]. Infrared and Laser Enginee-ring,2021,50(12): 270-278.)

[25]Xu Hao,Liu Shuaicheng,Wang Guangfu,et al. OMNet: learning overlapping mask for partial-to-partial point cloud registration[C] //Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ:IEEE Press,2021: 3132-3141.

[26]Wu Zonghan,Pan S,Chen Fengwen,et al. A comprehensive survey on graph neural networks[J]. IEEE Trans on Neural Networks and Learning Systems,2020,32(1): 4-24.

主站蜘蛛池模板: 成人国产免费| 亚洲AV免费一区二区三区| 欧美福利在线| 91精品网站| 黄色片中文字幕| 重口调教一区二区视频| 女人18毛片一级毛片在线 | 五月天久久综合| 一级毛片在线免费视频| 97在线公开视频| 亚洲丝袜中文字幕| 美女无遮挡免费视频网站| 在线色国产| 中文字幕伦视频| 亚洲一区二区三区香蕉| www.99精品视频在线播放| 三上悠亚精品二区在线观看| 国内自拍久第一页| 国产精品免费电影| 国产成人在线无码免费视频| 日本免费新一区视频| 色综合久久综合网| 人妻21p大胆| 国产高清在线观看| 欧美h在线观看| 在线永久免费观看的毛片| 国产女人在线视频| 福利国产微拍广场一区视频在线| 国产免费自拍视频| 视频国产精品丝袜第一页| 露脸国产精品自产在线播| 国产在线无码av完整版在线观看| 欧美日韩综合网| 91欧美在线| 欧美日韩在线成人| 黄色免费在线网址| 怡春院欧美一区二区三区免费| 另类欧美日韩| 东京热一区二区三区无码视频| 一级毛片在线免费看| 国产在线视频导航| 国产精品一老牛影视频| 波多野结衣久久精品| www.av男人.com| 久久国产拍爱| 久久精品日日躁夜夜躁欧美| 亚洲精品国产自在现线最新| 中文字幕啪啪| 综1合AV在线播放| 9啪在线视频| 成人va亚洲va欧美天堂| 亚洲男女在线| 婷婷激情亚洲| 免费毛片在线| 黑色丝袜高跟国产在线91| 亚洲精品桃花岛av在线| 日本手机在线视频| 在线国产91| 欧美啪啪一区| 一级毛片视频免费| 日本爱爱精品一区二区| 99999久久久久久亚洲| 久久精品国产国语对白| 丁香六月综合网| 欧美19综合中文字幕| 亚洲天堂免费观看| 国产激情无码一区二区三区免费| 亚洲色图在线观看| 国产无码性爱一区二区三区| 美女无遮挡免费视频网站| 欧美一区二区人人喊爽| 国产精品夜夜嗨视频免费视频| 丁香五月激情图片| 亚洲精品亚洲人成在线| 久久鸭综合久久国产| 波多野结衣的av一区二区三区| 国产在线观看第二页| 欧美国产在线看| 亚洲精品麻豆| 青青草原国产免费av观看| 国产黄色爱视频| 久久国语对白|