999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于旋轉-平移解耦優化的在線稠密重建算法

2025-03-09 00:00:00郭帆呂澤均張嚴辭
計算機應用研究 2025年1期

摘 要:為了解決傳統算法中由旋轉和平移耦合優化引起的相互干擾以及量綱差異問題,提出了一種基于旋轉-平移解耦優化的稠密重建算法。該算法將相機位姿空間拆分成旋轉和平移兩個獨立子空間,并在子空間內獨立地搜索兩分量的優質解。在每次迭代中,該算法針對旋轉和平移的當前估計值設置搜索鄰域,并在搜索鄰域內采樣候選解,通過評估選出最優解以更新估計值。迭代該過程,直到滿足結束條件。實驗結果顯示,該算法有效地減少了旋轉與平移優化過程中的相互干擾,從而提高了優化的效率和精度。這證明了在稠密重建中相機位姿估計環節,該算法設計具有一定優勢。

關鍵詞:在線稠密重建;解耦優化;相機位姿估計;隱式曲面配準

中圖分類號:TP319"" 文獻標志碼:A

文章編號:1001-3695(2025)01-043-0307-07

doi: 10.19734/j.issn.1001-3695.2024.01.0111

Novel method for online dense reconstruction by rotation-translation decoupling optimization

Abstract:To address the optimization instability caused by the rotation-translation-coupling-optimization in traditional algorithms, this paper proposed a novel dense reconstruction algorithm based on rotation-translation decoupling optimization. The algorithm divided the camera pose space into independent rotation and translation subspaces and independently searches for the optimal solution within each subspace. During each iteration, the algorithm set search neighborhoods for the estimated values of rotation and translation, samples candidate solutions within these neighborhoods, and selected the optimal solutions through evaluation to update the estimates. Iterate this process until the termination condition was met. Experimental results verify that the algorithm effectively reduces interference between rotation and translation during the optimization process, thereby enhancing the efficiency and accuracy of the optimization. It demonstrates that the algorithm has certain advantages in the camera pose estimation stage of dense reconstruction.

Key words:online dense reconstruction; decoupling optimization; camera pose estimation; implicit surface registration

0 引言

RGB-D稠密重建是計算機視覺、計算機圖形學以及機器人學等多個學科領域的關鍵研究課題。該技術在增強現實、虛擬現實、機器人導航與交云,以及三維地圖生成等眾多應用領域發揮著重要作用[1~3]。隨著RGB-D稠密重建技術的不斷進步,它在推動這些領域的技術創新和實際應用中扮演了關鍵角色。

RGB-D稠密籌建的基本原理是使用搭載彩色相機以及深度傳感器的設備對真實場景進行掃描,捕獲連續的場景數據(包含彩色圖像與深度圖像),以此來重建出所掃描場景的三維模型。三維模型或基于點形式[4~6],或基于體素形式[7~11]。RGB-D稠密重建大致分為數據采集、數據預處理、相機位姿估計和場景重建四個步驟[1]。其中,相機位姿估計的精確性對整個重建過程的質量起著決定性作用。

傳統相機位姿估計算法往往采用迭代優化的策略進行相機位姿估計,其核心思想是:當有新捕獲幀時,在給定其初始位姿后(通常為上一幀的位姿),通過最大化相鄰幀之間的幾何、顏色等信息一致性的方式,迭代調整相機位姿,從而逐漸對齊新捕獲幀與上一幀的重疊部分。

采用迭代優化策略的相機位姿估計算法可分為基于迭代最近點法(iterative closest point, ICP)[12]的算法和基于隨機優化的算法[9]兩大類。其中,基于ICP的算法通常采用高斯-牛頓法(Gauss-Newton)[13]進行求解。該方法將非線性系統線性化,并通過迭代優化來求解位姿。而基于隨機優化的算法則采用在解空間搜索優質解的方式找尋最優位姿。

相機位姿包括旋轉與平移兩個分量。基于迭代優化的相機位姿估計算法(基于ICP以及基于隨機優化的算法)通常將旋轉與平移作為一個耦合的整體進行優化。然而,由于旋轉和平移在三維空間中的相互獨立性和量綱差異性,將旋轉與平移作為聯合的整體進行優化會帶來以下挑戰:

a)優化干擾。系統誤差會在兩個分量間傳播,使得兩個分量的優化會相互干擾。例如如下情況:當某幀間相機運動僅存在旋轉或者平移時。理論上,僅需優化發生變化的分量(旋轉或平移)即可。但是傳統算法會將對系統誤差的優化共同作用在兩分量上,導致由發生運動的分量造成的系統誤差傳播到另一分量上,旋轉與平移將會同時得到優化,最終系統將陷入局部最優中。

b)量綱差異。由于旋轉與平移具有物理量綱差異,旋轉與平移對系統誤差的影響的敏感程度不同。這種尺度上的不匹配導致優化過程難以同時考慮它們的影響。

針對上述挑戰,本文提出了一種創新的旋轉-平移解耦合優化算法。該方法的核心思想在于將位姿空間劃分為旋轉與平移兩個獨立的子空間,并允許對兩個分量(旋轉與平移)分別進行優化搜索。通過這種解耦合優化策略,算法能夠相對獨立地對兩個分量進行優化,從而有效地避免了旋轉與平移在優化過程中的相互干擾。本文算法對位姿的兩分量(旋轉與平移)的迭代優化過程進行了細致的設計。具體而言,在每輪迭代中,本文圍繞旋轉和平移的當前估計值設置了一定大小的搜索鄰域。在各搜索鄰域內,采樣出一定數量的旋轉與平移候選解。通過對候選解的評估,篩選出各分量的優質解。選定的優質解將用于更新旋轉與平移的估計值。迭代該過程,直到旋轉與平移的估計值足夠好。為了有效控制各分量搜索鄰域的范圍,并實現搜索效率與精確度的最佳平衡,本文設計了一種從粗糙到精細的分級搜索策略,以動態調整搜索鄰域的大小。這種策略的實施,使得整體搜索過程兼顧了搜索的范圍與精度,確保了優化過程的效率。

對于旋轉與平移候選解的評估,本文受到文獻[14~16]利用隱式曲面進行配準的啟發,設計了一種曲面對齊的評估機制,該機制基于隱式曲面的對齊。本文算法采用體素化的截斷符號距離函數(truncated signed distance function,TSDF)[17]來隱式表示場景表面。本文將新捕獲幀表面與全局表面之間的對齊程度作為優化目標,同時也作為評價候選解質量的標準。這種以對齊程度為核心的評估策略不僅提高了位姿估計的精度,而且為算法的魯棒性提供了堅實的基礎。

綜上所述,本文的主要貢獻可以概述為以下幾點:

a)提出了一個創新的位姿估計算法,該算法通過將位姿中旋轉和平移分量解耦合優化,有效克服了旋轉與平移在優化過程中相互干擾的問題。

b)設計了一種從粗糙到精細的分級位姿解搜索策略,該策略巧妙地平衡了搜索的效率與精度。

c)引入了一種隱式曲面配準方法,該方法基于隱式曲面的對齊來精確估計相機位姿。

1 相關工作

KinectFusion[7,8]作為基于RGB-D相機的稠密重建領域的開創性工作, 奠定了該領域的基本框架。在該框架下,相機位姿估計是至關重要的一步,它直接關系到重建結果的質量。傳統的位姿估計算法大致可以劃分為基于迭代優化的算法[7~9,14, 18,19]和基于圖像特征匹配的算法[20~23]兩類。其中,迭代優化是最常見的位姿估計策略。在這兩種方法中,基于迭代優化的位姿估計策略更為常見。采用基于迭代優化的位姿估計的算法可以分為兩類:

a)基于ICP的算法。ICP算法由文獻[12]提出,并被KinectFusion[7~8]成功地引入到稠密重建技術中。該算法的核心目標是在兩組點云間尋找最佳剛體變換,使得一組點云在變換后能夠盡可能地與另一組點云對齊。它通過最小化對應點對之間的幾何差異(通常采用歐氏距離作為度量)來實現這一目標。為了提高算法的穩健性,文獻[14, 18,19]還引入了光度差異以及其他形式的差異度量。此外,ICP算法的多種變體[24~28]也被廣泛采納,以便利用它們在不同應用場景中的特有優勢。

b)基于隨機優化的算法。為了解決較大旋轉帶來的高度非線性問題,ROSEFusion[9]首次將隨機優化算法引入到稠密重建中。其基本原理為:預采樣大量的六維位姿解(前三維表示平移,后三位表示旋轉),預采樣解被稱為群智模板(particle swarm template,PST)。并通過平移和縮放操作,來調整這些PST在六維位姿解空間中的分布,使其快速覆蓋搜索空間,以定位一個足夠好的位姿解。

2 算法與實現

2.1 算法概述

本文提出了一種改進的基于隨機優化的相機位姿估計算法,通過將位姿的旋轉和平移解耦優化,來提升迭代優化的穩定性。本文稱為RTDOFusion(rotation-translation decoupling optimization),其基本思想是:將相機位姿空間解耦成旋轉空間與平移空間,在各自的空間下搜索優質旋轉解與優質平移解,以此來達到旋轉與平移解耦優化的效果。

具體來說,對于新來幀F={C,D}(其中C表示彩色圖像,D表示深度圖像)的位姿s=[R,t]的迭代優化,本文算法在每一次迭代中,對旋轉和平移的當前估計值附近一定范圍的搜索鄰域內進行采樣,產生一系列旋轉與平移的候選解,記為{Ri}與{ti}。通過評估這些候選解,挑選出評估最好的旋轉解R*與平移解t*,用以更新s:

s←[R*,t*](1)

迭代該過程,直到達到預設的迭代結束條件。通過該方法,旋轉和平移的優化耦合度極大程度降低,減少了旋轉誤差與平移誤差間對彼此優化的相互干擾。

為了能夠對候選解進行有效評估并且保證旋轉與平移的優化目標一致,本文算法提出了一種旋轉-平移聯合評估策略:

a)候選解組合。將所有采樣的旋轉和平移候選解組合,生成一組完整的相機位姿解集合。

b)位姿解評估。設計誤差函數E,對每一個組合形成的位姿解進行評估。

c)候選解評估。對于每一個旋轉或平移的候選解,都會對應多個位姿解,因此也會對應多個評估值。為候選解選擇其中的最優值作為其最終評估值。

通過該聯合評估策略,每個旋轉和平移的候選解都以最佳潛在匹配的性能被評估,極大程度地減少了旋轉誤差與平移誤差的相互干擾,這將提升了整體優化的精度和效率。

為了能對相機位姿解精準評估,本文算法設計了一種基于截斷符號距離的曲面對齊程度評估方法。該方法核心在于通過分析給定相機位姿下,當前幀表面與全局表面的對齊程度來評估該位姿的質量。具體地,從場景中挑選出關鍵點集,計算這些點到當前幀的表面的截斷符號距離與到全局表面的截斷符號距離差值。此差值可用于評估相機位姿的適用性和精確度。

為了實現在各分量搜索空間下優質解的迅速與精確定位,本文算法設計了一種從粗糙到精細的分級搜索策略。在每次迭代中,圍繞旋轉和平移的當前估計值,本文算法在其鄰近的搜索范圍內,通過采樣的方式搜索優質解。在有限的采樣條件下,寬闊的搜索范圍幫助快速覆蓋廣泛的解空間,提高找到優質解的概率;而窄小的搜索范圍幫助更精確地定位優質解。本文算法在不同的迭代中動態調整搜索區域的大小。這種分級搜索策略有效地權衡了搜索的效率與精度。

2.2 基于隱式曲面對齊程度的位姿評估

本文算法旨在通過對齊全局模型M與新捕獲的幀F={C,D}的表面,以確認F的最佳位姿。算法采用體素化的截斷有符號距離函數(truncated signed distance function,TSDF)隱式表示全局模型表面,每個體素都存儲了體素中心到全局表面的截斷符號距離TM。通過對比一系列體素中心點{pi}到全局模型表面的截斷符號距離TM(pi)與到幀F表面的截斷符號距離TF(pi)之間的差異,來量化兩個表面之間的對齊質量,其能量函數E表示為

因此,本文算法可以通過最小化E來確認F的最優位姿s*:

由于TSDF僅關注表面附近的點,{pi}的選擇啟發于ROSEFusion[9],算法選取了F在位姿s下表面附近的體素中心點。同KinectFusion[7,8]相同,算法首先通過深度圖像D的逆投影過程生成F的頂點圖像V。算法選取V中所有頂點vi所在體素的體素中心,這一過程記為Φ:

{pi}={Φ(Rvi+t)}(5)

其中:K為相機內參,通過投影π獲得pi在深度圖像D的投影坐標u;λ-1將點pi轉換成相對于深度圖像D的深度;而Ψ(·)為TSDF操作。

2.3 旋轉-平移解耦優化

a)旋轉候選解采樣。為了便于在幀F的旋轉估計值R鄰域進行采樣,本文算法使用單位四元數采樣旋轉,因此旋轉候選解的采樣在三維單位球體內進行。ROSEFusion提供了大量六維單位球體內均勻采樣的六維位姿解(其中三維表示平移,三維表示旋轉),稱為群智模板(particle swarm template,PST)。本文直接從PST中抽取位姿解,并提取出旋轉部分,以構建本算法的旋轉候選解集合。

圖2(a)展示了64個單位四元數的采樣結果,記為{qi∣i=1,2,…,64}。將其轉換成相應的旋轉矩陣,記為{ΔRi∣i=1,2,…,64}。那么,旋轉候選解集合可表示為

{Ri∣i=1,2,…,64}={ΔRiR∣i=1,2,…,64}(11)

b)平移候選解采樣。本文算法在歐氏空間中沿三個軸向,采用等間隔的固定步長,對候選平移解進行采樣。默認參數下采樣最大步數為1,因此可生成3×3×3=27個平移候選解。記為:{ti∣i=1,2,…,27},采樣示意如圖2(b)所示,紅色點為幀F的平移當前估計值t(見電子版)。

c)候選解組合與評估。在候選解采樣完成后,本算法將所有的旋轉候選解與平移候選解組成,生成一系列的相機位姿。64個候選旋轉解與27個平移候選解組合示意圖如圖3所示。利用式(3)對每個組合生成的相機位姿進行評估。

d)候選解評估。對于每個旋轉候選解Rm,由其組成的相機位姿有27個,記為

因此,對于每個旋轉候選解Rm,將會得到27個相應的評估值。本算法從中選擇最優的評估值來代表Rm的最終評估結果:

相同地,對于每個平移候選解tn,其評估值為

e)位姿更新。從所有候選解中選出評估值最優的旋轉解R*與平移t*,并按照式(1)更新幀F的位姿估計值s。

2.4 粗糙到精細的分級搜索策略

2.3節介紹了本文算法分別在旋轉搜索空間(三維單位球體)與平移搜索空間(歐氏空間)下采樣生成候選解。在受限的采樣條件下,一個廣闊的搜索區域(采樣區域)可以迅速掃描廣闊的解空間,從而增加發現優質解的幾率。相反,一個狹窄的搜索區域(采樣區域)則有助于對潛在的優質解進行更精細和集中的定位。因此,廣域搜索策略優化了搜索的廣度和效率,而狹域搜索則優化了解的精確度和質量。如圖4所示,本文算法設計了一種從粗糙到精細的分級搜索策略,動態調整搜索區域(采樣區域)的尺寸,旨在權衡搜索的速度與精確度。

對于旋轉搜索空間,本文算法設計了三個不同半徑的球體采樣層級。2.3節介紹了本算法直接抽取ROSEFusion[9]提供的PST中的三維旋轉部分。該三維旋轉數據表示單位四元數的三個實部,對應三維單位球體內一點。因此,提取的旋轉數據相當于單位球體內一系列點的集合。算法根據不同層級的旋轉采樣球體半徑對這些點進行線性縮放,以動態調節旋轉搜索空間中的搜索范圍。默認參數下,三級球體半徑分別為:0.007、0.005、0.002。而對于平移采樣空間,本文算法在歐氏空間下,沿著三個軸向,采用等間隔的固定步長采樣平移候選解。本文算法通過調整該步長來實現平移搜索范圍的動態調整。默認參數下,三級采樣步長分別為:0.01 m、0.005 m、0.002 m。

本文提供了一個幀間位姿優化整體過程的示意圖。如圖5所示,圖例展示不同次迭代中各搜索空間的搜索區域(采樣區域),3個搜索層級將在迭代過程中輪流使用。在每次迭代中,算法按照2.4節進行候選解的采樣,并且按照2.2與2.3節對候選解進行評估。從中選出最優旋轉解與最優平移解,并更新當前幀的位姿。迭代該過程直到迭代條件結束,默認參數下,該過程將迭代20次。

2.5 算法實現

本文采用C++、CUDA以及OpenGL技術成功地實現了本文算法。本文系統將全局模型的體素數據與新捕獲幀數據(深度圖像數據與色彩圖像數據)保存在GPU上。對于融合后場景的渲染,系統通過OpenGL實現。完整算法實現與數據傳輸可以分為以下步驟:a) 當有新捕獲幀時,系統將其位姿初始化為上一幀的相機位姿,并將新捕獲幀的數據(深度圖像數據與色彩圖像數據)寫入GPU,并在GPU上利用深度圖像數據與相機內參生成當前幀的頂點圖;b) 在CPU上完成旋轉候選解與平移候選解的計算,并寫入GPU;c) 根據當前幀頂點圖數據、全局模型的體素數據以及寫入的候選解數據,在GPU上實現對候選解組成的相機位姿的評估的并行運算;d) 將對由候選解組合生成的相機位姿的評估值寫回CPU,在CPU上為每個候選解挑選出最優的評估值;e) 篩選出當前迭代中最優的候選解更新到當前幀的位姿估計值;f) 迭代步驟b)~e),共20次;g) 將迭代優化后的相機位姿寫入GPU,并根據當前幀的深度圖像數據與色彩圖像數據融合到全局模型的體素數據中。

完整算法在一臺搭載AMD Ryzen 7 4800H處理器與NVIDIA GeForce GTX 1650 Ti顯卡的筆記本電腦完成。

3 實驗與分析

3.1 迭代優化性能評估與分析

本文提出了一種旋轉-平移解耦優化策略,旨在減少旋轉和平移優化過程中的相互干擾。該干擾往往發生在如下情況:若幀間運動僅發生旋轉或者平移一者時,算法針對系統誤差的優化將共同作用于兩者,從而導致由其中一者造成的系統誤差將由兩者共同承擔。以幀間運動僅發生旋轉為例。當新捕獲幀相對于上一幀的幀間運動僅發生旋轉時,在這種情況下,最理想的優化策略應當只針對新捕獲幀的旋轉部分進行調整。然而,傳統迭代優化算法將旋轉和平移視為一個整體,即便沒有優化平移部分的必要,優化過程還是會對平移部分產生影響。這種方法往往使得系統陷入局部最優。本文提出的旋轉-平移解耦優化策略通過在獨立的空間下分別對旋轉和平移進行優化,極大程度地減少了兩者在優化過程中的誤差傳播與相互干擾。

為了驗證本文解耦優化策略優化過程中旋轉和平移的相互干擾最小,本文設計了一個消融實驗,專注于旋轉優化對平移部分的影響。通常,新捕獲幀的位姿將被初始化為上一幀的位姿。然而,在本實驗中,新捕獲幀初始位姿的平移部分被精準地設置為真實值,而旋轉部分則初始化為上一幀的值。這意味著只需要優化新傳入幀的旋轉部分。通過計算平移與其真實值之間的偏差隨著迭代的變化,定量評估了旋轉對平移的干擾,以此驗證本文策略的有效性。

本實驗對比了KinectFusion[7~8]的迭代最近點法(iterative closest point, ICP)、ROSEFusion[9]的PST以及本文的解耦優化算法三種迭代優化算法。在FastCaMo-Synth[9]的10個RGB-D序列上進行實驗,并取了結果的平均值進行分析,實驗結果如圖6所示。鑒于新捕獲幀位姿的平移部分默認初始化為真實值,三種算法在初始時刻的平移誤差均為0 cm。然而隨著迭代次數的遞增,ICP與PST算法所優化的平移誤差均出現了顯著上升,其中PST的平移誤差在初始快速增長后,增速逐漸放緩,這表明PST在優化過程中陷入了局部最優。相比之下,本文的解耦優化算法的平移誤差即便在迭代過程中也保持了極小的波動,平移誤差先上升后下降,這說明平移分量受到了旋轉誤差的影響,但隨著迭代次數增加,該影響得以“校正”。

值得一提的是,本文算法與ROSEFusion均采用了基于解空間搜索的優化策略。然而,ROSEFusion直接在六維位姿解空間搜索,其采樣的解存在旋轉與平移一一對應的潛在關系。而本文的搜索策略獨立對旋轉與平移進行采樣,并將每一個候選旋轉解與每一個候選平移解組合。得益于本文聯合評估方法,能夠隱式地為每一個候選旋轉解與候選平移解選擇出最優的組合。這意味著,即使某個優秀的旋轉解由于與不佳的平移解組合而處于劣勢,它也不會被忽視,對于平移亦然。這種方法有效避免了優化過程中旋轉和平移之間的相互干擾。

由于本文的解耦優化策略有效避免了優化過程中旋轉和平移之間的誤差傳播和相互干擾,相較于ROSEFusion,顯著提高了搜索效率。對于新來幀的位姿優化,ROSEFusion在默認參數設定下將探索多達100 352個可能的位姿解。相比之下,本文算法只需探索34 560個由候選解組合而成的位姿解,這僅占ROSEFusion搜索量的34%。為了進行公正比較,本文在FastCaMo-Synth數據集的10個RGB-D序列上,對本文算法和ROSEFusion中PST的搜索效率進行了對比,特別關注每次搜索后追蹤誤差的平均降低量。如圖7所示,在大多數測試序列中,本文算法的搜索效率超過了ROSEFusion中的PST。該結果得益于本文算法將旋轉與平移的優化解耦在各自的空間下,極大程度地避免了旋轉優化與平移優化間的相互干擾。

為了深入展現本文算法的迭代優化效果,對相機位姿的迭代優化過程進行了可視化處理。從FastCaMo-Synth的apartment_2場景中選取了具有代表性的一幀,將該幀的位姿優化過程可視化成圖8。在圖像的左側,展示了位姿優化前后的效果對比,而在圖像的右側,分別展示了第5、10、15次迭代過程中的解耦優化效果。在每個迭代中,使用兩個熱力圖分別表示旋轉與平移候選解的評估結果。通過圖中的紅色軌跡線,可以清晰地觀察到從初始位置到達優質解的路徑。三個不同的迭代階段揭示了三種不同的優化模式:在第5次迭代中,看到旋轉部分保持不變,而平移部分得到了優化;到了第10次迭代,旋轉和平移部分均發生了調整;而在第15次迭代時,兩者均保持不變。值得指出的是,第5次迭代的結果突出了一個關鍵點:即使在進行平移優化時,旋轉部分仍保持了穩定性,這正是解耦優化的意義所在。

3.2 相機追蹤性能評估與對比

本文使用絕對軌跡誤差(absolute trajectory error, ATE)作為評價標準來定量評估相機追蹤的準確性。在FastCaMo-Synth[9]和ICL-NUIM[29]兩組數據集,共14個RGB-D序列上對本文算法進行了測試,并與ElasticFusion[18~19]、HRBFFusion[14]、ORB_SLAM2[22]、BundleFusion[20]以及ROSEFusion等先進算法進行了比較。這些算法根據其位姿估計策略,可分為三類:ElasticFusion和HRBFFusion算法都基于迭代最近點法(iterative closest point, ICP)機制;ORB_SLAM2和BundleFusion則代表基于特征匹配的方法;而本文算法與ROSEFusion則屬于基于隨機優化的新型算法。這些分類反映了各算法在位姿估計上的不同核心技術和策略。

FastCaMo基準數據集是一組富有挑戰性的RGB-D序列,特別地,它對快速相機運動下的稠密重建提出了考驗。FastCaMo-Synth部分是基于Replica數據集[30]的10個室內場景衍生出的合成數據集,其中相機的線速度介于1~4 m/s,角速度介于0.9~2.2 rad/s,這相比于ROSEFusion中分析的其他數據集展示了較快的運動速度。在FastCaMo-Synth上進行的測試中,本文算法展現了卓越的追蹤性能,結果如表1所示,最優追蹤結果被標記為黑體,追蹤失敗則標記為“—”。即便是在幾何特征較為缺乏的場景如office_2、office_3、room_1中,與ROSEFusion[9]相比,本文算法仍然實現了顯著的準確性提升。除了在實驗中證明了本文算法能高效地搜索到優質解之外,得益于采用的基于隱式曲面對齊的評估方法,本文算法能夠更加精確和有效地評估相機位姿,從而更準確地定位到優質解。另外,在room_1這一序列下,盡管BundleFusion[20]提供了更精確的追蹤結果,但它只能追蹤到部分幀,而本文算法能夠連貫地追蹤整個序列的所有幀。實驗結果證明了本文算法在快速相機運動下稠密重建任務的卓越表現。

此外,對ICL-NUIM數據集的四個序列進行了進一步的測試,具體結果如表2所示。表中最優結果以黑體標注,次優結果則以下畫線標記。實驗結果顯示,在慢速相機運動的條件下,本文算法同樣能夠提供一個相當的追蹤性能。ElasticFusion、HRBFFusion、ORB_SLAM2、 BundleFusion這四種算法在位姿估計時都同時使用了深度數據以及彩色數據,且算法包括了后端優化過程,本文算法與ROSEFusion在位姿估計時僅使用深度數據,且無后端優化以及回環檢測過程,因此本文算法在慢速相機運動數據集下僅能提供一個次優的結果。這一實驗成果不僅展示了本文算法在處理不同速度相機運動時的適應性,而且特別強調了算法在穩定性和魯棒性方面的顯著優勢。盡管在相機追蹤過程中,本文算法僅依賴于RGB-D數據中的深度信息,卻依然實現了高精度的追蹤結果。這一點表明,即使在缺乏光度信息(顏色信息)的條件下,本文算法依舊能夠憑借深度數據進行有效的相機定位。另外,值得一提的是,本文算法并沒有采用任何后端優化和回環檢測機制。

3.3 重建效果

本文展示了一系列視覺對比,以凸顯本文重建結果在完整性和質量方面的表現。首先,本文通過對比本研究所提出的算法、ROSEFusion和BundleFusion三種算法的重建成果,來展現在FastCaMo-Real這一真實數據集的重建完整性上的優勢,結果如圖9所示。FastCaMo-Real由12個采用Azure Kinect DK捕獲的真實RGB-D序列組成,這些序列的平均線速度達到1.03 m/s,平均角速度為0.93 rad/s。由于像素相機運動導致了彩色圖像的運動模糊,所以BundleFusion無法精準匹配彩色圖像上的特征點對,僅能追蹤到有限的幀數。然而,本文算法與ROSEFusion僅利用深度數據便成功追蹤到所有幀的相機運動,這兩者在重建的完整性上展現了幾乎一致的出色表現。

隨后,本文從一些代表性的重建細節中來比較本文算法與ROSEFusion的重建質量,具體成果如圖10展示。其中apartment_2和workshop_1場景,本文重點比較了重建后地面的平整度。這兩個序列的測試結果表明了本文算法展示了更高的重建一致性:在數據融合過程中,新加入幀的深度數據與全局模型的貼合程度更好。相對而言,ROSEFusion的重建結果在地面上出現了不平的凸起或凹陷現象。在軌跡回環閉合方面,本文算法顯著優于ROSEFusion。另外,在apartment_1、gym和lab序列中,ROSEFusion在一些幀上配準失敗,導致重建結果高度失真。特別是在gym的兩個房間的連接處,ROSEFusion的相機跟蹤錯誤。這些場景的綜合重建結果清楚地表明,本文算法在相機跟蹤的精確度和魯棒性方面都優于對比算法,因此能夠生成更高質量的重建成果。

在lounge_1、lounge_2、stairwell、studio以及office這些序列中,由于場景結構和相機運動軌跡的簡單性,本文算法與ROSEFusion均呈現出了優秀的重建效果。相反,在meeting_room和workshop_2場景中,復雜的結構布局和動態的相機軌跡,再加上掃描過程中聚焦于幾何結構不足的表面,導致了本文算法和ROSEFusion在這幀上的跟蹤失敗。

此外,本文算法在FastCaMo-Synth和ICL-NUIM等多個數據集上進行了測試,均展現出了令人滿意的重建效果。

3.4 算法實時性評估

該實驗計算了算法在FastCaMo-Synth的10個序列上的平均每幀運行時間,包括了當前幀的初始化(initialization),配準(registration)以及融合(integration)的運行時間,結果如圖11所示。在10個序列上,本文算法均能夠逼近30 frame/s,并且實驗僅在一臺搭載NVIDIA GeForce GTX 1650 Ti的筆記本電腦上完成。

4 結束語

本文提出了一種基于旋轉-平移解耦合優化的稠密重建算法。具體而言,本文算法通過將位姿空間拆分成旋轉和平移兩個獨立的子空間,并在每個子空間內獨立地搜索優質旋轉解與優質平移解。與傳統算法相比,本文算法顯著降低了系統誤差在旋轉和平移分量之間的相互傳播,有效地阻斷了優化過程中兩者可能產生的相互干擾。然而,本文算法也存在一些不足。本文算法高度依賴于深度信息,這限制了其在缺乏明顯幾何特征的場景下的表現。此外,由于本文優化目標是將當前幀的表面與全局表面對齊,而表面表達基于TSDF。因此,體素的分辨率將直接影響表面的幾何細節呈現,進而影響位姿估計的準確性。

參考文獻:

[1]Li Jianwei, Gao Wei, Wu Yihong,et al. High-quality indoor scene 3D reconstruction with RGB-D cameras: a brief review[J]. Computational Visual Media, 2022, 8(3): 369-393.

[2]Khoyani A, Amini M. A survey on visual slam algorithms compatible for 3D space reconstruction and navigation[C]// Proc of IEEE International Conference on Consumer Electronics. Piscataway, NJ: IEEE Press, 2023: 1-6.

[3]孫曉明, 任磊. RGB-D相機的三維重建綜述[J]. 軟件導刊, 2021, 20(5): 249-252. (Sun Xiaoming, Ren Lei. Overview of 3D reconstruction based on RGB-D camera[J]. Software Guide, 2021, 20(5): 249-252.)

[4]Henry P, Krainin M, Herbst E,et al. RGB-D mapping: using depth cameras for dense 3D modeling of indoor environments[M]// Khatib O, Kumar V, Sukhatme G. Experimental Robotics. Berlin: Springer, 2014: 477-491.

[5]Keller M, Lefloch D, Lambers M, et al.Real-time 3D reconstruction in dynamic scenes using point-based fusion[C]// Proc of International Conference on 3D Vision-3DV. Piscataway, NJ: IEEE Press, 2013: 1-8.

[6]Klein G, Murray D. Parallel tracking and mapping for small AR workspaces[C]// Proc of the 6th IEEE and ACM International Symposium on Mixed and Augmented Reality. Piscataway, NJ: IEEE Press, 2007: 225-234.

[7]Izadi S, Kim D, Hilliges O,et al. KinectFusion: real-time 3D reconstruction and interaction using a moving depth camera[C]// Proc of the 24th Annual ACM Symposium on User Interface Software and Technology. New York: ACM Press, 2011: 559-568.

[8]Newcombe R A, Izadi S,Hilliges O, et al. KinectFusion: real-time dense surface mapping and tracking[C]// Proc of the 10th IEEE International Symposium on Mixed and Augmented Reality. Piscataway, NJ: IEEE Press, 2011: 127-136.

[9]Zhang Jiazhao, Zhu Chenyang, Zheng Lintao,et al. ROSEFusion: random optimization for online dense reconstruction under fast camera motion[J]. ACM Trans on Graphics, 2021, 40(4): 1-17.

[10]Khler O, Prisacariu V A, Ren C Y,et al. Very high frame rate volumetric integration of depth images on mobile devices[J]. IEEE Trans on Visualization and Computer Graphics, 2015, 21(11): 1241-1250.

[11]Niener M, Zollhfer M, Izadi S,et al. Real-time 3D reconstruction at scale using voxel hashing[J]. ACM Trans on Graphics, 2013, 32(6): 1-11.

[12]Besl P J,Mckay N D. A method for registration of 3-D shapes[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 1992, 14(2): 239-256.

[13]Bjrck . Numerical methods for least squares problems[M]. [S.l.]: Society for Industrial and Applied Mathematics, 1996.

[14]Xu Yabin, Nan Liangliang, Zhou Laishui, et al. HRBF-Fusion: accurate 3D reconstruction from RGB-D data using on-the-fly implicits[J]. ACM Trans on Graphics, 2022, 41(3): 1-19.

[15]Liu Shengjun, Wang C C L, Brunnett G,et al. A closed-form formulation of HRBF-based surface reconstruction by approximate solution[J]. Computer-Aided Design, 2016, 78: 147-157.

[16]Lin Jianjie, Rickert M, Knoll A. 6D pose estimation for flexible production with small lot sizes based on CAD models using Gaussian process implicit surfaces[C]// Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway, NJ: IEEE Press, 2020: 10572-10579.

[17]Curless B, Levoy M. A volumetric me-thod for building complex mo-dels from range images[C]// Proc of the 23rd Annual Conference on Computer Graphics and Interactive Techniques. New York: ACM Press, 1996: 303-312.

[18]Whelan T,Leutenegger S, Salas-Moreno R, et al. ElasticFusion: dense SLAM without a pose graph [EB/OL]. (2015-12-31). https://dx.doi.org/10.15607/RSS.2015.XI.001.

[19]Whelan T, Salas-Moreno R F, Glocker B,et al. ElasticFusion: real-time dense SLAM and light source estimation[J]. The International Journal of Robotics Research, 2016, 35(14): 1697-1716.

[20]Dai A, Niener M, Zollhfer M,et al. BundleFusion: real-time glo-bally consistent 3D reconstruction using on-the-fly surface reintegration[J]. ACM Trans on Graphics, 2017, 36(4): article No. 76a.

[21]Mur-Artal R, Montiel J MM, Tardos J D. ORB-SLAM: a versatile and accurate monocular SLAM system[J]. IEEE Trans on Robo-tics, 2015, 31(5): 1147-1163.

[22]Mur-Artal R,Tardós J D. ORB-SLAM2: an open-source slam system for monocular, stereo, and RGB-D cameras[J]. IEEE Trans on Robotics, 2017, 33(5): 1255-1262.

[23]Campos C, Elvira R, Rodríguez J J G,et al. ORB-SLAM3: an accurate open-source library for visual, visual-inertial, and multimap SLAM[J]. IEEE Trans on Robotics, 2021, 37(6): 1874-1890.

[24]Johnson A E, Kang S B. Registration and integration of textured 3D data[J]. Image and Vision Computing, 1999, 17(2): 135-147.

[25]Haehnel D, Thrun S, Burgard W. An extension of the ICP algorithm for modeling nonrigid objects with mobile robots[C]//Proc of the 18th International Joint Conference on Artificial Intelligence. San Francisco, CA: Morgan Kaufmann Publishers, 2003: 915-920.

[26]Serafin J,Grisetti G. NICP: dense normal based point cloud registration[C]// Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway, NJ: IEEE Press, 2015: 742-749.

[27]Wang Yue, Solomon J. Deep closest point: learning representations for point cloud registration[C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2019: 3522-3531.

[28]Wang Yue, Solomon J M. PRNet: self-supervised learning for partial-to-partial registration[C]// Proc of the 33rd International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2019: 8814-8826.

[29]Handa A, Whelan T,Mcdonald J, et al. A benchmark for RGB-D visual odometry, 3D reconstruction and SLAM [C]// Proc of IEEE International Conference on Robotics and Automation. Piscataway, NJ: IEEE Press, 2014: 1524-1531.

[30]Straub J, Whelan T, Ma Lingni, et al.The replica dataset: a digital replica of indoor spaces [EB/OL]. (2019-06-13). https://arxiv.org/abs/1906.05797.

主站蜘蛛池模板: 久久99久久无码毛片一区二区| 国产欧美视频在线| 性网站在线观看| 国产区91| 日韩精品高清自在线| 波多野结衣久久精品| 亚洲an第二区国产精品| 四虎AV麻豆| A级全黄试看30分钟小视频| 国产精品午夜福利麻豆| 毛片视频网址| 国产成人1024精品下载| 18禁色诱爆乳网站| 熟妇人妻无乱码中文字幕真矢织江| 亚洲精品视频免费| 国产精品视频第一专区| 国产精品分类视频分类一区| 亚洲熟女中文字幕男人总站| 成人字幕网视频在线观看| 国产欧美又粗又猛又爽老| 99热这里只有精品国产99| 综合亚洲色图| 久久永久免费人妻精品| 国产自无码视频在线观看| 亚洲一级毛片在线观播放| 成人午夜视频网站| 国产综合无码一区二区色蜜蜜| 国产亚洲欧美在线人成aaaa| 国产精品自在线天天看片| 精品自窥自偷在线看| 国产在线91在线电影| 国产一区二区三区精品欧美日韩| 欧美综合区自拍亚洲综合绿色| 男人天堂亚洲天堂| 色精品视频| 亚洲VA中文字幕| 欧美成人精品高清在线下载| 国产网站免费| 国产精品99久久久久久董美香| 国产成人高清精品免费5388| 香蕉eeww99国产在线观看| 一级毛片在线播放免费| 免费一级无码在线网站 | 久久性视频| 久久黄色影院| 精品国产成人av免费| 国产成人毛片| 97在线国产视频| 亚洲男人的天堂久久香蕉网| 日韩人妻少妇一区二区| 免费激情网站| 欧美国产菊爆免费观看 | 亚洲天堂网在线观看视频| 国产极品美女在线观看| 多人乱p欧美在线观看| 一级爆乳无码av| 午夜视频免费试看| 日韩毛片基地| 精品自窥自偷在线看| 国产第一页第二页| 亚洲欧洲日韩综合| 三级国产在线观看| 在线亚洲小视频| 日韩免费中文字幕| 亚洲第一av网站| 伊在人亚洲香蕉精品播放| 日本午夜三级| 国产亚洲欧美在线中文bt天堂 | 污网站免费在线观看| 日本高清免费不卡视频| 伊人激情综合网| 日韩毛片视频| 国产精品女在线观看| 亚洲国产成人久久精品软件| 在线观看免费黄色网址| 久久亚洲国产一区二区| 亚洲日本www| 高清视频一区| 日韩欧美91| 美女毛片在线| 性视频一区| 成人日韩精品|