999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于環境信息熵的點線視覺里程計自適應優化器設計

2022-01-01 00:00:00李博謙王強
計算機應用研究 2022年2期

摘 要:

針對即時定位與建圖技術中點線視覺里程計在環境紋理發生變化時運行效率低下的問題,設計一種基于環境信息熵的特征提取自適應優化器,以提高原有點線視覺里程計算法的效率及魯棒性。優化器以圖像信息熵作為主要影響因子,確定里程計的最優提取特征,生成包含特征提取選擇的策略信息地圖;對未探索區域的紋理環境進行預判性計算,與策略地圖快速匹配,得到該區域的最優特征提取策略。在TUM數據集環境下測試了具有優化器的點線視覺里程計(APL-VO)平均處理時間及建圖效果。實驗結果顯示,具有自適應優化器的點線視覺里程計與原有算法相比在復合環境中具有更強的魯棒性及建圖效率。

關鍵詞: "點線視覺里程計; 紋理環境; 信息熵; 策略地圖; 特征匹配策略

中圖分類號: "TP242.6 """文獻標志碼: A

文章編號: "1001-3695(2022)02-029-0001-00

doi:10.19734/j.issn.1001-3695.2021.07.0312

Design of pl-vo adaptive optimizer based on environmental information entropy

Li Boqian, Wang Qiang

(School of Logistics Engineering, Wuhan University of Technology, Wuhan 430070, China)

Abstract: "Aiming at the problem of inefficient operation of the point-line visual odometry(PL-VO) in the simultaneous location and mapping technology when the environmental texture changes,this paper designed feature extraction adaptive optimizer based on environmental information entropy to improve the efficiency and robustness of the original PL-VO algorithm.The optimizer used image information entropy as the main influencing factor to determine the optimal extraction features of the odometry,and generated a strategy map that included feature extraction options;performed predictive calculations on the area to be explored,quickly matched it with the strategy map,and got the best feature extraction strategy for the area.The average processing time and mapping effect of the PL-VO with an optimizer(APL-VO) were tested in the TUM data set environment.Experimental results show that compared with the original algorithm,APL-VO has stronger robustness and mapping efficiency in a composite environment.

Key words: "point-line visual odometry; texture environment; information entropy; strategy map; feature matching strategy

0 引言

即時定位與建圖(SLAM)的主要工作是確定機器人在空間中的位置并創建環境地圖,為路徑規劃提供所需信息。視覺傳感器具有價格低廉、可視化程度高等優點,基于視覺傳感器的視覺里程計(VO)可從環境中獲取大量的紋理信息進行特征提取、匹配等過程,使其具有出色的場景識別功能。因此,VO作為視覺SLAM的前端被廣泛地用于自動駕駛、無人機的自動導航[1]和增強現實。但更多的特征提取對VO的計算能力提出了更高的要求。如何平衡計算能力與特征提取數量的關系,是保證視覺SLAM實時性和準確性的關鍵問題。

針對這一問題,研究者們對不同方法的SLAM技術進行了相關研究,并提出了具有代表性的優化算法?;谔卣鞯囊曈X里程計主要通過提取點特征和線特征進行匹配來生成地圖[2]。點特征算法通過從大量的圖像信息中選取關鍵幀、篩選特征點來保證匹配速度與精度,并針對其易受光照變化影響以及在低紋理環境中(如潔白的墻面、走廊、湖面等)魯棒性較差的缺點進行優化。Yao等人[3]通過改進四叉樹方法優化了點特征的分布情況,降低特征點分布不均所帶來匹配失敗的風險。成怡等人[4]使用網格化圖像尺度金字塔,通過設置興趣區域的方法提取特征點,使點特征分布更為均勻而提高匹配精度,但均勻化點特征分布無法解決低紋理環境下特征不足的問題。Aerial Robotics Group提出的VINS-Mono[5],利用慣性傳感器IMU增加位姿約束關系提高系統的位姿估計與建圖精度。相較而言,線特征在人工環境中更豐富,對光照變化敏感性低,使得跟蹤過程更加穩定。線段檢測器(LSD)[6]和線段描述符(LBD)算法[7]的出現,解決了提取和描述線特征的難題。然而,在有足夠的觀測值的情況下,線特征比點特征造成的位置歧義度更大。因此,為了減少位置歧義度,線特征主要針對端點重合和線段分割等問題進行自適應優化。Man等人[8]提出了一種從LIDAR中提取二維距離圖像片段進行移動機器人定位和制圖的方法,解決了線段相互切割及重合的問題。但線特征更加耗時這一問題一直無法很好地解決。由于以上單一特征的視覺里程計總有其局限性,基于點或線特征的視覺里程計系統在低紋理場景中的建圖準確性和速度均未達到預期效果。

Lu等人[9]證明,與使用單一類型特征相比,同時使用點和線特征在低紋理環境中表現更加穩定。但是,長時間使用融合特征提取策略將增加計算負擔,降低整個系統的實時性。Lu 等人[10]提出的點特征與邊緣特征融合算法,通過固定場景下的實驗獲得環境判斷閾值,以固定頻率檢測環境中的紋理信息,從而根據紋理環境選擇不同的特征進行匹配。該算法對環境具有一定的自適應能力,但當機器人從高紋理運動至低紋理環境中,受制于以固定頻率檢測環境紋理信息,特征提取策略不會發生改變。因此,在某些復雜場景下固定閾值的自適應算法并不足以面對挑戰。有效地組合所需的特征屬性并在合適的環境中使用它們將提高里程計的建圖效率和魯棒性。

為了解決上述問題,本文將環境信息反饋的自適應優化器添加到VO框架中(圖1),以最大熵分割原理,實現全局分割閾值基于光照、紋理環境等因素變化的自適應獲取,從而提高復雜環境中算法的魯棒性?;诜指詈蟮募y理信息分布判斷所處紋理環境選擇最優的特征進行提取,并在生成地圖的同時記錄該特征選擇。在檢索到待探索區域與已生成地圖具有相似結構后計算二者的相似性,預判該區域的紋理環境;快速地得到最佳特征匹配策略及運行幀數。PL-VO(point-line visual odometry)通過自適應優化器對特征提取策略進行預判并實時調整,避免系統在低紋理環境中僅使用點特征造成匹配失敗的情況發生,減少不必要的特征提取及匹配過程,提高系統對環境變化的敏感性,增強系統的魯棒性。

1 環境信息熵的點線視覺里程計自適應優化器

自適應優化器利用采集的圖像信息熵[11]獲得動態分割閾值,確定當前光線、角度等條件下所處紋理環境,自適應地提取不同的特征,進行下一步的特征匹配過程。算法流程如圖2所示。

如圖2所示從左到右依次為為優化器的三個策略,分別為在低紋理環境中基于融合特征匹配建圖、高紋理環境中基于點特征匹配建圖以及當檢測到相似區域后,快速從決策選擇匹配的策略進行建圖。在初始化階段通過信息熵計算自適分割應閾值,判斷系統所處紋理環境,根據采集圖像背景區域柵格數 n 與總柵格數 N 的比值選擇最優的特征提取策略并建立記錄有特征提取決策的策略地圖,為環境預判提供匹配樣本。由于在初始化階段增加了圖像處理及閾值計算,為降低計算復雜度,提高系統實時性,設置初始化階段閾值 m ,當系統運行幀數大于 m 時進入環境預判階段,通過搜索相似區域,復制特征提取策略,結合搜索范圍,快速獲得在待探索區域的運行策略。

1.1 基于紋理環境的特征提取策略

1.1.1 紋理環境定義

為獲得自適應的圖像分割閾值實現紋理環境的自動判別,首先對圖像進行柵格化處理增加尺度信息,以圖像熵為主要影響因子,使用最大閾值分割法對圖像進行處理[12],獲取信息熵相對集中的目標區域及紋理信息較少的背景區域。

首先從灰度級數中任意選擇一個灰度級數 w 作為分割閾值,將灰度范圍 [0,L] 劃分為 [0,w] 和 [w+1,L] 。 S1 和 S2 分別是 [0,w] 和 [w+1,L] 所對應的灰度頻率分布。即: ""S1={p1,p2,p3,…,pt},S2={pt+1,pt+2,pt+3,…,pL} 其中 pi 是每個灰度級所對應的頻率。令 Pt=∑ t i=0 pi 則 S1 和 S2 所對應的熵值 E1 和 E2 是:

E1(w)=-∑ w i=0 "pi Pw "ln "pi Pw """(1)

E2(w)=-∑ L-1 i=w+1 "pi 1-Pw "ln "pi 1-Pw """(2)

E(w) = E1(w)+E2(w) ""(3)

當 E 達到最大值時,圖像劃分效果最好。根據上述推論,遍歷每個灰度級數 w ,并且計算動態閾值分割后兩區間的熵之和獲取其最大值所對應的分割閾值即最佳閾值 W:

W =arg max "E(w) ""(4)

以最佳閾值 W 為全局閾值,將圖像分割為目標區域與背景區域。將圖像柵格化,計算圖像分割后背景區域的百分比。有效特征的數量直接決定著基于點特征SLAM算法的魯棒性,因此基于點特征的數量對紋理環境進行判別是最常見的。但基于特征數量對紋理環境進行定義并不準確,不均勻的特征分布會造成部分區域特征密集而其余部分無法提取有效特征。根據前文計算出背景區域柵格的數量和背景柵格所占比例來衡量紋理環境更為高效準確。初始設定背景區域柵格的比率達到70%,判定系統所處環境為低紋理環境。如圖3(a)所示,為TUM數據集中fr1/room序列運動場景,該場景為經典的室內高紋理場景。如圖3(b)(c)為室內低紋理數據集fr3 /str_ntex。

從特征提取匹配的角度出發,建立圖像信息熵與紋理環境的關系。當空白柵格數 ngt;70% N 時,采集圖像無法提供足夠的點特征,需要增加約束提升系統的魯棒性,本文將此環境定義為低紋理環境;當空白柵格數 nlt;70% N "時,基于點特征的算法可正常運行,當 nlt;30% N 時環境紋理較為豐富,存在冗余特征為高紋理環境。

1.1.2 自適應特征提取

當系統所處環境為低紋理環境時,缺乏紋理結息會導致特征匹配失敗。在提取匹配過程中增加線特征作為約束,提升系統魯棒性。

輸入新的圖像幀時,基于圖像信息熵對所處環境進行判別,處于低紋理環境時提取點線特征。 點特征提取與匹配的方法比較成熟,在此不再敘述。以LSD算法對線特征進行提取,通過點、線特征融合計算重投影誤差得到相機的位姿。對于空間中的線特征,可以通過普呂克坐標系進行表示。假設直線 L 的兩個端點的齊次坐標分別為 X 1=[x 1,y 1,z 1,w 1] T和 X 2=[x 2,y 2,z 2,w 2] T,向量 n是過空間直線L 與坐標系原點所形成平面的法向量,向量 v 是空間直線的方向向量。普呂克矩陣可以通過普呂克坐標表示為

P L= "n∧ "v

-v T 0 """"(5)

定義空間中直線在相機坐標系和世界坐標系下的坐標分別為 P Lc=[ n T "v T]T和P Lw=[ n T "v T]T ,則它們之間的坐標變換關系可以由下式表示:

P Lc= "R cw [t cw] ×R cw

0 R cw "P Lw=T LcwP Lw ""(6)

定義空間直線 p Lc 通過相機投影模型,從3D相機坐標系映射到2D像素平面坐標系的直線 p Lc=[l 1,l 2,l 3]T ,這個過程可以通過式(3-5)進行描述。

p Lc= "f y 0 0

0 f x 0

-f yc x -f xc y f xf y ""n=K "L n ""(7)

K "L為線特征投影模型中的內參數矩陣,f x、f y、c x、c y為相機內參數,使用空間直線模型的正交表示(U, W ) U∈SO3,W∈SO2作為位姿優化的變量,可以通過對矩陣[ n|v ]進行QR分解得到。

QR( n|v )=U "w 1 0 0 w 2 0 0 "=[u 1 u 2 u 3] 3×3 "w 1 0 0 w 2 0 0 """"(8)

W = ""cos (θ) - sin (θ) "sin (θ) nbsp;cos (θ) "= "w 1 -w 2 w 2 w 1 """"(9)

以三維旋轉向量 Φ =[φ 1,φ 2,φ 3]及變量θ對矩陣 U和W 進行描述,即:

l=[φ 1,φ 2,φ 3,θ] ""(10)

當進入高紋理環境,即低紋理柵格比例 n lt; 30% N ,該區域對匹配過程的貢獻很小,可將其篩除后進行匹配提升系統的運行速度。

1.1.3 點線特征融合

(1)基于點特征的重投影誤差

定義 "3D空間中的某一地圖點 P w=[x,y,z]T ,該點在 t k 和 t k+1 時刻被相機觀測到,并通過投影模型映射到像素平面I1、上成為點 p 1=[u 1,v 1] 和 p 2=[u 2,v 2] ,則點 P w 在當前幀的投影關系可以通過式(11)進行描述。

p 2=K exp (ξ∧)P w ""(11)

其中: ξ為相機位姿的李代數表示;K 為相機投影模型的內參數矩陣。

定義在某一時刻下相機的位姿為 ξ k,所觀測的所有點特征集合為X k={p 1,p 2,…,p m} ,則當前幀的重投影誤差函數可以通過式(12)表示。

e pk=∑ m i=1 (p i-K exp (ξ∧ k)P wi) ""(12)

(2)基于點線特征融合的重投影誤差

公式將世界坐標系下的空間直線 L w 轉換為相機坐標系下的坐標 L c 。

L c= "R cw [t cw] ×R cw

0 R cw "L w=T LcwL w ""(13)

定義位于3D空間中的某直線 L c 在像素平面坐標系下的投影為 l "^ =[l "^ "1,l "^ "2,l "^ "3]T ,其投影關系如式(14)所示。

l "^ = "f y 0 0 0 f x 0 -f yc x -f xc y f xf y "n c=K Ln c ""(14)

在圖像平面 I 上,與空間直線相匹配的2D線段 l 可以通過其兩個端點進行表示,即 l=[dT s,dT e]T ,則空間直線通過相機位姿投影到圖像平面的誤差函數可以通過匹配線段 l 的兩個端點到 l "^ "的距離進行描述。

定義在某一時刻下相機的位姿為 ξ k ,觀測到的所有直線特征集合為 L j={l 1,l 2,…,l n} ,則當前幀關于線特征的重投影誤差函數為

e lk=∑ n j=1 d(l j,l "^ "j)=∑ n j=1 [ "dT jsl j "^ ""(l2 j 1 "^ +l2 j 2 "^ ) """"dT jel j "^ ""(l2 j 1 "^ +l2 j 2 "^ ) ""]T ""(15)

假設點線特征的觀測噪聲均服從于高斯分布,則由式(12)(15)可以得到視覺SLAM在低紋理環境下基于點線特征的綜合代價函數 e k ,即求解使得3D空間點和線特征的重投影誤差達到最小時的移動機器人位姿,如圖4所示。

e k=∑ k ρ pk(eT pk∑ p k-1e pk)+∑ k ρ lk(eT lk∑ l k-1e lk) ""(16)

其中:∑ k "p k-1和∑ k "l k-1為點特征與線特征觀測模型的協方差矩陣。在式(16)中,將點特征和線特征重投影誤差的二范數平方之和作為綜合代價函數,為了保證每個誤差項能夠均衡對位姿估計造成的影響,在最終的投影誤差函數中引入了Huber核函數 ρ pk(·)和ρ lk(·) ,Huber核函數的表達形式如式(17)所示。

ρ(e)= """1 2 e2 |e|≤δ

δ(|e|-0.5δ) "其他 """(17)

其中: δ 為誤差抑制閾值,當相機觀測模型的重投影誤差過大時,Huber核函數將目標函數轉換為一次函數,抑制錯誤觀測對整體優化結果的影響。

1.2 環境預判階段

1.2.1 視距計算

當載有相機的機器人運動時,利用機器人移動方向與攝像頭指向的一致性,可知其移動方向即攝像頭坐標系中的z軸方向。當該方向深度數據未能達到最大值時證明在機器人運動方向上存在障礙物。因此,在z軸方向上的深度值 d 1 可以作為下一個連續運動的最大距離。為了保證機器人不發生碰撞設置安全閾值 m。 使得目標區域半徑 r=md 1 ,其中 r 就是機器人在碰到障礙物前的運動距離。當在攝像機有效距離上沒有深度值時,該機器人在 r=md 0 范圍內預測環境穩定性最好。機器人測距過程示意圖如圖5所示, c 是相機的光學中心。 d 1 是機器人運動方向的最大深度值, d 0 為D435i相機的最大檢測距離。

1.2.2 搜索相似的結構

搜索的目的是找到包含具有多對控制點的結構,并以此特殊結構為錨點確定具有與目標區域相同半徑的參考區域。這些區域為下一步相似性計算提供了素材。在本節中,使用ORB算法[13]提取點特征。特征提取的數量與環境的大小成正比,且人工環境中的場景是連續的,為減少計算難度本文通過設置固定的搜索范圍以獲得次優的解決方案。圖6為機器人搜索和匹配的過程。

1.2.3 相似度測量

在獲得多個參考區域之后,計算參考區域 R 0′與目標區域U 0 的相似度。為避免過多空白柵格造成所有區域都具有較高相似性的結果,使用過濾器 G(i,j) 和 H(I,i,j) 將空白柵格篩除,僅使用與環境匹配的已占用柵格來計算。

G(i,j)= "1 如果UO(i,j)和RO′(i,j)都被占用

0 其他 """"(18)

H(I,i,j)= "1 如果I(i,j)被占用

0 其他 """"(19)

其中: I(i,j)是輸入區域,i和j是該區域的位置索引。通過公式(18)和(19),目標區域U 0與參考區域R 0′ 的相似形度量(?符號寫這里)可以建立為

ζ(U0,RO′)= 2∑ ds i=1 ∑ ds j=1 G(i,j) ∑ ds i=1 ∑ ds j=1 H(UO,i,j)+∑ ds i=1 ∑ ds j=1 H(RO′,i,j) """(20)

其中: ds=2r/s 是輸入區域的尺寸, s 是圖像的分辨率。在多個可能的參考區域中,選擇相似度最大的區域,提取工作內存中所記錄的特征選擇策略,將其應用于待探索區域中。

1.2.4 決策生成

通過提取特征和均勻變換矩陣,完成了參考區域搜索與相似性計算。為方便計算本文將機器人的移動速度設置為固定值 v ,結合機器人的視線信息,可以輕松地計算出系統在類似情況下進行最優特征匹配的持續時間,并以幀的形式表示(計算機以每秒30幀的速度進行計算):

f=30r/v ""(21)

設置相似度閾值 y ,目標區域與參考區域的相似性達到閾值,則證明二者具有環境結構一致性。如果參照區域的相似性未能達到閾值,則終止預測過程,直到確定下一個目標。當存在參考區域滿足相似性閾值,系統從工作內存中快速讀取特征提取策略,結合特征執行幀數,直接作為待探測區域的運行策略。但值得注意的是,機器人急轉彎進入新的未探索區域時,環境不再具有連續性。這將導致不正確的預測并引起額外的誤差。因此,當旋轉角度大于90°時,將不再使用預測模塊并重新對其進行初始化。完整的自適應優化器偽代碼如算法1所示。

算法1 自適應點線特征提取策略偽代碼

輸入: image ;系統運行幀數 F ;柵格總數 I ;圖像相似度 ? 初始化階段閾值 n ;環境判斷閾值 a ;相似度閾值 y 。

輸出:Strategy//包括特征提取種類及運行幀數。

a) "F =0;

b) Update the image;

c) "F + +;

d) 遍歷每一個灰度等級并分割圖像;

e) Calculate the total number of background grids "i ;

f) proportion= i/I ;

g) feature=proportiongt; a ?{

pointFeature,

lineFeature

} :{

pointFeature

};

h) Map=MapGenerator(feature);

i) if ( Flt;n )

return update the image;

else

Search for Similar_structures from the Map;

if(Similar_structures=ture)

extracting ORB feature from image;

calculate the similarity ?;

else

return update the image;

end if;

j) if ( ξlt; y)

return update the image;

else

Use similar region feature strategy;

end if;

k) Calculate the available field of view in the new image;

2 實驗

2.1 硬件選擇及實驗場景

本文以D435i RGBD[14]相機作為主要的視覺傳感器,使用TUM[15]數據集在仿真環境下驗證優化后算法的建圖速度、建圖精度及建圖效果三大指標。與ORB-SLAM2、PL-SLAM進行對照實驗,對比不同優化方案在同一數據集下的軌跡精度與運行速度。在低紋理環境下與RTAB-MAP、PL-SLAM進行對照實驗,對比優化前后算法與傳統稠密地圖構建方法的建圖效果。實驗過程初始化閾值設定為120幀,相似度閾值設定為0.5[16]。

2.2 圖像柵格化

以TUM數據集中fr1/room、fr3 /str_ntex_near為例,提取數據集中彩色單幀圖像,將彩色圖像灰度化之后進行二值化處理,以信息熵為主要影響因子自適應獲取分割閾值。減小無紋理或像素梯度不明顯區域對計算資源的占用,在保留的圖像區域中通過自適應光照調整,增強對比度與圖像細節。按照一定長度像素的小格子劃分小格子黑色大于一定比例設為黑色否則白色(圖7)。通過分析圖像灰度校正閾值 μ 對跟蹤精度以及跟蹤效果的影響,系統選用 μ =0.6。

2.3 實驗結果

2.3.1 高紋理環境

對本文提出的APL-VO在不同紋理環境下的圖像處理時間進行對比。結果如表1所示,可以看出基于環境信息反饋的PL-VO在不同的環境數據集都具有較好的表現。在室內環境中,由于特征點充足,基于環境信息的點線視覺里程計需要前期的幀數積累,并且由于環境相對單一,且頻繁調用了判別算法。其平均圖像處理速度略慢于普通的PL-VO。而在單一低紋理環境中,ORB SLAM2算法運行速度極快,這是因為在其特征提取過程中無法找到足夠的特征進行匹配,也使得其無法有效穩定的進行工作。算法停止運行其數據并無實際意義。而基于環境信息反饋的PL-VO通過前期圖像素材積累,連續的使用合適的匹配特征,使得其建圖速度優于常規的PL-VO算法。

高紋理環境下算法軌跡誤差數據對比如圖8所示。由于APL-VO僅在特征提取選擇與匹配過程進行了優化,對其軌跡精度沒有較大影響,故而在軌跡誤差數據與PL-SLAM相近。與ORB-SLAM2相比,線特征的增加提高了相鄰幀間的匹配精度,有效提高了算法的軌跡精度。APL-VO在初始化階段需要生成策略地圖,更為耗時因此其初始化速度最為緩慢。原始 VO 的優化已經比較徹底,IMU 誤差項的加入給優化結果造成了更多的不穩定性,加入IMU的版本均不如原始雙目版本的精度。

2.3.2 低紋理環境

由于在低紋理環境下,ORB-SLAM算法無法正常運行,其數據不具備可參考性。如圖9~11所示,為算法在低紋理環境下空間坐標數據。

如圖9所示實驗剛開始時,相機能提取到一定數量的特征點,開始構建軌跡地圖,當相機運行一段時間后,視野內沒有提取到特征點,很長時間處于跟蹤丟失的狀態,直至實驗結束,ORB-SLAM2算法無法提取到特征,特征點數量無法滿足初始化的條件,導致選解錯誤,算法沒有獲得一個最優的解,不執行初始化,沒有重新開始定位與軌跡搭建,導致后面出現了錯誤的軌跡。

分析圖10可知,PL-SLAM算法形成的軌跡并沒有構建完整的軌跡地圖,只有返回路程軌跡,且存在一定誤差。在低紋理環境下,PL-SLAM算法能提取到線段特征,并提取到少量點特征,有足夠的特征進行軌跡地圖的搭建。當相機運動到要旋轉的位置時,相機內出現的都是白墻,提取不到點特征和線段特征,無法繼續進行建圖。當相機停止旋轉時,PL-SLAM算法重新開始定位并進行初始化,在足夠的特征下,完成返回路程的軌跡地圖構建。

在低紋理實驗過程中,APL-VO算法經過圖優化處理提取到的特征點分布均勻,特征數量滿足了軌跡建圖的要求,在相機運動開始時便開始建立軌跡地圖。相機開始旋轉時,視野范圍內捕捉到大量白墻,提取特征數量過少,不足以繼續建立地圖,當旋轉到特征點數量足夠時,重新開始定位并進行了新的軌跡地圖建立,誤差值相對較小,但APL-VO算法在不停增減線特征時,給軌跡建圖過程帶來了很大的不穩定性,如圖11所示。

TPL-SLAM系統與RGB-DSLAMV2系統在低紋理環境下的位姿估計與絕對軌跡誤差分析如圖12和13所示。

在低紋理環境下,由于點特征數量小于自適應特征提取策略中的閾值,TPL-SLAM系統通過同時提取環境中的點特征和線特征實現相鄰幀之間的數據關聯,使得運動軌跡的均方根誤差和平均誤差相比于RGB-DSLAMV2大幅度下降。

更進一步的在低紋理環境環對APL-SLAM的建圖效果進行對照實驗,其實驗結果如圖14所示。由于在低紋理環境下缺少特征點信息,因此在某些區域無法創建相應的三維地圖點信息,導致稀疏特征點地圖中環境信息的丟失,效果如6(a)所示。特征融合的稀疏點云地圖則彌補了這種缺陷,如圖14(b)(c)所示,通過線特征和點特征創建的稀疏點云地圖清晰地表達了環境中的平面結構,證明在低紋理環境下APL-VO能夠保證良好的建圖效果。綜合APL-VO在高紋理和低紋理環境下的建圖效果可知,基于點線特征融合創建的稀疏點云地圖能夠清晰地表達運動環境的空間結構,并極大降低了空間地圖模型占用的空間資源,對移動機器人的實時定位與自主導航運動具有一定的實際意義,基本達到本文預期目標。

3 結束語

APL-VO通過動態閾值分割出目標區域并對環境提前預判,提高了原有PL-VO對于環境信息的適應能力。信息熵自動獲取分割閾值的方式使系統進入新環境后,無須進行手動調試的繁瑣過程,進一步提升了機器人的智能性,確保了系統在各種環境中的性能穩定。此外創新性的以提前預判的方法,實時的改變系統在運行過程中的特征提取決策。優化了原有系統中定頻檢測紋理環境,進行自適應特征提取的方案。但就目前而言,在視覺里程計工作的初始化階段中需要同時使用點線特征進行圖像素材積累,一定程度上降低了系統運算速度。此外在機器人進行較大角度的轉彎時,可能會由于無法保證環境連續性而需要頻繁的調用特征提取判別算法。最后由于計算能力限制,尋找的解都只在一定范圍內,有可能并非最優解。這些因素都在一定程度上限制了視覺里程計的效率。在未來的工作中,計劃以現有數據集對系統進行訓練縮短初始化階段,并增加動態視覺詞袋在現有計算能力限制下擴大搜索范圍的同時保證系統的高效運行。

參考文獻:

[1] "翟敬梅,劉坤,徐曉.室內移動機器人自主導航系統設計與方法[J].計算機集成制造系統,2020, 26 (4):890-899. (Zhai Jingmei,Liu Kun,Xu Xiao.Autonomous indoor navigation system of mobile robot[J]. Computer Integrated Manufacturing Systems ,2020, 26 (4):890-899.)

[2] Mur-Artal R,Montiel J M M ,Juan D T.ORB-SLAM:a versatile and accurate monocular SLAM system[J]. IEEE Trans on Robotics:A publication of the IEEE Robotics and Automation Society ,2015, 31 (5):1147-1163.

[3] Yao Jinjin,Zhang Pengchao,Wang Yan, et al. An adaptive uniform distribution ORB based on improved quadtree[J]. IEEE Access ,2019, 7 :143471-143478.

[4] 成怡,佟曉宇.基于改進ORB算法的移動機器人視覺SLAM方法研究[J].電子技術應用,2019, 45 (1):10-13,18. (Cheng Yi,Tong Xiaoyu.Research on visual SLAM method of mobile robot based on improved ORB algorithm[J]. Application of Electronic Technique ,2019, 45 (1):10-13,18.)

[5] Qin Tong,Li Peiliang,Shen Shaojie.VINS-Mono:a robust and versatile monocular visual-inertial state estimator[EB/OL].(2017-08-15).https://arxiv.org/pdf/1708.03852.

[6] Von Gioi R G,Jakubowicz J,Morel J M, et al .LSD:a fast line segment detector with a 1 detection control[J]. IEEE Trans on Pattern Analysis and Machine Intelligence ,2010, 32 (4):722-732.

[7] Zhang Lilian,Koch R.An efficient and robust line segment matching approach based on LBD descriptor and pairwise geometric consistency[J]. Journal of Visual Communication and Image Representation, 2013, 24 (7):794-805.

[8] Man Zengguang,Ye Wenhua,Lou Peihuang.Line feature extraction based on adaptive threshold in range images[C]//Proc of IEEE Avionics,Fiber-Optics and Photonics Technology Conference.2011.

[9] Lu Yan,Song Dezhen.Robust RGB-D odometry using point and line features[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2015.

[10] Lu Shuxuan,Wang Qiang,Sun Jingtao.A threshold-based visual odometry in a composite environment using edges and points[C]//Proc of IEEE International Conference on Dependable,Autonomic and Secure Computing.Piscataway,NJ:IEEE Press,2019:941-945.

[11] Shannon,C.E.A mathematical theory of communication.ATamp;T Tech J[J]. ACM Sigmobile Mobile Computing amp; Communications Review ,2001, 5 (1):3-55.

[12] Kapur J N,Sahoo P K,Wong A K C.A new method for gray-level picture thresholding using the entropy of the histogram[J]. Computer Vision,Graphics,and Image Processing ,1985, 29 (3):273-285.

[13] Rublee E,Rabaud V,Konolige K, et al. ORB:an efficient alternative to SIFT or SURF[C]//Proc of International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2012.

[14] Fankhauser P,Bloesch M,Rodriguez D, et al. Kinect v2 for mobile robot navigation:Evaluation and modeling[C]//Proc of International Conference on Advanced Robotics.Piscataway,NJ:IEEE Press,2015:388-394.

[15] Sturm J,Engelhard N,Endres F, et al. A benchmark for the evaluation of RGB-D SLAM systems[C]//Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems.Piscataway,NJ:IEEE Press,2012.

[16] Chang H J,Lee C S G,Lu Y H, et al. P-SLAM:simultaneous localization and mapping with environmental-structure prediction[J]. IEEE Trans on Robotics ,2007, 23 :281-293.

[17] Endres F,Hess J,Engelhard N, et al .An evaluation of the RGB-D SLAM system[C]//Proc of IEEE International Conference on Robotics and Automation.Piscataway,NJ:IEEE Press,2012:1691-1696.3.1

主站蜘蛛池模板: 成人在线观看一区| 91久久国产综合精品| 经典三级久久| www.亚洲国产| 91久久天天躁狠狠躁夜夜| 啪啪永久免费av| 尤物午夜福利视频| 免费人成网站在线观看欧美| 中文字幕 91| 国产好痛疼轻点好爽的视频| 亚洲一区二区精品无码久久久| 国产成人亚洲综合A∨在线播放 | 精品人妻系列无码专区久久| 成人自拍视频在线观看| 狼友视频一区二区三区| 99视频在线免费观看| 欧美精品v| 久久国产精品电影| 91久久夜色精品| 丁香五月亚洲综合在线| 在线欧美日韩国产| 毛片在线播放网址| 亚洲中文精品久久久久久不卡| 精品国产一区二区三区在线观看 | 国内毛片视频| 亚洲国产天堂久久综合| 青青青国产视频手机| 国产91精品调教在线播放| 亚洲午夜天堂| 久久美女精品国产精品亚洲| 欧美成人看片一区二区三区 | jizz在线免费播放| 欧美精品三级在线| 国产91无码福利在线| 青青青亚洲精品国产| 亚洲人成网站18禁动漫无码| 99热这里只有成人精品国产| 国产亚洲精久久久久久久91| 色成人亚洲| 999在线免费视频| 国产精品亚洲一区二区三区z | 四虎国产成人免费观看| 日韩黄色大片免费看| 超清无码一区二区三区| 久久精品日日躁夜夜躁欧美| 亚洲欧美一级一级a| 九九这里只有精品视频| 国产一区三区二区中文在线| 四虎成人精品| 中文字幕在线永久在线视频2020| 国产乱子伦无码精品小说| 欧美啪啪视频免码| 亚洲香蕉在线| 午夜一区二区三区| 精品自拍视频在线观看| 亚洲国产在一区二区三区| 色噜噜在线观看| 国产网站在线看| 国产婬乱a一级毛片多女| 国产一级视频在线观看网站| 国产va欧美va在线观看| 日韩精品欧美国产在线| 亚洲午夜18| 99无码中文字幕视频| 一级毛片在线直接观看| 欧美特黄一免在线观看| 国产精品片在线观看手机版 | 亚洲热线99精品视频| 性激烈欧美三级在线播放| 欧美激情一区二区三区成人| 黄色网页在线观看| 久久精品一品道久久精品| 凹凸国产分类在线观看| 国产尤物视频网址导航| 中文一区二区视频| 99这里只有精品免费视频| 人妻一本久道久久综合久久鬼色| 区国产精品搜索视频| 日韩精品高清自在线| 成人免费视频一区| 国产嫖妓91东北老熟女久久一| 国产成人精品在线|