羅俊豪,李慧敏,張力文,吳 健
(北京林業大學電氣工程及其自動化,北京 100083 )
基于Kinect的物體三維重建研究
羅俊豪,李慧敏,張力文,吳健
(北京林業大學電氣工程及其自動化,北京 100083 )
目前,隨著人工智能和計算機視覺技術的不斷發展,越來越多的先進的數字化儀器及設備不斷投入使用,計算機輔助下的基于多種方法的三維重建技術發展日趨成熟。然而,傳統的三維重建獲取圖像信息的設備復雜、成本高昂、操作繁瑣。而隨著3D打印技術的成熟,對物體三維模型的建立提出了快速、簡潔、高效、低成本的要求。針對上述問題,本文利用Kinect作為輸入設備,利用Kinect獲取圖像的RGB-D信息,進而得到點云數據。通過圖像分割,去噪,并完成曲面擬合,從而實現物體的三維重建。
Kinect;三維重建;點云;曲面擬合
Kinect設備的RGB攝像頭和紅外攝像頭分別得到RGB圖像和深度圖像。通過標定求得的攝像機內參配合深度數據,計算得出空間點的X、Y坐標,得到三維點云數據X、Y、Z、R、G、B,最后對所得數據進行濾波、分割、曲面擬合,實現物體的三維重建。
Kinect傳感器自身攝像頭分辨率有限,若需要用高分辨率的第三方攝像頭代替Kinect攝像頭,必須通過kinect的標定,以矯正相機畸變,獲取彩色相機和深度相機之間的對應關系[1]。對kinect深度相機進行標定時,通常使用棋盤作為定標物來定標。
在真實世界坐標系中,以Kinect設備攝像頭中心作為坐標原點,稱為攝像機坐標系。Kinect設備掃描物體所得到的的深度數據,是建立在以深度圖像的原點作為坐標原點的右手坐標系中的。因此,需要根據Kinect測量得到的深度數據Z坐標和標定求得的紅外相機的內參數矩陣,計算出真實世界坐標系中的X、Y坐標。
利用標定得到的彩色相機及深度相機的內參數矩陣,可構建彩色圖像坐標系和紅外相機坐標系之間的聯系,利用融合之后的RGB-D數據,可以計算得到三維重建所需的點云數據[1]。設為物體在紅外相機坐標系下的三維坐標,根據二者的對應關系,其在彩色相機坐標系下的三維坐標可通過下式計算求得。
式中,RD?RGB為旋轉矩陣,tD?RGB為平移向量,旋轉矩陣和平移向量均是線性的,可以在不改變物體形狀的前提下,構建紅外相機坐標系和彩色相機坐標系之間的聯系[1]。進而得到深度圖像在彩色圖像坐標系下的坐標位置)為:
其中。RGBK為彩色相機的內參數矩陣。
ICP算法是一種基于輪廓特征的點配準方法,主要用于三維物體的配準問題。ICP算法的本質是基于最小二乘的最優匹配方法[2],對于兩種坐標系下的不同點集,通過多重迭代過程,不斷尋找參考點集和目標點集之間的對應關系。設待匹配的兩片點云數據的集合:
點集P中的每個點ip,通過迭代,搜索其與點集X中距離最小的點,該點作為最鄰近的點,設的在X中最鄰近的點組成新的點集,記為:。點云數據配準,本質上就是尋找P和Y之間的最優變換關系,使P和Y的相關性最好,或者距離最短。即尋找最合適的旋轉矩陣R和平移向量t,使目標函數最小[3]:
Kinect設備硬件自身會引入噪聲,除此之外,利用Kinect獲取深度數據時,周圍環境也會帶入噪聲。例如拍攝物體的透明度,周圍存在吸收紅外線的物體,都會給使深度圖引入噪聲。為了去除噪聲,我們采用相對比較簡單的均值濾波的方法。均值濾波[4]是典型的線性濾波的方法,均值濾波的基本原理是用均值代替原圖像中的各個像素值,即對待處理的當前像素點(,)xy,選擇一個模板,該模板由其近鄰的若干像素組成,求模板中所有像素的均值,再把該均值賦予當前像素點(,)xy,作為處理后圖像在該點上的灰度(,)gxy,即其中,(,)fxy為給定的圖像,m為 f(x,y)的領域S中包含當前像素在內的像素總個數[5]。得到的g(x,y)便是去除噪聲以后的圖像。
圖3為深度圖像生成圖
本文介紹了一種基于Kinect的物體的三維重建方的法。由于Kinect自身的硬件技術和拍攝環境的影響,獲取的深度數據存在較大噪聲,主要是高斯噪聲。運用均值濾波的方法,能夠在一定程度上對點云數據的噪聲進行降噪,滿足基本要求。但由于均值濾波容易損壞圖像細節,對物體的還原效果會存在一定的影響,本文算法還有待進一步優化。
[1]郭連朋,陳向寧,徐萬朋等.基于kinect傳感器的物體三維重建[J].四川兵工學報,2014(11):119-123.
[2]韋韞韜,周軼冰,周東航等.ICP算法在計算機輔助外科手術空間配準中的技術研究[J].科技信息,2012(36).
[3]鄭德華.ICP算法及其在建筑物掃描點云數據配準中的應用[J].測繪科學,2007,32(02):31-32.
[4]顏兵,王金鶴,趙靜.基于均值濾波和小波變換的圖像去噪技術研究[J].計算機技術與發展,2011,21(02):51-53.
[5]龔昌來.基于小波變換和均值濾波的圖像去噪方法[J].光電工程,2007,34(01):72-75.
10.16640/j.cnki.37-1222/t.2016.21.199