999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于結構光相機的鋼筋骨架整體點云獲取算法

2022-08-16 13:44:02劉世龍馬智亮
圖學學報 2022年4期
關鍵詞:優化結構

劉世龍,馬智亮

基于結構光相機的鋼筋骨架整體點云獲取算法

劉世龍,馬智亮

(清華大學土木工程系,北京 100084)

為了獲取鋼筋骨架質量自動檢查所需的高精度鋼筋骨架整體點云,建立了基于結構光相機的鋼筋骨架整體點云獲取算法。首先,對結構光相機采集得到的多幅鋼筋骨架圖像進行三維重建,得到結構光相機的無量綱位姿。其次,根據無量綱位姿獲取有量綱位姿。然后,計算這些有量綱位姿間精確的轉換矩陣。接著,基于這些有量綱位姿及其兩兩之間的精確轉換矩陣,使用圖優化對這些有量綱位姿進行優化,以得到高精度的有量綱位姿。最后,基于高精度的有量綱位姿對齊結構光相機采集的所有點云,獲取鋼筋骨架整體點云。實驗結果表明,該算法獲取實際預制鋼筋混凝土構件鋼筋骨架整體點云的耗時約10 min,且點云的誤差約為5 mm。鋼筋骨架整體點云獲取算法可以快速獲取鋼筋骨架整體點云,而且所得點云的精度較高,可以滿足鋼筋骨架質量自動檢查的要求。

結構光相機;鋼筋骨架;點云;圖優化

構件生產工廠化是建筑工業化的重要組成部分[1]。當前,在工廠中生產預制鋼筋混凝土構件時,構件的鋼筋骨架質量檢查主要依賴人工。例如,通過人工計數來檢查鋼筋數量,通過鋼尺測量來檢查鋼筋型號、間距等。由于鋼筋骨架本身較為復雜,而且規范[2]要求鋼筋骨架各質量檢查項為全數檢查,所以,依賴人工進行鋼筋骨架質量檢查存在檢查效率低、耗時長、容易存在人為錯誤等問題。

三維重建、建筑信息模型(building information modeling,BIM)等技術的發展為改進當前構件鋼筋骨架(簡稱“鋼筋骨架”)質量檢查現狀提供了可能。首先,基于三維重建技術可獲得鋼筋骨架的實際模型。同時,基于BIM技術可獲得鋼筋骨架的設計模型。然后,將實際模型和設計模型自動進行對比,即可實現鋼筋骨架質量的自動檢查。通常,實際模型用整體點云表示,設計模型用設計點云表示[3]。鑒于作者之前已提出從BIM模型生成鋼筋骨架設計點云的方法,所以本文聚焦于鋼筋骨架整體點云的生成方法。

當下,獲取鋼筋骨架整體點云主要有2種方法。一種方法是基于數碼圖像獲取鋼筋骨架整體點云[4]。該方法的流程是:首先,用數碼相機在不同位置對鋼筋骨架進行拍照,獲取鋼筋骨架數碼圖像。然后,基于運動恢復結構(structure from motion,SfM)算法對這些圖像進行處理,生成稀疏鋼筋骨架點云。最后,基于多視角立體視覺(multi-view stereo,MVS)等算法生成密集鋼筋骨架點云。最后一步之所以必要,是由于稀疏鋼筋骨架點云中點數少,難以全面反映鋼筋骨架的實際外觀。該方法的缺點在于,需要拍攝幾十張甚至上百張數碼圖像,且生成密集點云耗時長、精度低。

另外一種方法是基于三維激光掃描儀獲取鋼筋骨架整體點云[5-6]。其流程是:首先,尋找一個合適的位置放置三維激光掃描儀。其次,用三維激光掃描儀對鋼筋骨架進行掃描,獲取鋼筋骨架點云。由于三維激光掃描儀的掃描范圍在幾十米至上百米之間,所以得到的鋼筋骨架點云包含大量無關點,其來自鋼筋骨架周圍環境。最后,用軟件去除這些無關點,以獲取不包含無關點的鋼筋骨架點云。這種方法可以獲得較高精度的鋼筋骨架點云,但也存在如下問題:三維激光掃描儀價格高昂;且在一個位置掃描的時間較長;去除大量無關點需花費大量時間;若只在一個位置進行掃描,由于鋼筋骨架中鋼筋間距較小,鋼筋的空間分布較為復雜,所以會有一部分鋼筋的點云缺失,故需要在多個位置進行掃描。

總體來看,當前研究中用于獲取鋼筋骨架整體點云的方法存在硬件成本高、數據處理耗時長、所得鋼筋骨架點云有缺失或精度不高等問題。鋼筋骨架點云缺失,會造成無法檢測某根鋼筋是否存在的不良影響,進而給鋼筋骨架質量檢查帶來很大困難。

考慮到結構光相機在獲取物體點云時存在成本低、數據處理速度快、所得點云精度較高等優點[7],且結構光相機便于移動,可以有效減少鋼筋骨架點云的缺失。所以,本文提出基于結構光相機的鋼筋骨架整體點云獲取算法。

1 鋼筋骨架整體點云獲取有關概念以及算法框架

1.1 結構光相機

結構光相機不僅包含RGB鏡頭,還包含結構光投射器和結構光接收器。結構光相機采集數據的原理是:首先,結構光投射器向物體投射有特定形狀的面狀光(稱為結構光,且一般為紅外結構光);然后,結構光接收器獲取從物體反射回來的光,由于物體表面各個部位距離結構光相機的遠近不同,所以相比投射出的結構光,反射回來的光有變形;最后,結構光相機內置的處理器對反射回來的光進行處理,以得到物體表面各點距離結構光相機的距離,并同時生成點云和紅外圖像(簡稱“圖像”)等數據。

1.2 結構光相機位姿

結構光相機位姿通常用世界坐標系到相機坐標系的轉換矩陣[]表示。其中為旋轉矩陣,為平移向量。根據該旋轉矩陣和該平移向量,可以計算出結構光相機的光心位置。結構光相機每采集一次數據,所得點云就對應著一個新的相機坐標系。相機坐標系以結構光相機采集數據時光心所在位置為原點,以朝向被采集數據的物體的方向為軸方向。所有相機坐標系共享同一個世界坐標系。通常,在采集數據時依次得到的多個相機坐標系,世界坐標系與第一個相機坐標系重合。

1.3 整體點云獲取算法框架

基于結構光相機獲取鋼筋骨架整體點云的關鍵是,獲取結構光相機高精度的位姿。一般地,對結構光相機采集的2張以上圖像進行三維重建,就可以得到結構光相機的位姿。但該位姿的精度不高。為獲取結構光相機高精度的位姿,本文利用多幅圖像及其對應的多片點云,以結構光相機位姿為優化變量,以多片點云對齊效果最好為優化目標進行優化求解。其基本原理與測量學中的平差方法類似。圖1為基于結構光相機的鋼筋骨架整體點云獲取算法框架。

圖1 算法框架

該算法框架以結構光相機在多個位置掃描后采集的鋼筋骨架的多片點云及其對應的多幅圖像為輸入,以鋼筋骨架整體點云為輸出。該算法框架是:首先,分別對多幅圖像和多片點云進行處理。對于多幅圖像,用colmap[8]軟件進行三維重建,得到結構光相機的無量綱位姿;對于多片點云,分別對每一片點云進行預處理,其目的主要是盡可能去除無關點云。其次,從多幅圖像中任意選擇2幅從相鄰位置掃描得到的圖像,根據這2幅圖像所對應的2片點云以及基于colmap的三維重建結果,計算結構光相機有量綱位姿初始值。該步驟只執行一次。然后,根據有量綱位姿初始值以及預處理后的多片點云,計算有量綱位姿間精確的轉換矩陣。接著,用圖優化方法對有量綱位姿進行優化,得到高精度的有量綱位姿。最后,根據高精度的有量綱位姿將所有點云對齊,即得到鋼筋骨架整體點云。該算法各個步驟均通過編寫程序或調用其他軟件自動實現,無需人工參與。

需要說明的是,該算法框架中使用的colmap是一款基于數碼圖像的三維重建軟件。其原理是,依照特定算法對物體的數碼圖像進行處理,獲得物體的點云,同時得到拍攝數碼圖像時相機的位姿,該位姿無量綱。在本文中,colmap處理的圖像是結構光相機生成的紅外圖像。

2 鋼筋骨架整體點云獲取算法關鍵步驟

圖1中,基于colmap的三維重建步驟的作用是基于colmap軟件對結構光相機圖像進行三維重建,由于不涉及改進和創新,所以這里不做詳述。點云預處理步驟無需人工參與,其依次使用到降采樣[9]、去噪點[10]等算法,由于這些算法較為成熟,這里亦不再詳解。以下詳細介紹有量綱位姿初始值計算、位姿精確轉換矩陣計算、圖優化以及多片點云對齊4個關鍵步驟。

2.1 有量綱位姿初始值計算

由colmap輸出的是無量綱位姿,本步驟的目的是根據計算有量綱位姿,為后續步驟提供位姿初始值。輸入任意2次相鄰掃描的無量綱位姿,點云1及對應的圖像1和點云2及對應的圖像2。在本文中,2片點云及其對應的圖像取結構光相機最早2次掃描所得的數據。

根據colmap算法的原理,無量綱位姿與有量綱位姿僅在平移向量上相差一個比例因子。即,假定比例因子為,無量綱位姿為[],則有量綱位姿為[]。基于此,需首先計算比例因子,然后對colmap輸出每個無量綱位姿,將其平移向量乘以該比例因子,即可得到有量綱位姿。

本文提出基于光心距離的比例因子為

其中,real為2片點云對應的結構光相機光心的實際距離,簡稱有量綱光心距離;d為根據無量綱位姿計算的這2個結構光相機的光心距離,簡稱無量綱光心距離。

有量綱光心距離的計算為:將一片點云對應的結構光相機光心轉換至另一片點云所在的相機坐標系,然后計算2個光心間的歐式距離。假定點云1的相機坐標系為coor1,對應的相機光心為1,點云2的相機坐標系為coor2,對應的相機光心為2。則有量綱光心距離,即光心2和1距離的具體計算過程為,首先,將點云2向點云1進行粗配準,得到轉換矩陣[initialinitial],該轉換矩陣也是coor2向coor1的轉換矩陣。粗配準所用的方法是基于圖像特征的方法[11],由于該方法較為成熟,這里不再詳述。然后,根據轉換矩陣[initialinitial]對光心2(在相機坐標系coor2中的坐標為(0 0 0)T)進行坐標轉換,得到其在相機坐標系coor1中的坐標,為initial。最后,由于光心1在相機坐標系coor1中坐標為(0 0 0)T,所以有量綱光心距離為

無量綱光心距離的計算原理是,將2個無量綱位姿對應的光心轉換至世界坐標系,然后計算2個光心間的歐式距離。假定無量綱位姿為[],對應的光心為,該光心在相機坐標系中的坐標為,那么光心在世界坐標系中的坐標的計算公式為

在分別求得有量綱光心距離和無量綱光心距離后,即可根據式(1)計算比例因子

2.2 位姿精確轉換矩陣計算

由于前一步驟中基于粗配準計算的有量綱光心距離存在誤差,從而導致有量綱位姿初始值存在誤差。為了獲取高精度的有量綱位姿,需要先求得有量綱位姿間精確的轉換矩陣。

計算有量綱位姿間精確的轉換矩陣的原理是:首先需去除2片點云中的平面點云,然后獲取其共同區域,接著基于改進的TrICP算法對共同區域點云進行處理,以得到精確的轉換矩陣。本步驟為:首先獲取任意2個有量綱位姿對應的點云,然后用該方法處理該點云得到精確的轉換矩陣,即為這2個有量綱位姿間精確的轉換矩陣。

2.3 圖優化

本步驟的目的是計算高精度的有量綱位姿。

圖優化中的圖指的是數學圖論中的圖,其由頂點和邊組成,如圖2所示,每個圓表示圖的頂點,圓之間的連線表示圖的邊,以表示與頂點的聯系。

圖2 圖優化示意圖

通常,優化的要素主要是優化變量和目標函數,即通過求解優化變量,使目標函數達到最大值或最小值。圖優化將具體的優化問題抽象成圖的形式,然后進行優化。即,需要先識別問題中的優化變量和目標函數;然后用圖的頂點表示優化變量,用圖的邊表示目標函數項,該目標函數項與邊所連接的2個頂點有關,各目標函數項之和構成目標函數;最后對圖的各個頂點表示的優化變量進行優化,使目標函數達到最大值或最小值。

通過圖優化對有量綱位姿進行優化以獲取高精度的有量綱位姿時,即有量綱位姿為優化變量,用圖的頂點表示。假定其中一個頂點表示的優化變量為有量綱位姿,與其相鄰的另一個頂點表示的優化變量為有量綱位姿,這2個有量綱位姿間轉換矩陣為,則式子=應成立。理論上,2個有量綱位姿的具體數值和轉換矩陣的具體數值應該滿足該式。實際上,根據現有方法無法直接得到有量綱位姿的高精度數值,而只能得到轉換矩陣的精確數值,所以,該式并非嚴格滿足等號兩邊相等。由此,可以根據這個式子構建誤差項[12]為

其中,等號右邊右上方的符號表示將括號內的反對稱矩陣轉換為向量。該誤差項的二范數即為連接2個頂點的邊表示的目標函數項。在用圖優化對有量綱位姿進行優化時,目標函數為各目標函數項之和,即

優化目標是目標函數最小。通過對各優化變量進行優化,即可得到高精度的有量綱位姿。

在式(5)中,有量綱位姿初始值來自有量綱位姿初始值的計算,有量綱位姿間精確轉換矩陣來自位姿精確轉換矩陣的計算。

當前,已經有成熟的數據庫可用于圖優化問題。本文通過g2o庫來解決圖優化問題。g2o[13]是用于優化基于圖的非線性誤差函數的開源C++庫,提供圖優化常用頂點和邊的定義以及優化求解算法的實現。

2.4 多片點云對齊

本文根據圖優化所得的高精度有量綱位姿,將所有點云轉換至世界坐標系,以獲取鋼筋骨架整體點云。

假定圖優化結果中某一有量綱位姿為[optimizedoptimized],其對應點云中的某個點在相機坐標系中的坐標為,則該點轉換至世界坐標系后,其坐標為

對該點云中的所有點進行上述轉換,即可實現該點云從相機坐標系向世界坐標系的轉換。所有點云均按該點云的坐標轉換方法進行坐標轉換,即可實現所有點云從相機坐標系到世界坐標系的轉換。此時,就得到了鋼筋骨架整體點云。

3 實驗驗證

為了驗證本文算法的可行性、速度和精度,開展了相關實驗。首先,根據標準圖集實際制作了鋼筋骨架試件;其次,用結構光相機掃描鋼筋骨架試件以獲取鋼筋骨架點云,同時用手持式三維激光掃描儀獲取鋼筋骨架的高精度點云;然后,用本文算法處理鋼筋骨架點云,從而生成鋼筋骨架整體點云,并記錄各步驟所用時間,以得到本文算法的耗時;最后,將結構光相機獲取的鋼筋骨架點云與手持式三維激光掃描儀獲取的高精度點云對比,從而驗證本文算法的精度。

3.1 鋼筋骨架試件建立和實驗數據采集

本實驗建立的鋼筋骨架試件及其尺寸如圖3所示,該鋼筋骨架試件根據標準圖集[14]制作。考慮到實驗場地的限制,該鋼筋骨架試件的尺寸相比標準圖集中的尺寸有所縮小,尺度大體上為實際尺度的1/2。但是,該鋼筋骨架試件中鋼筋類型、間距等與標準圖集保持一致,所以該鋼筋骨架試件保留了標準圖集中鋼筋骨架的復雜性。

圖3 鋼筋骨架試件

為了更明確區分手持式三維激光掃描儀得到的高精度鋼筋骨架整體點云以及本文算法得到的鋼筋骨架整體點云,將前者稱為“基準點云”,后者稱為“算法點云”。以基準點云為基準,衡量算法點云的精度。

本實驗選擇天遠FreeScan X3手持式三維激光掃描儀[15]作為獲取基準點云的傳感器。該傳感器配套了點云處理軟件,用于處理采集的數據。基于該傳感器以及該軟件,可以直接得到鋼筋骨架的整體點云。該傳感器的主要參數見表1。

表1 天遠FreeScan X3主要參數

用FreeScan X3獲取基準點云。首先,為了滿足所采用的手持式三維激光掃描儀的使用要求,在圖3所示鋼筋骨架上粘貼一千余個標記點(標記點間距離不超過15 cm),所得鋼筋骨架如圖4所示。其中鋼筋骨架上白色的點即為粘貼的標記點。然后,用FreeScan X3對該鋼筋骨架進行掃描。最終,得到的基準點云如圖5所示。由于標記點表面采用反光材料,所以在標記點粘貼的位置沒有點云。這些缺失的點云,不會影響基準點云與算法點云的對比。

在獲取基準點云的過程中,在鋼筋骨架上粘貼標記點耗時約75 min,用FreeScan X3掃描鋼筋骨架耗時約30 min。

本文選用知微傳感DKam 130[16]款結構光相機作為獲取算法點云的傳感器。該結構光相機在采集鋼筋骨架數據時,能同時得到點云和對應的紅外圖像。其主要參數見表2。

圖4 粘貼標記點后的鋼筋骨架

圖5 基準點云

表2 知微傳感DKam 130主要參數

用結構光相機在18個位置對圖3所示鋼筋骨架采集數據,這18個位置的俯視圖如圖6所示。在圖6中,每個小圓表示一個掃描位置。由圖6(a)和(b)位置得到的紅外圖像分別如圖7(a)和(b)所示。由于原圖像較暗,較難區分鋼筋和其他物體,所以圖7中展示的圖像的亮度均較原圖像提升40%。由圖6(a)和(b)位置得到的點云分別如圖8(a)和(b)所示。為清楚區分鋼筋和其他物體的點云,手動將每個點云中鋼筋點云的顏色設置為黑色,其他物體設置為米色。用結構光相機掃描鋼筋骨架點云18次,大約花費3 min。

圖6 結構光相機掃描位置俯視圖

圖7 結構光相機所得紅外圖像((a)紅外圖像1;(b)紅外圖像2)

3.2 速度驗證

在獲取上述數據后,用本文算法對18幅圖像和18片點云進行處理,得到的算法點云如圖9所示。在圖9中,為清楚展示算法點云中哪些點來自于同一次掃描,將同一次掃描的所有點設置為同一顏色,不同次掃描的點設置為其他顏色。該設置通過編寫程序自動實現。

本文算法各步驟的耗時見表3,總用時為7.81 min,其中各步驟所花時間通過在程序中設置相應的代碼獲得。考慮到獲取18片鋼筋骨架點云大約需要3 min,所以從結構光相機掃描鋼筋骨架到獲取算法點云,需約10 min。對于實際鋼筋骨架,在采集數據時可以擴大結構光相機的工作距離,從而增加視場范圍,進而使采集的點云片數與本實驗采集的鋼筋骨架試件點云片數近似相等。因此,從結構光相機掃描實際鋼筋骨架到獲取實際鋼筋骨架算法點云,亦需要大約10 min。

圖9 算法點云

表3 本文提出的算法各步驟的耗時(min)

如果用立式三維激光掃描儀掃描圖3鋼筋骨架,為了減少鋼筋點云缺失,應在多個測站掃描。由于立式三維激光掃描儀在一個測站掃描耗時3~5 min,假定在3個測站掃描,則掃描耗時合計約12 min。對在3個測站掃描得到的點云進行后續處理,例如去除無關點、配準等,還需要花費大量時間。同時,前文已提到,用手持式三維激光掃描儀掃描圖3鋼筋骨架耗時約30 min。因此,本文基于結構光相機獲取鋼筋骨架整體點云算法的耗時遠遠少于基于三維激光掃描儀獲取鋼筋骨架整體點云的耗時。

3.3 精度驗證

為進行精度驗證,需先將算法點云和基準點云配準,然后再計算算法點云的精度。

配準首先對算法點云和基準點云進行降采樣,使2個點云在單位空間內的點數相等。其次,手動在2個點云中選擇三對點,并用程序計算轉換矩陣,從而完成粗配準。然后,按照精配準的迭代過程,即點對更新、錯誤點對去除、中間轉換矩陣計算3個步驟,對2個點云進行精配準,同時輸出2個點云中的點對。配準好的算法點云和基準點云如圖10所示。其中,紅色的點來自于算法點云,綠色的點來自于基準點云。

圖10 算法點云與基準點云配準結果

本文用均方根誤差(root mean square error,RMSE)計算點云的誤差,并以此來衡量算法點云的精度,即

其中,pq分別為點對中來自算法點云和來自基準點云的點;( )為求2個點的歐式距離;為算法點云和基準點云中點對的數量。

最終得到算法點云的RMSE為5.12 mm。這說明,本文算法獲取的算法點云的精度與基于手持式三維激光掃描儀獲取的基準點云的精度相差不大,可以滿足實際工程對鋼筋骨架數量和間距檢查的要求。

根據文獻[17],基于數碼圖像獲取點云時,點云的誤差大于1 cm。因此,本文算法生成的鋼筋骨架整體點云的精度高于基于數碼圖像獲取的鋼筋骨架整體點云的精度。

綜上所述,與基于圖像獲取鋼筋骨架整體點云和基于三維激光掃描儀獲取鋼筋骨架整體點云相比,本文算法具有速度快、精度較高的優點。

在實際場景中的鋼筋骨架尺寸約為本實驗中用到的鋼筋骨架尺寸的2倍。因此,結構光相機采集數據的次數增加,即數據采集的耗時增加,同時,本文算法各步驟的耗時亦會增加,但并非呈幾何倍數增加。實際上,在實際場景中,可以通過多個結構光相機同時采集數據來降低數據采集的耗時。同時,可以通過提升硬件性能、使用并行計算等方式,降低算法各步驟的耗時。因此,本文算法在實際場景中具有可行性。

4 結束語

當前,基于數碼相機和三維激光掃描儀獲取鋼筋骨架整體點云的方法存在成本高、耗時長等問題。針對這一問題,本文提出了基于結構光相機的鋼筋骨架整體點云獲取算法,并對該算法的框架和關鍵步驟進行詳細介紹。

相比于基于數碼相機和基于三維激光掃描儀獲取鋼筋骨架點云的方法,本文算法可以在10 min左右獲得精度較高的實際鋼筋骨架點云,其誤差為5 mm左右。由此說明,本文算法能夠快速獲取鋼筋骨架整體點云,且精度較高,為鋼筋骨架質量自動檢查奠定良好的基礎。

[1] 王俊, 趙基達, 胡宗羽. 我國建筑工業化發展現狀與思考[J]. 土木工程學報, 2016, 49(5): 1-8.

WANG J, ZHAO J D, HU Z Y. Review and thinking on development of building industrialization in China[J]. China Civil Engineering Journal, 2016, 49(5): 1-8 (in Chinese).

[2] 北京市質量技術監督局, 等. DB11/T 968-2013預制混凝土構件質量檢驗標準[S]. 北京: 中國建筑標準設計研究院, 2013.

Beijing Quality and Technical Supervision Bureau, et al. DB11/T 968-2013 Quality acceptance inspection for precast concrete components[S]. Beijing: China Institute of Building Standard Design & Research, 2013 (in Chinese).

[3] 劉世龍, 馬智亮. 基于BIM的鋼筋骨架語義設計點云自動生成算法[J]. 圖學學報, 2021, 42(5): 816-822.

LIU S L, MA Z L. BIM-based algorithm for automatic generation of semantic as-designed point cloud of reinforcement skeleton[J]. Journal of Graphics, 2021, 42(5): 816-822 (in Chinese).

[4] GOLPARVAR-FARD M, GHADIMI B, SAIDI K S, et al. Image-based 3D mapping of rebar location for automated assessment of safe drilling areas prior to placing embedments in concrete bridge decks[C]//Construction Research Congress 2012. Reston: American Society of Civil Engineers, 2012: 960-970.

[5] WANG Q, CHENG J C P, SOHN H. Automated estimation of reinforced precast concrete rebar positions using colored laser scan data[J]. Computer-Aided Civil and Infrastructure Engineering, 2017, 32(9): 787-802.

[6] KIM M K, THEDJA J P P, WANG Q. Automated dimensional quality assessment for formwork and rebar of reinforced concrete components using 3D point cloud data[J]. Automation in Construction, 2020, 112: 103077.

[7] ZHANG Y M, CHEN C, WU Q, et al. A kinect-based approach for 3D pavement surface reconstruction and cracking recognition[J]. IEEE Transactions on Intelligent Transportation Systems, 2018, 19(12): 3935-3946.

[8] SCHONBERGER J L, ZHENG E, POLLEFEYS M, et al. Colmap[EB/OL]. [2021-03-25]. https://colmap.github.io/.

[9] RADU B R, STEVE C. Downsampling a PointCloud using a VoxelGrid filter[EB/OL]. [2021-03-25]. https://pointclouds. org/documentation/tutorials/voxel_grid.html.

[10] RADU B R, STEVE C. Removing outliers using a StatisticalOutlierRemoval filter[EB/OL]. [2021-03-25]. https:// pointclouds.org/documentation/tutorials/statistical_outlier.html.

[11] HENRY P, KRAININ M, HERBST E, et al. RGB-D mapping: using Kinect-style depth cameras for dense 3D modeling of indoor environments[J]. The International Journal of Robotics Research, 2012, 31(5): 647-663.

[12] 高翔, 張濤, 劉毅. 視覺SLAM十四講: 從理論到實踐[M]. 北京: 電子工業出版社, 2017: 273-285.

GAO X, ZHANG T, LIU Y. Fourteen lectures on visual SLAM: from theory to practice[M]. Beijing: Publishing House of Electronics industry, 2017: 273-285 (in Chinese).

[13] KUEMMERLE R, GRISETTI G, STRASDAT H, et al. g2o - General graph optimization[EB/OL]. [2021-03-25]. https:// github.com/RainerKuemmerle/g2o.

[14] 中華人民共和國住房和城鄉建設部. 裝配式混凝土結構表示方法及示例: 15G107-1[S]. 北京: 中國計劃出版社, 2015.

Ministry of Housing and Urban-Rural Development of the People's Republic of China. Representation method and example of fabricated concrete structure (shear wall structure): 15G107-1[S]. Beijing: China Planning Press, 2015 (in Chinese).

[15] 北京天遠三維科技股份有限公司. FreeScan X3[EB/OL]. [2021-03-25]. https://www.3dscan.com.cn/product/7.html.

Beijing Tianyuan 3D Technology Co., Ltd. FreeScan X3[EB/OL]. [2021-03-25]. https://www.3dscan.com.cn/product/ 7.html (in Chinese).

[16] 知微傳感. 高精度工業3D相機D130[EB/OL]. [2021-04-10]. https://www.zhisensor.com/?page_id=13656.

Zhisensor. High-precision industrial 3D camera D130[EB/OL]. [2021-04-10]. https://www.zhisensor.com/?page_id=13656 (in Chinese).

[17] ZHOU Z X, GONG J, GUO M Y. Image-based 3D reconstruction for posthurricane residential building damage assessment[J]. Journal of Computing in Civil Engineering, 2016, 30(2): 04015015: 1-04015015: 14.

A method for obtaining the complete point cloud of reinforcement skeletons based on a structured light camera

LIU Shi-long, MA Zhi-liang

(Department of Civil Engineering, Tsinghua University, Beijing 100084, China)

In order to obtain the high-precision complete point cloud of a reinforcement skeleton required for the automatic quality inspection, an algorithm was proposed for obtaining the complete point cloud of reinforcement skeletons based on a structured light camera. Firstly, 3D reconstruction was carried out for multiple reinforcement skeleton images collected using a structured light camera, thus obtaining the dimensionless poses of the structured light camera. Secondly, the dimensional poses were obtained according to the dimensionless poses. Then, the precise transformation matrix between these dimensional poses was calculated. Next, based on these dimensional poses and the precise transformation matrix between them, graph optimization was employed to optimize these dimensional poses to obtain those with high precision. Finally, point clouds obtained using the structured light camera were aligned based on the dimensional poses with high precision, which can generate the complete point cloud of the reinforcement skeleton. The experimental results show that it would take the proposed algorithm about 10 minutes to obtain the complete point cloud of the reinforcement skeleton of a practical precast concrete component, and the error of the point cloud is around 5 mm. It is concluded that the proposed algorithm can quickly obtain the complete point cloud of the reinforcement skeleton, with high accuracy, which can meet the requirement of the automatic quality inspection of the reinforcement skeleton.

structured light camera; reinforcement skeleton; point cloud; graph optimization

16 June,2021;

National Natural Science Foundation of China (51678345)

LIU Shi-long (1991-), PhD candidate. His main research interest covers IT in civil engineering. E-mail:erickrt@163.com

TP 391

10.11996/JG.j.2095-302X.2022040633

A

2095-302X(2022)04-0633-08

2021-06-16;

2022-03-08

8 March,2022

國家自然科學基金項目(51678345)

劉世龍(1991-),男,博士研究生。主要研究方向為土木工程信息技術。E-mail:erickrt@163.com

馬智亮(1963-),男,教授,博士。主要研究方向為土木工程信息技術。E-mail:mazl@tsinghua.edu.cn

MA Zhi-liang (1963-), professor, Ph.D. His main research interest covers IT in civil engineering. E-mail:mazl@tsinghua.edu.cn

猜你喜歡
優化結構
超限高層建筑結構設計與優化思考
房地產導刊(2022年5期)2022-06-01 06:20:14
《形而上學》△卷的結構和位置
哲學評論(2021年2期)2021-08-22 01:53:34
民用建筑防煙排煙設計優化探討
關于優化消防安全告知承諾的一些思考
一道優化題的幾何解法
由“形”啟“數”優化運算——以2021年解析幾何高考題為例
論結構
中華詩詞(2019年7期)2019-11-25 01:43:04
新型平衡塊結構的應用
模具制造(2019年3期)2019-06-06 02:10:54
論《日出》的結構
創新治理結構促進中小企業持續成長
現代企業(2015年9期)2015-02-28 18:56:50
主站蜘蛛池模板: 久久黄色免费电影| 久久精品这里只有国产中文精品| 精品久久久久久中文字幕女| 四虎影视无码永久免费观看| 青草视频免费在线观看| 日韩无码视频播放| 2021精品国产自在现线看| 国产综合色在线视频播放线视| 亚洲AV无码精品无码久久蜜桃| 丰满人妻中出白浆| 久久www视频| 精品中文字幕一区在线| 岛国精品一区免费视频在线观看| 久久久91人妻无码精品蜜桃HD| 国产无码精品在线播放| 特级欧美视频aaaaaa| 久久一本日韩精品中文字幕屁孩| 一级毛片基地| 欧美高清国产| 国产精品福利在线观看无码卡| 丁香婷婷激情网| 99热这里只有精品国产99| 亚洲午夜片| 国产精品成人不卡在线观看| 国产不卡在线看| 精品日韩亚洲欧美高清a| 久久精品国产在热久久2019| 国产福利一区在线| 亚洲日韩精品无码专区97| 中文字幕第1页在线播| 在线欧美国产| 99久久精品国产麻豆婷婷| 欧美成人h精品网站| 成人毛片免费观看| 亚洲成人在线网| 日韩高清一区 | 国产免费久久精品99re不卡| 久久天天躁狠狠躁夜夜2020一| 久久国产乱子| 白浆免费视频国产精品视频| 久久99热这里只有精品免费看| 精品久久综合1区2区3区激情| 精品色综合| 奇米影视狠狠精品7777| 国产免费福利网站| www.亚洲天堂| 国产毛片不卡| 青青青视频蜜桃一区二区| 日本一区二区三区精品视频| 国产午夜看片| 无码精品国产dvd在线观看9久| 亚洲欧美天堂网| 成人免费午间影院在线观看| 亚洲无码高清视频在线观看 | 97人妻精品专区久久久久| 国产精品视屏| 免费看a级毛片| 玩两个丰满老熟女久久网| 国产va免费精品观看| 精品视频一区二区观看| 露脸真实国语乱在线观看| jijzzizz老师出水喷水喷出| 五月婷婷亚洲综合| 日本高清在线看免费观看| 日韩精品一区二区深田咏美| 久久亚洲精少妇毛片午夜无码| 国产激情国语对白普通话| 日韩欧美91| 欧美日韩亚洲国产主播第一区| 久久精品66| 日韩二区三区| 国模私拍一区二区三区| 无码久看视频| 毛片久久网站小视频| 国产欧美日韩一区二区视频在线| 国产精品性| 日本精品视频一区二区| 日本国产在线| 国产伦精品一区二区三区视频优播| 亚洲视频a| h视频在线播放| 国产成人高清精品免费|