王喬


摘? 要:該文結合北京市大興區某村的測量實踐,將無人機傾斜攝影測量三維建模技術應用于不動產測繪,探討基于傾斜攝影測量三維建模的不動產測繪的可行性,并進行精度驗證。研究對比基于傾斜攝影三維建模的不動產測繪相較于傳統不動產測繪的優勢,與全站儀相比,其盲點非常小,減少了復雜地形上支點引起的誤差,突出了精度方面的優勢。對不動產測繪的具體生產作業具有一定的借鑒和參考價值。
關鍵詞:不動產? 測繪? 傾斜攝影? 精度
中圖分類號:P231? ? ? ? ? ? ? ? ? ? ? ? ? ?文獻標識碼:A文章編號:1672-3791(2021)05(a)-0080-03
Abstract: Based on the survey practice of a village in Daxing District, Beijing City, this paper applies UAV tilt photogrammetry 3D modeling technology to real estate surveying and mapping, discusses the feasibility of real estate surveying and mapping based on tilt photogrammetry 3D modeling, and verifies the accuracy. Compared with traditional real estate surveying and mapping, the advantages of real estate surveying and mapping based on oblique photography 3D modeling are compared, which has certain reference value for the specific production of real estate surveying and mapping.
Key Words: Real estate; Surveying and mapping; Tilt photography; Precision
房產和地籍測繪的主要對象是面積、權屬、結構屬性以及城市和農村房屋的用途。隨著中國社會經濟的持續快速發展,房地產的價值不斷提高,使得中國越來越重視房地產研究[1]。但是,勞動密集、費時、成本高的傳統房地產測繪問題尚未得到很好的解決,且基于無人機傾斜攝影測量模型的重建技術,是近年來發展起來的一項新技術。由于其低成本的數據采集和高效率,且能近實時重建3D模型等,該技術在房地產測量和制圖的實際生產中具有許多優勢。
該文主要介紹了基于傾斜攝影三維建模的房地產調查和制圖方法,將該方法應用于實際工作當中,并對其結果進行比較分析,結果表明,與傳統的房地產測量和制圖相比,該方法具有全面的優勢。
1? 基于傾斜攝影三維建模的不動產測繪方法
該文采用如下方法:圖像控制點的設計和測量、航空圖像的采集、空三解算、三維模型和正射影像的生成、裸眼3D采集等,具體過程見圖1。
1.1 無人機傾斜攝影數據采集
無人機傾斜航測是通過在無人機上安裝5鏡頭傾斜攝像頭系統進行的,其中一個鏡頭捕獲地面目標的正射影像,而其他4個鏡頭則是收集地面目標的前、后、左、右影像??梢栽谂臄z時獲得POS數據,包括圖像的方向、位置、高度和姿態信息[2]。超低空飛行的無人機高度設置為大約60~80 m,可以獲取更高地面分辨率圖像,以確保3D模型重建的準確性。如果調查區域的高度差較大,則必須在不同區域中采集圖像并進行建模。采用高密度相位控制,即圖像控制點每100~200 m放置一次,每平方公里有40個以上圖像控制點需要預先布設,以針對遠距離減少模型的幾何變形。
1.2 傾斜攝影三維模型重建
傾斜攝影三維模型重建是通過對傾斜攝影獲取的影像進行多視影像聯合平差、多視影像密集匹配即基于物方的多視立體匹配、構建TIN格網、紋理映射等,進而實現三維模型的重建[3]。其中,多視影像聯合平差是基于影像間的幾何變形和遮擋問題,結合POS數據,在每級影像上進行同名點匹配和自由網光束法平差;多視影像密集匹配,即檢索多視影像上的特征點、特征線進而確定二維矢量數據集,再將不同視角二維數據集轉化為三維矢量數據,然后進行濾波處理,將不同匹配單元進行融合,進而形成統一的數字表面模型(DSM)。
傾斜攝影3D模型的重建是通過將傾斜攝影獲得的多視點圖像進行聯合平差,采用多視圖像立體匹配、TIN網格構造、紋理貼圖等重建3D模型。其中,多視圖像聯合平差是基于圖像之間的幾何變形和遮擋,并結合POS數據,在每級影像上進行相同的名稱點匹配以及自由網光束法平差;多視圖像的密集匹配,即多視圖檢索圖像中的特征點和特征線確定二維矢量數據集,然后將不同角度的二維數據集轉換為三維矢量數據,然后對他們執行濾波處理以合并不同的匹配單元,以形成統一的數字表面模型(DSM)。
1.3 三維裸眼采集
用裸眼進行三維采集主要是基于建筑物側面分散點的正交性原理,以采集三維房屋,這主要是基于常規房屋的相鄰面為特征的。這些相鄰面彼此垂直、相同的高度和相對的面彼此平行。三維EPS采集系統二三維操作界面聯動的優勢,可確保房屋的邊緣、角落和模型完美契合[4]。
2? 試驗及精度分析
試驗區位于北京市大興區某村,面積約0.5 km2,主要是住宅樓,大部分為3~4層。在此測試中,使用配備5鏡頭傾斜相機的六旋翼無人機收集圖像數據(見圖2)。無人機相對高度65 m,飛行速度8.2 m/s,航向重疊率為80%,水平重疊率為75%,圖像尺寸像素為4864×3648,圖像背景分辨率為1.2 cm[5]。
2.1 試驗結果
根據上述基于傾斜攝影三維建模的房地產制圖和測量方法,首先,為了檢查圖像質量問題,對傾斜圖像數據進行預處理。調整圖像的色差,以減少斜射曝光時圖像中每種光的對比度,減少強度不一致所帶來的模型精度引起的誤差影響;檢查POS數據并刪除姿態不好的影像。然后,將預處理的傾斜圖像導入到Smart3D中,以進行空三處理以及數字表面模型(DSM)和數字正射影像(DOM)生成。將Smart3D生成的數字表面模型和數字正射影像導入EPS三維采集系統中,以收集地形特征和地貌,獲得平面圖和三維地圖,具體情況見圖3。
2.2 精度分析
房地產測繪、地籍測繪等房地產測繪的精度要求是基于邊界點位置誤差、相鄰邊界點距離誤差、面積測量精度[6]。對每個指標進行如下對比分析。
2.2.1 邊界點精度分析對比
為了驗證采集到的樓盤平面圖的點精度,采集了拐角、墻壁、道路拐角等一些特征點。通過將這些特征點的點坐標作為房地產平面圖的驗證點,計算驗證點的誤差,可以判斷驗證點的誤差是否符合相關規定要求。采用常規測量方法共采集到620個檢測點,計算得到的檢測點誤差為0.03 m。其中,455個點的點誤差為區間[0, m],146個點的點誤差為區間(m, 2m],超過2 m的點數為19,總錯誤率點位誤差是否滿足標準要求(平均誤為5 cm)。
2.2.2 橫向長度精度分析
為確認橫向長度精度,選取46條邊進行面內分析,并在該區域內測量這46條邊對應的長度作為檢驗標準。校驗邊長度誤差計算為0.037 m,39邊長度誤差絕對值為誤差區間[0,m],6邊長度絕對值為誤差絕對值,誤差區間(m,2m)為一側橫向長度誤差大于2 m,總誤差率為2.2%。從以上討論可以得出,精密無人機斜圖三維建模的建筑物邊長(即相鄰邊界點之間的距離)的測量結果滿足規范要求(平均誤差5 cm)。
2.2.3 面積精度分析
選擇并測量計劃中15棟房屋的面積作為檢查面積精度的依據,并據此對測量區域內的15棟房屋的面積進行測量。這15棟房屋中6棟的面積誤差絕對值在[0,m]范圍內,9棟房屋的面積誤差絕對值為(m,2m)。因此,基于3D建模房地產地形和無人機傾斜攝影的測區測量精度符合規范。
總之,通過對界址點位置誤差和相鄰界址點間距誤差以及面積測量精度的比較分析,可以得出結論:房地產測量和制圖精度,如采用傾斜攝影的3D建模方法,可以滿足規范要求,將傾斜攝影的3D建模技術應用于房地產測量和制圖是有效的。
3? 相較傳統不動產測繪具有的優勢
該文將無人機傾斜攝影測量的3D建模技術應用于房地產測量和制圖。根據實踐,與傳統的測繪操作相比,具有以下優點。
(1)與傳統的房地產測繪相比,不需要進入院子進行測繪作業,只需要在開闊地進行測量,即可得到真實的三維模型,并且可以使用五點方法在模型中。
(2)與傳統的測繪操作相比較,可以直接在3D模型中收集門廊、屋檐廊道、天棚廊道和其他附屬房屋設施,而無需選擇在地面上的投影點,減少了人為因素造成的誤差;三維映射可以從多個視角收集數據。與全站儀相比,盲點非常小,減少了復雜地形上支點引起的誤差,突出了精度方面的優勢。
(3)與傳統的測繪操作相比,節省了來自外部行業,層數、屬性等方面的屋檐校正測繪。方便快捷、高效、快速地完成測繪任務,大大降低了測量單元的運行成本。
參考文獻
[1] 李哲.基于無人機傾斜攝影測量技術的廢棄礦山測量[D].華北理工大學,2020.
[2] 王英.傾斜攝影測量技術在房地一體確權中的應用[J].地礦測繪,2020,36(4):41-43.
[3] 牛利偉.基于無人機傾斜攝影測量的行道樹特征提取與分類研究[D].北京林業大學,2020.
[4] 劉旭.無人機傾斜攝影測量在農村不動產權籍調查中的應用[J].測繪與空間地理信息,2021,44(1):200-203.
[5] 邢曉平.無人機傾斜攝影測量在大比例尺地形圖測圖中的精度分析及應用研究[D].山東科技大學,2020.
[6] 盛輝,池海旭.傾斜攝影測量在建筑附屬設施施工中的應用[J].地理空間信息,2021,19(1):109-111.