徐 軍,尹長林,許文強
(1.湖南省第二測繪院,湖南 長沙 410009;2.自然資源部 南方丘陵區自然資源監測監管重點實驗室,湖南 長沙 410009;3.長沙市規劃信息服務中心,湖南 長沙 410013)
現有的傾斜攝影城市三維場景僅表達了城市的表面特征,缺乏語義信息,不利于深度應用。為此,本研究提出了一種基于深度學習神經網絡的傾斜攝影三維模型的語義分割方法。針對傾斜攝影三維格網轉換后的點云數據,首先采用最小能量計算進行幾何分區和超點圖構建,采取一種特征融合神經網絡模型FF-PointNet(feature fusion-pointNet),實現點云局部特征和全局特征提取和融合,并將融合后的特征嵌入超點圖,最后采用圖卷積網絡進行語義分割。為提高模型泛化能力,采用focal loss作為損失函數,同時對點云數據進行了數據增強處理。經過實驗驗證,并與SPG模型進行對比,結果表明本文所提出的傾斜攝影三維語義分割方法具有較好的精度和適用性。
利用傾斜攝影平臺快速獲取多角度影像,已成為當前獲取空間數據的有效方式之一,尤其是在三維城市建設等領域有著獨特的優勢。傾斜攝影具有數據采集速度快、生產成本低、自動化程度高、成果表達豐富等特點,近年來逐漸成為城市三維建模的主流方法。
但是傾斜攝影三維數據存在的一個普遍問題是缺乏語義信息,計算機無法自動識別和區分場景中的地面、樹木、建筑、道路等不同類型的語義信息,重建后的模型往往只能用于展示和瀏覽。語義分割是提取三維數據語義信息的必要手段,其目標是對感興趣的幾何要素對象(如三維點、面片等)自動分配一個類別標簽。……