999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多特征融合的點云場景語義分割

2023-10-21 08:36:44郝雯汪洋魏海南
計算機應用 2023年10期
關鍵詞:語義特征信息

郝雯,汪洋,魏海南

基于多特征融合的點云場景語義分割

郝雯*,汪洋,魏海南

(西安理工大學 計算機科學與工程學院,西安 710048)( ? 通信作者電子郵箱haowensxsf@163.com)

為挖掘特征間的語義關系以及空間分布信息,并通過多特征增強進一步改善點云語義分割的效果,提出一種基于多特征融合的點云場景語義分割網絡(MFF-Net)。所提網絡以點的三維坐標和改進后的邊特征作為輸入,首先,利用-近鄰(NN)算法搜尋點的近鄰點,并在三維坐標和近鄰點間坐標差值的基礎上計算幾何偏移量,從而增強點的局部幾何特征表示;其次,將中心點與近鄰點間的距離作為權重信息更新邊特征,并引入空間注意力機制,獲取特征間的語義信息;再次,通過計算近鄰特征間的差值,利用均值池化操作進一步提取特征間的空間分布信息;最后,利用注意力池化操作融合三邊特征。實驗結果表明,所提網絡在S3DIS(Stanford 3D large-scale Indoor Spaces)數據集上的平均交并比(mIoU)達到了67.5%,總體準確率(OA)達到了87.2%,相較于PointNet++分別提高10.2和3.4個百分點,可見MFF-Net在大型室內/室外場景均能獲得良好的分割效果。

點云;語義分割;空間注意力;注意力池化;特征融合

0 引言

點云作為描述三維物體表面幾何信息的大量點的集合,在表達三維物體的空間位置以及物體間的拓撲關系上具有獨特的優勢,目前點云數據已廣泛運用在自動駕駛、地圖勘探、數字化城市等多個領域。針對點云的語義分割作為三維場景理解與重建的重要基礎,是三維環境感知和機器視覺的重要組成部分。傳統的點云分割方法過分依賴人工設計特征,計算量大,難以滿足復雜點云場景的處理需求。隨著深度學習在圖像處理領域的廣泛應用,基于深度學習的點云語義分割方法也獲得了長足的發展[1];然而,面對點云數據的無序性、海量性以及稠密不均性,利用深度學習技術從三維點云中提取穩定的一致性特征,準確完成點云數據的分割仍然是研究中的難點。

已有的基于深度學習的點云語義分割方法大致可以分為3類:基于多層感知機(MultiLayer Perceptron, MLP)的方法、基于圖卷積的方法以及基于注意力機制的方法。

基于MLP的方法是利用共享的MLP和池化操作提取點的特征。PointNet[2]是首個直接以原始點云數據作為輸入的深度學習網絡,采用MLP提取每個點的特征,利用最大池化操作聚合點的信息,進而獲取全局特征,但忽略了點間局部特征的提取。Qi等[3]在PointNet基礎上提出了PointNet++,該方法首先對輸入的點云數據進行采樣和區域劃分,其次在各個小區域內遞歸地利用PointNet進行特征提取,最后融合點云的全局和局部特征;但與PointNet相似,PointNet++未考慮點與點之間的關系,如方向性等,對于局部特征的學習仍然不夠充分。RandLA-Net (Random sampling and an effective Local feature Aggregator Network)[4]利用隨機點采樣法對點云數據進行采樣,并通過局部特征聚合模塊提取幾何特征;利用隨機點采樣法可以提升算法效率,但會造成關鍵點信息丟失。位置自適應卷積(Position Adaptive Convolution, PAConv)[5]利用權重矩陣優化卷積運算,提高了網絡對點特征的感知能力,但存儲過多的權重矩陣可能會造成網絡冗余,帶來較大的內存占用和計算負擔。

基于MLP的方法通常比較關注點的幾何特征的提取,缺乏捕捉點間語義特征的能力。

基于圖卷積的方法將卷積運算與圖結構進行結合,構成圖卷積神經網絡。圖結構將每個點作為圖的頂點,同時構造與鄰域點之間的有向邊,并在鄰域點上運用卷積操作,結合池化操作聚合鄰域點信息,通過邊的權重傳遞更新頂點特征。動態圖卷積神經網絡(Dynamic Graph Convolution Neural Network, DGCNN)[6]通過構造局部特征鄰域圖,利用多層堆疊的方式動態更新特征。邊卷積(EdgeConv)在網絡的每一層通過動態構建圖結構計算邊特征,使用卷積操作提取局部幾何信息。DGCNN中的邊特征只關注中心點與近鄰點之間的關系,忽略了各個近鄰點之間的向量方向,導致損失一部分的局部結構信息。因此,Zhang等[7]在DGCNN框架的基礎上,提出了LDGCNN(Linked DGCNN),它的核心在于提取來自不同動態圖的特征并進行拼接,同時使用MLP代替轉換網絡,有效解決了梯度消失的問題,但對于高維的全局語義特征提取不足。Chen等[8]提出一種融合點云方向與距離的圖卷積神經網絡,首先通過計算兩點間的余弦相似度,得到相似度矩陣;其次,選取相似度最高的個點構建動態鄰域圖,提取兩點間的邊緣特征。該模型關注點間幾何特征的提取,忽略了點間的語義特征。Du等[9]提出了局部?全局圖卷積方法(Local-Global Graph Convolutional Method, LGGCM)。該方法通過構造近鄰點的局部圖計算加權鄰接矩陣,更新和聚合點特征以獲得點云的局部空間幾何特征,并將空間幾何特征輸入帶有門控單元的全局空間注意力模塊,以提取點間的依賴關系;但對于點比較稀疏的物體類別分割效果較差。

基于圖卷積的方法能有效提取點的幾何特征,但由于缺少對全局語義特征的提取,使得網絡對特征的感知能力不足。

基于注意力機制的方法將有限的算力集中于重點信息,快速提取最有效的特征信息。基于圖注意力的點神經網絡(Graph Attention based Point neural Network, GAPNet)[10]通過在MLP層中嵌入圖注意力機制,有效獲取局部幾何特征;但該網絡對全局特征提取不足,對邊界區域的分割效果較差。Chen等[11]提出雙重自注意力卷積網絡,該網絡包括點注意力模塊和分組注意力模塊,分別用于提取點的幾何特征以及不同組之間的相關性。GA-NET(Guided Aggregation NET)[12]由點相關和點無關全局注意力模塊組成,其中:點相關全局注意力模塊利用兩個隨機抽樣子集自適應聚合點的上下文信息;點無關注意力模塊用于共享所有點的全局注意圖,該網絡更關注全局特征的獲取,對局部特征的表征能力不足。Chen等[13]提出一種基于自注意的全局特征增強網絡,該網絡包括下采樣模塊、全局特征自注意編碼模塊、加權語義映射模塊和上采樣模塊。通過全局自注意編碼模塊提取點的全局語義特征,并利用加權語義映射模塊增強特征;但該網絡上采樣與下采樣模塊采用線性連接結構,會導致特征提取過程中部分特征信息的丟失。

基于注意力機制的方法能有效提取點間的語義信息,但在局部細節特征的表達能力不足。

上述網絡模型主要關注點的全局或局部特征以及點間語義特征的提取,缺乏對特征間上下文關系的挖掘,導致特征提取不全面。因此,本文提出一種基于多特征融合的點云場景語義分割網絡(Multi-Feature Fusion based point cloud scene semantic segmentation Network, MFF-Net),該網絡以點的三維坐標和改進后的邊特征作為輸入,充分考慮點的幾何特征和特征間的語義關系,以獲得具有獨特性和魯棒性的特征。該網絡具有以下特點:

1)利用點的坐標信息改進邊特征,充分考慮點本身的坐標值以及該點與近鄰點間的關系,提高網絡的幾何特征表征能力。

2)基于中心點與近鄰點間的歐氏距離構造權重模塊,將特征按權重融合,去除冗余信息,并引入空間注意力機制,以提取有效的局部語義特征。

3)計算特征與近鄰特征間的差值,利用均值池化操作,提取空間語義分布特征,提高網絡特征分布的捕捉能力。

1 基于多特征融合的點云場景語義分割網絡

1.1 MFF-Net的框架

經過5層編碼,點的數量從逐步采樣到/512,每層輸出的特征維度分別為16、64、128、256和512。之后通過5層解碼層,利用最近鄰插值法對高維特征進行上采樣(Up-Sample, US),并對融合后的特征進行反卷積操作。最后,經過3個全連接層(Fully Connected layer, FC),為點云場景中每個點分配類別標簽,從而完成點云數據的語義分割任務。

圖1 MFF-Net的框架

1.2 網絡輸入

融合每點的三維坐標和改進后的邊特征輸入MFF-Net。

1.3 多特征融合模塊

圖2為多特征融合模塊的示意圖,該模塊分別提取點的幾何特征、特征間的語義信息和空間語義分布特征,并利用注意力池化操作聚合3個特征,以充分融合所獲取的特征信息,提高網絡的語義分割準確率。

圖2 多特征融合模塊

1.3.1幾何特征提取

圖3 權重計算模塊

1.3.2局部語義特征提取

圖4 空間注意力模塊示意圖

1.3.3空間語義分布特征提取

為了進一步提取特征在高維空間的分布情況,本文對邊特征及其近鄰邊特征間的差值應用MLP,以提取語義特征的空間分布信息,提高網絡對語義特征的感知能力。

1.3.4特征融合

2 實驗與結果分析

2.1 實驗數據與評價指標

本文利用兩個公共的大規模三維場景數據集S3DIS(Stanford 3D large-scale Indoor Spaces)[14]和Sematic3D[15]測試MFF-Net的性能。S3DIS數據集由6個子區域共272個室內場景數據組成,每個場景的點云數量從50萬到250萬不等,包括三維坐標、顏色信息和歸一化的三維坐標,其中每個點都被標記為13個類別中的某一類別。Semantic3D數據集由定點激光掃描儀獲得,共40多億個點,包含廣場、市政廳和農場等多個場景數據,由15個訓練集和15個測試集組成,該數據被標記為8個類別,原始點云數據包含三維坐標、顏色信息和強度信息。

本文實驗運行環境為64位Linux操作系統,Intel i7 8700處理器、48 GB內存、RTX2080顯卡。訓練時batchsize設置為2,訓練輪次(epoch)設置為100,損失函數選用為交叉熵函數,采用Adam作為優化器,初始學習率設置為0.01,每個epoch的衰減率為5%,全連接層中的dropout參數設置為0.5。

為了評估MFF-Net的有效性,本文采用平均交并比 (mean Intersection over Union, mIoU)、平均準確率(mean Accuracy, mAcc)和總體準確率(Overall Accuracy, OA)作為評估標準。計算公式分別為:

2.2 實驗結果及分析

1)S3DIS數據集。

本文分別采用6折交叉驗證和單獨將Area5作為測試數據對MFF-Net進行評估,6折交叉驗證是將數據分為6個部分,將每個部分的場景數據分別作為測試集進行訓練和測試,以體現網絡的泛化能力,由于Area5數據中包含的物體與其他5個區域存在差異,可評估網絡的可推廣性。

表1為不同網絡模型利用6折交叉驗證在S3DIS數據集上的語義分割結果。

表1 在S3DIS數據集上的6折交叉驗證語義分割結果 單位:%

從表1結果可以看出,對于mAcc,本文網絡模型比PointNet[2]高出13.8個百分點,比RSNet(Recurrent Slice Network)[16]高出13.5個百分點,比SPG(SuperPoint Graph)[17]高出7.0個百分點,比PointWeb[18]、GFSOP-Net(Geometric Feature Sensing Of Point Network)[21]和BAAFNet(Bilateral Augmentation and Adaptive Fusion Network)[23]分別高3.8、9.0和0.6個百分點;對于OA,本文網絡模型相較于PointNet提高了8.6個百分點,比SPG高0.8個百分點,比DGCNN[6]高2.9個百分點,相較于MPNet(Memory-augmented Network)[19]和BAAFNet[23]提高了0.4和0.1個百分點;對于mIoU,本文網絡模型比PointNet高19.9個百分點,比Octant-CNN(Octant Convolutional Neural Network)[20]高9.2個百分點,比AMFF-DGCNN(Attention based Multi-Feature Fusion DGCNN)[22]高7.6個百分點,相較于其他模型提高0.8~11.0個百分點。表1中第5~17列分別代表不同類別物體(例如:桌子、椅子、沙發等)的分割準確率,可以看出,MFF-Net在地板、柱、桌子、書柜、黑板和雜物這6類物體取得了最高的分割準確率。

表2為MFF-Net將Area5作為測試集的語義分割結果。MFF-Net在mIoU上比PointNet高了21.91個百分點,比SegCloud(Semantic segmentation of 3D point Clouds)高14.1個百分點,比DGCNN、PointWeb和BAAFNet[23]分別高15.4、2.7和0.7個百分點。在OA方面,MFF-Net比DGCNN高3.8個百分點,相較于其他網絡模型高出0.1~2.5個百分點。在mAcc指標上,MFF-Net比PointWeb和BAAFNet分別高5.8和1.2個百分點(其中BAAFNet的實驗結果是在相同硬件環境和參數下運行得到的)。

表2 S3DIS數據集上的Area5語義分割結果 單位:%

圖5為MFF-Net與BAAFNet在S3DIS數據集上的可視化結果。在場景1中,MFF-Net分割得到的墻面黑板相較于BAAFNet更準確,且桌腿也分割得更準確;在場景2中,MFF-Net能夠較好地分割場景中的椅子,相較于BAAFNet,墻面和黑板的分割效果更完整;在場景3中,BAAFNet錯誤地將大區域墻面分類為其他物體,而MFF-Net則較完整地分割出了整塊的門板;在場景4中,BAAFNet錯誤地將大片的柜子和木板分為一類,MFF-Net則清晰地將兩者分開。相較于BAAFNet,MFF-Net在S3DIS數據集上能得到更好的分割效果,這主要得益于所提出的多特征提取模塊能較好地降低近鄰點的歧義信息影響。

2)Semantic3D數據集。

為了進一步驗證MFF-Net的有效性,將該網絡在Semantic3D數據集上進行訓練和測試。由于實驗設備的局限性,本文將輸入點數調整為28 672,batchsize設置為2。由表3可知,在同等參數的情況下,相較于BAAFNet,MFF-Net的OA和mIoU上分別提升了9.3和13.2個百分點;對于除汽車外的其他7個類別的分割準確率也都有所提升。實驗結果表明,與BAAFNet相比,本文所提MFF-Net能更好地聚合特征信息,提升了網絡對大型點云場景的分割準確率。

表3 Semantic3D(semantic-8)數據集上的語義分割結果 單位:%

圖6為利用BAAFNet與MFF-Net在Semantic3D數據集上分割結果對比。在場景5中,BAAFNet錯誤地將建筑物分割成人造景觀的黃色,且將樹木分割成了道路,而本文模型則很好地分割建筑物和樹木;在場景6中,BAAFNet將部分建筑的屋頂錯分為掃描偽影,而MFF-Net完整地識別出了建筑物;在場景7中,BAAFNet將汽車分割成了人造景觀,而MFF-Net將汽車正確分割成了代表汽車的紅色。可以看出,相較于BAAFNet,MFF-Net能較好地分割室外點云場景。

2.3 消融實驗

為了驗證不同模塊對網絡的重要性,本文在S3DIS數據集中的Area5數據上進行消融實驗,針對改進后的邊特征模塊、權重計算模塊、空間注意力模塊和空間語義分布特征模塊進行實驗驗證,探究每個模塊對實驗結果的影響(如表4所示)。

表4 消融實驗結果

根據表4可知,加入改進后邊特征模塊后,增加了幾何特征信息,解決了網絡的初始輸入特征的幾何信息不足的問題,mAcc達到了71.3%;加入鄰域權重計算模塊后,有效去除冗余信息,增加了顯著特征的比重,網絡模型的分割準確率提升了0.3個百分點;引入空間注意力機制后,有效提取了特征之間相關性,增強了網絡的全局特征表示,網絡模型的分割準確率提升至72.2%。為了進一步提高網絡對于語義特征的感知能力,融合空間語義分布特征模塊,網絡模型的分割準確率達到72.4%。

圖5 S3DIS數據集上BAAFNet和MFF-Net的語義分割結果

圖6 Semantic3D數據集上BAAFNet和MFF-Net的語義分割效果

3 結語

本文提出了一種基于多特征融合的點云場景語義分割網絡MFF-Net。在三維坐標的基礎上,計算幾何偏移量強化局部幾何特征,提高網絡對幾何特征的表征能力;在計算邊特征的基礎上,構造權重計算模塊,按權重信息融合邊特征,并引入空間注意力機制,提取特征間的全局依賴關系;在高維空間計算邊特征與鄰域邊特征間的差值,利用均值池化操作提取空間語義分布特征。實驗結果表明,MFF-Net在室內場景S3DIS和室外場景Sematic3D兩個數據集上均取得較好的語義分割效果。該網絡適用于處理大規模室內/室外點云場景數據,可以用于構建環境語義地圖,為移動機器人提供用于理解周圍環境的高層語義信息,實現位置定位,提高移動機器人的場景理解能力。

然而,MFF-Net是在固定鄰域中計算點的幾何特征和空間語義分布特征,易受點云數據的密度影響,因此,根據點云數據的密度自動設定鄰域值,以提高點云分割的準確率是下一步工作的重點。

[1] GUO Y, WANG H, HU Q, et al. Deep learning for 3D point clouds: a survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 43(12): 4338-4364.

[2] QI C R, SU H, MO K, et al. PointNet: deep learning on point sets for 3D classification and segmentation[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 77-85.

[3] QI C R, YI L, SU H, et al. PointNet++: deep hierarchical feature learning on point sets in a metric space[C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017: 5105-5114.

[4] HU Q, YANG B, XIE L, et al. RandLA-Net: efficient semantic segmentation of large-scale point clouds[C]// Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2020: 11105-11114.

[5] XU M, DING R, ZHAO H, et al. PAConv: position adaptive convolution with dynamic kernel assembling on point clouds[C]// Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2021: 3172-3181.

[6] WANG Y, SUN Y, LIU Z, et al. Dynamic graph CNN for learning on point clouds[J]. ACM Transactions on Graphics, 2019, 38(5): No.146.

[7] ZHANG K, HAO M, WANG J, et al. Linked dynamic graph CNN: learning on point cloud via linking hierarchical features[EB/OL]. (2019-08-06)[2022-11-12].https://arxiv.org/pdf/1904.10014.pdf.

[8] CHEN L, ZHANG Q. DDGCN: graph convolution network based on direction and distance for point cloud learning[J]. The Visual Computer, 2023, 39(3): 863-873.

[9] DU Z, YE H, CAO F. A novel local-global graph convolutional method for point cloud semantic segmentation[J]. IEEE Transactions on Neural Networks and Learning Systems, 2022(Early Access): 1-15.

[10] CHEN C, FRAGONARA L Z, TSOURDOS A. GAPNet: graph attention based point neural network for exploiting local feature of point cloud[EB/OL]. (2019-05-21) [2022-11-12].https://arxiv.org/pdf/1905.08705.pdf.

[11] CHEN L, CHEN W, XU Z, et al. DAPnet: a double self-attention convolutional network for point cloud semantic labeling[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 9680-9691.

[12] DENG S, DONG Q. GA-NET: global attention network for point cloud semantic segmentation[J]. IEEE Signal Processing Letters, 2021, 28: 1300-1304.

[13] CHEN Q, ZHANG Z, CHEN S, et al. A self-attention based global feature enhancing network for semantic segmentation of large-scale urban street-level point clouds[J]. International Journal of Applied Earth Observation and Geoinformation, 2022, 113: No.102974.

[14] ARMENI I, SENER O, ZAMIR A R, et al. 3D semantic parsing of large-scale indoor spaces[C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 1534-1543.

[15] HACKEL T, SAVINOV N, LADICKY L, et al. Semantic3D.net: a new large-scale point cloud classification benchmark[J]. ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 2017, IV-1/W1: 91-98.

[16] HUANG Q, WANG W, NEUMANN U. Recurrent slice networks for 3D segmentation of point clouds[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 2626-2635.

[17] LANDRIEU L, SIMONOVSKY M. Large-scale point cloud semantic segmentation with superpoint graphs[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 4558-4567.

[18] ZHAO H, JIANG L, FU C W, et al. PointWeb: enhancing local neighborhood features for point cloud processing[C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019: 5560-5568.

[19] HE T, GONG D, TIAN Z, et al. Learning and memorizing representative prototypes for 3D point cloud semantic and instance segmentation[C]// Proceedings of the 2020 European Conference on Computer Vision, LNCS 12363. Cham: Springer, 2020: 564-580.

[20] 許翔,帥惠,劉青山. 基于卦限卷積神經網絡的3D點云分析[J]. 自動化學報, 2021, 47(12):2791-2800.(XU X, SHUAI H, LIU Q S. Octant convolutional neural network for 3D point cloud analysis[J]. Acta Automatica Sinica, 2021, 47(12):2791-2800.)

[21] 魯斌,柳杰林. 基于特征增強的三維點云語義分割[J]. 計算機應用, 2023, 43(6):1818-1825.(LU B, LIU J L. Semantic segmentation for 3D point clouds based on feature enhancement[J]. Journal of Computer Applications, 2023, 43(6):1818-1825.)

[22] 郝雯,王紅霄,汪洋. 結合空間注意力與形狀特征的三維點云語義分割[J]. 激光與光電子學進展, 2022, 59(8): No.0828004.(HAO W, WANG H X, WANG Y. Semantic segmentation of three-dimensional point cloud based on spatial attention and shape feature[J]. Laser and Optoelectronics Progress, 2022, 59(8): No.0828004)

[23] QIU S, ANWAR S, BARNES N. Semantic segmentation for real point cloud scenes via bilateral augmentation and adaptive fusion[C]// Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2021: 1757-1767.

[24] TCHAPMI L, CHOY C, ARMENI I, et al. SEGCloud: semantic segmentation of 3D point clouds[C]// Proceedings of the 2017 International Conference on 3D Vision. Piscataway: IEEE, 2017: 537-547.

Semantic segmentation of point cloud scenes based on multi-feature fusion

HAO Wen*, WANG Yang, WEI Hainan

(,’,’710048,)

In order to mine the semantic relationships and spatial distribution among features, and further improve the semantic segmentation results of point cloud through multi-feature enhancement, a Multi-Feature Fusion based point cloud scene semantic segmentation Network (MFF-Net) was proposed. In the proposed network, the 3D coordinates and improved edge features were used as input, firstly, the neighbor points of the point were searched by using-Nearest Neighbor (NN) algorithm, and the geometric offsets were calculated based on 3D coordinates and coordinate differences among neighbor points, which enhanced the local geometric feature representation of points. Secondly, the distance between the central point and its neighbor points were used to as weighting information to update the edge features, and the spatial attention mechanism was introduced to obtain the semantic information among features. Thirdly, the spatial distribution information among features was further extracted by calculating the differences among neighbor features and using mean pooling operation. Finally, the trilateral features were fused based on attention pooling. Experimental results demonstrate that on S3DIS (Stanford 3D large-scale Indoor Spaces) dataset, the mean Intersection over Union (mIoU) of the proposed network is 67.5%, and the Overall Accuracy (OA) of the proposed network is 87.2%. These two values are 10.2 and 3.4 percentage points higher than those of PointNet++ respectively. It can be seen that MFF-Net can achieve good segmentation results in both large indoor and outdoor scenes.

point cloud; semantic segmentation; spatial attention; attention pooling; feature fusion

This work is partially supported by National Natural Science Foundation of China (61602373), Natural Science Foundation of Shaanxi Province (2021JM-342), Xi’an BeiLin Science Research Plan (GX2242).

HAO Wen, born in 1986, Ph. D., associate professor. Her research interests include point cloud scene segmentation and recognition.

WANG Yang,born in 1998, M. S. candidate. His research interests include point cloud scene segmentation.

WEI Hainan, born in 1998, M. S. candidate. Her research interests include point cloud scene segmentation.

1001-9081(2023)10-3202-07

10.11772/j.issn.1001-9081.2023020119

2023?02?15;

2023?04?03;

國家自然科學基金資助項目(61602373);陜西省自然科學基金資助項目(2021JM-342);西安市碑林區研發項目(GX2242)。

郝雯(1986—),女,河南平頂山人,副教授,博士,CCF會員,主要研究方向:點云場景分割和識別; 汪洋(1998—),男,安徽合肥人,碩士研究生,主要研究方向:點云場景分割; 魏海南(1998—),女,河北承德人,碩士研究生,主要研究方向:點云場景分割。

P391.41

A

2023?04?07。

猜你喜歡
語義特征信息
語言與語義
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
認知范疇模糊與語義模糊
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
語義分析與漢俄副名組合
外語學刊(2011年1期)2011-01-22 03:38:33
主站蜘蛛池模板: 亚洲无码视频一区二区三区| 色婷婷视频在线| 亚洲精品在线91| 欧美亚洲欧美区| 波多野结衣一区二区三区88| 自偷自拍三级全三级视频| 国内精品小视频福利网址| 91蝌蚪视频在线观看| 综合五月天网| 国产乱子伦精品视频| 亚洲精品天堂自在久久77| 欧美成在线视频| 亚洲天堂免费| 五月综合色婷婷| 亚洲大尺码专区影院| 午夜日本永久乱码免费播放片| 不卡午夜视频| 国产丝袜丝视频在线观看| AV片亚洲国产男人的天堂| 久久永久视频| 成人午夜视频网站| 99视频在线看| 国产福利拍拍拍| 亚洲免费三区| 丰满的熟女一区二区三区l| 亚洲乱码在线视频| 国产精品无码在线看| 国产成人综合日韩精品无码不卡| 国产菊爆视频在线观看| 成人亚洲视频| 久久久久无码国产精品不卡| 国产超碰在线观看| 久久人与动人物A级毛片| 又爽又大又黄a级毛片在线视频 | 国产性生大片免费观看性欧美| 国产精品永久在线| 国产爽歪歪免费视频在线观看| 国产无码精品在线播放| 一本久道热中字伊人| 亚洲日韩精品无码专区| 片在线无码观看| 五月天福利视频| 欧美区在线播放| 91小视频版在线观看www| 日韩a在线观看免费观看| 国产草草影院18成年视频| 日韩小视频在线观看| 欧美日韩va| 亚洲91精品视频| 手机成人午夜在线视频| 亚洲精品午夜天堂网页| 日韩毛片在线播放| 国禁国产you女视频网站| 欧美三级自拍| 日本精品影院| 波多野结衣无码中文字幕在线观看一区二区 | 一个色综合久久| 在线五月婷婷| 尤物在线观看乱码| 狠狠色噜噜狠狠狠狠奇米777 | 国产高清在线精品一区二区三区 | 亚洲第一天堂无码专区| 欧美人与牲动交a欧美精品| 国产99精品视频| 91探花国产综合在线精品| av在线手机播放| 91精品国产91欠久久久久| 99re在线视频观看| 亚洲欧美在线综合图区| 视频二区亚洲精品| 亚洲视频免费在线| yy6080理论大片一级久久| 91精品国产自产91精品资源| 国产免费a级片| 在线精品视频成人网| 日韩无码白| 伊人蕉久影院| 亚洲天堂成人在线观看| 国产三区二区| 亚洲AV人人澡人人双人| AⅤ色综合久久天堂AV色综合| 亚洲无卡视频|