999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

多尺度特征融合對比學習結合PointMetaBase的點云分割

2024-09-15 00:00:00楊林杰張斌張志圣
現代電子技術 2024年15期
關鍵詞:深度學習

摘 "要: 點云場景邊界的精確分割對提升三維點云整體分割精度和小目標的分割精度都非常重要。針對現有三維點云語義分割算法中存在的對點云場景邊界分割不準確的問題,設計了一種新的多尺度特征融合對比學習方法,并將其集成到PointMetaBase網絡上,提出了MFFCL?PMB三維點云語義分割網絡。該網絡將解碼器各層的輸入和輸出平行多路徑地輸入多尺度特征提取網絡,其次將多尺度特征進行拼接融合,最后由邊界搜索模塊確定點云場景邊界點,在邊界點對應的多尺度融合特征上進行對比學習,使網絡學習到使特征區分度更大的權重。MFFCL?PMB在數據集S3DIS的測試集區域5上的mIoU為70.9%,相比原始的PointMetaBase,在邊界上的mIoU增加了1.4%,內部區域mIoU增加了1.2%,總體mIoU增加了1.2%,邊界mIoU增量比內部區域增加的mIoU更大,說明MFFCL?PMB有效增強了PointMetaBase在邊界上的分割表現并提高了網絡在點云總體上的語義分割性能。

關鍵詞: 深度學習; 三維點云; 語義分割; 對比學習; 多尺度特征融合; 編碼器; 解碼器

中圖分類號: TN919?34; TP391.41 " " " " " " " " " 文獻標識碼: A " " " " " " " " "文章編號: 1004?373X(2024)15?0091?07

Multi?scale feature fusion contrastive learning combining

with PointMetaBase for point cloud segmentation

YANG Linjie, ZHANG Bin, ZHANG Zhisheng

(School of Electronic Engineering and Automation, Guilin University of Electronic Technology, Guilin 541004, China)

Abstract: The accurate segmentation of point cloud scene boundaries is crucial for improving the overall segmentation accuracy of 3D point clouds and the segmentation accuracy of small objects. A novel multi?scale feature fusion contrastive learning (CL) method is designed and integrated into the PointMetaBase network to address the issue of inaccurate segmentation of point cloud scene boundaries in the existing 3D point cloud semantic segmentation methods. The proposed network is termed MFFCL?PMB (multi?scale feature fusion contrastive learning combining with PointMetaBase) for 3D point cloud semantic segmentation. In this network, the input and output of each layer in the decoder are fed into a multi?scale feature extraction network in a parallel and multipath manner. Subsequently, the multi?scale features are concatenated and fused. Finally, the boundary search module (BSM) is used to determine the point cloud scene boundary points. Contrastive learning is carried out on the multi?scale fused features corresponding to the boundary points and enables the network to learn weights that enhance feature discrimination. The mIoU (mean intersection over union) of MFFCL?PMB on the test area 5 of the S3DIS dataset is 70.9%. In comparison with the original PointMetaBase, the mIoU on the boundaries increases by 1.4%, the mIoU in the internal regions increases by 1.2%, and the overall mIoU increases by 1.2%. The increment of mIoU on boundary is greater than that in internal regions, which indicates that the MFFCL?PMB effectively enhances the segmentation performance of PointMetaBase on the boundaries and improves the network′s semantic segmentation performance on the entire point clouds.

Keywords: deep learning; 3D point cloud; semantic segmentation; contrastive learning; multi?scale feature fusion; encoder; decoder

0 "引 "言

三維點云語義分割是自動駕駛、機器人環境感知、醫學影像處理應用的基礎任務,目的是為點云中的每一個點分配一個標簽。隨著激光雷達、RGB?D相機的應用,三維點云數據的獲取變得越來越便捷,大規模點云數據集被提出,越來越多的方法被提出用于解決點云的語義分割問題。基于深度學習的方法目前是三維點云語義分割領域的主流,可以分為基于投影[1?3]、基于三維體素劃分[4?8]和基于原始點云[9?13]三種。

與圖片不同,由于點云具有稀疏、無序和不規則的特點,難以直接使用卷積神經網絡學習,基于投影的方法將點云轉換為一系列圖片后,使用已有的二維語義分割算法進行處理,但這種處理方式會導致空間信息、幾何信息的丟失。基于三維體素劃分的方法將點云轉換為三維體素應用三維卷積處理。這類算法的優點是保留了點云的空間和幾何信息,但隨著體素分辨率的變化,會存在不同程度的細節信息損失。PointNet[9]引入了置換不變性,能夠直接處理原始點云數據。隨后一系列基于原始點云的方法被提出,如Pointnet++[10]、PointNeXt[11]、Point Transformer[12],這些方法專注于為每個點捕捉更廣泛的上下文并學習更豐富的局部結構,能夠避免空間信息的丟失,但具有較高的參數量和計算開銷。文獻[13]總結了主流基于原始點云方法的結構,提出了一種更高效的方法PointMetaBase。然而PointMetaBase在對點云局部信息的學習中仍忽視了對場景邊界信息的利用,并由于對場景邊界點的誤分類造成對點云整體分割精度的下降。

點云場景邊界的精確分割對自動駕駛車輛、機器人對環境的感知十分重要。如果對邊界識別不準確,可能造成嚴重的問題,例如:機器人將墻面和地面混淆,則可能發生碰撞。由于在場景邊界上,不同類的點距離很近,語義分割網絡在匯聚局部信息時容易混淆屬于不同類點的特征,學習到模糊的特征導致誤分類。大量誤分類發生在點云邊界上,因此提升邊界點分割精度對于提升模型的整體分割效果幫助很大[14]。

本文針對PointMetaBase算法中存在的對點云場景邊界分割不準確的問題,提出了一種多尺度特征融合對比學習(Contrastive Learning, CL)結合PointMetaBase的三維點云語義分割方法(Multi?scale Feature Fusion Contrastive Learning Combining with PointMetaBase, MFFCL?PMB)。具體研究內容為:設計了一種新的對比學習方法,在多尺度融合特征上進行對比學習,包括:

1) 采用多尺度特征融合網絡(Multi?Scale Feature Fusion Network, MFF?Net)將PointMetaBase解碼器第一層的輸入和余下各層的輸出特征進行融合,為對比學習提供高層次的全局語義信息和低層次的局部幾何信息;

2) 采用邊界搜索模塊(Boundary Search Module, BSM)確定點云場景邊界點,在邊界點對應的多尺度融合特征上進行對比學習,使MFFCL?PMB在邊界的兩側學習到區分度更大的表征,從而提高網絡對場景邊界的分割性能。

基于原始點云的分割方法采用對比學習優化網絡,對邊界的分割性能通常需要利用編碼器或解碼器提供的多個語義尺度的特征和上下文,MFFCL?PMB基于多尺度融合特征進行對比學習而非在各尺度上進行多次對比學習,能夠在充分利用各層隱藏表征的同時避免引入大量參數和浮點運算數,提供了一種高效的點云語義分割方法。

1 "MFFCL?PMB方法

MFFCL?PMB方法的網絡結構如圖1所示。該網絡由PointMetaBase主干網、MFF?Net組成,采用對比學習損失、交叉熵損失對網絡進行優化。

PointMetaBase主干網[13]采用編碼器?解碼器結構。編碼器由一層MLP和若干PointMetaSA、PointMetaBase模塊前后堆疊組成,解碼器采用文獻[11]中設計的特征傳播層。MLP的通道數為32,在其后編碼器的每一層由一個PointMetaSA下采樣模塊和若干個PointMetaBase構建模塊組成,根據PointMetaBase模塊數量的不同可組成不同規模的主干網。本文中各層編碼器的PointMetaBase的個數為2、4、2、2,對應的基準模型為PointMetaBase?L。PointMetaBase模塊的輸入輸出如式(1)、式(2)所示:

[ "f'i= fi+ MLP3Maxej+GroupMLP1( fi)] (1)

[ej=MLP2(pj-pi)] (2)

式中:[fi]、[ f'i]表示模塊的輸入、輸出特征;[pi]、[pj]分別表示點[xi]的坐標和鄰居點坐標;[Group (?)]表示分組函數,不同下標的[MLP (?)]表示結構不同的多層感知機;[Max(?)]表示最大池化層;[ej]表示位置編碼。如式(1)、式(2)所示,采用先經過MLP再分組的方式,減少了大量的浮點運算數(Floating Point Operations, FLOPs);采用最大池化進行鄰居聚合,相比于可學習的聚合函數,在減少了計算量的情況下取得了相近的性能;采用顯式的位置編碼彌補了先經過多層感知機再分組的方式導致對位置關系感知的不足[13]。

然而,PointMetaBase缺乏對邊界信息的利用。在提取特征和位置編碼的過程中對邊界上不同類的點不加區分,可能導致網絡根據鄰居點之間相近的位置關系錯誤分類。因此,MFFCL?PMB集成MFF?Net,將主干網解碼器4個特征傳播層的輸入和輸出平行多路徑輸入MFF?Net中的5個MLP對齊特征維度,再由上采樣層(Upsample)進行特征插值,隨后對各層特征進行拼接,最后由線性層(Linear)對特征進行融合,由BSM搜索確定邊界點對應的融合特征進行對比學習。以融合后的特征作為輸出預測,應用交叉熵損失函數優化整個網絡。

MFFCL的設計是受文獻[15]提出的CBL方法啟發,但與CBL在編碼器的4個下采樣階段進行對比學習后再對多尺度特征進行融合不同,MFFCL采用先對解碼器多尺度特征進行融合,再進行單階段對比學習的策略,這種策略既保證了利用多尺度信息進行對比學習,又減少了對比學習的次數,大大減小了模型的計算消耗。另一方面,采用CBL進行子場景邊界挖掘,確定下采樣階段點云的標簽;對下采樣階段[n]的第[i]個點[xni],采用KNN查詢,從下采樣階段[n-1]的點云中采樣若干個點,對這些點的標簽進行平均池化得到[xni]的標簽[lni]。這種方法可能會導致經過多次下采樣后,子場景的邊界與真實邊界產生偏差,從而導致對比學習效果不佳。消融實驗證明,在對PointMetaBase的改進中,相比于在PointMetaBase應用CBL采取的對比學習方法,MFFCL?PMB在計算開銷大大減小的情況下取得了更高的分割精度。

1.1 "多尺度特征融合網絡

如圖1所示,MFF?Net包含5個平行的MLP層、4個平行的上采樣層和1個線性層[15]。該網絡的MLP層從左向右依次是第0、1、2、3、4層,和上采樣層與解碼器各層平行多路徑連接,加深網絡深度,同時將解碼器各層輸出的每個特征維度數量對齊為32維,輸出總的特征數量對齊為原始點云[X]輸入的總點數[K]。MFF?Net將對齊后的5組特征在特征維度上進行拼接,得到[K]個160維的特征,最后送入線性層進行融合。每個MLP層由一個線性層、一個批量歸一化層和ReLU激活函數組成,線性層和批量歸一化層的具體結構如表1所示。經過融合的特征既包含了全局語義信息也包含了局部幾何信息,在其基礎上進行對比學習,與CBL在編碼器的各層分別進行對比學習相比,既利用了多尺度信息又減小了計算量。

1.2 "邊界搜索模塊

BSM根據公式(3)對包含點坐標、特征和標簽信息的點云數據進行邊界搜索[15]。

[Bl=xi∈X? xj∈N(xi), lj≠li] (3)

式中:[Bl]表示邊界點的集合;[X]表示原始輸入點云集合;[N(xi)]表示點[xi]的鄰居點集合;[li]與[lj]分別表示點[xi]與其鄰居點[xj]的標簽。對點[xi∈X]采用KNN查詢,從[X]中采樣點集[N(xi)],如圖2中左側點云中的虛線圈所示,圖中圓圈、正方形、六邊形代表不同類的點。對[xj∈N(xi)],若[xi]與[xj]的標簽滿足[lj≠li],則[xi]為邊界點。本文根據文獻[16?17]中的做法,將鄰居點的采樣半徑設置為0.1。

1.3 "對比學習損失函數

MFFCL?PMB采用的對比學習損失函數如公式(4)所示[15,18]:

[LCL=-1Blxi∈Bllogxj∈N(xi)∧lj=liexp-dfi,fjτxk∈N(xi)exp-dfi,fjτ] (4)

式中:[fi]表示點[xi]的特征;[fj]表示[xi]的鄰居點的特征;[d(? , ?)]表示距離函數;[τ]為對比學習中的溫度系數。如圖2中右側點云中虛線圈所示,對邊界點[xi]用KNN查詢采樣獲取鄰居點,將[xi]的特征與鄰居點中同類點特征、不同類點的特征組成不同的點對(如虛線圈中連線所示),進行對比學習。在訓練過程中,通過優化網絡權重,使得特征空間中同類的特征點在距離度量的意義下更為接近,異類的特征點在距離度量的意義下更為遠離。通過對比學習,可以有效提升不同類的邊界點之間的區分度,有利于模型分割得到更清晰的邊界。

網絡的整體損失函數被定義為交叉熵損失和對比學習損失的加權和,具體形式如公式(5)所示。

[L=Lcrossentropy+γ LCL] (5)

式中[γ]為損失權重。MFFCL?PMB僅在單階段應用對比學習,為了與CBL的多階段對比學習取得對網絡相近的懲罰程度,[γ]取值為5。

2 "實驗與分析

2.1 "數據集

S3DIS[19]是一個包含了約7億個點的大規模室內場景點云數據集,對點云語義分割任務來說很有挑戰性。其中包含了6個區域共272個房間的帶有RGB信息的點云數據。數據集中的點被標注為天花板、地板、墻、梁、柱、窗戶、門、桌、椅、沙發、書柜、板、雜物共13類。實驗將數據集中的區域5作為測試集,區域1~區域4和區域6作為訓練集。

2.2 "實驗環境與參數設置

實驗在一塊顯存為24 GB的NVIDIA RTX A5000顯卡上進行。訓練的batch size為8,采用AdamW優化器,初始學習率為0.001,采用Cosine衰減學習率,權重為10-4,從頭開始訓練100個epoch。對于PointMetaBase的復現,采用官方的代碼和預訓練權重。

2.3 "評價標準

除了目前多數論文注重的常見評價指標,如平均交并比(mIoU)、總體精確度(OA)外,為了對邊界點分割質量進行定量分析,本文引入邊界mIoU、內部mIoU評價指標[15]來分別評估模型對邊界點和內部點的分割性能。

對于整個點云[X],mIoU的計算如公式(6)所示:

[mIoU(X)=1Cc=1C xi∈XG(ρi=c∧ li=c) xj∈XG(ρi=c∨lj=c)] (6)

式中:[C]表示數據集中所有類的數量;[c]代表第[c]個類;[ρi]表示預測標簽;[G(?)]表示一個布爾函數,當括號中的表達式為真時,函數值為1,否則為0。根據平均交并比的定義和公式(3)對邊界點的定義,定義點云邊界mIoU和內部mIoU如式(7)、式(8)所示:

[mIoUboundary=mIoU( Bl)] (7)

[mIoUinner=mIoU( X-Bl)] (8)

OA的計算公式如公式(9)所示:

[OA=c=1C xi∈XG(ρi=c∧ li=c)K] (9)

式中[K]為點云[X]的總點數,即預測總數。

2.4 "實驗結果及分析

2.4.1 "性能比較

為驗證多尺度特征融合對比學習網絡的有效性,在S3DIS數據集上進行了基準網絡PointMetaBase?L和改進后的網絡MFFCL?PMB的對比實驗。表2顯示,PointMetaBase?L在點云邊界上的mIoU遠遠落后于內部的mIoU,而整體mIoU位于兩者之間,這說明是由于邊界上的誤分割降低了點云的整體分割精度。MFFCL?PMB相比于PointMetaBase?L,點云邊界mIoU提升了1.4%,點云內部mIoU提升了1.2%,整體的mIoU提升了1.2%。MFFCL?PMB在邊界上的mIoU提升幅度相比于內部和整體更為顯著,說明多尺度特征融合對比學習網絡有效提高了基準模型在點云邊界上的分割效果,進而提升了對點云整體的分割效果。

表3對比了MFFCL?PMB與近幾年提出的主流的三維點云語義分割方法的分割效果,表4對比了不同方法的參數量和浮點運算數。由表3可知,相比于基準模型PointMetaBase?L,MFFCL?PMB大幅提升了柱(+9.6%)、椅子(+2%)、板(+5%)等區域較小的類的分割效果,這說明了MFFCL?PMB通過提升邊界的分割精度,有效提升了小目標區域的分割效果。同時,與其他主流方法相比,MFFCL?PMB也取得了更好的表現。值得指出,MFFCL?PMB的有效性是由于采用了多尺度特征融合對比學習設計,而不是簡單地增大模型規模。如表4所示,MFFCL?PMB的參數量和浮點運算量僅為Point Transformer的36%和37%,mIoU卻提高了0.5%。PointNeXt?L將mIoU從69.5%提升到70.8%需要將網絡規模擴大為PointNeXt?XL,參數量增加了34.5M,浮點運算量增加了69.6 GFLOPs;而MFFCL?PMB將基準模型mIoU從69.7%提高到70.9%,參數量僅增加了0.1M,浮點運算量僅增加了0.06 GFLOPs。

圖3定性地展示了MFFCL?PMB通過提升邊界的分割精確度,有效地提升了網絡對場景的整體分割精度。

2.4.2 "消融實驗

如表5所示,消融實驗首先研究了MFFCL?PMB中MFF?Net和CL對PointMetaBase分割效果提升的有效性;其次研究了本文提出的新的結合MFF?Net和CL的設計方案MFFCL?PMB的有效性,并與CBL提出的原始對比邊界學習的方法進行了對比。

方法2的實驗結果顯示,若僅在PointMetaBase的原始輸出上應用對比學習,甚至會損害模型的分割表現(OA-0.2%),這可能是由于僅對模型最后一層輸出進行對比學習,缺乏多尺度信息,因此對比學習并不能幫助網絡學習到能更清晰地區分邊界的權重;方法3的結果顯示,多尺度特征能幫助PointMetaBase有效提高分割性能,但并不全面(mIoU+0.6%,OA-0.1%);方法4為本文提出的MFFCL?PMB,通過在多尺度融合特征上進行對比學習,網絡的分割性能獲得大幅提升(mIoU+1.2%,OA+0.1%);方法5的實驗結果顯示,CBL采用先進行多尺度對比學習,后對多尺度特征拼接融合輸出的方式,對模型分割效果的提升作用比較有限(mIoU+0.7%,OA-0.1%)。綜合各個方法的結果分析,簡單應用對比學習或多尺度特征融合對提升網絡的分割性能的作用比較有限,在多尺度融合特征的基礎上進行對比學習則能充分利用全局和局部的信息,通過優化網絡學習充分提高網絡分割性能的權重,但利用多尺度信息進行對比學習的網絡結構需要精心設計,MFFCL?PMB相比于CBL能在減少計算量的情況下更好地提升PointMetaBase的分割性能。

3 "結 "語

本文設計了一種新的多尺度特征融合對比學習方法,用以解決現有三維點云語義分割方法存在的對點云場景邊界分割不準確的問題,并將其結合到PointMetaBase網絡中,提出增強了點云邊界分割性能的MFFCL?PMB。通過引入評價指標邊界mIoU、內部mIoU,定量分析了PointMetaBase在邊界分割精度上的不足,并通過對比實驗驗證了MFFCL對提升PointMetaBase的邊界分割效果和點云整體分割效果的有效性。同時,實驗還顯示,本文提出的MFFCL的結構設計對提升分割性能具有關鍵作用,并且所提出的MFFCL?PMB在引入了較低的參數量和計算量的情況下獲得了性能提升,是一種高效的三維點云語義分割方法。

注:本文通訊作者為張斌。

參考文獻

[1] XU C F, WU B C, WANG Z N, et al. SqueezeSegV3: Spatially?adaptive convolution for efficient point?cloud segmentation [C]// Proceedings of 16th European Conference on Computer Vision. Heidelberg, Germany: Springer, 2020: 1?19.

[2] WU B C, ZHOU X Y, ZHAO S C, et al. SqueezeSegV2: Improved model structure and unsupervised domain adaptation for road?object segmentation from a lidar point cloud [C]// 2019 International Conference on Robotics and Automation (ICRA). New York: IEEE, 2019: 4376?4382.

[3] MILIOTO A, VIZZO I, BEHLEY J, et al. RangeNet++: Fast and accurate lidar semantic segmentation [C]// 2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). New York: IEEE, 2019: 4213?4220.

[4] HU Z Y, BAI X Y, SHANG J X, et al. Voxel?mesh network for geodesic?aware 3D semantic segmentation of indoor scenes [EB/OL]. [2022?07?28]. https://ieeexplore.ieee.org/document/9844250.

[5] CHEN Z Q, YIN K X, FISHER M, et al. BAE?NET: Branched autoencoder for shape co?segmentation [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2019: 8489?8498.

[6] CHOY C B, GWAK J Y, SAVARESE S. 4D spatio?temporal ConvNets: Minkowski convolutional neural networks [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2019: 3075?3084.

[7] HU Z Y, BAI X Y, SHANG J X, et al. VMNet: Voxel?mesh network for geodesic?aware 3D semantic segmentation [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 15468?15478.

[8] MENG H Y, GAO L, LAI Y K, et al. VV?Net: Voxel VAE net with group convolutions for point cloud segmentation [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2019: 8499?8507.

[9] QI C R, SU H, MO K C, et al. PointNet: Deep learning on point sets for 3D classification and segmentation [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2017: 77?85.

[10] QI C R, YI L, SU H, et al. PointNet++: Deep hierarchical feature learning on point sets in a metric space [C]// Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017. [S.l.: s.n.], 2017: 5099?5108.

[11] QIAN G C, LI Y C, PENG H W, et al. PointNeXt: Revisiting PointNet++ with improved training and scaling strategies [C]// Advances in Neural Information Processing Systems 35: Annual Conference on Neural Information Processing Systems 2022. [S.l.: s.n.], 2022: 23192?23204.

[12] ZHAO H S, JIANG L, JIA J Y, et al. Point transformer [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 16239?16248.

[13] LIN H J, ZHENG X W, LI L J, et al. Meta architecture for point cloud analysis [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2023: 17682?17691.

[14] GONG J Y, XU J C, TAN X, et al. Boundary?aware geometric encoding for semantic segmentation of point clouds [C]// Proceedings of the 35th AAAI Conference on Artificial Intelligence. [S.l.]: AAAI Press, 2021: 1424?1432.

[15] TANG L Y, ZHAN Y B, CHEN Z, et al. Contrastive boundary learning for point cloud segmentation [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2022: 8479?8489.

[16] LIU Z, HU H, CAO Y, et al. A closer look at local aggregation operators in point cloud analysis [C]// Proceedings of 16th European Conference on Computer Vision. Heidelberg, Germany: Springer, 2020: 326?342.

[17] THOMAS H, QI C R, DESCHAUD J E, et al. KPConv: Flexible and deformable convolution for point clouds [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2019: 6410?6419.

[18] FROSST N, PAPERNOT N, HINTON G E. Analyzing and improving representations with the soft nearest neighbor loss [C]// Proceedings of 36th International Conference on Machine Learning. New York: PMLR, 2019: 2012?2020.

[19] ARMENI I, SAX S, ZAMIR A R, et al. Joint 2D?3D?semantic data for indoor scene understanding [EB/OL]. [2022?09?23]. http://arxiv.org/abs/1702.01105.

[20] CHENG B W, GIRSHICK R B, DOLLáR P, et al. Boundary IoU: Improving object?centric image segmentation evaluation [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 15334?15342.

[21] LEE H J, KIM J U, LEE S, et al. Structure boundary preserving segmentation for medical image with ambiguous boundary [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 4816?4825.

[22] YUAN J L, DENG Z L, WANG S, et al. Multi receptive field network for semantic segmentation [C]// Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision. New York: IEEE, 2020: 1883?1892.

[23] HU Z Y, ZHEN M M, BAI X Y, et al. JSENet: Joint semantic segmentation and edge detection network for 3D point clouds [C]// Proceedings of 16th European Conference on Computer Vision. Heidelberg, Germany: Springer, 2020: 222?239.

[24] ZHANG B, SUN C F, FANG S Q, et al. Workshop safety helmet wearing detection model based on SCM?YOLO [J]. Sensors, 2022, 22(17): 6702.

[25] 魯子明,黃世秀,季錚,等.基于PointNet優化網絡的鐵路站臺語義分割[J].現代電子技術,2024,47(3):68?72.

作者簡介:楊林杰(1997—),男,廣西人,碩士研究生,研究方向為深度學習、三維點云語義分割。

張 "斌(1970—),男,湖南人,碩士,研究員,博士生導師,研究方向為深度學習、智能物聯網技術。

張志圣(2001—),男,河南人,碩士研究生,研究方向為深度學習、三維重建、點云分割。

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 天堂av综合网| 香蕉综合在线视频91| 东京热av无码电影一区二区| 久久人人妻人人爽人人卡片av| V一区无码内射国产| 激情网址在线观看| 欧美一区精品| 福利国产在线| 91精选国产大片| 亚洲手机在线| 国产欧美专区在线观看| 91视频日本| 亚洲区第一页| 91亚瑟视频| 欧美激情首页| 先锋资源久久| 欧美日韩综合网| 亚洲精品午夜天堂网页| 国产在线拍偷自揄拍精品| 欧美中文字幕在线视频| 最新国产在线| 久久久噜噜噜久久中文字幕色伊伊| 国产欧美日韩91| 国产日本一线在线观看免费| 免费中文字幕一级毛片| 欧美天堂久久| 欧美特黄一级大黄录像| 成人毛片免费观看| 丝袜亚洲综合| 97国产精品视频人人做人人爱| 97在线观看视频免费| 毛片在线看网站| 亚洲国产成人精品青青草原| 亚洲无码视频图片| 国产爽歪歪免费视频在线观看 | 亚洲成人高清无码| jizz在线观看| 久久精品无码一区二区日韩免费| 成人午夜福利视频| 白浆视频在线观看| 99热这里只有精品在线播放| 国产麻豆va精品视频| 午夜福利在线观看成人| 日本不卡在线| 高h视频在线| 亚洲人成在线免费观看| 久久久久久久蜜桃| 午夜色综合| 91po国产在线精品免费观看| 亚洲男人的天堂网| 91亚洲视频下载| 日韩精品亚洲一区中文字幕| 在线看片国产| 国产99视频精品免费视频7| 国产一二三区视频| 欧美精品在线免费| 国产日韩AV高潮在线| 狼友av永久网站免费观看| 亚洲天堂视频网站| 欧美综合中文字幕久久| 午夜国产大片免费观看| 国产在线视频欧美亚综合| 无码中字出轨中文人妻中文中| 亚洲va视频| 色网站在线视频| 黄色污网站在线观看| 9丨情侣偷在线精品国产| 欧美视频在线不卡| 在线观看的黄网| 国产精品黄色片| 影音先锋丝袜制服| 中文字幕av一区二区三区欲色| 无码区日韩专区免费系列| 亚洲男人在线| 久久青青草原亚洲av无码| 99热这里只有精品在线播放| 国产精品综合久久久| 色综合天天综合中文网| 日韩国产高清无码| 国产xxxxx免费视频| 91久草视频| 国产精品午夜电影|