999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于GCR?PointPillars的點云三維目標檢測

2024-09-14 00:00:00伍新月惠飛金鑫
現代電子技術 2024年11期

摘" 要: 針對PointPillars算法中存在識別與定位不準確的問題,提出一種GCR?PointPillars三維目標檢測模型,該模型首先在Pillar特征網絡中引入全局注意力機制,學習點云特征之間的相關性,增強偽圖特征的全局信息交互能力;其次,基于ConvNeXt V2重新構建特征提取網絡,提取更加豐富的語義信息,從而有效提升網絡的學習能力;最后引入RDIoU來聯合引導分類和回歸任務,有效緩解分類和回歸不一致的問題。文中模型在KITTI數據集中與基準網絡相比,汽車類別在簡單、中等、困難三種難度級別下分別提高了2.69%、4.29%、4.84%,并且推理速度達到25.8 f/s。實驗結果表明,文中模型在保持實時性速度的同時,檢測效果也有明顯提升。

關鍵詞: 三維目標檢測; 注意力機制; ConvNeXt V2; 損失函數; 激光雷達點云; 自動駕駛

中圖分類號: TN958.98?34; TP391" " " " " " " " " "文獻標識碼: A" " " " " " " " " 文章編號: 1004?373X(2024)11?0168?07

3D object detection in point cloud based on GCR?PointPillars

WU Xinyue1, HUI Fei1, 2, JIN Xin1

(1. School of Information Engineering, Chang’an University, Xi’an 710018, China;

2. School of Electronics and Control Engineering, Chang’an University, Xi’an 710018, China)

Abstract: In view of the inaccurate recognition and localization in PointPillars algorithm, a 3D object detection model based on GCR?PointPillars is proposed. In this model, a global attention mechanism (GAM) is introduced in the Pillar feature network to learn the correlation between the point cloud features, so as to enhance the global information interaction ability of the pseudo?map features. The feature extraction network is reconstructed based on ConvNeXt V2 to extract richer semantic information, which improves the learning ability of the network effectively. The RDIoU is introduced to jointly guide the classification and regression tasks, which effectively alleviates the inconsistency of classification and regression. In the KITTI dataset, in comparison with the benchmark network, this model improves the car category detection by 2.69%, 4.29% and 4.84% at the three levels of simple, moderate and difficult, and its inference speed reaches 25.8 f/s. The experimental results show that" the detection effect of the proposed model is improved significantly while maintaining real?time speed.

Keywords: 3D object detection; attention mechanism; ConvNeXt V2; loss function; LiDAR point cloud; autonomous driving

0" 引" 言

目前,隨著自動駕駛行業不斷發展,基于視覺的二維目標檢測已經取得了顯著的成就,然而在真實應用場景中,不良光照、惡劣天氣以及深度信息缺乏等問題仍然存在,二維目標檢測較難解決。與此相比,激光雷達能夠提供更加準確和豐富的空間三維信息。激光雷達可以識別駕駛環境中的交通參與者,為自動駕駛系統提供實時、全面的感知信息。因此基于激光雷達點云的三維目標檢測方法研究具有重要意義和價值。

現有的研究基本劃分為兩大類:基于點(point?based)方法和基于體素(voxel?based)方法。文獻[1]開創性地提出了基于點方法的PointNet算法,利用最大池化解決了點云無序性的問題。由于PointNet算法未考慮到局部點的特征,因此進一步提出了PointNet++[2]算法,利用SA層結構更好地捕捉點云的局部和細節信息。文獻[3]提出了PointRCNN算法,該算法利用PointNet++進行特征提取并分割出前景點和背景點,對每個前景點生成3D建議框并細化。基于點的方法能保留原始點云的信息,具有更高的目標定位精度,但網絡空間復雜,推理速度較慢。

基于體素的方法將離散的點云轉換為規則的三維體素網格,然后對每個體素及體素之間的關系進行特征提取。文獻[4]開創了VoxelNet算法,將不規則的點云編碼為規則的等間距體素,然后引入體素特征編碼和3D卷積,逐點學習體素特征,但點云分布是非均勻的,存在大量的空體素,使用3D卷積會造成巨大的計算資源浪費。針對這一問題,文獻[5]提出了SECOND算法,采用3D稀疏卷積進行特征提取,提高檢測速度,但仍存在3D卷積操作帶來的計算負擔。文獻[6]提出將點云場景劃分為Pillar(立柱)的PointPillars算法,通過對每個Pillar進行編碼并生成偽圖,而后采用二維卷積進行特征提取,大大加快了推理速度。文獻[7]引入動態圖CNN,獲得點云幾何特征,但存在信息丟失的問題。

基于體素的方法具有更高的檢測速度,且更容易在端側進行部署。近年來,提升體素方法檢測精度已成為一個重要的研究方向[8]。

為了在保持較高檢測速度的同時,提升目標檢測精度,本文選用PointPillars作為基準網絡,提出了GCR?PointPillars,主要思路為:

1) 在Pillar特征網絡引入全局注意力機制[9](Global Attention Mechanism),增強偽圖特征的全局信息交互能力,更好地進行點云特征提取。

2) 針對特征提取不充分的問題,基于ConvNeXt V2[10]重新構建特征圖下采樣模塊,提高骨干網絡的特征學習能力。

3) 為了解決單階段算法分類與回歸不一致的問題,引入旋轉解耦RDIoU[11]來聯合引導分類和回歸任務,重新構建損失函數,從而提高檢測精度。

1" GCR?PointPillars模型

PointPillars算法通過將三維點云空間劃分為一個個Pillar并生成偽圖,從而避免使用3D卷積,大大加快了算法的檢測速度。但是在原始算法的Pillar特征網絡中需要在[x?y]平面劃分均勻的網格,這可能導致大目標被分割在不同的網格中,并且在Pillar編碼過程中進行了隨機采樣和最大池化操作,忽略了局部點云數據,這會造成在生成偽圖時丟失一些有用信息,影響目標檢測精度。受到文獻[12?13]的啟發,本文引入全局注意力機制,減少無用信息的干擾,增強全局信息交互表示,進而提高點云特征表達能力;另外,原始算法使用卷積網絡進行多尺度特征提取,提取能力較弱,因此本文基于ConvNeXt V2重新構建特征圖下采樣模塊,提出一種新的骨干網絡,增強網絡對點云特征的提取能力。原始算法使用獨立處理分類和回歸任務的檢測頭,這容易出現一些高精度的3D包圍框置信度分數低的問題,因此引入RDIoU來聯合引導回歸和分類任務,從而提高目標檢測精度。改進后的模型框架如圖1所示。

1.1" 引入全局注意力

原始算法的Pillar特征網絡中,點云數據轉換為Pillar之后會導致細粒度信息的損失,忽略了其他區域關鍵點特征,導致網絡對目標定位不準確。

因此在特征網絡生成偽圖后引入全局注意力,全局注意力采用序貫的通道?空間注意力機制,但與CBAM[14]不同,重新設計了通道和空間注意力子模塊,整體結構如圖2所示。特征映射經過通道注意力子模塊后緊接著進入空間注意力子模塊,得到的輸出映射從多維度上捕捉點云的關鍵特征。

通道注意力子模塊為了保證在全維度上保留有用信息[15],將輸入的特征圖進行維度轉換之后輸出給一個兩層的多層感知器(MLP)來放大跨維度通道依賴性,然后再轉換為原始維度,經過Sigmoid函數進行激活,最后輸出特征圖[F2],其結構如圖3所示。

為了更好地在空間維度上關注特征圖的語義信息,將通道注意力輸出的特征圖[F2]輸入到空間注意力中,空間注意力子模塊的結構如圖4所示。使用兩層卷積層聚焦空間重要信息,首先經過一個7×7的卷積層減少通道數,節省計算量,將不同通道的相同位置特征信息進行空間融合,再經過第二層卷積,恢復通道數,最后經過Sigmoid函數激活得到特征圖[F3]。

原始算法的Pillar特征網絡中會造成一部分點云信息的損失,使生成的偽圖特征表達能力不足,缺乏上下文信息。因此融入全局注意力機制,學習點云各特性的相關性,建立特征之間的關聯,增強偽圖特征的全局信息交互能力,并且可以減少無關點云的影響,增強對關鍵點云信息的關注,可以更好地進行特征提取,從而提高目標檢測精度。

1.2" 基于ConvNeXt V2的特征提取網絡

ConvNeXt V2是基于ConvNeXt[16]的改進模型,使用大卷積核的深度可分離卷積進行逐通道卷積操作,相較于普通卷積,可以提高特征提取能力,同時減少參數量,具有更高的計算效率。大卷積核擁有更廣闊的感受野,有利于網絡更好地捕捉全局特征。另外,借鑒了MobileNetV2[17],ConvNeXt V2 Block使用“中間大、兩頭小”的反向瓶頸層結構。首先進行特征提取,然后使用批量歸一化操作使梯度更穩定,再通過1×1卷積將維度提升4倍,從而提取更豐富的語義信息,使用GELU激活函數代替常見的ReLU激活函數,并且引入了全局響應歸一化(Global Response Normalization, GRN),提高通道的對比度和選擇性。ConvNeXt V2結構如圖5所示。

原始算法經過Pillar編碼后通過映射生成偽圖,然后輸入到特征提取網絡進行特征提取,但由于原始算法的特征提取網絡僅由簡單卷積組成,特征提取能力不夠,從而導致檢測精度較低。

本文基于ConvNeXt V2重新構建特征提取網絡,將ConvNeXt V2融入到下采樣子網絡,對點云特征進行提取,增強不同尺度特征的表達能力,最后對不同尺度特征進行上采樣并融合,使得網絡能夠提取更加豐富的上下文語義信息以及全局特征,從而提升檢測精度。本文設計的基于ConvNeXt V2的特征提取網絡如圖6所示。

1.3" 檢測頭的改進

原始算法為單階段算法,文獻[18]指出,相較于雙階段算法,單階段算法性能表現較差的原因之一是檢測頭使用Smooth?[L1]對3D包圍框中心、大小和角度的獨立預測,這會導致回歸精度和置信度分數不匹配。為了保持損失與IoU指標之間的一致性,基于損失與IoU聯合優化的方法在二維目標檢測已被廣泛應用,現在逐步擴展到三維目標檢測中,如文獻[19]。但由于旋轉角度敏感性,存在預測框與真實框不對齊的問題,因此引入RDIoU將旋轉角度解耦,單獨處理旋轉角度參數,精準優化3D包圍框方向角度,將旋轉角度作為3D包圍框長、寬、高之外的參數,實現全參數微分,提高反向傳播能力。

令[(ox,oy,oz,ol,ow,oh,oθ)]為回歸向量的3D包圍框參數,[(tx,ty,tz,tl,tw,th,tθ)]指其對應的目標回歸向量,[(ax,ay,az,al,aw,ah,aθ)]表示設置的錨框,[(gx,gy,gz,gl,gw,gh,gθ)]表示真實的3D包圍框。其中下標[(x,y,z)]表示中心坐標,[(l,w,h)]代表3D包圍框的尺寸,[θ]為3D包圍框的旋轉角度。目標回歸向量如公式(1)所示:

[tx=gx-axd,ty=gy-ayd,tz=gz-azdtl=glal,tw=gwaw,th=ghah,tθ=gθ-aθ] (1)

式中[d=(la)2+(wa)2]為錨框對角線。

將旋轉角度解耦到邊長為單位長度[k]的第4維。因此,包圍框的中心坐標由[(x,y,z)]轉變為[(x,y,z,θ)],遵循文獻[5]的設置,令[oθ=sinoθ*costθ],[tθ=cosoθ*sintθ]。根據3D IoU的計算方法,計算兩個四維包圍框的交并比。首先從每個維度計算兩個包圍框的交集,如式(2)所示:

[Fx=minox+ol2,tx+tl2-maxox-ol2,tx-tl2Fy=minoy+ow2,ty+tw2-maxoy-ow2,ty-tw2Fz=minoz+oh2,tz+th2-maxoz-oh2,tz-th2Fθ=minoθ+k2,tθ+k2-maxoθ-k2,tθ-k2] (2)

兩個四維包圍框的交并比(RDIoU)的計算公式如下:

[RDIoU=IntVO+Vt-Int] (3)

式中:[Int=Fx*Fy*Fz*Fθ]表示兩個四維包圍框的交集;[VO=ol*ow*oh*k],表示物體包圍框的體積;[Vt=tl*tw*th*k],表示目標包圍框體積。

利用構建好的RDIoU監督回歸任務,通過最小化RDIoU損失函數以及最小化四維空間中兩個包圍框中心點歸一化距離來定義回歸損失函數。為了計算中心距離,令[co=ox,oy,oz,oθ],[ct=tx,ty,tz,tθ]。中心距離懲罰項表示為:

[PRDIoU=p2co,ctDiag] (4)

式中:[p2co,ct]為中心點的歐氏距離;Diag為最小覆蓋框對角線長度。Diag表示為:

[Diag=ζox,tx,ol,tl+ζoy,ty,ow,tw+ζoz,tz,oh,th+ζoθ,tθ,k,k] (5)

其中:

[ζ(oa,ta,ob,tb)=maxoa+ob2,ta+tb2-minoa-ob2,ta-tb22] (6)

因此,回歸任務中RDIoU引導的DIoU損失函數為:

[LRDIoU=1-RDIoU+PRDIoU] (7)

在分類任務中,采用RDIoU引導的質量焦點損失[20]進行分類和3D包圍框的質量估計,其中預測框與真實框的交并比,即RDIoU作為質量估計的目標。因此,每個樣本的目標可以表示為:[T=R*E],其中[R=r1,r2,…,rn],[ri∈0,1];[E∈0,1]為RDIoU的標量表示。RDIoU引導的質量焦點損失為:

[LRQFL=-β1RDIoU-yβ2*1-RDIoUlog1-y+RDIoUlogy] (8)

式中:[y]為聯合估計;遵循焦點損失函數的設置,[β1=0.25],[β2=2]。本文采用交叉熵損失來進行方向分類([Ld])。訓練的整體損失為:

[L=LRQFL+γ1Ld+γ2LRDIoU] (9)

式中[γ1]和[γ2]是超參數。

2" 實驗結果與分析

2.1" 實驗數據集

本文使用公開KITTI[21]數據集進行模型訓練和驗證,KITTI數據集包含7 481個訓練樣本和7 518個測試樣本,遵循文獻[22]對數據的劃分方法,將訓練樣本劃分為訓練集(3 712個樣本)和驗證集(3 769個樣本)。由于該模型擬應用于高速公路場景并且汽車類別樣本數量最多,因此本文只使用汽車類別對模型進行實驗。該數據集的檢測結果評估根據目標大小、遮擋和截斷程度劃分為簡單、中等和困難三種級別。

2.2" 實驗環境與設置

實驗環境為Ubuntu 20.04操作系統,使用Python 3.8、Pytorch 1.10.0、Cuda 11.3。顯卡為NVIDIA GeForce RTX 3 090 GPU,顯存為24 GB。本文將點云范圍沿[x]、[y]、[z]軸限制為[0,-39.68]m,[-3,69.12]m,[39.68,1]m。將點云轉換為體素,體素大小設置為[0.16,0.16,4]m,每個體素中最大點云數設置為32,單個點云樣本的最大非空體素數量在訓練時設置為16 000,測試時設置為40 000。錨框的大小設置為[3.9,1.6,1.56]m,對于汽車類別,根據匹配閾值不同,分為正樣本(IoUgt;0.6)、可忽略樣本(IoU≥0.45且IoU≤0.6)和負樣本(IoUlt;0.45)。本文使用GPU進行訓練,Adam作為優化器,權重衰減率為0.01,動量值為0.9,學習衰減率為0.1。總損失的超參數設置為[γ1=0.2],[γ2=2]。采用數據增強策略:沿[x]軸進行鏡像翻轉、對點云進行隨機縮放變換和旋轉變換。按照KITTI官方的評估標準,檢測結果以平均精度(AP)進行評估。汽車類別IoU閾值設置為0.7,平均精度使用40個召回位置來計算,表達式如下:

[AP=140R∈0,140,240,…,1pR] (10)

此外,還評估了模型在驗證集上的推理速度,即每秒處理的幀數(FPS)。

2.3" 實驗結果分析

2.3.1" 不同算法對比實驗

為了評估本文模型的性能,將本文模型的算法與目前主流三維目標檢測算法在KITTI測試集上進行性能對比,對比的算法有F?PointNet[23]、VoxelNet[4]、SECOND[5]、Part?A2 [24]、PointRCNN[3]、TANet[25]、3DSSD[26],以此驗證本文模型的有效性。

表1給出了本文方法與其他方法精度性能比較。從表中可以看出,本文算法在簡單、中等、困難情況下的汽車3D平均檢測精度分別為88.53%、78.89%、74.79%,汽車BEV平均檢測精度分別為91.94%、89.08%、86.15%,本文算法精度在3D中等情況下僅比3DSSD算法低0.68%;在BEV簡單情況下比3DSSD算法低0.72%,其他情況均優于對比算法。實驗說明本文改進后的算法相較于其他算法具有一定的優越性。

2.3.2" 結果可視化分析

為了更直觀地驗證本文模型對于汽車檢測的有效性,圖7展示了原始算法與GCR?PointPillars模型在KITTI驗證集中四個不同場景下目標樣本的可視化對比結果圖,其中,方形框代表漏檢,圓圈代表誤檢。對比發現,本文模型在可視化結果上展現出了顯著的優勢,相較于原始算法,降低了誤檢和漏檢的概率,在復雜情況下具有較強的魯棒性。

2.3.3" 消融實驗

為了評估各個模塊對于模型檢測性能的影響,本文進行了一系列的消融實驗來詳細分析。以下所有實驗都在KITTI數據集下進行訓練,并在驗證集中對其進行評估。表2給出消融實驗在汽車類別下的3D檢測精度對比。

通過實驗可以得知:本文模型中的各個模塊都有助于提升檢測性能,在Pillar特征網絡中引入全局注意力模塊,增強偽圖特征的全局信息交互能力,在中等級別下檢測精度從76.01%提升到了76.82%;基于ConvNeXt V2構建的特征提取網絡,增強了特征學習能力,在中等級別下精度從76.01%提升到了77.25%;引入RDIoU改進檢測頭,提高損失函數的約束作用,在中等級別下檢測精度從76.01%提升到78.12%。結合各個模塊構成的GCR?PointPillars模型,在簡單、中等、困難級別下檢測精度分別為89.60%、80.30%、77.88%,與基準網絡相比分別提升了2.69%、4.29%、4.84%。通常情況下,激光雷達工作頻率為10 Hz(1 s處理10幀點云數據),而GCR?PointPillars模型處理速度為25.8 f/s,因此,本文模型不僅檢測性能得到提升,還可以滿足實時性的需求。

3" 結" 語

本文提出了一種GCR?PointPillars三維目標檢測模型來實現在高速公路場景下的車輛檢測,引入全局注意力機制,基于ConvNeXt V2重新構建特征提取網絡,構造新的損失函數對原始算法進行優化改進。為了驗證本文模型的有效性,在KITTI數據集下與其他經典三維目標檢測算法進行對比實驗。結果表明,本文提出的GCR?PointPillars模型在不同的場景下具有較優的檢測性能,并且能在保持精度的同時具有實時檢測能力。但仍存在有待深入研究和改進的方面,后續將考慮多傳感器融合的研究,進而增強目標檢測系統的魯棒性和全面性。

注:本文通訊作者為惠飛。

參考文獻

[1] QI C R, SU H, MO K, et al. PointNet: Deep learning on point sets for 3D classification and segmentation [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2017: 77?85.

[2] QI C R, YI L, SU H, et al. PointNet++: Deep hierarchical feature learning on point sets in a metric space [C]// Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017. [S.l.: s.n.], 2017: 5099?5108.

[3] SHI S S, WANG X G, LI H S. PointRCNN: 3D object proposal generation and detection from point cloud [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2019: 770?779.

[4] ZHOU Y, TUZEL O. VoxelNet: End?to?end learning for point cloud based 3D object detection [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2018: 4490?4499.

[5] YAN Y, MAO Y X, LI B. SECOND: Sparsely embedded convolutional detection [J]. Sensors, 2018, 18(10): 3337.

[6] LANG A H, VORA S, CAESAR H, et al. PointPillars: Fast encoders for object detection from point clouds [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2019: 12697?12705.

[7] WANG X H, LIU J, LIAO Z H. AGPNet: Augmented graph PointPillars for object detection from point clouds [EB/OL]. [2023?10?27]. http://preprints202310.1729.v1(3).pdf.

[8] 陳德江,余文俊,高永彬.基于改進PointPillars的激光雷達三維目標檢測[J].激光與光電子學進展,2023,60(10):447?453.

[9] LIU Y C, SHAO Z R, HOFFMANN N. Global attention mechanism: Retain information to enhance channel?spatial interactions [EB/OL]. [2021?12?14]. https://arxiv.org/abs/2112.05561.

[10] WOO S, DEBNATH S, HU R H, et al. ConvNeXt V2: Co?designing and scaling ConvNets with masked autoencoders [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2023: 16133?16142.

[11] SHENG H L, CAI S J, ZHAO N, et al. Rethinking IoU?based optimization for single?stage 3D object detection [C]// Procee?dings of the European Conference on Computer Vision (ECCV). Heidelberg, Germany: Springer, 2022: 544?561.

[12] 詹為欽,倪蓉蓉,楊彪.基于注意力機制的PointPillars+三維目標檢測[J].江蘇大學學報(自然科學版),2020,41(3):268?273.

[13] 王忠全.基于深度學習的目標檢測及路徑規劃研究[D].哈爾濱:哈爾濱工業大學,2021.

[14] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional block attention module [C]// Proceedings of the European Conference on Computer Vision (ECCV). Heidelberg, Germany: Springer, 2018: 3?19.

[15] LIU S G, WANG Y J, YU Q G, et al. CEAM?YOLOv7: Improved YOLOv7 based on channel expansion and attention mechanism for driver distraction behavior detection [J]. IEEE access, 2022, 10: 129116?129124.

[16] LIU Z, MAO H Z, WU C Y, et al. A ConvNet for the 2020s [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2022: 11966?11976.

[17] SANDLER M, HOWARD A G, ZHU M L, et al. MobileNetV2: Inverted residuals and linear bottlenecks [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2018: 4510?4520.

[18] LI J L, LUO S J, ZHU Z Q, et al. 3D IoU?Net: IoU guided 3D object detector for point clouds [EB/OL]. [2020?11?10]. https://arxiv.org/abs/2004.04962.

[19] ZHOU D F, FANG J, SONG X B, et al. IoU loss for 2D/3D object detection [C]// 2019 International Conference on 3D Vision (3DV). New York: IEEE, 2019: 85?94.

[20] LI X, WANG W H, WU L J, et al. Generalized focal loss: Learning qualified and distributed bounding boxes for dense object detection [EB/OL]. [2020?07?08]. https://arxiv.org/abs/2006.04388.

[21] GEIGER A, LENZ P, URTASUN R. Are we ready for autonomous driving? The KITTI vision benchmark suite [C]// 2012 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2012: 3354?3361.

[22] CHEN X Z, MA H M, WAN J, et al. Multi?view 3D object detection network for autonomous driving [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2017: 6525?6534.

[23] QI C R, LIU W, WU C X, et al. Frustum PointNets for 3D object detection from RGB?D data [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2018: 918?927.

[24] SHI S S, WANG Z, WANG X G, et al. Part?A2 Net: 3D part?aware and aggregation neural network for object detection from point cloud [EB/OL]. [2021?02?26]. http://arxiv.org/abs/1907.03670.

[25] LIU Z, ZHAO X, HUANG T T, et al. TANet: Robust 3D object detection from point clouds with triple attention [C]// Procee?dings of the AAAI Conference on Artificial Intelligence. [S.l.]: AAAI, 2020: 11677?11684.

[26] YANG Z T, SUN Y N, LIU S, et al. 3DSSD: Point?based 3D single stage object detector [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 11037?11045.

作者簡介:伍新月(2000—),女,碩士研究生,主要從事點云目標檢測、自動駕駛方面的研究。

惠" 飛(1982—),男,博士,教授,博士生導師,主要從事智能網聯汽車、機器視覺方面的研究。

金" 鑫(1999—),男,碩士研究生,主要從事自動駕駛環境感知方面的研究。

主站蜘蛛池模板: 免费一级毛片不卡在线播放| 国产chinese男男gay视频网| 日韩国产黄色网站| 亚洲人成色77777在线观看| 美女一级免费毛片| 亚洲欧美激情小说另类| 亚洲成a人在线观看| 永久免费AⅤ无码网站在线观看| 666精品国产精品亚洲| 国产成人精品2021欧美日韩| 亚洲日韩久久综合中文字幕| yy6080理论大片一级久久| 亚洲中文字幕av无码区| 欧美精品另类| 免费观看国产小粉嫩喷水 | a级毛片免费看| 久久香蕉国产线看观看亚洲片| 青青青国产视频| 国产精鲁鲁网在线视频| 精品视频在线一区| 亚洲综合第一区| www.精品视频| 午夜精品久久久久久久2023| 第一区免费在线观看| 久久无码免费束人妻| 久久9966精品国产免费| 久久综合五月婷婷| 久久国产成人精品国产成人亚洲 | 国产精品入口麻豆| 国产va免费精品观看| 国产精品毛片一区| 国产永久在线视频| 亚瑟天堂久久一区二区影院| 影音先锋丝袜制服| 四虎影视8848永久精品| 久久综合成人| 国产永久免费视频m3u8| 亚洲一级毛片在线播放| 啪啪免费视频一区二区| 国产三级精品三级在线观看| 精品91视频| 欧美视频在线播放观看免费福利资源 | 成年av福利永久免费观看| 久久精品亚洲中文字幕乱码| a级毛片毛片免费观看久潮| 最新亚洲人成无码网站欣赏网 | 欧美啪啪网| 高清乱码精品福利在线视频| 亚洲福利一区二区三区| 国产丝袜丝视频在线观看| 在线无码私拍| 国产三区二区| 国产人人射| 日韩色图在线观看| 98超碰在线观看| 日韩国产欧美精品在线| 狠狠色婷婷丁香综合久久韩国| 亚洲毛片一级带毛片基地| 欧美亚洲欧美| 极品av一区二区| 久久国产亚洲偷自| 婷婷综合色| 久久窝窝国产精品午夜看片| 日本91在线| 视频一本大道香蕉久在线播放| 亚洲AV电影不卡在线观看| 国内精品一区二区在线观看| 国产欧美亚洲精品第3页在线| 亚洲欧美一区二区三区蜜芽| 日日拍夜夜嗷嗷叫国产| 日本一本在线视频| 日本一本正道综合久久dvd | 在线观看无码av免费不卡网站| 日韩欧美91| 99热这里只有免费国产精品| 欧美精品高清| 视频二区国产精品职场同事| 国产欧美中文字幕| 国产最爽的乱婬视频国语对白| 欧美特级AAAAAA视频免费观看| 欧美日韩va| 91精品国产91久久久久久三级|