999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于置信域偽標簽策略的半監督三維目標檢測

2023-01-01 00:00:00楊德東葛浩然安韻男
計算機應用研究 2023年6期

摘 要:當前基于點云的三維目標檢測方法很大程度上依賴于大規模高質量的三維標注。為了減少所需標簽量,基于SESS網絡提出了一種新的三維目標檢測方法:基于置信域偽標簽策略的半監督三維目標檢測。首先設計了一種置信域偽標簽策略,將學生網絡的輸出分成有標簽和無標簽兩部分,有標簽部分利用ground truth進行全監督學習,無標簽部分基于教師網絡的類別和對象預測置信分數,利用一種有效的過濾機制,篩選出高質量教師預測,并轉換成相應偽標簽,用于監督學生網絡無標簽部分。其次,設計了一個TransVote模塊,通過Transformer機制,增強每個點云與其鄰域點之間的相互注意,聚合點云局部特征。在10%標記數據、mAP@0.25下,該算法在ScanNetV2和SUN RGB-D數據集上分別超越了基準線8.63%、6.75%,顯著提高了半監督三維目標檢測算法的檢測精度。

關鍵詞:點云;目標檢測;半監督;偽標簽;Transformer

中圖分類號:TP391.4文獻標志碼:A

文章編號:1001-3695(2023)06-046-1888-06

doi:10.19734/j.issn.1001-3695.2022.09.0487

Trust region pseudo-labels strategy for semi-supervised 3D object detection

Yang Dedong,Ge Haoran,An Yunnan

(School of Artificial Intelligence amp; Data Science,Hebei University of Technology,Tianjin 300401,China)

Abstract:Current point cloud-based 3D object detection methods largely rely on large-scale,high-quality 3D annotations.In order to reduce the required amount of labels,this paper proposed a new 3D object detection method based on the SESS network,trust region pseudo-supervised strategy for semi-supervised 3D object detection.Firstly,this paper designed a trust region pseudo-supervised strategy,which divided the output of the student network into labeled and unlabeled parts.The labeled part used ground truth for supervised learning,and based on the class and object prediction confidence score of the teacher network,the unlabeled part used an effective filtering mechanism to filter out high-quality teacher predictions and converted them into corresponding pseudo-labels for supervising the unlabeled part of the student network.Secondly,this paper designed a TransVote module,which used the Transformer mechanism to enhance the mutual attention between each point cloud and its neighboring points and aggregated the local features of the point cloud.With 10% labeled data and mAP@0.25,this method surpasses the baseline by 8.63% and 6.75% on the ScanNetV2 and SUN RGB-D datasets,which significantly improves the detection accuracy of semi-supervised 3D object detection algorithm.

Key words:point cloud;object detection;semi-supervised;pseudo-labels;Transformer

0 引言

近些年來,由于汽車自動駕駛、智能機器人等先進領域的快速崛起,促使計算機視覺得到相應的發展。三維空間由于其特征豐富性,得到越來越多的關注,并且在眾多領域得到廣泛應用。三維目標檢測是三維視覺中一項十分重要的任務,這項研究的主要工作是找到場景中的目標物,并用包圍框進行標記,從而確定目標物的位置、種類以及大小等信息。相較于二維目標檢測,三維目標檢測在其基礎上增加了深度信息、目標物尺寸信息等更為復雜的信息。信息的多樣性使得三維目標檢測比二維目標檢測更能應用于多種領域。

近幾年,在基于點云的三維目標檢測研究領域出現了如文獻[1~5]等許多優秀的算法,這些三維目標檢測網絡在室內或者室外數據集上表現出了較好的檢測效果。盡管現有的三維目標檢測在精度上取得了較為可觀的成績,但是目前大多三維目標檢測算法為有監督方式,對應的數據集需要全部帶有標簽。然而現使用的標簽數據集大多依賴于人工標注,三維點云數據集場景復雜,數據量龐大,給人工標注帶來極大的困難,是一項耗時耗力的工作,同時在進行標注時可能會無意引入標注噪聲,從而降低檢測效果。

在二維目標檢測算法中,利用半監督方法減少標記數據需求量已經得到廣泛應用并取得了不錯的成果。利用半監督方式進行目標檢測時,部分帶有標簽的數據可以對無標簽數據起到一定的監督作用,引導深度神經網絡學習正確的信息,同時帶標簽的數據信息可以傳播到無標簽數據中,提高學習效果。因此將半監督方法引申到三維目標檢測中是一項十分有意義的工作。2020年,Zhao等人[6]利用Mean Teacher框架設計了首個基于點云的半監督三維目標檢測算法網絡SESS,該網絡在精度上僅使用70%的有標簽數據就超越了基準網絡VoteNet[7],表現出比較好的結果,但是70%的有標簽數據仍然是一項困難的標注任務。在研究分析SESS網絡后發現,該算法利用Mean Teacher作為半監督范式,直接計算教師和學生之間的一致性損失,監督學生網絡學習,然而教師預測并非總是正確,錯誤的教師預測直接影響學生網絡學習效果。同時,SESS的主干網利用霍夫投票的原理進行目標檢測,然而種子點與相鄰點之間缺乏相互注意,空間鄰域特征信息利用不充分,使得投票效果差。

因此,基于SESS半監督目標檢測網絡,本文提出了一種新的半監督三維點云目標檢測框架,稱為基于置信域偽標簽策略的半監督三維目標檢測(trust region pseudo-labels network,TRPLNet)。具體來說,本文提出一種置信域偽標簽策略,該方法通過一種有效的置信篩查機制,過濾掉大量無效、低質量教師預測,充分保障學生網絡學習正確參數。同時為增強相鄰種子點之間的相互注意,在種子點投票之前引入當前流行的Transformer機制,使網絡具有融入空間幾何信息的能力。綜上所述,本文主要貢獻包括:

a)設計了一個新的半監督三維目標檢測網絡,即基于置信域偽標簽策略的半監督三維目標檢測。

b)設計了一種置信域偽標簽策略及一個子模塊TransVote,消融實驗證明了這兩部分的有效性。

c)大量實驗表明,本文算法有明顯的提升效果。在ScanNetV2[8]和SUN RGB-D[9]數據集上使用mAP@0.25進行評估,相比于SESS,本文所提的半監督三維點云目標檢測網絡在10%的標記數據下檢測精度達到了48.00%、45.96%,分別提升了8.63%、6.75%;在20%標記數據下分別提升了4.08%、4.13%;在30%標記數據下分別提升了4.29%、2.26%。

1 相關工作

1.1 三維目標檢測

本文研究導向如圖1所示。目前,已有許多優秀的三維目標檢測算法。根據傳感器的不同,這些算法大致可以分為三類:a)基于視覺的三維物體檢測[10~15];b)基于點云的三維目標檢測[1~5,16~23];c)基于多模態融合的三維目標檢測[24~27]。基于視覺的方法由于輸入為圖像,在檢測中難以估計目標位姿信息,同時對于目標的深度估計也存在一定偏差。而基于多模態融合的方式以圖像和點云兩種數據同時作為輸入,雖然檢測精度表現較優,但是計算復雜度過高,難以在實際中應用。直接以點云數據為輸入的方式有效規避了以上兩種方法的缺陷,點云以其特征的豐富性,逐漸引起眾多研究者重視。

利用深度學習算法處理無序點云數據的方法有很多,如BEV方法、體素方法和原始點云數據方法。HDNet[16]和BirdNet[17]使用BEV方法將點云變換為二維圖像,然后使用2D目標檢測算法進行像素級檢測。然而,點云投影到二維圖像中不可避免地會導致點云數據幾何信息的丟失。體素法將點云轉換為規則體素網格,用于三維物體檢測[1,3,18,19]。稀疏性是體素法中最難解決的問題。當物體較小時,體素網格中的點云非常小,很難回歸出正確的3D邊界框。直接使用點云數據進行目標檢測,避免了BEV方法和體素方法中的幾何信息丟失和稀疏性問題。2019年, Qi等人[7]利用霍夫投票原理設計了一種三維物體檢測算法,并取得了顯著的檢測結果。Xie等人[22]利用注意力機制和特征融合方案進一步提高了VoteNet性能。Yang等人[23]將最遠端點采樣和特征最遠端點采樣兩種方法結合起來,擯棄了特征傳播層的操作,在保證精度的同時大大提高了網絡的檢測效率。當基于前原始點云數據的檢測方法層出不窮,但很少有研究者重視點云間的空間特征關系。點云存在于三維空間,有效利用該空間信息提升檢測精度,將是一項有意義的工作。

1.2 半監督學習

人工標注的標簽數據一直以來都是目標檢測領域一個主要限制,若直接以無監督的方式監督網絡學習,不免造成檢測精度低下等問題。利用半監督的方法在減少標記數據量的同時也能保證檢測精度,逐漸受到眾多學者研究。

Mean Teacher是Tarvainen等人[28]在2017年提出的一種基于平均模型權重的半監督范式,該方法擯棄了標簽預測的方法,在訓練時只需要采用少量的標簽數據就可以達到較高檢測準確率。Yang等人[29]在Mean Teacher的基礎之上進一步提出了一種交互自訓練方法。該網絡利用非極大值抑制的方式融合了不同迭代中的結果,降低了不穩定性。同時,該方法使用多目標檢測頭去預測偽標簽以相互提供互補信息,取得了十分顯著的監督性能。為了緩解標簽數據集的局限性,有效利用豐富、易獲取的未標簽點云數據,Zhao等人[6]直接利用點云設計了半監督的三維目標檢測算法—SESS,該算法直接作用于點云,有效地避免了空間信息丟失的問題。然而,學生網絡預測的邊界盒與教師網絡預測的軟目標不能很好地匹配。2021年,SE-SSD[30]在SESS網絡的基礎上,引入形狀感知策略和IoU匹配,提高了Mean Teacher算法的性能。3DIoUMatch[31]引入IoU匹配策略,有效提高了半監督三維目標檢測網絡的檢測精度。

2 本文算法結構

2.1 SESS算法框架

作為第一個直接將點云數據作為輸入的半監督三維目標檢測檢測網絡,SESS算法選擇Mean Teacher范式作為整個半監督網絡基礎框架,以偽標簽的形式從無標記訓練集傳播信息到有標記訓練集。網絡中采用非對稱數據擴充。教師和學生的輸出結果之間存在三種一致性損失,強化了教師和學生預測對象的位置、語義類別和大小的一致性。實驗結果表明,在SESS算法中設計的半監督網絡結構具有很好的性能。

2.2 置信域偽標簽策略

目前的半監督三維目標檢測方法主要有兩個方向:a)一致性學習方法;b)偽標簽方法。一致性學習利用兩個檢測網絡學習同一無標簽場景在不同擾動下預測結果的一致性。偽標簽方法采用在有標簽數據上學習的預訓練模型對無標簽數據進行推理,經過非極大值抑制處理后減少大量冗余預測框,同時通過設置閾值的方式來篩選高質量偽標簽,最后利用偽標簽訓練模型。在三維目標檢測算法SESS中,正是采用了一致性的方法。本節設計的置信域偽標簽策略,巧妙利用偽標簽方法,顯著增強了半監督學習效果。

在SESS中使用Mean Teacher作為半監督框架,在教師網絡和學生網絡的輸出直接執行類別、大小、中心三種一致性損失,用來監督學生網絡,同時學生網絡中部分有標簽數據的輸出使用有監督方式進行監督訓練。很容易想到,只有當教師網絡輸出的偽預測標簽精度高于學生網絡的預測時,網絡整體才能實現更好的監督學習。然而,在實際訓練過程中,由于教師和學生網絡權重信息的不同,以及數據增強方式上的差異,使得教師網絡輸出的偽標簽在精度上甚至低于學生的預測,若在這樣的情況下繼續執行上述三種一致性損失,勢必會引起網絡整體性能的下降。基于以上考慮,本文設計了一種新的半監督方式——置信域偽標簽策略。如圖2所示,該方法不直接計算教師和學生網絡的輸出的一致性,而是對教師預測進行過濾,只保留高質量預測作為偽標簽,監督學生網絡無標記輸出部分,而學生有標記部分則直接使用ground truth進行全監督學習。

2.2.1 數據增強

教師網絡和學生網絡非常相似,其差別在于教師網絡具有預訓練權重,若直接將數據輸入到兩個網絡中,勢必會引起過擬合。因此,對輸入添加擾動是必不可少的,本文設計的置信域偽標簽策略整體采用非對稱式數據擴充作為擾動方案。

首先在教師網絡和學生網絡輸入之前執行隨機子抽樣進行擾動,為了進一步防止學生網絡在訓練過程中產生記憶性,如點云的相對位置,在學生網絡輸入前除了進行隨機子抽樣,還在此之后進行了隨機翻轉、圍繞垂直軸的隨機旋轉和隨機均勻縮放等隨機變換數據增強操作。

2.2.2 基于置信閾值的偽標簽

2.3 TransVote機制

3 實驗

3.1 數據集

本文實驗在ScanNetV2和SUN RGB-D兩個數據集上進行。ScanNetV2總共包含1 513個場景,包括21個對象類別,其中1 201個場景用于訓練,312個場景用于測試。本文評估了其中的18個常見類別。SUN RGB-D由10 335幅深度圖像組成,包括47種不同的室內場景和19種物體類別。對每個數據分別標記場景類型、三維物體幀和三維物體方向,共精細標記64 595個三維檢測幀。本文選擇了5 285個場景進行訓練,5 050個場景進行測試,并評估了其中10種常見的分類,并與以前的方法進行比較。

3.2 實現細節

本節實驗依賴的硬件設備及軟件環境如表1所示,實驗使用單塊GTX 1080 Ti GPU加速訓練,直到網絡收斂。網絡訓練分為預訓練和訓練兩部分。

首先,在預訓練階段,在數據集中隨機采樣指定標記率的標簽數據,并將這些標簽數據輸入到檢測網絡中。實驗參數batch-size設置為4,epoch設置為900,學習率取0.001,學習率在第400、600、800個epoch處衰減。預訓練完成后,使用預先訓練的權重來初始化學生和教師網絡,使得網絡具有一定檢測能力,便于生成偽標簽。

在訓練階段,將預訓練采樣的標簽數據,以及數據集中其他無標簽數據同時輸入到網絡中,進行半監督學習。學生網絡的無標記輸出使用教師網絡產生的偽標簽進行監督學習,學生網絡的有標簽輸出使用真實標簽進行全監督學習。訓練時參數batch-size是(2,4),epoch設置為1 000。初始學習率設置為0.002,學習率衰減步長設置在400、600、800、900處。

在檢測網絡參數設置上,類別閾值和對象閾值分別設置為0.9、0.9。偽標簽損失函數的加權值都設置為0.1,其他損失函數加權值遵照SESS中的設置。目標聚類數量設置為128,并使用非極大值抑制去除冗余預測,從而輸出最終的目標預測。

最后,使用數據中的測試集對訓練后的網絡進行評估,評估指標主要為單個類別檢測精度AP(average precision),以及所有類別平均精度mAP(mean average precision)。

3.3 不同標記率與基準線對比

本節在ScanNetV2和SUN RGB-D上進行實驗,并在mAP@0.25和mAP@0.5 IoU上進行評估。結果取自三次實驗結果的平均值。表2顯示了本文設計的TRPLNet算法在不同標記率下與基線SESS和VoteNet比較的結果,為了更清晰地展現本文改進帶來的效果,在實驗中增加了另一組對比實驗,即只改進監督方式時的檢測結果(表格中的“TRPLNet*”)。

結果表明,在不同的標記率下,TRPLNet與基線SESS和VoteNet相比檢測效果顯著提高。與標記率為10%的SESS相比,TRPLNet在兩個數據集的mAP@0.25指標上分別提高了8.63%和6.75%,mAP@0.5指標上分別提高了9.67%和12.81%。若只融入置信域偽標簽策略時,檢測精度將降低3個百分點左右,甚至更多,這說明Transformer結構對于建立點云空間關系,以及充分利用點云信息方面至關重要。而在標記率為20%時,不使用TransVote機制,在mAP@0.25 TRPLNet的檢測精度分別達到了50.34%、47.59%,在mAP@0.5時為29.65%、27.05%,相較于同時使用置信域偽標簽策略和TransVote時檢測精度只低了1%左右,這是因為大量的標記數據被用于網絡訓練,降低了點云對于空間的依賴性。這從反方向證明了本文設計的TransVote模塊非常適用于半監督學習,尤其是在標記數據非常少的時候。在30%標記率時情況同20%類似。

當同時融入兩種機制時,在20%標記率下,TRPLNet在mAP@0.25指標測評分數分別提高了4.08%和4.13%,mAP@0.5指標測評分數提高了5.06%和5.83%,在標記率為30%時,TRPLNet同樣明顯優于基準線。實驗證明,本文方法在不同標注率下具有顯著且穩定的提升效果。

3.4 單個類別對比

當前,基于點云的半監督三維目標檢測算法較少,為保證實驗的充分性,在本節實驗中,將本文算法TRPLNet與當前最優秀的點云半監督算法3DIoUMatch以及兩個基線SESS和VoteNet在單個類別進行對比。

表3顯示了本文方法在ScanNetV2上以10%標記率獲得的18個單類檢測結果。在mAP@0.25,本文算法在15個類別上超過了SESS和VoteNet,在11個類別上超越了3DIoUMatch,在門、窗、窗簾、淋浴等類別上有顯著的提高,如門的檢測精度為32.02%,比最高的3DIoUMatch高出3.99%,窗的檢測精度為27.33%,比3DIOUMatch高出7.37%。在mAP@0.5,本文方法準確率達到了27.78%,同時9個類別達到了最高。由于門、窗、窗簾等比較扁平的目標物中的點云相對分散,點云很難通過普通的投票機制遷移到目標質心,而TransVote通過聚合鄰域特征、空間幾何等信息,增強了有限點云的特征表達能力,這可能是這些類別檢測精度明顯提升的原因。

同樣在10%標記率下,SUN RGB-D的10個單類檢測結果如表4所示。在mAP@0.25上,TRPLNet的準確率達到45.96%,與VoteNet、SESS、3DIoUMatch相比,本文方法提高了6個類別的檢測結果。在mAP@0.5,TRPLNet達到26.06%,其中8類達到最優檢測效果,梳妝臺、床頭柜、浴缸的檢測精度比3DIoUMatch分別高出7.04%,12.06%,18.24%。TRPLNet對梳妝臺、床頭柜、浴缸三大類目標有明顯改善效果的原因是以上目標較大,更容易生成包圍框預測,而本文采用置信域偽標簽策略進行教師學生匹配,充分過濾掉了對這些大型目標物預測的錯誤包圍框,這個因素可能是準確率明顯提高的主要原因。

3.5 與全監督方法對比

為保證實驗充分性,除了與半監督算法對比,在本節中,還在100%標簽率下,將本文設計的TRPLNet與ScanNetV2與SUN RGB-D上的五種經典的三維目標檢測方法進行了比較。如表5所示,*代表論文中的記錄值。TRPLNet在ScanNetV2驗證集上的mAP@0.25得分達到62.0%,比最好的SESS高出2.1%,研究結果驗證了該方案在全監督方法下的有效性,其中對于提升檢測精度起主要作用的是TransVote機制。雖然在100%標記率下沒有達到當前最優效果,但本文設計的置信域偽標簽策略半監督框架可以靈活移植到其他全監督算法中,從而提高在半監督學習下的檢測效果。

3.6 消融研究

為了驗證置信域偽標簽策略和TransVote模塊的有效性,本節在ScanNetV2和SUN RGB-D上用10%標記數據進行消融訓練實驗,并在相應的驗證集上對其進行了評估,基準線為SESS。實驗結果如表6所示。其中PLS代表置信域偽標簽策略。

首先,逐個添加本文設計的兩個模塊,結果表明每個模塊都能有效地提高網絡性能。僅添加TransVote時,在兩個數據集上mAP@0.25分別達到40.21%、39.79%,比SESS提高了0.84%、0.58%;mAP@0.5分別達到18.69%、13.47%,比SESS提高了0.58%、0.22%。之所以有這樣的提升,是因為這個模塊在種子點之間建立相互關注,相互關注的點云可以更準確地定位空間位置,實現更精準的中心投票。

當只添加置信域偽標簽策略時,在兩個數據集上mAP@0.25分別達到45.57%、43.03%,mAP@0.5分別達到27.78%、26.05%,性能提升顯著。與SESS使用三種一致性進行教師學生預測匹配的方式相比,該方法利用教師網絡預測產生類別置信分數和對象置信分數。通過一種有效的過濾機制,充分保證了教師輸出更加準確的偽標簽,這對監督學生網絡學習是非常有利的。最后將設計的兩種方法同時加入到SESS中時,在mAP@0.25檢測精度分別達到了48.0%、45.97%。在mAP@0.5檢測精度分別達到了27.78%、26.05 %,檢測效果達到最好。這說明本文設計的TransVote機制與置信域偽標簽策略顯著有效。

3.7 定性結果與分析

圖4和5分別顯示了使用10%標記訓練數據,在ScanNetV2和SUN RGB-D上與SESS半監督算法可視化對比結果。在ScanNetV2上的定性比較結果如圖4所示。SESS錯誤地將入口拐角處的墻壁識別為物體,且未能識別墻上的柜子。TRPLNet成功識別了柜體,同時避免了錯誤識別的發生。

SUN RGB-D數據中的一些場景被嚴重遮擋。然而,在這樣一個具有挑戰性的場景中,本文設計的方法仍然成功地檢測到了目標。如圖5所示,與SESS相比,TRPLNet可以檢測到更多的對象。在場景1中,SESS只識別到大型目標——床。本文算法不僅檢測了床,還識別了兩邊的櫥柜。在場景2中,SESS也有識別缺失,而本文的網絡準確地識別了每個對象。

4 結束語

本文設計了一種置信域偽標簽策略,該方法對教師網絡輸出的類別和對象置信分數設置閾值,通過計算類別和包圍盒的一致性,實現更精確的偽標簽引導的半監督訓練;同時,為了充分利用點云特征信息,本文還設計了TransVote機制,組成了一個新的半監督三維目標檢測網絡。實驗結果表明,本文方法顯著提高了半監督三維點云目標檢測的精度。

參考文獻:

[1]Yang Bin,Luo Wenjie,Urtasun R.PIXOR:real-time 3D object detection from point clouds[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2018:7652-7660.

[2]李悄,李垚辰,張玉龍,等.采用稀疏3D卷積的單階段點云三維目標檢測方法[J].西安交通大學學報,2022,56(9):112-122.(Li Qiao,Li Yaochen,Zhang Yulong,et al.Single stage point cloud 3D target detection method using sparse 3D convolution[J].Academic Journal of Xi’an Jiaotong University,2022,56(9):112-122.)

[3]Lang A H,Vora S,Caesar H,et al.PointPillars:fast encoders for object detection from point clouds[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2019:12689-12697.

[4]Shi Shaoshuai,Guo Chaoxu,Jiang Li,et al.PV-RCNN:point-voxel feature set abstraction for 3D object detection[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2020:10526-10535.

[5]張冬冬,郭杰,陳陽.基于原始點云的三維目標檢測算法[J].計算機工程與應用,2023,59(3):209-217.(Zhang Dongdong,Guo Jie,Chen Yang.3D target detection algorithm based on original point cloud[J].Computer Engineering and Application,2023,59(3):209-217.)

[6]Zhao Na,Chua T S,Lee G H.SESS:self-ensembling semi-supervised 3D object detection[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2020:11076-11084.

[7]Qi C R,Litany O,He Kaiming,et al.Deep Hough voting for 3D object detection in point clouds[C]//Proc of IEEE/CVF International Conference on Computer Vision.2019:9276-9285.

[8]Dai A,Chang A X,Savva M,et al.ScanNet:richly-annotated 3D reconstructions of indoor scenes[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Pess,2017:2432-2443.

[9]Song Shuran,Lichtenberg S P,Xiao Jianxiong.SUN RGB-D:a RGB-D scene understanding benchmark suite[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2015:567-576.

[10]Pon A D,Ku J,Li Chengyao,et al.Object-centric stereo matching for 3D object detection[C]//Proc of IEEE Conference on Robotics and Automation.Piscataway,NJ:IEEE Press,2020:8383-8389.

[11]Xu Zhenbo,Zhang Wei,Ye Xiaoqing,et al.ZoomNet:part-aware adaptive zooming neural network for 3D object detection[C]//Proc of the AAAI Conference on Artificial Intelligence.2020:12557-12564.

[12]Sun Jiaming,Chen Linghao,Xie Yiming,et al.Disp R-CNN:stereo 3D object detection via shape prior guided instance disparity estimation[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2020:10545-10554.

[13]Zhang Ziheng,Li Zhengxin,Bi Ning,et al.PPGNet:learning point-pair graph for line segment detection[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2019:7098-7107.

[14]Qian Rui,Garg D,Wang Yan,et al.End-to-end pseudo-lidar for image-based 3D object detection[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2020:5880-5889.

[15]Chen Yilun,Liu Shu,Shen Xiaoyong,et al.DSGN:deep stereo geometry network for 3D object detection[C]//Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition.2020:12533-12542.

[16]Yang Bin,Liang Ming,Urtasun R.HDNet:exploiting HD maps for 3D object detection[C]//Proc of the 2nd Annual Conference on Robot Learning.2018:146-155.

[17]Jorge B,Guindel C,Moreno F M,et al.BirdNet:a 3D object detection framework from lidar information[C]//Proc of the 21st International Conference on Intelligent Transportation Systems.2018:3517-3523.

[18]Zhou Yin,Tuzel O.VoxelNet:end-to-end learning for point cloud based 3D object detection[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2018:4490-4499.

[19]Ye Maosheng,Xu Shuangjie,Cao Tongyi.HVNet:hybrid voxel network for lidar based 3D object detection[C]//Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition.2020:1628-1637.

[20]Qi C R,Su Hao,Mo Kaichun,et al.PointNet:deep learning on point sets for 3D classification and segmentation[C]//Proc of IEEE Confe-rence on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Pess,2017:77-85.

[21]Qi C R,Li Yi,Hao Su,et al.PointNet+:deep hierarchical feature learning on point sets in a metric space[C]//Advances in Neural Information Processing Systems.2017:5099-5108.

[22]Xie Qian,Lai Yukun,Wu Jing,et al.MLCVNet:multi-level context VoteNet for 3D object detection[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2020:10444-10453.

[23]Yang Zetong,Sun Yanan,Liu Shu,et al.3DSSD:point based 3D single stage object detector[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2020:11037-11045.

[24]Ku J,Mozifian M,Lee J,et al.Joint 3D proposal generation and object detection from view aggregation[C]//Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems.2018:1-8.

[25]Jiao Jianhao,Yun Peng,Tai Lei,et al.MLOD:awareness of extrinsic perturbation in multi-lidar 3D object detection for autonomous driving[C]//Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems.2020:10556-10563.

[26]Wang Yan,Chao Weilun,Garg D,et al.Pseudo-lidar from visual depth estimation:bridging the gap in 3D object detection for autonomous driving[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2019:8437-8445.

[27]Vora S,Lang A H,Helou B,et al.PointPainting:sequential fusion for 3D object detection[C]//Proc of IEEE/CVF Conference on Compu-ter Vision and Pattern Recognition.2020:4603-4611.

[28]Tarvainen A,Valpola H.Mean teachers are better role models:weight-averaged consistency targets improve semi-supervised deep learning results[C]//Advances in Neural Information Processing Systems.2017:1195-1204.

[29]Yang Qize,Wei Xihan,Wang Biao,et al.Interactive self-training with mean teachers for semi-supervised object detection[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2021:5937-5946.

[30]Wu Zheng,Tang Weiliang,Jiang Li,et al.SE-SSD:self-ensembling single-stage object detector from point cloud[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2021:14494-14503.

[31]Wang He,Cong Yezhen,Litany O,et al.3DIoUMatch:leveraging IoU prediction for semi-supervised 3D object detection[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2021:14610-14619.

[32]Qi C R,Liu Wei,Wu Chenxia,et al.Frustum PointNets for 3D object detection from RGB-D data[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2018:918-927.

[33]Yi Li,Zhao Wang,Wang He,et al.GSPN:generative shape proposal network for 3D instance segmentation in point cloud[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2019:3942-3951.

[34]Hou Ji,Dai A,NieBner M.3D-SIS:3D semantic instance segmentation of RGB-D scans[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.2019:4416-4425.

[35]Du Hongyuan,Li Linjun,Liu Bo,et al.SPOT:selective point cloud voting for better proposal in point cloud object detection[C]//Proc of the 16th European Conference on Computer Vision.2020:230-247.

主站蜘蛛池模板: 国产丰满成熟女性性满足视频| 成人免费视频一区| 亚洲男人在线天堂| 国产亚洲精品97AA片在线播放| 国产超碰一区二区三区| 97超碰精品成人国产| 久久午夜影院| 免费一级全黄少妇性色生活片| 无码乱人伦一区二区亚洲一| 亚洲三级成人| 毛片免费在线视频| 久草视频中文| 2021国产精品自产拍在线观看| 国产在线精品美女观看| 亚洲人成人伊人成综合网无码| 性视频久久| 激情网址在线观看| 无码中文字幕加勒比高清| 中日韩一区二区三区中文免费视频| 久久永久精品免费视频| 手机成人午夜在线视频| 99国产精品一区二区| 小蝌蚪亚洲精品国产| 国产白浆一区二区三区视频在线| 亚洲无码日韩一区| 久久婷婷五月综合97色| 亚洲Va中文字幕久久一区| 国产免费看久久久| 成人在线不卡视频| 国产精品成人免费视频99| 2021国产精品自产拍在线| 日韩欧美国产成人| 毛片免费在线| 国产拍在线| 久久精品国产电影| 欧美色亚洲| 婷婷五月在线视频| 久久综合九色综合97网| 女人av社区男人的天堂| 中文字幕不卡免费高清视频| 久久国产拍爱| 国产情精品嫩草影院88av| 亚洲另类国产欧美一区二区| 99伊人精品| 欧美69视频在线| 精品少妇人妻av无码久久| 国产亚洲高清在线精品99| 精品乱码久久久久久久| 欧美国产视频| 国产高清在线丝袜精品一区| 免费观看无遮挡www的小视频| 亚洲香蕉伊综合在人在线| 国产理论一区| 最新加勒比隔壁人妻| 免费不卡视频| 免费毛片视频| 999国内精品久久免费视频| 欧美日韩中文国产| 麻豆AV网站免费进入| 国产精品免费入口视频| 日本欧美中文字幕精品亚洲| 毛片免费观看视频| 国产亚洲视频免费播放| 日韩精品亚洲一区中文字幕| 欧美性爱精品一区二区三区| 国产黄色免费看| 经典三级久久| 精品一区二区三区无码视频无码| 欧洲熟妇精品视频| 毛片一级在线| 国产美女免费网站| 老司机午夜精品视频你懂的| 欧美翘臀一区二区三区| 亚洲欧洲日韩久久狠狠爱 | 国产亚洲欧美在线专区| 日本高清免费不卡视频| 欧美一级高清视频在线播放| 婷婷亚洲最大| 香蕉视频国产精品人| 特级精品毛片免费观看| 中文无码日韩精品| 亚洲开心婷婷中文字幕|