999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于少量數據集的三維點云生成模型

2024-11-07 00:00:00張淵杰沈洋許浩包艷霞應震
軟件工程 2024年11期

摘要:針對生成對抗網絡(GAN)需要大量訓練數據及點云數據稀缺且獲取難度大的問題,提出一種基于少量數據集的三維點云生成模型。該模型首先通過重采樣和水平旋轉的方法實現數據增強,使第一級網絡能夠生成具有多樣性的低分辨率點云;其次通過確保低分辨率點云與高分辨率點云之間的對應關系,實現點云的超分辨率生成;最后實現生成具有多樣性的高分辨率點云。實驗結果表明,在ShapeNetPart(ShapeNetPartSegmentationDataset)數據集上,該模型的JS散度相較于Tree\|GAN的JS散度下降了0.416,證明其性能優于Tree\|GAN。

關鍵詞:GAN;少量點云數據;重采樣;數據增強;超分辨率

中圖分類號:TP391文獻標志碼:A

0引言(Introduction)

點云生成是計算機視覺領域的一個研究熱點,它彌補了二維圖像無法直接捕捉現實世界中物體的深度信息,不適用于需要深度和位置信息的場景。當前,三維數據集在機器人導航[1]、自動駕駛汽車[2\|3]、增強現實[4]和醫療保健[5\|6]等領域得到廣泛應用。原始點云憑借其緊湊且高效的數據表示形式越來越受歡迎,日益成為捕捉物體的復雜細節的首選方法。作為三維信息的一種直接體現,點云數據集在需要精確描繪物體形狀和結構的應用中展現出不可替代的價值,其應用前景廣闊。然而,與圖像數據集相比,點云數據集存在數據稀缺和獲取困難等問題。因此,探索一種創新方法,即利用有限的點云數據訓練生成模型,進而生成更多的具有多樣性的點云數據。這一方法的成功實現,將有望突破點云數據應用的瓶頸,推動相關領域技術的快速發展。

1方法介紹(Methodsintroduction)

在自然圖像處理中,SHAHAM等[7]提出了一種用于單張自然圖像訓練的生成模型SinGAN。該模型可以捕捉給定圖像內部各個區塊的分布,生成帶有與給定圖像中的視覺內容相同的高質量且具有多樣性的新圖像。

受SinGAN思想的啟發,針對點云數據稀缺問題,本文提出了一種基于少量點云數據訓練學習的生成模型。該模型由兩個生成器和兩個判別器構成,生成器和判別器是一一對應的。點云的分辨率也就是點云中所包含的點的數量,在不同分辨率下,模型分別部署了一個生成器以及一個與之匹配的判別器,通過彼此之間的博弈,學習不同分辨率下的給定點云數據服從的分布,在推理階段生成具有多樣性的點云數據。本文貢獻主要體現在兩個方面:①通過對給定的輸入點云數據進行重采樣和水平旋轉操作,實現數據增強,達到增加訓練數據樣本數量的目的;②通過保證低分辨率點云與高分辨率點云之間的對應關系,經過訓練實現點云的超分辨率生成。

2相關研究(Relatedresearch)

近年來,基于生成對抗網絡(GAN)的點云生成模型受到廣泛關注。GAN是一種生成式模型,由GOODFELLOW等[8]于2014年提出,現已成為人工智能領域的熱門研究方向。近期,深度神經網絡在生成3D數據的應用引起了學術界的廣泛關注,并催生了多種解決方案,包括從圖像生成點云[9\|10]、從圖像生成體素[11]、從圖像生成網格[12],以及從點云生成點云[13]、從點云生成體素[14]等。生成的3D數據已廣泛應用于計算機視覺領域,如圖像分割[15]、分類[16]、目標檢測[17\|18]和特征提取[19]等,取得了顯著的成果。

當前,生成對抗網絡(GAN)在自然圖像處理中的應用日益廣泛,例如PolaritySampling[20]方法通過控制預訓練的深度生成網絡,有效提升了生成圖像質量和多樣性;特征統計混合正則化[21](FeatureStatisticsMixingRegularization,FSMR),將FSMR添加到基于增強的GAN方法時,能進一步提高圖像的質量。此外,GAN還成功應用于發型編輯(HairCLIP)[22]、風格遷移(EFDM[23]和DualStyleGAN[24])及人臉屬性編輯(結合Transformer的TransEditor[25])等領域,并實現了更高分辨率圖像的生成(Styleformer[26])。然而,這些方法都無法應用到點云中,這主要歸因于點云數據的無序性和非結構化特性,為GAN在點云領域的應用帶來了挑戰。

在3D方面,GAN的應用同樣展現出巨大的潛力與創新,例如有用于生成逼真合理的虛擬形象姿勢的FLAG[27];有通過學習一個統一的局部翹曲函數,將多個相同的預定義先驗信息(即均勻分布在規則三維網格上的點集)翹曲成由局部結構感知語義驅動的三維形狀的WarpingGAN[28];LIU等[29]提出了一種用于點云上采樣的Pufa\|gan;還有研究將自注意力與推理樹結構相結合,基于此構建成的點云生成器SG\|GAN[30];特別值得一提的是Tree\|GAN[31],為了實現多類3D點云生成的先進性能,它引入了樹結構圖卷積網絡(TreeGCN)作為Tree\|GAN的生成器。因為TreeGCN在樹中執行圖卷積,所以它可以使用祖先信息提高特征的表示能力。因此,Tree\|GAN在精度和計算效率方面優于其他基于GAN的點云生成方法。然而,GAN作為生成模型,也面臨著一定的挑戰。其中,對訓練數據數量的需求是一個顯著的問題。當訓練數據過少時,GAN的生成效果往往會受到影響,導致生成的樣本質量不佳。

在自然圖像方面,有用于從單張自然圖像中學習的無條件生成模型(SinGAN)。在SinGAN中,提出了一種可以從單張自然圖像中學習的無條件生成模型,這個模型被訓練用來捕獲圖像內部塊的分布,能夠生成與作為訓練樣本的圖像具有相同視覺內容的高質量、多樣化的樣本。SinGAN包含一個由全卷積GAN組成的金字塔,每個生成器負責學習圖像中不同尺度的區塊分布,這樣就可以生成任意大小和寬高比的新樣本,這些新樣本具有顯著的多樣性,與此同時還保持了訓練圖像的全局結構和細微紋理。SinGAN可以只使用單張自然圖像所構成的訓練集生成具有多樣性的新圖像樣本,但是將其直接用于點云生成仍然存在一定問題。由于點云數據與自然圖像不同,它是非結構化數據,具有無序性,無法像自然圖像這類結構化數據一樣進行分塊操作,所以對于整體模型的設計思路要做相應的改進,通過改進后的模型可以實現使用少量點云數據生成具有多樣性的點云數據的目的,解決了GAN存在的需要訓練數據數量大且獲取困難的問題。

3模型設計(Modeldesign)

本文提出了一個由樹結構生成網絡和判別器構成的金字塔型生成模型,該生成模型有兩層,每一層都由一組互相對應的生成器和判別器構成,通過生成器和判別器彼此之間的博弈,學習到不同分辨率下的點云所服從的分布規律,然后將生成得到的點云作為輸入送入下一層,以此獲得信息更加豐富的點云,通過這種方式生成具有多樣性的點云數據。

3.1樹結構生成網絡原理

Tree\|GAN的生成器是一種典型的樹結構生成網絡,它的輸入是從高斯分布采樣得到的一個點。在生成器的每一層級中,通過分支(Branching)操作和圖卷積(GraphConv)操作生成第l組點pl,之前所有層級生成的點都被存儲并附加到當前層級的樹結構中,樹從根節點開始,通過分支操作分裂成子節點,并通過圖卷積操作修改節點。分支操作是一種增加點總數的過程,類似于2D卷積中的上采樣操作。

為了增強傳統GCN的性能,Tree\|GAN提出了一種用樹結構增強的新型GCN(即TreeGCN)。TreeGCN通過將信息從節點的祖先傳遞給節點的后代,為分層GCN引入了樹結構。TreeGCN的主要獨特特征是每個節點是通過引用樹中其祖先的值而不是其鄰居的值來更新其值,本文提出的樹狀圖卷積(TreeGCN)公式定義如下:

3.2損失函數

本文引入WGAN\|GP[32]的目標函數,生成器的損失函數Lgen定義如下:

其中:D為判別器,G為生成器,Z為潛碼z所服從的潛在分布,這里采用的是正態分布N(0,I)。

判別器的損失函數Ldisc定義如下:

其中:G(z)為生成器所生成的點云;x為真實的點云樣本;R表示真實的數據分布,并且使用了梯度懲罰的方法;x〖DD(-1*2〗[HT5]^〖DD)〗是從真假點云中采樣的;λgp為梯度懲罰項的常系數。

3.3整體網絡結構

本文提出的網絡結構建立在樹結構生成網絡和判別器的基礎上,通過由粗到精的方式生成點云,具體生成方式如下:第一級網絡的生成器得到一個來自高斯分布中采樣得到的點的輸入,然后生成低分辨率的點云數據,將這個點云數據作為輸入送入第二級網絡后,得到1024個點的點云樣本。

由于訓練樣本的數量較少,為了解決這個問題,本文使用了如下方法:在第一級網絡中,使用重采樣和水平旋轉的方法增加訓練樣本的數量。第一級網絡對應的是低分辨率的點云樣本,此時對于一個點云樣本先進行重復采樣,然后進行水平旋轉可以生成多個不同的樣本數據。在第二級網絡中,面臨著重采樣方法不適用和點云樣本數量有限的問題,因此使用水平旋轉方法,并建立低分辨率點云與高分辨率點云之間的對應關系,使用低分辨率點云生成高分辨率點云,從而保證生成點云的多樣性。

整個網絡是逐級訓練的,完成對第一級網絡的訓練之后,再開始進行第二級網絡的訓練,整體的訓練階段流程圖如圖1所示。

3.4生成器網絡結構

第一級網絡所用的生成器的網絡結構如圖2所示,它是一種樹結構生成網絡,其生成方式是先從高斯分布中采樣得到一個點作為輸入(也就是根節點),然后通過圖樹分支操作分成多個節點,例如從(1,256)的點變成(2,256)的點,通過圖卷積操作實現點的特征通道數的變化,例如從(1,96)變成(1,256),經過多次圖樹分支操作和圖卷積操作,最終實現從(1,96)的根節點變成(128,3)的點云樣本。

第二級網絡中用于點云生成的網絡結構如圖3所示。從圖3中可以看出,與第一級網絡的不同之處在于生成器之前加入了一個特征池化層(關于特征池化層的具體細節在后面的小節中進行描述)。由于第一級網絡生成的是點云數據,所以需要保證第二級網絡能夠滿足點云的置換不變性,因此加入特征池化層。

3.5特征池化層

從圖1中可以看到,在第二級網絡使用的生成器前加入了一個特征池化層,其網絡結構如圖4所示。特征池化層是由幾個多層感知機(MLP)和一個最大池化層組成的,這里加入特征池化層的目的是實現點云的置換不變性,提取它的一個全局特征。通過多層感知機將每一點都映射到高維空間,在更高維空間對數據做對稱性操作(這里選用的是最大池化操作)。在三維點的表達中,采用高維空間不可避免地會引入信息冗余,但也正是因為信息的冗余性,通過進行對稱性操作之后,可以減少信息的損失,保留足夠的點云信息。在得到輸入點云的全局特征以后,將其輸入生成器,通過分支(Branching)操作和圖卷積(GraphConv)操作生成特征信息更加豐富的點云。

3.6訓練算法流程

整個網絡是逐級訓練的,訓練完一級網絡以后,再開始訓練下一級網絡。第一級網絡的訓練數據是經過重采樣和水平旋轉操作后得到的,它的輸入是從高斯分布中采樣得到的一個點,經過訓練以后,可以實現通過輸入從高斯分布中采樣得到的點,生成具有多樣性的低分辨率的點云樣本。

第二級網絡的訓練數據是通過水平旋轉操作后得到的,訓練時所用的輸入數據是對經過水平旋轉后的點云進行最遠點采樣獲得,同時要保證它們之間的對應關系。經過訓練以后,實現輸入低分辨率點云后能夠生成對應的高分辨率點云。

4實驗結果與分析(Experimentalresultsandanalysis)

4.1數據集及訓練平臺

使用ShapeNetPart數據集對本文提出的模型進行訓練和評估。ShapeNetPart是一個包含16個類別的豐富數據集,其中訓練集含有12137個樣本,驗證集1870個,測試集2874個,總計樣本量達到16881個。該數據集中,樣本呈現出不均衡特性,如Table類別有5263個樣本,而Earphone類別只有69個樣本。考慮到每個樣本只包含2048個點,屬于小數據集,本文從桌子類別的數據集中隨機挑選了40個樣本經過最遠點采樣得到對應的1024個點的新樣本,作為訓練集用于模型訓練。實驗平臺為搭載GeForceRTX3090GPU的服務器,配置環境為Python3.8和Tensorflow2.4\|gpu。

4.2評價指標

本文使用JS散度(Jensen\|ShannonDivergence)評估生成點云的質量,JS散度是在歐幾里得三維空間的邊緣分布上定義的,假設條件為軸對齊的點云數據和環境空間中的規范體素網格,可以測量點云A與點云B占據相似位置的程度。通過分別計算點云A和點云B中每個體素內的點數,獲得經驗分布(PA,PB)之間的JSD:

其中:M=〖SX(〗1〖〗2〖SX)〗(PA+PB),D(·‖·)是兩個分布之間的KL散度(Kullback\|Leiblerdivergence),KL散度是一個用來衡量兩個概率分布之間相似性的度量指標,計算公式如下:

4.3參數設置

本文對生成器和判別器網絡都使用了Adam優化器,學習率設置為α=10-4,其他系數分別為β1=0.001和β2=0.99。在生成器中,使用LeakyReLU(α=0.2)作為沒有批歸一化的非線性函數。損失函數中梯度懲罰系數設置為10,判別器每次迭代更新2次,生成器每次迭代更新一次。潛在向量z∈R96從正態分布N(0,I)中采樣以作為第一級網絡的輸入,TreeGCN的循環項有K=10個支持。判別器的網絡結構及參數如表1所示。

4.4生成新點云可視化結果

因為實現了數據增強,并且采用由粗到精的生成方式生成點云,所以在少量訓練集的情況下也能生成具有多樣性的點云,模型可以學習得到點云服從的概率分布。而且,由于輸入第一級網絡的潛碼是隨機采樣得到的,所以會生成得到訓練集中所沒有的新的點云,使用的訓練集和生成的新點云可視化結果如圖5所示。

4.5與Tree\|GAN模型的對比實驗

針對GAN在訓練過程中需要大量數據的問題,當使用較少的訓練集用于模型訓練時,模型往往因訓練不足而生成質量不佳的點云,這一現象在Tree\|GAN模型的生成結果中尤為明顯。本文提出的方法使用了重采樣和水平旋轉操作,實現了數據增強,保證了訓練數據數量的充足性,同時采用了由粗到精的方法生成點云,保證了最終生成的點云的質量及多樣性。在針對“桌子”這一類別進行2000個epoch后,兩個模型所生成的點云可視化結果對比如圖6所示。

從圖6展示的可視化結果可以看出,當使用較少的訓練集進行訓練時,Tree\|GAN的生成效果并不理想,具體表現為生成的點云質量不好,點的分布不均勻,并且整體點云缺乏顯著的多樣性。相比之下,本文提出的方法在經過相同的周期訓練后生成了相對高質量的點云,點的分布相對均勻,并且具有顯著的多樣性。

除了比較兩個模型最終生成點云的可視化結果,實驗還使用了JS散度分別評估最終生成點云的質量,本文選擇在“桌子”這一類別上訓練2000個epoch并進行評價指標的對比,對比結果如表2所示。

從表2中的對比結果中可以看出,在使用少量訓PnIJgtZ+B2U0Pon5/3J4Vw==練集并且經過相同訓練周期的情況下,使用本文提出的方法生成的點云的質量要比使用Tree\|GAN生成的點云的質量好,JSD相比Tree\|GAN下降了0.416,更加接近真實點云的概率分布。

4.6消融實驗

本文的生成器用到的損失函數是WGAN\|GP的目標函數,然而在圖像超分辨率領域,它的生成器損失函數是基于均方誤差(MeanSquareError,MSE)的,通過MSE進行逐像素點計算,以此衡量生成的圖像與參考圖像之間的相似度。參考圖像超分辨率的損失函數,對本文模型的第二級網絡使用的生成器的損失函數進行修改,加入均方誤差(RootMeanSquareError,RMSE),通過RMSE進行逐點計算,以此衡量兩組點云之間的相似程度,增加生成點云的質量,使之更加接近真實點云的概率分布。

因此,對初始的生成器損失函數進行修改,加入了RMSE,并在同一個數據集上訓練2000個epoch后進行評價指標的對比,對比結果如表3所示。

從表3對比結果中可以看出,在生成器損失函數中加入RMSE之后,模型經過訓練最終生成的點云與真實點云更加相似,JSD評價指標下降了0.2,更加接近真實點云的概率分布。

5結論(Conclusion)

本文提出了一種基于少量數據集的三維點云生成模型,使用重采樣和水平旋轉方法實現了數據增強,保證了訓練數據充分,同時由于采用了由粗到精的方法生成點云,保證了最終生成的點云的質量和多樣性。在ShapeNetPart數據集的“桌子”這一類別上與Tree\|GAN進行了生成點云的可視化結果對比以及JSD評價指標的對比,結果均表明本文提出的方法在使用較少訓練集的情況下生成的點云質量優于Tree\|GAN。后續將針對網絡進行持續改進,嘗試對生成點云的特征進行控制,例如特征混合等。

參考文獻(References)

[1]WANGXX,MIZUKAMIY,TADAM,etal.Navigationofamobilerobotinadynamicenvironmentusingapointcloudmap[J].Artificiallifeandrobotics,2021,26(1):10\|20.

[2]CHENSH,LIUBA,FENGC,etal.3Dpointcloudprocessingandlearningforautonomousdriving:impactingmapcreation,localization,andperception[J].IEEEsignalprocessingmagazine,2021,38(1):68\|86.

[3]PARKJ,KIMC,KIMS,etal.PCSCNet:fast3DsemanticsegmentationofLiDARpointcloudforautonomouscarusingpointconvolutionandsparseconvolutionnetwork[J].Expertsystemswithapplications,2023,212:118815.

[4]ZHOUJQ,XUH,MAZ,etal.Sparsepointcloudgenerationbasedonturntable2Dlidarandpointcloudassemblyinaugmentedrealityenvironment[C]∥I2MTC.ProceedingsoftheIEEEInternationalInstrumentationandMeasurementTechnologyConference.Glasgow:IEEE,2021:1\|6.

[5]CHENRJ,LUMY,SHABANM,etal.Wholeslideimagesare2Dpointclouds:Context\|awaresurvivalpredictionusingpatch\|basedgraphconvolutionalnetworks[C]∥MICCAI.ProceedingsoftheMICCAIMedicalImageComputingandComputerAssistedIntervention.Strasbourg:MICCAI,2021:339\|349.

[6]KAMENCAYP,SINKOM,HUDECR,etal.Improvedfeaturepointalgorithmfor3Dpointcloudregistration[C]∥TSP.Proceedings&jrznSLlazfbPbU45bzRHl0spAmZnyu17o8eVtEpVKuU=nbsp;oftheIEEEInternationalConferenceonTelecommunicationsandSignalProcessing.Budapest:IEEE,2019:517\|520.

[7]SHAHAMTR,DEKELT,MICHAELIT.Singan:learningagenerativemodelfromasinglenaturalimage[C]∥MORTENSENE.ProceedingsoftheIEEE/CVFInternationalConferenceonComputerVision.NewYork:IEEE,2019:4570\|4580.

[8]GOODFELLOWI,POUGET\|ABADIEJ,MIRZAM,etal.Generativeadversarialnets[J].Advancesinneuralinformationprocessingsystems,2014,27.

[9]LIJX,LEEGH.DeepI2P:image\|to\|pointcloudregistrationviadeepclassification[C]∥BRENDELW.Proceedingsofthe2021IEEE/CVFConferenceonComputerVisionandPatternRecognition.Nashville:IEEE,2021:15960\|15969.

[10]LIUFM,LIUX.Voxel\|based3Ddetectionandreconstructionofmultipleobjectsfromasingleimage[J].Advancesinneuralinformationprocessingsystems,2021,34:2413\|2426.

[11]RUKHOVICHD,VORONTSOVAA,KONUSHINA.Imvoxelnet:imagetovoxelsprojectionformonocularandmulti\|viewgeneral\|purpose3Dobjectdetection[C]∥WACV.ProceedingsoftheIEEE/CVFWinterConferenceonApplicationsofComputerVision.Waikoloa:IEEE,2022:2397\|2406.

[12]WANGYY,XUJG,SUNYF.End\|to\|endtransformerbasedmodelforimagecaptioning[J].ProceedingsoftheAAAIconferenceonartificialintelligence,2022,36(3):2585\|2594.

[13]YANGYQ,FENGC,SHENYR,etal.Foldingnet:pointcloudauto\|encoderviadeepgriddeformation[C]∥BRENDELW.ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.SaltLakeCity:IEEE,2018:206\|215.

[14]ZHOUY,TUZELO.Voxelnet:end\|to\|endlearningforpointcloudbased3Dobjectdetection[C]∥BRENDELW.ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.SaltLakeCity:IEEE,2018:4490\|4499.

[15][JP3]繆永偉,劉家宗,孫瑜亮,等.基于類別\|實例分割的室內點云場景修復補全[J].計算機學報,2021,44(11):2189\|2202.

[16]CHARLESRQ,HAOS,MOKC,etal.PointNet:deeplearningonpointsetsfor3Dclassificationandsegmentation[C]∥2017IEEEConferenceonComputerVisionandPatternRecognition.IEEE,2017:77\|85.

[17]鐘宇,張靜,張華,等.基于目標檢測的機器人手眼標定方法[J].計算機工程,2022,48(3):100\|106.

[18]LIZL,QUZ,ZHOUY,etal.Diversitymatters:fullyexploitingdepthcluesforreliablemonocular3Dobjectdetection[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:2791\|2800.

[19]DAIJJ,WEIMQ,XIEQ,etal.Aircraftseamfeatureextractionfrom3Drawpointcloudviahierarchicalmulti\|structurefitting[J].Computer\|aideddesign,2021,130:102945.

[20]HUMAYUNAI,BALESTRIEROR,BARANIUKR.Polaritysampling:qualityanddiversitycontrolofpre\|trainedgenerativenetworksviasingularvalues[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:10641\|10650.

[21]KIMJ,CHOIY,UHY.Featurestatisticsmixingregularizationforgenerativeadversarialnetworks[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:11294\|11303.

[22]WEITY,CHENDD,ZHOUWB,et al.Hairclip:designyourhairbytextandreferenceimage[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:18072\|18081.

[23]ZHANGYB,LIMH,LIRH,etal.Exactfeaturedistributionmatchingforarbitrarystyletransferanddomaingeneralization[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:8035\|8045.

[24]YANGS,JIANGLM,LIUZW,etal.Pastichemaster:exemplar\|basedhigh\|resolutionportraitstyletransfer[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:7693\|7702.

[25]XUYB,YINYQ,JIANGLM,etal.Transeditor:transformer\|baseddual\|spaceganforhighlycontrollablefacialediting[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:7683\|7692.

[26]PARKJ,KIMY.Styleformer:transformerbasedgenerativeadversarialnetworkswithstylevector[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:8983\|8992.

[27]ALIAKBARIANS,CAMERONP,BOGOF,etal.Flag:flow\|based3Davatargenerationfromsparseobservations[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:13253\|13262.

[28]TANGYZ,QIANY,ZHANGQJ,etal.WarpingGAN:warpingmultipleuniformpriorsforadversarial3Dpointcloudgeneration[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:6397\|6405.

[29]LIUH,YUANH,HOUJH,etal.PUFA\|GAN:afrequency\|awaregenerativeadversarialnetworkfor3Dpointcloudupsampling[J].IEEEtransactionsonimageprocessing:apublicationoftheieeesignalprocessingsociety,2022,31:7389\|7402.

[30]LIYS,BACIUG.SG\|GAN:adversarialself\|attentionGCNforpointcloudtopologicalpartsgeneration[J].IEEEtransactionsonvisualizationandcomputergraphics,2022,28(10):3499\|3512.

[31]SHUDW,PARKSW,KWONJ.3Dpointcloudgenerativeadversarialnetworkbasedontreestructuredgraphconvolutions[C]∥MORTENSENE.ProceedingsoftheIEEE/CVFInternationalConferenceonComputerVision.NewYork:IEEE,2019:3859\|3868.

[32]GULRAJANII,AHMEDF,ARJOVSKYM,etal.Improvedtrainingofwassersteingans[C]∥NIPS.Proceedingsofthe31stInternationalConferenceonNeuralInformationProcessingSystems(NIPS'17).NewYork:CurranAssociatesInc.,2017:5769\|5779.

作者簡介:

張淵杰(1998\|),男,碩士生。研究領域:人工智能,點云處理。

沈洋(1975\|),男,博士,教授。研究領域:深度學習,點云分析,圖像處理。

許浩(1988\|),男,博士,講師。研究領域:深度學習與優化方法,計算機圖像處理。

包艷霞(1980\|),女,博士,講師。研究領域:優化算法理論,人工智能。

應震(1975\|),男,本科,工程師。研究領域:圖形圖像處理。

主站蜘蛛池模板: 少妇精品久久久一区二区三区| 久久国产精品嫖妓| 超清无码熟妇人妻AV在线绿巨人| 亚洲伦理一区二区| 国产91av在线| 久久永久视频| 国产一区亚洲一区| 久久精品一品道久久精品| 欧美亚洲综合免费精品高清在线观看| 国产成人精彩在线视频50| 综合色在线| 91麻豆国产视频| 午夜激情婷婷| 亚洲第一黄片大全| 一本色道久久88综合日韩精品| 欧美a网站| 99re视频在线| 国产麻豆91网在线看| 四虎国产成人免费观看| 中文字幕1区2区| 五月激情婷婷综合| 色悠久久久| 呦视频在线一区二区三区| 亚洲毛片网站| 手机看片1024久久精品你懂的| 久视频免费精品6| 久久黄色免费电影| a网站在线观看| 欧美a级在线| 久久网欧美| 一本大道香蕉久中文在线播放| 久草国产在线观看| 久草视频中文| 精品久久久无码专区中文字幕| 中日韩一区二区三区中文免费视频| 在线看AV天堂| 一级香蕉视频在线观看| 99久久婷婷国产综合精| 亚洲中久无码永久在线观看软件| 精品三级网站| 成人综合网址| 天天做天天爱夜夜爽毛片毛片| 青青青亚洲精品国产| 久久久久国产一区二区| 18禁高潮出水呻吟娇喘蜜芽| 国产精品欧美亚洲韩国日本不卡| 日韩区欧美区| 国产亚洲精久久久久久无码AV| 欧美一级在线| 91精品国产一区| 国产精品污污在线观看网站| 91九色国产在线| 国产网友愉拍精品| 亚洲青涩在线| 毛片在线看网站| 2022国产无码在线| 国产视频入口| 777国产精品永久免费观看| 99视频在线精品免费观看6| 久久久久久午夜精品| 日本人妻丰满熟妇区| 日韩在线中文| 国产熟睡乱子伦视频网站| 国产精品99r8在线观看| 国产精品久线在线观看| 国产精品无码久久久久AV| 国产免费a级片| 欧美久久网| 亚洲无码高清免费视频亚洲| 91精品国产自产在线老师啪l| 国产H片无码不卡在线视频| 尤物精品视频一区二区三区 | 亚洲v日韩v欧美在线观看| 欧美国产三级| 少妇极品熟妇人妻专区视频| 狠狠色噜噜狠狠狠狠色综合久| 久久亚洲欧美综合| 色男人的天堂久久综合| 亚洲福利一区二区三区| 91国内视频在线观看| 中文字幕天无码久久精品视频免费 | 亚洲码在线中文在线观看|