999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合NFFD與圖卷積的單視圖三維物體重建

2022-06-01 06:41:54連遠鋒裴守爽胡偉
光學精密工程 2022年10期
關鍵詞:方法模型

連遠鋒裴守爽胡偉

融合NFFD與圖卷積的單視圖三維物體重建

連遠鋒1,2*,裴守爽1,胡偉1

(1.中國石油大學(北京) 計算機科學與技術系,北京 102249;2.石油數據挖掘北京市重點實驗室,北京 102249)

為了解決復雜拓撲結構及非規則表面細節缺失等導致的單視圖三維物體重建結果不準確問題,本文提出了一種融合非均勻有理B樣條自由形變(NFFD)與圖卷積神經網絡的三維物體重建方法。首先,通過引入連接權重策略的控制點生成網絡對2D視圖進行特征學習,獲得其控制點拓撲結構。然后,利用NURBS基函數對控制點坐標自適應特性建立點云模型輪廓間頂點的形變關系。最后,為增強細節信息,將混合注意力模塊嵌入圖卷積網絡對形變后的點云位置進行調整,從而實現復雜拓撲結構和非規則表面的高效重建。在ShapeNet數據集的實驗表明,CD指標平均值為3.79,EMD指標平均值為3.94,并在Pix3D真實場景數據集上取得較好重建效果。與已有的單視圖點云三維重建方法比較,本文方法有效地提高了重建精度,具有較強的魯棒性。

NURBS自由形變;三維重建;圖卷積網絡;混合注意力;控制點生成網絡

1 引 言

單視圖三維物體重建技術廣泛應用于姿態估計、形狀檢索、自動駕駛和增強現實等多種場景,成為計算機視覺領域的研究熱點。由于物體單視圖受觀察視角影響導致幾何信息缺失,使得恢復物體完整的三維結構非常具有挑戰性。

近年來,基于深度學習的三維模型重建得到了廣泛應用。根據重建對象的表示形式可分為網格、體素和點云[1-2]。基于網格[3]和體素[4]進行物體三維重建是利用網絡學習二維圖像到三維網格或三維體素塊上的概率分布映射關系來表達三維幾何形狀。由于三維物體的網格表示形式存在復雜的拓撲關系,使得在利用同類形狀模板進行變形過程中容易出現網格自交叉[5]。基于體素的物體表示形式可以直接實現卷積與池化操作,但受限于計算資源和分辨率等問題會丟失局部細節,難以處理高精度的模型[6]。一些工作[7-8]基于點云的不規則數據形式進行三維形狀重建。Fan等[9]提出了一種基于點云的三維模型重建方法PSGN,通過定義倒角距離與空間距離等損失函數,取得了較好的重建精度。Zhang等[10]基于融合特征對內部點和外部點進行分類,并提出一種點云采樣優化策略,使得重建點云的細節更為豐富。為了有效恢復物體單視圖的遮擋區域,Yang等[11]將3D編碼器-解碼器結構與生成對抗網絡結合,從單幅視圖重建物體精細的三維結構,在合成數據集上得到較好的實驗結果。

基于點云的三維重建方法中,三維模型中每個頂點的位置及其鄰接關系可以通過拓撲圖來表示,而圖卷積網絡(Graph Convolution Network,GCN)能夠更好地在拓撲圖上捕獲隱含、非線性空間特征,因而采用GCN模型實現點云的三維重建得到了廣泛應用[12-13]。Wang等[14]提出一種多階段網格形變的三維重建方法Pixel2Mesh,通過圖卷積神經網絡精確預測三維模型中每個頂點的位置,實現網格的形變。在文獻[14]基礎上,Nguyen等[15]通過多尺度的編碼器獲得更為準確的圖像特征,并將這些特征映射到隨機點云的每個頂點實現模型重建。雖然上述方法在部分數據集上取得較好的結果,但仍存在由于局部紋理缺失、物體拓撲結構復雜等因素導致重建結果不準確的局限性。

由于點云具有可伸縮性和延展性,一些方法將自由形變(Free-Form Deformation, FFD)引入三維物體重建任務中。Kurenkov等[16]基于FFD模型,提出一種點云三維重建方法,利用網格體包圍目標,并在網格上定義若干控制點,通過深度學習方法預測控制點偏移來實現三維重建。Pontes等[17]擴展了這種方法,并引入模型檢索思想,根據輸入的圖像在數據庫中查找與其最為相近的三維模型,然后經過自由形變技術得到最終模型。由于FFD模型對計算資源要求較高,任意控制點的坐標變化均會導致模型整體形變,文獻[18]改進了FFD模型,提出NFFD (NURBS-based Free-Form Deformation)自由形變模型,增加了形變自由度,在一定程度上提升了自由形變的精度。

為了提升單視圖三維物體重建精度,本文提出了一種融合NFFD與圖卷積神經網絡的三維重建方法。首先,通過引入連接權重策略的控制點生成網絡對2D視圖進行特征學習,獲得其控制點拓撲結構。其次,利用NURBS基函數對控制點坐標自適應特性建立點云模型輪廓間頂點的形變關系。最后,為增強細節信息,將混合注意力模塊嵌入圖卷積網絡對形變后的點云位置進行調整。通過以上兩階段的位置映射,實現復雜拓撲結構和非規則表面的高效重建。

2 融合NFFD與圖卷積的單視圖三維重建算法

本文提出的系統網絡結構如圖1所示,包括控制點生成網絡、NFFD自由形變和圖卷積局部點云形變模塊。首先將單幅圖像輸入到控制點生成網絡獲得三維模型的控制點,然后利用NFFD自由形變方法對模板模型進行調整,最后利用圖卷積對局部點云進行調整,得到最終的三維點云重建結果。

2.1 控制點生成網絡

為了利用單幅圖像的特征信息生成準確的三維模型控制點,采用編碼器-解碼器-預測器機制,設計了一個對復雜三維模型結構具有良好表現力的控制點生成網絡(Control Points Generation Network,CPGN),如圖2所示。編碼器由卷積層和ReLU層組成,這里采用了多尺度的卷積層以獲得不同層次的特征信息。解碼器由反卷積層和ReLU層組成,利用步長為1的卷積代替pooling層,同樣用步長為2的反卷積代替unpooling層,這種設計可以減少圖像紋理信息的丟失。編碼器中每一層的輸出與相應的解碼器輸出通過矩陣加法相融合,以產生增強的特征。為了防止過擬合,加快收斂速度,預測器由卷積模塊和兩個全連接層組成,最后的一個全連接層實現維度變換,輸出控制點坐標偏移量,并與初始控制點坐標相加,獲得最終的控制點坐標。

圖1 系統網絡結構

圖2 控制點生成網絡結構

2.2 NFFD自由形變模型

基于非均勻有理B樣條曲面自由形變,采用非均勻控制點矩陣對曲面進行約束,能夠有效提升模型形變精度[19-20]。NFFD方法形變過程描述如下:

首先根據輸入圖像的類別,從模型數據庫選擇模型點云,其中每個類別對應一種模型點云。建立方向上的局部坐標系,定義模型點云頂點的三元組坐標,記為(,,)。CPGN根據輸入圖像生成對應三維模型的控制點坐標形變量,并與初始控制點坐標相加,獲得最終的控制點坐標。

初始控制點在各個方向上均勻分布,設在三個方向上分別有個控制點,已知坐標系原點為,則初始控制點p的坐標滿足如下公式:

p為最終的控制點坐標,形變后點云模型的頂點坐標由公式(2)定義:

(2)

通常,B樣條基函數的次數與控制點影響的區域正相關。在三個方向上,B樣條基函數的次數滿足以下條件:

2.3 圖卷積點云形變模塊

通道注意力模塊能有效提取通道間有用的信息。輸入特征經過與自身兩次矩陣相乘后,再與自身相加獲得輸出特征。通道注意力模塊的表達式為:

圖3 圖卷積點云形變模塊

2.4 損失函數

為實現對點云的位置進行預測,采用EMD、CD、等距先驗損失與對稱損失作為模型訓練的損失函數,具體定義如下:

241Earth mover’s distance(EMD)

242倒角距離(CD)

倒角距離(CD)用于衡量兩組點云之間的距離。形式上被定義為:

243等距先驗損失

等距先驗損失定義如下:

244對稱損失

為了使形變過程中的點云模型保持對稱性,引入點云的對稱損失函數,即:

245歸一化

總損失函數為上述各項損失函數之和:

3 實驗結果與討論

3.1 模型訓練細節

在所有的實驗中,模型輸入均為RGB彩色圖像,輸出頂點數為2 048的三維點云。同時,為了端到端訓練圖卷積網絡,在實驗中使用了Adam優化器[26],學習率初始化為5×105。模型的迭代次數為50個epoch,批量大小(Batchsize)為32。所有實驗均在NVIDIA GeForce GTX1080Ti GPU上使用開源機器學習框架Pytorch實現。

3.2 實驗數據和評價標準

為評估本文所提算法的重建性能,使用了ShapeNet[27]合成數據集和Pix3D[28]真實場景數據集進行實驗。ShapeNet中共有13個模型類別,共51 300個3D模型,將部分遮擋或截斷的數據排除,并按照4:1的比例隨機劃分訓練集與測試集。同樣對Pix3D數據集做了預處理,用提供的背景遮罩信息去除無用背景并將物體移動至中心位置,最終將圖像縮放或裁剪至224×224作為輸入圖像。

此外,本文使用IoU(Intersection-over-Union)、CD和EMD作為實驗結果的衡量指標。IoU表示網絡重建的3D體素形狀與真實體素形狀的交并比,這里采用與PSGN[9]相同的體素生成方法。CD與EMD表示兩個點云之間的差異性,這里對GT點云進行采樣,生成頂點數為2 048的點云模型,并與本文重建點云進行對比。

3.3 損失函數分析

對本文提出的損失函數設計策略的魯棒性進行驗證如圖4所示,圖4(a)展示了損失函數在不同訓練集上的效果對比。通過對比可知,在三種不同的訓練集上,損失函數在訓練中總體保持不斷下降的趨勢,訓練集的損失函數在前20次epoch中下降較為迅速,而在第40次之后總體趨于穩定,可知本文方法具有較高的魯棒性。進一步,圖4(b)展示了圖卷積點云形變過程中損失函數收斂情況。通過圖4(b)可以看到圖卷積形變階段網絡收斂結果較好,表明模型具有較好的三維重建效果。

圖4 訓練過程損失函數收斂曲線

3.4 實驗結果定性比較

圖5展示了本文方法與3D-LMNet[29]、Occupancy networks[30]、DISN[31]與PSGN在lamp、phone與monitor數據集上的重建結果對比。通過觀察可以發現,本文方法在不同數據集下的重建精度均高于其他方法。對于不同的幾何結構都有良好的表達能力,并保留更多細節。

圖5 本文三維重建結果與3D-LMNet、Occupancy networks、DISN、PSGN對比

圖6展示了本文方法和Pixel2Mesh[14]、DISN、PSGN方法在bench與airplane數據集上對比結果。為了更好地展示對比效果,這里選取三種不同的Pixel2Mesh模型。可以看出,在非孔洞的airplane模型中,VGG-Pixel2Mesh重建效果與本文方法差別不大,優于其他兩種Pixel2Mesh方法;在有孔洞的模型中,本文方法明顯具有更好的重建效果,能夠更準確地表達物體的拓撲結構。

為了進一步展示本文方法的三維重建效果,在rifle、monitor和chair數據集上與VGG-Pixel2Mesh、Occupancy networks、DISN和PSGN四種方法進行比較。如圖7所示,本文方法在rifle與monitor數據集上的重建效果要優于其他方法,更加接近GT。在chair數據集中,本文重建效果與Pixel2Mesh、Occupancy networks和DISN相近,均取得較好的重建效果。但本文重建的點云模型分布更加均勻,細節更加準確,視覺效果更好。在圖7中,Occupancy networks方法對第四幅輸入圖像的重建效果較好。但總體來看,本文重建效果的細節更加準確。

圖6 本文三維重建結果與Pixel2Mesh、DISN與PSGN對比

圖7 本文三維重建結果與VGG-Pixel2Mesh、Occupancy networks、DISN與PSGN對比

3.5 實驗結果定量比較

為了定量分析本文的方法和其他方法的差異,表1展示了在ShapeNet數據集中的重建精度對比。將評價指標縮放100倍,與PSGN、3D-LMNet和pix2point[32]方法比較,在CD評價指標上,本文方法在airplane等13個類別上取得了更高的重建精度;同樣在EMD評價指標上,本文方法在所有類別均優于其他方法。在平均重建精度上,CD和EMD比其他方法均有較大的提高。

表1CD、EMD評價指標

Tab.1 CD、EMD evaluation indicators

進一步地,我們對比了本文方法與PSGN、3D-R2N2在不同類別中IoU的差異。從表2可以看出,本文方法在airplane等8個類別中IoU較高,PSGN在sofa與speaker類別中IoU較高。3D-R2N2在5視圖重建下,在cabinet、car與phone類別取得最好表現。但在平均IoU上,本文比3D-R2N2在5視圖下提升7.7%,比PSGN提升6.25%。

表2IoU評價指標

Tab.2 IoU evaluation indicators

3.6 消融實驗

361圖卷積模塊消融實驗

本文2.3節利用圖卷積模塊對NFFD重建點云模型進行調整。為了驗證該方法的有效性,這里將圖卷積模塊替換為普通的全連接層,并對模型進行訓練與測試。使用CD與EMD兩個指標來衡量生成點云的質量,測試結果如表3所示。

從表3可以發現,加入圖卷積模塊后,CD與EMD在大部分數據集上均有一定提升,但在部分數據集略有下降。其中,CD平均提升0.11,EMD平均提升0.06。對于CD指標,chair數據集提升0.32;對于EMD指標,monitor數據集提升0.40。由此可知,引入圖卷積模塊可以有效提升點云的重建精度。

表3圖卷積消融實驗評價指標

Tab.3 Evaluation indicators of GCN ablation experiments

為了驗證NFFD點云映射圖像特征圖的有效性,針對bench數據集,去除圖卷積模塊的NFFD點云映射圖像特征圖,并重新訓練網絡。經過測試,未添加映射操作,CD評價指標為3.348 6,添加點云映射圖像特征圖操作后,CD評價指標為3.342 0,驗證了點云映射圖像特征圖的有效性。

為了驗證NFFD形變網絡性能,在bench、monitor與phone數據集上訓練并測試評價指標。如表4所示,加入圖卷積模塊后,不同數據集的評價指標均有提升,CD指標平均提升0.35,EMD指標平均提升0.52。由此證明所提出的圖卷積模塊對點云坐標具有良好的預測性。

表4NFFD消融實驗評價指標

Tab.4 Evaluation indicators of NFFD ablation experiments

362損失函數消融實驗

為了驗證本文采用損失函數的有效性,選取不同的損失函數組合,并對模型進行重新訓練,基于bench、rifle與vessel數據集,測試結果如表5所示。觀察表5可知,采用全部損失函數后,CD指標取得較好表現,超過其他兩種策略,且對不同數據集均有效,提高了模型的泛化性能。

表5損失函數消融實驗CD對比

Tab.5 CD comparison of loss function ablation experiments

363控制點生成網絡消融實驗

為了驗證CPGN設計合理性,我們將CPGN解碼器中步長為1的卷積替換為平均池化,將反卷積替換為反池化,并重新訓練網絡。測試過程中,隨機選取bench數據集80幅圖像,分別用兩種網絡生成控制點,采用NFFD方法進行三維重建。其中,卷積-反卷積CPGN的CD指標平均值為3.69,而池化-反池化CPGN的CD指標平均值為3.93,比卷積-反卷積CPGN減少約6.50%。由此說明本文CPGN的網絡結構設計的合理性。

進一步,與文獻[33]的控制點生成網絡對比,以car數據集為例,隨機選取100幅圖像進行測試。通過對比,CPGN效果更好,評價指標CD與EMD的數值更小,比文獻[33]的控制點生成網絡提升3.81%。

364混合注意力模塊消融實驗

為了驗證2.3節圖卷積網絡中混合注意力模塊的作用,本節去除混合注意力模塊,重新訓練網絡。以bench數據集為例,添加混合注意力模塊后,模型的收斂效果更好,局部細節得到一定提升,更加接近GT點云,如圖8所示。

圖8 混合注意力模塊對點云局部細節的影響

3.7 真實場景三維重建

本文選取了Pix3D數據集中真實場景下的圖像進行了三維重建,以驗證所提出方法的適應性和泛化能力。圖9展示了本文方法對于不同場景的重建效果。如圖9所示,本文方法在包含椅子、桌子與沙發三個類別的真實場景中達到較好的三維重建效果。

圖9 本文真實場景三維重建效果

4 結 論

本文提出了一種融合NFFD與圖卷積的點云三維重建網絡。設計了控制點生成網絡對2D視圖進行特征學習,獲得其控制點拓撲結構。為了實現高質量的3D點云重建模型,利用NURBS基函數對控制點坐標自適應特性建立點云模型輪廓間頂點的形變關系,并在此基礎上將混合注意力模塊嵌入圖卷積網絡對形變后的點云位置進行調整。在ShapeNet數據集的實驗表明,CD指標平均值為3.79,EMD指標平均值為3.94,本文所提出的方法提升了單視圖的三維重建結果,能夠從不同角度保持重建的一致性。未來將優化圖卷積網絡模型,進一步提高點云重建精度。

[1] JIN Y W, JIANG D Q, CAI M. 3D reconstruction using deep learning: a survey[J]., 2020, 20(4): 389-413.

[2] FAHIM G, AMIN K, ZARIF S. Single-View 3D reconstruction: a Survey of deep learning methods[J]., 2021, 94: 164-190.

[3] HENDERSON P, FERRARI V. Learning single-image 3D reconstruction by generative modelling of shape, pose and shading[J]., 2020, 128(4): 835-854.

[4] CHOY C B, XU D F, GWAK J,. 322:3[M]. Computer Vision – ECCV 2016. Cham: Springer International Publishing, 2016: 628-644.

[5] 李雷,徐浩,吳素萍. 基于DDPG的三維重建模糊概率點推理[J]. 自動化學報, 2022, 48(4): 1105-1118.

LI L, XU H, WU S P. Fuzzy Probability Points Reasoning for 3D Reconstruction via Deep Deterministic Policy Gradient[J]., 2022, 48(4): 1105-1118. (in Chinese)

[6] 夏清,李帥,郝愛民,等. 基于深度學習的數字幾何處理與分析技術研究進展[J]. 計算機研究與發展, 2019, 56(1): 155-182.

XIA Q, LI S, HAO A M,. Deep learning for digital geometry processing and analysis: a review[J]., 2019, 56(1): 155-182.(in Chinese)

[7] CHENG Q Q, SUN P Y, YANG C S,. A morphing-Based 3D point cloud reconstruction framework for medical image processing[J]., 2020, 193: 105495.

[8] JIN P, LIU S L, LIU J H,. Weakly-supervised single-view dense 3D point cloud reconstruction via differentiable renderer[J]., 2021, 34: 93.

[9] FAN H Q, SU H, GUIBAS L. A point set generation network for 3D object reconstruction from a single image[C]. 20172126,2017,,,IEEE, 2017: 2463-2471.

[10] ZHANG S F, LIU J, LIU Y H,. DIMNet: Dense implicit function network for 3D human body reconstruction[J]., 2021, 98: 1-10.

[11] YANG B, ROSA S, MARKHAM A,. Dense 3D object reconstruction from a single depth view[J]., 2019, 41(12): 2820-2834.

[12] WU Z H, PAN S R, CHEN F W,. A comprehensive survey on graph neural networks[J]., 2021, 32(1): 4-24.

[13] VALSESIA D, FRACASTORO G, MAGLI E. Learning localized representations of point clouds with graph-convolutional generative adversarial networks[J]., 2021, 23: 402-414.

[14] WANG N Y, ZHANG Y D, LI Z W,. Pixel2Mesh: generating 3D mesh models from single RGB images[C].(). 2008:52-67

[15] NGUYEN D, CHOI S, KIM W,. GraphX-convolution for point cloud deformation in 2D-to-3D conversion[C]. 2019()272,2019,,(). IEEE, 2019: 8627-8636.

[16] KURENKOV A, JI J W, GARG A,. DeformNet: free-form deformation network for 3D shape reconstruction from a single image[C]. 20181215,2018,,,IEEE, 2018: 858-866.

[17] PONTES J K, KONG C, SRIDHARAN S,.2:3[M]. Computer Vision-ACCV 2018. Cham: Springer International Publishing, 2019: 365-381.

[18] LAMOUSIN H J, WAGGENSPACK N N. NURBS-based free-form deformations[J]., 1994, 14(6): 59-65.

[19] TAO J, SUN G, SI J Z,. A robust design for a winglet based on NURBS-FFD method and PSO algorithm[J]., 2017, 70: 568-577.

[20] ORAZI L, REGGIANI B. Point inversion for triparametric NURBS[J].(), 2021, 15(1): 55-61.

[21] 孟月波,金丹,劉光輝,等. 共享核空洞卷積與注意力引導FPN文本檢測[J]. 光學精密工程, 2021, 29(8): 1955-1967.

MENG Y B, JIN D, LIU G H,. Text detection with kernel-sharing dilated convolutions and attention-guided FPN[J]., 2021, 29(8): 1955-1967.(in Chinese)

[22] 李經宇,楊靜,孔斌,等. 基于注意力機制的多尺度車輛行人檢測算法[J]. 光學精密工程, 2021, 29(6): 1448-1458.

LI J Y, YANG J, KONG B,. Multi-scale vehicle and pedestrian detection algorithm based on attention mechanism[J]., 2021, 29(6): 1448-1458.(in Chinese)

[23] 蔡體健,彭瀟雨,石亞鵬,等. 通道注意力與殘差級聯的圖像超分辨率重建[J]. 光學精密工程, 2021, 29(1): 142-151.

CAI T J, PENG X Y, SHI Y P,. Channel attention and residual concatenation network for image super-resolution[J]., 2021, 29(1): 142-151.(in Chinese)

[24] 秦傳波,宋子玉,曾軍英,等. 聯合多尺度和注意力-殘差的深度監督乳腺癌分割[J]. 光學精密工程, 2021, 29(4): 877-895.

QIN C B, SONG Z Y, ZENG J Y,. Deeply supervised breast cancer segmentation combined with multi-scale and attention-residuals[J]., 2021, 29(4): 877-895.(in Chinese)

[25] MA J Y, ZHANG H, YI P,. SCSCN: a separated channel-spatial convolution net with attention for single-view reconstruction[J]., 2020, 67(10): 8649-8658.

[26] KINGMA D P, BA J. Adam: a method for stochastic optimization[EB/OL]. 2014:: 1412.6980[cs.LG]. https://arxiv.org/abs/1412.6980

[27] CHANG A X, FUNKHOUSER T A, GUIBAS L J,. ShapeNet: an information-rich 3D model repository[J]., 2015, abs/1512.03012.

[28] SUN X Y, WU J J, ZHANG X M,. Pix3D: dataset and methods for single-image 3D shape modeling[C]. 20181823,2018,,,IEEE, 2018: 2974-2983.

[29] MANDIKAL P, MURTHY N, AGARWAL M,. 3D-LMNet: latent embedding matching for accurate and diverse 3D point cloud reconstruction from a single image[C].,:, 2018.55-56.

[30] MESCHEDER L, OECHSLE M, NIEMEYER M,. Occupancy networks: learning 3D reconstruction in function space[C]. 2019()1520,2019,,,IEEE, 2019: 4455-4465.

[31] XU Q G, WANG W Y, CEYLAN D,. DISN: deep implicit surface network for high-quality single-view 3D reconstruction[J]., 2019, 32: 492-502.

[32] AFIFI A J, MAGNUSSON J, SOOMRO T A,. Pixel2point: 3D object reconstruction from a single image using CNN and initial sphere[J]., 2020, 9: 110-121.

[33] JACK D, PONTES J K, SRIDHARAN S,. Learning free-form deformations for 3D object reconstruction[C].2018, 2019: 317-333.

Single-view 3D object reconstruction based on NFFD and graph convolution

LIAN Yuanfeng1,2*,PEI Shoushuang1,HU Wei1

(1,,102249,;2,102249,),:

To address the issue of inaccurate single-view three-dimensional (3D) object reconstruction results caused by complex topological objects and the absence of irregular surface details, a novel single-view 3D object reconstruction method combining non-uniform rational B-spline free deformation with a graph convolution neural network is proposed. First, a control points generation network, which introduces the connection weight policy, is used for the feature learning of two-dimensional views to obtain their control points topology. Subsequently, the NURBS basis function is used to establish the deformation relationship between the vertex contours of the point cloud model. Finally, to enhance the details, a convolutional network embedded with a mixed attention module is used to adjust the position of the deformed point cloud to reconstruct complex topological structures and irregular surfaces efficiently. Experiments on ShapeNet data show that the average values of the CD and EMD indices are 3.79 and 3.94, respectively, and that good reconstruction is achieved on the Pix3D real scene dataset. In contrast to existing single view point cloud 3D reconstruction methods, the proposed method offers a higher reconstruction accuracy of 3D objects and demonstrates higher robustness.

NURBS-based free-form deformation; 3D reconstruction; graph convolution network; mixed attention; control points generation network

TP391

A

10.37188/OPE.20223010.1189

1004-924X(2022)10-1189-14

2021-11-10;

2021-12-08.

國家自然科學基金資助項目(No.61972353);中國石油天然氣集團有限公司-中國石油大學(北京)戰略合作科技專項:“一帶一路”海外長輸管道完整性關鍵技術研究與應用項目(No.2006A10401006)

連遠鋒(1977-),男,吉林延吉人,博士,副教授,碩士生導師,2012年于北京航空航天大學獲得博士學位,主要研究方向為圖像處理與虛擬現實、機器視覺與機器人、深度學習與數字幾何。E-mail:lianyuanfeng@cup.edu.cn

裴守爽(1997-),男,河北唐山人,碩士研究生,2020 年于河北農業大學取得學士學位,主要研究方向為深度學習與三維重建。E-mail:peishoushuang@163.com

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
學習方法
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 国产乱子伦一区二区=| 亚洲一本大道在线| 伊人色综合久久天天| 国产成人精品综合| 久久久久免费精品国产| 欧美成人区| AV老司机AV天堂| 久久青草免费91观看| 欧美一级高清视频在线播放| 美女免费黄网站| 久久黄色一级片| 无码啪啪精品天堂浪潮av| 亚洲成肉网| 亚洲色成人www在线观看| 亚洲色图欧美视频| 国产免费高清无需播放器 | 亚洲色欲色欲www网| 久久久波多野结衣av一区二区| 九九精品在线观看| 亚洲AV无码久久天堂| 色噜噜中文网| 99国产在线视频| 日韩AV无码一区| 亚洲嫩模喷白浆| 国模在线视频一区二区三区| 欧洲在线免费视频| 国产欧美日韩精品第二区| 在线观看国产精品一区| 精品久久国产综合精麻豆| 女人爽到高潮免费视频大全| 国产成人免费手机在线观看视频 | 日韩无码真实干出血视频| 国产成人禁片在线观看| 伊人中文网| 她的性爱视频| 欧美国产另类| 久久99精品久久久久纯品| 毛片视频网| 国产精品无码久久久久AV| 精品国产中文一级毛片在线看| 国产日韩欧美中文| 国产91精品最新在线播放| 五月天久久婷婷| 免费毛片a| 尤物精品国产福利网站| 国产麻豆aⅴ精品无码| 青青操国产视频| 福利国产微拍广场一区视频在线| 国产激爽爽爽大片在线观看| 欧美成人区| 99久久国产精品无码| 在线国产综合一区二区三区| 99久久精品国产麻豆婷婷| 国产主播在线一区| 国产成年无码AⅤ片在线| 性欧美久久| 免费不卡在线观看av| 欧美一区二区精品久久久| 亚洲欧美国产视频| 人人91人人澡人人妻人人爽 | 国产新AV天堂| 婷婷六月综合| 亚洲精品无码不卡在线播放| 国产又色又爽又黄| 日韩乱码免费一区二区三区| 国产91高清视频| 欧美成人一级| 亚洲中文字幕av无码区| 激情午夜婷婷| 亚洲无码高清免费视频亚洲 | 谁有在线观看日韩亚洲最新视频| h视频在线播放| 波多野结衣无码中文字幕在线观看一区二区 | 天堂亚洲网| 天天色天天综合网| 香蕉网久久| 国产欧美日本在线观看| 久久午夜影院| 91精品久久久久久无码人妻| 欧美日韩午夜| 性视频一区| 久久久久免费看成人影片|