999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于服裝點云的高精度袖窿分割線自動識別方法

2025-07-25 00:00:00楊金瑩楊金瑩何先撐侯玉劉正
浙江理工大學學報 2025年7期
關鍵詞:樣板服裝曲線

中圖分類號:TS941.26 文獻標志碼:A 文章編號:1673-3851(2025)07-0488-10

引用格式:,等?;诜b點云的高精度袖窿分割線自動識別方法[J].學報(自然科學),2025,53(4):488-497.

Abstract:To solve the problems that it is dificult to identify the armhole segmentation lines and that the sleeve template does not meet the requirements of plate making,an automatic high-precision recognition method for armhole segmentation lines based on garment point clouds was proposed by taking tops with the shoulder line at the shoulder position as an example. First,a dynamic graph convolutional neural network (DGCNN) was used to coarsely segment the garment point cloud to obtain the armhole point cloud area,and the armhole key point cloud was obtained by denoising. Then,the weighted least squares method was used to fit the key point cloud of the armhole,and the front and rear armhole dividing lines were obtained,and the split lines were optimized by combining the arc interpolation method and cubic spline interpolation to solve the problems of missing and dislocated connections. Finally,the surface deployment algorithm based on angle protection generated the sleeve template,and the sleeve cap arc correction scheme was added to compare the generated template with the real one and that generated by the NeuralTailor model to verify the accuracy of the templates. The experimental results show that the armhole segmentation line generated by this method is highly similar to the real armhole segmentation line,and the RMSE and MAE are both less than 0.200cm . The sleeve template generated by surface deployment algorithm based on angle protection has high precision,with the average deviation of the key dimensions of the sleeve being 0.238cm ,and the average absolute error value of sleeve template being 0.296cm ,which further verifies the accuracy of the armhole dividing line. This provides an effective technological path for the automated generation of garment sleeve templates,and can enhance the efficiency of clothing design and development.

Key words: garment point clouds; armhole segmentation line recognition; dynamic graphconvolutional network;curve fitting; surface deployment; sleeve body template generation

0引言

隨著服裝產業數字化和智能化的快速發展,服裝行業的生產與銷售模式正在經歷深刻的變革。消費者對服裝個性化定制的需求日益增長,傳統的成衣生產模式已越來越難以滿足市場的多樣化要求[1-3]。當前服裝制版主要依賴人工操作,不僅效率低,而且難以應對快速迭代和個性化定制的需求,導致生產周期延長和成本增加。同時,電子商務的崛起縮短了產品迭代周期,傳統制版模式面臨前所未有的挑戰,對制版效率提出了更高的要求。為此,三維服裝模型向二維樣板轉換的技術[4-6逐漸成為研究熱點,該技術不僅能顯著提高服裝制版效率,更為個性化樣板的生成提供了切實可行的路徑。然而,三維到二維轉換過程中的分割線識別仍面臨挑戰,尤其是復雜的袖窿分割線,它直接影響成衣的合身性和舒適度。因此,精確識別和定位服裝分割線,特別是袖窿分割線,成為自動化樣板生成中的關鍵問題。

針對三維服裝模型向二維樣板轉換技術,國內外學者開展了大量研究,研究方向主要可以分為兩類:一是基于深度學習算法直接生成二維樣板;二是基于三維模型進行曲面展開來獲得二維樣板。Korosteleva等提出了一種從三維服裝點云中恢復服裝樣板結構的深度學習網絡—NeuralTailor,用于決策拓撲和預測樣板細節,該網絡結合了三維點級注意力機制與循環神經網格(Recurrentneuralnetwork,RNN),顯著提升了制版速度。然而,該網絡未能結合服裝制版的專業知識,生成的袖身樣板為兩片,拼接后的袖山弧線呈現中間凹陷、兩側凸起的形狀,不符合制版要求;此外,它忽略了服裝板片分割方式的多樣性,對于分割線位置不同但點云形狀相似的服裝,生成的樣板并無差異,這限制了服裝個性化的實現。相比之下,基于三維模型的曲面展開技術可以通過識別分割線,保留模型的形狀特征,滿足一型一版的個性化定制需求,逐漸成為當前研究的熱點。

基于三維模型的曲面展開技術主要有兩個步驟:a)部件分割,利用分割線對三維服裝模型進行區域劃分,獲得各部位模塊。b)曲面展開,利用曲面展平算法將三維模塊展開,得到二維樣板。在部件分割這一步,分割線的定位直接影響生成樣板的質量,是該技術的重點。為了實現該技術,Huang等[8]提出了一種可展曲面邊界的三角化算法,將三維模型劃分若干個規整的模塊,以減少三維服裝模塊展開到二維平面時的幾何失真。Meng等9提出了一種網格交叉參數化的優化算法,通過幾何重構,對參數化設計的三維服裝直接進行建模展平。Bang等[10]通過服裝網格的幾何結構和曲面變化來估計接縫線,使用邊界優化方法平滑處理,再使用曲面展開獲得二維樣板。肖伯祥等[11根據人體模型截面曲線的幾何特征來提取個性化體型的特征點,并以此為約束,使用基于質點-彈簧系統的展平算法得到個性化襯衣樣板。上述方法依賴人體模型預定義的特征點以及模型的邊界條件生成分割線,特征點位置固定,生成的分割線單一,更適用于常規貼身服裝。對于較寬松、易產生褶皺的服裝,分割線識別的準確度仍面臨挑戰。特別是袖窿分割線的識別,受到袖子空間結構復雜和形狀易扭曲的影響,基于預定義特征點的方法難以準確捕捉袖窿線的位置,導致生成的袖身樣板與預期存在較大偏差。

綜上可知,目前的智能化樣板生成方法在袖窿分割線識別上存在不足,導致生成的袖身樣板無法滿足制版要求。因此,如何精準識別袖窿分割線并生成高質量的二維樣板,成為三維服裝模型轉換為二維樣板的關鍵問題,也是本文的研究重點。針對這一問題,本文以正肩上衣為例,提出了一種基于服裝點云的高精度袖窿分割線自動識別方法,旨在通過精準識別復雜區域的分割線,提高服裝樣板生成的精度和效率。首先,通過動態圖卷積網絡(Dynamic graph convolutional neural network,DGCNN)[12]進行點云粗分割以定位袖窿區域點云,再對其去噪處理以獲取袖窿關鍵點云,確保袖窿區域分割的準確性與穩定性。然后,采用加權最小二乘法擬合袖窿關鍵點云,再結合圓弧插補與三次樣條插值的方法優化袖窿分割線,通過擬合優化過程,生成的分割線能夠真實反映服裝袖窿的幾何特征,提升了袖窿分割線自動識別的精度。最后,本文基于角度保護的曲面展開算法對袖身模型進行展平,并通過袖山弧線修正方案進一步優化,確保生成的袖身樣板符合制版要求,同時為袖窿分割線的精度檢驗提供了支持。通過上述方法,本文實現了基于服裝點云的高精度袖窿分割線識別,有助于提升袖身樣板的生成精度與效率。

針對袖窿分割線識別的關鍵問題,本文提出了一種自動化識別方法,其流程如圖1所示。該流程整合了點云分割、點云去噪、曲線擬合、模型切割與樣板生成等多個步驟,旨在從輸入的三維服裝點云模型出發,最終識別出高精度的袖窿分割線,為袖身樣板的快速生成提供可靠的實現路徑。通過這一框架,能夠有效提升袖窿分割線識別的精度,并為三維服裝模型到二維樣板的轉化提供技術支撐。

圖1袖窿分割線自動識別方法流程圖

1. 1 服裝點云分割

1. 1. 1 DGCNN介紹

本文基于DGCNN進行服裝點云的部件分割。DGCNN主要由空間變換模塊和邊緣卷積模塊組成。其中,空間變換模塊的主要作用是對輸人的點云數據進行對齊和標準化,以減輕由于點云旋轉、平移和尺度變化帶來的不利影響。邊緣卷積模塊通過計算每個點與其鄰居點之間的特征差異,捕捉局部結構信息,并通過動態更新鄰域圖進一步增強對復雜幾何結構的適應能力,使得DGCNN在處理服裝點云數據時具備更高的靈活性和魯棒性[13]

1. 1. 2 數據預處理

本文采用DeepFashion3D數據集[14]。該數據集包含2078個從真實服裝重建的模型,涵蓋10個不同類別和563個服裝實例,同時標注了各個部位的3D特征線。由于數據集來源于真實服裝,標注完整且數據多樣,能夠更真實地反映實際服裝的幾何特性和結構特點,為研究提供了可靠的數據支持。選取數據集中正肩的長袖和短袖上衣,其中長袖上衣140件,短袖上衣85件,共計225件。通過姿勢變化擴展,每款服裝生成多個姿勢,最終得到1127個服裝點云數據作為本文的數據集。從標注的3D特征線中提取袖窿區域的點云,使用最近鄰匹配方法將袖窿區域點云與服裝點云進行匹配,以實現服裝點云的標注(見圖2)。

圖2點云標注方法示意圖

DeepFashion3D數據集中的點云數據由三維掃描儀生成,屬于稠密點云。為了提高數據處理的效率和速度,對數據進行稀疏化處理。采用隨機采樣法將服裝點云稀疏至12800個點,可有效保留服裝點云的結構特征,點云預處理結果如圖3所示。本文在Clo3D中設計并制作了4款合體長袖與4款合體短袖上衣。這些服裝均采用一片合體袖設計,袖山無褶皺,選用純棉布作為面料,以確保袖身結構的平整性和研究的統一性,各效果圖如圖4所示。制作完成后,將服裝模型轉化為點云進行預處理

圖4Clo3D制作的8款合體服裝款式圖

1. 2 關鍵點云擬合曲線

1.2.1 基于曲率閾值的關鍵點云定位

針對分割得到的袖窿區域點云,使用閾值控制方法進行處理。通過可視化點云獲取腋下噪點的坐標值,以設置閾值進行去噪。采用PCL(Pointcloudlibrary)中的法線估計算法,構建KD樹加速最近鄰搜索,為每個點及其鄰域點計算協方差矩陣,并利用特征值求得曲率,再根據曲率設置閾值與邊界條件,標記腋下特征點,最后根據這些特征點的坐標信息設置動態閾值以過濾兩側噪點,以得到最終的袖窿關鍵點云,操作流程如圖5所示。協方差矩陣 c 與曲率 κ 的計算公式為:

其中: i=1, 2, 3,…, 12800,j=1, 2, 3,…, 12800,為點云索引; qi 為第 i 個點云的坐標向量; 為鄰近點的均值向量; m 為鄰近點的數量; λj 為協方差矩陣的特征值, λmin 為最小特征值。

圖5獲取袖窿關鍵點云的流程圖

1. 2.2 基于加權最小二乘法的曲線擬合

加權最小二乘法(Weighted least squares,WLS)通過為不同觀測數據點賦予權重,能夠有效處理噪聲或可靠性不同的觀測數據。袖窿關鍵點云離散且分布不均勻,為了提高擬合精度,針對腋下特征點設置權重,采用加權最小二乘法進行曲線擬合,并引入正則化項以確保曲線擬合更加平滑。該方法顯著提高了擬合質量,增強了擬合曲線的魯棒性和準確性。

對于一組給定的 n 個數據點 (xi,yi,zi) ,分別對 x 和 z 進行擬合,以找到系數向量 A 和 B 。目標是使擬合的 d 階多項式曲線 fx(y) 和 fz(y) 盡可能接近觀測值 xi 和 zi ,多項式的公式如下:

為了擬合上述曲線,需將多項式擬合問題轉換為線性代數問題來求解多項式的系數。為此,需要把上述方程中 y 的各階次冪組合成矩陣形式,構建設計矩陣 P .

其中:設計矩陣 P 的每一行表示對應點 yi 的多項式值; yi 是觀測點的自變量。

為了反映數據點的重要性和可信度,對關鍵數據點設置權重 ωi ,構建對角權重矩陣 W .

在多項式曲線擬合過程中,通過加權殘差平方和衡量誤差,同時加入正則化項防止過擬合,正則化參數γ控制其權重。最終的目標是最小化加權殘差平方和與正則化項的和,公式如下:

其中: X 和 z 分別是觀測值 x 與 z 的向量; ξx 和 ξz 分別表示與變量相關的加權殘差平方和。

1. 2.3 基于圓弧插補和三次樣條插值的袖窿曲線 優化

在完成前后袖窿點云曲線擬合后,將兩條曲線合并。合并后的曲線在連接處并未完全閉合,存在線條缺失和錯位的問題。為解決此問題,本文采用圓弧插補算法,將兩條曲線的端點作為插補的起點和終點,計算切線方向,以圓弧在端點處與切線相切為插補條件,分別在曲線的端點處進行圓弧插補。

給定兩個端點坐標 o1=(x1 , y1 , z1) 和 o2= (204號 (x2,y2,z2) ,其對應的切線方向向量為 ρ1=(ρ1,x ,ρ1y,ρ1z) 和 ρ2=(ρ2x,ρ2y,ρ2z) ,選擇 y-z 平面進行圓弧插補,僅考慮 y 和 z 坐標。為了找到最佳圓心(yo,zo) 和半徑 r ,定義優化目標函數,確保圓弧起點和終點處與切線方向相切。限制條件與優化目標如下:

a)確保終點在圓弧上:

b)確保圓心到切點的向量與切線方向垂直:

優化目標是最小化以下函數:

F(yo,zo)=f12(yo,zo)+f22(yo,zo)+f32(yo,zo

為消除微小的錯位并優化曲線的平滑性,采用三次樣條插值,結合高斯濾波處理,生成的袖窿曲線更為光滑圓順,顯著提升了曲線的整體平滑性。從擬合好的曲線中提取 k 個數據點 (xi ,可以分成 k-1 個區間,在每個區間構造一個三次函數,共 k-1 段三次函數。對于每一段區間 [ti , ti+1] ,定義一個三次函數 φi(t) 。這 k-1 段函數是連續的,前一段方程在節點處的函數值和后一段方程在節點處的函數值要相等,在節點處有相同的曲率,且要首尾相連,函數與約束條件的公式如下:

φi(t)=ai+bi(t-ti)+ri(t-ti2+di(t-ti3

其中:k 是從擬合曲線里提取的點的個數;a,、b、i、di 是第 i 段樣條的系數; ti 代表第 i 個數據點的參數值; φi(ti+1) 表示第 i 段函數尾部的函數值;φi+1(i+1)代表第i+1段函數頭部的值。

2 袖身樣板的展開與修正方法

基于角度保護的曲面展開算法是一種將三維模型展開為二維平面的技術,該算法的關鍵在于通過在模型表面選擇合適的切割路徑,將其劃分為多個區域,并將這些區域映射到二維UV坐標系中。在映射過程中,算法旨在保持展開后形狀和面積比例的相對一致性,通過適當的數學模型和插值方法,盡量減少角度和距離的失真,其原理示意圖如圖6所示,圖中 SiΩ?Sj 分別表示第 i 與 j 個三角形的面積,αi…βj 分別表示第 i 與 j 個三角形的角度。在展開過程中,算法通過實時監測展開后形狀的幾何特征(包括角度和面積比)來評估展開效果,并依據監測結果進行必要的調整。借助于動態反饋機制,算法能夠迅速識別并修正因切割路徑選擇或區域劃分不當而導致的失真問題,確保最終展開形狀與原始三維模型的幾何特性盡可能保持一致。這種實時調整的策略不僅增強了展開算法的靈活性與魯棒性,還為實現高保真度的三維到二維的映射提供了理論支持。

圖6基于角度保護的曲面展開原理示意圖

袖身樣板展開過程如圖7所示。將生成的袖窿分割線作為邊界條件構建切割面,通過布爾運算進行切割得到袖身模型。由于本文的主要研究對象是袖窿分割線的自動識別,在樣板展開時,袖底縫和袖開衩均采用原始分割線,以便進行樣板對齊驗證,提高驗證結果的準確性。袖山縮縫量是二維袖身樣板中的關鍵參數,在服裝縫合成三維模型后,袖山縮縫量會在縫合過程中平攤至袖窿區域,導致在展開的二維樣板中無法直接觀察到縮縫量。為解決這一問題,本文添加了袖山弧線修正規則[15],依據不同袖型的特點設置袖山的縮縫量并合理分配,最終得到符合實際需求的樣板。具體的縮縫量設置規則詳見表1。

圖7袖身樣板展開的流程示意圖
表1袖山縮縫量的設置與分配原則表

3 實驗與結果分析

3.1 服裝點云分割結果分析

3.1.1 環境與評價指標

本實驗共計1127個服裝點云數據,隨機選取其中1014個數據作為訓練集,113個數據作為測試集。通過深度學習框架PyTorch2.1實現,處理器為i9-12900K,顯卡為NVIDIAGeForceRTX4090,編程語言為Python3.10.9,CUDA版本為12.1。網絡采用Adam優化器,初始學習率設定為0.0001,批量大小設置為4,動量設定為0.9,訓練輪數為400。

本文采用準確率(Accuracy,ACC)和交并比(Intersectionoverunion,IOU)作為定量評價指標[16]。準確率用于計算正確預測的結果占總樣本的百分率,交并比用于評估預測結果與實際標簽的重疊程度,其數值越大說明點云分割結果越好。準確率和交并比的計算公式如下:

其中: ψ 表示準確率; 5 表示交并比; g 表示被正確預測的點數; h 表示總點數; TP 表示被正確預測為目標類的數量; FP 表示錯誤預測為目標類的數量;FN 表示是目標類但未被正確預測為目標類的點的數量。

3.1.2 結果分析

通過計算準確率和交并比來評估DGCNN的分割性能,結果如表2所示。該網絡在訓練和測試過程中均能夠較好地擬合數據,達到了較高的準確率和交并比,表明DGCNN具有良好的泛化能力。本文從測試集里選取了幾款服裝的分割結果進行可視化以作定性分析,通過觀察原始數據集與預測結果的點云標注,可以發現分割出來的袖區域與原始數據高度相似(見圖8),進一步驗證了該網絡的分割性能。對8款在CLO3D中制作的服裝進行測試,其分割結果如圖9所示,可以看出即使輸入空白測試集,網絡仍能準確分割袖窿部位,說明該網絡具有較強的泛化能力,能夠在未見過的數據上也表現良好。

表2DeepFashion3D數據集在DGCNN網絡訓練和測試的結果
圖8測試集分割結果可視化對比示例圖像
圖98款CLO3D服裝的分割結果圖像

3.2 袖窿關鍵點云擬合結果分析

袖窿關鍵點云擬合曲線的質量直接影響樣板展開的準確度,本文選用均方根誤差(Rootmeansquareerror,RMSE)和平均絕對誤差(Meanabsoluteerror,MAE)作為評估擬合曲線優劣的指標,這兩個指標的數值越小,表明擬合曲線與真實曲線之間的偏差越小,擬合質量越高。關鍵點云擬合曲線與真實曲線的定量結果如表3所示,RMSE與MAE均小于 0.200cm ,表明擬合曲線能夠較好地反映真實袖窿曲線的形態。為了更直觀地展示擬合效果,將這8款服裝擬合出的曲線與真實曲線進行了可視化(見圖10),可以發現擬合曲線與真實曲線高度相似,這進一步驗證了本文提出的曲線擬合方法的有效性和準確性。

表3袖窿關鍵點云擬合曲線與真實曲線的定量分析結果

3.3 生成的袖身樣板結果分析

在生成樣板的準確度驗證中,采用了袖長、袖肥、袖山高和袖山弧長等關鍵尺寸作為評價指標。為了定量評估生成樣板與真實樣板之間的差異,計算了關鍵部位的尺寸偏差以及整體的平均絕對誤差,測量結果見表4。表4顯示:其中關鍵尺寸的最大偏差為 0.423cm ,其余偏差在 0.100~ 0.500cm 之間,整體的平均偏差為 0.238cm ,所有樣板的平均絕對誤差較低,平均值為 0.296cm 表明生成樣板與真實樣板之間具有較高的一致性。

圖10服裝袖窿曲線可視化對比結果圖像
表4每款服裝生成樣板與真實樣板的關鍵尺寸偏差

根據標準女裝基本紙樣[17里的袖子制作方法,袖山弧線的彎曲程度是影響袖子樣板的重要因素。本文將每款袖子樣板的前后斜線四等分,計算靠近頂點的等分點與袖山弧線之間的垂直距離,并比較生成樣板與真實樣板之間的差值,結果如表5所示。

由表5可知:各服裝在4個等分點的垂直距離差值在 0.400cm 之內,均處于較低的范圍。圖11為生成樣板與真實樣板的對比效果圖,說明生成樣板與真實樣板的袖山弧線整體保持較高的一致性,這進一步驗證了本文方法的可行性。

表5生成樣板與真實樣板在袖山弧線各等分點的差值cm
注:1號和2號分別為前袖窿斜線第一等分點與第三等分點的垂線,3號和4號分別為后袖窿斜線第一等分點與第三等ク點的垂線。
圖11生成樣板與真實樣板對比結果圖像

3.4 對比試驗與結果分析

為了驗證本方法的可行性,設置了對比試驗。NeuralTailor是一種基于深度神經網絡的框架,能夠從三維點云中恢復服裝二維樣板和縫合信息。該網絡通常要求輸入基于T造型的服裝模型,在Clo3D中改變這8款服裝模型的造型,將其輸入到NeuralTailor網絡中進行測試,生成的樣板與本文方法得到的樣板如圖12所示。從圖12可以看出:NeuralTailor網絡處理的服裝模型表面存在大量褶皺,并因造型而產生嚴重的幾何失真,生成的袖身樣板與真實樣板嚴重脫節,其袖山弧線呈現出中間凹陷、兩側凸起的不規則形狀,這不僅難以實現縫合時的平順銜接,且可能顯著影響成衣的穿著舒適性和整體外觀效果;相比之下,本文方法輸入的服裝模型表面平整,無明顯拉伸或幾何變形,能夠準確表達服裝的款式特征。在樣板生成過程中,通過精準的袖窿曲線擬合技術,生成的袖山弧線形狀更加平滑自然,符合袖身制版規則,顯著提升了樣板的合理性和適用性。

4結語

本文針對袖窿分割線識別困難、生成的袖身樣板不符合制版要求的問題,提出了一種可自動識別出高精度袖窿分割線的方法,并通過實驗驗證了其有效性和實用性。首先,利用DGCNN對服裝點云進行粗分割,在訓練集和測試集上的準確率分別達到 96.8% 與 96.2% ,表明該網絡可以準確定位袖窿區域點云。又引入閾值控制方法對點云進行去噪,獲得袖窿關鍵點云,有效解決了袖窿分割線定位困難的問題。然后,采用加權最小二乘法與圓弧插補方法獲得袖窿曲線,并使用三次樣條插值對曲線進一步優化,計算真實袖窿曲線與擬合曲線的RMSE和MAE,結果表明兩條曲線高度相似。此外,使用基于角度保護的曲面展開算法生成袖身樣板,并與真實樣板進行對比分析,結果表明兩者在袖山弧線形態及整體尺寸上保持較高的一致性,進一步驗證了袖窿分割線的準確性。最后,將實驗對象應用于

NeuralTailor網絡進行對比分析,結果表明本文方法生成的袖山弧線與袖身樣板更加接近真實樣板,且符合工業制版要求。

與現有方法相比,本方法在精度和效率上均具有顯著優勢,為服裝工業中的自動化制版提供了可靠的技術支持。但本研究仍存在一些不足之處:在點云分割數據集中,僅標注了正肩袖窿區域點云,對于插肩袖、落肩袖及其他特殊袖型(如燈籠袖、泡泡袖等),尚無法直接使用。另外,實驗中僅考慮了純棉面料,未涉及不同面料的三維形狀差異對樣板生成的潛在影響。為此,后續研究需擴展數據集,涵蓋更多樣化的袖型和面料類型,并進一步探索側縫和肩線等其他服裝造型線的分割方法,以生成更加全面和精確的服裝樣板。

參考文獻:

[1]葉勤文,王朝暉,黃榮,等.虛擬服裝遷移在個性化服裝定制中的應用[J].紡織學報,2023,44(6):183-190.

[2]段欣瑜,吳巧英.基于Matlab的女褲參數化制版方法[J].學報(自然科學),2024,51(2):220-228.

[3]莊冬冬,任若安,孫捷.人工智能生成內容賦能服裝品牌數智化轉型路徑研究[J].絲綢,2024,61(9):12-19.

[4]路麗莎,蔣高明.全成形針織服裝三維款式向二維樣板轉化方法[J].紡織學報,2022,43(10):133-140.

[5]王朝暉,吳雨曦,楊敏.基于三維測量數據的個性化女裝原型樣板生成[J].紡織學報,2019,40(9):143-149.

[6]LiuKX,ZengXY,BruniauxP,et al.3D interactive garmentpattern-making technology[J].Computer-Aided Design,2018,104:113-124.

[7]Korosteleva M,Lee S H. NeuralTailor:Reconstructing sewingpattern structures from 3D point clouds of garments[J]. ACMTransactions on Graphics,2022,41(4):1-16.

[8]HuangH Q,Mok PY,Kwok YL,etal.Block patterngeneration:from parameterizing human bodies to fit featurealigned and flattenable 3D garments[J]. Computers in Industry,2012,63(7):680-691.

[9]Meng Y M,Mok P Y,Jin X G. Computer aided clothingpattern design with 3D editing and pattern alteration[J].Computer-Aided Design,2012,44(8):721-734.

[10]Bang S,Korosteleva M,Lee S H. Estimating garmentpatterns from static scan data[J].Computer Graphics Forum,2021,40(6):273-287.

[11]肖伯祥,劉正東,郭昱成,等.基于三維人體掃描模型的襯衣版型生成方法[J].紡織學報,2022,43(12):151-159.

[12]WangY,Sun YB,Liu ZWet.al.Dynamic graph CNN forlearning on point clouds[J]. ACM Transaction on Graphics,2019,1(1):1-12.

[13]陳西江,鄧輝,趙不釩,等.綜合動態圖卷積和局部關系卷積的點云分類與分割[J].測繪科學,2023,48(8):182-192.

[14]ZhuHM,CaoY,JinH,etal.DeepFashion3D:Adatasetandbenchmark for 3D garment reconstruction from singleimages[C]//European Conference on Computer Vision. Cham:Springer,2020:512-530.

[15]張文斌.服裝結構設計[M].北京:中國紡織出版社,2006:216-218.

[16]陳思帆,楊家志,黃琳,等.融合可變形核和自注意力的點云分類分割邊卷積網絡[J/OL].計算機工程.(2024-06-18)[2024-10-17].https://doi.org/10.19678/j.issn.1000-3428. 0069284.

[17]劉瑞璞.服裝紙樣設計原理與應用:女裝編[M].北京:中國紡織出版社,2008:62-65.

(責任編輯:張會?。?/p>

猜你喜歡
樣板服裝曲線
高溝標樣:高端光瓶,高地樣板
尋問自我
探究“瓜子形曲線”的幾何性質
民辦高校樣板黨支部示范引領作用研究
音樂教育對服裝表演專業學生綜合素質的提升
基于Revit明細表的機電設備材料清單研究
高校學生樣板黨支部培育路徑探析
構造距離妙求最值
精準掌握滴定曲線的方法
基于直觀想象素養發展的課堂教學實踐與思考
主站蜘蛛池模板: 日本www色视频| 中文字幕资源站| 亚洲欧美人成人让影院| 午夜综合网| 在线视频一区二区三区不卡| 国产精品性| 激情综合网址| 午夜视频免费试看| 成人在线亚洲| 在线观看亚洲人成网站| 国产特一级毛片| 国产尤物视频网址导航| 日本91在线| 国产一级无码不卡视频| 波多野结衣中文字幕一区| 亚洲天堂区| 亚洲精品视频免费看| 波多野结衣一二三| 2020久久国产综合精品swag| 99伊人精品| 不卡无码网| 亚洲第一天堂无码专区| 四虎成人在线视频| 91久久夜色精品| 国产福利微拍精品一区二区| 国产一级妓女av网站| 国产精品亚洲αv天堂无码| 99久久精品视香蕉蕉| 国产H片无码不卡在线视频| 国产综合日韩另类一区二区| 奇米精品一区二区三区在线观看| 色哟哟国产精品一区二区| 无码精品国产dvd在线观看9久| 动漫精品中文字幕无码| 亚卅精品无码久久毛片乌克兰| 经典三级久久| 免费精品一区二区h| 波多野结衣亚洲一区| 色天天综合久久久久综合片| 欧美日韩成人在线观看| 亚洲午夜久久久精品电影院| 亚洲无码四虎黄色网站| 亚洲欧洲免费视频| 国产麻豆精品手机在线观看| 国产成年女人特黄特色大片免费| 亚洲国产中文综合专区在| 国产无码高清视频不卡| 亚洲中文字幕久久精品无码一区| 亚洲一级无毛片无码在线免费视频| 人妻少妇久久久久久97人妻| 国产女同自拍视频| 人人妻人人澡人人爽欧美一区 | 久久久久亚洲AV成人网站软件| 国产又粗又爽视频| 亚洲人成在线免费观看| 欧美国产菊爆免费观看 | 国产91麻豆视频| 国产自在线播放| 欧美在线国产| 国产人人射| 国产91导航| 日本精品中文字幕在线不卡| 热re99久久精品国99热| 亚洲人在线| 一区二区欧美日韩高清免费 | 天天摸夜夜操| 欧美三级不卡在线观看视频| 亚洲欧洲日韩综合色天使| 69av在线| 欧美日韩免费观看| аⅴ资源中文在线天堂| 国产在线观看一区二区三区| 欧美一道本| 欧美成人影院亚洲综合图| 伊伊人成亚洲综合人网7777| 在线精品欧美日韩| 色综合综合网| 国产成人精品亚洲日本对白优播| 毛片久久久| 自拍偷拍欧美日韩| 中文字幕丝袜一区二区| 久久美女精品国产精品亚洲|