中圖分類號:TS941.2 文獻標(biāo)志碼:A 文章編號:2095-414X(2025)03-0027-06
0引言
隨著計算機技術(shù)的飛速發(fā)展,特別是三維建模、虛擬現(xiàn)實和增強現(xiàn)實技術(shù)的日益成熟,三維服裝設(shè)計領(lǐng)域正經(jīng)歷著前所未有的變革。傳統(tǒng)的二維服裝設(shè)計方法已難以滿足現(xiàn)代消費者對服裝個性化、合體性及虛擬試穿體驗的高要求。因此,基于參數(shù)化人體模型的三維服裝設(shè)計技術(shù)應(yīng)運而生,成為當(dāng)前研究的熱點之二[-2]。信玉峰等針對立體裁剪紙樣設(shè)計存在的效率低下、學(xué)習(xí)周期長的問題,提出了三維服裝智能設(shè)計技術(shù)。該技術(shù)融合機器學(xué)習(xí)、計算機圖形學(xué)及輔助設(shè)計技術(shù),實現(xiàn)了設(shè)計過程的自動化,為服裝、鞋類、箱包等柔性產(chǎn)品的智能設(shè)計提供了強有力的技術(shù)支持3]。VechevV等人致力于優(yōu)化服裝增強材料,提出了自動設(shè)計動覺服裝圖案的方法,該方法通過深人探索連續(xù)設(shè)計范圍,并精確捕捉布料與身體之間的動態(tài)互動影響,實現(xiàn)了設(shè)計的顯著優(yōu)化,使得能量密度的性能得以提升2至3倍4。但此類方法雖能提高效率,卻可能增加系統(tǒng)的復(fù)雜性及學(xué)習(xí)應(yīng)用的成本。參數(shù)化人體模型作為三維服裝設(shè)計的基石,能夠精確捕捉人體特征和行為,為設(shè)計、模擬、展示提供有力支持,相比于傳統(tǒng)掃描或手工測量的方法,它更精確、靈活,可個性化地調(diào)整設(shè)計,提升服裝合體性和舒適度5-。密集卷積網(wǎng)絡(luò)(Denseconvolutionalnetwork,DenseNet)是一種深度學(xué)習(xí)模型,它通過密集連接的方式,將每一層的輸入直接連接到后面所有層的輸入,能夠更好地利用淺層特征信息,提高網(wǎng)絡(luò)的性能,有助于生成更逼真、更符合設(shè)計要求的三維服裝模型。在這樣的背景下,研究創(chuàng)新性地采用密集卷積網(wǎng)絡(luò)和人體體型參數(shù)方法,構(gòu)建一套高效、精準(zhǔn)的三維服裝設(shè)計,以期為設(shè)計更貼合人體體型的服裝提供技術(shù)支持。
1基于密集卷積網(wǎng)絡(luò)的三維服裝設(shè)計方法
1.1基于密集卷積網(wǎng)絡(luò)的服裝設(shè)計方法
研究提出了一種服裝設(shè)計算法,旨在增加設(shè)計的服裝與人體的貼合度并提升設(shè)計效率,該算法通過利用DenseNet提取服裝的基本樣式與細節(jié)信息。DenseNet作為一種創(chuàng)新的卷積神經(jīng)網(wǎng)絡(luò)框架,其獨特性體現(xiàn)在將各層輸出在深度方向上進行精細的拼接,并將拼接后的結(jié)果用作下一層的輸入。這種設(shè)計策略不僅大幅度減少了模型的參數(shù)數(shù)量,還顯著提升了特征和損失信息的傳遞效率,同時有效地減輕了梯度消失的問題。在DenseNet這個廣受歡迎的模型中,其核心特征提取部分由4個精心設(shè)計的密集塊和3個過渡層構(gòu)成。
在對服裝設(shè)計中,使用DenseNet架構(gòu),為了避免卷積操作后圖像特征維度過高可能導(dǎo)致的過擬合問題,通常會在卷積層后緊接著執(zhí)行池化操作。池化不僅有助于減小圖像的尺寸,還能進一步精煉特征信息。它主要分為平均池化和最大值池化兩種類型,這兩種方法各有其獨特之處,可以根據(jù)具體的應(yīng)用需求和場景進行靈活選擇。在處理設(shè)計的服裝圖像時,卷積神經(jīng)網(wǎng)絡(luò)會依次通過卷積層、池化層,并最終通過全連接層來輸出特征值。在對服裝設(shè)計的訓(xùn)練過程中,最小化損失函數(shù)是核心目標(biāo),它作為評估模型預(yù)測結(jié)果與真實結(jié)果之間差距的指標(biāo),直接指導(dǎo)著網(wǎng)絡(luò)參數(shù)的優(yōu)化調(diào)整。訓(xùn)練網(wǎng)絡(luò)參數(shù)時,通過損失函數(shù)最小為目標(biāo),損失函數(shù)如式(1所示。

式(1)中, L(?) 代表損失函數(shù), r 代表輸入, N 為類別數(shù), ?Pi 代表理想輸出,
為網(wǎng)絡(luò)輸出。對于參數(shù)過多時,卷積神經(jīng)網(wǎng)絡(luò)會出現(xiàn)過擬合和梯度消失的現(xiàn)象,為了防止不良現(xiàn)象的發(fā)生,密集連接卷積網(wǎng)絡(luò)通過對每個塊中進行密集跳躍連接,4個密集塊的密集連接網(wǎng)絡(luò),公式如式(2)。
xl=Ll([x0,x1,…,xl-1])
式(2)中, x 代表輸出, l 代表卷積的層數(shù)。在每個密集塊內(nèi)部,除了執(zhí)行常規(guī)的前向卷積操作外,還有一個顯著的特點:每個單元的輸人不僅包含其自身的信息,還與該塊內(nèi)后續(xù)其他單元的輸出緊密相連。這些連接通過各單元的卷積操作進行整合,從而形成了密集的跳躍連接。這種設(shè)計確保了每個輸出特征都能與其他特征相連接,實現(xiàn)了特征的高效復(fù)用。這不僅大幅減少了網(wǎng)絡(luò)參數(shù)的數(shù)量,還顯著提升了網(wǎng)絡(luò)的訓(xùn)練效率。與傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)相比,DenseNet的這種密集連接結(jié)構(gòu)在識別性能上展現(xiàn)出了更為優(yōu)越的表現(xiàn)。由4個密集塊組成的DenseNet結(jié)構(gòu)如圖1。
如圖1,該密集卷積網(wǎng)絡(luò)架構(gòu)精心設(shè)計了4個密集塊,旨在通過高效的特征復(fù)用和參數(shù)減少來提升網(wǎng)絡(luò)性能。在每個密集塊之后,都巧妙地設(shè)置了卷積層和池化層,以進一步提煉和降維特征。與前三個密集塊有所不同,最后一個密集塊后不僅包含了池化層,還特別添加了一個線性層,進一步實現(xiàn)特征的線性變換。

1.2融合動態(tài)人體參數(shù)的服裝生成算法
研究使用了密集卷積網(wǎng)絡(luò)進行服裝特征的提取,而在服裝設(shè)計過程中,還需融合人體動態(tài)參數(shù)以實現(xiàn)個性化定制。為了使服裝設(shè)計的成本最小化,研究提出了一種算法,該算法能夠整合服裝規(guī)格、人體尺寸以及姿態(tài)信息,設(shè)計出滿足客戶要求的三維動態(tài)服裝模型。通過比較模型和人體的尺寸,得到比較準(zhǔn)確的人體參數(shù)。為了獲得更為準(zhǔn)確的人體參數(shù),研究比較用戶的身體尺寸數(shù)據(jù)和模型的尺寸數(shù)據(jù),兩者的偏差如式(3)所示。

式(3)中, Cj 代表用戶身體尺寸數(shù)據(jù)和模型尺寸的差值。 w 表示身體部分尺寸數(shù)據(jù)的影響權(quán)重值, j 代表模型與身體尺寸最小差值的編號。采集人體數(shù)據(jù)前,需要進行相機標(biāo)定,計算相機坐標(biāo)系下的坐標(biāo)系轉(zhuǎn)化關(guān)系,如式(4)。

式(4)中, Dc 代表深度值, f 代表焦距, R 代表旋轉(zhuǎn)矩陣, M 代表平移矩陣。研究使用骨架提取算法獲得人體模型的參數(shù),采集人體關(guān)節(jié)點的信息,四元數(shù)需要的參數(shù)少,效率更高,因此,用四元數(shù)方式表示這些點的旋轉(zhuǎn)信息,如式(5)所示。
S=w+x×e+y×h+z×k
式(5)中, s 代表四元數(shù), w 代表四元數(shù)的標(biāo)量部分, x,y,z 分別代表四元數(shù)的三個向量部分, e,h 、k 代表三個虛數(shù)單位。根據(jù)要變換的模型點與其所屬部位節(jié)點的三個父關(guān)節(jié)點和其一個子節(jié)點歐氏距離,由歐氏距離大小構(gòu)造了對應(yīng)關(guān)節(jié)點的影響權(quán)重。對于所有影響該模型點的歐氏距離之和,計算其權(quán)重的公式如式(6)。

式(6中, Wi 代表與之對應(yīng)的關(guān)節(jié)點影響權(quán)重, o 為影響該模型點的歐氏距離之和, Oi 代表模型點到關(guān)節(jié)點的歐氏距離。利用所獲取的關(guān)節(jié)點參數(shù),能夠推算出各個關(guān)節(jié)點的具體位置,進而基于不同的姿態(tài)骨架信息,分析并得出人體每一塊骨骼的運動狀態(tài)。為了實現(xiàn)姿態(tài)的統(tǒng)一,將不同幀中展現(xiàn)的各種姿態(tài)信息轉(zhuǎn)換至一個標(biāo)準(zhǔn)姿態(tài)下。在此過程中,依據(jù)關(guān)節(jié)點的信息,計算出將當(dāng)前模型中的點轉(zhuǎn)換至全局模型點所需要的旋轉(zhuǎn)矩陣以及相應(yīng)的平移向量,如式(7)。

式(7)中, n 代表節(jié)點的序號, s 代表四元數(shù), Πg 代表全局模型, c 代表當(dāng)前模型。每個點在變換之后點的坐標(biāo)位置,可以通過公式計算得出,如式(8)。

式(8)中,
代表變換后的點云坐標(biāo), yi 代表關(guān)節(jié)點的位置向量, X 代表節(jié)點平移向量。研究通過比較用戶的身體尺寸數(shù)據(jù)和模型的尺寸數(shù)據(jù),以確保服裝設(shè)計的精準(zhǔn)度與貼合性。在進行人體與服裝頂點之間的復(fù)雜計算過程中,使用歐式距離獲得人體各關(guān)節(jié)點信息,使用骨架提取算法、四元數(shù)獲得人體模型的參數(shù),對當(dāng)前模型和全局模型進行轉(zhuǎn)換,結(jié)合這些參數(shù)信息實現(xiàn)服裝設(shè)計。
2基于密集卷積網(wǎng)絡(luò)的服裝設(shè)計方法效果分析
2.1基于密集卷積網(wǎng)絡(luò)的服裝設(shè)計方法性能分析
為了測試研究方法的性能和應(yīng)用效果,對研究方法進行實驗。研究使用VisualDTU數(shù)據(jù)集對研究方法進行訓(xùn)練和測試,該數(shù)據(jù)集包含3000組樣本。數(shù)據(jù)集的60%.20%.20% 作為訓(xùn)練集、驗證集、測試集,對訓(xùn)練集數(shù)據(jù)進行400次迭代。實驗配置及參數(shù)設(shè)置如表1所示。


為了對研究所提方法的性能進行分析,將該方法簡稱為CDB-CN。研究使用主成分分析(PrincipalComponentAnalysis,PCA)[和PGM三維人體試衣系統(tǒng)(PGM3DBodyFitting System,PGM)[1]與CDB-CN進行對比。對上述3種模型進行訓(xùn)練和測試,比較CDB-CN在不同解碼器參數(shù)下,訓(xùn)練集和測試集上的誤差,結(jié)果如圖2所示(見上頁)。
圖2(a)為CDB-CN在不同解碼器參數(shù)下的誤差,圖2(b為在有殘差層的解碼器參數(shù)下CDB-CN模型的誤差,圖2(c)為在無殘差層的解碼器參數(shù)下CDB-CN模型的誤差。由圖2可知,隨著解碼器參數(shù)增加,模型在訓(xùn)練集和測試集上的誤差均增大,解碼器參數(shù)為15時,模型在訓(xùn)練集和測試集上的誤差分別為 3.46mm 和 3.50mm ,模型在測試集上的誤差大于在訓(xùn)練集上的誤差。在解碼器參數(shù)為35時,有殘差層的模型在訓(xùn)練集和測試集上的誤差分別為 3.57mm 和 3.60mm ,無殘差層的模型在訓(xùn)練集和測試集上的誤差分別為3.61mm 和 3.65mm 。說明在有殘差層的情況下誤差小于無殘差層時。因此,研究采用有殘差層的解碼器,在參數(shù)為15時進行接下來的實驗。使用幾何距離誤差和拉普拉斯誤差比較3種模型的準(zhǔn)確性,實驗結(jié)果如圖3。
由圖3可見,隨著迭代次數(shù)的不斷增加,不同方法所產(chǎn)生的幾何距離誤差以及拉普拉斯誤差均呈現(xiàn)出逐漸下降的趨勢,并且在迭代次數(shù)達到240次之后,這些誤差值開始趨于穩(wěn)定狀態(tài)。圖3(a)展示了在訓(xùn)練集上幾何距離誤差的對比情況。當(dāng)?shù)螖?shù)達到400次時,研究提出的方法所得到的幾何距離誤差降低至3.70mm ,相比之下,PCA和PGM的幾何距離誤差分別為 4.20mm 和 4.00mm ,均高于研究方法。圖3(b)描繪了訓(xùn)練集上拉普拉斯誤差的對比情況。在迭代320次時,研究方法的拉普拉斯誤差為 3.50mm ,而PCA和PGM的拉普拉斯誤差則分別為 4.20mm 和 3.80mm ,同樣高于研究方法。說明研究方法在準(zhǔn)確率方面具有顯著優(yōu)勢,能夠為設(shè)計出更加合身、舒適的服裝提供更為精準(zhǔn)、高質(zhì)量的數(shù)據(jù)支持。
2.2基于密集卷積網(wǎng)絡(luò)的服裝設(shè)計方法應(yīng)用分析
為了評價研究所提方法的應(yīng)用效果,對1800組樣本進行檢測,身體測量部位箱形圖異常值檢測如圖4所示。
由圖4可見,不同部位的異常值有所不同。圖4(a)顯示,對肩部的異常值檢測中,頸圍的異常值數(shù)量為25次左右,而左右肩斜度異常值數(shù)量在40次以上。圖4(b)顯示,對腿部的異常值檢測中,腰圍的異常值數(shù)量為23次左右,臀圍的異常值數(shù)量為39次左右。頸圍和腰圍的異常值數(shù)量較少,左右肩斜度的異常值數(shù)量較多,可能由于左右肩斜度測量值變化幅度小,導(dǎo)致定位不準(zhǔn)確和異常值增多。說明研究方法在頸圍、腰圍等變化幅度大的部位,測量準(zhǔn)確性較高。對使用研究方法定位的人體各部位相關(guān)變量進行統(tǒng)計,結(jié)果如表2所示。



由表2可知,不同身體部位測量值的統(tǒng)計量其標(biāo)準(zhǔn)差落在了一個相對寬泛的范圍,即 1.3~5.8cm/° 區(qū)間,其中臀圍與褲腿的標(biāo)準(zhǔn)差數(shù)值較為突出,分別達到了 4.5cm 和 3.3cm ,相較于其他部位顯示出更大的離散程度,頸圍和右肩斜度的標(biāo)準(zhǔn)差均為 1.3cm/° ,各部位的平均數(shù)和中位數(shù)呈現(xiàn)出較為接近的趨勢,臀圍的平均數(shù)和中位數(shù)之間存在 0.7cm 的差距。說明研究方法在設(shè)計服裝時,對于臀圍和褲腿部位的精確定位尚存在一定的不足,未來需針對這些部位進行更為精細化的調(diào)整與優(yōu)化。
3結(jié)論
研究設(shè)計了一種基于密集卷積網(wǎng)絡(luò)的三維服裝設(shè)計方法,其核心目標(biāo)在于顯著提升設(shè)計效率,同時確保設(shè)計出的服裝能夠緊密貼合人體參數(shù)。該方法使用DenseNet架構(gòu),在每個密集塊之后添加了卷積層和池化層,使用歐式距離獲得人體各關(guān)節(jié)點信息,使用骨架提取算法、四元數(shù)獲得人體模型的參數(shù)。在解碼器參數(shù)設(shè)定為35時,有殘差層的模型在訓(xùn)練集和測試集上的誤差分別為 3.57mm 和 3.60mm ,在迭代次數(shù)為400時,研究方法的幾何距離誤差為 3.70mm ,低于對比算法;在身體各部位變量統(tǒng)計中,臀圍、褲腿的標(biāo)準(zhǔn)差分別為 4.5cm 和 3.3cm ,較其他部位的標(biāo)準(zhǔn)差大。說明研究方法在服裝設(shè)計中具有較高的準(zhǔn)確率,且設(shè)計的服裝貼合度較好,研究能夠為服裝設(shè)計提供一定技術(shù)支撐。研究在評測中發(fā)現(xiàn),對于褲腿、左右肩斜度等精細部位的測量結(jié)果仍有提升空間,后續(xù)將致力于納入更多精細部位,以進一步強化對細節(jié)設(shè)計的精準(zhǔn)把控。
參考文獻:
[1]BeemJ,HannahI,HosoiAE.Parameterizedshapeadaptivematerials for sportswear[J].International journal of clothingscience and technology,2023,35(5):685-697.
[2]吳亮.虛擬現(xiàn)實技術(shù)在服裝設(shè)計中的應(yīng)用研究[J].紡織報告,2022,41(8):72-74.
[3]信玉峰.三維服裝立體裁剪紙樣智能設(shè)計技術(shù)研究[J].南昌師范學(xué)院學(xué)報,2022,43(6):52-56.
[4]VechevV,ZarateJ,ThomaszewskiB,HilligesO.Computa-tional Design of Kinesthetic Garments[J]. 2022.41(2):535-546.
[5]Mo Z,Wang Q,Shi B S W.Pointhuman: Reconstructingclothed human from point cloud of parametric model[J.Com-putingand informatics,2023,42(2):457-479.
[6]農(nóng)旭安,尤文勝.簡析三維服裝參數(shù)化造型技術(shù)[J].西部皮革,2023,45(21):31-33.
[7]王道累,張正剛,張世恒,等.基于密集連接網(wǎng)絡(luò)的航拍絕緣子旋轉(zhuǎn)目標(biāo)精準(zhǔn)定位方法[J].電力系統(tǒng)保護與控制,2024,52(1):35-43.
[8]齊美彬,程佩琳,靳學(xué)明,等.基于密集連接卷積網(wǎng)絡(luò)的雷達輻射源信號分選[J].雷達科學(xué)與技術(shù),2022,20(6):635-642.
[9]鄭義桀,羅健欣,陳衛(wèi)衛(wèi),等.基于Unity3D三維多視角虛擬數(shù)據(jù)集構(gòu)建[J].計算機技術(shù)與發(fā)展,2023,33(5):173-179.
[10]YanH,ZhangH,ShiJ,etal.Toward intelligentfashion de-sign:A texture and shape disentangled generative adversari-al network[J]. ACM Transactions on Multimedia Computing,Communications and Applications,2023,19(3): 1-23.
[11]余偉朝,馬巧梅,申連雄.基于PGM的三維人體試衣系統(tǒng)設(shè)計[J].紡織報告,2022,41(11):47-50.
Abstract:Garmentdsigalgorithhasbecomeanindispensablekeytoolinmodenclothingdsign,hichgreatlypromotesdesigo vationanddevelopmentInodertimproetheeiencyadacuracyofsign,atredimensioalfasondesignmetodssdied anddesigned.Iepro,tedenseconvoutioaltwrkadteumanodyodeinforatioarecombinedtoaturetheypots of thehumanbodyshapetodesignafitinggarment.Inthedetectionoflgoutliers,thenumberofwaistoutliersisabout23times.When thenumber of iterationsis32o,theLaplace error of the research method is 3.50mm ,whichislower thanthatof thecomparisonalgorithm. Theresultsshowtattemehodasaigaccuracyincohingdesignadthedsigedclotinghaseterectontheastdoter parts with a relatively large range.Research can provide technical support for designing beter fiting clothes.
ywords: parametric human model; denseconvolutionalnetwork;three-dimensionalclothingdesign;clothinggenerationalgorithm
(責(zé)任編輯:李強)