999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于2D人體圖像特征學習的女西裝合體性判別

2024-05-24 00:00:00姚彤閔悅寧王軍孫見梅潘力
絲綢 2024年5期
關鍵詞:特征評價

Discriminating the fit of women’s suits based on 2D human body image feature learning

摘要:

為解決服裝遠程定制和網絡購衣過程中服裝合體性無法預先判斷的問題,文章提出利用2D人體圖像判斷女西裝合體性。首先采集了462名18~25周歲青年女性的2D圖像及3D尺寸,建立人體數據集。并制作10件虛擬女西裝,建立服裝數據集。其次提取用于女西裝合體性判別的服裝特征、2D人體圖像關鍵點距離特征和整體特征。基于感性工學原理,采用專家評價法獲取女西裝合體性評價標簽。最后利用貝葉斯分類器建立女西裝合體性判別模型。研究結果顯示,將文章提出的特征應用于基于貝葉斯算法的女西裝合體性判別模型判別準確率可達到84.8%,說明提出的服裝合體性評價指標有效,可以用于基于2D圖像的服裝合體性預測。

關鍵詞:

2D人體圖像特征;計算機視覺;機器學習;女西裝;合體性;貝葉斯模型

中圖分類號:

TS941.17

文獻標志碼:

A

文章編號: 10017003(2024)05期數0078起始頁碼09篇頁數

DOI: 10.3969/j.issn.1001-7003.2024.05期數.010(篇序)

收稿日期:

20231105;

修回日期:

20240331

基金項目:

遼寧省教育廳項目(LJKMR20220912,LJKZZ20220068,JYTMS20230401)

作者簡介:

姚彤(1986),女,講師,博士研究生,主要從事服裝數字化的研究。通信作者:潘力,教授,1020404190@qq.com。

服裝的合體性問題貫穿整個服裝設計、制造和銷售過程,服裝合體性評價已經成為遠程定制和網絡購衣的主要瓶頸之一[1],嚴重影響了服裝產業的智能化升級。如何在沒有實際試穿的情況下估計服裝合體程度成為研究人員面臨的一個主要問題[2]。

合體的服裝指著裝狀態下服裝平滑且均勻地懸掛在人體上,無多余褶皺或壓迫、線條流暢、左右對稱并能提供足夠松量用于肢體活動[3]。服裝合體性的評估方法有兩種:一種是主觀評價法[4],另一種是客觀評價法。主觀評價主要有專家評價和用戶評價[5]。專家評價優勢在于與專業知識和經驗的結合,多用于虛擬服裝的合體性評價。用戶評價需要試穿服裝,更注重用戶自身感受[6]。Hong等[7]通過專家評價法對脊柱側彎人群的服裝做了合體性評估,并根據結果調整了特殊人群的服裝樣板,提高了服裝的合體性。客觀評價是指將服裝合體性評價指標量化,再根據先驗知識建立數學模型,以實現服裝合體性預測[8]。客觀評價法的特征指標主要有:放松量[9]、服裝褶皺、服裝與人體的空間關系、服裝壓力[10-11]等。Xu等[12]提出了一種基于實例的服裝合身性預測方法,利用CNN算法建立了人體2D圖像、人體服裝寬松度與服裝變形

之間的映射,用以預測不同個體穿著成衣時的合體性問題。Zhang等[13]提出一種基于穿衣圖像褶皺指數的客觀擬合評價模型,該模型通過三個定量指標:皺紋數量、皺紋規律性和皺紋不均勻性對網絡穿衣圖像的合體程度進行評價。王詩潭等[3]以衣下間隙作為評價服裝合體性的客觀評價指標,構建了基于人體與服裝空間關系的服裝合體性綜合評價方程,為連體服裝的合體性評價提供參考。隨著虛擬試衣技術的不斷完善,基于虛擬服裝壓力的服裝合體性研究成為一種新趨勢[14]。Zhao等[15]收集了72條牛仔褲的虛擬壓力值,建立了基于自適應網絡模糊推理系統(Adaptive Network Fuzzy Inference System)的服裝合體性評價模型,實現了基于虛擬壓力的牛仔褲合體性預測。

通過對現有文獻的分析,目前服裝合體性研究大多存在需要實際試穿、評價過程復雜、適用面窄等問題,不適用于服裝遠程定制和網絡購衣。計算機視覺技術和機器學習技術為基于2D圖像的服裝合體性研究提供了新方法,但目前基于2D圖像的服裝合體性研究還較少,且主要針對特定的服裝,因此亟需探索一種有效的評價方法以適應服裝產業智能化發展的需要。針對服裝遠程定制或網絡購衣過程中服裝合體性無法預先判斷的問題,本文提出利用2D人體數字圖像判斷女西裝的合體性。首先建立服裝數據集和人體數據集,然后提取女西裝尺寸特征,采用計算機視覺技術自動提取影響女西裝合體性的2D圖像人體特征,通過基于感性工學的專家評價法給出女西裝的合體性評價,最后運用貝葉斯算法建立合體性

判別模型,實現了基于2D圖像特征學習的女西裝合體性判斷。

1" 實" 驗

1.1" 服裝設計

本文設計了同一款式不同號型的10件女西裝用于試穿實驗,通過ET服裝CAD軟件進行服裝樣板的繪制,并使用CLO3D軟件進行服裝的虛擬縫合及試穿。

1) 款式。本文以基本款四開身女西裝為例進行服裝合體性判別,如圖1所示。

2) 號型。根據中國國家標準GB/T 1335.2—2008《服裝

號型女子》中體型分布情況,本文以A體型為例,設計了10件女西裝,服裝號型如表1所示。

3) 面料。在虛擬試衣過程中面料的物理性能對服裝穿著效果有顯著影響,本文基于CLO3D平臺選取羊毛質地的面料,其物理性能如表2所示。

1.2" 人體測量和實驗對象的選擇

本文利用Vitus Smart三維人體掃描儀隨機測量了462名中國東北地區18~25周歲的青年女性作為實驗對象,樣本包含在校大學生和工人等。提取3D人體尺寸和2D人體圖像建立人體數據集。

依據中國國家標準GB/T 1335.2—2008,以占比最高的A體型為例,根據身高和胸圍的分布情況及前期的預實驗,本文選擇了22個樣本進行虛擬試衣實驗,樣本體型尺寸如表3所示。這22個樣本通過CLO3D軟件建立虛擬試衣模特,用于服裝合體性研究實驗。

2" 女西裝合體性評價

本文結合感性工學原理[16],采用專家評價法給出女西裝合體性評價標簽。參與評價的共5位專家,包含從事服裝結構設計專家3人,定制企業樣衣師1人,普通消費者1人。采用語意差異法設計Likert 5點數字量表[17-18],使用數字“1~5”的5級標尺來測量專家感性評價尺度,數字含義為:1緊小,2略緊小,3合體,4略寬松,5寬松。通過觀測CLO3D平臺中虛擬試穿的效果進行評分,觀測部位分別為前衣身、體側、后衣身、衣長和袖長5個部位[19]。本文提取出用于虛擬女西裝合體性評價的感性形容詞對,如表4所示。專家結合專業知識對幾個部位的合體性情況給出綜合評價得分。當5位專家的平均得分在[1,2.5)時判定服裝的合體性情況為緊小,當得分在[2.5,3.4]時為服裝合體,當得分在(3.5,5]時為服裝寬松。

圖2為虛擬環境中不同合體性的女西裝的試穿效果,虛擬模特試穿的3件女西裝樣衣號型分別為:試樣4(160/80A)、試樣5(160/84A)、試樣8(165/88A)。虛擬試穿過程中試樣4的合體性得分為2.2,則判定結果為服裝緊小,其表現為過于貼體、無活動余量、腋下緊繃、背部完全貼合身體,臀部面料拉伸變形尺寸表現為過小。試樣5合體性綜合得分為3,表現為外觀效果較好、平整、無褶皺、寬松量適中、長度合適,判定合體性類別為合體。試樣8合體性得分為4.8,表現為過于寬松、有大量多余褶皺、外觀效果差,衣長和袖長都過長,判定合體性類別為寬松。

3" 特征提取

服裝合體性判別的本質可以歸結為一個分類問題,特征指標的選取是解決分類問題的關鍵,故本文所提取的特征指標包含服裝特征和人體特征兩方面。

3.1" 服裝特征提取

服裝特征(簡稱GF)提取指女西裝成衣尺寸特征的提取,本文所提及的女西裝為合體型女西裝,胸圍和腰圍處設置的放松量均為10 cm[20],女西裝合體性主要體現在圍度和長度兩方面。胸圍、腰圍、臀圍有著顯著的相關性,因此只提取了成衣規格中的胸圍特征;衣長和袖長相關性顯著,因此提取衣長特征。同時,將胸圍和衣長作為服裝合體性預測的2個服裝特征。

3.2" 基于2D圖像的人體特征提取

基于2D圖像的人體特征是指將2D人體圖像進行一系列的預處理和運算,得到人體的形狀特征、顏色特征、空間關系特征、紋理特征等。這些特征可以用于人體幾何尺寸獲取[21]、人體3D重建[22]、2D圖像與3D模型匹配、人體姿勢判別等。特征指標的選擇決定了基于2D人體圖像的服裝合體性判別結果的有效性,本文提取的2D圖像人體特征為關鍵點距離特征(簡稱DF)和2D人體整體特征(簡稱OF)。

3.2.1" 圖像預處理與身高歸一化

2D人體圖像在獲取、傳輸的過程中會受到噪聲的污染,影響人體信息的獲取效果,因此要對圖像進行去噪處理。本文采用高斯濾波來平滑圖像進而抑制噪聲影響,隨后將RGB圖像轉化為灰度圖像,設置區分人體區域與背景的閾值,從而獲取二值化圖像。

本文使用的2D人體圖像是從3D人體掃描數據庫中提取的投影圖像,在提取過程中,由于人體數據信息在2D圖像上并沒有形成映射關系,因此先對2D數字圖像進行歸一化操作,消除尺寸因素對體型的影響[23]。本文通過3D人體掃描儀提取身高數據,并以身高為歸一化標準將圖像歸一化,選取樣本身高的最大值,在人體區域將頭頂點至地面之間的距離設置為Q像素,本文Q=700,利用下式將身高數據歸一化:

H=Q×h-hminhmax-hmin(1)

式中:H為歸一化后的身高,h為任意樣本身高,hmin為樣本中身高的最小值,hmax為樣本中身高的最大值。

最后采用Canny邊緣檢測算子提取人體輪廓,計算邊緣特征灰度值梯度,并采用非極大值抑制細化邊緣,從而設定合適的雙閾值保留真實邊緣。圖像處理過程如圖3所示。

3.2.2" 關鍵點距離特征提取

服裝制作過程中需要提取人體的圍度數據,如胸圍等,但人體2D圖像存在圍度數據提取困難、精度差等問題[24]。因此,本文提出采用關鍵點距離特征(DF)來表征人體特征部位的信息,其優勢主要有:1) 規避了復雜的特征圍度求取過程。2) 關鍵點距離特征具備幾何不變性[25]。3) 降低了關鍵點信息的數據維度,起到了數據降維的作用,更利于機器學習算法的應用。

女西裝的合體程度主要指人體的胸圍、腰圍、臀圍與服裝的適合程度[26],因此2D人體圖像中關鍵點的選取也是以這3個部位為基礎選取的。依據國標GB/T 16160—2008《服裝用人體測量的部位及方法》和人體各部位與身高的比例關系[27]進行區域定位。分別從人體側面輪廓提取人體前后胸厚位置點、腰厚位置點和臀厚位置點,從人體正面輪廓提取左右腰寬位置點、臀寬位置點,共計10個點,各部位關鍵點的位置及關鍵點距離的計算方法如圖3(c)和表5所示,共提取出dBT、dWT、dHT、dWW、dHW這5個關鍵點距離特征。

3.2.3" 2D人體整體特征提取

在前期的研究工作當中[28]已經深入研究了利用計算機視覺技術對2D人體數字圖像進行整體描述的可行性和具體方法,該方法主要從人體身高在圖像上的像素表示、人體的平均胖瘦程度(投影單位面積特征)和人體的圓扁程度(人體正側面投影面積比特征)三個方面綜合描述人體特征信息在圖像上的表現。本文是該方法的具體應用。在數據歸一化的過程中已經對人體的身高進行了計算機視覺表示,即得到了身高像素值特征(H),接下來分別闡述投影單位面積特征(ρ)和人體正側面投影面積比特征(C)的提取方法。

1) 投影單位面積特征(ρ)的提取。如圖4(Ⅰ、Ⅲ、Ⅴ、Ⅶ)為樣本1和樣本2正面、側面2D人體圖像,其大小為M×N,將其進行二值化處理,人體區域呈現為白色,像素值設為1,背景區域呈現為黑色,像素值設為0。設人體高度方向為Y軸,與之垂直方向為X軸,利用統計法分別統計人體區域沿X和Y軸方向上像素值為1的點的累積分布,即像素值f(i,j)=1的累計分布,如下式所示:

X(i)=∑Nj=1f(i,j)(i=1,2,3,…,M),f(i,j)=1(2)

Y(j)=∑Mi=1f(i,j)(j=1,2,3,…,N),f(i,j)=1(3)

圖4(Ⅱ、Ⅳ、Ⅵ、Ⅷ)為2D人體圖像二值圖的灰度分布直方圖。灰度分布直方圖反映了不同體型的灰度分布情況,沿X軸方向與Y軸方向上白點分布最大高度差的計算公式如下:

X_l=max(X(i))-min(X(i))(i=1,2,3,…,M)(4)

Y_l=max(Y(j))-min(Y(j))(j=1,2,3,…,N)(5)

沿X軸方向最大灰度分布差值X_l表征了人體的身高特征,X_l越大則身高越高。沿Y軸方向最大灰度分布差值Y_l表征為體胖方向的特征,Y_l越大則身體越胖。人體高矮胖瘦不同則灰度分布直方圖的分布情況也不相同,但僅使用X_l與Y_l只能粗略地了解人體的高矮胖瘦,但比較不出體型相近的兩個樣本哪個更胖或更瘦,因此使用投影單位面積特征ρ表征人體的平均胖瘦程度。設身高的像素值為H,人體正面圖像中累計白點計數為G,則ρ的計算公式如下:

ρ=G/H(6)

2) 人體正側面投影面積比特征(C)的提取。僅使用投影單位面積特征進行體型分類并不能準確地表述人體的體態信息,人體軀干部的圓扁程度同樣影響著人體的體型和著裝的效果。人體的圓扁程度主要指人體軀干部的形態,因此本文沿著人體的側頸點去掉人體頭、頸部信息,沿著肩端點去掉人體臂部信息。提取了人體正、側面投影面積比用于表征人體的圓扁程度。設人體正面累計白點數為K,人體側面累計白點數為F。將K與F的比值定義為C,則C的計算公式如下:

C=K/F(7)

4" 基于圖像特征學習的女西裝合體性判別模型

4.1" 貝葉斯判別模型原理

對于服裝合體性判斷是通過合適的判別算法對人體特征和服裝特征進行匹配歸類的過程。本文采用貝葉斯分類模型建立2D人體圖像特征與服裝合體性之間的關系。貝葉斯算法是統計模型決策中的一個基本方法,在解決分類問題的過

程中貝葉斯分類法、神經網絡分類算法和決策樹分類法等都具有較好的分類精度,貝葉斯算法因其方法簡單、分類準確率高、速度快、可解釋性強等優勢被廣泛使用。其原理為已知類條件概率密度參數表達式和先驗概率,然后計算后驗概率,再利用后驗概率進行決策分類[29]。基于貝葉斯模型的女西裝合體性判別主要有如下步驟:

步驟Ⅰ:確定特征指標。設向量A=(a1,a2,…,an)為表征服裝合體性的n個特征指標,即GF、DF和OF,共計10個特征指標。

步驟Ⅱ:獲得訓練數據集。利用CLO3D軟件進行虛擬試衣實驗,根據人們的試穿習慣,排除穿著極其緊小和極其寬松的情況,最終為22個虛擬模特分別挑選與其體型相近的6件女西裝進行虛擬試衣,得出132條訓練樣本。設人體特征與服裝特征的搭配數據集為S,S=(s1,s2,s3,…,sm)。專家結合前文所提及的評價指標給出合體性判斷,則服裝合體性類別的評估結果數據集為T,T=(t1,t2,…,tw)。S為輸入數據集,T為輸出數據集。

步驟Ⅲ:計算各個類別的先驗概率。第i條服裝與人體搭配si被劃分為上述w類中某一類的先驗概率為P(T=ti)。

步驟Ⅳ:計算未知類別樣本Suk合體性情況的后驗概率,如下式所示。

P(T=ti|Suk)=P(T=ti)P(Suk|T=ti)∑ti=1P(T=ti)P(Suk|T=ti)(8)

步驟Ⅴ:基于貝葉斯分類器進行分類決策,方法如下式所示。

P(T=ti|Puk)=max1≤i≤t{P(T=ti|Puk)}(9)

綜上,則判斷出Puk的合體性情況為ti。

4.2" 判別結果分析

本文通過SPSS軟件構建貝葉斯判別模型。由于樣本量較少,采用交叉驗證留一法來驗證判別的準確率。即人體特征與服裝特征的搭配數據集S中有m個樣例,將其劃分為m個互斥的集合進行交叉驗證,每次使用m-1個樣例進行訓練,1個樣例進行測試,然后計算準確率。本文利用DF、OF、GF這3種特征進行女西裝合體性判別準確率為84.8%。可視化判別結果如圖5所示,進一步驗證了基于DF、OF、GF這3類特征和基于貝葉斯模型構建的女西裝合體性判別模型有效。

4.3" 誤差分析

錯誤的合體性判斷會帶來損失(表6)。由表6可知,貝葉斯模型對于3類合體性情況判別準確率分別為93.0%、82.1%和78.8%。造成誤判的一個重要原因是樣本量較少,隨著樣本量的增加判別準確性也會明顯提高。

4.4" 判別函數的建立

利用貝葉斯判別法得到Fisher線性判別函數,根據該函數可以建立合體性判別方程,將未知合體性的服裝尺寸和2D人體圖像特征帶入方程即可以判斷該用戶穿著該服裝的合體性情況,判別方程如式(10)~(12)所示。其中,Z1、Z2、Z3分別為不同合體性類別的Fisher判別得分。當Z1≥Z2且Z1≥Z3時服裝歸為第一類,即服裝緊小。當Z2≥Z1且Z2≥Z3時服裝歸為第二類,即服裝合體。當Z3≥Z1且Z3≥Z2時服裝歸為第三類,即服裝寬松。

Z1=1.656H-12.844ρ+4 166.347F-17.76dWW+4.245dHW+23.4dBT+31.583dWT-28.298dHT+19.406B+34.932L-5 474.669(10)

Z2=1.626H-13.331ρ+4 207.868F-18.148dWW+4.269dHW+23.4dBT+31.878dWT-28.635dHT+20.739B+35.995L-5 615.724(11)

Z3=1.564H-13.656ρ+4 239.961F-18.525dWW+4.323dHW+23.464dBT+31.998dWT-28.869dHT+21.879B+37.239L-5 746.561(12)

5" 結" 論

本文提出了一種基于2D人體圖像的女西裝合體性判別方法。該方法構建了服裝數據集和人體數據集,并基于CLO3D平臺進行了虛擬試衣實驗。通過基于感性工學的專家感性評價法獲取了服裝的合體性類別標簽,再提取了胸圍和衣長兩個服裝特征,并利用計算機視覺技術提取了2D人體圖像中5個關鍵點距離特征和3個人體整體特征作為服裝合體性判斷的指標,然后建立了基于貝葉斯算法的女西裝合體性判別模型和判別方程,采用交叉驗證的方法檢驗了該模型的判別精度為84.8%。通過驗證實驗表明,本文提出的3類指標和貝葉斯模型對于基于2D人體圖像的女西裝合體性判別有效。

基于2D圖像的女西裝合體性判別方法是解決服裝遠程定制和網絡購衣服裝合體性判斷的有效途徑,但在評價標簽獲取的客觀性和評價結果對紙樣改進的指導性方面還需進一步優化。在今后的研究中還會增加真人試穿過程并對服裝動態舒適性加以評估,使評價結果更客觀和全面,同時也將不斷探索新的判別算法以提高預測精度。

參考文獻:

[1]LIU K X, ZENG X Y, BRUNIAUX P, et al. Fit evaluation of virtual garment try-on by learning from digital pressure data[J]. Knowledge-Based Systems, 2017(133): 174-182.

[2]CHRIMES C, BOARDMAN R, VIGNALI G, et al. Investigating how online fashion product page design affects the consumer’s clothing fit appraisal[J]. Journal of Consumer Behaviour, 2022, 21(6): 1478-1493.

[3]王詩潭, 汪秀花, 王云儀. 連體服衣下間隙特征指標的確定及其在服裝合體性評價中的應用[J]. 紡織學報, 2021, 42(9): 137-143.

WANG S T, WANG X H, WANG Y Y. Determination and application of air gap parameters in coverall fit analysis[J]. Journal of Textile Research, 2021, 42(9): 137-143.

[4]徐希朋, 徐燕妮, 季曉芬. 單次定制訂單的青年女性群體服裝定制號型[J]. 絲綢, 2023, 60(8): 82-90.

XU X P, XU Y N, JI X F. Customized sizes for young women’s group clothing with a single customized order[J]. Journal of Silk, 2023, 60(8): 82-90.

[5]劉凱旋. 基于知識的服裝設計與合體性評估系統的研究及應用[D]. 上海: 東華大學, 2017.

LIU K X. Study on Knowledge-Based Garment Design and Fit Evaluation System[D]. Shanghai: Donghua University, 2017.

[6]張喜景. 基于3D虛擬技術的服裝合體性評價研究: 以韓國女性體型變化為例[D]. 上海: 東華大學, 2019.

ZHANG X J. Study on Method for Evaluation of Clothing Fit Through 3D Virtual Fitting: Taking the Change of Korean Women Body Shape as an Example[D]. Shanghai: Donghua University, 2019.

[7]HONG Y, PASCAL B, ZHANG J J, et al. Application of 3D-TO-2D garment design for atypical morphology: A design case for physically disabled people with scoliosis[J]. Industria Textila, 2018, 69(1): 59-64.

[8]LIU K X, ZHANG L X, ZHU C, et al. An analysis of influence factors of sports bra comfort evaluation based on different sizes[J]. The Journal of the Textile Institute, 2019, 110(12): 1792-1799.

[9]TAO X Y, CHEN X, ZENG X Y, et al. A customized garment collaborative design process by using virtual reality and sensory evaluation on garment fit[J]. Computers amp; Industrial Engineering, 2018(115): 683-695.

[10]LIU K X, WANG J P, YAN H. Wearing comfort analysis from aspect of numerical garment pressure using 3D virtual-reality and data mining technology[J]. International Journal of Clothing Science and Technology, 2017, 29(2): 166-179.

[11]HORIBA Y, AMANO T, INUI S, et al. Proposal of method for estimating clothing pressure of tight-fitting garment made from highly elastic materials: Hybrid method using apparel CAD and finite element analysis software[J]. The Society of Fiber Science and Technology, 2021(2): 76-87.

[12]XU H C, LI J T, LU G D, et al. Predicting ready-made garment dressing fit for individuals based on highly reliable examples[J]. Computers amp; Graphics, 2020(90): 135-144.

[13]ZHANG M M, ZHUANG M L, ZHANG X F. Objective fitting evaluation model for dressing fit based on wrinkle index of dressing image[J]. Journal of Donghua University (English Edition), 2019(36): 37-45.

[14]LIU K X, WU H H, ZHU C, et al. An evaluation of garment fit to improve customer body fit of fashion design clothing[J]. The International Journal of Advanced Manufacturing Technology, 2022, 120(3/4): 2685-2699.

[15]ZHAO X Q, FAN K, SHI X, et al. Virtual fit evaluation of pants using the adaptive network fuzzy inference system[J]. Textile Research Journal, 2021, 91(23/24): 2786-2794.

[16]羅麗弦, 洪玲. 感性工學設計[M]. 北京: 清華大學出版社, 2015.

LUO L X, HONG L. Kansei Engineering Design[M]. Beijing: Tsinghua University Press, 2015.

[17]遠玉潔, 梁建芳. 基于感性工學的男士休閑西裝搭配方案設計研究[J]. 山東紡織科技, 2023, 64(4): 1-5.

YUAN Y J, LIANG J F. Research on the design of men’s casual suit matching scheme based on perceptual engineering[J]. Shandong Textile Science amp; Technology, 2023, 64(4): 1-5.

[18]宋瑩, 阮勝坤. 基于數量化理論Ⅰ的男襯衫設計要素感性評價[J]. 絲綢, 2023, 60(3): 105-112.

SONG Y, RUAN S K. Perceptual evaluation of men’s shirt design based on quantitative theory Ⅰ[J]. Journal of Silk, 2023, 60(3): 105-112.

[19]陳曉玲, 聶存云, 李納納. 女上裝合體性與舒適性的綜合評價[J]. 紡織學報, 2016, 37(5): 117-123.

CHEN X L, NIE C Y, LI N N. Comprehensive assessment methods for women’s garment fitness and comfort[J]. Journal of Textile Research, 2016, 37(5): 117-123.

[20]顧冰菲, 閆彥紅, 蘇軍強, 等. 女西裝特征部位松量分布規則[J]. 紡織學報, 2019, 40(5): 107-112.

GU B F, YAN Y H, SU J Q, et al. Ease distribution rules of characteristic positions in women’s suits[J]. Journal of Textile Research, 2019, 40(5): 107-112.

[21]韓寧生, 江璟瑜. 基于ConvLstm的參數化建模及人體尺寸測量方法[J]. 信息技術, 2021(9): 89-94.

HAN N S, JIANG J Y. Parametric modeling and body size measurement method based on ConvLstm[J]. Information Technology, 2021(9): 89-94.

[22]CHEN D Y, SONG Y Y, LIANG F Z, et al. 3D human body reconstruction based on SMPL model[J]. The Visual Computer, 2022, 39(5): 1893-1906.

[23]NAKAMURA K, KUROKAWA T. Analysis and classification of three-dimensional trunk shape of women by using the human body shape model[J]. International Journal of Computer Applications in Technology, 2009, 34(4): 278-284.

[24]許家巖, 匡才遠. 體表特征參數對遠程人體測量精度的影響[J]. 絲綢, 2019, 56(8): 36-45.

XU J Y, KUANG C Y. Influence of characteristic parameters of body surface on long-range body measurement precision[J]. Journal of Silk, 2019, 56(8): 36-45.

[25]夏夢, 杜弘志, 林嘉睿, 等. 基于關鍵點距離表征網絡的物體位姿估計方法[J]. 激光與光電子學進展, 2023, 60(16): 314-322.

XIA M, DU H Z, LIN J R, et al. Object pose estimation based on keypoint distance network[J]. Laser amp; Optoelectronics Progress, 2023, 60(16): 314-322.

[26]GU B F, SU J Q, KIU G L, et al. Pattern alteration of women’s suits based on ease distribution[J]. International Journal of Clothing Science and Technology, 2016, 28(2): 201-215.

[27]劉嘉文. 基于正交圖像的人體尺寸測量[D]. 武漢: 武漢紡織大學, 2021.

LIU J W. Dimension Measurement for Dressed Human Bodies via Orthogonal Image[D]. Wuhan: Wuhan Textile University, 2021.

[28]YAO T, MIN Y N, WANG J, et al. Classification of female body shape based on two-dimensional image and computer vision technology[J]. Textile Research Journal, 2023, 93(19/20): 4383-4391.

[29]景曉寧, 李曉久. 樸素貝葉斯算法在女童體型判別中的應用[J]. 紡織學報, 2017, 38(12): 124-128.

JING X N, LI X J. Application of Naive Bayesian method in girl’s figure discrimination[J]. Journal of Textile Research, 2017, 38(12): 124-128.

Discriminating the fit of women’s suits based on 2D human body image feature learning

ZHANG Chi, WANG Xiangrong

YAO Tonga,b,c, MIN Yueninga, WANG Juna,b, SUN Jianmeic, PAN Lia,b

(a.School of Fashion; b.National Demonstration Center for Experimental Fashion Design and Engineering Education;c.School of Textile and Material Engineering, Dalian Polytechnic University, Dalian 116034, China)

Abstract:

Garment fit evaluation is one of the main bottlenecks in current fashion design and manufacturing. In the process of remote customization and online shopping, the size of the clothes that does not fit has become the primary reason for users to return or exchange them, which has seriously affected the intelligent upgrade of the clothing industry. Therefore, how to judge the fit degree of a garment without actually trying it on is one of the main problems that needs to be solved urgently in the clothing industry. In previous studies, garment fit was usually evaluated by some characteristic indexes, such as ease allowance, clothing wrinkle, the spatial relationship between clothing and the human body, and clothing pressure. However, most of them have some problems such as the need to try on clothes and the complicated evaluation process, which are not suitable for remote customization of clothing and online shopping. With the development of computer vision and machine learning technology, a small number of scholars use 2D images to judge garment fit based on clothing wrinkle, but only for specific garments, and the generalization ability is weak.

To solve the problem that garment fit cannot be discriminated in advance in the process of remote customization and online shopping, this study took women’s suits as an example and put forward a method to discriminate the fitness of women’s suits based on 2D human images. Firstly, 2D images and 3D human body size of 462 young women aged 18-25 in northeast China were collected, and a human body data set was established. Twenty-two samples were selected from this data set, and virtual models were established for virtual try-on by using CLO3D software. According to the national clothing size standard of China, 10 virtual women’s suits with the same style and different sizes were made to establish the garment data set. Based on the principle of Kansei engineering, the fitting evaluation labels of women’s suits, namely tight, fit and loose types were given by expert evaluation method combined with virtual fitting. Then, a method to discriminate the fit of women’s suits by using garment features and 2D human image features was proposed. As for the garment features (GFs), the bust girth and length characteristics of women’s suits, the features of 2D human body image including the key point distance features (DFs) and overall features (OFs) were extracted. The specific extraction method is as follows. Firstly, the 2D human body image was preprocessed and normalized, and the human body contour was extracted by Canny edge detector, and the five DFs in the 2D human body image were obtained, namely the distance of chest thickness key points distance, waist thickness key points distance, hip thickness key points distance, waist width key points distance and hip breadth key points distance. Then, three OFs of the 2D human body image were extracted, namely, the body height pixel value feature (H), the feature of the projected unit area (ρ), and the feature of the projected area ratio of the front and side of the human body (C). Finally, the Bayesian classifier was used to establish the garment fit prediction model, and the Fisher linear discriminant function was used to establish the women’s suit fit discriminant equation. In this paper, computer vision technology was used to extract the feature indexes of garment fit evaluation, and a machine learning algorithm was combined to realize the women’s suit fit discrimination based on 2D human body images. Experimental results indicate that, the garment features proposed in this paper and the 2D human body image features based on computer vision technology can be used to predict the fit of women’s suits, and the discriminant model of women’s suits based on the Bayesian algorithm has achieved good discriminant accuracy, and the cross-validation discriminant accuracy rate can reach 84.8%, so the model is valid.

The women’s suit fit discrimination model based on 2D human image feature learning provides an effective and feasible method for garment fit in fashion design, production, manufacturing, and online shopping. This method provides a theoretical basis for the quantitative evaluation of garment fit and is beneficial to the recommendation of clothing size and the improvement of patterns in clothing customization enterprises and online shopping.

Key words:

2D human body images feature; computer vision; machine learning; women’s suit; garment fit; Bayes model

猜你喜歡
特征評價
抓住特征巧觀察
SBR改性瀝青的穩定性評價
石油瀝青(2021年4期)2021-10-14 08:50:44
中藥治療室性早搏系統評價再評價
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
基于Moodle的學習評價
關于項目后評價中“專項”后評價的探討
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 亚洲人成在线精品| 999福利激情视频| 国产精品片在线观看手机版 | 日本国产一区在线观看| 亚洲成a人片7777| 黄色成年视频| 无码人中文字幕| 日本高清免费一本在线观看 | 一本色道久久88综合日韩精品| 色亚洲成人| 久久狠狠色噜噜狠狠狠狠97视色 | 毛片三级在线观看| 色屁屁一区二区三区视频国产| 黄色网址免费在线| 国产成人精品高清在线| 天天综合色网| 亚洲精品无码日韩国产不卡| 好紧太爽了视频免费无码| 中文字幕在线观看日本| 久久亚洲黄色视频| 色综合激情网| 99热这里只有精品在线观看| 国产精品无码影视久久久久久久| 亚洲精品卡2卡3卡4卡5卡区| 欧美激情第一欧美在线| 亚洲国产成人综合精品2020| 久久国产精品麻豆系列| 亚洲国产天堂久久综合| 中文国产成人精品久久| 国产理论一区| 在线视频亚洲色图| 精品天海翼一区二区| 亚洲第一av网站| 国产呦精品一区二区三区下载| 婷婷亚洲视频| 成年人免费国产视频| 亚洲一级毛片| 国产精品欧美亚洲韩国日本不卡| 亚洲人成网站在线播放2019| 日韩福利在线观看| 粉嫩国产白浆在线观看| 欧美综合成人| 国产亚洲欧美日本一二三本道| 久久五月视频| 国产精品污污在线观看网站| 亚洲国产成人麻豆精品| 欧美中文一区| 大学生久久香蕉国产线观看| 国产肉感大码AV无码| 就去色综合| 手机看片1024久久精品你懂的| 国产日韩欧美在线视频免费观看| 毛片免费在线视频| 996免费视频国产在线播放| 伊人无码视屏| 精品视频免费在线| 无码精品国产VA在线观看DVD| 精品国产自在在线在线观看| 日韩中文无码av超清| 亚洲日韩每日更新| 国产日韩欧美在线播放| 国产欧美日韩另类| av在线人妻熟妇| 欧美国产精品拍自| 日本一区二区三区精品国产| 最新国产你懂的在线网址| 中国精品久久| 久久精品这里只有国产中文精品| 在线国产毛片| 久久综合色天堂av| 成人福利在线免费观看| 久久a毛片| 华人在线亚洲欧美精品| 亚洲最新网址| 一本一道波多野结衣一区二区| 成人夜夜嗨| 亚洲天堂网视频| 亚洲天堂区| 国模极品一区二区三区| 日韩精品毛片人妻AV不卡| 园内精品自拍视频在线播放| 久久99精品国产麻豆宅宅|