











摘" 要:針對服裝內部輪廓線對比度低、提取特征點和完整輪廓困難,導致圖像內部尺寸難以測量的問題,提出一種基于SAM模型進行部件分割提取內部尺寸的方法。首先通過SAM模型分割西裝領部件,然后將西裝領部件近似多邊形并利用LSD算法修正多邊形,最后建立西裝領結構模型并結合像素比例提取設計尺寸。結果表明:該方法可以從成衣圖像中提取西裝領款式結構圖并輸出相關數據,實驗測量結果與測量軟件相比尺寸的絕對誤差在0.02~0.74 cm之間,角度的絕對誤差在0.02°~0.27°之間;與實物測量相比,尺寸的絕對誤差在0.05~1 cm之間,角度的絕對誤差在0.06°~0.68°之間。該方法提取的西裝領細部尺寸可為制版師提供數據參考。
關鍵詞:西裝領;服裝部件分割;SAM模型;LSD算法;款式圖提取;尺寸測量
中圖分類號:TS94.17
"文獻標志碼:A
文章編號:1009-265X(2024)12-0083-07
DOI: 10.19398j.att.202403005
收稿日期:20240305
網絡出版日期:20240620
基金項目:國家級大學生創新創業訓練計劃項目(202210338032);浙江理工大學科研啟動基金項目(23072078-Y)
作者簡介:彭周艷(1998—),女,湖南常德人,碩士研究生,主要從事服裝數字化方面的研究。
通信作者:鄒奉元,E-mail:zfy166@zstu.edu.cn
西裝整體視覺效果受到多種因素影響,其中西裝領作為整體視覺的中心,是影響整體視覺效果最關鍵的因素[1]。而根據款式設計圖制作服裝樣板,對西裝領這樣的重要細部尺寸判斷,往往要依賴樣板師的經驗和多次試錯。機器視覺具有圖像再現好、處理精度高、靈活性強等特點[2],因此采用機器視覺來幫助確定西裝領細部尺寸有重要意義。
服裝尺寸的測量通常是需要先檢測服裝特征點,然后進行特征點間的距離測量。Cao等[3]采用邊緣檢測算法和基于輪廓的Freeman鏈碼角點檢測進行特征點檢測,進而測量尺寸;李鵬飛等[4]提出Harris算法和Susan算法相結合的角點檢測算法來提高特征點檢測的準確性。但傳統的特征點檢測算法存在特征點漏檢、錯檢、集簇的問題,因此相關學者通過引入機器學習來檢測特征點。Serrat等[5]考慮全局輪廓采用概率圖形模型學習識別服裝近直線化輪廓部件進而提取特征點,然后通過Lasso回歸預測服裝外輪廓尺寸。鄧瑩潔[6]及Kim等[7]采用深度學習的方法從二維圖像中提取服裝尺寸測量點;Paulauskaite-Taraseviciene等[8]提出基于U-Net分割模型,首先分割出服裝掩膜再通過深度學習檢測關鍵點完成服裝測量,這一方法大大提高了檢測精度。但上述研究只關注了服裝外輪廓尺寸,未探討內輪廓尺寸。為解決這一問題,王燕珍[9]采用定位法將服裝圖像映射到標準人體模型上,借助標準的參數網格利用比例關系獲得內部尺寸;Li等[10]通過形狀匹配定位預設服裝模板內外特征點的相對位置來計算內部尺寸,其中預設的服裝內部特征點為測量大量服裝后總結而來,測量絕對誤差在0.36~2.03 cm。雖然上述方法實現了內輪廓尺寸測量,但測量誤差還不夠理想。
由此,本文提出一種在控制尺寸下基于Segment Anything Model(SAM)[11]模型建立西裝領結構模型并提取設計尺寸的方法。該方法首先通過SAM模型分割西裝領部件,先分割可減少周圍紋理的影響,提高邊緣精度;然后將西裝領部件近似多邊形并利用Line Segment Dectctor(LSD)[12]算法修正,保留關鍵特征點;最后建立西裝領結構模型并結合像素比例提取設計尺寸。該方法可提取出西裝領設計尺寸,為制版師提供數據參考。
1" 實驗
西裝領尺寸測量分為三步,第一步基于SAM模型對西裝領部件分割,得到西裝領各部件掩膜;第二步將西裝領部件輪廓多邊形化并調整建立西裝領結構模型;第三步,測量西裝領設計尺寸。
1.1" 實驗對象
西裝領型主要有平駁領、戧駁領、青果領,由于青果領參數較為簡單,暫不做討論。本文選擇平駁領、戧駁領作為實驗對象進行尺寸提取。西裝平鋪圖如圖1所示。
1.2" 西裝領部件分割
針對內部輪廓提取有雜線、不連續的問題,本文采用SAM模型對西裝領翻領、駁領、領座部件依次進行交互式分割,從而更好地提取西裝領內部輪廓線。SAM模型基于Transformer架構搭建,具有較強零樣本泛化能力,由圖像編碼器、提示編碼器和一個輕量級的掩碼解碼器3部分組成,模型原理如圖2所示。
實驗采用點框結合的方式,通過輸入提示框確定前景,輸入提示點確定背景,提示信息以位置編碼的形式輸入提示編碼器,然后圖像編碼器和提示編碼器將提取的信息結合到掩碼解碼器中,生成基于圖像嵌入、提示嵌入和輸出的西裝領部件分割結果,并選擇預測得分最高的分割掩膜進行輸出,分割效果如圖3所示。
1.3" 西裝領模型建立
1.3.1" 西裝領部件輪廓多邊形化
將西裝領輪廓部件近似多邊形提取關鍵特征點。Douglas-Peucker(DP)[13]算法可以將輪廓以簡單、高效的方式進行近似處理,保留較少的關鍵點,同時保持輪廓的形狀特征。因此采用DP算法對輪廓進行近似處理,算法原理如下:
a)步驟1:在圖像輪廓中尋找最遠距離點,連接最遠點P1P8(見圖4(b))。
b)步驟2:找到圖像輪廓上離直線段P1P8距離最遠的點P3(見圖4(c)),計算其與直線段P1P8的距離d,比較距離d與預先設定閾值的大小,如果小于閾值,則該直線段作為曲線的近似,該段曲線處理完畢。
c)步驟3:如果距離大于閾值,則用P3將曲線分為兩段P1P3和P3P8,重復上述操作(見圖4(d)),直到滿足閾值要求。
由DP算法原理可知,圖像輪廓近似多邊形的效果與設定的閾值有關,經反復實驗,將輪廓周長的0.02倍作為閾值時近似多邊形效果符合要求,可在保留較少關鍵點的同時保持輪廓形狀特征。圖5為西裝領部件多邊形化結果,圖5(a)—(d)分別為平駁領、戧駁領翻領部件和駁領部件多邊形化結果。
但是采用DP算法對戧駁領駁領部件近似多邊形時損失了關鍵頂點,如圖6所示。根據DP算法原理,在對輪廓近似處理時,首先連接圖像輪廓最遠點P1、P2點,結果如圖6(c)所示;接著在輪廓中尋找距離弦P1P2的最遠點,即點M,結果如圖6(d)所示;最后通過閾值約束得到了如圖6(b)所示近似結果,從圖6(a)中可以觀察到,戧駁領駁角呈現為有略微弧度的角,而以點M為駁角頂點并不能概括駁角形狀。
1.3.2" 輪廓多邊形調整
為了減少測量誤差,更正M點的坐標來修正多邊形。具體的修正流程如圖7所示。
首先,利用LSD算法對掩膜圖像進行直線段檢測,LSD算法具有結果準確,算法參數能夠自適應,且適合檢測短線段的優點[14],因此采用LSD算法檢測輪廓直線段。得到直線檢測結果如圖8(a),過濾極短直線段后結果如圖8(b)所示。
接著,對過濾后的直線段集合進行幾何約束篩選出目標直線。第一步,對斜率進行約束,以圖像左下角作為坐標原點,篩選出斜率為負的直線;第二步,對距離進行約束,篩選出與圖6(b)中N點距離最近的直線。幾何約束的公式為:
klt;0(1)
d=dmin=AxN+ByN+CA2+B2(2)
式中:k為直線斜率,d為點到直線的距離,A、B、C為直線參數。
在篩選出目標直線后,需要確定新的多邊形頂點。沿著目標直線的垂線方向尋找圖像輪廓的外切線,與目標直線的交點為新的M點,更新M點,如圖8(c)所示,修正后的多邊形如8(d)所示。
1.3.3" 建立西裝領結構模型
將西裝領領座、翻領、駁領組合起來,構造西裝領結構模型。以戧駁領為例,首先在西裝圖像中標定衣長,得到相應控制點O、P,并以O點為坐標原點建立直角坐標系,接著定義翻領部件的關鍵點A、B、C、D1、E1,以及駁領部件的關鍵點D2、E2、F、G。由于分割或近似多邊形過程中產生的誤差導致共點的D1、D2,E1、E2坐標值有略微差異,取D1、D2橫縱坐標的平均值為D點,E1、E2橫縱坐標的平均值為E點,標記結果如圖9(a)所示。領座部分提取輪廓后計算與O點橫坐標相同時,與輪廓的另一交點為Q。依次連接A-B-C-D-E,E-D-F-G點,各線段的直線表達式為:
y=yi-yjxi-xj(x-xi)+yj(3)
式中:i,j為A、B、C、D、E、F、G中的兩點。上下領座線可表示為開口向上的拋物線,已知上領座線頂點在原點,由A點坐標可求得上領座方程為:
y=yAxA2x2(4)
式中:xA為A點橫縱坐標;yA為A點縱坐標。下領座線可表示為上領座線向下平移的拋物線,平移單位為Q點縱坐標,則下領座線方程表示為:
y=yAxA2x2-yQ(5)
式中:yQ為Q點縱坐標。可得西裝領關鍵結構線的簡化輪廓如圖9(b)所示。
1.4" 測量
已知衣長的實際尺寸,將其作為控制尺寸來計算西裝領設計參數尺寸,通過計算OP的直線距離來計算相應的像素距離,得到測量比K,以此換算出其余像素距離的實際尺寸,公式為:
LOP=(xO-xP)2+(yO-yP)2(6)
K=LROPLOP(7)
式中:LOP為像素距離, LROP為衣長OP的實際距離。
參考文獻[1]和制版參數要求,對西裝領的設計尺寸進行定義輸出,設計尺寸為影響西裝領外觀造型的尺寸,因此其他因素如領座寬、松量、面料等未考慮在內,主要從款式圖中讀取以下指標:西裝領翻折線角度、串口線與翻折線夾角、駁口與串口線夾角、翻駁夾角、串口線長度、駁口寬、前領寬、駁止點到衣底邊垂直距離、串口線與翻折線的交點到駁止點的垂直距離、駁頭寬。測量示意圖如圖10所示,即分別求圖中角度∠EGH、∠DEG、∠EDF、∠CDF,距離DE、DF、CD,以及點G、P和點E、G在y軸方向的垂直距離,△FGE底邊為EG時的高。利用坐標關系和三角函數可求得這些參數的像素距離和角度,駁頭寬則通過應用海倫定理求解。
2" 驗證
為了驗證測量數據的準確性,在能對圖像進行精密測量的Digimizer軟件上進行手工測量,并對西裝實物進行測量。為減少人工誤差,測量結果均為測量3次后的平均值,結果如表1。
通過本方法測量的尺寸與測量軟件相比,絕對誤差在0.02~0.74 cm之間,相對誤差在0.50%~6.82%之間;角度測量絕對誤差在0.02°~0.27°之間,誤差較小;與實物測量相比,尺寸的絕對誤差在0.05~1 cm之間,相對誤差在0.96%~4.37%之間,角度的絕對誤差在0.06°~0.68°之間。實驗誤差在1 cm內滿足服裝測量的標準。其中誤差最大的兩個測量部位為駁止點到衣底邊的垂直距離和串口線與翻折線交點到駁止點的垂直距離,原因是靠近駁止點的駁領區域面積過小,算法無法完全捕捉到駁止點的邊界,從而產生了一定的誤差,導致駁止點到衣底邊的垂直距離測量值偏大,而串口線與翻折線交點到駁止點的垂直距離偏小。
3" 總結與展望
本文提出了一種從服裝實物圖中提取西裝領款式參數信息的方法,首先使用SAM模型分割出西裝領部件,然后對部件近似多邊形并通過LSD算法修正多邊形,建立西裝領結構參數模型并提取了主要的設計尺寸,主要結論如下:
a)通過SAM模型對西裝領部件分割,得到了西裝領翻領、駁領和領座的掩膜。
b)利用LSD算法和幾何約束調整西裝領部件多邊形結果,通過一次函數和拋物線構建了西裝領結構參數模型。
c)對西裝領的主要設計尺寸進行了測量,結果表明,與測量軟件相比,尺寸的絕對誤差在0.02~0.74 cm之間,角度的絕對誤差在0.02°~0.27°之間;與實物測量相比,尺寸的絕對誤差在0.05~1 cm之間,角度的絕對誤差在0.06°~0.68°之間,測量誤差滿足服裝測量的標準。
本文研究結果可為制版師提供西裝領的設計尺寸參考,提高款式到樣板的轉換效率。另外,由于SAM模型為零樣本泛化模型,本文思路可泛化應用在其他部件或服裝的尺寸測量上。然而,本文所測得尺寸為平面尺寸,并不是服裝樣板實際尺寸,因此還需要在后期研究中探究兩者之間的映射關系,并進行進一步的修正調整。
參考文獻:
[1]LIN K, LIU K. Research on parametric design of men's suit lapel based on knowledge[J]. International Journal of Clothing Science and Technology, 2023, 35(5): 698-714.
[2]周奕涵, 徐一諾, 李濤, 等. 基于PSO-LSSVM算法的臉型與男西裝領型適配性研究[J]. 絲綢, 2023,60(12):92-98.
ZHOU Yihan, XU Yinuo, LI Tao, et al. Research on the adaptation of face shapes and men's suit collar types based on PSO-LSSVM[J]. Journal of Silk, 2023,60(12):92-98.
[3]CAO L, JIANG Y, JIANG M. Automatic measurement of garment dimensions using machine vision[C]//Interna-tional Conference on Computer Application and System Modeling (ICCASM). Taiyuan, China. IEEE, 2010: 30-33.
[4]李鵬飛, 鄭明智, 景軍鋒. 圖像處理在衣服尺寸在線測量中的應用[J]. 電子測量與儀器學報, 2016, 30(8): 1214-1219.
LI Pengfei, ZHENG Mingzhi, JING Junfeng. Application of image processing in on-line clothes size measurement[J]. Journal of Electronic Measurement and Instrumentation, 2016, 30(8): 1214-1219.
[5]SERRAT J, LUMBRERAS F, RUIZ I. Learning to measure for preshipment garment sizing[J]. Measurement, 2018, 130: 327-339.
[6]鄧瑩潔,羅戎蕾.基于卷積神經網絡的半身裙款式特征分類識別[J]. 現代紡織技術,2021,29(6):98-105.
DENG Yingjie, LUO Ronglei. Classification and recognition of bust skirt style and common features based on convolutional neural network[J]. Advanced Textile Technology,2021,29(6):98-105.
[7]KIM S, MOON H, OH J, et al. Automatic measurements of garment sizes using computer vision deep learning models and point cloud data[J]. Applied Sciences, 2022, 12(10): 5286.
[8]PAULAUSKAITE-TARASEVICIENE A, NOREIKA E, PURTOKAS R, et al. An intelligent solution for automatic garment measurement using image recognition technologies[J]. Applied Sciences, 2022, 12(9): 4470.
[9]王燕珍. 服裝款式識別數字化表現原則[J]. 紡織學報, 2007, 28(12): 94-98.
WANG Yanzhen. Digital principles for identification of garment styles[J]. Journal of Textile Research, 2007, 28(12): 94-98.
[10]LI C, XU Y, XIAO Y, et al. Automatic measurement of garment sizes using image recognition[C]// Proceedings of the 1st International Conference on Graphics and Signal Processing. Singapore Singapore. ACM, 2017: 30-34.
[11]KIRILLOV A, MINTUN E, RAVI N, et al. Segment anything[C]//IEEE/CVF International Conference on Computer Vision (ICCV). Paris, France. IEEE, 2023: 3992-4003.
[12]XU C, DOU J, FENG Z. Positioning laser line detection algorithm of construction robot based on LSD and improved least squares method[C]//29th International Conference on Mechatronics and Machine Vision in Practice (M2VIP). Queenstown, New Zealand. IEEE, 2023: 1-6.
[13]HUANG S, WANG Y, XIAO Y, et al. Machine vision based transformer insulation pad identification detection[C]//8th International Conference on Intelligent Compu-ting and Signal Processing(ICSP). Xi′an, China. IEEE, 2023: 184-188.
[14]LIN X, ZHOU Y, LIU Y, et al. A comprehensive review of image line segment detection and description: Tax-onomies, comparisons, and challenges[J]. IEEE Transa-ctions on Pattern Analysis and Machine Intelligence, 2024, 99: 1-20.
A size measurement method for suit collar design based on a SAM model
PENG" Zhouyana," MA" Linga," SU" Huimina," PAN" Yitinga," ZOU" Fengyuana,b,c
(a.School of Fashion Design amp; Engineering; b.Key Laboratory of Silk Culture Heritage and Products
Design Digital Technology, Ministry of Culture and Tourism; c.Zhejiang Provincial Research Center
of Clothing Engineering Technology, Zhejiang Sci-Tech University, Hangzhou 310018, China)
Abstract:
As the center of the overall visual effect of a suit, the suit collar is the most crucial factor that affects the overall visual impression. In creating clothing patterns based on design sketches, the judgment of important detailed dimensions like the suit collar often relies on the experience of pattern makers and their repeated trials and errors. Therefore, using computer vision to assist in determining the detailed dimensions of the suit collar is of great significance. However, current research on clothing measurement mainly focuses on measuring the outer contour dimensions, with unsatisfactory results for measuring the internal contour dimensions.
Low contrast in the internal contour lines of clothing makes it difficult to extract feature points and complete contours and further results in the difficulty of measuring internal dimensions from images. To address this issue, a method based on the SAM model for segmenting components to extract internal dimensions was proposed. Firstly, the SAM model was used to segment the suit collar components to improve the edge accuracy. Next, the DP algorithm was used to approximate the suit collar components into polygons, and the LSD algorithm and geometric constraints were employed to correct the errors generated during the polygon approximation process. Finally, a structural model of the suit collar was established by incorporating pixel ratios to extract relevant data.
Three main conclusions are drawn. First, by segmenting the suit collar components with the SAM model, the masks of lapel, reverse collar and collar stand were obtained. Second, by using the LSD algorithm and geometric constraints to adjust the suit collar component polygon result, a suit collar structural parameter model through linear and parabolic functions was constructed. Third, the main design dimensions of the suit collar were measured, and the results showed that compared with the measurement software, the absolute error of dimensions ranged from 0.02 cm to 0.74 cm, and the absolute error of angles ranged from 0.02° to 0.27°. Compared with the physical measurement, the absolute error of dimensions ranged from 0.05 cm to 1 cm, and the absolute error of angles ranged from 0.06° to 0.68°. The measurement error met the standards for clothing measurement.
This method can provide pattern makers with reference dimensions for the suit collar, enhancing the efficiency of transitioning from design to sample. The dimensions obtained in this study are plan view sizes and not the actual dimensions of the clothing sample. In future studies, the mapping relationship between the two will be further explored to make corrections and adjustments.
Keywords:
suit collar; garment parts' segmentation; SAM model; LSD algorithm; style drawing extraction; size measurement