999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

服裝款式圖識別與樣板轉換技術研究進展

2021-01-05 02:51:30黃振華蔣玉萍鄒奉元
紡織學報 2020年8期
關鍵詞:分類信息

李 濤, 杜 磊,2, 黃振華, 蔣玉萍, 鄒奉元,2

(1. 浙江理工大學 服裝學院, 浙江 杭州 310018; 2. 浙江理工大學 浙江省服裝工程技術研究中心, 浙江 杭州 310018)

近年來,服裝CAD技術在款式設計、制板、放碼及排料等方面已得到廣泛應用[1]。以重復運算為主的放碼和排料模塊應用優勢明顯,但制板所需結構參數仍依賴于制板師對款式圖的主觀判斷,設計效率低且版型存在不確定性[2],因此,實現服裝款式圖到樣板自動轉換對提高制板效率,降低操作人員專業要求等具有重要現實意義。

目前,關于服裝款式圖到樣板自動轉換的研究主要集中在款式圖識別與樣板轉換2個層面[3]。款式圖識別研究通過提取服裝視覺特征實現計算機對圖像信息的識別,主要是特征參數識別與機器學習識別。前者將款式圖模型化處理,通過模型推理和判斷達到識別特征參數的目的,后者通過提取特征描述子進行分類優化實現類型識別。樣板轉換研究主要是通過建立轉換機制將識別的款式圖信息轉換為對應服裝樣板,其中參數化轉換是通過構建款式圖特征點、特征線與樣板之間的映射關系完成轉換,而匹配轉換則是通過圖像匹配技術建立款式圖與樣板之間的轉換機制。

本文從服裝款式圖出發,探究了樣板自動轉換的過程與方法,重點梳理了國內外關于款式圖識別和樣板轉換方面的研究,并對其優缺點進行比較分析。在此基礎上,進一步提出了未來可能的研究方向和發展趨勢,以期為服裝款式圖識別的樣板自動生成技術提供參考。

1 款式圖識別與樣板轉換

服裝款式圖作為真實服裝的一種平面效果表達,在服裝生產中起著重要的作用。目前,服裝樣板制作主要依靠制板師的自身經驗,從服裝款式圖及目標人體尺寸中提取款式信息及制板數據,建立相應規格尺寸表進行樣板制作。整個過程需要人工對款式圖信息進行解讀,例如款式圖中服裝寬松度的預測,包括胸圍、腰圍、臀圍等關鍵部位的松量處理,服裝相關廓形把握、比例及細部尺寸的確定等。這可能會由于制板師誤判或對設計意圖理解偏差,造成制定的規格尺寸不一定符合設計者要求[4],從而需要對樣板進行反復修正,降低了制板效率。

基于款式圖識別的樣板轉換研究主要是解決人工審視款式圖主觀性強的問題。通過計算機模擬人腦以識別款式圖信息,利用圖形學知識獲取服裝相關比例尺寸、寬松度等款式信息和制板數據,并結合專家經驗實現款式圖與樣板的轉換。這個轉換過程主要有2個問題需要解決:一是款式圖識別問題,即利用何種圖像處理技術獲取款式信息;二是樣板轉換問題,即怎樣構建合理的轉換模型,將識別的款式信息轉換為對應服裝樣板[3]。

2 服裝款式圖識別

款式圖大都以Adobe Illustrator矢量圖或者JPEG圖片格式存在,如何有效識別款式圖信息,合理提取制板結構參數對服裝樣板自動轉換具有重要意義。款式圖的識別方法主要有特征參數識別和機器學習識別。

2.1 特征參數識別

特征參數識別在將服裝款式圖模型化的基礎上進行推理和判斷,從而識別特征參數。丁敏敏等[5]以衣領為例,將款式圖識別轉化為對領座高、領面寬、領前造型線及領前造型線角度4個特征參數的識別。An等[6]針對翻領款式圖,提出一種基于領域知識的數學模型識別方法,采用霍夫變換將翻領輪廓線轉換為極徑(ρ)和極角(θ)參數進行表征,用K-means 聚類剔除不屬于C1、C2、C3、C4聚類的線段La和Lb,從而表示翻領中輪廓線和夾角之間的關系。該方法假設翻領4條輪廓線共點且對稱,通過直線檢測、角度選擇和曲線擬合3個步驟識別款式圖是否有翻領結構,從而建立基于共點和對稱判斷的翻領識別模型,共點識別步驟如圖1所示。董晨雪[4]利用MatLab圖像處理工具箱,通過編程實現了款式圖中衣長、袖長及胸圍、腰圍等測量數據的識別。

圖1 翻領模型識別步驟Fig.1 Lapel model recognition steps. (a) Line detection; (b) Angle selection; (c) Curve fitting

通過特征參數識別款式圖信息可得到有效的制板數據,但識別過程較為復雜,在實際應用中無法快速有效地創建參數模型[7]。研究對象也大都為造型簡單的款式,對于復雜款式圖,計算量大且易造成錯誤識別。

2.2 機器學習識別

目前,機器學習識別主要集中在特征提取和分類器優化2個方面。在特征提取方面,由于款式圖大多由曲線組成,沒有紋理和顏色特征[8],通常采用基于區域或輪廓的形狀描述子表征款式圖信息[9]。在分類器優化方面,采用相似度測量、K-means 及模糊聚類等無監督方法,以及極限學習機(ELM)、 支持向量機(SVM)等有監督分類方法。

在款式圖識別中,李東等[10]采用傅里葉描述子中低頻分量表征款式圖總體形狀特征,高頻分量表征細節特征,并結合SVM進行識別。此方法速度快,但要求有準確的邊緣檢測算子。An等[8]對款式圖識別中不同類型的形狀描述子、降維方法及分類器進行比較,提出一種集成化的識別方法。針對單一特征識別率低的問題,Hou等[11]融合Hu不變矩和傅里葉描述子提取形狀特征,進而提高識別率。雖然上述研究能夠較好地實現款式圖識別,但大都聚焦于服裝外部廓形,對外部形狀區別不明顯的款式圖識別效果較差。

針對款式圖中相似外形難以識別的問題,吳歡等[12]將深度學習引入款式圖識別中,利用卷積神經網絡(CNN)相互交替的卷積層和池化層從圖像中自動提取形狀特征,通過反向傳播算法不斷逐層更新權值,采用梯度下降法并改進全連接層參數來提高相似款式的識別準確率。由于CNN中池化層對空間位置變化不太敏感,調整款式圖拉鏈、口袋或圖案位置等細部變化對識別結果影響不明顯,而這直接影響樣板轉換精度[13]。近年來,對空間位置敏感的膠囊神經網絡(capsule neural network)受到學者們的關注[14],通過將神經元標量替換為向量,以動態路由選擇算法代替最大池化在神經網絡內部知識表達中建立層次關系,用以學習物體的位移、旋轉等位置信息,進而更準確地識別服裝款式信息。

上述研究均是在有效學習款式圖特征基礎上進行的分類識別,對不同類型款式圖均有很高的魯棒性,但一個具備良好識別能力的分類器或深度學習模型,前期需要大量準確的服裝標注信息作為機器學習的訓練集,數據太少或網絡深度不夠均會導致過擬合或欠擬合問題。

3 基于款式圖識別的樣板轉換

根據款式圖信息完成樣板轉換主要有參數化和匹配轉換2種技術,前者主要利用幾何和尺寸約束進行參數化轉換,后者通過對款式圖與樣板之間匹配關系的研究實現樣板轉換[15-16];但上述方法均建立在款式圖識別基礎上實現樣板轉換。

3.1 參數化轉換

服裝款式圖可看作由一系列圖元組成,而每個圖元都可通過位置、大小及其他特征參數進行描述[17]。通過識別圖元特征參數,與樣板相應控制點建立映射關系,結合制板規則(如松量分配等),生成與款式對應的參數化樣板[18]。

在樣板參數化轉換方面,相關學者通過對襯衣的平鋪狀態及其空間結構進行分析,總結出款式圖特點及分解依據[19],并以此建立了款式圖尺寸數據與制板數據之間的映射關系,通過樣板中關鍵點坐標信息參數化生成對應服裝樣板[20]。王燕珍等[21]參照標準人體比例構建了0.9/18(圖距/實距)的比例模型,完成款式圖數據與制板尺寸數據的轉換。其中:在長度方面,依據款式圖的長度確定;圍度方面,首先模糊判斷款式與人體的貼合程度及外輪廓屬于T型、A型等服裝廓形,再根據人體與服裝之間的圖距進行數據轉換;其他細部尺寸獲取方法與控制部位的獲取方法相似。根據比例模型,逐步從平面款式圖轉換為繪制樣板所需的控制部位及細部尺寸,然后參數化繪制對應樣板,轉換數據如表1所示。

表1 款式圖與樣板之間的數據轉換Tab.1 Data conversion between garment flat and pattern cm

劉肖等[16]以衣袖為例,首先識別款式圖信息,獲取關鍵點坐標信息,然后確定款式圖相關控制點與實際樣板中相關控制部位的映射關系,得到初步的樣板框架。在此基礎上利用幾何關系計算B樣條曲線的控制點坐標,完成對前后袖山弧線及前后袖窿弧線的構造,成功實現了款式圖與樣板之間的參數化轉換,轉換步驟如圖2所示。

圖2 款式圖到樣板參數化轉換過程Fig.2 Parametric conversion process from garment flat to pattern. (a) Garment recognition; (b) Parametric conversion

上述研究表明,參數化轉換可很好地表征款式圖與樣板之間的一一對應關系,但不同款式圖需要建立各自的轉換規則。在實際應用層面,適用于款式結構較為固定的產品,如西服、襯衫等[22]。

3.2 匹配轉換

匹配轉換主要是通過對服裝款式圖及樣板進行數字化存儲,利用圖像匹配技術完成款式圖與樣板之間的轉換,從而實現對數據庫的有效管理、檢索及合理調用[23]。這種轉換方法巧妙地避開了樣板設計規則,可大大降低對專業的操作要求,從而實現樣板快速轉換。目前研究思路主要有基準樣板調用及樣板匹配2種方式。

3.2.1 基準樣板調用

在機器學習識別的基礎上,通過對服裝款式圖進行分類,依據分類結果匹配不同類別下的基準樣板,在此基礎上修改基準樣板完成轉換[16]。基準樣板調用示意圖如圖3所示。然而,樣板轉換的準確性主要依賴于款式圖分類結果。目前研究大都集中于款式的類別分類上,屬于粗粒度分類,只能得到樣板的基礎框架,忽略了款式圖細部要素,而這直接影響轉換準確率。

圖3 基準樣板調用示意圖Fig.3 Schematic diagram of basic pattern invoke

為解決上述細粒度圖像分類問題,詞袋模型[24]、視覺特征、深度學習[25]等方法被逐步引入。但這些方法主要針對通用圖像的細粒度分類,區別于通用圖像,服裝樣板轉換所需的細粒度特征更加精細,僅依靠傳統的細粒度圖像分類方法仍具有細部特征劃分不準確等問題。為此,Song等[26]通過構建服裝細粒度數據集,在多通道網絡[27]基礎上加入注意力機制,并構建新的高階可學習能量損失函數(HOLEF) 來增加分類準確率。這種方式通過引入注意力機制實現空間感知,且HOLEF函數提高了特征匹配魯棒性。該方法雖然提高了細粒度分類精度,但耗時增加了1倍,效率降低。

在細粒度分類策略上,Sun等[28]采用先類間再類內標注的思想發現,可通過縮小檢索范圍達到提升標注精度及速度的目的。Wang等[29]采用由粗到精策略,將頭部姿態分類劃分為粗分類和細回歸2個階段。通過共享GoogLeNet模型前21個卷積層,先粗分為4類以降低評估范圍。然后在每個類別上分別訓練回歸網絡實現細粒度回歸,從而完成姿態參數的準確評估,該方法在不增加模型復雜度的情況下,提高了分類準確性。

在基準樣板調用研究中,基于細粒度的部件分類結果更符合制板師思維,可根據相應的部件類別選擇對應原型樣板,且由于去除了無關因素,細粒度特征的魯棒性更高[30]。為此,Heisele等[31]在部件分類框架中通過組合分類器進行部件劃分,并實現了完全識別,證明了基于部件分類的優越性。近年來,Ak等[32]將基于強監督信息的細粒度分類模型Part-CNN引入服裝部件分類中,通過檢測袖/軀干部分之間的不連續點,分割出相互獨立的服裝部件。為將部件信息與CNN相結合,在深度學習網絡中,通過將部件視為先驗信息的情況下,修改最后的Softmax函數,完成基于Guided Part-CNN部件細粒度分類。這種方法包含具有更強判別性的局部特征,因此分類精度更為理想。

3.2.2 樣板匹配

上述研究通過對款式圖分類后進行基準樣板調用,實際上是完成了款式圖與樣板的多對一匹配。為實現樣板轉換中一一對應關系,在分別構建款式圖與對應樣板數據庫后,通過款式圖與對應樣板之間的映射匹配關系,完成樣板轉換。

在款式圖與樣板的匹配研究中,Lee等[15]通過奇點圖(shock graph)之間的相似度完成匹配,依據中軸變換算法獲取樣板區域骨架信息,通過相似度距離完成節點匹配。在此基礎上,為簡化骨架信息,采用PageRank分層去除方法判斷骨架細節層次,從而明確提取和分離出基本骨架和幾何骨架分支,計算公式[33]為

式中:I(ki)為骨架交點;kj為ki在骨架上第j個相鄰的關鍵點,二者在骨架分支上長度為L(ki,kj);kp為kj在骨架上第p個相鄰的關鍵點;m為骨架交點數量;n為相鄰關鍵點數量。

然而,款式圖與樣板分屬2個不同的維度空間,直接跨域匹配很容易造成過度匹配,在新的測試數據情況下產生不真實的結果。為此,Wang等[34]在服裝草圖、樣板與人體體型參數、三維著裝效果的跨域匹配研究中提出共享潛在空間這一概念,通過多通道匹配將不同領域的特征向量映射到共享潛在空間中,聯合訓練多重編碼-解碼網絡完成跨領域之間的相互匹配。經實驗證明,這種匹配方法效果較好。為減小跨域匹配的復雜性,孿生神經網絡框架(siamese network)受到相關學者的關注,其通過計算2個特征向量之間的距離表征輸入之間的差異[35]。將2張服裝草圖分別通過神經網絡映射為特征向量,使用特征向量之間的距離表征對應著裝效果的向量距離,成功實現了服裝草圖與著裝效果之間的匹配。

另一方面,在匹配關系的研究中,相關學者引入人工神經網絡[36]、模糊邏輯[37]等相關技術,但大都只是建立數據之間的匹配關系。Liu等[38]通過BP神經網絡建立人體關鍵部位數據與樣板尺寸之間的匹配關系,實現輸入人體部位數據即得到對應樣板尺寸。而Wang等[39]采用徑向基函數神經網絡(RBF) 建立易于測量人體的數據與樣板細部尺寸之間的匹配關系。雖然上述研究實現了服裝樣板生成時的數據依據,但并沒有實現自動生成[40]。借鑒這種想法,利用人工智能技術學習款式圖與樣板之間的對應關系進行樣板匹配成為樣板轉換的研究思路,如圖4所示。此處以誤差反向傳播神經網絡(BP-ANN) 為例,其中W為不同層之間的連接權值,b為神經元閾值。

圖4 樣板匹配轉換示意圖Fig.4 Schematic diagram of pattern matching conversion

款式圖和樣板均以圖片形式存在,無法直接通過數據訓練得到二者的對應關系。為此,叢芳等[41]將樣板數據化處理,以關鍵點坐標代替樣板圖進行訓練,并將映射生成的數據通過坐標連接轉換為對應樣板圖,從而實現數據與圖片匹配。

由于匹配轉換直接對款式圖和樣板進行圖像級處理,規避了樣板自身的設計規則,可很大程度上降低對制板師的依賴性,為智能化樣板生成提供新的思路。

4 結束語

目前,隨著服裝款式朝著多樣化、個性化方向發展,國內外學者在服裝款式圖識別與樣板轉換方面已取得一些研究成果。為快速、準確獲取對應服裝樣板,未來可從以下3個領域開展研究。

1)細化款式圖識別粒度。考慮款式屬性及所屬域問題,以及服裝內部結構信息對識別結果的影響,融合外部廓形和內部結構線特征,并結合膠囊神經網絡實現款式圖細粒度識別。

2)服裝款式圖面料參數樣板多領域跨域匹配。研究如何將面料力學性能融合到款式圖與服裝樣板匹配中。探究在多領域跨域匹配中如何訓練多模型編碼-解碼神經網格,完成服裝款式圖、面料性能參數、服裝樣板之間的映射匹配。

3)部件化樣板智能生成。根據服裝各部件對應的樣板形態和相對位置,構建生成式對抗神經網絡模型實現服裝整體樣板的智能生成。引入基于歐幾里得(L2)范數的局部樣板構造損失函數,保證完整樣板生成時其局部組建與對應部件的一致性。

FZXB

猜你喜歡
分類信息
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
給塑料分分類吧
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
信息
建筑創作(2001年3期)2001-08-22 18:48:14
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 在线视频亚洲色图| 性网站在线观看| 热久久综合这里只有精品电影| 夜夜操天天摸| 亚洲h视频在线| 九九九精品成人免费视频7| 国产高清在线精品一区二区三区| 国产Av无码精品色午夜| 怡春院欧美一区二区三区免费| 3344在线观看无码| 久久亚洲国产视频| 亚洲码一区二区三区| 最新国产高清在线| 亚洲A∨无码精品午夜在线观看| 国产精品 欧美激情 在线播放| 91欧美亚洲国产五月天| 中文字幕日韩久久综合影院| 国产真实乱人视频| 国产成人综合在线观看| 伊人大杳蕉中文无码| 欧美中文字幕一区| 国产真实二区一区在线亚洲 | 成年av福利永久免费观看| 欧美成人手机在线观看网址| 日日拍夜夜操| 国产成人精品一区二区免费看京| 精品人妻AV区| 亚洲中文字幕无码爆乳| 91国内外精品自在线播放| 成人91在线| 精品视频第一页| 日韩成人在线视频| 性激烈欧美三级在线播放| 国产网站一区二区三区| 亚洲无码高清一区二区| 欧洲极品无码一区二区三区| 日韩无码黄色网站| 午夜视频免费一区二区在线看| 色综合手机在线| 欧美a在线| 天堂在线亚洲| 人妻中文字幕无码久久一区| 国产欧美日韩视频怡春院| 国产精品久久久久久久久kt| 中文字幕久久精品波多野结| 五月天在线网站| 免费aa毛片| 亚洲swag精品自拍一区| 欧美成人a∨视频免费观看| 国产亚卅精品无码| 欧美在线黄| 手机在线免费毛片| 亚洲av无码专区久久蜜芽| 99热这里只有精品5| 伊人久久综在合线亚洲91| 91美女视频在线| 日韩在线2020专区| 午夜福利视频一区| 日本免费精品| 真人免费一级毛片一区二区| 制服丝袜 91视频| 国产99精品久久| 精品国产Av电影无码久久久| 一级一级特黄女人精品毛片| 一级香蕉视频在线观看| 精品三级在线| 日本在线视频免费| 中文字幕有乳无码| 久久亚洲国产最新网站| 亚洲成人精品在线| 美美女高清毛片视频免费观看| 日韩在线1| 亚洲欧美另类日本| 日本亚洲国产一区二区三区| 婷婷色中文网| 中文字幕亚洲第一| 久久婷婷五月综合97色| 精品国产成人a在线观看| 国产伦精品一区二区三区视频优播| AV老司机AV天堂| 亚洲一区二区三区国产精华液| 国产欧美精品午夜在线播放|