徐增波, 張 玲, 張艷紅, 陳桂清
(上海工程技術大學 服裝學院, 上海 201600)
利用圖像處理與識別技術,識別服裝圖像款式信息,代替人工進行款式檢索,可有效縮短檢索時間,提高效率,節約空間。但是,目前已有的服裝圖像特征提取技術較復雜,且分類方法效率低,不適用于服裝圖像款式的識別。為此,文章以服裝平面黑白色圓領款式圖為研究對象,通過構建復雜網絡方法來進行服裝款式圖輪廓的特征提取和描述,采用支持向量機(SVM)模型實現8種衣領類型圖像的識別。
近年來,復雜網絡理論在服裝特征提取處理方面的應用日益廣泛。Backes等[1]提取形狀邊界點構建復雜網絡,通過模型的動態演化以及特征提取,實現目標對象的形狀檢索。隨著研究的深入,許多研究學者基于復雜網絡的形狀描述提出改進方法。文獻[2]采用節點間的相對一致性距離替代傳統的歐氏距離作為邊的權重值,該方法對描述目標形狀具有更強的描述與識別能力。文獻[3-4]提出基于有向復雜網絡的形狀分析方法,即從經過k近鄰演化得到的不同時刻的有向子網絡中提取網絡特征來表征目標對象的形狀特征。
對服裝款式圖提取特征后需要對其進行分類和識別,分類的方法由最初構建函數模型和聚類分析發展到現有運用計算機技術的模式分類器。李東[5]對帶有紋理圖案的款式圖基于SVM分類器的傅里葉描述子和曲率特征模板匹配的方式進行款式圖識別,得到了較高的識別率;An等[6]運用極端學習機分類器來訓練分類進行過款式圖邊緣檢測的小波傅里葉描述子。綜上,當前還沒有適應性良好、分類準確率高和特征描述子全面的方法對服裝平面款式圖進行分類和識別。
本文先對圖像特征提取和描述現狀進行綜合分析,然后選擇黑白色圓領款式圖為研究對象,采用基于復雜網絡方法來進行服裝款式圖輪廓的特征提取和描述。
1.1.1 特征提取一般原則
特征提取一般原則通常按特征提取的評價標準:第一,它能準確地反映目標物圖像的獨特屬性、可區分性;第二,不同類型圖像的特征量之間要具備明顯的差別和獨立性;第三,提取的特征量要盡可能地避免冗余,以減少計算量,提高運算速度[7]。
1.1.2 特征提取的分類
對圖像的描述有很多種方法,例如圖像所具有的灰度特征、顏色特征、邊界特征、幾何形狀特征、結構以及紋理特征等[8]。根據這些可將圖像的特征具體分為以下幾類,如表1所示。

表1 圖像特征提取方法分類Tab.1 Classification of image feature extraction methods
復雜網絡是以眾多節點以及節點之間的關聯性與順序性描述目標對象幾何特點的網絡模型[9]。基于圖像特征,采用復雜網絡模型進行圖像描述與提取主要有3個步驟:構建初始網絡、閾值演化和特征提取。
構建復雜網絡基本流程包括確定網絡節點和構建初始網絡。
1)確定網絡節點。利用區域生長法從預處理后的圖像中分割得到衣領部件圖,再提取目標圖像的Canny算子邊緣并細化邊緣,最后進行均勻取樣,如圖1所示。

圖1 初始網絡的構建Fig.1 Initial network construction. (a) Target part;(b) Target edge; (c) Uniform sampling;(d) Initial network
2)構建初始網絡。將單位像素的目標邊緣圖像定義為S=[s1,s2,…,N],N為像素點個數。構建坐標系,得到各像素點坐標s=[xi,yi]。將N個像素點作為網絡節點進行兩兩連接(無向連接),得到初始網絡G0(V,E),E為所有連接邊的集合,如圖1所示。
初始網絡中,不同節點兩兩相連,形狀結構特征不明顯,無法用于目標對象的形狀識別。本文采用多距離閾值法,利用網絡結構隨距離變化的特性,實現初始網絡的動態演化,得到一系列子復雜網絡模型,演化過程1如圖2所示。

圖2 不同閾值的復雜網絡演化Fig.2 Complex network model evolution with different thresholds
具體算法實現過程:1)確定初始網絡節點坐標,獲取各節點之間的歐氏距離;2)距離的歸一化處理;3)設定不同的閾值t,篩選出符合設定條件的邊的集合。
由圖2可看出,閾值越大,符合條件的連接邊越多,網絡連接關系越復雜;反之,網絡連接關系越簡單。然而,閾值過大,會增加計算量,降低算法運行效率;閾值過小,無法獲取較多的網絡特征,影響目標對象的識別準確率,因此,篩選合適的閾值是動態演化的關鍵。
針對每個目標對象構建初始網絡,依次提取該網絡在t時刻的平均度、最大度、平均聯合度、熵、能量、平均聚類系數以及平均路徑長度,構建特征描述子,用矩陣表示如下:
其中,t0,t1,…,tmax∈[0,1],Kμtmax,Kmtmax,Ptmax,Htmax,Etmax,Ctmax,Ltmax分別表示該網絡在t時刻的平均度、最大度、平均聯合度、熵、能量、平均聚類系數以及平均路徑長度。平均路徑長度不具有尺度變換不變特性,不適用于圖像縮放識別,需要對其進行特征的歸一化處理,歸一化計算公式如下:
式中:Dij表示該網絡中任意2個節點之間最短路的最大值;N(N-1)/2為節點間的路徑的最大條數。
以一幅圓領圖像為例,閾值步長為0.05,得到20個演變后的子網絡,分別進行特征提取。由圖3可知:8個特征均隨著網絡的閾值演變呈遞增趨勢,其中,最大度在閾值為0.5左右趨于最大值;當閾值為0.05~0.6,能量變化較為平緩,隨著網絡結構逐漸復雜,其開始呈對數上升;局部聚類系數和全局聚類系數在初始閾值時,差異較大,其差異度隨著網絡的演化逐漸減小,并趨于重合,因此為降低算法運算量可二者取其一。

圖3 不同特征隨閾值變化趨勢圖Fig.3 Trend chart of different characteristics with threshold.(a) Maximum and average thresholds;(b)Average joint degree, entropy and energy threshold;(c)Local and global clustering coefficients and thresholds of average path length
款式圖部件分類是指將已有的款式圖片進行特征提取后,把相同或者相近的部件圖通過某種規則進行歸類,形成部件特征數據庫。目前圖像分類識別技術發展迅速,主要可分為3類:結構模式識別、統計決策識別以及基于人工神經網絡的識別[10-11]。考慮到服裝款式圖外部輪廓,本文在目前的研究基礎上采用基于支持矢量機(SVM)分類法對服裝部件特征庫進行分類。
模型構建主要包括以下3個步驟。
步驟1:選定訓練集和測試集。本文構建的衣領樣本庫有8個類別,每個類別60幅圖像,共480個樣本,統一進行類別編號。采用上述算法依次提取樣本的復雜網絡特征,構建樣本特征庫。隨機選取75%樣本作為訓練集,剩下25%作為測試集,進行分類實驗。實驗樣本如表2所示。

表2 實驗樣本類別與數量Tab.2 Type and number of experimental samples
步驟2:數據預處理。對訓練集和測試集數據進行歸一化處理,即將原始數據規整到固定區間范圍,以消除各特征數據間的數量級差異,提升模型的收斂速度和精度。常用的歸一化方法有以下2種:
[0,1]區間歸一化:
[-1,1]區間歸一化:
步驟3:支持向量機模式訓練與預測。首先利用訓練集樣本訓練得到分類模型,再利用所得分類模型對測試集樣本進行預測,分別借助LIBSVM工具箱的svmtrain函數和svmpredict函數實現。為選擇合適的核函數類型,利用訓練集進行10次預實驗,結果見表3。由表可知:采用線性核函數(linear)得到的平均分類準確率最高,故選擇線性核函數用于后續操作。

表3 實驗樣本類別與數量Tab.3 Type and number of experimental samples
本文基于構建的衣領部件樣本庫及其提取的圖像特征,構建8×60×140的樣本特征庫。采用主成分分析(PCA)算法對特征進行降維,選擇累計貢獻率為85%的主成分構成新的特征向量。隨機選取樣本的75%作為訓練集,剩下25%作為測試集進行預分類實驗,分類結果如圖4所示。

圖4 基于SVM的不同衣領類別分類圖Fig.4 Different category classification map based on SVM.(a) 2# and 3#;(b) 1# and 4#;(c) 3# and 8#;(d) 1#, 5# and 6#
由圖4可看出,不同類別之間存在明顯的分界,適用于采用SVM分類,分類效果理想。為保證分類結果的可信度,進行10次上述分類實驗,分類結果見表4。由表可知:10次實驗中樣本的平均整體分類準確率為98%;針對各類別而言,10次平均分類準確率均達到96%以上。其中,圓領的平均分類準確率為100%,平均分類準確率相對較低的為平駁領和戧駁領,平均分類準確率為96%。綜合考慮樣本的整體分類準確率與各類別分類準確率,均達到 96%分類。

表4 實驗樣本類別與次數Tab.4 Type and number of experimental samples
為評估本文特征提取算法的抗噪性能,參照文獻[9]通過對比原樣本庫的圖像與加入不同水平和類型的附加噪聲進行判定,以表2所示為實驗樣本,實驗方案如下:
方案1:分別對整個圖像加入噪聲密度為0.1、0.15和0.2的椒鹽噪聲, 如圖5所示。

圖5 不同特征隨閾值變化趨勢圖Fig.5 Trend chart of different characteristics with threshold.(a) Original image;(b) Noise 10%;(c) Noise 15%;(d) Noise 20%
方案2:分別對整個圖像加入方差為0.01、0.05和0.1的高斯噪聲,如圖6所示。

圖6 加入不同密度的高斯噪聲圖像Fig.6 Add Gaussian noise images of different densities.(a) Original image; (b) Variance 0.01; (c) Variance 0.05; (d) Variance 0.1
當加入不同密度的椒鹽噪聲時,分類準確率如圖7所示。可知:當椒鹽噪聲密度范圍為1%~20%時,本文方法的整體分類準確率在80%上下浮動;針對各類別而言,僅有襯衫領(5#)和平駁領(6#)的平均分類準確率受噪聲影響較大,其他類別隨著噪聲密度的增加,其分類準確率差異較小;當噪聲密度30%時,圓領(1#)分類準確率波動較大。

圖7 加入不同密度的椒鹽噪聲圖像分類準確率Fig.7 Add classification accuracy of different densities of salt and pepper noise images. (a) Overall classification accuracy of salt and pepper;(b) Average accuracy of salt and pepper classification
當加入不同方差的高斯噪聲時,分類準確率如圖8所示。可知:加入方差為0.05和0.1的高斯噪聲后,樣本整體的分類準確率均可以達到80%以上,且分類結果較穩定,但當方差為0.01,即噪聲密度最小時,其分類準確率最低;針對各類別而言,僅有圓領(1#)和平駁領(6#)的平均分類準確率受噪聲影響波動較大,其他類別受噪聲影響較小。

圖8 加入不同方差高斯噪聲圖像分類準確率Fig.8 Add different variance of Gaussian noise image classification accuracy.(a) Gaussian overall classification accuracy;(b) Gaussian average classification accuracy
分別采用本文方法、Hu不變矩[12]、梯度方向直方圖(histogram of oriented gradient,HOG)[13]3種特征提取方法獲取樣本特征,利用SVM進行10次分類實驗,結果如圖9所示。

圖9 本文方法與Hu不變矩、HOG分類準確率對比Fig.9 Comparison of classification accuracy of this method with Hu invariant moments and HOG.(a) Overall classification accuracy of the three methods;(b) Average classification accuracy of three methods
由圖可知:本文方法的整體分類準確率最高,HOG的特征提取方法次之;與其他2種方法相比,本文方法的10分類結果浮動較小,相對穩定;針對各類別而言,本文方法均高于另外2種方法,其中,3種方法對于1#(圓領)、2#(V領)、8#(戧駁領)3種類別的分類準確率均比較高。綜上所述,本文方法行之有效,且更加適用于衣領款式的識別與分類。
結合服裝衣領圖像特點提出一種基于復雜網絡提取和SVM分類的服裝領型研究。文章以服裝平面黑白色圓領款式圖為研究對象,首先通過構建復雜網絡方法來進行服裝款式圖輪廓的特征提取和描述,其次采用SVM模型實現8種衣領類型圖像的識別,結果表明本文樣本整體的平均分類準確率為98%,各類別的平均分類準確率均達到96%以上,分類結果理想。最后在評估本文特征提取算法的抗噪性時,加入一定程度的噪聲,本文方法具有較好的分類效果。同時將本文算法與Hu不變矩、HOG特征提取算法進行對比分析。實驗結果表明,本文算法在整體分類和各類別的平均分類的分類準確率均最高,且分類結果相對穩定;綜上所述,本文提出的基于復雜網絡的特征提取和SVM模型分類非常適用于服裝衣領款式圖像的提取與分類。