楊華
(陜西工業職業技術學院 化工與紡織服裝學院, 咸陽 712000)
隨著智能手機和購物Android應用程序的出現,網上購物已經有了很大的發展。當前利用互聯網購物可以讓人們可以享受一個舒適的購物感覺,避免了路上、停車、實體店選取物品所造成的時間浪費,因此互聯網徹底改變了購物行為,網上購物已經變成了當前主流的購物模式。然而在實際購物過程中的一個主要問題就是目標產品的選取,這就存在大量產品的選取過程。尤其在購買女士服裝時問題會變得更為明顯,如購買連衣裙有多種顏色、圖案以及不同的長度,這使得個人主觀匹配和最終決定購買成為一項具有挑戰性的任務[1];面對該類問題本文提出了一種方法,即用戶將圖像作為查詢而不是一組描述著裝的關鍵詞,然后通過識別衣服的長度和袖子的類型來確定衣服的樣式——無袖、半袖或全袖,并且將顏色和紋理作為其它選取條件。
根據對購物引導的需求,按照多特征設計的要求需設計智能購物系統總體框架,用戶可以使用該框架生成感興趣的服裝圖像,在該框架的幫助下,用戶根據自己的特征在數據庫中找到相似的服裝,系統所提出的框架,如圖1所示。

圖1 服裝檢索系統框架
包含預處理、特征提取和分類三個階段。在本節中,將詳細描述框架中的各個階段,為尋找匹配的服裝提供了一個自操作過程,并在女裝數據集上給出了很好的檢索和識別結果。
下面對各階段進行詳細介紹:
(1) 預處理階段
在這一步中,首先通過使用Viola Jones算法刪除頭部部分來計算感興趣的區域,每個識別出的人臉的比例和相對位置被用來預測臉周圍的包圍盒。
(2) 特征分類階段
在提出的方法中,根據衣服的長度和袖子對其進行分類。使用水平投影直方圖[2]來找出裙子的長度,這里的用法是找到衣服的頂部和底部。在圖像二值化之后,得到了服裝的上下界。上界和下界之間的空隙被稱為上半身連衣裙的長度,下身衣服的長度可以計算為從下界到圖像末端的長度,為了將裙子的長度歸為長、短、中,通過設置對裙子進行分類的閾值來計算上半身和下半身的比例。
和衣服長度一樣,袖子也分為3種類型——無袖、整袖和半袖。初步的手工標注是用來了解衣服的袖子。為了自動計算套筒長度,本文引入了一種算法,探討了在皮膚顏色像素的幫助下,袖長可以發現的想法,即可以通過膚色和服裝顏色的比例很容易地找出袖子的長度,如圖2所示。

圖2 袖子分類示意圖
(3) 特征提取階段
對于匹配服裝的檢測,與顏色和圖案設計相關的信息是非常重要的。因此,得到這兩個屬性,然后使用相似度測量技術來檢索匹配的服裝,正如CIELAB[3]所引導的那樣,CIELAB在定義圖像中的顏色信息方面具有精妙的能力,因此有利于評估不同圖像之間的區別。為了更好地匹配,本文將圖像的中心部分作為感興趣的區域。

模式:使用Gabor filter[4]提取模式的特征,Gabor濾波器通常是高斯函數乘以余弦函數發現在一定頻率和角度下的邊,為了提高效率,首先計算和存儲過濾器系列,表示如式(1)。
(1)
其中,x′和y′分別表示如下:
x′=xcosθ+ysinθ
y′=ycosθ+ysinθ
提取模式特征的特征向量的算法如下所示。為了比較圖像,選取兩個描述符向量的差值,并提供了一個距離值,數據庫圖像和目標圖像之間的相似度取決于距離,如果距離大,相似度就小,如果距離小,相似度就大。
特征組合:一件有特定設計/圖案的衣服可以有不同的顏色,這就是為什么在女性服飾搭配中圖案起著至關重要的作用。所以本文給圖案特征更多的權重而不是顏色,采用如下權重實現特征提取[5-6]。
Wg=1.7
Wc=1
(2)
(1)數據集
為了評估使用顯示社會中服裝圖像數據的1 000種方法的成功性,從各種在線購物網站——flipkart、jabong、snapdeal、voonik、shopper stop、myntra——準備了一組XX服飾的圖片。從集合中隨機選擇10%的圖像作為查詢,其余的圖像將在以后任意檢索。因為所有的服裝圖片都有清晰的背景,所以不需要圖像處理技術來提煉圖像,每個圖片的中心部分,也就是我們感興趣的區域(ROI),在去掉頭部和手的部分后會被裁剪出來,從而構建特征數據集合。
(2) 性能評價
通過系統的精確性和可回憶性有助于找出潛在的檢索,Recall計算系統的性能以檢索所有相關的模型,同時precision計算系統的性能以僅檢索相關的模型,他們的定義分別如式(3)


(3)
其中A表示檢索到的相關圖像的數量,B表示檢索到的不相關圖像的數量,C表示未檢索到的相關圖像的數量。
使用最佳F-score標準確定選取的準確性:
在衣服的選取過程中,P和R是像素相對于手工分割的地面真相的精度和召回率。通過式(3)可獲取F值為0.879,這在我們的F-score方法中顯示出了合理的準確性,它在1處達到了最佳值,在0點處最差。此外,通過對圖3的可視化檢查,可以肯定檢索結果是定性的。我們可以觀察到,該系統對相似顏色、圖案、服裝長度和袖子長度的相關服裝結果是可靠的,為采用特征匹配對三款不同風格的衣服樣本進行檢索,正確的和錯誤的獲取的衣服屬性分別用藍色的星星和紅色的星星來標記,如圖3所示。
利用Matlab 13a實現了該方法。每個查詢從數據庫中返回前10個圖像,然后使用式(1)計算精度值,使用式(3)計算平均精度。這一工作結果的平均精度為83%,這是指比其他方法更好的檢索結果。
用該方法求出的服裝長度和袖子長度,其性能與實際相符。服裝長度的平均精度為93%,說明該方法對服裝長度進行了分類,得到了最新的技術成果,本文所提出的袖子長度分類平均精度為89%。商業服裝圖像數據集的實證結果表明,與其他最先進的檢索方法相比,所提出的框架獲得了滿意的檢索結果,結果如圖4所示。

圖3 分類結果圖

圖4 檢測結果圖
對RGB、CIELAB和HSV顏色空間模型的結果進行了比較。結果表明,CIELAB顏色模型優于HSV和RGB顏色模型。
本文提出了一種非常新穎的方法來檢索和識別服飾,本文在對服裝形象的四個主要屬性進行提取和比較的基礎上進行了研究。這些特性包括顏色、圖案、服裝長度和袖子長度。根據目標圖像和數據庫圖像之間的相似性,對每個屬性進行評分。結果表明,基于本研究的系統在大多數情況下均運轉良好。