999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的服裝圖像識別分析

2022-10-20 04:58:02韓豐澤
西部皮革 2022年19期
關鍵詞:關鍵點特征提取分類

韓豐澤

(陜西服裝工程學院,陜西 西安712046)

引言

圖像識別與分類技術是現階段計算機視覺領域的重要構成部分,而深度學習技術從人工神經網絡概念提出至今經歷了多次大起大落,隨著基于深度學習的圖像識別競賽中超越人類識別準確率,再加上大數據的廣泛普及與推廣得以迅速發展[1]。在數字圖像處理技術高速發展推進下,部分科技公司逐步推陳出新了以圖搜圖技術,現階段百度與谷歌等公司均研發了具備一定搜圖功能的軟件與產品。在服裝圖像搜索與應用中,淘寶、唯品會等App 也推出了以圖搜圖功能,但是總體而言受各種因素影響,當前各式各樣方式所獲取的服裝圖像分類結果均不夠理想化,特別是搜索的圖像中還存在一定的遮擋和復雜背景,再加上圖像質量較差,致使檢索結果差強人意。

1 服裝圖像識別方法

服裝圖像識別與分類的本質在于通過圖像特征與分類模型明確服裝類別,常用服裝圖像識別方法主要有傳統方法與深度學習方法[2],具體如圖1 所示。

圖1 服裝圖像識別與分類方法

2 基于傳統方法的服裝圖像識別與分類

圖像特征提取即通過計算機技術由圖像內提取可表達圖像特性的數據,基于處理分析生成計算機可理解的圖像的非圖像表示的過程。圖像特征提取與分類識別算法精確度息息相關[3]。

2.1 全局特征提取

其一,顏色特征提取。圖像顏色特征的顯著特性為直觀且穩定,對于平移與旋轉等變換的感知不夠靈敏。顏色特征實際上就是以像素或者區域為載體對于圖像的顏色加以描述與表達,具體劃分為顏色直方圖、顏色矩、顏色集等等。其中顏色直方圖闡述了不同顏色在圖像中所占據的比例,但是不能呈現顏色間的位置關聯性;顏色矩通過矩表示圖像全部顏色,其一般在其他顏色特征提取前進行范圍縮小。目前通過傳統顏色特征,有學者提出了新型顏色特征,也就是級聯顏色矩,其將圖像空間信息添加于顏色特征內,級聯顏色矩則基于級聯各塊顏色矩得以生成。此外,有學者提出了服裝圖像預處理程序,包含直方圖均衡、前景提取、圖像服裝區域尺寸歸一化處理。

其二,形狀特征提取。圖像形狀特征提取時,以所提取信息范圍可劃分為輪廓特征與區域特征兩種。在服裝圖像識別時,形狀特征切實應用于服裝款式識別,經典形狀特征闡述方法主要包含邊界特征法與傅里葉形狀描述符法等等。其中邊界特征法本質在于以邊緣檢測提取圖像內形狀的邊界特征,其盡量忽視形象邊界之外的相關信息,最終只保留可呈現圖像內形狀邊界的閉合曲線。

其三,紋理特征提取。服裝圖像中紋理特征可真實反映服裝紋路或者面料等有關信息。紋理特征提取方法主要包含統計分析法、結構分析法、信號處理法、模型法等等。其中統計分析法面向單獨像素及其相鄰像素的灰度屬性進行分析,具體即灰度共生矩陣、灰度差分統計等等,其優勢在于簡單且容易實現,而不足在于難以合理利用全局信息且計算復雜、消耗時間。結構分析法即明確定義紋理構成元素為紋理基元,且主張紋理基元與紋理表現形式密切相關。信號處理法即針對紋理區域進行變換之后再提取穩定特征值以此為特征加以表示,通?;诰€性變換、濾波器變換紋理,再就能量分布進行特征提取。模型法即以紋理圖像預測計算模型參數,就參數作為特征分割圖像,具體包含隨機場模型法與分形模型法。

2.2 局部特征提取

通過全局特征可簡單識別服裝類別,但是服裝主觀風格量化難上加難,基于形狀與紋理等簡單特征難以精確識別。所以在完成高難度識別任務時,單純依賴于全局特征有時候根本不能獲取預期效果。相較于全局特征不同,局部特征提取是面向圖像局部的,常用局部特征表達類型包含角點類型與區域類型,而特征提取方法則主要有三種。

其一,SURF 方法。SURF 方法是對于SIFT 的改進優化,對于SIFT 在構造DOG 尺度空間與求取DOG 空間局部極限值時消耗時間過多這一現象,SURF 方法選擇以Hessian 矩陣變換圖像,如此一來在檢測極限值時只需簡單方程便可求得Hessian 行列式近似值,通過盒裝模糊濾波進行高斯模糊近似值求取。在高斯金字塔構建過程中,SURF 方法可確保圖像尺寸不變化,只針對濾波器尺寸加以調整。而在求解關鍵點主方向的時候,SURF 方法選擇哈爾小波轉換,而非直方圖統計,以此便更大程度上加快了匹配速度。

其二,SIFT 方法。SIFT 方法的關鍵點是一個重要概念,圖像的關鍵點即特征表現比較穩定的點,這些點一般不會由于光照或者噪音的影響發生顯著變化。SIFT 方法的具體流程為:基于構建高斯金字塔,進行尺度空間建設,此過程可確保SIFT 尺度不變性;搜索并定位關鍵點,所謂關鍵點即通過所構建的尺度空間的局部極限值點構成的,所以搜索時需尋找空間內全部局部極限值點,再去除不穩定、不可用的點,從而保留關鍵點,隨后定位關鍵點,通常是針對全部離散關鍵點進行曲線擬合以獲取關鍵點位置與尺度信息;方向賦值,主要是為了實現算法旋轉不變性,通過圖像梯度獲取圖像特征穩定方向,再對關鍵點賦值,隨后明確定義關鍵點及其周圍有點貢獻值的點為關鍵點描述子,為促使方法穩定旋轉圖像,需提前將坐標軸根據關鍵點進行既定角度旋轉,同時為確保SIFT 方法的光照變化穩定,還需針對模型進行歸一化操作。據此可知,SIFT 對于旋轉變化、亮度變化保持不變性、信息量豐富且多元化,與大數據發展需求高度相符,可進一步順利匹配海量數據內數據信息,但是不足在于偶爾所提取的特征點比較少,難以切實提取邊緣光滑對象的實際特征。

其三,HOG 方法。HOG 特征是基于圖像局部區域梯度方向直方圖加以生成的,其特征提取流程具體為:輸入圖像;圖像標準化處理;計算梯度;計算Cell 內各像素幅度與方向;計算重疊的各Block 內HOG 描述子;串聯全部Block 區域內HOG 描述子;圖像HOG 特征提取。HOG 特征提取涉獵大量圖像局部操作,所以HOG 特征提取方法并不受圖像幾何變形與光照變化影響。類似于SIFT 方法,HOG 方法也通過圖像內梯度方向直方圖提取特征。但是SIFT 方法會根據檢測的興趣點同步使用,所以處于復雜環境時物體特征提取時SIFT 方法的優勢會更加突出。HOG特征單元較小,主要以逐層擴大方式提取特征,切實保留了像素間與空間層面的有機聯系與相關性,所以HOG 方法在提取剛性物體特征方面優勢更為凸顯。

3 基于深度學習的服裝圖像識別與分類

不同于服裝圖像傳統識別方法,基于深度學習的服裝圖像識別與分類方法將特征提取與分類器輸入相融合,以一個模型提取并分類特征,分類器作為模型最后一層,處于全部特征提取流程后面[4]。

3.1 特征提取

傳統特征提取方法為深度學習特征提取方法提供了更加完善的思路與依據,二者最大的差異體現于SIFT、HOG 等傳統方法高度依賴于先驗知識手工設計特征,但是深度學習整個過程無需人為設計特征,其整個過程是基于神經網絡結構并模擬人類大腦學習過程,由海量數據中學習不同特征的表示。據此可見傳統特征提取方法無法充分合理利用大數據優勢,且依靠手工調整參數,所以特征內參數量相對偏少,但是深度學習可由海量數據內學習特征,其中包括上萬參數,所以以此方法提取的特征表達效果更為顯著。

3.2 服裝圖像識別與分類

近幾年關于基于卷積神經網絡的服裝圖像識別與分類算法逐步衍生。其中通過Res Net 與Squeeze Net 對于電商服裝圖像識別與分類的具體表現,檢測并進一步改進了分類準確率影響因素,主要包含生成背景、擴大網絡、采用集合增強數據,以此經過優化,其準確率可達80%左右;基于Google Inception 模型的區分傳統服裝圖像與真實服裝圖像的方法,通過對比分析選擇了以均方根方向傳播法為優化器,從而區分結果于訓練集與測試集中的準確率高達92%與90%。通常網絡會自主裁剪或者適度縮放圖像,以保障固定大小輸入,如此會在一定程度上降低圖像精確度,對此可通過針對微調VGG 網絡配置空間金字塔池,以消除固定尺寸輸入約束,提升圖像輸入靈活性。

商店零售商所提供的真實服裝圖像標簽多數情況下都是錯誤的或者不完整的,而且圖像類型之間的不均衡嚴重阻礙了學習有效性。對此可通過多任務深度學習架構學習有效表示形式,并構建切實應用于不平衡學習的多權重卷積神經網絡,此網絡拓撲結構主要包含兩層,上層為任務層,下層為共享層。在此基礎上,有學者設計了不同的CNN 以進行服裝圖像識別與分類,分別為常規CNN、涵蓋起始模塊CNN、囊括起始模塊與殘差模塊CNN、遷移學習CNN,全部網絡均可實現服裝圖像較好分類,且遷移學習CNN 擁有非常高的圖像識別分類精確度。Fashion Net 作為全新服裝分類模型,其中結合了傳統圖像特征提取與深度學習特征提取的優勢。

4 基于深度學習的服裝圖像識別與分類系統

針對常見服裝圖像識別與分類系統,以及各類型消費者對于服裝識別與分類系統的實際需求進行詳細分析,根據模型面向服裝各類型屬性的標注任務,將多功能服裝識別與分類系統劃分為三個模塊,具體如表1 所示。

首先,輸入搜索功能模塊。此模塊想要實現的具體功能包括用戶輸入服裝有關關鍵字詞,頁面展示與關鍵字詞有關的圖像。而關鍵字詞主要包括三種,具體即服裝類別(外套、短褲、長褲、T恤等等)、服裝特點(印花、針織、純棉等等)、服裝顏色(黑色、白色、黃色等等)。系統會就用戶所輸入關鍵字詞篩選出符合關鍵字詞屬性的服裝類型以供用戶瀏覽,用戶只需點擊選擇明確具體類型,界面就會呈現用戶所期望的服裝圖像。其次,風格分類功能模塊。與服裝風格分類模型相一致,將服裝風格具體劃分為簡約風、優雅風、復古風、民族風、可愛風、職場風。再次,精細化分類功能模塊。此模塊實現主要從大類開始分層精細化識別與分類。明確服裝第一層總體分類為三類:上裝、下裝、全身;第二層分類為款式:上裝分為短袖、T 恤、外套等;第三層分類添加了服裝屬性標簽:風格、特點等[5]。

表1 服裝圖像識別與分類系統功能模塊

5 結語

綜上,在深度學習高速發展趨勢下,深度學習在計算機視覺領域的實際應用實現了突破性發展,其在服裝圖像識別中的應用流程具體即以BP 神經網絡識別服裝圖像,由分類中提取服裝質地與結構特征,輸入于神經網絡內,以實現整個學習過程。其中傳統特征提取方式無法充分發揮大數據優勢,過于依賴手工進行參數調整,所以特征內參數量偏少,但是深度學習可由海量數據內學習包括多參數的特征,因此以其提取的特征表達效果更佳,更加適合服裝圖像識別。據此,本文以深度學習的特征提取模型實現了服裝圖像識別。

猜你喜歡
關鍵點特征提取分類
聚焦金屬關鍵點
肉兔育肥抓好七個關鍵點
今日農業(2021年8期)2021-11-28 05:07:50
分類算一算
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
一種基于LBP 特征提取和稀疏表示的肝病識別算法
基于MED和循環域解調的多故障特征提取
醫聯體要把握三個關鍵點
中國衛生(2014年2期)2014-11-12 13:00:16
主站蜘蛛池模板: 成年人视频一区二区| 一级黄色片网| 亚洲国产系列| 久久99国产综合精品女同| yjizz国产在线视频网| 亚洲天堂.com| 亚洲国产精品一区二区高清无码久久| 在线观看免费AV网| 亚洲综合片| 成人免费黄色小视频| 亚洲午夜久久久精品电影院| 97免费在线观看视频| 国产女人喷水视频| 欧美.成人.综合在线| 亚洲国产高清精品线久久| 国产va在线观看免费| 狠狠亚洲婷婷综合色香| 欧美亚洲国产一区| 久久黄色小视频| 广东一级毛片| 一区二区无码在线视频| 亚洲熟女偷拍| 国内丰满少妇猛烈精品播| 国内精品免费| 国产毛片基地| 国产成人8x视频一区二区| 无码专区在线观看| 欧美国产三级| 在线看片国产| 国产亚洲欧美在线中文bt天堂| 成色7777精品在线| 久久国产热| 国产成人无码AV在线播放动漫| 啪啪啪亚洲无码| 亚洲男人天堂久久| 亚洲欧洲一区二区三区| 精品国产自在现线看久久| 伊在人亚洲香蕉精品播放 | 亚洲天堂网在线播放| 久草网视频在线| 国产区免费| 日韩国产综合精选| 欧美啪啪视频免码| 99精品在线视频观看| 亚洲人成色在线观看| 日韩性网站| 免费亚洲成人| 亚洲精品国产综合99| 亚洲一区免费看| 伊人AV天堂| 成人毛片免费在线观看| 91在线精品麻豆欧美在线| 久久96热在精品国产高清| 亚洲天堂成人在线观看| 40岁成熟女人牲交片免费| 国产无人区一区二区三区| 久久精品女人天堂aaa| 成人福利在线视频免费观看| 成人精品视频一区二区在线| 亚洲欧美极品| 亚洲有无码中文网| 亚洲国产欧美国产综合久久| 国产国语一级毛片| 久热99这里只有精品视频6| 91小视频在线播放| 国产精品无码AV片在线观看播放| 亚洲欧美日韩精品专区| 国产中文一区a级毛片视频| 91国语视频| 久草网视频在线| 亚洲精品视频免费观看| 国产成人喷潮在线观看| 日本久久网站| 国产原创第一页在线观看| 久久黄色小视频| 午夜福利在线观看入口| 亚洲a级毛片| 91精品国产自产在线老师啪l| 国模私拍一区二区| 少妇高潮惨叫久久久久久| 一级在线毛片| 成年人午夜免费视频|