999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于用戶屬性偏好與時間因子的服裝推薦研究

2020-07-24 02:11:37周靜何利力
軟件導刊 2020年6期

周靜 何利力

摘要:針對服裝推薦方法推薦精度不高、覆蓋率低,不能充分挖掘用戶潛在興趣的問題,提出一種基于用戶圖像內容屬性偏好與時間因子的服裝推薦(UIACF)算法。通過構建深度卷積神經網絡,提取服裝圖像中的服裝屬性,并據此形成用戶屬性向量,將基于用戶屬性偏好的相似度與基于時間因子的用戶興趣偏好相似度融合,構建用戶偏好模型。將其與基于用戶的協同過濾(UCF)算法、基于項目的協同過濾(ICF)算法及基于項目偏好的協同過濾(UCSVD)算法進行比較,結果顯示,UIACF算法準確率提高14%。該算法為基于用戶的服裝協同過濾個性化推薦提供了一種新思路,用戶潛在興趣挖掘效率更高。

關鍵詞:圖像分類;用戶偏好;協同過濾;服裝推薦;時間因子

DOI:10.11907/rjdk.192085開放科學(資源服務)標識碼(OSID):

中圖分類號:TP301文獻標識碼:A 文章編號:1672-7800(2020)006-0023-06

0 引言

隨著網絡的普及,全民網上購物的電子商務時代已然到來。淘寶、京東等電子商務平臺提供越來越多的服裝選擇,但是信息超載問題也隨之而來。現有搜索技術無法滿足消費者服裝個性化需求。因此既能解決信息超載問題又能提供個性化服務的個性化推薦技術,引起了相關研究者關注。Lin等在既有研究的基礎上,提出一種基于用戶需求偏好因素之外的需求因素的用戶模型;王安琪等結合服裝搭配的四季色彩理論與計算機視覺技術,提出一種判斷優化模型,但是沒有考慮用戶之間的關系;周捷等將灰色關聯分析法和主觀賦權、客觀賦權相結合,實現了服裝型號準確推薦,但是應用場景比較單一;楊天祺等利用深度學習進行服裝圖片識別和搭配推薦,但忽略了用戶歷史偏好,僅考慮了數據庫中的搭配。

本文在已有研究的基礎上,對傳統基于用戶的協同過濾算法進行改進,將服裝圖像屬性內容與時間因子相結合,提出一種改進的基于用戶偏好的服裝個性化推薦技術。首先進行基于服裝圖像內容的屬性識別,由于服裝屬性特殊性,加入三元組網絡以滿足細粒度識別屬性的要求;其次,建立用戶服裝屬性向量,根據用戶評分服裝與服裝屬性包含關系,構建用戶關于服裝圖像內容的屬性偏好,并計算基于用戶屬性偏好的用戶相似度;然后,融合關于時間因子的興趣度變化,構建最終的用戶偏好模型,實現服裝推薦;最后,將本文UIACF算法與傳統基于用戶的協同過濾(UCF)算法、基于項目的協同過濾(ICF)算法以及基于項目偏好的協同過濾(UCSVD)算法在準確度和挖掘用戶興趣度兩個方面進行比較,驗證算法有效性。

1 相關工作

1.1 基于用戶的協同過濾個性化推薦

經過幾十年的研究和發展,個性化推薦方法系統積累了多種不同類型、各具特點的推薦算法。個性化推薦方法主要包括基于內容的推薦方法、基于協同過濾的推薦方法、混合推薦方法、基于知識的推薦方法、基于數據挖掘的推薦方法以及基于人口統計學的推薦方法等。由于基于協同過濾的個性化推薦算法考慮了所有用戶和物品的交互信息,且更偏向于挖掘用戶潛在需求,所以基于協同過濾的推薦算法應用廣泛,其主要思想是根據與相似的鄰居對項目歷史行為的評分情況,預測目標用戶對項目的態度。比較成熟的應用包括預測電影、日用消費品和電子類等方面,服裝推薦系統有其特殊性,目前并不成熟,仍處于探索階段,面臨諸多挑戰。

基于用戶近鄰的協同過濾算法主要思想是通過尋找與目標用戶相近的用戶,并利用近鄰用戶評分信息進行推薦。基于用戶近鄰的協同過濾算法的目標是尋找到與目標用戶偏好相近的用戶,即近鄰用戶。

用戶相似度計算主要采用3種方式,分別是余弦相似度、修正余弦相似度和皮爾遜相關相似度。實際生活中用戶有不同的評分標準,因此一般采用基于皮爾遜相似度的用戶相似性,如式(1)所示。

其中sim(u,v)表示用戶u、v相似性,S表示用戶u、v共同評分項目集合,ru,i、rv,i表示用戶u、v對項目i的評分,ru和rv表示用戶u、用戶v對各自評分項目的平均評分。

其次是近鄰選擇,近鄰選擇會對最終推薦結果產生很大影響,為了不影響推薦效率和推薦結果準確性,通常采用K近鄰和閩值過濾。K近鄰指選取前k個最相似的近鄰用戶,閾值過濾則設置了一個固定閾值,選擇相似度大于該值的近鄰用戶。

最后利用確定的近鄰用戶預測目標用戶對物品的評分。常用預測方法是均值中心化。該方法主要考慮用戶的不同評分標準,通過評分均值與評分偏移兩種方式消除用戶因為評分標準造成的偏差,如式(2)所示。

1.2 服裝圖像屬性分類

傳統服裝屬性分類是基于文本分類,利用中文自然語言處理技術并根據商家提供的文本描述提取服裝屬性,一般包括中文分詞(CWS)和停用詞去除兩個部分。中文分詞任務是將一系列的句子劃分成一個個詞語,停用詞去除指去除沒有實際意義但又出現次數很多的詞語。但是,服裝電子商城中的文字描述往往僅包含一部分屬性,而且文字描述一般受主觀影響,無法完整準確地表達多元化服裝圖像內容。因此基于圖像內容的服裝屬性分類被提出。

近年來深度學習在計算機視覺領域取得了突破性進展,卷積神經網絡(Convolutional Neural Network,CNN)成為圖像領域研究熱點,在目標檢測、圖像分類及圖像檢索等任務中表現優異,所以本文選用卷積神經網絡提取服裝圖像屬性分類。卷積神經網絡是一種端到端的網絡結構,主要由輸入層、卷積層、池化層和全連接層組成,優點是局部區域感知與權值共享,常用深度模型有VGG-NET、GooZle-Net和ResNet等。卷積層輸人為:

其中,a(l)是第一層卷積核,b(l)為偏置,式(4)中G(·)為激活函數,使用激活函數以避免梯度消失。

池化層主要用于降低特征維數,最大池化和平均池化是較常用的兩種方式,全卷積層用于輸出。

2 模型構建

面對服裝電子商務網站上大量的服裝圖片信息,用戶往往難以選擇,如果服裝圖片內容能夠吸引用戶注意力,則用戶購買可能性也會增大,銷量將隨之提升。因此,服裝圖片中的服裝屬性對用戶的影響非常重要。同時,用戶對服裝的興趣并不是一成不變的,受季節、潮流改變購物興趣的行為十分常見,所以本文分別對基于用戶服裝圖像內容屬性偏好與基于時間因子的用戶興趣偏好進行研究,最后將兩者融合。

2.1 基于圖像內容的服裝屬性提取

卷積神經網絡通常處理單任務,但由于本文需要提取服裝圖像多種分類下的不同屬性,且某些屬性之間存在關聯性,比如風格與顏色、材質有關,如果分解為多個單分類下的屬性進行提取,不但會忽略各個分類之間的相關性,而且會增加網絡訓練復雜度,所以本文采用多任務學習的服裝圖像屬性提取。多任務學習可相互影響,一個任務可以利用另外一個任務的信息得到優化,從而提高整個模型精確性。

結合多任務學習的卷積神經網絡模型,其詳細結構如圖l所示。服裝圖像多屬性分類任務共享淺層卷積網絡和權值參數,全連接層連接各子任務的全連接層和分類器。

由于服裝包含如扣型、拉鏈等諸多細節,其圖像具有特殊性,需考慮服裝細節位置,由于一些屬性特征可能是服裝邊緣信息決定的,所以為了更好利用服裝邊緣信息,本文在卷積層之間引入特征金字塔。卷積神經網絡低層特征一般是高維特征,高層特征是低維特征。為了使特征維度統一,本文采用反卷積方法,將后一層卷積層進行反卷積操作,使前后兩層特征和依次往前疊加,生成整張圖片的最終特征表示。

另一方面為了學習到細粒度的服裝圖像屬性分類,實現服裝屬性精細分類,本文結合Triplet Loss和Softmaxloss兩種損失函數以實現細粒度分類。Triplet Loss三元組損失函數需要輸入3個樣本構成三元組,分別是參考樣本(AnchorSample)、正樣本(Positive Sample)和負樣本(Negative Sample)。Triplet Loss損失函數的目標是使AnchorSample和Positive Sample之間的距離最小,使NegativeSample之間的距離最大。本文Triplet Loss損失函數公式定義為:

其中,p表示樣本圖像,q+表示正樣本圖像,q-表示負樣本圖像,d(p,q+)表示樣本和正樣本間的歐式距離,d(p,g-)表示樣本和負樣本間的歐式距離,T表示特定閾值。

結合Softmax損失函數之后,整個網絡損失函數表示如式(6)所示。

L=λLtriplet+(1-λ)Lsoftmax(6)

其中Ltriplet表示triplet學習相關損失,Lsoftmax表示Soflmax分類相關損失,又表示比例。

2.2 用戶屬性偏好模型構建

根據基于圖像內容的服裝屬性分類算法得到服裝圖像的屬性值,將服裝測試庫中的服裝進行編號,每件服裝以向量的形式展現,如式(7)所示。

Kn=(x1,x2,x3,x4,x5,…,xi) (7)

其中n表示第n件衣服,xi表示第i個屬性。如果某服裝商品包含某一服裝屬性,則設置為1,否則設置為0,由此得到所有服裝商品向量表示集合。

本文結合用戶對服裝商品的評分及服裝具有的屬性信息,構建每個用戶的用戶一屬性矩陣。表1展示了部分用戶一服裝評分矩陣。表2展示了服裝一屬性包含矩陣。

表1、表2顯示了不同用戶對不同服裝的評分和被評價的服裝是否包含某一屬性,表2中0表示包含該屬性,1表示沒有該屬性。根據上述關系,用戶對屬性的偏好程度為:

ru,p表示用戶u對屬性p的偏好程度,Ip表示用戶u的評分商品中包含屬性p的集合,ip表示項目是否包含屬性p,包含為1,不包含為0。得到用戶屬性的偏好值后,根據式(9)可以計算出用戶間的相似度。

2.3 基于時間因子的用戶興趣模型構建

興趣會隨時間發生變化,因此本文使用logistic權重函數作為時間因子函數,對評分實現加權,降低時間過久的數據評分權重,增加近期數據評分權重,logistic權重函數為:

tu,i表示用戶u項目i的評分時間和用戶u第一次對項目i評分的時間之差。Logistic權重函數隨著tu,i的增大而增大。加入時間權重后,用戶平均評分為:

2.4 融合用戶屬性偏好與時間因子的模型構建

將基于時間因子的用戶興趣相似度與基于服裝圖像內容用戶屬性偏好的相似度融合在一起。通過參數θ進行加權,θ的取值根據實際情況發生變化,融合后的相似度表達式為:

sim(u,v)=θsimattr(u,v)+(1-θ)simt(u,v) (13)

根據式(12)得到最終的用戶偏好相似度,采用top-n方法選取相似用戶,選取排名靠前的.個用戶作為目標用戶鄰居集。通過式(14)進行預測評分。

3 實驗及性能分析

3.1 數據采集與處理

服裝產業發展到現代,服裝種類根據不同標準可劃分為多種,比如根據風格可以劃分為休閑、復古、性感、優雅、時尚等,根據面料可以劃分為純棉、真絲、麻、化纖等,根據類型可以劃分為襯衫、衛衣、外套等,由于服裝屬性多樣化和不確定性,課題組邀請服裝行業的專家,根據不同分類共確定了常見的8種分類及480種屬性。表3展示了部分屬性。

服裝圖像屬性提取實驗中用到的服裝圖像來自于互聯網,由于卷積神經網絡需要大量圖片用于實驗,所以共采集30000張服裝圖片,其中24000張用于訓練,剩下的6000張用于測試。數據集中,80%的服裝圖片來自于電子商務網站,由于是店鋪圖片,所以這些圖片背景一般不復雜,人物服裝主體也比較突出,剩下的20%圖像是社交網絡中有干擾背景和不同光照的圖片。由于服裝推薦的特殊性,網上并沒有比較適合的服裝用戶屬性評價數據集。因此使用爬蟲等技術從網上采集了上述服裝圖像數據集中1000張圖片的相應評價,以淘寶網為例,用戶在網上購買商品之后,一般會針對商品進行評價,本文以評價數據作為用戶對商品的評分。數據集參照MovieLens數據集的形式,每一行包括用戶ID、服裝ID、用戶評價以及提取到的服裝屬性,由于一些用戶可能沒有評價,為了避免數據稀疏性,所以本文將沒有進行評論的用戶篩選清洗出去,清洗后的數據分布如表4所示。本文將服裝商品數據集簡稱為數據集A。

3.2 服裝屬性分類實驗與性能分析

為了對比不同卷積神經網絡結構的分類效果,訓練了只含有Softmax loss損失函數的S-CNN網絡、結合Softmax和Siamese度量學習的SS-CNN網絡、結合Softmax和Triplet的ST-CNN網絡共3種不同結構的網絡,每個網絡權重參數初始化為高斯分布產生的較小的數字,偏置為0,訓練過程中,學習速率初始值設置為0.01,權重衰減系數設為0.0002。使用分類精確度作為評價指標,分類精確度計算公式定義為分類正確圖像總數目k與測試圖像總數目n的比值,計算公式為如式(15)所示。

實驗結果如表5所示。

從表5中可以看出,只含有Softmax損失函數的S-CNN網絡分類精度較低,引入Siamese結構的網絡分類精確有小幅度提升,而引入Triplet之后的ST-CNN網絡結構分類精度約有4個百分點的提高。

表6顯示了使用ST-CNN網絡分類進行服裝圖像屬性提取的結果。無論是準確率,還是服裝圖像屬性提取結果展示,本文屬性提取網絡均能夠較好地完成屬性提取任務,這也為服裝推薦模型提供了較好基礎。

3.3 服裝推薦實驗與性能分析

3.3.1 評價標準

由于推薦系統應用的情況不一,所以至今沒有標準的評價指標。大多數推薦系統采用的評價指標是MAE和RSME,但是在實際情況中,用戶在意的并不是某個項目給出的評分值,而是系統是否能夠推薦用戶喜歡的服裝,所以本文考慮準確率(precision)和召回率(recall)兩種指標。

準確率表示推薦的商品中用戶喜歡的服裝所占比例,召回率表示推薦的服裝中用戶喜歡的服裝占用戶所有喜歡服裝的比例,這兩種方式更能展現推薦的效果。本文主要考慮準確率,具體公式見式(16)、(17),表7表示公式中參數的含義。

雖然準確率和召回率越高越好,但是在特定的情況下,兩者是相互矛盾的。因此,本文采用綜合指標C進行評估,G是準確率和召回率的加權結合,其表達式為:

3.3.2 實驗設計與結果分析

(1)實驗1:θ調整因子對算法的影響。為驗證θ的大小對準確率預測的影響,設步長為0.1,選出性能最好的θ作為本文算法調整因子。將本文算法UIACF按照不同的θ取值進行實驗后的RSME值如圖3所示。

從實驗結果可以看出,隨著θ的增大,RSME先減小后增大,當θ為0.1時,RSME的值最大;當θ為0.6時,RSME的值最小。這是由于當θ趨向于0.1時,時間因子產生的興趣變化基本不起作用,只依賴于用戶屬性偏好不能很好表明用戶偏好,隨著θ的增大,時間因子占得比重越來越大,使得RSME的值逐漸減小。當。趨向于1時,完全忽略了時間因子的影響,從而使RSME又逐漸增大。合理分配。值有利于提高最終預測結果的準確性,本文θ為0.6時,RSME值最小,說明綜合考慮基于服裝圖像屬性偏好的與基于時間因子的興趣度變化的偏好結果最好。實際情況可根據需要調整。

(2)實驗2:不同算法準確率對比。為了進一步驗證本文算法準確性和有效性,利用采集的服裝數據,將傳統基于用戶的協同過濾算法UCF、基于項目的協同過濾算法ICF和基于項目偏好的協同過濾算法UCSVD作為對比進行實驗,本文提出的UIACF算法準確率根據公式(16)計算得到,其它3種算法的準確率由實驗室其他研究人員共同實驗得到,不同算法的準確率對比如圖4所示。

如圖4所示,隨著用戶近鄰集的增大,準確率也在升高,當N為30時準確率達到最高,但是如果用戶近鄰數繼續增大,準確率卻會下降,這是因為當鄰居數很多時,鄰居集中的用戶相似度不高導致對結果產生負面影響。對比其它算法,本文提出的UIACF算法準確率最多提高14%。

(3)實驗3:不同近鄰數對算法的穩定性影響。考慮到推薦系統需要的穩定性和持久性,需排除偶然性因素。將近鄰數N取值不同情況下得到的準確率、召回率通過公式(16)-(18)計算得到準確率和召回率加權G的值,G值隨著N的變化情況如圖5所示。

隨著近鄰數的增加,評價指標值一直在0.4-0.6之間,波動很小,說明本文算法具有良好的穩定性。

4 結語

本文提出了一種融合用戶圖像內容屬性偏好、基于時間因子與用戶興趣偏好的服裝推薦算法,以用戶評價和用戶評價服裝的屬性偏好作為用戶屬性偏好的體現,充分挖掘用戶潛在興趣,使用深度卷積神經網絡提取用戶評價服裝圖片內容的屬性,避免了人工標注屬性的主觀性,且實現了細粒度屬性提取,還考慮了用戶興趣度隨時間的變化,加大了最近時間的評分權重,充分考慮用戶需求,體現了用戶服裝推薦個性化,也提高了個性化推薦準確率。下一步工作將優化服裝圖像內容提取網絡結構,使網絡加入更多的屬性分類,考慮更多可影響用戶服裝購買行為的個性化因素,進一步探索服裝個性化推薦技術。

主站蜘蛛池模板: 97se亚洲综合在线| 国产成人无码Av在线播放无广告| 四虎国产在线观看| 久久久久久久久亚洲精品| 97se亚洲| 久热中文字幕在线观看| 久久99国产乱子伦精品免| 亚洲日韩精品综合在线一区二区| 无码精品福利一区二区三区| 国产成人综合网| 亚洲国产中文欧美在线人成大黄瓜| 亚洲中文精品人人永久免费| 国产第八页| 久久综合丝袜长腿丝袜| 中文字幕av一区二区三区欲色| 蜜芽一区二区国产精品| 99爱在线| 中美日韩在线网免费毛片视频| 91在线播放免费不卡无毒| 免费在线不卡视频| 久久精品最新免费国产成人| 91口爆吞精国产对白第三集| 91精品国产情侣高潮露脸| 三区在线视频| 亚洲天堂网2014| 亚洲国产清纯| 99视频精品在线观看| 制服丝袜国产精品| 999国内精品久久免费视频| 亚洲人网站| 亚洲三级影院| 国产成人亚洲精品无码电影| 国产激爽爽爽大片在线观看| 四虎影视无码永久免费观看| 高清不卡毛片| 国产日产欧美精品| 四虎成人精品在永久免费| 亚洲成a人片7777| 色综合热无码热国产| lhav亚洲精品| 天堂网国产| 亚洲成人免费在线| 亚洲天堂网在线播放| 五月婷婷导航| 四虎国产在线观看| 91国语视频| 国产精品美女自慰喷水| 永久成人无码激情视频免费| 国产成人综合久久精品尤物| 欧美高清日韩| 波多野结衣的av一区二区三区| 91破解版在线亚洲| 91久久青青草原精品国产| 国产日本欧美亚洲精品视| 中文字幕人成人乱码亚洲电影| a级毛片一区二区免费视频| 国产全黄a一级毛片| 亚洲男人在线| 成人国产小视频| 国产福利影院在线观看| 在线精品亚洲国产| 国模私拍一区二区| 国产成人精品视频一区视频二区| 99精品国产自在现线观看| www亚洲精品| 毛片免费视频| 国产国拍精品视频免费看 | 精品人妻AV区| 午夜三级在线| 99re热精品视频中文字幕不卡| 亚洲第一黄色网| 一区二区三区国产| 青青青亚洲精品国产| 18禁不卡免费网站| 亚洲国产91人成在线| 丁香六月综合网| 人妻中文字幕无码久久一区| 色屁屁一区二区三区视频国产| 精品无码国产一区二区三区AV| 22sihu国产精品视频影视资讯| 国产美女在线观看| 久久国产乱子|