999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于超圖表示的服裝兼容性預測模型

2022-12-31 00:00:00李健李卓馬天祥梁紀峰
計算機應用研究 2022年8期

摘要:針對現有服裝兼容性模型都集中探究成對單品之間的兼容性這一問題,提出一種基于超圖表示的服裝兼容性預測模型。該模型首先基于現有數據集中時尚服裝的不同類別和時尚服裝間的搭配關系構建了一個服裝超圖,其中每個節點表示一件衣服,每條超邊表示多件衣服組成的套裝。為了更好地從超圖中推斷服裝的兼容性,該模型將超圖轉換為傳統圖,并利用圖神經網絡模擬節點之間的復雜交互。最后引入注意力機制計算服裝的兼容性得分,增強模型的預測能力。實驗結果表明,在服裝填空任務和服裝兼容性預測兩個服裝搭配任務上,該模型分別達到了77.29%和96.23%的準確率,較其他基線模型有顯著的提升。

關鍵詞:服裝兼容性;超圖表示;圖神經網絡;注意力機制

中圖分類號:TP393.04文獻標志碼:A

文章編號:1001-3695(2022)08-046-2506-05

doi:10.19734/j.issn.1001-3695.2022.01.0038

Outfit compatibility prediction model based on hypergraph representation

Li Jian1,2,Li Zhuo1,2,3,Ma Tianxiang4,Liang Jifeng4

(1.School of Microelectronics,Tianjin University,Tianjin 300072,China;

2.Tianjin Microelectronics Technology Key Laboratory of Imaging amp; Perception,Tianjin 300072,China;

3.Peng Cheng Laboratory,Shenzhen Guangdong 518000,China;4.State Grid Hebei Electric Power Co.,Ltd., Electric Power Research Institute,Shijiazhuang 050021,China)

Abstract:In order to solve the problem of the existing research work focuses on the compatibility of paired items,this paper proposed an outfit compatibility prediction model based on hyper-graph representation.The model constructed a fashion hyper-graph based on the category information of fashion items and the collocation relationship between different fashion items in the existing dataset,where each hypernode represented an item,and each hyperedge represented an outfit made up of multiple items.To better infer outfit compatibility from the hypergraph,the model converted hypergraphs into traditional graphs,and it used the graph neural network to simulate the complex interaction between nodes.Finally,it introduced the attention mechanism to calculate the outfit compatibility score to strengthen the predictive ability of the model.Experimental results show that in the outfit fill-in-the-blank task and the outfit compatibility prediction task,the model achieves an accuracy rate of 77.29% and 96.23% respectively,which is significantly improved compared with other baseline models.

Key words:outfit compatibility;hypergraph representation;graph neural network;attention mechanism

0引言

近年來,隨著時尚行業的快速發展,服裝在人們的日常生活中扮演者越來越重要的角色,一套得體的服裝可以提升一個人的魅力并充分展示個性。據統計,在2021年的雙十一購物節,阿里巴巴的電子商務網站天貓總交易額高達5 403億元,相比去年的4 982億元增加了421億元。也就是說,這個潛在的市場有望創造巨大的財富,并且服裝的研究也因為這個巨大的市場而受到越來越多的關注。與此同時,服裝相關的研究也隨之興起,例如個性化時尚設計[1]、服裝組合[2]、單品推薦[3]和時尚趨勢預測[4]等,尤其是服裝搭配[5,6]方面的研究。然而,服裝搭配是一項復雜的任務,它不僅取決于時尚風格、文化背景和潮流趨勢等多個主觀因素,所有的這些因素都可能因人而異,甚至隨著時間的推移而變化,所以并不是每個人都能夠搭配出合適得體的服裝。因此如何對海量的服裝進行分析,建立一種合適的服裝搭配方法具有十分重要的社會意義和經濟意義。

事實上,目前已經有很多工作致力于解決服裝搭配的問題。比如,Veit等人[7]使用SiameseNet將套裝中的單品服裝從一個圖像空間映射到一個風格空間,然后測量單品之間的距離來預測成對服裝的兼容性。McAuley等人[8]提出使用low-rank Mahalanobis transformation將單品映射到樣式空間來計算服裝之間的相似性。之后,Han等人[9]將一套套裝表示為一組具有特定順序的序列,并利用雙向LSTMs來預測給定一組服裝的下一件單品服裝,以及組合套裝的兼容性得分。這些方法主要采用了兩種服裝表示方法,即成對表示和序列表示。其中成對表示并不能反映多個服裝之間的復雜關系,而對于序列表示來說,服裝中并不存在固定的順序。更重要的是,套裝中物品之間的關系并不是有序的,因為每件物品不僅僅與序列中的前一件或者后一件物品有關系。而不管是基于成對表示還是序列表示的模型,它們考慮的都是成對服裝之間的兼容性,這使得套裝搭配兼容性最終的預測只依賴于成對單品之間的比較。然而,套裝的兼容性不僅取決于成對服裝之間的特性,還受同一套裝中其他服裝特征的影響。

因此,解決服裝搭配兼容性問題的關鍵在于如何恰當地表示多件時尚單品之間的關系,而不是僅僅關注于成對的單品。近年來,一些研究方案通過圖神經網絡[10~12]解決服裝搭配中的復雜關系問題。例如,Cui等人[13]利用類別信息將套裝表示為一個圖,其中每個節點表示一個類別,每條邊表示不同物品之間的不同關系,然后通過引入注意力機制輸出套裝兼容性得分。之后Cucurull等人[14]提出利用圖自動編碼器將服裝兼容性問題看做邊預測問題,并且通過融合上下文信息提高服裝搭配兼容性預測性能。盡管使用圖的各種模型在服裝搭配問題上取得了成功的結果,但由于傳統圖的邊是由兩個節點相連而成,所以這種方法建立的也是成對節點之間的關系,并沒有從本質上解決預測套裝整體兼容性的問題。

為了解決上述問題,本文提出通過超圖來反映套裝中多件單品之間的復雜關系和高層次關系。超圖是一個可以表達復雜網絡的廣義概念。在傳統的圖中,邊連接的節點數被嚴格定義為2;而在超圖中,每條邊都可以連接兩個以上的節點,這就使得每條邊都可以表示一套完整的服裝。為了更好地預測套裝搭配的兼容性,本文提出了一個新的模型OCPCE去模擬套裝和時尚單品之間的交互關系。模型的框架被展示在圖1中,該模型首先基于數據集構建了一個服裝超圖(即圖1中最左邊),其中超圖中的每個超節點代表不同的單品服裝,每條超邊代表多件單品組成的套裝(樣式相同的邊為超邊);然后隨機選取其中的一條超邊進行兼容性預測。為了更好地表示超邊和節點之間的復雜關系,模型將超邊中的節點兩兩互相連接形成一個簡單圖,使得節點之間的交互可以更好地傳播;之后在簡單圖上通過圖卷積神經網絡的消息傳播機制聚合節點的鄰居信息來迭代更新節點的狀態信息表示;最后,在計算服裝兼容性時,與現有工作認為所有單品對服裝兼容性產生相同的影響不同,該模型引入注意力機制模擬不同單品對服裝兼容性的影響,以更好地增強模型的預測能力。

1基于超圖表示的服裝兼容性預模型

1.1問題定義

服裝搭配是否兼容需要考慮的是套裝中所有時尚單品組合在一起之后的相容性,而不僅僅是成對單品之間的相容性。本文的研究目的是通過對套裝和時尚單品之間的關系進行兼容性建模,從而預測服裝整體的兼容性性。假設存在一個套裝集合Euclid Math OneOAp={o1,o2,…,om},其中oi表示第i套套裝,隨機從集合中選擇一套由多件單品搭配而成的套裝,通過建模套裝和時尚單品之間的關系,計算套裝整體的兼容性得分并根據得分預測套裝是否兼容。

1.2特征提取和超圖構建

1)視覺特征提取

時尚單品的圖片中包含了大量的信息,如顏色、圖案和條紋等,對預測服裝搭配兼容性有極大的幫助。本文利用卷積神經網絡來提取時尚單品圖像的視覺信息。相比于傳統的特征提取方法,如SIFT、SURF和PCA等,卷積神經網絡已經被證明是圖像特征提取中較先進的模型。本文選擇由Google團隊提供的經過預訓練的Inception-V3[15]深度神經網絡進行視覺特征的提取。將時尚單品的圖像輸入到InceptionV3網絡中,并將其線性層的輸出作為該單品的視覺特征。每件單品服裝的視覺特征維度是2 048維。

2)文本特征提取

時尚單品的文本信息主要來源于其自身的標題,標題中大多數文本均為單詞或者較短的短語。因此本文通過詞袋模型[16]來提取時尚單品的文本特征,該方法已經在文本特征提?。?7]中被證明是有效的。首先基于數據集中不同時尚單品標題的單詞構建一個詞匯表。由于標題沒有統一的標準規范,其中會出現很多沒有意義的單詞,比如a、an、de等,所以需要過濾掉少于三個字符的單詞以保證詞匯的有效性。通過相關統計后得到一個包含2 757個單詞的詞匯表,因此每件單品服裝的文本特征維度是2 757維。

3)超圖構建

本文基于現有數據集中時尚單品的類別信息和時尚單品之間的搭配關系構建了一個時尚超圖Euclid Math OneHAp=(Euclid Math OneVAp,Euclid Math OneEAp)模擬套裝和單品之間的復雜關系。其中,超圖上的每個節點表示不同時尚單品所屬的類別,每條超邊(即樣式相同的邊)表示多個類別之間的搭配關系,但是并不是任意節點都可以構成超邊,只有數據集中出現的套裝中所包含的時尚單品類別所屬的節點才可以構成超邊,如表示上衣、下衣、鞋子、包以及配飾等類別的節點可以構成超邊。通過將每件單品服裝輸入到超圖中對應的節點,超圖中每條超邊對應表示為一套完整的套裝。

1.3模型設計

本節首先介紹一些將在本節中使用到的符號。對于每件時尚單品ei,它對應的視覺特征是si,文本特征是ti。每件單品ei所對應的種類是ci,對應在超圖中的超節點是vi∈Euclid Math OneVAp,而超節點vi在模型中的狀態表示是fi。

1)節點初始化本文所提模型的輸入是每件時尚單品的視覺特征si和文本特征ti,它們被用來初始化其相應節點的特征表示。對于每件單品,首先將它的視覺特征和文本特征映射到一個大小為d的空間。由于每件單品所屬的種類都是不同的,所以在映射到樣式空間的時候,每一個種類都需要設置一個不同的線性映射矩陣。然后拼接樣式空間中的視覺特征和文本特征作為每件單品的特征表示。最后,初始化該特征表示作為每件時尚單品在超圖中對應超節點的初始特征表示,如下所示。

f0i=tanh(Wisi‖Witi)(1)

2)超邊轉換為圖

在本文所提模型OCPCE中,超圖中的每條超邊表示一套完整的套裝。為了更好地模擬套裝和單品服裝之間的復雜和高階關系,該模型將每條超邊轉換為傳統圖。目前將超邊轉為圖的方式有兩種:一種是連通分量拓展,即將超邊中所有頂點都連接在一起,比如有三個頂點的超邊,拓展成普通圖時兩兩相連就會構成有三條邊的簡單圖;另一種是星拓展,就是在每條超邊中都增加一個新的節點,然后將超邊中的所有節點與該節點相連接。第二種超邊拓展方式在原來的超節點上增加了新的節點,這種方式可能會出現無效的信息,造成信息的錯誤傳播。因此,本文通過連通分量拓展將超邊轉換為簡單圖。

3)建模節點交互

超邊轉換為傳統圖以后,基于GGNN[18]的方法,本文利用圖神經網絡建模傳統圖上的節點交互。圖上的節點交互指的是每個節點聚合周圍節點的狀態信息和自身的狀態信息來更新自身節點的狀態信息。每次節點交互之后,節點的狀態信息更新為

f(k+1)u=∑vi,vu∈Euclid Math OneVApA[vi,vu](Wh(k)i+b)(2)

其中:f(k+1)u表示的是節點vu在第k+1次節點交互后的狀態表示;W和b是可訓練的權值矩陣,用來提取有用的信息進行傳播;A是表示節點之間連通關系的鄰接矩陣,如果節點vi和節點vu相互連接,則A=1,否則A=0。

在匯總鄰居的狀態信息后,每個節點通過GRU(gated recurrent units)來更新其最終表示,總體可以表示為

h(k+1)u=GRU(h(k)u,f(k+1)u)(3)

其中:h(k+1)u為節點vu在k+1次傳播之后的最終表示。

4)計算兼容性得分

為了評估多件衣服是否能構成一套匹配度高的套裝,模型OCPCE通過每條超邊中所包含節點的最終狀態表示來計算超邊所對應套裝的兼容性得分。與現有工作中簡單地將成對服裝的兼容性聚合在一起作為套裝的兼容性得分不同,本文認為不同的時尚單品對套裝整體的重要性各不相同。因此,本文提出通過一種注意力機制來區分套裝中各件服裝的重要性。注意力機制的計算公式如下:

u=σ(W1h(k)u)(4)

u=δ(W2h(k)u)(5)

其中:W1和W2是兩個可訓練的權重矩陣;σ(·)和δ(·)分別是LeakyReLU[19]和sigmoid激活函數;u表示不同單品對服裝兼容性影響的重要性;u表示套裝中不同單品的兼容性得分。因此,套裝o的兼容性得分表示為

o=∑|m|n=1uu(6)

其中:|m|表示套裝o是由m件時尚單品組成的。

1.4目標函數

為了更好地預測套裝搭配的兼容性,本文采用BPR(Bayesian personalized ranking)[20]算法來解決這個任務。在該算法中假設正樣本套裝比負樣本套裝有更高的兼容性得分。具體的目標函數表示如下:

Euclid Math OneLApbpr=∑(o,o-)∈Euclid Math OneZAp-ln η(o-o-)+λ‖Θ‖22(7)

其中:Euclid Math OneZAp={(o,o-)}是兼容性建模的數據集,每對(o,o-)代表的是數據集中存在的套裝o(即正樣本)和數據集中不存在的套裝o-(即隨機生成的負樣本);η(·)是sigmoid函數;Θ表示所有的訓練模型參數;λ表示對其進行L2歸一化以避免過度擬合。

2實驗分析

2.1數據集

現有的Polyvore數據集來自于流行的時尚網站Polyvore.com,它允許其成員利用不同的服裝創建時尚套裝,或者喜歡并且保存其他人創建的套裝。該數據集中包含164 379件單品,形成21 899套不同的服裝。圖分割技術被用來將數據集劃分為訓練集、測試集和驗證集,其中17 316套服裝用于訓練,1 497套用于驗證,3 076套用于測試,并且劃分出的數據集保證兩兩之間沒有重疊,即測試集中出現的單品不會在訓練集中出現。同時數據集中每個單品都包含著豐富的信息,如圖像信息、文本描述和類型(如牛仔褲、裙子、鞋子等)。

如果原始數據集中套裝的單品數超過了8件,表示該套裝中包含重復出現的單品,而如果套裝的單品數不足3件,表示該套裝并不是完整的套裝。因此,本文通過移除原始數據集中超過8件單品和不足3件單品的套裝生成新的數據集Polyvore-N來保持套裝的不重復性和完整性。

2.2實驗設置

本文所有的實驗都通過驗證集對超參數進行選擇,且所有的實驗性能對比均在測試集上完成。為了優化目標函數,本文采用了隨機梯度下降法,該方法已被證明在優化神經網絡模型的過程中是有效的[21]。此外,本文采用網格搜索策略調整模型的超參數。在{8,12,16,20,24}中搜索批量的最佳大小,在{10-2,10-3,10-4,10-5}內微調正則率和學習率,并且在{0,1,2,3}中搜索傳播層數k來使模型達到最優效果。同時采用Adam優化器去優化整個預測模型和更新模型參數。所有實驗均是在一臺裝有Quadro M4000圖形處理器的服務器上進行的。實現訓練過程在目標函數收斂或到達最大的循環次數時停止。

2.3對比方法

Random:一個基于隨機猜測的模型。

SiameseNet[7]:SiameseNet送一對時尚單品進入到Siamese網絡中,將它們映射到樣式空間并比較它們之間的距離,通過平均成對單品的兼容性得分來計算整個套裝的兼容性得分。

Bi-LSTM[9]:Bi-LSTM采用雙向LSTM挖掘一套服裝中時尚單品之間的序列關系來對它們之間的兼容性進行建模,并計算它們之間的兼容性得分。

VCP[14]:VCP方法引入了圖自動編碼器,根據兩個時尚單品的視覺特征以及它們的上下文來計算它們之間的兼容性得分。

GGNN[18]:GGNN利用圖神經網絡對套裝和單品服裝之間的關系進行建模,并計算它們之間的兼容性得分。

2.4服裝填空任務

服裝填空任務(fill in the blank,FiTB)是一項廣泛開展的時尚兼容性研究的標準測試。給定一組搭配好的套裝,將其中一件單品隨機用空白代替,同時從數據集中任意選取三件單品作為錯誤選項,與被替代的單品一起組成候選集。本文將被空白代替的單品設置為正確答案,并且假設該單品比其他候選項與原套裝更兼容。任務目的是從候選集中找到正確選項來填充套裝中的空白。這項任務的性能通過從四個候選項中選擇正確答案的準確率來評估。

本文提出的模型與其他可替代模型在FITB任務中的比較結果如表1所示。從表1中可以得出以下結論:a)與其他方法相比,Random的性能較差,表明僅僅通過隨機猜測不足以反映套裝整體的兼容性;b)Bi-LSTM的性能優于Random,原因可能是引入Bi-LSTM可以更好地學習有關兼容性的潛在知識,與隨機猜測兼容性的模型相比,Bi-LSTM將整個套裝表示為一個序列,并在比較成對單品之外學習高階關系;c)同樣通過平均成對單品兼容性來計算套裝兼容性的VCP,性能卻優于Bi-LSTM,其性能的提升要歸功于VCP中引入了上下文信息來更好地反映單品之間的關系,這也證明了上下文信息在服裝兼容性任務中的有效性;d)與其他方法相比,基于圖的方法GGNN取得了更好的性能,表明圖結構可以進一步有效地推斷兼容性信息,與Bi-LSTM和VCP相比,這種性能的提升驗證了圖表示比序列表示和成對表示可以更好地對時尚單品之間的交互進行建模;e)本文提出的模型實現了最好的性能,這得益于超圖表示可以很好地模擬套裝和時尚單品之間的復雜關系和高階關系。此外,該模型還引入自注意力機制來估計服裝的兼容性,這可以更好地捕捉潛在的兼容性知識,進一步提高模型性能。如圖2所示,本文隨機選擇幾套示例服裝可視化提出的模型在服裝填空任務上的性能。

為了更加直觀地分析所提模型OCPCE與對比模型NGNN以及Bi-LSTM在服裝填空任務中的性能,本節從數據集中隨機可視化了幾個具體的樣本案例,并對其進行詳細說明。可視化結果如圖3所示,其中方框表示模型選擇正確的答案,而無方框表示模型選擇錯誤的答案。在示例1中,所有的模型都推斷出示例套裝缺少一雙鞋子,并選擇了正確答案。在示例2中,本文所提模型OCPCE和NGNN都選擇了正確的答案,而Bi-LSTM模型卻選擇了錯誤的答案。這是因為Bi-LSTM模型是基于序列的方法,而上衣的位置與空白處相鄰,會對空白處服裝的選擇產生極大的影響,最終導致Bi-LSTM選擇了褲子作為答案。在示例3中,只有本文所提模型OCPCE選擇了正確的時尚單品。雖然NGNN同樣推斷出了示例套裝中所缺少的單品類別,但其選擇的答案并不是與示例套裝最兼容性的單品。而Bi-LSTM同樣因為基于序列表示的原因選擇了外套作為錯誤答案。OCPCE在三個示例套裝中均選擇了正確答案,說明基于超圖表示的方法有效地模擬了套裝和時尚單品之間的交互關系。上述示例驗證了所提模型在服裝填空任務上的優越性。

2.5服裝兼容性預測任務

服裝搭配兼容性預測(outfit compatibility prediction,CP)任務的目標是對給定的一套服裝生成兼容性得分,該分數表示服裝整體的兼容性程度。分數越接近1表示套裝越兼容,越接近0表示套裝越不兼容。這是現實生活中常見的問題,例如用戶想要搭配一套適合自己的衣服,并希望確定時尚單品之間是否兼容。為了評估該模型,本文首先根據數據集構建兼容服裝集,即數據集中的所有服裝均為兼容服裝。然后從兼容服裝集中隨機選擇時尚項目,生成與兼容服裝相同數量的不兼容服裝集。通過對兼容服裝集和不兼容服裝集評分來判斷套裝是否兼容。這項任務的性能通過采用廣泛使用的ROC(receiver operating characteristic)曲線下的度量標準AUC(area under curve)來進行評估。

本文提出的模型與其他可替代模型在服裝兼容性預測任務上的實驗結果如表2所示。與FITB任務相似,本文提出的模型實現了最好的性能,表明超圖的引入很好地揭示了時尚單品之間的高層次關系,增強了模型的預測性能?;趫D表示的GGNN也展現出了很好的性能,反映出圖結構仍然能很好地預測服裝兼容性。而引入上下文信息的VCP方法性能雖然優于序列表示Bi-LSTM和隨機猜測Random,但是它們在該任務中都沒有展現出很好的競爭力,說明只對成對單品的兼容建?;蛘邔⑻籽b表示為序列并不能很好地預測服裝兼容性。從表中觀察到的這些結果,同樣支持了FiTB任務中的分析。

為了清晰地說明本文所提模型OCPCE在服裝兼容性任務中的性能,從測試集中隨機可視化了幾套服裝,并對其評分結果進行分析。如圖4所示,OCPCE模型為每套服裝都進行了評分,其中得分越接近1說明套裝兼容性越高,越接近0說明套裝兼容性越低。例如,第1套示例服裝中各時尚單品之間種類互補并且顏色色調相近,因此它們獲得了很高的兼容性得分;第2套服裝中同時出現了兩種不同樣式的鞋子,這導致服裝整體的兼容性得分由于單品種類重復出現而偏低;第3套示例服裝中,雖然并沒有重復出現相同類別的單品,但是可以很明顯地發現套裝中缺少了鞋子這一類別,因此也獲得了較低的兼容性分數。綜上,從示例中可總結出與常理相符的結論,套裝中缺少或者重復出現某一類別的時尚單品都會使得服裝的兼容性降低。同時,本文所提模型對這些案例的兼容性評分也驗證了其在服裝兼容性預測任務中的有效性。

2.6不同組成模塊對模型性能的影響

為了驗證每個組成模塊對提出模型性能的影響,本文通過禁用每個組成模塊并比較它們的性能來進行消融研究。

實驗結果如表3所示,其中OCPCE(-h)表示該模型禁用超圖模塊后的變體,OCPCE(-w)表示禁用注意力機制模塊后的變體,OCPCE(-h-w)表示同時禁用超圖模塊和注意力機制模塊后的變體。從實驗結果中可觀察到以下結果:a)完整模型的性能優于所有的消融模型,證明了本文提出的模型中超圖模塊和注意力機制模塊的重要性;b)禁用超圖模塊的性能比完整模型性能差,說明超圖機制可以很好地模擬套裝和時尚單品之間的高階關系;c)禁用注意力機制的模型性能僅次于優于完整模型的性能,這證明了注意力機制引入的必要性。

2.7不同模態對模型性能的影響

為了全面驗證本文所提模型的有效性,本節在不同模態組合情況下對模型進行燒蝕實驗。其中OCPCE(VI)表示只有視覺模態、OCPCE(TE)表示只有文本模態,OCPCE(VI+TE)表示文本模態與視覺模態相結合。

表4展示了本文所提模型OCPCE在不同模態下的性能比較。從表中可以看出:a)采用多模態信息的模型優于只采用單一模態的模型,說明文本模態和視覺模態都有助于提高兼容性建模的性能;b)只采用視覺模態的模型優于只采用文本模態的模型,說明影響時尚單品建模的服裝因素更多地體現在視覺信息(如顏色和圖案),而不是文本信息(如材質和類別)。

3結束語

為了更好地預測服裝搭配的兼容性,本文提出通過超圖來表示套裝和單品之間的關系,因為超圖中的超邊可以連接多個節點表示一套完整的套裝。為了更好地從超圖中推斷套裝是否兼容,本文將超邊轉換為傳統圖使得可以更好地捕捉套裝中不同單品之間的復雜關系。同時使用真實數據集在不同類型的時尚搭配任務上進行實驗,結果表明,本文所提模型可以有效地學習時尚服裝的兼容性。但是由于每個用戶都有獨特的審美和穿搭風格,所以在之后的研究中,可以將用戶的個人偏好融合到服裝搭配技術中,通過衡量用戶的體型、膚色等信息,實現基于用戶的個性化搭配。

參考文獻:

[1]Kang W C,Fang Chen,Wang Zhaowen,et al.Visually-aware fashion recommendation and design with generative image models[C]//Proc of IEEE International Conference on Data Mining.Piscataway,NJ:IEEE Press,2017:207-216.

[2]Feng Zunlei,Yu Zhenyun,Yang Zhenyun,et al.Interpretable partitioned embedding for customized multi-item fashion outfit composition[C]//Proc of ACM on International Conference on Multimedia Retrieval.New York:ACM Press,2018:143-151.

[3]Shih Y S,Chang K Y,Lin H T,et al.Compatibility family learning for item recommendation and generation[C]//Proc of the AAAI Confe-rence on Artificial Intelligence.Palo Alto,CA:AAAI Press,2018 .

[4]Al-Halah Z,Stiefelhagen R,Grauman K.Fashion forward:forecasting visual style in fashion[C]//Proc of the IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2017:388-397.

[5]劉銳,彭敦陸.一種服飾風格特征指導下的服裝搭配學習模型[J/OL].小型微型計算機系統.(2021-06-22).http://kns.cnki.net/kcms/detail/21.1106.TP.20210622.1546.008.html.(Liu Rui,Peng Dunlu.A fashion compatibility learning model guided by clothing style features [J/OL].Journal of Chinese Computer Systems.(2021-06-22).http://kns.cnki.net/kcms/detail/21.1106.TP.20210622.1546.008.html.)

[6]楊怡然,吳巧英.智能化服裝搭配推薦研究進展[J].浙江理工大學學報:自然科學版,2021,45(1):1-12.(Yang Yiran,Wu Qiao-ying.Research progress of intelligent clothing matching recommendation[J].Journal of Zhejiang Sci-Tech University:Natural Science,2021,45(1):1-12.)

[7]Veit A,Kovacs B,Bell S,et al.Learning visual clothing style with heterogeneous dyadic co-occurrences[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2015:4642-4650.

[8]McAuley J,Targett C,Shi Q,et al.Image-based recommendations on styles and substitutes[C]//Proc of the 38th International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2015:43-52.

[9]Han Xintong,Wu Xintong,Jiang Yugang,et al.Learning fashion compatibility with bidirectional LSTMs[C]//Proc of the 25th ACM International Conference on Multimedia.New York:ACM Press,2017:1078-1086.

[10]Hong Richang,Li Lei,Cai Junjie,et al.Coherent semantic-visual indexing for large-scale image retrieval in the cloud [J].IEEE Trans on Image Processing,2017,26(9):4128-4138.

[11]Hong Richang,Yang Yang,Wang Meng,et al.Learning visual semantic relationships for efficient visual retrieval[J].IEEE Trans on Big Data,2015,1(4):152-161.

[12]Chen Long,Zhang Hanwang,Xiao Jun,et al.Counterfactual critic multi-agent training for scene graph generation[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2019:4613-4623.

[13]Cui Zeyu,Li Zekun,Wu Shu,et al.Dressing as a whole:outfit com-patibility learning based on node-wise graph neural networks[C]//Proc of World Wide Web Conference.New York:ACM Press,2019:307-317.

[14]Cucurull G,Taslakian P,Vazquez D.Context-aware visual compatibility prediction[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:12617-12626.

[15]Szegedy C,Vanhoucke V,Ioffe S,et al.Rethinking the inception architecture for computer vision[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016:2818-2826.

[16]Ji Rongrong,Xie Xing,Yao Hongxun,et al.Mining city landmarks from blogs by graph modeling[C]//Proc of the 17th ACM International Conference on Multimedia.New York:ACM Press,2009:105-114.

[17]Gao Yue,Wang Meng,Zha Zhengjun,et al.Visual-textual joint relevance learning for tag-based social image search [J].IEEE Trans on Image Processing,2012,22(1):363-376.

[18]Li Y,Tarlow D,Brockschmidt M,et al.Gated graph sequence neural networks[J].IEEE Trans on Signal Processing,2020,68(1):6303-6318.

[19]Maas A L,Hannun A Y,Ng A Y.Rectifier nonlinearities improve neural network acoustic models[C]//Proc of the 30th International Conference on Machine Learning.Piscataway,NJ:IEEE Press,2013:1-5.

[20]Rendle S,Freudenthaler C,Gantner Z,et al.BPR:Bayesian persona-lized ranking from implicit feedback[C]//Proc of the 25th Confe-rence on Uncertainty in Artificial Intelligence.New York:ACM Press,2013:452-461.

[21]Zhang Tong.Solving large scale linear prediction problems using stochastic gradient descent algorithms[C]//Proc of the 21st International Conference on Machine learning.Piscataway,NJ:IEEE Press,2004:116.

收稿日期:2022-01-28;修回日期:2022-03-19基金項目:天津市自然科學基金資助項目(20JCQNJC01490)

作者簡介:李?。?996-),男(通信作者),山西呂梁人,碩士研究生,主要研究方向為多媒體計算、機器學習(2019232064@tju.edu.cn);李卓(1984-),男,山西大同人,副教授,碩導,博士,主要研究方向為人工智能與數據智能化處理;馬天祥(1986-),男,遼寧朝陽人,高級工程師,碩士,主要研究方向為配網運行分析與配電自動化技術;梁紀峰(1985-),男,高級工程師,碩士,主要研究方向為電力系統穩定分析與控制.

主站蜘蛛池模板: 欧美人在线一区二区三区| 无码在线激情片| 强乱中文字幕在线播放不卡| 狂欢视频在线观看不卡| 欧美成人综合视频| 亚洲欧美日韩成人在线| 国产精品视屏| 国产va免费精品观看| 91久久夜色精品国产网站| 免费人欧美成又黄又爽的视频| 亚洲无码91视频| 波多野结衣爽到高潮漏水大喷| 日本不卡免费高清视频| 国产成人亚洲欧美激情| 国产日韩欧美一区二区三区在线| 欧美国产另类| 国内精品自在自线视频香蕉| 久久这里只有精品免费| 99re热精品视频国产免费| 高清久久精品亚洲日韩Av| 日韩欧美色综合| 欧美不卡视频一区发布| 日韩天堂在线观看| 欧美一级99在线观看国产| 毛片手机在线看| 高潮爽到爆的喷水女主播视频| 久久综合结合久久狠狠狠97色| 欧美福利在线播放| 无码在线激情片| 亚洲性视频网站| a级毛片视频免费观看| 国产美女精品人人做人人爽| 97精品久久久大香线焦| www.youjizz.com久久| 国产人在线成免费视频| 日本午夜视频在线观看| 亚洲人成亚洲精品| 在线欧美日韩国产| 97成人在线视频| 国产第二十一页| 国产精品亚洲精品爽爽| 综合色88| 亚洲美女AV免费一区| 亚洲精品另类| 福利国产在线| 日韩av电影一区二区三区四区| 人妻免费无码不卡视频| 欧美国产精品拍自| 国产成人乱码一区二区三区在线| 久久久久九九精品影院| 综合亚洲网| 综合人妻久久一区二区精品 | 久久综合九九亚洲一区| 国产福利2021最新在线观看| 亚洲欧美日韩成人在线| 午夜日b视频| 国产第一页亚洲| 亚洲日本一本dvd高清| 国产成人精品高清在线| 欧美人人干| 亚洲天堂视频在线免费观看| 国产精品爽爽va在线无码观看| 亚洲成人网在线播放| 伊人久久久久久久久久| 999精品在线视频| 亚洲美女久久| 久热re国产手机在线观看| 国产在线拍偷自揄观看视频网站| 露脸一二三区国语对白| 无码人妻免费| 国产成人精品高清不卡在线| 亚洲资源站av无码网址| 四虎永久免费地址| 热思思久久免费视频| 中文成人无码国产亚洲| 亚洲视频影院| 久久无码免费束人妻| 婷婷色丁香综合激情| 亚洲三级电影在线播放| 日韩免费毛片| 日本91在线| 人妻一本久道久久综合久久鬼色|