999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的虛擬試衣技術現狀及其發展趨勢

2022-06-25 01:48:06魏雪霞徐增波
東華大學學報(自然科學版) 2022年3期
關鍵詞:深度模型

魏雪霞, 趙 娟, 徐增波

(上海工程技術大學 紡織服裝學院, 上海 201620)

虛擬試衣是一種可以幫助用戶實現無需脫衣便可換裝并查看穿著效果的技術手段,顧客用最短的時間快速瀏覽不同款式的服裝以及觀察試穿效果,增強購物體驗,減少網購服裝與預想效果不一樣的顧慮,降低退貨率,同時也能夠避免實體店試衣的繁瑣。虛擬試衣最早是以網頁2 D虛擬替身類型出現的,主要對模特和服裝的照片用PS(photoshop)軟件進行簡單處理,對網絡帶寬和終端設備要求較低,一般僅能提供虛擬替身正面與背面兩組視角的試穿效果,精準度低且真實感較差。針對2 D虛擬試衣的種種不足,3 D虛擬試衣逐漸成為研究的重點和熱點。3 D虛擬試衣根據用戶所測得的人體三維數據,通過計算機建立三維人體模型并構建相應的服裝衣片模型,創造一個虛擬的3 D試衣環境,在不接觸服裝實物的情況下,顧客根據自己的喜好方便快捷地更換服裝,得到相應的著裝立體效果模擬圖[1],以便全方位地瀏覽試穿效果。國外關于3 D虛擬試衣的研究比較成熟,典型的有美國的Fitiquette、法國力克公司的E-Design系統、英國的Fits.me和Metail以及加拿大的My Virtual Model試衣網站。國內關于3 D虛擬試衣的研究還在探索階段,2011年,我國出現了首個商業化的三維虛擬試衣系統——杭州森動數碼科技發布的“3 D互動虛擬試衣間”,此后又出現了如上海試衣間信息科技有限公司研發的“好搭盒子”、上海魔購百貨公司研發的“魔購百貨”、北京優時尚科技有限責任公司推出的購搭APP等虛擬試衣軟件,主要用于線上服裝銷售的虛擬體驗,試衣網站有face72、41go、okbig、和炫三維試衣等。雖然3 D虛擬試衣的研究已成為一個熱門話題,但是因其涉及三維人體建模技術、三維服裝建模技術、虛擬試穿技術等,需要專業性極強的相關人員,并且部分設備的投入資金較大,對于普通用戶和日常使用都是不現實的。

深度學習是機器學習算法研究中的一個新技術,主要是建立、模擬人腦進行分析學習的神經網絡,成為各行業的研究熱點,服裝領域也不例外。利用深度學習生成模型解決虛擬試衣問題,主要是將虛擬試衣轉化為條件圖像生成問題,通過輸入用戶提供的個人照片以及想要知道穿著效果的服裝模型圖,運行神經網絡進行訓練,從而生成該用戶穿著這款服裝的效果圖。Ronneberger[2]提出U-Net,主要采用全卷積神經網絡對圖像進行逐像素分類,在圖像分割領域達到不錯的效果。Lin等[3]提出一種多路徑增強網絡,使用殘差連接可以將下采樣中缺失的信息有效地融合進來,從而產生高分辨率的預測圖像。Jetchev等[4]在時尚換裝中引入有條件的類比生成對抗網絡(the conditional analogy generative adversarial networks, CAGAN)。Han等[5]引入基于映像的虛擬試衣網絡(VITON),使用形狀上下文匹配算法將布料扭曲在目標人物上,并使用U-Net生成器學習圖像合成。Wang等[6]提出基于圖像的特征保留虛擬試衣網絡(characteristic-preserving virtual try-on network, CP-VTON),引進了用于集合匹配的卷積神經網絡架構。Pandey[7]提出Poly-GAN(generative adversarial networks)對網絡進行簡化嘗試,使用一個網絡完成變形和融合等任務。這種基于深度學習的虛擬試衣方法不使用任何3 D信息,可實現比較好的試穿結果,同時經濟性較好,但存在生成的圖片容易出現紋理丟失、身體部位丟失等問題,影響試衣結果等。盡管如此,基于深度學習的虛擬試衣已經引起了廣泛的關注且研究意義重大,隨著深度學習的不斷發展以及成本的合理化,其在虛擬試衣中的深入應用成為大勢所趨。

1 相關理論基礎

1.1 深度學習簡介

深度學習是機器學習研究中的一個新領域,其學習樣本數據的內在規律和表示層次,這些學習過程中獲得的信息對諸如文字、圖像和聲音等數據的解釋有很大的幫助。深度學習的最終目標實現機器能夠像人一樣具有分析學習能力,即能夠識別文字、圖像和聲音等數據[8]。根據深度學習結構、技術和應用領域不同,將深度學習架構分為無監督或生成式學習的深度架構、有監督學習的深度架構和混合深度架構。無監督或生成式學習的深度架構用于在沒有目標類標簽信息的情況下捕捉觀測到的或可見數據的高階相關性,常見的代表網絡有深度波爾茲曼機、受限波爾茲曼機和廣義除噪自編碼器。有監督學習的深度架構直接提供用于模式分類目的的判別能力,描述可見數據條件下的后驗分布。混合深度架構目標是判別式模型,往往以無監督或生成式學習的深度架構的結果作為重要輔助,常見的實現方式是通過優化和正則類別中的深度網絡,或者通過使用判別式準則對第一個類別所述的生成式或無監督深度架構的參數進行估計。

1.2 深度學習網絡模型

1.2.1 卷積神經網絡(convolutional neural networks,CNN)

CNN是一類具有深度結構的前饋神經網絡[9],是目前深度學習技術領域中具有代表性的神經網絡之一,是最早應用于實踐的深度學習網絡。CNN考慮輸入信號是圖像的特點,參考生物視覺神經的接收域概念,采用稀疏連接、權值共享、池化等概念,成功彌補全連接模型在圖像處理領域的不足。CNN包含輸入層、卷積層、激活層、池化層和全連接層等5種類型的層次結構。最早出現的CNN是時間延遲網絡和LeNet-5[10],其中,LeNet-5闡述圖像中像素特征之間的相關性能夠由參數共享的卷積操作所提取,同時使用卷積、下采樣(池化)和非線性映射的組合結構,是當前流行的大多數深度圖像識別網絡的基礎。

1.2.2 循環神經網絡(recurrent neural network, RNN)

RNN是應用自然語言處理、語音識別、圖像標注等序列數據處理的基本網絡框架,包括Vector-to-Sequence、Sequence-to-Vector和Encoder-to-Decoder等3種網絡結構。傳統的神經網絡模型的層與層之間一般是“全連接”,每層之間神經元是“無連接”,但RNN中當前單元的輸出與之前步驟的輸出也有關,具體表現形式為當前單元會對之前步驟的信息進行存儲并應用于當前輸出的計算。常用訓練RNN的方法是BPTT (back propagation through time)算法,BPTT的中心思想與BP (back propagation)算法一樣,沿著需要優化參數的負梯度方向不斷尋找更優的點直至收斂。RNN在處理時間序列上距離較遠的點時,涉及雅可比矩陣的多次相乘,會造成梯度消失或膨脹現象,為了解決該問題,提出了門限RNN,有漏單元通過設計連接間的權重系數,從而允許RNN積累距離較遠節點之間的長期聯系,而門限RNN則泛化了這種思想,允許在不同時刻改變該系數,且允許網絡忘記當前已經累計的信息。門限RNN中最著名的是長短期記憶網絡(long-short term memory, LSTM),只要關閉輸入門,新輸入信號就不會覆蓋原輸入信號,打開輸出門后可使原輸入信號產生作用,這些機制解決了很多普通RNN不能解決的問題。

1.2.3 生成對抗網絡(generative adversarial networks, GAN)

GAN是圖像合成中最流行的深層生成模型之一,包含一個生成模型和一個判別模型。生成模型捕捉樣本數據的分布,判別模型是一個二元分類器,判別輸入樣本是真實樣本還是生成的假樣本,生成模型要盡可能迷惑判別模型,判別模型要盡可能區分生成模型生成的樣本和真實樣本,兩個模型不斷博弈優化,最終判別模型無法判別生成模型所生成圖像的真假。GAN在圖像去噪、圖像超分辨率、圖像補全、風格遷移等任務中取得了很好的效果。

1.3 深度學習優化算法

梯度下降(gradient descent, GD)法是最常用的優化神經網絡的方法,分為批量梯度下降、隨機梯度下降和小批量梯度下降。批量梯度下降法的每次更新都需要在整個數據集上求出所有的偏導數,因此其速度比較慢;隨機梯度下降法的每次更新是對數據集中的一個樣本求出罰函數,然后對其求相應的偏導數,可避免在較大數據集上的計算冗余,運行速度大大加快。調整隨機梯度下降優化算法的學習速率可以提升性能并減少訓練時間,常用的隨機梯度下降優化算法有動量法、Nesterov梯度加速法、Adagrad法、Adadelta法、RMSprop法、適應性動量估計法等。還有另外一些改進隨機梯度下降的策略如樣本重排法、遞進學習、批量標準化及早停等,其中批量標準化用得比較多,在反向傳播過程中,權重問題會導致梯度偏移,批量標準化將這些梯度從異常值調整為正常值,并在小批量范圍內通過標準化使其向共同的目標收斂,加快梯度求解的速度,即提升模型的收斂速度。小批量梯度下降法集合上述兩種方法的優勢,在每次更新中對n個樣本構成的一批數據計算罰函數(n通常為50~256),并對相應的參數進行求導。

2 深度學習關鍵技術

2.1 姿態估計和人體解析

人體姿態估計可確定重要身體關節的精確位置,而人體解析(又稱語義部分分割)的目的是將人體圖像分割為多個具有細粒度語義的部分(如身體部位和衣服),并為圖像內容提供更詳細的解釋說明。姿態估計和人體解析是人體圖像分析的兩個關鍵和相關的任務。關節式人體姿態通常使用一個單術語和圖形結構或圖形模型的組合建模,例如混合身體部位。隨著DensePose[11]的引入,姿態估計問題被定義為使用標準卷積架構的回歸問題,人體姿態估計的研究開始從經典方法轉向深度網絡。例如,Wei等[12]在CNN中引入身體部位間的空間相關性推理。Newell等[13]提出一個堆疊沙漏網絡,通過重復池化向下和向上采樣過程來學習空間分布。Cao等[14]提出一種基于關鍵點的人體姿態估計部分親和場,計算出的人體姿勢用18個關鍵點的坐標表示,為了利用它們的空間布局,每個關鍵點被進一步轉換為一個熱圖,在關鍵點周圍有一個11→11的鄰域,在其他地方填充1和0,所有關鍵點的熱圖進一步疊加成18通道姿態的熱圖,該姿勢識別流程已經成功應用在VITON和CP-VTON工作中。對于人體解析,以往的研究大多采用低水平的過分割、姿態估計和自底向上的假設,生成用于人體解析的構建模塊。關于人體解析方法,大多利用CNN和遞歸神經網絡提高特征表達能力,為了獲取豐富的結構信息,將CNN和圖模型(如條件隨機場)結合起來。Chen等[15]將對象分割擴展到對象零件級分割,并發布了PASCAL PART數據集,其中包括人體的像素級零件注釋。但上述這些方法很難直接利用基于關節點的姿勢估計模型在像素預測中包含復雜的結構約束,為了使生成的解析結果在語義上與人的姿態一致,Liang等[16]收集一個新的數據集(look into person,LIP)進行人體分析和服裝分割,提出一個無縫集成人工解析和姿態估計的統一框架(JPPNet)來探索高效的上下文建模,可以同時預測解析和姿態,并具有極高的質量,該框架網絡使用一個共享殘差網絡來提取人體圖像特征,后面接兩個不同的網絡來得到解析結果與姿態結果,在這兩個結果后面分別接細化網絡,從而進一步細化出更精確的結果。

2.2 服裝變形

現有研究主要基于薄片樣條(thin plate spline, TPS)變換實現一種可學習的圖像匹配模型,并采用CNN實現對衣物形變的預測。TPS可以對表面進行柔性變形,簡單而言,它要解決的問題就是如何把一張圖片變形到另外一張圖片上并使得相互對應的關鍵點重合。隨著深度學習理論的提出,越來越多的CNN模型被提出。Rocco等[17]提出了用于幾何匹配的CNN架構,用于估計兩個輸入圖像之間幾何變換的參數。首先,該框架用強大的可訓練的CNN特征代替標準的局部特征,可以處理匹配圖像之間的外觀大變化;其次,開發了可訓練的匹配和變換估計層,以穩健的方式處理有噪聲和不正確的匹配。在CP-VTON工作中,通過定制的CNN提出一種新的可學習的TPS變換,引入幾何匹配模塊(geometric matching module, GMM),這是一個直接使用像素級損耗(L1)訓練的端到端神經網絡,能夠很好地處理大型形狀和姿態轉換。GMM主要包括4個部分:兩個分別用于提取人體表征和目標服裝的高級特征網絡;將兩個高級特征組合為單個張量的相關層,作為回歸網絡的輸入;用于預測空間變換參數(θ)的回歸網絡;模擬TPS變換進行服裝變形。Dong等[18]受CP-VTON啟發提出多姿態虛擬試衣網絡(multi-pose guided virtual try-on network,MG-VTON),采用CNN學習變換參數,包括特征提取層、特征匹配層和變換參數估計層。

2.3 圖像合成

圖像合成一般采用GAN網絡模型,受原始 GAN的啟發,越來越多改進版GAN被提出并且在圖像生成、圖像修復、超分辨率成像等方面取得了令人矚目的成果。Isola等[19]引用一個條件GAN框架來研究圖像到圖像的轉換問題,將給定的輸入圖像轉換為另一個具有不同表示的圖像。Mirza等[20]提出CGAN(conditional generative adversarial nets),通過在生成器和判別器中加入條件來實現按條件生成數據。Zhu等[21]提出的CycleGAN使用兩個生成器和兩個判別器,并加入了循環一致性損失函數,可用于圖像到圖像的轉換。Siarohin等[22]提出可變形的GAN,在生成對抗網絡的生成器中引入可變形跳躍連接,嘗試解決試衣時不同姿勢之間的未對準問題。在MG-VTON中,引入一種深度扭曲生成對抗網絡(Warp-GAN),將期望的服裝外觀扭曲到合成的人體解析圖中,使用扭曲特征策略學習生成真實圖像,該網絡由生成器(Gwarp)和判別器(Dwarp)組成。在Warp-GAN中,預訓練模型時使用感知損失來度量高級特征之間的距離,鼓勵生成器合成高質量和真實感的圖像。感知損失定義如式(1)所示。由于來自不同層判別器的不同尺度的特征映射增強了圖像合成性能,因此應引入特征損失,如式(2)所示。此外,采用對抗性損失和損耗來提高性能,鼓勵Gwarp從不同方面合成真實和自然的圖像,如式(3)所示。

(1)

式中:Lperceptual為感知損失;I為地面真值圖像;為生成圖像;φi(I)為地面真值圖像I在預訓練網絡Φ的第i(i=0,1,2,3,4)層特征映射;φi()為生成圖像在預訓練網絡Φ的第i(i=0,1,2,3,4)層特征映射;αi為第i層的損失權重。

(2)

式中:Lfeature為特征損失;Fi(I)為地面真值圖像I在訓練后的Dwarp中第i(i=0,1,2)層特征映射;Fi()為生成圖像在訓練后的Dwarp中第i(i=0,1,2)層特征映射;γi為第i層L1損失的權重。

LGwarp=λ1Ladv+λ2Lperceptual+λ3Lfeature+λ4L1

(3)

式中:LGwarp為生成器損失;λi(i=1,2,3,4)為第i層相應損失的權重;Ladv為對抗性損失;L1為機器學習中常用的損失函數之一,用于最小化誤差,該誤差是真實值和預測值之間的所有絕對差之和。

3 深度學習技術應用

3.1 換裝

3.1.1 根據輸入服裝圖像改變原圖模特著裝

圖1 VITON虛擬試衣結果[5]Fig.1 Virtual try-on results of VITON[5]

CP-VTON在VITON基礎上進行改進,采用GMM和Try-On兩個模塊,能夠將服裝轉換為適合目標人物的形狀,并保留服裝的紋理、標志、刺繡等細節。在GMM網絡中,先對輸入的標準待穿衣服圖片(c)和人體特征信息(p)進行卷積以提取高維特征,然后通過一個相關層繼續卷積輸出一套變換參數(θ),使用這套參數對衣服圖片(c)進行TPS變換,整個流程是端到端可學習的。在Try-On模塊中用類U-Net網絡,輸入人體特征(p)和變形后的衣服圖片(?),輸出一個組合掩碼(M)和初步圖片(Ir),然后使用掩碼(M)對?和Ir進行融合生成最終的試衣結果(Io)。試驗證明,相比VITON,CP-VTON在服裝細節保留方面做得更好,兩者虛擬試衣效果對比如圖2所示。

圖2 VITON與CP-VTON虛擬試衣結果對比[6]Fig.2 Comparison of virtual try-on results of VITON and CP-VTON[6]

3.1.2 多姿態引導虛擬試穿網絡

MG-VTON可以在輸入圖像中擬合所需的服裝并對人體姿態進行處理,從而生成新的人體圖像,效果如圖3所示。MG-VTON是一個具有生成性、對抗性學習的多階段框架,構建過程分為3個階段:首先,合成目標圖像的期望人體解析圖,以匹配期望姿態和期望服裝形狀;其次,采用深度變形生成對抗網絡(Warp-GAN),將期望的服裝外觀變形為合成的人體解析圖,解決了輸入人體姿態與期望人體姿態之間的錯位問題;最后,通過細化渲染網絡恢復衣服的紋理細節并刪除一些偽影。MG-VTON為多姿態引導虛擬試穿任務構建了一個新數據集,涵蓋了具有更多姿勢和衣服多樣性的人物圖像。

圖3 MG-VTON虛擬試穿結果[18]Fig.3 Virtual try-on results of MG-VTON[18]

3.1.3 根據輸入模特圖像替換原圖模特著裝

Raj等[23]提出一個新的基于深度學習的虛擬試衣網絡SwapNet,即基于圖像的服裝轉移,給定用戶圖像和穿著目標衣服的模特圖像,其任務是合成穿著目標衣服的用戶新圖像。Wu等[24]提出一種創新的混合學習框架M2E-TON(M2E-try on net),即無監督學習和自監督學習結合姿態條件GAN,可以自動將想要的模特服裝傳輸到目標人物的圖像上,試穿效果如圖4所示。首先, M2E-TON提出了一種基于密集姿態的人體姿態對齊網絡將模型圖像轉換為目標人體姿態,通過自我監督的訓練方法,利用同一個人在兩種不同姿態下的圖像來監督姿態對齊網絡;在此基礎上,提出了一種基于紋理細化網絡的圖像融合算法;最后,采用一個擬合網絡將期望的模型服裝傳遞給目標人群,擬合網絡是一個編解碼器網絡,包括3個卷積層作為編碼器,6個殘差塊用于特征學習,2個反卷積層和1個卷積層作為解碼器。此外,M2E-TON還涉及一種帶有姿態條件GAN的非配對聯合訓練策略,以解決高成本配對訓練數據的需求(目標人需要理想的模型服裝)問題。

圖4 M2E-TON虛擬試衣結果[24]Fig.4 Virtual try-on results of M2E-TON[24]

3.2 服飾搭配

基于深度學習,利用圖像和文本技術做深層抽取和表示,用深層網絡學習搭配關系,在實際應用中取得了良好的效果。

3.2.1 根據模特圖像上已有服裝自動生成搭配的缺失部件

深度生成模型的最新突破為計算機視覺中眾多的時尚應用打開了一扇新大門。Han等[25]提出FiNet,這是一個由形狀生成網絡和外觀生成網絡組成的兩階段生成網絡,每個生成網絡包含一個生成器以及兩個相互作用的編碼器,在第一個編碼器學習隱空間表征時,通過第二個編碼器的隱變量對其進行約束,第二個編碼器的輸入來自缺失的服裝單品,兩個編碼器共同學習,這種方式使得兩個生成網絡都可以學習不同服裝之間的高層級搭配兼容性信息,可以應用于具有搭配兼容性要求的時尚設計輔助工作和新時尚單品推薦任務,效果如圖5所示。具體而言,形狀生成網絡的目的是學習一個映射,在將形狀編碼器的輸出作為條件的情況下,該映射能夠把有缺失的外形信息以及人體信息映射到一個完整的外形信息圖,然后把這個信息圖輸入到外觀生成網絡中,生成與現有服裝視覺兼容的新服裝。

圖5 FiNet效果圖[25]Fig.5 Renderings of FiNet[25]

3.2.2 對模特圖像上現有服裝進行微調

Hsiao等[26]提出一種新穎的圖像生成方法,稱為Fashion ++,即通過最少的服裝編輯建議對現有服裝進行較小的更改,以提高其時尚性,更改可能需要卸下圍巾、換上領口高的上衣或者把T恤塞進襯衫,如圖6所示。Fashion ++模型由一個深度圖像生成神經網絡組成,該神經網絡根據學習到的每件衣服的編碼來學習合成衣服,潛在編碼根據形狀和紋理顯式分解,從而分別允許對形狀和顏色/圖案/材料進行直接編輯。其主要思想是激活最大化方法,該方法基于梯度的優化圖像高度激活神經網絡中的目標神經,對來自深度圖像生成網絡的局部編碼進行操作。

圖6 Fashion ++的效果圖[26]Fig.6 Renderings of Fashion ++[26]

3.2.3 時尚推薦

Li等[27]提出一個服裝搭配評分系統,這是基于深度學習的多模態、多實例打分模型。該模型首先使用深度卷積網絡的端到端視覺特征編碼系統,可以將一件時尚服裝作為輸入,并預測用戶的參與度水平;然后提出一個多模態深度學習框架,該框架利用圖像、標題和類別中的上下文信息,為服裝評分任務提供更可靠的解決方案。Han等[28]提出了通過一個端到端的框架來聯合學習視覺語義嵌入和服飾物品之間的匹配性關系。首先采用Inception-V3 CNN模型作為特征提取器,將圖像轉換為特征向量;然后將服裝項目視為一個具有特定順序的序列,序列中的每個圖像作為一個時間步長,搭配的每一件衣服就是一個時間點,在CNN模型的基礎上利用一個具有512個隱藏單元的單層雙向LSTM (Bi-LSTM)模型來預測集合中的下一個項目;最后訓練一種視覺語義嵌入,在Bi-LSTM的訓練過程中提供類別和屬性信息,可以有效地學習服裝的兼容性。Bracher等[29]提出Fashion DNA,這是一種時尚產品推薦算法,其將文章圖像、標簽和其他目錄信息與客戶響應結合起來,通過最大限度地減少深度神經網絡的交叉熵損失,將精心策劃的內容用于協同過濾,獲取大量客戶的銷售記錄,目的是通過向個別客戶提供量身定制的建議來實現銷售額最大化。由于顧客的興趣和項目相關性會隨著時間的推移而變化,Heinz等[30]提出基于RNN的個性化推薦模型,通過將LSTM元素引入Fashion DNA的網絡來解決個性化推薦。

4 存在問題及發展趨勢

目前基于深度學習的虛擬試衣技術研究已經取得很大進展,但仍存在以下問題:

(1)合成圖像的分辨率(256像素×192像素)較低。首先,變形后的衣服和人體之間的錯位區域會產生偽影,隨著圖像分辨率的增加,偽影變得明顯;其次,現有方法中使用簡單的U-Net不足以合成高分辨率圖像中被遮擋的身體部位。

(2)現有基于深度學習的虛擬試衣技術大部分基于固定且簡單的人體姿勢,對多姿勢的研究很少,但顧客往往希望從不同的角度或以不同的姿勢看到自己的試衣效果。

(3)2 D非剛性變形算法的不足導致衣服的紋理容易過度變形。

(4)現有基于深度學習的虛擬試衣技術研究大多以干凈的產品圖像為基礎,只有小部分研究以模特圖像為基礎,而且實現的虛擬試衣基本都是上裝,用戶無法自由選擇要試穿哪一部分的衣服,這對面向真實場景應用的虛擬換裝系統的實現帶來極大的隱患與阻力。

針對上述虛擬試衣技術存在的問題,未來的研究可以分以下幾個方面:

(1)基于深度學習的虛擬試衣系統可實現高分辨率(1 024像素×768像素)圖像的合成,增加網絡模塊以刪除未對齊區域中與衣服紋理無關的信息,同時使用衣服紋理填充未對齊區域,并通過特征級別的多尺度細化保留衣服的細節。改進算法并利用條件生成網絡對變形后的服裝圖像進行組合,重新繪制被遮擋區域。

(2)基于深度學習的虛擬試衣系統可用于多姿勢試穿場景,能夠顯示原始圖像中看不到的顏色和紋理角度,用戶能從不同的角度或以不同的姿勢看到自己的試衣效果,并且服裝上的標識、形狀和文字等結構必須盡可能自然。

(3)將基于二維圖像的高質量圖像合成方法和基于三維模型的目標人體姿態變形方法結合起來,使用三維人體模型的二維到三維布料模型重建方法,無需三維服裝模板,這樣重建的服裝模型能以自然的方式使衣服變形,并且保留良好的紋理細節。

(4)基于深度學習的虛擬試衣系統允許用戶試穿任意模型圖像中的衣服,而不局限于店內干凈的服裝產品圖像,考慮加入交互式紋理控制機制,使用戶可以自由選擇想試穿的衣服(上衣、下裝或整套)。

5 結 語

綜合分析了基于深度學習的虛擬試衣技術的研究現狀、關鍵技術、應用以及發展趨勢,雖然目前對基于深度學習的虛擬試衣技術的研究還不夠成熟,有待解決的技術難點仍然存在,需要在已有技術的基礎上探索出更高效的新方法。但不可否認的是基于深度學習的虛擬試衣技術擁有廣闊的市場前景,它將改變現有的試衣環境和傳統的購物方式,成為服裝實體店及網購中不可或缺的一部分。

猜你喜歡
深度模型
一半模型
深度理解一元一次方程
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
深度觀察
深度觀察
深度觀察
深度觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 久久青草热| 五月婷婷精品| 日韩激情成人| 在线无码av一区二区三区| 日韩人妻精品一区| 福利视频99| 欧美成人午夜影院| 一本大道无码日韩精品影视| 精品一区二区三区水蜜桃| a在线亚洲男人的天堂试看| 亚洲免费福利视频| 亚洲swag精品自拍一区| 91精品专区国产盗摄| 538精品在线观看| 亚洲一级无毛片无码在线免费视频| 国产精品夜夜嗨视频免费视频| 高清码无在线看| 91探花国产综合在线精品| 亚洲欧洲日韩综合色天使| 被公侵犯人妻少妇一区二区三区| 亚洲日本www| 亚洲国产综合精品一区| 高潮毛片免费观看| 台湾AV国片精品女同性| 永久在线精品免费视频观看| 成人一区专区在线观看| 久草热视频在线| 亚洲精品无码AⅤ片青青在线观看| 亚洲人成人伊人成综合网无码| 国产乱论视频| 国产区网址| 免费毛片视频| 自慰网址在线观看| 亚洲最大福利网站| 国产成人91精品| 在线观看欧美精品二区| 香蕉在线视频网站| 日韩美女福利视频| 国产精品久久自在自2021| 天天综合网亚洲网站| 国产Av无码精品色午夜| 亚洲成人在线网| 精品欧美一区二区三区在线| 91精品专区国产盗摄| 国产高潮流白浆视频| 人妻无码AⅤ中文字| 国产成人精品高清在线| 无码区日韩专区免费系列| 97成人在线视频| 欧美午夜在线播放| 日本一区二区三区精品视频| 色吊丝av中文字幕| 99尹人香蕉国产免费天天拍| 亚洲午夜福利精品无码| 国产综合另类小说色区色噜噜 | 国产一区成人| 制服丝袜国产精品| 黄色三级网站免费| 亚洲精品波多野结衣| 色综合久久久久8天国| 一本色道久久88亚洲综合| 国产精选自拍| 视频二区中文无码| 91免费观看视频| 伊人久久福利中文字幕| 亚洲国产成人自拍| 亚洲天堂日韩在线| 97视频精品全国在线观看| 国产簧片免费在线播放| 国产美女一级毛片| 国产精品自在在线午夜区app| 欧美啪啪视频免码| 国产精品密蕾丝视频| 国产v精品成人免费视频71pao| 日韩小视频在线观看| 欧美另类第一页| 91小视频版在线观看www| 色噜噜在线观看| 91视频区| 91小视频在线观看免费版高清| 国产呦精品一区二区三区网站| 国语少妇高潮|