



摘要:隨著時尚行業(yè)的不斷發(fā)展和數(shù)字技術(shù)的進步,利用計算機將草圖轉(zhuǎn)換為目標(biāo)圖像的需求日益增長。在草圖生成服裝圖像中,如何生成復(fù)雜紋理和逼真的效果一直是一個重要的挑戰(zhàn)。文章構(gòu)建了用于草圖生成服裝圖像的數(shù)據(jù)集,并基于生成對抗網(wǎng)絡(luò)模型實現(xiàn)了從草圖到服裝圖像的轉(zhuǎn)換。實驗結(jié)果表明,該方法能夠有效地從草圖生成服裝圖像,生成的圖像具有清晰的紋理和較高的逼真度。
關(guān)鍵詞:草圖生成服裝圖像;生成對抗網(wǎng)絡(luò);圖像生成
中圖分類號:TP3" "文獻標(biāo)識碼:A
文章編號:1009-3044(2025)07-0047-03
開放科學(xué)(資源服務(wù)) 標(biāo)識碼(OSID)
0 引言
在人工智能的推動下,時尚產(chǎn)業(yè)正經(jīng)歷著數(shù)字化轉(zhuǎn)型,服裝圖像生成在推動行業(yè)數(shù)字化進程中發(fā)揮著重要作用。傳統(tǒng)的時尚設(shè)計和生產(chǎn)模式正面臨挑戰(zhàn),消費者對個性化、多樣化時尚產(chǎn)品的需求日益增長[1] 。在數(shù)據(jù)和硬件資源的支持下,基于深度學(xué)習(xí)的人工智能技術(shù)飛速發(fā)展,并在服裝產(chǎn)業(yè)中得到廣泛應(yīng)用,例如設(shè)計和創(chuàng)意輔助、個性化推薦、趨勢預(yù)測、虛擬試衣、服裝生成、品質(zhì)檢測和智能客服等,有效提升了時尚產(chǎn)業(yè)的效率、個性化服務(wù)和創(chuàng)新能力[2] 。服裝生成近年來引起了廣泛關(guān)注,因為它有潛力徹底改變時尚產(chǎn)業(yè),傳統(tǒng)的服裝設(shè)計和生產(chǎn)方法耗時、昂貴,且受限于人類的創(chuàng)造力[3] 。通過利用深度學(xué)習(xí)的技術(shù),可以自動化和增強服裝設(shè)計過程,實現(xiàn)新穎、個性化的服裝。本文旨在研究基于生成對抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)的草圖生成服裝圖像的方法,可以為時裝設(shè)計師提供靈感,以提高服裝設(shè)計過程的效率和創(chuàng)造力。
1 相關(guān)工作
圖像生成作為計算機視覺領(lǐng)域的重要分支,近年來隨著深度學(xué)習(xí)的研究和發(fā)展,涌現(xiàn)出大量的基于深度學(xué)習(xí)的圖像生成方法。目前,圖像生成領(lǐng)域主要存在三大模型:深度置信網(wǎng)絡(luò) (Deep Belief Network, DBN)、變分自編碼器(Variational Autoencoder, VAE)和生成對抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)[4] 。生成對抗網(wǎng)絡(luò)(GAN)是由Goodfellow等人于2014 年提出的一種用于解決圖像生成問題的模型[5] 。GAN模型由生成器和判別器組成,可以通過對抗訓(xùn)練的方式學(xué)習(xí)生成逼真的服裝圖像。近年來,許多國內(nèi)外研究者通過改進GAN的結(jié)構(gòu)和訓(xùn)練策略,使其在服裝生成任務(wù)中取得了顯著成果。部分研究通過引入條件GAN (Conditional GAN, CGAN),將用戶的偏好信息融入生成過程中,實現(xiàn)了個性化的服裝設(shè)計。例如,Isola等人于2017年提出了一種基于CGAN架構(gòu)的有監(jiān)督圖像風(fēng)格轉(zhuǎn)換模型pix2pix,該模型能夠?qū)崿F(xiàn)圖像到圖像的轉(zhuǎn)換,并通過添加條件信息來指導(dǎo)圖像生成[6] 。同年,Zhu 等人提出了一種基于無監(jiān)督學(xué)習(xí)的圖像風(fēng)格轉(zhuǎn)換模型 CycleGAN[7] 。CycleGAN 由兩個生成器和兩個判別器組成,能夠生成更加逼真的圖像。2020年Karras等人提出StyleGAN,該技術(shù)將圖像生成推向了新的高度,能夠生成高質(zhì)量、逼真的圖像[8] 。除了GAN模型外,變分自編碼器(VAE)也是一種常用的圖像生成模型。VAE可以學(xué)習(xí)服裝圖像的潛在表示,并通過對潛在空間進行插值和操作來生成新的服裝圖像。研究人員通過設(shè)計合適的潛在空間和優(yōu)化策略,不斷提高VAE在服裝生成方面的效果。
除上述基本模型外,研究人員還探索了許多其他技術(shù)和方法來改進服裝生成的質(zhì)量和多樣性。例如,部分研究致力于生成高分辨率、細粒度的服裝細節(jié),并通過引入更復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù)來實現(xiàn)。還有一些研究關(guān)注于將服裝生成與虛擬試穿和時尚推薦系統(tǒng)相結(jié)合,以提供個性化的時尚體驗。
總而言之,國內(nèi)外研究者在服裝生成領(lǐng)域做出了令人矚目的努力,并取得了豐碩的成果。他們不斷探索新的深度學(xué)習(xí)模型和方法,致力于解決服裝設(shè)計和生產(chǎn)中的挑戰(zhàn)。這些研究對推動時尚產(chǎn)業(yè)的創(chuàng)新和發(fā)展具有重要意義。然而,該領(lǐng)域仍面臨一些挑戰(zhàn),例如生成高分辨率、細粒度的服裝細節(jié),以及在圖像處理過程中保持服裝結(jié)構(gòu)的完整性等。
2 服裝草圖數(shù)據(jù)集的設(shè)計與構(gòu)建
針對現(xiàn)有服裝數(shù)據(jù)集中服裝草圖的缺乏以及設(shè)計師手繪圖的版權(quán)問題,本文采用一種基于邊緣檢測算法的方法構(gòu)建服裝草圖數(shù)據(jù)集。本文首先利用爬蟲技術(shù)從電商平臺爬取服裝圖片,然后對獲取的圖片進行預(yù)處理,最后利用邊緣檢測算法生成草圖數(shù)據(jù)集。
本文利用Scrapy爬蟲框架,從某電商平臺爬取以“連衣裙”為主題的圖片,共爬取3 089張圖片,經(jīng)過數(shù)據(jù)清洗,去除重復(fù)圖片和非正面圖,最終獲得1 542張圖片,如圖1所示。
為了生成草圖數(shù)據(jù)集,本文采用Canny邊緣檢測算法提取圖像邊緣,然后對提取后的圖像進行灰度反轉(zhuǎn),最終生成服裝草圖,結(jié)果如圖2所示。
Canny算法是一種經(jīng)典的邊緣檢測算法,它通過多個步驟來識別圖像中的邊緣,包括高斯濾波、計算梯度、非極大值抑制和雙閾值處理[9] 。在提取出邊緣圖像的基礎(chǔ)上進行圖像的灰度反轉(zhuǎn),通過將邊緣圖像的灰度值進行反轉(zhuǎn),黑色邊緣將變?yōu)榘咨咨尘皩⒆優(yōu)楹谏_@樣可以使得服裝草圖中的服裝邊緣呈現(xiàn)黑色,符合草圖的特點,模擬真實的服裝草圖。最后將生成的草圖數(shù)據(jù)集用于后續(xù)的服裝生成模型的訓(xùn)練和測試。
將爬取到的真實原始圖像與生成的草圖進行配對,剔除生成圖像質(zhì)量較差的樣本,最終篩選出1 001對圖像。將所有圖像尺寸調(diào)整為256×256像素,并按照8∶2的比例劃分訓(xùn)練集和測試集,其中訓(xùn)練集包含801對圖像,測試集包含200對圖像,如表1所示。
3 基于GAN的草圖生成服裝圖像
在草圖生成真實圖像的研究領(lǐng)域,已經(jīng)涌現(xiàn)出許多相關(guān)研究工作。其中,經(jīng)典的圖像風(fēng)格遷移模型pix2pix已成功實現(xiàn)了從草圖到真實圖像的轉(zhuǎn)換。然而,pix2pix在處理特征簡單的圖像時效果較好,但在服裝生成任務(wù)上表現(xiàn)不佳,生成的圖像質(zhì)量和紋理都不理想。為了驗證這一結(jié)論,本文將pix2pix與CycleGAN進行對比實驗。實驗結(jié)果表明,CycleGAN模型能夠更好地解決草圖轉(zhuǎn)換為逼真服裝圖像的問題。
CycleGAN模型由兩個生成器和兩個判別器組成,一個生成器用于將草圖轉(zhuǎn)換為服裝圖像,另一個生成器用于將服裝圖像轉(zhuǎn)換回草圖。兩個判別器分別用于區(qū)分真實圖像和生成圖像,并提供對抗性訓(xùn)練的參數(shù),如圖3所示。
本文使用構(gòu)建的服裝草圖數(shù)據(jù)集對CycleGAN模型進行訓(xùn)練。實驗中,圖像大小為256×256像素,批處理大小設(shè)置為1,未使用批歸一化。在前100個epoch中,學(xué)習(xí)率設(shè)置為0.000 2,在隨后的100個epoch中,學(xué)習(xí)率線性下降至0。實驗結(jié)果如圖4所示。從實驗結(jié)果可以看出,與pix2pix相比,CycleGAN生成的
圖像具有更清晰的紋理和線條,整體效果更佳。這表明,使用本文構(gòu)建的草圖數(shù)據(jù)集訓(xùn)練CycleGAN模型能夠生成更加逼真、紋理清晰的服裝圖像。
4 結(jié)束語
本文探討了基于草圖生成真實服裝圖像的任務(wù),并構(gòu)建了服裝草圖數(shù)據(jù)集,使用CycleGAN模型進行圖像轉(zhuǎn)換。實驗結(jié)果表明,該方法能夠生成具有清晰紋理和較高逼真度的服裝圖像。與pix2pix等傳統(tǒng)方法相比,CycleGAN在服裝生成方面表現(xiàn)更優(yōu)。本研究為時尚行業(yè)和服裝設(shè)計領(lǐng)域提供了一種有效的圖像生成解決方案,具有巨大的應(yīng)用潛力。未來工作可以進一步改進和優(yōu)化該方法,以提高生成圖像的質(zhì)量和多樣性,推動該領(lǐng)域的發(fā)展。
參考文獻:
[1] 熊媛園,侯金玥.AI設(shè)計帶給現(xiàn)代服裝設(shè)計行業(yè)的挑戰(zhàn)與機遇[J].紡織報告,2023,42(9):47-49.
[2] 趙夢如.人工智能在服裝款式設(shè)計領(lǐng)域的應(yīng)用進展[J].紡織導(dǎo)報,2021(12):74-77.
[3] 吳丹.人工智能技術(shù)在服裝制造中的應(yīng)用[J].紡織報告,2021,40(10):35-36.
[4] 施倩,羅戎蕾.基于生成對抗網(wǎng)絡(luò)的服裝圖像生成研究進展[J].現(xiàn)代紡織技術(shù),2023,31(2):36-46.
[5] GOODFELLOW I J,POUGET-ABADIE J,MIRZA M,et al.Generative adversarial nets[C]//Proceedings of the 28th International Conference on Neural Information Processing Systems - Volume 2.December 8 - 13,2014,Montreal,Canada.ACM,2014:2672-2680.
[6] ISOLA P,ZHU J Y,ZHOU T H,et al.Image-to-image translation with conditional adversarial networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).July 21-26,2017.Honolulu,HI.IEEE,2017:1125-1134.
[7] ZHU J Y,PARK T,ISOLA P,et al.Unpaired image-to-image translation using cycle-consistent adversarial networks[C]//2017 IEEE International Conference on Computer Vision (ICCV).October 22-29,2017.Venice.IEEE,2017:2223-2232.
[8] KARRAS T,LAINE S,AITTALA M,et al.Analyzing and improving the image quality of stylegan[J].Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2020:8107-8116.
[9] 竇蕾萍,吳君欽.基于改進Canny算法的圖像邊緣檢測[J].軟件導(dǎo)刊,2023,22(8):216-220.
【通聯(lián)編輯:朱寶貴】