






________________________________ """""""""""""""""""""""""""
作者簡介:沙莎(1987-),女,副教授,博士,碩士生導(dǎo)師,研究方向:針織數(shù)字化設(shè)計(jì).
基金項(xiàng)目:國家自然科學(xué)基金項(xiàng)目(61802285);湖北省哲學(xué)社會(huì)科學(xué)研究項(xiàng)目(22ZD083);湖北省教育廳科學(xué)研究計(jì)劃重點(diǎn)項(xiàng)目(D20201704);湖北省服裝信息化工程技術(shù)研究中心開放基金(184084006);紡織服裝福建省高校工程研究中心開放基金(MJFZ18103);福建省新型功能性紡織纖維及材料重點(diǎn)實(shí)驗(yàn)室開放基金(FKLTFM1813).
引文格式:沙莎,李怡,魏宛彤,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的楚國紡織品服裝元素遷移[J].武漢紡織大學(xué)學(xué)報(bào),2024,37(1):3-6.
SHA Sha, LI Yi, WEI Wantong, et al. Element Migration of Textiles and Clothing in Chu State Based on Convolutional Neural Network [J]. Journal of Wuhan Textile University,2024,37(1):3-6.
摘 要:文章以楚國紡織品為研究對象,通過目標(biāo)內(nèi)容圖輪廓提取和線條增強(qiáng),生成具有楚國紡織品風(fēng)格的圖像;提出基于VGG-19優(yōu)化模型的楚國紡織品紋樣圖像遷移方法,克服了圖案組合創(chuàng)新設(shè)計(jì)、自動(dòng)提取數(shù)量少和資源大量損耗等困難。研究表明:該算法在楚國紡織品風(fēng)格遷移中的表現(xiàn)優(yōu)于現(xiàn)有方法,保留了紡織品藝術(shù)風(fēng)格的完整性,并成功地將遷移的紋樣應(yīng)用到不同的服裝品類中,有利于傳承和發(fā)展中國優(yōu)秀傳統(tǒng)服飾文化,為服裝設(shè)計(jì)者降低了試錯(cuò)成本并提供新的思路。
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);深度學(xué)習(xí);楚國紡織品元素;現(xiàn)代紡織品;風(fēng)格遷移
中圖分類號(hào):TS941.12 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-414X(2024)01-0003-06
0" 引 言
我國古代紡織品種類繁多,不同時(shí)期的紡織品代表了不同朝代的藝術(shù)風(fēng)格與人民智慧。楚地?fù)碛歇?dú)特的風(fēng)俗文化和藝術(shù)形式,其中出土的紡織品紋樣色彩豐富,以暖色為主,兼用冷色;造型手法獨(dú)特,既有寫實(shí)風(fēng)格的動(dòng)物、人物紋樣,又有寫意風(fēng)格的自然、幾何紋樣;元素種類繁多,具有典雅,古樸的藝術(shù)特點(diǎn)。以古鑒今,挖掘民族服飾的特點(diǎn),實(shí)現(xiàn)對楚國紡織品的風(fēng)格遷移,是對中華民族傳統(tǒng)服飾文化傳承和發(fā)展,有利于提高當(dāng)代服飾的獨(dú)特性和創(chuàng)新性。
隨著深度學(xué)習(xí)等關(guān)鍵技術(shù)的不斷發(fā)展,較多學(xué)者致力于將深度學(xué)習(xí)方法應(yīng)用到紡織品設(shè)計(jì)開發(fā)中[1-3]。風(fēng)格遷移可保留圖像原有內(nèi)容并融合不同種類的風(fēng)格,從而產(chǎn)生新型的藝術(shù)效果[4]。卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)領(lǐng)域應(yīng)用較為普遍模型[5]。經(jīng)過技術(shù)不斷發(fā)展與創(chuàng)新,出現(xiàn)了AlexNet[6]、VGGNet(Oxford-Net)[7]、GoogleNet[8]等網(wǎng)絡(luò)模型。自AlexNet結(jié)構(gòu)之后,大多數(shù)網(wǎng)絡(luò)通過增加網(wǎng)絡(luò)深度來改進(jìn)算法,但同時(shí)引發(fā)了梯度爆炸、梯度消失的現(xiàn)象,VGG采用幾個(gè)3*3卷積核代替AlexNet中[9]的較大卷積核(11*11,7*7,5*5),對于給定的感受野,優(yōu)先使用較小的卷積核、較少的參數(shù)和多層的非線性層滿足更復(fù)雜的模型,學(xué)習(xí)能力更強(qiáng),表示的空間更大。
基于卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行風(fēng)格遷移,鄭銳等[10]實(shí)現(xiàn)了立體感強(qiáng)、色彩多樣的刺繡藝術(shù)風(fēng)格效果,林峰等[11]分割不同花型的印花織物圖案基元,Chen[12]等人提出局部匹配的方法將內(nèi)容結(jié)構(gòu)和風(fēng)格紋樣進(jìn)行預(yù)訓(xùn)練,實(shí)現(xiàn)了快速生成任意風(fēng)格的遷移方法,Zhu[13]等人在GAN網(wǎng)絡(luò)的基礎(chǔ)上加入U(xiǎn)gan遷移網(wǎng)絡(luò),解決了非成對圖像不同風(fēng)格的快速遷移問題。
由于楚國紡織品圖像匱乏,本文根據(jù)互聯(lián)網(wǎng)搜索和博物館拍照得到的紡織品圖像,利用卷積神經(jīng)網(wǎng)絡(luò)的VGG-19模型,將楚國紡織品的面料和紋路分離開來,產(chǎn)生新的紡織品效果,并對生成的圖像進(jìn)行質(zhì)量評價(jià),提高了楚國紡織品風(fēng)格圖像數(shù)據(jù)集品質(zhì)。遷移得到的紋樣融合了現(xiàn)代服飾與傳統(tǒng)服飾的特點(diǎn),實(shí)現(xiàn)快速生成楚國風(fēng)格紡織品紋樣,降低設(shè)計(jì)的試錯(cuò)成本,為開發(fā)文創(chuàng)產(chǎn)品提供了新的思路。
1" 網(wǎng)絡(luò)模型建立
采用改進(jìn)后的VGG-19模型對楚國紡織品風(fēng)格進(jìn)行遷移,網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。該結(jié)構(gòu)由卷積層、池化層、全連接層結(jié)合而成,保留了網(wǎng)絡(luò)原有
的結(jié)構(gòu)層數(shù),即16個(gè)卷積層,3個(gè)全連接層,中間是池化層。該模型不僅確保網(wǎng)絡(luò)更深,且盡量減少卷積層的參數(shù),使得特征的傳遞更簡潔高效,易于訓(xùn)練和優(yōu)化。
輸入圖片后,經(jīng)過2次2層卷積,3次4層卷積,每次卷積過后,都通過最大池化層輸出。選擇最大池化層的輸出可減少因卷積層參數(shù)誤差導(dǎo)致估計(jì)均值偏移的后果,從而獲取更多的紋理信息。在VGG-19模型中,通過多次卷積和池化到達(dá)了全連接層,即將最后一層的神經(jīng)元和前一層所有的神經(jīng)元相連接,融合卷積層或池化層具有特征性的細(xì)節(jié)信息。
2" 楚國紡織品風(fēng)格遷移算法
2.1" 目標(biāo)內(nèi)容圖輪廓提取
基于楚國風(fēng)格紡織品的風(fēng)格遷移首先提取現(xiàn)代紡織品的邊緣輪廓,再填充不同飽和度的色彩紋理,從而利用目標(biāo)內(nèi)容圖的邊緣輪廓模擬真實(shí)的楚國風(fēng)格紡織品。
提取目標(biāo)圖像輪廓是為了在數(shù)據(jù)圖像中標(biāo)識(shí)出局部區(qū)域亮度變化較大的部分。Canny邊緣檢測是一種使用多級邊緣檢測算法,能夠盡可能多的辨識(shí)出圖像的實(shí)際邊緣。同時(shí)標(biāo)識(shí)出的邊緣輪廓與實(shí)際圖像準(zhǔn)確率較高[14]。Canny算法的檢測結(jié)果優(yōu)于其它算子,在邊緣輪廓提取前通常要利用高斯濾波進(jìn)行除噪,其次根據(jù)雙閾值方法篩選邊緣信息,圖2顯示了利用Canny算法進(jìn)行邊緣輪廓提取前后的圖像,圖2(a)為輸入的目標(biāo)圖像,圖2(b)為計(jì)算得到的結(jié)果圖像,為最終楚國紡織品藝術(shù)效果的實(shí)現(xiàn)奠定基礎(chǔ)。
2.2" 目標(biāo)內(nèi)容圖輪廓線條增強(qiáng)
上文通過Canny算法生成的邊緣輪廓圖線條較細(xì)且不連續(xù),而真實(shí)的內(nèi)容圖像背景飽和度低且與前景對比度特征明顯。因此采用形態(tài)學(xué)方法對圖像進(jìn)行膨脹處理,增強(qiáng)圖像的邊緣輪廓線條。通過閉運(yùn)算、膨脹等操作模擬內(nèi)容圖線條特征,形態(tài)學(xué)操作計(jì)算如式(1)所示。
(1)
式中:B(x,y)為內(nèi)容圖邊緣輪廓圖像;為形態(tài)學(xué)膨脹運(yùn)算;為形態(tài)學(xué)閉運(yùn)算;A為線條輪廓增強(qiáng)后的結(jié)果圖像。圖3(a)為輸入內(nèi)容邊緣輪廓圖,圖3(b)為線條增強(qiáng)后的結(jié)果圖像,線條增強(qiáng)后的結(jié)果圖像更加凸顯真實(shí)的內(nèi)容圖前景。
2.3" VGG-19模型優(yōu)化
為更好適應(yīng)不同楚國紡織品的特點(diǎn),對目標(biāo)內(nèi)容圖輪廓進(jìn)行檢測。紡織品元素具有相似性,首先提取由VGG-19模型分離和融合所選擇紡織品的風(fēng)格和內(nèi)容,為服飾設(shè)計(jì)提供新的思路;其次,尋找現(xiàn)代紡織品圖片;最終生成具有楚國紡織品風(fēng)格的圖像。該模型適用于不同服裝元素的風(fēng)格遷移,為服裝元素的多元化和趣味性提供了可能。如圖4所示,風(fēng)格遷移的流程主要分為以下5個(gè)步驟。
(1) 隨機(jī)輸入一張初始化白噪聲紡織品圖像;
(2)白噪聲紡織品圖像輸入VGG-19優(yōu)化網(wǎng)絡(luò)模型計(jì)算損失函數(shù);
(3)計(jì)算損失函數(shù)相對于每個(gè)像素的梯度;
(4)微調(diào)每一個(gè)像素值;
(5)不斷的進(jìn)行迭代并微調(diào)每一個(gè)像素值,從而獲得較為完整的風(fēng)格遷移圖像。
2.3.1" 內(nèi)容損失函數(shù)建立
在VGG-19優(yōu)化模型中,內(nèi)容損失函數(shù)通過比較內(nèi)容圖像與生成圖像在某一層的輸出結(jié)果特征圖的差異,衡量了兩張圖像的內(nèi)容差異。首先,將內(nèi)容圖輸入到該模型的某一卷積層求出一個(gè)生成結(jié)果,再將生成圖輸入相同的卷積層求出一個(gè)生成結(jié)果,對得到的兩個(gè)生成結(jié)果進(jìn)行逐元素作差、平方、求和作為內(nèi)容損失函數(shù),該模型的內(nèi)容生成圖像的計(jì)算如式(2)所示。
(2)
式中:為第l層的內(nèi)容損失,分別為內(nèi)容圖像和白噪聲圖像,i為第i個(gè)特征圖,j為特征圖上的第j個(gè)值,為從白噪聲優(yōu)化的生成圖像輸入VGG-19模型后第l層特征圖的值,為內(nèi)容圖輸入VGG-19后第l層特征圖的值,通常是一個(gè)常數(shù)。內(nèi)容損失函數(shù)可以對生成圖的特征值求偏導(dǎo)得到第l層的激活導(dǎo)數(shù)(3)如下:
(3)
特征圖與越接近,表示兩者的差異越小,當(dāng)二者數(shù)值相等時(shí),內(nèi)容損失函數(shù)為0。
2.3.2" 風(fēng)格損失函數(shù)建立
除了上文提到的內(nèi)容損失函數(shù)保留內(nèi)容圖像的輪廓,同樣風(fēng)格損失函數(shù)利用VGG-19模型提取圖像的風(fēng)格紋理及邊緣化信息,從而確保獲得完整的目標(biāo)圖像風(fēng)格特征。風(fēng)格損失函數(shù)通常用格拉姆矩陣(Gram Matrix,GM)來表示圖像合成的紋理信息,用特征之間的共現(xiàn)相關(guān)性,而非空間的像素信息值來表示一個(gè)圖像的風(fēng)格。GM矩陣通過在VGG-19優(yōu)化模型中任意一層的特征值與轉(zhuǎn)置矩陣的特征值的內(nèi)積,如式(4)所示。
(4)
假設(shè)取第l層的輸出風(fēng)格特征,和表示原圖和生成圖,和是第l層樣式,其中表示第l層在總損失中所占的權(quán)重,則可計(jì)算出該層風(fēng)格損失函數(shù)和總的損失函數(shù)如式(5)和式(6)所示。
(5)
(6)
式中:為通道數(shù),為特征圖的長寬之積。每一層都有不同的權(quán)重,每一層的風(fēng)格損失函數(shù)與對應(yīng)層的權(quán)重相乘再加權(quán)求和得到最終的風(fēng)格損失函數(shù)。通過多次迭代,判斷最終的結(jié)果是否理想化,再進(jìn)行反向傳播和梯度下降,求出風(fēng)格損失函數(shù)相對于原始生成圖像素的梯度,不斷的調(diào)整每一個(gè)像素值,使得風(fēng)格損失函數(shù)最小化,輸出最佳的理想紡織品圖像。
2.3.3" 風(fēng)格遷移圖像生成
VGG-19優(yōu)化模型相當(dāng)于一個(gè)特征提取器,該模型中間層提取的結(jié)果衡量生成的圖像內(nèi)容。比較內(nèi)容圖特征與生成圖特征得出了內(nèi)容損失函數(shù),風(fēng)格損失函數(shù)用該特征計(jì)算圖像GM矩陣,從而比較風(fēng)格圖的GM矩陣和生成圖的GM矩陣衡量風(fēng)格差異,得出風(fēng)格損失函數(shù)。在總的損失函數(shù)中,內(nèi)容損失函數(shù)反映內(nèi)容圖與生成圖的內(nèi)容差異,風(fēng)格損失函數(shù)表現(xiàn)風(fēng)格圖與生成圖的風(fēng)格差異,如式(7)所示。
(7)
式中:和為內(nèi)容和風(fēng)格不同的權(quán)重系數(shù),為內(nèi)容圖片,為風(fēng)格圖片,為生成圖片。
3" 實(shí)驗(yàn)結(jié)果與分析
3.1" 搭建實(shí)驗(yàn)環(huán)境
為了滿足楚國風(fēng)格遷移的實(shí)驗(yàn)要求,選用計(jì)算機(jī)硬件設(shè)施CPU(配置Intel i7-11700K)、GPU(配置Intel(R) UHD Graphics 750)、 內(nèi)存32G;實(shí)驗(yàn)程序在python(3.6.5版本)、TensorFlow(TensorFlow 2.8.0版本)、IDE(PyCharm community edition版本)集成開發(fā)環(huán)境中運(yùn)行。以楚地的紡織品紋樣作為風(fēng)格圖像,現(xiàn)代紡織品圖片作為內(nèi)容圖像。利用上文提到優(yōu)化VGG-19模型進(jìn)行風(fēng)格遷移,并對紡織品風(fēng)格遷移的實(shí)驗(yàn)進(jìn)行分析。
3.2" 楚國紡織品風(fēng)格遷移實(shí)驗(yàn)結(jié)果
本文提出VGG-19優(yōu)化模型在紡織品圖像上的創(chuàng)新應(yīng)用,圖5選用不同楚國紡織品紋樣作為風(fēng)
格圖像,圖6選擇現(xiàn)代紡織品紋樣作為內(nèi)容圖像遷移,生成的紡織品如圖7所示。
圖5(a)為蟠龍飛鳳圖,二龍相對于蟠于鳳背上,鳳尾用菱形符號(hào)相連。圖5(b)為舞人動(dòng)物錦,描述了穿著色彩各異的舞女與不同姿態(tài)的動(dòng)物相間排列,錯(cuò)落有致,并用三角形紋和菱形紋加以裝飾。圖5(c)展現(xiàn)出一人與巫鬼互訴衷腸的場景,不同于中華地區(qū)正統(tǒng)的祭祀文化以及“神明至高無上”的思想,為楚國的藝術(shù)文化增添了浪漫色彩。
圖6(a)、(b)、(c)是具有現(xiàn)代特色的紡織品面料。圖7(a)、(d)、(g)生成的風(fēng)格遷移圖像具有古風(fēng)樸素感,保留了原有內(nèi)容圖像的輪廓,并融入了蟠龍飛鳳紋的風(fēng)格和細(xì)小的紋路,更加凸顯了風(fēng)格特點(diǎn),形成了新的紡織品圖像,驗(yàn)證了該模型的可行性和實(shí)用性。
圖7(b)、(e)、(h)的遷移圖像去除了內(nèi)容圖像原有的色彩,保留了花卉、蝴蝶和幾何的輪廓,融入了舞人動(dòng)物錦的細(xì)小紋理,疊加了不同姿態(tài)使得遷移的圖像具有秀麗高雅的特色。圖7(c)、(f)、(i)的遷移圖像融入了新的背景,成功的在現(xiàn)代刺繡與幾何紋理圖像中融入了浪漫的楚國巫鬼的文化風(fēng)采,順利實(shí)現(xiàn)單一的現(xiàn)代紡織品與楚國紡織品的風(fēng)格遷移,豐富了傳統(tǒng)楚國服飾文化的特色,產(chǎn)生了具有楚國浪漫色彩的新裝飾風(fēng)格。
3.3" 楚國紡織品風(fēng)格遷移對比分析
為了確保本文模型的可行性,同時(shí)復(fù)現(xiàn)了GoogleNet、VGG-19的風(fēng)格遷移方法,并對生成的圖片質(zhì)量進(jìn)行評價(jià),利用峰值信噪比(PSNR)和結(jié)構(gòu)相似性(SSIM)對圖像進(jìn)行客觀的評價(jià),結(jié)果如表1所示。PSNR 值越大,圖像質(zhì)量越好。SSIM值越大,結(jié)構(gòu)越相似[15]。
在表1中,(a)為GoogleNet模型的風(fēng)格遷移圖像,可以明顯的看出花卉的輪廓,但圖像的整體亮度較暗,存在色彩不均勻的問題。(b)為VGG-19模型的風(fēng)格遷移結(jié)果,該方法保留了圖片內(nèi)容信息,紋理損失較為嚴(yán)重。(c)為本文算法遷移結(jié)果,該方法成功的遷移了花卉的紋理,并獲取了楚國龍鳳紋風(fēng)格效果,提高了圖片整體的飽和度。
算法迭代次數(shù)是影響最終生成效果的主要因素之一。表2顯示的是圖6(a)不同的迭代次數(shù)生成的風(fēng)格遷移圖像,本文選擇了對比明顯的迭代次數(shù),分別是20次、600次、1000次和1600次。從表2中可以看出,在VGG-19優(yōu)化模型不斷推演過程中,隨著迭代次數(shù)的增加,網(wǎng)絡(luò)會(huì)同時(shí)降低風(fēng)格損失和內(nèi)容損失,迭代次數(shù)越多,該損失就會(huì)逐漸變低。
表1中當(dāng)?shù)?0次時(shí),生成的圖像輪廓與原內(nèi)容圖6(a)最為相近,清晰的可以看出春意盎然、迎風(fēng)開放的花卉,呈鵝黃的色調(diào);當(dāng)?shù)鸀?00次時(shí),花卉迎風(fēng)飄揚(yáng)的姿態(tài)具有清晰地辨識(shí)度,整體保留了風(fēng)格圖像的秀麗典雅的蜀錦風(fēng)格,并在邊緣局部地方隱藏著細(xì)節(jié)的舞人與動(dòng)物紋樣,使得風(fēng)格圖像的風(fēng)格在內(nèi)容圖像上呈現(xiàn)較好的效果;當(dāng)?shù)螖?shù)為1600次時(shí),整體的圖像變成了白噪聲圖像,只能通過顏色的深淺判斷花卉的輪廓,內(nèi)容損失較大,存在不規(guī)則的黑團(tuán),破壞了原有圖像的內(nèi)容。迭代1000次與迭代600次的圖像并無明顯差異,但由于600次的參數(shù)更少,更加節(jié)省時(shí)間,因此選擇600次的迭代運(yùn)算,保留了內(nèi)容圖像對應(yīng)位置的紋樣,豐富生成圖像的風(fēng)格。雖部分風(fēng)格紋理辨識(shí)度不高,但整體效果色彩比較均勻和諧,對楚地服飾風(fēng)格學(xué)習(xí)和現(xiàn)代紡織品遷移應(yīng)用有一定的參考價(jià)值[16]。
4" 結(jié)論
本文將卷積神經(jīng)網(wǎng)絡(luò)VGG-19優(yōu)化模型應(yīng)用到楚國紡織品風(fēng)格遷移中,首先對目標(biāo)內(nèi)容圖像進(jìn)行邊緣輪廓提取和線條增強(qiáng),避免了因風(fēng)格遷移造成的色彩溢出和重疊現(xiàn)象。其次,利用損失函數(shù)提取楚國紡織品風(fēng)格特征,并將提取的楚國風(fēng)格用于刺繡、幾何等不同內(nèi)容的現(xiàn)代紡織品中,保留了現(xiàn)代紡織品的紋理,使生成的圖像邊緣細(xì)節(jié)更加飽滿。最后對圖像進(jìn)行質(zhì)量評價(jià),取得了優(yōu)于現(xiàn)有算法的效果。該算法克服了楚國紡織品數(shù)量匱乏、傳統(tǒng)紋樣與現(xiàn)代紡織品創(chuàng)新設(shè)計(jì)等不足,并為遷移其他中國元素風(fēng)格提供參考。
參考文獻(xiàn):
[1]吳航. 基于卷積神經(jīng)網(wǎng)絡(luò)的葫蘆烙畫風(fēng)格模擬[D]. 昆明:云南大學(xué), 2019.
[2]李海濤, 羅維平. 基于深度學(xué)習(xí)的棉花品種識(shí)別[J]. 武漢紡織大學(xué)學(xué)報(bào), 2022, 35(4): 22-26.
[3]侯宇康, 呂健, 劉翔, 等. 基于神經(jīng)風(fēng)格遷移網(wǎng)絡(luò)的民族圖案創(chuàng)新方法 [J]. 圖學(xué)學(xué)報(bào), 2020, 41(4): 606-613.
[4]李芳芳. 基于深度學(xué)習(xí)的風(fēng)格遷移算法研究[D]. 合肥:
安徽大學(xué), 2020.
[5]賈小軍, 鄧洪濤, 劉子豪, 等. 基于VGGNet卷積神經(jīng)網(wǎng)絡(luò)的藍(lán)印花布紋樣分類 [J]. 光電子·激光, 2019, 30(8): 867-875.
[6]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[J].Communications of the ACM, 2017, 60(6): 85-90.
[7]SIMONYAN K , ZISSERMAN A .Very Deep Convolutional Networks for Large-Scale Image Recognition. arXiv: 1409. 1556: 1-14.
[8]SZEGEDY C , LIU W , JIA Y ,et al.Going Deeper with Convolutions[A]. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015: 1-9.
[9]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet Classification with Deep Convolutional Neural Networks[J]. Communications of the ACM, 2017,60(6): 84-90.
[10]鄭銳, 錢文華, 徐丹, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的刺繡風(fēng)格數(shù)字合成 [J]. 浙江大學(xué)學(xué)報(bào)(理學(xué)版), 2019,56(3): 270-278.
[11]林峰, 向忠. 基于深度學(xué)習(xí)的印花織物循環(huán)圖案基元分割 [J]. 計(jì)算機(jī)技術(shù)與發(fā)展, 2022, 32(5): 160-165.
[12]CHEN T Q , SCHMIDT M .Fast Patch-based Style Transfer of Arbitrary Style. arXiv: 1612. 04337: 1-10.
[13]ZHU D , LIU S , JIANG W, et al. UGAN: Untraceable GAN for Multi-Domain Face Translation. arXiv: 1907. 11418: 1-18.
[14]錢文華, 徐丹, 官錚, 等. 粉筆畫藝術(shù)風(fēng)格模擬[J]. 中國圖象圖形學(xué)報(bào), 2017, 22(5): 622-630.
[15]蔡興泉, 李治均, 奚夢瑤,等. 基于神經(jīng)網(wǎng)絡(luò)的手繪服飾圖紋上色及風(fēng)格遷移[J]. 系統(tǒng)仿真學(xué)報(bào), 2023, 35(3): 604-615.
[16]任建軍, 張衛(wèi)正, 張偉偉, 等. 青花瓷紋飾的藝術(shù)風(fēng)格遷移研究 [J]. 輕工學(xué)報(bào), 2022, 37(5), 113-119、126.
Element Migration of Textiles and Clothing in Chu State based
on Convolutional Neural Network
SHA Sha1,2, LI Yi3, WEI Wantong3, LIU Hanqi4, DENG Zhongmin4
(1. Design Innovation and Fiber Science Research Institute, Wuhan Textile University, Wuhan Hubei 430073, China;2. Wuhan Textile and Apparel Digital Engineering Technology Research Center, Wuhan Hubei 430073, China;3. School of Fashion Design, Wuhan Textile University, Wuhan Hubei 430073, China;4. State Key Laboratory of New Textile Materials and Advanced Processing Technologies, Wuhan Textile University, Wuhan Hubei 430200, China)
Abstract: This paper takes Chu textile as the research object. An image with Chu textile style is generated by extracting the contours of the target content diagram and enhancing the lines. An image migration method of Chu textile pattern based on VGG-19 optimization model is presented. Overcame the difficulties of innovative design of pattern combination, low number of automatic extraction and large loss of resources. The results show that this algorithm is better than the existing method in Chu textile style migration. The integrity of the textile art style is preserved. The transplanted patterns were successfully applied to different clothing types. It is conducive to the inheritance and development of China's excellent traditional clothing culture. It reduces the cost of trial and error and provides new ideas for clothing designers.
Key words: convolutional neural network; deep learning;elements of Chu state textiles; modern textiles; style transfer
(責(zé)任編輯:李強(qiáng))