999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經(jīng)網(wǎng)絡(luò)的楚國紡織品服裝元素遷移

2024-04-29 00:00:00沙莎李怡魏宛彤劉瀚旗鄧中民
關(guān)鍵詞:深度學(xué)習(xí)

________________________________ """""""""""""""""""""""""""

作者簡介:沙莎(1987-),女,副教授,博士,碩士生導(dǎo)師,研究方向:針織數(shù)字化設(shè)計(jì).

基金項(xiàng)目:國家自然科學(xué)基金項(xiàng)目(61802285);湖北省哲學(xué)社會(huì)科學(xué)研究項(xiàng)目(22ZD083);湖北省教育廳科學(xué)研究計(jì)劃重點(diǎn)項(xiàng)目(D20201704);湖北省服裝信息化工程技術(shù)研究中心開放基金(184084006);紡織服裝福建省高校工程研究中心開放基金(MJFZ18103);福建省新型功能性紡織纖維及材料重點(diǎn)實(shí)驗(yàn)室開放基金(FKLTFM1813).

引文格式:沙莎,李怡,魏宛彤,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的楚國紡織品服裝元素遷移[J].武漢紡織大學(xué)學(xué)報(bào),2024,37(1):3-6.

SHA Sha, LI Yi, WEI Wantong, et al. Element Migration of Textiles and Clothing in Chu State Based on Convolutional Neural Network [J]. Journal of Wuhan Textile University,2024,37(1):3-6.

摘 要:文章以楚國紡織品為研究對象,通過目標(biāo)內(nèi)容圖輪廓提取和線條增強(qiáng),生成具有楚國紡織品風(fēng)格的圖像;提出基于VGG-19優(yōu)化模型的楚國紡織品紋樣圖像遷移方法,克服了圖案組合創(chuàng)新設(shè)計(jì)、自動(dòng)提取數(shù)量少和資源大量損耗等困難。研究表明:該算法在楚國紡織品風(fēng)格遷移中的表現(xiàn)優(yōu)于現(xiàn)有方法,保留了紡織品藝術(shù)風(fēng)格的完整性,并成功地將遷移的紋樣應(yīng)用到不同的服裝品類中,有利于傳承和發(fā)展中國優(yōu)秀傳統(tǒng)服飾文化,為服裝設(shè)計(jì)者降低了試錯(cuò)成本并提供新的思路。

關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);深度學(xué)習(xí);楚國紡織品元素;現(xiàn)代紡織品;風(fēng)格遷移

中圖分類號(hào):TS941.12 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-414X(2024)01-0003-06

0" 引 言

我國古代紡織品種類繁多,不同時(shí)期的紡織品代表了不同朝代的藝術(shù)風(fēng)格與人民智慧。楚地?fù)碛歇?dú)特的風(fēng)俗文化和藝術(shù)形式,其中出土的紡織品紋樣色彩豐富,以暖色為主,兼用冷色;造型手法獨(dú)特,既有寫實(shí)風(fēng)格的動(dòng)物、人物紋樣,又有寫意風(fēng)格的自然、幾何紋樣;元素種類繁多,具有典雅,古樸的藝術(shù)特點(diǎn)。以古鑒今,挖掘民族服飾的特點(diǎn),實(shí)現(xiàn)對楚國紡織品的風(fēng)格遷移,是對中華民族傳統(tǒng)服飾文化傳承和發(fā)展,有利于提高當(dāng)代服飾的獨(dú)特性和創(chuàng)新性。

隨著深度學(xué)習(xí)等關(guān)鍵技術(shù)的不斷發(fā)展,較多學(xué)者致力于將深度學(xué)習(xí)方法應(yīng)用到紡織品設(shè)計(jì)開發(fā)中[1-3]。風(fēng)格遷移可保留圖像原有內(nèi)容并融合不同種類的風(fēng)格,從而產(chǎn)生新型的藝術(shù)效果[4]。卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)領(lǐng)域應(yīng)用較為普遍模型[5]。經(jīng)過技術(shù)不斷發(fā)展與創(chuàng)新,出現(xiàn)了AlexNet[6]、VGGNet(Oxford-Net)[7]、GoogleNet[8]等網(wǎng)絡(luò)模型。自AlexNet結(jié)構(gòu)之后,大多數(shù)網(wǎng)絡(luò)通過增加網(wǎng)絡(luò)深度來改進(jìn)算法,但同時(shí)引發(fā)了梯度爆炸、梯度消失的現(xiàn)象,VGG采用幾個(gè)3*3卷積核代替AlexNet中[9]的較大卷積核(11*11,7*7,5*5),對于給定的感受野,優(yōu)先使用較小的卷積核、較少的參數(shù)和多層的非線性層滿足更復(fù)雜的模型,學(xué)習(xí)能力更強(qiáng),表示的空間更大。

基于卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行風(fēng)格遷移,鄭銳等[10]實(shí)現(xiàn)了立體感強(qiáng)、色彩多樣的刺繡藝術(shù)風(fēng)格效果,林峰等[11]分割不同花型的印花織物圖案基元,Chen[12]等人提出局部匹配的方法將內(nèi)容結(jié)構(gòu)和風(fēng)格紋樣進(jìn)行預(yù)訓(xùn)練,實(shí)現(xiàn)了快速生成任意風(fēng)格的遷移方法,Zhu[13]等人在GAN網(wǎng)絡(luò)的基礎(chǔ)上加入U(xiǎn)gan遷移網(wǎng)絡(luò),解決了非成對圖像不同風(fēng)格的快速遷移問題。

由于楚國紡織品圖像匱乏,本文根據(jù)互聯(lián)網(wǎng)搜索和博物館拍照得到的紡織品圖像,利用卷積神經(jīng)網(wǎng)絡(luò)的VGG-19模型,將楚國紡織品的面料和紋路分離開來,產(chǎn)生新的紡織品效果,并對生成的圖像進(jìn)行質(zhì)量評價(jià),提高了楚國紡織品風(fēng)格圖像數(shù)據(jù)集品質(zhì)。遷移得到的紋樣融合了現(xiàn)代服飾與傳統(tǒng)服飾的特點(diǎn),實(shí)現(xiàn)快速生成楚國風(fēng)格紡織品紋樣,降低設(shè)計(jì)的試錯(cuò)成本,為開發(fā)文創(chuàng)產(chǎn)品提供了新的思路。

1" 網(wǎng)絡(luò)模型建立

采用改進(jìn)后的VGG-19模型對楚國紡織品風(fēng)格進(jìn)行遷移,網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。該結(jié)構(gòu)由卷積層、池化層、全連接層結(jié)合而成,保留了網(wǎng)絡(luò)原有

的結(jié)構(gòu)層數(shù),即16個(gè)卷積層,3個(gè)全連接層,中間是池化層。該模型不僅確保網(wǎng)絡(luò)更深,且盡量減少卷積層的參數(shù),使得特征的傳遞更簡潔高效,易于訓(xùn)練和優(yōu)化。

輸入圖片后,經(jīng)過2次2層卷積,3次4層卷積,每次卷積過后,都通過最大池化層輸出。選擇最大池化層的輸出可減少因卷積層參數(shù)誤差導(dǎo)致估計(jì)均值偏移的后果,從而獲取更多的紋理信息。在VGG-19模型中,通過多次卷積和池化到達(dá)了全連接層,即將最后一層的神經(jīng)元和前一層所有的神經(jīng)元相連接,融合卷積層或池化層具有特征性的細(xì)節(jié)信息。

2" 楚國紡織品風(fēng)格遷移算法

2.1" 目標(biāo)內(nèi)容圖輪廓提取

基于楚國風(fēng)格紡織品的風(fēng)格遷移首先提取現(xiàn)代紡織品的邊緣輪廓,再填充不同飽和度的色彩紋理,從而利用目標(biāo)內(nèi)容圖的邊緣輪廓模擬真實(shí)的楚國風(fēng)格紡織品。

提取目標(biāo)圖像輪廓是為了在數(shù)據(jù)圖像中標(biāo)識(shí)出局部區(qū)域亮度變化較大的部分。Canny邊緣檢測是一種使用多級邊緣檢測算法,能夠盡可能多的辨識(shí)出圖像的實(shí)際邊緣。同時(shí)標(biāo)識(shí)出的邊緣輪廓與實(shí)際圖像準(zhǔn)確率較高[14]。Canny算法的檢測結(jié)果優(yōu)于其它算子,在邊緣輪廓提取前通常要利用高斯濾波進(jìn)行除噪,其次根據(jù)雙閾值方法篩選邊緣信息,圖2顯示了利用Canny算法進(jìn)行邊緣輪廓提取前后的圖像,圖2(a)為輸入的目標(biāo)圖像,圖2(b)為計(jì)算得到的結(jié)果圖像,為最終楚國紡織品藝術(shù)效果的實(shí)現(xiàn)奠定基礎(chǔ)。

2.2" 目標(biāo)內(nèi)容圖輪廓線條增強(qiáng)

上文通過Canny算法生成的邊緣輪廓圖線條較細(xì)且不連續(xù),而真實(shí)的內(nèi)容圖像背景飽和度低且與前景對比度特征明顯。因此采用形態(tài)學(xué)方法對圖像進(jìn)行膨脹處理,增強(qiáng)圖像的邊緣輪廓線條。通過閉運(yùn)算、膨脹等操作模擬內(nèi)容圖線條特征,形態(tài)學(xué)操作計(jì)算如式(1)所示。

(1)

式中:B(x,y)為內(nèi)容圖邊緣輪廓圖像;為形態(tài)學(xué)膨脹運(yùn)算;為形態(tài)學(xué)閉運(yùn)算;A為線條輪廓增強(qiáng)后的結(jié)果圖像。圖3(a)為輸入內(nèi)容邊緣輪廓圖,圖3(b)為線條增強(qiáng)后的結(jié)果圖像,線條增強(qiáng)后的結(jié)果圖像更加凸顯真實(shí)的內(nèi)容圖前景。

2.3" VGG-19模型優(yōu)化

為更好適應(yīng)不同楚國紡織品的特點(diǎn),對目標(biāo)內(nèi)容圖輪廓進(jìn)行檢測。紡織品元素具有相似性,首先提取由VGG-19模型分離和融合所選擇紡織品的風(fēng)格和內(nèi)容,為服飾設(shè)計(jì)提供新的思路;其次,尋找現(xiàn)代紡織品圖片;最終生成具有楚國紡織品風(fēng)格的圖像。該模型適用于不同服裝元素的風(fēng)格遷移,為服裝元素的多元化和趣味性提供了可能。如圖4所示,風(fēng)格遷移的流程主要分為以下5個(gè)步驟。

(1) 隨機(jī)輸入一張初始化白噪聲紡織品圖像;

(2)白噪聲紡織品圖像輸入VGG-19優(yōu)化網(wǎng)絡(luò)模型計(jì)算損失函數(shù);

(3)計(jì)算損失函數(shù)相對于每個(gè)像素的梯度;

(4)微調(diào)每一個(gè)像素值;

(5)不斷的進(jìn)行迭代并微調(diào)每一個(gè)像素值,從而獲得較為完整的風(fēng)格遷移圖像。

2.3.1" 內(nèi)容損失函數(shù)建立

在VGG-19優(yōu)化模型中,內(nèi)容損失函數(shù)通過比較內(nèi)容圖像與生成圖像在某一層的輸出結(jié)果特征圖的差異,衡量了兩張圖像的內(nèi)容差異。首先,將內(nèi)容圖輸入到該模型的某一卷積層求出一個(gè)生成結(jié)果,再將生成圖輸入相同的卷積層求出一個(gè)生成結(jié)果,對得到的兩個(gè)生成結(jié)果進(jìn)行逐元素作差、平方、求和作為內(nèi)容損失函數(shù),該模型的內(nèi)容生成圖像的計(jì)算如式(2)所示。

(2)

式中:為第l層的內(nèi)容損失,分別為內(nèi)容圖像和白噪聲圖像,i為第i個(gè)特征圖,j為特征圖上的第j個(gè)值,為從白噪聲優(yōu)化的生成圖像輸入VGG-19模型后第l層特征圖的值,為內(nèi)容圖輸入VGG-19后第l層特征圖的值,通常是一個(gè)常數(shù)。內(nèi)容損失函數(shù)可以對生成圖的特征值求偏導(dǎo)得到第l層的激活導(dǎo)數(shù)(3)如下:

(3)

特征圖與越接近,表示兩者的差異越小,當(dāng)二者數(shù)值相等時(shí),內(nèi)容損失函數(shù)為0。

2.3.2" 風(fēng)格損失函數(shù)建立

除了上文提到的內(nèi)容損失函數(shù)保留內(nèi)容圖像的輪廓,同樣風(fēng)格損失函數(shù)利用VGG-19模型提取圖像的風(fēng)格紋理及邊緣化信息,從而確保獲得完整的目標(biāo)圖像風(fēng)格特征。風(fēng)格損失函數(shù)通常用格拉姆矩陣(Gram Matrix,GM)來表示圖像合成的紋理信息,用特征之間的共現(xiàn)相關(guān)性,而非空間的像素信息值來表示一個(gè)圖像的風(fēng)格。GM矩陣通過在VGG-19優(yōu)化模型中任意一層的特征值與轉(zhuǎn)置矩陣的特征值的內(nèi)積,如式(4)所示。

(4)

假設(shè)取第l層的輸出風(fēng)格特征,和表示原圖和生成圖,和是第l層樣式,其中表示第l層在總損失中所占的權(quán)重,則可計(jì)算出該層風(fēng)格損失函數(shù)和總的損失函數(shù)如式(5)和式(6)所示。

(5)

(6)

式中:為通道數(shù),為特征圖的長寬之積。每一層都有不同的權(quán)重,每一層的風(fēng)格損失函數(shù)與對應(yīng)層的權(quán)重相乘再加權(quán)求和得到最終的風(fēng)格損失函數(shù)。通過多次迭代,判斷最終的結(jié)果是否理想化,再進(jìn)行反向傳播和梯度下降,求出風(fēng)格損失函數(shù)相對于原始生成圖像素的梯度,不斷的調(diào)整每一個(gè)像素值,使得風(fēng)格損失函數(shù)最小化,輸出最佳的理想紡織品圖像。

2.3.3" 風(fēng)格遷移圖像生成

VGG-19優(yōu)化模型相當(dāng)于一個(gè)特征提取器,該模型中間層提取的結(jié)果衡量生成的圖像內(nèi)容。比較內(nèi)容圖特征與生成圖特征得出了內(nèi)容損失函數(shù),風(fēng)格損失函數(shù)用該特征計(jì)算圖像GM矩陣,從而比較風(fēng)格圖的GM矩陣和生成圖的GM矩陣衡量風(fēng)格差異,得出風(fēng)格損失函數(shù)。在總的損失函數(shù)中,內(nèi)容損失函數(shù)反映內(nèi)容圖與生成圖的內(nèi)容差異,風(fēng)格損失函數(shù)表現(xiàn)風(fēng)格圖與生成圖的風(fēng)格差異,如式(7)所示。

(7)

式中:和為內(nèi)容和風(fēng)格不同的權(quán)重系數(shù),為內(nèi)容圖片,為風(fēng)格圖片,為生成圖片。

3" 實(shí)驗(yàn)結(jié)果與分析

3.1" 搭建實(shí)驗(yàn)環(huán)境

為了滿足楚國風(fēng)格遷移的實(shí)驗(yàn)要求,選用計(jì)算機(jī)硬件設(shè)施CPU(配置Intel i7-11700K)、GPU(配置Intel(R) UHD Graphics 750)、 內(nèi)存32G;實(shí)驗(yàn)程序在python(3.6.5版本)、TensorFlow(TensorFlow 2.8.0版本)、IDE(PyCharm community edition版本)集成開發(fā)環(huán)境中運(yùn)行。以楚地的紡織品紋樣作為風(fēng)格圖像,現(xiàn)代紡織品圖片作為內(nèi)容圖像。利用上文提到優(yōu)化VGG-19模型進(jìn)行風(fēng)格遷移,并對紡織品風(fēng)格遷移的實(shí)驗(yàn)進(jìn)行分析。

3.2" 楚國紡織品風(fēng)格遷移實(shí)驗(yàn)結(jié)果

本文提出VGG-19優(yōu)化模型在紡織品圖像上的創(chuàng)新應(yīng)用,圖5選用不同楚國紡織品紋樣作為風(fēng)

格圖像,圖6選擇現(xiàn)代紡織品紋樣作為內(nèi)容圖像遷移,生成的紡織品如圖7所示。

圖5(a)為蟠龍飛鳳圖,二龍相對于蟠于鳳背上,鳳尾用菱形符號(hào)相連。圖5(b)為舞人動(dòng)物錦,描述了穿著色彩各異的舞女與不同姿態(tài)的動(dòng)物相間排列,錯(cuò)落有致,并用三角形紋和菱形紋加以裝飾。圖5(c)展現(xiàn)出一人與巫鬼互訴衷腸的場景,不同于中華地區(qū)正統(tǒng)的祭祀文化以及“神明至高無上”的思想,為楚國的藝術(shù)文化增添了浪漫色彩。

圖6(a)、(b)、(c)是具有現(xiàn)代特色的紡織品面料。圖7(a)、(d)、(g)生成的風(fēng)格遷移圖像具有古風(fēng)樸素感,保留了原有內(nèi)容圖像的輪廓,并融入了蟠龍飛鳳紋的風(fēng)格和細(xì)小的紋路,更加凸顯了風(fēng)格特點(diǎn),形成了新的紡織品圖像,驗(yàn)證了該模型的可行性和實(shí)用性。

圖7(b)、(e)、(h)的遷移圖像去除了內(nèi)容圖像原有的色彩,保留了花卉、蝴蝶和幾何的輪廓,融入了舞人動(dòng)物錦的細(xì)小紋理,疊加了不同姿態(tài)使得遷移的圖像具有秀麗高雅的特色。圖7(c)、(f)、(i)的遷移圖像融入了新的背景,成功的在現(xiàn)代刺繡與幾何紋理圖像中融入了浪漫的楚國巫鬼的文化風(fēng)采,順利實(shí)現(xiàn)單一的現(xiàn)代紡織品與楚國紡織品的風(fēng)格遷移,豐富了傳統(tǒng)楚國服飾文化的特色,產(chǎn)生了具有楚國浪漫色彩的新裝飾風(fēng)格。

3.3" 楚國紡織品風(fēng)格遷移對比分析

為了確保本文模型的可行性,同時(shí)復(fù)現(xiàn)了GoogleNet、VGG-19的風(fēng)格遷移方法,并對生成的圖片質(zhì)量進(jìn)行評價(jià),利用峰值信噪比(PSNR)和結(jié)構(gòu)相似性(SSIM)對圖像進(jìn)行客觀的評價(jià),結(jié)果如表1所示。PSNR 值越大,圖像質(zhì)量越好。SSIM值越大,結(jié)構(gòu)越相似[15]。

在表1中,(a)為GoogleNet模型的風(fēng)格遷移圖像,可以明顯的看出花卉的輪廓,但圖像的整體亮度較暗,存在色彩不均勻的問題。(b)為VGG-19模型的風(fēng)格遷移結(jié)果,該方法保留了圖片內(nèi)容信息,紋理損失較為嚴(yán)重。(c)為本文算法遷移結(jié)果,該方法成功的遷移了花卉的紋理,并獲取了楚國龍鳳紋風(fēng)格效果,提高了圖片整體的飽和度。

算法迭代次數(shù)是影響最終生成效果的主要因素之一。表2顯示的是圖6(a)不同的迭代次數(shù)生成的風(fēng)格遷移圖像,本文選擇了對比明顯的迭代次數(shù),分別是20次、600次、1000次和1600次。從表2中可以看出,在VGG-19優(yōu)化模型不斷推演過程中,隨著迭代次數(shù)的增加,網(wǎng)絡(luò)會(huì)同時(shí)降低風(fēng)格損失和內(nèi)容損失,迭代次數(shù)越多,該損失就會(huì)逐漸變低。

表1中當(dāng)?shù)?0次時(shí),生成的圖像輪廓與原內(nèi)容圖6(a)最為相近,清晰的可以看出春意盎然、迎風(fēng)開放的花卉,呈鵝黃的色調(diào);當(dāng)?shù)鸀?00次時(shí),花卉迎風(fēng)飄揚(yáng)的姿態(tài)具有清晰地辨識(shí)度,整體保留了風(fēng)格圖像的秀麗典雅的蜀錦風(fēng)格,并在邊緣局部地方隱藏著細(xì)節(jié)的舞人與動(dòng)物紋樣,使得風(fēng)格圖像的風(fēng)格在內(nèi)容圖像上呈現(xiàn)較好的效果;當(dāng)?shù)螖?shù)為1600次時(shí),整體的圖像變成了白噪聲圖像,只能通過顏色的深淺判斷花卉的輪廓,內(nèi)容損失較大,存在不規(guī)則的黑團(tuán),破壞了原有圖像的內(nèi)容。迭代1000次與迭代600次的圖像并無明顯差異,但由于600次的參數(shù)更少,更加節(jié)省時(shí)間,因此選擇600次的迭代運(yùn)算,保留了內(nèi)容圖像對應(yīng)位置的紋樣,豐富生成圖像的風(fēng)格。雖部分風(fēng)格紋理辨識(shí)度不高,但整體效果色彩比較均勻和諧,對楚地服飾風(fēng)格學(xué)習(xí)和現(xiàn)代紡織品遷移應(yīng)用有一定的參考價(jià)值[16]。

4" 結(jié)論

本文將卷積神經(jīng)網(wǎng)絡(luò)VGG-19優(yōu)化模型應(yīng)用到楚國紡織品風(fēng)格遷移中,首先對目標(biāo)內(nèi)容圖像進(jìn)行邊緣輪廓提取和線條增強(qiáng),避免了因風(fēng)格遷移造成的色彩溢出和重疊現(xiàn)象。其次,利用損失函數(shù)提取楚國紡織品風(fēng)格特征,并將提取的楚國風(fēng)格用于刺繡、幾何等不同內(nèi)容的現(xiàn)代紡織品中,保留了現(xiàn)代紡織品的紋理,使生成的圖像邊緣細(xì)節(jié)更加飽滿。最后對圖像進(jìn)行質(zhì)量評價(jià),取得了優(yōu)于現(xiàn)有算法的效果。該算法克服了楚國紡織品數(shù)量匱乏、傳統(tǒng)紋樣與現(xiàn)代紡織品創(chuàng)新設(shè)計(jì)等不足,并為遷移其他中國元素風(fēng)格提供參考。

參考文獻(xiàn):

[1]吳航. 基于卷積神經(jīng)網(wǎng)絡(luò)的葫蘆烙畫風(fēng)格模擬[D]. 昆明:云南大學(xué), 2019.

[2]李海濤, 羅維平. 基于深度學(xué)習(xí)的棉花品種識(shí)別[J]. 武漢紡織大學(xué)學(xué)報(bào), 2022, 35(4): 22-26.

[3]侯宇康, 呂健, 劉翔, 等. 基于神經(jīng)風(fēng)格遷移網(wǎng)絡(luò)的民族圖案創(chuàng)新方法 [J]. 圖學(xué)學(xué)報(bào), 2020, 41(4): 606-613.

[4]李芳芳. 基于深度學(xué)習(xí)的風(fēng)格遷移算法研究[D]. 合肥:

安徽大學(xué), 2020.

[5]賈小軍, 鄧洪濤, 劉子豪, 等. 基于VGGNet卷積神經(jīng)網(wǎng)絡(luò)的藍(lán)印花布紋樣分類 [J]. 光電子·激光, 2019, 30(8): 867-875.

[6]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[J].Communications of the ACM, 2017, 60(6): 85-90.

[7]SIMONYAN K , ZISSERMAN A .Very Deep Convolutional Networks for Large-Scale Image Recognition. arXiv: 1409. 1556: 1-14.

[8]SZEGEDY C , LIU W , JIA Y ,et al.Going Deeper with Convolutions[A]. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015: 1-9.

[9]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet Classification with Deep Convolutional Neural Networks[J]. Communications of the ACM, 2017,60(6): 84-90.

[10]鄭銳, 錢文華, 徐丹, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的刺繡風(fēng)格數(shù)字合成 [J]. 浙江大學(xué)學(xué)報(bào)(理學(xué)版), 2019,56(3): 270-278.

[11]林峰, 向忠. 基于深度學(xué)習(xí)的印花織物循環(huán)圖案基元分割 [J]. 計(jì)算機(jī)技術(shù)與發(fā)展, 2022, 32(5): 160-165.

[12]CHEN T Q , SCHMIDT M .Fast Patch-based Style Transfer of Arbitrary Style. arXiv: 1612. 04337: 1-10.

[13]ZHU D , LIU S , JIANG W, et al. UGAN: Untraceable GAN for Multi-Domain Face Translation. arXiv: 1907. 11418: 1-18.

[14]錢文華, 徐丹, 官錚, 等. 粉筆畫藝術(shù)風(fēng)格模擬[J]. 中國圖象圖形學(xué)報(bào), 2017, 22(5): 622-630.

[15]蔡興泉, 李治均, 奚夢瑤,等. 基于神經(jīng)網(wǎng)絡(luò)的手繪服飾圖紋上色及風(fēng)格遷移[J]. 系統(tǒng)仿真學(xué)報(bào), 2023, 35(3): 604-615.

[16]任建軍, 張衛(wèi)正, 張偉偉, 等. 青花瓷紋飾的藝術(shù)風(fēng)格遷移研究 [J]. 輕工學(xué)報(bào), 2022, 37(5), 113-119、126.

Element Migration of Textiles and Clothing in Chu State based

on Convolutional Neural Network

SHA Sha1,2, LI Yi3, WEI Wantong3, LIU Hanqi4, DENG Zhongmin4

(1. Design Innovation and Fiber Science Research Institute, Wuhan Textile University, Wuhan Hubei 430073, China;2. Wuhan Textile and Apparel Digital Engineering Technology Research Center, Wuhan Hubei 430073, China;3. School of Fashion Design, Wuhan Textile University, Wuhan Hubei 430073, China;4. State Key Laboratory of New Textile Materials and Advanced Processing Technologies, Wuhan Textile University, Wuhan Hubei 430200, China)

Abstract: This paper takes Chu textile as the research object. An image with Chu textile style is generated by extracting the contours of the target content diagram and enhancing the lines. An image migration method of Chu textile pattern based on VGG-19 optimization model is presented. Overcame the difficulties of innovative design of pattern combination, low number of automatic extraction and large loss of resources. The results show that this algorithm is better than the existing method in Chu textile style migration. The integrity of the textile art style is preserved. The transplanted patterns were successfully applied to different clothing types. It is conducive to the inheritance and development of China's excellent traditional clothing culture. It reduces the cost of trial and error and provides new ideas for clothing designers.

Key words: convolutional neural network; deep learning;elements of Chu state textiles; modern textiles; style transfer

(責(zé)任編輯:李強(qiáng))

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 国产三级精品三级在线观看| 亚洲欧洲日韩综合色天使| 四虎影视8848永久精品| 色天天综合| 亚洲欧美成人综合| 四虎精品黑人视频| 九九视频免费在线观看| 伊人久久青草青青综合| 亚洲大学生视频在线播放| 91亚洲影院| 欧美色图久久| 久热中文字幕在线| 国产特一级毛片| 亚洲国产精品不卡在线| 日韩国产欧美精品在线| 亚洲福利片无码最新在线播放| 国产精品久久精品| 午夜精品区| 毛片大全免费观看| 波多野结衣国产精品| jijzzizz老师出水喷水喷出| 国产午夜人做人免费视频中文 | 国产精品国产三级国产专业不| 丁香婷婷激情网| 福利在线不卡| 激情网址在线观看| 国产色伊人| 伊人色综合久久天天| 在线精品亚洲一区二区古装| 国产经典免费播放视频| 国产在线98福利播放视频免费| 久久久久亚洲精品无码网站| 91年精品国产福利线观看久久 | 99视频在线精品免费观看6| 天堂成人av| 高潮毛片无遮挡高清视频播放| 欧美日韩福利| 国产成熟女人性满足视频| 国产精品视频导航| 国产精品熟女亚洲AV麻豆| 无码精品国产dvd在线观看9久| 成人午夜网址| 亚洲h视频在线| 91久久大香线蕉| 国产精品浪潮Av| 亚洲天堂免费在线视频| 亚洲综合经典在线一区二区| 日本三级欧美三级| 日本人又色又爽的视频| 亚洲视频一区在线| 91九色最新地址| 亚洲av色吊丝无码| 亚洲va在线∨a天堂va欧美va| 欧美日本二区| 97亚洲色综久久精品| 亚洲高清免费在线观看| 亚洲动漫h| 在线视频亚洲欧美| 国产成+人+综合+亚洲欧美 | 一本一道波多野结衣av黑人在线| 亚洲福利一区二区三区| 日韩资源站| 青青青国产精品国产精品美女| 国产精品久久久久无码网站| 日韩午夜伦| 色婷婷成人| 玖玖精品视频在线观看| 亚洲制服丝袜第一页| 久久午夜影院| 国产真实乱人视频| 国产成人AV男人的天堂| 日本91视频| 久热re国产手机在线观看| 天天综合天天综合| 有专无码视频| 中文字幕欧美日韩| 国内精品久久久久鸭| 国产精品久久久精品三级| 欧美色综合久久| 91探花在线观看国产最新| 国产日产欧美精品| 国产成人精品免费视频大全五级|