999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于神經(jīng)風(fēng)格遷移網(wǎng)絡(luò)的民族圖案創(chuàng)新方法

2020-09-01 15:16:12侯宇康趙澤宇
圖學(xué)學(xué)報 2020年4期

侯宇康,呂 健,劉 翔,胡 濤,趙澤宇

基于神經(jīng)風(fēng)格遷移網(wǎng)絡(luò)的民族圖案創(chuàng)新方法

侯宇康,呂 健,劉 翔,胡 濤,趙澤宇

(貴州大學(xué)現(xiàn)代制造技術(shù)教育部重點實驗室,貴州 貴陽 550025)

針對傳統(tǒng)民族圖案符號手工提取效率低,圖案組合創(chuàng)新設(shè)計困難的問題,以苗族傳統(tǒng)的蠟染和挑花圖案創(chuàng)新設(shè)計為例提出傳統(tǒng)民族圖案風(fēng)格創(chuàng)新模型。該模型將改進型的形狀文法與基于深度學(xué)習(xí)的神經(jīng)風(fēng)格遷移網(wǎng)絡(luò)相結(jié)合,提取并編碼民族圖案構(gòu)型框架,通過形狀文法生成大量民族圖案構(gòu)型框架圖案,使用風(fēng)格遷移網(wǎng)絡(luò)快速提取民族圖案中的底層特征,在框架基礎(chǔ)上遷移生成創(chuàng)新民族圖案設(shè)計方案。實驗結(jié)果表明,該模型可以在指定框架的基礎(chǔ)上生成全新的民族紋飾圖案,相對于直接使用神經(jīng)網(wǎng)絡(luò)對空白圖像進行風(fēng)格遷移生成的圖案更加有序。生成圖案最終應(yīng)用于苗族織物圖案設(shè)計中,驗證了該方法和設(shè)計流程的可行性。

卷積神經(jīng)網(wǎng)絡(luò);形狀文法;神經(jīng)風(fēng)格遷移;挑花;蠟染

傳統(tǒng)民族圖案是少數(shù)民族文化和智慧的結(jié)晶,承載著民族的歷史記憶與傳說,隨著時代的發(fā)展和科技的進步,設(shè)計簡單、成本低廉的現(xiàn)代工業(yè)制品對少數(shù)民族傳統(tǒng)文化產(chǎn)業(yè)形成了巨大的影響和沖擊,文化傳承人的數(shù)量也在城市化和現(xiàn)代社會發(fā)展的過程中逐漸減少,因此,相關(guān)文化的保護和創(chuàng)新顯得越發(fā)重要。但傳統(tǒng)民族圖案創(chuàng)新需要漫長的實踐過程,并且存在圖案手工提取效率低、自動化提取困難、創(chuàng)新靈感不足等問題。如何實現(xiàn)傳統(tǒng)圖案的快速創(chuàng)新,是解決民族文化保護和發(fā)展過程中的重要問題。

隨著計算機算力大幅提升以及GPU并行加速技術(shù)的出現(xiàn),深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練速度也有了巨大的提升,人工智能的應(yīng)用領(lǐng)域越發(fā)廣泛。不斷改進完善后的AlexNet[1],GoogLeNet[2],VGGNet[3],ResNet[4]等卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)成為計算機識別與處理文字、圖片、頻譜等信息的重要方式。在人工智能對傳統(tǒng)文化的保護領(lǐng)域,有諸多高校和研究機構(gòu)參與其中。谷歌公司與全球眾多博物館合作推出的Google Art & Culture項目,旨在用科技的力量來改變傳統(tǒng)藝術(shù)的展現(xiàn)形式和創(chuàng)新體驗,將中國傳統(tǒng)的皮影戲與人工智能手勢識別結(jié)合,通過識別不同的手勢語義,觸發(fā)不同的人物形象與皮影戲動畫故事,為傳統(tǒng)文化提供了全新的傳播方式和展示的用戶體驗。

在計算機輔助傳統(tǒng)文化保護領(lǐng)域,國內(nèi)外學(xué)者針對圖案的快速生成方法和融合創(chuàng)新設(shè)計,開展了卓有成效的研究。吳航和徐丹[5]通過風(fēng)格遷移網(wǎng)絡(luò)模擬了葫蘆烙畫的生成;王晨琛等[6]通過CNN實現(xiàn)了中國水墨畫風(fēng)格圖案的模擬;馬皎[7]通過轉(zhuǎn)譯原理生成新的寧強羌族刺繡紋樣設(shè)計方案;孫斐[8]通過因子分析法和形狀文法對秦繡抽象幾何紋樣進行推演及衍生圖案設(shè)計。

在蠟染與挑花設(shè)計領(lǐng)域,圍繞紋樣創(chuàng)新的研究持續(xù)深入,如袁惠芬等[9]針對挑花圖案設(shè)計提出一種基于矩陣Kronecker積的分形圖案生成方法;王偉祎等[10]通過形狀文法和構(gòu)型重用實現(xiàn)了蠟染工藝品個性化定制;LIU和CHEN[11]通過基于擴展有限元法的二維裂紋斷裂求解方法實現(xiàn)了蠟染印花裂紋圖案的模擬;YUAN等[12]實現(xiàn)了蠟染圖案的局部特征提取和檢索;TIAN等[13]通過計算機分型技術(shù)實現(xiàn)了對蠟染花紋的計算機模擬生成。

由德國圖賓根大學(xué)GATYS等[14]提出的神經(jīng)風(fēng)格遷移(neural style transfer)模型,可以生成高質(zhì)量的藝術(shù)圖像。該模型利用CNN對圖像的內(nèi)容和風(fēng)格進行分離與重組,為藝術(shù)圖像的創(chuàng)作提供了一種新的方式。已有研究人員將神經(jīng)風(fēng)格遷移技術(shù)應(yīng)用于窗簾圖案創(chuàng)新設(shè)計[15]、圖標(biāo)LOGO創(chuàng)新設(shè)計[16]和刺繡風(fēng)格合成[17]等領(lǐng)域。但風(fēng)格遷移網(wǎng)絡(luò)應(yīng)用于傳統(tǒng)民族圖案創(chuàng)新領(lǐng)域,存在遷移圖樣結(jié)構(gòu)難以控制,只能遷移少數(shù)圖案的問題。本文以云貴地區(qū)少數(shù)民族傳統(tǒng)苗族蠟染圖案與挑花圖案保護創(chuàng)新為例,提出了一種基于形狀文法和風(fēng)格遷移網(wǎng)絡(luò)的民族圖案風(fēng)格創(chuàng)新模型,通過形狀文法生成基本圖形作為基礎(chǔ)圖案架構(gòu),再使用風(fēng)格遷移網(wǎng)絡(luò)進行民族紋樣風(fēng)格遷移,使得生成的紋樣更符合傳統(tǒng)民族圖案的分布規(guī)律與框架結(jié)構(gòu),可以實現(xiàn)民族圖案快速構(gòu)型與生成。

1 基于神經(jīng)風(fēng)格遷移技術(shù)的傳統(tǒng)民族圖案創(chuàng)新設(shè)計方法

圖1為本文方法的整體框架圖。首先收集并構(gòu)建傳統(tǒng)民族圖案數(shù)據(jù)庫;然后通過形狀文法對現(xiàn)有的傳統(tǒng)圖案進行數(shù)字化處理,提取主要框架結(jié)構(gòu),對蠟染圖案進行數(shù)字編碼并儲存于編碼庫中;再通過編碼的變換生成大量框架圖案,賦色處理后作為內(nèi)容圖案輸入到風(fēng)格遷移網(wǎng)絡(luò)中,以傳統(tǒng)民族圖案數(shù)據(jù)庫中的現(xiàn)有挑花圖案作為風(fēng)格圖案進行風(fēng)格遷移;最終通過框架圖案與風(fēng)格圖案的融合生成全新的挑花圖案。

圖1 傳統(tǒng)民族圖案創(chuàng)新設(shè)計方法框架圖

2 民族圖案風(fēng)格創(chuàng)新設(shè)計模型

2.1 形狀文法模型結(jié)構(gòu)

形狀文法是美國麻省理工大學(xué)教授George Stiny沿用語言學(xué)中衍生文法的概念首先提出的[18],通過形狀文法可以按照一定的規(guī)則生成形狀,形狀文法形式允許直接根據(jù)標(biāo)記形狀和參數(shù)化標(biāo)記形狀定義算法,即=(,,,)。其中,為形狀的有限集;為一組有限的符號;為一組有限的形狀規(guī)則形成,為(,)+中的標(biāo)記形狀,為(,)*中的標(biāo)記形狀,即初始形狀。

在形狀文法中,集合中的形狀和集合中的符號為集合和初始形狀中的形狀規(guī)則的定義提供了基礎(chǔ)。使用形狀語法生成的標(biāo)記形狀也是由這些基本元素構(gòu)建的。

使用形狀文法生成紋樣的過程可以概括為:選擇初始形狀,執(zhí)行變換規(guī)則,得到最終形狀。常用的形狀文法推理規(guī)則包括:移動、置換、縮放、增刪、鏡像、復(fù)制、旋轉(zhuǎn)和切換等[19]方法,如圖2所示。

如圖3所示,選取蠟染圖案中常見的幾種構(gòu)型方法,將其分解為由多種基礎(chǔ)圖形組成的構(gòu)型框架,使用表1中的改進型形狀文法構(gòu)型規(guī)則[20]對其進行數(shù)字化編碼,并存儲于傳統(tǒng)民族圖案基礎(chǔ)特征數(shù)據(jù)庫中,通過對規(guī)則編碼的修改可以批量生成不同的構(gòu)型框架圖案。

圖2 形狀文法變換規(guī)則

表1 改進型形狀文法規(guī)則編碼表

(注:規(guī)則中所有單詞均為字符串)

圖3 蠟染圖案基本構(gòu)型分解

圖4為對結(jié)構(gòu)圖案進行構(gòu)型分解,通過改進型形狀文法規(guī)則編碼表示的結(jié)果。

通過用戶交互式方法為結(jié)構(gòu)圖案進行顏色附加(圖5),使生成的構(gòu)型框架擁有對比強烈的明暗色彩區(qū)分關(guān)系,以便于風(fēng)格遷移網(wǎng)絡(luò)能夠識別其構(gòu)型信息并進行有效遷移。

圖4 框架圖案規(guī)則編碼

圖5 構(gòu)型框架賦色

2.2 風(fēng)格遷移網(wǎng)絡(luò)結(jié)構(gòu)

風(fēng)格遷移網(wǎng)絡(luò)使用在圖像處理任務(wù)中表現(xiàn)優(yōu)異的CNN進行圖案特征的提取與識別,CNN由眾多小的計算單元組成,每一層單元都可以理解為圖像卷積核的集合,可從輸入的圖像中提取特定的特征。在CNN抽取的特征信息中,特征和樣式是可以分離的,故先給予一個快速生成的民族圖案布局方案,再通過風(fēng)格遷移神經(jīng)網(wǎng)絡(luò)抽取現(xiàn)有民族圖案紋理中的特征,與規(guī)定的布局進行比較融合,可以實現(xiàn)民族圖案的快速創(chuàng)新與生成。風(fēng)格遷移網(wǎng)絡(luò)廣泛用于繪畫風(fēng)格的遷移,但使用在民族圖案融合創(chuàng)新方面尚屬空白。

風(fēng)格遷移模型的目標(biāo)是將風(fēng)格圖案的元素遷移至規(guī)定好的構(gòu)型框架上,以期實現(xiàn)快速的風(fēng)格紋樣遷移定制,風(fēng)格遷移網(wǎng)絡(luò)以基于ImageNet數(shù)據(jù)集進行預(yù)訓(xùn)練的VGG19 的CNN為基礎(chǔ),其包括16個卷積層和5個池化層,組合可分為5個組,每個組由卷積層及池化層組成,但風(fēng)格遷移網(wǎng)絡(luò)不使用VGG19分類網(wǎng)絡(luò)中最后輸出的全連接層和softmax層。

圖6 基于卷積神經(jīng)網(wǎng)絡(luò)的民族圖案風(fēng)格遷移網(wǎng)絡(luò)框架

層中的激活損失的導(dǎo)數(shù)等于

(4)

總損失為

其中,為網(wǎng)絡(luò)中每一層對總損失貢獻的權(quán)重,可衡量每一層的損失;E為在層中的激活導(dǎo)數(shù),可以解析計算為

3 實驗結(jié)果與分析

3.1 實驗環(huán)境

本文的實驗環(huán)境是python 3.7,CPU為AMD 1800X,內(nèi)存16 GB,Windows 10操作系統(tǒng),同時配備NVIDIA GTX 1070顯卡(8 GB)。研究方案主要基于Tensorflow-GPU,CUDA和Cudnn開源機器學(xué)習(xí)框架來實現(xiàn)GPU加速。

3.2 參數(shù)設(shè)計

本文的參數(shù)優(yōu)化使用自適應(yīng)矩估計優(yōu)化器[21]進行。實驗發(fā)現(xiàn),學(xué)習(xí)率設(shè)置過高會導(dǎo)致遷移后生成的圖案無法有效遵循圖案框架,造成圖像模糊、結(jié)構(gòu)混亂的后果,學(xué)習(xí)率設(shè)置過低會大幅延長訓(xùn)練時間,并對圖案的多樣化產(chǎn)生束縛。

如圖7所示,為了獲得框架清晰、圖案豐富的圖像,使用不同學(xué)習(xí)率將訓(xùn)練設(shè)置為10 000次,并對比分析結(jié)果,最終優(yōu)化器參數(shù)設(shè)置為learning rate=5,beta1=0.99,epsilon=0.1。

圖7 不同學(xué)習(xí)率訓(xùn)練結(jié)果對比

通過控制風(fēng)格遷移網(wǎng)絡(luò)的內(nèi)容權(quán)重因子與風(fēng)格權(quán)重因子,可以控制輸出圖像的風(fēng)格化程度。圖8給出了通過實驗各訓(xùn)練1 000次的不同風(fēng)格權(quán)重與內(nèi)容權(quán)重之間的比值結(jié)果,通過分析生成圖像的圖案細節(jié)和輪廓清晰度,最終選擇圖8(b)=1×102,=1×10–2為內(nèi)容權(quán)重和風(fēng)格權(quán)重參數(shù)。

3.3 結(jié)果分析

為了驗證本文方法的有效性,使用相同的神經(jīng)網(wǎng)絡(luò)參數(shù)與風(fēng)格圖像進行對比試驗。使用空白圖像作為輸入內(nèi)容圖像進行風(fēng)格遷移結(jié)果圖9(a),沒有框架限制,生成的結(jié)果雜亂無章,且圖案的中間部分喪失了圖案紋理。框架未填充色彩的內(nèi)容圖像遷移結(jié)果如圖9(b)所示,生成圖案有一定的框架,但無法產(chǎn)生明顯的圖案結(jié)構(gòu)區(qū)分。本文方法的遷移結(jié)果如圖9(c)所示,生成的紋理圖案有較好的結(jié)構(gòu)區(qū)分且有序性更強。

對比其他方法,AdaIN快速風(fēng)格遷移網(wǎng)絡(luò)[22]默認(rèn)參數(shù)遷移結(jié)果如圖10(b)所示,無法實現(xiàn)傳統(tǒng)民族圖案的特征抽取,在風(fēng)格遷移過程中會破壞抽取圖案的精細紋理特征,導(dǎo)致僅有構(gòu)型與色彩信息保留,未遷移較多的紋理圖案。使用相同的神經(jīng)網(wǎng)絡(luò)參數(shù)與多種色彩紋理的挑花圖案進行風(fēng)格遷移實驗,未使用形狀文法生成框架圖案的Gatys原始算法直接遷移的結(jié)果如圖10(a)所示。本文結(jié)合形狀文法生成框架圖案的傳統(tǒng)民族圖案風(fēng)格創(chuàng)新模型方法生成圖案如圖10(c)所示,可以有效生成規(guī)則的挑花圖案,并且有更為豐富和靈動的民族圖案細節(jié)特征。

圖8 不同權(quán)重遷移結(jié)果(局部)對比

圖9 挑花圖案遷移實驗結(jié)果

選擇圖5中框架圖案2重新進行風(fēng)格遷移,得到的最終結(jié)果為圖11所示。

圖10 本文實驗結(jié)果與傳統(tǒng)方法對比

圖11 框架圖案遷移實驗結(jié)果

本文方法的優(yōu)勢在于,通過形狀文法提取并進行編碼,可以批量生成民族圖案的框架圖案,利用內(nèi)容框架圖案,可有效限制風(fēng)格遷移網(wǎng)絡(luò)的生成圖案結(jié)構(gòu),更好地控制了生成的民族圖案架構(gòu)。生成的挑花圖案結(jié)構(gòu)清晰、紋理豐富、細節(jié)具有強烈的民族圖案風(fēng)格特征,與真實的民族風(fēng)格圖案非常接近。相對于傳統(tǒng)的挑花圖案創(chuàng)新方法,本文方法提供了更加簡單的生成方式并產(chǎn)生更多的紋理創(chuàng)新(圖12)。

圖12 挑花創(chuàng)新圖案應(yīng)用

4 結(jié)束語

本文提出了一種基于神經(jīng)風(fēng)格遷移的民族圖案創(chuàng)新設(shè)計模型,通過形狀文法可以快速生成圖案框架,通過風(fēng)格遷移網(wǎng)絡(luò)快速抽取原有民族圖案風(fēng)格的主要特征,并將其與框架結(jié)構(gòu)進行對比遷移,最終生成全新的民族圖案。該方法不僅能為民族圖案創(chuàng)新節(jié)省所需要的人力與時間,還能為民族圖案的創(chuàng)新設(shè)計提供全新的思路,有利于傳統(tǒng)文化遺產(chǎn)的數(shù)字化保護與創(chuàng)新,同時生成的圖案可以作為民族文化傳承人在圖案創(chuàng)新方面的參考。

[1] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[C]//Advances in Neural Information Processing Systems 12. New York: Curran Associates Inc, 2012: 1097-1105.

[2] SZEGEDY C, IOFFE S, VANHOUCKE V, et al. Inception-v4, inception-ResNet and the impact of residual connections on learning[EB/OL]. [2019-07-10]. https://arxiv.org/abs/1602.07261.

[3] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL]. [2019-08-15]. https://arxiv.org/abs/ 1409.1556.

[4] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[EB/OL]. [2019-08-18]. https://arxiv.org/abs/1512.03385.

[5] 吳航, 徐丹. 葫蘆烙畫的藝術(shù)風(fēng)格遷移與模擬[J]. 中國科技論文, 2019, 14(3): 278-284. WU H, XU D, Art style transfer and simulating for gourd pyrography[J]. China Science Paper, 2019, 14(3): 278-284 (in Chinese).

[6] 王晨琛, 王業(yè)琳, 葛中芹, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的中國水墨畫風(fēng)格提取[J]. 圖學(xué)學(xué)報, 2017, 38(5): 754-759.WANG C C, WANG Y L, GE Z Q, et al. Convolutional neural network-based Chinese Ink-Painting artistic style extraction[J]. Journal of Graphics. 2017, 38(5): 754-759 (in Chinese).

[7] 馬皎. 寧強羌族刺繡紋樣的轉(zhuǎn)譯與創(chuàng)新設(shè)計研究[J]. 包裝工程, 2018, 39(20): 22-28. MA J. Translation and innovation design of Ningqiang Qiang Embroidery patterns[J]. Packaging Engineer, 2018, 39(20): 22-28 (in Chinese).

[8] 孫斐. 秦繡抽象幾何紋樣提取與設(shè)計應(yīng)用[J]. 包裝工程, 2019, 40(16): 77-82, 107. SUN F. Extract and design application of abstract geometric pattern in Qin Embroidery[J]. Packaging Engineer. 2019, 40(16): 77-82, 107 (in Chinese).

[9] 袁惠芬, 程皖豫, 王旭, 等. 基于Kronecker積的分形圖案設(shè)計及在望江挑花中的應(yīng)用[J]. 東華大學(xué)學(xué)報: 自然科學(xué)版, 2017, 43(5): 651-654.YUAN H F, CHENG W Y, WANG X, et al. Fractal pattern design based on Kronecker product and the application in Wangjiang cross stitch[J]. Journal of Donghua University: Natural Science, 2017, 43(5): 651-654 (in Chinese).

[10] 王偉祎, 呂健, 潘偉杰, 等. 面向工藝品個性化定制的圖案構(gòu)型提取與重用[J]. 圖學(xué)學(xué)報, 2019, 40(3): 583-590.WANG W Y, LV J, PAN W J, et al. Extraction and reuse of pattern configuration for handicrafts personalized customization[J]. Journal of Graphics, 2019, 40(3): 583-590 (in Chinese).

[11] LIU S G, CHEN D. Computer simulation of batik printing patterns with cracks[J]. Textile Research Journal, 2015, 85(18): 1972-1984.

[12] YUAN Q N, XU S H, JIAN L. A new method for retrieving batik shape patterns[J]. Journal of the Association for Information Science and Technology, 2018, 69(4): 578-599.

[13] TIAN G D, YUAN Q N, HU T, et al. Auto-generation system based on fractal geometry for batik pattern design[J]. Applied Sciences, 2019, 9(11): 2383.

[14] GATYS L A, ECKER A S, BETHGE M. Image style transfer using convolutional neural networks[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2016: 2414-2423.

[15] DARU P, GADA S, CHHEDA M, et al. Neural style transfer to design drapes[C]//2017 IEEE International Conference on Computational Intelligence and Computing Research (ICCIC). New York: IEEE Press, 2017: 1-6.

[16] ATARSAIKHAN G, IWANA B K, UCHIDA S. Contained neural style transfer for decorated logo generation[C]//2018 13th IAPR International Workshop on Document Analysis Systems (DAS). New York: IEEE Press, 2018: 317-322.

[17] 鄭銳, 錢文華, 徐丹, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的刺繡風(fēng)格數(shù)字合成[J]. 浙江大學(xué)學(xué)報: 理學(xué)版, 2019, 46(3): 270-278.ZHENG R, QIAN W H, XU D, et al. Synthesis of embroidery based on convolutional neural network[J]. Journal of Zhejiang University: Sciences Edition, 2019, 46(3): 270-278 (in Chinese).

[18] STINY G, GIPS J. Shape Grammars and the generative specification of painting and sculpture[C]// Information Processing 71. Amsterdam: North-Holland, 1972: 1460-1465.

[19] STINY G. Introduction to shape and shape grammars[J]. Environment and Planning B: Planning and Design, 1980, 7(3): 343-351.

[20] 張欣蔚, 王進, 陸國棟, 等. 基于本體和形狀文法的圖案構(gòu)形提取與重用[J]. 浙江大學(xué)學(xué)報: 工學(xué)版, 2018, 52(3): 461-472.ZHANG X W, WANG J, LU G D, et al. Extraction and reuse of pattern configuration based on ontology and shape grammar[J]. Journal of Zhejiang University: Engineering Science, 2018, 52(3): 461-472 (in Chinese).

[21] KINGMA D P, BA J. Adam: a method for stochastic optimization[EB/OL]. [2019-09-20]. https://arxiv.org/ abs/1412.6980.

[22] HUANG X, BELONGIE S. Arbitrary style transfer in real-time with adaptive instance normalization[C]// 2017 IEEE International Conference on Computer Vision (ICCV). New York: IEEE Press, 2017: 1510-1519.

Innovative method of ethnic pattern based on neural style transfer network

HOU Yu-kang, LV Jian, LIU Xiang, HU Tao, ZHAO Ze-yu

(Key Laboratory of Advanced Manufacturing Technology of the Ministry of Education, Guizhou University, Guiyang Guizhou 550025, China)

Aiming at the problems of low manual extraction efficiency of traditional ethnic pattern symbols as well as the difficulty of designing creative graphic combination, this paper proposed an innovative model of traditional ethnic pattern style by taking the batik and cross-stitch work of the Miao nationality as an example. This model combined the improved shape grammar with neural style transfer network based on deep learning, to extract e and encode ethnic pattern configuration frames. Then, a large number of innovative ethnic patterns was generated through shape grammars, and the basic features of ethnic patterns was extracted quickly using the style-transfer network, so as to transfer and generate innovative ethnic pattern designs based on this framework. The experimental results show that the model can generate brand-new ethnic ornament patterns on the basis of the specified frame, which are more orderly than those generated directly by means of the neural network transfer. The generated pattern will finally be applied to the design of the Miao fabric patterns, which verifies the feasibility of this method and design process.

convolutional neural network; shape grammar; neural style transfer; cross stitch; batik

TP 391

10.11996/JG.j.2095-302X.2020040606

A

2095-302X(2020)04-0606-08

2020-01-08;

2020-04-01

1April, 2020

8 January, 2020;

國家自然科學(xué)基金項目(51865004);貴州省科技項目(黔科合基礎(chǔ)[2017]1046);黔科合支撐[2017]2016、黔科合支撐[2019]2010)、黔科合基礎(chǔ)[2018]1049);黔教合YJSCXJH[2018]088)

National Natural Science Foundation of China (51865004); Science and Technology Projects in Guizhou Province ([2017]1046), [2017]2016, [2019]2010), [2018]1049); YJSCXJH[2018]088)

侯宇康(1994–),男,山東泰安人,碩士研究生。主要研究方向為圖形圖像處理、虛擬現(xiàn)實等。E-mail:376190399@qq.com

HOU Yu-kang (1994–), male, master student. His main research direction cover graphic image processing, virtual reality. E-mail: 376190399@qq.com

呂 健(1983–),男,河北承德人,副教授,博士,碩士生導(dǎo)師。主要研究方向為數(shù)字文化遺產(chǎn)保護、智能設(shè)計。E-mail:jlv@gzu.edu.cn

LV Jian (1983–), male, associate professor, Ph.D. His main research direction cover digital cultural heritage protection and intelligent design. E-mail: jlv@gzu.edu.cn

主站蜘蛛池模板: 国产高潮流白浆视频| 日韩在线影院| 亚洲va精品中文字幕| 黄色片中文字幕| 欧美不卡视频在线| 国产精品成人AⅤ在线一二三四| 成年人国产网站| 亚洲第一网站男人都懂| 亚洲人成人伊人成综合网无码| 美女国产在线| 五月天综合婷婷| 日韩天堂在线观看| 亚洲中文字幕精品| 香蕉久人久人青草青草| 国产喷水视频| 午夜国产理论| 亚洲无码日韩一区| 日韩最新中文字幕| 中文一级毛片| 永久免费精品视频| 国产成人精彩在线视频50| 亚洲国产成人无码AV在线影院L| 亚洲AⅤ综合在线欧美一区| 色首页AV在线| 伊人久久大线影院首页| 国产精品入口麻豆| 国产区精品高清在线观看| 91年精品国产福利线观看久久 | 18黑白丝水手服自慰喷水网站| 国产电话自拍伊人| 精品超清无码视频在线观看| 国内嫩模私拍精品视频| 日韩小视频在线观看| 野花国产精品入口| 最新亚洲人成无码网站欣赏网| a级毛片网| 精品国产免费观看| AV天堂资源福利在线观看| 一级毛片无毒不卡直接观看| 久久综合色88| 国产精品自在拍首页视频8| 伊人久久影视| 久久永久精品免费视频| 午夜综合网| 亚洲日韩AV无码精品| 亚州AV秘 一区二区三区 | 经典三级久久| 波多野结衣在线se| 午夜啪啪网| 四虎成人精品在永久免费| 国产在线97| 欧美一区二区丝袜高跟鞋| 中国一级毛片免费观看| 91人人妻人人做人人爽男同| 五月婷婷中文字幕| 波多野结衣国产精品| 成年网址网站在线观看| 日本午夜精品一本在线观看| 人人91人人澡人人妻人人爽| 日本成人精品视频| 国产欧美精品一区aⅴ影院| 1769国产精品视频免费观看| 无码内射在线| 久久久久久久久久国产精品| 亚洲 欧美 日韩综合一区| 亚洲天堂视频在线观看免费| 亚洲色图狠狠干| 国产主播一区二区三区| 午夜免费小视频| 国产三级韩国三级理| 亚洲精品国产综合99久久夜夜嗨| 嫩草影院在线观看精品视频| 国产成人精品视频一区视频二区| 真人免费一级毛片一区二区| 国产激爽大片高清在线观看| 午夜精品影院| 亚洲性一区| 一级不卡毛片| 无码福利视频| 小蝌蚪亚洲精品国产| 中文字幕免费播放| 亚洲成人黄色在线观看|