999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于ChipGAN-ViT模型的漢繡藝術風格遷移與模擬

2023-04-29 21:49:49沙莎李怡蔣惠敏陳雅卓
紡織工程學報 2023年2期

沙莎 李怡 蔣惠敏 陳雅卓

摘要:針對真實圖像與漢繡圖像在風格遷移融合過程中產生的針法工藝模糊和邊界偽影問題,提出了基于ChipGAN-ViT模型的漢繡風格遷移方法。由于刺繡紋樣內部與背景留白具有不同的線跡填充效果,算法首先利用ChipGAN-ViT模型對前景進行紋理重構,再利用循環(huán)生成對抗網絡對風格圖像和內容圖像進行風格遷移;其次,采用 Sobel算子對漢繡圖像進行邊緣輪廓提取,以滿足漢繡數字化模擬的內容圖像需求;最后,對生成的風格遷移圖像進行超分辨率處理獲得最終漢繡數字化圖像。實驗結果表明:該方法可有效模擬出漢繡平順且配色豐富的藝術特點,相比傳統(tǒng)的ChipGAN、CNN算法遷移時間縮減了30.58%和41.52%。所提出的漢繡風格遷移方法是對風格遷移技術的有效補充,為漢繡圖案的創(chuàng)新設計提供了新的可能。

關鍵詞:風格遷移;生成對抗網絡;ChipGAN-ViT模型;損失函數;畫稿模擬

中圖分類號:TS195.644??? 文獻標志碼:A?? 文章編號:2097-2911-(2023)02-0068-10

Transfer and Simulation of Chinese Embroidery Art Style BasedonChipGAN-ViT Model

SHA Shaa,b,LI Yic,JING Huiminc,CHEN Yazhuoc

(a. Institute of Design Innovation and Fiber Science;b. Wuhan Textile and Garment Digital Engineering TechnologyResearch Center;c. School of Fashion, Wuhan Textile University, Wuhan 430073, China)

Abstract:To address the issues of ambiguity in the stitch process and boundary artifacts during style transfer and fusion between real images and Han embroidery images, this paper proposes a method for Han embroidery style transfer based on the ChipGAN-ViT model. Firstly, the algorithm utilizes the ChipGAN-ViT model to re- construct the texture of the foreground, taking into consideration that different stitch filling effects exist between the interior of embroidery patterns and blank backgrounds. Then, a cyclic generation adversarial network is em- ployed to transfer both style and content images. Additionally, Sobel operator is utilized to extract edge contours from Han embroidery images in order to meet content image requirements for digital simulation of Han embroi- dery. Finally, super resolution processing is applied to enhance details in the style transferred image, resulting in a final digital representation of Han embroidery. Experimental results demonstrate that this approach effectively simulates smoothness and vibrant artistic features of Han embroidery while reducing migration time by 30.58% compared with traditional ChipGAN algorithms and 41.52% compared with CNN algorithms respectively. Thismethod serves as an effective supplement to style transfer technology while offering new possibilities for inno- vative design of Han embroidery patterns.

Key words: style transfer;generative adversarial networks;ChipGAN-ViT model;loss function;Draft simulation

引言

作為湖北地區(qū)獨特的繡種,漢繡以其粗獷的針法,多變的造型手法和充滿活力的構圖在文化藝術中占據重要地位。漢繡作品注重色彩搭配,還受到傳承人針法技藝水平的影響,這導致了現代實用價值較低且應用較少。隨著計算機技術和圖像處理方法的發(fā)展,學者已經開始對民族烙畫[1]、刺繡[2]和云錦[3]等工藝美術作品進行風格遷移研究。近年來,越來越多的學者和設計師將目光聚焦于民族圖案,并深入探索傳統(tǒng)歷史文化中蘊含的特色元素,致力于設計具有中國特色的民族圖案[4, 5]。因此,在數字化科技賦能民族圖案創(chuàng)新的背景下,如何在保留民族圖案藝術特色基礎上進行風格化遷移[6]是亟需解決并突破的問題。本文以漢繡的工藝圖案為例,探索真實圖案與漢繡風格之間存在的差異,并采用圖像風格遷移方法增加漢繡元素及針法應用。

風格遷移方法指在保留圖像語義內容不變的情況下對圖像進行不同風格的藝術渲染。GAT- YS等人[7]利用深度神經網絡和Gram矩陣分別提取內容和風格特征,使用中間激活層將兩者進行融合,最終獲得了風格化結果;JOHNSON等人[8]引入基于前饋風格化模型實現快速風格遷移,大大地提高了風格遷移的速度;ULYANOV等人[9]通過多尺度架構產生更多的并行通道,強調更復雜的網絡和富有表現力的損失函數從而獲得了輕量級的網絡和質量相當的風格圖像。以上方法主要研究對圖像全局的遷移,為了實現局部風格遷移, EFROS和LEUNG[10]采用一種紋理合成的非參數方法,基于馬爾科夫隨機場(Markov Random Field,MRF)模型選取與待填充像素周圍紋理對該點進行填充,實現局部紋理結構的填充;繆永偉等人[11]針對局部遷移對象與未遷移區(qū)域的銜接問題,提出了曼哈頓距離的求解算法,實現了邊緣的平滑過渡;孫冬等人[12]提出了局部區(qū)域控制的圖像樣式轉移算法,獲得了更精細完整的目標輪廓。

在漢繡圖案研究領域,許多學者主要關注于刺繡的藝術特點[13, 14]、可持續(xù)傳承[15, 16]以及在現代服裝中的應用[17, 18],但對于模擬漢繡圖案風格的作品還不夠充分。由于傳統(tǒng)風格遷移模型容易產生針法工藝模糊和邊界偽影等問題,導致遷移效果不清晰美觀。因此,本文將從真實漢繡的勾形、打底和針法特征出發(fā),首先利用ChipGAN- ViT網絡來重構前景紋理,以植物為例填充齊平針的紋理,如圖1所示,通過transformer提取全局像素的輸入序列來增強漢繡圖像的語義特征;其次,對獲取到的紋理圖像進行分類除雜,并使用 Sobel算子提取目標圖像的輪廓以將前景與背景分離開;最后對前景和背景進行紋理填充,并將二者進行圖像融合,從而生成具有真實漢繡藝術風格的高質量圖像。

1漢繡風格遷移實現框架

荊州地區(qū)漢繡題材紋樣種類繁多,包括動物、植物、人物、建筑等圖案,背景大多都為純色的棉麻絲毛面料等。在制作漢繡作品時,前景背景需要不同粗細、方向或角度的針法走向,如圖1所示,齊平針從圖案的內緣起針且針腳整齊,與圖案邊緣線跡無出入,齊整針密。因此,提取目標圖像的邊緣輪廓,對漢繡特定的針法進行紋理模擬,有利于將前景圖案邊緣和背景針法自然銜接,產生更加逼真,紋理平滑的藝術風格圖像。本文提取齊平針的紋理特征,通過模擬該針法的走向擴充漢繡背景圖像,控制漢繡背景紋理方向。

圖2為本文風格模擬系統(tǒng)框架圖。在前景合成之前,利用 Sobel算子提取收集到的圖像邊緣輪廓,生成不同題材的漢繡白描圖,并根據形態(tài)學對畫稿圖像邊緣進行平滑處理,模擬漢繡的畫稿紋樣;為了更好對前景的紋理進行填充,將ChipGAN模型中生成器替換為Vit Generator,不斷的優(yōu)化邊緣損失和紋理損失,生成具有漢繡針法的紋理效果。

2漢繡藝術風格遷移模型

本文提出一種組合型的風格遷移模型,在原始ChipGAN網絡的基礎上引入了ViT(vi- sion of transformer)視覺網絡,從而實現對輸入圖像先分類再遷移的過程。ChipGAN-ViT模型表現出高度的靈活性和擴展性,通過訓練來適應不同類型的風格遷移任務,并且能夠處理各種規(guī)模和復雜度的計算框架。其次,與傳統(tǒng)方法相比,該模型能夠更好的捕捉全局信息和長距離依賴關系,充分理解整體的遷移場景以更快的速度完成任務。此外,該模型還具備自動化特征提取和學習能力。通過深度學習技術,它可以從大量樣本中自動提取關鍵特征,并將其應用于新樣本上,這種自動化特征提取功能使得模型變得更智能化和高效化。總之,基于靈活性、準確性、效率、自動化特征提取以及并行計算等優(yōu)點,Chip- GAN-ViT在計算機視覺領域展現了強大的潛力和優(yōu)勢,它不僅擴展了對深度學習框架應用范圍,還為解決復雜、全局感知相關問題提供了新思路和方法。

ChipGAN-ViT的工作流程如圖3所示,輸入真實的荷花圖像,經過生成器A生成具有漢繡針法風格圖像的荷花,再利用生成器B重建生成荷花的圖片,計算真實的荷花圖像和重構后的荷花圖片的循環(huán)一致性損失,將真實的荷花圖像和生成的荷花圖像輸入邊緣提取器 Sobel,并計算筆觸邊緣損失;在網絡結構中加入紋理損失,對輸出的圖像進行超分辨率處理,從而得到更大像素密度、更多紋理細節(jié)的漢繡風格遷移圖像。

2.1生成器模型

ChipGAN-ViT的生成器主要由兩部分構成——UNet-ViT Generator 和 Pixel-Wise Vision,如圖4所示。UNet-ViT Generator由編碼器(Encod- er)和解碼器(Decoder)組成,首先對輸入的圖像x 進行預處理,通過卷積層和下采樣層對矩陣圖像進行特征提取;其次提取的信息經過Pixel-Wise Vision Transformer 結構,利用 PE 層將輸出的圖像拉平分塊處理,并根據token將劃分后的圖像塊組合成序列,通過 Transformer 特有的 Multi- head Self-attention 結構關注不同區(qū)塊的重要程度,加上一個全連接層分類就形成了整個Trans- former Block結構;最后對分類得到的圖像進行多層卷積和上采樣轉換為域Y的元素。

2.1.1 UNet-ViT Generation

UNet結構整體外觀呈U 型結構,左半部分為encoding,由兩個3×3的卷積層(RELU)和2×2的最大池化層組合成下采樣(down-sampling);右半部分由兩個3×3的卷積層(RELU)、一個上采樣(up-sampling)去卷積層和特征拼接的 con- cat循環(huán)構成decoding模塊。下采樣模塊通過收縮路徑降低輸入圖像的分辨率,增大特征通道的數量,生成對應圖像的縮略圖;上采樣利用反卷積法恢復圖像的維度和部分特征。為了保留更多的信息特征,在編碼器輸出真實圖像和decod- ing之前加入 Pixel-Wise Vision Transformer 模塊改善圖像風格遷移的效果,如圖4所示。

2.1.2 Pixel-Wise Vision Transformer

Vision Transformer被稱為像素級Transform- er 編碼器,通過對圖像進行拉平切塊處理減少了在卷積過程中信息丟失的問題,針對本文的漢繡針法工藝和風格,提高了ChipGAN-ViT算法在復雜環(huán)境下對細小紋理的有效性和可行性。

該結構主要由Positional Embedding(PE)層、 Transformer Encoder block 和 FFN(前饋網絡)三部分組成。首先,利用語義切塊將圖像像素劃分為尺寸相同的區(qū)域塊,由PE層對像素進行特征提取,將大小為224×244的圖像分割為16×16的像素塊,因此每個圖片的序列長度為196。每個像素矩陣是三維的,通過線性卷積層,在每個區(qū)塊特征加入位置編碼Cls,輸入維度的總特征數為197×768。其次,Transformer編碼器的多頭注意力機制(MSA)可以辨識各個區(qū)域塊的特征,將特征塊與其他像素信息進行映射,融合不同圖片Cls特征。最后,通過 FFN 對 MSA 特征進行分類,具體計算公式如(1)-(4)所示:

式中Epos 表示PE層輸入特征序列,ZL(0)、Z0、z?為不同狀態(tài)下圖像空間卷積矢量,xclass代表某類標簽圖像,xp(n)∈?(P2? C)? D 表示二維像素塊,左上角1~n代表像素塊編號,C為通道數維數,P為像素塊大小,一共有 N 個像素塊,N=HW/P2,x ∈?H ? W ? C 為輸入圖片;MLP表示淺層全連接神經網絡,為多層感知機函數;Z為輸出分類結果。

將U-Net與GAN結合起來,可以進一步提高分割結果的質量和細節(jié)。通過使用生成器來生成更精細的分割結果,判別器可以指導生成器生成更逼真的分割結果。生成器和判別器之間的對抗性訓練可以推動兩者相互提升,最終獲得更好的分割效果。

2.2損失函數設計

2.2.1對抗損失

為了將生成的漢繡圖像更加貼近真實的目標漢繡風格圖片,采用對抗損失來減少輸出圖像分布于真實漢繡圖像的標注。由于傳統(tǒng)的交叉熵損失通常會訓練學習到每一個樣本,分配所有的概率到每一個實際標簽上,從而導致模型的泛化能力較差。針對真實的植物數據集樣本和漢繡圖像樣本y,模型包含了兩個映射G:X→ Y和 F:Y→ X,對于生成器 G:X→ Y及判別器 Dy 二者的對抗性損失如式(5)所示:

式中G從域Y中擬合與真實植物類似的數據,Dy 判斷輸入的數據是真實還是虛假。其中 E(*)表示分布函數的期望值,Pdata (x)為真實的植物樣本分布。當參數不斷交替迭代,G 取得最大值 Dy 取得最小值時,生成樣本的質量較好,取得全局最優(yōu)解。

2.2.2循環(huán)一致性損失

循環(huán)一致性指輸入圖像經過生成模型后再經過生成器的反向模型得到的循環(huán)過程,其輸出的圖像與原圖像一致性的過程。輸入真實的荷花圖像 x 和漢繡風格圖像 y ,輸入生成器GA 產生GA (x,y)圖像;其次再經過生成器GB 得到重構圖像GB (GA (x,y)x),最終輸出的圖像最大可能接近原圖像 x ,即GB (GA (x,y),x)≈ x 。因此,循環(huán)一致性的損失定義為式(6)所示:

式中:GA、GB 分別代表A 和 B 生成器;pdata (x)、pdata (y)分別為真實的植物樣本分布和漢繡圖像數據集;GA(GB (y,x),y)表示重構真實植物圖像; GB (GA(x,y),x)表示重構漢繡風格圖像。

2.2.3邊緣損失

為了確保重構的圖像整體的準確性,結構損失指導網絡產生突出的圖像結構,利用邊緣損失作為結構損失的基礎,約束真實植物圖像和預測植物圖像之間的高頻分量。在訓練過程中將高頻成分限制在真實邊緣與生成器生成的邊緣之間,定義邊緣損失如式(7)所示:

式中:Lap(Ireal)和 Lap(IG)分別表示通過拉普拉斯算子從真實圖像和生成器輸出圖像中提取的邊緣圖像,ε為非負閾值,用于減少噪聲和提高模型的魯棒性。

2.2.4紋理損失

紋理損失也稱為風格重建損失,通常利用不同特征通道的相關性來衡量與原有圖像的相似風格(色彩、紋理、飽和度等)。紋理損失函數通過感知圖像在訓練模型的高位特征空間中進行相似性計算,在卷積過程中提取生成器與判別器輸出的特征映射圖從而計算對應的格拉姆矩陣(Gram),迭代的生成輸出圖像,其網絡的紋理損失函數為式(8)所示:

其中,G表示Gram矩陣,可訓練出一個生成全局紋理的神經網絡,G(F)=FFT 。根據紋理損失最小化引導生成模型輸出更接近真實圖像的紋理特征,從而提高生成圖像的質量。

2.3漢繡畫稿圖的邊緣提取

傳統(tǒng)漢繡的完成首先需要漢繡設計者對圖案進行構圖設計,其次需根據不同對象選擇相應針法,并對繡娘的縫紉技巧有較高要求。為了降低漢繡漫長的工期和傳承人的刺繡難度,本文對搜集和拍攝不同類型的真實圖像進行數據清洗,提取需要的漢繡紋樣,生成不同題材的畫稿,通過最小值法獲取目標圖像的邊緣輪廓,最后對得到的畫稿圖進行齊平針的紋理填充,從而模擬真實漢繡的繡制過程。

邊緣輪廓提取通常指在圖像中高頻分量和低頻分量變化強度較大的像素區(qū)域,以灰度突變?yōu)榛A劃分出目標邊緣。Sobel算子[19]屬于一階離散微分算子,結合了高斯平滑與微分求導計算圖像灰度函數的近似梯度,具有原理簡單、運行速度快、計算量小的優(yōu)勢。因此,采用 Sobel算子對漢繡圖像進行邊緣檢測。假設 f(x,y)表示一幅漢繡圖像,其在點 f(x,y)的梯度為矢量,定義如式(9)所示。

其中?fx,y表示梯度的模。

在 Sobel算子提取邊緣輪廓前,采用高斯濾波(Gauss filtering)的方法,用卷積掃描目標圖像的逐個像素,經過卷積核確定鄰域像素加權平均灰度值替代中心像素點的值。Sobel算子的具體步驟如下:

(1)設置水平和垂直兩個方向3×3的卷積核,同時從上到下,從左到右逐像素進行遍歷,對掃描目標圖像所有像素點組成的卷積核進行離散卷積運算。

(2)將兩個離散卷積結果的最大值代替中心像素點的最大值,用 Pmax 表示。

(3)選取合適的閾值 t 進行二值化處理,當 Pmax ≥ t ,判斷該區(qū)域為圖像的輪廓,否則該區(qū)域為背景。

圖5(a)為輸入的原圖,圖5(b)為經過 Sobel 算子輸出的結果圖像,從圖中可以看出生成的輪廓邊緣清晰,紋路線條平滑,為模擬漢繡的畫稿奠定基礎。

圖像噪聲去除是改善圖像視覺效果的重要手段之一,其基本的原理是設置不同大小的濾波器對目標圖像進行不斷的迭代獲取最優(yōu)解,實現邊緣平滑和噪聲去除的步驟。為了凸顯紋樣與繡底之間的色彩反差,讓圖案在繡面中更立體生動,根據各向異性擴散[20]對圖像進行處理,增強邊緣和內部的紋理特征,使最終的圖像更加接近真實的畫稿紋樣,如圖6符合刺繡前期繡底的紋樣效果,且線條均勻流暢,確保圖案的完整性。

3實驗結果與分析

本實驗在Windows10操作系統(tǒng)進行,計算機硬件系統(tǒng)為 Intel(R) Core(TM) i7-10700 CPU @2.90GHz 2.90 GHz,32GB 內存;運行環(huán)境為py- thon3.9,Pytorch和Anaconda3。實驗采用爬蟲的2000張數據集進行訓練,其中數據集比例為訓練集:驗證集:測試集=8:2:2,通過圖像裁剪拉平處理擴展數據集。

3.1定量結果分析

為了驗證漢繡風格圖像生成質量的有效性,本文使用弗雷歇距離(FID)、結構相似性(SSIM)、峰值信噪比(PSNR)、風格遷移時間(Time)作為圖像生成效果的評價指標。FID 表示生成圖像與真實圖像之間的距離,SSIM從亮度、對比度和結構評價圖片的相似性,PSNR則根據像素點的差異判斷圖像的失真度。ChipGAN模型、CNN 和ChipGAN-ViT模型實驗結果進行對比如表1所示。

表1可得,本文ChipGAN-ViT對比 Chip- GAN 模型、CNN,弗雷歇距離數值分別減少了1.30%、2.78%;結構相似性增加了10.20%、15.37%;峰值信噪比增長了4.19%、5.90%;風格遷移時間減小了30.58%和41.52%。綜合上述數據分析,本文的模型算法能夠快速的生成風格化圖像,生成的漢繡風格圖像質量較高,驗證了該方法的有效性。

3.2定性結果分析

圖7展示了ChipGAN、CNN 和本文提出的ChipGAN-ViT模型風格遷移的結果。由圖7(c)可以看出,根據ChipGAN模型輸出的遷移結果輪廓完整,但背景色彩雜亂且不完整,無針法紋理的遷移。這源于筆觸約束與循環(huán)一致性損失學習了圖像的輪廓和色彩紋理,從而像素之間生成了相應的遷移。采用CNN模型生成的結果雖然實現了整體的風格遷移,但遷移的邊緣產生了偽影區(qū)域和背景模糊問題,如圖7(d)所示。

本文的優(yōu)化模型在提取畫稿邊緣的基礎上增加了紋理、邊緣損失,由圖7(e)可知,放大五倍查看細節(jié)圖,前景和背景都填充齊平針的針法;前景的花瓣為嫩粉色,背景襯托綠色的荷葉,色彩邊界清晰;最終的遷移效果完整的保留了畫稿的輪廓及細節(jié)線條,突出了漢繡齊平針的針法工藝和熱鬧的主題特點,模擬出真實刺繡作品的生動立體、層次分明、色彩豐富的藝術特點。

4結論

針對風格遷移技術中漢繡藝術模擬中出現的邊界偽影、針法模糊和輪廓不清晰問題,提出基于ChipGAN-ViT模型的漢繡風格遷移方法。利用循環(huán)一致性損失減小生成圖像與原始圖像的差異,得到更真實和自然的針法線跡。在上述基礎上,加入邊緣損失和紋理損失實現針法色彩填充的風格遷移。實驗結果表明,本文模型相較于ChipGAN、CNN等風格遷移方法,遷移速度更快,生成的風格化圖像質量更高,為風格遷移的藝術表現形式提供了更多的可能。算法遷移的結果可應用于服飾作品,文創(chuàng)產品制作以及非遺文化保護工作等領域。

盡管本文的遷移工作取得良好的效果,但還存在一些不足之處需要在后續(xù)工作中加以改善,例如:選擇多種針法進行不同對象的遷移、遷移的結果僅限于靜態(tài)的圖片等。在今后的研究工作中,對不同特色的繡種進行充分的收集和分類,構建交互式的刺繡風格遷移系統(tǒng),將獨特而精致的刺繡紋樣應用到虛擬試衣技術中,讓更多的人們深刻地感受民族服飾特色之美,對傳統(tǒng)的刺繡文化的保護與傳承具有重要的意義。

參考文獻:

[1]吳航,徐丹.葫蘆烙畫的藝術風格遷移與模擬[J].中國科技論文, 2019, 14(3):278-284.

WU Hang, XU Dan. Artistic style transfer and sim- ulation of gourd pyrography[J]. Chinese scientific and technological papers, 2019, 14(3):278-284.

[2]馮培超,錢文華,徐丹,等.苗繡藝術風格針跡模擬研究[J].圖學學報, 2019, 40(4):802-809.

FENG Peichao, QIAN Wenhua, XU Dan, et al. Miao embroidery art style stitch simulation re- search[J]. Journal of Graphics, 2019, 40(4):802-809.

[3]邱雪琳,孫迎,劉正,等.基于色彩優(yōu)化的云錦局部風格遷移[J].絲綢, 2022, 59(12):64-70.

QIU Xulin, SUN Ying, LIU Zheng, et al. Local style transfer of Yun brocade based on color opti- mization[J]. Journal of Silk, 2022, 59(12):64-70.

[4]何文澤.基于生成式對抗網絡的民族圖案生成研究[D].長春:吉林大學, 2022.1-2.

HE Wenze. Research on ethnic pattern generationbased? on? generative? adversarial? network[D].Changchun: Jilin University, 2022.1-2.

[5]秦臻,劉永紅,鄭棟毅.語義驅動的侗族織錦圖案輔助設計路徑研究[J].包裝工程, 2021, 42(14):65-73.

QIN Zhen, LIU Yonghong, ZHENG Dongyi. A se- mantic-driven approach to aided design of Dong brocade patterns[J]. Journal of Packaging Engi- neering, 2021, 42(14):65-73.

[6]陳鋆純,季鐵,彭堅.基于風格特征的花瑤挑花圖案智能設計路徑[J].絲綢, 2023, 60(9):112-119. CHEN Yunchun, JI Tie, PENG Jian. Intelligent de- sign path of Huayao cross-stitch pattern based on style characteristics[J]. Journal of Silk, 2023, 60(9):112-119.

[7]GATYS L A, ECKER A S, BETHGE M. A neural algorithm of artistic style[J]. Journal of Vision,2015, arXiv:1508.06576.

[8]JOHNSON J, ALAHI A, FEI- FEI L. Perceptual losses for real-time style transfer and super-resolu-tion[C]// European? conference on computer vi-sion, 2016.694-711.

[9]ULYANOV D, LEBEDEV V, VEDALDI A, et al. Texture networks: Feed - forward synthesis of tex- tures and stylized images[J]. arXiv e-prints, 2016,arXiv:1603.03417.

[10]EFROS A A, LEUNG,T K. Texture synthesis by non-parametric sampling[C]//Proceedings of theSeventh IEEE International Conference on Com-puter Vision, Kerkyra, Greece, 1999, 1033-1038.

[11]繆永偉,李高怡,鮑陳.基于卷積神經網絡的圖像局部風格遷移[J].計算機科學, 2019, 46(9):259-264.

MIAO Yongwei, LI Gaoyi, BAO Chen. Image lo- cal style transfer based on convolutional neural network[J]. Computer Science, 2019, 46(9):259-264.

[12]孫冬,時宇,高劉雅.局部圖像風格遷移繪制算法[J].安徽大學學報(自然科學版), 2022, 46(3):72-78.

SUN Dong, SHI Yu, GAO Liuya. Local image style transfer rendering algorithm[J]. Journal of Anhui? University (Natural? Science? Edition), 2022, 46(3):72-78.

[13]宋漫,劉安定,李斌.漢繡與荊楚刺繡關系考辨[J].絲綢, 2023, 60(10):124-131.

SONG Man, LIU Anding, LI Bin. Discussion on the relationship between Han? embroidery and Jingchu embroidery[J]. Journal of Silk, 2023, 60(10):124-131.

[14]鐘蔚.漢繡紋樣的藝術特征提取研究[J].服飾導刊, 2018, 7(2):23-29.

ZHONG Wei. Research on the extraction of artis-tic features of Han embroidery patterns[J]. Fash- ion Guide, 2018, 7(2):23-29.

[15]沈藝婷.文旅融合視域下漢繡的可持續(xù)發(fā)展模式研究[J].西部皮革, 2022, 44(20):88-90.

SHEN Yiting. Study on the sustainable develop- ment model of Han embroidery from the perspec-tive of cultural and tourism integration[J]. Jour-nal of Western Leather, 2022, 44(20):88-90.

[16]顏雪晨.漢繡文化的數字化保護與傳承模式[J].紡織報告, 2022, 41(6):113-115.

YAN Xuechen. Digital protection and inheri- tance mode of Han embroidery culture[J]. Textile Report, 2022, 41(6):113-115.

[17]劉丹丹.漢繡元素在現代產品設計中的應用研究[D].武漢:湖北美術學院, 2022.1-4.

LIU Dan. Research on the application of Han em- broidery elements in modern product design[D].Wuhan: Hubei Institute of Fine Arts, 2022.1-4.

[18]李素媛,何佳琦.荊楚漢繡在現代女性婚禮服設計中的應用研究[J].化纖與紡織技術, 2022, 51(2):152-155.

LI Suyan, HE Jiaqi. Research on the applicationof Jingchu and Han embroidery in modern wom- en's wedding dress design[J]. Chemical Fiber and Textile Technology, 2022, 51(2):152-155.

[19]劉源,夏春蕾.一種基于 Sobel算子的帶鋼表面缺陷圖像邊緣檢測算法[J].電子測量技術, 2021, 44(3):138-143.

LIU Yuan, XIA Chunlei. An algorithm for edge detection of strip surface defect image based on Sobel operator[J]. Electronic Measurement Tech- nology, 2021, 44(3):138-143.

[20]YU J, WANG Y, SHEN Y. Noise reduction and edge detection via kernel anisotropic diffusion [J]. Pattern Recognition Letters, 2008, 29(10):1496-1503.

(責任編輯:周莉)

主站蜘蛛池模板: 国产精品视频猛进猛出| 99在线国产| 国产精品成人免费视频99| 亚洲精品第一页不卡| 熟妇丰满人妻av无码区| 精品乱码久久久久久久| 欧美日韩午夜视频在线观看 | 在线观看国产精美视频| 无码aⅴ精品一区二区三区| 亚洲色图欧美视频| 亚洲高清资源| 久草视频中文| 动漫精品中文字幕无码| a级毛片免费看| 久草国产在线观看| 毛片在线播放a| 一本综合久久| 久久久久久尹人网香蕉| 少妇极品熟妇人妻专区视频| 精品一区二区无码av| 色男人的天堂久久综合| 国产激情无码一区二区APP| 青草视频免费在线观看| 成人免费网站在线观看| 国产尤物视频网址导航| 欧美日本激情| 色偷偷一区二区三区| 国内精品一区二区在线观看| 亚洲娇小与黑人巨大交| 色婷婷视频在线| 亚洲第一综合天堂另类专| 国产乱人伦AV在线A| 天堂岛国av无码免费无禁网站| 亚洲成人网在线播放| 凹凸精品免费精品视频| 日本不卡免费高清视频| 欧美激情视频二区三区| 国产特级毛片| av一区二区无码在线| 波多野结衣视频一区二区| 中文字幕乱码二三区免费| 成人无码一区二区三区视频在线观看| 国产网站免费观看| 日本免费一区视频| 国产午夜看片| 99热最新网址| 亚洲黄色网站视频| 欧美在线综合视频| 国产精品永久不卡免费视频| 国产欧美日韩精品综合在线| 伊人久久大线影院首页| 99热这里都是国产精品| 欧美.成人.综合在线| 毛片三级在线观看| 精品国产免费观看一区| 欧美日韩国产综合视频在线观看| 亚洲视频三级| 亚洲精品高清视频| igao国产精品| 精品精品国产高清A毛片| 亚洲综合九九| 999精品色在线观看| 亚洲综合国产一区二区三区| 亚洲视频无码| 国产精品亚洲αv天堂无码| 色吊丝av中文字幕| 成人午夜亚洲影视在线观看| 亚洲视频无码| 日本在线欧美在线| 午夜三级在线| 久久公开视频| 99激情网| 国产白浆一区二区三区视频在线| 欧美一区二区自偷自拍视频| 一本久道久久综合多人| 女同国产精品一区二区| 亚洲精品天堂在线观看| 老司国产精品视频91| 日韩成人在线一区二区| 伊人激情综合| 久久中文字幕av不卡一区二区| 国产精品大白天新婚身材|