







摘要 利用圖像和諧化算法虛擬修復破損的書法圖像,對于文物保護具有重要意義。現有的圖像和諧化方法大多集中于解決前景和背景之間的不和諧問題,針對書法圖像虛擬修復過程中出現的前景和背景圖像視覺特征差異大、不和諧的問題,提出了一種基于局部光影感知的書法圖像和諧化算法LSPNet。LSPNet通過引入參考掩膜和內容掩膜,對需要修復的區域進行精確的定位,從而確保合成的前景與背景在風格上保持一致。為了驗證該算法的有效性,在破損的書法圖像上進行了實驗,經過實驗和對比,LSPNet相比于其他算法能夠明顯降低前景與背景之間的亮度、對比度以及圖像結構等方面的差異,使得修復后的書法作品在視覺上更加自然和統一。
關鍵詞 書法虛擬修復;圖像修復;深度學習
中圖分類號:TP391" DOI:10.16152/j.cnki.xdxbzr.2025-01-016
Calligraphy image harmonization algorithm based onlocal light and shadow perception
DONG Zhiqiang, XIAO Yun, DUAN Jiashun
(School of Information Science and Technology, Northwest University, Xi’an 710127, China)
Abstract The virtual restoration of damaged calligraphy images using image harmonizati on algorithms is of great significance for cultural relic protection. Most existing image harmonization methods focus on addressing the disharmony between foreground and background. In response to the significant visual feature differences and disharmony issues between foreground and background during the virtual restoration of calligraphy images, this paper proposes a calligraphy image harmonization algorithm based on local light and shadow perception on LSPNet. LSPNet precisely locates the area to be restored by introducing reference masks and content masks, thereby ensuring that the style of the synthesized foreground and background remains consistent. To verify the effectiveness of this algorithm, experiments were conducted on damaged calligraphy images. Through numerous experiments and comparisons, LSPNet significantly outperforms other algorithms in reducing the differences in brightness, contrast, and image structure between the foreground and background, making the restored calligraphy works appear more visually natural and unified.
Keywords virtual restoration of calligraphy works; image restoration; deep learning
中國書法歷史悠久,濃縮了中華上下五千年的文化和精神。但由于書法作品大多傳承形式為石碑和書帖,在千百年間的保存下會受到風化侵蝕以及人為的破壞。如圖1所示,圖中的碑帖拓本出現了大片的斑點、劃痕和缺損,這嚴重影響了書法作品本身的藝術風貌和神韻,更影響了書法藝術的傳承和延續。
隨著計算機技術的逐漸發展,利用深度技術對破損的文物進行虛擬修復成為了可能[1]。利用深度學習技術,可以學習并模仿書法字體風格,生成并修復破損的書法字[2]。將神經網絡生成的書法字圖像嵌入到破損的書法圖像中時,會出現前景圖像(書法字圖像)和背景圖像(破損的書法作品圖像)不和諧不一致(如圖像紋理、骨架和語義)的問題。近年來,許多深度學習模型已經在嘗試解決合成圖像中的不和諧問題[3-4],一些方法關注了合成圖像中的光影變化[5-9]。其中,RAIN提出了一個簡單而有效的區域感知自適應實例規范化模塊,其可以即插即用到現有的網絡中,提升圖像和諧化的效果;ShadowGAN提出了一種用于單光場景增強現實的端到端生成式對抗陰影網絡,充分利用了注意力機制,能夠在不需要對光照和三維幾何信息進行顯式估計的情況下,直接建立虛擬物體陰影與真實環境之間的映射關系;CDTNet提出了一種圖像和諧化框架,實現了基于深度學習的顏色到顏色的圖像和諧化,并首次將圖像和諧化擴展到高分辨率的圖像。盡管這些算法都取得了不錯的成果,但在書法圖像虛擬修復中進行圖像和諧化時,效果卻并不如人意。由于書法圖像和諧化可學習樣本極少,所以需要模型擁有One shot生成的能力,即面對單張圖像作為數據集也要有令人滿意的效果。其次,由于書法圖像數據的特殊性,書法圖像和諧化存在大面積的噪聲干擾與背景底色與實際修復區域差別較大等問題。
為了解決這些問題,本文提出了一種基于局部光影感知的書法圖像和諧化算法LSPNet(local shadow perception network)。LSPNet利用光影掩膜來區分圖像中的參考區域和噪聲區域,并屏蔽那些可能對和諧化造成干擾的區域。通過這種方式,算法能夠更準確地捕捉到前景與背景之間的視覺風格差異,并只針對需要調整的部分進行和諧化處理。這樣,不僅能夠避免不必要的干擾,還能有效提升圖像和諧化的整體效果。
本文的主要貢獻總結如下:①探索了書法圖像和諧化問題,收集并制作了書法圖像和諧化數據集;②提出了基于局部光影感知的書法圖像和諧化算法LSPNet,用于對虛擬修復過程中的書法圖像進行和諧化;③大量的實驗數據及分析證明了本文方法的有效性。
1 相關工作
圖像和諧化旨在調整前景圖像以無縫匹配背景圖像。隨著深度學習技術的發展,越來越多的圖像和諧化模型涌現出來,其中在網絡中充分利用語義特征成為模型早期主流思路。例如Tsai等運用經典的U-net編碼器解碼器結構[10],結合跳躍連接,并通過多任務學習機制訓練網絡,使其在圖像和諧化任務中能同時預測像素值和進行語義分割;Sofiiuk等在編碼器主干中融入了預訓練的語義分割分支[11],并引入可學習的混合掩碼,從輸入圖像中提取有用的信息,增強圖像信息復用,補足信息缺失,提高圖像和諧化。此外,還有研究者嘗試通過域轉移技術來增強合成圖像的和諧性[12-13]。以及在網絡中加入了注意力機制,以此提升圖像和諧化的效果[14-15]。
視覺特征方面,GCC-GANs提出了一種創新的生成對抗性網絡(GAN)架構[16],該架構在自動圖像合成過程中綜合考慮了幾何、顏色和邊界的一致性,從而實現了更高質量的圖像和諧化。在探索圖像和諧化問題的過程中,Guo等試圖通過分離反射率和照明來解決這一問題[17],其中,反射率通過材料一致性懲罰來協調,而照明則通過學習和將光從背景轉移到前景來協調。
近年來,隨著圖像分辨率的不斷提升,高分辨率圖像的和諧化問題也成為了解決圖像和諧化的主要關注點。Jiang等利用自監督學習策略訓練網絡以處理高分辨率圖像的小局部補丁[18],盡管在推理過程中仍采用了兩階段后處理策略。有些研究則致力于學習全局參數,用以調整圖像的亮度和飽和度等屬性[19-20]。此外,Guo等還研究了逐像素曲線的學習[21],以實現微光圖像的增強。這些方法都在不同程度上推動了圖像和諧化技術的發展。
現有的圖像和諧化算法,可以完成大部分場景下的圖像和諧化任務,但是對于某些特定的場景仍有些不足之處[22-25]。與自然場景的圖像不同,書法作品的圖像通常保存于碑帖之上[26],其背景或為通體黑色或紙質黃色,而字體本身圖像特征與背景圖像特征差異較大。因此,本文針對這一問題,探索能夠區分同一幅圖像內不同區域的圖像和諧化方法,以期望能夠解決書法圖像和諧化問題。
2 基于局部光影感知的書法圖像和諧化算法
2.1 和諧化算法
在本文中,我們將圖像和諧化任務視為風格遷移任務的一種變體。具體而言,利用合成圖像與前景掩膜相乘得到的輸出作為風格遷移任務中的內容圖像,而合成圖像與參考掩膜相乘得到的參考圖像則作為風格圖像。由此書法圖像和諧化任務就轉化為在一個圖像內部實現局部區域的風格遷移,目的是使前景圖像與背景圖像在風格上達到統一和和諧的效果。
為了屏蔽對圖像和諧化干擾的區域,給出和諧化區域定義,如公式(1)和公式(2)所示,
If=IcM(1)
Iref=IrefMref(2)
式中:If為內容圖像;Ic為輸入的合成圖像;M為前景掩膜,用于指定在合成圖像中需要進行圖像和諧化的范圍;Iref為參考圖像;Mref為參考掩膜,代表參考圖像在合成圖像中所覆蓋的部分;符號代表Hadamard乘積。
基于局部光影感知的書法圖像和諧化算法模型圖如圖2所示,通過參考掩膜Mref和內容掩膜M獲取到參考圖像Iref和內容圖像If,模型可以選取固定的區域對白噪聲圖像進行迭代約束,直到生成內容與內容圖像相同且風格與參考圖像相似的圖像。本文設計了一個模型G,G接收(Ic,M,Mref)作為參數輸出,真實圖像則用t來表示。算法的目標是優化模型G,使得其輸出盡可能接近真實圖像t。為此,希望最小化兩者之間的L1范數距離,如公式(3)所示,
min‖G(Ic,M,Mref)-t‖1(3)
具體而言,卷積層中的輸出可以存儲在一個矩陣Fl中,其維度為Nl×Ml。在這個矩陣Fl中,Flij表示第個濾波器在層I中位置的激活值j。對于提取和存儲的風格和內容特征,即圖2的P1風格表示過程,風格圖像Iref經過網絡傳遞,其在所有網絡層中的特征被表示為Al(見圖3)。然后通過網絡傳遞白噪聲圖像,其風格和內容特征被表示為Gl和Fl。而對于內容表示過程(見圖2),內容圖像在每一層網絡中的特征被表示為Pl。
2.2 內容與風格表示
2.2.1 內容特征表征
卷積神經網絡中的每一層都由一組非線性濾波器構成,當給定的輸入圖像Ic經過網絡時,每一層都會對其應用濾波器,從而在網絡的各層中編碼出圖像的不同特征響應。圖2為模型總結構圖,其中模型內容與風格特征表征圖如圖3所示。
在進行圖像和諧化時,必須保證前景圖像的內容特征一致性。為此,本文定義2個特征之間的平方誤差損失,如公式(4)所示,
Lcontent(If,,1)=12∑i,j(F1ij-P1ij)2(4)
式中:F1ij為合成圖像的特征;P1ij為內容圖像的特征。本文使用了在ImageNet預訓練過的VGG16提取特征圖,通過優化If與之間的Lcontent損失,迫使生成的圖像與原本的合成圖像在VGG16網絡提取的特征層中輸出相似的結果,保證生成圖像與合成圖像在內容上的一致性。
2.2.2 風格特征表征
為了衡量輸出圖像與參考圖像之間的風格差異,引入了Gram矩陣。用Gram矩陣G1∈RN1×N1度量特征之間的相關性,如公式(5)所示,
GIij=∑kFIikFIjk(5)
式中:GIij是層I特征矩陣i和j之間的內積。通過融入多層次的特征相關性,獲得了輸入圖像的多尺度表示,這種表示方式精準地捕捉了其豐富的紋理信息。通過對輸入的白噪聲圖進行梯度下降優化數據,以最小化生成圖像的Gram矩陣和參考圖像的Gram矩陣之間的均方距離。GIij和AIij分別為參考圖像Iref和合成圖像在層I中的風格表示,層I
對總損失的貢獻為
EI=14N21M21∑i,j(GIij-AIij)2(6)
風格特征表征總損失函數為
Lstyle(,Iref)=∑LI=0wIEI(7)
式中:wI是每層對總損失的貢獻的加權因子,取值為0.25。
2.2.3 圖像和諧化
為了將參考圖像Iref的風格遷移到前景圖像If上,合成了一個全新的圖像。這個圖像不僅呈現了前景If的內容特征,同時還融入了參考圖像Iref的風格樣式。為此,本文調整白噪聲圖像的特征表示,使其與前景圖像If的內容表示相匹配,同時最小化與參考圖像Iref在多層卷積神經網絡上定義的風格特征表征的距離。最小化的損失函數為
Ltotal(Iref,If,)=αLcontent(If, )+" βLstyle(, Iref)(8)
式中:α和β是內容損失和風格損失的加權因子,根據不同的實驗需要對α和β賦予不同的值。對α設置較高會使得合成圖像與內容圖像更相似,對β設置較高會使得合成圖像與風格圖像更加相似。外觀則選用了L-BFGS算法來進行圖像合成,經過實踐驗證,它在此類任務中表現最為出色。為了確保模型能在一致的尺度上提取圖像信息,在計算特征表示之前,將樣式圖像的大小調整至與內容圖像完全一致。這樣,模型能夠更加精準地融合兩者的內容與風格,從而生成出既具有內容圖像實質,又帶有樣式圖像風格的合成圖像。
3 實驗結果及分析
為了充分驗證所提出的圖像和諧化算法的有效性,設計了2組實驗,并將結果與先進的對比模型進行了比較。為了對實驗結果進行精確的量化分析和客觀評估,采用峰值信噪比(PSNR)、均方誤差(MSE)和結構相似性(SSIM)作為評價指標。此外,還展示了對比模型和本文模型輸出的圖像,并對這些圖像進行定向分析,從而更加全面地展現LSPNet的優異表現和實際應用價值。
3.1 數據集
本文算法的核心在于對白噪聲圖像的優化過程,而非直接對模型參數進行調整。因此,本文模型能夠實現一次性的圖像和諧化,無需進行模型訓練,從而避免了對訓練數據的依賴。為了驗證算法的有效性,對破損的書法文物圖像利用人工標注方法,對參考區域和前景區域制作參考掩膜和前景掩膜,以確保它們符合模型的輸入要求。通過對這些破損的書法圖像修復處理,全面評估LSPNet在圖像和諧化任務上的性能表現。
3.2 評價指標
采用MSE、PSNR和SSIM作為對模型生成的圖像質量的度量指標。給定一副干凈的圖像I和一副噪聲圖像K,MSE被定義為
MSE=1mn∑m-1i=0 ∑n-1j=0[I(i,j)-K(i,j)]2(9)
PSNR為峰值信噪比,其被定義為
PSNR=10·log10(MAX2IMSE)(10)
SSIM為結構相似性,其被定義為
SSIM=(2μIμK+C1)(2σIK+C2)μ2I+μ2K+C1)(σ2I+σ2K+C2)(11)
式中:μI和μK分別是圖像I和K的局部均值,表示亮度信息;σI和σK分別是圖像的局部方差,表示對比度信息;σIK是圖像的協方差,表示結構信息的相似度;C1和C2是為了穩定計算而引入的常數,通常設為小值以避免分母為0的情況。
MSE、PSNR和SSIM都可以用來對圖像和諧化任務進行定量度量。對于MSE指標,數值越小,代表合成圖像與真實圖像直接距離越小(越接近);對于PSNR指標,數值越大,代表合成的圖像質量越好噪聲越小,與真實圖像越相似;對于SSIM指標,數值越大,代表合成圖像與真實圖像越相似。
3.3 實驗結果及分析
為了驗證模型在圖像和諧化任務之上的能力,制作了書法圖像數據集,并選取了RAIN、ShadowGAN作為對比模型進行對比實驗。實驗環境為Ubuntu 9.3.0,CUDA Version:11.1, CPU intel(R) Xeon(R),GPU TITAN RTX。
3.3.1 定性分析
如圖4所示,展示了RAIN、ShadowGAN和LSPNet在合成的書法圖像之上進行圖像和諧化的結果??梢钥闯觯疚哪P蛢灮^后的圖像更加接近真實圖像,更加和諧統一。如圖4(a)合成圖像所示,“不”字相比于其他漢字顯得更為暗淡不和諧,RAIN輸出的結果卻與合成圖像相差無幾,效果很差,ShadowGAN輸出結果與合成圖像相比過于不清晰,而本文模型輸出的圖像中“不”字區域更為明亮,與周圍的書法圖像更為相像。在圖4(d)中,合成圖像中的“大”與其他字相比更加暗沉,需要對其自適應提高亮度對比度等圖像參數,使其與周圍圖像和諧統一,在RAIN的輸出中“大”字卻并沒有很大的變化,ShadowGAN的輸出過于鋸齒化,而本文模型輸出的圖像渾然一體更為和諧統一,效果更好。在圖4(e)中,合成圖像的“仁”字變得與背景的石碑風格更加相似,RAIN處理后的結果中,“仁”變得偏黃了一點,但是與真實圖像相比差距較大,ShadowGAN處理結果雖然明亮但風格保留過多,從而失衡導致不和諧,而LSPNet輸出的圖像中,“仁”字與其他漢字風格幾乎完全一致,和真實圖像相差無幾。
為什么局部掩膜有效,在碑帖圖像中,由于其主底色為黑色的石碑,當對比算法進行圖像和諧化計算時,能提取到的大部分風格都是石碑本身的風格,這會產生巨大的干擾。因為合成圖像中的漢字只需要參考其他與之位置相近的漢字區域就足夠,石碑本身的風格與漢字的圖像風格并不一致,反而是冗余信息。
3.3.2 參數設定
由于圖像的內容和風格不可能完全解耦,當生成一個結合了圖像內容和風格的輸出時,通常不存在同時完美匹配2種約束的圖像。然而由于本文在圖像合成過程中,最小化的損失函數是內容損失和風格損失的線性組合,因此可以平滑調整重建內容或風格的側重點。通過大量的實驗發現,當α/β比值為5×10-4時效果最佳,當參數比值α/β偏小,輸出顯示和諧化的輸出會保留更多的原始風格。如圖5案例所示,在生成“照”時,α=100,β=1 000,α/β=1×10-1,保留內容較多,導致局部高亮,當參數比值α/β偏大時,輸出顯示和諧化的輸出會保留更多的原始內容。在生成“天”時,α=50,β=1 000 000,α/β=5×10-5,保留了過多的風格,致使模型輸出較暗。
如圖5所示, 將比值修改為的α=50, β=100 000,α/β=5×10-4后,圖像和諧化效果明顯,清晰可見。本文通過控制內容和風格損失項因子之間的比值即α/β,實現了圖像眩暈和偽影的有效抑制。通過對這些損失項的權重比值進行精確調控,有效減少由于插值和模型過擬合所導致的眩暈和偽影現象。
3.3.3 定量分析
表1~3展示了書法數據圖4的PSNR、MSE和SSIM度量數據。在表1中,LSPNet生成的每一張圖像的PSNR值都高于RAIN和ShadowGAN。證明了本文提出的LSPNet在生成的圖像質量上明顯好于RAIN和ShadowGAN的結果。
如表2所示,本文的LSPNet在每一項測試數據上,MSE指標都明顯低于RAIN和ShadowGAN。這證明了LSPNet輸出的圖像在像素層次與目標圖像更加接近,更加接近目標圖像。
在表3中,LSPNet的SSIM數值均高于RAIN和ShadowGAN,證明了LSPNet合成的圖像在圖像結構、亮度和圖像對比度方面均好于RAIN和ShadowGAN。
4 結語
針對書法文物圖像虛擬修復時出現圖像不和諧的問題[27-30],本文提出了一種基于局部光影感知的書法圖像和諧化方法LSPNet。LSPNet允許用戶自定義光影參考掩膜,使得模型能夠主動識別并去除那些冗余的背景信息,轉而專注于參考周圍的有價值的上下文信息。通過這種方式,成功地提升了圖像和諧化的效果,使其更加符合人們的視覺審美。為了驗證本文算法的有效性,收集了破損的書法圖像作為數據對模型進行測試。實驗結果表明,本文算法在PSNR和MSE指標上都取得了最優的結果。并且LSPNet輸出的結果圖像在整體視覺效果上也與真實圖像更加接近更加和諧統一,這證明了LSPNet算法在書法圖像和諧化任務上的優異性能。
參考文獻
[1] 耿國華,馮龍,李康,等.秦陵文物數字化及虛擬復原研究綜述[J].西北大學學報(自然科學版),2021,51(5):710-721.
GENG G H,FENG L, LI K, et al. A literature review on the digitization and virtual restoration of cultural relics in the Mausoleum of Emperor Qinshihuang[J].Journal of Northwest University(Natural Science Edition), 2021, 51(5): 710-721.
[2] XIAO Y, LEI W L, LU L, et al. CS-GAN: Cross-structure generative adversarial networksfor Chinese calligraphy translation[J].Knowledge-Based Systems, 2021, 229: 107334.
[3] 張琦,邢冠宇,董哲鎬,等.基于深度鑒偽的圖像和諧化方法[J/OL].計算機輔助設計與圖形學學報,1-10[2024-04-15].http:∥kns.cnki.net/kcms/detail/11.2925.TP.20240204.1345.031.html.
ZHANG Q, XING G Y, DONG Z H, et al. Image harmonization method based on deep forgery detection[J/OL].Journal of Computer-Aided Design amp; Computer Graphics,1-10.[2024-04-15].https:∥kns.cnki.net/kcms/detail/11.2925.TP.20240204.1345.031.html.
[4] GUERREIRO J J A, NAKAZAWA M, STENGER B. PCT-net: Full resolution image harmonization using pixel-wise color transformations[C]∥2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Vancouver, Canada: IEEE, 2023: 5917-5926.
[5] TAO X H, CAO J Y, HONG Y, et al. Shadow generation with decomposed mask prediction and attentive shadow filling[J].Proceedings of the AAAI Conference on Artificial Intelligence. 2024, 38(6): 5198-5206.
[6] HONG Y, NIU L, ZHANG J F. Shadow generation for composite image in real-world scenes[J].Proceedings of the AAAI Conference on Artificial Intelligence,2022, 36(1):914-922.
[7] LING J, XUE H, SONG L, et al. Regionvaware adaptive instance normalization for image harmonization[C]∥2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville, USA: IEEE, 2021: 9357-9366.
[8] LIU D Q, LONG C J, ZHANG H P, et al. ARShadowGAN: Shadow generative adversarial network for augmented reality in single light scenes[C]∥2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Seattle, USA: IEEE, 2020: 8136-8145.
[9] CONG W Y, TAO X H, NIU L, et al. High-resolution image harmonization via collaborative dual transformations[C]∥2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New Orleans, USA: IEEE, 2022: 18449-18458.
[10]TSAI Y H, SHEN X H, LIN Z, et al. Deep image harmonization[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA: IEEE, 2017: 2799-2807.
[11]SOFIIUK K, POPENOVA P, KONUSHIN A. Foreground-aware semantic representations for image harmonization[C]∥2021 IEEE Winter Conference on Applications of Computer Vision. Waikoloa, USA: IEEE, 2021: 1620-1629.
[12]CONG W Y, NIU L, ZHANG J F, et al. Bargainnet: Background-guided domain translation for image harmonization[C]∥2021 IEEE International Conference on Multimedia and Expo. Shenzhen, China: IEEE, 2021: 1-6.
[13]CONG W Y, ZHANG J F, NIU L, et al. DoveNet: Deep image harmonization via domain verification[C]∥2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE, 2020: 8394-8403.
[14]CUN X D, PUN C M. Improving the harmony of the composite image by spatialseparated attention module[J]. IEEE Transactions on Image Processing, 2020, 29: 4759-4771.
[15]HAO G, IIZUKA S, FUKUI K. Image harmonization with attention-based deep feature modulation[C]∥The 31st British Machine Vision Virtual Conference. Manchester,UK: BMVA Press. 2020: 2.
[16]CHEN B C, KAE A. Toward realistic image compositing with adversarial learning[C]∥2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Long Beach, USA: IEEE, 2019: 8415-8424.
[17]GUO Z, ZHENG H, JIANG Y, et al. Intrinsic image harmonization[C]∥2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville, USA: 2021: IEEE,16367-16376.
[18]JIANG Y F, ZHANG H, ZHANG J M, et al. SSH: A self-supervised framework for image harmonization[C]∥2021 IEEE/CVF International Conference on Computer Vision. Montreal, Canada: IEEE, 2021: 4812-4821.
[19]HU Y M, HE H, XU C X, et al. Exposure: A white-box photo post-processing framework[J].ACM Transactions on Graphics, 2018, 37(2): 1-17.
[20]SHI J, XU N, XU Y H, et al. Learning by planning: Language-guided global image editing[C]∥2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville, USA: IEEE, 2021: 13585-13594.
[21]GUO C L, LI C Y, GUO J C, et al. Zero-reference deep curve estimation for low-light image enhancement[C]∥2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE, 2020: 1777-1786.
[22]CUN X D, PUN C M. Improving the harmony of the composite image by spatial-separated attention module[J]. IEEE Transactions on Image Processing, 2020: 4759-4771.
[23]SARKAR S S, SHEIKH K H, MAHANTY A, et al. A harmony search-based wrapper-filter feature selection approach for microstructural image classification[J]. Integrating Materials and Manufacturing Innovation, 2021, 10:1-19.
[24]SRIKANTH R, BIKSHALU K. Multilevel thresholding image segmentation based on energy curve with harmony search algorithm[J].Ain Shams Engineering Journal, 2021, 12(1): 1-20.
[25]GUO Z H, GUO D S, ZHENG H Y, et al. Image harmonization with transformer[C]∥2021 IEEE/CVF International Conference on Computer Vision. Montreal, Canada: IEEE, 2021: 14850-14859.
[26]WANG L, HAMIDON N A. Aesthetic and value study of inscriptions from the perspective of calligraphy[J]. Art and Performance Letters, 2023, 4(11):44-49.
[27]BARNI M, BARTOLINI F, CAPPELLINI V. Image processing for virtual restoration of artworks[J]. IEEE MultiMedia, 2000, 7(2): 34-37.
[28]LIU Z H. Literature review on image restoration[J]. Journal of Physics: Conference Series, 2022, 2386(1): 012041.
[29]QIAO C Q, ZHANG W W, GONG D C, et al. In situ virtual restoration of artifacts by imaging technology[J]. Heritage Science, 2020, 8(1): 110.
[30]PAN Z Q, YUAN F, LEI J J, et al. VCRNet: Visual compensation restoration network for No-reference image quality assessment[J]. IEEE Transactions on Image Processing, 2022, 31: 1613-1627.
(編 輯 李 波)
基金項目:國家自然科學基金(62372371);陜西省國際科技合作計劃重點項目(2022KWZ-14)。
第一作者:董智強,男,從事深度學習風格遷移研究,holo.lawrence@foxmail.com。
通信作者:肖云,女,教授,從事數據挖掘、人工智能算法研究,yxiao@nwu.edu.cn。