曹建芳,閆敏敏,賈一鳴,田曉東
(1.太原科技大學計算機科學與技術學院,太原 030024;2.忻州師范學院計算機系,山西忻州 034000)
壁畫是人類歷史上最早的繪畫形式之一,被稱為墻上的藝術,我國古代壁畫有悠久的歷史,根據《中國敦煌壁畫全集》等壁畫資源所提供的朝代標簽,將壁畫圖像按其所屬朝代分為六類:石器時代、秦漢時期、魏晉時期、隋唐時期、宋金時期和明清時期。
多年的考古工作實踐證明,壁畫的數字化保護與修復、光譜重建技術[1]能將壁畫信息永久保存,而且能夠無限量復制,通過高品質的圖片,建立原始、完整的壁畫數據檔案實現壁畫的虛擬展示,是讓后人欣賞古老壁畫的可行方式,而清楚壁畫所屬的朝代更能幫助人們充分了解壁畫文化。文獻[2]中提出一套智能化技術方法,實現了對壁畫的數字化修復。之后,文獻[3]中針對古代繪畫存在的撕裂、脫落等問題,利用最近鄰法這一有效的機器學習算法對古代繪畫進行了數字化修復研究。在上述對壁畫進行數字化的方法基礎上,文獻[4]中利用稀疏建模的方法對敦煌壁畫的紋理和結構進行探索,并對古代壁畫的朝代識別分類。
利用特征提取、分類器分類等傳統方法對壁畫進行分類的研究有很多。文獻[5]中針對壁畫圖像具有較大的類內差異和壁畫圖像的噪聲問題,提出了一種對Latent SVM(Support Vector Machine)進行優化的分組多實例學習方法。文獻[6]中通過對古代壁畫構圖學和特征進行研究,提出了一種對古代壁畫內容等進行語義檢索、融合古代壁畫構圖和語義的相關度模型。文獻[7]將提取的壁畫圖像輪廓特征作為圖像相似性的度量表達兩幅圖像的整體相似程度。利用傳統的壁畫分類方法雖然可以對壁畫進行一定的特征提取,但是由于壁畫繪制本身具有多樣性和傳統方法沒有學習到壁畫更豐富的特征,使得壁畫的特征提取和分類結果具有泛化能力不足等問題。隨著深度學習不斷發展,卷積神經網絡在圖像識別和分類等領域已被證明非常有效,卷積神經網絡除了為仿生模式識別[8]、深海漁網圖像分類[9]和細胞圖像[10]等圖像分類領域助力之外,還廣泛應用到各個領域。近幾年,卷積神經網絡逐漸被應用于古代壁畫圖像的修復、超分辨變率重建和分類等工作。本文利用Inception-v3 模型完成古代壁畫圖像的朝代分類工作。Inception-v3 模型是Google 團隊在對AlexNet 的改進之上提出的一種網絡結構,具有參數少、訓練時間短等特點。傳統的古壁畫朝代識別是通過對壁畫的紋理、顏壁畫文本等特征進行分析研究,然后查閱大量文獻判斷壁畫的朝代。傳統的測定壁畫朝代常用的判別方法[11]有:根據壁畫自身的文本;根據記載壁畫所描述事件的歷史文獻;根據壁畫所展現出來的繪畫風格。
為了解決之前壁畫朝代分類方法存在的特征提取不充分和傳統的人工識別壁畫朝代所存在的無法對壁畫朝代達成一致等缺點,應該對壁畫的朝代進行更加科學、可信的識別,因此,一種能夠科學有效地識別壁畫朝代的方法顯得格外重要。本文通過收集大量各個朝代的壁畫圖像,利用預訓練的Inception-v3 網絡模型,融合遷移學習,提出了一種能夠有效識別壁畫所屬朝代的融合遷移學習的Inception-v3 模型,完成古代壁畫圖像朝代分類任務。
Inception 模型是Szegedy 等[12]在ImageNet 大型視覺識別挑戰2014 中提出的一種深度卷積神經網絡架構,目的是為了減少計算效率與低參數在移動視覺和其他應用場景等多種用途中產生的影響。Inception-v3 模型的非對稱多卷積核結構,對較大的卷積進行了拆分操作,采用不同大小的卷積核,使得存在不同大小的感受野,在提高模型參數計算效率的同時,也減少了模型過擬合。拆分卷積后的網絡結構與輔助濾波器相結合,對圖像特征縮小的同時又在特征多樣性方面有更好的處理效果,能夠易于圖像的高維特征的提取。為了減少網絡的設計空間,采用模塊化結構,最后實現拼接,達到不同尺度的特征融合。在防止過擬合問題方面,Inception-v3 模型在輔助分類器和全連接層加入了Batch Normalization 層作為正則化器。Inception-v3模型的網絡結構如表1所示。
Batch Normalization 是一種非常有效的正則化方法。使用Batch Normalization 的模型可以使用批處理梯度下降進行訓練,加速深度神經網絡的訓練和模型收斂。
Batch Normalization 的公式為:
式中:x為批量B的激活值的最小值;m為激活值的數量;γ、β為可學習參數,γ調整數值分布的方差大小,β調節數值均值的位置;μ代表一個維度的均值;σ2為計算的Feature map 每個維度的標準差;ε為常數。
另外Inception-v3 模型將較大的卷積核分為串聯的小卷積核,將卷積和池化并聯,還加入了標簽平滑正則化(Label Smoothing Regularization,LSR)。傳統的深度神經網絡輸入輸出可能分布不一致,給特征提取帶來了很大的障礙,在引入Batch Normalization 方法后,可有效地解決這個問題,通過規范每一層的輸入,優化學習效果。
壁畫色彩豐富,不同朝代的壁畫在色彩上的表現存在很大不同。本文將使用顏色直方圖來提取壁畫圖像的顏色特征,通過顏色比例的計算來描述壁畫圖像中的顏色特征。顏色直方圖的定義如下:
式中:i為像素所屬的灰度級;L為灰度級總數;ni代表灰度級的像素數為;N為像素總數。
由于壁畫圖像繪制于墻壁,與自然圖像相比較,壁畫圖像的紋理更加復雜。使用局部二值模式(Local Binary Pattern,LBP)計算壁畫的紋理特征,LBP 算法能夠在灰度變換操作下依然保持不變的特性,可以提供壁畫圖像90%的特征。LBP算法定義如下:
式中:p為中心元素的個數;(xc,yc)表示鄰域中的中心元素,其像素值為ic,在鄰域中的其他元素的像素值為ip;s(x)代表符號算子。s(x)定義如下:
由于壁畫圖像存在質量低、數量少和收集困難等問題,為了在小型壁畫數據集上能夠深度提取壁畫圖像特征,本文模型將在ImageNet 大型數據集上進行預訓練,將遷移學習到的知識應用在小型壁畫數據集上,從而對壁畫圖像進行朝代識別并分類。
本文提出的古代壁畫圖像朝代分類模型由特征提取部分和分類部分組成。特征提取部分采用卷積神經網絡、顏色直方圖與LBP 紋理特征直方圖;分類部分為Softmax 層。分類模型如圖1所示。
圖1 融合遷移學習的古代壁畫朝代分類模型Fig.1 Dynasty classification model of ancient murals integrated with transfer learning
由圖1 可以看出,所提出的融合遷移學習的古代壁畫朝代分類模型主要分為三部分對壁畫進行朝代分類。首先,利用預訓練的Inception-v3 模型對壁畫進行高維特征提取,其中為了更好地對前端卷積層提取到的特征進行表達,在原全連接層中加入了兩個Dropout 層,再增加全連接層數量,使用三個連續的全連接層提取壁畫圖像的深層特征;然后,利用顏色直方圖提取壁畫的顏色特征,并利用LBP 紋理直方圖提取壁畫圖像的紋理特征,將這兩種特征整合為壁畫圖像的藝術特征;最后,將預訓練模型提取的高維特征與藝術特征相融合,生成為特征向量在Softmax層中作為所需要的輸出節點。
2.2.1 融合遷移學習增強模型穩定性
由于現有壁畫圖像具有數量少、質量差、破損嚴重的特點,因此壁畫圖像的收集和篩選工作較困難。對壁畫圖像進行朝代分類需要收集不同朝代的壁畫圖像,使得大量數據的收集整理工作更加困難。
為了提高模型的學習效率和能更好地提取壁畫圖像的深度特征,克服壁畫特征復雜導致的模型不穩定和在特征提取過程中出現斷崖問題,本文方法基于Inception-v3 模型并融合遷移學習。遷移學習是一種利用所學習的共同知識解決其他領域問題的機器學習方法,其目的是完成將在某一領域學習到的有價值的信息遷移到另一領域。使用遷移學習可以提高模型的穩定性和可泛化性,不至于因為圖像像素的改變而影響到最終的分類結果。
本文融合遷移學習的方法是將Inception-v3 模型在大型數據集ImageNet上進行預訓練,提取到圖像的淺層特征,再把遷移學習到的知識作為模型瓶頸層的輸出應用于壁畫數據集,凍結Inception-v3 模型全連接層和Softmax 層之前的卷積層,訓練一個新的全連接層和Softmax 層用于深度提取到壁畫的圖像特征,在較短的時間內完成模型的訓練和壁畫圖像的分類任務。
2.2.2 提出小樣本隨機梯度下降算法優化模型誤差
為了不改變在訓練過程中模型的收斂速度,針對壁畫數量少的特點,對每批次采用小樣本進行輸入,使得模型通過不同的數據集學習共性部分,從而進行特征提取或比較樣本之間的相似度來進行更好的分類。
由于學習率太小時,梯度大的參數收斂速度慢;學習率太大時,已經優化的參數可能不穩定。為了解決在訓練過程中某些參數在極小值附近卻梯度很大的問題,針對壁畫圖像數量較少的情況,使用自適應學習率的小樣本隨機梯度下降算法Mini-Gradient Descent 作為本文模型的優化器,將交叉熵函數作為最小化代價函數并在訓練過程中通過適當修改學習速率來達到更好的收斂性,從而避免在模型訓練過程中出現學習率飽和現象。
2.2.3 引入交叉熵損失函數穩定模型梯度
為了解決梯度消失問題和評估真實值與預測值之間的差距,使用交叉熵函數(Cross entropy)與Softmax 函數相結合作為損失函數,解決梯度消失現象,導致隱藏層的權值更新緩慢或者更新停滯的問題。
交叉熵的值越小,表明實際的輸出和期望的結果越相近,效果越好。在相同條件下,與二次代價函數相比,交叉熵損失函數的學習速率更快;與Sigmoid 函數相比,可以避免學習速度下降。交叉熵用來表示實際輸出與期望輸出的距離。在反向傳播過程中,真實值和預測值誤差越大,參數調整幅度就越大,模型收斂越快。在實驗最后輸出訓練過程中的交叉熵值,可以用來判斷模型是否過擬合。
2.2.4 增加全連接層數量增強圖像特征表達
原網絡模型直接應用于提取壁畫圖像處理時,容易出現特征提取不充分等問題,本文實驗在預訓練Inception-v3 模型上,對所有層進行參數微調后,為了防止出現梯度消失、梯度爆炸、過擬合等問題,在全連接層中加入兩個Dropout 層。在原網絡結構的基礎上,為了更好對前端網絡提取到的圖像高維多層特征進行學習和表達,在網絡的瓶頸層之后構建3 個連續的全連接層。為了避免出現梯度色散問題,選用Softmax層對特征進行分類。
融合遷移學習的Inception-v3 模型對古代壁畫進行朝代分類的框架如圖2所示,主要分為六個階段。
圖2 融合遷移學習的Inception-v3模型對古代壁畫進行朝代分類的框架圖Fig.2 Framework diagram of dynasty classification of ancient murals using Inception-v3 model integrated with transfer learning
階段1 圖形預處理階段。
輸入 古代壁畫圖像數據集;
輸出 訓練集、測試集和驗證集。
步驟1 對數據集中的每張壁畫圖像修改大小,都改為299×299像素;
步驟2 使用數據增強算法通過圖像反轉、顏色抖動、增加亮度等預處理方法對圖像數據集進行擴充;
步驟3 得到擴充后的數據集;
步驟4 將擴充后的數據集圖像通過隨機函數將80%的壁畫圖像作為訓練集,10%壁畫圖像作為測試集,10%壁畫圖像作為驗證集。
階段2 模型預訓練階段。
輸入 訓練集;
輸出 遷移模型。
步驟1 在大型數據集ImageNet 上訓練對Inception-v3 模型進行預訓練;
步驟2 對模型進行參數微調,記錄在不同迭代次數時學習率、batch值的準確率的變化情況;
步驟3 輸入訓練集壁畫圖像進行訓練,得到已經訓練好的Inception-v3模型。
步驟4 得到遷移模型。
階段3 藝術特征提取階段。
輸入 訓練集;
輸出 壁畫圖像藝術特征。
步驟1 使用顏色直方圖算法提取壁畫圖像的顏色特征;
步驟2 使用LBP 紋理直方圖算法提取壁畫圖像的紋理特征;
步驟3 得到壁畫的藝術特征。
階段4 特征融合階段。
輸入 壁畫高層特征與藝術特征;
輸出 壁畫圖像融合特征。
步驟1 獲取預訓練模型中所提取的壁畫深層特征;
步驟2 獲取顏色特征與紋理特征;
步驟3 將深層特征、顏色特征與紋理特征進行融合,得到藝術特征。
階段5 模型測試階段。
輸入 測試集;
輸出 測試準確率。
步驟1 將測試集導入預訓練完成的遷移模型中;
步驟2 統計分類結果,得出最終準確率。
階段6 模型驗證階段。
輸入 驗證集;
輸出 驗證壁畫圖像分類的準確率。
步驟1 將驗證集導入預訓練完成的遷移模型中;
步驟2 統計驗證結果。
本文實驗搭建CPU 為Inter Core i5-8250U、內存為16 GB、顯卡為NVIDIA GeForece MX150 的硬件環境;所搭建的軟件環境為Windows 10 操作系統,python3.7,采用Tensorflow 作為本實驗框架,編譯軟件為PyCharm 2019.3.5 x64。
本文實驗收集的壁畫圖像均來自《地下畫廊——嘉峪關魏晉磚壁畫》《中國敦煌壁畫全集》《開化寺宋代壁畫》等書籍電子版,內容包括佛菩薩像、佛傳故事、本生故事以及各種經變。各內容中表現了采桑、車馬、出巡、炊事、生產勞動、侍者、宴飲、狩獵、養殖放牧、宰殺、住宅、奏樂等各種生產生活常態,展現了各個朝代不同時期的壁畫藝術。通過對壁畫的裁剪研究,將所收集壁畫藝術圖像分為石器時代、秦漢時期、隋唐時期、宋金時期、魏晉時期和明清時期六個朝代(各朝代的部分圖像如圖3所示)。
圖3 各朝代的部分圖像示例Fig.3 Examples of some images of each dynasty
為了擴充數據集,采用了數據增強方式對壁畫圖像進行預處理(數據增強預處理示例圖像如圖4 所示),主要包括:對圖像進行提亮;對壁畫圖像進行左右翻轉;對圖像隨機進行顏色抖動,包括對比度增強顏色增強等;對壁畫圖像進行旋轉,旋轉角度為20°。本文實驗(包括數據增強部分)共收集了9700 張,并將所構造壁畫數據集分為訓練集、驗證集和測試集,其中80%的圖像為訓練集,10%的圖像為訓練集,10%的圖像為測試集。不同朝代的壁畫圖像數量如表2所示。
表2 不同朝代的壁畫圖像數量Tab.2 Numbers of mural images of different dynasties
圖4 部分圖像數據增強示例Fig.4 Some image examples after data enhancement
3.3.1 模型訓練與模型驗證
在本文實驗中,經過對模型多次訓練和測試,將訓練步數設置為10000 步,將實驗學習率設為0.1。從表3 可以看出,在學習率為0.1時,本文模型具有更好的性能。圖5為訓練過程準確率和交叉熵的變化情況。由圖5(a)可以看出,在模型訓練過程中,訓練準確率不斷上升,在8000步以后,準確率趨于平穩狀態,達到88%左右;由圖5(b)可以看出,在訓練過程中,交叉熵不斷下降,在3000 步左右交叉熵趨于平穩狀態;由圖5(c)~(d)可以看出,在驗證過程中,驗證準確率不斷上升,在6000 步左右趨于平穩,驗證交叉熵不斷下降并最終趨于平穩。綜上所述,本文模型在訓練過程中具有較好的性能,不容易出現過擬合現象。
圖5 訓練過程和驗證過程中的準確率和交叉熵變化情況Fig.5 Changes in accuracy and cross entropy during training and verification processes
學習率是在訓練過程中對權重進行調整的一個比例因子,太大的學習率會導致模型波動不能收斂,而太小的學習率則會讓模型收斂過慢,浪費訓練時間和計算資源[13]。在本文實驗中,在迭代步數相同(均為10000步)的情況下,將學習率分別設置為0.001、0.01 和0.1 進行多組實驗,最后對實驗結果進行統計分析。不同學習率下準確率的對比情況如表3所示。
由表3 可以看出,在學習率為0.1 時,本文模型表現出了良好的性能,最終準確率達到88.70%,與學習率為0.001 和0.01 的兩組實驗相比,本文模型的準確率分別提高了10.08個百分點和4.26個百分點。
表3 不同學習率時的準確率對比Tab.3 Comparison of accuracy at different learning rates
3.3.2 不同壁畫特征對比
在壁畫朝代識別的實驗中,壁畫圖像的顏色特征、紋理特征和繪畫風格對實驗結果會產生較大的影響,而繪畫風格是基于顏色特征的體現,色彩與紋理差異較大的朝代之間識別準確率較高。基于上述情況,從兩個方面進行對比實驗:
1)為了驗證壁畫圖像的顏色特征對識別效果的影響,選取一部分朝代圖像對其進行顏色調整(如圖6 所示)后再進行朝代識別;
2)為了驗證壁畫圖像的紋理特征對識別效果的影響,考慮到圖像的分辨率變化直接影響到紋理特征的計算,故實驗對一部分壁畫圖像的分辨率進行調整后再進行朝代識別。
圖6 為一部分壁畫圖像的顏色調整示例。圖6 中,(a)圖像為實驗所用299 × 299 大小的原壁畫圖像,(b)圖像為在圖(a)基礎上增加灰度值,(c)圖像為在圖(a)基礎上增加飽和度值,(d)圖像為在圖(a)基礎上進行反色變換。
圖6 壁畫圖像顏色調整Fig.6 Color adjustment of mural image
表4 中的準確率代表圖像被正確識別為預設時代標簽的概率。從表4 中可以看出,在對壁畫圖像進行了灰度值增加與反色變換后,最終的識別準確率都有所下降,在增加灰度值、增加飽和度和反色變換后準確率分別下降了57.59、3.78和26.87 個百分點。上述數據表明,在壁畫失去一部分顏色特征后,顏色直方圖并沒有提取到壁畫圖像豐富的色彩特征,導致在識別朝代時,并不能很好地對特征進行學習和分類。
表4 不同顏色特征的壁畫圖像的朝代識別準確率對比 單位:%Tab.4 Comparison of dynasty identification accuracy of mural images with different color features unit:%
由于圖像的紋理特征受到圖像分辨率的影響,本文實驗將原圖像的分辨率擴大至3倍、5倍后,分別應用于本文模型,判斷其被識別為原朝代的百分比。
表5 中的準確率代表圖像被正確識別為預設時代標簽的概率。從表5 中可以看出,當圖像分辨率變大時,圖像的紋理特征更加模糊,最終的識別準確率也有所降低。
表5 不同分辨率的壁畫圖像的朝代識別準確率對比Tab.5 Comparison of dynasty identification accuracy of mural images with different resolutions
由表4~5 可以看出,與圖像的顏色特征相比,紋理特征的改變對于最終準確率的影響并不大。由此可以得出,顏色特征在本文的壁畫朝代識別實驗中起決定作用。
3.3.3 不同模型性能對比
為了更好地體現Inception-v3 模型與遷移學習融合的方法在古壁畫朝代識別分類方面的優越性,本文實驗將Inception-v3 模型與經典深度學習網絡模型、改進的卷積神經網絡模型進行準確率對比。其中經典深度學習網絡模型包括:AlexNet 模 型[14]、VGGNet(Visual Geometry Group Net)模型[15],改進的卷積神經網絡模型包括:LeNet-5 模型[16]、Alex-10模型[17]、R-VGGNet(Reduce-VGGNet)模型[18]、AlexNet-S6模型[19]。
1)運行時間對比。
將其他深度學習網絡模型:AlexNet 模型、VGG 模型、LeNet-5 模型、Alex-10 模型、R-VGGNet 模型、AlexNet-S6 模型與本文的網絡模型進行準確率和運行時間的對比,并對各實驗結果進行分析。不同模型的運行時間以及準確率的對比如表6所示,加粗字體為最高準確率和最少運行時間。
表6 不同模型的運行時間及準確率對比Tab.6 Comparison of running time and accuracy of different models
由表6 可以看出,在運行10000 步后,本文模型最終達到的準確率相較于經典的AlexNet模型、ResNet模型、VGGNet模型和改進的卷積神經網絡LeNet-5 模型、Alex-10 模型、R-VGGNet 模型、AlexNet-S6 模型分別提高了10.36、19.14、12.22、5.72、13.65、10.04和9.66個百分點。在運行時間上,本文模型運行10000 步所需的時間為1.5 h,而與AlexNet 模型、ResNet 模型和VGGNet 模型相比,是它們運行時間的3/5、5/14、3/10;與改進的卷積神經網絡相比,本文在運行時間上也占有很大的優勢。究其原因,主要是由于AlexNet 模型、ResNet 模型和VGGNet 模型擁有更深的網絡結構,占用大的內存空間,計算量過大,在對壁畫數據集進行特征提取時耗時長,而本文模型中擁有Inception結構,其優勢在于將卷積進行分解,在感受野相同的同時,提高了計算效率,減少了網絡參數,模型收斂更快,隨著提取特征的增加,訓練速度逐漸加快,平衡了網絡的深度和寬度,在訓練過程中不容易產生過擬合現象。
另外,改進的卷積神經網絡其參數量與本文網絡相比大得多,需要大數量樣本進行訓練,而對于本文的小樣本壁畫圖像數量,將這些模型應用在壁畫數據集上可能存在由于樣本數量少導致特征提取不充分等問題,本文模型則是融合了遷移學習,是對Inception-v3 進行預訓練之后在本文壁畫數據集上進行訓練,不需要訓練特征提取部分,而且參數量較少是本文模型的一個改進之處,在訓練過程中進行參數微調增強了網絡的適應性,能深度提取到壁畫的色彩、紋理和繪畫風格等特征,所以有較高的識別準確率。
2)準確率對比。
在本文所構造壁畫數據集上,運行時間設置為1 h,將LeNet-5 模型、Alex-10 模型、R-VGGNet 模型、AlexNet-S6 模型分別與本文的網絡模型進行對比,并對各實驗的準確率、召回率和F1值進行對比分析。在運行時間相同時,不同實驗的準確率、召回率和F1值的對比情況如圖7所示。
圖7 不同模型的各評價指標對比Fig.7 Comparison of evaluation indices of different models
由圖7 可以看出,在運行1 h 后,本文模型的準確率為88.70%,召回率為88.62%,F1值為88.58%,與改進的深度學習卷積神經網絡LeNet-5 模型、Alex-10 模型、R-VGGNet 模型、AlexNet-S6模型對比,準確率分別提高了7.42、12.65、22.8和9.36個百分點,召回率分別提高了7.76、12.86、23.36和9.36個百分點,F1 值分別提高了7.92、12.92、23.12 和9.52 個百分點。主要是本文模型根據壁畫所特有的特征進行微調,選擇適合本文數據集的網絡參數,其他網絡模型由于參數量大和運行時間長等問題,與本文模型的提取效果相比,并沒有很好地提取到壁畫豐富的特征。從上述評價指標的對比情況可以看出,本文模型在各項指標對比中都有一定的優勢,能夠更好地提取古代壁畫的特征,泛化能力強,分類結果比較穩定。
3)各朝代類別準確率對比
實驗最后將本文模型與改進的卷積神經網絡LeNet-5 模型、Alex-10模型、R-VGGNet模型、AlexNet-S6模型對各朝代類別識別準確率進行對比并分析。不同模型各類別的準確率對比情況如表7所示。
表7 不同模型對各朝代類別的識別準確率對比 單位:%Tab.7 Identification accuracy comparison of different models to each dynasty category unit:%
由表7 可以看出,與其他改進的卷積神經網絡相比,本文模型在大部分類別識別上的準確率都比較高,各類別準確率平均提升了至少7個百分點。從表7中的實驗數據可以看出,對于石器時代的分類準確率普遍都很高,主要由于石器時代的壁畫大多是在巖石或墻壁,壁畫內容多為動物形象,與其他朝代的壁畫特征對比,壁畫特征鮮明,因此實驗中的所有模型都可以較好地識別石器時代的壁畫圖像;而在秦漢時期、隋唐時期和宋金時期,開始陸續出現對人物、宮殿寺觀壁畫、經變壁畫和墓室壁畫等,但是由于色彩、服飾、建筑物和繪畫風格相似等內容的影響,在進行朝代識別時特征提取比較困難,出現了一些錯分示例,如圖8~圖10所示。
圖8 壁畫內容相似錯分示例Fig.8 Examples of misclassified murals with similar contents
圖9 宋金時期壁畫Fig.9 Murals of Song-Jin dynasties
圖10 魏晉時期壁畫Fig.10 Murals of the Wei-Jin dynasties
因壁畫文本內容相似錯分示例如圖8 所示。圖8 中的兩幅圖像由于壁畫內容均為車馬圖像和菩薩形象,在進行特征提取時均提取到相似的特征,不容易進行朝代的區分。最終將隋唐時期的車馬圖像錯分為宋金時期,宋金時期的菩薩圖像錯分為隋唐時期。
因壁畫色彩和繪畫風格相似錯分示例如圖9 和圖10 所示。圖9中均為宋金時期壁畫,圖10中均為魏晉時期壁畫,這兩組壁畫圖像均來自敦煌石窟壁畫,色彩和繪畫風格上相似,在進行朝代識別時容易出錯。
上述錯分示例均為本文預訓練模型最終的分類精確度在一定程度上因壁畫文本與壁畫色彩等相似導致在秦漢時期、隋唐時期和宋金時期的識別與分類中準確率降低。盡管本文模型已經取得了較高的準確率,在石器時代、魏晉時期和明清時期的分類中效果較好,但錯誤分類示例也說明本文模型在使用顏色直方圖與紋理直方圖對顏色、紋理特征和上下文信息提取時還存在一定的不足之處,未來需要對這三個方面的特征提取進行進一步的深化研究。
針對古代壁畫朝代識別分類準確率較低和古代壁畫特征提取困難、壁畫文本和繪畫風格相似等問題,對古代壁畫圖像朝代進行識別分類,提出了一種融合遷移學習的Inception-v3模型應用于古代壁畫朝代分類任務。本文模型利用遷移學習解決了壁畫數據集收集困難導致的訓練數據有限等問題,通過數據增強算法對數據集進行拓展,最終在測試集上的分類準確率為88.70%,縮短了運行時間,能夠提取壁畫圖像的顏色特征與紋理特征,并能將高層特征與藝術特征相融合。與改進的卷積神網絡相比較,本文模型有穩定的識別與分類性能、更高的準確率,能夠在較短的時間內達到10000 步,模型收斂更快,能夠更好地提取壁畫的高層特征,并能與壁畫的底層特征進行有效的融合。
在實驗中,由于硬件環境和部分古代壁畫圖像繪畫風格存在差異小等問題,本文模型無法針對壁畫的色彩梯度和斷崖等進行很好的色彩特征提取,在未來的研究中,將繼續擴充數據集,根據壁畫自身的特點進行進一步的研究并提高分類精度,使得古壁畫朝代分類更加快速有效。