楊 盼,張敏情*,葛 虞,狄富強,張英男
(1.武警工程大學 密碼工程學院,西安 710086;2.網絡與信息安全武警部隊重點實驗室(武警工程大學),西安 710086)
隨著計算機技術和移動互聯網的快速發展,數字圖像逐漸成為人們日常生活中信息傳遞的重要載體之一。圖像信息隱藏技術將秘密信息以不可見的方式隱藏到圖像中,并在需要該秘密信息的時候通過某種方式提取出來,從而實現隱蔽通信和版權保護的目的。傳統信息隱藏算法對載體圖像修改后會不可避免地留下修改痕跡,如HUGO(Highly Undetectable steGanOgraphy)[1]、WOW(Wavelet Obtained Weights)[2]、HILL(HIgh-pass,Low-pass,and Low-pass)[3]、UNIWARD(UNIversal WAvelet Relative Distortion)[4],這些算法難以抵抗空域富模型(Spatial Rich Model,SRM)[5]的隱寫分析方法。為了突破傳統信息隱藏方法在算法設計過程中過于依賴手工和先驗知識的限制,一些基于深度學習的信息隱藏算法被相繼提出,促進了信息隱藏技術的發展。Baluja[6-7]首次提出將彩色圖像嵌入另一個相同大小的彩色圖像中,但是生成的含密圖像存在部分圖像失真,易被察覺。為解決這一問題,Ur Rehman 等[8]提出了一種基于卷積神經網絡(Convolutional Neural Network,CNN)的編碼器-解碼器架構,用于將灰度圖像作為有效載荷嵌入彩色圖像。Zhang等[9]提出基于生成對抗網絡的圖像隱寫框架(Invisible Steganography via Generative Adversarial Networks,ISGAN),將彩色載體圖像分解為3 通道U/V/Y,利用人眼對亮度信息不敏感的特性,將灰度秘密圖像與Y 通道進行通道拼接,通過編碼網絡得到含密圖像,增強了秘密圖像的隱蔽性;然而,它們也面臨著基于深度學習的隱寫分析技術的威脅。
神經風格遷移技術將神經網絡應用于圖像風格遷移領域,實現將普通的數字圖像賦予藝術化的效果,目前已經運用到人 們的生 活當中。Gatys 等[10]使 用VGGNet(Visual Geometry Group Network)[11]提取載體圖像的特征作為目標圖像的內容部分,將獲得的圖像的內容部分與風格圖像的紋理部分相結合,通過最小化損失迭代更新載體圖像的樣式。Huang 等[12]通過匹配內容和風格特征的均值和方差,通過自適應實例標準化(Adaptive Instance Normalization,AdaIN)實現了任意風格變換網絡。Li 等[13]通過學習內容特征和變換矩陣之間的線性變換提升風格變換性能。Li 等[14]使用WCT(Whiten and Coloring Transform)模塊代替AdaIN,實現了通用性的風格遷移方法。An 等[15]將可逆神經網絡運用于風格遷移中,解決圖像內容破壞的問題。
為了提高現有信息隱藏算法的安全性,神經風格遷移技術被引 入信息 隱藏領 域。Wang 等[16]提出了STNet(Style Transformation Network for deep image steganography)算法,可以在圖像風格遷移的過程中嵌入秘密信息,該算法結合了信息隱藏技術和風格遷移技術,生成的風格化圖像能夠抵抗隱寫分析。Bi 等[17]提出了ISTNet(Image Style Transfer Network for image steganography),在風格遷移過程中,將一張灰度圖像隱藏到風格化圖像中,生成的含密圖像與藝術化圖像無法區分,極大提高了隱藏算法的安全性,能夠很好地對抗針對載體圖像的攻擊和分析,有效保護秘密信息的安全性和機密性。Lin 等[18]提出了改進的基于Y 通道的神經風格遷移的圖像隱寫框架,結合Y 通道先嵌入再對圖像進行風格變換的方式實現了一張灰度圖像的嵌入。
然而,上述算法都未能較好地解決彩色圖像的大容量信息嵌入問題。本文提出了一種新的基于神經風格遷移模型的彩色圖像信息隱藏算法。在圖像風格遷移的過程實現了將彩色圖像隱藏到風格化圖像中,提高了隱寫容量,同時攻擊者無法分清風格化圖像是否嵌入了秘密圖像,從而避免了隱寫分析的檢測。
Bi 等[17]在STNet[16]的基礎上提出了ISTNet,首先通過VGGNet 提取出內容圖像和風格圖像的特征,使用AdaIN 進行整合,再訓練一個用于灰度圖像特征提取的網絡,將提取的多個秘密信息特征與整合后特征送入解碼器,解碼器將特征映射回圖像的過程中,通過殘差連接的方式,盡可能在生成的風格化圖像中保留更多的灰度圖像特征,最后通過一個消息提取網絡將灰度圖像提取出來,整個框架如圖1 所示。

圖1 ISTNet的框架Fig.1 Framework of ISTNet
本文算法的模型框架如圖2所示,主要由隱藏網絡和提取網絡兩部分組成。隱藏網絡結合了風格圖像的特征,將載體圖像轉化為具有風格圖像特征的藝術圖像,并在此過程中嵌入秘密圖像;提取網絡從含密圖像中提取秘密圖像。

圖2 本文算法的模型框架Fig.2 Model framework of the proposed algorithm
隱藏網絡包含特征提取網絡和解碼器。特征提取網絡使用了VGGNet 提取輸入圖像的特定特征。為了提高訓練效果,使用PyTorch 中VGG19 的預訓練模型,同時減少訓練開銷和訓練時間,以獲取更好的特征提取效果。將載體圖像、風格圖像和秘密圖像輸入特征提取網絡,獲得載體圖像的內容特征Fc、風格圖像的紋理信息Fs和秘密圖像的特征表示。將Fc和Fs通過AdaIN 編碼為一個特征,將其與秘密圖像的相同大小特征進行結合,輸入解碼器將特征映射回圖像。使用AdaIN 是因為它具有更好的風格化效果,并且不需要訓練參數,這使得網絡的整體訓練速度更快,所需時間更少,如式(1)所示:
其中:t代表AdaIN 輸出的結果,μ和σ代表均值與標準差。
解碼器將特征信息解碼,生成含密圖像。在解碼過程中,將秘密圖像不同的特征表示與解碼器的相應層相拼接,更大限度地保留秘密信息的特征信息。解碼器結構如圖3所示,ReflectionPad 為鏡像填充操作,Conv 為卷積操作,修正線性單 元(Rectified Linear Unit,ReLU)為激活函數,Interpolate 為插值和上采樣。

圖3 解碼器結構Fig.3 Decoder structure
提取網絡接收含密圖像作為輸入,恢復秘密圖像。將含密圖像放入提取網絡中,經過卷積操作,實現從含密圖像中提取秘密圖像的目的,從而提取出秘密信息。提取網絡由8層卷積層和ReLU 激活函數組成,在中間增加1 個批量歸一化(Batch Normalization,BN)層來提高收斂速度,卷積層的詳細信息如表1 所示。

表1 提取網絡的卷積層Tab.1 Convolutional layers of extraction network
本文的損失函數主要包括三部分:載體圖像的內容損失Lc、風格損失Ls和提取網絡的損失Le。在圖像嵌入過程中,隱藏網絡不僅要盡量降低圖像嵌入對圖像風格傳遞的影響,而且要使提取網絡盡可能準確地從含密圖像中提取出秘密圖像。
內容損失Lc為目標特征和輸出圖像特征之間的歐氏距離,如式(2)所示。為了得到更快的收斂速度和保留載體圖像的內容特征,這里使用AdaIN 的輸出t作為目標特征,約束生成圖像的特征,以提高二者的內容相似性。代表目標特征t經過解碼器D 生成圖像Dt的特征。
風格損失Ls由風格圖像和隱藏圖像這兩個特征映射的均值和標準差表示,如式(3)所示:
其中:φi表示VGGNet 中第i層的風格損失,μ和σ代表各層對應的均值與標準差,Is代表風格圖像。
秘密圖像的損失,也就是提取網絡的損失。S和S′分別代表主要衡量原始圖像與提取后圖像,這里的損失主要有均方誤差(Mean Squared Error,MSE)、結構相似性(Structural SIMilarity,SSIM)和多尺度結構相似性(Multi-Scale SSIM,MS-SSIM)[19]三部分組成,如式(4)所示:
其中α、β和γ為權重參數。
ISTNet 使用單一的MSE 損失函數,只考慮了重建圖像的像素值盡可能接近,而沒有考慮圖像要符合人的視覺感知;人眼對圖像的結構信息很敏感,對于高亮度區域和紋理比較復雜的區域的失真卻不敏感,SSIM 是基于人眼觀看圖像,是會提取其中的結構化信息的損失函數;引入MS-SSIM 損失函數,可以使不同分辨率的圖像保持穩定,因此SSIM 和MS-SSIM 就更符合人眼的直觀感受。
為了得到更好的實驗效果,設計總的損失函數為內容損失、風格損失和秘密信息損失的加權之和,如式(5)所示:
其中θ是控制損失項重要的權重因子。
實驗中選擇的深度學習框架為PyTorch 1.9,編程語言使用Python 3.7,計算顯卡配置為RTX2070,8 GB 顯存。實驗樣本數據集Ukiyoe2photo 數據集作為載體圖像和風格圖像,COCO 數據集作為秘密圖像,并將每個圖像的尺寸統一調整為256×256,并設置相關參數α=0.3,β=0.5,γ=0.5,θ=5。
為了驗證本文算法與其他風格遷移算法的可區分性,在實驗中選取相同的載體圖像與風格圖像,將本文生成的含密圖像與其他神經風格遷移算法生成的圖像進行比較,如圖4所示。從圖4 結果來看,所有算法都實現了風格遷移。相較于神經風格遷移算法,本文算法生成的風格化圖像內容輪廓清晰,變換效果較好,因此可以將本文算法與其他風格遷移算法區分開來。與ISTNet[17]相比,二者的含密圖像的圖像效果相似,但本文算法生成的含密圖像更加自然。可以得出,本文算法在完成彩色圖像嵌入的同時,實現了圖像風格遷移的功能,并且風格遷移的過程很好地掩蓋了秘密圖像的嵌入。

圖4 不同算法的圖像風格遷移效果對比Fig.4 Comparison of image style transfer effect among different algorithms
本文算法在大小為256×256 的風格化圖像中隱藏彩色秘密圖像,平均每個像素可以隱藏24 位,隱藏容量為24 bpp。表2 將不同算法的隱藏容量進行比較。可以看出與文獻[8-9]相比,本文算法的隱藏容量是它們的3 倍,雖然與Baluja 算法[7]相比都實現了同樣大小的隱藏容量,但Baluja算法[7]存在安全性問題。與基于神經風格遷移的信息隱藏算法[16-18]相比,STNet[16]只能隱藏固定容量的秘密信息,并且隱藏容量較小;而ISTNet[17]和文獻[18]算法都只隱藏了一張同等大小的灰度圖像,僅僅達到了8 bpp,很明顯本文算法的隱藏容量較大。

表2 不同算法的隱藏容量比較Tab .2 Comparison of hiding capacity among different algorithms
秘密圖像的質量對隱蔽通信的成敗十分重要,因此,將本文算法與其他信息隱藏算法的恢復的秘密圖像的圖像質量作比較,以峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和SSIM作為主要指標。實驗隨機選取了200 張提取的秘密圖像求平均值,如表3所示。相較于經典的以圖藏圖算法[7-9],基于神經風格遷移的以圖藏圖算法的PSNR和SSIM值都較低,這是因為風格化圖像的干擾影響了秘密圖像的質量。相較于其他基于神經風格遷移的以圖藏圖的算法[17-18],本文算法各項性能都比文獻[18]好,PSNR 提高了1.15 dB,SSIM 提高了0.04。相較于ISTNet[17],本文算法的PSNR值較低,主要是因為PSNR是基于逐像素點進行計算,不太符合人的主觀感受,而本文算法隱藏了相同大小的彩色圖像,所含像素信息較多,導致了PSNR 值較低;但是本文算法的SSIM值相較于文獻[17]算法的提高了0.1。這是由于本文在提取網絡中引入了SSIM和MS-SSIM這兩個損失函數,更加符合人類的視覺感知。

表3 不同算法的PSNR和SSIM比較Tab.3 Comparison of PSNR and SSIM among different algorithms
算法的安全性對秘密信息的傳遞十分重要。與傳統的信息隱藏算法不同,本文在生成一個風格化圖像的同時進行秘密信息的嵌入。因此,隱寫分析的任務是區分含密圖像與風格化圖像。
首先,對不同算法生成的圖像進行統計分析。本文隨機選取了相同的載體圖像及其風格圖像,以圖5(a)為例,比較了它們各自生成風格化圖像的直方圖,分為R、G、B三個通道,橫坐標表示范圍為0~255的亮度值,縱坐標表示像素的數量。

圖5 不同算法的直方圖Fig.5 Histograms of different algorithms
由直方圖可以得出,使用不同的神經風格遷移算法對原始載體圖像進行風格變換,產生了不同的圖像風格化效果,從生成圖的直方圖來看,都使得原始載體圖像的直方圖產生了較大的變化,且變化各不相同,因此無法做到有效區分。
現有基于深度學習的信息隱藏算法中,有一些大容量算法可在彩色圖像中隱藏另一幅彩色圖像或灰度圖像,它們的載體圖像和含密圖像高度相似,人眼很難區分兩者;然而,這些算法存在一些缺點,如果攻擊者能夠同時獲得載體圖像和含密圖像,就會發現含密圖像是從載體圖像修改而來的,這無疑會對通信安全構成威脅。本文算法和文獻[6]算法的殘差分析如圖6 所示。如圖6(a)所示,可通過殘差圖像分析獲取秘密圖像的語義信息。相較于文獻[6]算法,本文算法在嵌入秘密圖像的同時,可將載體圖像轉換成另一種風格,即使攻擊者同時獲得載體圖像和含密圖像,也很可能只是常見的圖像風格遷移,而不是秘密信息的傳遞。由于圖像風格的轉換勢必會產生圖像像素的改變,很好地掩蓋了圖像隱藏所產生的像素修改。

圖6 兩種算法的殘差分析Fig.6 Residual analysis between two algorithms
本文使用隱寫分析工具StegExpose[20]來進行驗證。該工具包 含SPA(Sample Pairs Analysis)[21]、RS(Regular-Singular)分析[22]、卡方攻擊[23]等隱寫分析,它能夠以高效快速方式使用經過驗證的隱寫分析方法批量分析圖像。本文選取500 張含密圖像及其相應的500 張載體圖像組成的圖像對,生成受試者工作特征(Receiver Operating Characteristic,ROC)曲線,如圖7(a)所示,可以看出只是略高于隨機猜測。同時,實驗選取文獻[12]中的風格遷移算法生成的風格化圖像及其對應的載體圖像,生成ROC 曲線,如圖7(b)所示。比較圖7(a)與圖7(b),風格化圖像的ROC 曲線大致在對角線附近,因此本文的算法與其他風格遷移算法并無太大不同。

圖7 ROC曲線Fig.7 ROC curves
由實驗結果可知,本文算法具有較好的抗隱寫分析能力;同時,由于風格化圖像的廣泛存在,很難將本文算法與其他風格遷移算法有效區分,具有較高的安全性。
本文提出了一種基于神經風格遷移過程的信息隱藏算法,可將彩色圖像嵌入到風格化的載體圖像中。實驗結果表明,與其他基于神經風格遷移的信息隱藏算法相比,在保證安全性的前提下,本文實現了彩色圖像的信息嵌入,提高了嵌入容量和提取后秘密圖像的圖像質量。在未來的工作中,可以探索優化網絡結構,調整參數,進一步提高彩色圖像的圖像質量,促進基于深度學習的圖像信息隱藏技術發展[24]。