孫文權 劉佳 鈕可 董煒娜 陳立峰



摘 要:目前,基于深度學習的隱寫模型的隱寫容量有所提高,但由于網絡結構復雜,需要大量的時間來訓練。為此,提出輕量化的可逆神經網絡結構,并以此設計了高效圖像隱寫方案,采用基于密集連接的可逆神經網絡實現圖像的隱藏與恢復,在減少可逆塊數量的同時,增加每個可逆塊中可逆函數f(·)、r(·)和y(·)的卷積塊數量來保證圖像質量。這樣能夠顯著降低計算和存儲開銷,使得模型在計算資源有限的設備上運行更加高效,模型開發和迭代的過程更加高效,有效地節省了寶貴的計算資源。載體圖像與秘密圖像通過正向隱藏可逆變換生成含密圖像,含密圖像與隨機變量通過反向恢復可逆變換得到恢復圖像。實驗結果表明,與HiNet算法相比,輕量級網絡結構能夠得到良好的圖像質量且更具安全性,同時訓練時間縮短了46%,隱寫時間縮短了28%。
關鍵詞:可逆神經網絡;隱藏;恢復;隱寫效率
中圖分類號:TP309.2?? 文獻標志碼:A?? 文章編號:1001-3695(2024)01-042-0266-06
doi:10.19734/j.issn.1001-3695.2023.05.0215
Lightweight image steganography scheme based on invertible neural network
Abstract:At present,the steganographic capacity of deep learning-based steganographic models has been improved,but due to the complexity of the network structure,it requires a lot of time to train.Aiming at this problem,this paper proposed a lightweight invertible neural network structure and used to design an efficient image steganography scheme,which adopted a dense connection-based invertible neural network to achieve image hiding and recovery,and increased the number of convolutional blocks of invertible functions f(·) ,r(·) and y(·) in each invertible block to ensure the quality of the image while redu-cing the number of invertible blocks.It could significantly reduce the computational and storage overheads,making the model run more efficiently on devices with limited computational resources,making the process of model development and iteration more efficient,and effectively saving valuable computational resources.It transformed the cover and the secret image by forward hidden invertible transform to generate the stego image,and transformed the stego image and the random variable by reversing recovery invertible transform to get the recovered image.The experimental results show that compared with HiNet algorithm,the proposed lightweight network structure can achieve good image quality and security,while reducing the training time by 46% and the steganography time by 28%.
Key words:invertible neural network;conceal;recover;steganography efficiency
0 引言
傳統的隱寫方案通常采用載體修改的方法將秘密信息嵌入到圖像的空域[1]或者變換域[2]。為了抵抗專用隱寫分析[3,4],載體修改的隱寫方法通常僅能保持某一種統計模型不變?;谧钚』д娴淖赃m應隱寫方法[5],通過定義修改失真代價,試圖提高隱寫的安全性。然而,隨著基于深度神經網絡的隱寫分析技術的發展[6],基于模型保持和最小化失真代價的隱寫方法面臨的安全威脅逐漸增加。
隨著深度學習的發展,基于深度神經網絡的隱寫(deep steganography)方案被提出。Baluja[7,8]首次提出利用深度神經網絡將一整張彩色圖像隱藏在另一張彩色圖像中,基于Encoder-Decoder的預處理網絡提取秘密圖像的有用特征,然后利用隱藏網絡將秘密圖像提取的特征融合到載體圖像中,最后采用恢復網絡來恢復秘密圖像。文獻[7]對該工作進行了擴展,通過對秘密圖像像素的排列來提高隱藏的安全性。文獻[9]在文獻[7]的基礎上增加了一個回歸的損耗,保證了端到端聯合訓練。然而,它們都有顏色失真的問題。Zhang等人[10]通過減少秘密圖像的有效載荷,即只嵌入灰度圖像來緩解這種影響。深度生成模型也對隱寫產生重要影響。Hayes等人[11]提出了一種基于生成對抗網絡(GAN)的方法,并利用一個生成器和一個判別器來分別生成和區分含密圖像。在此基礎上,許多改進的網絡結構被提出。畢新亮等人[12]使用Star GAN的判別器作為特征提取器,將提取的特征映射為秘密消息,直接構造了圖像和秘密消息的映射關系,但圖像質量不高。Hu等人[13]提出了一種無修改隱寫方法(SWE),可直接建立噪聲與消息之間的映射關系。在此基礎上,Liu等人[14]利用圖像補全技術構造了一個數字化卡登格子方案,由于采樣過程要想獲得整個網絡最優的參數十分困難,導致無法完全準確地提取消息。Zhang等人[15]使用生成對抗網絡優化隱寫圖像的感知質量。這些方法不易被隱寫分析工具檢測到,具有良好的隱寫安全性,但其容量普遍較小。以上方法的隱藏和恢復過程是由兩個獨立網絡依次實現的,即一個網絡用于隱藏,另一個網絡用于恢復秘密圖像,如圖1(a)所示。
Jing等人[16]首次將圖像隱藏和圖像恢復看作是同一個可逆網絡的正向和反向過程,設計了單幅彩色圖像的隱藏方案HiNet,如圖1(b)所示。Dinh等人[17]首次提出可逆神經網絡(invertible neural network,INN),給定一個變量y和正向計算x=fθ(y),可以通過y=f-1θ(x)直接恢復y,其中逆函數f-1θ被設計成與fθ共享相同的參數θ。為了使INN更好地處理與圖像相關的任務,Dinh等人[18]在耦合模型中引入了卷積層,并引入了多尺度層,以降低計算成本并提高正則化能力。Kingma等人[19]在INN中引入了可逆的1×1卷積,并提出了Glow算法,該算法對圖像的合成和處理具有顯著的效果。由于INN的優異表現,在圖像壓縮[20]、圖像縮放[21,22]、圖像到圖像轉換[23]、視頻超分辨率[24]、圖像生成[25]等領域有著廣泛的應用。由于可逆神經網絡的優勢,目前有一些基于可逆神經網絡的圖像隱寫方案研究[16,26~29]將可逆神經網絡應用于圖像隱寫術。Liu等人[27]提出了一種映射模塊,該模塊可以壓縮實際嵌入的信息,以提高隱寫圖像的質量和反檢測能力??赡嫔窠浘W絡在隱寫圖像的視覺質量和安全性方面取得了較好的效果,信息提取準確率達到100%。Xu等人[29]設計了圖像質量增強模塊,在保持隱寫圖像不可感知性和大容量的同時,有效地提高了隱寫圖像的魯棒性。Lu等人[28]提出在相同大小的彩色圖像中隱藏多幅彩色圖像,大大增加了圖像隱寫的隱藏容量。Guan等人[26]在可逆神經網絡的基礎上增加了重要映射模塊,利用當前圖像的隱藏結果指導下一幅圖像的隱藏,避免了多幅圖像隱藏造成的輪廓陰影和顏色失真問題,提高了秘密信息的不可見性。與傳統的使用兩個網絡分別進行嵌入和提取的方法相比,基于可逆神經網絡的隱寫方案提高了提取精度并具有較好的視覺效果。但上述基于可逆網絡的隱寫方案[16,26~29]結構比較復雜,神經網絡層數過多,增加了計算和存儲開銷,使模型無法在計算資源有限的設備上高效運行,模型的隱寫效率低。因此本文在HiNet[16]的基礎上提出了一個高效的圖像隱寫方案,即輕量化可逆網絡結構,其主要貢獻如下:
a)與HiNet相比,在保證圖像質量和安全性的同時精減了網絡結構,減少了網絡中可逆塊的數量,加快了訓練速度,提升了隱寫效率。
b)能更有效地提取圖像深層次的特征,實現特征重用,提高隱寫圖像與恢復圖像的質量。本文增加可逆函數f(·)、r(·)和y(·)中密集連接的卷積塊數量,以抵消可逆塊數量減少導致的圖像質量下降問題。
c)通過優化低頻小波損失的權重參數設置,以達到更好的隱寫效果,增加載體圖像與含密圖像之間的相關性。
1 本文方法
1.1 方案框架
本文提出了一種新型的可逆網絡,以實現輕量、高效、安全的圖像隱寫。傳統隱寫隱藏與恢復通過兩個網絡實現,而可逆神經網絡能夠在運用一個網絡的情況下實現圖像的處理與恢復。由于可逆神經網絡的特點,本文將其應用在隱寫過程中,達到通過一個網絡實現隱藏與恢復的目的。在隱藏與恢復過程中運用離散小波變換,將圖像在進行可逆變換前分成低頻和高頻小波子帶,達到更好的隱寫效果。方案整體框架分為前向隱藏過程和反向恢復過程,兩個過程完全相同,只是由信息流的方向相反來實現圖像的隱藏與恢復。
1)前向隱藏過程 載體圖像Xco與秘密圖像Xsec共同作為正向網絡的輸入,首先經過離散小波變換(DWT)對圖像進行預處理,然后將特征圖(feature map)輸入網絡的可逆塊中,經過8層可逆塊變換得到新的特征圖,再經過逆小波變換(IWT)處理得到含密圖像XSte與損失信息r。在隱藏過程中,網絡試圖將秘密圖像Xsec隱藏到載體圖像Xco中。大容量的嵌入不可避免地導致秘密圖像在提取時丟失一部分信息,另外,秘密圖像的嵌入可能也對原始的載體圖像造成影響,丟失的秘密信息和被破壞的載體信息共同構成了損失信息r。假設全部圖像的分布為χ,訓練過程中的圖像都從全部圖像中取樣,所以(Xsec,Xco)~χ。因為INN的可逆性,XSte和r也應該遵循相同分布,XSte和r的混合分布也應遵循相同分布,例如XSte×r~χ。
2)反向恢復過程 由于網絡的可逆性,反向恢復過程需要引入一個隨機變量z。變量z是從一個任意高斯分布中隨機抽取的,該分布應與r的分布相同,通過在訓練時從后面表示的恢復損失學習得到。與前向隱藏過程完全相反,含密圖像XSte與隨機向量z共同作為反向網絡的輸入,首先經過離散小波變換(DWT)對圖像進行預處理,然后將特征圖輸入進網絡的可逆塊中,經過8層可逆塊變換得到新的特征圖,經過逆小波變換(IWT)處理得到恢復圖像Xsec-rev與恢復的載體圖像Xco-rev。
1.2 關鍵模塊
為了保證網絡模型的隱寫效果,本文采用了小波變換、可逆塊變換和密集連接。運用小波變換將圖像分解成不同頻率的子帶(高頻與低頻),然后將其輸入可逆塊變換,經過其中運算以及采用密集連接的f(·)、r(·)和y(·)函數,更深層次地將秘密圖像Xsec隱藏在載體圖像Xco中,生成含密圖像XSte。這樣能夠在保證隱藏容量的同時,保持較高的視覺質量和信息安全性。
1)小波變換 圖像隱藏在像素域容易導致紋理復制偽影和顏色失真[3,30]。相比于像素域,頻域和高頻域更適合于圖像隱藏。本文采用小波變換將圖像在進行可逆變換前分成低頻和高頻小波子帶,其中高頻子帶包含圖像細節,低頻子帶則包含圖像的整體特征,使網絡能更好地將秘密信息融合到載體圖像中。相比于在原始圖像域直接操作,小波變換具有較好的視覺保真度。小波變換只在少數子帶中隱藏信息,對圖像整體的影響相對較小,一般難以察覺。此外,小波良好的重構特性有助于減少信息損失,提高圖像隱藏性能。經過DWT后,將尺寸(B,C,H,W)的特征圖轉換為(B,4C,H/2,W/2),其中B為批量大小,H為高度,W為寬度,C為通道數。DWT可以降低計算成本,這有助于加速訓練過程。本文采用Haar小波函數實現小波變換和逆變換。由于小波變換也是雙向的,所以不會影響網絡模型的端到端訓練。
2)可逆塊變換 如圖2所示,隱藏過程和恢復過程具有相同的子模塊,共享相同的網絡參數,只是信息流方向相反。本文網絡結構有8個結構相同的可逆塊,構造如下:對于正向過程中的第L個隱藏塊,輸入為Xlco和Xlsec,輸出為Xl+1co和Xl+1sec,如式(1)(2)所示。
Xl+1co=Xlco+r(Xlsec)(1)
其中:σ為激活函數,本文采用LeakyReLU;f(·)、r(·)和y(·)為密集連接網絡,最后可逆塊的輸出Xksec和Xkco再經過IWT變換得到含密圖像XSte和損失信息r。
反向恢復過程中的第L個顯示塊,輸入為Xl+1Ste和Zl+1,輸出為XlSte和Zl,如式(3)(4)所示。
在反向過程中,與正向過程信息流方向相反,先經過第l+1層再經過第l層。最后經過第一層可逆變換以后,再對其進行逆小波變換(IWT)得到恢復圖像Xsec-rev。
3)密集連接 由于網絡的可逆性f(·)、r(·)和y(·)可以為任意函數,為了能更有效地提取圖像深層次的特征,實現特征重用,提高隱寫圖像與恢復圖像的質量,本文采用密集連接來實現。將前一層的信息直接傳遞到后一層的所有神經元,更有效地實現信息傳遞和共享,同時梯度可以更快地傳播回較早的層,加速模型的收斂過程,相比于某些傳統的全連接網絡結構,密集連接可以顯著地減少參數數量,提高模型的效率和緊湊性,并節省內存和計算資源。如圖3所示,采取實驗效果最好的卷積層數量為7的密集連接。
1.3 損失函數
本文提出的損失主要由三部分組成:
a)隱藏損失L隱藏。隱藏損失的目的是保證生成的含密圖像XSte與Xco不可區分。
其中:N代表訓練樣本的數量;c計算載體圖像與含密圖像之間的差異,本文采用l2范數。
b)低頻小波損失L低頻。文獻[7]驗證了隱藏在高頻分量中的信息比隱藏在低頻分量中的信息更不容易被檢測到。為了能更好地應對隱寫分析工具的攻擊,讓信息盡量隱藏在圖像的高頻區域,本文采用了載體圖像與含密圖像的低頻子帶的損失約束,如下所示。
其中:N代表訓練樣本的數量;f計算載體圖像與含密圖像之間的低頻差異;H(·)ll代表提取圖像的低頻子帶操作。
c)恢復損失L恢復。為保證恢復的秘密圖像與嵌入的秘密圖像的一致性,最小化恢復圖像與秘密圖像之間的差異以提升模型準確率,如式(7)所示。
其中:N代表訓練樣本的數量;r計算恢復圖像與秘密圖像之間的差異。隨機向量z采樣的過程是隨機的。
總損失函數是隱藏損失、低頻小波損失和恢復損失的加權求和:
L總計(θ)=λ1L隱藏+λ2L低頻+λ3L恢復(8)
在訓練過程中,首先將λ2設為0,即不考慮L低頻對網絡的影響直接對網絡模型進行預訓練,使網絡模型先獲得基本的隱藏-恢復能力。然后再逐漸添加L低頻約束項,進一步優化網絡模型,將秘密圖像隱藏在載體圖像的高頻區域,以增強模型抵抗隱寫分析的能力。
2 實驗結果與分析
2.1 實驗設置
網絡模型使用Python 3.8編碼語言,CUDA版本為11.6,使用NVIDIA GeForce RTX2070 GPU進行加速。DIV2K數據集具有多樣性、高分辨率和真實性,涵蓋了自然風景、人物、動物、建筑等多個領域,與信息隱藏的要求場景十分契合。本文使用DIV2K[30]訓練數據集(800張圖像,分辨率為1024×1024)訓練網絡模型;使用DIV2K驗證數據集(100張圖像,分辨率為1024×1024)驗證網絡模型的效果;使用DIV2K測試數據集(100張圖像,分辨率為1024×1024)測試網絡模型的效果。本文在HiNet代碼的基礎上不斷修改,分別調試可逆塊、卷積塊數量和參數等進行實驗測試。使用Adam優化器,λ1=5,λ2=0.5,λ3=1,learning rate=1×10-4.5,batch size=2來訓練網絡模型。整個網絡模型可逆塊數量為8,每個塊分別使用三個包含7層卷積塊的DenseNet塊作為f(·)、r(·)和y(·)。其中可逆塊的數量、損失函數的權重和DenseNet中卷積層的數量對網絡模型的隱寫能力均有影響。
本文采用兩個度量標準(隱寫效率與圖像質量)用于衡量網絡模型的隱寫能力:
1)隱寫效率 模型訓練時間(不同模型訓練相同的epoch所需的時間)以及不同模型訓練完成以后的隱寫時間(隱藏與恢復50張圖像所需要時間)。
2)圖像質量 含密圖像質量以及恢復圖像質量。含密圖像質量是指含密圖像與載體圖像之間的相似程度,恢復圖像質量是指恢復圖像與秘密圖像之間的相似程度,即PSNR與SSIM值。
2.2 隱寫效率
本文對比基于可逆網絡的圖像隱藏方法HiNet。其中,將HiNet中可逆塊數量增加到24層,命名為HiNet+,單獨訓練,將每個網絡模型訓練50個epoch,測試本文提出的輕量化模型StegaLIN、HiNet和HiNet+的訓練時間與隱寫時間。三種模型的隱寫效果對比如表1所示。
如圖4所示,通過實驗發現本文提出的網絡模型訓練時間最短。由于減少了網絡模型中可逆塊的數量并精減了網絡的整體結構,相比于HiNet訓練時間縮短46%,隱寫時間縮短28%,提高了網絡模型的隱寫效率。
2.3 圖像質量(PSNR/SSIM)
使用DIV2K驗證數據集(100張圖像,分辨率為1024×1024)驗證三個模型的含密圖像質量和恢復圖像質量。表1顯示了100張圖像的平均數值,通過對比可知,經過三個模型得到的含密圖像質量與恢復圖像質量的平均PSNR/SSIM數值接近,表明StegaLIN能夠在實現圖像的隱藏與恢復的同時保證圖像的質量,滿足隱寫的要求。
如圖5所示,載體圖像與秘密圖像在經過三個模型得到的含密圖像與恢復圖像在視覺效果上無法區別,人類肉眼無法分辨,能夠達到混淆對手的目的。
使用DIV2K測試數據集(100張圖像,分辨率為1024×1024,50張作為載體圖像,50張作為秘密圖像)測試本文網絡模型。如圖6所示,經過StegaLIN模型得到的載體圖像/含密圖像對和秘密圖像/恢復圖像對的PSNR/SSIM值發現:秘密圖像/恢復圖像對PSNR主要集中在34 dB上下波動,SSIM主要集中在0.94上下波動;載體圖像/含密圖像對PSNR主要集中在32 dB上下波動,SSIM主要集中在0.82上下波動。StegaLIN模型隱寫的準確率和安全性方面都表現出優異的效果,能夠滿足圖像隱寫的要求,驗證了StegaLIN模型的實用性。
2.4 可逆塊數量對隱寫能力的影響
本文研究了可逆塊的數量對隱寫能力的影響,本文方案中StegaLIN模型的可逆塊數量為8,Hi-Net的可逆塊數量為16,HiNet+的可逆塊數量為24,隨著可逆塊數量的增加,圖像的PSNR/SSIM數值也有所增加。圖7柱狀圖分別顯示出含密圖像質量與恢復圖像質量,即PSNR/SSIM值。當可逆塊數量為24時,圖像的PSNR/SSIM值最大,PSNR達到了35 dB左右,SSIM達到了0.94以上。但是綜合考慮訓練時間成本的成倍增加,當可逆塊數量為8時,已經達到圖像隱藏對圖像質量的要求,表明輕量級網絡結構StegaLIN能夠在取得良好的圖像質量和安全性的同時降低訓練的時間成本,提高了模型的隱寫效率。
2.5 f(·)、r(·)和y(·)不同結構對網絡的影響
由于網絡的可逆性,f(·)、r(·)和y(·)可以采用任意函數,本文中f(·)、r(·)和y(·)采用DenseNet。
HiNet中DenseNet采用的卷積塊數量為5,但是本文通過實驗發現,DenseNet中卷積層的數量對網絡的隱寫能力有一定的影響。圖8中柱狀圖顯示了不同結構的f(·)、r(·)和y(·)對應的含密圖像質量與恢復圖像質量,分析不同結構對網絡模型性能的影響。由圖8可以看出,當卷積層為7時效果最好,這也是本文在HiNet上的改進沒有延續卷積數為5,而是采用卷積數為7的f(·)、r(·)和y(·)結構的原因。
2.6 λ2值對網絡的影響
本文通過實驗發現,不同的λ2值對網絡模型隱寫圖像的質量具有一定的影響。如圖9所示,固定λ1和λ3數值不變,當λ2=0.5時網絡模型的隱寫能力最好,PSNR值達到了35.66 dB,SSIM值達到了94.95%。相比于HiNet設置λ2=8時實驗結果明顯提高,恢復圖像的質量增強,PSNR提高了1.5 dB,SSIM提高了3.5%。
2.7 隱寫分析
隱寫分析結果度量了隱寫分析工具[22]區分含密圖像和載體圖像的可能性。目前主流的隱寫分析方法可分為基于統計的傳統方法和基于深度學習的新方法兩類。
1)傳統隱寫分析工具 與文獻[8]一樣,本文使用開源的隱寫分析工具StegExpose[31]評價本文網絡模型的抗隱寫分析能力。從測試集中隨機選擇50張載體圖像和秘密圖像,通過本文網絡模型生成含密圖像XSte。為了繪制(ROC)曲線,實驗在很大范圍內改變StegExpose中的檢測閾值。圖10為網絡的ROC曲線。ROC曲線一直圍繞著隨機猜測曲線上下波動,表明檢測結果與隨機猜測相同。實驗證明StegExpose工具無法檢測由本文網絡模型生成的圖像是否為含密圖像。
2)基于深度學習的隱寫分析工具 SRNet[6]是一種用于圖像隱寫分析的網絡,可區分含密圖像和載體圖像。SRNet使用Adam優化器,輸入圖像大小統一調整為256×256,learning rate=0.001,batch size=10,epochs=180。表2給出了不同圖像隱藏方法下SRNet的檢測精度。其中,檢測精度越接近50%(隨機猜測),圖像隱藏算法性能越好。可以看出,本文網絡模型StegaLIN的檢測準確率為57.64%,顯著優于其他方法[8,32,33]。
2.8 小波變換和L低頻損失的有效性
為驗證小波變換與小波低頻損失對圖像安全性的影響,本文設計了三組實驗,分別為不進行小波變換、進行小波變換但不考慮低頻損失,以及考慮小波低頻損失。這種情況下圖像的檢測率如表3所示,其中隱寫分析模型采用了SRNet的方法。
從表3的第二和第三行可以看出,設置小波變換和低頻損失顯著提高了方法的安全性,檢測率從77.28%下降到57.64%,證明了通過設置小波變換與L低頻損失來約束網絡模型的有效性。
3 結束語
本文提出了一種基于可逆網絡的輕量化圖像信息隱藏方案,通過將可逆塊與密集連接中的卷積塊的優勢互補,在保持圖像質量的同時,縮短了模型的訓練與隱寫時間,提高了隱寫效率。通過仿真實驗與隱寫分析,說明了本文隱寫方案的可行性、安全性以及較高的隱寫效率。未來工作可專注于如何對圖像進行預處理以實現圖像的無損提取。
參考文獻:
[1]Tamimi A A,Abdalla A M A,Al-Allaf O N A.Hiding an image inside another image using variable-rate steganography[J/OL].International Journal of Advanced Computer Science and Applications,2013,4(10).http://doi.org/10.14569/JACSA.2013.041004.
[2]Boland F M,ORuanaidh J J K,Dautzenberg C.Watermarking digital images for copyright protection[C]//Proc of the 5th International Conference on Image Processing and Its Applications.Piscataway,NJ:IEEE Press,1995:326-330.
[3]Fridrich J,Goljan M,Du Rui.Detecting LSB steganography in color,and gray-scale images[J].IEEE MultiMedia,2001,8(4):22-28.
[4]黃思遠,張敏情,柯彥,等.基于自注意力機制的圖像隱寫分析方法[J].計算機應用研究,2021,38(4):1190-1194.(Huang Siyuan,Zhang Minqing,Ke Yan.Image steganalysis based on self-attention[J].Application Research of Computers,2021,38(4):1190-1194.)
[5]Pevn T,Filler T,Bas P.Usinghigh-dimensional image models to perform highly undetectable steganography[C]//Proc of International Workshop on? Information Hiding.Berlin:Springer,2010:161-177.
[6]Boroumand M,Chen Mo,Fridrich J J.Deep residual network for steganalysis of digital images[J].IEEE Trans on Information Forensics and Security,2019,14:1181-1193.
[7]Baluja S.Hiding images in plain sight:deep steganography[C]//Proc of the 31st International Conference on Neural Information Processing Systems.Red Hook,NY:Curran Associates Inc.,2017:2066-2076.
[8]Baluja S.Hiding images within images[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2020,42(7):1685-1697.
[9]Rehman A U,Rahim R,Nadeem M S,et al.End-to-end trained CNN encode-decoder networks for image steganography[EB/OL].(2017-11-20).https://arxiv.org/abs/1711.07201.
[10]Zhang Ru,Dong Shiqi,Liu Jianyi.Invisible steganography via generative adversarial networks [EB/OL].(2018-10-10).https://arxiv.org/abs/1807.08571.
[11]Hayes J,Danezis G.Generating steganographic images via adversarial training[EB/OL].(2017-07-24).https://arxiv.org/abs/1703.00371.
[12]畢新亮,楊曉元,劉文超,等.載體選擇型圖像隱寫算法研究[J].計算機應用研究,2021,38(8):2465-2468.(Bi Xinliang,Yang Xiaoyuan,Liu Wenchao,et al.Research on cover selection image steganography algorithm[J].Application Research of Computers,2021,38(8):2465-2468.)
[13]Hu Donghui,Wang Liang,Jiang Wenjie,et al.A novel image ste-ganography method via deep convolutional generative adversarial networks[J].IEEE Access,2018,6:38303-38314.
[14]Liu Jia,Zhou Tanping,Zhang Zhuo,et al.Digital cardan grille:a mo-dern approach for information hiding[EB/OL].(2018-05-11).https://arxiv.org/abs/1803.09219.
[15]Zhang K A,Cuesta-Infante A,Xu Lei,et al.SteganoGAN:high capacity image steganography with GANs[EB/OL].(2019-01-30).https://arxiv.org/abs/1901.03892.
[16]Jing Junpeng,Deng Xin,Xu Mai,et al.HiNet:deep image hiding by invertible network[C]// Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2021:4713-4722.
[17]Dinh L,Krueger D,Bengio Y.NICE:non-linear independent components estimation[EB/OL].(2015-04-10).https://arxiv.org/abs/1410.8516.
[18]Dinh L,Sohl-Dickstein J,Bengio S.Density estimation using real NVP[EB/OL].(2017-02-27).https://arxiv.org/abs/1605.08803.
[19]Kingma D P,Dhariwal P.Glow:generative flow with invertible 1×1 convolutions[EB/OL].(2018-07-10).https://arxiv.org/abs/1807.03039.
[20]Wang Yaolong,Xiao Mingqing,Liu Chang,et al.Modeling lost information in lossy image compression[EB/OL].(2020-07-08).https://arxiv.org/abs/2006.11999.
[21]Pan Zhihong.Learning adjustable image rescaling with joint optimization of perception and distortion[C]//Proc of ICASSP IEEE International Conference on Acoustics,Speech and Signal Processing.Pisca-taway,NJ:IEEE Press,2022:2455-2459.
[22]Xiao Mingqing,Zheng Shuxin,Liu Chang,et al.Invertible image resca-ling[EB/OL].(2020-05-12).https://arxiv.org/abs/2005.05650.
[23]Van der Ouderaa T F A,Worrall D E.Reversible GANs for memory-efficient image-to-image translation[C]//Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:4715-4723.
[24]Zhu Xiaobin,Li Zhuangzi,Zhang Xiaoyu,et al.Residual invertible spatio-temporal network for video super-resolution[C]//Proc of the 33rd? AAAI Conference on Artificial Intelligence? and the 31st Innovative Applications of Artificial Intelligence Conference and the 9th AAAI Symposium on Educational Advances in Artificial Intelligence.Palo Alto,CA:AAAI Press,2019:5981-5988.
[25]Ardizzone L,Lyuth C,Kruse J,et al.Guided image generation with conditional invertible neural networks[EB/OL].(2019-07-10).https://arxiv.org/abs/1907.02392.
[26]Guan Zhenyu,Jing Junpeng,Deng Xin,et al.DeepMIH:deep invertible network for multiple image hiding[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2022,45:372-390.
[27]Liu Lianshan,Tang Li,Zheng Weimin.Lossless image steganography based on invertible neural networks[J].Entropy,2022,24(12):1762.
[28]Lu Shaoping,Wang Rong,Zhong Tao,et al.Large-capacity image steganography based on invertible neural networks[C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Pisca-taway,NJ:IEEE Press,2021:10811-10820.
[29]Xu Youmin,Mou Chong,Hu Yujie,et al.Robust invertible image steganography[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:7865-7874.
[30]Agustsson E.Challenge on single image super-resolution:dataset and study[C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition Workshops.Piscataway,NJ:IEEE Press,2017:1122-1131.
[31]Boehm B.StegExpose:a tool for detecting LSB steganography[EB/OL].(2014-10-24).https://arxiv.org/abs/1410.6656.
[32]Zhu Jiren,Kaplan R,Johnson J,et al.HiDDeN:Hiding data with deep networks[EB/OL].(2018-07-26).https://arxiv.org/abs/1807.09937.
[33]Weng Xinyu,Li Yongzhi,Chi Lu,et al.High-capacity convolutional video steganography with temporal residual modeling[C]//Proc of International Conference on Multimedia Retrieval.New York:ACM Press,2019:87-95.