999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于GAN和糾錯(cuò)編碼技術(shù)的無(wú)嵌入隱寫方法

2021-01-06 19:41:29梁天一梁謙旺施秦魏蘇航蔣翠玲

梁天一 梁謙旺 施秦 魏蘇航 蔣翠玲

摘 要:為解決傳統(tǒng)的信息隱藏技術(shù)中隱寫容量小和隱寫安全性低的不足,提出了利用生成式對(duì)抗網(wǎng)絡(luò)(GAN)的無(wú)載體信息隱藏方法。首先利用噪聲驅(qū)動(dòng)生成器直接生成含密圖像,然后訓(xùn)練秘密信息提取器以恢復(fù)隱藏的秘密消息。同時(shí),進(jìn)一步優(yōu)化了提取器的訓(xùn)練任務(wù),并引入冗余糾錯(cuò)編碼技術(shù)。實(shí)驗(yàn)結(jié)果表明,相比同類方法,在大隱寫容量的情況下,具有更高的信息提取準(zhǔn)確率,同時(shí)加快了提取器的訓(xùn)練收斂速度。

關(guān)鍵詞:信息隱藏;無(wú)嵌入隱寫;生成式對(duì)抗網(wǎng)絡(luò);糾錯(cuò)編碼

中圖分類號(hào):TP39 ? ? ?文獻(xiàn)標(biāo)識(shí)碼:A

Abstract:A coverless information hiding method using Generative Adversarial Network (GAN) is proposed to address the shortcomings of the traditional information hiding techniques in terms of small hiding capacity and low security.Firstly, a generator is used to generate the digital imagedriven by the secret data directly. Next, the extractor for secret is trained to extracthidden information.At the same time, the training task of the extractor is further optimized and redundant error correction coding techniques are introduced. Compared with similar algorithms,at high steganography capacity,the proposed method ensures higher information extraction accuracy andfasterthe convergence speed intrainingstageofextractor.

Key words: information hiding; steganography without embedding; generative adversarial network; error correcting codes

隱寫是信息安全領(lǐng)域的重要技術(shù)之一,它將秘密信息嵌入到載體中以形成隱秘體,從而實(shí)現(xiàn)保密通信的目的。圖像隱寫技術(shù)大致可以分為三類:基于圖像修改的方法、基于圖像選擇的方法、基于圖像合成的方法[1]。基于載體修改的方法通過(guò)在空域或變換域?qū)υ紙D像進(jìn)行某種修改而將秘密消息嵌入到圖像中。由于對(duì)載體進(jìn)行了修改,因而得到的隱秘圖像容易被隱寫分析者檢測(cè)出來(lái),這類傳統(tǒng)的隱寫方法安全性相對(duì)較低。基于圖像選擇的方法中,發(fā)送者擁有一個(gè)固定的圖像庫(kù),將秘密信息映射成圖像庫(kù)中的新的圖像排列或組合以形成隱秘圖像。如果隱寫分析者發(fā)現(xiàn)其映射規(guī)律仍可檢測(cè)出來(lái),而且其嵌入率較低。基于圖像合成的方法是將秘密信息直接合成于載體中,因無(wú)固定載體而傳遞秘密信息,也稱為無(wú)載體信息隱藏,這類方法的安全性較高。生成式對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)[2]的出現(xiàn)使得這類方法得到了進(jìn)一步深入的研究[1]。

1 ?相關(guān)工作

傳統(tǒng)的有載體圖像隱寫技術(shù)易于被隱寫分析者檢測(cè),安全性相對(duì)較低。而無(wú)載體的信息隱藏方法由與GAN的快速發(fā)展以及安全性高的特點(diǎn),近幾年得到了快速的發(fā)展。該類方法的基本原理是將含密信息與原圖像的特征元素,比如噪點(diǎn)、顏色、像素等建立映射關(guān)系,以含密信息為驅(qū)動(dòng),生成載體圖像,從而抵御基于統(tǒng)計(jì)的隱寫分析的檢測(cè),獲得了較高的安全性。

周等[3]提出一種基于BOW(Bag-of-words)模型的無(wú)載體信息隱藏算法。該方法使用BOW模型提取圖像的視覺(jué)關(guān)鍵詞(visual words, VM)來(lái)表達(dá)秘密信息,實(shí)現(xiàn)了信息隱藏,但是需要大量的構(gòu)建碼本,存儲(chǔ)開銷大,且隱藏容量小。文獻(xiàn)[4-5]的方法避免了構(gòu)建自然圖像,采用了基于紋理圖像合成的方法實(shí)現(xiàn)信息隱藏,但該圖像由于不是“自然圖像”,容易受到攻擊方的懷疑。張等[6]的基于變換域和主題分類的無(wú)載體圖像隱寫算法,能夠抵抗現(xiàn)有隱寫算法的檢測(cè),對(duì)常用圖像處理具有更好的魯棒性和抗隱寫分析能力。劉等[7]在此基礎(chǔ)上,提出了基于輔助分類器生成對(duì)抗網(wǎng)絡(luò)ACGAN(Auxiliary Classifier GANs)[8]的無(wú)載體信息隱藏方案,利用類別標(biāo)簽與噪聲聯(lián)合驅(qū)動(dòng)生成載體圖像,實(shí)現(xiàn)了信息隱藏,該方案在抗隱寫分析的檢測(cè)和安全性方面均有不錯(cuò)的表現(xiàn),但隱寫容量低,且生成的圖像不夠清晰。胡等[9]首次提出了基于深度卷積生成對(duì)抗網(wǎng)絡(luò)DCGAN(Deep Convolutional GANs)[10]的一種新型圖像隱藏方案。該方案將秘密信息與噪聲向量建立映射關(guān)系,把預(yù)處理的秘密信息作為DCGAN的輸入,生成載體圖像,接收方利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)的提取器實(shí)現(xiàn)秘密信息的恢復(fù)。相比文獻(xiàn)[7],胡[9]的方法隱寫后的圖像質(zhì)量更高,安全性更好。張等[11]進(jìn)一步提出了一種綜合語(yǔ)義和生成對(duì)抗網(wǎng)絡(luò)的隱寫方法。該方法實(shí)現(xiàn)了秘密信息提取的高準(zhǔn)確率,但隱寫容量有限。朱等[12]利用O-GAN(Orthogonal GAN)[13]代替DCGAN作為生成器,利用判別器與U型網(wǎng)絡(luò)相結(jié)合來(lái)從含密圖像中提取秘密信息,取得更高生成圖像質(zhì)量與恢復(fù)準(zhǔn)確率。

基于文獻(xiàn)[9],對(duì)其信息提取流程進(jìn)行優(yōu)化,使得在高隱寫容量的情況下更高的秘密信息提取的準(zhǔn)確率和更快的收斂速度。同時(shí)引入了糾錯(cuò)編碼機(jī)制[14],大幅提高了信息提取的準(zhǔn)確率。

2 基于GAN的無(wú)嵌入隱寫方法及改進(jìn)

2.1 基于DCGAN的無(wú)嵌入隱寫方法

改進(jìn)的基于DCGAN的無(wú)嵌入隱寫方法分為三個(gè)階段實(shí)現(xiàn),如圖1所示。

3 實(shí)驗(yàn)與分析

3.1 實(shí)驗(yàn)環(huán)境與數(shù)據(jù)來(lái)源

3.1.1 實(shí)驗(yàn)環(huán)境

實(shí)驗(yàn)網(wǎng)絡(luò)硬件平臺(tái)為移動(dòng)版RTX2070顯卡,32GB內(nèi)存,采用PyTorch搭建神經(jīng)網(wǎng)絡(luò)。

3.1.2 數(shù)據(jù)源

實(shí)驗(yàn)計(jì)劃在兩個(gè)數(shù)據(jù)集上進(jìn)行,分別是開源的322像素的Cifar10[16]和642像素Celeb-A[17]數(shù)據(jù)集。

3.1.3 實(shí)驗(yàn)方法

第一階段首先通過(guò)隨機(jī)函數(shù)產(chǎn)生二項(xiàng)分布的比特流作為秘密信息S,將其按照2.2.1小節(jié)中步驟1、2的映射方法映射為z,輸入到兩個(gè)訓(xùn)練好的DCGAN模型中,得到50,000張322像素的圖像,50,000張642像素的圖像,作為信息提取器E的數(shù)據(jù)集的x,對(duì)應(yīng)的S作為數(shù)據(jù)集y。

第二階段將上一階段得到的數(shù)據(jù)集按照7:2:1比例劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。分別在兩種方案的網(wǎng)絡(luò)上實(shí)驗(yàn)。采用胡[9]的參數(shù),設(shè)置學(xué)習(xí)率為0.0002,使用Adam優(yōu)化器,batch大小為100,將訓(xùn)練集的所有實(shí)例訓(xùn)練完一次稱為一次訓(xùn)練,每次訓(xùn)練記錄一次訓(xùn)練集、驗(yàn)證集和測(cè)試集的損失(Loss)及準(zhǔn)確度(Acc)。E的恢復(fù)準(zhǔn)確率定義為輸出向量經(jīng)過(guò)離散化后的S'對(duì)比原S的正確率(S'與S相等的位數(shù)/S的總位數(shù)×100%)。

3.2 實(shí)驗(yàn)結(jié)果與分析

基于同一預(yù)訓(xùn)練的DCGAN的生成器,輸入相同噪聲得到一批含密圖片作為第二階段數(shù)據(jù)集,之后分別進(jìn)行文獻(xiàn)[9]中Stego→z→S與改進(jìn)后方案的Stego→S任務(wù)。通過(guò)實(shí)驗(yàn)與胡[9]的方案對(duì)比分析在不同攜帶位數(shù)σ值、不同的含密圖像大小和是否加入糾錯(cuò)編碼的條件下對(duì)秘密信息恢復(fù)準(zhǔn)確率的影響。

3.2.1 不同攜帶位數(shù)σ以及圖像大小對(duì)E的準(zhǔn)確率的影響

圖4顯示了不同σ及圖像大小對(duì)E的準(zhǔn)確率率的影響,隨著σ的增加,信息恢復(fù)的準(zhǔn)確率下降,這是由于隨著σ的增大,網(wǎng)絡(luò)輸出維度增加,恢復(fù)難度增大。同時(shí),含密圖像的像素越多,信息提取的準(zhǔn)確率越大,這是由于尺寸更大的圖像能為E提供更多的信息量。

3.2.2 在驗(yàn)證集與訓(xùn)練集上的提取器E的準(zhǔn)確率

CNN提取器E在圖像大小為642的數(shù)據(jù)集上,驗(yàn)證集與訓(xùn)練集上的Acc曲線如圖5所示。

由圖5分析可知,胡[9]的方案恢復(fù)準(zhǔn)確率是在訓(xùn)練集上的準(zhǔn)確率,高達(dá)95%以上,而交叉驗(yàn)證集的準(zhǔn)確率卻不高,σ=1時(shí)僅能達(dá)到85%左右。不過(guò)由于信息隱藏的實(shí)際應(yīng)用情況,可以針對(duì)特殊情景構(gòu)造不同的訓(xùn)練集,使得傳送的是訓(xùn)練集內(nèi)的消息,使之達(dá)到訓(xùn)練集內(nèi)恢復(fù)準(zhǔn)確率。相比原文,改進(jìn)后的方案在保持準(zhǔn)確率差距不大的情況下, 訓(xùn)練的收斂速度更快。

3.2.3 引入冗余糾錯(cuò)編碼對(duì)準(zhǔn)確率的影響

在相同數(shù)據(jù)集下,其中糾錯(cuò)碼數(shù)據(jù)集的密文長(zhǎng)度為1000×σ (bits),不使用糾錯(cuò)碼的數(shù)據(jù)集的密文長(zhǎng)度為6000×σ(bits),分別采用胡[9]中的方法與改進(jìn)后的方法進(jìn)行對(duì)比,得到在不同σ(1、2、3)情況下E的恢復(fù)準(zhǔn)確率,如表1所示。

如表1所示,隨著σ的增大,測(cè)試集的準(zhǔn)確率大幅下降,在沒(méi)有考慮糾錯(cuò)編碼時(shí),準(zhǔn)確率與胡[9]的相當(dāng)。但在胡[9]的方法中,隨著σ的增大,不同編碼的映射范圍越來(lái)越小,由E恢復(fù)得到z′,再轉(zhuǎn)換成S′的錯(cuò)誤概率會(huì)越來(lái)越大。在引入糾錯(cuò)編碼之后,改進(jìn)前后的方案的信息恢復(fù)準(zhǔn)確率都得到了大大提高。同時(shí),改進(jìn)部分提高了在σ較高的情況下的準(zhǔn)確率,這在引入糾錯(cuò)碼后更為明顯。

4 結(jié) 論

提出了一種改進(jìn)的基于GAN的無(wú)嵌入隱寫方法,優(yōu)化了信息提取器的訓(xùn)練方法,并引入了糾錯(cuò)碼機(jī)制以提高信息恢復(fù)的準(zhǔn)確率。實(shí)驗(yàn)表明,相比原方法,該方法訓(xùn)練速度更快,實(shí)現(xiàn)方便,且在隨機(jī)噪聲攜帶秘密信息比特位數(shù)多的情況下,信息恢復(fù)準(zhǔn)確率更高。在下一步工作中,可以考慮改進(jìn)糾錯(cuò)碼的機(jī)制,采用更為先進(jìn)的糾錯(cuò)機(jī)制,還可考慮進(jìn)一步優(yōu)化提取器E的結(jié)構(gòu)。

參考文獻(xiàn)

[1]劉佳,柯彥,雷雨,等.生成對(duì)抗網(wǎng)絡(luò)在圖像隱寫中的應(yīng)用[J].武漢大學(xué)學(xué)報(bào)(理學(xué)版),2019,65(2):139-152.

[2]GOODFELLOW I, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C]. Advances in Neural Information Processing Systems. 2014: 2672-2680.

[3]周志立,曹燚,孫星明.基于圖像Bag-of-Words模型的無(wú)載體信息隱藏[J].應(yīng)用科學(xué)學(xué)報(bào),2016,34(5):527-536.

[4]XU Jia-yi, MAO Xiao-yang, JIN Xiao-gang, et al. Hidden message in a deformation-based texture[J]. The Visual Computer, 2015, 31(12): 1653-1669.

[5]WU Kuo-chen, WANG Chung-ming. Steganography using reversible texture synthesis[J]. IEEE Transactions on Image Processing, 2014, 24(1): 130-139.

[6]ZHANG Xiang, PENG Fei, LONG Min. Robust coverless image steganography based on DCT and LDA topic classification[J]. IEEE Transactions on Multimedia, 2018, 20(12): 3223-3238.

[7]劉明明,張敏情,劉佳,等.基于生成對(duì)抗網(wǎng)絡(luò)的無(wú)載體信息隱藏[J].應(yīng)用科學(xué)學(xué)報(bào),2018,36(2):371-382.

[8]ODENA A, OLAH C, SHLENS J. Conditional image synthesis with auxiliary classifier gans[C]. International Conference on Machine Learning,2017: 2642-2651.

[9]HU Dong-hui, WANG Liang, JIANG Wen-jie, et al. A novel image steganography method via deep convolutional generative adversarial networks[J]. IEEE Access, 2018, 6: 38303-38314.

[10]RADFORD A, METZ L, CHINTALA S. Unsupervised representation learning with deep convolutional generative adversarial networks[J]. arXiv preprint arXiv:1511.06434, 2015.

[11]ZHANG Zhuo, FU Guang-yuan, NI Rong-rong, et al. A generative method for steganography by cover synthesis with auxiliary semantics[J]. Tsinghua Science and Technology, 2020, 25(4): 516-527.

[12]朱翌明, 陳帆, 和紅杰, 等. 基于秘密信息驅(qū)動(dòng)的正交 GAN 信息隱藏模型[J]. 應(yīng)用科學(xué)學(xué)報(bào), 2019,37(5):721-732.

[13]SU Jian-lin. O-GAN: Extremely concise approach for auto-encoding generative adversarial networks[J]. arXiv preprint arXiv:1903.01931, 2019.

[14]宗橙. 糾錯(cuò)編碼原理和應(yīng)用[M]. 北京:電子工業(yè)出版社, 2003.

[15]馬永輝,徐長(zhǎng)勇,平西建,等.基于糾錯(cuò)碼的信息隱藏及其實(shí)現(xiàn)方法[J].計(jì)算機(jī)應(yīng)用研究,2012,29(7):2686-2689.

[16]KRIZHEVSKY A. Learning multiple layers of features from tiny images[R]. Technical Report,University of Toronto,Canada,2009.

[17]LIU Zi-wei, LUO Ping, WANG Xiao-gang, et al. Deep learning face attributes in the wild[C].Proceedings of the IEEE International Conference on Computer Vision,2015: 3730-3738.

主站蜘蛛池模板: 国产午夜人做人免费视频中文| 喷潮白浆直流在线播放| 亚洲天堂伊人| 国产精品极品美女自在线看免费一区二区| 国产成人高清精品免费软件| 色亚洲激情综合精品无码视频| 久久99热这里只有精品免费看| 国产91小视频在线观看| 一区二区三区在线不卡免费 | 欧美天天干| 噜噜噜久久| 国产国拍精品视频免费看| 亚洲AV成人一区二区三区AV| 亚洲男人的天堂在线观看| 国产第一福利影院| 亚洲欧美日韩综合二区三区| 亚洲精品在线影院| 99视频精品在线观看| 久久综合色视频| 福利一区三区| 亚洲精品波多野结衣| 午夜人性色福利无码视频在线观看| 一级毛片在线播放免费观看| 婷婷丁香色| 国产精品香蕉| 凹凸国产分类在线观看| 九九九九热精品视频| 免费观看精品视频999| 欧美一级高清视频在线播放| 欧美成人精品在线| 久久香蕉国产线看精品| 国产在线观看91精品| 国产精品亚欧美一区二区三区| 亚洲区欧美区| 国产va在线观看免费| 日本黄网在线观看| 午夜国产不卡在线观看视频| 99久久精品美女高潮喷水| 99热最新在线| 欧美爱爱网| 久草视频中文| 中文字幕人成人乱码亚洲电影| 国产成人精品亚洲日本对白优播| 亚洲Av综合日韩精品久久久| 72种姿势欧美久久久大黄蕉| 久久青草热| 国产1区2区在线观看| 欧美色伊人| 日本手机在线视频| 国产一在线观看| 欧美激情网址| 中文字幕 日韩 欧美| 狠狠色丁香婷婷| 国产在线拍偷自揄拍精品 | 国产黄色免费看| 青青草国产精品久久久久| 91精品啪在线观看国产91九色| 国产剧情伊人| 国产亚洲欧美日本一二三本道| 最新国产精品鲁鲁免费视频| 国产成人一区在线播放| 国产网友愉拍精品| 暴力调教一区二区三区| 91久久国产综合精品女同我| 国产熟女一级毛片| 欧美曰批视频免费播放免费| 国产精品久久久久鬼色| 久久国产精品麻豆系列| a级毛片一区二区免费视频| 国产午夜不卡| 国产极品美女在线| 亚洲无限乱码| 国产精品人莉莉成在线播放| 尤物精品视频一区二区三区| 国产香蕉在线| 亚洲综合网在线观看| 国产精品深爱在线| 成年午夜精品久久精品| 91青青草视频在线观看的| 999福利激情视频| 四虎国产精品永久一区| 六月婷婷激情综合|