999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多示例學習圖卷積網(wǎng)絡的隱寫者檢測

2024-04-30 08:07:46鐘圣華
自動化學報 2024年4期
關鍵詞:特征用戶檢測

鐘圣華 張 智,2

圖像隱寫者檢測技術是一項通過對用戶傳播的圖像進行綜合分析、偵測,來發(fā)現(xiàn)那些試圖將隱秘信息隱藏在圖片中進行隱秘通信的隱寫者的信息安全技術.在真實的社交網(wǎng)絡中,隱寫者檢測十分困難.一方面,基于圖像的隱寫算法可以幫助隱寫者在不改變圖像外觀的前提下,將隱秘信息嵌入圖像中.另一方面,隱寫者使用隱寫術和有效載荷[1]等相關參數(shù)往往是無法預知的,這進一步增加了隱寫者檢測的難度.與試圖捕獲載密圖像和載體圖像之間的差異的隱寫分析方法不同,隱寫者檢測更關注隱寫者與非隱寫者之間的差異.

現(xiàn)有的隱寫者檢測方法中,為了模擬真實場景中隱寫者數(shù)量遠遠少于正常用戶的情況,常常假設在測試的過程中,用戶中只有一個隱寫者存在,采用異常檢測或排序的方法將預測的隱寫者概率最高的用戶作為隱寫者進行輸出.

因此,通用的隱寫者檢測方法通常由兩部分組成: 特征提取和基于特征的聚類或離群值檢測.Ker 等[1]首次將隱寫者檢測轉換為聚類問題進行研究,從每張圖像中提取PEV-274 特征[2],并使用最大平均差異計算每對用戶之間的距離,再通過層次聚類算法來區(qū)分隱寫者與非隱寫者.此后,Ker等[3-4]進一步改進之前的工作,用局部離群值因子方法代替層次聚類算法,計算用戶的異常程度并進行排序,異常值最高的用戶被檢測為隱寫者.2016 年,Li 等[5]提出使用高階聯(lián)合特征作為圖像的隱寫分析特征,并集成多個層次聚類器來檢測隱寫者.2017 年,Zheng 等[6]首次提出一種基于深度學習方法的隱寫者檢測框架,使用深度殘差網(wǎng)絡來提取圖像特征,最后使用聚合性層次聚類算法識別隱寫者.2018 年,Zheng 等[7]進一步改進特征提取模型,并提出一種用于隱寫者檢測任務的多分類深度神經(jīng)網(wǎng)絡,與傳統(tǒng)方法和其他深度學習方法相比,該模型在標準數(shù)據(jù)集上實現(xiàn)了最好的性能.盡管這些方法的特征提取部分有所不同,但是在用戶表征、用戶之間相似性的度量和可疑用戶的檢測等步驟沒有本質差異.在這些方法中,每名用戶的表征由其所分享的所有圖像的特征分布拼接而成,在此基礎上,計算用戶的特征分布之間的相似度,找出與其他用戶差異較大的用戶,進而確定隱寫者.2020 年以來,Zhang 等[8-9]將用戶分享的圖像及其相關關系建模成圖,提出相似性累積圖卷積單元,能夠增強相似特征分布,從而發(fā)現(xiàn)載密圖像構成的子圖,對其進行加權,以獲得更有效的用戶表征,這也是迄今為止唯一使用圖神經(jīng)網(wǎng)絡模型進行隱寫者檢測的方法.

本文將隱寫者檢測形式化成多示例學習(Multiple-instance learning,MIL)任務,并提出基于多示例學習圖卷積網(wǎng)絡的隱寫者檢測算法(Steganographer detection algorithm based on multiple-instance learning graph convolutional network,MILGCN).該算法通過共性增強圖卷積網(wǎng)絡(Graph convolutional network,GCN) 有效增加正示例的共性特征,通過注意力示例包表征模塊自適應地構建更具有區(qū)分力的示例包表征,并設計多示例學習損失約束.與現(xiàn)有算法相比,提升了空域和頻域、已知和未知隱寫術等多種隱寫策略情況下的隱寫者檢測準確率.相比于Zhang 等[8-9]的工作,本文提出一種新的基于圖的用戶表征模型,能夠針對不同嵌入策略做到對分享的圖像數(shù)量魯棒.相比于文獻[8-9]中基于規(guī)則構建的圖重建和邊池化方法,本文提出自適應的圖構建和歸一化方法,并通過損失進行約束,自適應地攻擊不同隱寫策略;相比于文獻[8-9]中將節(jié)點視為同等重要的展平讀出和平均讀出,本文進一步設計新的圖讀出方式,能夠載密圖像構建具有區(qū)分力的圖表征.

本文內(nèi)容安排如下: 第1 節(jié)回顧圖神經(jīng)網(wǎng)絡的相關工作;第2 節(jié)給出基于多示例學習的通用隱寫者檢測方法的詳細介紹;第3 節(jié)給出一系列實驗,以驗證提出方法的有效性;第4 節(jié)對全文工作進行總結,并給出進一步的研究思路.

1 圖神經(jīng)網(wǎng)絡的相關工作

最近,基于深度學習的方法已經(jīng)在圖結構數(shù)據(jù)的分類和聚類任務上獲得了成功的應用,實際應用領域包括惡意軟件分析、圖像分類、動作識別、物體分類等[10].其中,圖卷積網(wǎng)絡通過將適用于分析歐氏數(shù)據(jù)結構的傳統(tǒng)卷積神經(jīng)網(wǎng)絡泛化到圖等非歐結構數(shù)據(jù)上,實現(xiàn)了圖結構上的卷積運算,取得了顯著的研究進展并獲得了廣泛的關注.在這些方法中,圖卷積方法通常被分為兩類,即基于譜域的圖卷積方法和基于空域的圖卷積方法[9].

譜域圖卷積方法源于譜圖理論,可以看作傅立葉變換在圖上的推廣[11].該類方法通過對拉普拉斯矩陣的特征分解,定義了圖上的拉普拉斯變換和拉普拉斯逆變換.該工作通過傅立葉變換將圖變換到譜域進行卷積,再通過傅立葉逆變換將卷積結果變換回圖.在此基礎上,Defferrard 等[11]進一步提出一種卷積核的多項式近似方法,將節(jié)點聚合信息的范圍限制在k階鄰居節(jié)點內(nèi).在此基礎上,Kipf 和Welling[12]將節(jié)點聚合信息的范圍限制在一階鄰域內(nèi),再次對卷積計算進行近似,提出最為常用的圖卷積網(wǎng)絡.

與基于譜域的方法不同,基于空域的方法并未將圖映射到傅立葉域,而是將卷積操作形式化為一種“塊級操作”,基于這種塊級操作,卷積操作通過聚合塊級區(qū)域(圖上的每個節(jié)點及其鄰域) 的信息構建新的節(jié)點特征表示.2017 年,Hamilton 等[13]提出GraphSAGE 并將圖結構數(shù)據(jù)上的卷積操作形式化為三個主要步驟,利用對節(jié)點排列具有不變性的函數(shù)(如均值、和、極大值等) 聚合節(jié)點的鄰域信息.2018 年,Ying 等[14]提出一個可微分的圖池化網(wǎng)絡DiffPool,來生成層次化的圖的表征.通過可微分的方式,模型能夠自適應地對圖中的節(jié)點進行池化,從而得到新的表征.最近,注意力機制在圖深度學習領域取得了突出的成就,這類方法使用注意力機制為重要的節(jié)點、鄰居節(jié)點和特征賦予更高的權重.2018 年,Veli?kovi? 等[15]提出圖注意力網(wǎng)絡(Graph attention network,GAT),在該模型中,注意力機制被用于計算在聚合來自鄰居節(jié)點的信息時不同鄰居節(jié)點的權重值.近年來的研究表明,基于譜域的圖卷積方法和基于空域的圖卷積方法并不是完全對立的,一些譜域的方法能夠形式化為在空域應用某種卷積核進行卷積.

2 基于多示例學習圖卷積網(wǎng)絡的隱寫者檢測框架

多示例學習是有監(jiān)督學習中的一種特殊形式.相比于對一系列獨立標注的樣本進行分類,在多示例學習任務中,學習器以一系列被標注的包(Bag)作為輸入,每個包包含若干個未標注的樣本,即示例(Instance)[16-19].如果包中的所有示例都為負樣本,那么這個包則被標注為負包.另一方面,如果包中含有至少一個正示例,則包被標記為正包.在隱寫者檢測任務中,只要用戶分享的圖像中包含至少一張載密圖像,則這個用戶就應當被檢測為隱寫者.只有當用戶分享的所有圖像都為載體圖像時,用戶應當被判別為正常用戶.毋庸置疑,隱寫者檢測任務的目標和多示例學習在本質上是一致的.因此,本文將隱寫者檢測任務形式化為多示例學習任務.

本文提出的基于多示例學習圖卷積網(wǎng)絡的隱寫者檢測算法,將社交網(wǎng)絡中的用戶及其分享的圖像作為輸入,區(qū)分隱寫者和正常用戶.如圖1 所示,在多示例學習的框架下包含4 個主要組成部分,即特征提取網(wǎng)絡、共性增強圖卷積網(wǎng)絡、注意力示例包表征網(wǎng)絡和分類網(wǎng)絡.需要注意的是,本文提出的模型在訓練和測試過程中有所不同.在訓練過程中,以示例包的分類作為目標,所以構建的是分類網(wǎng)絡.在測試過程中,采用與以往隱寫者檢測一致的實驗設置,即將預測的隱寫者概率最高的用戶作為隱寫者輸出.

圖1 基于多示例學習圖卷積網(wǎng)絡的隱寫者檢測框架Fig.1 Steganographer detection framework based on multiple-instance learning graph convolutional network

首先使用基于多類別深度神經(jīng)網(wǎng)絡的隱寫者檢測(Multiclass deep neural networks based steganographer detection,MDNNSD)[7],針對用戶分享的每一張圖像提取特征,得到用戶對應的特征集合 {x1,···,xn}.這里,將提取到的特征表示為橙色圓角矩形,其中第i個圓角矩形表示用戶分享的第i張圖像所對應的特征.接著,將特征作為示例包中的示例,將特征集合作為示例包,構建圖結構.其中,紫色圓柱表示示例所對應的特征,圓柱的高度表示特征的維度,紫色圓柱之間的連線代表圖結構中的連接示例特征的邊.在圖結構上進行卷積,實現(xiàn)示例特征的分析和降維,降維的過程使用箭頭指示.在多次卷積后,可以得到分析和降維后的特征集合 {t1,···,tn}.這里,將得到的示例特征按順序排列,繪制為新的紫色圓柱.在此基礎上,使用注意力圖讀出計算每個示例特征的重要程度,并根據(jù)重要程度對示例特征進行加權,加權后的結果使用不同深淺的紫色圓柱表示.最終,對加權后的示例特征進行匯總,得到圖的表征,并使用箭頭指示得到的示例包表征ux.之后,將示例包表征輸入由藍色示意圖表示的多層感知器中,得到隱寫者和正常用戶.在表1 中,給出了模型中使用的主要變量的介紹.

表1 使用的變量符號及對應說明Table 1 The variable symbols and their corresponding descriptions

2.1 基于多分類擴張殘差網(wǎng)絡進行示例表征

本文致力于設計新的隱寫者檢測方法,而對單張圖像的表征,本文直接使用目前最前沿隱寫者檢測中的特征提取方法,即MDNNSD[7],來從每張分享圖像中提取特征向量.具體來說,在Zheng 等[7]的工作中,使用包含特征提取器μ:Mcha×h×w(R)→M1×d(R) 和分類器π:M1×d(R)→M1×cls(R) 的多分類擴張殘差網(wǎng)絡.其中,c ha,h,w分別表示輸入多分類擴張殘差網(wǎng)絡的圖像的通道數(shù)、高度和寬度,d表示MDNNSD 提取的特征維度數(shù),cls 表示MDNNSD 預測得到的樣本屬于某類的概率中的類別數(shù).這里,本文使用MDNNSD 中的特征提取器μ對用戶x分享的第i張圖像Ii進行特征提取,得到用戶x分享的第i張圖像Ii的特征xi=μ(Ii).對于分享了n張圖像的用戶x,本文使用用戶分享的所有圖像對應的特征向量 {x1,···,xn} 共同構成用戶x所對應的示例包的表征.

2.2 使用共性增強圖卷積網(wǎng)絡進行示例分析

隱寫者嵌入秘密信息的過程中有多種批量隱寫策略.對于固定的有效載荷,隱寫者可能將有效載荷分散在多數(shù)分享圖像中,以降低每張載密圖像的嵌入信息量,從而降低被發(fā)現(xiàn)的可能;也可能挑選少數(shù)分享圖像,集中嵌入秘密信息,通過大量的載體圖像遮掩載密圖像的存在.然而,現(xiàn)有的隱寫者檢測工作通常將用戶分享的每張圖像視為從相同分布中獨立采樣的個體,用戶分享的所有圖像的特征分布作為用戶的特征表征,從而計算用戶之間的差異并將異常用戶作為隱寫者.而當載密圖像占比較小或是載密圖像包含的嵌入信息較少時,隱寫者的表征將與正常用戶的表征極為相近,無法有效檢測出隱寫者.

為了解決該問題,依托于本文對隱寫者檢測的多示例學習的形式化,提出共性增強圖卷積網(wǎng)絡進行示例分析,利用批量圖像間的相關關系增強用戶表征中的正示例的模式特征.相關工作已經(jīng)表明,在多示例學習任務中,示例包中的示例并不是獨立存在的,每個示例都和包中的其他示例有千絲萬縷的聯(lián)系.對示例間的依賴關系進行建模,有利于提取并增強相互關聯(lián)的正示例的共性特征,凸顯出其與負示例共性特征的差異.在隱寫者檢測任務中,示例(用戶所分享圖像)相關關系無疑也是客觀存在的,例如,隱寫者傳播的載密圖像也可能共享相似的隱寫方法或者有效載荷.利用這一特點,本文提出一種示例分析方法,增強示例包(用戶)中正示例(載密圖像) 的共有模式特征,使之與負示例(正常圖像)的模式特征區(qū)分開,進而能夠簡化發(fā)現(xiàn)包含正示例的正示例包(隱寫者)的任務.

然而,這些關聯(lián)關系屬于非歐的數(shù)據(jù)結構,無法使用基于歐氏空間的深度學習方法進行建模.因此,目前仍鮮有基于深度學習的相關工作利用這種關聯(lián)關系完成多示例學習任務.

本文提出用圖對這種數(shù)據(jù)結構進行表示,將包Bx中的示例 {x1,···,xn} 作為節(jié)點,將節(jié)點之間的關聯(lián)關系建模為邊,進而使用圖卷積來處理節(jié)點間的關聯(lián)信息.在此基礎上,提出共性增強圖卷積模塊,并使用λb個共性增強圖卷積模塊對示例包中的示例進行分析.具體而言,共性增強圖卷積模塊的結構如圖2(a)所示,下面將具體介紹共性增強圖卷積模塊的構成.

圖2 隱寫者檢測框架中兩個模塊((a) 共性增強圖卷積模塊;(b) 注意力讀出模塊)Fig.2 Two modules in steganographer detection framework ((a) The commonness enhancement graph convolutional network module;(b) The attention readout module)

1) 構建示例包的圖結構

共性增強圖卷積模塊的第一步是構建示例包的圖結構.示例包的圖結構可以分為兩部分: 一部分是選取示例表征中與特定模式相關的特征作為圖結構中的圖節(jié)點,另一部分是根據(jù)圖節(jié)點之間的關聯(lián)關系創(chuàng)建圖結構中的邊.只有構建的圖結構準確表達示例間關聯(lián)關系時,圖卷積模塊才能利用示例間的關聯(lián)關系完成學習任務.

目前,圖卷積領域的研究已經(jīng)在圖構建問題上取得了一定進展,大多數(shù)工作將給定的特征向量作為節(jié)點,致力于針對節(jié)點特征提出相似度度量方法,例如歐氏距離、余弦相似度、熱核函數(shù)等方法,從而構建節(jié)點間的邊.然而,相似度度量方法的設計往往依賴于先驗知識和專家系統(tǒng),面對復雜多樣的數(shù)據(jù)特征,很難通過事先設計來表達不同語義、含義抽象的多種關聯(lián)關系.因此,本文提出一種可學習的節(jié)點表征和相似度度量方法,通過反向傳播訓練模型自適應地構建圖結構.

具體而言,對于共性增強圖卷積模塊的第i個輸入示例特征vi,首先設計特征提取函數(shù)f:M1×d(R)→M1×d′(R) 對d維特征向量vi進行變換,得到d′維特征向量hi=f(vi) 作為節(jié)點i的特征表示.其中,特征提取函數(shù)f包括一個全連接層和一個線性整流單元(Rectified linear unit,ReLU).在訓練過程中,通過優(yōu)化函數(shù)f中的參數(shù),模型將自適應地提取vi中與檢測目標相關的模式特征.

接著,使用向量內(nèi)積計算不同節(jié)點中與任務相關的模式特征的交互,作為節(jié)點間關聯(lián)關系的表征.具體來說,對于節(jié)點i和節(jié)點j,使用f(vi)fT(vj) 表示節(jié)點之間的關聯(lián)關系,并且使用Sigmoid 函數(shù)將其歸一化到(0,1)范圍內(nèi).數(shù)學上,對于一個有n個示例的示例包,本文使用n×n維的鄰接矩陣A表示圖結構中的邊.對于不同示例之間可能存在不同程度的關聯(lián)關系,本文使用Aij表示邊的權重

由上式可知,Aij是一個0 到1 之間的實數(shù),其中0表示示例i與示例j完全不相關,而1 表示兩節(jié)點完全相關.

2) 利用圖卷積聚合示例間的共性特征

共性增強圖卷積模塊的第二步是根據(jù)步驟1)中構建的圖結構,對示例包中的示例進行卷積運算,聚合當前示例和具有相近模式特征的示例,并提取公共的模式特征.

參照現(xiàn)有圖卷積領域的研究成果[12],本文類比歐氏空間中的卷積運算定義了示例包對應的圖結構上的卷積運算.具體而言,將與當前示例節(jié)點處于同一包內(nèi)的其他示例節(jié)點定義為卷積運算的鄰域.接著,使用上文中計算得到的示例節(jié)點之間邊的權重作為權,對鄰域內(nèi)的示例節(jié)點的特征向量進行加權平均,將得到的新特征向量作為當前示例節(jié)點的表征.由式(1) 可知,與當前節(jié)點模式特征相關聯(lián)的鄰居節(jié)點將具有更大的權重.為了在卷積運算中保留當前節(jié)點自身的特征,本文在卷積運算的基礎上,以常數(shù) 1 作為權重,為當前節(jié)點添加了自環(huán),共同參與卷積運算.最終,節(jié)點i的聚合結果ri可以由下式計算得到

其中,Ni表示節(jié)點i的一階鄰居節(jié)點.不難發(fā)現(xiàn),式(2)等價于

其中,H表示用戶分享圖像的特征構成的矩陣,R為聚合后的特征矩陣.在式(3)中,如果示例節(jié)點i與示例包中的較多示例相關,那么ri將會較大.否則,如果示例節(jié)點i與其他示例節(jié)點都不相關,那么ri將會較小.相關工作表明,在這種情況下,特征矩陣H與鄰接矩陣A相乘會使得特征向量hi的尺度發(fā)生變化.經(jīng)過多次卷積之后,這種數(shù)值變化可能會造成數(shù)值不穩(wěn)定、梯度爆炸或彌散等問題.因此,本文限制了hi的數(shù)值區(qū)間,并對聚合結果進行歸一化.在式(3)的基礎上,卷積層被形式化為

其中,D是圖上的度矩陣,,通過使用度矩陣進行對稱歸一化,能夠消除示例包中與當前示例相關的數(shù)量對卷積運算結果的數(shù)值范圍產(chǎn)生的影響,從而有利于模型收斂.

最后,參照現(xiàn)有圖卷積領域的研究成果[12],本文類比歐氏空間中卷積運算的權重共享機制,使用一個參數(shù)矩陣W對聚合結果進行仿射變換,提取聚合結果中與隱寫者檢測相關的示例間共享的模式特征,數(shù)學上可以表示為

其中,W表示對聚合結果進行仿射變換的可訓練的參數(shù)矩陣,特別地,本文使用Xavier 方法對其進行了初始化.

3) 使用圖歸一化解決深層圖卷積過平滑問題

相比于單層圖卷積網(wǎng)絡,多層圖卷積網(wǎng)絡能夠顯著地大幅度提高模型性能.然而,多層圖卷積會導致輸出的特征產(chǎn)生過平滑的問題,使得不同類別的節(jié)點特征變得不可區(qū)分.在深度學習領域中,現(xiàn)有工作普遍認為歸一化技術能夠有效解決深層網(wǎng)絡的訓練問題.其中,批量歸一化被廣泛應用在深度學習模型中,在批量維度進行歸一化操作.然而,這些方法無法被直接應用在圖卷積網(wǎng)絡中.近年來,一些現(xiàn)有工作提出了圖上的歸一化方法.目前,圖歸一化被認為能夠有效地抑制深層圖卷積過程中的過平滑問題.因此,本文使用一種用于多示例學習的新型圖歸一化方法.

一方面,本文不希望在圖卷積運算后,示例包內(nèi)的節(jié)點表征趨于一致,即示例包內(nèi)的節(jié)點的特征分布塌縮到向量空間中的一點,因此本文提出在圖卷積運算后對包內(nèi)示例節(jié)點的特征分布進行重整,重新將示例包中示例的特征向量縮放到模長為1 的向量空間內(nèi).另一方面,為防止均值偏移過大導致出現(xiàn)神經(jīng)元壞死現(xiàn)象,本文同時矯正示例特征向量所處向量空間的均值.數(shù)學上,歸一化后的示例節(jié)點的特征向量si可以表示為

其中,Ni為圖中第i個示例節(jié)點的所有鄰居節(jié)點.

實驗過程中發(fā)現(xiàn),在多示例學習中,示例包內(nèi)示例特征的均值信息和尺度信息分別獨立地對模型性能產(chǎn)生影響.在一個示例包內(nèi),當所有或大多數(shù)示例的特征向量都帶有正示例的模式或者負示例的模式時,示例特征的均值能夠有效幫助區(qū)分該示例包.在一個示例包內(nèi),當其同時包含數(shù)量相當?shù)恼纠拓撌纠龝r,示例包內(nèi)示例特征的方差較大,則說明示例包內(nèi)同時包含兩種示例,即必然包含正示例,因此示例包的方差也能夠有效區(qū)分該示例包.綜合上述兩點,相比于傳統(tǒng)的先進行均值歸一化,再將均值歸一化的結果進行尺度歸一化的圖歸一化方法,本文將均值歸一化和尺度歸一化解耦,同時基于輸入節(jié)點特征向量rj進行歸一化.

接著,本文使用ReLU 對示例包內(nèi)歸一化后的示例節(jié)點特征si進行激活,得到示例包和示例表征,S=[ReLU(s1),···,ReLU(sn)]T.

4) 使用殘差連接計算新的示例表征

由于圖像內(nèi)容的差異,圖中的一些節(jié)點與其他同類節(jié)點特征的相似度較小,因此,其對應的特征可能會在多層卷積中丟失.為緩解該問題,本文參照相關工作構建一個殘差連接層,將共性增強圖卷積模塊的輸入特征H直接與圖歸一化的輸出特征S相連.數(shù)學上,可以將殘差連接層定義為

其中,T表示殘差連接操作的輸出特征矩陣,T=[t1,···,tn]T,其中ti為共性增強圖卷積模塊輸出的第i個示例特征.

2.3 基于注意力的示例包表征

在使用共性增強圖卷積網(wǎng)絡進行示例分析后,為對示例包進行正確檢測,還需要根據(jù)示例特征構建示例包的特征表示.本文將用戶x經(jīng)過共性增強圖卷積模塊的輸出表示為Zx=[z1,···,zn]T.其中,zi對應于第i張圖片進行示例分析后的特征表示.現(xiàn)有的隱寫者檢測工作通常將用戶分享的每張圖片視為同等重要的個體,根據(jù)用戶分享的所有圖像的特征分布作為用戶的特征分布,計算用戶之間的差異并檢測異常用戶作為隱寫者.然而,在載密圖像占比較小或是載密圖像包含的嵌入信息較少的情況下,隱寫者的表征將與正常用戶的表征極為相近,無法有效檢測出隱寫者.

為解決該問題,本文依托對隱寫者檢測任務的多示例學習形式化,提出注意力示例包表征模塊,自適應地構建更具有區(qū)分力的示例包表征.與多示例學習的定義一致,只要示例包中包含至少一個正示例,該示例包就應當被判定為正示例包.因此,帶有正示例模式特征的示例包,在表征和示例包檢測的過程中應當被予以更多的關注.基于上述考慮,本文設計注意力讀出模塊(圖2(b)),根據(jù)示例中包含的正負示例模式對示例包中的示例賦予不同權值,形成示例包的表征.

為自適應地識別示例包中符合正示例模式特征的示例,并對其施加更顯著的注意力,本文使用注意力計算函數(shù)g(·) 來根據(jù)示例的特征分布計算其對應示例在示例包表征過程中的重要程度.其中注意力計算函數(shù)g(·) 包括兩個全連接層,在第一個全連接層后,使用ReLU 作為激活函數(shù).在訓練過程中,模型通過調(diào)整g(·) 中的訓練參數(shù),將能夠針對符合正示例模式特征的示例輸出更高的數(shù)值.

在此基礎上,使用Softmax 函數(shù)對示例包中所有示例的重要程度進行歸一化,得到每個示例在表征示例包過程中的權重得分pi

接著,使用式(8)中計算得到的權重值作為權,以示例包中每個示例特征的加權平均作為示例包的表征ux

相比于現(xiàn)有工作中使用平均、合并等方法建立的示例包表征,本文提出的示例包表征方法能夠自適應地學習并對正示例賦予更高的權重,從而提高示例包表征的區(qū)分能力.

2.4 基于多種損失約束的示例包分類

在得到基于注意力的示例包表征ux之后,將其送入由一個全連接層和一個Softmax 激活函數(shù)構成的分類器,最終完成示例包的分類任務.需要注意的是,本文提出的模型其訓練過程和測試過程有所不同,在訓練過程中,以示例包的分類作為目標,而在測試的過程中,采用與以往隱寫者檢測一致的實驗設置,即將預測的隱寫者概率最高的用戶作為隱寫者輸出.

本文設計的模型MILGCN 在優(yōu)化過程中是端到端的,即,使用多個損失函數(shù)加權求和,并將得到的損失進行反向傳播,更新網(wǎng)絡中的所有模塊.在訓練分類模型的過程中,所使用的損失函數(shù)由三部分構成

其中,Lbag為多示例分類損失,Lentropy為熵正則損失,Lcontrastive為對比學習損失.λ1,λ2,λ3為三個超參數(shù),分別表示多示例分類損失、熵正則損失和對比學習損失作為訓練目標的權重.下面分別介紹三個損失函數(shù).

多示例分類損失: 多示例分類損失用于指導模型對隱寫者和正常用戶進行正確分類.復雜的樣本特征可能會導致這些示例(圖像)的預測結果有較大偏差,對于最終分類結果的意義有限,并不能得到令人滿意的包的預測結果.與此相反,相比于注重示例的準確性,多示例學習更注重包的預測標簽是否符合真實標簽.因此,本文提出一個多示例分類損失來優(yōu)化圖卷積神經(jīng)網(wǎng)絡.如式(11)所示,使用包(用戶)的二分類邏輯損失來優(yōu)化模型,使最終輸出結果能夠對隱寫者和正常用戶進行分類

其中,Yi表示第i個用戶(包)的標簽,模型預測其為隱寫者的概率為ρi,m表示用戶(包)的總數(shù)量.多示例分類損失忽略單個示例類別的不確定性,而更重視全局信息,這增強了整個框架的魯棒性.

熵正則損失: 熵正則損失用于指導模型在根據(jù)示例表征構建示例包表征的過程中,利用先驗信息抓取帶有正示例模式特征的示例,構建示例包的表征.現(xiàn)有的隱寫者檢測相關工作已經(jīng)表明,隱寫者在分享圖像和嵌入秘密信息的過程中有多種策略選擇.對于固定的有效載荷,隱寫者可能將有效載荷分散在多數(shù)分享圖像中,每張載密圖像的嵌入信息較少,這時,關注盡可能多的分享圖像,即使用分享圖像特征的均值作為用戶表征能夠更有效地檢測隱寫者.隱寫者也可能將有效載荷分散在少數(shù)分享圖像中,每張載密圖像的嵌入信息較多,這時,關注盡可能少的分享圖像,使用最有嫌疑的圖像特征作為用戶表征則更為高效.

盡管本文設計的注意力模塊能夠自適應地學習攻擊不同的隱寫策略,能夠通過學習判別應當關注的示例,但是,當隱寫者檢測人員明確知曉訓練集合中隱寫者使用的嵌入策略時,本文也提供了損失函數(shù)融入隱寫者檢測人員對于嵌入策略的先驗知識,幫助模型更快收斂,提升模型性能

其中,λe為超參數(shù),當隱寫者檢測人員認為隱寫者更可能將有效載荷分散在較少的分享圖像中時,λe將被設置成+1.通過最小化Lentropy,模型將學習給出低熵的示例包構建方式,即,以更大的概率對盡可能少的正示例賦予更大權重,作為示例包的表征.這種損失設計有利于模型在正示例占比較低時,仍能分辨出其中正示例的模式特征.反之,當隱寫者檢測人員認為隱寫者更可能將秘密信息以較低有效載荷分散在較多的分享圖像中時,λe將被設置成-1.通過最小化Lentropy,模型將學習給出高熵的示例包構建方式,即,使用盡可能多的正示例特征相互佐證,檢測隱寫者.

對比學習損失: 對比學習損失用于引導模型在提取示例特征、構建示例包的過程中,盡量保留示例間的關聯(lián)關系和差異性.對比學習旨在將包含同類模式特征(例如正示例特征)的示例表征映射到向量空間中相近的區(qū)域,對包含不同類別模式特征的示例表征進行區(qū)分,映射到相距較遠的區(qū)域,從而幫助構建有效的圖結構進行示例分析和示例包表征.

正如上文中提到的,由于圖像特征的復雜性,直接對示例的模式特征進行約束可能會導致因圖像內(nèi)容的差異而得到不令人滿意的映射函數(shù).因此,相比于直接使用示例特征進行引導,本文受到多示例學習的啟發(fā),通過引導模型保留同類示例包間的相似性、不同類示例包間的差異性,間接地迫使模型保留作為示例包組成部分的主要示例特征間的相似性和差異性.最終,提出對比學習損失

其中,?(i,j) 為指示函數(shù),用于指示示例包i和示例包j是否為同一類別的示例包.當示例包i和示例包j同時為正示例包或負示例包時,?(i,j)=1;當示例包i和示例包j中的一個為正示例包、一個為負示例包時,?(i,j)=0.當示例包屬于同一類別時,對比學習損失最小化兩示例包表征間的歐氏距離‖ui-uj‖2,提高同類示例包特征及其包含示例特征的相似性.當示例包不屬于同一類別時,對比學習損失最小化兩示例包表征間的歐氏距離的相反數(shù)-‖ui-uj‖2,提高不同類別示例包特征及其包含示例特征的差異性.因此該損失可以最大化不同類別示例包間的差異,最小化相同類別示例包間的差異,以區(qū)分不同類別的示例和示例包.

3 實驗評估

為驗證所提出的模型,本文在兩個隱寫者檢測基準數(shù)據(jù)集上進行一系列驗證實驗.首先,使用隱寫者檢測基準數(shù)據(jù)集對所提出的MILGCN 模型在隱寫者使用不同隱寫術時的檢測性能進行驗證.在空域中,本文在標準數(shù)據(jù)集BOSSbase ver 1.01[20]上進行實驗,對不同方法檢測使用空域隱寫術的隱寫者的性能進行對比分析.在頻域中,使用JPEG算法在80 質量因子的參數(shù)下對BOSSbase ver 1.01上的圖像進行壓縮,將其中的圖像轉換為JPEG 圖像,并在得到的BOSSbase ver 1.01 JPEG 基準數(shù)據(jù)集上進行實驗[21],對不同方法檢測使用頻域隱寫術的隱寫者的性能進行對比分析.與之前隱寫者檢測的已有工作一致,本文使用的方法和對比方法都采用真陽性率進行評估.

本文在實驗過程中對比分析了大量不同隱寫者檢測算法.其中包括: 結合傳統(tǒng)隱寫分析模型SRMQ1[22]與層次聚類的隱寫者檢測框架SRMQ1_SD,目前最前沿的隱寫者檢測方法MDNNSD,結合基于生成對抗網(wǎng)絡(Generative adversarial network,GAN) 的隱寫方法SSGAN[23]與層次聚類的隱寫者檢測框架得出的SSGAN_SD,多示例學習任務中的前沿方法MILNN[24],著名的基于圖的模型GAT[15]、GraphSAGE[13]、AGNN[25]、GCN[12]和DiffPool[14],以及迄今為止唯一用于隱寫者檢測任務的基于圖的深度學習模型SAGCN.其中,MDNNSD 是基于深度學習提取特征,再與傳統(tǒng)的聚類方法結合的隱寫者檢測方法[7].相比于其他現(xiàn)有隱寫者檢測方法,例如PEV_SD 和基于最前沿隱寫分析方法XuNet[26]構建的隱寫者檢測框架XuNet_SD,MDNNSD 取得了最好的隱寫者檢測性能.因此,本文選取MSD 作為代表,進行著重的對比分析.近年來,基于GAN 的隱寫術和隱寫分析技術取得了巨大的成功,因此,本文將已有的基于GAN 的隱寫方法SSGAN 與層次聚類的隱寫者檢測方法結合,得到隱寫者檢測框架SSGAN_SD,來對本文提出的模型與基于GAN 的隱寫者檢測模型進行對比.特別地,在對比過程中,本文使用GAN 方法學習得到的判別器被用作特征提取器,用來從用戶分享的圖像中提取隱寫分析特征,并在此基礎上使用MMD 距離度量用戶表征之間的差異,并使用層次分析算法來檢測隱寫者.為說明本文設計的MILGCN 在圖結構和圖卷積方向上的性能提升,本文對比了Zhang 等[8-9]設計的SAGCN 模型,并使用著名的基于圖的方法(例如GAT、GraphSAGE、AGNN、GCN 和DiffPool) 中的圖卷積層替換SAGCN框架中的核心部分——相似度累積圖卷積單元,來與其他基于圖的深度學習算法進行比較.

就實驗設置而言,在對本文提出的網(wǎng)絡結構進行驗證時,將MILGCN 中共性增強圖卷積模塊的數(shù)量λb設置為2 個,并使用λ1=1.0 作為多示例分類損失的權重,λ2=0.01 作為熵正則損失的權重,λ3=0.01作為對比學習損失的權重.這三種損失函數(shù)的權重設置遵循重要性原則,多示例分類損失是為之后的檢測服務的,是本文的任務目標,因此其權重比其他兩種大.另外,將權重值在{-10,-1,-0.10,-0.01, 0.01, 0.10, 1, 10}范圍中進行搜索,選取較好的結果.在訓練階段,本文使用隨機梯度下降法來最小化損失函數(shù),初始學習率設置為0.001,動量設置為0.9.本文還使用L2 正則化以避免過擬合并提高泛化能力,并將正則化項的權重設置為0.01.本文的實驗設置與基于圖卷積的隱寫者檢測方法SAGCN[8-9]基本相同,唯一的區(qū)別是本文中設計的MILGCN 模型無須使用序列訓練方法,即可有效收斂并檢測使用不同有效載荷的隱寫者.在實驗過程中,給定基準數(shù)據(jù)集BOSSbase ver 1.01 和BOSSbase ver 1.01 JPEG,首先使用實驗中所探究的隱寫術,從0.5 到0.05 的嵌入率,生成載體圖像對應的載密圖像.對于每種嵌入率,分別有20 000張載體圖像和載密圖像.每個批次的訓練中生成50 個正常用戶,每個用戶分享200 張從20 000 張載體圖像中有放回抽樣得到的載體圖像;生成50 個隱寫者,每個隱寫者分享200 張從20 000 張載密圖像中有放回抽樣得到的載密圖像.本文在訓練集上訓練80 輪,每輪訓練包含600 個批次,每個批次包含100 個用戶樣本,因此共60 000 個用戶混合在一起隨機打亂,作為訓練集訓練MILGCN.在測試階段,每次實驗中的用戶數(shù)量被設置為100,包括1 名隱寫者和99 名正常用戶,每個用戶分享200 張圖像.該實驗設置模擬了真實環(huán)境中經(jīng)常出現(xiàn)的現(xiàn)象,即在眾多用戶中只有1 名隱寫者或者不存在隱寫者.在不同實驗中,使用不同的隱寫術和有效載荷生成隱寫者分享的載密圖像,使用的隱寫術包括: SUNIWARD[27]、HUGO-BD[28]、WOW[29]、MiPod[30]、J-UNIWARD[27]、nsF5[31]、UERD[32]等.與之前已有的隱寫者檢測工作一致,所有的統(tǒng)計實驗都重復100 次,并在文中匯報平均的檢測準確率,即真陽率.衡量嵌入率的單位分為空域的bpp (Bit per pixel)和頻率域的bpnzAC (Bit per non zero DCT coefcient),前者表示每像素嵌入的比特數(shù),后者表示每個非零的DCT 系數(shù)中嵌入的比特數(shù).此外,本文中的全部模型及實驗使用PyTorch 在4 張Tesla V100上完成.

3.1 基于空域的隱寫者檢測性能評估與對比

3.1.1 已知隱寫術情況下的隱寫者檢測

在本節(jié)中,本文在最常使用的隱寫者檢測基準數(shù)據(jù)集BOSSbase ver 1.01 上進行初步實驗,在已知測試階段圖像隱寫者所使用的隱寫術的條件下,對所提出的模型的效率和效果進行檢驗.具體而言,隱寫者檢測基準數(shù)據(jù)集BOSSbase ver 1.01 中包含10 000 張自然圖像的灰度圖,其尺寸為512×512像素.根據(jù)之前隱寫分析和隱寫者檢測任務的通用實驗設置[7-9,33],本文將數(shù)據(jù)集中的每張圖像切分為4 個互相不重疊子圖,其中子圖的尺寸為256×256像素.與前文描述的將所有載荷的樣本進行訓練不同,在此實驗的訓練階段,只使用S-UNIWARD 隱寫術在給定有效載荷下對每張載體圖像嵌入秘密信息得到對應的載密圖像,進而將得到的載體圖像和載密圖像組合為用戶作為訓練樣本.在訓練階段的每個批次中,本文采樣50 名正常用戶,每名正常用戶分享200 張載體圖像,并采樣50 名隱寫者,每名隱寫者分享200 張載密圖像,每輪訓練采樣100 個批次的用戶對模型進行優(yōu)化.

同樣地,測試樣本由剩余的20 000 張圖像使用同樣的方法構成.在測試階段的每次實驗中,被測方法被要求從100 名用戶中檢測出1 名隱寫者.特別地,本文在20 000 張載體圖像中隨機選擇200 張載體圖像對應的載密圖像,構成1 名圖像隱寫者,剩余的19 800 張載體圖像被隨機選擇并分配給99個正常用戶.為驗證在隱寫者檢測人員已知隱寫者使用的圖像隱寫術時本文提出方法的有效性,在本節(jié)實驗中保持測試階段隱寫者使用的圖像隱寫術與訓練階段相同.即,在訓練階段,本文隱寫者使用SUNIWARD 作為圖像隱寫術嵌入秘密信息生成載密圖像,在生成的60 000 個用戶中,隱寫者使用的有效載荷包括0.05 bpp、0.1 bpp、0.2 bpp、0.3 bpp、0.4 bpp 和0.5 bpp.在測試階段,隱寫者分享的每張圖像中同樣只包含使用S-UNIWARD 圖像隱寫術嵌入的秘密信息.本文分別在5 種不同的有效載荷上進行測試,其中包括0.05 bpp、0.1 bpp、0.2 bpp、0.3 bpp 和0.4 bpp.

如表2 所示,本文首先對比隱寫者檢測中的相關工作.根據(jù)相關工作[7],MDNNSD 和XuNet_SD這些隱寫分析方法直接用于隱寫者檢測任務的檢測結果對比,會取得更好的檢測效果.然而,與現(xiàn)有的在實驗環(huán)境中進行研究的隱寫者檢測任務不同,在實際應用中,圖像隱寫者通常會使用批量隱寫術,將秘密信息分散在多張圖像中,使用較小的嵌入率在每張圖像中嵌入秘密信息,從而隱蔽自己.所以本文更關注在困難情況下,即當有效載荷較低時,不同方法是否能夠檢測出圖像隱寫者.因此,本文進一步對比圖卷積神經(jīng)網(wǎng)絡在隱寫者檢測中的應用效果.正如上文所提到的,當有效載荷小于0.1 bpp時,SAGCN、MILGCN 和其他基于圖深度學習的模型都能夠取得比MDNNSD 更好的性能.與之相對的是,本文提出的MILGCN 進一步超越了SAGCN,在有效載荷為0.05 bpp 的困難情況下取得了更好的隱寫者檢測效果.盡管生成對抗網(wǎng)絡在很多領域取得了突破進展[34-41],但SSGAN_SD 效果較差,這主要是因為SSGAN 原本設計的目的是通過對抗訓練得到一種自適應的隱寫術而不是得到隱寫分析模型,因此在設計過程中,相對于其他工作,SSGAN_SD 的判別器結構簡單、判別能力差.

表2 已知隱寫者使用相同圖像隱寫術(S-UNIWARD) 時的隱寫者檢測準確率(%),嵌入率從0.05 bpp 到0.4 bppTable 2 Steganography detection accuracy rate (%)when steganographers use the same image steganography(S-UNIWARD),while the embedding payload is from 0.05 bpp to 0.4 bpp

正如上文所提到的,本文創(chuàng)新性地提出將隱寫者檢測任務形式化為多示例學習問題,從而開辟了將現(xiàn)有多示例學習方法應用于隱寫者檢測任務的路徑.因此,本文進一步將此前Pevny 等[24]提出的最優(yōu)的多示例學習神經(jīng)網(wǎng)絡應用在隱寫者檢測問題中進行對比.具體而言,一方面,本文沿用Pevny 等[24]在論文中匯報的設置,自行在隱寫者檢測問題上復現(xiàn)其提出的方法,將該方法稱為MILNN-self,并提供了MILNN-self 的隱寫者檢測性能.另一方面,本文也參考并應用Github 社區(qū)中實現(xiàn)的Pevny 等[24]提出的方法,并提供了其在隱寫者檢測任務上的實驗結果,后者稱其為MILNN-git.值得注意的是,MILNN-git 中的模型實現(xiàn)與Pevny 等[24]的工作略有不同,其模型包含了一個隱藏層、一個平均最大池化層和兩個輸出單元,除了最后一個輸出單元使用Tanh 作為激活函數(shù)外,所有隱藏層使用Sigmoid作為激活函數(shù),模型在訓練過程中最小化交叉熵損失.實驗結果表明,MILNN-git 能夠在隱寫者檢測問題上取得比MDNNSD 更好的效果.同時,無論隱寫者使用的有效載荷如何變化,本文提出的多示例學習圖卷積網(wǎng)絡都強于任何版本的MILNN 多示例學習模型.

除此以外,本文還比較了傳統(tǒng)圖歸一化方法和本文提出的新型圖歸一化方法.具體而言,將本文中使用的歸一化方法修改為傳統(tǒng)圖歸一化方法(即先進行均值歸一化再將均值歸一化的結果進行尺度歸一化),得到MILGCN-MF 模型作為對比方法.從表2 中可以看出,在隱寫者使用的有效載荷較高時(大于等于0.1 bpp),MILGCN-MF 和MILGCN 的性能沒有差異,都能夠有效檢測出100 名用戶中包含的隱寫者,這表明在簡單情況下,兩種歸一化方法都能夠有效地幫助模型構建具有區(qū)分能力的示例表征.但是,當有效載荷較低時(為0.05 bpp),MILGCN-MF 的性能產(chǎn)生了約 30% 的下滑.當隱寫者分享的有效載荷較低時,正示例包和負示例包分布相近,特征差異不明顯.在這種情況下,使用原有的圖歸一化方法導致性能下降,意味著先進行均值歸一化再進行方差歸一化使得部分特征的區(qū)分能力丟失.與此相對,本文提出的圖歸一化方法能夠記錄原始特征中的均值和方差,在歸一化的過程中保留和識別特征分布間的差異,得到更好的檢測效果.

最近還有一些新的隱寫分析方法被提出,如果不采用層次聚類的方法將其改造為隱寫者檢測方法,而是使用其隱寫分析模型的輸出概率作為每張圖像是載密圖像的概率,并使用用戶的所有圖像預測為載密圖像的平均概率作為該用戶為隱寫者的概率,也可以得到與最新的隱寫分析方法相比較的結果.具體而言,在訓練階段,隱寫者使用S-UNIWARD作為圖像隱寫術,隱寫者檢測模型學習在正常用戶中檢測使用0.2 bpp 嵌入率對分享圖像嵌入秘密信息的隱寫者.這里,隱寫者分享的圖像均為載密圖像,正常用戶分享的圖像均為載體圖像.在測試階段,模型需要從100 名用戶中找出1 名隱寫者.其中,每名用戶分享200 張圖像,隱寫者仍然使用SUNIWARD 作為圖像隱寫術,使用0.2 bpp 嵌入率對分享圖像嵌入秘密信息.根據(jù)實驗的不同,隱寫者分享的載密圖像可能占比其分享的所有圖像的10%、3 0%、5 0%、9 0% 或 1 00%.本文進行100 次實驗,并記錄模型在隱寫者檢測過程中的平均準確率,如表3 所示.在SRNet-AVG 方法中,本文將SRNet[42]直接用于隱寫者檢測,預測用戶分享的每一張圖像可能是載密圖像的概率,并使用該用戶的每一張圖像預測為載密圖像的平均概率作為該用戶為隱寫者的概率.在SRNet-MILGCN 方法中,使用本文提出的MILGCN 作為隱寫者檢測算法,將SRNet 提取的特征作為MILGCN 的輸入預測用戶為隱寫者的概率.由表3 可見,無論使用哪種方法,模型都能夠在載密圖像占比超過 1 0% 的情況下有效檢測出隱寫者.這是由于隱寫者使用的隱寫術和有效載荷已知,訓練好的SRNet 能夠較為準確地檢測出使用該隱寫術和載荷嵌入秘密信息的載密圖像.當隱寫者分享的載密圖像較多時,數(shù)量眾多的載密圖像容易被SRNet 檢測到,從而使得隱寫者區(qū)別于正常用戶.而當載密圖像占其分享的所有圖像比例較低時,SRNet-AVG 和SRNet-MILGCN 都產(chǎn)生了較大的性能下滑,相比于SRNet-AVG,本文提出的SRNet-MILGCN 取得了接近 1 0% 的性能提升,表明本文設計的模型能夠更好地對抗將隱秘信息嵌入較少圖像的批量隱寫策略.這是由于MILGCN 能夠利用共性增強圖卷積網(wǎng)絡和注意力圖讀出模塊自適應地突出示例包中正示例的模式特征,構建示例包表征進行分類.在這種設計下,正示例所對應的載密圖像的模式特征更容易被模型發(fā)現(xiàn).

表3 當測試階段隱寫者使用相同隱寫術(S-UNIWARD)和分享的載密圖像數(shù)量占總圖像數(shù)量為10%到100%時,SRNet-AVG 和SRNet-MILGCN 的檢測成功率 (%)Table 3 The accurate rate (%) of SRNet-AVG and SRNet-MILGCN when the number of shared secret images is from 10% to 100% of the total number of images and the steganographer uses the same steganography(S-UNIWARD) in test

3.1.2 對用戶分享圖像數(shù)量變化的探究

在真實應用場景的社交網(wǎng)絡中,用戶分享的圖像數(shù)量是海量的.因此,本文進一步松弛現(xiàn)有工作在實驗中對用戶分享的圖像數(shù)量的約束,在隱寫者檢測任務上進行實驗來研究用戶分享的圖像數(shù)量對隱寫者檢測性能的影響.具體而言,本節(jié)保持其他設置與第3.1.1 節(jié)中的實驗設置相同,驗證當用戶分享圖像的數(shù)量為100、200、400 和600 張時,模型檢測使用不同有效載荷在分享圖像中嵌入秘密信息的隱寫者的性能.

如表4 所示,當隱寫者使用大于0.1 bpp 的有效載荷在分享圖像中嵌入秘密信息時,無論隱寫者分享的圖像數(shù)量如何變化,本文提出的MILGCN和Zhang 等[8-9]設計的SAGCN 都能夠準確地檢測出隱寫者,這說明本文提出的方法對用戶分享圖像數(shù)量的變化具有魯棒性.當有效載荷等于或小于0.1 bpp 時,發(fā)現(xiàn)所有方法對隱寫者的檢測性能隨著用戶分享圖像數(shù)量的減少而下降.這種現(xiàn)象是由于當隱寫者分享的圖像數(shù)量或有效載荷較少時,隱寫者在分享圖像中嵌入的秘密信息的總量較少,這使得隱寫者的特征分布與正常用戶的特征分布差異較小,更加難以區(qū)分.同時,由于隱寫者和用戶都分享了較少的圖像,圖像數(shù)量的不足使得圖像間的關聯(lián)信息十分有限,模型難以利用這些關聯(lián)關系增強用戶所對應的示例包中正示例的公共特征,進而導致模型無法區(qū)分隱寫者與眾多正常的用戶.

表4 當用戶分享不同數(shù)量的圖像時,使用MILGCN和SAGCN 進行隱寫者檢測的準確率(%),嵌入率從0.05 bpp 到0.4 bppTable 4 Steganography detection accuracy rate (%)of MILGCN and SAGCN when users share different numbers of images,while the embedding payload is from 0.05 bpp to 0.4 bpp

盡管如此,無論用戶分享的圖像數(shù)量如何變化,本文設計的MILGCN 都能夠超過此前最佳隱寫者檢測算法SAGCN,取得令人滿意的效果.值得注意的是,當用戶分享的圖像數(shù)量為600 張時,即使隱寫者使用非常低的有效載荷,即0.05 bpp 的有效載荷嵌入秘密信息,本文提出的MILGCN 依然能夠聚合分散在示例包中正示例的模式特征,對用戶形成具有區(qū)分能力的示例包表征,并對隱寫者進行正確檢測.

3.1.3 隱寫術未知情況下對使用比例嵌入策略的隱寫者檢測

在本節(jié)中,進一步放寬兩個基礎假設.一方面,檢測者在對社交網(wǎng)絡中用戶分享的圖像進行分析時,無法預知隱寫者使用的圖像隱寫術.因此,本文放寬了圖像隱寫者在訓練階段和測試階段使用的圖像隱寫術為相同隱寫術的假設,探討在隱寫術錯配情況下本文提出模型的隱寫者檢測性能.另一方面,在真實應用場景中,隱寫者可能使用批量圖像隱寫策略,在分享的圖像中同時分享載體圖像和載密圖像以防止自己被發(fā)現(xiàn).因此,本文放寬了隱寫者分享的圖像都是載密圖像的假設,探究隱寫者分享的圖像中載密圖像占某一比例時模型的隱寫者檢測性能.

具體而言,在訓練階段,隱寫者仍使用S-UNIWARD 作為圖像隱寫術.S-UNIWARD 在隱寫、隱寫分析、隱寫者檢測任務中被認為是更為通用的設置,常常用來作為訓練模型中載密數(shù)據(jù)所使用的隱寫術,在本文對比方法SAGCN 中,也采用其作為隱寫術未知情況下的實驗設置.隱寫者檢測模型學習在正常用戶中檢測使用0.5 bpp、0.4 bpp、0.3 bpp、0.2 bpp、0.1 bpp 或0.05 bpp 嵌入率對分享圖像嵌入秘密信息的隱寫者.這里,隱寫者分享的圖像均為載密圖像,正常用戶分享的圖像均為載體圖像.

在測試階段,隱寫者將其使用的圖像隱寫術替換為與訓練階段不同的隱寫術,特別地,本文中研究探討的錯配隱寫術包括現(xiàn)階段圖像隱寫術和隱寫者檢測領域普遍使用的HUGO-BD、WOW、HILL和MiPOD 等.在每次實驗中,模型需要從100 名用戶中找出1 名隱寫者.其中,每名用戶分享200張圖像,隱寫者使用的有效載荷為0.2 bpp,根據(jù)實驗的不同,隱寫者分享的載密圖像可能占比其分享的所有圖像的 1 0%、3 0%、5 0%、9 0% 或 1 00%.本文進行100 次實驗,并記錄模型在檢測隱寫者過程中的平均準確率.

圖3 展示了當隱寫者在測試階段使用不同圖像隱寫術時不同方法檢測隱寫者的性能.容易發(fā)現(xiàn),在圖像隱寫術錯配的情況下,無論隱寫者選擇使用何種圖像隱寫術,當隱寫者分享的載密圖像占其分享圖像的數(shù)量 1 00% 時,所有基于圖的模型都能夠正確檢測出隱寫者.此外,還可以發(fā)現(xiàn)所有隱寫者檢測方法的性能都隨著隱寫者分享的載密圖像占比的升高而升高,這是由于當隱寫者分享的載密圖像占比較低時,隱寫者分享的圖像大部分為自然圖像,即載體圖像,在這種情況下,隱寫者的表征將與正常用戶非常接近,模型難以正確區(qū)分隱寫者和正常用戶.然而,即使在隱寫者分享的載密圖像占比低于 5 0% 的情況下,本文提出的MILGCN 依然能夠取得較好的效果.特別的是,在大多數(shù)情況下,MILGCN 的檢測準確率曲線覆蓋了其他方法的檢測準確率曲線,這說明MILGCN 能夠取得比SAGCN及其他基于圖的隱寫者檢測方法更好的性能.這是由于本文提出的MILGCN 是針對隱寫者檢測問題的多示例學習形式化提出的,在設計過程中考慮了正示例占比較低的情況,能夠使用共性增強圖卷積網(wǎng)絡來增強示例包中正示例的公共模式特征,并使用基于注意力的示例包表示選擇識別到的正示例模式特征作為示例包表征,從而區(qū)分正負示例包.實驗結果表明,本文提出的方法對不同隱寫術具有良好的泛化性,在隱寫者分享的載密圖像占比較低時也能取得較好的檢測性能.從圖3 中還可以發(fā)現(xiàn),GCN 的性能稍差于SAGCN,而當隱寫者分享的載密圖像占比較低時,AGNN 檢測隱寫者的準確率都是最低的,這種差異源自于圖結構的構建方式不同.MILGCN 依托于示例節(jié)點特征間的內(nèi)積計算節(jié)點的關聯(lián)關系,在損失函數(shù)約束下,正示例的特征分布相近,并與負示例的特征分布區(qū)分開,因而具有共性的示例節(jié)點關聯(lián)關系更強,在此基礎上,在圖卷積過程中,正示例間的共性特征被增強,從而使得模型能夠構建具備區(qū)分力的用戶表征.而GCN和SAGCN 基于熱核函數(shù)計算節(jié)點之間的相似度,當隱寫者分享的圖像中同時包含載體圖像和載密圖像時,載密圖像和載體圖像所對應圖結構中的節(jié)點特征相似度較小,而載密圖像之間或載體圖像之間的節(jié)點特征相似度較大,在圖卷積過程中,相似的節(jié)點可以識別和累積載密圖像節(jié)點間共有的模式特征,從而區(qū)分隱寫者和正常用戶的分布差異.與之相反的是,AGNN 在構建圖的過程中,利用的是注意力機制,在訓練過程中,隱寫者分享的圖像均為載密圖像,這導致AGNN 缺少對構建載體圖像與載密圖像關聯(lián)關系的泛化能力,因而性能下降.此外,GraphSAGE 使用采樣方法和平均聚合器來構建節(jié)點的鄰域并進行卷積運算,如果載體圖像與載密圖像之間差異較大,其能夠學習到邊的權重,累積同類節(jié)點的特征.但對于譬如HILL 這樣難以攻擊的隱寫術,載密圖像與載體圖像之間特征分布相近,所以GraphSAGE 的效果也會有所下降,而本文提出的MILGCN 泛化性能最好.

圖3 當測試階段隱寫者使用不同隱寫術、分享的載密圖像數(shù)量占總圖像數(shù)量的10%到100%時,不同的基于圖的隱寫者檢測方法檢測準確率Fig.3 The accurate rate of different graph-based steganographer detection methods when the number of shared secret images is from 10% to 100% of the total number of images and the steganographer uses different steganography in test

除此以外,探討一下本文的方法在什么比例下將完全失效.首先對“完全失效”進行定義,當從100 個用戶中檢測1 名隱寫者的成功率接近 1 % 時,模型的檢測性能等同于隨機猜測的性能,可以認為模型完全失效.在此基礎上,本文添加了實驗,探討在用戶分享的載密圖像占比較低時,模型的檢測性能是如何接近完全失效的.這里,保持本節(jié)中實驗的設置不變,測試隱寫者分享的載密圖像占其分享的所有圖像 5 % 時模型的檢測性能.本文進行100次實驗,并記錄模型在檢測隱寫者過程中的平均準確率,實驗結果如表5 所示.

表5 在隱寫術錯配情況下,當分享的載密圖像數(shù)量占比5%時,MILGCN 取得的隱寫者檢測準確率(%)Table 5 Steganography detection accuracy rate (%) in the case of steganography mismatch when the number of shared secret images is 5% of the total number of images

可以發(fā)現(xiàn),MILGCN 在隱寫術錯配的情況下,對于較為容易攻擊的隱寫術HUGO-BD,即使在載密圖像占比僅為 5 % 的情況下,仍有 6% 的成功率能夠檢測出隱寫者.當隱寫者使用MiPOD 隱寫術時,MILGCN 僅能夠以 3% 的成功率檢測出載密圖像占比為 5 % 的隱寫者,檢測性能接近完全失效的性能.可見 5 % 的載密圖像占比是非常困難的檢測場景,因此建議將本文提出的方法用于隱寫者分享的圖像占比超過 5 % 的場景中.

上文中都使用S-UNIWARD 作為訓練數(shù)據(jù)的圖像隱寫術,這主要是因為本文希望在訓練模型時,即使只使用一種隱寫術得到載密圖像,訓練得到的模型也可以在其他隱寫術得到的載密圖像組成的測試集上取得不錯的結果.而S-UNIWARD 在隱寫、隱寫分析、隱寫者檢測任務中,被認為是更為通用的設置,因而常常拿它來作為訓練模型中載密數(shù)據(jù)所使用的隱寫術,在本文的重要對比方法SAGCN中,也采用其作為隱寫術未知情況下的實驗設置,綜合上述原因,本文也采用了這樣的設置.在表6中,添加了使用HILL 作為訓練數(shù)據(jù)的隱寫術實驗.選擇HILL 的原因如下: 1) 在隱寫術中,HILL 被認為是安全性能最高,也是最難攻破的隱寫術,各種隱寫分析算法在其上的準確率較低;2) 與S-UNIWARD 相比,HILL 的嵌入概率圖完全不同,因此,可以進一步檢測本文所提方法的泛化能力.具體而言,在訓練階段,隱寫者使用HILL 作為圖像隱寫術,隱寫者檢測模型學習在正常用戶中檢測使用0.5 bpp、0.4 bpp、0.3 bpp、0.2 bpp、0.1 bpp 或0.05 bpp 嵌入率對分享圖像嵌入秘密信息的隱寫者.這里,隱寫者分享的圖像均為載密圖像,正常用戶分享的圖像均為載體圖像.在測試階段,隱寫者使用HUGO-BD、WOW、HILL、MiPOD 等多種隱寫術,嵌入率為0.2 bpp.在每次實驗中,模型需要從100 名用戶中找出1 名隱寫者.其中,每名用戶分享200 張圖像,根據(jù)實驗的不同,隱寫者分享的載密圖像可能占比其分享的所有圖像的 10% 或 30%.本文進行100 次實驗,并記錄模型在檢測隱寫者過程中的平均準確率.

表6 訓練模型使用HILL 作為隱寫術,分享的載密圖像數(shù)量占比10%或30%,MILGCN取得的隱寫者檢測準確率(%)Table 6 Steganography detection accuracy rate (%)when the steganography used for training is HILL and the number of shared secret images is 10% or 30% of the total number of images

為更好地展示本文示例包表征過程與結果,對用戶所對應示例包的圖表征進行可視化.首先,繪制不同用戶對應示例包的圖結構示意圖.如圖4(a)所示,在隱寫術未知情況下對使用比例嵌入策略的隱寫者檢測的實驗中,隨機選擇一名使用MiPOD作為隱寫術的隱寫者,其分享的載密圖像占比 70%.繪制這名用戶分享圖像所對應示例包的圖結構示意圖.其中,節(jié)點表示分享的圖像,節(jié)點上的數(shù)字1 表示該圖像為載密圖像,數(shù)字0 表示該圖像為載體圖像.節(jié)點間使用邊相連,帶有顏色的加粗邊表示具有緊密關聯(lián)關系的圖像.通常,載密圖像之間關聯(lián)緊密(對應紅色加粗邊),都具有隱寫所帶有的模式特征,部分正常圖像可能由于具有相同的紋理(對應藍色加粗邊),也相互關聯(lián).這時,該圖結構在第一層圖卷積中的鄰接矩陣如圖4(b) 所示.其中,深紅色代表較大的鄰接矩陣元素值,白色代表較小的鄰接矩陣元素值.可以發(fā)現(xiàn),當用戶為隱寫者且分享的載密圖像較多時,模型能夠學習構建鄰接矩陣,將較多的載密圖像相互關聯(lián),提取和增強其共有的正示例模式特征.為與隱寫者的圖結構進行對比,隨機選擇一名正常用戶進行可視化.如圖4(c) 所示,正常用戶分享的圖像都為載體圖像(用數(shù)字0標注),部分載體圖像間具有相同的模式特征.該圖結構在第一層圖卷積中的鄰接矩陣如圖4(d) 所示,可以發(fā)現(xiàn),相比于隱寫者對應的圖結構,正常用戶的圖結構中因為不存在載密圖像,因此節(jié)點間的關聯(lián)關系較弱,部分載體圖像間存在關聯(lián)關系,共同增強了負示例特征.可視化結果表明本文所提模型能夠按照預期工作,從而區(qū)分隱寫者和正常用戶.

圖4 隱寫者和正常用戶所對應圖結構的可視化Fig.4 Visualization of graph structures corresponding to steganographer and normal user

除此以外,本文還進一步測試將隱寫者檢測問題形式化為分類問題情況下的正檢率和誤檢率

其中,TP表示模型預測為隱寫者中的真實隱寫者數(shù)量,FP表示模型預測為隱寫者中的正常用戶數(shù)量,TN表示模型預測為正常用戶中的正常用戶數(shù)量.具體而言,在訓練階段隱寫者使用S-UNIWARD作為圖像隱寫術,嵌入率為0.4 bpp,在測試階段隱寫者分享的載密圖像占比為 0 %、50% 和 100%,閾值為0.5、0.7、0.9,本文使用被測方法預測每名用戶屬于隱寫者的概率,并將概率高于閾值的用戶輸出為隱寫者.可以發(fā)現(xiàn),當隱寫者分享的載密圖像占比為 0 % 時,正檢率都不存在(因為此時隱寫者也表現(xiàn)為正常用戶,用戶中不存在應當被檢測到的隱寫者),閾值為0.5 時,誤檢率為 7.98%;閾值為0.7 時,誤檢率為 0.87%;閾值為0.9 時,誤檢率為 0 %.當隱寫者分享的載密圖像占比為 50% 時,閾值為0.5 時,正檢率為 10.29%,誤檢率為 8.10%;閾值為0.7 時,正檢率為 37.33%,誤檢率為 0.95%;閾值為0.9 時,正檢率為NaN (表示非數(shù)),誤檢率為 0 %.當隱寫者分享的載密圖像占比為 100% 時,閾值為0.5 時,正檢率為 10.79%,誤檢率為 8.34%;閾值為0.7 時,正檢率為 58.82%,誤檢率為 0.71%;閾值為0.9 時,正檢率為NaN,誤檢率為 0 %.從該結果可以發(fā)現(xiàn),當隱寫者分享的載密圖像占比為 50% 和 100% 時,模型的正檢率隨著閾值的提高而提高,當閾值為0.7 時,模型的正檢率以較大差值超過了閾值為0.5時的正檢率.這主要受益于本文提出的網(wǎng)絡結構和損失函數(shù)設計,正常用戶被預測為隱寫者的概率相對較低,隨著閾值的提高這些用戶被判別為正常用戶,而隱寫者被預測為隱寫者的概率相對較高,盡管閾值提高,這些用戶仍然能被判別為隱寫者.而當閾值為0.9 時,模型將所有用戶預測為正常用戶,此時TP+FP為零,故正檢率不為實數(shù).這意味著雖然相對于正常用戶,隱寫者被正確預測為隱寫者的概率較高,但當閾值提高到0.9 時,模型對隱寫者的預測概率小于閾值.這是由于相對于豐富的圖像內(nèi)容而言,圖像中嵌入的秘密信息難以被識別,模型很難以較高的置信度來區(qū)分隱寫者與正常用戶.值得注意的是,將其形式化為分類問題時首先需要判定未知用戶是否存在隱寫者,并在某個閾值水平下正確檢測出隱寫者.這需要對隱寫者預測的置信度具有較高的絕對水平,而原有的隱寫者檢測定義只需要模型在隱寫者預測的置信度上具有較高的相對水平(相對于正常用戶) 即可.因此,使用分類問題來度量更加困難,計劃在未來工作中進一步研究和探討如何提升隱寫者預測置信度的絕對水平.

3.2 基于頻域的隱寫者檢測性能評估與對比

在本節(jié)中,本文進一步考慮隱寫者檢測中的跨域問題.現(xiàn)有工作通常使用BOSSbase ver 1.0.1 的JPEG 版本來檢測當圖像隱寫者使用頻域隱寫術在JPEG 圖像的頻率系數(shù)中嵌入信息時不同隱寫者檢測方法的檢測性能.因此,在本節(jié)中,將上文中的實驗設置擴展到頻率域.具體而言,首先將BOSSbase ver 1.0.1 中的圖像切分成4 個互不重疊的子圖,每張子圖的尺寸為 2 56×256 像素.進一步,利用MATLAB 中的imwrite 函數(shù),使用JPEG 算法在80 質量因子參數(shù)下對每張被切分的子圖進行壓縮,并使用頻域圖像隱寫術生成對應的載密圖像.在隱寫者檢測過程中,與Holub 等[21]在其工作中對JPEG 域中圖像的隱寫分析過程一致,輸入圖像被解壓縮至空域,接著MDNNSD 被用于從解壓縮的圖像中提取特征.與在空域中的實驗設置相似,在訓練階段,首先從所有子圖樣本中隨機選擇20 000張載體圖像,并使用J-UNIWARD 隱寫術在不同嵌入率的有效載荷下生成載密圖像,特別地,本文中使用的有效載荷包括0.4 bpnzAC、0.3 bpnzAC、0.2 bpnzAC、0.1 bpnzAC 和0.05 bpnzAC.進而,本文將得到的載體圖像和載密圖像組合為用戶作為訓練樣本.在訓練階段的每個批次中,本文采樣50名正常用戶,每名正常用戶分享200 張載體圖像,并采樣50 名圖像隱寫者,每名隱寫者分享200 張載密圖像,每輪訓練采樣100 個批次的用戶對模型進行優(yōu)化.在測試階段,本文在每個實驗中隨機選擇100 個用戶,每個用戶分享200 張圖像,隱寫者檢測模型被要求從100 個用戶中檢測出唯一的1 名隱寫者.因此,本文在20 000 張載體圖像中隨機選擇200 張載體圖像對應的載密圖像,構成1 名圖像隱寫者,剩余的19 800 張載體圖像被隨機選擇并分配給99 個正常用戶.在此基礎上,本文統(tǒng)計不同隱寫者檢測模型的檢測準確率,所有統(tǒng)計實驗進行100 次,最終得到所有統(tǒng)計結果的平均值.

3.2.1 已知隱寫術情況下的隱寫者檢測

為驗證在隱寫者檢測人員已知隱寫者使用的圖像隱寫術時本文方法的有效性,在本節(jié)實驗中保持測試階段隱寫者使用的圖像隱寫術與訓練階段相同,使用不同模型對使用不同嵌入率在圖像中嵌入秘密信息的隱寫者進行檢測并記錄檢測模型的性能.具體而言,在測試階段,隱寫者分享的每張圖像中只包含使用J-UNIWARD 圖像隱寫術嵌入的秘密信息.同時,與空域隱寫者檢測的實驗設置類似,本文在5 種不同的有效載荷上進行測試,其中包括0.4 bpnzAC、0.3 bpnzAC、0.2 bpnzAC、0.1 bpnzAC 和0.05 bpnzAC.

如表7 所示,本文首先對比隱寫者檢測與隱寫分析領域的相關工作.其中,JRM 富特征提取模型和PEV-274 特征提取模型是經(jīng)典的用于JPEG 圖像的隱寫分析模型,在隱寫分析任務中取得了良好的性能.本文將JRM 與層次聚類算法結合在一起,構成基于JRM 的隱寫者檢測框架JRM_SD,以評估其在隱寫者檢測任務上的性能.同時,本文也將PEV 與層次聚類算法結合在一起,構成基于PEV的隱寫者檢測框架PEV_SD,進行對比分析.從表7中可以看出,PEV_SD 無法有效地檢測出使用JUNIWARD 作為圖像隱寫術的隱寫者,這是由于PEV_SD 方法基于PEV-274 特征進行分析,無法檢測出使用內(nèi)容自適應圖像隱寫術J-UNIWARD嵌入秘密信息的載密圖像并構建具有區(qū)分力的特征.與PEV_SD 相比,JRM_SD 能夠更有效地攻擊使用J-UNIWARD 作為圖像隱寫術的隱寫者,但檢測性能仍然有限.當隱寫者使用0.4 bpnzAC嵌入率嵌入秘密信息時,盡管JRM_SD 聯(lián)合使用了最前沿的富特征提取模型和一個優(yōu)化檢測器,也只能獲得接近 50% 的檢測準確率.

表7 已知隱寫者使用相同圖像隱寫術(J-UNIWARD)時的隱寫者檢測準確率(%),嵌入率從0.05 bpnzAC 到0.4 bpnzACTable 7 Steganography detection accuracy rate (%)when steganographer use the same image steganography(J-UNIWARD) and the embedding payload is from 0.05 bpnzAC to 0.4 bpnzAC

接著,本文進一步將圖神經(jīng)網(wǎng)絡領域的相關工作應用在JPEG 圖像的隱寫者檢測任務中,對比圖神經(jīng)網(wǎng)絡領域的相關工作.從表7 中可以發(fā)現(xiàn),基于圖神經(jīng)網(wǎng)絡的隱寫者檢測方法的性能遠超于現(xiàn)有隱寫者檢測與隱寫分析領域相關工作的性能,表明圖神經(jīng)網(wǎng)絡在利用用戶分享的圖片間的關聯(lián)關系進行隱寫者檢測的有效性.其中,SAGCN 僅次于本文提出的MILGCN,取得了超過其他基于圖神經(jīng)網(wǎng)絡的隱寫者檢測方法的性能.與之相對的,本文提出的MILGCN 在隱寫者使用較低的嵌入率嵌入信息的困難情況下,相比SAGCN 的性能有了進一步提升.這是由于當嵌入率較低時,隱寫者與正常用戶的特征分布極為相近,而本文提出的MILGCN 通過基于多示例學習的設計增加了其區(qū)分性.具體而言,本文提出的共性增強圖卷積網(wǎng)絡能夠有效增加正示例的共性特征,在此基礎上,基于注意力機制的圖表征能夠根據(jù)識別的正示例模式特征構建具有區(qū)分力的圖表征,進而正確檢測出隱寫者.

此外還測試了使用比例策略進行嵌入時的情況,實驗的訓練部分與本節(jié)的實驗設置相同,測試部分: 隱寫者使用J-UNIWARD 隱寫術,嵌入率為0.2 bpnzAC,分享的載密圖像占其分享的所有圖像的 10%、30%、50%、70%、90% 或 100%.本文進行100 次實驗,并記錄模型在檢測隱寫者過程中的平均準確率.可以發(fā)現(xiàn),在載密圖像數(shù)量占比大于等于 70% 的情況下,本文的方法都能達到 100%的準確率;在占比 50% 的情況下,準確率為 94%;占比 30% 的情況下,準確率為 47% ;占比 10% 的情況下,準確率為 30%.MILGCN 的性能隨著隱寫者分享的載密圖像占比的升高而升高,這種現(xiàn)象與空域上的實驗結果一致,是由于當隱寫者分享的載密圖像占比較低時,隱寫者分享的圖像大部分為自然圖像,即載體圖像.在這種情況下,隱寫者的表征將與正常用戶非常接近,模型難以正確區(qū)分隱寫者與正常用戶.反之,隨著用戶分享的載密圖像占比升高,隱寫者的表征與正常用戶差異變大,模型將能夠更好地區(qū)分二者.此外,相比于檢測使用空域隱寫術的隱寫者,可以發(fā)現(xiàn)在檢測使用頻域隱寫術的隱寫者時,模型只能夠在載密圖像占比較高時保持較高的檢測性能,當載密圖像占比較低時,模型的檢測準確率會產(chǎn)生更大的下降.這是由于頻域隱寫術的檢測比空域隱寫術的檢測更為困難,因此在載密圖像占比較低時,隱寫者與正常用戶的區(qū)分性會比空域隱寫術設置下更低.

3.2.2 隱寫術未知情況下的隱寫者檢測

正如在上文中提到的,隱寫者檢測人員在對社交網(wǎng)絡中用戶分享的圖像進行分析時,無法預先知道隱寫者使用的圖像隱寫術.因此,本文放寬了圖像隱寫者在訓練階段和測試階段使用的圖像隱寫術為相同隱寫術的假設,探討在隱寫術錯配情況下本文所提模型的檢測性能.具體而言,在訓練階段隱寫者使用J-UNIWARD 作為隱寫術嵌入秘密信息,以此設置進行訓練得到模型.在測試階段,隱寫者分享的每張圖像中包含與訓練階段使用不同的圖像隱寫術,如nsF5、UERD.同時,與空域隱寫者檢測的實驗設置類似,本文在5 種不同的有效載荷上進行測試,其中包括0.4 bpnzAC、0.3 bpnzAC、0.2 bpnzAC、0.1 bpnzAC 和0.05 bpnzAC.

在表8 中,可以發(fā)現(xiàn),當有效載荷在0.1~ 0.4 bpnzAC 區(qū)間時,盡管在測試階段隱寫者使用的圖像隱寫術與訓練階段不同,但是無論隱寫者使用哪種隱寫術,本文方法仍能夠獲得超過 90% 的檢測準確率.通過將表7 與表8 進行對比,可以發(fā)現(xiàn)在隱寫術錯配時,隱寫者檢測模型的性能甚至超過了在訓練數(shù)據(jù)集和測試數(shù)據(jù)集中使用相同的J-UNIWARD 作為圖像隱寫術時的性能.這是由于JUNIWARD 作為近年來提出的前沿的內(nèi)容自適應圖像隱寫術,相比于nsF5 和UERD 更難攻破,因此,當J-UNIWARD作為圖像隱寫術時,載密圖像與載體圖像的特征分布極為相近、難以區(qū)分,不利于基于特征分布構建有效的圖結構并提取載密圖像的公共模式特征.相比而言,使用nsF5 和UERD作為圖像隱寫術嵌入秘密信息的載密圖像的特征分布與載體圖像的特征分布差異較大.特別地,還能夠發(fā)現(xiàn)在隱寫術錯配的情況下,本文方法也能超過其他隱寫者檢測方法取得最好的性能,這說明MILGCN 確實能夠有效提取正示例共享的模式特征,即識別的載密圖像模式特征,并與載體圖像的模式特征區(qū)分開.

表8 當測試階段隱寫者使用nsF5 或UERD 等圖像隱寫術嵌入秘密信息時,不同方法的隱寫者檢測準確率(%),嵌入率從0.05 bpnzAC 到0.4 bpnzACTable 8 Steganography detection accurate rate (%) of different methods when steganographer uses nsF5 or UERD as image steganography in the testing phase and the embedding payload is from 0.05 bpnzAC to 0.4 bpnzAC

當隱寫者使用的有效載荷為0.05 bpnzAC 時,盡管本文提出的方法在性能上稍強于其他基于圖的方法,但所有方法都無法有效檢測出隱寫者.這是由于秘密信息在JPEG 的壓縮過程中丟失了,當有效載荷較低時,載密圖像與載體圖像非常相似.因此,對于模型而言,很難區(qū)分隱寫者和正常圖像的特征.與空域中隱寫者檢測方法相比,頻域中隱寫者檢測框架的性能相對較低,這也說明在壓縮到JPEG 格式過程中,存在信息的丟失.

3.2.3 計算復雜度分析

在這一部分,提供本文方法MILGCN 和其他幾種對比方法的計算復雜度分析.首先使用ptflops 軟件包計算不同方法的計算復雜度,并使用浮點運算數(shù)量來度量.具體來說,給定一個模型,構建分享200 張圖像的100 個用戶樣本作為輸入,計算其中哪一個用戶為隱寫者.在計算過程中,對于指數(shù)、開根號、乘法、加法、比較等操作,均將其計數(shù)為一次浮點運算,而對于數(shù)據(jù)復制、移動等操作,則不進行計數(shù).最終,得到計算單個樣本的浮點運算次數(shù)并進行統(tǒng)計報告.除此以外,還度量不同方法在推斷過程中所需的CPU 時間,以說明設計方法在推理和部署方面的可用性.這里,本文運行200個批次樣本的推理,并統(tǒng)計樣本推理所需的平均時間.其中,每個批次包含100 個用戶樣本.表9 中,還提供了不同模型所包含的參數(shù)量.

表9 計算復雜度分析Table 9 The analysis of computational complexity

從表9 中可以發(fā)現(xiàn),盡管本文提出的MILGCN具有相對較多的參數(shù),但仍與基于圖的方法GCN和SAGCN 保持在同一量級上.與此同時,還可以發(fā)現(xiàn),雖然參數(shù)量相對較大,但MILGCN 所需的浮點運算數(shù)和批次平均運行時間要比基于圖的方法GCN 和SAGCN 小很多.這是由于這些方法在構建圖的過程中,使用歐氏距離度量特征集合中兩兩圖像特征對的關聯(lián)關系,具有較高的時間復雜度.而本文通過自適應的學習方法取代了基于歐氏距離的圖構建方法,大幅降低了運算量.這使得本文提出的MILGCN 不但在檢測性能上占有優(yōu)勢,也在運行效率上遠超其他基于圖的方法,接近于簡單模型MILNN 的水平.

4 結論與未來工作

近年來,隱寫者在分散秘密信息嵌入圖像的策略選擇上越來越多樣.因此,本文擴展基于圖的隱寫者檢測方法,進一步探究應對不同嵌入策略的通用隱寫者檢測方案.本文提出一種基于多示例學習圖卷積網(wǎng)絡的隱寫者檢測算法,將隱寫者檢測形式化為多示例學習任務.在多示例學習任務的形式化下,用戶分享的圖像對應于示例,用戶對應于示例包.在此基礎上,本文設計多示例學習圖卷積網(wǎng)絡,在正示例占比較低或特征分布與負示例相近的情況下,能夠識別和區(qū)分正示例的模式特征.其中,本文設計的共性增強圖卷積能夠自適應地突出示例包中正示例的模式特征,而注意力圖讀出模塊能夠自適應地構建示例包表征,并根據(jù)具有區(qū)分力的表征對用戶進行正確檢測.實驗表明,本文設計的模型能夠對抗多種批量隱寫術和隱寫策略.在未來工作中,將研究當載密圖像數(shù)量占比很小情況下有效的隱寫者檢測方法.

猜你喜歡
特征用戶檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
關注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
關注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
小波變換在PCB缺陷檢測中的應用
關注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
主站蜘蛛池模板: 55夜色66夜色国产精品视频| 亚洲日韩久久综合中文字幕| 在线欧美日韩国产| 天天激情综合| 久久 午夜福利 张柏芝| 国产成人乱无码视频| 国产精品亚洲片在线va| 91在线无码精品秘九色APP | 少妇精品久久久一区二区三区| 国产xxxxx免费视频| 成人午夜天| 亚洲欧美日韩久久精品| 色偷偷av男人的天堂不卡| 麻豆精品国产自产在线| 亚洲Va中文字幕久久一区| 亚洲成人网在线观看| 亚洲二区视频| 成人午夜精品一级毛片| 天天爽免费视频| 手机精品视频在线观看免费| 亚洲欧洲日产国产无码AV| 一本色道久久88亚洲综合| 五月婷婷激情四射| 国内老司机精品视频在线播出| 日韩少妇激情一区二区| 国内精品一区二区在线观看| 成年人福利视频| 99精品视频九九精品| 91精品情国产情侣高潮对白蜜| 国产在线自在拍91精品黑人| 婷婷激情亚洲| 亚洲欧美自拍中文| 色AV色 综合网站| 日本亚洲欧美在线| 免费又爽又刺激高潮网址| 免费激情网站| 在线视频亚洲欧美| 国产网站免费观看| 青青青国产视频| 免费va国产在线观看| 精品久久久久久久久久久| 91亚洲影院| 好吊日免费视频| 40岁成熟女人牲交片免费| 青青青亚洲精品国产| 久久精品亚洲专区| 精品国产成人a在线观看| 2021最新国产精品网站| 乱人伦99久久| 亚洲av无码久久无遮挡| 中文字幕不卡免费高清视频| 一区二区自拍| 一级成人欧美一区在线观看| 成人国产精品网站在线看| 视频一本大道香蕉久在线播放 | 特级欧美视频aaaaaa| 伊人天堂网| 欧美国产综合色视频| 欧美成人亚洲综合精品欧美激情| 国产91小视频| 亚洲精品无码不卡在线播放| 日韩精品毛片| 天堂av高清一区二区三区| 无码综合天天久久综合网| 亚洲免费三区| 午夜啪啪网| 欧美日韩中文字幕在线| 91久久偷偷做嫩草影院电| 中文字幕调教一区二区视频| 亚洲人成电影在线播放| 久久这里只精品国产99热8| 亚洲AV电影不卡在线观看| 99青青青精品视频在线| 日韩av高清无码一区二区三区| 亚欧成人无码AV在线播放| 国产成人亚洲日韩欧美电影| 91无码国产视频| 五月婷婷亚洲综合| 香蕉国产精品视频| 91九色最新地址| 热久久国产| 狠狠亚洲婷婷综合色香|