

關(guān)鍵詞:信息隱藏;隱寫分析;壓縮語音;貝葉斯網(wǎng)絡(luò);支持向量機
中圖分類號:TP391 文獻標(biāo)志碼:A 文章編號:1671-6841(05)06-0034-08
DOI: 10.13705/j . issn. 1671-6841. 04113
Abstract:To address the problem of low detection accuracy of traditional Bayesian network methods in compressed speech quantization index modulation steganalysis with low embedding rates,a steganalysis method based on Bayesian network ensembles was proposed. Firstly,Bayesian network ensembles were constructed to describe the correlations among speech codewords themselves,within frames,and between frames,and a conditional probability table was built through overall sample learning.Then,the feature vector of individual samples was constructed using the inference results of each sub-network,and these features were used to train a support vector machine(SVM) model. Finally,the steganalysis clasification of unknown samples was achieved. Experimental results showed that on a 1O s Chinese and English speech dataset,with an embedding rate of 20% ,this method improved the detection accuracy by at least 18.01 percentage points and 2.32 percentage points compared with traditional Bayesian network methods and deep learning methods,respectively. Moreover, the average duration for detecting 1 s of speech using this method was 2.72ms ,meeting the requirements for real-time detection.
Key words: steganography; steganalysis ; compressed speech ; Bayesian network ;support vector machine(SVM)
0 引言
隨著全球化和信息化的發(fā)展,隱私和數(shù)據(jù)安全問題日益凸顯。信息隱藏技術(shù)可將秘密消息隱藏在數(shù)字媒體(如圖像[1]、文本[2]、視頻[3]和語音[4-10])中,在保障信息安全傳輸?shù)耐瑫r,也可能被濫用。因此,研究高效的信息隱藏檢測方法變得至關(guān)重要。
IP 語音(voice over internet protocol,VoIP)信息隱藏是一種將秘密消息隱藏進壓縮語音中的技術(shù)。基于VoIP的隱寫方法主要分為直接調(diào)制語音流碼元的方法[4-5]和在編碼過程中調(diào)制參數(shù)的方法[6-10]。量化索引調(diào)制(quantization index modula-tion,QIM)方法最早由Chen等提出,該方法在載體失真和容量上做了高效平衡。隨后,研究者們提出了多種改進的QIM方法,其中,Xiao 等[8]提出了互補鄰點對(complementary neighbor vertices QIM,CNV)方法,Liu等提出了最近鄰?fù)队疤鎿Q量化索引調(diào)制(nearest-neighbor projection point replacementQIM,NPPR)方法,Tian等[°提出了安全量化索引調(diào)制(securityQIM,SEC)方法。
針對基于QIM隱寫方法的隱寫分析主要包括基于手工特征的機器學(xué)習(xí)方法[1I-12]和基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)方法[13-16]。在基于手工特征的機器學(xué)習(xí)方法中,Li等[提出了一種基于索引分布特征的隱寫分析方法,該方法通過分析量化索引中的相關(guān)性和不平衡性來構(gòu)造特征,并結(jié)合支持向量機完成分類。Yang等[2]提出了基于碼元貝葉斯網(wǎng)絡(luò)(codeelementBayesiannetwork,CEBN)的壓縮語音信息隱藏檢測方法,該方法利用碼元間的強相關(guān)性構(gòu)造貝葉斯網(wǎng)絡(luò),然后學(xué)習(xí)網(wǎng)絡(luò)參數(shù)并基于貝葉斯推理完成隱寫分析。這類方法計算速度快、結(jié)果可解釋,但在低嵌入率或短時長情況下檢測準(zhǔn)確率較低。深度學(xué)習(xí)方法能自動獲取樣本特征并完成分類,在多個領(lǐng)域有重要貢獻[17-19]。在信息隱藏領(lǐng)域,深度學(xué)習(xí)方法能夠自動學(xué)習(xí)碼元間復(fù)雜的關(guān)聯(lián)特征,極大地提升了隱寫檢查準(zhǔn)確率和效率。其中,Lin等[13]提出了基于循環(huán)神經(jīng)網(wǎng)絡(luò)的相關(guān)模型(re-current neural network steganalysis model,RNN-SM),通過分析碼元與幀之間的相關(guān)性構(gòu)建循環(huán)神經(jīng)網(wǎng)絡(luò)來完成隱寫分析。 Hu 等[14]提出了隱寫特征融合模型(steganalysis feature fusionnetwork,SFFN),可以同時檢測兩類隱寫方法,提高了檢測的通用性。Yang等[15]提出了多通道卷積滑動窗口(convolutionalslidingwindows,CSW)隱寫分析模型,該模型通過滑動窗口分析給定幀與相鄰幀的相關(guān)性,并利用卷積神經(jīng)網(wǎng)絡(luò)和全連接神經(jīng)網(wǎng)絡(luò)實現(xiàn)隱寫分類。Zhang等[16]提出了一種名為TENet的隱寫分析方法,該方法利用編碼碼元和位置嵌入來提取包含碼元潛在含義及其之間相關(guān)性的編碼器表示用于樣本分類。該類方法仍有提升空間,且可解釋性不佳。
傳統(tǒng)隱寫分析方法在處理復(fù)雜的隱寫技術(shù)和低嵌人率情況下常常表現(xiàn)出檢測準(zhǔn)確率低的問題。貝葉斯網(wǎng)絡(luò)作為一種基于概率推理的模型,能夠有效處理不確定性和復(fù)雜的依賴關(guān)系,適用于語音碼元相關(guān)性的分析。然而,單一的貝葉斯網(wǎng)絡(luò)模型在面對大規(guī)模數(shù)據(jù)和復(fù)雜特征時,其準(zhǔn)確性欠佳。為了克服這些局限性,本文提出了一種基于貝葉斯網(wǎng)絡(luò)群和支持向量機(supportvectormachine,SVM)的隱寫分析方法,本文具體貢獻如下。
1)提出了一種不同于傳統(tǒng)手工特征提取(設(shè)計特征一特征抽取一樣本分類)的新框架,即“整體特征學(xué)習(xí)一個體特征提取一樣本分類”框架,該框架從整體樣本入手,學(xué)習(xí)整體樣本特征,并提取個體樣本特征,使模型適用大數(shù)據(jù)量樣本,解釋性強。
2)引入貝葉斯網(wǎng)絡(luò)思想,以碼元和幀的角度設(shè)計貝葉斯網(wǎng)絡(luò)群模型,結(jié)合語音自身碼元、幀內(nèi)碼元和幀間碼元相關(guān)性設(shè)計了多種檢測模型。
1背景及相關(guān)工作
線性預(yù)測編碼是低速率編碼下實現(xiàn)高質(zhì)量語音通信的最有效方法之一,其利用線性預(yù)測實現(xiàn)對語音信號譜包絡(luò)壓縮表示,能夠?qū)崿F(xiàn)精確的語音參數(shù)預(yù)測。在線性預(yù)測編碼中,每幀包含三個8bit矢量量化(vectorquantization,VQ)碼元,記作 VQ1,VQ2 和 VQ3 。
Yang等[]提出了一種基于CEBN的隱寫分析方案,其核心是利用貝葉斯網(wǎng)絡(luò)推理進行樣本分類。該方法首先分析了壓縮語音流中的時空相關(guān)性;接著,利用時空相關(guān)性構(gòu)建了碼元時空相關(guān)網(wǎng)絡(luò),根據(jù)邊相關(guān)指數(shù)進行減枝;然后,利用碼元時空相關(guān)網(wǎng)絡(luò)中幀內(nèi)強相關(guān)邊和幀間強相關(guān)邊構(gòu)建碼元貝葉斯網(wǎng)絡(luò)CEBN進行參數(shù)學(xué)習(xí);最后,根據(jù)樣本幀碼元推理得到幀所屬類別,從而完成分類,CEBN部分結(jié)構(gòu)圖如圖1所示。
在CEBN中,貝葉斯網(wǎng)絡(luò)根節(jié)點 c 表示幀類別,其余節(jié)點表示VQ碼元。檢測時對每個相鄰幀進行貝葉斯推理,通過碼元組合和條件概率表(conditionprobabilitytable,CPT)推斷幀類別。盡管CEBN取得了一定效果,但存在隱寫敏感性抵消問題。隱寫敏感性指碼元節(jié)點的條件概率在隱寫前后變化的程度。當(dāng)多個節(jié)點的條件概率變化相互抵消時,整體貝葉斯網(wǎng)絡(luò)的推理結(jié)果可能在隱寫前后變化很小,不利于隱寫分析。例如,節(jié)點A的條件概率在隱寫后增大,而節(jié)點 B 的條件概率減小,兩者相乘后的概率值可能變化很小,導(dǎo)致隱寫敏感性抵消。此外,CEBN依賴固定的網(wǎng)絡(luò)結(jié)構(gòu),難以靈活調(diào)整模型大小。對此,本文提出了一種新的QIM隱寫分析方法。該方法結(jié)合了手工特征提取和神經(jīng)網(wǎng)絡(luò)的整體特征提取思路,使用多個貝葉斯網(wǎng)絡(luò)來避免單一網(wǎng)絡(luò)的敏感性抵消問題。同時,根據(jù)碼元組合關(guān)系靈活調(diào)整貝葉斯網(wǎng)絡(luò)數(shù)量,構(gòu)建了七種包含不同碼元關(guān)系的貝葉斯網(wǎng)絡(luò)群模型,
圖1碼元貝葉斯網(wǎng)絡(luò)

2基于貝葉斯網(wǎng)絡(luò)群的隱寫分析方法
圖2本文隱寫分析方法系統(tǒng)框圖Figure2Systemdiagramofthesteganalysis

不同于傳統(tǒng)機器學(xué)習(xí)方法直接對每個樣本進行特征提取,本文提出的基于手工特征提取的SVM隱寫分類框架包含整體特征學(xué)習(xí)、個體特征提取和樣本分類三個步驟,本文提出的基于貝葉斯網(wǎng)絡(luò)群的隱寫分析方法系統(tǒng)框圖如圖2所示。本文提出的隱寫分析方法結(jié)合了貝葉斯網(wǎng)絡(luò)群和SVM的優(yōu)勢。首先,使用整體樣本訓(xùn)練貝葉斯網(wǎng)絡(luò)群參數(shù),以捕捉數(shù)據(jù)的復(fù)雜相關(guān)性,學(xué)習(xí)整體特征模式。其次,利用訓(xùn)練好的貝葉斯網(wǎng)絡(luò)群,通過概率推理得到個體樣本的隱寫和未隱寫概率作為其個體特征。最后,訓(xùn)練SVM并進行分類。由于SVM在小樣本上效率高、泛化能力強,本文在分類階段僅使用個體樣本特征進行訓(xùn)練和測試。利用大量樣本通過貝葉斯網(wǎng)絡(luò)群提取整體特征,在處理復(fù)雜語音碼元相關(guān)性時顯著提升了特征提取質(zhì)量和準(zhǔn)確性,同時在分類階段采用SVM優(yōu)化了效率和資源消耗。
2.1 整體特征學(xué)習(xí)過程
2.1.1 貝葉斯網(wǎng)絡(luò)群結(jié)構(gòu)設(shè)計 對于G723.1編碼而言,每個語音幀長度為 30ms ,因此,長度為 χt ms的壓縮語音幀數(shù)為 n=t/30 ,并且每幀包含三個
碼字。令 VQ 幀碼元向量
,其中 χi 為幀編號,從1開始,最大為 n,wi,j 表示壓縮語音第i 幀的第 j 個 VQ 碼元。對于整個壓縮語音可以得到VQ 碼元矩陣 F ,

與CEBN不同的是,本文不直接構(gòu)建復(fù)雜的貝葉斯網(wǎng)絡(luò),轉(zhuǎn)而使用 N 個簡單的貝葉斯網(wǎng)絡(luò)構(gòu)建貝葉斯網(wǎng)絡(luò)群
可以表示為

其中: Gi 表示單個貝葉斯網(wǎng)絡(luò)。本文構(gòu)建的貝葉斯網(wǎng)絡(luò)群
如圖3所示。
分為三部分,分別捕獲壓縮語音碼元的自身相關(guān)性、幀內(nèi)相關(guān)性和幀間相關(guān)性。每個子網(wǎng)絡(luò) Gi 的根節(jié)點表示類別 c ,其余節(jié)點代表當(dāng)前幀或下一幀的 VQ 碼元。黑色節(jié)點表示子網(wǎng)絡(luò)中使用的節(jié)點,白色節(jié)點表示未使用的節(jié)點,有向邊表示節(jié)點間的關(guān)系。
圖3貝葉斯網(wǎng)絡(luò)群結(jié)構(gòu)設(shè)計
Figure3DesignofBayesiannetworkensembles

2.1.2貝葉斯網(wǎng)絡(luò)群參數(shù)訓(xùn)練訓(xùn)練貝葉斯網(wǎng)絡(luò)群
是學(xué)習(xí) Gi 中CPT的過程,對于每個子網(wǎng)絡(luò) Gi 而言,包含一個根節(jié)點 c 和 vi 個 VQ 碼元節(jié)點,其節(jié)點為隨機變量 Xi,0 , Xi,1 ,…, Xi,vi ,隨機變量的取值分別記為 xi,0 , xi,1 ,…, xi,vi ,其中 xi,0∈{0,1} 表示當(dāng)前碼元的關(guān)系類型, xi,0=0 表示當(dāng)前碼元關(guān)系為載體關(guān)系, xi,0=1 表示當(dāng)前碼元關(guān)系為隱寫關(guān)系,χi,,…,i,,∈{0,1,,255}表示該碼元具體取值,網(wǎng)絡(luò)聯(lián)合分布概率可以表示為

其中:Par( Xi,j )表示隨機變量 Xi,j 的父節(jié)點;P(Xi,j∣Par(Xi,j) )表示隨機變量 Xi,j 的條件概率分布。
對于單個隨機變量 Xi,j 而言,其CPT為在父節(jié)點所有可能狀態(tài)下的條件概率的集合。因此,設(shè)Xi,j 有 Kr 個取值, Par(Xi,j) 有 K2 個取值,那么當(dāng) Xi,j 取第 k?1 個值,且 Par(Xi,j) 取第 k2 個值時, Xi,j 的CPT中元素 ?i,j,k1,k2 可以表示為
?i,j,k1,k2=P(Xi,j=k1∣Par(Xx,j)=Par(Xx,j)k2)
2.2個體特征提取過程
為了更好地描述幀內(nèi)幀間關(guān)系,設(shè)幀內(nèi)幀間向量 si 表示相鄰兩幀 VQ 碼元組成的向量,
可以表示為
si=[wi,1,wi,2,wi,3,wi+1,1,wi+1,2,wi+1,3],
在推理階段可分為載體關(guān)系和隱寫關(guān)系。語音流可表示為多個碼元關(guān)系,進而推理得到多個載體和隱寫關(guān)系。利用貝葉斯網(wǎng)絡(luò)群進行概率推理和特征提取,將樣本表示為多個碼元關(guān)系組合得到特征向量 J ,如圖4所示。
圖4特征提取過程
Figure 4Feature extraction process

本文以壓縮語音流 VQ 碼元矩陣
作為模型輸入,貝葉斯網(wǎng)絡(luò)群
推理得到特征向量 J 的過程可形式化為

其中 ?:fBNE(???) 表示
推理過程,在進行
的推理階段,使用 VQ 碼元節(jié)點的值來推斷根節(jié)點屬于載體關(guān)系或隱寫關(guān)系概率。令 pi,jc 和 pi,js 表示 sj 經(jīng)過第 χi
個子網(wǎng)絡(luò)的兩個推理值,且每個子網(wǎng)絡(luò)最終會輸出兩個特征值,第 χi 個子網(wǎng)絡(luò)的載體指數(shù) Jic 表示為

當(dāng)前子網(wǎng)絡(luò)的隱寫指數(shù) Jis 計算方法和 Jic 類似,即對于一個壓縮語音流 VQ 碼元矩陣 F 而言,每個子網(wǎng)絡(luò)均會輸出兩個特征值,在此基礎(chǔ)上得到整個壓縮語音流樣本 F 的載體指數(shù)向量 Jc 和隱寫指數(shù)向量Js ,最后得到樣本特征向量 J ,維數(shù)為 36 。
2.3樣本分類過程
在計算得到樣本特征向量 J 后,使用SVM分類器完成檢測,圖2中樣本分類過程包含SVM訓(xùn)練得到SVM分類器,對未知樣本實現(xiàn)分類可形式化為
C?F=fsvy(J),
其中: fsva(Ω?Ω) 表示 SVM模型的分類函數(shù); C?F 是SVM模型輸出的樣本類別。
2.4多種檢測模型
本文設(shè)計了一個包含18個貝葉斯網(wǎng)絡(luò)的貝葉斯網(wǎng)絡(luò)群,用于提取壓縮語音流中的36維特征,包括自身相關(guān)性、幀內(nèi)相關(guān)性和幀間相關(guān)性。為了避免出現(xiàn)模型可能提取到更多無用特征,從而導(dǎo)致檢測精度下降和耗時過長的問題,本文根據(jù)碼元組合關(guān)系的不同,構(gòu)建了七種貝葉斯網(wǎng)絡(luò)群模型,分別包括三個單一碼元關(guān)系模型 (?M1~M3) )、三個多種碼元關(guān)系模型( M4~M6 )和一個全碼元關(guān)系模型 (M7 )。具體的碼元關(guān)系組合情況如表1所示。
表1多種碼元關(guān)系組合檢測模型
Table1Modelsofcodeelementrelationshipcombinations

注:“ √ ”表示考慮了對應(yīng)相關(guān)性; ?×, 表示未考慮對應(yīng)相關(guān)性。
3 實驗結(jié)果與分析
3.1 實驗設(shè)置說明
原始數(shù)據(jù)包含 41h 中文語音和 72h 英文語音[13],將其劃分成長度為1~10s的語音片段,得到15560個中文和27845個英文片段。按 3:1:1 比例劃分為整體樣本、個體樣本和未知樣本。使用G723.1編碼器生成載體文件,并應(yīng)用CNV、NPPR和SEC隱寫方法生成隱寫文件。本文實驗包含四個部分。1)評估提出的多種檢測模型,分析碼元關(guān)系組合對準(zhǔn)確率的影響。2)在不同嵌人率數(shù)據(jù)集上進行對比分析,驗證方法的特征可解釋性優(yōu)勢。3)在不同時長數(shù)據(jù)集上與對比方法進行分析。4)分析時間復(fù)雜度,驗證模型的實時性。
3.2多種檢測模型性能評估
從自身碼元關(guān)系、幀內(nèi)碼元關(guān)系和幀間碼元關(guān)系出發(fā),可以構(gòu)建出七個不同碼元關(guān)系組合的貝葉斯網(wǎng)絡(luò)群檢測模型。在10s中文語音樣本上、不同嵌入率下,分別就CNV、NPPR和SEC方法,使用七種不同檢測模型分別實驗,結(jié)果如圖5所示。
圖5中文語音樣本上不同嵌入率下、不同碼元關(guān)系組合模型檢測準(zhǔn)確率
ure 5 Detection accuracy of methods using different models at different embedding rates on Chinese sai

如圖5(a)所示,隨著嵌入率的增加,各模型的檢測準(zhǔn)確率均有所提高,嵌入率增加導(dǎo)致語音中更多碼元相關(guān)性被破壞,其中,多種碼元關(guān)系模型的檢測準(zhǔn)確率高于單一碼元關(guān)系模型,例如,包含自身碼元關(guān)系和幀內(nèi)碼元關(guān)系的模型 M4 在 20% 嵌入率下檢測三種隱寫方法的準(zhǔn)確率較僅包含幀內(nèi)碼元關(guān)系的模型 M2 高出2.04個百分點。全碼元關(guān)系模型M7 取得了最好的檢測效果,因為它包含了三種碼元關(guān)系,能夠捕獲更多特征。針對NPPR隱寫方法和針對SEC隱寫方法分別如圖5(b)和圖5(c)所示,有著和檢測CNV隱寫方法類似的結(jié)論。綜上所述,考慮到模型 M7 在低嵌入率情況下的優(yōu)越性能,后續(xù)實驗中本文將使用 M7 模型與其他方法進行對比分析。
3.3 模型在不同嵌入率下的準(zhǔn)確率
嵌入率是隱寫過程中的重要參數(shù),提高嵌入率可以在載體中隱藏更多的信息,但也不可避免地修改更多碼元值。因此,為全面評估本文方案應(yīng)對不同隱寫嵌入率的性能,在 10s 中、英文樣本上,分別在 20% ! 40% ! 60% 、 80% 和 100% 嵌人率下,CEBN、RNN-SM、SFFN、CSW和TENet檢測方法分別對CNV、NPPR和SEC隱寫方法進行對比實驗,其結(jié)果如表2和表3所示(表中黑體數(shù)據(jù)為每種隱寫方法下檢測率最高值)。
由表2和表3可知,隨著嵌入率的增加,所有檢測方法的準(zhǔn)確率均有所提高。本文提出的方法在所有情況下都表現(xiàn)出最佳的檢測性能,特別是在低嵌入率場景下優(yōu)勢更為明顯。對于CNV隱寫方法,在20% 嵌入率時,本文方法在中文和英文樣本上的檢測準(zhǔn)確率分別達到 92.13% 和 92.66% ,遠高于其他方法。NPPR隱寫方法中,本文方法在 20% 嵌人率下的準(zhǔn)確率分別為 99.78% 和 99.71% ,同樣優(yōu)于對比方法。對于SEC隱寫方法,本文方法在低嵌入率下仍保持領(lǐng)先, 20% 嵌人率時,準(zhǔn)確率分別為76.78% 和 78.40% 。另外,大多數(shù)方法在英文語音樣本上的檢測準(zhǔn)確率略高于中文樣本。這是因為英文發(fā)音由20個元音和28個輔音構(gòu)成,而漢語有412個音節(jié),導(dǎo)致中文語音的相關(guān)性更為復(fù)雜,增加了檢測難度[15]
表2中文語音樣本上不同嵌入率下檢測準(zhǔn)確率
Table2 Detection accuracy at different embedding rates on Chinese speech samples

表3英文語音樣本上不同嵌入率下檢測準(zhǔn)確率
Table3Detection accuracy at different embedding ratesonEnglish speech samples

為驗證本文方法的優(yōu)勢并增強特征可解釋性,采用 σt. -SNE技術(shù)[20]可視化CNV中文數(shù)據(jù)集特征向量 J ,結(jié)果如圖6所示。結(jié)果顯示,隨著嵌人率的提高,載體語音(白點)和隱寫語音(黑點)在特征空間中的分布逐漸分離,反映了模型在不同嵌入率下提取隱寫語音特征的能力。
3.4模型在不同時長下的準(zhǔn)確率
在實際應(yīng)用中語音載體可以視作一個無限長的語音流,這意味著在傳輸過程中任意位置均可嵌入秘密消息。為評估本文方法在不同時長下的性能,在100% 嵌入率的中、英文樣本中,在2s至10s的五種樣本長度上進行了實驗,在三種隱寫方法上的測試結(jié)果如表4和表5所示(表中黑體數(shù)據(jù)為最佳數(shù)據(jù))。
由表4和表5可知,隨著樣本時長增加,各檢測方法的準(zhǔn)確率均有所上升,這是因為較長樣本包含更多被修改的碼元,能夠獲取更多隱寫敏感特征。本文方法在大多數(shù)時長下的檢測準(zhǔn)確率優(yōu)于對比方法。對CNV隱寫方法而言,在2s時長下,本文方法的中、英文準(zhǔn)確率分別達到 99.82% 和 99.70% 。對NPPR隱寫方法而言,2s時長下中、英文準(zhǔn)確率分別達到 99.97% 和 100% 。對于隱蔽性更高的SEC隱寫方法,本方法在2s時長下,中、英文準(zhǔn)確率均超過 95% 。實驗結(jié)果表明,本文方法在不同語音樣本長度下均能保持高效的檢測性能。
圖6CNV中文數(shù)據(jù)集t-SNE特征可視化圖Figure6 t-SNE feature visualization ofCNV Chinese dataset

表4中文語音樣本上不同時長下檢測準(zhǔn)確率
Table 4 Chinese speech detection accuracy bylength

表5英文語音樣本上不同時長下檢測準(zhǔn)確率 Table 5English speech detection accuracy by length

3.5 模型時間復(fù)雜度分析
由于網(wǎng)絡(luò)壓縮語音實時傳輸?shù)奶匦裕瑱z測方法也需具備實時性以避免緩存隊列堆積,各方法檢測1s長度語音的平均檢測時長如圖7所示,包含碼元關(guān)系最少的 M1 模型平均檢測時長僅需 0.32ms ,優(yōu)于對比方法。性能最全面的 M7 模型平均檢測時長為 2.72ms ,優(yōu)于CEBN和SFFN方法。本文方法的時間復(fù)雜度主要集中在貝葉斯網(wǎng)絡(luò)的推理過程,由于專門針對 VQ 碼元進行檢測并優(yōu)化了推理過程,減少了查表操作。另外,本文方法的 M1~M7 模型檢測時長呈線性變化,考慮到高嵌人率下各模型檢測精度差別不大,可選用較少碼元關(guān)系的模型以提高檢測速度。
本文對深度學(xué)習(xí)方法的模型大小和推理時間進行了分析。RNN-SM模型最小,僅 206KB ,推理時間最短,為 0.49ms ,這歸因于其簡化了結(jié)構(gòu)。SFFN雖然模型相對較小,為 483KB ,但由于是多層網(wǎng)絡(luò),其推理時間最長,達到 4.95ms 。CSW模型大小為639KB ,平均檢測時長 1.03ms ,而TENet模型最大,達到 1 303KB ,推理時間為 2.29ms 。結(jié)果顯示,模型大小與推理時間密切相關(guān),但實際推理時間還受模型結(jié)構(gòu)和層數(shù)影響。
圖7不同隱寫方法的平均檢測時長
Figure 7Average detection times of different methods

4結(jié)語
針對壓縮語音量化索引調(diào)制隱寫的高效檢測問題,提出了一種基于貝葉斯網(wǎng)絡(luò)群的新方法。該方法使用多個貝葉斯網(wǎng)絡(luò)進行概率推理以提取樣本碼元的自身相關(guān)性、幀內(nèi)相關(guān)性和幀間相關(guān)性,并給出多種檢測模型。實驗結(jié)果表明,本文提出的檢測模型均有較好的檢測效果,其中全碼元關(guān)系模型檢測效果最好,優(yōu)于對比方法,且具有實時性。在接下來的工作中,將進一步研究本文提出的新框架在其他隱寫算法中的應(yīng)用。
參考文獻:
[1] KAURS,SINGHS,KAUR M,etal.A systematic review of computational image steganography approaches [J].Archives of computational methods in engineering, 2022,29(7):4775-4797.
[2] THABIT R,UDZIR NI,YASIN S M,et al. CSNTSteg: colorspacing normalization text steganography model to improvecapacityand invisibilityofhidden data[J]. IEEEaccess,2022,10:65439-65458.
[3] HE S H,XU D W,YANG L,et al. Adaptive HEVC video steganography with high performance based on attention-net and PU partition modes[J]. IEEE transactionsonmultimedia,2023,26:687-700.
[4] ELSHOUSHHT,MAHMOUD M M.AmelioratingLSB usingpiecewise linear chaotic map and one-time pad for superlative capacity,imperceptibility and secure audio steganography[J].IEEE access,2023,11:33354-33380.
[5] BHARTI S S,GUPTA M,AGARWAL S. A novel approach for audio steganography by processing of amplitudes and signs ot secret audio separatelylJ」. Multimedia tools and applications,2019,78(16):23179-23201.
[6]MELMAN A,EVSUTIN O. Comparative study of metaheuristic optimization algorithms for image steganography based on discrete Fourier transform domain[J].Applied soft computing,2023,132:109847.
[7]CHEN B,WORNELL G W.Quantization index modulation:a class of provably good methods for digital watermarking and information embedding[J]. IEEE transactions on information theory,2001,47(4):1423-1443.
[8]XIAO B,HUANG YF,TANG SY. An approach to information hiding in low bit-rate speech stream[C]//IEEE GLOBECOM 20o8 IEEE Global Telecommunications Conference.Piscataway:IEEE,2008:1-5.
[9]LIU P,LI S B,WANG H Q. Steganography in vector quantization process of linear predictive coding for lowbit-rate speech codec[J].Multimedia systems,2017,23 (4):485-497.
[10]TIAN H,LIU J,LI SB. Improving security of quantization-index-modulationsteganographyinlowbit-rate speech streams[J].Multimedia systems,2014,20(2): 143-154.
[11]LI SB,TAO H Z,HUANG Y F. Detection of quantization index modulation steganography in G.723.1 bit stream based on quantization index sequence analysis [J].Journal of Zhejiang university SCIENCE C,2012, 13(8): 624-634.
[12]YANG J,LIU P,LI S B.A common method for detecting multiple steganographies in low-bit-rate compressed speech based on Bayesian inference[J]. IEEE access, 2019,7:128313-128324.
[13]LIN Z N,HUANG Y F,WANG JL. RNN-SM:fast steganalysis of VoIP streams using recurrent neural network[J].IEEE transactions on information forensics and security,2018,13(7):1854-1868.
[14]HUYT,HUANGYH,YANG ZL,etal.Detection of heterogeneous parallel steganograpny Ior low Dit-rate VolP speech streams[J]. Neurocomputing,2021,419:70-79.
[15]YANG ZL,YANG H,CHANG C C,et al.Real-time steganalysis for streaming media based on multi-channel convolutional sliding windows[J]. Knowledge-based systems,2022,237:107561.
[16] ZHANG C, JIANG S J,CHEN Z. TENet:leveraging transformer encoders for steganalysis of QIM steganography in VoIP speech streams[J]. Multimedia tools and applications,2024,83(19):57107-57138.
[17]趙文彬,王佳琦,吳峰,等.基于圖神經(jīng)網(wǎng)絡(luò)文檔相似 度的實體與關(guān)系層次匹配方法[J].鄭州大學(xué)學(xué)報(理 學(xué)版),2023,55(6):8-14. ZHAO WB,WANG JQ,WU F,et al. A Hierarchical Matching Method of Entity and Relation Based on Graph Neural Network for Document Similarity[J].Journal of Zhengzhou university(natural science edition),2023,55 (6):8-14.
[18]彭雙,伍江江,陳浩,等.基于卷積注意力網(wǎng)絡(luò)的衛(wèi)星 觀測任務(wù)序貫決策方法[J].鄭州大學(xué)學(xué)報(理學(xué)版), 2023,55(5) :47-52. PENG S,WU JJ,CHEN H,et al. Satellite Observation Task Sequential Decision-making Method Based on Convolutional Atention Neural Network[J]. Journal of Zhengzhou university(natural science edition),2023,55(5): 47-52.
[19]KHEDDAR H,HEMIS M,HIMEUR Y,et al.Deep learning for steganalysis of diverse data types:a review of methods, taxonomy,challenges and future directions[J]. Neurocomputing,2024,581:127528.
[20] ANOWAR F,SADAOUI S, SELIM B. Conceptual and empirical comparison of dimensionality reduction algorithms(PCA,KPCA,LDA,MDS,SVD,LLE,ISOMAP,LE,ICA,t-SNE)[J].Computer science review, 2021,40:100378.