摘 要:現存的大多數隱寫分析方法的泛化能力較弱,無法對未知隱寫算法有效檢測,使得其分類的準確性在實際運用過程中大幅度降低。針對這個問題,提出了一種基于分組卷積和快照集成的圖像隱寫分析方法(snapshot ensembling steganalysis network,SENet)。首先,殘差卷積塊和分組卷積塊對圖像的特征進行提取并利用;其次,在每個訓練周期中得到性能最好的模型作為快照模型;最后將選定的快照模型進行集成后對圖像進行分類。該方法應用分組卷積和快照集成的技術,避免了傳統集成方法的高訓練成本以及單一分類器泛化能力有限的問題。實驗結果表明,該方法可以提升隱寫分析模型的準確率,并且在訓練集和測試集失配時,也能夠有效地進行分類,具有較高的模型泛化能力。
關鍵詞:圖像隱寫分析;卷積神經網絡;快照集成
中圖分類號:TP309.2 文獻標志碼:A
文章編號:1001-3695(2023)04-039-1203-05
doi:10.19734/j.issn.1001-3695.2022.08.0416
Abstract:Most of the existing steganalysis methods have weak generalization ability and cannot effectively detect unknown steganalysis algorithms,which makes the accuracy of their classification greatly reduced in the practical application process.To solve this problem,this paper proposed an image steganalysis method based on group convolution and snapshot ensembling SENet.Firstly,it used residual convolution block and group convolution block to extract the features of the image.Secondly,it obtained the model with the best performance as the snapshot model in each training period.Finally,it integrated the selected snapshot models to classify the images.This method used the techniques of group convolution and snapshot ensembling to avoid the high training cost of traditional integration methods and the limited generalization ability of a single classifier.Experimental results show that this method can improve the accuracy of steganographic analysis model,and can effectively classify when the training set and test set are mismatched,and has high model generalization ability.
Key words:image steganalysis;convolutional neural network;snapshot integration0 引言
數字隱寫技術自出現以來,被廣泛用于傳遞各種秘密信息,與同為傳遞秘密信息的密碼技術相比,其關鍵在于它不僅能夠將要傳達的信息進行隱藏,而且能夠將傳遞的過程隱蔽[1]。但隱寫術的濫用也會給國家安全、公共利益帶來嚴重的危害,與其對抗的隱寫分析技術應運而生。
Farid等人[2,3]提出的小波高階統計方法因為其對當時的隱寫算法檢測效果顯著,在早期的隱寫分析方法中脫穎而出。Pevn等人[4]為了檢測HUGO隱寫算法,提出了高維富模型(rich model,RM)特征,該特征是隱寫分析中最重要的特征之一,隨后在此基礎上出現了富模型分析(steganalysis rich mo-del,SRM)[5]和maxSRMd2[6]。但是傳統的隱寫分析對于設計者有過高的經驗需求,還要耗費大量的人力物力,分類的效率亟待提高。
在2015年,Qian等人[7]提出Qian-Net,將深度學習和圖像隱寫分析結合起來,利用深度學習中神經網絡各種非線性結構單元能夠對復雜圖像統計的特性進行特征表達,將特征提取和特征設計兩個步驟放入神經網絡中實現,降低了隱寫分析算法設計的難度,與傳統的隱寫分析方法SRM相比,該神經網絡的檢測錯誤率高了大約3%,錯誤率在能夠接受的范圍之內,這說明了通過深度學習進行隱寫分析的可行性。隨后Xu等人[8]和Ye等人[9]都將基于深度學習的隱寫分析模型進行了更進一步的提高,使得其準確率大大超過了經典的傳統隱寫算法SRM和maxSRMd2。
這些隱寫分析模型在面對特定的隱寫算法時能夠保持高準確率,然而,在面對各種未知的隱寫算法時,其準確率便會大打折扣,所以,隱寫分析模型的泛化能力需要進一步的提高。Boroumand等人[10]提出了SRNet,為了有效地提高模型的泛化能力,設計了端到端的隱寫分析網絡結構,該網絡將所有卷積操作都作為參數更新的依據,并且引入了殘差結構,不管是對空域還是JPEG域的隱寫分析都具有一定的精度提升。后來,Zhang等人[11]使用更小的卷積核,并且從預處理層入手對卷積過程進行優化,進一步提高了空域隱寫的分析精度和泛化能力。近年以來,You等人[12]提出了SiaStegNet。該網絡使用了一種雙分支共享參數的網絡結構,對比同一圖像兩個部分的特征相似度來分析是否包含隱藏信息,不僅準確度得到了提升,而且能夠對不同尺寸的圖像進行分類。
隨著隱寫技術的不斷發展,不僅安全性有了明顯的提高,算法種類也是不斷增加。為了更好地適應迅速發展的隱寫技術,適應各種不同情景下的圖像隱寫分析需求,要求隱寫分析模型的泛化能力進一步提升,讓其擁有更準確的對未知隱寫算法的檢測能力。本文提出了一種基于分組卷積和快照集成的圖像隱寫分析方法SENet,該方法采用多個快照模型進行集成分類,有效改善了之前單一分類器泛化能力有效的問題,并且整個模型是一個端到端的網絡結構,從預處理層到殘差卷積塊和分組卷積塊,所有包含卷積操作的參數都能夠進行權重更新,進一步提高了網絡的泛化能力,讓其具備面對未知的隱寫方法仍然能夠有效檢測分類的能力,更具實用價值。殘差卷積塊和分組卷積塊在保證對隱寫圖像特征充分提取利用的前提下有效減少了網絡的參數,同時快照集成也沒有增加任何訓練成本。實驗結果表明,本文方法在確保對單一隱寫算法檢測高準確率的前提下,提高了隱寫分析模型的泛化能力和實用性。
1 相關知識
1.1 快照集成
近些年來,集成學習在神經網絡各項任務中使用得越來越多,其可以得到比單模型泛化能力更好的模型,從而使各項任務的分類性能提高。但是這類傳統的單模型集成方法為多特征融合,其對于特征融合應當選擇神經網絡中的哪一層一直無法明確,選擇錯誤的網絡層可能無法起作用,甚至造成反作用,而且這種集成方法還會使訓練成本增大。Huang等人[13]提出了一種新的集成學習方法,稱為快照集成。它通過循環余弦退火學習率的方法在一次學習中獲得多個快照模型,可在不增加訓練成本的基礎上對單模型進行集成。
快照集成使用隨機梯度下降(stochastic gradient descent,SGD)[14]對模型進行優化,但是在優化過程中有時不會收斂到全局最小值,而是收斂到泛化能力更好的局部最小值。如圖1所示,傳統的模型優化過程結束后損失值收斂到最低;而快照集成的模型優化過程中學習率不斷地循環下降和上升,可以收斂到多個局部最小值,從而使用這些模型進行集成學習。
1.2 循環余弦退火學習率
在神經網絡訓練過程中,學習率如果過大,收斂速度變快,但是會在極值點周圍振蕩;而學習率如果過小,收斂速度變慢,但是能夠收斂到模型的局部最小值。所以在優化過程中,開始階段使用大學習率,進入局部最小值周圍,后使用小學習率,最終收斂到最佳局部最小值。因此本文快照集成中使用循環余弦退火學習率,余弦函數在變化過程中是先緩慢下降,之后加速下降,最終又緩慢下降,按照這個變化趨勢來調整學習率,提升學習效果。在優化的開始階段,根據余弦值的變化減少學習率,使模型收斂到局部最小值,然后把學習率調整為開始階段的初始值,大學習率會擾動模型使得跳出這個局部最小值,而后根據相同規則減小學習率,尋找下一個局部最小值,重復以上操作,可以得到多個局部最小值。學習率的變化如式(1)所示。
α(m)=f(mod(m-1,[M/N]))(1)
其中:M為訓練的總迭代次數;m為訓練過程中的迭代次數;N為訓練周期的個數。在每個周期內學習率按照余弦函數遞減,在周期開始時學習率最大,記為α=f(0)。之后在本周期內逐漸退火為小學習率,使其收斂到局部最小值,然后進入下一周期,學習率突變為大學習率,使模型跳出當前局部最小值,向下一周期的局部最小值逐漸收斂。假設初始學習率為0.001,訓練的總迭代次數T為100,全過程劃分為5個周期,模型使用余弦退火時學習率變化如圖2所示,學習率在5個周期內不斷降低,每個周期內模型的參數達到局部最優,對得到的局部最優模型進行保存,就可以擁有5個快照模型。并且如圖2所示,其訓練次數并沒有因為需要快照集成而變多,避免了傳統集成方法訓練成本高的問題。
2 方案設計
本文設計的SENet主要由預處理層、隱寫分析卷積網絡模塊和快照集成模塊組成,其中各部分的細節情況如本章所述。
2.1 預處理層設計
隱寫算法的不斷改進使得隱寫信息對圖像的改變十分微小,可以被認為是在載體圖像中加入極其微小幅度的噪聲,相對于載體圖像信息也是微乎及微,不容易被直接提取利用[15]。因此,想要避免圖像內容信息對隱寫分析造成的影響,進一步提升隱寫分析的準確率,在進入網絡模型進行提取之前進行預處理是十分必要的。預處理的具體過程便是對圖像的噪聲殘差進行提取,其操作是通過30個可學習的5×5卷積核通過卷積操作來進行噪聲殘差的計算,并且卷積核的初始權值為文獻[5]中的SRM濾波器。圖3所示為圖像經過預處理前后的對比,可以看到,圖像經過預處理層后,圖像內容的大部分被過濾掉,隱寫信息和圖像信息的信噪比大大增加,使得后期模型提取特征過程中能夠更加專注于隱寫信號的提取,而不是圖像的內容。
2.2 隱寫分析卷積網絡模塊設計
隱寫分析卷積網絡模塊將預處理之后的圖像進行特征提取,根據提取的特征進行圖像分類,驗證之后根據分類的情況對網絡進行優化。如圖4所示,隱寫分析卷積網絡模塊包括兩個基本卷積塊、四個殘差卷積塊、三個分組卷積塊、兩個全連接層和一個softmax分類器。
2.2.1 殘差卷積塊
網絡的中間部分為四個殘差卷積塊,其結構在文獻[16]中提出,如圖5所示,其結構與基本卷積塊基本相同,都包括了卷積層、批量歸一化(batch normalization,BN)層和非線性激活函數,主要的不同之處在于輸入和輸出之間添加了一個短連接,使得低層和高層的特征圖進行相加,迫使網絡不斷去擬合殘差映射。使用這種結構可以解決隨著網絡深度的增加,精度達到飽和,然后迅速退化的問題,并且在網絡訓練的反向傳播過程中,這樣的殘差結構避免了因為大量的求導和連乘操作使得權重變得越來越小,從而導致梯度消失的問題。
2.2.2 分組卷積塊
分組卷積(group convolution)最早在AlexNet[17]中被提出,在ResNeXt[18]網絡中得到了改進,其優點是和普通卷積相比可以減少網絡參數,能夠在相同的精度下大大降低計算量,而且不容易過擬合。所以網絡在殘差卷積塊之后采用了兩個分組卷積塊來減少網絡的參數,優化網絡的性能。
本文采用的分組卷積塊具體結構如圖6所示。首先利用1×1的卷積對輸入特征圖進行通道上的降維,接著是3×3的分組卷積,之后再利用1×1的卷積對通道進行還原,最后通過跨層的短連接結構進行特征融合,輸出分組卷積塊的卷積結果。本文使用1×1和3×3的小卷積核,這是因為更多的小卷積核與更少的大卷積核相比效果更好,而且參數更少。
2.3 快照集成模塊設計
在快照集成模塊中,首先選擇一個最大的初始學習率α0訓練模型,根據余弦退火學習率,學習率在每個周期內不斷降低,周期末尾時,學習率無限接近于0,模型的參數在周期內達到局部最優,保存此時的模型參數得到一個周期的快照模型。之后再次將學習率初始化為最大的初始學習率α0,模型繼續訓練優化,再次到達周期末尾,保留局部最優點,循環往復。經過了M個周期的訓練,可以得到M個快照模型F1…FM。在模型測試階段,模型的最終預測結果是最后得到的m(m≤M)個快照模型softmax函數輸出的平均值。
快照集成的方法使用余弦退火學習率可以有效地將M個周期內的局部最優模型進行集成,其需要的訓練次數并沒有增加,使得網絡并沒有變得更加復雜,并且可以有效增加模型的泛化能力,提高模型對不同隱寫算法的預測準確率。
2.4 模型實現及分析
如圖7所示,本文設計的SENet模型共分三個主要部分。第一部分預處理層主要是為了提高隱寫信息的信噪比,去除圖像內容信息以便于后續的網絡模塊更好地提取利用網絡特征,具體操作是將圖像經過濾波器進行信息過濾。第二部分隱寫分析卷積網絡模塊使用余弦退火學習率將每個周期內的局部最優模型的權重拍“快照”,即將其模型參數進行保存,主要由基本卷積塊、殘差卷積塊和分組卷積塊三種卷積塊組成,其中基本卷積塊包含了卷積、批量歸一化和非線性激活三個步驟。殘差卷積塊與其相比只是在輸入和輸出之間添加了一個短連接,目的是通過將高級特征和低級特征混合使用,避免了網絡退化和信息傳遞時丟失、損耗的問題;與之前兩個主要用于提取特征的卷積塊相比,分組卷積塊主要用于減少網絡參數,其中包含了1×1的卷積用于降維和升維以便于分組卷積利用,3×3的分組卷積用于減少參數。最后一個部分是快照集成模塊,主要將之前保存的快照模型在測試階段通過均值法的集成策略進行集成后對圖像進行分類。其具體的操作為將選定的快照模型分別對圖像進行卷積處理,把每個模型的softmax函數輸出值進行平均便是快照集成模型的最終預測結果。假設需要檢測的輸入樣本為x,m個模型中第k個模型的softmax函數輸出值為fk(x),最終的集成模型的輸出h如式(2)所示。
3 實驗結果及分析
3.1 實驗數據集及平臺
本文實驗的測試環境為Windows 10操作系統,采用PyTorch 1.8.1作為深度學習框架,編程語言使用的是Python 3.6.12,顯卡型號為NVIDIA 3060(12 GB),計算架構為CUDA 11.1。測試數據集采用的是BOSSbase1.01[19],其中包括了10 000張分辨率為512×512的pgm灰度圖像。使用MATALAB中的imresiz()函數對圖像進行縮放,得到10 000張256×256分辨率的圖像數據集,之后使用S-UNIWARD、WOW和HILL三種自適應隱寫算法進行隱寫,嵌入率分別為0.2和0.4 bpp(bits per pixel)。
3.2 實驗參數
本文隨機抽取圖像數據集的6 000張圖像作為訓練集,2 000張作為驗證集,剩余的2 000張作為測試集,并且設置訓練集每一批次訓練(batch size)為16,驗證集為40。實驗采用Adam優化器來更新網絡參數,最大迭代次數為500 000次,同時設置為100 epoch。在快照集成模塊中,以20epoch為一個訓練周期,一共5個周期,即M=5,在最后的集成階段,對最后3個快照模型進行集成,即m=3。
3.3 評價指標
隱寫分析是一個二分類問題,預測后可能會出現四種情況,如表1所示。
3.4 實驗結果
3.4.1 初始學習率對本文模型影響結果分析
為了探究提出的隱寫分析模型在不同初始學習率下的性能差別,本節設置了不同初始學習率的實驗。實驗的初始學習率從0.000 1增大至0.01,在使用S-UNIWARD隱寫算法嵌入率為0.4 bpp的數據集上進行隱寫分析實驗。
圖8顯示了在不同初始學習率的隱寫分析模型分類結果,從圖中可以清楚地看到,模型的分類性能總是隨著初始學習率的升高先保持一個上升的趨勢,之后又開始下降,并且能夠在初始學習率為0.001時,分類的準確率和F1值都達到了最大值,模型的性能最佳。其原因是在學習率太小時,模型訓練時收斂得過于緩慢,耗時較長,這對于快照集成模型來說,可能在一個周期內并未找到最優解,導致其性能下降;在學習率太大時,容易造成網絡參數振蕩的問題,使得需要優化的參數在最優值附近徘徊,從而忽略了最優值的位置,導致模型性能不能達到最佳。因此,當初始學習率為0.001時,可以使得隱寫分析模型性能更好,之后的實驗也都設置0.001為初始學習率。
3.4.2 快照模塊性能對比實驗
為了驗證快照模塊在本文模型中的有效性,設置了未使用快照集成模型,其他部分與本文模型一致的對照模型,然后分別在使用S-UNIWARD隱寫算法嵌入率為0.4 bpp的數據集上進行實驗,實驗結果如表2所示,訓練準確率和損失值的變化曲線如圖9所示。從實驗的結果數據可以看出,使用快照集成模塊可以有效地提高隱寫分析網絡的準確率。其原因是快照集成模塊可以在不增加任何訓練成本的條件下,使用余弦退火算法來不斷調整學習率,可在訓練多個周期之后得到多個快照模型,并且每個快照模型的參數都是在一個周期訓練時的局部最優點參數,分類的準確度也相對較好,這充分保證了模型集成之后的效果。此外,本文只選用后三個快照模型進行集成,也避免了訓練剛開始參數初始化不合理造成的一些誤差,有效提升模型的分類性能。
3.4.3 與其他隱寫分析模型準確率對比實驗
該節將本文模型在隱寫分析中與SRNet、 Zhu-Net以及SiaStegNet三個近年來提出的網絡模型進行對比實驗。將四個模型的學習率都設置為0.001,采用同樣的初始參數,把分別使用S-UNIWARD、WOW和HILL三種自適應隱寫算法隱寫,嵌入率分別為0.2 bpp和0.4 bpp的六組數據集對四個模型分別進行訓練和測試,實驗的分類準確率如表3所示。
實驗結果表明,本文模型在嵌入率為0.4 bpp時,對三種隱寫算法的分類準確率都高于SRNet和Zhu-Net,只有對S-UNIWARD隱寫算法檢測率低于SiaStegNet,其他兩種隱寫算法的檢測率都高于SiaStegNet。在嵌入率為0.2 bpp時,對三種隱寫算法的分類準確率都高于SRNet,但是只有對HILL隱寫算法檢測率高于其他模型,對于S-UNIWARD隱寫算法檢測率低于SiaStegNet,對于WOW隱寫算法檢測率低于Zhu-Net。這是由于每一個快照模型的參數都是訓練周期內的局部最優點參數,在嵌入率較低、圖像比較復雜時,局部最優點和全局最優點相差過大,準確率有一定程度的降低,不過這也在一定程度上增大了網絡的泛化能力。SiaStegNet主要注重的是圖像不同區域特征相似性,對于某些特征改變較明顯的算法檢測更為準確,與SiaStegNet相比,本文算法更適用于大多數隱寫算法。對比SRNet,本文在網絡前方增加了預處理層,通過濾除掉大部分多余的內容信息,增加圖像的信噪比,使得模型能夠更好地利用提取到的特征。相較于Zhu-Net,本文并未使用深度可分離卷積,是由于深度可分離卷積在實驗中利用GPU加速的效果較差,訓練時間較長,需要花費更多時間在內存開銷上,所以本文采用了分組卷積來替代常規卷積,不僅減少了網絡參數,降低計算的復雜度,而且減小了網絡模型過擬合的可能性。
3.4.4 模型的泛化能力實驗
在實際應用中,需要檢測的圖像并不知道是經過何種算法進行隱寫的,當訓練集和測試集使用的隱寫算法不一致時,會導致載體圖像噪聲分布差別較大,隱寫分析模型就會失配,同時不同的嵌入率也可能會導致失配,這個問題給隱寫分析模型在實際應用中帶來了巨大的困難。為了驗證模型的泛化能力和實際應用價值,設置了隱寫分析模型的失配實驗。首先對隱寫算法失配的場景進行實驗,實驗設置了嵌入率為0.4 bpp并且使用S-UNIWARD、WOW和HILL三種隱寫算法的圖像樣本各10 000張,將其與原始圖像一起組成了三組訓練集和測試集,使用三組訓練集分別對模型進行訓練得到三個權值參數不同的模型,而后每個模型都使用三組測試集進行測試,從而得到本文模型在訓練集和測試集使用不同隱寫算法時的分類準確率,其結果如表4所示。而后又對隱藏信息嵌入率失配的場景進行實驗,實驗設置了使用S-UNIWARD算法進行隱寫但是嵌入率不同的圖像樣本各10 000張,嵌入率分別為0.2 bpp和0.4 bpp,將其與原始圖像一起組成了兩組訓練集和測試集,使用兩種嵌入率不同的訓練集對模型分別進行訓練得到兩個權值參數不同的模型,每個模型都對兩組測試集進行測試,可以得到本文模型在訓練集和測試集使用不同嵌入率時的分類準確率,其結果如表5所示。
從表中的結果可以知道,本文模型在不同嵌入算法和嵌入率的情況下,雖然檢測的準確率有所下降,但能夠與同樣嵌入算法和嵌入率直接訓練出的模型檢測準確率相當。在實際應用過程中,也不會由于失配的問題導致極大的檢測失誤,這說明快照集成模塊有效提高了模型的泛化能力和應用價值。
4 結束語
為了提高隱寫分析模型在實際場景中的應用能力,增加模型的泛化能力,本文提出了一種基于分組卷積和快照集成的隱寫分析方法,利用殘差卷積塊和分組卷積塊提取圖像特征,之后通過將每個周期內的最佳快照模型進行集成后對隱寫圖像進行分類。從實驗結果來看,該模型在失配情況下檢測準確率不會產生嚴重偏差,在沒有增加任何訓練成本的條件下,增加了模型的泛化能力,也證明了快照集成可以有效地提升隱寫分析模型的泛化能力。但是模型對低嵌入率的隱寫圖像的分類準確率低于Zhu-Net,所以接下來的研究方向就是提高本文方法對低嵌入率隱寫圖像的分類能力,進一步提高隱寫分析模型的泛化能力和實用性。
參考文獻:
[1]陳君夫,付章杰,張衛明,等.基于深度學習的圖像隱寫分析綜述[J].軟件學報,2021,32(2):551-578.(Chen Junfu,Fu Zhangjie,Zhang Weiming,et al.Review of image steganalysis based on deep learning[J].Journal of Software,2021,32(2):551-578.)
[2]Farid H.Detecting hidden messages using higher-order statistical mo-dels[C]//Proc of International Conference on Image Processing.Piscataway,NJ:IEEE Press,2002.
[3]Lyu Siwei,Farid H.Steganalysis using color wavelet statistics and one-class support vector machines[EB/OL].(2004-06-22).https://doi.org/10.1117/12.526012.
[4]Pevn T,Filler T,Bas P.Using high-dimensional image models to perform highly undetectable steganography[C]//Proc of International Workshop on Information Hiding.Berlin:Springer,2010:161-177.
[5]Fridrich J,Kodovsky J.Rich models for steganalysis of digital images[J].IEEE Trans on Information Forensics and Security,2012,7(3):868-882.
[6]Denemark T,Sedighi V,Holub V,et al.Selection-channel-aware rich model for steganalysis of digital images[C]//Proc of IEEE International Workshop on Information Forensics and Security.Piscataway,NJ:IEEE Press,2014:48-53.
[7]Qian Yinlong,Dong Jing,Wang Wei,et al.Deep learning for stegana-lysis via convolutional neural networks[J].Media Watermarking,Security,and Forensics,2015,9409:171-180.
[8]Xu Guanshuo,Wu Hanzhou,Shi Yunqing.Structural design of convolutional neural networks for steganalysis[J].IEEE Signal Proces-sing Letters,2016,23(5):708-712.
[9]Ye Jian,Ni Jiangqun,Yi Yang.Deep learning hierarchical representations for image steganalysis[J].IEEE Trans on Information Forensics and Security,2017,12(11):2545-2557.
[10]Boroumand M,Chen M,Fridrich J.Deep residual network for stegana-lysis of digital images[J].IEEE Trans on Information Forensics and Security,2018,14(5):1181-1193.
[11]Zhang Ru,Zhu Feng,Liu Jianyi,et al.Depth-wise separable convolutions and multi-level pooling for an efficient spatial CNN-based steganalysis[J].IEEE Trans on Information Forensics and Security,2020,15:1138-1150.
[12]You Weike,Zhang Hong,Zhao Xianfeng.A Siamese CNN for image steganalysis[J].IEEE Trans on Information Forensics and Security,2020,16:291-306.
[13]Huang Gao,Li Yixuan,Pleiss G,et al.Snapshot ensembles:train 1,get m for free[EB/OL].(2017-04-01).http://doi.org/10.48550/arxiv.1704.00109.
[14]Bottou L.Stochastic gradient descent tricks[M]//Neural Networks:Tricks of the Trade.Berlin:Springer,2012:421-436.
[15]沈軍,廖鑫,秦拯,等.基于卷積神經網絡的低嵌入率空域隱寫分析[J].軟件學報,2021,32(9):2901-2915.(Shen Jun,Liao Xin,Qin Zheng,et al.Spatial steganalysis of low embedding rate based on convolutional neural network[J].Journal of Software,2021,32(9):2901-2915.)
[16]He Kaiming,Zhang Xiangyu,Ren Shaoqing,et al.Deep residual learning for image recognition[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016:770-778.
[17]Krizhevsky A,Sutskever I,Hinton G E.ImageNet classification with deep convolutional neural networks[J].Communications of the ACM,2017,60(6):84-90.
[18]Xie Saining,Girshick R,Dollár P,et al.Aggregated residual transformations for deep neural networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:5987-5995.
[19]Bas P,Filler T,Pevn T.“Break our steganographic system”:the ins and outs of organizing BOSS[C]//Proc of International Workshop on Information Hiding.Berlin:Springer,2011:59-70.
[20]Jia Ju,Zhai Liming,Ren Weixiang,et al.An effective imbalanced JPEG steganalysis scheme based on adaptive cost-sensitive feature learning[J].IEEE Trans on Knowledge and Data Engineering,2022,34(3):1038-1052.
[21]Hripcsak G,Rothschild A S.Agreement,the F-measure,and reliability in information retrieval[J].Journal of the American Medical Informatics Association,2005,12(3):296-298.