999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進的三向流Faster R-CNN的篡改圖像識別

2020-06-07 07:06:30楊文霞
計算機應用 2020年5期
關鍵詞:特征提取特征區(qū)域

徐 代,岳 璋,楊文霞*,任 瀟

(1.武漢理工大學理學院,武漢430070; 2.武漢理工大學自動化學院,武漢430070)

(?通信作者電子郵箱wenxiayang@163.com)

0 引言

圖像篡改識別技術是指針對數字圖像偽造過程和痕跡,綜合運用圖像處理與識別方法,結合圖像特征,發(fā)現并定位被篡改區(qū)域的一類技術,在經濟發(fā)展、政治建設、法制完善等方面具有重要的物證價值。國內外相關學者在篡改識別技術種類與普適性方面進行了大量研究。Wang等[1]對近年來篡改圖像被動取證技術進行了概述與分析,從語義的低、中、高三個層次對這些方法的主要思想進行了詳細介紹,并提出了一些建議;Zhang等[2]提出的基于勒讓德不變矩的方法,通過構造模糊不變量對篡改區(qū)域進行評價與判斷,具有更強的抗噪聲性和識別能力;劉一等[3]提出的再采樣算法,在重采樣的基礎上加入了縮放因子和信號二階導數,實驗結果表明所提算法具有很好的抗JPEG壓縮能力;王春華等[4]提出了一種基于區(qū)域直方圖和特征相關匹配規(guī)則算法,針對圖像復制-粘貼篡改,通過積分圖像,提高了Hessian矩陣行列式對圖像特征點的檢測效率;及瑩等[5]針對尺度不變特征轉換(Scale-Invariant Feature Transform,SIFT)算法對鏡像篡改識別精度不高的缺陷,通過重組極坐標等方法將識別準確率提升了30個百分點,進一步完善了經典識別體系;鄭繼明等[6]結合離散小波變換(Discrete Wavelet Transform,DWT)和(Oriented Fast and Rotated BRIEF,ORB)特征提取算法,基于漢明距離匹配相似關鍵點,實現對篡改圖像的檢測,同時可以對平移、旋轉、加噪聲等篡改手段具備一定的魯棒性。這些成果的出現推動了圖像防偽研究工作的進步,也為后續(xù)的研究積累了最初的理論基礎。

2006年,隨著深度學習理論的完善,尤其是逐層學習和參數微調技術的出現,卷積神經網絡(Convolutional Neural Network,CNN)快速發(fā)展,推動了篡改圖像識別技術進入更高層次的研究。Bayar等[7]開發(fā)了一種新的卷積層形式,用以抑制醫(yī)學圖像的內容并自適應地學習操作檢測特性,實驗證明其具有良好的識別效果;常亮等[8]對卷積神經網絡在圖像識別方面的研究進展與應用進行了深入分析,直觀地給出了卷積神經網絡的應用對圖像理解效果的提升;劉萬軍等[9]提出了基于雙重優(yōu)化的卷積神經網絡圖像識別算法,對卷積神經網絡的識別性能進行了優(yōu)化,為后續(xù)多種結構的卷積神經網絡發(fā)展提供了一種新的思路。

在利用卷積神經網絡(CNN)研究圖像識別方面,很多成熟的研究方法啟發(fā)了一些值得繼續(xù)研究的方向:張文達等[10]提出的一種多通路結構的神經網絡雖然有效降低了下采樣對特征提取的影響,但是缺少權值共享,參數設計稍顯復雜;曲長文等[11]提出多通道卷積神經網絡識別方法,隨機融合4個不同梯度方向的特征,有效降低了識別錯誤率,但是此模型網絡結構比較復雜,與單通道卷積神經網絡相比,訓練時間增加了接近一倍,且誤差反向傳播的時間有待于進一步縮短。

結合現有文獻可知,利用改進的R-CNN(Region-Convolutional Neural Network)方法識別篡改圖像仍處于發(fā)展階段,針對其中尚未被很好解決的兩個難點:一是對特征的提取,需要在有針對性的基礎上盡可能多地包含待檢測區(qū)域的信息,以便更精確地區(qū)分偽造區(qū)域與原圖的差異[12];二是由于梯度優(yōu)化能力直接影響到網絡層級和結果的收斂范圍,梯度算法的合理性設計是難點。受以上文獻的啟發(fā),本文在文獻[13]提出的雙向流網絡的基礎上,提出并融合一些有針對性的改進方法,包括加入信號特征提取檢驗重采樣痕跡,以及提出改進的分段AdaGrad自適應學習率梯度算法,實現一個三向流篡改圖像識別系統(tǒng)。

1 基于Faster R-CNN算法的篡改圖像識別

卷積神經網絡是一種帶有卷積結構的深度神經網絡,卷積結構可以減少深層網絡占用的內存量,其3個關鍵的操作:局部感受野、權值共享和pooling池化層,有效減少了網絡的參數個數,緩解了模型的過擬合問題。

2016年提出的Faster R-CNN算法[12],本質上相當于“基礎特征網絡+區(qū)域生成網絡(Region Proposal Network,RPN)+Fast R-CNN”的組合系統(tǒng)。它將Fast R-CNN中的檢測算法替換成為RPN,利用RPN對region進行選取,通過添加額外的RPN分支網絡,將候選框提取合并到深度網絡中,并創(chuàng)新地提出了“Anchor”的思路用以解決多尺寸圖像目標的輸入問題。RPN提取目標區(qū)域后,將圖片數據送入檢測網絡,通過全連接層(Fully Connected layer,FC)進行分類和回歸任務。在訓練階段,通過對R-CNN進行訓練,在其與RPN共享卷積層參數不變的前提下,微調不共享層(即R-CNN層)的參數,交替訓練RPN和檢測網絡,使兩個網絡共享卷積層。這一算法在后續(xù)的應用檢驗中,被證明具有優(yōu)越的識別性能,一度成為目標識別領域的主流框架之一,也對相繼產生的R-FCN(Region based on Fully Convolutional Network)、SSD(Single Shot multibox Detector)等產生了直接影響。

算法結構示意圖如圖1。

圖1 Faster R-CNN算法流程結構Fig.1 Flow structure of Faster R-CNNalgorithm-process

用Faster R-CNN算法識別篡改圖像的具體實現步驟可以概括為:特征提取、區(qū)域候選網絡選定、目標區(qū)池化、目標分類。其中:Softmax分支用于anchors獲得前景(目標)和背景,Regressor分支用于計算anchors的邊界框回歸偏移量。使用RPN直接生成檢測框,遍歷卷積網絡計算獲得的特征圖,為每一個點都配備多種anchors作為初始的檢測框。通過后面2次邊框回歸,修正檢測框位置,最終可以實現目標檢測和篡改區(qū)域定位。

盡管Faster R-CNN在針對篡改圖像識別方面具有以上種種優(yōu)越的性能,但是其識別精度仍可以得到進一步提高。如果考慮在池化之前從不同的卷積層提取特征,實現對多尺度特征的融合,將有效提高對細節(jié)部分的檢測精度,從而在一定程度上進一步降低篡改區(qū)域的漏警率。

文獻[13]使用的雙流特征網絡結構(RGB、噪聲),經實驗表明,對經歷了幾何變換后(縮放、旋轉等)的篡改圖像識別精度不及對復制粘貼和拼接篡改的檢測,存在一定的提升空間;且原文中從SRM(Steganalysis Rich Model)的過濾層中提取噪聲,但是有些圖片恰恰是通過隱寫加入了篡改信息,因此原文方法在去噪過程中會丟失掉一部分數據特征,針對某些情況下的篡改圖片識別效果未必理想。

2 基于Faster R-CNN三向流特征提取網絡

針對因主要特征提取不全、特征采集方式單一導致的識別精度不理想,以及梯度算法易出現收斂振蕩等問題,本文提出一個基于Faster R-CNN的三向流特征提取篡改識別網絡,針對圖像復制粘貼、剪切拼接、幾何變換這三大篡改方式進行定位與識別,從RGB特征、背景噪聲對比差異、傅里葉變換頻譜標準差三個方面,給出相應的判斷依據,將從RGB流、噪聲流和信號流中提取的特征用一個多線性池化層整合,進一步改進這三種模式的空間共線性。

深度學習網絡本身也具有特征提取的功能,但是在處理篡改圖像識別問題時,需要更加關注篡改痕跡,而非僅僅關注圖像本身的內容,因此這就要求我們提取并分析更多的特征。如果只利用傳統(tǒng)的深度神經網絡提取特征,想要達到較高的準確度,網絡復雜度會很高;如果僅采用簡單網絡,如本文中所用的VGG網絡,識別效果并不理想[10]。本文提出三向流結構,可以充分利用現有的預訓練網絡和相關研究成果,綜合考慮三種不同類型的特征,即使不使用復雜網絡也能達到理想的識別效果。本文在三向流特征網絡中,加入Faster R-CNN并進行端到端的訓練,這樣的深度學習檢測模型已經被證明了在一系列尺度上檢測對象的良好性能[11-12],其中,RPN負責提取可能包含感興趣對象的圖像區(qū)域,它可以適應圖像處理檢測。為了區(qū)分篡改區(qū)域和真實區(qū)域,利用來自RGB通道的特征捕獲線索,即篡改邊界處的視覺不一致以及篡改區(qū)域和真實區(qū)域之間的對比效果。同時,第二個特征流用來分析圖像中的局部噪聲特征,最后再檢驗重采樣痕跡,將Faster RCNN框架以三向流方式適應圖像操作檢測。我們研究了三種模式,通過多線性整合來識別篡改區(qū)域。經實驗表明,這三個流對于檢測不同的篡改技術是互補的,識別精度令人滿意。

本系統(tǒng)的基本處理步驟如下。首先,對待檢測圖像進行建模,將邊界框(bounding boxes)回歸為真實值(ground-truth);然后,分析圖像中的局部噪聲特征和重采樣痕跡,將RGB圖像通過小波去噪和傅里葉頻譜,提取噪聲特征圖和信號特征圖,并利用噪聲特征和信號特征,提供圖像處理分類的附加依據;接著,通過卷積層提取局部特征,三向流共用RPN生成候選區(qū)域(region proposals),通過池化、選取空間特征、對特征降維,將目標區(qū)域調整到固定尺寸,輸出大小固定的矩形框映射,得到目標區(qū)域在三個流向的特征集合,進行多線性池化;最后,將所得結果輸入到一個全連接層和一個Softmax層,網絡生成預測標簽,表示為cls_pred。

由于VGG-16網絡具有更快的訓練速度和更小的內存占用量,更適用于本項目組的初期研究,因此本文采取VGG-16基礎網絡架構,提出的三向流算法網絡結構示意圖如圖2。

圖2 基于Faster R-CNN的三向流網絡結構Fig.2 Structureof three-stream network based on Faster R-CNN

2.1 針對復制粘貼篡改的RGB特征提取

針對將數字圖像中某一區(qū)域進行復制并粘貼到同一幅該圖像另一區(qū)域的篡改方式,對于同幅圖像的復制粘貼篡改,被復制區(qū)域的噪聲、色彩和紋理等屬性與目標區(qū)域相似,因此可以采取基于局部色彩不變量的檢測方法,通過計算特征相似度,對圖像塊像素特征進行比對,發(fā)現相似度高或者完全相同的可疑區(qū)域,進而實現圖像檢測。

首先針對圖像的RGB特征,提取R、G、B分量,然后分別對其作小波變換。小波變換[14]可以將二維圖像在不同尺度下逐層分解為3個高頻子帶和1個低頻子帶,其中低頻子帶集中了原圖像的大部分能量,可以作為最大尺度分解下原圖像的最佳逼近。用小波變換后的低頻子帶代替原圖像,變換后的圖像尺寸為原圖的1 4i(i為小波變換的次數),從而降低了待檢測圖像的尺寸,減少了計算機的運行工作量。

用大小為a×a的滑窗對圖像進行分塊,本文取a=8。每一子塊的位置用左上角的像素位置表示。為了進一步減少圖像色彩的損失,結合CMYK模式下的色彩通道轉換,根據灰度值轉換公式:Y=0.299R+0.587G+0.114B,求出Y通道的塊數。然后根據R、G、B、Y四個通道求出圖像塊的特征值,包括R、G、B三個分量各自的均值α(1)、α(2)、α(3),以及按照四種不同方式等分Y通道時,標號1區(qū)域色彩分量占整體的百分比,記為α(4)、α(5)、α(6)、α(7),則一共可以提取 7個特征值。劃分方式如圖3所示。

圖3 對Y通道的四種等分方式Fig.3 Four halvingmethods for Y channel

其中:p1、p2為閾值,本文暫設為0.3。根據經驗,對于相似度的判斷,閾值設置較大會導致容忍度提高,誤判的幾率變大;設置較小,漏判的幾率則會變大。本項目組經過多次嘗試,通過分析檢測結果中篡改區(qū)域的邊界連續(xù)性程度,綜合考量識別效果,最終選取0.3為最優(yōu)的閾值。M(1)、M(2)、M(3)分別代表R、G、B特征相似度值,M(4)、M(5)、M(6)、M(7)分別代表Y通道四種劃分方式對應的相似度值。文獻[15]中作者又加了一條限制:|i-j|≥α,|j-k|≥α,即事先認定兩個子塊不能是相鄰的。作者給出的解釋是當篡改者復制粘貼時,往往會將圖像子塊進行一定的位移,即大于一個子塊的長度,而不是緊挨著或重疊一部分,但是這樣設定并不嚴謹,這主要與所選取子塊的大小有關。因此本文去掉了這一限制,以提高準確度與合理性。

當式(1)的兩個條件均滿足時,可以判定原圖和對比圖相似度較高,即經歷了復制粘貼篡改。

2.2 針對拼接篡改的噪聲特征提取

針對拼接篡改圖像的背景噪聲具有不一致性的特征,本文使用基于圖像背景噪聲相關性的篡改檢測方法。首先利用小波去噪,得到去噪后的圖像,然后根據拼接篡改圖和去噪圖像獲得背景噪聲圖像,最后根據背景噪聲圖像中子塊與周圍鄰域子塊的相關系數大小對篡改圖像進行鑒別定位。

具體算法流程如下:

步驟1 對待檢測圖像作去噪處理。

步驟2 根據待檢測圖像和去噪后的圖像,得到背景噪聲分布圖像。

步驟3 對背景噪聲圖像作分塊處理。子塊大小均為a×a,本文取a=8。

步驟4 相關性檢測:分別對以圖像子塊Zk(i,j)為中心的8鄰域子塊進行相關系數計算,遍歷背景噪聲中每個子塊。按照式(2)計算相關性。

其中Zˉk為Zk(i,j)的均值。

由于圖像未篡改和篡改區(qū)域邊緣臨界處的相關系數小于未篡改區(qū)域內部的相關系數[16],因此可以根據背景噪聲圖像相鄰子塊的相關系數大小來判定圖像篡改并定位。

步驟5 對子塊進行分類,并輸出二值化圖像。

2.3 針對旋轉縮放等幾何篡改的信號特征提取

在圖像篡改的過程中,通常會使用旋轉、縮放等幾何變化,這些操作需要運用插值等方法對圖像進行重采樣,對重采樣的檢測可以判斷一幅圖像是否被以某種幾何方式篡改。考慮到重采樣會導致離散傅里葉變換頻譜發(fā)生明顯變化[17-18],因此本文使用基于傅里葉變換的圖像重采樣檢測,并計算其標準偏差,根據不同采樣因子導致的標準偏差的差異,分別對圖像上采樣和下采樣操作進行檢測,以此判斷圖像是否經歷過重采樣操作。

首先對圖像數據集進行預處理,將彩色圖像轉化為灰色圖像,對灰色圖像分別進行上、下采樣。上采樣因子從1開始,間隔為0.1;下采樣因子從0開始,間隔為0.1。

對灰色圖像I(x,y)進行傅里葉變換:

并按式(3)分別計算行向量和列向量的標準偏差:

其中m Y表示行向量Y的像素平均值。原始圖像和重采樣圖像經過傅里葉變換后,如果傅里葉變換頻譜圖的標準偏差存在比較明顯的差異(本文暫設大于閾值0.7),則可以認定原圖像經歷了幾何篡改。

2.4 多線性池化及損失函數設置

RGB流、噪聲流與信號流主干卷積網絡結構相同,并且共享一個池化層。在不降低性能的前提下,進行多線性池化,這樣的優(yōu)點是保留了待檢測圖像數據集的空間信息,節(jié)省了內存,加快了訓練速度。此后,對L2標準化,然后轉入全連接層。

本文沿用文獻[13]中對RPN的損失函數:

其中:pi表示預測結果落在目標區(qū)域內的概率表示目標與非目標的對數損失,表示回歸損失,R為smooth L1函數。

由于參數的更新涉及到損失函數對參數的偏導,當偏導很小時,參數更新速度會變得很慢。均方差損失對參數的偏導要用到sigmoid激活函數的導數,但是sigmoid函數在其變量值很大或很小時,曲線趨于平穩(wěn),導數接近于0;而交叉熵對參數的偏導無需sigmoid函數,有效避免了參數更新停滯的問題,這就是交叉熵損失較均方差損失的優(yōu)勢所在。

本文基于三向特征流,使用交叉熵損失進行分類,使用光滑L1損失進行bounding box回歸。定義總損失函數:

其中:Ltamper代表最終的交叉熵分類損失,它基于來自RGB流、噪聲流和信號流的多線性池化特征;f1、f2、f3分別對應來自于RGB流、噪聲流、信號流的ROI特征。

3 梯度下降算法的選擇與改進

為了得到最優(yōu)的權值,往往需要選擇相應的優(yōu)化算法以得到最小的函數損失值。而求解最小的函數損失值,需要先計算出損失函數的梯度,然后按照梯度的方向使函數損失值逐漸減少,再通過對權值的不斷更新調整,使得函數損失值達到最小,從而獲得最優(yōu)解。SGD隨機梯度下降的算法思想是每次隨機選擇一個樣本進行迭代更新,根據不同的迭代次數周期性地將學習率進行更新。其參數更新方程為:

其中θ代表學習率。每次迭代按照一定的學習率θ沿梯度的反方向更新參數,直至收斂。

由于各個參數的重要性往往是不一樣的,對于不同的參數動態(tài)地采取不同的學習率效果會更好,也會讓目標函數更快收斂。AdaGrad算法就是將每一個參數的每一次迭代梯度取平方累加后再開方,用全局學習率除以這個數,作為學習率的動態(tài)更新。更新方程如式(8):

其中:ε為全局學習率;δ為較小的常數,本文設置其為10-7,以便數值計算的穩(wěn)定;r為梯度累計平方變量;g為梯度。這里的r滿足rt=rt-1+,即給梯度逐元素加一個平方和項,因此學習率大的會變小,而小的會變大,實現了對損失值的下降速度及收斂穩(wěn)定性的控制。

但是,AdaGrad算法更新公式里的梯度累計平方變量r是建立在歷史數據的基礎上的,而其中一部分歷史梯度數據對當前學習率的影響并不明顯,重復計算會導致不必要的計算量變大;另外,當收斂曲線出現震蕩變化時,缺少進一步的優(yōu)化。考慮到在損失函數收斂到一定范圍內時,下降趨勢會明顯變慢,過擬合的可能性會變大,此時如果將學習率調整到一個較小的值,則可以有效減少損失函數在這一范圍內的波動震蕩,保證其繼續(xù)下降的趨勢。因此,本文嘗試一種基于AdaGrad算法的改進的學習策略,保留對不同參數差異化學習率的算法特點,然后加入分段處理,使得當收斂震蕩時,學習率加快下降。更新公式如式(9):

其中:θ'為上一次更新時的學習率;δ為一個較小的常數,這里沿用AdaGrad算法的常數設置,設置其為10-7。改進的更新公式首先去掉了梯度累計平方變量r,從而減少了對歷史數據的重復計算。其次是充分考慮到損失值的增量變化,當損失函數的增量小于0時,屬于前期正常變化階段,分母采用平方根形式,控制收斂速度;當損失函數的增量大于0時,此時下降曲線出現波動,采用分母為平方形式的更新公式,使得學習率迅速變小,加快損失函數的下降,跳過震蕩區(qū)域。通過有監(jiān)督地分段控制收斂速度,可以有效減少收斂曲線在訓練終止前的頻繁震蕩,提高收斂精度,同時可以減少對歷史梯度數據不必要的計算,加快訓練速度。

另外,為檢驗收斂效果,引入對照組,使用Momentum動量梯度算法[20]與改進的梯度算法作對比:動量梯度算法的原理是當本次梯度下降的方向與上次更新量v的方向相同時,上次的更新量能夠對本次的搜索起到一個正向加速的作用;當本次梯度下降的方向與上次更新量v的方向相反時,上次的更新量能夠對本次的搜索起到一個減速的作用。這樣可以使梯度下降時的折返情況減輕,從而加快訓練速度。

參數更新公式為:

其中dw表示對w求偏導。

經實驗表明,在學習率較小時,適當的動量能夠起到一個加速收斂速度的作用;在學習率較大時,適當的動量能夠起到一個減小收斂時震蕩幅度的作用。

本文將AdaGrad算法、改進的AdaGrad算法與Momentnum算法作對比,實驗表明改進的AdaGrad算法具有最優(yōu)性能。

4 數值實驗

為測試本文模型的效果,選取VOC2007和CIFAR-10兩個圖片數據集,利用代碼和PS軟件進行批量合成篡改,其中這兩個數據集中用于訓練的圖像數量分別為3 000張和5 000張,測試集圖片數量分別為499張和1000張。

4.1 漏檢率、誤檢率、及其他相關參數的確定

確定漏檢率(False Negative Rate,FNR)和誤檢率(False Positive Rate,FPR):

其中:FN(False Negative)表示重采樣圖像被檢測為真實圖像的圖像個數,TP(True Positive)表示重采樣圖像被檢測為重采樣圖像的圖像個數,FP(False Positive)表示真實圖像被檢測為重采樣圖像的圖像個數,TN(True Negative)表示真實圖像被檢測為真實圖像的圖像個數。

根據文獻[11-12]的建議,本文設定漏檢率和誤檢率均為0.02。在這一范圍內,可以認定識別結果是比較準確的。

設定初始學習率為0.001;用到的四種anchor尺寸分別為82、162、322、642,縱橫比為 1∶1、1∶2、2∶1;池化后的特征尺寸為7×7×1 024;用于RPN訓練的小批量數目為100,測試數目為300。

4.2 實驗流程

實驗流程如圖4所示。

圖4 本實驗算法流程Fig.4 Flowchart of theproposed algorithm in theexperiments

具體流程詳解如下:

1)在自建的數據集上分類標注篡改圖像類型,分別代入各自的檢測任務中訓練。

2)基于RGB、噪聲、信號三大特征訓練網絡,分類池化。

3)在VGG 16網絡上進行預訓練,并作出分層調整,將分類層輸出調整為3。

4)訓練參數。采用基于改進的分段AdaGrad梯度算法更新權重參數,迭代次數86000次。

5)分別代入兩個數據集測試結果。

6)框出篡改區(qū)域,并計算出識別準確率,與文獻[13]方法的識別準確率相比較。

7)輸出識別圖像。

4.3 結果分析

4.3.1 不同梯度下降算法的性能分析

為分析本文模型性能,對三種不同梯度下降法的準確率和收斂耗時進行了比較分析,結果如表1所示。

實驗結果表明,本文改進的AdaGrad算法較Momentum算法和AdaGrad算法收斂更快,平均識別準確率更高,整體效果更好。另外,給出了動量梯度算法和改進的AdaGrad梯度算法的收斂曲線對比圖,如圖5所示。可見,在訓練結束前的后半段,改進的AdaGrad梯度算法收斂曲線震蕩明顯更少,整體收斂性能更優(yōu)。

表1 三種梯度算法性能對比Tab.1 Performance comparison of three gradient algorithms

圖5 兩種梯度算法收斂曲線對比Fig.5 Convergence curve comparison of two gradient algorithms

4.3.2 篡改識別結果比較分析

表2是使用本文模型得到的三種圖像篡改手段的識別結果,其中,準確率與耗時情況是在兩個數據集上實驗結果的平均值。實驗表明,三向流網絡結構對于三種主要的圖像篡改手段均有比較高的識別準確率,其中對于拼接篡改的識別準確率高達96.2%,且對縮放篡改的檢測高于文獻[13]方法,實現了預期目標,整體性能良好,具有實際應用及推廣價值。

表2 針對三種篡改手段的識別結果Tab.2 Recognition resultsfor threetamperingmethods

為衡量不同特征流的重要性與識別效果,在兩個數據集上應用不同的識別方法進行測試,包括單獨的RGB流、單獨的噪聲流和本文所用的三向流,三種不同特征流的識別準確率對比結果如表3所示。可見,單獨的RGB流和噪聲流不能代表三種篡改行為的全部特征,本文所用的三向流網絡結構對篡改圖像的識別準確率在兩個數據集上均高于單獨的特征流網絡結構。

表3 不同特征提取網絡結構識別準確率對比Tab.3 Accuracy comparison of different featureextraction network structures

最后,為比較本文的三向流算法的改進效果,在數據集VOC2007和CIFAR-10上,利用本文所用模型與文獻[13]采用的基于RGB和噪聲特征的雙向流算法,針對三種不同篡改方式,識別精度的結果比較如表4所示。經過對比,本文方法較對照文獻所用方法,在拼接、縮放和復制-粘貼三種篡改識別上均獲得改進,平均識別準確率提高了1.998個百分點。

表4 與目標文獻所用算法的準確率對比Tab.4 Accuracy comparisonswith thealgorithms used in thetarget literatures

4.3.3 部分篡改識別結果可視化展示

圖6~8分別展示了針對三種篡改方式的三組不同圖像的實驗結果。本文把拼接篡改集中放在圖像邊緣,把復制粘貼篡改放在圖像內部,輸出對比結果。

圖6 拼接圖像識別Fig.6 Recognition of stitchingimages

圖7 復制粘貼圖像識別Fig.7 Recognition of copying and pasting images

圖8 伸縮圖像識別Fig.8 Recognition of scaling images

5 結語

本文提出了一種基于三向流特征提取的改進的Faster RCNN算法,將圖像的RGB相似量、背景噪聲對比差異及傅里葉變換頻譜標準差融入卷積神經網絡特征提取層,經實驗表明,針對拼接、復制粘貼、縮放三種類型的圖像篡改,均取得了比目標文獻更好的識別效果,也證實了本算法對于篡改圖像的識別具有較好的泛化能力。同時,改進了AdaGrad梯度算法,通過建立關于參數學習率更新的分段函數,有效降低訓練終止前的收斂震蕩,實現了對收斂速度的控制,可以將其拓展到其他相關深度學習算法。下一步,鑒于RPN訓練速度較慢的特點,考慮使用YOLO網絡結構,將檢測問題轉化為回歸問題,避開區(qū)域生成網絡對每個候選框的精修,從而簡化網絡結構,提高速度,同時在三向流特征提取的基礎上,又可以保證識別精度,這將是后續(xù)研究的主要方向。

猜你喜歡
特征提取特征區(qū)域
如何表達“特征”
基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
關于四色猜想
分區(qū)域
基于嚴重區(qū)域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
基于MED和循環(huán)域解調的多故障特征提取
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 国产成在线观看免费视频| jizz亚洲高清在线观看| 亚洲第一成人在线| 国产乱人视频免费观看| 在线观看视频99| 不卡无码网| 亚洲电影天堂在线国语对白| 久久精品嫩草研究院| 国产在线一二三区| 国产成人综合在线观看| 中文天堂在线视频| 999精品色在线观看| 国产幂在线无码精品| 9啪在线视频| 99国产在线视频| 国产成人免费视频精品一区二区| 毛片在线区| 色综合久久88| 日韩av电影一区二区三区四区| 亚洲三级a| 国产在线精彩视频论坛| 亚洲全网成人资源在线观看| 欧美亚洲日韩不卡在线在线观看| 乱系列中文字幕在线视频| 一级黄色欧美| 久久狠狠色噜噜狠狠狠狠97视色 | 免费国产无遮挡又黄又爽| 国产欧美中文字幕| 日本亚洲欧美在线| 成人va亚洲va欧美天堂| 一区二区影院| 亚洲日韩每日更新| 国产女人在线| 亚洲国产午夜精华无码福利| 日韩精品无码一级毛片免费| 午夜a级毛片| 欧美亚洲中文精品三区| 在线另类稀缺国产呦| 午夜精品久久久久久久无码软件| 欧美日韩专区| 精品一区二区三区无码视频无码| 丰满的熟女一区二区三区l| a天堂视频| 尤物亚洲最大AV无码网站| 国产欧美在线观看一区| 97人妻精品专区久久久久| 波多野一区| 日韩人妻无码制服丝袜视频| 亚洲成人手机在线| 91无码视频在线观看| 国产精品999在线| 欧美成人在线免费| 久久综合九色综合97网| 国产精品页| 91精品情国产情侣高潮对白蜜| 国外欧美一区另类中文字幕| 欧美精品成人| 亚洲第一区在线| 国产性精品| 亚洲天堂久久| 国产女人在线观看| 亚洲高清免费在线观看| 97综合久久| 亚洲国产精品人久久电影| 国产精品lululu在线观看| 国产一在线| 国产第三区| 超薄丝袜足j国产在线视频| 亚洲毛片在线看| 久久青草免费91线频观看不卡| 人妻丰满熟妇αv无码| 影音先锋亚洲无码| 男人天堂亚洲天堂| 一级毛片a女人刺激视频免费| 激情六月丁香婷婷| 一本二本三本不卡无码| 欧美日韩亚洲综合在线观看| 美女无遮挡拍拍拍免费视频| 欧美亚洲欧美区| 国产女同自拍视频| 国产成人精品高清在线| 亚洲激情99|