999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于動態閾值的幀復制粘貼篡改檢測①

2016-02-20 06:51:52盧賀楠黃添強
計算機系統應用 2016年12期
關鍵詞:排序檢測

盧賀楠, 黃添強, 林 晶

1(福建師范大學 數學與計算機科學學院, 福州 350007)2(福建省公共服務大數據挖掘與應用工程技術研究中心, 福州 350007)3(福建師范大學 軟件學院, 福州 350007)4(大數據分析與應用福建省高校工程研究中心, 福州 350007)

基于動態閾值的幀復制粘貼篡改檢測①

盧賀楠1,2,4, 黃添強2,3,4, 林 晶1,2,4

1(福建師范大學 數學與計算機科學學院, 福州 350007)2(福建省公共服務大數據挖掘與應用工程技術研究中心, 福州 350007)3(福建師范大學 軟件學院, 福州 350007)4(大數據分析與應用福建省高校工程研究中心, 福州 350007)

幀復制粘貼是一種常見的時域篡改方式, 篡改者采用這種方式來移除視頻中某段內容, 如犯罪現場、犯罪證據等. 針對這種篡改, 已經有不少方案被提出, 但是它們有兩個缺點: 一采用固定的閾值; 二時間復雜度很高. 大部分被篡改視頻會經過再壓縮處理, 由于視頻壓縮基本是有損壓縮, 可能會導致固定閾值失去應有作用.因此, 本文提出一種基于動態閾值的被動取證算法, 來增強算法的魯棒性, 并且通過引入字典排序算法來縮小幀匹配時的搜索范圍, 成功降低了時間復雜度. 文章采用精確度、召回率和平均每幀計算時間來對提出算法的性能進行評估, 結果表明本算法在這三方面都優于其他算法, 而且具有更好的魯棒性.

幀復制粘貼; 視頻取證; 時域篡改; 動態閾值; 結構相識性系數

視頻已經廣泛應用于新聞報道、安全監控、法庭證據等各個領域, 與圖片相比, 視頻傳遞信息更直觀、生動. 然而, 近年來視頻編輯技術發展迅速, 編輯軟件種類多樣并且容易使用, 非專業人員也能實現視頻篡改, 而且不遺留任何人眼可見的篡改痕跡. 數字媒體作為當今信息傳播的主要媒介, 如果視頻傳遞的信息不真實, 有可能導致人們做出錯誤的決定, 甚至會給社會帶來不好的影響. 例如虛假的產品商業宣傳就會給購物者帶來經濟損失. 更危險的是當一段篡改后的視頻被用于法庭證據時, 會照成嚴重的后果. 因此,最近十年, 視頻內容完整性取證逐漸成為學者們熱門領域之一, 旨在研究探索視頻的處理歷史[1].

隨著研究的深入, 許多視頻篡改取證方案被提出. Wang和Farid發現一種刪幀指紋[2], 并利用它對采用固定GOP(Group of picture)組的MPEG格式視頻進行雙重壓縮檢測; 文獻[3]改進了Wang等人的特征, 構建兩種刪除指紋, 分別用來對采用固定GOP組的視頻和動態GOP組的視頻進行刪幀和插幀篡改檢測; Stamm M C等人發現如果視頻采用可變的GOP, 則可以利用P幀預測誤差序列和其自身平滑處理后做差結果來進行檢測[4]; Su等人采用運動補償邊緣效應(motion compensated edge artifact, MCEA)來檢測刪幀篡改[5]; 而Dong等人探索相鄰兩個P幀MCEA的差異, 檢測視頻幀序列經過雙重壓縮后其傅里葉變換域中是否存在波峰, 進而判斷視頻是否經過篡改[6]. 林等人提出一種基于紋理譜的時域篡改檢測算法, 通過計算紋理譜序列之間的相關系數, 根據給定閾值定位視頻篡改位置[7]. 為實現視頻局部區域復制粘貼篡改檢測, Hsu Chih-Chung等人提出一種基于模式噪聲的取證方案[8].

幀復制粘貼篡改是一種時域篡改方式, 針對這種篡改取證的研究已經有不少成果[9-12], Wang等人[9]把幀序列劃分成若干個重疊的子序列, 利用存在復制粘貼關系的子序列的空間域和時間域的相似性, 來進行篡改取證, 但是由于幀的數量, 特征提取時計算量很大. Subramanyam等人[10]利用HOG(Histogram of Oriented Gradients)特征進行匹配, 可是高維的HOG數據導致算法很復雜. Lin等人[11]先利用時域相似性來進行粗檢測, 找到可疑的幀; 然后利用空間的相似性從可疑幀查找存在復制粘貼關系的幀序列. 文獻[9-11]采用的特征比較復雜, 導致算法計算量很大, 而且精確度不夠理想. 因此, Li等人[12]提出一種基于結構相似度算法, 以測量的幀間相似度系數為指標來進行篡改檢測, 該方法提高了檢測精度, 同時降低了時間復雜度. 但Li采用的是固定閾值, 對再壓縮操作比較敏感.

本文提出的算法為每一幀設定一個動態閾值, 該閾值隨著當前幀和它前后兩個相鄰幀相似度的變化而變化, 因此算法對再壓縮有很好的魯棒性. 此外算法引入字典排序算法, 縮小幀匹配過程中搜索范圍, 有效的降低時間復雜度.

1 結構相似度系數

在傳輸和解壓過程中, 數字圖像不可避免的發生不同程度的扭曲、失真現象, 不僅會影響視覺欣賞而且影響圖像傳遞信息的真實性. 為了得到較好質量的圖片, 需要對接收的圖像進行質量評估, 來優化傳輸系統. 圖像的質量評估工作過于繁重, 由觀察員來進行主觀評價代價高而且浪費時間. Wang Zhou等人[13]根據人眼視覺特征提出結構相似度系數(structural similarity (SSIM) index)作為圖像質量評估的指標. 該指標性與主觀評價有很好的一致性, 而且計算簡單,已經廣泛應用于圖像處理等領域.

SSIM系數是衡量兩幅圖像相似度的指標, 其值越大表示圖像越相似, 最大值為1. SSIM系數的計算分為三個部分: 亮度比較函數l(x,y)的計算, 如式(1), 對比度比較函數c(x,y)的計算, 如式(2), 以及結構比較函數s(x,y)的計算, 如式(3). 三者合并得到兩幅圖像全局相似度SSIM系數. 假設x、y分別代表原始圖像和接收的圖像, 兩者的SSIM系數計算如下:

其中,μx、σx分別是x圖像的均值和方差,μy、σy分別是y圖像的均值和方差,δxy表示兩幅圖像的協方差.C1、C2、C3是用來防止分母約等于0的情況下產生不可預知的事件的發生, 即使計算結果更穩定.一般情況,是非常小的常數,L為像素最大值.α、β、γ, 是用來調整三個分量相對重要性的參數. 為使計算更簡單, Wang Zhou等人設定α=β=γ=1, 得到一個特殊的SSIM系數計算式(5).

在實際應用中, 圖片被分割成若干個11╳11像素大小的窗口, 用式(5)計算兩幅圖像中所有對應窗口的SSIM系數, 取平均得到平均的SSIM系數, 定義如式(6), 其中N是局部窗口總數,i是局部窗口序號.

2 篡改檢測算法

一個視頻經過幀復制粘貼篡改, 它的幀序列中至少包含一個復制粘貼幀序列片段, 而兩個幀序列片段之間如果存在復制粘貼關系, 那么它們的幀之間相似度會很高. 基于這個思想, 所提算法用式(6)計算兩幀之間的MSSIM系數, 并以此結果作為判定兩幀之間存在復制粘貼關系的主要依據. 算法的第一步是為每一幀設定一個閾值, 與幀匹配過程中計算的MSSIM系數作比較, 進而確定兩幀是否存在復制粘貼關系.本文算法與其他算法相比, 主要優勢在于設定的閾值是動態的, 對視頻再壓縮有很強的魯棒性. 閾值設定后, 通過與計算得到的兩幀之間的MSSIM系數, 把幀分為存在復制粘貼關系的和不存在復制粘貼關系的幀對. 算法最后一步是剔除誤檢的幀對, 同時找到漏檢的幀對, 然后把它們按視頻中的順序排列, 并利用視頻內容連續性的特點, 給出原始序列和復制粘貼序列.由上述可知, 本文算法可以分成三部分, 其框圖如圖1所示.

圖1 算法框圖

2.1 閾值設定

根據視像編碼標準[14]可知, 視頻中每一幀在編碼過程中都會經過DCT(Discrete Cosine Transform, DCT)變換和量化操作, 量化操作使得DCT系數由浮點數轉變為整數, 兩者之間的差值被稱為量化誤差[15,16],重構幀圖像時又有反DCT變換和反量化操作, 反量化使得反DCT變換系數轉變為整數, 同時把不在[0,255]范圍內的系數強制轉為0或255[16]. 幀圖像編碼和重構過程中都有數據丟失, 整個過程不可逆, 而且這種現象在全部視像編碼過程中都存在, 從而導致兩幀間的相似度隨著兩幀間隔距離的增加而降低. 為了展現這個結論, 我們來做一個實驗. 首先, 選取一個原始視頻, 視頻背景靜止并且沒有任何運動目標, 測量第90幀和視頻中所有幀之間的MSSIM系數, 結果如圖2.然后對該視頻進行幀復制粘貼篡改, 為方便對比, 我們把83~120的幀序列復制粘貼到196~233的位置, 篡改后的視頻幀序列中第90幀和第203幀之間存在復制粘貼關系, 同樣測量第90幀和篡改后視頻的所有幀之間的MSSIM系數, 結果如圖3.

圖2 原始視頻幀序列第90幀和所有幀之間的MSSIM系數變換趨勢

圖3 篡改視頻幀序列第90幀和所有幀之間的MSSIM系數變換趨勢

圖2 展示的是MSSIM的值隨著兩幀之間距離的增加的變換趨勢, 我們發現隨著間隔距離的增加, 兩幀間相似度整體表現為下降的趨勢. 雖然有一些輕微的波動, 但總體是下降的趨勢, 并且下降速度先快后慢. 由圖3可知存在復制粘貼關系的幀之間的相似度很高, 同時從中可以發現第90幀和第203幀之間的MSSIM系數并沒有達到1, 這是因為視頻篡改后進行了二次壓縮, 使得兩幀之間的相似度降低了.

此外, 第90幀和第203幀之間的MSSIM系數高于第90幀和它的兩個相鄰幀(89幀和91幀)的MSSIM系數. 為證明這一現象在視頻幀序列中普遍存在, 50段不同視頻的幀序列被用來做進一步的實驗. 假設幀Pi和幀Pj存在復制粘貼關系, 幀Pi是原始幀V1是幀Pi和幀Pj之間的MSSIM系數,V2是幀Pi和幀Pi+1之間的MSSIM系數,V3是幀Pi和幀Pi-1之間的MSSIM系數. 分別計算每個視頻相應的V1、V2、V3,部分結果如表1. 用事件A表示:V1是最大的; 用事件B表示:V1介于V2和V3; 用事件C表示:V1是最小的.

表1 部分實驗結果

從表中數據可知: 事件A經常發生, 事件B偶爾發生, 事件C一次也沒發生. 因為我們做實驗所用視頻數目很少, 不能因此而得出事件C不可能發生這一結論, 但可以得出事件C發生的概率很小. 因此可以取V2、V3中較小的一個作為幀Pi的閾值來尋找與它有復制粘貼關系的幀.

在許多篡改取證算法中, 設定閾值是一個關鍵問題, 也是一個難點. Lin等人[11]和Li等人[12]采用固定參數作為判定閾值. 由上文分析知: 二次壓縮操作會降低復制粘貼幀之間的相似度, 繼而影響設定的固定閾值的效果, 使得算法的精確度降低. 圖4展示一個篡改視頻經過不同比率的二次壓縮后, 所有相鄰幀的MSSIM系數平均值的變化趨勢, 二次壓縮率為0%、10%、20%、……、90%, 在圖中的編號依次為1, 2, 3, ……, 10. 圖4表明相鄰幀相似度值會隨著壓縮率的增加而降低. 因此, 采用固定閾值的算法針對二次壓縮的魯棒性較弱.

圖4 幀間相似度隨著壓縮率增加的變化趨勢

針對這個問題, 本文給出一種動態閾值設定方法.根據上述實驗可知: 可以取當前幀與其前后兩個相鄰幀之間MSSIM系數中較小的一個為當前幀的判定閾值, 即為每一幀設定一個閾值, 且閾值由該幀本身和它相鄰的幀決定. 詳細步驟如下.

T1. 第一步, 視頻轉換為幀序列:F1、F2、……、Fi、……、Fn,n是幀的總數, 然后把每一幀轉換為灰度圖像, 得到灰度圖像序列:P1、P2、……、Pi、……、Pn.

T2. 第二步, 為每一幀設定一個判定閾值. 用Ti表示幀Pi的閾值. 分別計算Pi和Pi+1之間的MSSIM系數,Pi和Pi-1之間的MSSIM系數, 取兩者中較小的為Pi的判定閾值.

T3. 最后, 計算所有閾值的平均值E和方差D, 根據式(7)更新每一幀的閾值.

步驟T3中更新閾值操作很關鍵, 不能省略. 因為對某一段視頻進行檢測之前, 我們無法預測視頻經過什么方式的處理, 也不清楚視頻內容以及場景的變換規律, 但是我們要盡可能的把對算法有影響的因素都考慮到. 例如, 視頻中的場景快速變換; 一個快速移動目標進入視頻; 有復制粘貼篡改操作等. 我們用圖5來解釋剛給出的三種狀況帶來的問題. 假設第一種或第二種狀況發生在圖中的第三幀, 那么從第二幀圖片到第三幀圖片, 兩者的內容發生了明顯的變化, 兩幀的相似度會急劇下降, 即兩幀的MSSIM系數很小. 如果3、4、5幀是從視頻中其他位置復制粘貼得到的, 那么第二幀和第三幀的MSSIM系數也很小, 因為這時兩者之間的內容也存在明顯的差異. 考慮到這些狀況可能會發生, 為剔除步驟T2中可能存在的較小閾值,必須用式(7)對閾值進行更新. 因為某幀閾值越小, 則找到的與該幀存在復制粘貼關系的可疑幀會越多(原因將在下一節說明), 從而增加算法計算量, 而且使得后處理更加困難, 降低了算法的效率.

圖5 部分視頻幀序列

2.2 幀匹配

在Lin等人和Li等人提出的方案中, 都先把整個視頻幀序列分割成若干個重疊的子序列, 再進行幀間相似度測量. 子序列分割方式如圖6所示. 假設幀總數為n, 子序列的長度為m, 則得到的子序列共有(n-m+1)個. 每一個子序列都和其他子序列進行相似度測量, 即使每兩個子序列只進行一次計算, 也需要進行(n-m-1)(n-m)/2次, 隨著幀數目的增加, 計算量會快速增加.

圖6 子序列分割方式

為了降低計算量, 本算法引入字典排序算法. 字典排序能有效的把相似度較高圖片排序放在距離較近的地方, 而且簡潔迅速. 字典排序對提取的特征較為敏感, 本方案采用圖像DCT變換后系數作為特征, 為減少特征向量的維數, 只取DCT系數Zig-Zag排序后的前十個系數作為每一幀的特征向量. 詳細步驟如下:

T1. 提取每一幀圖像的特征向量. 對灰度圖像序列:P1,P2, …,Pi, …,Pn中的每一幀進行DCT變換,得到n個DCT系數矩陣, 每個矩陣中的系數經過Zig-zag排序后取前十個系數作為對應幀的特征向量.定義M=[V1,V2,…,Vi,…,Vn], 其中Vi表示幀Pi的特征向量,n是幀的總數.

T2. 對矩陣M進行字典排序得到矩陣Morder.

T3. 根據字典排序的結果, 來搜索可能存在復制粘貼關系的幀對, 這個過程稱為幀匹配. 假設幀Pi在矩陣Morder中的第j行, 那么尋找與幀Pi存在復制粘貼關系的幀時, 只需要檢測在[j-10,j)∪(j,j+10]范圍內的幀. 計算幀Pi和在[j-10,j)∪(j,j+10]范圍內所有幀之間的MSSIM系數, 并與Pi的閾值Ti進行比較. 如果幀Pk在[j-10,j)∪(j,j+10]范圍內, 且Pi和Pk兩者之間的MSSIM系數Tik大于閾值Ti, 則把幀對(Pi,Pk)放入集合C中.

引入字典排序后, 縮小了幀匹配時搜尋的范圍,每一幀在匹配的過程中只需要進行20次相似度測量,n幀需要計算 20n次, 與Lin和Li等人的方案相比, 所提算法有效的減少計算次數, 提高了方案的效率.

2.3 后處理

在2.2節, 匹配結果中可能會發現有一幀對應多幀的情況, 這是問題(一), 導致這種現象的原因有三個, 一是這一幀確實多次復制粘貼, 二是上文中討論的事件B和事件C至少有一個出現了, 三是特殊情況,這兩幀相似度確實很高, 但它們之間不存在復制粘貼關系; 此外, 在2.2節中采用字典排序算法來縮小搜索范圍, 雖然提高了方案效率, 但是同時帶來一個問題.因為字典排序不能保證把所有相似的幀都排序放在相距很近的位置, 即有可能存在一幀與Pi有復制粘貼關系, 但是經過字典排序后, 這一幀不在[j-10,j)∪(j,j+10], 導致漏檢, 這是問題(二).

為了解決問題(一), 我們設計了一個分類器, 分類器由兩部分組成, 第一部分是用來消除由事件B和事件C發生造成的誤檢測, 第二部分是用來排除特殊情況造成的誤檢測. 第二部分的設計原理是利用了人眼視覺特征, 因為必須連續復制粘貼15幀, 人眼才能感覺到視頻內容的變化, 所以可以認為復制粘貼的幀序列長度至少為15, 如果檢測到的幀序列長度小于15,則判定是特殊現象帶來的誤差. 問題(二)是通過檢測到的幀, 按幀序號一幀一幀向外擴展解決的, 具體步驟如下.

T1. 分類器第一部分定義如式(8), 其中i、j表示幀序號. 集合C中所以幀對都要經分類器處理, 如果φ(Pi,Pj)=0, 則把幀對(Pi,Pj)從集合C中移除.

T2. 集合C中的幀對經過分類器處理后, 從C中任取一幀對(Pp,Pq), 把它放入集合S中, 并從C中移除. 記錄下當前這兩幀的序號, 令a=p,b=q.

T3. 檢測幀對(Pp+1,Pq+1)是否存在與集合C中, 如果存在, 則把它從C中移除, 放入S中, 令p=p+1,q=q+1, 跳轉至T3; 如果不存在, 跳轉至T4.

T4. 計算幀Pp+1和幀Pq+1兩者之間的SSIM系數,如果它們的SSIM系數大于閾值Tp+1(Pp+1的閾值)或者Tq+1(Pq+1的閾值)其中一個, 則令p=p+1,q=q+1, 并跳轉至T3; 否則, 把幀對(Pp+1,Pq+1))從集合S中刪除, 令p=a,q=b, 然后跳轉至T5.

T5. 檢測幀對(Pp-1,Pq-1)是否存在于集合C中,如果存在, 則把它從C中移除, 放入S中, 令p=p-1,q=q-1, 跳轉至T5; 如果不存在, 跳轉至T6.

T6. 計算幀Pp-1和幀Pq-1之間的SSIM系數, 如果它們的SSIM系數大于閾值Tp-1或者Tq-1, 則令p=p-1,q=q-1, 跳轉至T5; 否則, 跳轉至T7.

T7. 統計集合S中幀對的總數, 記Num, 分類器的第二部分定義如公式(9). 如果U(S)=1, 則認為當前集合S中可以組成兩段存在復制粘貼關系的幀序列.假設幀兩段幀序列分別為Pi,Pi+1, … ,Pi+m和Pj,Pj+1, …,Pj+m. 根據復制粘貼序列和其粘貼位置連續性較弱的特點來判定原始幀序列和復制粘貼幀序列, 計算公式如(10)~(13). 如果MSSIMi+MSSIMi+m>MSSIMj+MSSIMj+m,則Pi,Pi+1, …,Pi+m是原始序列,Pj,Pj+1, …,Pj+m是復制粘貼幀序列; 否則,Pj,Pj+1, …,Pj+m是原始幀序列,Pi,Pi+1, …,Pi+m是復制粘貼序列. 如果U(S)=0, 則清空集合S, 轉至T8.

T8. 重復步驟T2~T7, 直到C為空.

3 實驗結果及分析

為完成實驗, 我們選取15段視頻, 其中包括5段分辨率為640×480的視頻、5段分辨率為720×576的視頻以及5段分辨率為1920×1080的視頻. 篡改視頻時, 復制的幀序列長度從15~150不等, 使用Adobe Premiere Pro CS5來篡改視頻, 使用Free Video compression來對視頻進行壓縮, 電腦配置了3.20GHz的CPU, 運行軟件為Matlab2012a.

3.1 算法評估參數

為評估本方案的性能, 我們統計了算法的精確度(precision)、召回率(recall)和計算時間三種參數. 精確度和召回率是比較傳統的評估參數, 已經廣泛應用于圖片相關檢查、分類研究等領域. 精確度越高表明算法的檢測越準確; 召回率越高表明算法的誤檢率很低.精確度和召回率的定義分別如式(14)(15),Nc表示正確檢測結果的數目,Nf是錯誤檢測結果的數目,Nm是漏檢幀的數目.

此外, 計算時間也被用來作為算法評估的一個重要參數, 本文采用是平均每一幀所花費的時間.

3.2 實驗結果

表2給出用于實驗的15段視頻的詳細信息. 表3給出本文算法檢測的結果. 為了證明算法對二次壓縮有很強的魯棒性, 我們對篡改視頻進行壓縮, 壓縮率分別為20%、50%以及90%, 然后用所提算法對壓縮后的視頻依次檢測, 結果分別在表4、表5和表6中展示, 從實驗結果可以知: 無論篡改視頻是否經過壓縮,本文算法都能精確定位篡改幀序列.

表3結果顯示當篡改者沒有對篡改視頻進行二次壓縮時, 算法檢測正確率達到100%, 無一幀漏檢. 原因是如果視頻篡改后不經過壓縮, 那么存在復制粘貼關系的兩幀之間的相似度值是1, 而根據給出的閾值自適應設定方法知, 閾值一定小于1, 這樣自然就不會出現漏檢現象.

表2 測試視頻

視頻11 321 1920×1080沒有篡改視頻12 300 1920×1080217-256 101-140視頻13 283 1920×108031-45 150-164視頻14 575 1920×1080123-201 363-441視頻15 293 1920×108083-120 196-233

表3 本文算法對沒有經過二次壓縮視頻檢查結果

對比表3和表4發現, 當視頻二次壓縮率小于20%時, 所提算法幾乎不受影響. 而由表5、表6可得,當壓縮率達到50%時, 結果偶爾出現漏檢現象, 如視頻9的幀對(164,342)、視頻14的幀對(123,363)未檢測到. 當壓縮率達到90%時, 漏檢現象就很普遍了, 如視頻3、5、7、9、10、13、14、15都出現漏檢情況, 但是我們發現漏檢的都是篡改幀序列的開始1-2幀或者后面1-2幀, 這不影響算法對復制粘貼序列的定位. 此外, 本文算法對未篡改的視頻判定完全正確, 而且只有表6中視頻5的幀對(195,451)是誤檢測的, 說明所提算法的誤檢率很低.

表4 算法對經過二次壓縮率為20%的視頻檢測結果

視頻9 164-220 342-398 0.477視頻10 662-788 245-371 0.502視頻11 1920×1080沒有篡改 1.825視頻12 217-256 101-140 1.971視頻13 31-45 150-164 1.972視頻14 123-201 363-441 1.788視頻15 83-120196-233 1.984

表5 本文算法對經過二次壓縮率為50%的視頻檢測結果

表6 本文算法對經過二次壓縮率為90%的視頻檢測結果

3.3 算法對比

綜上所述, 本文提出的算法動態設定閾值, 增強了算法的魯棒性, 同時采用字典排序算法, 有效的降低算法的計算量. 為說明算法的有效性, 將從準確度、召回率和計算時間三方面與文獻[12]所提算法進行比較, 結果如表7.

表7 準確度、召回率和計算時間比較

由表7可得, 文獻[12]給出的算法隨著二次壓縮率的增加, 算法準確度和召回率都快速降低, 而無論視頻是否經過二次壓縮, 本文所提算法的準確度和召回率都沒有太大的波動, 并且都高于文獻[12]的算法. 結果證明本文算法對壓縮有很強的魯棒性.

表7最后一列給出每幀平均所花費的時間, 平均時間計算方法: 首先, 分別計算分辨率為640×480, 720×576, 1920×1080的視頻每幀所用時間, 然后三者取平均. 相比文獻[12]的方法, 所提算法有效的降低了時間復雜度.

4 結語

本文提出一種新的幀復制粘貼篡改盲取證算法,該算法為每一幀設定一個閾值, 而且閾值是由當前幀本身和它前后相鄰幀MSSIM系數決定, 隨著MSSIM系數的變化而動態變化. 動態閾值使得算法能很好的應對不同強度的壓縮, 增強了算法的魯棒性. 而且所提算法引入了字典排序, 字典排序簡單有效, 通過縮小幀匹配過程中的搜索范圍, 減少相似度計算的次數,提高算法效率. 實驗結果表明所提算法優于文獻[12]中的算法.

相比已經存在的算法, 所提算法時間效率有了較大提升, 但是隨著視頻分辨率的增加, 平均每幀所用時間也大幅增加, 為應對視頻分辨率的增長, 研究并發現一個更簡單、更有效的新特征來進行視頻篡改檢測是我們未來工作的主要目標.

1 Milani S, Fontani M, Bestagini P, et al. An overview on video forensics. APSIPA Trans. on Signal and Information Processing, 2012, 1: e2.

2 Wang W, Farid H. Exposing digital forgeries in video by detecting double quantization. Proc. of the 11th ACM Workshop on Multimedia and Security, ACM MM&SEC. New York. ACM. 2009. 39–48.

3 Stamm MC, Lin W, Liu KJ. Temporal forensics and anti-forensics for motion compensated video. IEEE Trans. on Information Forensics and Security, 2012, 7(4): 1315–1329.

4 Stamm MC, Wu M, Liu KJR. Information forensics: An overview of the first decade. Access, IEEE, 2013,1: 167–200.

5 Su Y, Zhang J, Liu J. Exposing digital video forgery by detecting motion-compensated edge artifact. International Conference on Computational Intelligence and Software Engineering. Wuhan, China. IEEE. 2009.

6 Dong Q, Yang G, Zhu N. A MCEA based passive forensics scheme for detecting frame-based video tampering. Digital Investigation, 2012, 9(2): 151–159.

7 林新棋,林云枚,林志新,等.基于紋理譜的視頻幀間篡改檢測.計算工程,2015,41(11):314–321.

8 Chih C, Htzu YH, Lin C, et al. Video forgery detection using correlation of noise residue. Multimedia Signal Processing, 2008 IEEE 10th Workshop on. Cairns. IEEE. 2008. 170–174.

9 Wang W, Hany F. Exposing digital forgeries in video bydetecting duplication. Proc. of the 9th Workshop on Multimedia & Security. New York. ACM. 2007. 35–42.

10 Subramanyam AV, Emmanuel S. Video forgery detection using HOG features and compression properties. 14th International Workshop on Multimedia Signal Processing (MMSP). Banff. IEEE. 2012. 89–94.

11 Lin G, Chang J. Detection of frame duplication forgery in videos based on spatial and temporal analysis. International Journal of Pattern Recognition and Artificial Intelligence, 2012, 26(7): 1250017.

12 Li F, Huang T. Video copy-move forgery detection and localization based on structural similarity. Proc. of the 3rd International Conference on Multimedia Technology, ICMT 2013. Springer Berlin Heidelberg. 2014. 63–76.

13 Wang Z, Bovik AC, Sheikh HR, et al. Image quality assessment: From error visibility to structural similarity. IEEE Trans. on Image Processing, 2004, 13(4): 600–612.

14 林福宗.多媒體技術基礎.第3版.北京:清華大學出版社,2011.

15 Huang F, Huang J, Shi Y. Detecting double JPEG compression with the same quantization matrix. IEEE Trans. on Information Forensics and Security, 2010, 5(4): 848–856.

16 Yang J, Jin X, Zhu G, et al. An effective method for detecting double JPEG compression with the same quantization matrix. IEEE Trans. on Information Forensics and Security, 2014, 9(11): 1933–1942.

Frame Copy and Paste Tampering Detection Based on Dynamic Threshold

LU He-Nan1,2,4, HUANG Tian-Qiang2,3,4, LIN Jing1,2,412
(School of Mathematics and Computer Science, Fujian Normal University, Fuzhou 350007, China) (Fujian Engineering Research Center of Public Service Big Data Mining and Application, Fuzhou 350007, China)34(School of Software, Fujian Normal University, Fuzhou 350007, China) (Fujian Provincial University Engineering Research Center of Big Data Analysis and Application, Fuzhou 350007, China)

Frame duplication forgery is a very common operation for video tampering in the temporal domain. By removing some frames which contain a crime scene or crime evidence, the forger can change the video content. A lot of solutions have been proposed for detecting this type of tempering operation. However, there are two disadvantages. The first one is fixed threshold; the other is huge computation. In general, frame duplication forgery and re-compression would be performed on a video at the same time. Since re-compression will cause data lost, the fixed thresholds may lose their effects. Therefore, an algorithm based on dynamic threshold is proposed in this paper, which can improve the robustness. Additionally, the proposed method adopts dictionary order algorithm to reduce the search scope of frame matching and the time complexity. Three performance indices: precision, recall and average computation time per frame are employed to evaluate our algorithm. The results demonstrate that the proposed method outperforms the existing methods in terms of precision, recall and computation time.

frame duplication; digital video forensics; temporal forgery; dynamic threshold; structural similarity index

2016-03-14;收到修改稿時間:2016-05-12

10.15888/j.cnki.csa.005499

猜你喜歡
排序檢測
排排序
排序不等式
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
恐怖排序
節日排序
刻舟求劍
兒童繪本(2018年5期)2018-04-12 16:45:32
主站蜘蛛池模板: 亚洲精品无码不卡在线播放| a级毛片一区二区免费视频| 99精品高清在线播放| 日韩人妻少妇一区二区| 美美女高清毛片视频免费观看| 成人91在线| 在线观看亚洲天堂| 国产成本人片免费a∨短片| 国产成人91精品免费网址在线 | 五月天久久综合国产一区二区| 婷婷丁香色| 国产精品一区二区无码免费看片| 亚洲AV无码精品无码久久蜜桃| 久久久噜噜噜| 国产肉感大码AV无码| 国产v欧美v日韩v综合精品| 久久黄色影院| 欧美精品不卡| 国产杨幂丝袜av在线播放| 国产在线小视频| 狠狠色综合久久狠狠色综合| 亚洲精品第五页| 视频二区亚洲精品| 亚洲欧洲天堂色AV| 97一区二区在线播放| 老色鬼欧美精品| 日韩人妻少妇一区二区| 国产农村妇女精品一二区| 超碰免费91| 亚洲国产第一区二区香蕉| 中文纯内无码H| 91视频精品| 99r在线精品视频在线播放| 国产成人av大片在线播放| 国产女主播一区| 亚洲福利片无码最新在线播放| 中文字幕在线播放不卡| 亚洲一区二区视频在线观看| 欧美亚洲综合免费精品高清在线观看| 日韩中文字幕免费在线观看| 一本色道久久88亚洲综合| 黄色在线网| 热99精品视频| 中文字幕人妻av一区二区| 久久国产精品娇妻素人| 亚洲天堂精品视频| 日韩精品高清自在线| 精品综合久久久久久97| 久久综合国产乱子免费| 国产人成网线在线播放va| 久久精品嫩草研究院| 日本人妻丰满熟妇区| 成人综合在线观看| 国产v精品成人免费视频71pao| 四虎精品免费久久| 国产毛片高清一级国语| 狠狠色综合久久狠狠色综合| 国产第一色| 99视频在线免费| 国内精品久久久久久久久久影视 | 四虎免费视频网站| 久久免费视频播放| 久久伊人操| 最新亚洲人成网站在线观看| 国产91透明丝袜美腿在线| 久久精品国产精品一区二区| 91蜜芽尤物福利在线观看| 国产清纯在线一区二区WWW| WWW丫丫国产成人精品| 久久人搡人人玩人妻精品 | 国产精品粉嫩| 啪啪啪亚洲无码| 亚洲中文在线视频| 国产va在线| 免费中文字幕一级毛片| 免费可以看的无遮挡av无码 | 日韩美毛片| 久无码久无码av无码| 欧美另类精品一区二区三区| 2020久久国产综合精品swag| 国产成人精品免费av| 5555国产在线观看|