999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于區(qū)域劃分和四元數(shù)的彩色圖像復(fù)制粘貼篡改檢測(cè)*

2022-08-11 08:41:08魏偉一王婉茹趙毅凡
關(guān)鍵詞:特征區(qū)域檢測(cè)

魏偉一,王婉茹,趙毅凡,陳 幗

(西北師范大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院,甘肅 蘭州 730070)

1 引言

各種修圖軟件的廣泛使用可以很方便地實(shí)現(xiàn)圖像內(nèi)容修改,因此在新聞、雜志和司法等領(lǐng)域,判斷圖像真?zhèn)畏浅V匾z測(cè)圖像、視頻是否經(jīng)過篡改的取證技術(shù)成為了一個(gè)重要的研究方向,圖像復(fù)制粘貼篡改檢測(cè)是檢測(cè)一幅圖像中是否存在多個(gè)相同區(qū)域。一般來說,偽造檢測(cè)都遵循預(yù)處理、特征提取、特征匹配和偽造定位的經(jīng)典流程。復(fù)制粘貼篡改檢測(cè)技術(shù)主要分為基于塊的特征提取和基于關(guān)鍵點(diǎn)的特征提取2類。

在基于塊的復(fù)制-粘貼篡改檢測(cè)方法中,預(yù)處理一般分為規(guī)則塊劃分和不規(guī)則塊劃分2種方法。前者將圖像直接劃分為重疊的或非重疊的規(guī)則分塊;后者一般是指根據(jù)鄰近區(qū)域像素的一致性將圖像劃分成不規(guī)則的超像素塊,然后圖像塊經(jīng)過如極復(fù)指數(shù)變換PCET(Polar Complex Exponential Transform)[1]、離散余弦變換DCT(Discrete Cosine Transform)[2]或離散小波變換DWT(Discrete Wavelet Transform)后得到塊內(nèi)特征并匹配。為降低塊匹配的時(shí)間復(fù)雜度,Cozzolino等人[3]提出利用快速且有效的近似最近鄰搜索算法(PatchMatch)定位篡改區(qū)。Novozmsk等人[4]推導(dǎo)出一個(gè)基于JPEG的約束,圖像中的某些塊必須滿足這個(gè)約束才能被確定是篡改區(qū)域,但這種方法只適合JPEG格式的圖像。Pun等人[5]首先對(duì)超像素使用局部韋伯描述符WLD(Weber Local Descriptor)提取特征進(jìn)行粗匹配,再將圓形塊進(jìn)行離散Fourier-Mellin變換得到精確匹配的結(jié)果。基于塊的特征提取方法在小區(qū)域的篡改檢測(cè)中準(zhǔn)確性較好,但時(shí)間復(fù)雜度較高,對(duì)仿射變換、大尺度的幾何變換等各種攻擊的魯棒性較差。

關(guān)鍵點(diǎn)具有尺度不變性、縮放不變性和較好的魯棒性等優(yōu)點(diǎn),因此被廣泛應(yīng)用于計(jì)算機(jī)視覺任務(wù)中。在基于關(guān)鍵點(diǎn)的篡改檢測(cè)方法中,以每個(gè)關(guān)鍵點(diǎn)周圍區(qū)域的像素作為輸入進(jìn)行關(guān)鍵點(diǎn)的特征描述,比較常用的關(guān)鍵點(diǎn)提取方法有SIFT(Scale-Invariant Feature Transform)[6]、Harris[7]、SURF(Speeded Up Robust Features)[8]和AKAZE(Accelerate KAZE)[6]等。Lin等人[7]提出了一種評(píng)價(jià)聚類方法,結(jié)合混合關(guān)鍵點(diǎn)可以檢測(cè)篡改。Alhammadi等人[8]通過結(jié)合單圖像超分辨率SISR(Single Image Super-Resolution)算法設(shè)計(jì)了一種用于篡改檢測(cè)的super-SURF算法。Liu等人[9]利用K-means聚類將圖像分為紋理區(qū)域和平滑區(qū)域后,分別提取不同的特征點(diǎn)檢測(cè)篡改區(qū)域,這種在不同區(qū)域用各自特征點(diǎn)進(jìn)行檢測(cè)得到的結(jié)果容易受分割區(qū)域的影響。為了得到更多的特征點(diǎn),Li等人[10]通過降低對(duì)比度閾值和放大圖像獲得更多的特征點(diǎn)。肖斌等人[11]提出使用結(jié)構(gòu)張量屬性將超像素塊分組并在組內(nèi)進(jìn)行SIFT塊內(nèi)結(jié)構(gòu)匹配,但是這種方法只可以將圖像分割成平滑區(qū)、過渡區(qū)和紋理區(qū)。相比基于塊的檢測(cè)方法,通常基于特征點(diǎn)的檢測(cè)方法的速度要快得多,但是基于特征點(diǎn)的方法在檢測(cè)小區(qū)域或平滑區(qū)域的篡改時(shí)精度較低。因此,結(jié)合兩者優(yōu)勢(shì)可得到更好的檢測(cè)結(jié)果。

以上2種檢測(cè)方法都屬于傳統(tǒng)的復(fù)制粘貼篡改檢測(cè)方法,隨著深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)方法的廣泛使用,新的篡改檢測(cè)方法不斷涌出。Muzaffer等人[12]以圖像均勻塊作為AlexNet神經(jīng)網(wǎng)絡(luò)的輸入提取第5層特征并降維得到每個(gè)圖像塊的特征。Liu等人[13]利用卷積核網(wǎng)絡(luò)進(jìn)行復(fù)制-粘貼偽造檢測(cè),但檢測(cè)得到的非篡改區(qū)比較多。Agarwal等人[14]使用簡(jiǎn)單線性迭代聚類SLIC(Simple Linear Iterative Clustering)劃分超像素,然后使用VGGNet(Visual Geometry Group Network)提取超像素內(nèi)的特征。雖然基于神經(jīng)網(wǎng)絡(luò)的篡改檢測(cè)方法可以得到較好的效果,但是訓(xùn)練時(shí)間不理想,并且一部分復(fù)制-粘貼篡改常發(fā)生在圖像不規(guī)則的小區(qū)域中,導(dǎo)致檢測(cè)精度不高。

一方面,現(xiàn)有的方法在提取特征點(diǎn)時(shí)大多直接在整幅圖像降低對(duì)比度閾值,或劃分平滑、紋理和過渡區(qū)域后再分別在不同的區(qū)域使用不同的對(duì)比度閾值,這樣難以根據(jù)不同的區(qū)域特性使用合適的閾值;另一方面,特征提取多在灰度圖像上進(jìn)行,沒有利用圖像的色彩信息。因此,針對(duì)現(xiàn)有算法存在的問題,結(jié)合基于特征點(diǎn)的方法和基于塊的方法的優(yōu)勢(shì),本文使用自適應(yīng)形態(tài)重建AMR(Adaptive Morphological Reconstruction)算法[15]分割超像素并計(jì)算超像素的顏色矩;然后將圖像聚類成多個(gè)子區(qū)域,在不同的子區(qū)域中自適應(yīng)使用不同的對(duì)比度閾值提取足夠多的特征點(diǎn)。四元數(shù)矩陣對(duì)圖像的色彩信息有良好的表達(dá)效果,并且不是單一的顏色特征,因此本文提出在特征點(diǎn)周圍用四元數(shù)矩陣構(gòu)建局部高斯金字塔提取Hu矩特征。對(duì)圖像的特征向量經(jīng)過2NN(2 Neareast Neighbour)匹配處理后,利用估計(jì)仿射變換RANSAC(RANdom SAmple Consensus)消除錯(cuò)誤匹配,最后結(jié)合Delaunay算法有效定位出偽造區(qū)。

2 基于區(qū)域劃分和四元數(shù)的彩色圖像CMFD算法

在提取一幅圖像特征點(diǎn)時(shí),本文稱高熵區(qū)特征點(diǎn)密集而低熵區(qū)特征點(diǎn)較少的現(xiàn)象為“特征點(diǎn)分布不均勻”效應(yīng)。現(xiàn)有解決這一效應(yīng)的方法大多通過直接降低圖像對(duì)比度閾值來得到更充分的特征點(diǎn),但這樣會(huì)給高熵區(qū)增加過多的特征點(diǎn),從而使后續(xù)的特征匹配過程更加復(fù)雜。因此,本文提出基于顏色矩的區(qū)域劃分和四元數(shù)Hu矩的彩色圖像復(fù)制-粘貼篡改檢測(cè)算法,算法過程如圖1所示。

Figure 1 Flowchart of the proposed algorithm圖1 本文所提算法流程圖

2.1 AMR超像素分割算法

復(fù)制-粘貼篡改檢測(cè)中常見的超像素分割方法有SLIC、分水嶺分割和基于熵率法等,但是這些超像素分割方法的參數(shù)不易確定。而AMR分割算法無需指定固定參數(shù),且對(duì)尺度變化魯棒、計(jì)算時(shí)間復(fù)雜度較低,因此本文使用AMR進(jìn)行超像素分割。SLIC和ARM的分割結(jié)果如圖2所示,可看出AMR能提供更好的分割結(jié)果。

Figure 2 Segmentation results of SLIC and AMR圖2 SLIC與AMR分割結(jié)果對(duì)比

2.2 密集特征點(diǎn)提取

2.2.1 超像素顏色矩提取

顏色矩是一種簡(jiǎn)單有效的色彩特征表示方法,由一階矩、二階矩和三階矩組成,計(jì)算方式如式(1)~式(3)所示:

(1)

(2)

(3)

其中,pi,j表示彩色圖像第j個(gè)像素的第i個(gè)顏色分量;N表示圖像中的像素個(gè)數(shù);μi,σi和Si分別為一階矩、二階矩和三階矩。

人眼觀看物體時(shí)最先看到的是物體的明暗變化,這種明暗感知被數(shù)字化到Lab顏色模型中的L通道,因此本文在L通道計(jì)算顏色矩Fcolor,組成一個(gè)3維直方圖向量,如式(4)所示:

Fcolor=[μL,σL,sL]

(4)

2.2.2 基于密度的超像素區(qū)域劃分

一幅圖像中,超像素是局部區(qū)域中相似像素的集合,使用顏色矩可以表達(dá)圖像超像素的顏色分布,所以本文將顏色矩作為超像素的特征。常用的聚類算法有K-means、基于密度的聚類DBSCAN(Density-Based Spatial Clustering of Applications with Noise)和凝聚層次聚類等[16]。考慮到DBSCAN聚類算法可通過控制2個(gè)參數(shù)實(shí)現(xiàn)聚類,所以提出用DBSCAN算法對(duì)超像素的顏色矩進(jìn)行聚類,以實(shí)現(xiàn)區(qū)域劃分。另外,本文在聚類算法中加入輪廓系數(shù)[17]評(píng)價(jià)指標(biāo),可以讓不同的圖像根據(jù)自身的顏色矩特征自適應(yīng)聚類。聚類的結(jié)果如圖3所示,可以看出根據(jù)顏色矩自適應(yīng)劃分可以將圖像分割成多個(gè)不同的區(qū)域,便于后續(xù)根據(jù)區(qū)域特性提取均勻特征點(diǎn)。

Figure 3 Results of adaptive region division圖3 自適應(yīng)區(qū)域劃分結(jié)果

2.2.3 均勻SIFT特征點(diǎn)提取

為使特征的描述符具有尺度、縮放、旋轉(zhuǎn)甚至仿射不變的特性,Lowe[18]提出了一種圖像局部特征描述的算子SIFT算法。SIFT特征點(diǎn)的檢測(cè)與特征描述過程主要包括:尺度空間檢測(cè);確定特征點(diǎn)的位置及尺度;確定特征點(diǎn)方向;生成128維特征向量。

在視覺處理中,基于特征點(diǎn)的檢測(cè)方法可以反映一幅圖像的局部特征。但是,一幅圖像中的特征點(diǎn)大多集中在高熵區(qū)域,容易導(dǎo)致特征點(diǎn)分布不均勻(如圖4c所示),這樣不易發(fā)現(xiàn)較平坦區(qū)域的篡改。因此,Wang等人[19]提出通過降低對(duì)比度閾值來得到更多的特征點(diǎn),但如圖4d所示的平滑區(qū)域“特征點(diǎn)分布不均勻”問題仍未得到有效解決。

Figure 4 Results of feature points extraction圖4 特征點(diǎn)提取結(jié)果

雖然通過降低對(duì)比度閾值可以得到充足的特征點(diǎn),但其缺點(diǎn)是對(duì)比度閾值難以確定。如果對(duì)比度閾值設(shè)置較大,會(huì)導(dǎo)致特征點(diǎn)不足,篡改定位不全;若對(duì)比度閾值設(shè)置較小,會(huì)導(dǎo)致特征點(diǎn)過多,使后續(xù)特征點(diǎn)匹配過程更加復(fù)雜。所以,本文提出一種動(dòng)態(tài)調(diào)整對(duì)比度閾值以得到均勻特征點(diǎn)的特征點(diǎn)密集度評(píng)價(jià)算法,算法流程如圖5所示。

Figure 5 Flowchart of the evaluation algorithm for feature point density圖5 特征點(diǎn)密集度評(píng)價(jià)算法流程圖

本文用區(qū)域大小和特征點(diǎn)個(gè)數(shù)之間的關(guān)系描述一個(gè)區(qū)域內(nèi)特征點(diǎn)的密集程度,即特征點(diǎn)密集度,如式(5)所示:

Dense=sizeregion/siftnum

(5)

其中,sizeregion表示區(qū)域大小,siftnum表示區(qū)域內(nèi)的特征點(diǎn)數(shù)量。

利用本文的特征點(diǎn)密集度評(píng)價(jià)算法提取的特征點(diǎn)結(jié)果如圖4f所示,可見動(dòng)態(tài)改變對(duì)比度閾值可以得到更均勻的特征點(diǎn)。

2.3 局部熵比Hu矩特征提取

特征點(diǎn)是一種局部梯度特征,非紋理區(qū)域一般較平坦,梯度值較小,直接使用特征點(diǎn)匹配會(huì)造成較多的錯(cuò)誤;并且SIFT特征點(diǎn)的提取是在灰度圖像中進(jìn)行,忽略了色彩信息,借助四元數(shù)可以將一幅三通道的RGB彩色圖像經(jīng)過計(jì)算融合到一個(gè)通道中,保存了大量的色彩信息,因此本文提出提取特征點(diǎn)的局部四元數(shù)Hu矩特征,以表現(xiàn)特征點(diǎn)的色彩信息。

2.3.1 四元數(shù)

四元數(shù)是一種超復(fù)數(shù),有3個(gè)虛部和1個(gè)實(shí)部。在傳統(tǒng)的四元數(shù)表示方法中,一般令四元數(shù)的實(shí)部為0。Wei等人[20]結(jié)合了信息熵、顏色和亮度等圖像信息,根據(jù)人類視網(wǎng)膜的視覺感知結(jié)構(gòu)提出了一種新穎的四元數(shù)表達(dá)方式。相比傳統(tǒng)的表示方法,此四元數(shù)不僅利用了四元數(shù)的實(shí)部,并且可以將不同的顏色通道更好地關(guān)聯(lián)在一起,如式(6)所示:

Q=H+RGi+BYj+Ik

(6)

其中,H表示信息熵,RG表示R和G顏色空間的差值,BY表示B和Y顏色空間的差值,I值表示圖像的亮度。具體計(jì)算如式(7)~式(13)所示:

R=r-(g+b)/2

(7)

G=g-(r+b)/2

(8)

B=b-r+g/2

(9)

Y=(r+g)/2-|r-g|/2-b

(10)

RG=(r-3g)/2

(11)

BY=2b-r-g+|r-g|/2

(12)

I=(r+g+b)/3

(13)

其中r,g,b表示紅綠藍(lán)3種顏色值。

2.3.2 Hu不變矩

Hu矩具有平移不變性、旋轉(zhuǎn)不變性和縮放不變性,因此使用Hu矩可以對(duì)圖像的像素強(qiáng)度進(jìn)行有效度量。為增強(qiáng)特征描述符,在特征點(diǎn)的周圍取n×n鄰域構(gòu)建高斯金字塔并得到金字塔各層的四元數(shù)矩陣,最后計(jì)算各層Hu矩并使用局部熵比融合金字塔的各層Hu矩。

(1)對(duì)于離散圖像,圖像的(p+q)階原點(diǎn)矩可以表示如式(14)所示:

(14)

其中,ρ(x,y)表示圖像函數(shù),Row表示圖像的行,Col表示圖像的列。

(2)圖像的質(zhì)心坐標(biāo)計(jì)算如式(15)所示:

(15)

其中,m00表示零階原點(diǎn)矩,m10和m01表示一階原點(diǎn)矩。

(3)圖像的(p+q)階中心矩可表示為式(16):

p,q=0,1,2,…

(16)

(4)為抵抗尺度變化,利用零階中心矩u00對(duì)各階中心距進(jìn)行歸一化處理,得到歸一化中心矩:

(17)

其中,m=(p+q)/2+1。

(5)利用二階、三階中心矩可以導(dǎo)出如式(18)~式(24)所示的7個(gè)不變矩:

H1=η20+η02

(18)

(19)

(20)

(21)

H5=(η30-3×η12)×(η30+η12)×

(3×η21-η03)×(η21+η03)×

(22)

(η20-η02)+4×η11×(η30+η12)×

(η21+η03)

(23)

H7=(3×η21-η03)×(η30+η12)×

(3×η12-η30)×(η21+η03)×

(24)

最終Hu矩特征用式(25)表示:

FHu={H1,H2,H3,H4,H5,H6,H7}

(25)

2.3.3 局部熵比Hu矩特征提取

由于金字塔不同層的同一特征表示的信息量不同,因此需要計(jì)算每層的信息熵[21]與逐層總和的比值,并對(duì)各層得到的Hu矩特征加權(quán),使局部Hu矩特征更加魯棒。

(1)將第k層中的局部信息熵λk進(jìn)行量化,如式(26)所示:

(26)

(2)將量化后的比例作為每層Hu矩特征的權(quán)重,并進(jìn)行累加求和,得到最終的局部Hu矩特征描述,如式(27)所示:

FHu=λ1FHu1+λ2FHu2+…+λkFHuk

(27)

2.4 特征匹配

將得到的128維SIFT特征與局部7維Hu矩特征級(jí)聯(lián),這樣對(duì)于每一個(gè)特征點(diǎn),形成了一個(gè)新的135維的特征描述子:F=[FSIFT,FHu]。在特征匹配時(shí),用2NN算法進(jìn)行特征間的相似性度量。先計(jì)算某一特征與其它特征向量之間的歐氏距離得到距離集合D,并將D中的距離從小到大排序得到n-1個(gè)特征;然后計(jì)算最相近的2個(gè)距離的比值,如果比值小于T_match,說明2個(gè)特征匹配,匹配結(jié)果如圖6a所示。但是,特征經(jīng)過2NN匹配后仍可能存在誤匹配,本文通過估計(jì)仿射變換RANSAC消除錯(cuò)誤匹配,結(jié)果如圖6b所示。

Figure 6 Results of feature matching圖6 特征匹配結(jié)果

2.5 Delaunay算法定位篡改區(qū)域

本文在零均值歸一化互相關(guān)ZNCC(Zero-mean Normalization Cross Correlation)的基礎(chǔ)上提出一種準(zhǔn)確定位篡改區(qū)的新算法。

2.5.1 零均值歸一化互相關(guān)系數(shù)

從圖6a的第3列和圖6b的第3列可以看出,經(jīng)過RANSAC后仍存在部分錯(cuò)誤匹配,所以計(jì)算匹配的特征點(diǎn)R(i,j)周圍鄰域的ZNCC系數(shù)去除孤立點(diǎn)并用于后續(xù)的定位,計(jì)算如式(28)所示:

(28)

其中,xi和yi分別表示2個(gè)樣本在模板上的值,μx和μy表示均值,σx和σy表示標(biāo)準(zhǔn)差,n表示模板中像素的個(gè)數(shù)。

如果R(i,j)小于給定的ZNCC閾值T_ZNCC,則鄰域置為1。在本文實(shí)驗(yàn)中,取以特征點(diǎn)為中心的10×10鄰域。

2.5.2 Delaunay算法

將原圖再次使用SLIC算法[22]進(jìn)行超像素分割,利用SLIC中的K-means對(duì)得到的匹配特征點(diǎn)進(jìn)行聚類,如果每個(gè)標(biāo)簽類別中特征點(diǎn)的個(gè)數(shù)少于3個(gè),則視為孤立點(diǎn),舍棄;否則,使用Delaunay算法[23]提取離散點(diǎn)的邊界。Delaunay算法是一種邊界輪廓提取算法,可以滿足全局和局部最優(yōu)的要求。如圖7所示,該算法在每個(gè)超像素中找到離散的點(diǎn),用Delaunay三角形連接離散點(diǎn)的外側(cè)框線,分別得到連通區(qū)域,最后填充連通區(qū)域,并進(jìn)行形態(tài)學(xué)處理定位出最終的篡改區(qū)。

Figure 7 Delaunay algorithm圖7 Delaunay算法

3 實(shí)驗(yàn)與結(jié)果分析

3.1 數(shù)據(jù)集及評(píng)價(jià)標(biāo)準(zhǔn)

GRIP數(shù)據(jù)集[1]和FAU數(shù)據(jù)集[24]中包含平滑區(qū)、非平滑區(qū)的篡改,因此本文選擇在這2個(gè)公共數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。GRIP數(shù)據(jù)集中包含80幅篡改圖像和80幅真值圖像,每幅圖像的尺寸大小均為768×1024像素。FAU數(shù)據(jù)集中包含48組圖像,其中包含旋轉(zhuǎn)和尺度不同攻擊的圖像共計(jì)720幅,此數(shù)據(jù)集中的圖像大小為300×420像素到2592×3888像素不等。

使用的評(píng)價(jià)標(biāo)準(zhǔn)分別為精確率P(Precision)、召回率R(Recall)及F值[24],其定義如式(29)~式(31)所示:

(29)

(30)

(31)

其中,NTP是檢測(cè)的結(jié)果中正確檢測(cè)為篡改區(qū)的像素?cái)?shù)目,NFP是檢測(cè)的結(jié)果中錯(cuò)誤檢測(cè)為篡改的像素?cái)?shù)目,NFN是檢測(cè)結(jié)果中未檢測(cè)出的像素?cái)?shù)目。

3.2 參數(shù)設(shè)置

在本文所提的算法中,參數(shù)的設(shè)置對(duì)篡改結(jié)果的檢測(cè)至關(guān)重要,因此在實(shí)驗(yàn)中分別選擇20幅包含非平滑區(qū)域篡改圖像和20幅包含平滑區(qū)域篡改的圖像,在以下幾個(gè)參數(shù)的約束下進(jìn)行實(shí)驗(yàn):在提取密集特征點(diǎn)時(shí),特征點(diǎn)密集度閾值越小得到的特征點(diǎn)越緊密,但是同時(shí)會(huì)降低特征點(diǎn)提取效率,通過實(shí)驗(yàn)發(fā)現(xiàn),設(shè)特征點(diǎn)密集度T_dense為2是一個(gè)很好的折衷方案;在局部熵比Hu矩特征的提取過程中,構(gòu)建的局部高斯金字塔的層數(shù)設(shè)為3;使用2NN算法進(jìn)行特征匹配時(shí),根據(jù)實(shí)驗(yàn)結(jié)果分析,匹配閾值過大會(huì)增加誤匹配,過小會(huì)使得篡改區(qū)域的定位不完整,因此本文將特征的匹配閾值T_match設(shè)為0.4;在定位階段,為判斷特征點(diǎn)的相關(guān)性以去除孤立點(diǎn),進(jìn)而使用Delaunay算法進(jìn)行篡改區(qū)域定位,將零均值歸一化互相關(guān)系數(shù)T_ZNCC設(shè)為0.5;在最后使用Delaunay算法定位時(shí),考慮到可能將相鄰區(qū)域中的特征點(diǎn)視為同一類,所以將篡改的圖像再次使用SLIC超像素分割算法,初始化超像素個(gè)數(shù)為100,300,500和800,分別進(jìn)行篡改定位實(shí)驗(yàn),最終發(fā)現(xiàn)超像素個(gè)數(shù)為100時(shí)邊緣處理的效果最好,如圖8所示。

Figure 8 Comparison of different number of superpixels圖8 不同超像素個(gè)數(shù)對(duì)比圖

Figure 9 Detection images of comparative algorithms圖9 算法檢測(cè)結(jié)果對(duì)比

3.3 結(jié)果分析以及算法評(píng)價(jià)

通過數(shù)據(jù)集上的實(shí)驗(yàn)可以看出,本文算法比文獻(xiàn)[10,11]的算法更加精確。圖9為對(duì)比算法的5組結(jié)果圖。表1將本文算法與其他算法進(jìn)行了對(duì)比,可看出本文算法的精度要比文獻(xiàn)[10,11]算法的高。這是因?yàn)槲墨I(xiàn)[10]在特征點(diǎn)提取過程中使用了固定閾值,從而得到的特征點(diǎn)不充分,提出的密集度特征點(diǎn)密集度評(píng)價(jià)算法相比于文獻(xiàn)[10]得到的特征點(diǎn)更加均勻,另外還考慮到特征點(diǎn)局部的顏色信息,提取局部熵比四元數(shù)Hu矩特征,相比文獻(xiàn)[10,11]只用到的SIFT特征更加魯棒,特征描述符具有更準(zhǔn)確的描述性。在篡改定位階段,從圖9可以看出,在特征點(diǎn)聚類后使用Delaunay算法定位,得到的定位結(jié)果更準(zhǔn)確。因此,對(duì)比這2種算法,本文算法具有更好的匹配結(jié)果和篡改定位效果。

本文分別測(cè)試了不同縮放、旋轉(zhuǎn)等攻擊下本文算法和文獻(xiàn)[10,11]算法的檢測(cè)結(jié)果,如圖10所示。從圖10可以看出,在應(yīng)對(duì)旋轉(zhuǎn)和縮放攻擊時(shí),相比文獻(xiàn)[10,11]算法,本文算法取得的效果更好。

Table 1 Detection results of different algorithms表1 不同算法檢測(cè)結(jié)果對(duì)比

Figure 10 Attack comparison results of different algorithms圖10 不同算法的攻擊效果對(duì)比

4 結(jié)束語

為得到均勻的特征點(diǎn),本文提出一種基于密集度的自適應(yīng)特征點(diǎn)提取算法,先通過自適應(yīng)聚類分割區(qū)域,根據(jù)每個(gè)區(qū)域的特征點(diǎn)密集度動(dòng)態(tài)調(diào)整對(duì)比度閾值,從而得到密集的特征點(diǎn);提出在特征點(diǎn)的周圍計(jì)算局部熵比四元數(shù)Hu矩特征,以增強(qiáng)特征描述的魯棒性,增加特征描述符的顏色信息;針對(duì)特征匹配后存在的誤匹配,通過估計(jì)仿射變換矩陣去掉錯(cuò)誤匹配;在篡改定位階段,通過計(jì)算零均值歸一化互相關(guān)系數(shù)去掉孤立點(diǎn),并使用Delaunay算法得到準(zhǔn)確的定位結(jié)果。實(shí)驗(yàn)結(jié)果表明,本文算法不僅可以自適應(yīng)地將圖像分割成不同的區(qū)域,并且在特征提取、特征匹配和篡改定位上都得到了更好的效果。此外,本文算法在應(yīng)對(duì)旋轉(zhuǎn)、縮放攻擊上也都表現(xiàn)出了較好的魯棒性。

猜你喜歡
特征區(qū)域檢測(cè)
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
小波變換在PCB缺陷檢測(cè)中的應(yīng)用
關(guān)于四色猜想
分區(qū)域
基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
主站蜘蛛池模板: 一级毛片在线免费视频| 色久综合在线| 国产亚洲精久久久久久久91| 亚洲国产成人久久77| 91久久精品日日躁夜夜躁欧美| 亚洲日本中文字幕乱码中文| 伊人久久久久久久| 免费三A级毛片视频| 国产一区二区三区在线精品专区| 久久午夜影院| 国产av一码二码三码无码 | 欧美无专区| 午夜影院a级片| 91亚洲视频下载| 欧美 国产 人人视频| 久久青草免费91线频观看不卡| 亚洲欧美极品| 国产免费看久久久| 亚洲热线99精品视频| 正在播放久久| 国产激情第一页| 99偷拍视频精品一区二区| 99久久国产综合精品2020| 亚洲av日韩av制服丝袜| 精品中文字幕一区在线| 国产免费久久精品99re不卡| 亚洲色无码专线精品观看| 日韩精品高清自在线| 欧美日韩国产精品va| 老司机久久99久久精品播放| 天天色天天操综合网| 亚洲av色吊丝无码| 无遮挡国产高潮视频免费观看| 欧美亚洲国产精品久久蜜芽| 亚洲天堂免费| 青青草久久伊人| 97一区二区在线播放| 国产成+人+综合+亚洲欧美| 成人在线观看不卡| 欧美日韩一区二区三| 免费女人18毛片a级毛片视频| 午夜丁香婷婷| 国产综合无码一区二区色蜜蜜| 国产99视频免费精品是看6| 亚洲中文字幕在线观看| 久久婷婷综合色一区二区| 欧美视频在线第一页| 日韩精品免费一线在线观看| …亚洲 欧洲 另类 春色| 91毛片网| 亚洲人在线| 欧美性久久久久| www.日韩三级| 四虎成人在线视频| 少妇精品在线| 一区二区三区成人| 91视频区| 欧美福利在线观看| 国外欧美一区另类中文字幕| 激情网址在线观看| 国产91精品调教在线播放| 国产精品久久久久久久久久98| 激情综合网激情综合| 一级毛片高清| 日韩毛片免费| 国产精品欧美日本韩免费一区二区三区不卡 | 国产va在线| 伊人久久大线影院首页| 福利小视频在线播放| 91精品专区国产盗摄| 亚洲区欧美区| 成人免费黄色小视频| 天堂亚洲网| 国产亚洲视频中文字幕视频| 中文字幕亚洲综久久2021| 免费激情网址| 午夜欧美理论2019理论| 亚洲精品制服丝袜二区| 丝袜美女被出水视频一区| 91精品久久久无码中文字幕vr| 亚洲日本精品一区二区| 九九精品在线观看|