摘要:隨著電力生產智能化的推進,電力圖像被廣泛應用。然而由于圖像編輯軟件的發展導致部分電力圖像被惡意竄改,嚴重影響電力生產進程。其中以拼接竄改最為常見。基于深度學習技術,提出了一種雙通道CenterNet的圖像拼接竄改檢測模型。原色圖像通道提取竄改圖像的色調、紋理等特征,隱寫分析通道發掘圖像竄改區域的噪聲特征。同時設計了一種基于注意力機制的特征融合模塊,自適應地對雙通道的特征進行加權融合,以增強檢測模型的特征識別能力。實驗結果表明,所提模型可以達到更優的檢測性能,在電力圖像的竄改檢測應用中具有實際意義。
關鍵詞:電力圖像竄改檢測;雙通道網絡;隱寫分析;CenterNet;注意力機制
中圖分類號:TP391文獻標志碼:A
文章編號:1001-3695(2022)04-044-1218-06
doi:10.19734/j.issn.1001-3695.2021.08.0333
Dual-channel image splicing forgery detection model of electric power site
Liu Zheng1,Tian Xiuxia1,Bai Wanrong2
(1.School of Computer Science amp; Technology,Shanghai University of Electric Power,Shanghai 200090,China;2.Gansu Electric Power Research Institute,Lanzhou 730050,China)
Abstract:Nowadays intelligent power production uses electric power images widely.However,due to the development of image editing software,some power images are maliciously tampered,which seriously affects the power production process.In order to solve this problem,this paper proposed a dual-channel CenterNet model for power image splicing forgery detection.The color channel extracted the obvious visual features of the image.The steganalysis channel explored the noise feature.At the same time,the algorithm used a feature fusion module based on attention mechanism,it integrated the dual-channel features to enhanced the feature recognition ability.Experiments show that the model can get better detection performance and has practical significance in the forgery detection application of power images.
Key words:power image forgery detection;dual-channel network; steganalysis;CenterNet;attention mechanism
0引言
如今在電力領域中,通過相關技術對電力圖像進行處理,可以實現電力生產的高度智能化,例如收集電力表盤圖片,通過圖像處理實現指針式儀表數值的自動識別、電氣設備運行狀況的監控監測等功能。但是隨著圖像編輯軟件的發展,不法分子利用其對圖像進行竄改,毀壞圖像真實性,而往往這些竄改痕跡不易用肉眼判別,進而導致企業虛假宣傳,虛報電力設備數量,造成他人對企業規模的錯誤認知,或者是相關工作人員無法快速找到電力設備照片與現實不符、電力設備狀態誤判等事故原因,很可能造成電力系統處于故障狀態,造成大面積停電等重大事故,對國民經濟造成損失。因此,在發展泛在電力物聯網的當下,探索合適的方法對電力圖像的真偽性進行檢測是非常關鍵和必要的。
電力圖像竄改中,以拼接方式的竄改最為常見。拼接竄改指的是復制一張圖像的局部區域,然后粘貼到另一張圖像中以合成新的圖像。當前,特定針對電力圖像的拼接竄改檢測的研究有限,但是圖像的竄改檢測一直以來都是研究重點,而電力圖像也屬于圖像的一種。因此,基于現有的圖像竄改檢測方法,本文對電力圖像的拼接竄改檢測進行研究。因為竄改區域來自另一張圖像,所以真實區域與被竄改區域之間存在圖像屬性的差異,如亮度、噪聲分布、對比度等,它們被稱為圖像指紋,可以利用這些圖像指紋檢測出疑似被竄改的區域。
現有的拼接竄改檢測技術主要分為基于傳統特征提取的方法和基于深度學習的方法兩種。 許多傳統方法通過提取特定的圖像指紋來達到檢測目的,大致可以分為四類:基于圖像本質屬性的檢測方法[1,2]、基于成像設備屬性的檢測方法[3,4]、基于圖像壓縮屬性的檢測方法[5]和基于哈希技術的檢測方法[6]。但是這些方法往往只關注一個特定的圖像屬性,在目標指紋缺失或者表達不明顯時可能失效,另外特定的圖像指紋也會受到圖像壓縮、縮放等后處理操作的影響,從而降低傳統檢測方法的檢測能力。近年來,隨著深度學習的飛速發展,卷積神經網絡(convolutional neural network,CNN)強大的特征學習能力引起了數字取證領域學者的關注。CNN最初用來分類圖像是否被竄改,但是無法定位被竄改區域的具體位置[7]。Zhang等人[8]試圖通過CNN定位電力設備等圖像中的竄改區域,但是檢測結果是由一些方形白塊組成的不規則區域表示,預測結果粗糙且準確率較低。這兩種基于CNN的檢測方法作為初步嘗試的結果并不理想。為了能準確檢測到竄改區域,Cozzolino等人[9]提出了一種基于CNN的兩階段深度學習方法來學習竄改特征,使用自動編碼器綜合竄改特征的上下文信息進行更精確的定位,使得檢測結果的準確率進一步提升。Bi等人[10]構建了一種環狀殘差拼接竄改檢測網絡,增加了殘差傳播模塊和殘差反饋模塊,提高了對特征圖的利用率。Zhou等人[11]首次將目標檢測算法應用于竄改檢測,提出一種兩階段Faster R-CNN網絡,該網絡不但可以檢測竄改區域,還能區分出拼接、移除等不同竄改類型。
基于深度學習的竄改檢測方法比傳統方法更容易學習到竄改特征,模型的檢測性能也有了很大提升,但是仍然存在以下問題:
a)使用基于錨框(anchor-based)的檢測網絡,如雙流Faster R-CNN網絡,往往需要預先設置大量的候選框,再通過非極大值抑制(non-maximum suppression,NMS)等后處理操作篩選掉冗余的錨框,這樣會消耗大量的計算資源和開發時間,在框架設計和模型參數上有一定的改進空間。
b)雖然兩階段網絡在結構和穩定性上都有一定程度的優化,但是檢測精度較低,無法滿足實際工作要求,需要進一步提升檢測性能。
c)網絡輸入的語義信息不夠豐富,造成有關竄改的局部特征丟失。
針對上述問題,本文提出一種雙通道免錨框(anchor-free)的圖像拼接竄改檢測模型。本文的貢獻點包括:
a)使用免錨框目標檢測網絡CenterNet[12]對模型進行構建與優化。CenterNet中使用反卷積模塊對特征圖進行上采樣,這樣可以保留更多的操作痕跡,并且使用三個分支卷積網絡分別預測熱力圖、目標的寬高和中心點坐標,無須使用NMS后處理操作,大幅度減少了網絡參數。
b)設計了一種用于雙通道拼接竄改檢測的注意力特征融合模塊(dual-channel attention module,DCAM),實現對兩個通道的特征進行自適應權重分配,使得模型性能進一步提升。
c)通過在三個標準拼接竄改數據集上的實驗表明,由于檢測框架的改進和注意力機制特征融合方法的引入,該模型的檢測性能優于或等同于最新方法,檢測速度更快,并在實際的電力竄改圖像上展現出優秀的檢測效果。
1相關工作
1.1CenterNet目標檢測模型
CenterNet是一個代表性的免錨框目標檢測框架,它能夠在保證檢測準確率的情況下提高檢測效率,通過預測圖像中心點的位置和物體的大小對目標進行定位。給定圖像I,大小為W×H,CenterNet的輸出是經過下采樣的熱力圖Y^,其中,W代表圖像寬度,H代表圖像高度。預測結果Y^xyc表示每點(x,y,c)處的置信度:Y^xyc=1表示類別c對應目標的中心點坐標為(x,y);預測結果Y^xyc=0表示當前坐標沒有c類物體。同時為了彌補由于下采樣引起離散誤差,CenterNet還對每個點額外增加了一項偏移預測量O^,偏移量包括水平方向偏移和垂直方向偏移。最后預測目標尺寸的寬高信息,用S^表示。
如圖1所示,以ResNet-50[13]作為骨干網絡為例,CenterNet包括三個部分:首先是特征提取網絡Nfeat,用于提取輸入圖像的深層語義信息;其次是一個上采樣卷積網絡Ndecv,由卷積核大小為3×3的可變形卷積[14]組成,用于將特征映射細化為輸出空間尺度;最后是三個獨立的網絡頭部Nhead,共享相同的主干網絡特征圖,并輸出Y^、O^和S^。CenterNet的最終輸出大小是W×H×(N+4),其中N代表需要檢測的類別數量。
1.2空間富模型
隱寫術是一種避免他人發現秘密信息的技術,目前主要應用于對通信內容的保密。它將特殊信息隱藏在文本、圖像、視頻等正常載體中,實現秘密信息的隱秘傳播。隨著隱寫術的不斷發展,秘密信息的隱藏能力也在不斷提高,為了應對更高級的自適應隱寫術,研究者們開始考慮更復雜、高維化的特征,其代表特征是基于對圖像鄰域復雜相關性進行建模的高級統計量化特征,由于該類特征中包含豐富的統計特征,所以該特征也被稱為“富模型”特征[15]。其中以空間富模型(spatial rich model,SRM)為代表,SRM可以提取圖像內部的噪聲像素特征,幫助模型學習被竄改破壞的統計信息,其框架如圖2所示。
首先,通過不同的高通濾波器對輸入圖像進行預過濾,獲得噪聲殘差相鄰樣本的聯合分布特征,并且將多個子濾波器組合成一個豐富的噪聲分量模型;其次,噪聲分量模型對噪聲殘差進行量化、取整和截斷,降低特征維度,避免冗余的高殘差值對模型性能造成影響;最后,將殘差值進行數值統計形成共生矩陣并作為SRM的最終輸出特征。
1.3視覺注意力機制
近年來,受人類視覺機制的啟發,注意力機制在計算機視覺任務中十分盛行,它可以有效減少與任務無關的冗余特征[16]。目前研究學者們已經做了很多基于注意力機制的工作來提高網絡性能。其中最為流行的注意力機制是文獻[17]提出的“擠壓—激勵”注意力模塊(queeze-and excitation,SENet),該模塊可以以非常低的計算成本顯著提高模型性能。之后的工作基本是在SENet的基礎上進行設計和優化。文獻[18]利用有效的通道注意力和1×1卷積的空間注意力減輕了不同任務(如目標檢測、圖像分割等)計算負擔;之后文獻[19]使用“通道混洗”操作符來實現兩個分支的信息通信,利用一組新的分組策略,將輸入特征圖沿著通道維度劃分成組,針對每組同時構建通道注意力和空間注意力,在目標檢測和實例分割任務上獲得較高的準確率并且包含較少的參數。
注意力機制在不同視覺任務中的普遍應用,證明了合理地融合不同維度的特征可以獲得更好的性能。本文對于雙通道網絡的竄改檢測任務,提出了一種注意力特征融合模塊(dual-channel attention module,DCAM),該模塊可以讓檢測模型獲取更多需要關注的竄改細節信息,而抑制其他無用信息,在實證中有效地提升了模型性能。
2雙通道圖像拼接竄改檢測模型
為了使得拼接竄改檢測網絡學習到更豐富的特征,本文采用雙通道的網絡結構,具體的模型框架如圖3所示。
首先原色圖像通道和隱寫分析通道經過特征提取獲得不同維度的特征圖;然后經過DCAM融合兩個通道的空間特征信息,最大化增強模型學習能力;最后使用CenterNet網絡頭部將竄改區域的分類與定位任務轉換為關鍵點預測問題,并且通過三個分支卷積網絡分別預測竄改區域熱力圖、竄改區域的中心點偏移量和竄改區域的寬高信息。
2.1隱寫分析通道
隱寫分析通道通過SRM獲得圖像內部的噪聲分布,增強圖像的竄改語義信息,提高模型檢測精度。根據Zhou等人[11]的結論,使用過多數量的濾波器(如30個)并不能在性能上帶來顯著的提升,反而會大幅增加檢測時間。為了保證模型的效率,本文同樣地保留了三個濾波器,構成了SRM濾波層,其權重如式(1)所示,經過SRM濾波層處理后的圖像作為后面特征提取網絡的輸入。
2.2原色圖像通道
大多數竄改的電力圖像與真實圖像相比,在視覺效果上會存在一些差異。從圖4中可以看出,竄改區域與非竄改區域在視覺上的差異主要體現在兩個方面:a)在第一行中,為了讓電表箱的竄改圖像看上去愈加逼真,往往會對竄改區域進行后處理,對裁剪區域進行放大后可以看到竄改區域的邊界相對更加平滑,而真實區域的邊界顆粒感明顯;b)在第二行中,絕緣子的竄改圖像在由竄改區域向真實區域過渡時,色彩變化較為明顯,會產生強烈的色彩對比。經過原色圖像通道,能夠提取竄改圖像的視覺特征,輔助模型作出精準的判斷。
在原色圖像通道和隱寫分析通道中均使用結構相同的ResNet-50作為特征提取網絡。
2.3基于注意力機制的特征融合
本文模型中的DCAM實現兩個通道特征權重的自適應分配,并且權重在訓練過程中可以通過網絡自動生成,其工作流程如圖5所示。
首先,給定一組特征(fi,i=1,…,N),存在一組權重參數(wi,i=1,…,N)與之對應,在模型訓練過程中,DCAM對權重參數不斷學習更新,獲得聚合特征v,表示如下:
v=∑Ni=1wifi(2)
其次,DCAM還會學習一個內核q,q與特征向量fi的維度相同,通過點積操作運算對特征向量fi進行過濾,保留重要特征,生成向量di,di表示相應參與運算特征的重要程度,di可表示為
di=qTfi(3)
最后,通過softmax函數將di轉換為新的權重參數wi,表示為
wi=edi∑iedi(4)
以上參數通過反向傳播與隨機梯度下降進行訓練學習,重組后的特征向量會作為模型評判的依據。
3實驗結果與分析
3.1實驗環境與參數設置
本文實驗環境為Windows 10旗艦版,64位操作系統;CPU處理器Interl CoreTM i9-9900K×16;內存大小32 GB;GPU顯卡NVIDIA GeForce RTX 2080Ti×2;顯存大小16 GB;CUDA版本10.1;CUDNN版本7.6.5;使用PyTorch作為深度學習框架,版本號1.6.0。
在雙通道模型中,學習率設置為1E-4,使用SGD優化器訓練網絡,動量大小為0.9,共迭代10萬次,批量大小為32。在訓練階段使用dropout層防止過擬合,參數設為0.3。
3.2評估指標與數據集
3.2.1評估指標
本文評估指標采用圖像竄改檢測研究領域中常用的評價標準,即精確率(precision)、召回率(recall)和F1分數。精確率定義為正確檢測到的竄改區域數量與所有檢測到的竄改區域數量的比值,召回率定義為正確檢測到的竄改區域數量與所有真實竄改區域數量的比值。精確率、召回率和F1分數分別表示為
precision=TPTP+FP(5)
recall=TPTP+FN(6)
F1=2×precision×recallprecision+recall(7)
其中:TP表示正確檢測到的竄改區域數量;FP表示被錯誤檢測到的竄改區域數量;FN表示沒有被檢測到的竄改區域數量。
3.2.2實驗數據集
由于當前標準圖像竄改數據集中沒有足夠數量的拼接竄改數據樣本訓練深度神經網絡,為了能在這些標準數據集上測試模型性能,本文創建了一個包含電力竄改圖像的合成拼接竄改數據集(synthetic splicing tampered data sets,SSTDS),利用該數據集對模型進行預訓練,然后通過專業的圖像竄改數據集對模型進行微調并測試模型性能。下面對實驗數據集進行詳細說明。
1)預訓練數據集
SSTDS中的圖像來自兩個部分:一部分是使用PASCAL VOC 2012[20]中的原始圖像和標注信息自動合成;另一部分是由實驗團隊人工合成的高質量拼接竄改圖像,圖像內容為自然電力工作場景,竄改目標包括電容箱、避雷器、絕緣子等。兩部分共產生6 725張沒有進行后處理操作的合成圖像,然后使用三種方法對合成數據集進行數據擴充,包括圖像平移、圖像旋轉和椒鹽噪聲,最終得到有效的拼接竄改圖像10 010張。
2)微調數據集
為測試本文模型的性能,選用三個標準圖像竄改數據集進行微調實驗,分別是CASIA[21]、COLUMB[22]和NIST16[23]。其中,CASIA數據集包含拼接竄改和復制粘貼竄改,且被竄改區域通過模糊等操作進行了后處理。CASIA數據集中包括5 123張TIFF和JPEG格式的竄改圖像,大多數圖像分辨率為384×256。COLUMB數據集包含180張TIFF格式的竄改圖像,圖像分辨率在757×568和1 152×768之間,該數據集中只包含拼接竄改類型的圖像。NIST16是一個包含拼接竄改和復制粘貼竄改,且被竄改區域通過模糊等操作進行了后處理,以隱藏視覺可見的操作痕跡。
3.3消融實驗
為了分析不同通道和DCAM對模型性能的影響,本節在SSTDS上進行實證。所有模型在相同的參數策略下進行訓練,使用精確率、召回率和F1分數對不同結構的模型進行評估,實驗結果如表1所示,其中雙通道DCAM即為本文模型。
由表1可知:a)雙通道網絡的性能優于每一個單通道網絡,原因在于竄改過程中產生的邊界差異、色彩差異等視覺差異特征是很重要的,但是在實際生活中,圖像中的竄改痕跡很可能遭受到竄改者的精細處理,這使得單一原色圖像通道雖然能夠提供一定的竄改信息,但是經由后處理的圖像特征大大減少,隱寫分析通道可以對竄改區域的噪聲特征進行提取,使得模型在學習邊界差異特征的基礎上,獲得圖像中同樣重要的噪聲特征;b)DCAM驗證了特征權重分配的重要性,基于注意力機制的特征融合方法可以使模型獲取更多所需要關注的細節信息,而減少其余無用信息,從而提高模型性能。
圖6是不同結構模型的特征圖可視化,可以直觀地看出,原色通道可以保留更多表層視覺特征,比如邊緣信息;隱寫分析通道能充分利用噪聲特征,準確提取竄改區域;經過DCAM融合雙通道優勢,更大程度上獲取更精細化的竄改特征,使模型達到最佳狀態。
3.4對比實驗
3.4.1檢測性能對比
在三個標準拼接竄改數據集上進行微調訓練后,選取了當前五種同類工作的先進模型和本文模型進行檢測性能對比。這五種模型分別是基于竄改區域輪廓建模方法[24]、統計噪聲水平分析方法[25]、環形殘差網絡方法[10]、兩階段錨框網絡方法[11]和改進R-FCN網絡結構的方法[15]。前兩種方法基于傳統特征提取,后三種方法基于深度學習。對比模型的描述如表2所示。
檢測性能對比實驗在CASIA、COLUMB和NIST16三個數據集上進行,不同模型的精確率、召回率、F1分數的實驗結果分別如表3~5所示。從表3~5的數據可以觀察到,傳統檢測方法的精確率和F1分數均低于基于深度學習的檢測方法。TRC和NLA獲得非常高的召回率,是因為這兩種檢測方法幾乎將整個檢測圖像都預測為竄改區域。在CASIA、COLUMB和NIST16三個數據集上,本文模型的性能優于其他基于深度學習的檢測方法,尤其在COLUMB數據集上更為有效,原因是該數據集圖像的竄改區域面積較大、竄改邊緣更為平滑,更有利于邊界差異和圖像噪聲的特征提取。
網絡超參數中的學習率對模型訓練非常重要,以CASIA數據集的實驗結果為例,比較在其他參數相同的情況下,不同學習率對檢測性能的影響,結果如圖7所示。可以看出,當學習率小于1E-4時,模型的F1分數隨學習率的增大而上升,此時模型處于擬合過程;當學習率大于1E-4時,模型的F1分數隨著學習率的增大而下降;當學習率為1E-4時,模型的F1分數處于最佳值,因此選擇學習率大小為1E-4。
另外一個重要的超參數——批量大小,同樣對模型的檢測性能存在影響,以CASIA數據集的實驗結果為例,圖8展示了隨著批量大小的改變,模型F1分數的變化情況。這里以批量大小8作為調整基準,依次增加2、4、8和16倍,可以看出批量大小和F1分數的變化并不是簡單的線性關系,在批量大小處于較小的數值范圍內,模型擬合能力逐步提升,在4倍于基準大小時,模型處于最佳表示狀態,之后過大的批量對內存資源的需求陡然增加,并且過度延長模型訓練時間,F1分數非升反降。因此批量大小的選擇要根據任務種類和訓練狀態而定,批量大小32是本文中最合適的設置。
3.4.2魯棒性對比
為了對比模型的魯棒性,本文使用JPEG壓縮和圖像縮放攻擊進行測試,測試在CASIA和COLUMB兩個數據集上進行,并且與其他模型進行了比較。攻擊方式的概念和對比結果如下所述。
a)JPEG壓縮是指將拼接竄改圖像保存為具有不同質量因子的圖像,質量因子越低,圖片質量就越差,色彩就越失真。JPEG壓縮在日常生活中很常見,適用于互聯網上的大多數圖像,也是一種方便隱藏竄改痕跡的手段。本文比較了不同檢測模型在JPEG壓縮攻擊下的F1分數,結果如圖9所示。
從圖9中的變化趨勢可以得到三點結論:(a)在兩個標準數據集上,當質量因子從100%降低到50%時,大部分的檢測方法的F1分數顯著下降,而本文模型相對穩定,這可能與模型學習到的噪聲特征和定位竄改區域邊界的方式有關;(b)JPEG壓縮會影響本文模型對CASIA數據集中圖像的檢測結果,但是對COLUMB數據集中圖像的檢測結果的影響相對很小,形成這個結論的原因主要是和兩種數據集圖像的不同構造因素有關,CASIA數據集中的圖像大部分來自自然場景,并且竄改區域較為規則,對JPEG質量因子變化的敏感度較高,從而檢測結果的F1分數浮動較大,而COLUMB數據集中圖像的竄改區域大多是面積較大且無實際意義的平滑區域,即使在很低的質量因子攻擊下,圖像中依然會包含較多的噪聲特征,這些特征能夠很好地被本文模型捕獲,生成較為穩定的檢測結果;(c)基于深度學習的檢測方法比傳統的檢測方法獲得更高的F1分數。實驗表明,本文模型的檢測結果比同類工作方法更好,并且在相同數據集的JPEG壓縮攻擊下具有更高的魯棒性。
b)圖像縮放是指使用不同的寬高比例因子對拼接竄改圖像進行縮放,降低圖像分辨率。圖像縮放是另外一種隱藏竄改痕跡的方法。由于圖像被調整尺寸之后,通常會丟失一些信息,增加了檢測難度。本文比較了不同檢測模型在圖像縮放攻擊下的F1分數,結果如圖10所示,可以看出兩個數據集上,所有參與實驗的六種檢測模型的檢測性能都會隨著圖像尺寸的縮小而降低,當縮放比例處于一個非常小的狀態時,本文模型比現有方法獲得了更高的F1分數,并且得分的浮動較小,結果較為穩定。實驗表明在兩個標準數據集的圖像縮放攻擊下,相對于其他檢測方法,本文模型表現出更好的魯棒性。
3.4.3檢測效果可視化對比
圖11展示了本文模型與當前先進模型R-FCN在電力圖像拼接竄改數據集上的檢測效果對比。可以看出,由于本文模型引入了基于注意力機制的特征融合方式,所以對拼接竄改區域的定位更加精確,并且沒有出現誤檢和漏檢的情況。
4結束語
本文提出了一種用于電力場景的雙通道圖像拼接竄改檢測模型。其中原色圖像通道用于提取圖像紋理、顏色等信息,
隱寫分析通道用來捕獲竄改區域的噪聲特征。同時為了更好地利用雙通道網絡的特征,提出了一種基于注意力機制的特征融合模塊,有效提升了模型性能。實驗表明,本文提出的模型不僅在定位竄改區域方面優于現有的其他對比模型,并且在JPEG壓縮和圖像縮放的攻擊下表現出更好的魯棒性。但是現實中電力圖像的竄改類型多種多樣,拼接竄改只是其中之一,對于其他竄改方式,比如復制粘貼和移除,需要針對其不同特點對模型和算法進行改進。因此下一步計劃是繼續探索不同類型的竄改檢測技術在電力業務場景中的應用,提出更具通用性的方法。
參考文獻:
[1]李曉龍,俞能海,張新鵬,等.數字媒體取證技術綜述[J].中國圖象圖形學報,2021,26(6):1216-1226.(Li Xiaolong,Yu Nenghai,Zhang Xinpeng,et al.Overview of digital media forensics technology[J].Journal of Image and Graphics,2021,26(6):1216-1226.)
[2]Zhao Xudong,Li Jianhua,Li Shenghong,et al.Detecting digital image splicing in chroma spaces[C]//Proc of International Workshop on Digital Watermarking.2010:12-22.
[3]Popescu A C,Farid H.Exposing digital forgeries in color filter array interpolated images[J].IEEE Trans on Signal Processing,2005,53(10):3948-3959.
[4]Luká J,Fridrich J,Goljan M.Detecting digital image forgeries using sensor pattern noise[C]//Proc of Security,Steganography,and Watermarking of Multimedia Contents Ⅷ.2006:60720.
[5]Johnson M K,Farid H.Exposing digital forgeries in complex lighting environments[J].IEEE Trans on Information Forensics and Security,2007,2(3):450-461.
[6]Tang Zhenjun,Zhang Xianquan,Li Xianxian,et al.Robust image hashing with ring partition and invariant vector distance[J].IEEE Trans on Information Forensics and Security,2015,11(1):200-214.
[7]Rao Yuan,Ni Jiangqun.A deep learning approach to detection of splicing and copy-move forgeries in images[C]//Proc of IEEE International Workshop on Information Forensics and Security.Piscataway,NJ:IEEE Press,2016:1-6.
[8]Zhang Ying,Goh J,Wan Leilei,et al.Image region forgery detection:a deep learning approach[C]//Proc of Singapore Cyber-Security Conference.2016:1-11.
[9]Cozzolino D,Verdoliva L.Single-image splicing localization through autoencoder-based anomaly detection[C]//Proc of IEEE International Workshop on Information Forensics and Security.Piscataway,NJ:IEEE Press,2016:1-6.
[10]Bi Xiuli,Wei Yang,Xiao Bin,et al.RRU-Net:the ringed residual U-Net for image splicing forgery detection[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops.2019:30-39.
[11]Zhou Peng,Han Xintong,Morariu V I,et al.Learning rich features for image manipulation detection[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:1053-1061.
[12]Zhou Xingyi,Koltun V,Krhenbühl P.Tracking objects as points[C]//Proc of European Conference on Computer Vision.2020:474-490.
[13]He Kaiming,Zhang Xianyu,Ren Shaoqing,et al.Deep residual learning for image recognition[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016:770-778.
[14]Dai Jifeng,Qi Haozhi,Xiong Yuwen,et al.Deformable convolutional networks[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2017:764-773.
[15]田秀霞,李華強,張琴,等.基于雙通道R-FCN的圖像篡改檢測模型[J].計算機學報,2021,44(2):370-383.(Tian Xiuxia,Li Huaqiang,Zhang Qin,et al.Dual-channel R-FCN model for image forgery detection[J].Chinese Journal of Computers,2021,44(2):370-383.)
[16]Shen Lili,Liang You,Bo Peng,et al.Group multi-scale attention pyramid network for traffic sign detection[J].Neurocomputing,2021,452:1-14.
[17]Hu Jie,Shen Li,Sun Gang.Squeeze-and-excitation networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:7132-7141.
[18]Wang Qilong,Wu Banggu,Zhu Pengfei,et al.ECA-Net:efficient channel attention for deep convolutional neural networks[C]//Proc of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.2020:11531-11539.
[19]Zhang Qinglong,Yang Yubin.SA-Net:shuffle attention for deep convolutional neural networks[C]//Proc of IEEE International Conference on Acoustics,Speech and Signal Processing.Piscataway,NJ:IEEE Press,2021:2235-2239.
[20]Everingham M,Van Gool L,Williams C K I,et al.The pascal visual object classes(VOC)challenge[J].International Journal of Computer Vision,2010,88(2):303-338.
[21]Jing Dong,Wei Wang,Tan Tieniu.Casia image tampering detection evaluation database[C]//Proc of IEEE China Summit and International Conference on Signal and Information Processing.2013:422-426.
[22]Hsu Y F,Chang S F.Detecting image splicing using geometry invariants and camera characteristics consistency[C]//Proc of IEEE International Conference on Multimedia and Expo.Piscataway,NJ:IEEE Press,2006:549-552.
[23]Salloum R,Ren Yuzhuo,Kuo C C J.Image splicing localization using a multi-task fully convolutional network(MFCN)[J].Journal of Visual Communication and Image Representation,2018,51:201-209.
[24]楊超,周大可,楊欣.基于篡改區域輪廓的圖像拼接篡改盲取證算法[J].電子測量技術,2020,23(4):132-138.(Yang Chao,Zhou Dake,Yang Xin.Blind forensics for image tampering based on tampered contour[J].Electronic Measurement Technology,2020,23(4):132-138.)
[25]熊士婷,張玉金,吳飛,等.基于統計噪聲水平分析的圖像拼接檢測[J].光電子·激光,2020,31(2):214-221.(Xiong Shiting,Zhang Yujin,Wu Fei,et al.Image splicing detection based on statistical noise level analysis[J].Journal of Optoelectronics·Laser,2020,31(2):214-221.)
收稿日期:2021-08-01;修回日期:2021-09-23基金項目:國家自然科學基金資助項目(61772327);國網甘肅省電力公司電力科學研究院資助項目(H2019-275);上海市大數據管理系統工程研究中心開放課題資助項目(H2020-216)
作者簡介:劉正(1995-),男,安徽阜陽人,碩士研究生,主要研究方向為深度學習與數字取證;田秀霞(1976-),女(通信作者),河南安陽人,教授,碩導,博士,主要研究方向為隱私保護、面向電力用戶的安全計算研究(xxtian@shiep.edu.cn);白萬榮(1985-),男,甘肅臨夏人,高級工程師,碩士,主要研究方向為網絡安全、模式識別.