999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進Deep LabV3+的圖像篡改檢測技術

2022-04-22 11:20:32
現代計算機 2022年3期
關鍵詞:特征提取特征區域

劉 旭

(四川大學網絡空間安全學院,成都 610207)

0 引言

隨著圖像處理軟件的廣泛應用,人們可以在不需要專業技能的情況下對圖片進行美化與修飾。這類軟件在給人們生活帶來便利和樂趣的同時,也帶來了一個問題:圖像篡改。現有的常用圖像篡改方法有:復制粘貼、拼接和移除。復制粘貼是指篡改者復制圖像中的某一特殊區域,然后粘貼到這幅圖像的另一個區域。由于同一幅圖像中的色彩、亮度等不會有明顯變化,因此復制粘貼篡改一般很難被人眼察覺。拼接是指篡改者剪切圖像中的某一區域,然后粘貼到其他圖像中。由于兩幅圖像間色彩、亮度等的差異,因此拼接篡改區域和非篡改區域會存在明顯的差異,通常篡改者會使用模糊,壓縮等后處理方式消除這些差異。移除是指篡改者刪除圖像中的某一區域,然后利用區域周圍的像素對刪除區域進行填充。它和復制粘貼一樣,都是操作同一張圖像,因此篡改區域很難被人察覺。

針對網絡中篡改圖像泛濫問題,學術界進行了大量的研究。現有的檢測方法主要分為兩類:基于手工特征提取的傳統檢測方法和基于深度學習的檢測方法。基于手工特征提取的檢測方法依賴于人工選擇和提取特征,耗費大量的人力、物力和時間,并且得到的特征向量魯棒性也不夠健壯。深度學習不僅能自適應從圖像中提取特征,解決了特征工程的局限性,而且提取的特征向量具有更好的表征性,從而能實現更好的分類效果。現有的基于深度學習的方法雖然在模型的魯棒性和準確性上有一定程度的優化,但深層網絡中篡改特征丟失,導致現有方法對小尺度篡改區域檢測性能不佳,存在較高的漏報率,并且連續降采樣使得特征圖分辨率不斷減小,篡改區域邊緣特征丟失,導致現有方法無法精確定位篡改區域。

針對現有主流圖像篡改檢測方法存在的問題,本文提出并實現了一種改進DeepLabV3+算法的圖像篡改檢測模型。首先基于約束卷積層設計了一個可學習多種篡改特征的特征提取器,用于自適應提取多種篡改特征;其次使用不同步長的可分離卷積代替池化層和利用空洞卷積在不改變特征圖大小的同時,擴大感受野,提取更有效的篡改特征;利用多級跳層結構融合低級特征和高級特征,精細化定位區域;最后利用CBAM關注篡改特征抑制非篡改特征,減少篡改特征在深層網絡中消失并且利用ASPP模塊融合不同采樣率的空洞卷積提取的特征,提取多尺度特征,改善了現有模型對小尺度篡改區域檢測不佳的問題,提高了檢測的準確率。

1 算法實現

本文提出了一種基于改進DeepLabV3+的圖像篡改檢測模型,如圖1所示,模型主要由可學習的特征提取器,ASPP模塊和特征融合模塊組成。首先利用可學習的特征提取器捕獲由篡改操作導致的相鄰像素之間關系的變化特征,其次利用ASPP模塊提取多尺度特征以增強對不同尺度篡改區域的檢測性能,然后特征融合模塊融合多級特征以增強全局特征表示,最后使用SoftMax分類器進行逐像素分類,定位篡改區域。

圖1 基于改進Deep LabV3+的圖像篡改檢測模型結構

1.1 可學習的特征提取器

為了抑制圖像的語義信息并自適應學習豐富的篡改特征,本文基于約束卷積層、空洞卷積和CBAM模塊設計了一個可學習的特征提取器。約束卷積層通過提取像素殘差特征抑制圖像語義信息,將像素殘差輸入到主干網絡自適應學習由篡改操作導致相鄰像素之間關系的變化特征;空洞卷積在不改變特征圖分辨率大小的前提下,擴大感受野,保留了更多細節特征;CBAM模塊從空間和通道兩個不同的維度計算注意力權重,關注篡改特征抑制非篡改特征,強化對篡改特征學習能力,緩解篡改特征在深層網絡中的消散問題。

約束卷積層位于特征提取器的第一層,用于提取像素殘差特征抑制圖像語義信息。特征提取方法公式(1)所述:

其中上標表示CNN的第一層,下標表示層內的第個卷積核,卷積核的中心點值為-1,其余所有值之和為1。

盡管約束卷積層能捕獲豐富的篡改信息,但在DCNN中為了增加感受野并降低計算量,需要進行連續降采樣操作,這就使得特征圖分辨率降低,損失了一部分細節特征,導致現有方法無法精確定位篡改區域。為了解決這個問題本文使用空洞卷積在不改變特征圖分辨率大小的前提下,擴大感受野,提升了模型的定位精度。在二維空間上對于位置,在輸入上使用卷積核進行卷積,輸出為:

其中是卷積核大小,速率在采樣點之間引入-1個零,將感受野從擴大到(+(-1)×(-1)),而不增加參數和計算量。

隨著網絡結構的深入,篡改特征在深層網絡中的弱化問題導致模型漏報率較高。為了降低漏報率本文引入CBAM模塊沿著空間和通道兩個不同的維度依次推斷出注意力權重,然后與原始特征圖相乘來對特征進行自適應調整,把更多的權重分配給篡改特征,達到關注篡改特征,抑制非篡改特征的目的,有效緩解了特征弱化問題。如圖2所示,其中?表示逐元素相乘。

圖2 CBAM體系結構

1.2 ASPP模塊

為了檢測出多尺度篡改區域降低漏報率,本文利用ASPP模塊來提取多尺度特征。ASPP模塊采用不同比例的并行空洞卷積來挖掘不同尺度的篡改信息,如圖3所示。ASPP模塊由四個并行的空洞卷積和一個全局最大池化組成,其中四個并行的空洞卷積分別為1個1×1的空洞卷積,3個3×3的空洞卷積,膨脹率分別為(1,6,12,18)。最后將不同尺度的特征圖合并后輸入到特征融合模塊。

圖3 ASPP體系結構

1.3 特征融合模塊

為了捕獲到更豐富的細節特征,實現更精確的定位,本文對主干網絡的最后三個模塊都進行跳躍連接。網絡輸入一張(512,512,3)的圖片,三級跳層和ASPP模塊的輸出分別為:(128,128,256)、(64,64,256)、(32,32,728)和(32,32,1280)。融合模塊如圖4所示,由于這些特征中包含大量的通道,使網絡訓練變得更加困難,所以分別對這四個特征進行1×1的卷積降低通道數。然后對后面三個特征分別進行2倍、4倍和4倍雙線性上采樣得到相同的特征大小,接著將這4個相同大小的特征圖拼接在一起。拼接后,使用3×3的卷積來細化這些特征,然后進行4倍雙線性上采樣還原回輸入特征圖大小。最后使用SoftMax逐像素進行分類。

圖4 特征融合模塊結構

2 實驗

2.1 實驗環境

為了使網絡具有較強的泛化能力,本文選擇四個公開數據集大約50 K篡改圖像作為網絡訓練集,每個數據集都提供篡改圖片和二進制掩碼,具體細節如表1所示。

表1 訓練數據集信息

表1中篡改方式一列中C表示復制粘貼篡改,S表示拼接篡改。表二中R表示移除篡改。

為了證明提出的篡改檢測方法的通用性,本文選擇了四個公開可用的數據集作為測試數據 集:NIST16、CASIA、COLUMBIA和COVERAGE數據集,具體細節如表2所示。

表2 測試數據集信息

表2中CASIA數據集是指:CASIA 1.0數據集有921張圖片,CASIA 2.0有5123張圖片。

為了在測試數據集上微調模型,本文參考[1]對測試數據集進行劃分。CASIA 2.0用于訓練,CASIA1.0用于測試,COLUMBIA僅用于測試,具體細節如表3所示。

表3 四個標準數據集訓練和測試集劃分

本文在tensorflow平臺上實現了基于改進DeepLabV3+的圖像篡改檢測模型。在模型中,首先將所有圖像調整為512×512×3的標準尺寸作為網絡的輸入,然后使用均值為0,方差為0.01的高斯分布初始化網絡權重,接著使用Adam優化器進行訓練,初始學習率為1e-3,使用交叉熵記錄模型的損失,在訓練過程中測試集損失兩次不下降就將學習率降低為原來的0.1倍。本文的所有實驗均在NVIDIA GTX 1080 Ti GPU上進行。

2.2 實驗結果分析

本文在像素級別使用查準率(precision)、召回率(recall)和1分數來評估實驗性能,將提出的方法與現有的基準模型進行比較,這些基準模型包括傳統的無監督方法ELA和NOI1和最 新 的 基 于DNN的 方 法:HLED、Man?TraNet和RGB-N。實驗結果如表4所示。

表4 四個標準數據集上precision比較

表4、表5和表6分別展示了本文方法與基準方法在四個標準數據上precision、recall和1的比較,其中DLV3+表示基于DeepLabV3+的篡改檢測方法。上述結果中ELA、NOI1、HLED和ManTraNet是運行代碼后的到的結果,RGB-N是直接從原文復制而來。

表5 四個標準數據集上recall比較

表6 四個標準數據集上F1分數比較

從實驗結果可以發現,基于深度學習的檢測方法明顯優于基于手工特征的傳統檢測方法,如ELA,NOI1。這是因為傳統的檢測方法需要人工選擇和提取特征,這些特征都傾向于檢測單一篡改類型,并且模型的準確率依賴于特征工程。本文提出的模型優于現有的基于深度學習的方法,如:HLED,RGB-N和ManTraNet。這是因為HLED利用重采樣特征、RGB-N利用噪聲域特征捕獲篡改區域和非篡改區域不一致,這些手工設計特征和傳統檢測類似都傾向于檢測單一篡改類型。與RGB-N相比本文提出的模型在四個公開數據集上1分數提高了0.092、0.234、0.091和0.238,增長率分別為12.7%、57.4%、13.1%和54.5%。

圖5展示了本文提出的方法與基準方法在部分測試數據集上的篡改區域定位圖。其中R表示移除篡改、S表示拼接篡改、C表示復制粘貼篡改,圖像中黑色像素表示真實區域,白色像素表示篡改區域。從實驗結果可知本文提出的方法不僅能有效檢測出移除、拼接和復制粘貼三種篡改類型的圖像,而且能更精確定位篡改區域,最后一組圖像說明了本文提出的方法適用于小篡改區域和多篡改區域的檢測。

圖5 測試數據集上篡改區域定位圖

3 結語

本文提出了一種基于改進DeepLabV3+的圖像篡改檢測模型。首先可學習的特征提取器能自適應從圖像中提取多種篡改特征;其次利用CBAM模塊關注篡改特征抑制非篡改特征,緩解深層網絡中篡改特征消失問題,利用ASPP模塊提取多尺度篡改特征;最后利用特征融合模塊融合低級特征和高級特征獲得更精細化的定位結果。在幾個公開數據集上結果表明,本文提出的方法優于現有的主流方法。

猜你喜歡
特征提取特征區域
如何表達“特征”
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
關于四色猜想
分區域
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
基于MED和循環域解調的多故障特征提取
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 黑人巨大精品欧美一区二区区| 制服丝袜无码每日更新| 亚洲日本中文字幕乱码中文| 综合天天色| 91网站国产| 国产精品亚洲αv天堂无码| 国产91特黄特色A级毛片| 国产成人乱无码视频| 尤物精品视频一区二区三区| 亚洲免费毛片| 久久精品无码专区免费| 天堂va亚洲va欧美va国产| 欧美精品啪啪| 国产手机在线ΑⅤ片无码观看| 国产福利拍拍拍| 伊人精品成人久久综合| 97久久超碰极品视觉盛宴| 国产精品一区二区国产主播| 欧美成人综合在线| 亚洲色欲色欲www在线观看| 国产人免费人成免费视频| 亚洲天堂区| 国产亚洲欧美在线中文bt天堂| 国产福利在线免费| 亚洲人成网7777777国产| 国产噜噜噜视频在线观看| 韩日免费小视频| 无码中文AⅤ在线观看| 在线毛片网站| 中文一区二区视频| 午夜精品区| 日韩少妇激情一区二区| 亚洲一区色| 国产成人精品高清在线| Jizz国产色系免费| 欧美三级不卡在线观看视频| 国产成人在线小视频| 天天躁狠狠躁| 国产精品伦视频观看免费| 凹凸国产熟女精品视频| 2021亚洲精品不卡a| 真人高潮娇喘嗯啊在线观看| 国产成人亚洲无吗淙合青草| 高潮毛片免费观看| 99久久人妻精品免费二区| 2021国产在线视频| 在线一级毛片| 99视频在线免费| 亚洲精品自在线拍| 手机成人午夜在线视频| 国产在线麻豆波多野结衣| 免费观看男人免费桶女人视频| 午夜影院a级片| 最近最新中文字幕在线第一页 | 色综合久久88| 亚洲成人黄色在线观看| 乱码国产乱码精品精在线播放| 五月激情综合网| 9久久伊人精品综合| 国产成人精品午夜视频'| 99热国产在线精品99| 亚洲AV无码久久精品色欲| 一本久道久久综合多人| 呦女精品网站| 人人澡人人爽欧美一区| 久久婷婷综合色一区二区| 极品av一区二区| 国产亚洲美日韩AV中文字幕无码成人| 99热在线只有精品| 国产制服丝袜91在线| 日韩A∨精品日韩精品无码| 国产00高中生在线播放| …亚洲 欧洲 另类 春色| 成人福利在线视频| 亚洲第一综合天堂另类专| 狼友视频一区二区三区| 国产一区二区三区免费观看| 国产视频大全| 国产在线观看一区二区三区| 国产福利在线免费观看| 国产一二视频| 99精品国产自在现线观看|