999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

對抗樣本生成在人臉識別中的研究與應用

2019-05-16 08:22:18張加勝劉建明
計算機應用與軟件 2019年5期
關鍵詞:人臉識別深度模型

張加勝 劉建明 韓 磊 紀 飛 劉 煌

(桂林電子科技大學計算機與信息安全學院 廣西 桂林 541000)

0 引 言

隨著深度學習技術的發展,深度神經網絡DNN(Deep Neural Network)在人臉識別,交通標識識別,安防監控等安全敏感性任務中得到了廣泛的應用[1-3]。然而Szegedy等首次揭示了深度神經網絡脆弱性的存在,極易受到對抗性樣本的影響,即通過對原始輸入樣本進行不可察覺的微小的擾動,可以使深度神經網絡以較高的置信度錯誤分類[10]。進而,Goodfellow解釋了對抗樣本存在的根本原因,深度模型高度線性的本質[14],并提出了相關對抗樣本生成策略,如FGSM[13]、I-FGSM[5]、RAND+FGSM[7]等,通過在熊貓的圖片中加入微小的擾動向量,在人眼不易察覺的情況下成功使神經網絡以高置信度分類為長臂猿。然而這些攻擊算法的設計都需要攻擊者對目標系統的體系結構或訓練參數有充分的了解(白盒)。由于在現實世界中很難獲取到目標系統的內部信息,對于攻擊者來說,目標系統完全就是一個黑盒。先前的研究表明,不同學習模型之間存在著遷移性[8-9,11],也就是說,采用不同攻擊算法生成的攻擊樣本能夠使多個模型同時錯誤分類。這一屬性為攻擊者在未知目標系統內部信息情景下能夠實現黑盒攻擊奠定了基礎。那么,現實世界中基于深度學習的黑盒系統的安全性受到了一定威脅[6],例如,在人臉識別系統中,攻擊者通過對人臉圖像做精心設計的改動,使系統誤認為是攻擊者想要的身份,從而侵入系統導致安全威脅;對于無人駕駛系統而言,稍微修改“STOP”標識圖像使得深度神經網絡錯誤識別為其他標識而不及時停車,將造成安全事故;再比如在安防監控系統中,攻擊者往往通過化妝、裝飾物(包括眼鏡、假發、首飾等)進行偽裝迷惑監控系統,從而混入非法分子。所以,研究對抗樣本的生成過程,分析基于深度學習的系統存在的安全漏洞,這將有助于設計更加安全有效的防御機制。

對于人臉識別系統,攻擊者往往利用合法用戶的照片,通過添加微小的、不可察覺的擾動試圖入侵系統,如圖1所示。然而目前大部分人臉識別系統都針對此類攻擊設計了相應的防御機制,來抵御微小擾動的干擾,例如通過對抗性訓練新的網絡,MagNet等檢測器的設計[4,16]。對于攻擊者而言,唯有增加擾動量卻極易被系統檢測出對抗樣本的可能性。進而,相關研究者提出了高亮貼片的概念[12,15],這類貼片樣本擺脫了以往的束縛,即不要求生成的樣本在人眼看來仍然是原來的圖片,貼片樣本示例如圖2所示。攻擊者通過打印生成的對抗貼片樣本貼在交通標識牌、眼鏡框等顯眼位置,不僅不會引起警覺,同樣可以欺騙深度學習系統。基于該思想,本文通過生成對抗網絡原理設計出一種新穎的對抗眼鏡貼片樣本,并且可以應用于任何真實場景中,從而揭示了現實世界中深度學習模型的脆弱性依然存在。

圖1 對抗擾動

圖2 對抗貼片樣本

1 相關工作

1.1 黑盒攻擊

在現實世界中,由于攻擊者很難獲取到目標模型(即攻擊對象)的內部結構信息,包括訓練數據、模型體系結構以及訓練參數等。那么,對于攻擊者而言,目標系統完全就是一個黑盒,攻擊者只能通過原始的輸入獲得對應的反饋結果。這種情況下,攻擊者就很難設計出具有很強攻擊性的對抗樣本。然而,先前的研究表明,不同的深度學習模型之間存在著遷移性,這為攻擊者間接地去實現同樣的攻擊效果提供了基礎。比如,攻擊者可以根據已知任務去訓練一個替代模型,此時的替代模型對于攻擊者而言即為白盒,進而一系列的攻擊策略可以設計去生成對抗樣本,然后利用模型遷移性的性質,將生成的對抗樣本應用于未知模型的黑盒系統。

假設X∈RD表示D維的特征空間,Y={y1,y2,…,yc}表示c個不同標簽的標簽集合。給定合成數據集data={(xi,yi)|1≤i≤N},xi∈X表示第i個訓練樣本,yi∈Y表示第i個樣本查詢目標模型的反饋標記。黑盒攻擊的過程是從data學習一個替代模型F(x),然后選用某種攻擊算法為該模型生成攻擊樣本x*,即通過最優化以下目標損失函數使得神經網絡模型以最大概率錯誤分類為目標標簽yt:

Loss=max{F(x*|x+r)y:y≠yt}-F(x*|x+r)yt

(1)

式中:r表示添加到原始輸入樣本的微小的擾動向量。

然后將該樣本遷移到目標模型O(x),使目標模型也錯誤分類,即O(x)≠O(x*)。詳細攻擊流程如圖3所示。

圖3 黑盒攻擊流程圖

本文著重探討深度學習模型的脆弱性,那么替代模型也可選擇深層模型,即n個帶參函數f(θ,x)的分層組合,來模擬高維輸入x,定義如下:

F(x)=fn(θθ,fn-1(θn-1,…,f2(θ2,f1(θ1,x))))

(2)

1.2 生成對抗網絡

生成對抗網絡GAN是一種深度學習模型,主要由生成器(Generator)和判別器(Discriminator)兩個模塊構成。其中生成器的作用是盡可能地學習真實的數據分布,輸入變量z,則G盡可能地生成服從真實數據分布的樣本G(z)。判別器的作用是判別其輸入數據是來自生成器G,還是來自真實的數據x,如果輸入來自G(z),則標注為0,并判別為偽,否則標注為1,并判別為真。這里生成器G的目標是使其生成的偽數據G(z)在判別器D上的表現和真實數據x在D上的表現一致。G和D互相博弈學習并迭代優化的過程使得它們的性能不斷提升,隨著D的判別能力提升,并且無法判別其數據來源時,就認為G已學到真實的數據分布,如圖4所示。在實際應用中一般均使用深度神經網絡作為G和D,一個較好的生成式對抗網絡(GAN)應用需要有良好的訓練方法,否則可能由于神經網絡模型的自由行而導致輸出不理想。

圖4 生成對抗網絡框架圖

GAN的訓練需迭代進行,通過反向傳播更新G和D的參數。G的訓練通過最小化以下目標函數:

(3)

當G誤導D(即當D(G(z))取值為1),該損失達到最小值。D的訓練通過最大化以下目標函數:

(4)

當D對真實樣本發出1時,GainD最大化,否則為0。目前已經提出了幾種GAN體系結構和訓練過程來訓練GAN,本文主要以Wasserstein GAN為主。

2 基于GAN對抗樣本生成策略

本節主要描述提出的基于GAN的對抗樣本生成策略以迷惑深度神經網絡。第一部分明確了我們的威脅模型,第二部分詳細描述攻擊框架的設計。

2.1 威脅模型

假設一個攻擊者能夠成功侵入一個已經訓練好的人臉識別系統來發動攻擊。由于攻擊者不能通過注入錯誤標記的數據或修改訓練數據來危害人臉識別系統的參數。因此,只能通過改變輸入以紊亂深度神經網絡的分類。

攻擊者的目標是通過不易察覺地偽裝自己并呈現在人臉識別系統前,然后被錯誤地歸類為除了自己以外的人。考慮這種攻擊的兩種變體,在定向攻擊中,攻擊者試圖使人臉識別系統錯誤分類為特定的其他人;在非定向攻擊時,攻擊者試圖使人臉識別系統錯誤分類為任意其他人,不用特定到某個人。通常假設攻擊者在白盒場景下運行。也就是說,攻擊者知道特征空間(RGB圖像表示,這在DNN圖像分類中是常用的)以及被攻擊系統的內部(體系結構和參數)。在白盒假設條件下研究DNN的脆弱性是本文的重點。此外,黑盒攻擊可以使用本地替代模型進行白盒攻擊,然后將其轉移到黑盒中。

2.2 攻擊框架

除了少數幾種攻擊方法以外,在傳統深度神經網絡逃避攻擊中,攻擊者直接改變正常輸入樣本來最大化或最小化一個預先定義的函數與預期的錯誤分類相關的函數。與以往的攻擊不同,本文提出了通過訓練神經網絡來產生可用于達到預期目的的輸出。也就是說,與其反復調整正常樣本輸入,使之成為對抗性樣本,不如嘗試迭代更新深度神經網絡的權值來調整將產生導致錯誤分類的輸出。

更具體地說,本文通過訓練生成對抗神經網絡來生成眼鏡的貼片并可以打印貼在眼鏡鏡框上,當攻擊者佩戴時,不易被察覺,卻能使人臉識別系統紊亂,產生定向或非定向的攻擊效果。為了達到不顯眼的攻擊效果,我們要求這些神經網絡產生的眼鏡圖片與真實的眼鏡設計相似。與傳統的GAN訓練類似,不同于GAN的是,還需要產生對抗性的輸出(即包含眼鏡的人臉圖像),能夠誤導用于人臉識別的神經網絡模型。

所以,本文提出的方法需要訓練三個深度神經網絡:一個生成器G、一個判別器D和一個預訓練的分類函數為F(·)。當輸入x到DNN時,通過最小化G來生成不引人注目的對抗輸出,能夠迷惑F(·),優化目標如下:

(5)

其中損失函數LossG同式(1)定義,通過最小化該損失的目的是希望生成器生成真實的不顯眼的眼鏡圖像輸出,能夠誤導判別器D,使判別器認為生成的眼鏡圖像即為真實圖像。LossF是在DNN的分類中定義的損失函數,在訓練G過程中,通過最大化該損失,從而使得生成的眼鏡圖像付在人臉圖像之上能夠成功欺騙深度神經網絡F。LossF的定義又分為兩類,分別針對定向和非定向而言。對于非定向攻擊而言,LossF損失定義如下:

Fyx(x+G(z))

(6)

通過最大化LossF,樣本x被DNN識別成真實標簽yx的概率大大降低,使識別成其他標簽的概率增加,從而實現非定向攻擊的效果。對于定向攻擊而言,LossF損失定義如下:

LossF(x+G(z))=Fyt(x+G(z))-

(7)

通過最大化LossF, 樣本x被DNN識別成攻擊者指定的目標標簽yt的概率會增加。

判別器D的訓練作為訓練過程的一部分,目標使式(4)中定義的收益GainD最大化。通過調整判別器D的權重進而激勵生成器G生成更真實的實例,兩者相互博弈,實現互利共贏。與D和G相反,F(·)的權重在訓練過程中是不需要改變(因為希望在測試階段,生成的對抗輸出能夠成功欺騙相同的DNN)。整個訓練過程如算法1所示。

算法1基于GAN對抗眼鏡貼片樣本生成過程

輸入:X,G,D,F(·),data,Z,Ne,sb,κ∈{0,1}

輸出:對抗輸出G

1:e←0;

2:foreinrange(1,Ne)

3: 按照大小sb分塊data獲得mini-batches

4:forbatchinmini-batches:

5:z←從Z中抽樣sb個樣本;

6:gen←G(z);

7:batch←合并(gen,batch)

8:ifeveniteration:

//更新生成器D

9: 通過反向傳播求?GainD/?batch更新D;

10:elifF(·)錯誤輸出:

11:return;

12:d1←-?GainD/?gen;

13:x←從X中抽樣sb個樣本;

14:x←x+gen;

15:d2←-?LossF/?gen;

16:d1,d2←歸一化(d1,d2)

17:d←κ·d1+(1-κ)·d2;

18: 通過反向傳播求d更新G

19:endfor

該算法以一組正常樣本X作為輸入,一個預初始化的生成器和鑒別器,一個用于人臉識別的神經網絡,實際示例的數據集(生成器的輸出應該類似于這些數據集; 在我們的例子中這是一個眼鏡的數據集),一個可以從G的潛在空間(Z)中采樣的函數,最大訓練周期(Ne),mini-batches的大小sb,和κ(0和1之間的值)。這個訓練過程的結果是一個對抗的生成器,它創建輸出(即眼鏡圖像)以迷惑用于人臉識別的深度神經網絡F(·)。在每次訓練迭代中,D或G都使用隨機選擇的數據子集進行更新。D的權值通過梯度上升來更新,以增加增益。相反,G的權值通過梯度下降來更新,使式(3)定義的損失值最小化。為了平衡生成器的兩個目標,分別將GainD和LossF的導數進行結合,通過對這兩個導數進行歸一化得到這兩個值的歐幾里德范數(算法中第16行)。

然后通過設置κ來控制這兩個目標中的哪一個該獲得更多的權重(算法中的第17行)。當κ接近零的時候,會有更多的權重用以迷惑F(·), 分配更少的權重使G的輸出更真實。相反,當κ接近一個1時,會分配更大的權重使G的輸出類似于真實的例子。當達到最大訓練周期時,訓練結束,或者當F(·)被迷惑時,即定向或非定向攻擊已完成。

3 實 驗

為了驗證上述對抗樣本生成策略的有效性,在收集的眼鏡數據集上進行了對抗眼鏡樣本的合成,并在經典的人臉識別模型OpenFace,VGG上驗證了提出的方法的攻擊性能。需要如下準備:(1) 收集訓練中使用的真實眼鏡數據集;(2) 選擇生成器和鑒別器的架構,實例化它們的權值;(3) 訓練可用于評估攻擊的DNNs;(4) 設定攻擊的參數。

3.1 數據集采集

一個真實的眼鏡框架設計數據集是必要的,以訓練生成器創建真實的攻擊。我們使用谷歌搜索的搜索“眼鏡”及其同義詞(如“眼鏡”、“護目鏡”),有時使用形容詞修飾,我們使用的形容詞主要包括顏色(如“棕色”、“藍色”)、趨勢(如“極客”、“龜甲”)和品牌(如“拉夫·勞倫”、“普拉達”)。總共做了430個獨特的API查詢,收集了26 520張圖片。

收集的圖像不僅僅是眼鏡; 我們還發現了杯子、花瓶和眼鏡品牌的標識阻礙了訓練過程;此外,這些圖像還包括模特佩戴的眼鏡和深色背景下的眼鏡圖像。我們發現這些圖像很難用生成網絡進行建模。因此,我們訓練了一個分類器來幫助我們檢測和保存在白色背景下的眼鏡圖像,從而不包括模特們佩戴時的圖像。使用250張手工標記的圖片,訓練了一個分類器,并將其調整為100%的精確度和65%的召回率。在對數據集中的所有圖像進行應用后,仍有8 340幅眼鏡圖像,手動檢查這些圖片并沒有發現假陽性的一個子集。

使用這個數據集的原始圖像,可以訓練一個能發出不同圖案、形狀和方向的眼鏡的生成器。不幸的是,形狀和方向的變化使得這種眼鏡在運行算法1時難以有效和合理地對準人臉圖像。因此對數據集中的圖像進行預處理,并將模式從它們的幀轉移到一個固定的形狀,可以很容易地對齊到人臉圖像。我們使用的形狀的剪影如圖5所示,然后我們訓練生成器生成這種形狀的眼鏡的圖像,但是它們有不同的顏色和質地。將眼鏡的顏色和紋理轉換成固定的形狀,對圖像進行了識別,以檢測幀的區域。然后使用紋理合成技術將框架的紋理合成到固定形狀上,圖6顯示了紋理合成結果的示例。

圖5 眼鏡生成輪廓

圖6 原始眼鏡圖像(左)與合成眼鏡圖像(右)

3.2 實驗設置與結果分析

3.2.1預訓練生成器與判別器

當訓練GANs時,我們希望生成器構造出清晰的、真實的、多樣的圖像。只發射一小組圖像表明生成器的功能不能很好地接近底層數據分布。為了實現這些目標,也為了能夠進行有效的訓練,我們選擇了深度卷積生成對抗網絡DCGAN(Deep Convolutional GAN),一個具有少量參數的極簡主義架構。然后探索了發生器潛在空間的各種可能性,輸出維度,以及G和D中的權重數(通過調整過濾器的深度)。最終發現一個潛在的空間[-1; 1]25,(即二十五維25-dimensional向量之間的實數-1和1), 和輸出的包含64×176像素的圖像可產生最好看、最多樣化的效果。

為了確保攻擊能夠迅速融合,將G和D初始化到一個狀態,在這個狀態中,生成器才能夠有效生成真實的眼鏡圖像。為此選擇了200次迭代進行預訓練,并存儲它們以初始化以后的運行。此外,本文還借鑒了Salimans提出的基于軟標簽來訓練生成器。圖7和圖8展示了在訓練結束時生成器器生成的眼鏡圖像。

圖7 對抗眼鏡圖像

圖8 原始人臉圖像(左)與對抗人臉圖像(右)

3.2.2人臉識別模型

本文評估了對兩個體系結構中的DNNs的攻擊。一個神經網絡是建立在超分辨率測試序列(VGG)神經網絡上[17]。最初的VGG DNN在人面數據庫(LFW)基準測試中,在被標記的面孔上顯示了最先進的結果,以98.95%的準確率進行面部驗證[18]。另外一個DNN是在OpenFace神經網絡上構建的,它使用了谷歌FaceNet體系結構[19]。OpenFace的主要設計考慮是提供高精度DNN,低訓練和預測時間,使DNN可以部署在移動設備和物聯網設備上。

VGG網絡訓練: 原始的VGG網絡需要一個224×224像素對齊的臉部圖像用以輸入,并產生了一個具有高度鑒別性的4 096維的面部描述符(即用矢量表示法展示臉部圖像)。在歐幾里德空間中,兩個描述同一人的圖像的描述符比兩個描述不同人的圖像的描述符更接近。使用描述符來訓練兩個簡單的神經網絡,將圖幅面積描述符映射到身份集合上的概率提高。如此,原來的VGG網絡就有效地充當了特征提取器的角色。

OpenFace網絡訓練:原始的OpenFace網絡需要一個96×96像素對齊的臉部圖像作為輸入和輸出128維的描述符。與VGG網絡相似,同一個人的圖像描述符在歐幾里得空間中接近,而不同人物形象的描述符卻相差甚遠。與VGG相反,OpenFace的描述符位于一個單位球面上。首先嘗試訓練神經網絡,使用與VGG DNNs相似的架構將OpenFace描述符映射到身份數據集,找到了這些神經網絡來得到有競爭力的精確度。然而,與VGG DNNs類似,它們也很容易受到閃避的攻擊。與VGG DNNs不同,簡單的數據增加并不能提高DNNs的穩健性。我們認為這可能是由于使用線性分隔符對球面數據進行分類的局限性。

3.2.3結果分析

為了評估提出的攻擊策略的攻擊性能,隨機為VGG和OpenFace選取10個攻擊者。對于每個攻擊者和DNN的組合,使用攻擊者的單個人臉圖像來創建定向或非定向攻擊。在非定向攻擊中,目標是隨機選擇的。為了避免評估成功率的不確定性,本文使用攻擊者的三個不同的圖像重復每一次攻擊。表1描述了模型的測試準確率以及被攻擊時的平均成功率和標準誤差。實驗結果表示基于GAN生成的眼鏡貼片成功攻擊了用于人臉識別的VGG和OpenFace模型。對于非定向而言更具挑戰性,成功率有所降低。

表1 人臉識別模型性能

然后進一步探討了生成的攻擊樣本的遷移性,即在黑盒攻擊場景中,提出的基于GAN的對抗眼鏡貼片的有效性,實驗結果如表2所示。實驗結果表明提出的餓攻擊策略在黑盒攻擊領域仍獲得了不錯的攻擊效果。另外,還發現OpenFace體系結構的攻擊僅在有限次的嘗試中就成功地愚弄了VGG體系結構(10%~12%)。相比之下,在63.33%的嘗試中,成功攻擊VGG的同時也成功攻擊了OpenFace。

表2 黑盒攻擊性能

4 結 語

本文旨在探索深度學習模型存在的脆弱性并運用生成對抗網絡,設計出一種新穎的光亮眼鏡貼片樣本,能夠成功欺騙基于卷積神經網絡的人臉識別系統。通過在收集的眼鏡數據集上進行合成實驗,并在OpenFace、VGG等常用的人臉識別模型上驗證了所提想法的性能,并證明了現實世界中深度學習模型的脆弱性依然不容忽視,設計有效的防御機制成為未來研究的重點。

猜你喜歡
人臉識別深度模型
一半模型
人臉識別 等
作文中學版(2022年1期)2022-04-14 08:00:34
深度理解一元一次方程
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
揭開人臉識別的神秘面紗
學生天地(2020年31期)2020-06-01 02:32:06
深度觀察
深度觀察
深度觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 露脸真实国语乱在线观看| 在线综合亚洲欧美网站| 欧美日韩免费观看| 欧美日韩资源| 大学生久久香蕉国产线观看| 黄色片中文字幕| 精品少妇人妻无码久久| 久久国产黑丝袜视频| 97视频免费看| 99一级毛片| 国产白浆在线观看| 欧美激情首页| 四虎国产精品永久在线网址| 精品久久香蕉国产线看观看gif| 亚洲有无码中文网| 亚洲日韩精品伊甸| 中国国产一级毛片| 国产XXXX做受性欧美88| 亚洲精品国产精品乱码不卞 | 99九九成人免费视频精品| 亚洲第一视频网| 福利在线不卡一区| 高清无码不卡视频| 99爱视频精品免视看| 久久鸭综合久久国产| 四虎AV麻豆| 自偷自拍三级全三级视频| 国产精品白浆在线播放| 91久久青青草原精品国产| 国产一区二区三区精品久久呦| 久久一本日韩精品中文字幕屁孩| 欧美a级在线| 日韩无码黄色| 国产美女视频黄a视频全免费网站| 国产精品亚洲专区一区| 国产丝袜丝视频在线观看| 日韩第一页在线| 在线观看国产小视频| 国产成人亚洲精品无码电影| 美女国内精品自产拍在线播放 | 久久一级电影| 91色国产在线| 亚洲成aⅴ人片在线影院八| 国产一级毛片网站| 操国产美女| 亚洲久悠悠色悠在线播放| 久久天天躁狠狠躁夜夜2020一| 国产精品夜夜嗨视频免费视频| 国产美女在线观看| 亚洲欧洲一区二区三区| 波多野结衣爽到高潮漏水大喷| 中文字幕永久在线看| 69av在线| 国产91全国探花系列在线播放| 精品国产一区二区三区在线观看 | 91精品久久久无码中文字幕vr| 国产女人在线观看| 欧美一区二区福利视频| 亚洲欧美人成人让影院| 曰韩免费无码AV一区二区| 99热最新网址| 91视频精品| www.91在线播放| 国产黄在线观看| 四虎影视无码永久免费观看| 亚洲成人网在线观看| 精品人妻AV区| 欧美午夜视频在线| 91在线激情在线观看| 久久久久人妻一区精品| 另类欧美日韩| 麻豆国产在线观看一区二区| 国产亚洲现在一区二区中文| 日韩欧美中文字幕在线精品| 久久黄色视频影| 免费播放毛片| av无码久久精品| 久久天天躁狠狠躁夜夜躁| 亚洲国产精品无码久久一线| 国产美女精品一区二区| 国产精品亚洲五月天高清| 免费激情网址|