999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于抽樣向量擾動的對抗樣本生成方法

2021-04-13 08:46:36蔣志文鄭怡亭鄧嬌張宜放
電腦知識與技術(shù) 2021年5期
關(guān)鍵詞:深度學(xué)習(xí)

蔣志文 鄭怡亭 鄧嬌 張宜放

摘要:深度學(xué)習(xí)算法在很多領(lǐng)域取得了卓越的成就,但同時也容易受到對抗樣本的攻擊。使用對抗樣本訓(xùn)練模型是抵御模型被攻擊的有效手段,但這需要大量對抗樣本的支持。為了提升對抗樣本的生成效率,本文提出了一種基于抽樣向量擾動的對抗樣本生成方法(SPVT)。實驗結(jié)果表明,該方法可以在短時間內(nèi)生成大量有效對抗樣本,并且能夠自適應(yīng)計算出FGSM算法的擾動幅度,并且和人為設(shè)定參數(shù)的FGSM算法相比對抗成功率提升了0.77%;生成相同數(shù)量的對抗樣本,SPVT方法與DeepFool算法相比能夠節(jié)約1/6的時間,解決了對抗樣本生成效率不高的問題。

關(guān)鍵詞: 對抗樣本;深度學(xué)習(xí);白盒攻擊

Abstract: The deep learning algorithm has achieved remarkable achievements in many fields, but it is also vulnerable to adversarial examples. Adversarial training is an effective means to improve the robustness of deep learning models, but it needs a large number of adversarial examples. In order to improve the efficiency of generating adversarial examples, this paper proposes SPVT method that based on sample vector perturbation. Firstly, sampling from the test dataset and use an optimized based generation algorithm to calculate the perturbation vectors; Secondly, transform the perturbation vectors into the disturbance amplitude; Finally, using a gradient-based generation algorithm to generate a large number of adversarial examples. The experimental results show that SPVT can generate a large number of effective adversarial examples in a short time, and it can adapt the disturbance amplitude of FGSM, which has 0.77% higher success rate than that of FGSM with artificial parameters. When generating the same number of counter samples, SPVT method can save 1/6 of times compared with Deepfool, which solves the problem of low efficiency of adversarial examples generation problems.

Key words: adversarial example; deep learning; robustness of model

1前言

深度學(xué)習(xí)是人工智能的一個重要分支,被廣泛地運用于計算機(jī)視覺和圖像識別等領(lǐng)域,如人臉識別[1]和圖片分類預(yù)測[2]等。在深度學(xué)習(xí)技術(shù)在生產(chǎn)和生活等領(lǐng)域普及的同時,其本身的安全性問題也越來越受到研究者的關(guān)注。目前CNN等深度學(xué)習(xí)模型在圖像分類問題上的應(yīng)用和效果表現(xiàn)得尤為突出,但這些高性能的圖像分類器在面對對抗樣本攻擊的時候卻暴露了其脆弱性。這些攻擊深度學(xué)習(xí)模型的對抗樣本只是在原始的輸入圖片上加入了微小量的像素擾動,卻能夠?qū)е履P蜔o法獲得最終正確的分類結(jié)果,從而讓對抗樣本攻擊對圖像分類系統(tǒng)產(chǎn)生巨大的危害[3],因此構(gòu)造高魯棒性的深度學(xué)習(xí)模型具有重要的研究意義。通過在訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練數(shù)據(jù)中加入對抗樣本進(jìn)行模型的訓(xùn)練,能夠加強(qiáng)模型的魯棒性[4],從而能夠更好地抵御來自對抗樣本的攻擊。模型魯棒性是用于分析模型對于微小的數(shù)據(jù)擾動的抵抗能力的評測標(biāo)準(zhǔn),在模型面對相同的擾動下,模型的準(zhǔn)確率越高,則模型的魯棒性越好[5]。

為了平衡對抗樣本的生成速度和樣本質(zhì)量擾動質(zhì)量大小之間的矛盾,本文提出了一種基于抽樣擾動向量的快速對抗樣本生成方法(adversarial method based on Sampling Perturbation Vector Transform):首先,隨機(jī)地從樣本數(shù)據(jù)集中抽取部分樣本,使用對抗成功率更高的基于單個樣擾動向量的對抗樣本生成方法(DeepFool算法[6]),迭代地計算每個樣本可達(dá)到誤分類的擾動向量,獲取樣本的所有擾動幅度的集合;其次,計算擾動幅度集合中所有樣本的平均擾動幅度;最后,將這個計算出來的擾動幅度應(yīng)用于FGSM算法[7]生成對抗樣本。

2 SPVT方法

SPVT方法結(jié)合了基于優(yōu)化的DeepFool對抗樣本生成方法和基于梯度的FGSM對抗樣本生成方法。SPVT方法的流程圖如圖1。本節(jié)主要介紹了使用SPVT方法生成對抗樣本的具體步驟,包括:抽樣擾動向量集構(gòu)建,擾動幅度生成和對抗樣本生成。

2.1抽樣擾動向量集構(gòu)建

在統(tǒng)計學(xué)中,為了減少計算量,通常采用抽樣的方式使用抽樣樣本特征預(yù)估整體樣本特征。基于統(tǒng)計學(xué)中以部分代替總體的思想,本文使用抽樣后的數(shù)據(jù)集中樣本的擾動特征來預(yù)估總體數(shù)據(jù)集的擾動特征,這樣可以減少計算時間。

2.2擾動幅度生成

對于在抽樣擾動向量集構(gòu)建步驟中獲取到的擾動樣本集RS,可以通過以下的方法將該擾動樣本集RS中的擾動向量轉(zhuǎn)化為整體樣本數(shù)據(jù)集中的擾動幅度。生成擾動幅度方法的具體過程推導(dǎo)如下:

假設(shè)對于單個對抗樣本而言,不同的對抗樣本生成方法都有可能產(chǎn)生近乎一致的擾動向量。這個擾動向量和使用的對抗樣本生成方法無關(guān),只與該樣本有關(guān)。那么對于單個的對抗樣本,則可以使用如下的轉(zhuǎn)換方法來講將擾動向量轉(zhuǎn)化為擾動幅度。

首先,將樣本集D的擾動比例定義為:

2.3對抗樣本生成

FGSM算法是一種基于梯度的白盒攻擊方法。該方法依據(jù)圖像的梯度來生成對抗樣本,首先輸入圖片和一個神經(jīng)網(wǎng)絡(luò),之后計算圖片的梯度,最后將梯度疊加到原始的輸入圖像上來生成對抗樣本。

3實驗

3.1實驗方法

我們實現(xiàn)了在SPVT方法中提出的轉(zhuǎn)換方法,該方法將基于優(yōu)化的對抗樣本生成方法生成的擾動和基于梯度的對抗樣本生成方法的擾動連接起來,綜合了兩者的優(yōu)點,提高了對抗樣本的生成效率。為了評估我們方法的有效性,我們將通過實驗來驗證使用SPVT方法是否能提高對抗樣本的生成效率。

3.2實驗結(jié)果及分析

對于使用MNIST數(shù)據(jù)集訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),我們分別使用了三種不同算法生成200至2000個成功的對抗樣本,觀察其對抗成功率(對抗成功率=對抗成功的數(shù)量/實驗總數(shù)),實驗結(jié)果如表1所示。對于每種不同的對抗攻擊方法,我們都讓其在LetNet(MNIST)數(shù)據(jù)集上生成100~1000張成功的對抗樣本,將其對抗成功率記錄在表1中。

從表1中可以看出,生成200~2000個對抗樣本,F(xiàn)GSM、DeepFool、SPVT算法的平均對抗成功率為49.98%,93.47%和50.75%。相較于FGSM算法我們將其對抗成功率提高了0.77%,并且使用SPVT方法不需要自己設(shè)定FGSM算法的擾動幅度值來生成對抗樣本,它能夠根據(jù)擾動推導(dǎo)公式自適應(yīng)地獲取擾動幅度值進(jìn)行對抗樣本生成。

從圖2中可以直觀地看出SPVT方法在生成相同數(shù)量的對抗樣本時消耗的時間大約為DeepFool算法消耗時間的1/6,比FGSM算法消耗的時間略高。通過分析曲線的趨勢,如果生成更多的對抗樣本,SPVT方法相較于DeepFool算法的生成優(yōu)勢會變大。

通過以上實驗結(jié)果及分析,SPVT方法相較于DeepFool算法而言,雖然對抗成功率不如DeepFool算法高,但使用SPVT方法能夠?qū)⑸上嗤瑪?shù)量對抗樣本花費的時間降低到1/6左右。SPVT相較于FGSM算法的優(yōu)勢在:SPVT方法生成對抗樣本時不需要人為指定擾動幅度的超參數(shù),能夠進(jìn)行參數(shù)自適應(yīng)地生成對抗樣本。使用SPVT方法生成對抗樣本,能夠提升對抗樣本的生成效率,并且尤其適用于大批量的對抗樣本生成任務(wù)。

4結(jié)論和總結(jié)

在這篇論文中,我們基于FGSM算法和DeepFool算法提出了一種SPVT算法,可以解決在短時間內(nèi)生成大量對抗樣本的問題。使用SPVT方法生成對抗樣本可以自適應(yīng)地計算出樣本的擾動幅度,從而可以將一個合適的擾動幅度值輸入給FGSM算法進(jìn)行對抗樣本生成,避免生成擾動過大或者過小的圖片。

參考文獻(xiàn):

[1] Blessing of Dimensionality: High-dimensional Feature and Its Efficient Compression for Face Verification. Dong Chen. Xudong Cao. Fang Wen. Jian Sun. CVPR 2013.

[2] Zheng H, Fu J, Mei T, et al. Learning multi-attention convolutional neural network for fine-grained image recognition[C]//Proceedings of the IEEE international conference on computer vision. 2017: 5209-5217.

[3] Moosavi-Dezfooli S M, Fawzi A, Fawzi O, et al. Universal adversarial perturbations[C] //Proceedings of the IEEE conference on computer vision and pattern recognition. 2017: 1765-1773.

[4] Cheng Y, Jiang L, Macherey W. Robust neural machine translation with doubly adversarial inputs[J]. arXiv preprint arXiv:1906.02443, 2019.

[5] Hampel F R, Ronchetti E M, Rousseeuw P J, et al. Robust statistics: the approach based on influence functions[M]. John Wiley & Sons, 2011.

[6] Moosavi-Dezfooli S M, Fawzi A, Frossard P. Deepfool: a simple and accurate method to fool deep neural networks [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2016: 2574-2582.

[7] Goodfellow I J, Shlens J, Szegedy C. Explaining and harnessing adversarial examples[J]. arXiv preprint arXiv:1412.6572, 2014.

【通聯(lián)編輯:光文玲】

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實驗平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 亚洲欧美综合精品久久成人网| 国产91小视频| 欧美97色| 四虎永久免费地址在线网站| 五月天丁香婷婷综合久久| 国产在线专区| 狠狠ⅴ日韩v欧美v天堂| 狠狠色丁香婷婷| 国产午夜小视频| 高清国产在线| 国产欧美日韩综合一区在线播放| 国产成人欧美| 精品三级网站| 黄片在线永久| 色综合热无码热国产| 国产精品香蕉| 欧美19综合中文字幕| 色偷偷一区二区三区| 久久国产亚洲偷自| 日本不卡在线视频| 亚洲精品在线91| 少妇露出福利视频| 日韩无码视频专区| 少妇精品在线| 亚洲精品人成网线在线| 亚洲日韩在线满18点击进入| 91最新精品视频发布页| 欧美日本在线观看| 97青草最新免费精品视频| 国产一区二区精品福利| 激情视频综合网| 免费在线色| 国模私拍一区二区三区| 日韩精品毛片| 欧美啪啪网| 色婷婷电影网| h视频在线播放| 香蕉久人久人青草青草| 亚洲男人的天堂视频| 91极品美女高潮叫床在线观看| 久久精品人妻中文系列| 亚洲AV无码一区二区三区牲色| 在线亚洲小视频| a毛片在线播放| 波多野结衣中文字幕一区二区| 91久久偷偷做嫩草影院免费看| 国产亚洲美日韩AV中文字幕无码成人| 在线毛片网站| 国产精品视屏| 久久久久久高潮白浆| 国产精品一区二区在线播放| 国产在线观看第二页| 国产精品污污在线观看网站| 午夜不卡视频| 亚洲无码一区在线观看| Jizz国产色系免费| 亚洲电影天堂在线国语对白| 日韩精品专区免费无码aⅴ| 永久免费AⅤ无码网站在线观看| 中文字幕av一区二区三区欲色| 日本免费高清一区| 亚洲欧美人成电影在线观看| 欧美一区二区三区香蕉视| 中文字幕永久视频| 国产免费福利网站| 亚洲一区免费看| 亚洲第一极品精品无码| 手机精品福利在线观看| 日本不卡视频在线| 久久男人资源站| 亚洲性一区| 亚洲一级毛片在线观播放| 亚洲美女操| a毛片免费观看| 干中文字幕| 久久国产精品夜色| 精品福利一区二区免费视频| 亚洲Va中文字幕久久一区| 九九九久久国产精品| 欧美乱妇高清无乱码免费| 五月天久久综合| 亚洲中文字幕日产无码2021|