999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向自然語言處理領域的對抗樣本生成方法

2023-03-27 02:04:14方賢進楊高明
計算機技術與發展 2023年3期
關鍵詞:單詞分類文本

張 影,方賢進,楊高明

(安徽理工大學 計算機科學與工程學院,安徽 淮南 232001)

0 引 言

在大數據的時代和人工智能不斷突破新進展、新理論的背景下,深度學習(Deep Learning)[1]早已被廣泛應用于計算機視覺[2]、語音識別[3]和自然語言處理(Natural Language Processing,NLP)[4]等熱門領域,并且取得了令人矚目的成就。然而研究表明,深度學習模型容易遭到對抗樣本的破壞,這引起了人們對其應用程序中重大安全問題的關注。

對抗樣本首先是在圖像領域被發現的,而后研究人員在NLP任務中(例如虛假新聞檢測、情感分析、文本分類等)也發現了對抗樣本。與圖像對抗攻擊[5]類似,文本對抗攻擊[6]的全稱為文本對抗樣本的生成過程,是指對原始輸入中的文本添加微小的且難以察覺的擾動。這種被擾動后的文本依舊會使人類觀察者正確分類,卻導致了目標模型分類錯誤。除了達到愚弄目標模型的目的,一個有效的對抗樣本還應該滿足效能保持的要求。效能保持意味著對抗樣本與原始樣本相比應在語義上保持不變且語法上保持正確。

雖然文本對抗樣本是由圖像領域發展而來,但經實驗證實圖像領域的算法基本上不可直接運用到文本領域,因為圖像數據和文本數據有著本質差別。具體來說,圖像是像素集合的表示,是連續的;文本是符號化的表示,是離散的。對于人類而言,圖像中像素的微小變化不會被感知,表達的含義也沒有改變,但對于文本的變化可輕易地察覺。在過去十幾年的研究工作中,很多學者提出了大量優秀的對抗文本生成方法,范圍從字符級翻轉[7]擴展到句子級轉述[8],也都取得了良好的效果。相比之下,以單詞替換為主的詞級生成方法在對抗樣本的流暢性和有效性等方面表現的更加突出,因此也成為了NLP任務的主要手段。雖然作為主流技術,遺憾的是,關鍵詞的查找和單詞排序機制等方面還沒有達到理想狀態,很難生成質量較高且有效的對抗樣本。

1 相關工作

迄今為止,針對NLP任務中對抗樣本攻擊的研究已有了相應重大進展,以下簡要介紹此研究的相關工作。

關于字符級的生成方法,Gao等人[9]設計了特殊的評分函數判斷影響分類類別的關鍵詞,并對前K個關鍵詞進行隨機插入、刪除、替換等操作以擾動原始樣本。由于擾動是隨機的,生成正確單詞的概率較低且對抗樣本的可用性不高。在文獻[10]中細化了Gao等人[9]設計的評分函數,在情感分析數據集上驗證了改進的有效性。Ebrahimi等人[11]通過使用熱輸入向量的梯度在輸入中操縱字符級的插入、交換和刪除以構建對抗樣本。然而字符級別的擾動通常只會改變字符,這會導致語法錯誤和文本閱讀不流暢。關于句子級的生成方法,Jia等人[12]通過在原始樣本末端插入不相關的句子來生成對抗樣本;Iyyer等人[13]利用一種回譯數據的神經轉述模型將原始句子進行復述,經復述輸出的句子作為對抗樣本。由于句子級別的擾動顆粒較大,對抗樣本與原始樣本之間的差別也較大。

相對而言,單詞級的擾動在對抗樣本的質量及攻擊成功率方面表現的更加優異。Papernot等人[14]隨機地替換輸入樣本中的單詞,這種替換方式無疑會破壞原始樣本的含義和語法的正確性。Alzantot等人[15]利用遺傳算法(Genetic Algorithm,GA)中的交叉和變異操作生成擾動,減少了對抗樣本的替換詞數。隨后,Wang等人[16]改進了GA,它在可以隨機剪切單詞的基礎之上,還可以隨機剪切文本片段,攻擊效果也有了一定程度的提升。Ren等人[17]提出了一種基于概率加權詞顯著性(Probability Weighted Word Saliency,PWWS)的方法,利用同義詞替換原始詞構造了質量良好的對抗樣本,但是生成效率十分低下。Jin等人[18]提出的TextFooler生成算法也利用了同義詞作替換詞,并且采用了重要單詞替換選擇機制。雖比PWWS的生成效率有所提高,但仍不理想。Wang等人[19]借助圖像領域的梯度攻擊提出了快速梯度投影法(Fast Gradient Projection Method,FGPM)應用在NLP任務中,雖然對抗樣本能夠使目標模型判斷錯誤,但這種直接使用在文本上的方法造成對抗樣本可讀性差。

盡管單詞級生成方法更為有效,但是就目前的研究進展來看,在對抗樣本的分類準確率和單詞擾動百分比方面還有很大的進步空間。針對此現象,該文提出了一種單詞級的對抗樣本生成方法,對生成過程進行優化以生成質量較高的對抗樣本,并通過實驗證明了該方法的有效性。

2 研究方法

2.1 問題定義

文本對抗樣本是對原始輸入文本進行小的修改而形成的,可以改變文本分類器的判斷。給定一個包括一切可能的輸入文本的特征空間X={x1,x2,…,xN}和輸出空間Y={y1,y2,…,yK},原始輸入文本可以表示為x=[w1,w2,…,wi,…]。其中xN表示第N個樣本,yK表示樣本對應的類別標簽,wi表示樣本中第i個單詞。一個預訓練過的分類器f:X→Y,它把輸入的文本空間X映射到標簽空間Y,將原始樣本x分類到正確標簽。對于輸入文本x∈X,通過添加不可感知的擾動Δx生成對抗樣本。一個成功的對抗樣本xadv應該符合以下約束條件:

f(x)≠f(xadv)

(1)

其中,xadv=x+Δx,擾動Δx要求足夠小且有效。

2.2 生成文本對抗樣本

針對文本對抗樣本的約束條件,提出的基于單詞重要性聯合分類概率生成對抗樣本的方法能夠滿足上述約束。

如圖1所示,該方法主要分為三個模塊:文本表示與預處理模塊、生成樣本擾動模塊和目標模型預測標簽模塊。接下來將詳細介紹這三個模塊,完成整個生成過程。

2.2.1 文本表示與預處理模塊

在NLP中,將“自然語言”轉化為“符號語言”是其本質和核心,所以文本預處理的重要性不言而喻。在此模塊中,首先,采用NLTK[20]自然語言處理工具包對原始輸入文本進行分詞處理。由于英文文本的獨特性,可直接根據單詞間的空格分割開。因此對于每一個樣本x,其分詞結果為x=[w1,…,wi-1,wi,…]。其次,利用NLTK的詞性標注器對單詞進行詞性標注。最后,運用預先訓練的100維GloVe詞嵌入[21]將文本轉化為向量。該過程如圖2所示。

圖2 文本表示與預處理過程

2.2.2 生成樣本擾動模塊

對抗樣本質量的好壞與添加的擾動密不可分。為了生成質量良好的對抗樣本,在此模塊中主要是生成擾動并對添加的擾動進行約束,利用決策機制在每一步驟中都采用最佳選擇。在這項工作中,采用的是基于單詞重要性分數聯合分類概率選擇最佳同義替換詞和確定替換順序。首先,計算單詞的重要性分數并過濾停用詞,再為其建立同義詞集合,根據分類概率從中選擇最佳同義詞;而替換順序由單詞的重要性分數和最佳同義詞的替換效果共同決定。因此,解決問題的關鍵在于選擇最佳候選同義詞和確定替換詞的順序。圖3為生成樣本擾動示意圖。

(1)計算單詞的重要性得分。

在NLP的文本分類任務中,不同的單詞對分類結果產生不同程度的影響,需要對文本中的單詞進行重要性分數計算。將輸入文本刪除單詞wi后的文本表示為xwi=[w1,…,wi-1,wi+1,…],oy(x)表示目標分類模型為正確標簽y輸出的邏輯值,并使用f(·)表示標簽y的預測分數。單詞重要性分數的計算方式如公式(2)所示:

(2)

根據公式(2)可看出,若刪除單詞wi前后分類結果不變,則I1(wi)為分類模型預測的差值;若刪除wi前后分類結果改變,則I1(wi)為刪除wi前后文本被預測為不同類別的差值之和。

一般來說,一段文本語句往往含有不必要的噪聲和特征,并不能夠對分類器的判定結果起到重要作用,且在不同的文本中,同一單詞起到的作用也會有所不同。因此,根據文本特點創建不同的停用詞集,過濾“the”、“in”等沒有實際意義的單詞,可以達到減輕生成擾動的負擔的目的。

(2)尋找同義候選詞。

為了保證生成對抗樣本的單詞正確性和語義相似度,即添加擾動后的樣本能夠使人類盡量無法感知,從而不影響人類的閱讀和理解,該文采用與單詞的同義詞進行替換方式產生擾動,因此對于本方法而言,擾動的最初狀態是對輸入單詞所查找的同義詞。

(3)

(4)

與此同時,得到新的擾動文本:

(5)

(6)

(3)確定最佳替換順序。

(7)

根據打分結果對單詞倒序排序以獲得最佳替換順序worder。為確保生成質量更佳的對抗樣本,再次為擾動添加約束。因為每個文本具有不同長度,所以設置替換上限為該文本單詞數量的6%。

2.2.3 目標模型預測標簽模塊

目標模型預測標簽模塊是該算法的最后一步,旨在判別對抗樣本的標簽,它的作用是驗證生成的對抗樣本是否有效。此模塊的具體流程如圖4所示。先將生成的擾動根據順序worder添加到原始樣本生成擾動樣本,再輸入到目標分類模型中得到類別標簽,由標簽結果決定是否進行更多的替換。若標簽改變即成功,否則繼續進行替換直到文本分類的結果改變,或者替換單詞數量達到上限即失敗。

圖4 目標模型預測標簽流程

采用的主要算法過程如下所示:

算法:對抗樣本生成過程。

輸入:原始樣本x=[w1,…,wi-1,wi,…],標簽y,文本分類模型f,替換上限比例6% top;

輸出:對抗樣本xadv。

1:初始化:xadv←x

2:for eachwiinxdo:

3:根據等式(2)計算單詞重要性分數I1(wi);

4:end for

5:建立停用詞集stop_words set;

6:for wordwiinxdo:

7: ifwinot in stop_words set:

8: 為單詞wi建立同義詞集合Li;

9:end for

10:for wordwiinxdo:

11: for candidate wordwijinLido:

12: 根據等式(3)計算同義候選詞的替換效果I2(wi)

13: end for

15:end for

17:for wordwiinworderdo:

20: iff(x)≠f(xadv):

21: returnxadv

22: else if 單詞替換數量達到上限top:

23: return none

24:end for.

3 實驗設置與結果分析

計算機將文本數據信息映射到給定的某一類別或某幾類別標簽的過程稱為文本分類(Text Classification)。它被廣泛應用在新聞主題分類、情感分析、輿情分析及郵件過濾等場景中。在這一節中,分析了所提出的方法在文本分類任務上的性能。

3.1 數據集與目標分類模型

為了驗證生成方法的有效性,在三個流行的數據集上對不同的深度神經網絡模型進行分類預測,分別為IMDB數據集、AG's News數據集和Yahoo! Answers數據集。

IMDB數據集[23]:該數據集是用于情感分類任務,數據集中的每個樣本都是一個電影評論,類別標簽為積極或消極。

AG's News數據集[24]:該數據集是用于新聞文章分類,由世界新聞、體育新聞、商業新聞和科學新聞四個類別組成。

Yahoo! Answers數據集[25]:該數據集由十大類別主題組成,包含1 400 000個訓練樣本和5 000個測試樣本,平均分布在不同的類別上。

目標模型選用卷積神經網絡[26](Convolutional Neural Networks,CNN)、長短時記憶網絡[27](Long Short-Term Memory,LSTM)和雙向長短時記憶網絡[28](Bi-directional Long Short-Term Memory,Bi-LSTM),并選用Random、FGPM[19]及PWWS[17]作為實驗的對比方法評估文中方法的性能,且每組實驗都是從數據集中隨機抽取2 000個干凈樣本進行擾動。其中Random是指隨機地選擇樣本中的單詞進行替換,并沒有預先計算替換順序。

3.2 評估指標

為了評估對抗樣本的質量,在實驗中設置了兩種評估指標,分別為分類正確率(Classification Accuracy,CA)和擾動率(Perturbation Rate,PR)。分類正確率是指對抗樣本被模型分類準確的比例。它是衡量生成方法成功與否的核心指標,也表示著誤導模型的能力。值越小,結果越有效。擾動率是指文本被擾動的比例,也是評估對抗樣本質量的重要因素。一般而言,越少的擾動表示著語義一致性越高。兩者的計算公式分別如下:

CA=success_count/sum_count

(8)

PR=substitute_count/len(doc)

(9)

其中,success_count表示對抗樣本標簽改變的個數,sum_count表示輸入樣本的總個數,substitute_count為被替換單詞的數量;len(doc)為樣本的長度。

3.3 評估結果分析

表1和表2分別展示了文中方法與其他方法在AG's News數據集和Yahoo!Answers數據集上三個模型的分類準確率對比。由對抗樣本誤導分類標簽的性質可知,對抗樣本的分類準確率越小越好。在每組實驗中,文中的生成方法都能使得模型達到較低的分類準確率,證明它可以最大程度地欺騙模型并顯著地降低性能。實驗結果還表明,相比于其他分類模型,LSTM模型使得對抗樣本的分類準確率下降的最為顯著。

表1 AG's News數據集生成對抗樣本的分類準確率(CA)

表2 Yahoo! Answers數據集生成對抗樣本的分類準確率(CA)

此外如表3中第三列所示,在IMDB數據集上再次驗證了該方法可降低對抗樣本被模型分類正確的概率。如前所述,擾動率越小,對抗樣本與原始樣本越接近。在第四列中可清晰地觀察到擾動率保持在較小值,亦即替換的單詞數量較少,可獲得較強的隱蔽性,從而使得對抗樣本在語義和語法上與原始文本保持較大的一致性。

表3 在IMDB數據集生成對抗樣本的分類準確率(CA)和擾動率(PR)

綜上所述,所提出的方法能夠在降低分類模型準確率的同時減小樣本的擾動比例,使得生成的對抗樣本與原始樣本保持較高的一致性,不容易被人類察覺。

3.4 對抗訓練及案例分析

對抗訓練的目的是為了提高模型的魯棒性。為了驗證模型是否提高了正視對抗樣本的能力,將IMDB數據集生成的對抗樣本加入到其干凈樣本中,構造一個新的數據集來重新訓練CNN模型。結果如圖5所示,隨著對抗樣本數量的增加,目標模型能夠更好地擬合這些數據,模型的分類準確率逐步上升。換句話說,對抗樣本被經過對抗訓練后的模型分類到錯誤類別的概率在減小,模型的脆弱性得到了保護,也就有了更強的魯棒性。

圖5 對抗訓練

表4展示了在IMDB數據集上針對CNN模型生成文本對抗樣本的示例。從表中可以看出,在該文本中僅替換1個單詞,就實現了將原始標簽“積極”錯誤地判別為“消極”。

表4 IMDB數據集上原始樣本和對抗樣本示例

4 結束語

在NLP文本分類任務中,針對目標分類模型的脆弱性,提出了一種單詞級的對抗樣本生成方法。該方法在單詞重要性和分類概率的共同作用下生成微小的擾動。在三個文本分類數據集上的實驗表明,對抗樣本在保持較低的分類正確率的同時具有較低的擾動率,亦即對抗樣本質量有所提高。進一步的實驗表明,模型在對抗訓練后提高了自身的魯棒性。

猜你喜歡
單詞分類文本
分類算一算
單詞連一連
在808DA上文本顯示的改善
分類討論求坐標
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
數據分析中的分類討論
看圖填單詞
教你一招:數的分類
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
如何快速走進文本
語文知識(2014年1期)2014-02-28 21:59:13
主站蜘蛛池模板: 四虎精品国产永久在线观看| 五月婷婷中文字幕| 国产综合精品一区二区| 最新国产精品第1页| 本亚洲精品网站| 天天综合色网| 免费毛片全部不收费的| h网址在线观看| 国产精品久线在线观看| 99久久99这里只有免费的精品| 亚洲国产成熟视频在线多多| 天天综合天天综合| 国产又粗又猛又爽| 在线观看欧美国产| 99视频国产精品| 波多野结衣视频一区二区| 在线欧美一区| 日韩高清欧美| 亚洲另类第一页| 久久亚洲中文字幕精品一区| 亚洲h视频在线| 国产午夜福利在线小视频| 天天爽免费视频| 天堂网国产| a毛片基地免费大全| 欧美19综合中文字幕| 久久窝窝国产精品午夜看片| 国产素人在线| 波多野结衣一二三| 2021天堂在线亚洲精品专区| 亚洲精品无码日韩国产不卡| 91在线高清视频| 国产欧美自拍视频| 免费在线国产一区二区三区精品| 免费国产高清视频| 日韩a级毛片| 香蕉蕉亚亚洲aav综合| 片在线无码观看| 99精品国产自在现线观看| 青青青视频蜜桃一区二区| 亚洲精品va| 中文字幕免费视频| 国产日韩精品一区在线不卡 | 永久天堂网Av| 福利在线一区| 国产精品精品视频| 综合社区亚洲熟妇p| 中国丰满人妻无码束缚啪啪| 麻豆国产在线观看一区二区| 日韩资源站| 99视频在线观看免费| 91精品日韩人妻无码久久| 波多野结衣AV无码久久一区| 97久久精品人人| 99久久精品无码专区免费| 亚洲AV一二三区无码AV蜜桃| 亚洲欧美激情小说另类| 久久精品只有这里有| 亚洲男人的天堂久久精品| 午夜国产不卡在线观看视频| 成人精品在线观看| 黄色网页在线播放| 日韩av无码精品专区| 五月丁香在线视频| 激情午夜婷婷| 国产成人精品在线1区| 久久精品国产一区二区小说| 亚洲国产午夜精华无码福利| 欧美亚洲国产日韩电影在线| 亚洲黄色高清| 国产在线91在线电影| 国产精品福利导航| 亚洲精品在线影院| 亚洲福利片无码最新在线播放| 香蕉在线视频网站| 欧美性猛交一区二区三区| 国产精品亚洲日韩AⅤ在线观看| 欧美日韩精品综合在线一区| 女人爽到高潮免费视频大全| 99偷拍视频精品一区二区| 伊人久久综在合线亚洲2019| 91久久夜色精品国产网站|