999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

卷積神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制綜述

2021-10-28 05:49:44張宸嘉
關(guān)鍵詞:深度機(jī)制特征

張宸嘉,朱 磊,俞 璐

陸軍工程大學(xué) 通信工程學(xué)院,南京 210007

隨著信息技術(shù)的發(fā)展,海量繁雜的信息向人們不斷襲來,信息無時(shí)無刻充斥在四周。然而人類所能接收的信息則是有限的,科研人員發(fā)現(xiàn)人類視覺系統(tǒng)在有限的視野之下卻有著龐大的視覺信息處理能力。在處理視覺數(shù)據(jù)的初期,人類視覺系統(tǒng)會(huì)迅速將注意力集中在場景中的重要區(qū)域上,這一選擇性感知機(jī)制極大地減少了人類視覺系統(tǒng)處理數(shù)據(jù)的數(shù)量,從而使人類在處理復(fù)雜的視覺信息時(shí)能夠抑制不重要的刺激,并將有限的神經(jīng)計(jì)算資源分配給場景中的關(guān)鍵部分,為更高層次的感知推理和更復(fù)雜的視覺處理任務(wù)(如物體識(shí)別、場景分類、視頻理解等)提供更易于處理且更相關(guān)的信息[1]。借鑒人類視覺系統(tǒng)的這一特點(diǎn),科研人員提出了注意力機(jī)制的思想。對(duì)于事物來說特征的重要性是不同的,反映在卷積網(wǎng)絡(luò)中即每張?zhí)卣鲌D的重要性是具有差異性的[2]。注意力機(jī)制的核心思想是通過一定手段獲取到每張?zhí)卣鲌D重要性的差異,將神經(jīng)網(wǎng)絡(luò)的計(jì)算資源更多地投入更重要的任務(wù)當(dāng)中,并利用任務(wù)結(jié)果反向指導(dǎo)特征圖的權(quán)重更新,從而高效快速地完成相應(yīng)任務(wù)[3]。

近兩年,注意力模型(Attention Model)被廣泛使用在自然語言處理、圖像識(shí)別、語音識(shí)別等各種不同類型的深度學(xué)習(xí)任務(wù)當(dāng)中,如SANet[4](Structure-Aware Networks)與VSG-Net[5](Visual-Spatial-Graph Network)等,是深度學(xué)習(xí)技術(shù)中最值得關(guān)注與深入了解的核心技術(shù)之一[6]。

圖1展示了人類在看到一幅圖像時(shí)是如何高效分配有限注意力資源的,其中紅色區(qū)域表明視覺系統(tǒng)更關(guān)注的目標(biāo)。很明顯對(duì)于圖1所示的場景,人們會(huì)把注意力更多投入到人的臉部、文本的標(biāo)題以及文章首句等位置。

圖1 視覺注意力機(jī)制Fig.1 Mechanism of visual attention

深度學(xué)習(xí)中的注意力機(jī)制從本質(zhì)上講和人類的選擇性視覺注意力機(jī)制類似,核心目標(biāo)也是從眾多信息中選擇出對(duì)當(dāng)前任務(wù)目標(biāo)更為關(guān)鍵的信息[7]。

1 卷積網(wǎng)絡(luò)中注意力機(jī)制研究現(xiàn)狀

注意力機(jī)制最初在2014年作為RNN(Recurrent Neural Network)中編碼器-解碼器框架的一部分來編碼長的輸入語句,后續(xù)被廣泛運(yùn)用在RNN中[8]。例如在機(jī)器翻譯中通常是用一個(gè)RNN編碼器讀入上下文,得到一個(gè)上下文向量(RNN的最后一個(gè)隱狀態(tài)),一個(gè)RNN解碼器以這個(gè)隱狀態(tài)為起始狀態(tài),依次生成目標(biāo)的每一個(gè)單詞[9]。但這種做法的缺點(diǎn)是:無論之前的上下文有多長,包含多少信息量,最終都要被壓縮成一個(gè)幾百維的向量。這意味著上下文越大,最終的狀態(tài)向量會(huì)丟失越多的信息。輸入語句長度增加后,最終解碼器翻譯的結(jié)果會(huì)顯著變差。事實(shí)上,因?yàn)樯舷挛脑谳斎霑r(shí)已知,一個(gè)模型完全可以在解碼的過程中利用上下文的全部信息,而不僅僅是最后一個(gè)狀態(tài)的信息,這就是注意力機(jī)制的基礎(chǔ)思想。

但是在CNN(Convolutional Neural Networks)中,沒有了狀態(tài),注意力機(jī)制作用在特征圖之上,試圖獲取特征圖中的可用注意力信息,達(dá)到更好的任務(wù)效果[10]。接下來本文將對(duì)CNN中的注意力獲取手段進(jìn)行詳細(xì)介紹和分析。

1.1 單路注意力

1.1.1 SE-Net(SqueezeandExcitation)

2018年內(nèi),CVPR(Computer Vision and Pattern Recognition)收錄的論文中提出了SE-Net(Squeeze-and-Excitation Network),SE-Net是Momenta胡杰團(tuán)隊(duì)(WMW)提出的新的網(wǎng)絡(luò)結(jié)構(gòu),該團(tuán)隊(duì)利用SE-Net,獲得了ImageNet 2017競賽圖像分類任務(wù)的冠軍,在ImageNet數(shù)據(jù)集上將top-5 error降低到2.251%,對(duì)比于以往的最好成績2.991%有了較大的提升[11]。

SE-Net中的關(guān)鍵結(jié)構(gòu)SE-Net block利用了注意力機(jī)制的思想,顯式地建模特征圖之間的相互依賴關(guān)系,并通過學(xué)習(xí)的方式來自適應(yīng)地獲取到每張?zhí)卣鲌D的重要性[12],然后依照這個(gè)重要程度去對(duì)原數(shù)據(jù)進(jìn)行更新。SE-Net通過這種方式提升有用的特征重要程度同時(shí)降低無用特征的重要性,并以不同通道的重要性為指導(dǎo),將計(jì)算資源合理地投入不同通道當(dāng)中。實(shí)驗(yàn)證明該方法在各種任務(wù)中都有著不錯(cuò)的表現(xiàn)。

通俗地來說SENet的核心思想在于通過網(wǎng)絡(luò)根據(jù)損失函數(shù)值loss去學(xué)習(xí)特征權(quán)重,使得對(duì)于任務(wù)更為效果明顯的特征圖權(quán)重變大,無效果或效果不明顯的特征圖權(quán)重變小的方式來訓(xùn)練模型從而達(dá)到更好的結(jié)果[13]。SE-Net block并不是一個(gè)完整的網(wǎng)絡(luò)結(jié)構(gòu),而是一個(gè)即插即用的輕量級(jí)模塊,通過將此模塊嵌入網(wǎng)絡(luò)之中,可以在小幅度提升參數(shù)量的代價(jià)下更加合理地分配神經(jīng)網(wǎng)絡(luò)的計(jì)算資源,大幅提升網(wǎng)絡(luò)性能。

在SE-Net block中,每張?zhí)卣鲌D通過全局平均池化操作進(jìn)行擠壓,將每一張?zhí)卣鲌D擠壓成一個(gè)實(shí)數(shù)(見公式(1)),這個(gè)實(shí)數(shù)具有特征圖上的全局信息,每張?zhí)卣鲌D的擠壓結(jié)果組合成一個(gè)向量作為每組特征圖的權(quán)重,其中H和W分別為特征圖的高和寬,u為卷積后的結(jié)果,z為對(duì)應(yīng)特征圖的全局注意力信息,將此向量通過全連接層與激活函數(shù)(見公式(2)),訓(xùn)練結(jié)果用來放大對(duì)于識(shí)別任務(wù)更加重要特征圖的權(quán)重,縮小不重要特征圖的權(quán)重,其中σ為relu激活函數(shù),δ代表sigmoid激活函數(shù),W1與W2代表兩個(gè)不同的全連接操作。得到的向量s代表每張?zhí)卣鲌D的重要性程度。向量s通過公式(3)激勵(lì)原特征圖,指導(dǎo)特征圖不斷向著有利于識(shí)別任務(wù)的方向更新,擠壓激勵(lì)操作結(jié)構(gòu)如圖2所示。

圖2 擠壓激勵(lì)操作Fig.2 Squeeze and excitation operation

1.1.2 ECA-Net(EfficientChannelAttention)

2020年,CVPR收錄的論文中提出了ECA-Net[14](Efficient Channel Attention Network)來對(duì)SE-Net進(jìn)行改進(jìn),它實(shí)現(xiàn)了對(duì)SE-Net block的改進(jìn),提出了一種不降維的局部跨信道交互策略(ECA block)和自適應(yīng)選擇一維卷積核大小的方法,通過一維卷積層匯總跨信道信息的方法獲取更加精確的注意力信息。ECA block的思想建立在作者認(rèn)為跨通道的信息交互是很有必要的,而SE-Net block只注重通道內(nèi)部信息的綜合,沒有考慮到相鄰信道信息的重要性。ECA block的結(jié)構(gòu)如圖3所示。公式(4)表示最終的權(quán)重是綜合了各個(gè)相鄰?fù)ǖ赖男畔@得,其中σ為激活函數(shù),y i代表通道,wi為通道y i的權(quán)重,Ω代表與y i相鄰的k個(gè)通道,k的值是隨著學(xué)習(xí)自適應(yīng)變化的。為了實(shí)現(xiàn)這一想法,作者利用了一維卷積層來進(jìn)行實(shí)現(xiàn),通過核為k的一維卷積對(duì)通道與其相鄰的k-1個(gè)通道信息進(jìn)行綜合,如公式(5)所示,C1D k表示核為k的一維卷積操作,y表示通道。

圖3 ECA-Net模塊Fig.3 ECA-Net module

1.2 多路注意力

1.2.1 SK-Net(SelectiveKernelNetworks)

2019年,CVPR收錄的論文中提出了SK-Net(Selective Kernel Networks),SK-Net基于卷積核的注意力機(jī)制,即卷積核的重要性,即不同的圖像經(jīng)過不同卷積核的重要性是不同的,其結(jié)構(gòu)如圖4所示。整個(gè)SK-Net結(jié)構(gòu)由Split、Fuse、Select三部分組成[15]。Split的任務(wù)是將輸入的特征圖X進(jìn)行不同卷積核大小的卷積操作。如圖4所示,對(duì)X進(jìn)行Kernel3×3和Kernel5×5的卷積操作,得到輸出U1與U2。而在Fuse部分將對(duì)U1與U2進(jìn)行element-wise summation,得到輸出特征圖U,通過全局平均池化與全連接層獲取特征圖的注意力信息,并創(chuàng)建了一個(gè)緊湊的特征z∈Rd×1,以便為精確和自適應(yīng)選擇提供指導(dǎo)如公式(6)所示,其中δ是ReLU函數(shù),B表示批量標(biāo)準(zhǔn)化,W表示全連接層且W∈Rd×C。公式(7)表明為了研究d對(duì)模型效率的影響,文章使用下降參數(shù)r來控制其值,L表示d的最小值。在Select部分中,將這個(gè)緊湊特征z向量重新分為兩個(gè)(本文情況)或多個(gè)(更多的情況)特征向量,然后分別與相應(yīng)的split之后的特征圖進(jìn)行相應(yīng)通道的相乘操作,然后再通過這種加權(quán)共同構(gòu)成輸入到下一個(gè)神經(jīng)元的特征向量。兩個(gè)特征向量a c、b c的生成如公式(8)、(9)所示,其中A,B∈RC×d,a、b分別表示U1與U2的注意力向量,A c∈R1×d表示A的第c行,ac表示a的第c個(gè)元素值,對(duì)于向量B同理。

圖4 SK-Net模塊Fig.4 SK-Net module

1.2.2 ResNeSt

2020年,亞馬遜、加州大學(xué)戴維斯分校的張航、李沐、Smola等研究者進(jìn)一步改進(jìn)了ResNet[16](Deep Residual Network),提出了ResNeSt,其中利用ResNet、SE-Net與SKNet的思想,提出了Split-Attention block[17]。在ResNeSt block中,整體大框架運(yùn)用了殘差網(wǎng)絡(luò)的結(jié)構(gòu),通過將網(wǎng)絡(luò)的輸入Input輸入k個(gè)Cardinal分支當(dāng)中,公式(10)表述了每個(gè)Cardinal的輸入,其中R代表每個(gè)Cardinal中split后的分支數(shù),k代表第k個(gè)Cardinal,U代表著split后每個(gè)分支的輸入。公式(11)表述了每個(gè)Cardinal模塊的輸出,V代表攜帶了通道權(quán)重的Cardinal輸出,a(c)是由softmax計(jì)算得到的權(quán)重,計(jì)算方法如公式(12)所示,其中G代表每個(gè)split的權(quán)重。在經(jīng)過Cardinal模塊后對(duì)最后的k個(gè)輸出進(jìn)行拼接,以達(dá)到綜合k個(gè)Cardinal輸出信息的目的,如公式(13)所示,并將拼接后的輸出與原本的輸入進(jìn)行element-wise summation,得到最后的輸出,其結(jié)構(gòu)如圖5所示。

圖5 ResNeSt block結(jié)構(gòu)Fig.5 ResNeSt block structure

在每個(gè)Cardinal中,又利用了SE-Net與SK-Net的思想,使用Split模塊對(duì)每個(gè)Cardinal的輸入切分為r個(gè)分支,通過SE-Net中的擠壓激勵(lì)操作獲取每個(gè)分支的注意力信息作為Fuse模塊,最后在Select模塊中使得具有注意力信息的向量與其對(duì)應(yīng)的分支特征圖相乘,并通過element-wise summation綜合r個(gè)分支的輸出作為最終的Cardinal輸出,Cardinal結(jié)構(gòu)如圖6所示。

圖6 Cardinal結(jié)構(gòu)Fig.6 Cardinal structure

1.2.3 CBAM(ConvolutionalBlockAttentionModule)

2018年,ECCV(European Conference on Computer Vision)收錄的論文中提出了卷積注意力模塊CBAM(Convolutional Block Attention Module Network),它的創(chuàng)新在于,它認(rèn)為對(duì)于卷積網(wǎng)絡(luò)中的特征圖來說,不僅通道中蘊(yùn)含著豐富的注意力信息[18],通道內(nèi)部,即特征圖像素點(diǎn)間也具有大量的注意力信息,而以往的注意力機(jī)制只關(guān)注了通道上的注意力信息,這對(duì)于空間上的注意力信息是一種浪費(fèi)[19]。CBAM通過構(gòu)建兩個(gè)子模塊,空間注意力模塊SAM(Spatial Attention Module),通道注意力模塊CAM(Channel Attention Module)分別匯總空間和通道兩方面的注意力信息,并將信息進(jìn)行一定程度的綜合,從而獲得更全面可靠的注意力信息[20],對(duì)計(jì)算資源的分配進(jìn)行更合理的指導(dǎo),其結(jié)構(gòu)如圖7所示。

圖7 CBAM結(jié)構(gòu)Fig.7 CBAM structure

通道注意力模塊將輸入的特征圖F(H×W×C)分別經(jīng)過基于寬和高的global max pooling(全局最大池化)和global average pooling(全局平均池化),得到兩個(gè)1×1×C的特征圖,接著,再將它們分別送入一個(gè)兩層的神經(jīng)網(wǎng)絡(luò)(MLP),第一層神經(jīng)元個(gè)數(shù)為C/r(r為減少率),激活函數(shù)為Relu,第二層神經(jīng)元個(gè)數(shù)為C,這個(gè)兩層的神經(jīng)網(wǎng)絡(luò)是共享的。而后,將MLP輸出的特征進(jìn)行基于element-wise的加和操作,再經(jīng)過sigmoid激活操作,生成最終的通道注意力特征,即公式(14)中的Mc(F),其中Favg為特征圖經(jīng)過全局平均池化的結(jié)果,F(xiàn)max為經(jīng)過全局最大池化的結(jié)果,整個(gè)通道門注意力模塊結(jié)構(gòu)如圖8所示。

圖8 CAM結(jié)構(gòu)Fig.8 CAM structure

空間注意力模塊將通道注意力模塊輸出的特征圖F作為本模塊的輸入特征圖[21]。首先做一個(gè)基于通道的全局最大池化和全局平均池化,得到兩個(gè)尺寸為H×W×1的特征圖,然后將這兩個(gè)特征圖基于通道做拼接操作。然后經(jīng)過一個(gè)7×7卷積操作,降維為H×W×1,再經(jīng)過sigmoid生成空間注意力特征,即公式(15)中的M s(F),其中f代表卷積操作,[]代表通道拼接操作,最后將該向量和該模塊的輸入特征圖做乘操作,得到最終生成的特征。整個(gè)空間注意力模塊結(jié)構(gòu)如圖9所示。

圖9 SAM結(jié)構(gòu)Fig.9 SAM structure

1.2.4 雙注意力網(wǎng)絡(luò)(DualAttentionNetwork)

2019年CVPR收錄的論文中提出了DA-Net(Dual Attention Network),與CBAM相似的是,它的思想也是綜合通道和空間兩路的注意力信息,但不同的是CBAM的兩路注意力信息的獲取是串行的,而DA-Net中的兩路注意力信息的獲取是并行的,且獲取注意力信息的方式也有很大差別。DA-Net從通道與空間兩個(gè)分支通過對(duì)特征圖進(jìn)行矩陣操作構(gòu)建特征圖的相關(guān)性矩陣S和X,兩個(gè)矩陣分別用來表征通道之間的相關(guān)性和通道內(nèi)像素點(diǎn)之間的相關(guān)性,用此矩陣對(duì)特征圖的更新進(jìn)行引導(dǎo),增大關(guān)鍵特征的權(quán)重,使得將更多的注意力放在更易于進(jìn)行區(qū)分的優(yōu)秀特征之上。雙注意力模塊結(jié)構(gòu)如圖10所示。

圖10 雙注意力網(wǎng)絡(luò)Fig.10 Dual attention network

其中PAM(Position Attention Module)是空間分支,其結(jié)構(gòu)如圖11所示,CAM(Channel Attention Module)是通道分支,其結(jié)構(gòu)如圖12所示,這兩個(gè)分支通過對(duì)于特征圖的處理分別構(gòu)建出了關(guān)于特征圖通道與空間位置的相關(guān)性矩陣X(尺寸為C×C)與S(尺寸為(H×W)×(H×W)),其中H、W、C分別為特征圖的高、寬與通道數(shù),并用此兩個(gè)相關(guān)性矩陣來引導(dǎo)特征圖不同通道與空間位置權(quán)重的更新方向,DA-Net捕捉了空間和通道維度中的全局特征依賴關(guān)系,使用位置注意力模塊來學(xué)習(xí)特征的空間相互依賴性,通道注意力模塊來模擬通道相互依賴性[22]。

圖11 空間分支Fig.11 Spatial branching

圖12 通道分支Fig.12 Channel branching

1.2.5 金字塔特征注意力網(wǎng)絡(luò)(PyramidFeature AttentionNetwork)

2019年CVPR收錄的論文中提出了金字塔特征注意力網(wǎng)絡(luò),同樣是利用特征圖在通道間與通道內(nèi)部像素點(diǎn)都富含大量的注意力信息的思想[23],其結(jié)構(gòu)如圖13所示。其中CA模塊(Channel Attention Module)為通道注意力模塊,CA分支的結(jié)構(gòu)與SE-Net的思想是相同的,都是通過全局平均池化提取通道注意力信息,利用全連接獲取各個(gè)通道的權(quán)重,如圖14所示,SA模塊(Spatial Attention Module)為空間注意力模塊,它利用了交替的卷積核相同的卷積層來提取通道內(nèi)部像素位置之間的注意力信息,獲得通道內(nèi)部不同像素位置之間的相關(guān)性與重要程度等信息[24],其結(jié)構(gòu)如圖15所示。兩個(gè)模塊分別從通道與空間兩個(gè)方向提取特征圖中的注意力信息,提取不同通道與空間中不同像素位置的權(quán)重信息,并對(duì)特征圖進(jìn)行自適應(yīng)的更新。

圖13 金字塔特征注意力網(wǎng)絡(luò)Fig.13 Pyramid feature attention network

圖14 通道注意力模塊Fig.14 Channel attention module

圖15 空間注意力模塊Fig.15 Spatial attention module

2 卷積網(wǎng)絡(luò)中注意力機(jī)制實(shí)驗(yàn)分析

2.1 實(shí)驗(yàn)數(shù)據(jù)集采集

本次實(shí)驗(yàn)中采用的是實(shí)驗(yàn)室采集的5類同型號(hào)電臺(tái)輻射源實(shí)測數(shù)據(jù),實(shí)驗(yàn)?zāi)繕?biāo)是運(yùn)用此數(shù)據(jù)進(jìn)行同型號(hào)的輻射源個(gè)體識(shí)別任務(wù)。

在實(shí)驗(yàn)室環(huán)境當(dāng)中,利用6臺(tái)同型號(hào)USRP(Universal Software Radio Peripheral)設(shè)備,其中5臺(tái)作為發(fā)送設(shè)備,1臺(tái)作為接收設(shè)備,5臺(tái)輻射源設(shè)備同時(shí)發(fā)送主頻為1 GHz的輻射源信號(hào),將所接收到的5臺(tái)輻射源設(shè)備的信號(hào)通過LabVIEW軟件進(jìn)行數(shù)據(jù)處理,接收端接收的信號(hào)如圖16所示,其中白線為I路信號(hào)振幅,紅線為Q路信號(hào)振幅。

圖16 接收端接收的信號(hào)Fig.16 Signal received by receiver

將經(jīng)過處理后的5類輻射源信號(hào)作為數(shù)據(jù)集,分別以傳統(tǒng)手動(dòng)特征提取方法,普通深度神經(jīng)網(wǎng)絡(luò)方法,本文提出的深度注意力神經(jīng)網(wǎng)絡(luò)方法進(jìn)行輻射源個(gè)體識(shí)別實(shí)驗(yàn)。輸入網(wǎng)絡(luò)中數(shù)據(jù)的尺寸為2×128,樣本數(shù)為100 000,其中90%作為訓(xùn)練集,10%作為測試集,網(wǎng)絡(luò)的batch size為128,訓(xùn)練100輪次,損失函數(shù)為交叉熵函數(shù),使用Adam算法來優(yōu)化網(wǎng)絡(luò)。

2.2 深度網(wǎng)絡(luò)模型搭建

基于注意力機(jī)制的輕量與即插即用的特性,設(shè)計(jì)實(shí)驗(yàn)所用的深度網(wǎng)絡(luò)模型為數(shù)據(jù)預(yù)處理層、特征提取層與數(shù)據(jù)分類層的組合,其結(jié)構(gòu)如圖17所示。其中在數(shù)據(jù)預(yù)處理層對(duì)信號(hào)進(jìn)行降噪處理,特征提取層通過卷積層與注意力模塊的組合實(shí)現(xiàn)信號(hào)特征的合理有效提取。保持網(wǎng)絡(luò)結(jié)構(gòu)不變,僅替換不同的注意力模塊,實(shí)現(xiàn)對(duì)5類同型號(hào)電臺(tái)輻射源信號(hào)的分類任務(wù)。

圖17 網(wǎng)絡(luò)模型結(jié)構(gòu)Fig.17 Network model structure

2.3 仿真實(shí)驗(yàn)與分析

本文針對(duì)五個(gè)同型號(hào)電臺(tái)輻射源信號(hào)作為數(shù)據(jù)集進(jìn)行仿真實(shí)驗(yàn),利用本文介紹的七種不同注意力模塊,在相同網(wǎng)絡(luò)條件下分別對(duì)每一種注意力模塊與不使用注意力模塊對(duì)數(shù)據(jù)集進(jìn)行分類任務(wù),實(shí)驗(yàn)結(jié)果如圖18和表1所示。

表1 實(shí)驗(yàn)結(jié)果Table 1 Experimental results

圖18 實(shí)驗(yàn)結(jié)果Fig.18 Experimental results

從實(shí)驗(yàn)結(jié)果中可以看出,對(duì)比普通神經(jīng)網(wǎng)絡(luò),當(dāng)在網(wǎng)絡(luò)中使用注意力模塊時(shí),分類任務(wù)將更快地達(dá)到收斂,且具有更優(yōu)的分類效果,不使用注意力模塊時(shí)識(shí)別率為83.52%,而在使用注意力模塊后分類效果都有著不同程度的提升,其中當(dāng)使用CBAM模塊時(shí)效果最優(yōu)為93.23%(+9.71%)。而在提升分類任務(wù)識(shí)別效果與收斂速度的同時(shí),注意力模塊因其輕量的特征,僅給網(wǎng)絡(luò)帶來少量參數(shù)量的提升,整體的訓(xùn)練速度也幾乎保持不變。

綜上所述,注意力機(jī)制在為網(wǎng)絡(luò)帶來極小負(fù)擔(dān)的條件下對(duì)網(wǎng)絡(luò)的速度與任務(wù)效果帶來大幅度的提升,同時(shí)其即插即用的特性為程序設(shè)計(jì)人員帶來了極大的便利性,是深度學(xué)習(xí)中高效且實(shí)用性較高的機(jī)制之一。

3 卷積網(wǎng)絡(luò)中注意力機(jī)制展望

近幾年,注意力機(jī)制的思想被廣泛應(yīng)用在各種深度學(xué)習(xí)任務(wù)中,如計(jì)算機(jī)視覺、圖像分割、自然語言處理等[25]。大量實(shí)驗(yàn)證明了注意力機(jī)制是行之有效且節(jié)省資源的,當(dāng)注意力機(jī)制的思想運(yùn)用于卷積神經(jīng)網(wǎng)絡(luò)中時(shí),需要著眼于卷積網(wǎng)絡(luò)中所特有的特征圖中的關(guān)鍵信息。當(dāng)前注意力機(jī)制的主流方法是將特征圖中的潛在注意力信息進(jìn)行深度挖掘,最常見的是通過各種手段獲取各個(gè)特征圖通道間的通道注意力信息與特征圖內(nèi)部像素點(diǎn)之間的空間注意力信息,獲取的方法也包括但不僅限于卷積操作,矩陣操作構(gòu)建相關(guān)性矩陣等,其共同的目的是更深層次、更全面地獲取特征圖中完善的注意力信息[26],于是如何更深地挖掘,從哪里去挖掘特征圖的注意力信息,將極有可能會(huì)成為未來注意力方法發(fā)展的方向之一。

目前,獲取注意力的方法基本基于通道間的注意力信息、空間像素點(diǎn)之間的注意力信息和卷積核選擇的注意力信息,是否能夠從新的方向去獲取特征圖更豐富的注意力信息,或者以新的方式或手段去獲取更精準(zhǔn)的注意力信息也是未來需要關(guān)注的一個(gè)重點(diǎn)[27]。

ECA-Net論文中的實(shí)驗(yàn)證明了跨通道的信息交互對(duì)于注意力信息的獲取是有積極作用的,這也從側(cè)面驗(yàn)證了不同通道之間并不是相互獨(dú)立的,其內(nèi)部是存在許多有利的有價(jià)值的信息的[28],那么著眼于不同通道內(nèi)部的其他信息的提取,如不同特征圖中像素點(diǎn)的空間注意力信息或其他跨通道信息是否對(duì)于獲取更加精準(zhǔn)的注意力分布有著正確的導(dǎo)向作用也是一個(gè)值得探索的方向[29]。

注意力機(jī)制作為一個(gè)輕量級(jí)的模塊[30],有著即插即用的特點(diǎn),但是即使其本身參數(shù)量并不高[31],在深度學(xué)習(xí)一些任務(wù)當(dāng)中,注意力模塊往往會(huì)被反復(fù)多次的調(diào)用,當(dāng)注意力模塊調(diào)用次數(shù)過多時(shí)仍然會(huì)對(duì)網(wǎng)絡(luò)整體造成一定的負(fù)擔(dān)[32],如何優(yōu)化模塊結(jié)構(gòu),降低模塊參數(shù)量或減少模塊調(diào)用次數(shù),更快地獲取更精準(zhǔn)的注意力信息,對(duì)于以后注意力機(jī)制在其他任務(wù)中的推廣有著舉足輕重的作用[33],也是未來需要研究的重要內(nèi)容之一。

卷積網(wǎng)絡(luò)中的注意力機(jī)制的核心在于深度挖掘特征圖中所含有的信息[34],而目前所發(fā)現(xiàn)的注意力獲取渠道相對(duì)較少,但是注意力機(jī)制已經(jīng)被廣泛證明其針對(duì)大量深度學(xué)習(xí)任務(wù)不僅具有參數(shù)量小[35],即插即用的便捷性[36],還可以較為明顯地提升任務(wù)效果。說明未來對(duì)于注意力機(jī)制的深度研究是必要且意義非凡的[37],將對(duì)深度學(xué)習(xí)任務(wù)產(chǎn)生重大的影響。

隨著信息技術(shù)的不斷發(fā)展,人類必將面臨著大量而繁雜的信息,針對(duì)如此龐雜的信息去完成各項(xiàng)深度學(xué)習(xí)任務(wù)將變得更為困難[38]。當(dāng)數(shù)據(jù)量無法任意改變的情況下,如何高效率地完成任務(wù)就變得尤為重要[39]。注意力機(jī)制便是提升深度學(xué)習(xí)任務(wù)效率的重要方法之一。當(dāng)深度學(xué)習(xí)方法較為低效時(shí),在深度學(xué)習(xí)任務(wù)中引入注意力機(jī)制將會(huì)實(shí)現(xiàn)“曲線救國”[40],利用其低成本、高收益[41]的特點(diǎn),大幅提升信息處理的效率,在未來的深度學(xué)習(xí)任務(wù)中大放異彩[42]。

4 結(jié)束語

注意力機(jī)制在深度學(xué)習(xí)任務(wù)中得到了廣泛的使用,運(yùn)用注意力機(jī)制進(jìn)一步提升深度學(xué)習(xí)的任務(wù)效果是常用且有效的一種手段,也成為了當(dāng)前的研究熱點(diǎn)之一[43]。本文針對(duì)卷積網(wǎng)絡(luò)中注意力機(jī)制的相關(guān)研究方法進(jìn)行了簡要總結(jié),并對(duì)該技術(shù)的實(shí)現(xiàn)方法以及其創(chuàng)新之處進(jìn)行了詳細(xì)介紹。同時(shí)本文對(duì)于注意力機(jī)制的未來發(fā)展方向與可挖掘的創(chuàng)新方式進(jìn)行了分析[44],指出了需要當(dāng)前亟待解決的瓶頸與問題,為后續(xù)卷積神經(jīng)網(wǎng)絡(luò)中注意力機(jī)制的進(jìn)一步研究提供了指導(dǎo)作用[45]。

猜你喜歡
深度機(jī)制特征
深度理解一元一次方程
如何表達(dá)“特征”
不忠誠的四個(gè)特征
深度觀察
深度觀察
自制力是一種很好的篩選機(jī)制
文苑(2018年21期)2018-11-09 01:23:06
深度觀察
抓住特征巧觀察
破除舊機(jī)制要分步推進(jìn)
注重機(jī)制的相互配合
主站蜘蛛池模板: 国产成在线观看免费视频| 欧美在线国产| 一区二区三区四区精品视频| 呦系列视频一区二区三区| 亚洲婷婷六月| 国产一区二区三区在线观看视频| 国产精品美乳| 色婷婷视频在线| 亚洲成肉网| 天堂成人在线| 亚洲日韩精品无码专区| 欧美日韩另类国产| 天堂av综合网| 无码区日韩专区免费系列| 色综合综合网| 色婷婷丁香| 欧美成人亚洲综合精品欧美激情| 久久中文无码精品| 狠狠色狠狠色综合久久第一次| 99在线视频免费观看| 久久久久久久蜜桃| 国产精品一区二区不卡的视频| 国产午夜精品一区二区三区软件| 欧美色视频网站| 国产精品永久免费嫩草研究院| 国产精品九九视频| 韩国v欧美v亚洲v日本v| 免费在线看黄网址| 波多野结衣久久高清免费| 亚洲欧美另类日本| 91精品啪在线观看国产91| 午夜欧美在线| 欧美中日韩在线| 日韩福利视频导航| 亚洲欧洲一区二区三区| 波多野结衣一二三| 国产精品一老牛影视频| 天天色综网| 永久免费无码日韩视频| 亚洲日韩Av中文字幕无码 | 久久久成年黄色视频| 中文字幕av一区二区三区欲色| 色婷婷丁香| 人妖无码第一页| 久久99精品久久久久纯品| 潮喷在线无码白浆| 综合色婷婷| 99re这里只有国产中文精品国产精品 | 中文字幕人成乱码熟女免费| 在线播放91| 亚洲第一成年免费网站| 国产精品9| 成人另类稀缺在线观看| 亚洲有无码中文网| 国产女人水多毛片18| 免费人成在线观看视频色| 国产一在线观看| 少妇精品网站| 亚洲日韩精品欧美中文字幕| 国产精品.com| 亚洲最黄视频| 色综合a怡红院怡红院首页| 综合色在线| 国产一区二区在线视频观看| 欧美精品v欧洲精品| 国产精品第5页| 欧美综合成人| 中文无码日韩精品| 国产亚洲视频在线观看| 国产一级毛片在线| 国产精品人成在线播放| 免费a级毛片18以上观看精品| 亚洲av成人无码网站在线观看| 国产h视频免费观看| 性欧美在线| 日韩精品专区免费无码aⅴ| 欧美精品xx| 亚洲福利视频一区二区| 久久精品国产999大香线焦| 亚洲大尺码专区影院| 日本亚洲欧美在线| 日韩欧美中文在线|