999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結合嵌入模塊的細粒度圖像分類方法

2021-05-28 06:03:56田佳鷺鄧立國
現代計算機 2021年11期
關鍵詞:特征提取分類特征

田佳鷺,鄧立國

(沈陽師范大學數學與系統科學學院,沈陽110034)

0 引言

本文中的改進方法主要針對細粒度圖像分類任務,細粒度是指在粗粒度基礎之上進行更為細致的類內劃分,對象間的區分差異較小,任務難度較大。經典雙線性卷積神經網絡的提出,使得分類的準確性已達到很好的效果。但由于模型關注的特征過多缺乏重點,其次層次結構較深,模型訓練效率低。改進模型針對這些問題進行完善,在Bilinear CNN 基礎之上選擇VGG-16 的前5 個卷積塊,以及ResNet-50 的前7 個卷積塊作為特征提取器以提高訓練效率;并在特征提取器中分別嵌入AWFF 模塊和SENet Block 模塊,將特征提取的重心放在關鍵特征上;接著利用雙線性池化操作完成后續的分類任務。新模型即改善了分類的準確性,又提升了訓練速度,結構性能也較為穩定。

1 基礎雙線性網絡介紹

雙線性模型在細粒度圖像分類任務上取得了極大成功,在細粒度分類問題的處理上具有較高準確性,可將該網絡模型看作為一個四元函數[1]:

公式中,fA,fB為特征提取函數,ρ 為池化函數,S是分類函數。特征提取函數f 相當于一種映射關系:

即將圖像γ 上某一位置l 映射到S×T 空間的過程,其中S 代表空間維度,T 則代表特征圖的通道維數。雙線性池化層是Bilinear CNN 的重要之處[2],將兩個特征提取分支輸出的特征圖中相應位置的特征進行外積運算:

函數bilinear 表示通過外積操作生成高維雙線性特征矩陣的融合過程,接下來利用池化函數ρ 進一步得到關于圖像的全局特征描述算子[3]。通過對雙線性特征中每對相應的雙線性值,進行聚合運算得到關于整體的特征描述,得到雙線性特征向量Bilinear CNN:

將池化得到的雙線性特征向量XC,運用開方運算得到向量YC,并利用l2歸一化操作得到最終規范的雙線性特征向量zc:

新模型的改進之處在于,對于雙線性網絡的兩個特征提取分支,一個基于層數較深的VGG-16 網絡模型中前五個卷積模塊,另一個則基于具有殘差思想的ResNet-50 網絡模型的前七個卷積模塊[4]。借助殘差思想其優勢在于通過對細微殘差的學習代替對原始特征的學習,減輕模型學習負擔有助于提升模型的訓練速度。此外,借助直連思想幫助模型保留更多的有效信息,防止模型由于層數過多導致梯度彌散、爆炸等現象的發生。通過兩種模型提取特征角度的不同、信息種類的不同來幫助新模型獲取更加全面的特征信息,利于模型的學習與訓練。

2 模型的改進

2.1 自適應特征加權模塊(AWFF)

當前所使用的大部分模型都以卷積模塊輸出的最后一個特征圖為主,該特征圖作為深層特征的典型代表包含著大量的重要特征信息。但不能因此忽略淺層特征信息的重要性,淺層信息中通常包含一些關于對象位置的信息等,有助于模型快速定位并提取特征,因此淺層中的特征信息對模型訓練有一定作用其重要程度不可小覷。新模型在特征提取模塊中引用AWFF 模塊,實現將淺層特征與深層特征以自適應的方式充分融合[5]。

AWFF 模塊主要由特征提取模塊、加權模塊及融合模塊三個部分組成。所謂自適應學習是指模型能夠以一定的學習方式,結合特征的重要程度自動獲取相應權重。AWFF 方法實現過程如下:

(1)特征提取模塊:

該過程以第一個卷積模塊的輸出特征圖為例,也可將其推廣至多個淺層特征與深層特征的融合。設第一層淺層特征為x1∈RC1×H1×W1,其中C1為通道數、H1為長度、W1為寬度。對特征圖進行池化操作,使得模型獲取淺層特征中最重要、最具有代表性的信息,并減少冗余參數數量。池化層過濾器的大小為kh×kw,步長為s。這里深層特征是指VGG-16 中最后一個卷積模塊輸出的特征圖xn,xn可不經過處理直接輸出[6]。接著需要調整提取后特征圖的維度,為進行下一步操作做好準備。池化加權操作過程公式如下:

(2)加權模塊

加權模塊的作用是自動分配給不同層級中的特征不同的權重值,使每一層級獲得與自身重要程度相匹配的權重。權值需要通過模型學習獲得,為減輕模型整體的訓練負擔,每一層級共享同一權重值,即模型在自適應過程中只需為每個層級分配一個參數值即可,有效提高訓練速度。該過程先利用卷積操作實現特征加權,并且權重會進行自適應的調整,接著將輸出值的維度進行調整使其與深層特征xn的維度相匹配,便于后續特征融合操作[7]。卷積加權過程公式如下:

(3)融合模塊

最后采用concat 拼接方法,將所有加權的淺層特征與深層特征依次融合相連,此時特征通道維度相互串聯,通過融合函數fC得到最終的特征X。操作過程如下:在融合了AWFF 模塊的VGG-16 特征提取模塊中,將VGG-16 中前兩個模塊的輸出淺層特征圖與最后一個模塊輸出深層特征圖進行加權融合,因此將公式(12)根據新的模型推廣為:

2.2 特征重標定模塊(SENet Block)

SENet Block(Squeeze-and-Excitation Networks)被稱為特征重標定模塊,該模塊由Momenta 公司建立,并借助該方法在最后一屆2017 的ImageNet 比賽中獲得圖像識別類的冠軍。該模塊的主要作用是讓模型能獲取每個特征通道的重要性,根據重要性對相應的特征進行增強或抑制[8]。該模塊的整體結構如圖1 所示。

圖1 SENet Block

具體操作過程如下:

(1)SENet 模塊一般嵌入在一個完整的卷積過程之后,即通過卷積得到包含C 個特征圖的集合U,公式如下;

其中,Fsq代表Squeeze 操作的特征圖壓縮過程,zc代表其中一個壓縮后的實數值,W,H是空間U 的寬度和高度。

(3)Excitation 操作:該激勵過程使模型學習各個特征圖通道之間的相關性,并結合重要程度為每個通道生成一個權值,公式如下:

(4)Reweight 操作:將Excitation 操作過程中產生的重要性權重以乘法的形式添加到相應特征上,突顯出通道之間的重要性程度,實現對原始二維特征圖中各個通道的重要性標定任務:

公式中Fscale函數代表加權過程,sc是代表對應通道重要性的權值,是特征重標定即加權后的特征圖。

在新的模型中將SENet Block 模塊嵌入到第二個特征提取分支中,即ResNet 的七個殘差卷積塊都被嵌入SENet Block 模塊[11],嵌入方法如圖2 所示。

圖2 SENet Block模塊在ResNet中的嵌入

先在ResNet 的每個殘差塊中加入全局平均池化層進行特征壓縮,將特征圖維度從H×W×C壓縮到1×1×C。下面是最重要的Excitation 操作,先利用一層FC 作為降維層,將特征圖通道數降為,這里設r為16,接著用ReLU 激活函數保證特征的非線性性,接著再利用一層FC 作為升維層,將通道數恢復到原來的C 保證特征的完整性,后面結合Sigmoid 函數得到值在0~1 之間的權重,最終通過Scale 模塊完成特征加權操作[12]。可以發現該過程連續用到兩層FC 層,權重s就是借助這些全連接層和非線性層學習得到,利用兩個串聯的FC 層融合通道之間的相關性信息,并增加特征的非線性性,有效減少參數量提高計算效率。

2.3 改進模型的整體結構

新的模型以雙線性網絡(Bilinear CNN)為基礎,對原始的兩個特征提取分支進行改進。其中一個分支選取VGG-16 的前5 個卷積塊作為特征提取器,去掉VGG-16 模型最后的全連接層和Softmax 層,并在卷積模塊的基礎上嵌入AWFF 模塊,將前兩層淺層特征與最后的深層特征相融合,充分保留有用信息保證特征提取的全面性。另一個分支則以ResNet-50 模型中前7 個卷積塊用于提取特征,并結合SENet Block 模塊關注特征通道間的相關性,利用權重參數選擇重要特征而忽略不必要的特征,同時采用ResNet 模型的殘差思想來提升新模型的訓練速度。最后通過雙線性池化層計算得到Bilinear vector 向量,利用Softmax 實現細粒度圖像的分類目的。此外,AWFF 及SENet Block 作為兩種子模塊,也可靈活地嵌入到其它基礎網絡當中[13]。

新的模型通過對基礎特征提取網絡的替換,以及兩種嵌入模塊的運用,使其更加高效地提取特征,加快模型的訓練速度,獲取的特征信息更加全面具體,利于細粒度圖像分類任務準確度的提升。盡管這些模塊的嵌入會使得模型的參數量增加,但在其分類效果面前,參數量增加所帶來的影響幾乎微乎其微。新的模型整體結構如圖3 所示。

圖3 新模型的整體結構圖

3 實驗說明及分析

3.1 實驗內容及設置

該模型結合遷移學習方法訓練模型,利用模型之前已經訓練好的一部分參數,在此基礎上訓練新改進的模型,即模型將先前學到的經驗應用到新任務的學習中,通過該方式可極大節省時間提高訓練效率。該模型基于Python 與TensorFlow 實現,利用TensorFlow中的機器學習框架構造所需要的模型結構,并在訓練過程中使用GPU 提升訓練速度。

該實驗選取的數據集為斯坦福大學整理得汽車數據集Stanford Cars,該數據集包含196 種不同車輛,共16185 張車輛數據圖像,每類數據數量均等便于模型訓練,其中訓練集分為8144 張圖像,測試集為8041 張圖像。對于改進模型在遷移學習基礎上先用訓練集微調模型參數,再使用測試集檢驗模型的分類準確性。

改進模型的兩個特征提取分支的輸入數據大小為224×224,為保證后續雙線性池化層的正常處理兩個分支輸出的特征圖通道數維度要保持一致。因此特征提取模塊中VGG-16 網絡輸出的特征圖維度為7×7×512,ResNet-50 模型輸出的特征圖維度為28×28×512。

3.2 實驗結果

實驗利用Stanford Cars 車輛數據集對模型進行訓練和測試,其準確率與迭代次數的關系如圖4 所示,從圖中可以看出訓練集的準確率曲線呈現上升趨勢最終達到96.362%,測試集的準確率達到91.089%。

圖4 準確率的變化趨勢

為了能更加直觀地體現該模型的分類準確情況,將選取的6 種模型基于同一數據集進行訓練和測試,將測試結果與新模型進行比對,可發現該模型的準確度較高。

表1 六種模型的準確率結果

4 結語

新模型基于Bilinear CNN 模型進行改進,結合ResNet 網絡的殘差思想,并在特征提取模塊中嵌入AWFF 模塊和SENet Block 模塊,利用Stanford Cars 車輛數據集進行訓練。新模型能夠融合淺層與深層的特征充分獲取有效信息,并將注意力集中在關鍵特征通道上,使模型靈活應對細粒度圖像分類差異較小的問題,提高分類準確性,有效加快訓練速度。該模型因引入了多種模塊結構導致參數量增長,盡管影響不大也需在日后研究中進一步完善。

猜你喜歡
特征提取分類特征
分類算一算
如何表達“特征”
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
基于MED和循環域解調的多故障特征提取
主站蜘蛛池模板: 久久国产拍爱| 国产丰满成熟女性性满足视频 | 欧美亚洲日韩中文| 久久综合色播五月男人的天堂| 亚洲成人福利网站| 国产精品自在在线午夜区app| 又黄又湿又爽的视频| 国产99热| 一级毛片免费不卡在线视频| 国产一级小视频| 手机精品福利在线观看| 国产成人一区| 欧美日韩一区二区在线免费观看 | 午夜色综合| 欧美精品另类| 亚洲一区二区三区麻豆| 中国黄色一级视频| 999国产精品| 亚洲黄色高清| 九九九国产| 在线无码九区| 欧美日韩国产在线观看一区二区三区| 狠狠色香婷婷久久亚洲精品| 天堂网国产| 国产sm重味一区二区三区| 亚洲av无码久久无遮挡| 看国产一级毛片| 国产精品香蕉| 99久久精品国产综合婷婷| 免费人成视网站在线不卡| 国产一区二区三区免费观看| 好紧太爽了视频免费无码| 国产精品成人观看视频国产| 在线观看无码av五月花| 美女一级免费毛片| 日韩欧美中文字幕一本| 久久网欧美| 国产精品网址你懂的| 欧洲亚洲欧美国产日本高清| 国模视频一区二区| 欧美爱爱网| 毛片网站在线看| 国产成人1024精品| 国产成人乱无码视频| 美女视频黄频a免费高清不卡| 青青草原国产av福利网站| 色香蕉影院| 精品一区二区三区波多野结衣| 高清乱码精品福利在线视频| 欧美色视频网站| 精品国产成人高清在线| 精品视频在线观看你懂的一区| 国产精品女熟高潮视频| 欧美另类视频一区二区三区| 亚洲中文字幕在线观看| 国产在线精品99一区不卡| 欧美激情第一区| 欧美国产日本高清不卡| 在线播放精品一区二区啪视频| 亚洲男人天堂久久| 国产综合色在线视频播放线视| 在线国产综合一区二区三区| 无码国产偷倩在线播放老年人| 人人看人人鲁狠狠高清| 91精品国产丝袜| 久久香蕉国产线看精品| 一级毛片免费观看不卡视频| 久久香蕉国产线看观看精品蕉| 99精品伊人久久久大香线蕉| 久热这里只有精品6| 日韩a级毛片| 国产精品香蕉在线| a级毛片一区二区免费视频| 毛片网站在线播放| 国产自在自线午夜精品视频| 久久伊人操| 免费激情网站| 国产人碰人摸人爱免费视频| 亚洲动漫h| 亚洲精品国偷自产在线91正片| 超清无码熟妇人妻AV在线绿巨人| 久久国产av麻豆|