999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度卷積神經網絡權重參數更新方法研究

2021-12-31 02:37:34楊曼黃遠民石遠豪
中國設備工程 2021年24期
關鍵詞:方法

楊曼,黃遠民,石遠豪

(1.佛山職業技術學院,廣東 佛山 528137;2.佛山賽寶信息產業技術研究院有限公司,廣東 佛山 528000)

1 權重參數更新方法

1.1 隨機梯度下降法(SGD)

一般而言,損失函數很復雜,參數空間龐大,而通過巧妙的使用梯度來尋找函數最小值的方法就是梯度法,梯度表示的是各點處的函數值減小最多的方向。在神經網絡的學習中,尋找最小值的梯度法稱為梯度下降法,由于神經網絡中選取的訓練數據多為隨機批量數據,因此稱為隨機梯度下降法。用數學公式來表示方法如下式所示:

1.2 Momentum

在使用SGD訓練參數時,SGD每次都會在當前位置上沿著負梯度方向更新,并不考慮之前的方向梯度大小,有時候會下降的非常慢,并且可能會陷入到局部最小值中,動量的引入就是為了加快學習過程,引入一個新的變量去積累之前的梯度(通過指數衰減平均得到),實現加速學習過程的目的。用數學公式來表示方法如下式所示:

這里變量v表示物體在梯度方向上的受力,遵循在力的作用下,物體的速度增加這一法則,v初始為None,若當前的梯度方向與累積的歷史梯度方向一致,則當前的梯度會被加強,從而這一步下降的幅度更大。若當前的梯度方向與累積的梯度方向不一致,則會減弱當前下降的梯度幅度。a初始值設定為0.5、0.9或者0.99。

1.3 AdaGrad

AdaGrad算法的思想是每一次更新參數,不同的參數使用不同的學習率。將每一個參數的每一次迭代的梯度取平方累加后再開方,用全局學習率除以這個數,作為學習率的動態更新。用數學公式來表示AdaGrad方法如下式所示:這里變量h保存了所有梯度值的平方和,在更新參數時,通過乘以來調整學習的尺度,參數元素中被大幅更新的元素的學習率將變小。從算法AdaGrad中可以看出,隨著算法不斷迭代,h會越來越大,整體的學習率會越來越小。

1.4 Adam

Adam方法計算了梯度的指數移動均值,融合了RMSProp和Momentum的方法,Adam會設置3個超參數,一個是學習率,標準值設定為0.001,另外兩個超參數beta1和beta2控制了這些移動均值的衰減率,移動均值的初始值beta1、beta2值接近于1,在深度學習庫中,標準的設定值是beta1=0.9、beta2=0.999。

2 算法對比

MNIST數據集60000個訓練數據樣本,構建5層神經網絡,輸入層數據大小為784,隱藏層神經元個數分別為600、400、200,輸出層神經元個數為10,激活函數用relu。

其迭代后損失函數結果如下表1所示(保留4位有效數字)。

表1 損失函數值

根據以上數據可得到損失AdaGrad函數最小為.0105,Adam次之且相差不大,其余兩種方法學習效率較低。

其迭代后損失函數結果如下表2所示(保留4位有效數字)。

表2 損失函數值

根據以上數據可得到Adam損失函數最小為。0.0019,在神經網絡層數不變,神經元個數不變的情況下,增加訓練樣本的迭代次數,AdaGrad的損失函數更新速度變慢,Adam方法損失函數更新速度更快、效果更好,此時損失函數值更小。

3 實例應用

以MNIST數據集為例,分別采用SGD、Momentum、AdaGrad、Adam方法對目標函數進行優化,構建以下深度CNN網絡結構圖,見圖1。完成對該數據集中手寫數字的分類識別。

圖1 深度網絡結構圖

其中Conv為卷積層,主要進行卷積運算,相當于圖像處理中的濾波器運算。Pool為池化層,主要是縮小高、長方向上的空間運算。Dropout是一種在學習的過程中隨機刪除神經元的抑制過擬合問題的方法,訓練時隨機選出隱藏層的神經元,然后將其刪除,被刪除的神經元不再進行信號的傳遞。softmax函數為輸出層函數,softmax函數的輸出是0.0到1.0之間的實數。采用上述深度卷積神經網絡進行測試,當epochs=12,得到準確率如下表3所示。

表3 測試結果

結果顯示,采用Adam進行目標函數優化,分類識別準確率為0.9951。設定當epochs=20,得到準確率如下表4所示。

表4 測試結果

結果顯示,增大epochs后,采用Adam 進行目標函數優化,分類識別準確率仍為最高0.9955。增加了0.04%,但計算速度會減慢。

4 結語

采用SGD、Momentum、AdaGrad、Adam 4種權重參數更新方法,SGD下降過程更為曲折,因噪聲使梯度更新的準確率下降,同時SGD會在某一維度上梯度更新較大產生振蕩,可能會越過最優解并逐漸發散。加入動量Momentum梯度移動更為平滑,但效率仍偏低。AdaGrad可根據自變量在各個維度的梯度值大小來調整各個維度上的學習率,避免統一的學習率難以適應所有維度的問題。Adam融合了Momentum、AdaGrad的方法,Adam的更新過程類似Momentum,但相比之下,Adam晃動的程度有所減輕。以MNIST數據集為樣本集,構建深度卷積神經網絡結構,分別采用SGD、Momentum、AdaGrad、Adam方法對目標函數進行優化,完成對該數據集中手寫數字的分類識別,結果對比顯示采用方法,識別準確率為99.55%。

猜你喜歡
方法
中醫特有的急救方法
中老年保健(2021年9期)2021-08-24 03:52:04
高中數學教學改革的方法
河北畫報(2021年2期)2021-05-25 02:07:46
化學反應多變幻 “虛擬”方法幫大忙
變快的方法
兒童繪本(2020年5期)2020-04-07 17:46:30
學習方法
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
最有效的簡單方法
山東青年(2016年1期)2016-02-28 14:25:23
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 国产一区二区三区在线无码| 亚洲制服丝袜第一页| 好吊妞欧美视频免费| 国产亚洲精品资源在线26u| 欧美日本在线观看| 日韩小视频在线观看| 一级在线毛片| 日韩经典精品无码一区二区| 白浆视频在线观看| 在线中文字幕网| 日韩福利在线观看| 亚洲全网成人资源在线观看| 亚洲二区视频| 91小视频在线播放| 依依成人精品无v国产| 日本a∨在线观看| 国产成人综合久久精品尤物| 一级成人欧美一区在线观看| 国产亚洲欧美日韩在线观看一区二区 | 亚洲免费人成影院| 久久久噜噜噜| 欧洲日本亚洲中文字幕| 青青草原国产免费av观看| 久久性视频| h网址在线观看| 999精品视频在线| 国产中文一区二区苍井空| 久久国产精品麻豆系列| 国产国拍精品视频免费看| 国产精品无码久久久久AV| 亚洲男女在线| 国产99免费视频| 人妻出轨无码中文一区二区| 欧美午夜精品| AV片亚洲国产男人的天堂| 91网红精品在线观看| 91精品国产情侣高潮露脸| 熟女成人国产精品视频| 久久永久视频| 最新国产网站| 天天综合色天天综合网| 久久婷婷五月综合97色| 四虎影视无码永久免费观看| 国产高清国内精品福利| 亚洲Av激情网五月天| 国产亚洲精品97在线观看| 久久久精品无码一区二区三区| 在线观看国产精品一区| 精品一区二区三区水蜜桃| 国产69囗曝护士吞精在线视频| 国产av剧情无码精品色午夜| 午夜欧美在线| 伦伦影院精品一区| 色综合久久88色综合天天提莫| 玩两个丰满老熟女久久网| 色丁丁毛片在线观看| 国产在线观看91精品| 无码精品福利一区二区三区| 国产乱人伦AV在线A| 亚洲精品色AV无码看| 国产成人高清精品免费软件| 欧美在线黄| 国产拍揄自揄精品视频网站| 免费国产无遮挡又黄又爽| 亚洲视频欧美不卡| 四虎成人精品| 国产成人AV男人的天堂| 无码AV日韩一二三区| 亚洲天堂免费| 国产精品xxx| 老司国产精品视频| 最新日本中文字幕| 91精品视频播放| 精品色综合| 日韩无码白| 一级香蕉视频在线观看| www.亚洲色图.com| 婷五月综合| 日本在线欧美在线| 99激情网| 中文字幕无码中文字幕有码在线 | 亚洲高清无码久久久|