999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Adam優化神經網絡的電梯群控算法

2021-05-04 11:09:20
智能計算機與應用 2021年11期
關鍵詞:電梯優化模型

雷 劍

(南華大學 電氣工程學院,湖南 衡陽 421000)

0 引 言

電梯群控系統,通常是指在高層建筑內集中收集呼梯信號并管理調度3臺以上電梯的運行控制系統。目前電梯群控系統中,大多采用并聯或者全集選的調度方法。這些方法依托于候梯時間等單目標優化方法,不能很好的同時解決候梯時間和運行效率的問題。20世紀90年代,基于BP神經網絡的電梯群控技術已經成熟運用到實際應用中,取得了很好的成績[1]。但傳統BP神經網絡還存在一些缺陷,如收斂速度不理想[2],難以脫離局部極值。由于BP神經網絡本身的結構和特性,網絡模型效果最優的隱含層神經元個數無法確定[3],學習率以及激活函數的選擇都會對神經網絡的學習精度產生較大的影響。

電梯群控系統是一個存在多目的性、不確定性、非線性以及擾動性的復雜系統,同時包含著若干部電梯以及不同樓層之間的呼梯信號的龐大數據,這些都是傳統電梯群控算法難以高效率、低能耗解決的問題。Adam(adaptive moment estimation,自適應矩估計)算法不僅適合解決含大規模數據和參數的優化問題,而且收斂速度更快、效果更好,能夠更好的實現電梯調度分配,提高系統的整體性能。

1 電梯群控系統模型

1.1 多目標優化評價函數表達式建立

函數表達式選用了一種綜合評價函數,作為某一樓層對某一臺電梯呼梯的依據。通過滿意度評價函數來彌補原本單目標優化電梯群控的不足。評價函數滿意度的大小表示了電梯的呼梯次序。詳細計算方法參看文獻[4]。

公式(1)為第i部電梯與第j層呼梯信號之間的滿意度評價函數[5]。

式中,ω1、ω2、ω3為評價函數中不同交通模式下的權重,權重之和為1。評價函數f w(i,j)為乘客平均候梯時間表達式;f r(i,j)為長時間候梯率表達式;f e(i,j)為能源消耗表達式。

1.2 電梯群控系統模型的搭建

1.2.1 BP神經網絡的模型搭建

模型中神經網絡分為3層結構,其中當前電梯內乘客數量、電梯到呼梯樓層的相對距離和電梯響應呼梯信號前需要停靠的樓層數,作為輸入層的3個輸入;隱含層是網絡連接的核心,應根據具體情況建立相應模型;輸出層只有一個神經元,作為某臺電梯對當前呼梯信號滿意度的輸出。

網絡訓練中權值和閾值的修正過程如下:

(1)初始化網絡的權值和閾值。

(2)向網絡提供可學習的樣本數據。

(3)計算上一層神經元的輸出,作為下一層的輸入:

每組樣本數據的學習得到最新修正的權系數后,判斷預測值與實際值之間的相對誤差是否滿足預設目標。如滿足則訓練結束,否則返回步驟(3)。

1.2.2 Dropout

訓練學習中,如果參數多,而訓練樣本少時,模型很容易發生過擬合的現象。Dropout[6]可有效緩解過擬合的發生,在一定程度上達到正則化的效果。

Dropout是指在前向傳播過程中,為了增強模型的泛化性,讓某個神經元以特定的概率停止工作,進而緩解過擬合的發生。工作流程如圖1所示。

圖1 引入Dropout的神經網絡模型Fig.1 Introducing the neural network model of Dropout

具體學習過程如下:

(1)訓練前隱含層的所有神經元,以一定概率停止工作(暫時),不參與前向傳播。輸入輸出神經元保持不變。

(2)樣本數據在改變后的網絡中前向傳播,得到的誤差再通過修改的網絡進行反向傳播。每次迭代后,在原來的神經網絡上按Adam算法更新權值和閾值。

(3)重復執行以上兩個步驟,直至完成迭代訓練。

Dropout在隨機選擇神經元停止工作時,網絡結構也會發生變化,而不同的神經網絡模型也會產生不同的過擬合。其中互為“反向”擬合相互抵消,從而在整體上減少過擬合的現象,以此提升預測準確性。對三層BP神經網絡模型來說,Dropout的超參數概率p設為0.2-0.4比較合適,不會因此讓損失函數的值過大,可有效減少測試集的誤差。

1.2.3 電梯群控算法

Adam算法是一種基于低階自適應的隨機目標函數一階梯度優化算法[7]。由于該算法中包含了AdaGrad算法和動量法的優點,以此訓練得到模型的實際應用效果,在大多數場景下都要更優。其迭代過程如下:

上述推導公式中,t為迭代數;α為學習率;默認設定為0.001;gt為計算梯度;公式(11)、(12)中,mt、vt分別為偏一階矩向量和二階矩向量。參數向量初始化:m0=0、v0=0;β1、β2分別為對應矩估計的指數衰減率,通常β1=0.9、β2=0.999;ε為一個非常小的正數,通常取ε=10-8,防止運算過程中出現分母為0的現象。公式(14)中,θ即為待求的網絡參數。

在確定了參數和目標函數之后,網絡訓練中循環迭代地更新各個參數,直到目標函數滿足設定精度或達到預先設定次數為止。Adam算法不僅易實現,并具有很高的計算效率,適合解決帶有大規模數據和多個目標優化的問題。因此,本文選用Adam算法,作為基于神經網絡的電梯群控系統的優化算法。

2 模型訓練與測試

2.1 訓練流程

BP神經網絡容易過早陷入局部極值且收斂速度較慢。因此本課題采用Adam替代傳統優化算法,并在網絡的前向傳播過程中加入Dropout,緩解過擬合的發生,有效增強了神經網絡的泛化能力和收斂性。訓練流程如圖2所示。流程步驟如下:

圖2 基于Adam算法優化BP神經網絡訓練流程Fig.2 Optimization of BP neural network training process based on Adam algorithm

(1)根據樣本數據計算多目標評價函數表達式,得到滿意度函數值,再按照電梯群控系統要求建立神經網絡模型。

(2)對網絡的權值和閾值進行均勻分布初始化。

(3)在數據開始訓練前,Dropout以概率p隨機停止網絡模型中神經元的工作。

(4)以樣本數據訓練網絡,求解網絡預測值和實際值的誤差E,將誤差在網絡中反向傳播。

(5)根據誤差求出目標函數的梯度,用Adam算法修正網絡的權值和閾值,直到目標函數小于期望值或者達到設定迭代次數,則退出訓練;否則返回步驟(3)繼續執行。

2.2 模型參數

模型中,需對以下4個參數進行調優。其主要目的是讓目標函數在滿足設定精度的基礎上,不斷提高預測準確率。

(1)目標函數。目標函數是網絡預測值與實際值的平均相對誤差率,設定精度e<5%。

(2)學習率。網絡中用SGD以及Adam兩種算法進行比較。SGD算法學習率設為0.01,Adam算法學習率設為0.001。

(3)神經元個數與激活函數的選擇。隱含層神經元個數一般采用實驗法確定,為了神經網絡能夠得到最好的輸入輸出的映射關系,同時損失函數和輸出誤差滿足期望要求,需要通過實驗測定一個最佳的隱含層節點數。依據文獻[8]的經驗公式,可估算神經元個數的范圍在3-12之間。先設置數量較少的神經元個數進行訓練,然后逐漸增加,使用同一樣本集訓練,最終選取網絡誤差最小時對應的隱含層節點數[9],見表1。

表1 神經元個數與激活函數的選擇對誤差的影響Tab.1 The Influence of the Number of Neurons and the Selection%

從表1中可以看出,當隱含層神經元個數為8、激活函數為Sigmoid時,平均相對誤差最小。

(4)網絡初始化。網絡中的參數初值采用均勻分布初始化的方法。使用TensorFlow提供的tf.random_uniform函數,默認取值范圍為[0,1],可以有效的減少梯度彌散問題,使得輸入信號在網絡中傳遞的更深。

2.3 模型的仿真與測試

在TensorFlow框架中用Spyder對神經網絡進行搭建、訓練與仿真。網絡模型結構為三輸入一個輸出,隱含層層數為1,神經元個數為8。把經過統計的300組電梯樣本數據和對應的滿意度評價值隨機分成訓練集和測試集并進行歸一化處理,訓練集包括290組樣本數據,其余10組作為網絡模型的驗證的測試集。

圖3為基于BP神經網絡評價函數測試集平均相對誤差結果對比。在條件相同的情況下訓練1 000次,每25次取一次結果。結果表明,基于Adam算法優化的網絡平均相對誤差e<2%,傳統SGD方法訓練耗時10.716 S,而Adam算法僅耗時8.634 S,收斂更加迅速。誤差結果:隨機梯度下降法平均相對誤差為11.96%;Adam算法平均相對誤差為1.60%。

圖3 神經網絡擬合評價函數對比兩種算法平均相對誤差示意圖Fig.3 Schematic diagram of comparing the average relative error of the two algorithms on the neural network fitting evaluation function

由圖4、圖5可見,在測試集上預測結果表明:基于Adam優化神經網絡的算法誤差更小,相比較傳統BP傳統神經網絡,真實值和預測值的相對誤差減小一個數量級,網絡預測精度有明顯的提高。

圖4 基于傳統BP神經網絡測試集滿意度評價函數結果Fig.4 The result of satisfaction evaluation function based on traditional BP neural network test set

圖5 基于Adam優化神經網絡測試集滿意度評價函數結果Fig.5 The result of satisfaction evaluation function based on Adam optimized neural network test set

表2中數據為基于Adam優化神經網絡測試集樣本真實值和預測值的詳細結果。從表中可見,最大相對誤差為2.50%,最小相對誤差為0.08%。整體測試集平均相對誤差為1.26%,遠小于傳統SGD算法訓練后的誤差結果。

表2 測試集在Adam優化神經網絡模型的測試結果Tab.2 Test set results based on Adam optimized neural network model %

3 結束語

針對BP神經網絡的電梯群控傳統算法的收斂速度慢,且易于陷入局部最小值,導致出現聚集效應、群控系統效率不高等問題的課題研究。首先在前人的基礎上介紹了一種基于神經網絡的多目標優化模型,在網絡模型中將樣本數據分別在基于傳統隨機梯度下降法的BP神經網絡與基于Adam算法的BP神經網絡下各自學習,通過仿真測試驗證效果。從表1中的神經元和激活函數的組合搭配中可以看出,神經元個數和激活函數的選擇會對網絡的預測結果造成一定的影響,根據誤差最小值選擇為神經元個數為8,激活函數為Sigmoid,以此進行網絡的學習訓練和預測。但訓練過程中出現了訓練集效果很好,而測試集誤差偏大的現象,因此在網絡前向傳播過程中加入了Dropout,一定程度上緩解了過擬合現象的發生,提高了預測的準確率。基于表2的測試結果可以得出,Adam算法優化后神經網絡模型不僅收斂性更強,訓練速度更快,同時更易于掙脫局部極值的束縛,提高了網絡輸出的準確率。在以多目標優化的基于神經網絡的電梯群控系統的基礎上改善了電梯運載效率,達到了優化目的,提升了整體電梯群控系統的性能。

猜你喜歡
電梯優化模型
一半模型
超限高層建筑結構設計與優化思考
房地產導刊(2022年5期)2022-06-01 06:20:14
民用建筑防煙排煙設計優化探討
關于優化消防安全告知承諾的一些思考
一道優化題的幾何解法
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
被困電梯以后
3D打印中的模型分割與打包
電梯不吃人
主站蜘蛛池模板: 国产在线视频福利资源站| 亚洲AV无码乱码在线观看裸奔| 色噜噜狠狠狠综合曰曰曰| 美女国产在线| 精品成人一区二区三区电影 | 免费在线播放毛片| 小13箩利洗澡无码视频免费网站| 色男人的天堂久久综合| 国产午夜福利在线小视频| 久久伊人色| 国产va在线| 亚洲一区二区三区国产精华液| 毛片基地美国正在播放亚洲 | 亚洲国产成人自拍| A级毛片高清免费视频就| 國產尤物AV尤物在線觀看| 毛片网站观看| 2021国产精品自拍| 黄片一区二区三区| 91精品久久久久久无码人妻| 日韩欧美中文亚洲高清在线| 97成人在线视频| 国产91小视频| 久草国产在线观看| 色婷婷丁香| 在线中文字幕网| 亚洲人成在线精品| 亚洲天堂视频在线播放| 久久一色本道亚洲| 国产爽爽视频| 超清无码熟妇人妻AV在线绿巨人| 国产精品片在线观看手机版 | 欧美性爱精品一区二区三区 | 国产精品亚洲一区二区三区z| 久久无码免费束人妻| 国产精品视频猛进猛出| 亚洲高清日韩heyzo| 国产a在视频线精品视频下载| 亚洲码一区二区三区| 欧美a在线看| 99久久亚洲综合精品TS| 亚洲国产高清精品线久久| 国产中文在线亚洲精品官网| 国产精品视频免费网站| 久草网视频在线| 无码av免费不卡在线观看| 欧美三级不卡在线观看视频| 国产三级视频网站| 国产亚洲精品在天天在线麻豆 | 亚洲人成高清| 国产精品福利在线观看无码卡| 日韩欧美视频第一区在线观看| 亚洲高清资源| 亚洲欧美在线综合图区| 伦精品一区二区三区视频| 亚洲丝袜第一页| 国产区在线看| 亚洲区一区| 亚洲无码在线午夜电影| 国产性爱网站| 久久久国产精品无码专区| 成人国产精品2021| 国产麻豆aⅴ精品无码| 国产青榴视频在线观看网站| 婷婷六月综合网| 久久国产精品夜色| 91成人试看福利体验区| 日韩无码黄色网站| 午夜视频免费一区二区在线看| 91久久偷偷做嫩草影院| 国产成人高清精品免费| 在线无码九区| 国产另类视频| 日韩美毛片| lhav亚洲精品| 日韩成人午夜| 国产美女精品人人做人人爽| 国产 在线视频无码| 亚洲日韩国产精品综合在线观看 | 亚洲网综合| 青青网在线国产| 2020精品极品国产色在线观看|