999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于一維卷積神經網絡與長短期記憶網絡結合的電池荷電狀態預測方法

2021-07-02 00:36:42倪水平李慧芳
計算機應用 2021年5期
關鍵詞:設置模型

倪水平,李慧芳

(河南理工大學計算機科學與技術學院,河南焦作 454003)

(*通信作者電子郵箱lihuifang1112@163.com)

0 引言

美國先進電池聯合會(United States Advanced Battery,USABC)將電池荷電狀態(State-Of-Charge,SOC)定義為:電池在一定放電倍率下,剩余電量與在相同條件下額定電量的比值。對電池SOC的準確穩定估計有助于保護電池不會因為過沖過放而引起電池損傷,這是電池管理的重要環節[1]。影響電池SOC 的因素有很多。在電池能夠正常使用的情況下,影響電池SOC預測的最主要因素是電流、電壓、電阻和環境溫度等。本文在室溫下對電池進行循環充放電實驗得到電流、電壓、電阻以及對應的SOC,通過電流、電壓、電阻預測電池SOC。電流、電壓、電阻與電池SOC 之間具有非線性映射關系。

傳統的安時積分法具有累計誤差的缺陷[2],且需要提前獲得電池的初始SOC[3];傳統的開路電壓法需要相當長的測量時間[4];現有的Kalman 濾波法的計算量大[5]且需要預先建立復雜的電池模型[6-7],這會影響電池的SOC 估計精確度。神經網絡法具有較強的非線性映射能力,反向傳播神經網絡(Back Propagation Neural Network,BPNN)方法[8-10]被用于電池SOC 預測。隨著深度學習中卷積神經網絡(Convolutional Neural Network,CNN)與循環神經網絡(Recurrent Neural Network,RNN)在多個領域的廣泛應用,與深度學習相關的算法被用于電池SOC 的預測。RNN 可以有效保存歷史輸入信息,且具有時序記憶能力[11],但SimpleRNN(Simple Recurrent Neural Network)會隨著時間步的延長而發生信息丟失。長短期記憶(Long Short-Term Memory,LSTM)神經網絡依賴于過去樣本的輸入且有效解決了SimpleRNN 無法捕獲長期依賴性的問題[12]。CNN 通過設置多個不同的卷積核達到充分提取輸入信息中不同特征之間深層高級特征的目的[13],CNN 結合RNN 的網絡模型同時具有提取輸入數據中高級特征和保存歷史輸入信息的能力。

針對電池SOC 預測精確度與穩定性問題,本文提出一種將一維卷積神經網絡(one-Dimensional Convolutional Neural Network,1D CNN)與LSTM 結 合 的1D CNN-LSTM(one-Dimensional Convolutional Neural Network combined with Long Short-Term Memory)模型預測電池SOC,利用1D CNN 提取數據的空間特征,LSTM保存歷史輸入信息。該方法在充分使用輸入數據的特征信息的同時,又能保存歷史輸入信息并與當前的輸入信息一起映射到當前的預測SOC。與BPNN 模型、1D CNN 模型、門控循環單元(Gated Recurrent Unit,GRU)模型、1D CNN 與GRU 結 合 的1D CNN-GRU(one-Dimensional Convolutional Neural Network combined with Gated Recurrent Unit)模型、LSTM 模型和SimpleRNN 模型相比,1D CNN-LSTM模型具有更準確穩定的SOC預測效果。

1 1D CNN-LSTM聯合深度神經網絡

1D CNN 與LSTM 循環神經網絡聯合 的1D CNN-LSTM 深度神經網絡模型結構如圖1所示。輸入層Ct、Vt和Rt分別表示第t個樣本的電流、電壓和電阻。隱藏層由1D CNN 層與LSTM 層組成。一層全連接層(Fully Connected Layer,FCL)作為輸出層用于回歸預測,該層將輸出預測值SOC。

圖1 1D CNN-LSTM模型結構Fig.1 Structure of 1D CNN-LSTM model

1.1 1D CNN提取數據空間特征

CNN是由LeCun等[14]在深度學習研究中首次提出的一種成功的深度學習架構,同時也是一種有效用于特征提取和模式識別的前饋神經網絡[15],最常應用在圖像領域中的監督學習問題上,例如計算機視覺、圖像識別等。CNN可通過卷積層的濾波器提取輸入數據之間的相互關系。

CNN 使用少量參數捕捉輸入數據的空間特征,并將其組合起來形成高級數據特征,最終將這些高級數據特征輸入全連接層進行進一步的回歸預測或分類預測。

典型的CNN 結構由輸入層、卷積層、池化層、全連接層和輸出層組成。經過多個濾波器操作之后,CNN 可以通過逐層的卷積和池化操作提取數據特征。濾波器可根據輸入數據的大小以及提取特征的需要設置適當的窗口大小以及窗口滑動的步幅大小。典型卷積神經網絡結構如圖2所示。

圖2 典型卷積神經網絡結構Fig.2 Structure of typical CNN

由于CNN 已經成功地應用于二維圖像的處理方面,因此也可以將相同的思想用于處理一維數據[16]。在卷積層中,輸入的數據信息在流向下一層之前需要經過卷積操作和激活函數的計算。該操作如式(1)所示:

式中:Wcnn表示濾波器的權重系數,即卷積核;xt表示第t個輸入樣本數據信息;*表示xt與Wcnn之間的離散卷積運算;bcnn為偏置參數,將在對模型進行訓練時通過學習獲得;σcnn表示激活函數;ht表示卷積操作結束后的輸出數據。單個輸入樣本由電流、電壓和電阻組成。含有3 個神經元節點的一維卷積層的計算過程如圖3所示。

圖3 一維卷積層機制Fig.3 1D convolutional layer mechanism

每個神經元均包含一個濾波器。輸入數據將與每一個濾波器作卷積操作,結果將會被堆疊在一起作為輸出數據。例如,當使用濾波器(-1,0),滑動窗口的步長為1,沒有偏置參數時,則第1 個輸出為C1×(-1) +V1× 0=-C1,第2 個輸出為V1×(-1) +R1× 0=-V1;當使用濾波器(0,1),窗口的滑動步長為1,沒有偏置參數時,則第1 個輸出為C1×0+V1×1=V1,第2 個輸出為V1×0+R1×1=R1;當使用濾波器(1,0),窗口的滑動步長為1,沒有偏置參數時,則第1 個輸出為C1×1+V1×0=C1,第2個輸出為V1× 1+R1× 0=V1。

一個卷積層通常包含多個具有相同維度大小的不同的濾波器[16]。為獲取不同的數據特征,在一維卷積層中設置相同大小的不同濾波器。濾波器的大小不能超過單個樣本數據的大小。若輸入的單個樣本數據維度為p,濾波器窗口的高度為q,則經過一維卷積操作后輸出的單個樣本數據維度為p-q+1。如圖3 所示,一個一維卷積層中設置3 個高度(q)均為2 的濾波器,輸入的樣本數據維度(p)為3,則該樣本數據經過一個濾波器時輸出的特征樣本維度為3-2+1=2。

由于本文中樣本數據的單個樣本高度為3,本文將濾波器的高度設置為2。不同的濾波器會提取不同的數據特征。卷積層的卷積操作可以可視化為一個相同大小的滑動窗口,以一定的步長沿著輸入數據移動。對于窗口的每次停留,輸入數據被檢查的部分將會和過濾器之間作內部積的計算,并將計算結果作為輸出數據的一個特征元素。

對于空間維度較低的數據,可以使用卷積層來提取數據特征,而無需添加池化層。

1.2 LSTM保存歷史輸入信息

SimpleRNN 可有效解決非線性數值型時間序列的回歸預測問題,但在對模型進行訓練的過程中,隨著時間步的推移,會發生梯度下降或者梯度爆炸的現象。這將會使得前期的歷史輸入信息發生丟失或者產生無效信息,從而導致預測結果錯誤。隨著SimpleRNN 層的增加,網絡最終將變得不可訓練。為解決上述問題,Hochreiter等[17]提出了LSTM算法,該算法可以將數據信息存儲到更長的時間步長。LSTM 卷積神經網絡的展開圖如圖4 所示,其中Xn與hn分別表示模型的第n個輸入數據與輸入數據所對應的輸出數據。

圖4 LSTM循環神經網絡Fig.4 LSTM recurrent neural network

對于有規律的數值型時間序列,即當時間(序列順序)對數據很重要時,Xn表示一個數據批量,這一個數據批量組成一個樣本;當序列順序對序列數據不重要時,Xn表示單個樣本點。如本文的實驗數據為序列順序不重要的序列數據,則Xn表示由電流、電壓和電阻組成的單個樣本,hn表示第n個樣本的預測值SOC。LSTM的單元結構如圖5所示。

圖5 LSTM單元結構Fig.5 LSTM cell structure

LSTM單元可使用有效信息填充狀態單元,也可刪除無效信息。這個過程中使用的結構稱為門限。門限由1個sigmoid函數點乘1 個矩陣組成。sigmoid 函數輸出1 個0 到1 之間的數值來描述每個信息通過門限的程度,其中0 表示所有信息禁止通過,1表示所有信息通過。

LSTM的更新公式如式(2)~(6)所示:

其中:σ和tanh 分別表示sigmoid 激活函數和雙曲正切激活函數;W和b分別表示權值矩陣和偏置參數;xt表示LSTM 單元在t時刻的輸入;ht表示在t時刻xt對應單元的輸出;ct表示LSTM 在t時刻的狀態單元。整個LSTM 單元包括3個門限,即遺忘門ft、輸入門it和輸出門ot。

2 實驗環境與實驗數據集

2.1 實驗環境

實驗硬件設施使用Intel Xeon Gold 5118 CPU@2.30 GHz服務器,Window10 旗艦版64 位操作系統,16 GB 運行內存和500 GB 硬盤。編程軟件為Jupyter Notebook,并以基于TensorFlow 的深度學習框架Keras 作為支撐,實現1D CNNLSTM聯合神經網絡仿真模型的構建。

2.2 實驗數據集

本文從美國馬里蘭(Maryland)大學的高級生命周期工程中心(Center for Advanced Life Cycle Engineering,CALCE)[18]電池研究小組獲取K2 型號LiFePO4 電池的部分測試數據作為本文的實驗數據,在恒溫下對K2 型號LiFePO4 電池進行恒流放電,再進行恒壓充電,一次放電過程和一次充電過程為一個充放電循環。CALCE 電池研究小組已對K2 型號LiFePO4電池進行多次循環充放電實驗并記錄了實驗數據。

獲取CALCE中編號為K2-016的數據包中的部分數據,共包括16 219 個樣本數據。將這16 219 個樣本劃分為訓練集、驗證集和測試集3 個數據集,其中訓練集包含11 364 個樣本,驗證集包含2 430 個樣本,測試集包含2 425 個樣本。訓練集的電流、電壓、電阻和實際SOC 分別如圖6(a)、圖6(b)、圖7(a)和圖7(b)所示。

圖7 訓練集電阻和實際SOCFig.7 Resistance and actual SOC of training set

測試集的電流、電壓、電阻和實際SOC 分別如圖8(a)、圖8(b)、圖8(c)和圖8(d)所示。

圖8 測試集電流、電壓、電阻和實際SOCFig.8 Current,voltage,resistance and actual SOC of test set

SOC 與電流、電壓和電阻的關系分別如圖9(a)、圖9(b)和圖9(c)所示。圖9中的電流、電壓、電阻和實際SOC 均為測試集中的數據。

圖9 SOC與電流、電壓、電阻的關系Fig.9 Relation between SOC and current,voltage,resistance

2.3 實驗數據預處理

電池剩余電量SOC 保持在0~1的數值,而電流、電壓和電阻的取值范圍差別較大,為提高算法的訓練速度和靈敏性,因此需要對原始訓練集、驗證集和測試集的輸入數據(電流、電壓、電阻)作標準化處理。因為在模型訓練過程中使用取值范圍差別較大的數據時,模型雖會自動適應這種取值范圍不同的數據,但模型的學習過程將會變得困難。這里選用的數據標準化處理方法如式(7)所示:

表1 原始電流、電壓和電阻Tab.1 Origin current,voltage and resistance

表2 標準化后的電流、電壓和電阻Tab.2 Standardized current,voltage and resistance

3 1D CNN-LSTM模型設置

在1D CNN-LSTM 模型中,設置一層具有192 個神經元節點的1D CNN 層,一層具有64 個神經元節點的LSTM 層,一層具有一個節點的全連接層(又稱為密集連接層)。為防止模型在訓練過程中發生過擬合,設置LSTM 層的層間dropout 值為0.5,循環dropout 值為0.2;設置模型最大迭代步數為10 000;模型訓練時的批處理大小為64。

為加快模型收斂,并降低模型學習周期,相比于Sigmoid等激活函數,采用修正線性單元(Rectified Linear Unit,ReLU)激活函數會明顯減少模型整個學習過程中的計算量[19]。因此在1D CNN 層與LSTM 層均設置ReLU 非線性激活函數。ReLU函數如式(8)所示:

其中:x表示上一層神經網絡的輸出向量。ReLU 使得輸入的正值不變,負值變為0,這種操作將減少參數間的依存關系,使神經網絡具有稀疏性,緩解過擬合問題。

在模型訓練、驗證和測試的過程中,在前向傳播的最后一步使用均方誤差(Mean Square Error,MSE)作為模型誤差函數。并使用平均絕對誤差(Mean Absolute Error,MAE)作為驗證模型電池SOC 預測效果的指標函數。MSE 與MAE 如式(9)和式(10)所示:

其中:yk和分別表示在k時刻的實際SOC 與預測SOC。MSE和MAE 均可用來衡量預測目標與實際目標之間的偏差。MSE是實際目標和預測目標之間差的平方,然后再求和平均,平方數據更容易作微分操作,因此MSE 常被用作回歸預測時的損失函數。MAE 是絕對誤差的平均值,能較好地反映預測目標與實際目標之間誤差的實際情況。

在1D CNN-LSTM 模型訓練的過程中,使用Adam[20]優化函數更新模型的權重與偏置。Adam 的更新過程如式(11)~(15)所示:

其中:mt和nt分別表示t時刻梯度的一階矩估計和二階矩估計,是E[ft(θt)]和E的近似表示;分別表示對mt和nt的修正,是對期望的近似無偏估計;θt表示模型參數。Adam 函數為Keras 深度學習框架中的內置函數可直接調用,且Adam 中的參數使用文獻[20]中得到的參數設置作為默認參數設置,其中學習率α為0.001,衰減因子β1和β2分別為0.9和0.999,常量ε為10-8。

③戶外廁所應布置在院子角落,盡量位于居室和廚房下風向,以保證廁所面南、向陽、通風的要求,儲糞池位置選擇要考慮宜于清掏和出渣需要。

1D CNN-LSTM模型的訓練過程如下所示。

步驟1 隨機初始化模型參數。設置完成1D CNN-LSTM模型;隨機初始化模型的權重和偏差。

步驟2 模型前向傳播過程。計算1D CNN-LSTM 模型隱藏層與輸出層的輸出。

步驟3 模型反向傳播過程。計算隱藏層和輸出層的誤差以及偏導數。

步驟4 權重訓練。將通過反向傳播得到的偏導數用于更新網絡權重和偏差。

步驟5 判斷是否達到最大迭代步數。若達到最大迭代步數,則模型訓練結束,否則將目前的迭代步數增加1,并回到步驟2。

3.1 模型最佳迭代步數選擇

使用訓練集(11 364樣本)訓練設置完成的1D CNN-LSTM模型,使用驗證集(2 430 樣本)驗證模型每一步的訓練效果。為防止模型在驗證集上發生過擬合,最后使用測試集(2 425樣本)測試最終模型。

為確定合適的訓練步數,圖10 繪制訓練集與驗證集在模型訓練過程中每一步的MSE,訓練步數從0 步增加到10 000步。如圖10 所示,MSE 在模型訓練到300 步以后迅速下降到0.01%以下。模型的訓練MSE 和驗證MSE 在4 000~6 500 和8 200~8 900 這兩個訓練步數區間內觀測到波動,MSE 突然增加,但很快穩定下來,之后又增加。說明Adam 優化算法從一個局部最優值跳躍到另一個局部最優值。訓練和驗證MSE均在6 500 步到8 200 步之間達到全局最小值。本文將1D CNN-LSTM模型的最佳訓練步數設置為7 000步。

圖10 訓練步數從0到10 000時模型訓練MSE值與驗證MSE值Fig.10 Training MSE and verification MSE of model when training step number varies from 0 to 10 000

3.2 隱藏層中節點數量設置

1D CNN-LSTM 模型隱藏層中有1D CNN 層 和LSTM 層。1D CNN 層中神經元節點個數的設置與LSTM 層中神經元節點個數的設置都將影響模型的SOC 估計效果。分別對1D CNN 層與LSTM 層中神經元節點數量的設置進行分析。將LSTM 層的神經元節點數量設為N1,1D CNN 層的神經元節點數量設為N2。

在1D CNN-LSTM 模型隱藏層中,分析LSTM 層中設置不同神經元節點數量對1D CNN-LSTM 模型SOC 預測結果的影響,只改變N1的大小并固定模型中的其他設置。設置一層具有64 個神經元節點的1D CNN 層,濾波器高度為2;設置一層具有N1個神經元節點的LSTM 層,N1取6、64、192、320;批處理大小為64。LSTM 層中設置不同神經元節點數量的模型預測誤差如圖11所示。

圖11 LSTM層中設置不同神經元節點數量的模型預測誤差Fig.11 Model prediction error under different numbers of neuron nodes of LSTM layer

隨著LSTM 層神經元節點數量N1的增加,MSE、MAE與最大誤差開始呈現下降的趨勢,但隨著N1的持續增加,這3個指標又呈現上升的趨勢。當N1為64 時,1D CNN-LSTM 模型的指標MSE、MAE 和最大誤差均保持最小。LSTM 層中設置不同節點數量時的1D CNN-LSTM模型MSE、MAE和最大誤差如圖12所示。

圖12 LSTM層中設置不同神經元節點數量時模型MSE、MAE和最大誤差Fig.12 MSE,MAE and maximum error of model under different numbers of neuron nodes of LSTM layer

同理,分析1D CNN 層中設置不同神經元節點數量對1D CNN-LSTM 模型SOC 預測結果的影響,只改變N2的大小并固定模型中的其他設置。設置一層具有64 個神經元節點的LSTM 層;設置一層具有N2個神經元節點的1D CNN 層,濾波器高度為2,N2取6、64、192、320;批處理大小為64。

1D CNN 層中設置不同節點數量時的模型MSE、MAE 和最大誤差如表3 所示。隨著1D CNN 層神經元節點數量N2的增加,MSE、MAE 與最大誤差開始呈現下降的趨勢;但隨著N2的持續增加,這3 個指標又呈現上升的趨勢。雖然當N2為192 時,1D CNN-LSTM 模型的指標MAE 較N2為64 時有所升高,但模型的指標MSE 與最大誤差均下降,當模型指標MSE較小時,模型具有更好的穩定性。為提高1D CNN-LSTM 模型預測準確度與穩定性,并避免由于模型過于復雜而導致模型過擬合,應適當地增大N1和N2。

表3 1D CNN層中設置不同節點數量時的MSE、MAE和最大誤差Tab.3 MSE,MAE and maximum error of model under different numbers of neuron nodes of 1D CNN layer

通過上述分析,本文將模型中的1D CNN 層神經元節點數量設置為192,LSTM層神經元節點數量設置為64。

3.3 批處理大小設置

批處理大小為一次訓練時的樣本數量,將整個樣本分成幾個小批量,輸入到1D CNN-LSTM 模型中。在模型訓練過程中分析不同批處理大小對1D CNN-LSTM 模型SOC 預測結果的影響,將只改變批處理大小的設置并固定模型中的其他設置。根據上述對隱藏層節點數量設置的研究,設置一層具有192個神經元節點的1D CNN 層,濾波器高度為2;設置一層具有64 個神經元節點的LSTM 層;批處理大小取64 和192。設置不同批處理大小的模型預測誤差如圖13所示。

圖13 設置不同批處理大小的模型預測誤差Fig.13 Predicted errors under different batch sizes

設置不同批處理大小的1D CNN-LSTM模型MSE、MAE和最大誤差如表4 所示。隨著批處理大小的增加,模型的MSE、MAE 和最大誤差均呈現升高趨勢,即模型的SOC 預測效果在變差。因此本文將批處理大小設置為64。

表4 設置不同批處理大小時的模型MSE、MAE和最大誤差Tab.4 MSE,MAE and maximum error of model under different batch sizes

3.4 隱藏層層數設置

在1D CNN-LSTM 模型隱含層中,分析隱藏層中層數的設置對1D CNN-LSTM 模型SOC 預測結果的影響,只改變隱藏層的層數設置并固定模型中的其他設置。設1D CNN 層的層數為M1,設LSTM層的層數為M2。

分析1D CNN 層與LSTM 層的層數的設置對模型SOC 預測結果的影響,只改變M1與M2的大小并固定模型中的其他設置。設置M1層具有192 個神經元節點的1D CNN 層,濾波器高度為2;設置M2層具有64個神經元節點的LSTM 層;批處理大小取64;M1取1和2。M2取1和2。如圖14為M1與M2分別取不同值時模型的預測誤差。

圖14 設置不同隱藏層數量時的模型預測誤差Fig.14 Prediction errors under different hidden layer numbers

設置不同隱藏層層數時的模型MSE、MAE 和最大誤差如表5 所示。當M1與M2均為1 時,1D CNN-LSTM 模型的3 個指標均保持最小;當M1為1 且M2為2 時,模型的3 個指標均升高;當M1為2且M2為1時,模型的MSE、MAE和最大誤差升高的幅度更明顯。M1和M2數量的增加并沒有提高模型的預測精確度。

表5 設置不同隱藏層層數時的模型MSE、MAE和最大誤差Tab.5 MSE,MAE and maximum error of model under different hidden layer numbers

通過實驗分析,本文將在1D CNN-LSTM 模型中設置一層1D CNN層與一層LSTM層。

4 對比實驗分析

對比分析1D CNN-LSTM 模型與1D CNN 模型、BPNN 模型、1D CNN-GRU 模型、LSTM 模型、GRU 模型和SimpleRNN 模型的電池SOC預測效果。

BPNN 模型、1D CNN 模型與1D CNN-LSTM 模型的SOC預測誤差如圖15所示。

圖15 1D CNN-LSTM模型、1D CNN模型和BPNN模型的預測誤差Fig.15 Prediction errors of 1D CNN-LSTM model,1D CNN model and BPNN model

與1D CNN-LSTM模型相比,1D CNN模型與BPNN模型不依賴于過去樣本的輸入,圖15 中顯示這兩種模型預測誤差值具有較大波動。1D CNN-LSTM 模型因為有LSTM 層的存在而具有保存歷史輸入信息的能力。相比之下,1D CNN-LSTM 模型的SOC 預測值更準確和平滑。1D CNN-LSTM 模型的最大預測誤差為0.99%。與1D CNN 模型和BPNN 模型相比,1D CNN-LSTM模型的最大預測誤差率分別降低了1.05個百分點和1.31個百分點。

1D CNN-LSTM 模型與1D CNN-GRU 模型因為有LSTM 與GRU 的存在才具有保存歷史輸入信息的能力。LSTM 與GRU均是為了優化SimpleRNN 而提出的循環神經網絡結構。針對本文的電池SOC 預測問題,LSTM 與GRU 具有不同的預測效果。在本文的實驗中,1D CNN-LSTM 模型比1D CNN-GRU 模型更適合電池SOC 的預測。與1D CNN-GRU 模型相比,1D CNN-LSTM 模型的最大預測誤差率降低了1.95 個百分點。1D CNN-LSTM 模型和1D CNN-GRU 模型的電池SOC 預測誤差如圖16所示。

圖16 1D CNN-LSTM模型和1D CNN-GRU模型的預測誤差Fig.16 Prediction errors of 1D CNN-LSTM model and 1D CNN-GRU model

1D CNN-LSTM 模型、1D CNN 模型、BPNN 模型、1D CNNGRU 模型、LSTM 模型、GRU 模型和SimpleRNN 模型的MSE、MAE 和最大誤差如表6 所示。BPNN 模型為典型的非線性映射模型,全部由全連接層組成,該模型不具有從輸入數據中提取高級數據特征的能力,也不具有保存歷史輸入信息的能力。1D CNN模型由一維卷積層和全連接層組成,該模型則能夠從輸入數據中提取高級數據特征。由表6 可知,LSTM 模型、GRU 模型和SimpleRNN 模型的MSE、MAE 和最大誤差均較大,其最大誤差分別達到了27.61%、62.75%和47.84%,因此僅使用循環神經網絡的模型不能降低SOC 的預測誤差,可將CNN 與RNN 相結合達到降低電池SOC 預測誤差的目的。1D CNN-LSTM 模型由一維卷積層與LSTM 層和全連接層組成,1D CNN-GRU 模型由一維卷積層與GRU 層和全連接層組成,由表6 可知,與1D CNN 模型、BPNN 模型、1D CNN-GRU 模型、LSTM 模型、GRU 模型和SimpleRNN 模型相比,1D CNN-LSTM模型的最大預測誤差率分別降低了1.05、1.31、1.95、26.62、61.76 和46.85 個百分點。對比模型的具體參數設置如表7所示。

表6 七種電池SOC預測模型的MSE、MAE和最大誤差Tab.6 MSE,MAE and maximum error of 7 kinds of battery SOC prediction models

上述7 種電池SOC 預測模型的輸出層中均設置一層僅含有一個節點且無激活函數的全連接層輸出預測值SOC,且所有模型均具有相同的優化函數、隱層激活函數、誤差函數和批處理大小。7種電池SOC預測模型設置如表7所示。

表7 七種電池SOC預測模型設置Tab.7 Settings of 7 kinds of battery SOC prediction models

5 結語

針對電池的SOC 預測穩定性及準確度問題,本文提出一維CNN 與LSTM 結合的SOC 預測模型,該方法通過一維CNN有效地提取數據的高級數據特征,達到充分獲取輸入數據中重要信息的目的,并通過使用LSTM 循環神經網絡保存歷史輸入信息,使前期的輸入信息與當前的輸入一起映射到當前的輸出。通過分析模型中隱藏層層數、1D CNN 層與LSTM 層神經元節點數、和批處理大小的變化對1D CNN-LSTM 模型SOC 預測效果的影響,最終確定模型的最優設置。1D CNNLSTM 模型的MSE、MAE 和最大預測誤差分別為0.002 9%、0.402 7%和0.99%。滿足電池SOC 的估計要求。為進一步降低電池SOC 的預測誤差,可進一步考慮將注意力機制應用于電池SOC 的預測,注意力機制具有關注輸入數據中重要信息的能力,并結合循環神經網絡達到降低電池SOC 預測誤差的目的。

猜你喜歡
設置模型
一半模型
中隊崗位該如何設置
少先隊活動(2021年4期)2021-07-23 01:46:22
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
7招教你手動設置參數
3D打印中的模型分割與打包
本刊欄目設置說明
中俄臨床醫學專業課程設置的比較與思考
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
艦船人員編制的設置與控制
主站蜘蛛池模板: 精品国产香蕉在线播出| 日韩一区二区在线电影| 国产精品香蕉| 国产自在线拍| 国产免费黄| 国产精品99一区不卡| 美女被操黄色视频网站| 18禁黄无遮挡免费动漫网站| 国产91视频免费| 尤物成AV人片在线观看| 日韩精品无码免费一区二区三区| 日韩午夜片| 日本高清在线看免费观看| 欧美综合一区二区三区| 色天天综合| 国产地址二永久伊甸园| 日本欧美精品| 精品少妇人妻一区二区| 日本精品αv中文字幕| 国产精品va免费视频| 日韩毛片免费| 一级毛片高清| 久久国产毛片| 国产精品免费入口视频| 亚洲精品无码抽插日韩| 9966国产精品视频| 国产爽爽视频| 国产精品乱偷免费视频| 一级爆乳无码av| 日韩成人在线视频| 精品一区二区无码av| 不卡的在线视频免费观看| 国产国模一区二区三区四区| 国产91熟女高潮一区二区| 亚洲免费成人网| 国产精品成人久久| 国产成人无码AV在线播放动漫 | 国产裸舞福利在线视频合集| 日韩人妻无码制服丝袜视频| 久久国产拍爱| 亚洲,国产,日韩,综合一区| 久久精品中文字幕免费| 69精品在线观看| 久久国产精品电影| 亚洲色成人www在线观看| 中文字幕日韩欧美| 国产精品露脸视频| 美女内射视频WWW网站午夜 | 东京热高清无码精品| 999福利激情视频| a色毛片免费视频| 99热最新网址| 久久精品人人做人人爽97| 亚洲最猛黑人xxxx黑人猛交| 麻豆精品在线播放| 国产在线精品99一区不卡| 欧洲欧美人成免费全部视频| 国产真实乱子伦精品视手机观看| 国产美女免费网站| 五月天久久综合| 国产爽妇精品| 精品国产自在现线看久久| 久久精品人妻中文视频| 青青热久免费精品视频6| 最新国产精品鲁鲁免费视频| 免费播放毛片| 国产精品妖精视频| 91网址在线播放| 手机在线看片不卡中文字幕| 色屁屁一区二区三区视频国产| 色国产视频| 国产在线自乱拍播放| 一区二区在线视频免费观看| 亚洲自偷自拍另类小说| 高清视频一区| 久久人搡人人玩人妻精品一| 无码有码中文字幕| 国产精品亚洲天堂| 亚洲第一色视频| 91免费国产高清观看| 久久婷婷五月综合色一区二区| 欧美在线视频不卡第一页|