999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于時序差分學(xué)習(xí)的充電站有序充電方法

2021-02-23 07:15:22江明許慶強(qiáng)季振亞
電力工程技術(shù) 2021年1期
關(guān)鍵詞:動作策略

江明, 許慶強(qiáng), 季振亞

(1. 國網(wǎng)江蘇省電力有限公司,江蘇 南京 210024;2. 南京師范大學(xué)電氣與自動化工程學(xué)院,江蘇 南京 210046)

0 引言

近年來,電動汽車數(shù)量持續(xù)增加,對充電負(fù)荷進(jìn)行有序調(diào)控將有助于緩解電動汽車給電網(wǎng)帶來的峰谷差加劇、變壓器過載等問題[1]。通過有序調(diào)控,大量充電負(fù)荷能以需求側(cè)資源的形式直接或間接地參與電網(wǎng)調(diào)度體系[2]。為此,國內(nèi)外學(xué)者提出了多種電動汽車充電調(diào)控結(jié)構(gòu),其中,充電站因其聚合控制的優(yōu)勢,能極大地降低網(wǎng)側(cè)調(diào)度機(jī)構(gòu)對大量電動汽車單體的關(guān)注,將成為充電調(diào)控的重要實施主體[3—4]。

充電站有序充電的研究主要包括建模預(yù)測和求解算法[5],預(yù)測以統(tǒng)計模型為主,如確定概率分布[6]、隨機(jī)分布[7]、出行鏈模擬[8—9]等;算法則需綜合車輛數(shù)量、抽樣等對求解精度和速度的影響,包括拉格朗日松弛[10]、粒子群優(yōu)化[11]、思維進(jìn)化算法[12]等。但在實際情況下,充電需求參數(shù)的隨機(jī)性強(qiáng),耦合復(fù)雜[13],而充電站的充電設(shè)施數(shù)量有限,統(tǒng)計特征互補(bǔ)性差,模型驅(qū)動的有序充電方法面臨性能瓶頸。

隨著充電站運營,充電數(shù)據(jù)持續(xù)積累,數(shù)據(jù)驅(qū)動方法具有無需先驗建模、適應(yīng)復(fù)雜數(shù)據(jù)關(guān)系的優(yōu)勢,這為充電站的有序調(diào)控提供了新思路,其中,無模型強(qiáng)化學(xué)習(xí)(model-free reinforcement learning,MFRL)框架正日益受到重視。文獻(xiàn)[14]提出利用MFRL分析電價,獲得經(jīng)濟(jì)性最優(yōu)的充電策略;文獻(xiàn)[15—16]以Q-learning算法調(diào)控充電站總功率;文獻(xiàn)[17]提出一種基于蒙特卡洛學(xué)習(xí)(Monte Carlo learning,MCL)算法的充電站負(fù)荷充電預(yù)測算法;文獻(xiàn)[18]以MFRL框架適應(yīng)充電負(fù)荷的不確定性。然而,上述研究對各用戶充電需求獲得滿足的考慮有所欠缺,且求解速度還有提升空間。

文中充分利用江蘇某充電站采集積累的實測充電數(shù)據(jù),提出一種基于時序差分學(xué)習(xí)(temporal difference learning,TDL)算法的有序充電優(yōu)化方法。首先面向各用戶的充電需求,針對性地設(shè)計以馬爾可夫決策過程(Markov decision process,MDP)模擬的MFRL任務(wù)環(huán)境,并通過充電完成度指標(biāo)和懲罰因子項完善代價函數(shù),而TDL算法的增量式在線學(xué)習(xí)能力能夠大幅提升性能。算例以充電站參與日前調(diào)度進(jìn)行削峰填谷為例,根據(jù)實測數(shù)據(jù),比較多種算法在準(zhǔn)確度和求解速度上的性能。

1 基于MDP的有序充電建模

1.1 強(qiáng)化學(xué)習(xí)分類概述

強(qiáng)化學(xué)習(xí)任務(wù)以MDP為描述對象,MDP由狀態(tài)X,動作U,轉(zhuǎn)移函數(shù)P和代價函數(shù)(或獎勵函數(shù))R構(gòu)成,共同組成環(huán)境。若環(huán)境中X,U,P,R各要素均已知,即對于任意狀態(tài)x,x′和動作u,其轉(zhuǎn)移概率p(x′|x,u)具有定量表達(dá),則可以進(jìn)行有模型的學(xué)習(xí)(model-based learning,MBL),這也是有序充電算法的常用技術(shù)。此時,學(xué)習(xí)器可以通過確定性或概率性的動態(tài)規(guī)劃算法,以全概率展開的方式精確地找到最優(yōu)累積代價,確認(rèn)最優(yōu)策略。但實際應(yīng)用時,電動汽車充電特性參數(shù)模型很難精確,轉(zhuǎn)移概率往往缺少準(zhǔn)確評估。此時,通過將有序充電問題看作免模型的強(qiáng)化學(xué)習(xí)過程,即MFRL框架,可以不再依賴先驗和可用的轉(zhuǎn)換和獎勵模型,從而避免欠擬合、過擬合等現(xiàn)象對結(jié)果精確性的影響。

在MFRL框架中,最直接的策略評估替代算法為MCL算法,即通過多次采樣并取平均累積代價的方式,將其作為期望累計代價的近似。這一算法能克服模型未知時的策略估計困境,但需等待整個采樣軌跡的完成,是一類批處理式過程。TDL算法在MCL的基礎(chǔ)上進(jìn)一步結(jié)合了動態(tài)規(guī)劃原理,能夠以增量處理方式在線更新估計。相比MCL算法,TDL算法可以明顯減少迭代最優(yōu)方程的計算代價,效率更高。因此,TDL算法用于電動汽車有序充電問題的求解時,有望在較為理想的時間內(nèi)獲得收斂。

上述強(qiáng)化學(xué)習(xí)的分類邏輯如圖1所示。

圖1 強(qiáng)化學(xué)習(xí)的主要算法分類Fig.1 Classification of the main algorithmsfor reinforcement learning

1.2 有序充電的MDP

目前,MDP在有序充電領(lǐng)域正獲得廣泛應(yīng)用,但不同于對電價[14]、總支出[15]、電壓控制[16]、充電量與離網(wǎng)時刻關(guān)系[17]等環(huán)境的構(gòu)造,文中側(cè)重于將MDP描述為每個電動汽車用戶的充電需求能否獲得滿足的決策框架。

考慮到有序充電的決策應(yīng)保證用戶充電需求獲得滿足,因此,不同于直接對充電負(fù)荷進(jìn)行預(yù)測,MDP需細(xì)化到電動汽車數(shù)量、入網(wǎng)和離網(wǎng)時刻、凈充電量等多個充電行為參數(shù)。對電動汽車i,具體參數(shù)包括:接入電網(wǎng)時刻Tarr,i,離網(wǎng)時刻Tdep,i,入網(wǎng)時的能量狀態(tài)Earr,i,離網(wǎng)時的期望能量狀態(tài)Edep,i及充電功率Pch。當(dāng)考慮用戶的充電需求時,對任意有序充電策略,要求使電動汽車i在Tdep,i時刻離網(wǎng)時,其電量能夠達(dá)到期望能量狀態(tài)Edep,i。根據(jù)MDP,對應(yīng)的電動汽車充電行為四元組各要素的具體含義給定如下。

記入網(wǎng)電動汽車是否需要繼續(xù)充電的狀態(tài)空間為X,根據(jù)用戶的充電需求是否能被滿足,X包含4種狀態(tài),有:X={x0=“可以靈活充電”,x1=“必須立即充電”,x2=“已滿足期望電量而無需繼續(xù)充電”,x3=“期望電量難以完成”}。對時刻h∈(Tarr,i,Tdep,i),電動汽車i所屬狀態(tài)xi由下式?jīng)Q定:

(1)

式中:Ei,h為電動汽車i在時刻h的能量狀態(tài)。

由式(1)可以看出,定義的狀態(tài)空間中,下一時刻的狀態(tài)僅由當(dāng)前狀態(tài)決定,與歷史狀態(tài)無關(guān),該過程符合MDP的性質(zhì)。文中不考慮電動汽車向電網(wǎng)放電的情景,且認(rèn)為充電功率均相等,即在給定的[Earr,i,Edep,i]區(qū)間內(nèi)充電功率恒定。

將有序充電決策的動作空間記為U,包括不充電(u0=0)和充電(u1=1)兩類動作,即:U={u0=0,u1=1}。相應(yīng)地,當(dāng)在狀態(tài)x∈X下執(zhí)行動作u∈U時,根據(jù)轉(zhuǎn)移函數(shù),有p(x′|x,u)的潛在概率會轉(zhuǎn)移到另一個狀態(tài)x′∈X,伴隨這一轉(zhuǎn)移產(chǎn)生的代價值為r(x′|x,u)。

電動汽車充電任務(wù)MDP如圖2所示。

圖2 電動汽車充電任務(wù)MDPFig.2 MDP for the electric vehicle charging task

當(dāng)狀態(tài)x0=“可以靈活充電”時,若動作選擇u0=0,則下一狀態(tài)會有一定的概率p(x1|x0,u)轉(zhuǎn)移到狀態(tài)x1=“必須立即充電”,也會有一定的概率p(x0|x0,u)保持當(dāng)前狀態(tài)不變,且這些動作返回的代價值較小;當(dāng)狀態(tài)為x1=“必須立即充電”時,若動作選擇u0=0,則該狀態(tài)會有概率p(x3|x1,u)轉(zhuǎn)移至x3=“期望電量難以完成”,而考慮到處于狀態(tài)x3時的用戶充電需求將難以獲得滿足,且狀態(tài)x3難以恢復(fù)到其他狀態(tài),選擇這一動作返回的代價值則相應(yīng)較大。此外,要求每輛電動汽車初始設(shè)置時的離網(wǎng)時刻與期望能量狀態(tài)不能處于狀態(tài)x3,避免初始狀態(tài)對代價值的干擾。

1.3 有序充電策略決策的代價函數(shù)

將參與有序充電的電動汽車集群規(guī)模記為I,時間周期記為H。一般地,策略可以選擇削峰填谷、追蹤可再生能源出力、最小化電費等作為優(yōu)化目標(biāo)。為減少其他變量引入,文中將削峰填谷作為有序充電策略的優(yōu)化目標(biāo),其值由累積充電負(fù)荷的二次項表達(dá)。當(dāng)h∈H,對電動汽車i∈I執(zhí)行充電動作ui,h時,策略的代價函數(shù)為:

(2)

式中:x,u分別為電動汽車集群I在周期H內(nèi)的狀態(tài)空間x和動作空間u所構(gòu)成的矩陣。

考慮到電動汽車i的用戶充電需求應(yīng)能夠被滿足,在調(diào)度周期內(nèi)這一滿意度的約束表示為:

Earr,i+ui,hPch=ETdep,i

(3)

為使式(2)和式(3)能夠更好地用于強(qiáng)化學(xué)習(xí),首先定義一個“充電完成度”指標(biāo)以減少用戶充電特性參數(shù)的數(shù)量,再利用懲罰因子法將式(3)中的約束寫入代價函數(shù),以使強(qiáng)化學(xué)習(xí)的目標(biāo)中包含滿意度。具體步驟如下。

(1) 定義充電完成度指標(biāo)。充電完成度φ用以表示電動汽車入網(wǎng)后充電量達(dá)到期望電量時所需的累積充電時長。電動汽車i的充電完成度φi與Earr,i,Edep,i,Pch等參數(shù)的轉(zhuǎn)換關(guān)系為:

φi=(Edep,i-Earr,i)/Pch

(4)

利用式(4)進(jìn)行替代后,電動汽車充電行為特征相關(guān)的參數(shù)將從{Tarr,i,Tdep,i,Earr,i,Edep,i,Pch}減少到{Tarr,i,Tdep,i,φi},強(qiáng)化學(xué)習(xí)需處理的參數(shù)個數(shù)和數(shù)據(jù)量相應(yīng)減少。

(2) 引入用戶充電滿意度懲罰項。不同于數(shù)學(xué)規(guī)劃,強(qiáng)化學(xué)習(xí)難以直接處理約束,需要通過其他方法解決,如文獻(xiàn)[19]中的溫控負(fù)荷調(diào)度時,針對強(qiáng)化學(xué)習(xí)結(jié)果中不符合用戶需求的控制操作,需要通過增加后備控制器來拒絕執(zhí)行相關(guān)指令。文中將滿意度約束直接引入代價函數(shù),通過懲罰因子法,將原問題轉(zhuǎn)化為非約束優(yōu)化。

對于電動汽車充電行為,違反滿意度約束的情況即電動汽車i充入電量未達(dá)到或超過所需電量,在定義的充電完成度與動作空間下,懲罰項為:

(5)

利用懲罰因子法實現(xiàn)約束的原理在于,若對某輛電動汽車在某時刻采取不充電動作(即“u0=0”)而導(dǎo)致該車充電量無法獲得滿足(即狀態(tài)轉(zhuǎn)移至x3=“期望電量難以完成”)的情況,則將付出極大的代價值,促使策略做出不違反相關(guān)約束的選擇。懲罰因子法通過一個較大的懲罰因子M實現(xiàn),M是一個人工選擇的參量,應(yīng)滿足:

M+(I-1)2>I2

(6)

改進(jìn)后的代價函數(shù)為:

(7)

2 基于TDL算法的有序充電策略求解

2.1 有序充電策略的狀態(tài)-動作值函數(shù)

強(qiáng)化學(xué)習(xí)的任務(wù)是通過在環(huán)境中不斷嘗試,模擬不同的策略和相應(yīng)的代價值,習(xí)得一個最優(yōu)策略π*,使執(zhí)行該策略后的累積代價最小。將電動汽車有序充電問題看作強(qiáng)化學(xué)習(xí)時,根據(jù)常用的T步強(qiáng)化學(xué)習(xí)方案,對任意有序充電策略π,其代價由累積代價函數(shù)值決定:

(8)

式中:x0,u0分別為電動汽車集群充電任務(wù)和充電策略的起始狀態(tài)矩陣;E[·]為期望。

強(qiáng)化學(xué)習(xí)將對某個狀態(tài)x上執(zhí)行動作u后獲得的值表示為狀態(tài)-動作值函數(shù),記為Qπ,T(x,u),這里用T步累積代價表示:

Qπ,T(x,u)=E[ct(x,u)+Jπ,T(x′)]

(9)

式中:x′為前一次在狀態(tài)x執(zhí)行動作u后轉(zhuǎn)移到的狀態(tài)。

記最優(yōu)策略π*下的最優(yōu)累積代價為Q*(x,u),其值必能滿足最優(yōu)貝爾曼方程:

Q*(x,u)=E[ct(x,u)+minQ*(x′,u)]

(10)

(11)

最優(yōu)策略π*即為有序充電策略最終選擇執(zhí)行的動作:

u=π*

(12)

2.2 基于TDL算法的求解過程

在MFRL框架下,因充電MDP任務(wù)中各狀態(tài)間的轉(zhuǎn)移概率未知,策略評估只能通過執(zhí)行選擇的動作來觀察轉(zhuǎn)移的狀態(tài)和相應(yīng)的代價值。一種直接的策略評估替代方式是MCL算法,但其需在完整的采樣軌跡完成后更新所有的狀態(tài)-動作對;另一種方法是,若基于前t個采樣已估計的值函數(shù)Qπ,t(x,u),對其進(jìn)行增量式更新,可以在每步之后僅增加1個增量,不僅提高了求解效率,而且不影響Qt為累積代價之和的性質(zhì)。

TDL算法中,基于前t個采樣得到Qπ,t(x,u)、式(8)和式(9),得:

(13)

(14)

式中:α為更新步長,是一個較小的正系數(shù)。

下一步僅需給Qπ,t(x,u)加上式(14)第二行的增量,通過增量求和,有:

(15)

式中:γ為代價值的折扣因子;u′為策略π在x′上選擇執(zhí)行的動作。

針對強(qiáng)化學(xué)習(xí)的探索-利用困境,利用ε-貪心策略作為克服該困境平衡規(guī)則[20]。基于概率對兩者折中,即在(t-1)步后,平均代價Qt(x,u)更新為:

(16)

所提電動汽車有序充電方法中TDL算法的迭代過程主要包括以下步驟:(1) 初始化,包括定義環(huán)境,動作空間U,起始狀態(tài)x0,起始策略π0,探索概率ε及步數(shù)T;(2) 策略在t=1至T中按步執(zhí)行并更新,包括按ε-貪心策略執(zhí)行策略π中對應(yīng)的各動作u,求得c(x′|x,u)與轉(zhuǎn)移到的狀態(tài)x′,按式(16)更新平均代價,并求得對應(yīng)的動作u′;(3) 當(dāng)策略下的最優(yōu)累積代價滿足最優(yōu)貝爾曼方程時,結(jié)束迭代,并輸出最優(yōu)策略π*。TDL算法的收斂性證明可見文獻(xiàn)[21]。

3 算例分析

3.1 算例設(shè)置

以江蘇某充電站信息采集系統(tǒng)實測數(shù)據(jù)為基礎(chǔ),取某年8月至次年7月共11個月數(shù)據(jù)為原始環(huán)境,測試日期為次年8月d={1,2,…,31}∈D,測試日期中每日的原始充電負(fù)荷曲線分布如圖3所示。其中,以充電累積負(fù)荷中位數(shù)對應(yīng)日期作為典型日(d=5),陰影區(qū)間表示該測試月中所有日期下對應(yīng)時段負(fù)荷的分布范圍。

圖3 測試日期的原始充電負(fù)荷曲線分布Fig.3 Distribution of the original charging load curves in the simulation days

測試前,根據(jù)Earr,i,Edep,i,Pch求得φi,Tarr,i,Tdep,,i,φi,均按1 h的時間間隔向上取整。該準(zhǔn)備適用于所有算法,且執(zhí)行時間短,不計入時間。假設(shè)電動汽車和充電設(shè)施均支持有序充電,選擇日前調(diào)度計劃作為考慮對象,并將日前預(yù)測的有序充電結(jié)果稱為有序充電日前計劃,以區(qū)別于測試日當(dāng)天的實際有序充電曲線。

為直觀比較,引入以下算法:

(1) 基準(zhǔn)最優(yōu)(best of performance,BOP)算法。根據(jù)測試日的充電實測數(shù)據(jù),通過式(2)和式(3)直接求解。這一方法獲得的是理想最優(yōu)結(jié)果,屬于后驗結(jié)果,實踐中無法達(dá)到。

(2) MBL算法。先根據(jù)環(huán)境中數(shù)據(jù),分別對每輛電動汽車的{Tarr,i,Tdep,i,φi}擬合建模,再以動態(tài)規(guī)劃算法求解。

(3) MCL算法。與TDL算法相比,MCL法具體步驟中不是按步執(zhí)行更新,而是對完整的各步結(jié)果的總和進(jìn)行平均。

策略執(zhí)行設(shè)置從第d日0 h開始,每輪迭代所賦起始狀態(tài)初值均由當(dāng)日即時接入狀態(tài)決定,且為保證獨立性,每日決策周期結(jié)束后重新學(xué)習(xí)。

編程語言為Python,平臺為Jupyter Notebook,在處理器Intel i7、主頻3.4 GHz的計算機(jī)上執(zhí)行。

3.2 準(zhǔn)確性分析

首先,以典型日為例進(jìn)行比較,典型日總充電量為163.6 MW·h,調(diào)度前負(fù)荷峰谷差為13.56 MW。直接觀察4種算法下的有序充電日前計劃曲線,如圖4所示。考慮到優(yōu)化目標(biāo)是負(fù)荷波動平抑,曲線越平緩則表明平抑效果越好。總體上,與優(yōu)化前的原始充電負(fù)荷曲線相比,4種算法的峰值降低,谷值提高,日前計劃曲線均更為平緩。

圖4 不同算法下典型日的有序充電負(fù)荷曲線Fig.4 Coordinated charging load curves in the typical day under different algorithms

為定量比較各曲線代表的有序充電計劃效果,表1給出了圖4中24 h總充電量和充電負(fù)荷峰谷差的數(shù)值分析。根據(jù)表1可知,以BOP算法為基準(zhǔn),MBL、MCL和TDL算法下的總充電量在日前計劃時分別有-11.7%,-4.7%,-4.5%的偏差,即MFRL框架下的MCL和TDL算法對當(dāng)日總用電量的估計更準(zhǔn)確。與此同時,負(fù)荷峰谷差的偏差分別為9.97%,4.81%,4.81%,平均絕對誤差分別為53.3 MW,40.2 MW,39.6 MW。因此,MCL和TDL算法相比MBL算法更接近BOP算法中的理論最優(yōu)值。以上表明,就典型日而言,文中所提MFRL框架下的MCL算法和TDL算法均優(yōu)于MBL算法,對結(jié)果準(zhǔn)確性的影響較小。

表1 不同算法下典型日的有序充電計劃定量分析Table 1 Quantitative analysis of coordinated chargingplans of different algorithms for the typical day

其次,考察全部測試日中各算法的準(zhǔn)確性。為了便于觀察,以BOP算法為基準(zhǔn),定義準(zhǔn)確率αd以標(biāo)記其他算法的準(zhǔn)確性。記PBOP,h為BOP算法下第h小時的充電負(fù)荷,對第d日中各小時,有:

(17)

圖5統(tǒng)計了4種算法下準(zhǔn)確率數(shù)值分布。可以看出,MBL算法盡管可能在部分日期中較優(yōu)(如對應(yīng)散點所示),但在總體分布上僅近似甚至劣于TDL與MCL算法,其計劃能否取得精確的結(jié)果具有更強(qiáng)的不穩(wěn)定性(如對應(yīng)區(qū)間所示),這是由于同一組充電行為特征模型在不同日期的準(zhǔn)確性是難以控制的。而對于MFRL框架下的MCL與TDL算法,兩者的準(zhǔn)確率在數(shù)值分布上相對較為接近,即結(jié)果的準(zhǔn)確性近似。

圖5 所有測試日有序充電計劃的準(zhǔn)確率分布Fig.5 Distribution of the accuracy rates of coordinated scheduling results over all the simulation days

因此,在MFRL框架下,有序充電策略的求解不僅無需進(jìn)行先驗建模,而且相對于基于某個固定統(tǒng)計模型的MBL算法,能夠更穩(wěn)定地獲得更接近最優(yōu)效果的曲線。而相比MCL算法,文中所用的增量式在線更新TDL算法在計劃的準(zhǔn)確性方面基本未受影響。

3.3 求解速度分析

繼續(xù)觀察各算法執(zhí)行時的求解速度。首先,觀察強(qiáng)化學(xué)習(xí)下各算法的收斂過程。MBL、MCL和TDL算法下,各測試日求解時長的中位數(shù)所在日期分別為8月7日、23日和18日,對應(yīng)的收斂曲線如圖6所示。有模型的MBL算法提供了較優(yōu)的求解速度,然而,盡管TDL和MCL算法收斂速度顯著慢于MBL算法,但TDL算法對應(yīng)曲線的曲率大于MCL算法,收斂過程較快,從而可以更快地逼近最優(yōu)解。

圖6 測試日求解時長中位數(shù)日期的收斂曲線Fig.6 Convergence curves for the median value of solving time over all the simulation days

其次,考察所提算法的求解速度能否穩(wěn)定在一個合理時長區(qū)間。考慮到日前市場周期H=24 h,一般地,日前市場的出清規(guī)劃要求不晚于前一天的12 h提交次日計劃,因此,以12 h為求解建議時長的上限進(jìn)行考察。圖7刻畫了MCL和TDL算法下所有測試日期的求解時長分布。對應(yīng)該時長上限,TDL算法未出現(xiàn)求解超時的情況,且相對集中,均明顯少于12 h,即求解時長較少,求解用時的分布比較集中。與此同時,MCL算法下的各調(diào)度日期求解用時分布明顯偏右,甚至?xí)霈F(xiàn)超過12 h的極端情況。

因此,在策略求解的快速性方面,盡管MFRL框架下的MCL算法和TDL算法相比MBL算法,確實出現(xiàn)了收斂相對較慢的問題,但TDL算法的求解速度明顯優(yōu)于MCL算法,能夠滿足日前調(diào)度對計算時長的要求。

圖7 TDL與MCL的收斂時間直方圖Fig.7 Histograms for the convergence time distributions of TDL and MCL

4 結(jié)論

文中提出一種無需先驗建模的充電站有序充電優(yōu)化方法,并基于江蘇某充電站的實測數(shù)據(jù)進(jìn)行仿真分析。主要結(jié)論如下:

(1) 區(qū)別于依賴模型驅(qū)動的MBL算法,更依賴數(shù)據(jù)驅(qū)動的MBFL框架能夠使有序充電策略不再依賴充電行為的精確先驗?zāi)P停瑴p少了步驟,精確性更高;

(2) MBFL框架下,相比于傳統(tǒng)的MCL算法,增量式在線更新的TDL算法可以顯著提高收斂速度,更能適應(yīng)日前計劃對求解時間的要求;

(3) 算例結(jié)果表明,實際運營中的充電站能夠在滿足用戶充電需求的前提下,為電網(wǎng)提供有益的削峰填谷潛力。

文中提出的相關(guān)算法能夠利用充電站采集積累的充電數(shù)據(jù),直接進(jìn)行有序充電計劃,具備良好的工程實施能力。后續(xù)可以通過引入多分類器等算法繼續(xù)提升求解效率,以及引入市場電價、可再生能源出力等其他數(shù)據(jù),拓展到更多的優(yōu)化場景。

本文得到國網(wǎng)江蘇省電力有限公司科技項目(J2019016),江蘇省高等學(xué)校自然科學(xué)研究面上項目(19-K-J-D-4-7-0-0-0-4)資助,謹(jǐn)此致謝!

猜你喜歡
動作策略
基于“選—練—評”一體化的二輪復(fù)習(xí)策略
下一個動作
求初相φ的常見策略
例談未知角三角函數(shù)值的求解策略
我說你做講策略
動作描寫要具體
高中數(shù)學(xué)復(fù)習(xí)的具體策略
畫動作
讓動作“活”起來
動作描寫不可少
主站蜘蛛池模板: WWW丫丫国产成人精品| 人人爱天天做夜夜爽| h视频在线观看网站| 一区二区三区毛片无码| 福利片91| 自拍偷拍欧美| 人人爽人人爽人人片| 狂欢视频在线观看不卡| 久久精品亚洲热综合一区二区| 欧美区一区| 免费jjzz在在线播放国产| 国产特级毛片aaaaaa| 色亚洲成人| 国产精品偷伦在线观看| 国产成人综合亚洲网址| 国产成年女人特黄特色大片免费| 亚洲人成亚洲精品| 日韩专区欧美| 在线观看无码av五月花| 亚洲精品不卡午夜精品| 亚洲AV免费一区二区三区| 亚洲不卡网| 亚洲国产日韩一区| 欧美黄网站免费观看| 日韩中文无码av超清| 亚洲三级成人| 亚洲天堂久久久| 91福利国产成人精品导航| 亚洲人成在线免费观看| 国产香蕉在线| 亚洲午夜18| 国产午夜看片| 在线精品视频成人网| 激情综合网址| 伊人91在线| 成人午夜亚洲影视在线观看| 国产女人18水真多毛片18精品| 亚洲国产精品国自产拍A| 激情成人综合网| 国产自视频| AV在线天堂进入| 国产理论最新国产精品视频| 热99re99首页精品亚洲五月天| 色综合久久无码网| 亚洲免费福利视频| 日本日韩欧美| 嫩草国产在线| 91麻豆国产在线| 99这里只有精品免费视频| 亚洲成人在线免费观看| 亚洲无线视频| 97se综合| 亚洲无码高清一区| 麻豆精品视频在线原创| 亚洲无码91视频| 中文字幕在线欧美| 无码精品福利一区二区三区| 久草青青在线视频| 免费看美女自慰的网站| 国产成人精品男人的天堂下载| 自偷自拍三级全三级视频| 国产亚洲高清视频| 国产成人1024精品| 99精品在线视频观看| a网站在线观看| 激情网址在线观看| 91精品人妻互换| 婷婷色狠狠干| 久久综合伊人77777| 亚洲视频免| 97国产在线观看| 一级毛片网| 国产精品女熟高潮视频| 久久国产精品影院| 99r在线精品视频在线播放| 中文字幕 日韩 欧美| 国产97视频在线观看| 永久免费av网站可以直接看的| 欧美19综合中文字幕| 中文字幕 91| 国产伦片中文免费观看| 亚洲欧美不卡中文字幕|