張 強 ,劉紅軍 ,李 娜 ,史雅文
(1.山東電力調度控制中心,山東 濟南 250001;2.國網山東省電力公司電力科學研究院,山東 濟南 250003;3.國網山東省電力公司濟陽縣供電公司,山東 濟南 251400)
截至2016年底,山東省調、17個地調通過新建或改(擴)建方式已全面完成智能電網調度控制系統建設并投入使用[1-2]。但隨著電網一體化運行和管理需求日益增強[3],現有系統在三方面逐漸顯現出不足:一是硬件資源上,建設方式相對粗放,資源利用率低,且難以實現動態擴充。二是電網模型上,調度橫、縱向間建模冗余,未實現“源端維護、全局共享”;模型關聯性差,查詢不方便。三是系統應用上,受制于平臺開放性不足、模型共享能力差,難以為調控運行提供按需定制、多樣化的服務。
近年來,IT界云計算技術日益成熟并在各領域得到廣泛應用[4-6]。傳統的電網調度自動化系統可充分借鑒、利用其計算、存儲、網絡虛擬化技術實現技術架構升級,電網“調控云”的建設已具備技術可行性。為適應電網一體化運行特征,以電網運行和調控管理業務為需求導向,山東省調目前正規劃、建設省地一體化“調控云”。從體系架構(硬件架構、軟件架構)、關鍵技術(基礎設施層、平臺層、應用層)兩方面對山東“調控云”進行闡述,以期為相關研究和建設提供參考。
山東“調控云”是基于云計算理念設計、面向省、地 (含縣)兩級電網調控運行和管理業務的服務平臺,分為 “基礎設施服務層 (IaaS)”、“平臺服務層(PaaS)”、“應用服務層(SaaS)”3 部分,如圖1 所示,實現“資源虛擬化”、“數據標準化”、“應用服務化”建設目標。
基礎設施服務層(IaaS):通過計算資源虛擬化、存儲資源虛擬化、網絡虛擬化,構建計算資源池、存儲資源池和網絡資源池,實現資源的有效監視、高效分配和按需使用,提升資源的集約化管理和使用能力。
平臺服務層(PaaS):通過數據對象的標準化設計,實現數據存儲標準化,便于數據分布式維護與同步共享;利于應用開發實施推廣;通過規范通信協議、服務協議的方式,實現數據交互標準化,便于異構系統互聯,提高數據交互效率。
應用服務層(SaaS):突破硬件、數據、軟件縱向捆綁的研發、建設模式,實現硬件資源、數據資源開放共享;按照“胖服務、瘦客戶”理念,研發和部署面向調度運行和調度管理的云應用軟件,支撐向云端各類用戶提供不同類型的應用服務。

圖1 山東“調控云”三層架構示意
山東“調控云”采用 A(省調)、B(濰坊)雙站點建設模式,如圖2所示。云客戶端不用區分應用服務提供方是A站點還是B站點,調控云業務服務可持續可用,實現異地應用雙活。對于數據業務,為保障調控云業務數據的強一致性,采用成熟的讀寫分離業務邏輯,即單點寫、兩點讀的方式。讀寫節點數據變化后,橫向同步組件即時將變化數據同步至只讀站點,當某一站點發生故障時,由另一站點接替全部業務操作,保障業務連續性。
“調控云”A、B站點采用相同的硬件架構,通過資源高速同步網進行橫向數據同步,并通過全局負載均衡為上層業務提供服務。A、B站點內采用前端業務層、計算資源層和后端存儲層三層架構設計,各層均分生產控制大區和管理信息大區兩個部分。圖3為山東“調控云”單個站點硬件架構圖。

圖2 山東“調控云”雙站點體系架構示意
前端業務層生產控制大區配置源數據端接入交換機和縱向加密裝置等硬件設備,連接到調度數據網,源數據端調控EMS系統通過此傳輸通道向調控云提供源端數據。前端業務層管理信息大區配置接入交換機、負載均衡及防火墻等硬件設備。調控云通過接入交換機連接到綜合數據網,源數據端通過此傳輸通道向調控云提供源端數據。云客戶端、移動客戶端通過此訪問調控云應用。全局負載均衡負責A、B站點間的流量分配,服務器負載均衡負責單站點內部業務集群的流量分配。
計算資源層生產控制大區主要配置數據匯聚服務器、實時計算服務器和實時數據匯聚交換機等設備,完成源數據端實時數據匯聚、實時計算業務功能。計算資源層管理信息大區配置計算服務器、云管理服務器、管理工作站及虛擬化接入交換機等設備,計算服務器采用虛擬化技術實現計算資源池化和彈性伸縮,云管理服務器部署云管理平臺服務端軟件,實現對計算、存儲、網絡資源的管理,管理工作站部署調控云管理工具軟件,實現人機界面化管理。
后端存儲層生產控制大區主要支持調控云實時業務的后端數據交換及與其他云節點之間的數據交換。后端存儲層管理信息大區采用磁盤陣列與分布式存儲混合方式。關系數據庫服務器可通過FC交換機訪問磁盤陣列,并能通過分布式存儲接入交換機訪問分布式存儲服務器。時序數據庫管理PMU數據,數據存儲在磁盤陣列。列式數據庫及MPP數據庫通過列式數據庫接入交換機連接至存儲匯聚交換機。

圖3 山東“調控云”單個站點硬件架構
山東調控云軟件架構按照云計算典型分層設計自下而上劃分為IaaS、PaaS、SaaS層,并配置云安全防護功能,如圖4所示。

圖4 山東調控云軟件架構
IaaS層實現構建計算、存儲、網絡資源池,通過虛擬化技術提升計算、存儲資源利用率,提升網絡流量轉發和控制能力。
PaaS層集成調控云的核心組件。其中公共組件支持各類數據存儲,提供總線服務,配置橫、縱向數據同步管理工具。模型數據云平臺負責公共模型、一次設備模型、保護設備模型、自動化設備模型以及對應的拓撲及圖形數據的管理。運行數據云平臺實現EMS量測歷史數據、OMS事件數據等運行數據的管理。實時數據云平臺包括數據匯集存儲、狀態估計、實時數據服務等模塊,是支撐電網在線分析應用的重要基礎。大數據平臺基于匯聚的海量數據,采用各類數據挖掘算法,探索隱藏在電網設備、運行和管理海量信息中的深層規律。
SaaS層實現“應用商店”,對不同廠商開發的應用實現完全開放。對某一類應用,客戶端可按需選擇不同廠商的產品加以比較。典型應用包括數據查詢與可視化、電網監視類、電網分析類、大數據分析決策類、仿真培訓類等,并可隨需求隨時擴展。
云安全架構從“網絡隔離、攻擊防護、傳輸安全、應用和管理安全”等多個角度考慮,確保物理環境、虛擬化、網絡、主機、應用和數據安全。
相比目前在運的智能電網調度控制系統,計算虛擬化是調控云IaaS層具有代表性的創新技術之一。計算虛擬化是一種資源管理技術,打破物理服務器實體結構間不可切割的障礙,使用戶可以以更好的方式來應用這些資源。
計算虛擬化可實現多個虛擬服務器在一臺物理服務器上并列運行,從用戶、應用軟件和操作系統的角度看,虛擬服務器與物理服務器沒有區別,但是計算虛擬化可確保多個虛擬服務器之間的隔離和虛擬服務器對資源使用的可控。虛擬服務器具備資源動態調度和彈性管理、虛擬機容災、虛擬機高可用HA、虛擬機遷移等功能,相比傳統物理服務器模式,可有效提升資源利用效率,保障系統運行高可靠性和高可用性,且方便實現虛擬化集群物理服務器的動態增減,滿足在線快速擴容需求。
2.2.1 模型數據流
增量模型數據流。對于新投運電網設備,在PasS電網模型云平臺部分設計模型流程化管理工具,實現模型數據分責維護,流程步驟如下。
1)按設備調管關系或所屬關系,依托OMS業務流程,分級、分專業在調控云源數據端進行設備模型、拓撲模型的維護。
2)調控云源數據端調用通用對象模型生成工具生成模型數據記錄,調用編碼生成服務生成通用數據對象編碼。
3)調控云源數據端將維護的模型數據同步至本地調控云節點和其他云節點。
4)生產控制大區EMS等系統通過調控云“模型訂閱”功能訂閱所需模型;調控云將被訂閱模型在源數據端橫向同步至EMS及其他系統,完成圖模數據與各業務系統的共享。
5)在業務系統(如 EMS、OMS),通過模型映射關系生成與調控云模型對應的業務對象編碼。
存量模型數據治理與轉換。針對存量模型數據,需將現有業務系統(如EMS、OMS)模型數據通過治理、轉換后提取至調控云源數據端,之后可按增量模型數據流步驟3至步驟5完成模型訂閱與發布。存量模型數據治理與轉換流程如下。
1)利用CIME拼接方式將省調、地調EMS模型(10 kV及以上電壓等級)組建成全省EMS大模型。
2)按設備命名生成EMS與OMS模型映射關系。
3)將EMS大模型導入調控云電網模型云平臺,調用通用對象模型生成工具生成模型數據記錄,調用編碼生成服務生成通用數據對象編碼。
4)利用EMS與OMS模型映射關系,匹配OMS相關模型信息至調控云電網模型云平臺。
上述編碼映射關系流程如圖5所示。
2.2.2 橫向數據同步
為滿足實用化要求,調控云A、B站點橫向數據同步的準實時業務同步延時需小于3 s。調控云業務數據種類繁多,涉及元數據字典、實時數據、運行數據、模型數據及海量的大數據,數據特征分析如表1所示。

圖5 山東“調控云”存量模型編碼映射關系

表1 調控云業務數據特征分析
基于以上業務數據特征,A、B站點橫向數據同步需區分不同的場景。
1)對于時延不敏感的準實時數據,A、B站點之間通過橫向同步技術實現結構化數據、非結構化數據的準實時同步,具體包括但不限于元數據、模型數據、運行數據(不含EMS運行數據)、圖形文件等。
2)對于時延敏感在秒級的實時數據,A、B節點通過調度數據網同時從省、地調EMS系統進行實時數據高速匯集,不進行橫向同步。
3)EMS運行數據量較大,A、B節點不采用橫向同步傳輸數據,而由分別部署的EMS運行數據接收模塊從消息總線并行接收消息入庫。
4)大數據業務屬于分析型應用,大數據導入直接從三大數據云平臺抽取數據或流式采集,無需在A、B站點間完成大數據同步。
調控云應用是基于開放數據平臺的軟件,支持同一功能部署多個產品,為調控用戶提供多種選擇。在IaaS層計算資源動態管理技術和PaaS層電網模型支持下,相比傳統網絡分析類應用,山東調控云提供的網絡分析應用將具備并行化、多場景、微服務的功能和特點。
2.3.1 并行化
狀態估計并行計算。可基于電網模型進行動態分區,將計算任務按區域進行分解,利用IaaS層的計算資源動態管理技術,根據系統資源情況進行計算任務的自動分配和計算結果的匯集,如圖6所示。

圖6 網絡分析并行計算示意
按照測試計算節點10 859個,支路數13 299個,分配在5個計算虛擬機,核心計算時間8 s左右,約為之前集中式計算的1/10。
靜態安全分析并行計算。按照預想故障集進行模擬開斷計算任務的分解,利用IaaS層的計算資源動態管理技術,根據系統資源情況進行計算任務的自動分配和計算結果的匯集。
按照測試計算節點10 859個,支路數13 299個,故障集個數17 923個 ,計算子任務36個,分配在2個計算虛擬機,核心計算時間17 s左右,約為之前集中式計算的1/13。
2.3.2 多場景
基于PaaS層提供的計算容器管理技術,每個用戶可擁有獨立的計算空間,通過瀏覽器的方式,用戶可根據需要自定義計算數據斷面的時間、計算模型的范圍,實現分析計算的個性化配置,如圖7所示。

圖7 計算容器池
相比較現有EMS系統網絡分析的研究模式,計算容器池主要有兩方面優勢:一是計算容器的數量可根據用戶數目動態增減(現有EMS是不管用戶在線使用情況都固定分配),實現資源的動態利用;二是不同用戶間可通過計算容器的共享,實現計算結果的共享查看;而現有EMS僅能按照機器節點固定分配,無法實現結果共享。
2.3.3 微服務
包括“計算模型裁剪、狀態估計數據斷面、潮流計算結果”微服務。
計算模型裁剪微服務可根據自定義的計算模型范圍,從全網模型中裁剪出所需的計算模型和外部等值模型,為應用提供裁剪完后的模型。
狀態估計數據斷面微服務可提供實時及歷史狀態估計數據斷面服務,其他應用功能只需提供需要的狀態估計數據斷面時間,即可得到所需的狀態估計數據斷面。
潮流計算結果微服務可提供潮流計算結果數據服務,其他應用功能只需提交需要的潮流數據斷面時間及格式(BPA、IEEE、E語言)等,即可得到所需的潮流數據斷面。
山東“調控云”以調控運行和管理需求為導向,實現 “資源虛擬化”、“數據標準化”、“應用服務化”,為后續構建分層分布與統一集中相結合的新一代調度控制系統提供技術基礎。“調控云”的建設將在現有基礎上提升信息感知與同步的支撐能力、提升數據深度應用的支撐能力、提升電網在線分析的支撐能力、提升調度管理精益化的支撐能力。
山東“調控云”擬分多期建設完成,目前已完成IaaS層功能,正在開展PaaS層模型數據云平臺建設。未來將按計劃開展PaaS層其他平臺、SaaS層建設,2020年實現山東調控云全業務上線運行,屆時將可為山東電網調控運行管理提供全新技術支撐平臺。