沈世鎮 申 沛 上海市能效中心
綠色數據中心主要節能技術
沈世鎮申沛上海市能效中心
為了提高數據中心的能源效率,盡量減少數據中心整體用電量,盡量增大數據中心整體用電量中用于IT系統的比例。新建數據中心應該按綠色數據中心要求建造。主要介紹綠色數據中心的主要節能技術。如:低能耗服務器、虛擬化技術、市電直供+240V高壓直流(HVDC)、自然冷卻、合理的氣流組織、建筑節能技術。
綠色數據中心;節能技術;用電量
隨著信息化快速發展,全球數據中心建設步伐明顯加快,總量已超過300萬個,耗電量占全球總耗電量的比例為1.1%~1.5%,其高能耗問題已引起各國政府的高度重視。國際上普遍通過應用節能、節水、低碳等技術產品以及先進管理方法建設綠色數據中心(Green Data Center),實現能源效率最大化和環境影響最小化。
近年來,我國數據中心發展迅猛,總量已超過40萬個,年耗電量超過全社會用電量的1.5%[1]。數據中心的能耗主要包括服務器、交換機、存儲系統等IT設備的能耗,也包括空調、配電、照明等輔助系統的能耗。2009年我國數據中心總耗電量約364億kWh,2011年我國數據中心總耗電量約700億kWh,2015年我國數據中心總耗電量約1000億kWh,相當于一個三峽電站一年的發電量。
數據中心是一整套復雜的設施,它不僅包括計算機系統和其他與之配套的設備(如通訊設備和存儲系統),還包括冗余的數據通信連接、環境控制設備、監控設備以及各種安全設備。
綠色數據中心是指數據機房中的IT系統、機械、配電、照明等取得最大化能源利用率和最小化的環境影響,也即提高數據中心的能源效率,盡量減少數據中心整體用電量,盡量增大數據中心整體用電量中用于IT系統的比例,盡量減少用于非計算設備(電源轉換、冷卻等)用電量。
目前對計算機中心能效水平普遍采用大型數據機房PUE值(PUE=數據中心設備總電耗/IT設備電耗)來評價,PUE應≤1.5。國內外新建先進大型數據中心,最低PUE值已經做到1.07~1.2,全年PUE已經做到1.3以下。
以下對綠色數據中心目前主要采取的節能技術進行簡介。
集成電路芯片、電子器件是構成設備的基礎。而芯片器件的能耗也是決定IT設備能耗的主要因素。IT設備需選用低功耗的產品和選用有效用電率高的產品。因此降低芯片器件的能耗、減少散熱量、提高主頻、采用多核、提高密度、減小空間,并使“功耗不變、性能提升”。是現行芯片器件廠商努力和用戶選擇的目標。
數據中心的IT設備主要有:計算機設備、服務器設備、網絡設備、通訊設備、存儲設備等。服務器設備在數據中心中是一項重要的設備,占有較多的數量和空間,也是數據中心中能耗較多的設備。近年來,服務器的形式發生了較大的變化。由原來的主機式、落地式到現在的機架式、刀片式。刀片服務器密度較高比機架式服務器消耗電能要少。刀片式服務器,就是指服務器外形扁而平,活像個刀片,于是形象的叫做“刀片服務器”。在標準高度的機架式機箱內可插裝多個卡式的服務器單元(即刀片,其實際上是符合工業標準的板卡,上有處理器、內存和硬盤等,并安裝了操作系統,因此一個刀片就是一臺小型服務器),這一張張的刀片組合起來,進行數據的互通和共享,在系統軟件的協調下同步工作就可以變成高可用和高密度的新型服務器。這些刀片服務器共用系統背板、冗余電源、冗余風扇、網絡端口、光驅、軟驅、鍵盤、顯示器和鼠標,一個機箱對外就是一臺服務器,而且多個刀片機箱還可以級聯,形成更大的集群系統。因為一個標準機架式機箱通常內置了8~14個刀片服務器,這些服務器是共用冗余電源,所以服務器電源的工作效率得到很大提升。而刀片服務器因為體積小,與同等速度與配置的機架式服務器相比,更加省電與節能。服務器等IT設備要考慮選用高性能的芯片、低能耗器件,并具有冗余電源和冗余散熱送風設施和動態管理模式。
虛擬化是通過軟件實現硬件“綠色節能”的一種有效手段。虛擬化技術是合并多臺使用率比較低的IT設備(服務器設備和存儲設備)到1臺或幾臺高端IT設備上運行。可以將1臺物理服務器虛擬劃分成多個相互隔離的小服務器,并且每個虛擬的小服務器都擁有獨立的IP。虛擬化可以提高系統適應性,提高IT設備的有效利用率,運行較少的服務器并動態關閉不使用的服務器,可降低設備的使用能耗。
我國已經從實驗室測試到進了信息行業應用多年,IT設備采用240V高壓直流供電。在電信運營商和一些大型互聯網公司的數據中心內,已經有數以十萬計的IT設備在240V高壓直流環境下可靠運行幾年了,并且表現出很好的可靠性及節能效果。目前240 V高壓直流技術的可行性已經得到較好驗證,相應的理論分析和實踐經驗也在不斷研究和總結中,240 V直流供電技術已經成為行業熱點,并在不斷改變傳統數據中心供電以UPS為主的格局(見圖1),也以遠超380 V高壓直流技術的應用規模,正逐步流行中國并走向國際。

圖1 數據中心傳統交流供電系統
傳統的UPS系統的效率往往隨著負載率的提升而增加,如果UPS系統長期處于輕載狀態,那么運行的實測效率并沒有達到宣稱的最高效率點。對于2N UPS架構,每套UPS的負載率往往在30%~40%之間,雖然選用了最高效率為94%的UPS,但實際的運行效率很可能只有約90%。
240 V高壓直流系統(見圖2),由于有電池直接掛接母線,那么高壓直流系統是允許節能休眠的,監控會自動開啟需要工作的電源模塊數量,并使電源系統在任何負載情況下都可以工作在最高效率點附近,即高壓直流可以在全負載范圍內都達到94%以上效率,而市電直供支路基本是100%供電效率,因此市電+240 V HVDC綜合供電效率為97%。
服務器具備支持休眠一個電源的功能,那么這種主從模式下,市電主供、高壓直流系統休眠后備,綜合供電效率更是高達99%,實現數據中心供電系統的超高效率。
數據中心傳統交流供電系統(2N UPS)和市電直供+240 V高壓直流(HVDC)供電系統安全性均可達到99.99999999%。

圖2 市電直供+240V高壓直流(HVDC)供電系統
4.1自然冷源
阿里云位于浙江千島湖的數據中心因地制宜采用湖水制冷。深層湖水通過完全密閉的管道流經數據中心,幫助服務器降溫,再流經2.5 km的青溪新城中軸溪,作為城市景觀呈現,自然冷卻后最終潔凈地回到千島湖。
得益于千島湖地區年平均氣溫17℃,其常年恒定的深層湖水水溫,足以讓數據中心90%的時間都不依賴湖水之外的制冷能源,制冷能耗節省超過8成。
千島湖數據中心是國內領先的新一代綠色數據中心,利用深層湖水制冷并采用阿里巴巴定制硬件,設計年平均PUE低于1.3,最低時PUE1.17,也是目前國內亞熱帶最節能的數據中心之一。
Google、Facebook許多數據中心都有用自然冷源冷卻的成功案例。
4.2水冷+自然冷卻供冷
有些數據中心遠離江湖,無法利用到自然水冷源,但可以利用過度季節、冬季空氣的冷源。
大型數據中心制冷空調系統一般采用水冷冷凍機組+精密空調(風機盤管),見圖3。
數據中心中由于服務器、UPS、電壓調節單元、服務器風扇、供電單元、照明消耗電力,最后以熱的方式散發到空間,由于數據中心全年不停運行,即使冬天也要冷凍空調。
冷凍機出水溫度一般控制在15℃,回水溫度控制在22℃。當外界氣溫低于16℃、濕球溫度低于12℃或冷卻塔水溫低于15℃,就可對精密空調器22℃冷凍水回水進行預降溫,但此時冷卻水不能將冷凍水降到15℃,必需和冷凍機串聯,通過冷凍機控制水溫到15℃,但由于冷卻水對冷凍水進行了預冷,可降低冷凍機的電力消耗。當氣溫不斷降低,可逐步減少通過冷凍機的流量,大部分通過旁路,冷凍機和旁路并聯,由于冷卻水溫不穩定,必需通過冷凍機調節混合溫度,精確控制出水溫度在15℃。這時候為部分自然冷卻。
但外界氣溫足夠冷,冷卻水溫降到10℃以下,就可以將22℃冷凍水回水降到15℃,可停開冷凍機,這時候進入全自然冷卻。
在部分自然冷卻階段,用于冷卻冷凍水的冷卻塔和用于冷卻冷凍機冷凝器的冷卻塔,應該分開設置。因為兩個冷卻塔要求不一致,用于冷卻冷凍水的冷卻要求水溫越低越好。用于冷卻冷凍機冷凝器的冷卻水溫不能低于18℃,否則冷凍機會自動停機,可通過不開風機、通過旁路回水方法來保證冷凍機冷凝器的冷卻水溫在20~25℃。

圖3 水冷+自然冷卻系統圖
4.3風冷+自然冷卻供冷技術
中小型數據中心一般采用風冷精密空調,見圖4。
過度季節、冬季利用自然冷卻,可以在回風口和室外加裝熱交換器。二個熱交換器之間用乙二醇水溶液管道連接,通過水泵實行乙二醇水溶液的循環。當氣溫低于20℃時,開啟室外熱交換器的風機、開啟乙二醇水溶液水泵,乙二醇水溶液在回風口熱交換器吸收熱量,到室外熱交換器放出熱量,起到對熱回風預冷的作用,從而降低精密空調器的電力消耗。隨著氣溫越來越降低,自然冷卻效果越來越顯現,由于回風熱交換器已經抵消了大部分熱負荷,精密空調壓縮機開始卸載工作。
回風口熱交換器要注意冬季凝結水的排放。
風冷精密空調器必需是變頻空調,根據送風溫度進行變頻調節。

圖4 風冷+自然冷卻系統圖
數據中心設備需要冷卻以保持最佳的溫度水平。通常的空氣流是通過空調設備(AC)到IT設備,再回到AC設備。有時,氣流可能不會走這條路徑。輸出端的氣流可能會返回到輸入端,從而會降低冷卻效果。
保持熱空氣與冷空氣彼此遠離,可以有效地管理氣流提高冷卻效果,節省成本。通過冷通道封閉(見圖5)或熱通道(見圖6)封閉,防止熱空氣從機架后面泄漏到機架前面,優化冷卻效果。
封閉通道是解決數據中心中高熱密度機柜冷卻問題的有效辦法。封閉冷通道后室內風機送風量可減少30%,室內風機可省電約2/3,封閉熱通道后室內風機送風量可減少12.5%,室內風機可省電約1/3;封閉冷通道后制冷系統的能耗在數據中心整體能耗中所占比例由38%減為35.4%,封閉熱通道后制冷系統的能耗在數據中心整體能耗中所占比例由38%減低為36.7%;數據中心封閉冷通道比封閉熱通道節能2%,比不封閉通道節能4%。一個典型的數據中心的PUE計算實例表明:封閉冷通道后數據中心的PUE值降低0.04,封閉熱通道后數據中心的PUE值降低0.02。
但封閉冷通道機房室內溫度較高,巡回檢查、維修人員工作環境較熱。

圖5 冷通道封閉

圖6 熱通道封閉
建筑節能也即節約建筑物的能源消耗,減少能源損失,提高能源利用率。建筑節能技術主要是,采用新型保溫圍護結構、高效制冷空調、節能照明、利用可再生能源以達到節能的目的。根據云計算數據中心單體建筑和綠色節能的需要,很多建筑節能技術可以在云計算數據中心建設中借鑒和應用,促進云計算數據中心的綠色節能高效。
6.1建筑外形設計節能技術
建筑外形設計節能包括建筑格局朝向、外形結構設計、體形系數、表面面積系數設計等。建筑物的體形系數就是指建筑物與室外大氣接觸的外表面積A(m2)與其所包圍的體積V(m3)的比值。外表面積中,不包括地面和不采暖樓梯間隔墻和戶門的面積。在其他條件相同的情況下,建筑物耗熱量指標隨體形系數的增長而增長。研究表明,體形系數每增大0.01,能耗指標大約增加2.5%。從有利于節能出發,體形系數應盡可能地小。在相同體積的建筑中,以立方體的體形系數為最小。
6.2建筑圍護結構節能技術
墻體采用巖棉、玻璃棉、聚苯乙烯塑料、聚胺酯泡沫塑料及聚乙烯塑料等新型高效保溫絕熱材料以及復合墻體,降低外墻傳熱系數。
采取增加窗玻璃層數、窗上加貼透明聚酯膜、加裝門窗密封條、使用低輻射玻璃(low-E玻璃)、封裝玻璃和絕熱性能好的塑料窗等措施,改善門窗絕熱性能,有效阻擋室內空氣與室外空氣的熱傳導。
采用高效保溫材料保溫屋面、架空型保溫屋面、浮石沙保溫屋面和倒置型保溫屋面等節能屋面。在南方地區和夏熱冬冷地區采用屋面遮陽隔熱技術。
適當的外遮陽布置,會比內遮陽對減少日射得熱更為有效。有的時候甚至可以減少日射熱量的70%~80%。外遮陽可以依靠各種遮陽板、建筑物的遮擋、窗戶側檐、屋檐等發揮作用。
6.3提高冷凍機能效技術
采用地(水)源冷凍機,由于地源、水源溫度比較低,可降低冷凍機的冷凝壓力,大大提高冷凍機COP,降低冷凍機的能耗。
提高冷凍機出水溫度,一般冷凍機標準出水溫度為7℃,這個工況下冷凍機一級能效可達到COP=6.2,當冷凍機出水溫度達到15℃,冷凍機COP可達到8以上。
采用磁懸浮冷凍機,在傳統的制冷壓縮機中,機械軸承是必需的部件,并且需要有潤滑油以及潤滑油循環系統來保證機械軸承的工作。機械軸承不僅產生磨擦損失,潤滑油隨制冷循環而進入到熱交換器中,在傳熱表面形成的油膜成為熱阻,影響換熱器的效率,過多的潤滑油存在于系統中對制冷效率帶來很大的影響。
磁懸浮軸承是一種利用磁場,使轉子懸浮起來,從而在旋轉時不產生機械接觸、機械磨擦,不再需要機械軸承和潤滑系統。這種新型的壓縮機無需潤滑油,無油化設計不僅排除了油污染對制冷效率的影響,同時也減少了油熱器、油泵、油分離器、油過濾器等配件。
這種新型的壓縮機采用兩級離心式壓縮機。新型的壓縮機還結合了數字變頻控制技術,壓縮機的轉速可以在15 000~48 000 r/min之間調節。
無摩擦和離心壓縮方式使壓縮機獲得了高達COP=5.6的滿負荷效率,而變頻控制技術則使壓縮機獲得了IPLV=8.58極其優異的部分負荷效率,壓縮機比其它品牌同種型號的節能48%。
6.4冰蓄冷、水蓄冷技術
冰蓄冷、水蓄冷技術可有效解決能量供給與需求時間上的不匹配問題,提高系統安全性。在制冷系統中應用冰蓄冷、水蓄冷技術,是實現電網的“削峰填谷”的重要途徑。
6.5利用再生能源技術
太陽能、風能、生物質能、海洋能、地熱能等都屬于可再生清潔能源。太陽能一體化建筑是當前太陽能利用的發展趨勢。利用太陽能光伏發電技術為建筑物供電。
6.6照明節能技術
采用智能照明系統,實現按需照明;盡量利用自然光(頂部天窗,屋頂采光等);推廣使用LED節能燈,比熒光燈的節電50%~60%。
6.7變頻節能技術
冷凍機、冷凍水泵、冷卻水泵采用變頻技術,根據負荷變化,自動調節冷凍機、冷凍水泵、冷卻水泵轉速,降低冷凍機、冷凍水泵、冷卻水泵功耗。
Main Energy Saving Technologies of Green Data Center
Shen Shizhen, Shen Pei Shanghai Energy Efficiency Center
To improve data center energy efficiency, it is key to reduce whole data center electric power consumption and improve ratio of IT equipment electrical power consumption among whole data center electric power consumption. Newly-built data center construction standard is according to green data center standard. The article introduces main energy saving technologies of green data center, such as low energy consumption servers,virtualization technology, main power direct supply plus 240v high voltage direct current, free cooling, reasonable air distribution and architecture energy saving technologies.
Green Data Center, Energy Saving Technologies, Electrical Power Consumption
10.13770/j.cnki.issn2095-705x.2016.08.009