

2014年元旦前后,國內云計算領域發生的幾件事情引人關注:之前,亞馬遜AWS、IBM SCE+ 宣布正式入華;之后,阿里巴巴、百度、京東、藍汛、世紀互聯等10家云服務商通過可信云服務認證。不難看出,國內的云計算市場在經歷多年醞釀之后迎來發展的高峰。而在國外,有統計顯示2013年的IT投入中,70%的CIO首先考慮云計算;在IT服務領域,云服務的占比上升至45%。隨著基礎設施的完善和應用的落地,云計算目前已經成為IT市場的強大力量。
云計算的實現離不開數據中心的支持,而云計算自身也在驅動數據中心變革。云計算架構的核心在于各類資源的虛擬化,與傳統架構相比IT軟硬件系統發生很大變化,特別是硬件,主要表現為IT設備的高度集中、高發熱、高耗能,驅使底層的風火水電等配套設施相應作出改變。
數據中心的變化可以從“宏觀”和“微觀”兩個角度去解析。在剛剛結束的2013IDC產業大典上,來自工信部的領導表示,目前數據中心呈現規模化、綠色化的發展態勢。2013年8月份國務院發布的《國務院關于促進信息消費擴大內需的若干意見》提出了統籌互聯網數據中心等云計算基礎設施布局的發展方向,在同期發布的關于加快發展節能環保產業的意見則重點提出了開展數據中心節能改造,降低數據中心、超算中心服務器、大型計算機冷卻能耗等要求。
“宏觀”的大方向可以歸結為規模化和低能耗,其核心在于追求PUE以及數據中心總能耗的降低。然而,數據中心內部IT設備在朝著高密度、高熱量、高耗能的方向發展,因此“微觀”面與“宏觀”面看起來是背道而馳的。以Google數據中心為例,Google提出“容積比”的概念,數據中心單機柜設備密度很高,電量消耗巨大,平均每機柜供電功率要求高達14KW。這個數字究竟有多高?根據機房電源專家、中達電通關鍵基礎架構產品開發處高級經理李南的介紹,傳統數據中心單機柜供電功率一般在2KW3KW之間,云數據中心單機柜一般能在7KW8KW,而能夠達到10KW就算很高了。由此可見,Google在供電功率的要求上達到一個極致。
不難看出,云數據中心基礎設施建設需要解決兩個問題:一是供電功率的提升對電源部分的要求;二是高密度、高功率帶來的高發熱問題對制冷系統的要求。云數據中心由于虛擬化技術的應用給供電和制冷帶來的顯著問題是“動態負載”。據李南介紹,動態負載是由虛擬化技術帶來的機柜負載大幅度跳變,“比如上午某機柜負載功率是5KW,而到了下午很有可能轉到了其他機柜。在日常運行中,負載動態變化對供電的影響較小,對環境基礎設施影響較大,尤其是制冷系統。”一般情況下,數據中心制冷的能效決定了PUE的高低。所以,電源和制冷系統是否“給力”,是云數據中心是否符合“宏觀發展”的關鍵。
供電設計多樣化 直流UPS領風騷
數據中心對供電的首要訴求是穩定性,即保障數據中心業務穩定、安全、可靠地持久運行。不過,行業屬性對可靠性的要求存在較大差異。李南比較了傳統互聯網和金融業,他說:“如果用戶瀏覽百度時忽然間中斷幾分鐘,可能大部分人不以為意,但是銀行數據中心一旦發生宕機,其損失和影響非同小可。對銀行來說,供電穩定是業務安全的一部分,又提高了一個層次。數據中心的差異,如同過去 IDC機房區分VIP區和普通用戶區,都源自客戶的不同要求。”
云數據中心供電設計面對的問題可概括為:設備集中、供電集中、熱量集中、動態負載。李南表示,與過去相比,密度提高以后供電設計也發生改變,原來的數據中心多采用集中式供電,但現在超大型的數據中心耗電量驚人,需要將原來的大集中式供電變成區域式供電,同時運營商也在嘗試分布式供電(一個電源帶幾個機柜)。“電源有容量的限制,所以集中化帶來不同的供電模式,而且這三種方式都有應用。這是設計方法上的變化。”
可靠性的執行有標準可依,如TIA-942。據李南介紹,以Tier4為例,在供電上要做雙系統,即通常講的2N系統,兩條母線同時運行,當一條母線出現問題,另一條母線可以完全擔負所有負載。具體到產品上,直流UPS由于減少了逆變環節,實際上提高了系統的可靠性,同時在成本上也會更低。他說:“中達電通是國內最早做直流UPS的廠家,產品已經在某運營商部署并穩定運行3年時間。”業界普遍認為直流UPS代表UPS未來的發展方向。而對于目前沒有大面積推廣的原因,李南認為有以下幾點:第一,直流UPS尚未形成統一標準,無法滿足合規要求。第二,標準的改革牽涉各方利益,IT廠商不愿意過多地調整電源輸入端。第三,客戶的習慣不容易被打破,雖然互聯網企業和運營商有意愿也善于嘗試新技術,但其他的行業用戶由于技術較弱相對保守一些。“傳統金融業比較特殊,比如銀行的技術較強,但是由于業務的敏感性,他們不愿嘗試新的技術。”他說。
多手段降低PUE 數據中心運營更給力
數據中心的可靠性固然重要,但李南也提到成本的重要性:在很多互聯網企業眼里,他們更青睞降低PUE,愿意犧牲一定的可靠性換取更低的能耗以節省成本。由于互聯網企業的數據中心長年運行,此舉節省的運營成本非常可觀。李南將這類數據中心描述為“規模大,PUE低”, “在能耗方面,類似百度和Google這樣的公司會想很多辦法,比如百度嘗試使用了UPS的ECO(經濟模式)功能,即市電常供,出現問題后切換到電池。ECO模式帶來供電效率的提高,雖然提升的量很小,但卻值得百度這類規模巨大的數據中心去關注。目前國內用戶很少會選擇UPS的ECO功能,但國外已經比較普遍了。”
這種犧牲一點可靠性換取經濟性的方法值得借鑒。因為云計算能夠實現對資源的隨時調度,理論上一個節點的故障不會影響整體業務的運行。不過李南指出,供電的努力對PUE的降低非常有限,更大的發揮空間應該在制冷系統。“整個供配電系統從最前端到最后端,直流相比交流的效率提升為0.5~1個百分點。所以機房里供電的改善不是主要的,對PUE的降低貢獻最大的還是冷卻部分。”他說。
李南指出,在制冷上降低PUE可行的方法,一是封閉冷熱通道,投資低見效快;二是使用冷凍水型的空調。毫無疑問,免費制冷是降低PUE值的最佳手段,但對選址的要求比較苛刻,并非可以普遍推廣的手段。而中達電通的臺達機房空調節能解決方案應用精密空調和先進的節能空調技術,精密掌控溫濕度,維持機房最佳狀態,節能達30%。來自ICTresearch去年的數據顯示,機房節能空調現在占比約為整體市場的50%,而在未來5-8年,節能空調的比例將占整體的市場70%以上的規模,達到28億元左右。
李南說:“真正談到PUE,要看兩個方面,一是要看冷卻怎么做,另一個要真正把能耗管理起來。”中達電通提供的臺達數據中心環境監控管理系統EMS,可以做到能源動態管理,而非傳統數據中心只做動力環境監控。EMS能夠對整個數據中心運行以后的動態PUE進行監控,通過監控各個時段顯示的PUE數據,可了解機房設備的能源消耗情況,實現PUE的實時監控與分析。目前EMS3000已經入駐陜西廣播電視臺,為其提供從UPS、配電、精密空調、機柜及配件到環境監控系統的InfraSuite完整解決方案。
“只有發現問題才能解決問題,所以管理是很重要的事情。你是否真正理解你的機房,真正了解能耗在哪?”這是李南發人深省的一問。正是基于這樣的認識,中達電通為數據中心運行理清了脈絡,真正成為云計算的“給力者”。