黃浩
在倡導綠色節能的今天,電源使用效率(PUE)常常被視為數據中心能源使用的重要考量指標。對此,Gartner研究副總裁RakeshKumar表示,在能源相關成本大約占到總數據中心開支的12%,并且是數據中心內增長最快的一項。他認為,隨著企業機構逐漸走出經濟危機時期并開始升級技術基礎架構,數據中心電力、冷卻、能源供應和成本問題或將在未來幾年繼續惡化。對于大多數大型數據中心來說,持續監測能源利用效率(PUE)將成為一種常態。到2015年,80%的新建大型數據中心提供對整個數據中心的持續PUE數據報告。
PUE是Power Usage Effectiveness的簡寫,是評價數據中心能源效率的指標,是一個數據中心IT設備能耗占總體能耗的比值,IT設備包括服務器、存儲、網絡設備等;總體能耗還要包括照明、冷卻系統、空氣循環系統以及其他設備的能耗。如果數據中心PUE為2.0,這表示計算設備消耗1千瓦時電能,就要額外開銷1千瓦時。理想情況下,數據中心PUE值要盡可能接近1。根據調研機構Uptime Institute統計,2011年全球數據中心平均PUE值為1.83,這表示計算設備的電力開銷平均為83%,這是針對全球525個數據中心運營商的調查,其中71%位于北美。中國信息協會副會長李元香曾表示,我國數據中心的PUE均值超過1.5,這是一個很高的數字,也從側面反映出我們有很大的改進空間。因此,國外一些PUE值接近1.1的數據中心,其經驗則值得借鑒。
PUE值<1.1
Facebook龐大的用戶基數給其數據中心帶來了巨大的壓力,當Facebook的用戶基數突破了10億的時候,隨著這些用戶不斷地上傳存儲數以億計的圖片、視頻及每日狀態更新消息,這意味著Facebook需要更多的服務器,更大面積的數據中心。Fcebook因此建立了它的第二個數據中心,并號稱這個位于北卡羅來納州的數據中心將是全世界最節能的數據存儲中心之一。
來自Facebook的官方資料介紹稱,這個位于北卡羅來州納福里斯特城的新數據中心的預期電源使用效率將在1.06到1.08之間。而為了這一數值的實現:首先,該數據中心采用了Open Computer Project2.0版本的網絡服務器,還使用了英特sandyBridge處理器的平臺。其次,新工程將采用戶外空氣冷卻的設計方法,這次也是首次的現場測試,與以往典型的數據中心不同,戶外空氣冷卻的設計將在全新的溫度和濕度環境下運行服務器。
相較之下,雅虎在紐約洛克波特的數據中心也不遑多讓,PUE值達到了1.08。雅虎計算中心位于紐約州北部不遠的尼亞加拉大瀑布,是一個為期5年徹底重新考慮公司需求的數據中心設計的結果。雅虎的團隊完善了其設計理念,建立起了更快,更便宜的數據中心,將大大超過以往數據中心。并且,每幢建筑看上去就像一個巨大的雞窩。“該建筑本身就是一個空氣處理程序。”因此,這座數據中心并沒有提供水冷系統以及冷藏機組,但它也是密度非常高的數據中心,一切散熱都是通過空氣來完成。雅虎數據中心運營總監Scott Noteboom說,“整個建筑是為了更好的‘呼吸,能夠形成很大的天窗和阻尼器來控制氣流。每年Lockport數據中心節省下來的電能,可以為9000戶居民進行供電,并且一年能夠節省足夠20萬人的飲用水資源”。由此可見,數據中心周圍的自然環境對其PUE值有著重要的貢獻。
但問題在于,并不是所有的數據中心都有著優良的自然環境,尤其是對于那些老舊的數據中心來說,只能通過改良的方式進行節能優化。在這方面,谷歌和曙光都有著優秀的實施經驗。
改造傳統數據中心
高密度和高PUE值似乎是一對孿生兄弟。一方面,高密度部署方案是多數數據中心能夠在寸土寸金的都市,在現有數據中心基礎上,不擴大面積或現有建筑空間的基礎上拓展業務的有效手段。記者了解到,以高密度快速提升計算能力,以全封閉降低能源使用率——集裝箱數據中心,這是HP、IBM、SUN、Google、微軟等頂級IT硬件商、服務商共同的解決方案。但是另一方面,高密度部署也意味著高能耗的出現。據IDC的一份報告顯示,自2004年以來,服務器的平均價格降低了18%。另一方面,如果一個數據中心的冷卻系統跟不上服務器密度的發展,那么建設高密度數據中心就變成了一句空談。
在2012年第一季度,谷歌報告2011年其數據中心平均PUE值為1.14,這表示計算設備的能耗開銷只有14%。在2010年,谷歌數據中心平均PUE為1.16,而在2008年谷歌剛剛開始跟蹤能耗的時候平均PUE為1.22。
谷歌方面認為,降低數據中心PUE值需要多方面設計,其中包括服務器設備、氣流分析、電源轉換效率等等。另外,谷歌通過提高網絡中心的運營效率,可以降低數據中心PuE值。過為了演示優化數據中心的過程,谷歌特意挑選了五個PUE值在2.2到2.4之間的網絡數據中心進行改造。在前期投入20000美金之后,谷歌能夠將這五個網絡數據中心的PUE值降低到1.5到1.6之間。該項目包括氣流分析,優化電源布局,以地磚直接冷卻方式,減少了制冷的輸出,消除了制冷的供過于求,將數據中心溫度提高至27攝氏度等項目。目前谷歌數據中心正在努力尋找和部署高轉換效率的UPS電源單元。一些UPS系統已經達到了95%以上的轉換效率。
在國內,曙光公司的改造方式是,通過旗下的Cloud BASE方案,采用模塊化設計、空調就近制冷、機柜或機柜排內部封閉氣流組織形式、柜頂走線設計等多種先進技術。將PUE指數牢牢控制在2.0以內。在華東地區的曙光無錫云計算中心,采用的就是Cloud BASE解決方案,僅用了13套C1000設備就能保障數據高速運轉,并使主機房面積控制在210平米,最終將PUE控制在1.5。記者了解到,采用同樣解決方案的成都云計算中心PUE值為1.6,上海超算中心PUE值最高為1.7,中國電信北京數據中心PUE值最低為13。
而針對高密度數據中心未來的發展趨勢,大多數的專家認為,隨著技術的發展,技術設施服務提供商可能更傾向于在更多的地方建立數據中心部署服務器,而不是在一個數據中心內提高服務器的密度。