天天看點

帶你讀《企業數字化基石-阿裡巴巴雲計算基礎設施實踐》第三章資料中心能效3.1資料中心電能使用率(一)

資料中心能效是資料中心技術水準的重要衡量名額,随着資料中心規模和能源消耗的迅速增長,資料中心能效的作用越來越重要,下面将分别從資料中心電能使用率、資料中心伺服器電能使用率、資料中心基礎資源使用率等名額進行分析。

3.1 資料中心電能使用率

資料中心電能使用率(PowerUsageEffectiveness,PUE)作為資料中心能效最重要的衡量名額,已經深入人心,PUE的定義如圖 3-1所示。圖 3-2給出了計算 PUE的各個能耗名額的常用測量點,PUE的簡便計算方法如下:

PUE=(P1+P2-P4)/P3

其中:

P1:市電引入資料中心内電壓輸入處測量點M1的測量電量。

P2:資料中心内發電裝置等為資料中心運作而儲備的發電量。

P3:資料中心 IT  裝置用電量。

P4:與資料中心運作無關的用電量。

阿裡巴巴在過去的 10年中,資料中心 PUE從 2.0降至最低的 1.07,在資料中心能效方面取得了巨大的成就。我們以一個 10 萬台伺服器的資料中心為例進行說明。如果該資料中心年均 PUE為 2,則年營運電費約為 5億元 ;如果 PUE降低到1.07,則年電費大約為2.6億元。實作低 PUE不僅可以大幅度降低營運的電費,同時也可以實作在同樣的外部電力資源前提下安裝更多的 IT裝置,并且改善資料中心用電裝置的運作狀态。對于資料中心而言,持續降低資料中心PUE的觀念已經深入人心。在大多數人的印象中,談到 PUE就首先會想到資料中心的散熱系統,實際上影響資料中心PUE的包括了資料中心的各個系統,如資料中心的散熱系統、供電系統、采暖系統、弱電控制系統和建築系統等,下面将分别對影響資料中心PUE的各個因素進行分析。

帶你讀《企業數字化基石-阿裡巴巴雲計算基礎設施實踐》第三章資料中心能效3.1資料中心電能使用率(一)

對于大多數資料中心來說,散熱系統耗能占比往往僅次于資料中心 IT 裝置用電,而散熱系統能效提升也成為資料中心能效提升的重要課題。為了清楚區分散熱系統能效貢獻,我們将散熱系統分為冷源、末端、智能控制,并分别分析能效影響和提升方法。冷源系統能效提升主要考慮如下幾個方面。

(1)選擇更加高效的冷源裝置,比如更高效的冷機、水泵、冷塔、闆式換熱器等 ;對于資料中心來說,冷源系統年平均運作時間比較長,采用更加高效的冷源裝置除了更加節能,往往在調優 TCO(一次性采購成本 + 運作電費)方面更加有優勢。

(2)選擇更加節能的冷源系統工況,由于冷源裝置的運作最佳負載效率點往往并不在接近滿負荷處,是以需要選擇更加合适的供/回水溫差、供 /回水溫度,根據負載大小和對應性的冷源裝置的運作能效選擇開啟一台或多台冷源裝置(冷機、水泵、冷卻塔),都可以實作更好的能效。例如在一台冷機或水泵接近滿負載的時候,往往開啟兩台平均分擔負載會更加節能 ;根據運作經驗,每提高 1℃的出水溫度,冷水機組的制冷量将提高3% ~4%,而功耗約增加 1% 左右。從圖 3-3 不難看出,随着出水溫度的提高,制冷量和用電功率都在增加,但制冷量的增幅更大。

帶你讀《企業數字化基石-阿裡巴巴雲計算基礎設施實踐》第三章資料中心能效3.1資料中心電能使用率(一)

圖 3-3電功率與制冷量對比

(1)盡可能多地使用自然冷或延長自然冷時間。對于冷源系統來說,可以通過提高供/回水溫度或者降低冷源與外界交換的溫差來延長自然冷時間。其中,提高供/回水溫度對于冷源自然冷來說最為直接,但是在機房溫度确定的前提下,供 /回水溫度提高是有限的,往往到一定限度,比如供水溫度在18℃~20℃以後就很難再提升,如圖 3-4 所示 ;對于降低冷源與外界交換溫差方面,我們可以選擇更大的冷凝器或者冷卻塔,冷凝器盡量采用濕式代替風冷,選擇更大的闆式換熱器等,這方面設計優化在能效上帶來的收益往往遠超過一次性的投入。

(2)對于冷源系統來說,更加合理的裝置管路布局也可以實作更好的運作能效,比如更加短的管路、更合理的運作壓差、更加小的高度差。這也包括室内和室外裝置的布局方式,往往在冬季冷源裝置和管道需要通過加熱防凍,這部分能耗也要考慮。

資料中心制冷末端形式多樣,例如 AHU空調、房間級空調、列間空調、背闆等,主要差别來自末端與資料中心 IT裝置的位置關系,理論上看同樣的末端距離IT裝置越近,風機能耗越少。制冷末端大都采用盤管 + 風機,如在大型資料中心廣泛采用的 CRAH,将冷源裝置提供的水側冷量轉換為風側冷量,再輸送給 IT裝置區域進行冷卻。接下來以冷凍水系統中精密空調CRAH為例介紹資料中心末端能效提升的方法。

帶你讀《企業數字化基石-阿裡巴巴雲計算基礎設施實踐》第三章資料中心能效3.1資料中心電能使用率(一)

圖 3-4進出口水溫

(1)風機是空氣散熱的制冷末端的主要裝置。選用合适、高效的風機,可以實作非常好的能效提升。制冷末端使用的風機類型主要有離心風機(Centrifugal)、軸流風機(Axial)、混流風機(MixedFlow),如圖 3-5所示。三種風機的峰值如表3-1所示。

帶你讀《企業數字化基石-阿裡巴巴雲計算基礎設施實踐》第三章資料中心能效3.1資料中心電能使用率(一)
帶你讀《企業數字化基石-阿裡巴巴雲計算基礎設施實踐》第三章資料中心能效3.1資料中心電能使用率(一)

直接影響末端能效除了風機本身能效和技術,更加重要的是選擇合理的風機大小和工作模式。衆所周知,風機能耗和轉速三次方成正比,是以選擇與負載特性比對的轉速、風壓、風速的風機,對于提升能效至關重要。

(2)  末端盤管節能主要考慮兩個方面 :一方面是盤管的空氣阻力大小與風機功耗直接相關,是以在滿足散熱運作的前提下盡量選擇阻力比較小的盤管及盤管的附件等 ;另一方面是選擇盤管的大小和形式也與供/回水溫度直接相關,合理的盤管選型可以提升換熱效率,使得供水溫度和供風溫度最大優化使用。

(3)  除了風機、盤管,影響制冷末端能效的另一個關鍵名額就是供回風溫度及其溫差。一般的供風溫度和回風溫度越高,冷源可以利用自然冷時間越長,能效也越好,但是供風溫度高會導緻IT裝置營運風險,這推動了資料中心做冷熱氣流隔離,即熱通道或冷通道密封。冷熱氣流隔離可以減少冷熱氣流混合短路風險,不僅提升了能效,也有效減少了資料中心 IT裝置因為熱空氣回流而導緻的過熱的風險,如圖 3-6所示。

帶你讀《企業數字化基石-阿裡巴巴雲計算基礎設施實踐》第三章資料中心能效3.1資料中心電能使用率(一)

圖 3-6冷熱氣流隔離方案

在制冷末端的設計中,需要以使用場景确定空調工況條件、風機流量、揚程及安裝結構等要求作為選型的輸入條件,這樣才能獲得比較好的能效,例如制冷末端進風溫度為 37℃,送風溫度為 25℃,制冷量為 30kW,則可計算出需要的風量:

V=Q/(Cp×ρ×Δt)=30×3600/(1.01×1.2×(37-25))=7426m3/h

根據水溫、風溫、空調尺寸(高 2150mm×寬 600mm× 厚度 200mm)計算出盤管參數。盤管參數确定後計算空調風側的阻力,得到結果約為 80Pa。

根據空調結構确定風機的氣流方式和尺寸要求,背闆空調厚度尺寸要求盡量小,使得風機的厚度尺寸要薄,而離心風機和大直徑的軸流風機不适用于此要求。根據這些要求,可初步确定使用小直徑的軸流或混流風機。

根據風量和風側阻力在風機性能曲線上的位置确定風機的性能是否滿足要求,如圖 3-7 所示

帶你讀《企業數字化基石-阿裡巴巴雲計算基礎設施實踐》第三章資料中心能效3.1資料中心電能使用率(一)

圖 3-7風機性能

根據以上條件最終确定了風機使用39個 120mm直徑的軸流風機 :DYPA1238B8M-PQ-460,其結構如圖 3-8 所示。

散熱系統中除了冷源和末端能效提升等方法,在運作中獲得最佳能效還取決于資料中心散熱系統的智能控制。智能控制系統需要實時根據邊界條件保證資料中心的最佳能效和運作安全。這些邊界條件除了散熱系統冷源裝置、制冷末端、各個傳感器來控制器,還包括 IT裝置的運作參數

(例如溫度、功率、風量),也包括了外部的自然條件(例如溫度、濕度、空氣品質)。阿裡資料中心設計的智能按需散熱系統(ODC)通過使用 IT裝置運作的功率、風量、溫度結合整個散熱系統元件和外部參數來實作變溫度控制,在保證資料中心運作安全的前提下實作最佳能效。

在資料中心的設計和運作中,供電系統的能效往往被忽視,而供電系統能效提升對于資料中心 PUE影響巨大。資料中心中幾乎所有的能源消耗都來自電力,包括本身的 IT 耗電、散熱系統等,供電系統能效提升比散熱系統能效提升的難度會更大,但是一旦實作就可以獲得更多的收益。我們将資料中心供電系統分為變配電系統和電源系統,從這兩個方面分别介紹能效提升的辦法。

帶你讀《企業數字化基石-阿裡巴巴雲計算基礎設施實踐》第三章資料中心能效3.1資料中心電能使用率(一)

圖3-8 軸流風機結構

對于變配電系統,往往包括了變壓器、電能品質處理裝置、中壓和低壓配電裝置等,這些裝置中多數的特點是容量大(MW級起步)、損耗比例較少(大約1%),而且大多數溫度不敏感,耐溫能力較強(可以長時間運作在30℃以上),也有個别裝置比如操作電源、電容和電能品質處理裝置等溫度相對敏感損耗比較大。對于變配電系統節能,我們主要從變配電系統電能損耗和變配電系統的環境能耗來考慮。

(接下)

繼續閱讀