天天看点

带你读《企业数字化基石-阿里巴巴云计算基础设施实践》第三章数据中心能效3.1数据中心电能利用率(一)

数据中心能效是数据中心技术水平的重要衡量指标,随着数据中心规模和能源消耗的迅速增长,数据中心能效的作用越来越重要,下面将分别从数据中心电能利用率、数据中心服务器电能利用率、数据中心基础资源利用率等指标进行分析。

3.1 数据中心电能利用率

数据中心电能利用率(PowerUsageEffectiveness,PUE)作为数据中心能效最重要的衡量指标,已经深入人心,PUE的定义如图 3-1所示。图 3-2给出了计算 PUE的各个能耗指标的常用测量点,PUE的简便计算方法如下:

PUE=(P1+P2-P4)/P3

其中:

P1:市电引入数据中心内电压输入处测量点M1的测量电量。

P2:数据中心内发电设备等为数据中心运行而储备的发电量。

P3:数据中心 IT  设备用电量。

P4:与数据中心运行无关的用电量。

阿里巴巴在过去的 10年中,数据中心 PUE从 2.0降至最低的 1.07,在数据中心能效方面取得了巨大的成就。我们以一个 10 万台服务器的数据中心为例进行说明。如果该数据中心年均 PUE为 2,则年运营电费约为 5亿元 ;如果 PUE降低到1.07,则年电费大约为2.6亿元。实现低 PUE不仅可以大幅度降低运营的电费,同时也可以实现在同样的外部电力资源前提下安装更多的 IT设备,并且改善数据中心用电设备的运行状态。对于数据中心而言,持续降低数据中心PUE的观念已经深入人心。在大多数人的印象中,谈到 PUE就首先会想到数据中心的散热系统,实际上影响数据中心PUE的包括了数据中心的各个系统,如数据中心的散热系统、供电系统、采暖系统、弱电控制系统和建筑系统等,下面将分别对影响数据中心PUE的各个因素进行分析。

带你读《企业数字化基石-阿里巴巴云计算基础设施实践》第三章数据中心能效3.1数据中心电能利用率(一)

对于大多数数据中心来说,散热系统耗能占比往往仅次于数据中心 IT 设备用电,而散热系统能效提升也成为数据中心能效提升的重要课题。为了清楚区分散热系统能效贡献,我们将散热系统分为冷源、末端、智能控制,并分别分析能效影响和提升方法。冷源系统能效提升主要考虑如下几个方面。

(1)选择更加高效的冷源设备,比如更高效的冷机、水泵、冷塔、板式换热器等 ;对于数据中心来说,冷源系统年平均运行时间比较长,采用更加高效的冷源设备除了更加节能,往往在调优 TCO(一次性采购成本 + 运行电费)方面更加有优势。

(2)选择更加节能的冷源系统工况,由于冷源设备的运行最佳负载效率点往往并不在接近满负荷处,所以需要选择更加合适的供/回水温差、供 /回水温度,根据负载大小和对应性的冷源设备的运行能效选择开启一台或多台冷源设备(冷机、水泵、冷却塔),都可以实现更好的能效。例如在一台冷机或水泵接近满负载的时候,往往开启两台平均分担负载会更加节能 ;根据运行经验,每提高 1℃的出水温度,冷水机组的制冷量将提高3% ~4%,而功耗约增加 1% 左右。从图 3-3 不难看出,随着出水温度的提高,制冷量和用电功率都在增加,但制冷量的增幅更大。

带你读《企业数字化基石-阿里巴巴云计算基础设施实践》第三章数据中心能效3.1数据中心电能利用率(一)

图 3-3电功率与制冷量对比

(1)尽可能多地使用自然冷或延长自然冷时间。对于冷源系统来说,可以通过提高供/回水温度或者降低冷源与外界交换的温差来延长自然冷时间。其中,提高供/回水温度对于冷源自然冷来说最为直接,但是在机房温度确定的前提下,供 /回水温度提高是有限的,往往到一定限度,比如供水温度在18℃~20℃以后就很难再提升,如图 3-4 所示 ;对于降低冷源与外界交换温差方面,我们可以选择更大的冷凝器或者冷却塔,冷凝器尽量采用湿式代替风冷,选择更大的板式换热器等,这方面设计优化在能效上带来的收益往往远超过一次性的投入。

(2)对于冷源系统来说,更加合理的设备管路布局也可以实现更好的运行能效,比如更加短的管路、更合理的运行压差、更加小的高度差。这也包括室内和室外设备的布局方式,往往在冬季冷源设备和管道需要通过加热防冻,这部分能耗也要考虑。

数据中心制冷末端形式多样,例如 AHU空调、房间级空调、列间空调、背板等,主要差别来自末端与数据中心 IT设备的位置关系,理论上看同样的末端距离IT设备越近,风机能耗越少。制冷末端大都采用盘管 + 风机,如在大型数据中心广泛采用的 CRAH,将冷源设备提供的水侧冷量转换为风侧冷量,再输送给 IT设备区域进行冷却。接下来以冷冻水系统中精密空调CRAH为例介绍数据中心末端能效提升的方法。

带你读《企业数字化基石-阿里巴巴云计算基础设施实践》第三章数据中心能效3.1数据中心电能利用率(一)

图 3-4进出口水温

(1)风机是空气散热的制冷末端的主要设备。选用合适、高效的风机,可以实现非常好的能效提升。制冷末端使用的风机类型主要有离心风机(Centrifugal)、轴流风机(Axial)、混流风机(MixedFlow),如图 3-5所示。三种风机的峰值如表3-1所示。

带你读《企业数字化基石-阿里巴巴云计算基础设施实践》第三章数据中心能效3.1数据中心电能利用率(一)
带你读《企业数字化基石-阿里巴巴云计算基础设施实践》第三章数据中心能效3.1数据中心电能利用率(一)

直接影响末端能效除了风机本身能效和技术,更加重要的是选择合理的风机大小和工作模式。众所周知,风机能耗和转速三次方成正比,因此选择与负载特性匹配的转速、风压、风速的风机,对于提升能效至关重要。

(2)  末端盘管节能主要考虑两个方面 :一方面是盘管的空气阻力大小与风机功耗直接相关,所以在满足散热运行的前提下尽量选择阻力比较小的盘管及盘管的附件等 ;另一方面是选择盘管的大小和形式也与供/回水温度直接相关,合理的盘管选型可以提升换热效率,使得供水温度和供风温度最大优化使用。

(3)  除了风机、盘管,影响制冷末端能效的另一个关键指标就是供回风温度及其温差。一般的供风温度和回风温度越高,冷源可以利用自然冷时间越长,能效也越好,但是供风温度高会导致IT设备运营风险,这推动了数据中心做冷热气流隔离,即热通道或冷通道密封。冷热气流隔离可以减少冷热气流混合短路风险,不仅提升了能效,也有效减少了数据中心 IT设备因为热空气回流而导致的过热的风险,如图 3-6所示。

带你读《企业数字化基石-阿里巴巴云计算基础设施实践》第三章数据中心能效3.1数据中心电能利用率(一)

图 3-6冷热气流隔离方案

在制冷末端的设计中,需要以使用场景确定空调工况条件、风机流量、扬程及安装结构等要求作为选型的输入条件,这样才能获得比较好的能效,例如制冷末端进风温度为 37℃,送风温度为 25℃,制冷量为 30kW,则可计算出需要的风量:

V=Q/(Cp×ρ×Δt)=30×3600/(1.01×1.2×(37-25))=7426m3/h

根据水温、风温、空调尺寸(高 2150mm×宽 600mm× 厚度 200mm)计算出盘管参数。盘管参数确定后计算空调风侧的阻力,得到结果约为 80Pa。

根据空调结构确定风机的气流方式和尺寸要求,背板空调厚度尺寸要求尽量小,使得风机的厚度尺寸要薄,而离心风机和大直径的轴流风机不适用于此要求。根据这些要求,可初步确定使用小直径的轴流或混流风机。

根据风量和风侧阻力在风机性能曲线上的位置确定风机的性能是否满足要求,如图 3-7 所示

带你读《企业数字化基石-阿里巴巴云计算基础设施实践》第三章数据中心能效3.1数据中心电能利用率(一)

图 3-7风机性能

根据以上条件最终确定了风机使用39个 120mm直径的轴流风机 :DYPA1238B8M-PQ-460,其结构如图 3-8 所示。

散热系统中除了冷源和末端能效提升等方法,在运行中获得最佳能效还取决于数据中心散热系统的智能控制。智能控制系统需要实时根据边界条件保证数据中心的最佳能效和运行安全。这些边界条件除了散热系统冷源装置、制冷末端、各个传感器来控制器,还包括 IT设备的运行参数

(例如温度、功率、风量),也包括了外部的自然条件(例如温度、湿度、空气质量)。阿里数据中心设计的智能按需散热系统(ODC)通过使用 IT设备运行的功率、风量、温度结合整个散热系统元件和外部参数来实现变温度控制,在保证数据中心运行安全的前提下实现最佳能效。

在数据中心的设计和运行中,供电系统的能效往往被忽视,而供电系统能效提升对于数据中心 PUE影响巨大。数据中心中几乎所有的能源消耗都来自电力,包括本身的 IT 耗电、散热系统等,供电系统能效提升比散热系统能效提升的难度会更大,但是一旦实现就可以获得更多的收益。我们将数据中心供电系统分为变配电系统和电源系统,从这两个方面分别介绍能效提升的办法。

带你读《企业数字化基石-阿里巴巴云计算基础设施实践》第三章数据中心能效3.1数据中心电能利用率(一)

图3-8 轴流风机结构

对于变配电系统,往往包括了变压器、电能质量处理装置、中压和低压配电装置等,这些设备中多数的特点是容量大(MW级起步)、损耗比例较少(大约1%),而且大多数温度不敏感,耐温能力较强(可以长时间运行在30℃以上),也有个别设备比如操作电源、电容和电能质量处理设备等温度相对敏感损耗比较大。对于变配电系统节能,我们主要从变配电系统电能损耗和变配电系统的环境能耗来考虑。

(接下)

继续阅读