新闻中心

了解最新公司动态及行业资讯

新闻中心

了解最新公司动态及行业资讯

新闻详情

数据中心机房节能运行现状及问题分析
时间:2022-07-31   

张兴

上海嘉定

摘要:本文对位于北京和广州的三个大型数据中心的能耗数据进行分析,分别对数据中心节能问题进行分析和诊断。从设计和运营管理两个方面总结了当前数据中心存在的普遍问题,为数据中心的节能减排提供了方向。

关键词:数据中心;节能;能源效率

0 前言

2017年中国制冷学会对上海20个500机架的数据中心进行了评估,大部分数据中心的PUE分布在1.6-2.3的范围内。中位数为 1.80,平均值为 1.97。与“十三五”国家信息化规划中到2018年大型数据中心年PUE不高于1.5的要求存在较大差距。在信息化工作上,作为信息化基础设施的数据中心发展迅速。我国建设的数据中心数量多,建设质量也处于世界前列。主要采用最好的IT设备,更好的制冷设备,更好的精密空调,和世界上更好的控制系统。但是,衡量运营水平的重要指标PUE还没有达到世界先进水平,差距也不小。

不同的数据中心有不同的问题和常见的问题。这些问题已经在行业数据中有所体现。文章以近期调研的数据中心为例,总结了节能运行中的常见问题。

1 北京某IDC数据中心

1.1项目介绍

数据中心建筑面积2万平方米,6B#楼地下室建有冷藏室。配备离心式冷水机组4台,冷却水泵4台,冷冻水泵4台,室外地面建有16座冷却塔;机房空调为水冷和风冷两套精密空调系统,空调面积约6000平方米。机房无冷热通道。

为分析数据中心的能源效率,本文对数据中心的能耗和冷水机组的COP进行了一年的监测和记录,同时对运行管理措施和方法进行了访谈,并全程跟踪冷冻水系统的水温变化。测试。

1.2数据分析

根据能耗分项数据,可定量计算空调系统各环节的相对关系,评价其合理性,如表2所示。

1.3主要问题

根据能耗数据、访谈和水系统状态参数测试结果,数据中心存在的主要问题有:

1)在布水器和集水器之间有一个水旁路。根据现场测试,终端机房水冷空调的进出口温度一般为7℃/14℃,温差在7℃以上。然而,冷冻站集水器的温度为8.8℃。说明子集水之间存在大量混合水,供应给用户的水量不足。

2)机房精密空调能耗过高。精密空调的能耗高于冷水机组。一般末端空调能耗应控制在空调系统总能耗的≤25%,现在已大大超过这个比例。根据冰箱的制冷量,当两台冷水机都打开时,可以关闭机房的风冷空调,但机房的所有风冷精密空调仍然是打开的。使用风冷精密空调补充了部分制冷量,但消耗大量电力。

导致风冷空调开机的原因包括:机房内温度分布不均,部分机房不同位置温差10℃,局部有热点。局部热点的存在降低了房间的整体温度,增加了对供应能力的需求。同时,由于水冷式空调供水不足,导致水冷式空调制冷量不足,所以不得不开启风冷式空调。

3)主机效率低。主机效率(COP值)小于4.0。在2019年7月16日的测试中,冷水机的冷却水进出水温度为3O.3°C/32.6°C,冷冻水出水温度为7°C,条件下负荷百分比为71%,运行工况非常接近《蒸汽压缩循环冷水机组》(GB/.1—2007))规定的额定工况。在这种情况下,主机的COP应该达到5.5。但是主机的效率只有4.0,与5.5还有很大差距。原因与冷冻水质量、机组维护等因素有关。冷却塔填料结垢严重,未及时清洗,

4)水泵能耗太高。在设计状态下,水泵(包括冷却塔)的总能耗应该只有主机的30%,但在实际使用中达到了62%。冷水机的防冻水和冷却水的温差只有2℃,说明水流量过大,水泵应该可以减少流量。同时,试验得到的泵的效率仅为50%。

5)缺乏智能化的管理方法。虽然有动态的环境监控系统,但没有节能管理的智能控制系统,也没有统一集中的能耗数据监控系统,管理人员难以详细了解设备的运行状态。运维人员的主要工作重点是确保安全运行。

6)不使用自然冷源。北京地区冬季天然冷源资源丰富,但尚未采取技术措施加以利用。

7)机房采用漫灌式气流组织,气流无冷热通道。送回风温差小,仅为3℃,增加了送风能耗。

1.4 能量分布和PUE

根据一年左右的实测数据,数据中心的能耗分布和PUE如表1所示,年PUE为1.8。对于寒冷地区的北京来说,PUE值很高。

表1 北京某IDC数据中心能耗数据

表2 北京某IDC数据中心项目能耗

2 广州某云计算数据中心

2.1基本情况

机房内有水冷式空调机组,通过静压箱送风。共有78台精密空调机组。机房内的气流分为冷热通道。空调系统日常管理采用人工管理,缺乏自动控制平台。除了配电室主电路的电力监测外,还缺乏对能耗监测的分计量,无法进行详细分析。

广州某云计算数据中心位于广州市萝岗区。数据中心空调面积约3.5万平方米(其中一期1.5万平方米)。大楼共9层,其中资料室位于3、的4楼。

数据中心采用集中式冷源。冷冻站位于大楼1楼,5楼屋顶设有离心式冷水机4台、螺杆式冷水机1台、冷却水泵5台、冷冻水泵5台、冷却塔5台。.

2.2PUE 评论

数据中心的电损耗为466kW,达到数据中心总能耗的13%。变压器损耗6%,UPS损耗12%,柱头柜配电系统损耗7%。这部分损耗比较大,应该在电气管理和设备配置上进行改进。

在暖通空调系统中,制冷系统的机电消耗占51%,精密空调占26%,水泵+冷却塔占21.4%。暖通空调系统内部比例比较合理。但整体能耗占比依然偏高,PUE仍有调整提升空间。

2.3 能量分布和PUE

使用瞬时功率进行 PUE 计算,其值为 1.77。数据中心基础设施 (HVAC) 的电力总和是数据中心总电力消耗的 44%,见表 3。

2.4大问题

1)缺乏智能管理方法。虽然有动态的环境监控系统,但没有节能管理的智能控制系统,也没有统一集中的能耗数据监控系统,让管理人员对设备运行状态有详细的了解。运维人员主要关注安全运行,冷水机、水泵、冷却塔等缺乏节能运行策略。

2)机房精密空调太多了。机房精密空调能耗占暖通空调系统能耗的30%以上,说明精密空调运行不合理。现在精密空调都是开着的,不是根据回风温度来控制的。

3)冷却水泵效率低。冷却水泵的效率只有45%左右,与设计要求的70%相差甚远。冷却水泵的额定扬程为,但实际扬程仅为。泵头配置过高,偏差大。冷却塔于2017年投入使用,设备状况良好。冷却水出口温度与空气湿球温度之差约为2.3℃。冷却塔效率更高。

4)冷水机效率不达标。《公共建筑节能设计标准》第10条(-2015)4.2.要求蒸汽压缩循环冷冻水(热泵)机组配电机驱动压缩机,在额定制冷条件和规定条件下,变频离心式冷水机组的性能系数(COP)不应低于5.5,现有机组平均能效系数为5.@ >10,未达到5.5,在运行条件优于额定运行条件的情况下,仍达不到节能要求。据采访,机组清洗两次一年,

表 3 广州某云计算数据中心各项目耗电量

3 广州某数据中心

3.1基本情况

数据中心位于广州,分为1#楼和2#楼。于2009年建成并投入使用。制冷采用集中式冷水机组。

2#机房:数据中心一楼冷冻站由一期和二期组成。一期制冷设备由2台约克螺杆机组和3台冷冻水泵、3台冷却水泵、1套冷却水塔组成;2 本期制冷设备为约克离心式冷水机组2台、冷冻水泵3台、冷却水泵3台、冷却水塔2台。/402机房采用上送风侧回风的气流方式,其他机房采用落地柜送风、上回风、侧回风的气流方式。

1#楼:数据中心一楼冷冻站配备2台特灵螺杆式冷水机,3台冷却水泵,3台冷冻水泵,屋顶蒸发冷凝螺杆机1台,制冷机2台。水泵,2套冷却塔;机房采用上送风侧回风的气流方式。

整个制冷系统没有BA自动控制系统,所有制冷设备运行方式都需要人工操作,也缺乏能耗计量系统。

3.2 能量分布和PUE

这个数据中心的能源消耗都是电力。1#机房和2#机房的用电量分布是通过短期测试得到的。表4、表5给出了1#机楼的具体功耗数据。

3.3PUE 评论

1#和2#楼的短期PUE为1.76-1.86。由于测试是在冬季进行,且机组运行条件良好,因此年PUE值必须高于现有的一个PUE值,表明数据中心的能效水平较低。

其中,UPS和HVDC的负载率低,损耗过大,达到总能耗的11%左右。水泵能耗占冷水机组能耗的50%;精密空调的能耗与冷水机相当。这表明整个制冷系统的效率较低。

3.4 有问题

1)UPS和HVDC负载率低,导致损耗过大。UPS 和 HVDC 的损耗约占总能耗的 11%。HVDC平均负载率为35.50%,UPS平均负载率为24.86%。

应激活 HVDC 睡眠唤醒功能。根据最小值和最大值设置,HVDC整流模块可以关闭休眠时不需要开启的整流模块,可以大大降低HVDC的损耗。建议在 80%~90% 启动模块 sleep-wake 功能,在 30%~40% 启动模块休眠功能,并设置 48h 休眠模块和运行模块轮换一次。

减少UPS的损耗。如果UPS的负载低于25%,可以关闭一台UPS,这样可以减少一台UPS的损耗。

2)泵没有在变频运行。水泵以固定频率运行,供水量过大机房能耗管理,使运输能耗高。

3)水系统水质差。水系统维护不及时,造成水质不佳,影响冷水机组效率。水质应定期清洗和维护。

4)采用漫灌气流组织,气流旁通率高,冷风不送入柜内,严重影响送风效率。

5)缺乏节能管理方法和运营策略。缺乏对室内外环境状况、设备状态和运行效果的监控,依靠人工粗放操作,节能效果差。

6)末端精密空调开太多了。机房的精密空调都是开着的,送风不是根据机房的实际热量来调节的。送风温差小,送风效率低,送风能耗高。

7)冷却塔冷却不好。冷却塔的近似值太大。冬季室外湿球温度为13℃时,逼近度达到12.5℃。冷却塔填料损坏,表面结垢严重。应定期更换和清洁。可提高冷却塔的冷却能力。

表 41# 机械制造总能耗

表51#楼宇空调系统能耗分布

4 数据中心节能的主要问题

从以上案例和各地其他数据中心的能耗情况可以看出,目前的数据中心普遍存在一些问题。

4.1系统设计

数据中心设计在产品选型、系统安全可靠性设计等方面均满足国家节能设计要求和专业设计要求,但设计精细化程度不够。为保证安全,在选择设备时富足系数大,但运行效率低。

1)可选电气设备容量过大。使用UPS容量低,造成高损耗。变压器也存在同样的问题,使用效率低,损耗严重。电气设备损耗约占总能耗的10%。

2)能耗分计量系统尚未建立。用户对能源消耗分布不清晰,对能源效率一无所知。

3)水泵选型一般偏大,造成水泵实际工作状态偏离高效区,水泵运行效率低。大多数只有50%左右。

4)控制系统缺乏有效的调节策略。控制系统智能化程度低,仅支持一般的启停控制。在控制策略设计上,缺乏对空调的专业支持。

5)给水管道系统设计粗糙,没有详细的设计计算,水流分布不符合预期要求。部分精密空调水流量严重不足,水温差达到6℃~8℃以上。

6)大多数数据中心都没有设计自然冷却系统,也没有充分利用自然资源。事实上,由于数据中心全年都需要制冷,所以我国大部分地区(除了广东、福建等少数地区)都可以使用自然冷源。使用自然冷源是目前降低能源消耗的有效措施。

7)早年建成的部分数据中心冷热通道设计不严,导致送风短路。不仅影响送风效率,还会影响机房空气温度,恶化运行环境。

4.2 运营管理

调查结果显示,运营管理问题较多,每个环节都会出现问题。

运营管理部门始终把数据中心的安全运行放在首位,往往强调安全,却忽视节能,导致很多节能措施没有采用,这是阻碍能源提升的重要原因之一节约管理水平。在实际操作中,要把握好安全与节能的关系。通过了解安全风险因素和节能措施的影响,加深对安全生产和节能技术的科学认识,在安全可控的前提下加强节能运行管理。

1)管道及配件维护不到位,疏于操作

水路上的阀门无论是手动还是自动,都普遍存在关闭不严的现象,导致水流旁通。不仅浪费了水泵的耗电量,还降低了机房精密空调的制冷量。大多数温度和压力测量仪器不能使用,没有用处。

切换台数时,也需要切换相应的阀门,但由于增加了操作人员的工作量,一般不执行此操作。

2)设备维修不及时

冷却水系统和冷冻水系统的水质没有严格的质量管理。虽然大部分单位都有专业的水质维护,但水质的质量管理是无用的,也没有明确的考核和检验标准。冷却塔填料结垢很常见,不及时清理。

冷水机实际运行效率与冷水机标称值存在较大差异,冷水机运行效率有待提高。风冷精密空调系统也需要及时维护,但很多数据中心缺乏精密空调的专业维护,导致运行效率逐年下降。

3)广泛的运营管理

不管需不需要,机房精密空调全部开启,使京爱空调能耗与冷水机组能耗相等,大大超过送风系统能耗标准.

冷水机组的开关台数也完全凭经验,机组台数的选择缺乏依据,机组不能在高效区运行,机组运行效率低。冷水机的供水温度不随室内负荷的变化而调整,基本全年恒温运行。

数据中心设计安装了水系统变频设备,但尚未实施实际运行,无法根据水系统温度变化进行变流量运行。水系统输送能耗占冷水机组能耗的50%以上,不能随主机负载调整。

机房温度设置过低。在强调运行安全后,机房回风温度保持在较低水平。如果部分机房需要保持在22℃左右,冷水机的出水温度已经降低到7℃,自然冷却的空间也被大大压缩。

这些因素交织在一起,往往导致数据中心的高能耗。

5 安科瑞为数据中心提供电力监控解决方案

5.1精密配电管理解决方案

AMC系列数据中心精密配电系统专为数据机房末端而设计。它是一个智能系统,可以全面收集所有能源数据,为交直流配电柜提供准确的电气参数信息,并通过通信将数据上传到动态回路。监控系统实现对整个数据机房的实时监控和有效管理,为实现绿色IDC提供可靠保障。

5.1.1通讯系统

1)功能要求:

遥信:输入分流器过压/欠压、缺相、过流、输入分流器和输出分流器的开关状态,具有电流和功率需求分析统计,实现电压、电流、功率等越来越多的参数。有限的报警功能。

遥测:输入分流三相电压、三相电流、有功功率、有功瓦时;输出分流单相电压、单相电流、有功功率、有功瓦时;

2)配置方案-图表

配置

多功能仪表 PZ72L-E4

电流互感器AKH-0.66-30I-XXA/5A

5.1.2 直流系统

1)功能请求

遥信:输入分流器过压/欠压,输入分流器熔断器状态,具有电流、功率需求分析统计,实现电压、电流、功率等参数超限功能。

遥测:输入分流电压、电流、功率、电度;

2)配置方案-图

配置

多功能仪表 PZ72L-DE

霍尔传感器 AHKC-F-XXA/5V

开关电源SBD-30(48V)

产品规格

说明: ■为标准功能。

配套配件

配套配件

5.2AMB智能小母线管理系统

数据中心小母线系统是数据中心末端供配电系统的俗称。近年来,随着数据中心建设的快速发展和更高要求,智能小母线系统逐渐应用于机房终端配电。该盒子将电力分配给每个机柜中的 PDU。在前端盒和插件盒中可以设置监控模块,将数据上传到动环监控中心。

1)通讯系统功能:

遥信:过流2段阈值超限、过/欠压、过功率报警、缺相、过频、欠频超限、中线电压、中线电流、温湿度报警、开关状态,开关行程;

遥测:三相电压、电流、有功功率、无功功率、视在功率、功率因数、有功电能、无功电能、电缆温度、系统频率、零序电流、零地电压、漏电流、机柜温度、机柜湿度、开关状态、电压/电流谐波含量、电流/功率;

2)直流系统功能:

遥信:过流2段阈值超限、过压/欠压、过功率报警、缺相、温湿度报警、开关状态、开关跳闸;

遥测:电压、电流、功率、电能、电缆温度、漏电流、机柜温度、机柜湿度、开关状态、电流/功率;

产品描述

说明: ■为标准功能。

参考:

[1] 张胜,李超,梁刚强,顾力,龚艳峰。数据中心机房节能运行现状及问题分析

[2] 钟从瑞. 互联网数据中心(IDC)机房总体规划中的节能设计研究信息通信,2016 (8):241-242

[3]卜东杰,王克勇,潘军,等.数据中心机房供暖研究[J]. 建筑能效,2015 (5):31-33

[4] 安科瑞数据中心IDC配电监控解决方案。2020.03版

关于作者:

在线咨询

微信扫一扫

微信联系
返回顶部