绿色数据中心作为下一代数据中心建设的主要核心理念之一,正受到行业内越来越多的关注与反响。IDC的建设是一项复杂、综合的工程,绿色IDC概念的引入,为IDC的建设与实现提出了新的挑战和机遇。

数据中心能耗构成

关于数据中心的能耗构成,参照具有代表性的EYP Mission Critical Facilities Inc所提供的调研报告,按照各种用电设备在数据中心机房中所产生的功耗所占比例大小,数据中心机房的能耗构成因素及排序如下。

(1)IT设备系统:由服务器、存储和网络通信设备等所构成的IT设备系统所产生的功耗约占数据中心机房所需总功耗的50%左右。其中服务器型设备占40%左右。另外的10%功耗基本上由存储设备和网络通信设备所“均分”。

(2)数据中心机房的空调系统:由它所产生的功耗约占数据中心机房所需的总功耗的37%左右。其中约25%的功耗来源于空调的制冷系统,12%左右的功耗来源于空调的送风和回风系统。

(3)UPS供电系统:由输入变压器和ATS开关所组成的UPS输入供电系统,以及由UPS及其相应的输入和输出配电柜所组成的UPS供电系统,它们的功耗约占数据中心机房所需总功耗的10%左右。其中7%左右的功耗来源于UPS供电系统,3%左右来源于UPS输入供电系统系统。

(4)数据中心机房的照明系统:约占数据中心机房所需功耗的3%左右。

绿色数据中心评价指标

为能公正和客观地评估不同的数据中心机房的节能降耗的效果,行业内一般使用美国绿格联盟(The Green Grid)提出的电能使用效率PUE,该指标已经成为评价数据中心物理基础设施层(机房)效率的核心指标。

数据中心机房的PUE实际上是反映用户总输入电能中到底有多少的电能真正被馈送到IT设备上。PUE值越大,表示用于确保IT设备安全运行所配套的、由UPS供电系统、空调系统、输入/输出供配电系统以及照明系统等所组成的动力和环境保障基础设施所消耗的功耗越大。

1)以1000kW的IT设备负荷为例,PUE=2.1即总能耗为2100kW,PUE=1.5即总能耗为1500kW,可以看到PUE从2.1下降到1.5,相当于节约600kW,约节能30%.

2)以总配电容量为1000kW/1600A机房为例,PUE=2.1即可以大支持476kW的IT设备负荷,PUE=1.5即可以大支持666kW的IT设备负荷,可以看到PUE从2.1下降到1.5,相当多支持190kW的IT设备负荷,提升40%的负荷能力。

目前,PUE值常用评价参考标准如下表,国内绝大多数的数据中心机房的电能使用系数PUE为2.5:1左右。

表  数据中心机房电能使用系数PUE评价表

序号 PUE值 评价 效率

1 <1.5 优秀 >0.67

2 1.5~2 很好 0.5~0.67

3 2~2.5 好 0.4~0.5

4 2.5~3 一般 0.33~0.4

5 >3 差 <0.33

从绿格联盟提出全球数据中心PUE预测趋势中表示,到2018年,国际上数据中心的PUE平均水平应该在1.3~1.5.所以对于下一代的绿色数据中心,PUE<1.5已经成为最重要的评价指标之一。

绿色数据中心实现因素

(1)IT设备节能

下图是华为公司提供的测试模型数据,在PUE=1.9的数据中心机房里,使用IT设备的芯片每节省1W的用电,总体用电能节省2.48W.由此可见,降低IT设备的功耗,才能从根本上降低数据中心的整体用电量。

目前,数据中心的IT设备一般包括服务器、存储设备和网络通信设备,可考虑采用的节能技术包括:

● 通过虚拟化合并物理服务器和存储设备,从根本上提高服务器使用效率;

● 使用采纳能源高效设计和部件的系统,譬如低能耗芯片、智能调速风扇等;

● 使用刀片服务器取代传统台式或机架式设备,提高电源效率;

● 删除重复数据和利用数据压缩等技术手段有效降低设备能耗;

● 使用用电管理软件精确计算用电功率和智能化控制系统用电。

正确地选用绿色节能的IT产品和节能技术,降低其总耗电量和发热量,是实现绿色数据中心的关键。

(2)配套机房环境节能

绿色数据中心最重要目标是降低PUE,尽量提高数据中心整体能耗效率。而降低PUE,就是旨在降低配套机房环境,包括建筑环境、空调系统和配电系统的能耗占总能耗的比例。目前主流采用的技术手段包括:

● 机房采用下送风上回风走线方式,对应采用“面对面、背靠背”的机架排列方法,形成“热通道/冷通道”的循环系统;

● 采用冷通道封闭技术,杜绝热风回流到机柜正门进风口,隔绝冷热气流,空调按需提供冷气至冷通道,可节省30%的制冷系统能耗;

● 机房热点区域考虑高密度冷却系统,譬如在高能耗机架部署局部水冷设备,可采用IBM的机架背门热交换器,有效解决机房局部热点区域问题;

● 考虑采用液冷(冷冻水)空调,多个室内机共享室外机散热模式,有利于提高室外系统负载率,构成高柔性散热架构,可有效节省制冷能耗;

● 采用自然冷却方式,利用室外低温空气对机房降温,根据当地气象条件,可选择直接引入式新风系统、隔离式热交换系统或带自然冷却盘管的机房专用空调设备;

● 对于高密度高能耗机房,可考虑采用行间制冷技术,按需在机架间中布置空调设备,紧靠热源制冷,可有效提高机房平面利用率;

● 采用高压直流系统,并配合整流模块休眠技术,使整流模块在最佳负载率下工作,从而降低系统的带载能耗和空载能耗;

● 可选用效率在90%以上的高效率UPS,降低UPS自身损耗;选用模块化UPS,根据实际负载在线扩容,提高在用UPS的效率;

● 选择高效节能型的光源、灯具及附件,采用智能照明方式,根据与门禁和移动侦测系统的联动实现按需照明;

● 智能化精细管理,采用环境设备监控系统对环境及空调设备、电气设备、照明设备等进行显示、记录、控制、报警、趋势分析和提示功能,动态地监管和调节控制用能状况,使系统尽量处于高负载率,降低空载的能耗。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2023-08-16 14:28:00
国际资讯 新加坡电信第四代数据中心正式开工
预计将于 2025 年投入运营,届时将提供 58MW 的负载容量。 <详情>
2023-07-19 11:42:45
国内资讯 绿色数据中心标准规范新要求将面世
绿色数据中心标准规范最新要求,《通信行业绿色低碳标准体系建设指南(2023版)》提出了围绕绿色低碳目标,对于数据中心的整体布局构架、监控和运维、内部组网和专用设备等 <详情>