5月27日下午,2021中国国际大数据产业博览会"数字基础设施论坛"在贵阳数博会会场隆重召开。论坛由中国通信工业协会数据中心委员会、数据中心产业园资源促进会承办,中国IDC圈协办。包括贵州省政府领导、业内专家、企业高层等众多嘉宾汇聚一堂,共同解读新基建发展现状、研讨数字基础设施产业发展趋势。

1111

维谛技术(Vertiv)数据中心热管理解决方案部总经理严瀚分享了维谛技术在双碳战略下数据中心基础设施创新方面实践的经验,以下为演讲速记实录:

我简要介绍一下我们公司在双碳战略下的数据中心热管理解决方案,大体上就两方面,一个方面是开源,我们可以使用更多的绿电,更多的清洁能源提高碳的利用效率,还有一个是节流,使数据中心呈现更高的运用效率,降低PUE。

除了这之外,我们看到数据中心除了我们现有的这些降碳的措施以外,我们有没有办法去帮助它实现整个碳的减少呢?从源头上我们看,我们降碳的重要策略是用绿色植被进行碳的消灭,绿色植被需要灌溉,灌溉需要水,整个碳中和的策略有可能对水资源也更高的要求,我们进行了碳中和利用指标,这里面除了PUE,这个可以帮助我们数据中心从更宏观的角度实现整个数据中心的碳中和,现在数据中心建设新方案非常多,它有几个核心的痛点,第一个当前数据中心的PUE相对比较高,我们有很多的数据,全国的平均的数据中心PUE在1.5以上,小的数据中心在2以上,老的数据中心中心里面PUE非常高,这些没有统计到大的数据中心里面。

另外数据中心的可用性和可靠性并不是非常高,我们数据中心故障率非常频繁,很多大的故障从新闻媒体中知道,很多的数据中心的运维故障很难报道出来,这些情况导致了数据中心有很高的宕机成本出现,为什么有人会采用很多的备份冗余,这些是宕机带来的损失,金融行业宕机损失很高,互联网行业在线浏览的业务宕机成本比较低。

我们的数据中心很多头部的PUE很低,很多数据中心宣称自己的PUE只有1.2、1.3,但是这个跟运维实力有关,这个能力并不是完全可以复制的,数据中心要自动化,要全智能化运行,就是要去掉人的参差不齐的情况,我们看过很多大型的数据中心,很多的PUE达到1.6以上,怎么实现标准化的、可靠的、高效的数据中心建设?我们从产品、包括数据中心的角度去考虑综合的衡量,实现数据中心最优解。

我们现在新的数据中心以深圳为例,PUE最佳目标是小于1.25,这个目标任务出来,已经建设数据中心的目标可以用逆向思维,我们配电系统要多少,我们空调系统要多少,这个指标可以分配出来。所以说我们可以根据结果倒过来分析我们采用什么方案和内容,兼顾可靠性的情况下实现我们的目标。

这种全预制化的供配电化的模组也是未来的方向,它最好的方面是实现了预制化,它的供配电损耗可以降低0.01左右,它的整体的效率可以大幅的优化。

这种创新的风冷解决方案,我们传统的风冷解决方案价值可能大家觉得不大,大家看到很多是冷冻水,我们有很多小型的数据中心存在,小型的数据中心都是采取风冷的架构,在维谛的开发下我们把以前定频的风冷温度不能蒸发的问题解决了。在任何时候只要室外的环境温度比室内的温度低,可以实现自然冷的效果。最终实现在深圳地区PUE可以降低到1.2以下。

这是另外的变形形式,可以大幅度节省室内外机铜管的配置,这个适合大平层的数据中心,我们目前看到腾讯的大平衡的数据中心,单体的制冷量颗粒度比较大,可以达到260千瓦,这个方案可以代替间接蒸发冷却,可以帮助我们的数据中心实现更低的节能,同样它也是搭载了风冷的技术。

还有冷冻水的解决方案,它的优化其实也有很多的方向,比如说更高的蒸发温度,更好的换热器的效率,更优的一些智能控制体系,这些是冷冻水调优的方案,包括我们在东南亚做的冷冻水的方案,采用阵列的解决方案,但是水温提高的时候需要更大的蒸发器的面积,这就带来了初投资的增加。它都是根据它的温度、它的面积、然后它的使用的位置,可能它的状况会发生变化。

使用时间长了以后,随着使用开始以后,它的效率是逐年在下降的。这里面会有很多的运维风险,包括控制的难点,出现各位运行问题。间接蒸发的原理大家都很清楚,我就不多介绍了,大家要去考虑它遇到的问题。

液冷解决方案,我们做了很多案例,在美国、日本、新加坡都有相应的应用案例,我们现在主要推荐的方向也是采用单向式、浸没式解决方案,跟阿里的解决方案比较一致,认为它的高密等等方面有它的使用价值,但是液冷跟风冷并不冲突,有风液共存概念,这是室内侧的换热方式,大部分讲的风冷是室外侧的换热方式,水冷液冷需要消耗水,风冷液冷我们有成熟的模型,电费的增加对于水资源的节省来说,光从费用上已经是非常经济的,所以未来它的方案并不一定完全是采用冷却塔形式的浸没式液冷。

有很多存储,比如蓝光存储不太适合用浸没式液冷的解决方案,其他很多的设备PUS、电池,这些都可能使用浸没式液冷,我们使用风侧换热有一部分用这部分来共冷,还有一部分服务器用浸没式方式来解决,使用方式是在北方缺水地方采用全风冷解决方案,风冷加夜冷和传统的方式来进行耦合,使得它在数据中心有各个各个更高和更低的PUE的运行情况,实现更多的节碳。所以说未来的数据中心可能感单层来解决,这符合最快速的收益。

在群控AI方面我们讲了低算力的需求智能化的AI,我们之前研究AI,没有达到很好的效果,一个超大的架构,我们基于UPS预制的数据中心可以有更低的算力需求,一个服务器可以目前满足我们一个一算力的需求,实现耦合,大概两到三个月可以到高效运行的状态,低涡算力的AI是未来发展的方向。

根据不同的数据中心我们就有不同的解决方案和规划,最后有一些案例给大家看一下,这个是第二大托管公司的解决方案,包括天津的,这个项目是我们深圳平安银行交付的数据中心的项目,它是深圳最早的PUE2.45的数据中心,这个是前一段时间做的宣传的启商在线,PUE在北京做到1.2以下,这是其他的案例,我不做介绍了,谢谢大家。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2021-05-06 13:53:34
国内资讯 出席IDC行业Discovery大会,维谛技术(Vertiv)演绎与行业发展的同频共振
4月21日,由中国通信工业协会数据中心委员会指导,中国IDC圈与世纪互联共同主办的“2021年中国IDC行业Discovery大会”在北京隆重举行。大会汇聚了行业领导、专家学者、IDC <详情>
2021-04-27 10:33:12
UPS电力 以技术创新推动“双碳目标” 施耐德电气具有碳中和融合技术的Galaxy V系列UPS集结完毕
确保UPS系统高效、可靠的运行,既是客户的需求,更是施耐德电气的孜孜追求。 <详情>