2021年4月29日,首届湾区数字经济产业发展论坛--暨“技术定义数字基础设施”第十六届中国IDC产业年度大典(深圳站)在深圳隆重召开。

本次会议由深圳市工业和信息化局指导,中国通信工业协会数据中心委员会、广东省数据中心产业联盟、深圳市数字经济产业促进会联合主办,中国IDC产业年度大典组委会、中国IDC圈承办。大会吸引了众多数字经济、数据中心产业的主管领导、专家学者,以及众多从业人士参加。同时,大会还开通多个线上直播渠道。

会上,由中国信通院云计算大数据研究所副总工程师郭亮主持,阿里云技术有限公司首席散热架构师炽平、数据港技术管理中心华东&华南区域总监朱颖、三峡长电大数据常务副总经理曾超、腾讯IDC双碳项目负责人梁家启一起,围绕“低碳数据中心的现在与未来”展开圆桌对话。

低碳圆桌

(左起:中国信通院云计算与大数据研究所副总工程师郭亮、阿里云技术有限公司首席散热架构师炽平、三峡长电大数据常务副总经理曾超、腾讯IDC双碳项目负责人梁家启、数据港技术管理中心华东&华南区域总监朱颖)

以下为圆桌实录:

郭亮:大家好,我来自中国信通院云大所,我们长期支撑工信部、发改委做各种工作,也在支撑北京、上海、广州、深圳等各地地方政府做一些相关的政策文件的编写。今天的主题是低碳,我们从2013年开始关注这个事情,从2010年左右数据中心开始火爆,引起大量关注,大家都在纷纷规划,到2013年,支撑工信部发布了关于数据中心布局的指导意见。去年我们支撑发改委发布了关于一体化大数据中心的指导意见。预计在下月初,工信部将会出台一份关于数据中心的重磅文件。从所有的文件来看,国家对数据中心的绿色发展、低碳发展都是非常关注。

另外,我们也在长期做着数据中心的评估、低碳数据中心评估等等行业评估工作。昨天工信部刚刚发布了关于今年国家新型工业产业化示范基地(数据中心)的评选,大家感兴趣可以关注一下,评选截止至6月25号。可见从整个国家的层面,到各个省市的层面,对于低碳、绿色数据中心的发展是非常关注的。

今天我们非常荣幸地请到了阿里云技术有限公司首席散热架构师炽平先生,数据港技术管理中心华东&华南区域总监朱颖女士,三峡长电大数据常务副总经理曾超先生,腾讯IDC双碳项目负责人梁家启先生,来一起进行探讨与分享。在具体的数据中心建设和运营当中,大家是如何降低能耗走绿色节能之路的?有请炽平先来分享。

  炽平:大家好,我是来自阿里云基础设施事业群的炽平。阿里巴巴在绿色数据中心节能技术方面在不断地探索一些新的技术,2015年我们在千岛湖就采用了湖水制冷这种新的制冷技术来降低空调能耗,2016年在张北的数据中心采取了新风制冷的方式,降低数据中心的能耗。2016年到2018年又在尝试全新的革命性的液冷技术,也是全球首个互联网行业的应用。2020年在杭州进行了更大规模的部署,大规模液冷数据中心的建设,首次获得了5A级绿色液冷数据中心的称号,这是我们在技术方面不断地探索和实践怎么实现绿色数据中心,做到极致节能。

在供电领域同样也在不断地探索,我们在数据中心里面尝试联合我们的业务,实现业务调动降低能耗。还有在服务器领域尝试使用一种新的智能化算法,因为我们的服务器的负载在不断波动变化,如何在各种负载情况下实现能耗最优,探索现在各种环境下、各种温度下服务器能耗的最优。另外在数据中心层面也是在采用最新的AI智能算法,利用机器学习的方式来实现联动的机房级+服务器本身的PUE最优,这是阿里在绿色数据中心层面、服务器层面不断寻求绿色节能地探索和实践。

郭亮:阿里云从底层的供配电到上层运维都做了大量的工作,可以看出阿里的相关技术也是非常领先。下面请数据港的朱颖女士来谈谈。

朱颖:数据港成立十几年以来,在建设数据中心的时候也一直致力于绿色节能、清洁能源和可再生能源的利用。在最近绿色和平组织发表的2021绿色云端互联网企业再生能源企业排名中,我们排名第三。我们有一个口号,叫“全生命周期管理”,在这个全生命周期里有7个阶段,包括选址阶段、架构确定阶段、施工图设计阶段、施工阶段、采购阶段、验证阶段和运维阶段,这7个周期我们一直在关注,比如说我们在选址阶段就会关注当地的地质、水文和气候因素,选择清洁能源和可再生能源丰富的地方,比如说张北地区,在架构设计阶段,应该说数据港是全中国做制冷架构最多的一个公司,我们除了传统的水冷冷水机组、风冷冷水架构之外,我们还在北方机房有直接新风自然冷却、间接蒸发冷却,包括在像张北这样缺水的地区和合作伙伴一起建立了全中国大的干冷器制冷系统。干冷器制冷技术节水、节电、环保,它比传统的水冷机组全年节水达到95%以上。节点方面,它全年可以运用自然冷却的时间,不用任何压缩机做功的时间是8112个小时,全年只有6天的时间它不能自然冷却,剩下的时间全部都可以自然冷却,这就是节水、节电。环保方面,它没有排放废水、废气,他们年均PUE值也不高,平均PUE值才1.2。像我们的直接新风机房平均PUE值可以达到1.15。近两年又与合作伙伴一起建造了大型液冷机房,PUE值能达到1.09。

除了设计阶段,我们在施工阶段、采购阶段也非常注重用高能效的设备,大到变压器、小到智能的PDU。在运维阶段,我们在全国有20多个机房,我们有自己的研发运维平台,利用大数据采集智能管理,从运维角度进行节能。

 郭亮:谢谢朱颖总,数据港在整个数据生命周期,从最早开始到最后的运维,这个生命周期上做了很多的工作。下面听听三峡的观点。

 曾超:各位下午好,我是来自三峡的曾超,虽然三峡是国内大的清洁能源集团,但是我们在数据中心产业也响应国家节能降耗的政策导向,在数据中心节能方面也采用了多种措施。主要是四种方式,第一种是中温技术,常规的数据中心采用的是低温水的技术,是12度,我们是采用18度的技术,根据测算,温度每提升一度,机组的能效提高高3%,节能效果显著。第二是结合我们的自然条件,虽然三峡没有张北那么好的自然气候条件,但是三峡这个区域常年平均气温是14到22度,冬季和过渡季节我们采用冷却塔和免费制冷的方式,在冬季和过渡季节不用开启降温的空调。全年免费制冷3835小时,过渡期的部分免费冷却制冷时间是2368小时,占全年时长的71%。经过测算,我们每年能节约能耗1414千瓦时,能耗节约效率比是57%,数据比较可观。第三是结合AI能效调优的方案,通过AI能效调优,我们对冷链设备端到端的管理、数据采集和优化,使系统根据实际情况来调节最优的参数,达到节能的目的。第四是背靠三峡水库,具有得天独厚的江水冷源的条件,我们的数据中心也预留了江水冷源的接口,我们未来也会进一步提升这一块降低能耗的目标。

 郭亮:三峡主要是在冷却这一块做的工作比较多,有很多的尝试。今年腾讯在两会上也提了低碳方面的提案,听听来自腾讯的梁家启先生怎么说。

  梁家启:我是腾讯的梁家启,我想给大家分享一下我们这边的一些想法和做法。我觉得绿色数据中心要分两个部分来讲,第一个是我们要降PUE,要节能增效。第二块是要用绿色能源。

第一块工作大家在过去的时间里面已经在做了,比如说液冷、AI、提高冷水温度、提高自然冷时间等等。我是从国外AWS过来的,我知道国外的绿色数据中心还有很大的一块是可再生能源采购,这一块也是比较重要的,比如说谷歌、Facebook和苹果这三家都已经百分之百了,去年亚马逊大概到了75%,微软大概是55%,它们通过可再生能源的采购,并且加一些“风光”的投资,把使用的电力能源属性更绿色一点,同时配合园区内部的一些节能增效的方法,形成完整体系下的绿色数据中心,国外这一块做得比较早一点。

节能增效这一块,我们刚才谈了很多的新技术,我想说一点比较重要的,也是我们的一个想法,对于超大规模数据中心来说,你的PUE要做低,比如说从1.3做到1.1,自然冷时间永远是最重要的,不管你用多么高效的冷机,不管你用多么酷炫的系统,如何提高你的送风温度,如何更大地提升你的自然冷的时间,不管是湖水还是新风或者是间接,这其实是很关键的。我们提升温度有一个重点,我们使用的服务器的品种都很不一样,它们对温度和湿度的耐受性也不一样,我们怎么样来系统地跟其它部门打通,统筹规划这样的东西,设计一个更高温度的数据中心系统,这样就可以让我们的整体PUE有一个很好的提升,这是我想补充的。

除此之外腾讯还做了很多,比如说我们的模块化数据中心T-block,我们用间接自然冷通风,包括用智维系统,把精细化运营、定量运营、AI都做进去,包括液冷的使用,这些我们都有做。刚刚朱颖女士提到绿色和平组织的排名,腾讯今年在互联网企业中排名第一。

 郭亮:下面进入到第二个问题,国家提出了碳达峰、碳中和的目标,我们也是特地邀请了几家业务类型存在差异的企业,想了解大家目前是否有提出碳中和相关的规划和计划?碳中和规划有哪些方面的举措,初步效果怎么样?

炽平:蚂蚁最近公布了碳中和的目标,基本上在2030年能实现碳中和的目标,这里面采取了一些措施,包括园区的节能增效,绿色能源的采购,还有投资一些绿色节能的相关技术的基金,最重要的是我们还会在数据中心里面积极采用液冷新技术应用推广,我们在融合液冷数据中心里面,每年可以节省7000万的用电量,这一块我们会积极地稳步推进液冷技术的应用,最终实现在2030年蚂蚁集团整个的碳中和目标。

 朱颖:数据港一直致力于绿色和节能技术的推广应用,我们比较具体的目标,第一,从选址上找比较专业的团队,以后的数据中心尽量选择在清洁能源和可利用能源的地区。我们北方的机房一直致力于热回收,大家知道数据机房的产热量是非常大的,北方的数据机房里的热量都基本回收回来,用于自己的运维楼和运维办公室的冬季的采暖。随着超大型数据中心的产生,它产生的热能可以带动周边的园区和小区的采暖,达到碳减排的目的。所以我觉得关于碳中和、碳达峰,它不是一个点,不是一个设备,不是一个阶段,它应该是放眼全局的每一个步骤的新技术的应用和推广。

曾超:可能我们跟各位还不太一样,我们做数据中心做得比较晚,因为三峡集团是清洁能源集团,我们集团领导对碳中和、碳达峰目标也提出了规划。我们的数据中心目前主要是建在三峡水电能源基地旁边,目前是在三峡库区,这里有充沛的水电、清洁能源,从能源的供给这一块,我们就实现了高碳排放的火电向清洁能源综合供能的转变,我们从供能结构上已经实现了清洁能源。另外一块我们在碳回收方面,在数据中心绿色环保、建筑节能方面采用了相应的措施和举措,实现碳中和的目标。后续我们在金沙江,以及长江沿岸的清洁能源附近,我们要建设的数据中心也是基于这样的理念,我们从源头供能这一块实现零碳的基础目标,今后我们还要做到负碳数据中心,也会积极推动今后国家零碳数据中心相关行业标准的编写和发布。

梁家启:针对碳中和这一块,年初的时候腾讯的马总承诺了腾讯要做碳中和,在接下来这几个月里面,我们内部是在非常努力和积极地筹备这样一个战略方针和思路,我们做了非常多的调研,我们觉得碳中和最重要的几个部分,第一是要做一个清晰的碳排查,做一个比较完整的、可审计的并且高标准的碳排查,这是制订我们的零碳思路的第一步。第二步就是要如何做零碳,这里我想讲一点,我们要坚持一个高的标准,我也希望跟大家一起努力地思考这个问题,我们做零碳的方式多种多样,怎么样做一个高品质的零碳的承诺,或者高品质的零碳的项目。比如说我们可以通过可再生能源的绿证的采用,可以做到百分之百可再生能源,或者我们可以通过园区的风光互补的技术做一些补充。

我们怎么样把这些排名给它组合起来?这其实是一个难点,针对于不一样的地理位置,针对不一样的资源,我们用我们的标准把这个体系搭建起来。比如说国外比较多的标准,他们提出第一点就是要有额外性,我们希望这个项目是有额外性的,我们希望能切实地推动国家的可再生能源装机比例的提升,所以我们可能会以一些新建项目签约为主。第二是要有可追溯性,比如说电力长协或者是投资交易的方式,这种会有更好的可追溯性。第三个是就近性,我们希望采购的绿电不一定是直供到数据中心,希望它至少是在一个省或者是有特高压能输过来,这样就有一定的就近性。它这里面其实是有一些标准和质量的比拼。包括比如说核能、水电和风光,风光是有可再生能源证书的,水电可能是有点难度,只有交易凭证,核能大家认不认还要打一个问号。在资源有限的情况下如何寻找合适的资源,把我们这个渠道搭建起来,这是采购和投资要做的事情。

技术层面也要做一些事情,不是说大家做一个光伏,我们也做一个光伏,大家做一个储能,我们也做一个储能。我们要了解现在的光伏的发展路径是什么,这一块怎么深入到数据中心,来形成我们的技术标准,这其实是我们应该在碳中和的大背景下形成的思路共识,还是要把这个东西做踏实,做得比较系统化。

  郭亮:今天第三个话题是,液冷在过去几年非常火,我们的液冷项目在2017年5月就成立了,当时也是阿里、腾讯、百度都参与了那个项目。刚刚我们这个液冷的项目还获了一个奖。阿里巴巴近几年在液冷方面做了非常多的工作,我们想了解现在IDC行业应用情况如何,液冷数据中心建设有没有什么要求,它的建设标准比同等规模的风冷的数据中心有什么差别,液冷是否可以兼容风冷?

 炽平:我回答主持人的三个问题,第一是选址的要求,液冷数据中心适合全球任何一种气象条件,包括我们现在在杭州、深圳这些地方都可以有比较好的节能效果,都可以做到PUE小于1.1。我们在运行了三年之后发现,液冷数据中心可以在高温高湿的环境应用,以及比较严苛的恶劣环境使用,比如说海边、厂房这种恶劣环境条件都可以应用。相比风冷数据中心,应用更加广泛。

第二是关于投资成本,这一块现在大的挑战是液冷对比风冷,以前用空气是免费的,但是用液体是要花钱的,所以这一块的投资要更高一些,这个很大因素取决于单机柜的功率密度,它在一定程度上会中和投资。现在在功率密度比较大的情况下,液冷的投资比风冷更低。如果在功率密度低一点的情况下,液冷的投资比风冷要高一些未来液冷数据中心比风冷数据中心的成本会越来越接近,到一定程度之后,液冷的数据中心会更便宜。

在行业的应用情况方面,阿里在内部有一个判断,最近几年时间液冷和风冷是并行的一个时代,现在主要是取决于风冷服务器的功耗密度,还没有达到非要采用液冷的程度,按照未来的趋势来看,我们看到现在CPU、GPU的功耗已经差不多从205瓦到下一代的350瓦、400瓦、500瓦,增长速度很快。现在单机柜的功率密度已经从20千瓦到30千瓦,很快会达到50千瓦,甚至个别的应用,大数据、AI这场景,会达到70到80千瓦,这时候你的经济性上,从应用性、必要性上是要采用液冷的方式来进行散热。

另外从源头来看,CPU运行的工作温度规格也在不断下降,传统风冷散热到一定程度以后,它已经很难解决它本身的散热调节,这也会驱动着我们越来越多的布局液冷技术,来应对未来高算力的挑战。

  郭亮:阿里巴巴在液冷这一块走得相对快一点,炽平刚才也说了,液冷的建设成本也要看情况,也不一定是绝对更贵的。其他各位在液冷的应用上有没有顾虑和需求?

 朱颖:数据港和合作伙伴一起大规模建立起了液冷数据中心,关于顾虑我认为有四点:第一是客户的接受度。因为要把服务器浸在水里,大家会觉得有顾虑。第二是它对服务器和IT的功能和寿命有一定的要求,这一定是随着服务器的研发进步才能产生这种新技术。第三,毕竟是新事物,肯定它的成本控制对一般的企业会有一定的影响。第四,它对运维人员的技术要求相对较高。需求方面,我认为任何一项技术和变革的接受都是有时间的,就拿数据中心的制冷架构来说,从冷水机组到新风冷却等等,它只是架构上的改变,并没有改变服务器的热传导,它还是通过空气对流来换热,即便是这样,这个市场的接受度都有很漫长的时间,液冷把空气对流直接变成热传导,这种巨大的变革,我相信一定要一些时间。但是随着5G、人工智能、边缘计算的兴起,它对服务器的密度要求很高了,就不是4000瓦、8000瓦可以满足的时候,相信这种高密度和模块化交付的升级,液冷会有更广阔的市场。

 曾超:这一块我的了解没有几位专家深入,我的观点是,这跟行业的需求有关系。它是应用场景决定的,如果是传统的企业级应用,数据灾备或者数据的处理,可能采用传统的风冷、水冷就能应付需求。如果是超算中心,或者是高性能计算,这种应用场景下,它就需要用液冷的技术来替代传统的制冷框架和体系。我想表达的是,要根据用户的需求来定,因为它的投入、运维复杂度、后续管理维护,都是千差万别的,具体还是根据用户的需要,我们可以定制化满足用户的需要。

 梁家启:我们在冷板、浸没这一块都是有投入和研究的,我们先不谈这个事情,退一步讲,我们为什么要做液冷。

我觉得亚洲在做液冷方面是有一个很好的机会的,美国这边运气比较好,AWS或者是微软,它大的数据中心集群,部署在西雅图周围,那边的天气很凉快,还有在华盛顿的机房,虽然没那么凉快,但是也是比较凉快的。在美国除了德州,在它人口密集的东西海岸,包括中部的地区,都能用风冷全部覆盖。欧洲也是一样,欧洲的集群的数据中心一般在爱尔兰,气候非常凉快,所以亚马逊、微软搞液冷还没有阿里、腾讯这么超前。因为他们也没必要搞液冷,他们那边比较凉快,颗粒物又很少,这是欧美很多企业没有太大动力搞液冷的原因。

还有一点,比如说我们做预测,大家都说30千瓦单机架400瓦服务器,这个东西10年前大家就在说了,其实很多时候大家对于服务器能耗功率的增长,包括机架功率的增长,是有偏乐观的感觉。所以放眼过去10年,它的增长速度没有那么快,这就是液冷没有我们想象那么快的原因。

但是我认为这是亚洲的机会,因为在亚洲,尤其是中国,我们的数据中心主要分布在人口密集的东南沿海,西部也不可能建太多,因为有网络的限制。在亚洲的这种情况下,包括日本、新加坡这些地方,其实液冷在之后会有很好的发展空间。

如果是空气自然新风的话,一年只有3000到6000个小时的应用,这样它的PUE不可能做得很低,所以液冷可以发挥很大的作用,虽然这里面还有成本和技术方面的问题,但是经过长期发展,可以在这一块有很好的结果。

郭亮:梁家启分析了中国有很好的地理优势来做液冷这个事情,另外我们也有很大的市场需求,只不过它还是需要有一个过程,这个过程或快或慢,我们的技术储备做好,可以迎接未来所有的挑战。

   东岳庙数据中心据说采取了不一样的水冷方式,想问一下目前的进展如何,在这种水冷的数据中心建设过程中有哪些挑战,机房如何实现按需的制冷?它的建设的成本相对传统数据中心有哪些不同?将来是否有把它做成技术标准的计划?

 曾超:东岳庙是一个风景优美的地方,背靠三峡大坝,每年游客入织。东岳庙是三峡集团在三峡布局的超大规模的数据中心,我们在去年立项的,今年2月18号启动建设,目前在做基础结构的建设工作,预计下个月底建筑封顶,8月份开始设备安装,工期是到12月18号完工,大家也看到这个工期非常紧张,从2月到12月就10个月时间,一共4400个机柜的数据中心,按照传统的方式可能至少需要一年半,还不包含项目前期的工作,我们的工期就10个月,因为我们采用了钢结构的方案,数据中心机房的楼不是钢筋混凝土的,是预制化钢结构建造的,这样缩短了土建的建设工期,包括一些冷水、供水的管道,都可以在厂里预制埋设,在现场就像堆积木的方式直接把它堆起来。因为这样的原因,所以我们整个工期是10个月的时间。

主持人刚才问到东岳庙数据中心跟其他的数据中心在节能方面有什么不一样,我也稍微回答一下,第一是综合冷水的方案,第二是预留江水冷源的方案,第三是冷塔加节能板换的方式。因为我们这里的气候比不上张北或者贵阳,但是全年平均气温14到22度,也能提供71%的全年自然冷却时间,所以这样我们的PUE设计值是1.25以下。抛开乌兰察布、贵阳或者其它资源条件比较优越的地方,在华南地区的数据中心中的PUE值也是比较低的,PUE值1.25以下,整个能耗降低10%。在东岳庙数据中心的节能设计中,水冷作为主冷源,采用循环利用的方式。冬季和过渡季节用节能板换的方式,如果是夏季不具备自然冷却的情况下,我们通过冷却塔的方式来做。我们还预留了降水冷源的方式,未来有机会也会把它用上。后续会考虑把江水冷源,包括还有湖水等等资源利用起来,作为一个循环利用的方案,三峡将推动这方面的事情。

另外就是我们的机房楼没有采用架空地板的方式,而是采用风墙和热通道封闭的方式,这样也能提高节能的水平。

目前我们的数据中心进行了有益的探索和尝试,但是我们的设计原则还是遵循国标的标准,在绿色节能方面,目前国内外还没有相关的行业标准或者国标,后续我们也希望能够积极参与,与各位行业专家一起推动我们国家节能数据中心行业标准的编写和发布,我们也愿意积极分享三峡的经验和清洁能源方面的经验。

郭亮:非常感谢今天的4位嘉宾,我们前面聊了东岳庙数据中心的情况,4400个机架,今年12月份就能完工,我们还聊了液冷数据中心的选址、成本、跟风冷是否能兼容。我们也聊到了各个企业碳中和的规划、时间点,要做的技术方面的工作、外部的工作。我们也聊了数据中心建设运维过程中要做哪些工作,实现数据中心的低碳,各位专家从数据中心的生命周期到数据中心里面的水电,到IT,到上面的运维,各个层面做了很多的技术创新,大家做了分享,再次感谢四位专家。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2023-12-18 09:08:00
国内资讯 共话“算力+金融”探索创新 金融行业算力中心高峰论坛隆重举行
他表示,大模型在金融领域的应用,目前还处于探索试点的初级阶段,仍面临多方面挑战。 <详情>
2023-11-24 21:14:00
数据中心液冷 国内首个!华南理工大学落地存算一栈式数据中心
测试显示,存算一栈式液冷数据中心部署后,PUE值可降至1.2以下 <详情>
2023-11-09 18:30:06
云资讯 还不赚钱的大模型 先对智算中心提要求丨三问智算产业
在AIGC产品百花齐放的同时,变现是大模型厂商们接下来必须要考虑的问题。 <详情>