2019年12月19日,第十四届中国IDC产业年度大典(IDCC2019数据中心技术论坛在北京国家会议中心举行。IDCC2019作为数据中心云计算产业内知名的盛会以及IDC企业、电信运营商、互联网、金融、政府和厂商等产业上下游的高效沟通平台,与会嘉宾包括政府领导,行业专家和企业代表数千人。 爱酷阿尔西制冷技术(北京)有限公司董事总经理张东来在数据中心技术论坛上带来《间接蒸发冷却技术在全球著名数据中心应用案例的技术解析》主题分享。

张东来

爱酷阿尔西制冷技术(北京)有限公司董事总经理 张东来

张东来:各位好!我叫张东来。来自于爱酷阿尔西公司,今天我给各位带来的是世界上的三个比较著名的数据中心,通过实际已经使用和运营了若干年的,使用间接蒸发自然冷却数据中心的实际的使用案例,从这个案例的角度看一下蒸发冷却这个新的技术能为数据中心做什么,尤其是在能耗方面。

在介绍这个案例之前先务虚一下,这儿有一个我们结合中国北京气象条件来计算的表,以我们的经验来看是能够百分之百实现的,分成三页来看。第一页是初投资,如果使用传统的数据中心空调,也就是咱们说的冷塔、冷机房,假如都是5000个柜子数据中心的规模,我们看一下初投资。如果是5000个柜子的话,我们按照2500块钱每个千瓦的热负荷造价来做计算的话,蒸发冷却传统是2500,蒸发式是3000,或者都是差不多,基本上初投资蒸发冷却会比传统的贵20%,采购空调的造价方面,蒸发冷却这个新技术会比传统的贵20%。

我们再看一下运营成本,我把运营成本分得很细,比如说传统的跟蒸发冷却比电费是多少、水费是多少,每年空调维护保养的费用,比如热交换器的清理、填料的清理、水的软化、杀菌,我把所有的有可能发生到的,在5000个柜子数据中心的运营成本都罗列上去,假设电费是6毛钱一度的话,这个能够很清楚计算出来蒸发冷却省的电钱,跟传统比节省了56%,水钱节省了65%,空调的年度维护保养费用与传统的比省了33%。也就是说如果使用蒸发冷却的话,这一年当中所有的运营成本降低55%,这是很大的一笔费用。

使用蒸发冷的话,运营节省的钱跟刚才我提到的采购的时候的初投资贵的钱会差多少呢?靠运营省的钱多长时间会把初投资贵的钱收回来?投资回报率怎么样?这是第三页的比较,如果是计算运营省的钱和采购初投资贵的部分来说,是0.8年就收回了采购的贵的那部分初投资。如果是空调买了以后计算它的全生命周期成本,这个空调如果是从采购来到退役的时候一共用了15年的时间的话,用蒸发冷却的空调的全生命周期总成本(TCO)会比传统的低46.09%。如果运行15年,5000个数据中心的机柜,花在传统空调的钱,包括运行成本和初投资,15年下来TCO是5.4亿元,采用间接蒸发只花2.9亿元,不到3亿。这个节省是惊人的。再谈到更多的,比如企业社会责任、绿色环保,它省电钱和省水钱基本上就是等同于在这15年时间植了50778亩的森林面积。

从另外的角度看一下这个空调究竟是如何使用的、如何节能的,怎么样做到节能的。给大家带来了比较多的视频,可能我接下来放视频的时间跟我讲的时间差不多。第一个是空调的视频。

(播放VCR)

张东来:我带来的第一个项目案例地点在爱尔兰,这是一个租赁型的数据中心,我们可以把它理解成是一个大平层的数据中心,一共是四栋楼,每个楼是8个模块,送风温度是25度,回温温度是38度,目前使用的是64台。这个地方的温度跟大连类似,实际运营PUE是1.12,WUE是0.7,空调因子能耗的PPUE值是1.1以下,类似于中国气象条件的大连。它的空调摆在这个平层的左右两侧,整个距离是40米距离,左右两侧的风对着吹。蒸发冷却空调跟传统的比会大一点,占地面积是很大的挑战,因为节能,所以空调的体积是小不了的。可能对于大平层来说找这么大的面积去放这个空调相对来说容易一点,因为它毕竟只有一层。

第二个机房是三层的,跟大平层比就稍微难一点,左边的是项目的介绍,数据中心在伦敦。它的一层是一些基础设施当中的基础设施,比如光纤、宽带、配电、柴发等等,放在一层有柱子的地方,二层和三层是机房,空调摆在类似于百叶窗这个地方,这个地方颜色和整个百叶的颜色不一样,中间的口是空调的热风排风口。这个站点我本人也去过,它的设计最巧妙的地方,在于它的空调送风和回风的形式,三层的机房的机房面积一共12000平,采用的是送风24、回风37度。这是项目兴建时期拍的照片。把空调放到了这个位置,类似于阳台,大量地使用自然冷源实现自然冷却。它有一个很大的挑战,我把冷风吸进来以后再把热风排出去,如果是这一个楼层的热风从这儿排出来以后,能不能被上一层吸进去?这是一个很大的挑战,它又没有在左侧和右侧开进气的通道,只是从这面进冷风,从这面排热风,气流的短路问题怎么样解决的呢?这是我在看这个项目的时候最感兴趣的点。

后来我发现它真是很巧妙地解决了这个问题。这是蒸发冷空调,这边是数据中心,冷风通过这个地方送进数据中心,这是数据中心的热风回风,空气和空气之间通过热交换,在这儿进行热交换,只是热量的传导,并没有空气的混合。室外的冷源侧,室外的空气是从这个地方进来,进到了送风口,从这个地方排出去。回头看一下刚才的图片,比如说进和排都是在这一侧,但是它怎么实现没有空气的短路呢?后来我仔细地研究发现,它的排风口,整个进风面积是排风口面积的20倍,也就是说如果进的风的数量和排风的数量是完全一样的话,也就意味着我的排风的风速是进风风速的20倍,他们是直接呈反比的关系。通过排风风速是15米/秒,但是进风这一侧可能就是零点几米每秒。通过风和风的速度的不同,实现了热风跟冷风的差异化,尽量减小短路。一开始我还真没有想到这种方法也可以,通过我走访这个数据中心,它实际的PUE值是低于1.2,确实是让我深度地相信,这么一种通过射速差的方法来实现减小热和冷的短路问题,是可以实现的。这是三层的数据中心,相对来说也简单一点。通过风速差异化来规避短路的。

挑战最大的就是高层机房,这个项目我觉得是目前为止世界上少有的明星案例。它是一个七层大楼,七层的数据中心,使用间接蒸发自然冷却技术的,这个也是全球第一个能够在五层以上的数据中心里面使用间接蒸发自然冷却技术的,这个项目也是我亲自走访过的,它设计得更加巧妙,都想用蒸发冷却,因为它确实很节能,但是首先要解决一个占地的问题,七层这么高的一个大楼怎么解决占地问题?不像大平层或者两层的,它可以把空调放到屋顶上,但如果是七层的话,屋顶共有的那点有限的面积给七层的数据中心使用的话,肯定空调是摆不下的。

着重看一下这个项目当时我们是怎么实现这么小的面积把蒸发冷却空调摆上去的。地点在伦敦东印度码头,左边的地方是Telehouse原有一期和二期的机房,红圈的地方是自己的预留地,由于在伦敦的东印度码头土地也是基本上寸土寸金,有限的预留地的圈圈之内,它只能去造一个高层的数据中心,承受不起造一个两层或者大平层的。

设计的时候业主提出这么多要求,第一个就是每个机柜实际的使用面积是4.32千瓦,不是热密度非常高,但是也是比较主流的高热密度,这么一个需求只能是做高层的数据中心,因为刚才说地的问题,同时提出了非常苛刻的两个要求,第一是PUE必须小于1.2,后来我通过这个项目走访我发现,在英国那个国家,它有一个市场上的潜规则,就是租赁型的数据中心,它的客户往里面放服务器的时候,除了租赁的机柜的面积是有面积的租金以外,客户给它付到的基础设施的电费自动到1.2,如果是你的数据中心能够达到1.2以下的PUE值,客户给你付的电费,你可以自己揣兜,但是如果你跑出多于1.2的电费,客户付的租金就不管了,只是给你管到1.2,所以他提出这么一个近似比较苛刻的要求,PUE值必须小于1.2,这样的话,客户给他的租金的钱才能赚到,不至于拿那个租金的钱再去贴补额外的电费。另外,伦敦是曾经的“雾都”现在的空气治理虽然还算可以,但是它也不允许新风直接进机机房,毕竟是国际化大都市,空气污染相对比较严重,不允许新风进机房。这么一个高层,PUE必须要1.2,热密度又是那样的,不允许新风进机房,怎么实现PUE小于1.2?在前期的各种论证当中,几乎是以现在的技术来说,只能选择蒸发冷却或者间接蒸发冷却,因为新风不允许进机房。

我们创造性地把蒸发冷却的空调设计到了阳台上,侧墙的外立面做得像半导体的集成电路似的,感觉高科技感很强,其实那个地方就是放阳台的外立面,我们把一层一层的钢构搭了一个钢构的阳台,最后把这个空调一层层摆到阳台上以后,我们接下来同样面临着其他的问题,第一个问题就是,如果摆到阳台上,下面出来的热风会不会上面吸进去?也就是提到的第二个案例所考虑到的情况,就是空气的短路问题,如果说上一个是一个两层,只有两层数据中心的机房,靠空气的射速可以OK的话,七层的机房这么一种情况一定会有一个相对比较严重的叠加,即使你的风速有一个10倍或者20倍的差异,到了楼上,楼上机房的进风热叠加问题一定会很突出。另外阳台承重行不行?大量上升的湿空气对整个钢结构的防腐是怎么样的情况?如果最后这些问题都解决了,层层叠加,有可能产生这面墙的热岛效应,它能实现楼上的数据中心的PUE小于1.2吗?这些都是我们设计之初把这个项目拿下来之后心里七上八下的。

这个项目最终还是摆在了阳台上,2到7层是数据中心,柴发在1层,新风机放到屋顶,屋顶仅仅放了新风处理机,并没有放制冷空调。我们做了各种各样的仿真模拟和计算,我刚才提到新风和排风的气流组织问题,我们更加创造性地设计了岔流进风,在室外侧的空调排风是排到了正面,每一个空调的进风是一个90度的垂直的角度,从大楼的两侧来进。在一层、二层相对来说楼层低的机房,除了两侧以外,地板的下面也是可以进,而且每一层楼板用那些可以移动的焊接的工程上用的钢管,一层到七层的地板都是通的,它完全可以实现新风从一层到七层的自由流动,在数据中心这一侧,这个到那边的送风距离是将近20米-19.5米。新风经过热交换器,把冷带给机房,变热从这边排出去,数据中心的热风从这儿回来以后,再通过弥漫的方式送到机房里,这是我们做的设计,送风距离是19.5米,基本上接近20米。大量出来的热空气通过这个方向排上去,但是室内的冷风是通过这个地方垂直,以90度的形式来供给这个空调。怀着这种七上八下的心理忐忑我们把这个项目设计,并且交付完了。

结果实际跑出来的PUE值是1.16,让我们非常欣慰,不仅满足了1.2,甚至是跑出了1.16,再想到这个项目初期又是高层,又是PUE必须小于1.2,不允许新风进屋等等一系列的难点,我们一一克服了以后,几乎在2016年欧洲的数据中心的各种大奖都被这个项目所掌握了。

我有一个项目的视频,实际上也是这个机房的漫步,大家可以看一下。

(播放VCR)

张东来:(解说VCR)这一侧是空调侧,空调是通过钢结构一层一层搭到阳台上面,支上去的。中间灰色的是空调。室外的风和机房的风在中间进行热传导,但是风和风并不混合,空调产生的冷风通过弥漫送风的方式进入到机房当中。机房的每个微模块是热通道的封闭,也就是整个数据中心是冷风弥漫的。这是这个项目的配电。柴发在一层。这面墙每一个浅蓝色都是空调,屋顶并没有被空调所占用,只有简单的新风处理、微波等等无线的发射装置,2016年这个项目投产,到现在运行3年,PUE值重新实现1.16,我去的时候,业主跟我说还没有实现精细化的运营,如果实现精细化运营的话,他们有信心做到1.12。这个是很不容易的,高层的数据中心能做到1.12。

通过这三个案例可以很清楚地看到在中国北方,甚至我们做过好多模拟计算,在中国深圳地区,PUE值我们都是有信心通过这种技术来实现PUE值小于1.2。我们相对来说是比较自信的。这个空调究竟是什么样的结构能实现这么一个神奇的节能效果?我跟大家讲一下空调的结构。中间是这个空调最核心的零部件,就是热交换芯,它是间接蒸发、自然冷却,是室外的冷源和机房的热风在芯中间进行热交换的场所,这个芯有几个重要的维度,一是它的热交换的热的传导效果,可能比热交换传导效率更重要的是它的全生命的平均传导效率,我们经常说这个芯的热传导交换效率是多少,但是这里面有一个误区,误区是新的时候热传导效率比较高,可是用了5年、10年以后热传导效率,通过不断空气的氧化、腐蚀,是会降低的,所以空调全生命周期内的传导效率是多少?这个芯的另外一个重要的因素,它的防腐性能怎么样?两侧分别是机房的风机和室外侧的冷凝器的风机,风和风只是通过热交换芯进行热量的传导,风和风并不在芯里进行热量的混合,冬天靠空调就可以了,过渡季节或者夏天早晚的时候,仅仅靠换热就不行了,我们把绝热的这种蒸发的水喷淋打开了。在夏天最炎热的中午,在空调的内部已经内置了蒸发性冷凝器压缩器,或者大楼有冷风水的话可以把冷风水接过来,空调能接多少能主要看这个区域,这个机房所在的地点使用压缩机以外的小时数有多少。比如在海拉尔或者张北地区,基本上全年8760小时当中是没有几个小时要开压缩机的。如果到了北京8000多个小时当中可能有2000多个小时需要开压缩机,到了上海变成3000多小时,到了深圳可能变成4000小时甚至5000小时,理论上讲开压缩机的小时数越高,这个空调的节能的百分比就会越差一点。我们通过计算发现另外一个结果,开压缩机的小时数越高,虽然节能的比例小,但是省出来的电钱的绝对值是更多的,也就是说在深圳如果使用蒸发冷空调,蒸发冷空调的电钱比北京省的电钱还大,听起来不是很符合逻辑,仔细地想想其实很简单,就是在深圳如果使用传统的制冷方式的空调,你用的电钱更多,所以省的比例虽然小,绝对值大。

这个空调还有几个特点,第一个是铝塑板,这个空调是业内占地面积最小,质量最轻的。第二个,因为用了高分子,所以轻。第三个,里面所有的结构件全部采用304的食品级的不锈钢的。这个空调可以实现全球唯一的承诺,这台空调管用20年,里面最核心的热交换芯是世界上唯一一个厂家敢提出来给20年质保的,这个热交换的效率的全生命的平均热交换效率我们敢给20年的质保承诺。通过90度的岔流热材质进行热交换,右边是它的喷淋打开以后,高压喷淋产生几乎接近于绝热蒸发,它的递进度大概是1-2度左右。我们是欧洲第一家将蒸发冷却引入到数据中心的企业,到现在为止已经是整整做了十年了,十年时间我们的产品从第一代已经推出到现在的第八代产品,坦率地说,八代产品的过程也是一个不断在摔跟头,在摸爬滚打中产品从不成熟到成熟的过程。第一代、第二代产品早期是这样的,跟我们现在用的高分子的热交换器是不一样的,当时我们追求热交换效率的极致,所以我们使用了铝质的交换设备,确实在新的时候热交换效率比现在高很多,但是我们很快发现这么一个问题,如果是热交换芯上面喷的水是处理不当,没有经过软化、净化等等,这个芯是很容易被腐蚀掉的,一旦被腐蚀掉以后,第一年新的交换效率再也回不来了,一旦被腐蚀掉就是完全不可逆的过程,当使用三年以后节这个样子,所以我们在2009年的产品只问世了三年就把它给拆除了。痛定思痛,后来我们投了很多钱,直到今天研发出了敢给出一个20年质保承诺的热交换芯。

简单介绍一下公司,我们是一个合资公司,是一个中国和英国的合资公司,全称叫作爱酷阿尔西,英国的EXCOOL公司和北京的阿尔西合资成立的公司,是今年1月份的时候在英国合资成立的,当时成立的时候,由于涉及到云计算、5G、绿色节能等等这些热门的主题,所以当时也是两国政府非常重视的项目,我们这个合资仪式是在英国的国会大厦里面举办的。包括我们合资的时候,英国的国会议员和中国驻英国的总领事共同出席,见证了这个合资仪式,当时英国的时任首相特里莎·梅还特意为这个合资赠送了一瓶她亲笔简明的威士忌酒。

这是我的联系方式,微信二维码,如果大家对于这个技术还有哪些疑问,欢迎加我的微信,咱们可以后续沟通,谢谢大家!

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2019-12-19 16:58:50
国内资讯 【IDCC2019】中国建设银行侯岳:企业级IT架构视图可视化与运维领域应用
在“智能运维与安全论坛”上,中国建设银行运维数据中心业务经理侯岳出席本次会议,并发表了《企业级IT架构视图可视化与运维领域应用》主题演讲。  <详情>
2019-12-19 16:52:25
国内资讯 IDCC2019开幕 鹏博士大数据斩获双项大奖
12月17日-19日,第十四届中国IDC产业年度大典在北京盛大开幕。本届大会以“新基建、新产业、新格局”为主题,集合行业翘楚,深入探讨数据中心、5G、边缘计算、区块链、人工 <详情>
2019-12-19 16:36:37
国内资讯 【IDCC2019】对话:中国企业出海的展望与痛点
近些年来,在互联网企业出海需求的带动下,数据中心运营商和相关行业厂商也逐渐意识到海外市场的巨大价值,开始纷纷策划自己的出海之路。2019年12月19日,在第十四届中国ID <详情>
2019-12-19 16:29:00
国内资讯 【IDCC2019】中国民生银行毕永军:金融数据中心智能运维的探索和实践
在“智能运维与安全论坛”上,中国民生银行信息科技部应用运维二中心负责人毕永军出席本次会议,并发表了《金融数据中心智能运维的探索和实践》主题演讲。  <详情>
2019-12-19 15:49:00
国内资讯 【IDCC2019】京东数科姚秀军:机房巡检的新方向与探索
在“智能运维与安全论坛”上,京东数科智能机器人业务部总经理姚秀军出席本次会议,并发表了《机房巡检的新方向与探索》主题演讲。  <详情>