国内云计算数据中心领域最具规模和影响力的标志性盛会,第十二届中国IDC产业年度大典将于12.21-22日在国家会议中心举行。在昨天的主会场上,多位领导及嘉宾对目前数据中心整体市场进行了分析与点评,在今日的数据中心技术创新分论坛上,多位嘉宾将会对数据中心的技术创新进行分析与解读,让我们共同迎接今天的数据中心技术创新分论坛。

中国IDC产业年度大典作为国内云计算和数据中心领域规模最大、最具影响力的标志性盛会,阿里巴巴IDC运营专家郭树师出席此次会议,并发表《阿里巴巴数据中心节能实践》主题演讲。

微信图片_20171222155231

阿里巴巴IDC运营专家郭树师

以下为演讲实录:

我今天的题目稍微变了一下,原来给我的题目是关于节能方面,现在的题目叫《阿里巴巴数据中心节能实践》,这个PPT是以张北作为案例来展开,刚才郭亮讲的很有感触,当他在研究液冷的时候,其实我们也在深入地去做了,而且对于未来的方向,感觉液冷会成为未来的主流方式。在张北,现在我们已经进行好几月的实验,包括整个包间大规模的应用,随着国家能源的消耗越来越多,随着数据中心那么多的建设,对于液冷的需求,对于制冷的欲求,未来这种发展雅趣是不可持续的,逼着我们去分析下一个更好的应用。比如说液冷。

液冷有三种方式,一个是浸泡式、冷板式、喷淋式。

说之前还有一些敢想,随着数据中心大量的能源使用,目前在北京找到一个能够满足中型电力的数据中心不好找,我们数据中心耗电量非常大,社会和企业、团队的架构我就不细说,下面说一些运营的实践。

第一点,新风应用。新风在这个行业提过好多年,据说大家真正应用,在天津、北京、张北,好多数据中心都在尝试用新风,到底新风行不行?在张北进入一年多,我们用了三个包间进行了实验,新风在特定的清洁度、湿度、温度的情况下部分地区是可用的,这个新风能够极大地降低我们的PUE,它的风险控制点主要来自于硫化氢和二氧化硫,因为它会和我们的银、铜产生硫酸铜和硫酸银。我们这里要控制住这些,新风是可以使用的,我们目前在积累大量的数据,运行一年多,看到效果不错。

假如不是张北,而是放在天津、青岛、上海未必就可用。

新风有三种模式,有全新风、半新风。有新风、回风、混合风,这是一个气流模型,这是对实验室的照片,以及检测,我们更担心的是服务器的寿命、故障率,通过控制腐蚀程度,我们看看新风到底能不能广泛地普及,在哪些地方可以普及,通过实验,通过小规模的试用,我们其实在张北进行了有益的实验和探索,这是新风问题。

第二点热通道密封。传统的机房很多还在冷通道封闭,冷通道封闭需要架空地板,而热通道封闭可以有更高的换热效率而且省去了架空地板,它是弥漫式的冷通道的送风,我对热通道进行热量集中回收,我把温度尽量提高,然后进行一个高温的回风的高效率的环境,这是热通道封闭,今天通过这个PPT,也是希望我们在座的,或者来自未来数据中心的从业工作者一起来探索更多的节能,或者说降低电力消耗的方式,或者是技术。

第三点,冷热水的供回水温度。我们目前看到很多机房,设计的很传统的供水,还有很多在7度供水,12度回水,还有继续往上提,到底要提到什么程度,目前我们张北出水温度17度,回水是25度,也就是有6度的温差,出水温度从7度升高到17度,乃至19度,回水也相应的提高,这个提高还是挺明显的。

第四点,变频技术。这个变频已经很成熟了,但是并不是所有的数据中心都广泛地使用了变频技术,各种电基、冷基在固定频率的时候是固定的消耗,根据需量,按需所供,按照所需变频,这在我们一次泵、二次泵、冷基、冷塔进行了广泛的应用,希望这个变频技术能够有更多的数据中心借鉴,它的技术要点就是低频自适应变频技术,还有电基低频值优化。我们现在普遍的应用到28到32HZ左右,频率和转速成正比,功耗是程三次方的关系,变频的节能效果还是很明显的。

第五点,冷却塔水流路径延伸技术。有很多做冷塔的,冷塔造出来以后,在不同的地区,比如在南方、北方是有不同的需求,而且普通的冷塔到了张北以后还要进行改造,张北要进行防冻,另外原来的牌偏小偏浅,到张北以后我们重新进行优化改进,就是把水流路径延伸,增大散热面积和散热时间。冷塔的设计并不是一个标准,还是要根据所处的地区进行优化,不光是路径延伸,包括你的两个电基或者三个电基的独立控制,是两个电基同时在,还是只运行一个风扇,这个冷塔还有很多未来发展的提升空间。

第六点,液冷技术。刚才郭博士讲的跟我们用很相近,这已经真正地在,而且效果还很好,为什么要这么做?把我们传统的机柜三千瓦、四千瓦、五千瓦,到六千瓦的时候,发现这些不够用了,我需要二十千瓦、三十千瓦、五十千瓦的时候,普通的制冷模式是满足不了消除热导的局部过热。液冷有浸泡式的,还有喷淋式的,我呼吁我们的合作伙伴或者友商,继续加大这方面的投入,这是未来的趋势,大工业的机会是未来的趋势。

第七点,这是空调最优控制逻辑的选择。首先温差,当冷热通道封闭和分离的目的是什么?还是加大温差,而温差叫什么?末端空调的送风速度,当温差调高以后,我们的空调末端的转速可以降低下来,普通空调有四种模式,哪种是最优的,比如说出风控制、回风控制、压差控制、温差控制。这四种模式当你选择的时候,它的节能效果是不一样的,目前一个很好的实践就是加大冷热通道的温差。出风的温度可以设定,比如说可以通过机器来进行设定,还有通过温差的设定。

第八点,服务器的进风温度。还是回到传统机房,能不能继续往上提,24正负2可不可以,25正负2可不可以,目前这些企业有没有进行尝试。我们现在已经做到了25正负2,就是把整个机房的温度进行普遍的调解,而服务器厂家可能也有这个,它的耐受温度合理是34-35度,是可以满足的,当25正负2或者26正负2的时候,通过数据的积累,我们有进一步提升的空间。

当然提高了进风的温度,相应的CPU转速的速度也会提升,这时候要找到他们之间的缺陷,不能一味的提升,比如到了正负25要停一下,你要测一下三条曲线的交界点,找到最优的集合。

第九点,冷却塔无渗漏保养。怎么除冰,怎么减少受漂水,也需要冷塔和电力系统进行配合,现在的方式还是靠人工,或者是一个半自动的方式,通过电力系统的调解,或者是通过一个送风口的开口,或者加漏斗,像张北的冷塔进行了大量的改造,这种小技巧还是有一些借鉴意义。

第十点,冷却水净化再利用。大家考虑电力的同时,还要想一想,其实数据中心跑水量也是比较大的,我们有一个词叫WUE,它的值做得不好的达到4.0以上,做得好的达到0.4左右,这个差别挺大,冷却水的导电率到多少PH值进行排放,这需要维护的人进行大量的数据探索,比如说1500、1600、1700.既要保证水的可用又要减少排放。一个是导电率,一个是PH值,这是我们目前的关键指标。

第十一点,室内外湿度为跟随控制技术,我知道目前有些机房还是40%-70%的湿度,这个值还有优化的空间,比如30-75可不可以,30-80可不可以,20-80可不可以,从配电室到IT机房它的的湿度要求不一样,通过加湿器能不能用自然方式来解决,目前这个值已经进行了大范围的优化,这个湿度有很多的加湿器,这也是一个不小的耗能。目前的湿度值可以从40%-70%,将提高到25%-80%,配电室可以做到18%-90%,通过这个数据的优化,可以在加湿方面对数据中心这个行业,乃至普通的机房进行推荐,或者是参考。我们有两个指标,温度和湿度,把这两个优化好,对PUE的降低还是很有效果的。

第十二点,BA全自动控制系统。目前国内用BA的还是挺多,BA有几种方式,它有全自动、手动、半自动,目前我们新建的机房,大部分做到全自动、自动加机、自动减机、自动进行多种模式的切换。这里面涉及到比如说冷机的控制模式和新风的控制模式,比如说3+3,就是冷机有三种模式,新风有三种模式,张北是六种模式进行切换,张北的PUE,上次在CDC大会上有一个值,它获得了CDC的科技能效杰出奖,平时运行PUE值都在1.1几,这是实际运行的,而不是实验数据。还是希望更多的厂商参与进来,目前厂商还是偏少,而且希望它更人性化,更自动化一些。

第十三点,新风焓差节能空调技术,这个技术南方用得比较多。

下面说一下电气方面的实践。

第一,互联网行业一路市电+一路高压直流,已经不是新技术的,原来担心的高压直流现在也没那么担心了,但是相对于传统的2N的UPE,1路市电,1路高压直流,它的效果很明显。但是现在还有很多数据中心还在用2N的UPS,即便我们阿里采用了1路市电加1路高压直流,它这里面还有两种技术,就说1路是负载均分技术,就是一人一半,各50%,还有一半是负载不对称技术,我市电这侧能不能承担90%,乃至95%,让高压直流这侧承担更少的,就是这样才能够减少高压直流的转换效率的损耗。高压直流目前在互联网应用中心应用比较多,价格也比较便宜,比如说目前常用的这几个有东达(音)、东塔(音)、新星(音),我们希望这些厂商有更多的节能技术出来,不要说高压直流就一定节能,高压直流也有用的低效、中效、高效的,我们更加希望它能够研发出来根高效的直流模块来。如果提高1%,对数据中心全部的节能效果量级还是非常大的,1%的电,还是很明显的。

第二,变压器,大家现在遇到一个什么瓶颈,向电力局,向电力公司报装新型容量的时候,它的容量是有限的,你报了2N,整个便电锯一半为数据中心冗余,当变压器不再是2N结构,而是4+1、5+1、6+1,对国家能源的占用、预留又会降低很多。比如北京供电五月供电质量比较稳定的地方,这种方式可以去适用,或者更大规模地去用,当然它会带来运营人员的应急能力的考验。所以说降低架构的同时,其实就加大了对运营人员的要求,从2N到N+1,把N控制得好,控制在小于等于5,这个架构的改变对整个国家的能源其实降低了很多。

第三,智能照明,我们的照明占到数据中心的比例哪怕是0.01%,这个数量也是很可观的,尤其对于大的互联网公司,0.01%的能源占比,比如说照明,传统的照明有T5、T8、LED,还有普通的照明,像张北采用的是LED的固态照明,按需分区控制,照明不是通过技术创新,是需要从细节上把控,从设计的源头上就开始设计。

第四,蓄电池组在线升压自放电测试技术。改变原来直接放电降压的方式,因为那是直接放电,那个时候一旦停电是有风险的,相反我们进行逆向思考,采用升压放电,我这路电压偏高,另外就进行放电,就把思维倒转过来,这种方式起码能保证不段电。当然对2N的UPS不是这种,但是对于互联网这个放电技术还是值得行业去研究,我们现在在应用,而且普遍的蓄电池的接口,在传统的机房当中没有这种接口,所以希望新的数据中心在建设的时候就把这个接口预留出来,很简单,就在配电箱增加一个接口就可以了,可以大大增大运营人员的放电效率。这个蓄电池技术已经十年了,是一个成熟的技术,但是现在会用的不太多,敢用的更少。大家可以去尝试一下。这个对能源有什么好处?它不用把能源直接消耗到空气当中,它是把现有的蓄电池的电能还是回到IT的负载当中,它对外没有热量的散出,其实这也是一种间接的能源的回收利用。

第五,一路高压直流有它的有点和它的不足之处,我们张北不同的模组进行了不同的尝试,假如说我既保留2N的结构又要保持它的转换效率怎么做?我们原来有三种架构,UPS做好,高压直流做过,能不能做到4N,四种线均分也就四种线交互冗余技术。它通过负载均分,项目备用,既满足了2N架构,又提高了高压直流的这种利用效率,这是另外一种架构模式。

第六,模块休眠与自动唤醒技术。这个模式可能每个设备里有,但是敢用的、真能用的有可能不是太多,有可能是有,通过唤醒和休眠,这块的节能有一个百分之三到五的降低,这里面有两点。一个是负载电流加充电电流。你要设定一个计算。第二个是A类告警自动唤醒,当它在睡眠的时候出现告警的时候就是不要再税改了,起来工作,因为依靠高压直流有十五到二十个模块,可以有十到十五个进行休眠,它会根据负荷自动调整。同样UPS也有这种功能。我们总体叫这种模式ECO模式,它在菜单里像一些主流的,比如说中恒(音)、中达(音)本身就具备这种功能,希望我们的运维人员把这种功能开启,你要是不放心的话可以进行部分开启,也可以进行厂家反复的测试,然后再进行系统应用,所以说后续的高压直流的使用和研发,还是要更加贴近用户的需求,现在是有,但是我觉得还是有很多需要优化的地方。它的休眠与唤醒实现起来还不是太我们对这个短名单,我们对这个品牌进行入围的时候进行限定。

第七,削峰填谷水蓄冷应用。蓄电技术,当电价调低的时候进行充电、蓄水、蓄冰,削山填谷,存能、存水,或者是蓄冰,现在这三种技术,我们都有尝试。

第八,EC风机。不要小看风机,风机占数据中心的耗电量很多,我们空调末端有N台EC风机,这还是有一定的节能效果,其实大家想一想,现在建一个数据中心花不了多少钱,而更贵重的是这一年的电费,几年的电费就超过一个数据中心的总的投资,所以在设备选型、采购设计的时候,优先要考虑节能,比如说EC风机五千块钱,可能一年就把你成本回收过来,比如说高压直流,看似你亏了一万块钱,比如十年下来,它提高了1%的能效,那么这个节省的电费又多少,一台高压直流三百千瓦,1%就是三千瓦,一小时三千瓦,一年又是多少电。所以我们希望更多更优秀的产品能够应用到数据中心来。

第九,下面说一下UPS,UPS已经非常成熟了,UPS是一个非常成熟的产品,我们在选配的时候,有公平的,有高频的,有六脉通,有十二脉通,有的模块具备休眠模式,也叫VMSS,这是一种模式,还有一种模式叫静态高效节能模式,这个功能我们叫ESS模式。设备采购、设计的时候如果有了这种功能,其实对后续的维护,降低PUE、降低总的成本都是需要高度的。这里要说到,不光要进行模型的选择,还要进行功能选择。

第十,无功自动补偿,它的要点就是自动补偿和进行滤波,提高使用率。

第十一,柴发水套电伴热节能。当数据中心对PUE要求极致的时候,大家发现我们在高压配电和柴发里有几个常年发热的器械,比如说柴发,一个柴发有两个电伴热,一小时就耗那么多电,而且不止一百台,一个数据中心,像张北一般就是一百多台,就近一百五十台的发电机。

最后说一下管理角度。

第一,目前阿里普遍新建的数据中心采用租电分离,PUE奖惩激励。比如我们希望PUE做到1.3以下,大家省下的钱一人一半,当1.3到1.4之间,我不奖也不罚,比如超过了1.4,多余的部分你来掏,我不掏。按照负载率和装机率分段考核,人性化的考核,可能春夏秋冬进行不同的考核。

第二,能效指标评价。单纯的PUE不足以衡量,我们还有一个加权平均PUE,也就是WAPUE,就是我们要多重的考核指标。

第三,WUE也有限定,我们争取控制在WUE小于0.9,能做到0.2-0.9更好。

第四,工艺精细化。这涉及到整个通道的封闭、保温、隔热、防爆、除尘、电磁屏蔽、环氧地坪、地面硬化等。要善待运维人员,提高他们的积极性和责任心。

第五,能效管理与考核系统。这是张北的一个控制DCOS、IDCM、DCIM、BMS、GOC,这块才是最未来大的方向,现在有叫DCM的,我希望来自于更多的智能化的管理,而不是靠数据分析靠人工,而是希望有一个更上层、更智能的软件来进行分析。目前业界已经有很多厂家在做,但是离我们的需求还是有一定的差距,当数据中心大力发展的时候,我们希望更多的优秀厂商出来,比如说现在国内已经在做的有DCM、中联创新(音)等等,总之一句话,未来需要更加智能的平台,或者是机器人,或者是更先进的人工智能来管理我们现在的庞大的数据中心,对能源、对国家未来的能源的消耗有一个充分利用和最大化的利用。

这是我今天演讲的初衷,谢谢大家!

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2018-01-19 16:00:00
国际资讯 苹果公司将在5年内投资美国的数据中心超过100亿美元
日前据悉,科技巨头苹果公司已承诺在未来五年内增加在美国的投资,并在数据中心上花费超过100亿美元。数据中心的"扩大的资本支出"增加了苹果公司计划在其数字基础设施上的 <详情>
2018-01-19 10:32:00
数据中心节能 能源效率将成为数据中心行业的主要关注重点
根据研究机构Anthesis公司的调查表明,到2020年,数据中心的电力消耗预计将每年增加约1400亿千瓦时,每年需要相当于17个新电厂的年发电量,排放近1.5亿吨的二氧化碳。 <详情>
2018-01-19 09:47:48
机房建设 云计算合并数据中心企业未来的发展模式
在数字时代,企业IT环境日益复杂,在所有行业中普遍存在快速而积极的变化。随着技术的发展,企业审查和更新现有数据中心基础设施以确保保持竞争优势,这变得越来越重要。 <详情>
2018-01-19 09:28:00
机房建设 小型数据中心同样也需要讲求效率
我们可以肯定的是,在过去的2017年中,已经形成了一大趋势:我们已经在几乎每个垂直领域都看到有越来越多的企业组织机构进一步投资于IT系统。而如果你想当然的认为这些投资 <详情>
2018-01-19 09:23:00
国际资讯 Intel:漏洞补丁致重启已查明 数据中心性能损失最多25%
Intel执行副总裁兼数据中心事业部总经理孙纳颐(Navin Shenoy)今天就Spectre幽灵、Meltdown熔断两个漏洞的修复进展做了最新通告,并首次披露了Intel在数据中心方面对于打 <详情>