国内云计算数据中心领域具规模和影响力的标志性盛会,第十二届中国IDC产业年度大典将于12.21-22日在国家会议中心举行。在昨天的主会场上,多位领导及嘉宾对目前数据中心整体市场进行了分析与点评,在今日的数据中心技术创新分论坛上,多位嘉宾将会对数据中心的技术创新进行分析与解读,让我们共同迎接今天的数据中心技术创新分论坛。

中国IDC产业年度大典作为国内云计算和数据中心领域规模大、具影响力的标志性盛会,阿里巴巴IDC运营专家郭树师出席此次会议,并发表《阿里巴巴数据中心节能实践》主题演讲。

微信图片_20171222155231

阿里巴巴IDC运营专家郭树师

以下为演讲实录:

我今天的题目稍微变了一下,原来给我的题目是关于节能方面,现在的题目叫《阿里巴巴数据中心节能实践》,这个PPT是以张北作为案例来展开,刚才郭亮讲的很有感触,当他在研究液冷的时候,其实我们也在深入地去做了,而且对于未来的方向,感觉液冷会成为未来的主流方式。在张北,现在我们已经进行好几月的实验,包括整个包间大规模的应用,随着国家能源的消耗越来越多,随着数据中心那么多的建设,对于液冷的需求,对于制冷的欲求,未来这种发展雅趣是不可持续的,逼着我们去分析下一个更好的应用。比如说液冷。

液冷有三种方式,一个是浸泡式、冷板式、喷淋式。

说之前还有一些敢想,随着数据中心大量的能源使用,目前在北京找到一个能够满足中型电力的数据中心不好找,我们数据中心耗电量非常大,社会和企业、团队的架构我就不细说,下面说一些运营的实践。

第一点,新风应用。新风在这个行业提过好多年,据说大家真正应用,在天津、北京、张北,好多数据中心都在尝试用新风,到底新风行不行?在张北进入一年多,我们用了三个包间进行了实验,新风在特定的清洁度、湿度、温度的情况下部分地区是可用的,这个新风能够极大地降低我们的PUE,它的风险控制点主要来自于硫化氢和二氧化硫,因为它会和我们的银、铜产生硫酸铜和硫酸银。我们这里要控制住这些,新风是可以使用的,我们目前在积累大量的数据,运行一年多,看到效果不错。

假如不是张北,而是放在天津、青岛、上海未必就可用。

新风有三种模式,有全新风、半新风。有新风、回风、混合风,这是一个气流模型,这是对实验室的照片,以及检测,我们更担心的是服务器的寿命、故障率,通过控制腐蚀程度,我们看看新风到底能不能广泛地普及,在哪些地方可以普及,通过实验,通过小规模的试用,我们其实在张北进行了有益的实验和探索,这是新风问题。

第二点热通道密封。传统的机房很多还在冷通道封闭,冷通道封闭需要架空地板,而热通道封闭可以有更高的换热效率而且省去了架空地板,它是弥漫式的冷通道的送风,我对热通道进行热量集中回收,我把温度尽量提高,然后进行一个高温的回风的高效率的环境,这是热通道封闭,今天通过这个PPT,也是希望我们在座的,或者来自未来数据中心的从业工作者一起来探索更多的节能,或者说降低电力消耗的方式,或者是技术。

第三点,冷热水的供回水温度。我们目前看到很多机房,设计的很传统的供水,还有很多在7度供水,12度回水,还有继续往上提,到底要提到什么程度,目前我们张北出水温度17度,回水是25度,也就是有6度的温差,出水温度从7度升高到17度,乃至19度,回水也相应的提高,这个提高还是挺明显的。

第四点,变频技术。这个变频已经很成熟了,但是并不是所有的数据中心都广泛地使用了变频技术,各种电基、冷基在固定频率的时候是固定的消耗,根据需量,按需所供,按照所需变频,这在我们一次泵、二次泵、冷基、冷塔进行了广泛的应用,希望这个变频技术能够有更多的数据中心借鉴,它的技术要点就是低频自适应变频技术,还有电基低频值优化。我们现在普遍的应用到28到32HZ左右,频率和转速成正比,功耗是程三次方的关系,变频的节能效果还是很明显的。

第五点,冷却塔水流路径延伸技术。有很多做冷塔的,冷塔造出来以后,在不同的地区,比如在南方、北方是有不同的需求,而且普通的冷塔到了张北以后还要进行改造,张北要进行防冻,另外原来的牌偏小偏浅,到张北以后我们重新进行优化改进,就是把水流路径延伸,增大散热面积和散热时间。冷塔的设计并不是一个标准,还是要根据所处的地区进行优化,不光是路径延伸,包括你的两个电基或者三个电基的独立控制,是两个电基同时在,还是只运行一个风扇,这个冷塔还有很多未来发展的提升空间。

第六点,液冷技术。刚才郭博士讲的跟我们用很相近,这已经真正地在,而且效果还很好,为什么要这么做?把我们传统的机柜三千瓦、四千瓦、五千瓦,到六千瓦的时候,发现这些不够用了,我需要二十千瓦、三十千瓦、五十千瓦的时候,普通的制冷模式是满足不了消除热导的局部过热。液冷有浸泡式的,还有喷淋式的,我呼吁我们的合作伙伴或者友商,继续加大这方面的投入,这是未来的趋势,大工业的机会是未来的趋势。

第七点,这是空调最优控制逻辑的选择。首先温差,当冷热通道封闭和分离的目的是什么?还是加大温差,而温差叫什么?末端空调的送风速度,当温差调高以后,我们的空调末端的转速可以降低下来,普通空调有四种模式,哪种是最优的,比如说出风控制、回风控制、压差控制、温差控制。这四种模式当你选择的时候,它的节能效果是不一样的,目前一个很好的实践就是加大冷热通道的温差。出风的温度可以设定,比如说可以通过机器来进行设定,还有通过温差的设定。

第八点,服务器的进风温度。还是回到传统机房,能不能继续往上提,24正负2可不可以,25正负2可不可以,目前这些企业有没有进行尝试。我们现在已经做到了25正负2,就是把整个机房的温度进行普遍的调解,而服务器厂家可能也有这个,它的耐受温度合理是34-35度,是可以满足的,当25正负2或者26正负2的时候,通过数据的积累,我们有进一步提升的空间。

当然提高了进风的温度,相应的CPU转速的速度也会提升,这时候要找到他们之间的缺陷,不能一味的提升,比如到了正负25要停一下,你要测一下三条曲线的交界点,找到最优的集合。

第九点,冷却塔无渗漏保养。怎么除冰,怎么减少受漂水,也需要冷塔和电力系统进行配合,现在的方式还是靠人工,或者是一个半自动的方式,通过电力系统的调解,或者是通过一个送风口的开口,或者加漏斗,像张北的冷塔进行了大量的改造,这种小技巧还是有一些借鉴意义。

第十点,冷却水净化再利用。大家考虑电力的同时,还要想一想,其实数据中心跑水量也是比较大的,我们有一个词叫WUE,它的值做得不好的达到4.0以上,做得好的达到0.4左右,这个差别挺大,冷却水的导电率到多少PH值进行排放,这需要维护的人进行大量的数据探索,比如说1500、1600、1700.既要保证水的可用又要减少排放。一个是导电率,一个是PH值,这是我们目前的关键指标。

第十一点,室内外湿度为跟随控制技术,我知道目前有些机房还是40%-70%的湿度,这个值还有优化的空间,比如30-75可不可以,30-80可不可以,20-80可不可以,从配电室到IT机房它的的湿度要求不一样,通过加湿器能不能用自然方式来解决,目前这个值已经进行了大范围的优化,这个湿度有很多的加湿器,这也是一个不小的耗能。目前的湿度值可以从40%-70%,将提高到25%-80%,配电室可以做到18%-90%,通过这个数据的优化,可以在加湿方面对数据中心这个行业,乃至普通的机房进行推荐,或者是参考。我们有两个指标,温度和湿度,把这两个优化好,对PUE的降低还是很有效果的。

第十二点,BA全自动控制系统。目前国内用BA的还是挺多,BA有几种方式,它有全自动、手动、半自动,目前我们新建的机房,大部分做到全自动、自动加机、自动减机、自动进行多种模式的切换。这里面涉及到比如说冷机的控制模式和新风的控制模式,比如说3+3,就是冷机有三种模式,新风有三种模式,张北是六种模式进行切换,张北的PUE,上次在CDC大会上有一个值,它获得了CDC的科技能效杰出奖,平时运行PUE值都在1.1几,这是实际运行的,而不是实验数据。还是希望更多的厂商参与进来,目前厂商还是偏少,而且希望它更人性化,更自动化一些。

第十三点,新风焓差节能空调技术,这个技术南方用得比较多。

下面说一下电气方面的实践。

第一,互联网行业一路市电+一路高压直流,已经不是新技术的,原来担心的高压直流现在也没那么担心了,但是相对于传统的2N的UPE,1路市电,1路高压直流,它的效果很明显。但是现在还有很多数据中心还在用2N的UPS,即便我们阿里采用了1路市电加1路高压直流,它这里面还有两种技术,就说1路是负载均分技术,就是一人一半,各50%,还有一半是负载不对称技术,我市电这侧能不能承担90%,乃至95%,让高压直流这侧承担更少的,就是这样才能够减少高压直流的转换效率的损耗。高压直流目前在互联网应用中心应用比较多,价格也比较便宜,比如说目前常用的这几个有东达(音)、东塔(音)、新星(音),我们希望这些厂商有更多的节能技术出来,不要说高压直流就一定节能,高压直流也有用的低效、中效、高效的,我们更加希望它能够研发出来根高效的直流模块来。如果提高1%,对数据中心全部的节能效果量级还是非常大的,1%的电,还是很明显的。

第二,变压器,大家现在遇到一个什么瓶颈,向电力局,向电力公司报装新型容量的时候,它的容量是有限的,你报了2N,整个便电锯一半为数据中心冗余,当变压器不再是2N结构,而是4+1、5+1、6+1,对国家能源的占用、预留又会降低很多。比如北京供电五月供电质量比较稳定的地方,这种方式可以去适用,或者更大规模地去用,当然它会带来运营人员的应急能力的考验。所以说降低架构的同时,其实就加大了对运营人员的要求,从2N到N+1,把N控制得好,控制在小于等于5,这个架构的改变对整个国家的能源其实降低了很多。

第三,智能照明,我们的照明占到数据中心的比例哪怕是0.01%,这个数量也是很可观的,尤其对于大的互联网公司,0.01%的能源占比,比如说照明,传统的照明有T5、T8、LED,还有普通的照明,像张北采用的是LED的固态照明,按需分区控制,照明不是通过技术创新,是需要从细节上把控,从设计的源头上就开始设计。

第四,蓄电池组在线升压自放电测试技术。改变原来直接放电降压的方式,因为那是直接放电,那个时候一旦停电是有风险的,相反我们进行逆向思考,采用升压放电,我这路电压偏高,另外就进行放电,就把思维倒转过来,这种方式起码能保证不段电。当然对2N的UPS不是这种,但是对于互联网这个放电技术还是值得行业去研究,我们现在在应用,而且普遍的蓄电池的接口,在传统的机房当中没有这种接口,所以希望新的数据中心在建设的时候就把这个接口预留出来,很简单,就在配电箱增加一个接口就可以了,可以大大增大运营人员的放电效率。这个蓄电池技术已经十年了,是一个成熟的技术,但是现在会用的不太多,敢用的更少。大家可以去尝试一下。这个对能源有什么好处?它不用把能源直接消耗到空气当中,它是把现有的蓄电池的电能还是回到IT的负载当中,它对外没有热量的散出,其实这也是一种间接的能源的回收利用。

第五,一路高压直流有它的有点和它的不足之处,我们张北不同的模组进行了不同的尝试,假如说我既保留2N的结构又要保持它的转换效率怎么做?我们原来有三种架构,UPS做好,高压直流做过,能不能做到4N,四种线均分也就四种线交互冗余技术。它通过负载均分,项目备用,既满足了2N架构,又提高了高压直流的这种利用效率,这是另外一种架构模式。

第六,模块休眠与自动唤醒技术。这个模式可能每个设备里有,但是敢用的、真能用的有可能不是太多,有可能是有,通过唤醒和休眠,这块的节能有一个百分之三到五的降低,这里面有两点。一个是负载电流加充电电流。你要设定一个计算。第二个是A类告警自动唤醒,当它在睡眠的时候出现告警的时候就是不要再税改了,起来工作,因为依靠高压直流有十五到二十个模块,可以有十到十五个进行休眠,它会根据负荷自动调整。同样UPS也有这种功能。我们总体叫这种模式ECO模式,它在菜单里像一些主流的,比如说中恒(音)、中达(音)本身就具备这种功能,希望我们的运维人员把这种功能开启,你要是不放心的话可以进行部分开启,也可以进行厂家反复的测试,然后再进行系统应用,所以说后续的高压直流的使用和研发,还是要更加贴近用户的需求,现在是有,但是我觉得还是有很多需要优化的地方。它的休眠与唤醒实现起来还不是太我们对这个短名单,我们对这个品牌进行入围的时候进行限定。

第七,削峰填谷水蓄冷应用。蓄电技术,当电价调低的时候进行充电、蓄水、蓄冰,削山填谷,存能、存水,或者是蓄冰,现在这三种技术,我们都有尝试。

第八,EC风机。不要小看风机,风机占数据中心的耗电量很多,我们空调末端有N台EC风机,这还是有一定的节能效果,其实大家想一想,现在建一个数据中心花不了多少钱,而更贵重的是这一年的电费,几年的电费就超过一个数据中心的总的投资,所以在设备选型、采购设计的时候,优先要考虑节能,比如说EC风机五千块钱,可能一年就把你成本回收过来,比如说高压直流,看似你亏了一万块钱,比如十年下来,它提高了1%的能效,那么这个节省的电费又多少,一台高压直流三百千瓦,1%就是三千瓦,一小时三千瓦,一年又是多少电。所以我们希望更多更优秀的产品能够应用到数据中心来。

第九,下面说一下UPS,UPS已经非常成熟了,UPS是一个非常成熟的产品,我们在选配的时候,有公平的,有高频的,有六脉通,有十二脉通,有的模块具备休眠模式,也叫VMSS,这是一种模式,还有一种模式叫静态高效节能模式,这个功能我们叫ESS模式。设备采购、设计的时候如果有了这种功能,其实对后续的维护,降低PUE、降低总的成本都是需要高度的。这里要说到,不光要进行模型的选择,还要进行功能选择。

第十,无功自动补偿,它的要点就是自动补偿和进行滤波,提高使用率。

第十一,柴发水套电伴热节能。当数据中心对PUE要求极致的时候,大家发现我们在高压配电和柴发里有几个常年发热的器械,比如说柴发,一个柴发有两个电伴热,一小时就耗那么多电,而且不止一百台,一个数据中心,像张北一般就是一百多台,就近一百五十台的发电机。

最后说一下管理角度。

第一,目前阿里普遍新建的数据中心采用租电分离,PUE奖惩激励。比如我们希望PUE做到1.3以下,大家省下的钱一人一半,当1.3到1.4之间,我不奖也不罚,比如超过了1.4,多余的部分你来掏,我不掏。按照负载率和装机率分段考核,人性化的考核,可能春夏秋冬进行不同的考核。

第二,能效指标评价。单纯的PUE不足以衡量,我们还有一个加权平均PUE,也就是WAPUE,就是我们要多重的考核指标。

第三,WUE也有限定,我们争取控制在WUE小于0.9,能做到0.2-0.9更好。

第四,工艺精细化。这涉及到整个通道的封闭、保温、隔热、防爆、除尘、电磁屏蔽、环氧地坪、地面硬化等。要善待运维人员,提高他们的积极性和责任心。

第五,能效管理与考核系统。这是张北的一个控制DCOS、IDCM、DCIM、BMS、GOC,这块才是最未来大的方向,现在有叫DCM的,我希望来自于更多的智能化的管理,而不是靠数据分析靠人工,而是希望有一个更上层、更智能的软件来进行分析。目前业界已经有很多厂家在做,但是离我们的需求还是有一定的差距,当数据中心大力发展的时候,我们希望更多的优秀厂商出来,比如说现在国内已经在做的有DCM、中联创新(音)等等,总之一句话,未来需要更加智能的平台,或者是机器人,或者是更先进的人工智能来管理我们现在的庞大的数据中心,对能源、对国家未来的能源的消耗有一个充分利用和大化的利用。

这是我今天演讲的初衷,谢谢大家!

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2024-01-09 16:53:00
市场情报 中兴通讯分布式存储+ DPU,加速数据中心转型
存储技术在不断地创新、完善、加速演进,以更好地满足业务的存储需求,但同时也使得存储协议和文件系统越来越繁重。 <详情>
2023-11-17 10:35:56