中国IDC圈12月26日报道,12月20-22日,第十一届中国IDC产业年度大典(IDCC2016)在北京国家会议中心隆重召开。本次大会由中国信息通信研究院、云计算发展与政策论坛、数据中心联盟指导,中国IDC产业年度大典组委会主办,中国IDC圈承办,并受到诸多媒体的大力支持。

中国IDC产业年度大典作为国内云计算和数据中心领域规模大、具影响力的标志性盛会,之前已成功举办过十届,在本届大会无论是规格还是规模都"更上一层楼",引来现场人员爆满,影响力全面覆盖数据中心、互联网、云计算、大数据等多个领域。

会上,阿里巴巴基础架构事业部IDC专家郭树师 出席本次大会并为当天的IDC服务大会做《数据中心运营管理理念和节能减排实践》主题演讲。

郭树师-(2)

阿里巴巴基础架构事业部IDC专家 郭树师

以下是演讲实录:

我今天演讲的主题是数据中心的运营管理理念和节能减排实践。

第一,运营管理理念。我们现在很多数据中心对硬件比较重视。阿里巴巴看重的是综合方面的安全成熟度,硬件是他关注的一个方面,还有其它,比如他的团队、设备验证测试结果、运营体系建立的成熟度、应急保障体系、后期激励优化等。我想表达的意思是未来数据中心建完以后还要加大软件方面的服务和管理,怎么把我们的运维管理水平从初级提高到中级乃至高级水平。未来云计算、大数据的发展已经承载的不再是一个小的业务,而是非常重要和重大的社会性国际性的业务。

下面从五个维度有20个重要要素方面总结。在团队开始之初。对人员的要求,对男女比例的要求,对人员数量的要求,对意识的要求。比如人员,我们需要一个什么样的专业,目前真正的中国水电基础设施专业在大学里非常少,我们现在招聘人员比较难。另外有经验的相对少,专科、本科的培训体系不具有市场竞争化,招人有一定的难度。人员的素质、人员的性格,比如他的稳重度、他的理智程度。做运维不像驾驶一架飞机或者小汽车,承担着很大的安全和优化的重任。男女比例现在出现了失衡,我们在一些数据中心过多的男生已经影响团体的稳定。

个人建议一个合适的比例是30%,为什么这么考虑?现在我们的自动化程度非常高,女同学在运营管理优化和总结方面有她独到的精细化意识和优势,这是未来数据中心的考虑。改变现在数据中心比较单调的被流放的感觉,有一个家的感觉。对于人员的数量,我们怎么排班方式,四班三班转还是白班几个人,电力暖通各几个人,后勤保障和管理能力,人员的配置数量。他的安全意识,有责任、主动性、风险意识、精细化意识,我们对这个团队的考量,一个合格的团队有很强大的责任心、过硬的技术、对成本的高度关注。我们认为这是非常好的骨干团队。这是我们再验证、认证、租赁数据中心或者自己运营数据中心的时候首先树立团队的理念。

对设备、电力、暖通、弱点,验证测试偏重第三方,这块的验证测试市场竞争比较充分,这块可以自己做也可以由第三方做。我们表达的理念是要进入到全生命周期,比如需求、设计、厂验、建设、系统单调,整个过程要运维,参与前期的建设和后续的接盘。对于弱电,BMS、BA、消安防告警分级,包括透明化、过程化、自动工具、扁平、总调控。阿里租了一个数据中心,现在很多运营商的数据不愿意公开,很多重要的业务对下面的安全程度不了解,这时候就希望运营商能开放一部分关键的水电重要参数,想得到透明化的服务。

辅助设施也是非常关键的,T3、T4硬件很过硬,辅助设施、园区管理、运维的各种文档、建筑物平面、路由、水路、光缆的路由,附近有没有加油站,有没有安全隐患,有没有重要的易燃易爆的仓库。这些都是我们在租赁或者定制的时候要关注的,我们要加强这方面的安全理念、设备方面的理念。

流程体系,也是偏软件的。还是反复强调运营理念,软件现在的竞争力已经很重要了,硬件大家水平差不多,谁的软件服务能力好,谁的流程体系成熟,这是未来的竞争力。比如SOP、MOP、SCP、SLA一定要可执行、可量化。还有一些红线制度,安全红线、运维红线、信息安全、资产安全、违章作业、价值观也要整体考量。流程,包括变更,是不是简练,是不是可以推推,可操作,让质控融合到骨髓里。最后是制度,比如入室登记、仓库管理、色彩管理,这些都是用心服务的理念,我列举了100个元素,多年来从事运维工作的个人总结。我们只有精细化的有担当的主动化服务才能得到很好的客户,客户才不流失,对自建的机房才能一步步地往上提高。

应急保障已经提高到一定的高度,必须要注意一些偏远地区EOP的制定是不是合理,是不是精炼,是不是可行,包括停水、停电、过热,高低压制冷和仪器仪表,还有防火、防冷、防雨、防台风,一定要保质保量、水平充足。下面是灾备,首先是人的灾备,设备有没有冗余,包括水分、泵、塔、变频、柴油、燃油、干冰、SMR、PSU、PDU、启动电瓶等。同时调度,关键的时候要形成很有利的调动保障群,要求高效有力。

我关注的应急方面有这四个要素,包括20个元素,下面优化,客户真正看重的是未来的提升能力、绩效,有没有很高效的考核手段,比如361绩效的分配、优胜劣汰、高可用、高效、安全、SLA,还有是否节能,成本是否持续下降。我们的一个理念是你的过程很好,但是我只能鼓掌,你的结果达不到,要为结果去买单。

培训,有没有很好的理论和实操的培训体系或者持续的培训体系,有没有等级的认证。同样干一个活儿,这些人能不能体现出他的价值,能够快速地能者上弱者下以及试题库、讲师库、专家库,同时培训手段也具有多样化、随机性。

非检,无告知的突袭,常态化的突袭,我们有很大的非检列表,非检结果与绩效挂钩。

平台工具,我们希望能标准化、集中化、自动化、移动化,未来的竞争体现在管理软件的竞争,管理软件体现了管理水平。

前面是一些运营理念,这是个人的总结,可能有不对的地方,但是确实这么多年来都在进行再验证第三方或者租赁、自建的时候都侧重管理理念和各自的方法。下面重点介绍一下阿里巴巴节能减排的具体案例。有两个案例,第一是张北,第二是千岛湖,第三是创新实验室。张北是新的独立定制的数据中心,类似于定制和租赁。它设计的年PUE小于1.25,为什么选择张北,阿里一直在寻求怎么减少能耗的方式方法或者战略转移。张北经过多重考查,它有良好的空气质量和非常充足的冷源,有很多充足的风力和太阳能。当地的气电非常多,把气光充分利用起来能减少京津冀能源的消耗。我现在在北京、天津或者京津冀用的电可以转移到张北的风电和光电,把这些气风、气电重新利用。在阿里巴巴1号园区的理念是让风变成电,让风能变成计算的能力,张北的风电非常充足,号称是风电之都,同时还是京津冀战略转移的需要,也是减少北京雾霾的需要。

它的重要理念是怎么大限度利用张北的自然新风,为此,推出张北风墙技术,风墙技术加上全自动的DA控制,用自动化的手段来实现新风的利用。它的节能特点是冷机作为备用,尽量不用冷机,只有空气质量或者增强达不到的时候才采用水冷机组作为备用手段。还有阿里巴巴2号数据中心,目前这两个数据中心已经建成投用,这是张北的实景,在张北县城拍摄到的大量的太阳能发电,这些电经过并网以后都可以为数据中心利用,它的装机容量还是非常高的。

另外在节能方面我们采用了钢结构,集装箱设备、模块化设计,空气过滤,电力模块,整个变压器和低压配电是一个模组整体组装好的,这样能够快速高效一些。全新设计了框架结构,施工周期非常短,采用钢结构框架式提高了交付效率。风墙、热通道封闭、电力模块、钢结构。

节能手段、方式、方法已经比较普遍了,主要的方式方法比较常用,比如灯光的节能,冷机的三种模式或者六种模式,回风温度能不能提高再提高,气流的优化,包括EC转速、自然冷源,我们的优化节能是多个手段全面推进的,运维人员的重要性目前还没有被提升到一个高度,每年为公司能带来很大的直接电费的节省。用心去做,从头开始把关,运行中每提高一个参数、一个湿度、一个变频的赫兹,对整个数据中心看似很小,全年下来省几百万、几千万乃至上亿的电费是完全有可能的。运营理念还是呼吁各位老总、专家重视对运维人员的培养,他们承担了未来社会节能减排的重任,同时为环境雾霾的减少承担了很大的重任。目前数据中心这么多,耗电量那么大,很多电需要燃煤而来,数据中心的从业人员,尤其运维人员任重道远。

弥漫式送风,整个机房里热通道封闭,无架空地板,吊顶回风,做过运维的人员都比较清楚。大胆突破,1路市电直供+1路HVDC,节能技术特点是电力系统的效率高,节省其制冷能耗,线路损耗小,线路造价低。业界在BAT非常成熟的技术就是采用1路市电1路高压直流,当年做的时候承担了一定的压力,最终把它做成了。

还有一个节能手段是电力监控。现在的电力监控市场上有几个主要品牌,监控是我们的调度和指挥中心,非常重要,很多节能、告警分级、数据挖掘都在监控里,希望未来的监控厂家能做得更好,达到用户的需求。目前我们对监控的渴望还是非常强烈的。BA自控,目前市场上就那么几家,还有很大的改善空间。多种模式的切换,消安防监控,我们自己研发一些更适合自己使用的操作系统,对全部服务器的温度、功率、电流、电压的监控,自己开发了raptor监控。张北大部分时间是靠自动化运行,个别情况下也可以手动,还可以多种模式切换。

张北的情况介绍完了,最后一个机房是千岛湖。千岛湖比张北建成的时间长一点,获得4A级认证。它当时利用千岛湖的湖水制冷到利用坝上草原的新风,没有逃离阿里的理念,怎么在全世界范围内去找最适合数据中心的冷源,找水找风,未来还会找冰雪。对未来能源的探索和利用一直是阿里的梦想,我们在张北一期建完以后二期怎么建,正在进行深刻的思考,很快就要启动。

通过较冷的湖水盘管,通过风把冷源吹出来,水没有流失,而冷量留在我的机房,这是对冷源的充分利用。千岛湖已经建成了,采用的是千岛湖的湖水和市政联合利用这种方式。它的供回水温度是16/21度,万一湖水不行了还有冷机作为备用。冷机是我们的耗电主设备,怎么减少它的开机运转,这是运维人员能够做到的。我们没有产生冷,只是大自然冷的搬运工,这是千岛湖冷的理念。

PUE年均1.28,水文10-15度,WUE<0.03,接近于0。下面是从1.32到1.26的PUE的实际运行数据。千岛湖的供电设计也是1路市电1路高压直流,负载均分。设计试点采用90%市电+10%直流,更加节能。10KV直接深入,变压器采用分散式供电结构,变压器供电线路最短。采用10KV中压油机。千岛湖采用了新风自然冷技术,在特定的季节、特定的气候下可以冷机、湖水、新风三种方式自由选择,还是一个理念,怎么大限度地节能。

这是单元化模块化的设计,冷通道封闭和盲板设计,盲板看似是小事,运维人员如果用心真正去做了,这个非技术含量的小动作还是很管用的。ODC技术按需制冷,这也是我们的理念。一些探索,微模块和alirack,现在BAT和天蝎机柜都在做一些更高效、快速组装、快速就位的技术,微模块和alirack也是阿里研究的方向。

在千岛湖还有太阳能发电,它和240V直流联合供电。太阳能作为一种补充,未来的张北机房二期工程很可能采用太阳能作为一种互补,能够多利用太阳能、风,尤其是太阳能,太阳能作为弱一点的补充。同时千岛湖还利用水力发电,楼比较高,我把水已经抽上来了,既然抽上来了不能白白流下去,中间利用它的弱差进行二次发电,这些节能的理念始终贯彻在整个设计当中,不让能源浪费,每个环节都不浪费,高楼的落差大限度进行了利用。运营管理能够实现节能减排,比如DCIM、机房照明控制、气流组织、工况、冷通道、热通道的温湿度的灵活大限度的调整。

这是电力系统的监控,下面是管理的方式、理念和流程,流程也是能够实现节能减排的手段。

下一代新技术和张北的实验室已经在同步进行,张北实验室对未来有各种可能,包括服务器、网络、基础设施大限度地在实验室里进行挑战,一旦成功就快速应用到阿里的几十个机房当中去。它是一个实验室,马上要建设了。

下一代技术充满了希望和挑战,未来我们有可能改变传统数据的电气架构、制冷的能源模式,包括机器人的应用、分布式电源、液冷,都有可能对未来数据中心产生很大的影响。这是下一代的技术,这些都是探讨,争取把PUE降低在1.1以下。

未来的数据中心会越来越多,我们这帮从业人员承载了很多使命,主要是两点,保证业务的安全和不断去优化我们的能源架构,这是我们未来奋斗的方向和目标。

今天的演讲就到这里,谢谢大家。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2017-10-11 10:20:00
数据中心节能 某云计算数据中心节能减排实践分享
数据中心电源成本占了整体成本50%以上的份额,节能是数据中心运行的一个重要工作,合适的节能举措不但可以节约运营成本,也可以加强运维团队对设备操作的熟练度。本文就以 <详情>