9月27日,由云计算发展与政策论坛、数据中心联盟指导,开放数据中心委员会主办,百度、腾讯、阿里巴巴、中国电信、中国移动、中国信息通信研究院、英特尔承办的“2016ODCC开放数据中心峰会”在京隆重召开。在下午“行业数据中心技术发展及最佳实践”的分论坛上中国联通云数据有限公司高级工程师刘阳发表了题为“中国联通贵安仓储式MDC探究”的演讲。以下为演讲全文:

刘阳

中国联通云数据有限公司高级工程师 刘阳

大家下午好。我也是最后一个演讲了,我看下面的人也比较少了,我也就是长话短说,咱们简单介绍一下我们联通云数据有限公司,在贵安的一个仓储式的一个微模块的机房。大家来一块学习和交流一下。主要是从三个方面,第一个方面先介绍一下我们联通云数据的一个数据中心。首先我们联通云数据有限公司是我们中国联通集团的一个子公司,是具有独立法人资格的一个国有大型的高科技型企业。我们的定位主要是大数据、CDN、IBC基础业务和增值业务,主要想通过统一的资源规划、产品开发还有销售服务,形成一点受理,一点结算,全网服务的一个经营模式。

现在我们在全国部属12大服务中心,包含呼和浩特、廊坊、德金、贵安、哈尔滨、西安、郑州、重庆、东莞、无锡和香港,我们的数据中心主要都是T3+等级的,总面积达到两百万平方米,总机架大于32万架,宽带大于30G,PUE值小于1.5,断网时延时小于5毫秒。

现在看到是我们十二大数据中心,我们可以看到蓝色的,德金云数据中心,哈尔滨云数据中心,还有无锡和香港云数据中心在建以外,其余八个数据中心我们都已经投产了。第二部分就看一下新一代的云数据中心的优势。我们知道现在随着信息技术的发展,暴露出我们传统云数据中心的缺点,在大数据互联网+提出一些新的需求,导致我们传统的数据中心向云数据中心的演变,他们就具有高密度、模块化,SDN智能网络调控,智慧设计和绿色节能的一些特点。

我们联通云数据有限公司在建设方面走得是一个比较高端的技术路线,是有建设规范化、设计标准化、功能模块化和运营集约化这四化,围绕这四化,在以国家发展云计算,高等信息产业为依托,加上地方政府在土地、电价、税收、交通上面的一些优惠,我们加大了一个投资,整合这个优质资源,然后在全国范围建立这个数据中心。大家也都知道,咱们这个数据中心,是一个耗能大度,我们对于电力的规划和承载是比较看重的,所以说所有的数据中心都是双路电源引入,而且我们机房配置是468一个混合电配,而且我们单机架供电力度达到六千机架,在数据中心里面也是属于名列前茅的。

下面看一下咱们的机房。这个是机房内部的图片,采取的是封闭冷通道,下送风,上回风,我们现在也在积极探索封闭热通道,如果说封闭热通道和封闭冷通道能达到制冷效果,制冷效率要是一样的情况下,我们也是要尝试一下封闭热通道的,毕竟封闭热通道它是一个非常以人为本的模式,我们工程师都要在机房里面进行工作。其次我们可以看到类似于封闭冷通道,以地板下送风,上回风的方式,我们把它称为模块化的一种形式,但它不是一个真正的模块化,真正的模块化会在后面的PPT讲到。我们这个地板是采取一个格栅式的送风,是可调节的,但是我们采取的是手动调节,没有采取自动调节,自动调节运营成本太高了,我们会根据通道里面的一些数据反馈来进行手动的调节。

在配电上面我们还是比较看重的。这是我们刚才说的,我们有双路10千伏的市电引入,而且配备10千伏的高压(听不清),我们现在已经大部分都用高压,不再用低压的了。我们主要选定的是2000千瓦PRP机型,我们可以做到一分钟并机,五分钟就可以进行一个发电操作,而且还有一个高频的UPS进行十五分钟的电池后备。

至于暖通方面,我们属于配置类似于模块的配置,所有的机房都设有两个冷站,在每一个机房楼的东西两侧,而且是因为咱们现在机房负荷比较大,我们也是采用了一个高效的1100伏离心式的机组。另外我想说的就是蓄冷罐,我感觉这个蓄冷罐就是在运营商里面,还有特别高大上的数据中心才会有蓄冷罐。尤其在发生事故的时候,电力切换上可能不会有太大的问题,如果要是对于一些高端的客户,比如说亚马逊、苹果,他们从美国定制的一些服务器,我们做了一个测试,一分钟到两分钟只要断冷,它就会做成一个宕机。所以在高密度机房,我们还是要配置这个蓄冷罐的。

下面说一下网络优势。我觉得对于我们三大运营商还是比较突出的。一个是直连骨干,对于推送经济区域辐射周边省及热点城市,大程度和最优覆盖用户群,第二个高速互联平面,第三个是智能控制调度网络。节能优势,刚才有好多专家谈到节能,只要说到数据中心我们必须说一下这个,优化气流组织就是我刚才说的封闭冷通道,热通道,下送风或者是上回风,包括还有高效的空调设备,采用变频的风机,变频的水泵,另外就是我们还利用到了一个自然冷却技术,到了冬天就开启了换热器了。还有我们再建的中位基地。

第三部分要谈一下贵安基地这个仓储式的微模块技术。早在2014年,我们联通作为3大运营商,第一家在北京黄村就建了一个仓储式的机房,贵安这个仓储式机房规模也就更大了,用地面积大约是在六百亩左右,建筑总规模是20万平方米,这是我们建设的一个规划图,准备规划是六百亩,现在征地面积是一百八十八亩,而且我们项目都是按照T3+的标准,部分满足T4。说到这个微模块,我来解释一下,这个微模块就是以机架为载体,里面包含了什么?制冷、配电,网络、布线,还有消防,全部集中在一个模块里面,这是我们平常所说的微模块,它具有智能制冷、智能配电,还有智能防护的特点。可以得到一个高效的部署和快速的交付。人们总是在说传统的局房式数据中心和微模块的数据中心,到底谁优谁劣,在我看来双方各有优缺点。对于局房式数据中心,我们提前就把它业务量,符合都算好了,核定它的软度还有它的配件,它是一个比较集约化的,但是它灵活力不够,而微模块它是属于特别灵活,现在我们在一些城市进行机房的腾退改点,腾退出来的机房我们就没有能力和时间再去按局房式数据中心建设,我们就会按微模块的数据中心进行交付。

这个仓储式微模块的介绍(02:43:52)是T3+,平滑过渡到T4等级,我们PUE最低可以降至1.35。这就是我刚才说到了一个快速部署。现在有一些网络巨头,它给我们的就是特别快,给我们上来的机架,都是他们已经拼装好了,直接物流过来,把包装一拆,推着轱辘直接推到我们机房来,只用了我们的地板,也就是他们的模式非常快的,利用拼接的技术,比局房式的IDC,安装缩短了50%,可以达到快速的交付。其次就是我们传统IDC,它不同的专业,不同的设备,聚集在不同的地方,但是如果要是微模块的话,它集中在一个模块里,一个工程师就可以进行一个综合的调控,做到一人多能。

这个微模块就是我们贵州基地的一个模型,总共一千一百零八台机柜,左右两边就是我们一个高低压的配电系统。这个就是一个仓储式微模块的设计,可以看一下,除了刚才我说的那一些制冷、供配电,网络,配线什么的,还有顶部的防护罩,底部的作件,各通道组件,通道的消防,通道的照明。

现在我们看一下我们的微模块总共有两种,一种是集中式的微模块,还有一种就是相对于它来说分散式的微模块,这有什么特点呢?给大家解释一下。集中式的微模块,就是说我们UPS,您可以看到下面两组图没有包含UPS,是在模块外面了,从低压配电出来,先进UPS之后再进微模块里面。我们看下一张图,分布式的微模块,我们可以看到模块里面包含了UPS,也就是说从低压配电之后直接可以通入到我们微模块里面。这两样技术我们现在都在用,孰优熟劣我们现在还在比较,但是集中式的微模块可以大化的,就是机架使用率。

这是一个配电系统,我刚才说过了,可以看到从母线A母线B往上部分都是一样的,从往下之后,分布式直接就可以接入到我们的微模块,但是集中式的必须先接入我们的UPS。对于空调管路我们采取了双回路,而且支持单段管路和空调的在线维护。关于管路方面我说以下三点,第一点必须要做漏水检测,旁节路也是要做好的。其次是有一些企业我看到它把管路铺设到了桥架上面,有的时候就会漏水,这样是会有一些危险的。管理系统,管理系统它区别于咱们传统的IBC,是将动力、环境、安防集中监控,统一在一块进行管理,而且是什么呢?这是一个小的微模块,不同的微模块之间还可以再进行一个群管理的架构,这是有别于咱们传统的IDC了。

最后说一下消防系统,我们每一个消防系统都是一个独立的消防系统,采用的是高压气灭,用的是短板,我们现在也在试着尝试高压喷水物,主要是说高压气灭,如果要是把人关在里面,可能会有生命财产的损害。其次是有联动,门禁和消防的联动,最后还有应客户的要求,有一个极早期的探测器,现在是探测阶段。谢谢。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2023-09-25 17:36:03
互联网 1—8月份,我国电信业务收入累计达11417亿元
截至8月末,5G基站总数达313.8万个,占移动基站总数的27.5%。 <详情>
2023-09-25 14:27:47
机房建设 “信力量 新可能”走进中企通信云数据中心(上海站)暨“算力中国行”上海站 活动圆满结束
在全球范围内拥有强大ICT资源的中企通信,也得到了众多如上海联合产权交易所等国内外知名企业的“青睐”。 <详情>
2023-09-25 10:19:13
国内资讯 数能相融 品牌新生|合盈数据发布绿色数能品牌—GED³
伴随着产业实践的深入,合盈数据将产业融合创新、生态可持续发展的认识总结提炼为GED³。 <详情>
2023-09-11 18:37:24
云资讯 吴泳铭接替张勇出任阿里云代理董事长与CEO
阿里巴巴公司将继续执行之前宣布的计划,对阿里云智能集团进行分拆。 <详情>