2020年12月8日-10日,第十五届中国IDC产业年度大典在北京国家会议中心正式召开。作为数据中心云计算产业内知名的盛会以及IDC企业、电信运营­­商、互联网、金融、政府和厂商等产业上下游的高效沟通平台,与会嘉宾包括政府领导,行业专家和企业代表数千人。以“数据中心新技术与应用”为主题的分论坛于10日举行,浪潮信息数据中心事业部研发负责人殷飞平做了题为《模块化浸没式液冷数据中心构建》的精彩分享。

殷飞平

各位领导,各位专家,各位业界朋友,非常感谢在IDC圈给我这个机会,我想跟大家分享一下我们浸没式液冷DC领域的积累和成果。

我昨天碰到了一个朋友,他说你讲的浸没式数据中心和头部厂家做的那些有什么区别呢?我跟他讲,我这个在浸没式这一块里面差别不是很大,但是肯定是还是有差别的,因为我们有自己的架构和理解在里面。但是又有明显的不同,就是模块化,我们把液冷DC按照模块化,一个一个模块来进行设计和进行建设交付,给业务使用的,这是一个非常大的不同。他又说那你是不是适合边缘计算这块?我说讲的对,我们就是适合边缘计算,边缘计算就是你给电和网络,我们可以很快就可以用了。在边缘计算这一块,对于我们液冷技术来说就是机柜的数量问题,从这个方面来讲,液冷除了边缘场景之外还支持别的场景。另一个不一样的地方就是我们的液冷支持高功率,支持2000瓦到3000瓦,普通的支持不了这么大的,这个增强了我们的对高功率场景的支持。

除了这个之外,我们和头部企业的液冷有两个比较大的不同,它们是属于功率比较大,是自己有资金,自己的架构,自己有实力。第二个不同,它自己用。这两个都是不一样的,我们不是自己用的,是模块化、标准化到液冷里面去的,我们给客户用的。

这是头部企业在液冷大规模使用场景中,这意味着我们做的产品又增加了一个应用场景,大规模、云计算。我们的模块化后面可能会看到,我们形成一个大型的液冷模块化数据中心。

这些年数据中心领域进步还是很大的,现在的标准也有完善,也有不少的改进和进步,现在的速度在以前的痛点基础上是进步了。我们现在有痛点吗?仍然有,现在对设备领域有很多仍然在路上,没有好,只有更好,无论是标准还是架构设计,还是建设,都会是一个持续进步的领域。我这边先讲痛点,有痛点释放了需求,有需求会拉动技术进步,整个生态的建设,整个速度的变化,从而达到新的起点到终点的循环过程。

讲到痛点过后对应同样要进行技术进步,只有技术进步了,当然除了技术之外还有其它的方面一起推动,使这个产业持续的迭代前进。

第三点,我今天主要分享给大家的就是模块化液冷数据中心的构建,我们在数据中心领域耕耘了很多年,特别在新兴技术方面还是有独特的优势,我今天只讲浸没式,还是持续的研究,这个技术形态应该说是未来有很大的发展前景。

最后,简单的讲一下开发和实践,最后讲的比较简单,因为可能有很多东西是时间原因和其它原因不太适合详细讲,但是你们看到我们的图片和架构设计基本就了解到我们想做的东西是什么样子,它是怎么实现我们想做的模块化模式。

第一个痛点是PUE。一般来说像现在讲的PUE,1.6、1.4、1.2,这个发展应该说是很快,我感觉几年时间。PUE从2.0算,这个跨度是效果进步非常大的,非常好的。这个产业里面这些年下来大家很淡定,很坦然的走到这一步,没有感觉有什么特别的地方。不光是产品,冷却系统和标准,或者其它的各个方面都会走到今天,这是1.2。我是做技术的,我想原来基本是1.1的,现在只要四分之一的不是很大的进步吗?大家感觉反响不是特别强烈,我觉得很重要的原因就是在技术方面可能由原来的技术1.5到1.8,但是没有跨代,你仍然离不开压缩机、制冷,冷却这些方面。原来做空调的有压缩机,现在技术进步之后还是离不开压缩机,可能到现在设计的厂家基本上可以延伸下来,无非是冷源的使用,做到更低。从这个方面来讲,大家对目前的浸没式比较淡定。如果走到1.2或者1.25,就意味着1.2是基本的门槛。如果压缩机可能发展到1.1,我认为1.1这个指标是非常标志性的指标,如果用压缩机制冷很难做到1.1。低于1.1和目前的1.2几,大家可以想象一下,什么意思呢?1.2相当于用20%的辅助电能维持正常的运转,而现在低于这个数就意味着百分之几的辅助电能来工作,考虑到效率,我认为这是非常优秀的速度。

要做到这个PUE指标,你肯定要在几个方面做跨代的变化,我们讲的可能是冷却或者其它的,特别在冷却系统肯定是2.0的,应该是具有颠覆性的或者变革性的。用低于10%的电能消耗保证它的正常运转,我觉得这是非常优秀的。如果再讲其它的,我觉得不用讲,从一个门槛低于1.1是一个方向或者比较大的挑战,它会导致你的整个标准,架构设计、运维、设备、生态都会产生非常大的变化。所以这个数非常有代表意义。我们之前也设计过很多,基本用电量非常巨大,动不动就是100兆瓦,或者30多兆瓦,100兆瓦算低于10%就是几兆就可以维持运行,如果不是这个指标,你肯定就要20几兆瓦才能维持运行。其实几十兆瓦这么大的耗量电,如果在民生领域能够支撑多少个家庭的日常用电,大家可以自己算。我们希望能源用在最有效率上,尽可能减少效率消耗。

第二个节能,我听到最多的讲的还是数字运营领域的节能。这个肯定是需要讲的,因为这个讲是看PUE零点几的,能够从砍到1.2级,能不能砍到1.1?这个是分子上面的,能源领域要做的工作。这个还是在设备领域,否则像位置点不一样,或者服务器能耗比较差的情况下,不能体现出它真正的计算效率的实际水平。

省电也是一个配置,我们现在都是耗电很大的,一般往很偏的地方建,便宜,或者谈判的溢价能力很强,能拿到很便宜的电,但是因为省钱,对企业来说是获利了,但是实际上数据中心能耗方面应该说是另外一个考虑了,我们有这个方面得到实际的意义。但是数据中心耗电是肯定的,能源价格还是有一定变化的。

同样在冷却领域,我会讲到浸没式这一方面。

节水、水质处理,目前是1.25来讲,大家知道蒸发冷却是目前用的比较多,我也不认为它是跨代的技术,为什么?节能方式变化不大,同样设备厂家同原来一样还是用压缩机,大致这样的场景,但是对于目前数据中心的节能贡献非常大。

另外耗水,同样的耗水和地区区域相关,南方水资源比较充裕,但是北方很多水还是南方调过来的,像自来水是民生强制的水资源,对节能方面应该是非常好的方案,对于水的消耗也是有考虑的。还有一个是中国的水资源不均衡,很多地方不是你想建就建。我前面看到有一个地方因为缺水还是什么,一个星期停水两天,也反映了我们国家水资源还是很紧张的。

再一个痛点就是DC投资大,资金周转长。像造房子这些周期,它想要尽快回报,想要业务上马是相反的,现在很多用前预制的方式,之前也有头部企业是六个月做,是叠加的,也是满足这样的痛点需求。

讲到技术这块,我讲模块化浸没式,模块化和预制化。这个也是针对自己的痛点进行对应提出来的,我们为什么现在发展浸没式?我不是像头部厂家那样一上就是大型的,我们这个是考虑从小到大,模块化、标准化、通用化、系列化,在设计、建设和上业务、运维、分期投资、建设方面都会进行整体的考虑,从而策划自己的架构。

工厂全预制,尽可能缩短工地现场安装调试时间,给电,给网络,很快就可以,像一个边缘计算拿过来就可以用,非常方便。我们也支持集装箱并箱,多层叠箱建设模式,这个后面也会涉及到,都是响应大投资的,定制领域的建设需求。

在供配电方面,我们这些年下来有变化,当然也不是特别大,因为DC的供电系统设计及有成熟的标准,头部企业自己架构设计,自己使用,但是它目前的头部企业使用应该是高压到最后是380到220伏。高低压全链路整合止步于不间断电源,有利于效率提升,从不间断电源含电池至SV板卡的链路整合,需要SV厂家介入。有使用,但是还没有全国推广。

在冷却领域,目前我们还是有20%以上的需要空调,浸没式的可以采用压缩机的辅助冷却方式。

管理方面还是AI智能管理,我这里就不赘述了。

第三块是浸没式液冷构建,因为时间的关系,我可能快速的过一下。我们基本上把它分为几个模块,配电的模块和DC模块,外围暂且不谈。我们通过几个模块进行组合,我们列出来七种场景,这也反映了产品标准化和通用化的方式,可能适用于多种场景,我们希望浸没式场景这样的架构设计。这是一个草图,右边是技术参数,是一米四长,500W。这个结构件设计就不讲了,大家可以看到,和我们想要的还是有距离的。

制冷箱同样设计了几款,还有配电,我们设计了很多场景,不同功率的。右边是架构设计,这是管理系统设计,这块考虑把AI智能化放在里面,这样一起进行整合。

第四个开发实验。首先讲集装箱的架构,我们做一个集装箱,总256U,功率516KW,液冷10万集装箱,可以叠加,可以并箱。

这是我们讲的设计比较模块化的产品,它既有监控,也有配电,也有制冷,可以横排,也可以竖排,也可以组合,你可以推到室内房间里面去给电,给网络,我们这个插上就可以用,这是我们想要表达的这样一个方式。大家可以看到这款沉淀和头部企业的产品是不是有很大的不同?大的不同就是DC的,基于模块化的角度通用化、标准化、场景化设计出来的一款产品,应该说产品还是蛮漂亮的。

因为时间关系分享到这里,感谢各位,谢谢大家!

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2024-01-31 09:54:22
数据中心液冷 从可选到必需——数据中心步入液冷时代
随着数据中心的规模和密度不断增加,液冷技术将成为数据中心的必备技术 <详情>
2024-01-19 10:33:35
数据中心液冷 浪潮信息与英特尔联合发布全球首个全液冷冷板服务器参考设计
浪潮信息全液冷冷板服务器将为客户提供极致PUE的算力系统,助力客户在AIGC时代构建更加绿色低碳的数字基础设施,并推动液冷产业在全液冷冷板技术这一新兴技术领域的实践与 <详情>
2023-09-21 11:11:20
机房建设 十年携手ODCC开放数据中心!浪潮信息发布OpenBMC和OTII最新技术成果
开放计算作为数据中心的创新主力,持续通过全球化协作的创新模式,推进数据中心领先技术应用普惠化,助力数据中心绿色高质量发展。 <详情>
2023-08-11 16:13:15
2023-07-07 11:39:24
国内资讯 浪潮信息山东区生态伙伴大会举行 元脑生态助力数字强省建设
“智算开新局,聚势迎新机”,浪潮信息将继续秉承元脑生态的理念,与合作伙伴共同推动多元算力的融合及新兴市场的开拓,构建融合开放的基础架构,实现计算产业发展方式的转 <详情>