11月13日,开放计算中国社区技术峰会(第二届OCP China Day)在北京举行,超过600多名IT工程师和数据中心从业者参加了此次大会,来自Facebook、Intel、微软、浪潮、百度、腾讯、阿里、NVIDIA、诺基亚、中国移动、希捷、燧原科技等开放社区成员参与了峰会,分享了在开放计算技术的最新进展和创新实践。

随着AI、5G时代业务的爆发性增长,不仅是超大规模数据中心,通信、金融等行业数据中心也正向着集中化、规模化发展。单体数据中心规模的迅速膨胀,带来了众多的问题和挑战。比如电力供给对园区乃至城市带来的能源压力,大密度机柜集群带来的散热问题,数量众多的设备带来的运维难题等。

本届会议浪潮、百度、三星、希捷、Intel等 OCP 会员单位针对基于开放标准的整机柜高密计算、弹性资源部署、数据中心级的自动化运维等最新技术进展和研究进行分享,介绍超大规模数据中心自动化运维方面的最新进展。

以下为演讲实录

郭洪昌,OCP中国社区联席主席,浪潮技术总监:众所周知,开源开放协作促成IT技术的发展,超大规模数据中心在绿色节能、高效管理、弹性部署等方面有很多实际要求。而OCP社区的很多开源技术和开源项目正在帮助数据中心解决问题。

下面是本次技术沙龙第一个环节,大规模数据中心技术与方案的最新发展。这个环节由来自5个公司的5位嘉宾共同分享。首先,由我开启本环节的演讲。

数据中心发展趋势。通过这张图可以看到,我们讲摩尔定律18-24个月集成电路的密度会翻一番。我们想说服务器核心的部件CPU处理性能每18-24个月的性能翻一番。随之而来的既然是一个半导体,那脱离不了物理的规律,它的功耗会不断的提升。也就是说服务器的功率也会不断提升,这是客观的趋势。数据中心目前正在向超大规模演进,我们知道现在目前的云计算已经普及到千家万户,每一个新的应用出现的热点,作为这个龙头企业必须得及时的响应客户需求。举个例子,现在讲短视频非常火,头部企业大家一想都知道了是抖音、快手等,必须得有超大规模的数据中心可以让客户的服务和实时性让用户感到满意才能黏住客户。我们讲数据中心会越来越大。从图上可以看到,单数据中心的服务器的数量现在看到蓝色和深蓝色,就是大型5000-10000台和一万台以上的数据中心的占比越来越高。数据中心的运营商虽然有很大量的服务器,也提供了云计算的基础设施,但它的毛利率非常低,这里有大笔的钱花在了电源、散热、电费、水费以及基础的费用,所以造成了毛利率比较低。

这带来了一个问题,怎样必须尽可能节能绿色,才能让TCO降低,这也是一个发展趋势。数据中心是越来越大的,但我们可以看到每一个数据中心里有一万多个节点,每一个机柜至少有20个节点,有电源和交换机,也就是说会有十万个左右的IT设备。这些设备汇聚在一起,有千万级的数据参数和数据信息去收集管理,整个数据中心的自动化运维也是一个发展的趋势。

我们讲说有这么多的数据中心的趋势,那对应客观的带来哪一些挑战?顾名思义,左上角的图说现在的服务器的性能越来越提高了,但带来的就是服务器的功耗和功率也都不断的在提升。我们怎样让服务器的数据中心去满足解决这些挑战,这是现在目前运营商或者说每一个数据中心的拥有者面临的课题。PUE使用效率也是类似的问题,就是说现在讲的上海应该是1.3,深圳是1.2,就是数据中心最优的一个效率值是有这样的要求。其实我们现在普遍的数据中心的运营都达不到,都没有办法达到这么高的一个PUE的值。这有很多的问题。左下角的图就是所谓的数据中心的资源利用率不均衡。刚才说我们需要做短视频的应用,需要在数据中心里布很多视频的CDN,需要做编码和解码的转码的工作。我响应这个需求,同时这个服务器的内部可能有硬盘。因为用到的是计算性能,没有用存储资源,这个资源只能说不得不闲置。

今年初疫情期间,大部分的中小学必须得通过网课上学,其实就是视频会议系统。后来这些中小学复学复工以后,视频会议的服务器能不能用在其它的地方?这些资源怎样能够充分的利用,这是带给所有的云服务供应商一个比较严重的课题挑战。我们讲了数据中心的智能运维不足,有大量的设备数据中心越来越庞大了,我们怎样可以实现自动的运维。降低费用,运营人员肯定要减少,但又不能让服务出现宕机的情况,自动化运维也是一个挑战。

刚才讲了很多的问题和发展趋势,我们觉得开放计算应该是解决这些问题和挑战的一个有效的手段。我们讲OCP,这次专门为OCP开源社区做一个技术沙龙。其实我近几年一直参与OCP的活动,我觉得OCP特别像一个百宝箱,里面有各种开源技术等待着我们这些使用者挖掘。我这里列了四个点跟大家进行简单分享。首先,性能。刚才提到怎样能够在数据中心里布更多的服务器办法客户性能,OCP有一个OU的计算节点,这是开源。还有四路的服务器,可以在单位空间里提供更好的计算密度。OCP有机柜级的标准,可以兼容19英寸和21英寸的机箱。同时,对电源和风扇都做了一些相关的标准规范。让厂商按照一个规范交付给用户统一的产品,让使用者不被单一的厂商牵绊,这是非常好的地方。弹性,模块化的设计可以让数据中心整机柜的部署和上线更加及时,也可以响应刚才说的云服务供应商很短时间内上线一个突发性的应用需求,所以模块化的设计和整机柜的交付是一个鲜明的要求。

我们看到OCP也有相关的一些设计规范,还有资源结耦问题,使计算和存储的资源进行结耦,也有池化的标准。节能,这也是一个诉求,现在有48伏的供电。因为交流电进到机箱里机器通过电源转成12伏,这带来了功耗的损失。48伏进来,然后可以降低3%的功耗节省。中国超大规模的数据中心造成每年电量有2000亿千瓦的功耗。如果有3%的话,虽然它很小,但庞大的数据中心的功耗3%是非常大的电力节省。液冷的技术也可以降低PUE。管理,现在的OCP组织有OpenBMC/RMC,可以实现服务器和设备的管理,还有自动化运维的软件。种种开源的技术都可以满足现在我们讲的超大规模的数据中心,降低能效,降低TCO的需求。

下面,邀请百度的专家赵杰的老师演讲一下百度公司基于开源技术做的超大规模数据中心的实践。

基于开放标准的整机柜高密计算——赵杰,百度服务器资深系统工程师

大家好,我是百度服务器资深系统工程师赵杰,很荣幸为大家介绍百度在开放计算上做的一些贡献,还有一些相应的产出。题目就可以看到我们现在对百度来说,主要的就是整机柜产品,代号是天蝎,现在发展到3.0。其实随着这么多年的一些在中国开放技术的推动,在整个的生态的协同工作下逐渐发展而来的。

天蝎整机柜的简单回顾。大部分的整机柜的产品,其实在我们这里都有一些相应的标签或者是一些特点的收敛。对百度的天蝎整机柜来说已经经历了大大小小接近十年的沉淀,1.0、2.0到刚刚发布的3.0,做了很多的工作。不单单是我们简单的技术的迭代,可能也不断的发展成熟。而且在标准化和模块化上做更多的努力。另外一个维度,有很多的高效运维、高效部署、高效交付,这都有很好的体现。我们会达到更好的TCO收益。这个路线图里无论是哪代的整体的天蝎架构,其实我们已经演进非常多的产品,不同的产品线,也包括通用计算产品、存储产品、AI产品。这些产品实际上随着所有技术架构和体系架构的演进,不断的进行很好的灵活变化,都是基于我们天蝎的架构进行的。

刚才也提到我们有很多挑战,天蝎3.0有很多思考。整机柜的体系架构应该怎么设计?先把节点刨去,因为节点可能会随着我们的CPU、GPU,甚至是上层的软件的需求做更加深度的应用。但无论怎么做定义,它仍然是要放在我们整机柜的这个基础的架构。我进行总结,针对我们整机柜来说,首先要思考的就是结构空间散热的部分,怎样提升好的收益,能够满足未来技术的演进以及节点的发展。算力无论是CPU还是GPU都已经大幅度的提升,尤其是针对百度。大家都清楚百度在几年前可能对CPU算力要求不高,但随着最近的发展,以及我们整体的架构体系的变化和提升,其实给我们带来了非常大的挑战就是CPU功耗是成倍翻番的趋势,带来节点功耗的增加。还有另外一个维度的问题,现在无论是AI还是各种加速硬件其实都应该放在节点里,做到更多的额外的性能加速或者是功能的实现。带动起来整机功耗比传统的标准的CPU服务器还要更高。但对整机柜来说,一直秉承的理念就是高密度的整机柜。高密度怎么体现?如果一台服务器达到了七八百瓦,单位空间的算力密度,或者是从均摊成本的角度看,其实这是很不利的。我们仍然要探讨怎样能够在高功率的情况下,实现我们的高密度的部署。这里分出了两条路,一个就是怎样在电源上下工夫,另外就是怎样在散热上解决问题。天蝎3.0一直坚持架构的变革,12伏发展到48伏的供电。同时,把单柜的供电能力从12千瓦提升到24千瓦,甚至是36千瓦的密度。在这样的一个能力的情况下,其实对我们的节点设计和一些相应的变化带来一定的影响,这也是我们要在节点上做的思考。但整个架构会逐渐往这个方向上演进。

无论怎样来做变革,如果节点的高度发生很大的变化,可能我们的密度仍然上不去。我们要考虑怎样在已有的空间里解决散热的挑战?这里涉及到了虹吸技术,以及现在的新风冷的技术,还有液冷的实现都可以在里面体现。天蝎3.0架构基本实现路径,我们现在做到了很多模块单元化,我们的计算、存储、AI其实都是通过单元做的。通过不同的组合方式实现存储系统,实现AI系统,以及可能通用计算的整个能力。随着百度有昆仑芯片,甚至是其它的加速硬件的一些研发,其实整体的节点仍然要考虑和兼容,怎样实现整体的系统级的和谐。

针对刚才提到的细节问题,可能在这里给大家呈现。基础设施架构的变化。去年OCP简单介绍了天蝎3.0的概念,但那个时候只是在研发阶段。现在再去介绍会有一些成果,我们相应的技术已经逐渐的在落地,而且有很多的生态合作伙伴与我们一起构建架构体系和产品。散热技术,包括风冷,随着我们下下代的CPU可能到350瓦、400瓦的情况下,我们通过一些技术在风冷的技术上解决问题。同时,我们在整个的技术兼容性上也做到了可以怎样兼容我们已有的系统。在这样的一个技术上可以看到散热风扇的功耗,相比传统的技术和传统的产品,风扇功耗可以降低35%。对于供电来说,其实这里提到了48伏是趋于成熟,这是相对于天蝎3.0。因为有非常好的电源合作伙伴参与电源的设计,包括还有一些相应的电源的技术创新在里面。无论是ATS双输入,甚至是针对一些ATS的核心模块的技术做更加深度的定制。我们已经实现了48伏电源的产品,在AI产品里已经落地,在未来的通用计算的产品也将会落地,也包括存储产品。整体的一个电源的架构是具有模块化和可拓展性,随着不同的机房侧的供电能力可以灵活的适配不同的模块,保证集中供电性和灵活性。这也提到了为什么整机柜可以灵活实现,这是我们团队集中供电的价值和体现。结构技术做很多兼容,一方面可以在整机柜的产品里实现更多的灵活扩展性,灵活扩展为整机柜的整体服务器来去服务,包括风冷和液冷的兼容,还有更高效的模块化和更极简的运维。另外的目的,考虑对生态的兼容。因为还有很多的标准级的生态,怎样例如整机柜做兼容?我们在整体的设计上考虑了21inch/19inch的设计。如果可以兼容和替代标准的柜,成本一定要保证。

刚才也提到了其实跟浪潮在整个的技术合作上是深度绑定的,而且产出很多成果,也刷新很多记录。怎样实现整机柜的高效交付,这是很明确,也是相对兼容的例子。我们实现一天交付一万台服务器的记录,如果再细化是8小时交付的,这离不开与合作伙伴的紧密协作,也离不开整机柜交付能力的体现。

这是我的分享,谢谢大家。

 

郭洪昌:接下来,我想再花点时间讲讲存储的弹性部署的开源技术。

众所周知,现在目前是一个海量数据的时代。举几个简单的例子,比如说图上可以看到自动驾驶的汽车每天因为在路上跑有海量的数据,才能保证汽车的辅助驾驶可以没有故障。我们做过一个简单的评估,现在目前中国的一个三线城市大概有一千个摄像头,可想而知北上广深有多少的摄像头和海量数据?到2025年全球会有180ZB的数据,一年的数据。这些数据不光是海量,还有多样化,有结构化的数据和非结构化的数据。而且对它的处理和生成需要有实时化的要求。

针对这些广泛的应用场景带来一些非常丰富的存储需求。我们可以通过纵轴看,越往上代表了对性能的要求越高。在横轴可以看到,对于整体的运营成本的要求就越高。热、温、冷,不同的图标代表数据访问的温度。右上角,比如说我们讲在线事物的处理对数据性能的要求和整个产品价格,愿意付出的意愿更高。包括VDI,现在的短视频实时的处理和分析,这也是数据的性能要求比较高。左边讲冷数据,淘宝的一些店里不热门的产品,它的这些数据就是一些冷的数据。如果用户想找或者说检索产品,这些数据可以通过历史的备份调出来。需要有不同类型,不同形态的存储产品满足需求。

刚才说到了池化可以满足不同客户对产品的需求,也能够提高资源的利用率。我们讲说可以有以太网的交换机,可以让存储服务器与以太网结合在一起,可以节省13的网络开销。大家想服务器的存储网络,如果把存储的网络和服务器的计算网络合并在一起设备可以节省,也可以实现池化的功能。

刚才说有开放架构,光有开放硬件也不够,还得有一些配合的第三方设备,可以实现资源简单的池化。浪潮和三星合作的高密度的存储服务器,可以实现256T超大容量存储。可以把存储的软件和套件准备在开源的OCP的社区。右边是浪潮正在采用的西杰最新的映泰计划。接下来,请三星存储部的总监何兴先生上台分享三星在开放存储方面的技术实践和最新的技术。

基于开放标准的弹性资源部署——何兴,西安三星电子研究所存储平台部总监、刘嘉,希捷中国区企业级和互联网行业产品经理

何兴:大家好!三星作为OCP的成员,一直以来希望通过OCP的平台以及社区的力量,不断的优化我们的产品,从而提供业界更好的产品。今天讲的主题是存储系统,名字是海王系统。这个系统是和浪潮合作开发的,今天也是会讲一下开发这个产品的背景,所具备的功能以及开发的产品可以给业界带来怎样的价值。

memory产品被消耗在PC里面,台式机和笔记本。但随着网络性能的提升,以及智能手机的大规模应用,其实手机对memory的需求拉动了存储产品需求增加。现在处于第三个阶段,也就是最右边的图Data  Era,随着人工智能、5G和无人驾驶技术的发展,相对原来更多的数据是由人产生,现在更多的数据其实是由机器产生。数据产生量相对原来是有一个海量的增长,我们觉得memory的趋势在整个的半导体里占的比例会越来越多,这是我们觉得未来的一个趋势。左边是以前的一个传统的模型,这是以应用为中心的模型。原来其实数据不是那么多,更多的是一种以应用为中心或者说以计算为中心的一个模型。也就是说它的数据是分散的,相对来说应用需要数据的时候,它就存储设备里拿到数据,然后进行处理就可以了。但现在随着大量的数据被产生,数据越来越多,也越来越聚合。我们觉得现在的趋势已经变成了数据为中心的模型,数据被聚合在一起,计算节点为数据节点服务,如何通过计算节点发掘数据的价值,这是我们觉得现在的趋势。

我们开发这个产品的时候,其实也在考虑,如果只有我们一家参与,那肯定客户的需求也不能很好的聆听到。在开发这个存储系统开始的时候,我们就想着如果能够把产业上下游各厂商,比如说我们的客户、制造商、社区,比如说OCP或者说开源社区的力量,还有我们的合作伙伴,把所有的力量集合在一起的话,那肯定是能够开发出一个非常好的产品,这就是我们做这个产品最初的一个初衷,就是集合产业上下游大家所有的力量开发一个很好的产品。

我们从设计阶段开始和浪潮一起合作设计以及开发了存储系统,现在这个系统其实已经有原生机,现在正在与韩国的一些云服务的厂商,比如说NAVER合作做POC。希望与上下游的产业公司合作,听所有人的需求才能开发出比较好的产品。我们开发产品的原型,最右边的图里可以看到与普通的1U、2U的服务器看着类似,但其实不光是一个硬件上的革新。不是只多插几块的SID这么简单,其实就是软件加硬件的创新。因为我们觉得要开发一个高性能、低延时的存储系统只有硬件不够,我们在软件做很多的创新,这样可以大化的发挥SSD和NAND flash的优势。

poseidon系统的原型图,现在使用的SID的接口可以插32个,高可以达到256TB存储能量,意味着数据中心的客户在部署的时候,可以利用更小的机柜来部署相同的容量产品,这样对数据中心整个空间的节省,供电的节省,其实都是非常有价值的。

软件的创新。存储系统除了支持很高的性能以外,很多的客户要求在延迟方面都需要做的非常低,QoS稳定服务质量才会非常好,我们在这方面做了很多软件上的优化。另外,一个存储系统里插了这么多的SSD,如何管理这些SSD,这也是一个难题。我们其实也是做了一套管理系统BMC。现在有一些云服务的厂商,它们其实使用一些技术,比如说虚拟化、容器的技术,为了可以让他们更好的使用现在的系统,我们其实也是做了一些虚拟化,包括容器兼容的一些接口。他们从现在的系统可以无缝衔接到poseidon系统,给他们带来了很大的易用性。

今年5月的时候介绍过了roadmap,我们对系统做了持续的更新。今年第四季度和韩国的Naver做POC。明年上半年希望把现在的整个解决方案集成,然后跟业界进行推广。

toolless latch  design,跟数据中心客户合作的时候,他们其实提出了一些反馈,就是这种新的接口确实比较好,可以提供很大的存储容量。但它有一个不太好的地方,就是在安装到服务器上的时候需要螺丝一个一个的拧固定,然后再安装到服务器上。这样的话,其实它的安装效率会非常的不好。我们在这块听到了客户的反馈以后,我们也是在这点做了一个创新,做了类似开关的东西,直接拿着开关控制可以把SSD安装在服务器上,而不需要一个一个的拧螺丝。如果考虑到数据中心整个的部署量,那这样一个小的创新其实在整个的时间上的节省是非常大的。

poseidon系统最核心的地方是storage  OS,与传统的OS相比大的区别是在用户态的,效率会非常的高。不需要从用户态到内核态切换,切换的开销会节省。现在的系统可以节省RDMA、TCP协议,可以直接访问到存储的节点,达到与本地类似的延迟。有了拓展性以后,系统可以很好的部署在数据中心里。这套软件的解决按,包括OS都会在随后进行开源。

业界产生海量数据,对存储系统有越来越多的系统,希望存储系统提供更高的带宽我们和浪潮一起合作开发了poseidon系统。除此之外,我们也相信可以借助开源的力量,更好的优化整个系统。关于这个系统整个的软件以及硬件开源的部分,我们都会在OCP上进行开源。希望大家能够多多参与。外面展台有系统的原型机,大家结束以后如果有兴趣可以参观。

谢谢大家。

刘嘉:大家好,我是希捷中国区企业级和互联网行业产品经理,今天希望和大家分享我们看到的数据存储的一些发现,以及希捷是怎样部署企业级的产品。

我们与IDC做了一份数据报告涉及到很多受访者,有不同的企业和成功人士,报告非常有代表性。报告给各位带来两个非常重要的信息,第一个信息,全球的数据大爆炸。刚才三星的嘉宾也已经讲到了,根据希捷和IDC联合做的数据新世界的报告,我们认为在未来的两年中,企业级的数据会年负荷增长率42.4%的速度高速增长。数据分析不断增加,边缘与核心有更多的训练和推理的动作,所以会有不断的分析的数据增加。随着物联网、IoT设备不断的普及,在边缘以及核心的数据会越来越多。随着现在越来越多的企业和个人把自己的数据往公有云做迁移。基于这三个原因,我们认为未来的两年里,企业级的数据会有着很高速的增长。第二个重要的信息,边缘计算的兴起。刚才提到的企业级,现在又提到了边缘计算。这里有三个信息,2025年会有44%的数据在核心以及边缘创建,这和现在相比2020年有比较大的变化。现在大部分的数据有可能在终端创建,比如说个人的手机、电脑、笔记本等等。但随着时间的推移,我们会发现越来越多的数据的创建,就是我们刚才提到的到了2025年175ZB数据有44%的数据会在核心和边缘创建。这是很大的变化。全球将有80%的数据会保存在核心和边缘。这个数据和上一个数据有区别,上一个讲了数据的创建,这个数据80%指的就是数据的保存。这也是受刚才提到的越来越多的数据往边缘和核心迁移有很大的关系。2015年的数据是35%,所以这是非常大的变化。我们预测在2025年的话,整体的这种数据会有12.6ZB的企业级的数据进行管理,这是相当大的数据。

给大家举一个例子就会知道这个数据有到了,以我们2020年的整个硬盘行业的发货量来看,几家加在一起有1ZB存储量。不管是企业级的,个人级的,监控级的加在一起是1ZB多一点。大家想想五年以后,这个数据会扩渣到12倍,这是一个相当大的增长。其中,在12多个ZB中,50%的数据是由云服务商提供。基于这样的一个使命,希捷也是不断与浪潮以及互联网的合作伙伴一起,看怎样能够把数据快速增长,以及边缘计算兴起这两个问题解决好。

提了很多的问题,我们来看一下希捷目前企业级的产品构成。刚才提到了核心是大家非常关注的一点,我们现有的左边绿色的企业级的硬盘,尤其右边的企业级的固态硬盘,其实可以比较好的帮助客户解决核心端的问题。随着数据不断往边缘迁移,光提供部件级的产品有的时候也并不够丰富,所以我们在现有的企业级的产品上增加了RAID系统的选项。还有比较新的LYVE DRIVE系统,帮助客户捕捉和保存边缘产生的数据,并能够帮助客户更好的把数据在边缘、终端以及核心之间做这样的迁移和移动。

OCP的会场上肯定要提OPEN。希捷除了是一家大家非常熟悉的存储供应商,我们在开源做不断的努力和创新。前几个月希捷在开源社区发布了最新的CORTX开源的对象存储的解决方案。有纯软件的解决方案,也有软硬结合的解决方案,这符合刚才看到的随着越来越多的数据往边缘迁移,很多的客户希望有一个开源的方案,希捷为大家提供了一个新的选择。

说了这么多的产品,我们再看看到底产品背后由哪一些优秀的技术来支持的?现有企业级的用户调研发现的痛点,第一,存储容量增长的需求,这是一个非常大的痛点。到2025年企业级的数据有12.6ZB需要存储,今年硬盘厂商1ZB。不光是对用户,对希捷和所有人来讲都是一个挑战。基于这样的挑战,希捷也是在过去20年中一直加强对热辅助技术的投入,也就是HAMR技术。未来硬盘可以实现年20%的复合增长率。我们与核心的合作伙伴会验证20ZB的热辅助磁记录硬盘。容量是一个大的缺口,性能也是一个头疼的事。其实在硬盘也是有一些新的选项可以供大家参考。多磁臂技术的硬盘,我们与头部的互联网客户合作的双磁臂的新技术可以帮助合作伙伴进一步的提升性能。为了在新的技术上不断提高容量,也提高性,可以帮助客户降低TCO。最终的效果能够帮助硬盘在更小的空间上记录更多的信息。

希捷过去20年里不断的在热辅助磁记录的技术上投入很多的技术研究,我们在技术上的R&D和专利上都有很多的优势。性能方面有多磁臂技术的硬盘,可以有两个磁臂同时工作,理想的状态下可以让硬盘的性能有一个翻倍。去年OCP的美国峰会上,我们成功的对双磁臂的硬盘做了一个demo。针对单磁臂的硬盘,streams为从131提高到了233…对象存储、大数据方面也有很多的使用案例。

谢谢大家。

郭洪昌:刚才讲到了大型数据中心目前自动化运维是非常大的一个挑战,我们讲开源技术有哪一些新的技术可以应对这些挑战?这里是一个逻辑的示意图,从底层的设备级的管理到机柜级的管理,再到数据中心级的管理,以及上层应用,其实这是一个逻辑环环相扣的框架。现在目前开源技术在最底层有了开放BMC的技术,传统的BMC代码是AMI厂商自己维护。这些维护带来的问题就是依赖性非常强。尤其是现在AMI是非常垄断的公司,这带来的问题就是有一些新的设备要等待BMC出了新的版本才能支持。我们对新的硬件的管理,修改也是一个很大的挑战。因为原来AMI的BMC结构是网状的,也就是说增加和修改新的硬件需要对整个的code进行修改。专门的IPMI的  tool相当于是二进制的代码,要解释这些代码相当于有一些密码本,解读这些密码形成可视化的信息,这带来的困难也是比较大的,易读性比较差。开放BMC可以解决这些问题。除了节点以外,因为还有节点以内其它的非服务器的设备。我们老讲南向和北向,南向可以实现一个标准化,可以收集服务器内部的硬盘,包括电源等信息。北向主要是通过控制呈现的方式,形成了一个标准化的管理方法,规范化。以后怎样实现加密,包括资源池化的需求,这都是Open RMC/BMC可以实现的地方。

OpenBMC技术架构和优势,我们讲OpenBMC是基于一个Linux Kernel工作量会大大的减低。还有一个好处,可以通过VUE然后再把它展现,易用性比较好。开发人员省很多事。

浪潮一直在做OpenBMC,大家知道Linux fundation…kernel…更多的贡献。浪潮现在基于WebUI,Redfish做核心功能的开发。我们还有一些计划,希望明年在第一季度完成一些OpenBMC针对本地服务器的支持工作。

OPENRMC…上面有一个交换机,可以连一个运行RMC的BMC的管理卡。可以把交换机做成有管理功能的交换机,RMC硬件可以放在交换机里。可以专门做一个服务器,把这个服务器作为一个管理的控制台,很灵活。可以实现整机柜的资源管理。右边是逻辑示意图,南向的每一个节点的BMC可以管理相关的硬件,这是OpenRMC技术的呈现。

技术贡献。基于OpenBMC的代码,浪潮做了很多Web UI,Redfish。基于Redfish标准,浪潮OpenBMC实现了机箱管理和日志条目的显示工作。Open2.0版本的规划,这些工作都在做。刚才讲了OpenBMC,现在x86平台上英特尔做一些开发,下一个平台英特尔全面的支持OpenBMC的技术。

下面邀请英特尔数据中心平台事业部高级架构师宋川先生进行分享。

基于开放标准的超大规模数据中心自动化运维管理组件——宋川 英特尔数据中心平台事业部高级架构师

宋川:大家好,我是英特尔数据中心平台事业部高级架构师宋川,今天分享分三小节,第一部分是关于在云数据中心对管理部件带来新的挑战,以及新需求。第二部分,管理固件更新与系统可用性之间的关系。第三部分,硬件管理的接口标准化。

今天数据中心的规模越来越大,超大规模的数据中心不断涌现。在我们今天的数据中心中面临哪一些关键挑战?三个角度看,CapEx投入成本,资源利用率普遍偏低 超过50%的数据中心已经非常不错。另外,由于考虑业务不确定性,规划数据中心的配套时,通常都做超配的处理,这些资源很少被充分的利用。OpEx运营成本,能效利用率,今天为电费掏的每一分钱是否转化为实际业务输出,随着业务规模不断扩大,今天的数据单位业务产出的运营成本到了一定的规模以后持续摊薄还是跃升。业务的形态越来越多,业务的迭代速度越来越快,如何提升硬件设计的弹性,满足我们业务的快速迭代的需求?从今天系统的可用性角度,随着用户将越来越多的关键业务和数据放在云端,云的可靠性和可用性变的尤为关键。由于软硬件的故障或者系统升级带来了业务的中断时间变的越来越敏感,所有这些都推动着支撑云的硬件的设计模式向着更加灵活,更加弹性的方式进行转变。

今天支撑云计算的各种硬件资源,计算存储网络和各种加速设备。在这一层管理固件与硬件紧密配合,形成了今天支撑整个云计算的基础资源能力。随着云厂商对云平台硬件定制化需求增加,硬件设计模块化、标准化以及白盒化成为趋势。相配套的固件也需要一个白盒化的模式,不再是黑盒子,这是开放计算OCP推动固件白盒化的模型。深蓝色的部分是围绕着我们的芯片的固件的支持包,考虑到芯片的复杂性,通常是采用了二进制的方式进行发布。上面的一层浅绿色的部分是开源固件的基础框架,云厂商可以通过这样的开源基础框架,快速的构建一个固件的开发平台,减少固件开发的复杂度以及投入的成本。在这块主要涉及到三个开源项目,最右边的是OCP下的开放式系统固件项目,中间是板级的管理固件openbmc,最左边的是覆盖机柜层面的管理固件openrmc。基于开源的固件基础框架,云厂商可以构建自己的个性化的固件需求,形成最终的固件产品。橘黄色框中所示 这层是闭源模式,由云厂商自己完成,或者协同ODM IBV ISV完成。再往上是固件和上层软件的接口。英特尔提供固件白盒化支持的方案。右边是系统固件,深蓝色的框是围绕服务器芯片各种固件的支持包或者开发包。由于服务器芯片的启动流程比较复杂,为了方便用户系统集成,英特尔把这块做成了二进制包的方式提供给客户。再往上就是UEFI的开源固件的基础框架,这一层主要是基于EDKII社区的方式进行发布。…开放式标准化的系统固件的白盒化的开发模式来支撑今天云厂商对系统固件的白盒化的需求。左边是板级和机柜层面的管控固件的支持,涉及到OpenBMC和OpenRMC的项目,英特尔都是关键的成员。英特尔对云厂商提供的公版设计,BMC所有特性今天都是基于OpenBMC的代码数提供的。今天云厂商对系统的可用性要求越来越高了,这边是一个数据中心的停机时间的分析图表。右上角是由于维护性的需求带来了维护性的停机,整个数据中心的占比30%。相对我们大家都非常关注的硬件故障导致的停机10%,这是3倍的关系。我们可以从时间的维度上看,维护性的需求,维护性的停机对数据中心的可用性的影响是非常巨大的。维护性的停机来源是哪一些问题?系统更新,应用打补丁的过程和例行的维护性的检查。其中,系统更新是影响大的,因为通常会带来我们平台的重启,会带来业务的一个下线。经常听到云客户问我们,就是说未来我们在云平台能不能做到永不重启?

受限于软硬件的条件,短时期内永不重启是一个理想。我们可以通过技术创新,以及生态的整合来降低由于系统更新带来的维护性停机对业务的影响。这边是我们建议的一个路线图,日常运维管理将维护性的停机带来的停机时间纳入到系统可用性的基础评估,停机的时间、频次以及单位成本。系统化的根据业务的需求定义单次维护性停机的容忍时间,以及相应的解决方案。有的客户给我们讲单次维护性的停机做到10秒以下可以接受,有的客户讲我的业务需要做到2秒,甚至是1秒以下,根据业务有不同的需求。积极的采纳一些升级管理的新技术创新,降低固件升级或者说是系统升级对我们业务的影响。我列了英特尔推动的固件升级方面的技术创新,运行期的更新减少我们更新对系统重启的需求。快速启动降低启动时间对整个业务的中断影响,平台的运行机制降低了固件的运行服务升级和运行对业务的干扰。

今天大规模的数据中心的管理需要智能化、自动化,在这个过程中需要构建一个覆盖整个数据中心维度的管控视图。其中一个关键的挑战,是缺乏统一的硬件管理API。从几个角度来看,今天的云操作系统需要去管理我们的硬件基础设施,需要管理云资源。这其中有大量的跨平面的互操作性的需求。我们需要一个统一的资源模型来描述支撑今天云计算各种硬件资源。成千上万台服务器如何规模化,快速化的推送我们的系统配置,推送我们的系统更新。我们的解决方案是Redfish。两个案例分享,外围的各种组件上的固件,它们之间的升级需要一定的依赖关系。如果说在升级的过程中发生版本的错配或者是升级顺序的颠倒,这会带来系统的故障。这边我们通过基于Redfish构建一个固件升级的依赖模型,云操作系统的固件升级程序可以分析固件之间的依赖关系,然后构建一个升级的工作,然后完成数据中心规模化固件升级的快速化。

Redfish对今天云操作系统,针对今天复杂硬件管理的案例。今天的处理器支持很多很复杂的性能和功耗的特性,英特尔SST支持三个不同的基频,可以根据服务器的激活的核的数目进行动态的调整。如何在云操作系统中规模化的描述和使用这些的能力?我们贡献给redfish处理器的管控模型,最上边的可以看到是节点,下面是计算系统,计算系统下面挂了多个的处理器,每一个处理器下面可以根据实际的硬件能力申请配置能力。推动redfish作为数据中心硬件管理API的标准化,希望通过redfish帮助我们降低今天数据中心管理的复杂度,提升数据中心运维管理的效率。

希望大家积极参与开放计算这个项目中,我这边列了几个跟系统部件,管理部件,以及相关的管理项目。跟我们一起拥抱部件云化技术的发展趋势,通过业界的协同加速今天云生态的创新和发展。

谢谢大家。

OCP CHINA DAY2020 直播回看:https://zhibo.ifeng.com/video.html?liveid=136937

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2024-01-09 16:53:00
市场情报 中兴通讯分布式存储+ DPU,加速数据中心转型
存储技术在不断地创新、完善、加速演进,以更好地满足业务的存储需求,但同时也使得存储协议和文件系统越来越繁重。 <详情>
2023-11-17 10:35:56