2019年12月18日,第十四届中国IDC产业年度大典主论坛在北京国家会议中心正式召开。作为数据中心云计算产业内知名的盛会以及IDC企业、电信运营商、互联网、金融、政府和厂商等产业上下游的高效沟通平台,与会嘉宾包括政府领导,行业专家和企业代表数千人。中国信息通信研究院云计算与大数据研究所何宝宏所长在大会上做出了主题为《打造数字社会的“铁公机”》精彩演讲。

1

中国信息通信研究院云计算与大数据研究所  何宝宏所长

何宝宏:再次来到IDC大典,很多人都认识我,一个人被注意到不是因为他站在哪里,而是他老站在那里、IDC圈子也许是一样,不是他举办了IDC产业大典,而是14年一直干这个事。你要坚持,坚持才能做好基础设施。

数字时代的基础设施主题是新基建,对于数据中心行业而言,它相当于我们的物理世界和虚拟世界的南天门,这是数字世界和物理世界的边界,既像房地产做IT的,也像IT做房地产的,大概是这么一个定位,我们绝对是基础设施,不仅仅是数字基础设施,而且是数字基础设施的基础设施。无论是5G、人工智能、工业互联网、物联网等等都需要依靠数据中心的发展,因为它是基础设施的基础设施,我们看到它应该是市场下行中的优质避风港,因为它是技术密集型,也是资金密集型,无论是看全球的IDC的增长,还是我国的IDC增长,我们都能看到它的增长势头是非常好的,你很难找到第二个行业有如此高稳定的增长,你很难看到第二个行业预期是这么确定。

数据中心朝两个方向走:越来越大、越来越边。一个技术往一个方向走久了,必然掉头往反方向走。数据中心这些年越来越集中以后必然会出现往边缘走的趋势,从来都是这样的,因为朝一个方向走久了,它的背面、反方向的弱点就会充分暴露出来,所以就需要大型数据中心做久以后做边缘数据中心,以弥补大型数据中心发展过程存在的空白地带。

大型数据中心大概是什么样的?技术不行只能靠数量来凑了。为了提高大型数据中心的利用率,以前一个办法是通过云等虚拟化技术能够更加充分地利用我们数据中心的IT资源,第二个就是即使我们没有做到,我们亿也不干,也可以依靠摩尔定律,摩尔定律源源不断地给我们提供廉价、更廉价的计算资源,也能够提高单体的数据中心的计算能力。我们经过这么多年发展,资源利用率大幅提升,摩尔定律正在减速导致第三个现象,我们要进一步提升大型数据中心和超大型数据中心的能力,要靠提高单体的性能来提高整体的性能,如果实在质量不行就靠数量来凑。

刚才两个黄总致辞都提到,因为超大型做了多年以后必然要做边缘数据中心,传统的机房在通信方面的能力比较弱,在维护方面、运维方面能力比较弱,传统的通信基站维护能力比较强,通信能力比较强,但是计算能力、服务器能力比较弱,都在改善,今天我们看到第三方势力,国网的介入,电力能力是强的,我们一直主张像水电一样提供计算,但是你有没有想过做电的人的感受,他会不会翻过来,我也做计算,肯定是这个逻辑。边缘数据跟超大数据中心在网络、电力、维护等方面的差别很大,所以我们更多的可能需要一体机,甚至会是锂电池等等,免维护等方面的诉求是完全不一样的。

再往里面走一下,服务器,2018、2019年出现了新的一种形态的服务器,叫OTII,就是开放电信的服务器,我们传统的做法是改造我们的机房、改造我们的数据中心,以适应标准服务器的需求,现在出现一种新的变化,就是我为什么不能改造服务器,以适应我在传统通信机房的需求呢?这就是OTII,这就是全球电信运营商热烈拥抱的技术,改造服务器,定制服务器,让服务器来适应我的通信基站,到底哪个好使?电信商肯定会拥抱这条路径。2020年会有几家运营商不同程度地会小规模地试点。

数据中心的预制潮,数据中心经过这些年的发展出现新的变化,就是工程化,我们以前的数据中心就是一个工地,什么东西几乎都要在数据中心建设,在现场施工太多,在过去十年或者八年我们发现一个新的变化,数据中心的设备越来越工程化,预制化,将相关的生产、建设等等前置,前置到工厂,不要放在数据中心现场,所以预制化。天蝎服务器迈出重要的一步,将服务器、整机柜预制化,2019年推出巴拿马项目,在IT之外推出预制化,已经从传统的IT正在向非IT领域扩展,尤其是供配电、柴发的预制化正在到来,毫无疑问,IT化预制已经开始向IT以外延展。还有一个数据中心的智能的问题,基本上目前只能是风冷为主,去年我提过,再大的风也吹不凉滚烫的芯,我们需要新的方式,就是液冷的方式,液冷的关注度2019年在直线上升,2017年在组织行业内讨论液冷的人的数量大概就20个左右的专家,在讨论液冷要不要标准化,2020年不是20多个专家,是20多家企业在讨论液冷的标准化如何使用的问题。为什么?因为计算太热了,热散不出去了,可以让单体提升10倍以上,空间节省75%以上,最重要的液冷已经在高性能计算、GPU、AI等等应用中已经开始规模应用了,密度比较高的领域已经开始使用液冷了,另外还有满足政府政策的需求等等。基本上可以得出这样的观点,液冷从技术上已经准备就绪了,尤其是最复杂的液冷,技术上已经ready,但是周边的产业还需要进一步发展,这条路是可行的,但是周边的生态还需要我们共同努力,所以我们叫技术已经准备就绪,接下来就是生态的事情。

数据中心的网络这些年也发生了翻天覆地的变化,大家可以看到新的现象,我个人总结的现象。最近20年来,网络创新的焦点是两边,为整个网络的两头,一头是靠近用户侧,一头是数据中心的网络,大家会非常明显地感觉到这两边的变化。我围绕5G、物联网、IoT等是靠近消费侧的网络创新变化非常快,还有一侧的网络中心不为很多人关注,因为它离消费者稍微远一点,就是数据中心的网络。可能你很明显的一个感受,就是我们过去的10年,尤其是过往的创新基本上都是从数据中心开始的,我们正在做数据中心与网络相关的网卡的智能化、光模块、数据中心专用的,还有交换中心的白盒化,还有网络等等。

数据中心已经成了新技术创新的制高点,所以要特别关注数据中心新技术的变化,原来十多年前数据中心用的网络技术都是用广域网、城域网用啥我们用啥,现在是创造自己的技术路线。白盒交换机是数据中心开始的,没有中间商赚差价,在座的可能有些中间商,不好意思。越来越多是交换机硬件用标准化的方式交给代工厂生产,而软件和管理成由业务层、用户方自研,而系统设备厂家在这个生态中的地位越来越尴尬,你们可以看到我们右边的图(如PPT)展出的样机、发布规范,开展相关操作系统,预计明年白盒交换机的市场占有率将大概占20%左右,经过三年的努力。

“光退铜进”,我没有写错,我们知道我们20年来一直推进的是“光进铜退”,不是每个事情永远是对的,尤其是在数据中心机柜那种场景下,我们正在做的一个标准,就是要求“铜进光退”,因为在短距离通信的场景下,铜通信看起来比光更适合、更便宜。所以我说的技术走久了,一个方向上走久了必然会掉头。

数据中心之间的互联也是一个趋势,数据中心之间的互联轨迹我个人看也很清楚,我原来说过,你要看数据中心的未来只要看计算机的历史就行了,计算机的历史就是数据中心的未来,因为数据中心本质上就是一台计算机,一种提供计算服务的计算机,所以趋势是一模一样的。数据中心之间的联网也会一模一样,很多年前就说了肯定的,因为计算机之间要联网,数据中心之间为什么不联网?而且你看它的轨迹也一模一样,一开始要解决互通的问题,主要是通过互联网、VPN等等,这是小流量,经过若干年以后的发展,最近我们开始引入SD-WAN等等来做数据中心的互联,不能简单的联,还需要一定的路由能力。

下一步数据中心之间会不会联得更好一点?肯定的,我们需要光纤、OTN等等解决带宽的问题。这个跟互联网的发展是一模一样的,先解决有和无的问题,再解决路由和交换问题,再解决大容量、高带宽的问题,次序从来都是这样的,所以我们能看到,经过十年的发展,我们正在做的是计算的基础设施,像水电一样提供服务,基础设施就是我们的数据中心,如果说互联网经过20多年、30年发展解决的是通信的基础设施的发展问题,今天我们的云计算数据中心核心是解决计算的基础设施化的问题,将计算基础设施化,将计算基础设施化、服务化、公众服务化,这是很明显的,如果说我们在2010年之前大家讨论“互联网思维”关注的是互联网,互联网核心解决的是通信问题,而今天的云,核心解决的是计算的问题,将计算公共服务化的问题。

还有一个热点,它也是新型基础设施,区块链,大家说怎么又讲区块链?是不是蹭热点?2016年1月份那次IDC大典上我第一次呼吁大家高度关注区块链的,不知道在座的有没有听到我当年的观点。有没有靠这个发财?肯定没发财,发财听我讲课干啥?我一直在呼吁,尤其在2016年的IDC大典上呼吁高度关注区块链技术可能给我们带来新的机会。

今年云计算经过十余年的发展到了什么阶段?泛在的基础设施的时代还远未到来,经过十多年的发展是不是已经普及了?没有,是不是达到像水电一样的服务?没有,至少有四个特点可以衡量是不是这个事情做到泛在了,做到泛在基本上就做到头了。1.行业里面公共云的使用量远远大于私有云的使用量。2.全社会用云量,而不仅仅是用电量来衡量我们的经济增长。3.企业里面搞云计算的同志和搞电力的同志属于一个部门了,不是两个部门了,这个时候应该是进入了普及化的时代了。4.对我们个人来说不是什么好消息,什么时候“算工”不是白领的工作,是蓝领的工作,基本上就是云计算的时代已经普及了。说云计算是蓝领的活的时候就是普及了,但是这一天还远远没有到来。

大的行业发展趋势,大家注意,行业的天空飘来两朵乌云,很多传统的做法似乎要变,甚至180度变,因为我们搞了几十年的想法在我看来今天出现了更大的挑战,第一个就是摩尔定律给我们带来的挑战,因为摩尔定律给我们源源不断地提供了越来越廉价的行业资源、基础资源,计算是整个行业的基础资源,这个基础资源几十年来价格不断地下降,会产生浪费,对整个行业基础性资源的供给由充沛可能越来越变成稀缺,到稀缺还需要时间,至少从充沛到不怎么充沛,计算的成本下降的速度在减缓,必然会带来行业很大的挑战,因为我们早就习惯了浪费,我们很多的创新都是基于摩尔定律的,几乎大部分的创新,整复杂了叫创新,为什么能整复杂?因为摩尔定律,如果没有摩尔定律想整复杂也整不复杂,怎么办?我们要逆转。第二个就是整个行业过去的10年创新的步伐非常快,颠覆性创新不断出现,但是带来新的问题就是应用,对新技术应用的步伐远远落后于技术创新的步伐,全社会赶不上整个行业技术创新的步伐,怎么办?还有一个,除了应用,应用会产生新的问题,就是周边的软文化、软科学之外,除了应用,应用之后必然会带来整个制度、管理等等的创新,这一块的创新落得更远,所以个人不能跑得太快,一定会被全社会拖住。如果百年前是因为IT业发展太缓慢,追不上当年全球贸易繁荣、工业繁荣的步伐,我们的IT技术太落后了,100年前跟不上这个社会的发展。今天整个IT业的创新步伐好像远远领先于社会对它应用的步伐、对它治理的步伐,它的应用缓慢,它的治理缓慢,必然会拖累我们的创新。

怎么办?有可能会发生什么样的变化呢?第一个,在摩尔定律减速的环境下我们的做法是不是会发生变化?我认为肯定要发生变化,因为我们以前想的是如何更好地创造出更快的、更多的计算资源,原来的目的是如何创造更多的资源,下一步我们要想的是如何更好地利用好已有的资源。现在关注的焦点是如何创造出更多的计算资源,下面要关心如何更好地利用好资源,而不是创造好资源,如何更好地利用好资源,我们要关注的几个点:1.软件,尤其是并行软件的优化问题;2.算法优化的问题,以前算法优化并不重要,我花100万请一个算法工程师做优化,不出花100万买几个CPU、买几个硬盘就得了,有什么大不了?但是后面的情况不是这样的;3.芯片,特定场景的专用芯片会越来越多,通用芯片,繁荣的时候一定是通用芯片,趋于稳定的时候专用芯片会变得越来越多。所以我认为至少要关注三个方面的问题。

技术创新的步伐会不会停滞或者减缓?会的,我去年一年多一直在公开讲,这一波技术创新的浪潮是不是走到了尾声?我一直坚持我这样的观点,我讲了大概快两年了,是不是走到了尾声?因为不可能永远这么繁荣,怎么办?我们未来10年的机会在哪里?1.十九大报告已经告诉我们了,跟行业的深度融合,做行业、做特定场景下的优化、特定场景下的工作,因为颠覆性创新的步伐正在减缓,甚至于停滞很长一段时间,我不是说整个创新停滞,颠覆性的会越来越少,而改良性的技术会持续。2.应用之后必然会带来相关的软实力、软环境的变化,经济、制度、教育等等也会受到新技术带来的影响和颠覆,这是完全可以肯定的,所以第二个事情属于文科生的,未来十年文科生的春天就要来了,因为我们法规、规章制度都要跟上技术的发展变化。

不仅改变了我们的数据基础设施,毫无疑问,我们今天的云、物联网等是我们的时代的基础设施,而且还改变了信任之锚的事情,不管做什么总得相信什么,古代相信图腾、宗教,从外部寻求力量。200年前人文主义的兴起,我们相信人能解决问题,不再相信上帝能帮我们解决问题,我们相信人能解决人自己的问题。所以我们的口号叫相信自己,相信自己的基本假设是人能解决问题,如果人不能解决问题,相信自己有什么用?但是最近十年的思潮好像我们越来越不太相信自己,是不是对自己的自信有点下降?最近十年迎来了新的思潮,我们越来越相信技术,越来越相信算法,越来越相信机器所做出的决策比我自己更靠谱。因为行为心理学最近几十年的研究也清楚地表明我们大部分时候的思考是假装在思考,我们大部分的决策假装是深思熟虑的,实际上根本就是拍脑袋出来的,这个概率高达80%,推荐一本不是我自己写的书,丹尼尔卡思曼的《思考快与慢》,不如算法,不如机器。大数据让我们相信数据会产生价值,区块链让我们相信机器会创造信用。这是大的历史思潮的过程,不管相信什么,不要相信我,因为人是不可信的,其实我是来做广告的,欢迎大家参加我们12月22号我个人的思想会,如果要票找黄总要,不要找我,我手里没有,谢谢。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2024-01-22 15:25:05
2024-01-19 15:41:34
国际资讯 亚马逊宣布将在五年间在日本投资150亿美元 用于扩建数据中心
此项投资将主要用于扩建该公司在日本的数据中心,并加强其在当地的业务运营。 <详情>
2024-01-09 16:53:00
市场情报 中兴通讯分布式存储+ DPU,加速数据中心转型
存储技术在不断地创新、完善、加速演进,以更好地满足业务的存储需求,但同时也使得存储协议和文件系统越来越繁重。 <详情>