日前,社交网络巨头Facebook公司已经升级了连接其服务器的网络,以应对内部数据流量的增长。新的快速骨干网络(EBB)可以缓解其数据中心内的网络拥塞,并为最终用户提供更好的服务。

所有用户流量都保留在现有网络上,又称为‘Classic Backbone’。

facebook

一个不同的挑战

在过去十年中,Facebook公司在美国和欧洲的数据中心使用单一广域网(WAN)骨干网进行互连,该网络承载了用户流量和内部服务器之间的流量。

内部流量由与用户交互不直接相关的各种操作组成,例如将图片和视频移动到冷存储或复制异地数据以进行灾难恢复等。

根据网络工程师Mikel Jimenez和Henry Kwok的博客文章,Facebook内部数据中心流量的增长速度远远快于用户流量,直到开始干扰前端功能。

“随着新的数据中心的建立,我们意识到需要将跨数据中心与面向互联网的流量分为不同的网络,并对其进行优化。在不到一年的时间里,我们构建了新的跨数据中心骨干网络的第一个版本,称为快速骨干网(EBB),从那以后我们一直在增长。”工程师在文章中解释说。

在创建EBB时,Facebook公司将其网络的物理拓扑划分为四个并行平面,就像在2014年设计数据中心架构时一样。该公司还开发了专有的模块化路由平台来提供内部网关协议(IGP)和消息传递功能。

Jimenez和Kwok在文章中写道:“我们的新网络的第一次迭代是使用内部网关协议(IGP)和全网内部BGP协议(IBGP)拓扑结构的完美结合来构建的,以实现基本的数据包路由。下一步是添加一个流量矩阵估计器和中央控制器来执行假设‘静态’拓扑的流量工程函数。最后的迭代将内部分布式网络平台Open/R替代了原有的IGP,将分布式版本与中央控制器完全集成。”

由此产生的网络能够实现干净的拆分故障域,并可实时响应流量峰值。接下来,Facebook公司计划扩展网络控制器功能,以更好地管理流量拥堵。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党