近年来,云计算开源技术逐渐成为云计算发展的重要支撑和导向,改变了以往的信息技术进化模式,引领软件技术标准的发展和创新,深刻影响着整个信息技术产业的发展格局。为进一步探索我国云计算开源技术发展模式,加速云计算与各行业的深度融合,更好地发挥云计算在经济社会创新发展中的支撑和引领作用,促进我国云计算产业快速、健康发展。

由中国信息通信研究院主办、中国通信标准化协会支持的"OSCAR云计算开源产业大会"将于2018年3月21日-22日在国家会议中心举行。在22日下午的工业使用开源论坛上,北京中油瑞飞信息技术有限公司资深架构师孙杰就《"容器技术在企业落地的探索和实践"》进行了演讲!

孙杰

以下为演讲实录:

孙杰: 当今容器技术被广泛关注,已经有越来越多的企业开始布局或者已经采用容器技术来构建自己的云基础设施。很多传统行业和互联网企业相比在容器技术方面起步稍晚,但近两年随着容器关注度的空前火热,企业进步也很快,大力推进容器相关能力的建设。基于 Docker 的容器,是一种更轻量级的虚拟化,我们称之为 CaaS,就是容器级服务。它涵盖了 IaaS 跟 PaaS 两者的优势,可以解决应用的部署、开发运维、微服务这些问题,而且能够更快的加速业务的交付。容器可以说它是一种先进的技术,但怎么把它变成一种先进的生产力,企业能不能把这个技术给用好,怎么用好,大概有这样九个问题,这也是我们长期的思考和探索实践。

企业要用正确的姿态拥抱容器并且使用好容器,需要在应用容器技术时考虑清楚以下九个关键问题:

1、企业容器云方案设计需要遵循什么原则?

2、容器云技术产品如何选型?

3、容器云的网络应该如何设计?

4、容器的持久化存储方案如何选择和设计?

5、容器云上日志集中管理如何设计?

6、容器应用的监控方案如何设计?

7、容器云的多租户和权限如何设计?

8、容器与 OpenStack 和 Kubernetes 集成的能力?

9、容器云如何实现高可用和跨区部署?

那么,首先第一个问题企业容器云方案设计需要遵循什么原则?

首先,我们要明确企业上容器云的目的,容器是为业务服务的,任何技术都是为了能够更好的服务业务,这是我们的出发点。其次,结合业务特点选择合适的容器框架,比如我们的业务本身是不是可以基于新型微服务架构进行改造,业务是不是具有变化快、弹性大、更新迭代快等特点。还有要和已有系统较好地对接整合,在上容器之前,企业通常都已经有比较成熟和稳定的其他 IT 系统,例如网络系统、集中监控系统、安全防护系统等。

为避免重复建设,同时也为了容器平台能够更容易被接受和使用,应让容器平台融入企业原有的整个 IT 系统,而不是另起炉灶重新建设。容器平台要承载生产业务,也需要满足安全的监管合规要求,例如隔离不同安全等级的应用、支持对应用容器的安全漏洞扫描、安全有效的防火墙策略管理等。生产环境的业务要求高可用性、连续性,还应该考虑整个容器应用层面的高可用性和数据连续性、安全可靠。

建设容器平台的目的是为应用带来灵活、弹性、节省资源等优势,这要求应用好具备微服务架构、无状态化等特点,让这些优势更好地发挥。但不适合容器化的应用也不能勉强,否则容器平台建设后,如果不能给应用和业务带来预期的价值,不仅浪费了大量企业投入,还使得容器平台的价值得不到认可。这是每一个投入大量精力和热情进行容器平台建设的人最不愿意看到的结果。

容器本身的特点和好处,我就不复述了,大家都比较清楚,容器一个是低成本、轻量级的,而且便于迁移,启动的时候特别快。它直接可以构建在物理主机的OS系统上,像以前的虚拟化可能要多一层,然后在这之上才会有你的虚拟机的操作系统。容器和虚拟机占用CPU资源的情况对比,像Docker大概在1.6%,像KVM占用资源大概14.6%,占用的内存资源对比,Docker平均每个容器只有46兆,KVM基本上185兆,同样的规格,Docker的性能2倍于你的KVM.Docker的镜像非常小,而虚拟机的镜像基本上在3G、4G,甚至像Windows这样的都在5G、6G.这样来看容器有比较大的资源节省,而且性能又提高了。

应用容器技术带来的挑战和改变,大家可以看到,容器带来的改变,第一,它可以直接通过镜像封装你的应用,可以根据你的dockerfile命令行直接构建你所需要的应用,提供了一种比较广泛认可的交付协议。第二,资源的提供者可以无差别的对待你的资源需求,为构建统一的IT支撑平台提供了可行性。另外就是研发流程自动化(CI)、 应用模式化(微服务、弹性)、 标准化、自动化,这些都可以做到更快的响应业务的变化。

容器面临的主要挑战,就是平台化才能产生效益,但是标准不太统一。还有就是平台化需要侵入应用结构。大量传统应用遗产需要改造,这是比较消耗人力和资源的。

第二个,容器云技术产品如何选型?技术选型这个问题有很多复杂的影响因素,包括技术和非技术两方面,不同的组织情况下也不尽相同。

一个企业在应用新技术前,还需要考虑 IT 部门自身的技术能力,包括开发能力、运维能力,同时对自身业务系统从开发平台、开发过程、开发规范等有决定能力。如果企业自身的开发和运维能力不强,则采用成熟的 PCF、OpenShift 等方案是不错的选择。如果考虑现有系统对接需求,包括监控、网络、安全需求等,特别是现有网络架构对容器的网络方案有较大影响时,应该考虑使用 Kubernetes、Mesos、Swarm 等开源方案更便于定制,也能较好的融入现有 IT 系统。

Kubernetes、Mesos、Swarm 这三个开源方案都是行业内比较火热的资源编排解决方案,但它们各自的立足点各有千秋。从应用的发布环节来比较:Docker 的 Swarm 功能,以及 Kubenetes 的编排,Mesos 的调度管理,很难直接决出高低。换言之,如果加上企业级应用场景,来辅佐容器技术选型,则会显得更有意义。

企业规模不大,应用不是太复杂

这时 Docker Swarm Mode 还是比较好用的,集群的维护不需要 Zookeeper,Etcd 自己内置,命令行和 Docker 一样用起来顺手,服务发现和 DNS 是内置的,Overlay 网络是内置的。

企业规模大一些、应用够复杂

这时集群规模有几百个节点,很多人就不愿意使用 Docker Swarm Mode 了,而是用 Mesos 和 Marathon.因为 Mesos 是一个非常优秀的调度器,它的双层调度机制可以使得集群规模大很多,Mesos 的优势在于第一层调度先将整个 Node 分配给一个 Framework,Framework 的调度器面对的集群规模小很多,然后在里面进行二次调度。如果有多个 Framework,例如有多个 Marathon,则可以并行调度不冲突,同时 Mesos 在传统数据计算方面拥有较多的案例,相信也是企业选型时考虑的要素之一。

企业规模大、业务复杂、应用粒度更细

这时 Kubenetes 就更适合了,因为 Kubernetes 模块划分得更细更多,比 Marathon 和 Mesos 功能丰富,而且模块之间完全的松耦合,可以非常方便地进行定制化。还有就是 Kubernetes 提供了强大的自动化机制,从而使后期的系统运维难度和运维成本大幅降低,而且 Kubernetes 社区的热度,可以使得使用 Kubernetes 的公司能够很快地得到帮助,方便问题和 Bug 的解决。

第三个问题,关于容器云的网络设计,这一块是关键。因为大家知道容器它最早是基于单主机这种来设计的。当容器技术逐步成熟之后,收购了一家网络解决方案公司 Socketplane,将原有的网络部分抽离,单独成了 Docker 的网络库,即 libnetwork.libnetwork 实现了 5 种驱动,通过插件的形式允许用户根据自己的需求来实现 network driver,但 libnetwork 组件只是将 Docker 平台中的网络子系统模块化为一个独立库的简单尝试,离成熟和完善还有一段距离。

随着容器技术在企业生产系统的逐步落地,用户对于容器云的网络特性要求也越来越高,跨主机容器间的网络互通已经成为最基本的要求。跨主机的容器网络解决方案不外乎三大类:

隧道方案

比如 Flannel 的 VxLan,特点是对底层的网络没有过高的要求,一般来说只要是三层可达就可以,只要是在一个三层可达网络里,就能构建出一个基于隧道的容器网络。不过问题也很明显,一个得到大家共识的是随着节点规模的增长、复杂度会提升,而且出了网络问题跟踪起来比较麻烦,大规模集群情况下,这是需要考虑的一个点。

路由方案

路由技术从三层实现跨主机容器互通,没有 NAT,效率比较高,和目前的网络能够融合在一起,每一个容器都可以像虚拟机一样分配一个业务的 IP.但路由网络也有问题,路由网络对现有网络设备影响比较大,路由器的路由表应该有空间限制,一般是两三万条,而容器的大部分应用场景是运行微服务,数量集很大。如果几万新的容器 IP 冲击到路由表里,会导致下层的物理设备没办法承受;而且每一个容器都分配一个业务 IP,业务 IP 会很快消耗。

VLAN

所有容器和物理机在同一个 VLAN 中。

综合来看Calico 的方案和基于 HOST 的网络解决方案性能较好。但基于 HOST 的端口冲突和网络资源竞争比较麻烦,相对来说 Calico 的是纯三层的 SDN 实现,它基于 BPG 协议和 Linux 自己的路由转发机制,不依赖特殊硬件,没有使用 NAT 或 Tunnel 等技术。它能够方便的部署在物理服务器、虚拟机(如 OpenStack)或者容器环境下,同时它自带的基于 Iptables 的 ACL 管理组件非常灵活,能够满足比较复杂的企业安全隔离需求。关于容器应用的网络隔离还有多种解决方案,基本上就是把不同的应用容器放置在不同的 vlan/vxlan 中,通过让不同的 vlan/vxlan 不能互访而实现隔离。企业里应用目前是 OVS/Linux-bridge +VLAN 方案的比较多,但长远看来 Calico 方案前景不错。

第四个问题就是容器的持久化存储如何设计?在讨论持久化存储之前,首先声明,运行容器并不意味着完全摒弃数据持久化。在容器中运行的应用,应用真正需要保存的数据,也可以写入持久化的 Volume 数据卷。在这个方案中,持久层产生价值,不是通过弹性,而是通过灵活可编程,例如通过优秀设计的 API 来扩展存储。目前,主要支持 Docker 或 Kubernetes 的 Volume.Docker 发布了容器卷插件规范,允许第三方厂商的数据卷在 Docker 引擎中提供数据服务。这种机制意味着外置存储可以超过容器的生命周期而独立存在,而且各种存储设备只要满足接口 API 标准,就可接入 Docker 容器的运行平台中。现有的各种存储可以通过简单的驱动程序封装,从而实现和 Docker 容器的对接。另外一个就是K8S 的数据卷。K8S 的每个 Pod 包含一个或多个容器。Pod 可部署在集群的任意节点中,存储设备可通过数据卷提供给 Pod 的容器使用。为了不绑定特定的容器技术,K8S 没有使用 Docker 的 Volume 机制,而是制定了自己的通用数据卷插件规范,以配合不同的容器运行来使用(如 Docker 和 rkt)。数据卷分为共享和非共享两种类型,其中非共享型只能被某个节点挂载使用(如 iSCSI、AWS EBS 等网络块设备);共享型则可让不同节点上的多个 Pod 同时使用(如 NFS、GlusterFS 等网络文件系统,以及可支持多方读写的块设备)。对有状态的应用来说,共享型的卷存储能够很方便地支持容器在集群各节点之间的迁移。为了给容器提供更细粒度的卷管理,K8s 增加了持久化卷的功能,把外置存储作为资源池,由平台管理并提供给整个集群使用。K8S 的卷管理架构使用存储可用标准的接入方式,并且通过接口暴露存储设备所支持的能力,在容器任务调度等方面实现了自动化管理。

从2017年3月1号开始,容器出了两个版本,一个是Docker的CE,一个是Docker的EE,Docker的EE是企业版,也可以说是商业版,另外一个EE是它的社区版,也就是开源版。它的CE和EE版里的数据卷都已经可以支持持久化的存储了。

第5个问题日志的集中管理。容器常被用来运行需要快速故障迁移、弹性伸缩的应用或微服务,因此容器中运行的应用随着迁移、弹性伸缩的发生,应用日志很可能会在不同的运行节点中产生,这对容器应用的日志监控和问题排查带来了很大的麻烦。相对来说,和大多数传统应用把日志写在本地文件系统不同的是,容器应用需要考虑把日志进行集中收集,然后写入外部的集中日志管理系统中。传统的日志汇总收集方案主要有商业软件 Splunk、开源软件栈 ELK 和 Facebook 开源的 Scribe 等,其中以 ELK 最为广泛使用。典型的 ELK 架构,优点是搭建简单、易于上手,缺点是 Logstash 耗费资源较大,运行占用 CPU 和内存高,另外没有消息队列缓存,存在数据丢失隐患,建议小规模集群使用。如果大规模使用,则可以引入 Kafka(或者 Redis),增加消息队列缓存,均衡网络传输,再把 Logstash 和 Elasticsearch 配置为集群模式,以减轻负荷压力。Logstash 占用系统资源过多,后来又有了 Fluentd,替代了 Logstash,被称作是社区方案中的 EFK,相比 Logstash 等传统日志收集工具,Fluentd 的日志收集功能对容器支持的更加完备。

在容器日志收集的时候,要注意以下两点:1、避免写日志冲突。最简单的方式就是让容器在运行时挂载外部共享存储卷当做应用的日志目录,这样应用的日志会被实时写入外部共享存储以备后续处理。这种方式需要我们做好控制,不同的容器不能挂载同一个外部卷,否则就会出现写日志冲突的问题,容器迁移的时候还需要重新挂卷。2、不可忽视日志标准化。当我们采用容器来运行微服务架构应用,一个业务调用往往需要经过多个微服务的调用链,整个业务处理过程的日志记录分散在不同的微服务日志中,这对通过日志进行问题诊断带来了很大的不便。通过标准化日志,例如带上唯一的 ID 信息等,可以实现把同一个业务在不同微服务中的处理过程给关联起来。通过标准化的应用日志,我们可以对交易率、成功率、响应时间等关键业务指标进行统一关联分析,作为问题预警、诊断分析、容量扩缩的科学依据。

第6个问题容器的监控怎么做。在虚拟机运维的时代,Nagios 和 Zabbix 等都是十分经典的性能监控软件。但在容器时代,这些曾经耳熟能详的软件,大多不能提供方便的容器化服务的监控体验,社区对开发这类插件和数据收集客户端也并不积极。相反的是许多新生的开源监控项目将对容器的支持放到了关键特性的位置,一代新人换旧人,可以说容器的应用界定了一个全新的监控软件时代。在这些新生的监控工具中,有三种比较流行且成熟的具体方案,分别是 cAdvisor、cAdvisor + InfluxDB + Grafana 和 Prometheus.其中基于 InfluxDB 的方案是一个多种开源组件的组合方案,而基于 Prometheus 的方案是作为一种整体解决方案。它本身对容器信息的收集能力以及图表展示能力相比其他专用开源组件较弱,通常在实际实施的时候依然会将它组合为 cAdvisor + Prometheus 或 cAdvisor + Prometheus+ Grafana 的方式来使用,但它多维度的数据模型,可方便的进行数据过滤和聚合。说到容器应用的监控设计,在这里要注意监控是分层的,具体可以分为系统层面、应用层面和服务层面,每个层面都有自己的监控重点。1、系统层面,主要是针对资源使用情况、网络连通性、节点健康情况的监控。传统的监控系统在这方面已经非常完备,我们直接可以利用传统的监控系统对容器平台的宿主机进行系统层面的监控,对接监控大屏幕等。宿主机上单个容器本身的性能和资源使用情况,对于外部资源监控意义不大,也没有多大必要传送到外部的传统监控。2、应用层面。容器平台本身通常都带有类似 K8S 的 replication control 这样的机制保持某个服务运行实例数量的能力,所以通常情况下容器平台都能保证应用和应用下每个微服务的运行正常。关于应用层面的健康监控,还是需要来对接传统的监控系统,进行适当的告警输出,比如当遇到应用逻辑错误而导致启动反复失败或资源不足,导致启动总是不成功等问题时,容器平台本身的 replication control 机制就不能解决问题了。这种情况就需要我们把应用的故障信息传递到外部监控,并根据问题的严重情况进行不同等级的告警通知等,由相关的应用人员介入来解决问题,比如升级补丁或回退等。

3、服务层面。服务层面则是监控应用提供的服务是否运行正常。例如某个提供 Web 服务的应用,在一些时候虽然应用和应用中微服务的运行实例数量正常,但它的 Web 服务已经失去响应,或者返回的是错误的状态,这种情况在多数容器平台中是无法监测到的。传统的方式是通过打探针 Agent 方式,但在容器环境下,这种方式不一定可行,这就需要我们丰富容器故障的监测手段或者自己编写服务访问+检测逻辑来判断,并把检测出现的问题上报到外部监控,在监控中设立相应的告警策略和告警等级。

第七就是容器的多租户和权限设计,在这里面其实容器这块处理的还不是特别好。比如给一个容器分配了200兆内存,你看到的实际上是物理机的64G内存,而不是真正你分给容器的这个内存。多租户,顾名思义,就是很多人来租用容器云平台的资源来实现自己的应用托管运维需求。这里面主要涉及多租户、资源管理与分配、安全权限管理这三个问题。

1、多租户的问题。从多租户的角度考虑,租户租用容器云平台的资源来托管、开发、部署运维自己的应用、服务。容器云平台需要提供、维护保障租户能正常使用这些资源,同时给租户托管的应用提供服务注册、服务发现、服务配置、日志、监控、预警告警、弹性伸缩、负载均衡、安全等能力。我们要明白的是租户只是租用这些能力,它并不运维这些能力。租户关注的是托管的应用和服务,它需要做的是利用平台提供的这些能力来无缝的运维他们的应用和服务。一句话来总结:租户只是使用/租用资源,容器云平台管理运维这些资源。租户侧重于对自己的应用或服务进行运维。资源由租户申请,容器云平台来分配管理资源。

2、资源管理与分配。这部分功能建议统一由运维团队或者系统团队负责,应用系统上云前一般会进行压测,有个容量估算的过程。通过容量估算和趋势分析,系统人员可以规划大致的资源池给相关应用,一般可以通过划分底层资源池实现。如果用 K8S,可以在计算节点上通过 lables 进行规划,另外还需要在编排文件上设置好最小资源和大资源,让应用可以弹性扩容。

3、安全权限管理。多租户的安全权限设计涉及到容器云平台整体的权限控制架构,好是实现一个权限中心,由权限中心来实现对容器云各组件及各功能的动态控制,以适应灵活的不同的场景需求。

第八就是容器与 OpenStack 和 Kubernetes 集成的能力。在开源云计算技术蓬勃发展的这几年中,OpenStack、Kubernetes、Container 无疑成为了改变云计算格局的三项关键技术。但是这三者之间在技术上仍然存在一个空白:容器运行时强安全隔离的同时保持精简尺寸以及轻量级,以及如何能够很容易与 OpenStack 和 Kubernetes 两大平台集成从而获取多租户以及统一网络和统一存储等诸多好处,这个空白阻碍了用户从中获取更大价值。为了解决这一问题,OpenStack 基金会在今年 12 月 5 日的 KubeCon 峰会上发布了一项新的开源项目,Kata Containers.Kata 可以使用户同时拥有虚拟机的安全和容器技术的迅速和易管理性。项目可以屏蔽硬件差异并且和 OCIspeciaification、Kubernetes 容器运行时标准兼容,在支持标准镜像格式的同时具有强隔离、轻量级以及快速启动能力。无疑 Kata 项目的发起为 OpenStack、Kubernetes 和 Container 更好的融合提供了有力的支撑,并为用户从中收益铺平了道路。期待容器真正辉煌时代的降临,但未来的道路,依然任重道远!

第九个问题就是容器云如何实现高可用和跨区部署。容器云需要考虑平台自身的高可用,实现多可用区多数据中心部署。容器上的应用高可用需要结合应用架构来实现。目前微服务架构是最适合云基础设施的应用架构之一。微服务应用通过服务注册发现、全局配置管理、熔断、服务追踪等容错设计,保证应用的高可用。弹性扩容,增加微服务运行的实例数量,配合负载均衡策略的使用,减少因压力过大而导致运行实例宕机的情况。

最后总结一下,容器技术在企业的落地,不是一蹴而就的,是一个渐进和价值普及的过程。通常我们听到一句话,就是说先进一步是先烈,先进两步是先驱,任何新技术出来之后不要跑的太快,因为还有很多坑没有完全踩过,也不知道这条路能不能走的平坦和顺畅,有时候跑的太快,就成为先驱了。技术的更迭方式可以是潜移默化的和平演变,亦或是轰轰烈烈的武装革命,容器技术应该归属于前者。我们可以看到,容器化技术已经成为计算模型演化的一个开端,可以预见在更高效和轻量化的平台实践之后,容器技术还将为整个 IT 领域注入更多新鲜和活力,在未来生存和壮大下去,成为引领潮流的决定性力量!

我的分享就到这些,谢谢!

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2022-05-16 15:49:54
云资讯 从今天开始,您可以少装一个Agent!
近年来,安全能力内生、内嵌于系统之中的呼声愈发强烈,在这一点上,手机界一直在努力,高强度且轻盈的材料被不断用于一代代的手机新品,相信手机迎来“脱壳”之日已不会太 <详情>
2021-06-23 10:20:08
云资讯 容器技术,带着云原生百米冲刺
容器市场赛道分为公有云和私有云,分别提供各自领域的方案。 <详情>
2021-02-07 10:57:46
云技术 2021年存储市场预测之——容器附加存储
随着容器环境的发展,对传统数据库软件等应用进行了容器化,推动了对在单个容器的生命周期内长期存储数据的需求。由于许多原因,这种变化是不可避免的。 <详情>
2020-10-28 09:32:04
云技术 下一代云计算根本不需要将服务器放入容器中
传统的数据中心管理团队和软件开发和运维团队在合作时,更大的压力来自于采用更多的开源文化——这“过去是很多闭门和专有的东西。云原生扩展到了这些新的领域是令人兴奋的 <详情>
2020-07-09 16:45:01
云资讯 蜂巢之声:青藤首发“容器安全成熟度模型”
当下云原生虽说异常火热,却没有一个清晰的路线图,能够指明在容器化过程中,各个阶段该如何做好安全。由于容器化的每个阶段都会带来新的安全挑战,企业必须在做好基础架构 <详情>