云原生 - Why is istio(二)

出处:https://cizixs.com/2018/08/26/what-is-istio
创作不易,在满足创作共用版权协议的基础上可以转载,但请以超链接形式注明出处。

前言

随着微服务架构的流行,服务网格技术获得了业界的广泛关注,作为实现云原生的重要积木,各大厂商也纷纷开始布局,Amazon在2019年4月份推出了App Mesh;Google、IBM、Lyft联合开发了Istio。

Istio作为下一代服务网格的整体解决方案,得到了业界的普遍认可,站在kubernetes巨人的肩膀上,极大地提升了分布式微服务应用的研发和运维效率。

2020是云原生普及的一年,如何部署、使用、运维Istio将是必须要学习的知识。

什么是 istio?

官方对 istio 的介绍浓缩成了一句话:

An open platform to connect, secure, control and observe services.

翻译过来,就是”连接、安全加固、控制和观察服务的开放平台“。开放平台就是指它本身是开源的,服务对应的是微服务,也可以粗略地理解为单个应用。中间的四个动词就是 istio 的主要功能,官方也各有一句话的说明。这里再阐释一下:

  • 连接(Connect):智能控制服务之间的调用流量,能够实现灰度升级、AB 测试和红黑部署等功能
  • 安全加固(Secure):自动为服务之间的调用提供认证、授权和加密
  • 控制(Control):应用用户定义的 policy,保证资源在消费者中公平分配
  • 观察(Observe):查看服务运行期间的各种数据,比如日志、监控和 tracing,了解服务的运行情况

云原生 - Why is istio(二)

虽然听起来非常高级,功能非常强大,但是一股脑出现这么多名词,还都是非常虚的概念,说了跟没说一样。要想理解上面这几句话的含义,我们还是从头说起,先聊聊 service mesh。

NOTE:其实 istio 的源头是微服务,但这又是一个比较大的话题,目前可以参考网络上各种文章。如果有机会,我们再来聊聊微服务。

什么是 service mesh

一般介绍 service mesh 的文章都会从网络层的又一个抽象说起,把 service mesh 看做建立在 TCP 层之上的微服务层。我这次换个思路,从 service mesh 的技术根基——网络代理来分析。

说起网络代理,我们会想到*,如果对软件架构比较熟悉的会想到 Nginx 等反向代理软件。其实网络代理的范围比较广,可以肯定的说,有网络访问的地方就会有代理的存在。

Wikipedia 对代理的定义如下:

In computer networks, a proxy server is a server (a computer system or an application) that acts as an intermediary for requests from clients seeking resources from other servers.

NOTE:代理可以是嵌套的,也就是说通信双方 A、B 中间可以多多层代理,而这些代理的存在有可能对 A、B 是透明的。

简单来说,网络代理可以简单类比成现实生活中的中介,本来需要通信的双方因为各种原因在中间再加上一道关卡。本来双方就能完成的通信,为何非要多此一举呢?那是因为代理可以为整个通信带来更多的功能,比如:

  • 拦截:代理可以选择性拦截传输的网络流量,比如一些公司限制员工在上班的时候不能访问某些游戏或者电商网站,再比如把我们和世界隔离开来的 GFW,还有在数据中心中拒绝恶意访问的网关
  • 统计:既然所有的流量都经过代理,那么代理也可以用来统计网络中的数据信息,比如了解哪些人在访问哪些网站,通信的应答延迟等
  • 缓存:如果通信双方比较”远“,访问比较慢,那么代理可以把最近访问的数据缓存在本地,后面的访问不用访问后端来做到加速。CDN 就是这个功能的典型场景
  • 分发:如果某个通信方有多个服务器后端,代理可以根据某些规则来选择如何把流量发送给多个服务器,也就是我们常说的负载均衡功能。比如著名的 Nginx 软件
  • 跳板:如果 A、B 双方因为某些原因不能直接访问,而代理可以和双方通信,那么通过代理,双方可以绕过原来的限制进行通信。这应该广大中国网民比较熟悉的场景
  • 注入:既然代理可以看到流量,那么它也可以修改网络流量,可以自动在收到的流量中添加一些数据,比如有些宽带提供商的弹窗广告
  • ……

云原生 - Why is istio(二)

不是要讲 service mesh 吗?为什么扯了一堆代理的事情?因为 service mesh 可以看做是传统代理的升级版,用来解决现在微服务框架中出现的问题,可以把 service mesh 看做是分布式微服务代理。

在传统模式下,代理一般是集中式的单独的服务器,所有的请求都要先通过代理,然后再流入转发到实际的后端。而在 service mesh 中,代理变成了分布式的,它常驻在了应用的身边(最常见的就是 kubernetes sidecar 模式,每一个应用的 pod 中都运行着一个代理,负责流量相关的事情)。这样的话,应用所有的流量都被代理接管,那么这个代理就能做到上面提到的所有可能的事情,从而带来无限的想象力。

云原生 - Why is istio(二)

此外,原来的代理都是基于网络流量的,一般都是工作在 IP 或者 TCP 层,很少关心具体的应用逻辑。但是 service mesh 中,代理会知道整个集群的所有应用信息,并且额外添加了热更新、注入服务发现、降级熔断、认证授权、超时重试、日志监控等功能,让这些通用的功能不必每个应用都自己实现,放在代理中即可。换句话说,service mesh 中的代理对微服务中的应用做了定制化的改进!

云原生 - Why is istio(二)

就这样,借着微服务和容器化的东风,传统的代理摇身一变,成了如今炙手可热的 service mesh。应用微服务之后,每个单独的微服务都会有很多副本,而且可能会有多个版本,这么多微服务之间的相互调用和管理非常复杂,但是有了 service mesh,我们可以把这块内容统一在代理层。

云原生 - Why is istio(二)

有了看起来四通八达的分布式代理,我们还需要对这些代理进行统一的管理。手动更新每个代理的配置,对代理进行升级或者维护是个不可持续的事情,在前面的基础上,在加上一个控制中心,一个完整的 service mesh 就成了。管理员只需要根据控制中心的 API 来配置整个集群的应用流量、安全规则即可,代理会自动和控制中心打交道根据用户的期望改变自己的行为。

云原生 - Why is istio(二)

NOTE:所以你也可以理解 service mesh 中的代理会抢了 Nginx 的生意,这也是为了 Nginx 也要开始做 NginMesh 的原因。

再来看 istio

了解了 service mesh 的概念,我们再来看 istio ,也许就会清楚很多。首先来看 istio 官方给出的架构图:

云原生 - Why is istio(二)

可以看到,istio 就是我们上述提到的 service mesh 架构的一种实现,服务之间的通信(比如这里的 Service A 访问 Service B)会通过代理(默认是 envoy)来进行,而且中间的网络协议支持 HTTP/1.1,HTTP/2,gRPC 或者 TCP,可以说覆盖了主流的通信协议。控制中心做了进一步的系分,分成了 Pilot、Mixer、和 Citadel,它们的各自功能如下:

  • Pilot:为 envoy 提供了服务发现,流量管理和智能路由(AB测试、金丝雀发布等),以及错误处理(超时、重试、熔断)功能。用户通过 pilot 的 API 管理网络相关的资源对象,pilot 会根据用户的配置和服务的信息把网络流量管理变成 envoy 能识别的格式分发到各个 sidecar 代理中。
  • Mixer:为整个集群执行访问控制(哪些用户可以访问哪些服务)和 policy 管理(rate limit,quota 等),并且收集代理观察到的服务之间的流量统计数据
  • Citadel:为服务之间提供认证和证书管理,可以让服务自动升级成 TLS 协议

代理会和控制中心通信,一方面可以获取需要的服务之间的信息,另一方面也可以汇报服务调用的 metrics 数据。知道 istio 的核心架构,再来看看它的功能描述就非常容易理解了。

  • 连接:控制中心可以从集群中获取所有服务的信息,并分发给代理,这样代理就能根据用户的期望来完成服务之间的通信(自动地服务发现、负载均衡、流量控制等)
  • 安全加固:因为所有的流量都是通过代理的,那么代理接收到不加密的网络流量之后,可以自动做一次封装,把它升级成安全的加密流量
  • 控制:用户可以配置各种规则(比如 RBAC 授权、白名单、rate limit 或者 quota 等),当代理发现服务之间的访问不符合这些规则,就直接拒绝掉
  • 观察:所有的流量都经过代理,因此代理对整个集群的访问情况知道得一清二楚,它把这些数据上报到控制中心,那么管理员就能观察到整个集群的流量情况了

istio 解决什么问题

虽然看起来非常炫酷,功能也很强大,但是一个架构和产品出来都是要解决具体的问题。所以这部分我们来看看微服务架构中的难题以及 istio 给出的答案。

首先,原来的单个应用拆分成了许多分散的微服务,它们之间相互调用才能完成一个任务,而一旦某个过程出错(组件越多,出错的概率也就越大),就非常难以排查。

用户请求出现问题无外乎两个问题:错误和响应慢。如果请求错误,那么我们需要知道那个步骤出错了,这么多的微服务之间的调用怎么确定哪个有调用成功?哪个没有调用成功呢?如果是请求响应太慢,我们就需要知道到底哪些地方比较慢?整个链路的调用各阶段耗时是多少?哪些调用是并发执行的,哪些是串行的?这些问题需要我们能非常清楚整个集群的调用以及流量情况。

云原生 - Why is istio(二)

此外,微服务拆分成这么多组件,如果单个组件出错的概率不变,那么整体有地方出错的概率就会增大。服务调用的时候如果没有错误处理机制,那么会导致非常多的问题。比如如果应用没有配置超时参数,或者配置的超时参数不对,则会导致请求的调用链超时叠加,对于用户来说就是请求卡住了;如果没有重试机制,那么因为各种原因导致的偶发故障也会导致直接返回错误给用户,造成不好的用户体验;此外,如果某些节点异常(比如网络中断,或者负载很高),也会导致应用整体的响应时间变成,集群服务应该能自动避开这些节点上的应用;最后,应用也是会出现 bug 的,各种 bug 会导致某些应用不可访问。这些问题需要每个应用能及时发现问题,并做好对应的处理措施。

云原生 - Why is istio(二)

应用数量的增多,对于日常的应用发布来说也是个难题。应用的发布需要非常谨慎,如果应用都是一次性升级的,出现错误会导致整个线上应用不可用,影响范围太大;而且,很多情况我们需要同时存在不同的版本,使用 AB 测试验证哪个版本更好;如果版本升级改动了 API,并且互相有依赖,那么我们还希望能自动地控制发布期间不同版本访问不同的地址。这些问题都需要智能的流量控制机制。

云原生 - Why is istio(二)

为了保证整个系统的安全性,每个应用都需要实现一套相似的认证、授权、HTTPS、限流等功能。一方面大多数的程序员对安全相关的功能并不擅长或者感兴趣,另外这些完全相似的内容每次都要实现一遍是非常冗余的。这个问题需要一个能自动管理安全相关内容的系统。

云原生 - Why is istio(二)

上面提到的这些问题是不是非常熟悉?它们就是 istio 尝试解决的问题,如果把上面的问题和 istio 提供的功能做个映射,你会发现它们是非常匹配,毕竟 istio 就是为了解决微服务的这些问题才出现的。

云原生 - Why is istio(二)

用什么姿势接入istio?

虽然 istio 能解决那么多的问题,但是引入 istio 并不是没有代价的。最大的问题是 istio 的复杂性,强大的功能也意味着 istio 的概念和组件非常多,要想理解和掌握 istio ,并成功在生产环境中部署需要非常详细的规划。一般情况下,集群管理团队需要对 kubernetes 非常熟悉,了解常用的使用模式,然后采用逐步演进的方式把 istio 的功能分批掌控下来。

第一步,自然是在测试环境搭建一套 istio 的集群,理解所有的核心概念和组件。了解 istio 提供的接口和资源,知道它们的用处,思考如何应用到自己的场景中,然后是熟悉 istio 的源代码,跟进社区的 issues,了解目前还存在的 issues 和 bug,思考如何规避或者修复。这一步是基础,需要积累到 istio 安装部署、核心概念、功能和缺陷相关的知识,为后面做好准备。

第二步,可以考虑接入 istio 的观察性功能,包括 logging、tracing、metrics 数据。应用部署到集群中,选择性地(一般是流量比较小,影响范围不大的应用)为一些应用开启 istio 自动注入功能,接管应用的流量,并安装 prometheus 和 zipkin 等监控组件,收集系统所有的监控数据。这一步可以试探性地了解 istio 对应用的性能影响,同时建立服务的性能测试基准,发现服务的性能瓶颈,帮助快速定位应用可能出现的问题。此时,这些功能可以是对应用开发者透明的,只需要集群管理员感知,这样可以减少可能带来的风险。

第三步,为应用配置 timeout 超时参数、自动重试、熔断和降级等功能,增加服务的容错性。这样可以避免某些应用错误进行这些配置导致问题的出现,这一步完成后需要通知所有的应用开发者删除掉在应用代码中对应的处理逻辑。这一步需要开发者和集群管理员同时参与。

第四步,和 ingress、helm、应用上架等相关组件和流程对接,使用 istio 接管应用的升级发布流程。让开发者可以配置应用灰度发布升级的策略,支持应用的蓝绿发布、金丝雀发布以及 AB 测试。

第五步,接入安全功能。配置应用的 TLS 互信,添加 RBAC 授权,设置应用的流量限制,提升整个集群的安全性。因为安全的问题配置比较繁琐,而且优先级一般会比功能性相关的特性要低,所以这里放在了最后。

当然这个步骤只是一个参考,每个公司需要根据自己的情况、人力、时间和节奏来调整,找到适合自己的方案。

总结

Istio 的架构在数据中心和集群管理中非常常见,每个 agent 分布在各个节点上(可以是服务器、虚拟机、pod、容器)负责接收指令并执行,以及汇报信息;控制中心负责汇聚整个集群的信息,并提供 API 让用户对集群进行管理。kubernetes 也是类似的架构,SDN(Software Defined Network) 也是如此。相信以后会有更多类似架构的出现,这是因为数据中心要管理的节点越来越多,我们需要把任务执行分布到各节点(agent 负责的功能),同时也需要对整个集群进行管理和控制(control plane 的功能),完全去中心化的架构是无法满足后面这个要求的。

Istio 的出现为负责的微服务架构减轻了很多的负担,开发者不用关心服务调用的超时、重试、rate limit 的实现,服务之间的安全、授权也自动得到了保证;集群管理员也能够很方便地发布应用(AB 测试和灰度发布),并且能清楚看到整个集群的运行情况。

但是这并不表明有了 istio 就可以高枕无忧了,istio 只是把原来分散在应用内部的复杂性统一抽象出来放到了统一的地方,并没有让原来的复杂消失不见。因此我们需要维护 istio 整个集群,而 istio 的架构比较复杂,尤其是它一般还需要架在 kubernetes 之上,这两个系统都比较复杂,而且它们的稳定性和性能会影响到整个集群。因此再采用 isito 之前,必须做好清楚的规划,权衡它带来的好处是否远大于额外维护它的花费,需要有相关的人才对整个网络、kubernetes 和 istio 都比较了解才行。

参考资料

https://philcalcado.com/2017/08/03/pattern_service_mesh.html

https://istio.io/docs/concepts/what-is-istio

https://cizixs.com/2018/08/26/what-is-istio

上一篇:Istio pilot启动过程浅谈


下一篇:Rancher 2.3发布:首个GA支持Windows容器,正式集成Istio