导读:Dubbo 做为分布式微服务框架,众多公司在实践中基于 Dubbo 进行分布式系统架构。重启开源后,咱们不只看到 Dubbo 3.0 最新的 Roadmap 发布,并且还看到阿里在自身电商开始推动 Dubbo 和内部 HSF 的融合,并在 双11 上开始使用 Dubbo 3.0。本文是工商银行基于 Dubbo 构建金融微服务架构的分享,主要讲述了服务发现的应对策略和成果,后续将发布工行大规模服务监控治理的实践,以及从企业角度怎么去对 Dubbo 二次开发等内容。欢迎关注。
背景及概览
工行传统的业务系统通常都是基于 JEE 的单体架构,面对金融业务线上化及多样化的发展趋势,传统架构已经没法知足业务的需求。所以从 2014 年开始,工行选择了一个业务系统作服务化的尝试,并验证、评估、对比了当时的几个分布式服务框架,最终选择了相对完善、而且国内已经有较多公司落地使用的 Dubbo。与此同时,工行还对 Dubbo 作了企业定制,帮助这个业务系统完成了服务化的落地,上线以后也收到了很是好的效果。缓存
2015 年,工行开始扩大服务架构的落地范围,一方面帮助传统业务系统进行架构转型,另外一方面也逐渐沉淀了相似中台的超大规模服务群组,支撑业务系统快速服务的组合和复用。随着经验积累,工行也不断对 Dubbo 进行迭代优化和企业定制,同时围绕服务也逐步打造了完善的服务生态体系。网络
2019 年,工行的微服务体系也正式升级为工行开放平台核心银行系统的关键能力之一,助力工行 IT 架构实现真正的分布式转型。session
工行的微服务体系组成以下图所示:架构
- 基础设施方面,不论是业务系统的服务节点,仍是微服务平台自身的工做节点,都已部署在工行的云平台。
- 服务注册发现方面,除了常规的服务注册中心外,还配合部署了元数据中心,用于实现服务的按节点注册发现。
- 服务配置方面,经过外部的分布式配置中心,以实现各种动态参数的统一管理和下发。
- 服务监控方面,实现对服务各种运行指标的统一采集和存储,并与企业的监控平台对接。
- 服务跟踪方面,主要是用于实时跟踪服务的总体链路,帮助业务系统快速定位故障点,并准确评估故障的影响范围。
- 服务网关是为了知足传统业务系统访问服务需求,在 Dubbo 服务订阅及 RPC 能力之上,实现了新服务、新版本的自动发现、自动订阅和协议转换能力(HTTP 协议转 RPC 协议),实现 7×24 小时不间断运行。
- 服务治理平台,提供给运维人员和开发测试人员一个一站式的管理、监控、查询的平台,提高平常服务治理的效率。
最大的挑战
通过工行多年的落地实践,本文共总结了如下两方面的最大挑战:并发
- 性能容量方面,目前线上服务数(即 Dubbo 概念中的服务接口数),已超 2 万,每一个注册中心上的提供者条目数(即每一个服务的全部提供者累计),已超 70 万。根据评估,将来须要能支撑 10 万级别的服务数,以及每一个注册中心 500 万级的提供者条目数。
- 高可用方面,工行的目标是:微服务平台任何节点故障都不能影响线上交易。银行的业务系统 7×24 小时运行,即便在版本投产时间窗内,各业务系统的投产时间也是相互错开的,平台自身节点要作升级,如何避免对线上交易带来影响,特别是注册中心的自身的版本更新。
本文将先从服务发现方面,来分享一下工行的应对策略及成效。app
服务发现难点和优化
1. 入门框架
在 Dubbo 中,服务的注册订阅及调用是一个标准范式,服务的提供者初始化时注册服务,服务消费者初始化时订阅服务并获取全量提供者列表。而运行期间,服务提供者发生变化时,服务消费者可获取最新的提供者列表。消费者与提供者之间点对点 RPC 调用,调用过程不经注册中心。运维
在注册中心的选择上,工行在 2014 年就选择了 Zookeeper。Zookeeper 在业界的各种场景下有大规模的应用,而且支持集群化部署,节点间数据一致性经过 CP 模式保证。分布式
在 Zookeeper 内部,Dubbo 会按服务创建不一样的节点,每一个服务节点下又有 providers、consumers、configurations 及 routers 四个字节点:ide
- providers 临时节点:记录该服务提供者清单。提供方下线子节点就自动删除,经过 Zookeeper 的 watch 机制,消费者能够第一时间知道提供者清单发生了变化。
- consumers 临时节点:记录消费者的清单,主要用于服务治理时查询消费者。
- configurations 持久节点:主要保存服务治理时须要调整的服务参数。
- routers:子节点为持久节点,主要用于配置服务的动态路由策略。
在线上生产环境,Zookeeper 分数据中心部署了多个集群,每一个集群配置了 5 个选举节点,若干个 Observer 节点。Observer 节点是 Zookeeper3.3.3 版本引入的一个新的节点类型,它不参与选举,只听取表决结果,其余能力则和 Follower 节点相同。Observer 节点有如下几方面的好处:
- 分流网络压力:随着服务节点的增多,若是客户端都链接选举节点,对选举节点来讲须要消耗大量的 CPU 去处理网络链接和请求。可是选举节点又没法任意水平扩容,选举节点越多,事务投票过程就越长,对高并发写性能是不利的。
- 下降跨城跨 DC 的注册订阅流量:当有 100 个消费者须要跨城订阅同一个服务,Observer 能够统一处理这部分跨城网络流量,避免对城际间的网络带宽带来压力。
- 客户端隔离:能够将几个 Observer 节点专门分配给某个重点应用使用,保障其网络流量隔离。
2. 问题分析
工行根据这几年线上 Zookeeper 的使用心酸血泪史,总结了 Zookeeper 在做为服务注册中心时面临的问题:
- 随着服务数量以及服务提供者节点的增长,服务推送的数据量会呈爆炸式增加。举个例子,一个服务有 100 个提供者,当提供者启动的时候,由于 Zookeeper 的 CP 特性,每上线一个提供者,消费者都会收到事件通知,并从 Zookeeper 来读取这个服务的当前所有提供者的列表,而后刷新本地缓存。这个场景下,理论上每一个消费者总共收到了 100 次事件通知,并从 Zookeeper 读取了 100 次服务提供者列表,1+2+3+...+100,总计 5050 条提供者数据。这在业务系统投产高峰期问题尤其突出,容易致使 Zookeeper 集群的网络被打满,形成服务订阅效率极其低下,并进一步影响了服务注册的性能。
- 随着写在 Zookeeper 上节点数量的增多,Zookeeper 的 snapshot 文件也不断变大,每次 snapshot 写入磁盘,会出现一次磁盘 IO 冲高。投产高峰期,由于事务量大,写 snapshot 文件的频率也很是高,这对基础设施带来了较大的风险。同时 snapshot 文件越大,也预示着 Zookeeper 节点故障后恢复的时间越长。
- 当 Zookeeper 选举节点发生从新选举后,Observer 节点都要重新的 Leader 节点同步全量事务,这个阶段若是耗时过长,就很容易致使链接在 Observer 节点上的客户端 session 超时,使对应 providers 节点下的临时节点所有被删除,即从注册中心角度看,这些服务都下线了,消费者端则出现无提供方的异常报错。紧接着,这些提供者会从新链接 Zookeeper 并从新注册服务,这种短期内大批量服务的注册翻转现象,每每带来更为严重的服务注册推送的性能问题。
综上,能够得出的结论是:整体上 Zookeeper 做为注册中心仍是比较称职的,但在更大规模服务量场景下,须要进一步优化。
3. 优化方案
工行最主要的优化措施包括下面这几方面:订阅延迟更新、注册中心采起 multiple 模式、升级到按节点注册等。
1)订阅延迟更新
工行对 Zookeeper 客户端组件 zkclient 作了优化,把消费者收到事件通知后获取提供者列表作了一个小的延时。
当 zkclient 收到 childchange 一次性的事件后,installWatch() 经过 EventThread 去恢复对节点的监听,同时又使用 getChildren() 去读取节点下的所有子节点获取提供者列表,并刷新本地服务提供者缓存。这就是前面说的“5050 条数据”问题的根源。
工行在 zkclient 收到 childchange() 的事件后,作了个等待延迟,再让 installWatch() 去作它原来该作的事情。这个等待过程当中若是服务提供者发生变化,则不产生 childchange 事件。
有人会问,这是否是违背了 zookeeper 的 CP 模型呢,其实并非,zookeeper 服务端的数据是强一致的,消费者也收到了事件通知,只是延后去读取提供者清单,后面执行 getChildren() 时,读取到的已是 zookeeper 上的最新数据,因此是没有问题的。
内部压测结果显示,服务提供者大规模上线时,优化前,每一个消费者收到了总计 422 万个提供者节点的数据量,而延迟 1 秒处理后,这个数据量则变成了 26 万,childchange 事件次数和网络流量都变成了原来的 5% 左右,作完这个优化,就能从容应对投产高峰期大量服务的上下线。
2)Multiple 模式
工行采纳并优化改造了 Dubbo 新版本中 registry-multiple 的 SPI 实现,用于优化多注册中心场景下的服务订阅。
Dubbo 中服务消费者原有处理逻辑是这样:当存在多个注册中心的时候,消费者按注册中心对应的 invoker 缓存去筛选提供方,第一个注册中心对应的缓存中若是没找到,则去找第二个注册中心对应的缓存。若是此时第一个注册中心出现可用性问题,推送给消费者的数据有缺失,甚至为空,就会影响消费者的这个筛选过程,如出现无提供方的异常、调用负载不均衡等。
而 multiple 注册中心是把多个注册中心推送的数据合并后再更新缓存,因此即便单个注册中心故障,推送了数据不完整或者为空,只要有其余任意一个注册中心的数据使完整的,就不会影响最后合并的数据。
而且,multiple 注册中心机制也用于异构的注册中心场景,出现问题能够随时把注册中心下线,这个过程对服务节点的服务调用则彻底透明,比较适合灰度试点或者应急切换。
更进一步,还有额外的收益,消费者端 Reference 对象是比较占用 JVM 内存,经过 multiple 注册中心模式,能够帮消费者端节省一半的 invoker 对象开销,所以,很是推荐多个注册中心场景采用 multiple 模式。
3)按节点注册
工行反向移植 Dubbo2.7 及 Dubbo3.0 的服务发现逻辑,使用“按节点注册”的服务注册-发现模型。这里即配置中心、元数据中心、注册中心这个铁三角组合:
- 配置中心:主要用来存储节点级别的动态参数,以及服务的原来写在 Zookeeper 上的 configurations 和 routers 这些持久节点的数据。
- 元数据中心:存储节点元数据,也就是每一个服务节点名称(也就是 applicaiton-name)和其提供的服务的映射关系,以及每一个服务的类定义信息,好比每一个方法的输入输出参数信息。
- 注册中心:此时注册中心则只须要存储服务提供者节点名称和实际 ip 端口的关系。
这个模型的变化,对于消费者的服务调用则没有任何影响。消费者端根据元数据中心上“服务节点名称”与“服务”的关系,以及注册中心“服务节点名称”与实际 ip 端口的关系,生成兼容存量模式的服务提供方 invoker 缓存。
压测结果显示,按节点注册可让注册中心上的数据量变成原来的 1.68%,这对量就对线上的 Zookeeper 来讲毫无压力,10 万级别的服务量和 10 万级别的节点量都可以轻松支撑。
将来的规划
将来,工行也但愿能有机会走出去,深度参与到社区中,把自身在 Dubbo、Zookeeper 服务端、zkclient 上的好的 feature 贡献出来,好比除了上面的优化点外,工行还在 Dubbo 上作了 RPC 结果的精细化识别,PAAS 的适配,同端口多协议、自隔离等能力,还在 Zookeeper 上增长了注册熔断机制,同时正在研究 Observer 的同步机制避免数据全量同步带来的一系列问题。
另外,从微服务的发展看,Mesh 已是目前的热点之一。工行的痛点主要在服务 SDK 版本升级上,Istio 不争气,MCP 生死未卜,如何能让存量 Dubbo 服务平滑过渡到 MESH 架构,目前已经有初步的方案,但还有很是多的技术难关须要克服。
欢迎 Dubbo 有实践的同窗们一块儿来探讨大规模场景下的问题和心得,共同把 Dubbo 的企业落地作的更好!
做者:张远征
本文为阿里云原创内容,未经容许不得转载。