PB级数据实时查询,滴滴Elasticsearch多集群架构实践

点击上方"IT牧场",选择"设为星标"技术干货每日送达node

点击上方"IT牧场", 右上角选择“设为星标”面试

精品技术文章准时送上!微信


“Elasticsearch 是基于 Lucene 实现的分布式搜索引擎,提供了海量数据实时检索和分析能力。

 

 

Elastic 公司开源的一系列产品组成的 Elastic Stack,能够为日志服务、搜索引擎、系统监控等提供简单、易用的解决方案。网络



滴滴 Elasticsearch 简介架构



滴滴 2016 年初开始构建 Elasticsearch 平台,现在已经发展到超过 3500+Elasticsearch 实例,超过 5PB 的数据存储,峰值写入 TPS 超过了 2000w/s 的超大规模。并发

Elasticsearch 在滴滴有着很是丰富的使用场景,例如线上核心的打车地图搜索,客服、运营的多维度查询,滴滴日志服务等近千个平台用户。app

超大的规模和丰富的场景给滴滴 Elasticsearch 平台带来了极大的挑战,咱们在这期间积累了丰富经验,也取得了一些成果。本文给你们分享滴滴在 Elasticsearch 多集群架构的实践。dom

单集群架构瓶颈elasticsearch

介绍单集群架构瓶颈前,先来看下滴滴 Elasticsearch 单集群的架构。分布式

滴滴 Elasticsearch 单集群架构

 

 

滴滴在单集群架构的时候,写入和查询就已经经过 Sink 服务和 Gateway 服务管控起来。

①Sink 服务

滴滴几乎全部写入 Elasticsearch 的数据都是经由 Kafka 消费入到 Elasticsearch。

Kafka 的数据包括业务 log 数据、MySQL Binlog 数据和业务自主上报的数据,Sink 服务将这些数据实时消费入到 Elasticsearch。

最初设计 Sink 服务是想对写入 Elasticsearch 集群进行管控,保护 Elasticsearch 集群,防止海量的数据写入拖垮 Elasticsearch。

以后咱们也一直沿用了 Sink 服务,并将该服务从 Elasticsearch 平台分离出去,成立滴滴 Sink 数据投递平台,能够从 Kafka 或者 MQ 实时同步数据到 Elasticsearch、HDFS、Ceph 等多个存储服务。

有了多集群架构后,Elasticsearch 平台能够消费一份 MQ 数据写入多个 Elasticsearch 集群,作到集群级别的容灾,还能经过 MQ 回溯数据进行故障恢复。

②Gateway 服务

全部业务的查询都是通过 Gateway 服务,Gateway 服务实现了 Elasticsearch 的 HTTP Restful 和TCP协议。

业务方能够经过 Elasticsearch 各语言版本的 SDK 直接访问 Gateway 服务,Gateway 服务还实现了 SQL 接口,业务方能够直接使用 SQL 访问 Elasticsearch 平台。

Gateway 服务最初提供了应用权限的管控,访问记录,限流、降级等基本能力,后面随着平台演进,Gateway 服务还提供了索引存储分离、DSL 级别的限流、多集群灾备等能力。

③Admin 服务

整个 Elasticsearch 平台由 Admin 服务统一管控起来。Admin 服务提供了索引的生命周期管理,索引容量自动规划,索引健康分,集群监控等丰富的平台能力,以及为 Sink、Gateway 服务提供索引、权限等元数据信息。

Elasticsearch 单集群瓶颈

随着滴滴 Elasticsearch 平台规模的快速发展,Elasticsearch 集群愈来愈大,最大的时候,是由几百台物理机组成集群,当时集群共 3000+ 的索引,超过了 50000 个 Shard,集群总容量达到了 PB 级别。

超大的 Elasticsearch 集群面临了很大的稳定性风险,这些风险主要来自于如下三个方面:

  • Elasticsearch 架构瓶颈

  • 索引资源共享风险

  • 业务场景差别大

 

Elasticsearch 架构瓶颈

Elasticsearch 架构在集群变大到必定的规模会遇到瓶颈,瓶颈主要跟 Elasticsearch 任务处理模型有关。

Elasticsearch 看起来是 P2P 架构,但实际上,仍然是中心化的分布式架构。

整个集群只有一个 Active Master。Master 负责整个集群的元数据管理。

集群的全部元数据保存在 ClusterState 对象中,主要包括全局的配置信息、索引信息和节点信息。只要元数据发生修改,都得由 Master 完成。

ElasticsearchMaster 的任务处理是单线程完成的,每次处理任务,涉及到 ClusterState 的改动,都会将最新的 ClusterState 对象 Publish 给集群的所有节点,并阻塞等待所有节点接受到变动消息,处理完变动任务后,才完成本次任务。

这样的架构模型致使在集群规模变大的时候出现很严重的稳定性风险:

  • 若是有节点假死,好比 JVM 内存被打满,进程还存活着,响应 Master 任务时间会很长,影响单个任务的完成时间。

  • 有大量恢复任务的时候,因为 Master 是单线程处理的,全部任务须要排队处理,产生大量的 pending_tasks。恢复时间变得很长。

  • Elasticsearch 的任务分了优先级,例如 put-mapping 任务优先级低于建立、恢复索引,若是一些业务上低优先级索引在恢复,正常索引有新字段写入时会被阻塞。

  • Master 任务处理模型,在任务执行完成后,会回调大量 Listener 处理元数据变动。

    其中有些回调逻辑在索引、Shard 膨胀后,会出现处理缓慢的问题,当 Shard 膨胀到 5-6w 时,一些任务处理须要 8-9s 的时间,严重影响了集群的恢复能力。

针对这些问题,Elasticsearch 也在不断优化,针对相同类型的任务,好比 put-mapping 任务,Master 会一次性处理全部堆积在队列里的相同任务。

ClusterState 对象只传递 diff 内容,优化回调 Listener 模块的处理耗时环节等等。

可是因为整个集群的任务都集中在一个 Master 的一个线程中处理,在线程中须要同步元数据变动给集群的每一个节点,并阻塞等待所有节点同步完成。这个模型在集群规模不断膨胀时,稳定性会不断降低。

①索引资源共享风险

Elasticsearch 索引是由多个 Shard 组成,Master 会动态给这些 Shard 分配节点资源。不一样的索引会存在资源混部的状况。

 

 

Elasticsearch 经过 Shard Allocation Awareness 的设计,能够将集群的节点按集合划分红不一样的 Rack。

在分配索引时能够指定 Rack 列表,这样索引就只会分配在指定 Rack 对应的节点列表中,从而作到物理资源的隔离。

可是实际使用中,不少容量小的索引因为占用资源有限,会混部在一些节点中。

这种状况下,会由于个别索引的查询、写入量飙升,而影响到其余索引的稳定性。若是出现了节点故障,就会影响到整个集群的稳定性。

整个集群 Master、Clientnode 资源是共享的,Master 风险前面已经单独说起,Clientnode 共享带来的 GC、抖动、异常问题都会影响到集群内的所有索引。

②业务场景差别大

Elasticsearch 适用的业务场景差别特别大:

  • 针对线上核心的入口搜索,通常按城市划分索引后,索引容量不大,数据没有实时写入或者实时写入 TPS 很小。

    好比地图 POI 数据采用离线更新的方式,外卖商家、菜品写入量也很小。可是查询的 QPS 很高,查询对 RT 的平均时间和抖动状况要求很高。

  • 针对日志检索的场景,实时写入量特别大,有些索引甚至超过了 100w/s 的 TPS,该场景对吞吐量要求很高,但对查询 QPS 和查询 RT 要求不高。

  • 针对 Binlog 数据的检索,写入量相比日志会小不少,可是对查询的复杂度、QPS 和 RT 有必定的要求。

  • 针对监控、分析类的场景,聚合查询需求会比较多,对 Elasticsearch 内存压力较大,容易引发节点的抖动和 GC。

这些场景各异,稳定性、性能要求各不相同的场景,一个 Elasticsearch 集群即便使用各类优化手段,很难所有知足需求,最好的方式仍是按业务场景划分 Elasticsearch 集群。

多集群挑战

正是单集群面临了很是大的稳定性风险,咱们开始规划多集群的架构。咱们在设计多集群方案的时候,指望对业务方是零感知的。

写入仍是通过 Kafka,Sink 服务能够将不一样 Topic 的数据入到不一样的 Elasticsearch 集群。

查询继续经过 Gateway 服务,并且业务方仍然像以前同样传递索引名称,而无需感知到平台内部的索引分布。全部的索引在不一样集群的分布细节,均由 Gateway 服务屏蔽。

整个改造最大的挑战在于查询方式的兼容。Elasticsearch 查询索引的方式很是灵活,能够支持 * 号做为通配符匹配。

这样一个索引 Query 可能查询的是多个索引,好比有以下 3 个索引:

  • index_a

  • index_b

  • index_c

使用 index* 查询的时候,能够同时查询到 index_a、index_b、index_c 三个索引。

Elasticsearch 这种实现方式很是简单,因为一次 Query 最终查询的是多个 Shard 的数据。

因此不管对于具体的索引,仍是模糊的索引,都是先根据索引名称获得 Shard 列表,再将多个 Shard 的 Query 结果 Merge 到一块儿返回。

这样的使用方式,对于多集群方案就会遇到问题,好比 index_a 在 A 集群,index_b 在 B 集群、index_c 在 C 集群,对于 index* 的 Query,就没法在一个集群上完成。

Tribenode 介绍

通过调研,咱们发现 Elasticsearch Tribenode 特性能够很好的知足多集群查询的特性。

Tribenode 的实现很是巧妙。org.elasticsearch.tribe 包下只有三个文件,核心类是 TribeService。

Tribenode 的核心原理就是 Merge 每一个集群的 ClusterState 对象成一个公共的 ClusterState 对象,ClusterState 包含了索引、Shard 和节点数据分布表。

而 Elasticsearch 的工做逻辑都是基于 ClusterState 元数据驱动的,因此对外看起来就是一个包含所有索引的 Clientnode。

 

 

Tribenode 经过配置多个 Elasticsearch 集群地址,而后以 Clientnode 角色分别链接每一个集群,每一个集群看起来会多了一个 Clientnode。

Tribenode 经过该 Clientnode 角色获取到集群的 ClusterState 信息,并绑定 Listener 监听 ClusterState 变化。

Tribenode 将获取的全部集群的 ClusterState 信息 Merge 到一块儿,造成一个对外部访问使用的 ClusterState 对象,对外提供服务。

Tribenode 除了注册 Listener 和 Merge ClusterState,其余的全部逻辑都是复用了 Clientnode 的代码。

能够看到 Tribenode 的优势:

  • 可以知足多集群访问的需求,对外使用是透明的。

  • 实现的简单、优雅,可靠性有保证。

同时 Tribenode 有些不足的地方:

  • Tribenode 必须以 Clientnode 加入到每一个 Elasticsearch 集群,Master 的变动任务必须等待 Tribenode 的回应才能继续,可能影响到原集群的稳定性。

  • Tribenode 不会持久化 ClusterState 对象,重启时须要从每一个 Elasticsearch 集群获取元数据。

    而在获取元数据期间,Tribenode 就已经可以提供访问,会致使查询到还在初始化中的集群索引访问失败。

  • Tribenode 链接的集群多了,初始化会变得很慢。针对该缺陷,咱们平台在重启某个 Tribenode 集群时,将 Gateway 访问该集群的所有流量切到备份 Tribenode 集群解决。

  • 若是多个集群有相同的索引名称,Tribenode 只能设置一种 Perfer 规则:随机、丢弃、Prefer 指定集群。这可能带来查到不符合预期的异常。

  • 滴滴 Elasticsearch 平台经过统一管控索引,避免了同一个索引名称出如今 Tribenode 链接的多个集群中。

正是 Tribenode 有了这些瑕疵,Elasticsearch 在高版本引入了 Cross ClusterSearch 的设计,Cross Cluster 不会以节点的形式链接到其余集群,只是将请求代理。

目前咱们还在评估 Cross Cluster 的方案,这里不展开介绍。

多集群架构拓扑

最终改造后,咱们的集群架构拓扑以下:

 

 

按照不一样的应用场景,平台将 Elasticsearch 集群划分红四种类型:Log 集群、Binlog 集群、文档数据集群、独立集群。公共集群通常最多 100 台 Datanode 为基准组成一个集群。

咱们利用滴滴云实现了集群的自动化部署和弹性扩缩容,能够很方便的水平扩展集群。

Elasticsearch 集群前面是多组 Tribenode 集群,主要是为了解决 Tribenode 的稳定性问题。

Gateway 会同时链接 Tribenode 集群和 Elasticsearch 集群,根据应用访问的索引列表,配置应用访问的集群名称。

Gateway 根据集群名称,将请求代理到指定集群访问,若是访问的是 Tribenode 集群,则该应用能够访问到多个集群的索引。

Admin 服务则管控了全部的 Elasticsearch 集群,以及索引和集群的对应关系。一系列功能都针对多集群作了改造。

Sink 服务已经从 Elasticsearch 平台分离出去,成立 DSink 数据投递平台。

DSink Manager 负责管理 DSink 节点,DSink Manager 从 Elasticsearch Admin 服务获取索引的元数据信息,下发给对应的 DSink 节点。

多集群架构实践总结



多集群架构收益

Elasticsearch 多集群架构改造给 Elasticsearch 平台带来了以下收益:

  • Elasticsearch 平台的隔离性能够从物理节点级别上升到 Elasticsearch 集群级别。对于核心的线上应用,可使用独立的 Elasticsearch 集群支持。

  • 不一样类型的数据按集群划分,避免相互影响,减少了故障的影响面,对平台稳定性带来极大的提高。

  • Elasticsearch 平台的扩展能力进一步提高,经过新增集群能够很好的作到水平扩展。

  • 多集群架构最终作到了对业务方无感知,业务看起来,Elasticsearch 平台就像一个无限大的 Elasticsearch 集群,而无需感知索引真实的集群分布。

多集群架构实践经验

滴滴 Elasticsearch 平台多集群的架构已经演进了一年半时间,这期间也遇到一些多集群架构带来的挑战。

①Tribenode 稳定性挑战

随着集群数量愈来愈多,前面提到的 Tribenode 不足愈来愈明显,好比初始化的时间愈来愈长等等。

咱们采起的应对策略是部署多组 Tribenode 集群,有几组链接全量的集群,互为灾备,有几组只链接核心的一些集群,用做更为重要的跨集群访问场景。

Tribenode 的 ClusterState 元数据包含了太多的索引和 Shard,Elasticsearch 的 Search 逻辑在有些 Case 处理下容易出现耗时过长的状况。

Elasticsearch 在 Client 接收到 Search 请求时,是在 Netty 的 IO 线程中完成请求转发给每一个 Shard 的,低版本的 Elasticsearch 尚未限制一次 Query 的 Shard 数量。

在一些复杂的模糊索引匹配 Shard 的逻辑中,以及给每一个 Shard 发送 Query 请求时,会出现较高的耗时,可能有超过 1-2s 的 Case,这会影响到该 Netty Worker 上的其余的请求,形成部分响应飙高的状况。

咱们优化了 Tribenode Search 流程中一些索引、Shard 膨胀以后的耗时逻辑,解决了该问题。

②多集群配置、版本统一的挑战

在只有一个集群的时候,平台只用维护一份集群的配置和版本。当集群数量增多后,不一样集群间的 _cluster settings 信息会出现部分差别。

这些差别,可能会致使集群间的负载不均,恢复速度过快或者过慢等问题,每一个集群还有一份基础的索引模板配置,这里面也出现了部分差别。

这个问题目前咱们还在解决中,咱们计划将 Admin 服务分离成索引管理服务和集群管理服务,集群管理会专一于集群版本、配置、部署、扩容、监控等方面对 Elasticsearch 集群进行更全面的管控。

咱们作的一些 Elasticsearch 源码优化,会前后在部分集群上线,这样致使了集群间的版本混乱的问题。

咱们的解决方案是在 Elasticsearch 和 Lucene 内增长内部的版本号,经过公司内部的发布系统,发布 Elasticsearch 的更新,后续集群管理服务会将集群的版本管理起来。

③多集群间容量均衡的挑战

咱们主要从跨集群索引迁移和容量规划解决集群间容量均衡的挑战,在单 Elasticsearch 集群的时候,数据迁移能够依赖 Elasticsearch 的 Rebalance 能力完成。

在使用多集群架构后,平台内部的 Elasticsearch 集群会出现资源分配不均的问题。

例若有些索引容量增加的很快,致使所在集群的资源紧张,有些索引数据减小,不须要占用太多资源,致使集群资源空闲。

因而产生了索引跨集群迁移的需求。针对这个需求,咱们经过给索引添加版本号,解决了索引跨集群迁移问题。以后咱们有文章会详细的介绍该方案。

滴滴 Elasticsearch 平台实现了索引容量的自动规划,解决了集群间的容量均衡。

Elasticsearch 平台能够动态的规划索引的容量。当一个集群容量规划不足时,平台能够动态的迁移一部分索引到空闲的集群中。

新的索引接入需求会优先接入在空闲的集群资源中。滴滴 Elasticsearch 平台是如何实现索引容量的自动规划,也请期待后续的分享。

总结

滴滴的多集群架构,最初是为了解决 Elasticsearch 单集群架构的瓶颈。为了支持多集群架构,后面的不少组件都须要考虑链接多个集群的场景,给平台架构带来了必定的复杂性。

可是多 Elasticsearch 集群带来的稳定性和隔离性的提高,它所带来的收益远远大于架构的复杂性。

改形成多集群架构后,咱们扛住了 Elasticsearch 平台规模爆炸式增加,Elasticsearch 平台的规模翻了 5 倍多,多集群架构很好的支撑了业务的快速发展。

做者:魏子珺

编辑:陶家龙、孙淑娟

出处:转载自微信公众号:滴滴技术(didi_tech)

版权申明:内容来源网络,版权归原创者全部。除非没法确认,咱们都会标明做者及出处,若有侵权烦请告知,咱们会当即删除并表示歉意。谢谢。

干货分享

最近将我的学习笔记整理成册,使用PDF分享。关注我,回复以下代码,便可得到百度盘地址,无套路领取!

•001:《Java并发与高并发解决方案》学习笔记;•002:《深刻JVM内核——原理、诊断与优化》学习笔记;•003:《Java面试宝典》•004:《Docker开源书》•005:《Kubernetes开源书》•006:《DDD速成(领域驱动设计速成)》•007:所有•008:加技术讨论群

相关文章
相关标签/搜索