美团在TIDB方面的实践

摘自-https://www.v2ex.com/t/508094

1、背景和现状

在美团,基于 MySQL 构建的传统关系型数据库服务已经难于支撑公司业务的爆发式增加,促使咱们去探索更合理的数据存储方案和实践新的运维方式。随着近一两年来分布式数据库大放异彩,美团 DBA 团队联合架构存储团队,于 2018 年初启动了分布式数据库项目。git

图 1 美团点评产品展现图

图 1 美团点评产品展现图github

立项之初,咱们进行了大量解决方案的对比,深刻了解了业界多种 scale-out、scale-up 方案,考虑到技术架构的前瞻性、发展潜力、社区活跃度、以及服务自己与 MySQL 的兼容性,最终敲定了基于 TiDB 数据库进行二次开发的总体方案,并与 PingCAP 官方和开源社区进行深刻合做的开发模式。算法

美团业务线众多,咱们根据业务特色及重要程度逐步推动上线,到截稿为止,已经上线 10 个集群,近 200 个物理节点,大部分是 OLTP 类型的应用,除了上线初期遇到了一些小问题,目前均已稳定运行。初期上线的集群,已经分别服务于配送、出行、闪付、酒旅等业务。数据库

TiDB 架构分层清晰,服务平稳流畅,但在美团当前的数据量规模和已有稳定的存储体系的基础上,推广新的存储服务体系,须要对周边工具和系统进行一系列改造和适配,从初期探索到整合落地须要走很远的路。下面从几个方面分别介绍:安全

  • 一是从 0 到 1 的突破,重点考虑作哪些事情;
  • 二是如何规划实施不一样业务场景的接入和已有业务的迁移;
  • 三是上线后遇到的一些典型问题介绍;
  • 四是后续规划和对将来的展望。

2、前期调研测试

2.1 对 TiDB 的定位

咱们对于 TiDB 的定位,前期在于重点解决 MySQL 的单机性能和容量没法线性和灵活扩展的问题,与 MySQL 造成互补。业界分布式方案不少,咱们为什么选择了 TiDB 呢?考虑到公司业务规模的快速增加,以及公司内关系数据库以 MySQL 为主的现状,所以咱们在调研阶段,对如下技术特性进行了重点考虑:多线程

  • 协议兼容 MySQL:这个是必要项。
  • 可在线扩展:数据一般要有分片,分片要支持分裂和自动迁移,而且迁移过程要尽可能对业务无感知。
  • 强一致的分布式事务:事务能够跨分片、跨节点执行,而且强一致。
  • 支持二级索引:为兼容 MySQL 的业务,这个是必须的。
  • 性能:MySQL 的业务特性,高并发的 OLTP 性能必须知足。
  • 跨机房服务:须要保证任何一个机房宕机,服务能自动切换。
  • 跨机房双写:支持跨机房双写是数据库领域一大难题,是咱们对分布式数据库的一个重要期待,也是美团下一阶段重要的需求。

业界的一些传统方案虽然支持分片,但没法自动分裂、迁移,不支持分布式事务,还有一些在传统 MySQL 上开发一致性协议的方案,但它没法实现线性扩展,最终咱们选择了与咱们的需求最为接近的 TiDB。与 MySQL 语法和特性高度兼容,具备灵活的在线扩容缩容特性,支持 ACID 的强一致性事务,能够跨机房部署实现跨机房容灾,支持多节点写入,对业务又能像单机 MySQL 同样使用。架构

2.2 测试

针对官方声称的以上优势,咱们进行了大量的研究、测试和验证。并发

首先,咱们须要知道扩容、Region 分裂转移的细节、Schema 到 kv 的映射、分布式事务的实现原理。而 TiDB 的方案,参考了较多的 Google 论文,咱们进行了阅读,这有助于咱们理解 TiDB 的存储结构、事务算法、安全性等,包括:负载均衡

  • Spanner: Google ’ s Globally-Distributed Database
  • Large-scale Incremental Processing Using Distributed Transactions and Notifications
  • In Search of an Understandable Consensus Algorithm
  • Online, Asynchronous Schema Change in F1

咱们也进行了常规的性能和功能测试,用来与 MySQL 的指标进行对比,其中一个比较特别的测试,是证实 3 副本跨机房部署,确实能保证每一个机房分布一个副本,从而保证任何一个机房宕机不会致使丢失超过半数副本。从如下几个点进行测试:运维

  • Raft 扩容时是否支持 learner 节点,从而保证单机房宕机不会丢失 2/3 的副本。
  • TiKV 上的标签优先级是否可靠,保证当机房的机器不平均时,可否保证每一个机房的副本数依然是绝对平均的。
  • 实际测试,单机房宕机,TiDB 在高并发下,QPS、响应时间、报错数量,以及最终数据是否有丢失。
  • 手动 Balance 一个 Region 到其余机房,是否会自动回来。

从测试结果来看,一切都符合预期。

3、存储生态建设

美团的产品线丰富,业务体量大,业务对在线存储的服务质量要求也很是高。所以,从早期作好服务体系的规划很是重要。下面从业务接入层、监控报警、服务部署,来分别介绍一下咱们所作的工做。

3.1 业务接入层

当前 MySQL 的业务接入方式主要有两种,DNS 接入和 Zebra 客户端接入。在前期调研阶段,咱们选择了 DNS + 负载均衡组件的接入方式,TiDB-Server 节点宕机,15s 能够被负载均衡识别到,简单有效。业务架构如图 2。

图 2 业务架构图

图 2 业务架构图

后面咱们会逐渐过渡到当前大量使用的 Zebra 接入方式来访问 TiDB,从而保持与访问 MySQL 的方式一致,一方面减小业务改造的成本,另外一方面尽可能实现从 MySQL 到 TiDB 的透明迁移。

3.2 监控报警

美团目前使用 Mt-Falcon 平台负责监控报警,经过在 Mt-Falcon 上配置不一样的插件,能够实现对多种组件的自定义监控。另外也会结合 Puppet 识别不一样用户的权限、文件的下发。这样,只要咱们编写好插件脚本、须要的文件,装机和权限控制就能够完成了。监控架构如图 3。

图 3 监控架构图

图 3 监控架构图

而 TiDB 有丰富的监控指标,使用流行的 Prometheus + Grafana,一套集群有 700+ 的 Metric。从官方的架构图能够看出,每一个组件会推送本身的 Metric 给 PushGateWay,Prometheus 会直接到 PushGateWay 去抓数据。

因为咱们须要组件收敛,原生的 TiDB 每一个集群一套 Prometheus 的方式不利于监控的汇总、分析、配置,而报警已经在 Mt-Falcon 上实现的比较好了,在 AlertManager 上再造一个也没有必要。所以咱们须要想办法把监控和报警汇总到 Mt-Falcon 上面,有以下几种方式:

  • 方案一:修改源代码,将 Metric 直接推送到 Falcon,因为 Metric 散落在代码的不一样位置,并且 TiDB 代码迭代太快,把精力消耗在不停调整监控埋点上不太合适。
  • 方案二:在 PushGateWay 是汇总后的,能够直接抓取,但 PushGateWay 是个单点,很差维护。
  • 方案三:经过各个组件( TiDB、PD、TiKV )的本地 API 直接抓取,优势是组件宕机不会影响其余组件,实现也比较简单。

咱们最终选择了方案三。该方案的难点是须要把 Prometheus 的数据格式转化为 Mt-Falcon 可识别的格式,由于 Prometheus 支持 Counter、Gauge、Histogram、Summary 四种数据类型,而 Mt-Falcon 只支持基本的 Counter 和 Gauge,同时 Mt-Falcon 的计算表达式比较少,所以须要在监控脚本中进行转换和计算。

3.3 批量部署

TiDB 使用 Ansible 实现自动化部署。迭代快,是 TiDB 的一个特色,有问题快速解决,但也形成 Ansible 工程、TiDB 版本更新过快,咱们对 Ansible 的改动,也只会增长新的代码,不会改动已有的代码。所以线上可能同时须要部署、维护多个版本的集群。若是每一个集群一个 Ansible 目录,形成空间的浪费。咱们采用的维护方式是,在中控机中,每一个版本一个 Ansible 目录,每一个版本中经过不一样 inventory 文件来维护。这里须要跟 PingCAP 提出的是,Ansible 只考虑了单集群部署,大量部署会有些麻烦,像一些依赖的配置文件,都不能根据集群单独配置(咨询官方得知,PingCAP 目前正在基于 Cloud TiDB 打造一站式 HTAP 平台,会提供批量部署、多租户等功能,能比较好的解决这个问题)。

3.4 自动化运维平台

随着线上集群数量的增长,打造运维平台提上了日程,而美团对 TiDB 和 MySQL 的使用方式基本相同,所以 MySQL 平台上具备的大部分组件,TiDB 平台也须要建设。典型的底层组件和方案:SQL 审核模块、DTS、数据备份方案等。自动化运维平台展现如图 4。

图 4 自动化运维平台展现图

图 4 自动化运维平台展现图

3.5 上下游异构数据同步

TiDB 是在线存储体系中的一环,它同时也须要融入到公司现有的数据流中,所以须要一些工具来作衔接。PingCAP 官方标配了相关的组件。

公司目前 MySQL 和 Hive 结合的比较重,而 TiDB 要代替 MySQL 的部分功能,须要解决 2 个问题:

  • MySQL to TiDB

    • MySQL 到 TiDB 的迁移,须要解决数据迁移以及增量的实时同步,也就是 DTS,Mydumper + Loader 解决存量数据的同步,官方提供了 DM 工具能够很好的解决增量同步问题。
    • MySQL 大量使用了自增 ID 做为主键。分库分表 MySQL 合并到 TiDB 时,须要解决自增 ID 冲突的问题。这个经过在 TiDB 端去掉自增 ID 创建本身的惟一主键来解决。新版 DM 也提供分表合并过程主键自动处理的功能。
  • Hive to TiDB & TiDB to Hive

    • Hive to TiDB 比较好解决,这体现了 TiDB 和 MySQL 高度兼容的好处,insert 语句能够不用调整,基于 Hive to MySQL 简单改造便可。
    • TiDB to Hive 则须要基于官方 Pump + Drainer 组件,Drainer 能够消费到 Kafka、MySQL、TiDB,咱们初步考虑用下图 5 中的方案经过使用 Drainer 的 Kafka 输出模式同步到 Hive。

图 5 TiDB to Hive 方案图

图 5 TiDB to Hive 方案图

4、线上使用磨合

对于初期上线的业务,咱们比较谨慎,基本的原则是:离线业务 -> 非核心业务 -> 核心业务。TiDB 已经发布两年多,且前期经历了大量的测试,咱们也深刻了解了其它公司的测试和使用状况,能够预期的是 TiDB 上线会比较稳定,但依然遇到了一些小问题。整体来看,在安全性、数据一致性等关键点上没有出现问题。其余一些性能抖动问题,参数调优的问题,也都获得了快速妥善的解决。这里给 PingCAP 的同窗点个大大的赞,问题响应速度很是快,与咱们内部研发的合做也很是融洽。

4.1 写入量大、读 QPS 高的离线业务

咱们上线的最大的一个业务,天天有数百 G 的写入量,前期遇到了较多的问题,咱们重点说说。

业务场景:

  • 稳定的写入,每一个事务操做 100~200 行不等,每秒 6w 的数据写入。
  • 天天的写入量超过 500G,之后会逐步提量到天天 3T。
  • 每 15 分钟的定时读 job,5000 QPS (高频量小)。
  • 不定时的查询(低频量大)。

以前使用 MySQL 做为存储,但 MySQL 到达了容量和性能瓶颈,而业务的容量将来会 10 倍的增加。初期调研测试了 ClickHouse,知足了容量的需求,测试发现运行低频 SQL 没有问题,但高频 SQL 的大并发查询没法知足需求,只在 ClickHouse 跑全量的低频 SQL 又会 overkill,最终选择使用 TiDB。

测试期间模拟写入了一天的真实数据,很是稳定,高频低频两种查询也都知足需求,定向优化后 OLAP 的 SQL 比 MySQL 性能提升四倍。但上线后,陆续发现了一些问题,典型的以下:

4.1.1 TiKV 发生 Write Stall

TiKV 底层有 2 个 RocksDB 做为存储。新写的数据写入 L0 层,当 RocksDB 的 L0 层数量达到必定数量,就会发生减速,更高则发生 Stall,用来自我保护。TiKV 的默认配置:

  • level0-slowdown-writes-trigger = 20
  • level0-stop-writes-trigger = 36

遇到过的,发生 L0 文件过多可能的缘由有 2 个:

  • 写入量大,Compact 完不成。
  • Snapshot 一直建立不完,致使堆积的副本一下释放,rocksdb-raft 建立大量的 L0 文件,监控展现如图 6。

图 6 TiKV 发生 Write Stall 监控展现图

图 6 TiKV 发生 Write Stall 监控展现图

咱们经过如下措施,解决了 Write Stall 的问题:

  • 减缓 Raft Log Compact 频率(增大 raft-log-gc-size-limit、raft-log-gc-count-limit )
  • 加快 Snapshot 速度(总体性能、包括硬件性能)
  • max-sub-compactions 调整为 3
  • max-background-jobs 调整为 12
  • level 0 的 3 个 Trigger 调整为 1六、3二、64

4.1.2 Delete 大量数据,GC 跟不上

如今 TiDB 的 GC 对于每一个 kv-instance 是单线程的,当业务删除数据的量很是大时,会致使 GC 速度较慢,极可能 GC 的速度跟不上写入。

目前能够经过增多 TiKV 个数来解决,长期须要靠 GC 改成多线程执行,官方对此已经实现,即将发布。

4.1.3 Insert 响应时间愈来愈慢

业务上线初期,insert 的响应时间 80 线( Duration 80 By Instance )在 20ms 左右,随着运行时间增长,发现响应时间逐步增长到 200ms+。期间排查了多种可能缘由,定位在因为 Region 数量快速上涨,Raftstore 里面要作的事情变多了,而它又是单线程工做,每一个 Region 按期都要 heartbeat,带来了性能消耗。tikv-raft propose wait duration 指标持续增加。

解决问题的办法:

  • 临时解决
    • 增长 Heartbeat 的周期,从 1s 改成 2s,效果比较明显,监控展现如图 7。

图 7 insert 响应时间优化先后对比图

图 7 insert 响应时间优化先后对比图

  • 完全解决
    • 须要减小 Region 个数,Merge 掉空 Region,官方在 2.1 版本中已经实现了 Region Merge 功能,咱们在升级到 2.1 后,获得了完全解决。
    • 另外,等待 Raftstore 改成多线程,能进一步优化。(官方回复相关开发已基本接近尾声,将于 2.1 的下一个版本发布。)

4.1.4 Truncate Table 空间没法彻底回收

DBA Truncate 一张大表后,发现 2 个现象,一是空间回收较慢,二是最终也没有彻底回收。

  • 因为底层 RocksDB 的机制,不少数据落在 level 6 上,有可能清不掉。这个须要打开 cdynamic-level-bytes 会优化 Compaction 的策略,提升 Compact 回收空间的速度。
  • 因为 Truncate 使用 delete_files_in_range 接口,发给 TiKV 去删 SST 文件,这里只删除不相交的部分,而以前判断是否相交的粒度是 Region,所以致使了大量 SST 没法及时删除掉。
    • 考虑 Region 独立 SST 能够解决交叉问题,可是随之带来的是磁盘占用问题和 Split 延时问题。
    • 考虑使用 RocksDB 的 DeleteRange 接口,但须要等该接口稳定。
    • 目前最新的 2.1 版本优化为直接使用 DeleteFilesInRange 接口删除整个表占用的空间,而后清理少许残留数据,已经解决。

4.1.5 开启 Region Merge 功能

为了解决 region 过多的问题,咱们在升级 2.1 版本后,开启了 region merge 功能,可是 TiDB 的响应时间 80 线( Duration 80 By Instance )依然没有恢复到当初,保持在 50ms 左右,排查发现 KV 层返回的响应时间还很快,和最初接近,那么就定位了问题出如今 TiDB 层。研发人员和 PingCAP 定位在产生执行计划时行为和 2.0 版本不一致了,目前已经优化。

4.2 在线 OLTP,对响应时间敏感的业务

除了分析查询量大的离线业务场景,美团还有不少分库分表的场景,虽然业界有不少分库分表的方案,解决了单机性能、存储瓶颈,可是对于业务仍是有些不友好的地方:

  • 业务没法友好的执行分布式事务。
  • 跨库的查询,须要在中间层上组合,是比较重的方案。
  • 单库若是容量不足,须要再次拆分,不管怎样作,都很痛苦。
  • 业务须要关注数据分布的规则,即便用了中间层,业务内心仍是没底。

所以不少分库分表的业务,以及即将没法在单机承载而正在设计分库分表方案的业务,主动找到了咱们,这和咱们对于 TiDB 的定位是相符的。这些业务的特色是 SQL 语句小而频繁,对一致性要求高,一般部分数据有时间属性。在测试及上线后也遇到了一些问题,不过目前基本都有了解决办法。

4.2.1 SQL 执行超时后,JDBC 报错

业务偶尔报出 privilege check fail。

是因为业务在 JDBC 设置了 QueryTimeout,SQL 运行超过这个时间,会发行一个 “ kill query ” 命令,而 TiDB 执行这个命令须要 Super 权限,业务是没有权限的。

其实 kill 本身的查询,并不须要额外的权限,目前已经解决了这个问题,再也不须要 Super 权限,已在 2.0.5 上线。

4.2.2 执行计划偶尔不许

TiDB 的物理优化阶段须要依靠统计信息。在 2.0 版本统计信息的收集从手动执行,优化为在达到必定条件时能够自动触发:

  • 数据修改比例达到 tidb_auto_analyze_ratio
  • 表一分钟没有变动(目前版本已经去掉这个条件)

可是在没有达到这些条件以前统计信息是不许的,这样就会致使物理优化出现误差,在测试阶段( 2.0 版本)就出现了这样一个案例:业务数据是有时间属性的,业务的查询有 2 个条件,好比:时间+商家 ID,但天天上午统计信息可能不许,当天的数据已经有了,但统计信息认为没有。这时优化器就会建议使用时间列的索引,但实际上商家 ID 列的索引更优化。这个问题能够经过增长 Hint 解决。

在 2.1 版本对统计信息和执行计划的计算作了大量的优化,也稳定了基于 Query Feedback 更新统计信息,也用于更新直方图和 Count-Min Sketch,很是期待 2.1 的 GA。

5、总结展望

通过前期的测试、各方的沟通协调,以及近半年对 TiDB 的使用,咱们看好 TiDB 的发展,也对将来基于 TiDB 的合做充满信心。

接下来,咱们会加速推动 TiDB 在更多业务系统中的使用,同时也将 TiDB 归入了美团新一代数据库的战略选型中。当前,咱们已经全职投入了 3 位 DBA 同窗和多位存储计算专家,从底层的存储,中间层的计算,业务层的接入,到存储方案的选型和布道,进行全方位和更深刻的合做。

长期来看,结合美团不断增加的业务规模,咱们将与 PingCAP 官方合做打造更强大的生态体系:

  • Titan:Titan 是 TiDB 下一步比较大的动做,也是咱们很是期待的下一代存储引擎,它对大 Value 支持会更友好,将解决咱们单行大小受限,单机 TiKV 最大支持存储容量的问题,大大提高大规模部署的性价比。

  • Cloud TiDB ( based on Docker & K8s ):云计算大势所趋,PingCAP 在这块也布局比较早,今年 8 月份开源了 TiDB Operator,Cloud TiDB 不只实现了数据库的高度自动化运维,并且基于 Docker 硬件隔离,实现了数据库比较完美的多租户架构。和官方同窗沟通,目前他们的私有云方案在国内也有重要体量的 POC,这也是美团看重的一个方向。

  • TiDB HTAP Platform:PingCAP 在原有 TiDB Server 计算引擎的基础上,还构建 TiSpark 计算引擎,和他们官方沟通,他们在研发了一个基于列的存储引擎,这样就造成了下层行、列两个存储引擎、上层两个计算引擎的完整混合数据库( HTAP ),这个架构不只大大的节省了核心业务数据在整个公司业务周期里的副本数量,还经过收敛技术栈,节省了大量的人力成本、技术成本、机器成本,同时还解决了困扰多年的 OLAP 的实效性。后面咱们也会考虑将一些有实时、准实时的分析查询系统接入 TiDB。

图 8 TiDB HTAP Platform 总体架构图

图 8 TiDB HTAP Platform 总体架构图

后续的物理备份方案,跨机房多写等也是咱们接下来逐步推动的场景,总之咱们坚信将来 TiDB 在美团的使用场景会愈来愈多,发展也会愈来愈好。

TiDB 在业务层面、技术合做层面都已经在美团扬帆起航,美团点评将携手 PingCAP 开启新一代数据库深度实践、探索之旅。后续,还有美团点评架构存储团队针对 TiDB 源码研究和改进的系列文章,敬请期待!

做者介绍

赵应钢,美团点评研究员

李坤,美团点评数据库专家

朴昌俊,美团点评数据库专家

相关文章
相关标签/搜索