【融云分析】从过剩存储资源到分布式时序数据库的长存储

背景介绍:数据库

做为一名 Infra,管理平台的各类基础组建以及基本的服务质量是必修的功课,而如何对复杂和繁多的基础平台,甚至包括上面运行的 Ops 系统、业务系统,其稳定性的各项指标都是衡量 Infra 是否称职的很是重要的标准。数据结构

单纯离散的指标自己是没有实际意义的,只有将离散的指标经过某种方式进行存储,并支持对终端用户友好的查询以及聚合,才会真正的有意义。所以,一个性能足够的,分布式的,用户友好且方便下面 DevOps 团队进行部署的 TSDB ( Time Series Database )就成了一个不可缺乏的系统。架构

常见的 TSDB 包括 InfluxDB , OpenTSDB , Prometheus 等,其中,开源版本的 InfluxDB 虽然优秀,但并不支持集群部署,且 TICK Stack 自己对数据清洗的灵活性支持并不太好,直接使用开源版本,会有统计信息被收集并上报;而 OpenTSDB 因为基于 HBase ,在部署时成本太高,且自己并非一套完整的监控系统,而基于 Prometheus 与 TiKV 进行开发的话,整个系统可在保持最简洁的同时,也有很是丰富的生态支持。数据库设计

所以,基于实际状况,融云最终选择 TiPrometheus 做为 Infra 部的监控平台存储方案。分布式

项目简介:oop

上图为 Prometheus 的官方系统架构图,而实现 TiPrometheus ,用到了上图中没有体现到的一个 Prometheus 的功能:Remote Storage ,如其名所示,其主要功能是给 Prometheus 提供了远程写的能力,这个功能对于查询是透明的,主要用于长存储。而咱们当时的 TiPrometheus 实现了基于 TiKV 以及 PD 实现的 Prometheus 的 Remote Storage 。性能

核心实现设计

Prometheus 记录的数据结构分为两部分 Label 及 Samples 。 Label 记录了一些特征信息,Samples 包含了指标数据和 Timestamp 。索引

Label 和时间范围结合,能够查询到须要的 Value 。flux

为了查询这些记录,须要构建两种索引 Label Index 和 Time Index ,并以特殊的 Key 存储 Value 。

l Label Index

每对 Label 为会以 index:label:<name>#<latency> 为 key ,labelID 为 Value 存入。新的记录会 "," 分割追加到 Value 后面。这是一种搜索中经常使用的倒排索引。

l Time Index

每一个 Sample 项会以 index:timeseries:<labelID>:<splitTime> 为 Key,Timestamp 为 Value ,SplitTime 为时间切片的起始点。追加的 Timestamp 一样以","分割。

l Doc 存储

咱们将每一条 Samples 记录以 timeseries:doc:<labelID>:<timestamp> 为 Key 存入 TiKV ,其中 LabelID 是 Label 全文的散列值。

下面作一个梳理:

写入过程

  1. 生成 labelID
  2. 构建 time index,index:timeseries:<labelID>:<splitTime>"ts,ts"
  3. 写入时序数据 timeseries:doc:<labelID>:<timestamp> "value"
  4. 写入时序数据 timeseries:doc:<labelID>:<timestamp> "value"

查询过程

  1. 根据倒排索引查出 labelID 的集合,多对 Label 的查询会对 labelID 集合求交集。
  2. 根据 labelID 和时间范围内的时间分片查询包含的 Timestamp 。
  3. 根据 labelID 和 Timestamp 查出所需的 Value 。

Why TiPrometheus

该项目最初源于参加 PingCAP 组织的 Hackathon ,当时但愿与参与者一块儿完成你们脑海里的想法,其实最重要的事情就是,作出来的东西并非为了单纯的 Demo ,而是要作一个在实际工做中应用于生产环境的实际能力,且能解决生产中的问题。

刚开始还有过各类奇思妙想,包括在 TiSpark 上作一套 ML ,Hadoop over TiKV 等,不过这些想法实现起来都有些过于硬核,对于只有两天工做时间就须要完成的项目来讲,可能性过小;或者说,若是但愿实现 Demo ,所需 Hack 的点过多。而 GEO 全文检索在融云现有的生产上,以及现有的系统中,也并无须要去填补的大坑,所以,也就没有什么必要去在这方面花费力气去解决一个并不存在的问题。

因为 IM 服务是一种计算密集型的服务,且服务质量是融云的核心竞争力;而目前存储资源呈现出零散分布的节点,且每一个节点的存储资源使用率并不高,为了最大化利用现有的闲置资源,融云最终设计并实现了这套 TiPrometheus 系统。

Result

打通了 TiKV 与 Prometheus ,为基于 K , V 存储的时序数据库设计提供了一个可行的思路。

为 Prometheus 的长存储提供了一套实用的解决方案。

相关文章
相关标签/搜索