1、背景算法
随着移动互联网、物联网、大数据等行业的高速发展,数据在持续的以指数级的速度增加,好比咱们使用手机访问互网络时的行为数据,各类可穿戴设备上报的状态数据,工厂中设备传感器采集的指标数据,传统互联网公司的监控数据等。实际上,这些按照时间顺序记录系统、设备状态变化的数据都是时序数据(Time Series),它广泛存在于互联网、物联网、IT基础设施中。数据库
得益于软硬件技术的快速发展,处理如此庞大的时序数据集的成本在持续下降,更多公司开始持续收集、分析数据,用于异常处理、趋势预测、精准营销、风险控制等场景,但愿利用数据的潜在价值,提升公司盈利能力和竞争力。这里举两个例子:json
1.下图为某共享单车在旧金山某热门区域的车辆借还状况。经过分析该区域车辆的历史借还数据,单车公司可优化热点时间段的车辆补给。缓存
2. 下图为某互联网服务的出入流量历史记录。从图中能够明显看到入流量(蓝色线)在某时间段有毛刺,服务提供商可基于此段时间排查服务有无异常。能够进一步基于流量监控作告警,使运维人员可以及时处理线上问题。微信
2、传统时序数据解决方案存在大量问题网络
传统的时序数据解决方案及问题以下:架构
1. MySQL等关系型数据库:并发
· 写入吞吐低:单机写入吞吐低,很难知足时序数据千万级的写入压力;运维
· 存储成本大:对于时序数据压缩不佳,需占用大量机器资源;分布式
· 维护成本高:单机系统,须要在上层人工的分库分表,维护成本高;
· 查询性能差:适用于交易处理,海量数据的聚合分析性能差。
2. Hadoop、Spark等批处理系统
· 数据延迟高:离线批处理系统,数据从产生到可分析,耗时数小时、甚至天级;
· 查询性能差:不能很好的利用索引,依赖批处理任务,查询耗时通常在分钟级以上。
3. HBase
· 多维分析能力差:HBase能够较好的知足写入压力,但对于非RowKey前缀的查询性能较差;
· 维护成本:使用HBase须要同时维护HBase和Hadoop等系统,且HBase的稳定性会进一步加大维护成本。
3、写入、存储、查询多环节优化,时序数据库优点明显
1. 时序数据模型及特色
在引入时序数据库以前,先要了解【时序数据】的模型及特色。
1.1 时序数据的数学模型
前面介绍了时序数据的场景,也说明了分析时序数据的意义及传统方案。那么时序数据该怎样存储呢?数据的存储要考虑其数学模型和特色,时序数据固然也不例外。这里以一段时序数据为例,介绍下时序数据的数学模型。
下列数据记录了一段时间内某集群里各机器上各端口的出入流量,每半小时记录一个观测值:
· metric: 相关联的数据集合,相似于关系型数据库中的 table;
· point: 一个时序数据点,相似于关系型数据库中的 row;
· timestamp: 时间戳,表征时序数据产生的时间点;
· tag: 维度列,用于描述设备/系统的属性,代表是哪一个设备/模块产生的,通常不随着时间变化;
· field: 指标列,用于描述设备/系统状态的变化,随时间平滑波动。
1.2 时序数据特色
· 数据模式: 时序数据随时间增加,相同设备/系统的维度信息不变,指标平滑变化,这点从上面的Network表的数据变化能够看出。
· 写入: 持续高并发写入,无更新操做:时序数据库面对的每每是百万甚至千万数量级终端设备的实时数据写入(如摩拜单车2017年全国车辆数为千万级),但数据大多表征设备状态,写入后不会更新。
· 查询: 按不一样维度对指标进行统计分析,且存在明显的冷热数据,通常只会频繁查询近期数据。
2. 时序数据库
2.1 时序数据库
时序数据库是管理时序数据的专业化数据库,并针对时序数据的特色对写入、存储、查询等流程进行了优化,从而解决时序数据处理难题:
· 存储成本:
o 利用维度重复、时间递增、指标平滑变化等特性,合理选择编码压缩算法,提升数据压缩比;
o 经过预降精度,对历史数据作聚合,节省存储空间。
· 高并发写入:
o 数据批量写入,下降网络开销;
o 数据先写入内存,再周期性的dump为不可变的文件存储,提升写入速度。
· 低查询延时,高查询并发:
o 优化常见的查询模式,经过索引等技术下降查询延时;
o 经过缓存、routing等技术提升查询并发。
2.2 开源时序数据库对比
目前行业内比较流行的开源时序数据库产品有 InfluxDB、OpenTSDB、Prometheus、Graphite等,其产品特性对好比下图所示:
从上表能够看出,开源的时序数据库存在以下问题:
· 没有free、易用的分布式版本(OpenTSDB支持分布式部署,但依赖系统过多,维护成本高);
· 聚合能力广泛较弱,而时序数据大多须要来作统计分析;
· 没有free的权限管理;
· 没有针对时间序列的多维度对比分析工具。
4、历经每日万亿写入吞吐,腾讯云CTSDB技术架构
腾讯CTSDB(Cloud Time Series Database)是一种分布式、高性能的时序数据库,针对时序数据的高并发写入、存在明显的冷热数据、IoT用户场景等作了大量优化,同时也支持各行业的日志解析和存储。在腾讯内部支撑腾讯云等每日万亿写入吞吐的场景,通过严苛的压力打磨。其架构以下图所示:
1. CTSDB主要特色
· 高性能:(具体性能数据参考后文测试部分)
o 支持批量写入、高并发查询,以及强大的分析聚合能力;
o 经过横向扩展,线性提高系统性能;
o 支持sharding、routing,加速查询。
· 高可靠:
o 分布式系统,支持多副本;
o 机架感知,自动错开机架分配主从副本。
· 易使用:
o 丰富的数据类型,REST接口,数据写入查询均使用json格式;
o 原生分布式,弹性可伸缩,数据自动均衡;
o 权限系统:支持用户名密码、机器白名单的权限系统。
· 低成本:
o 支持列存储,高压缩比(0.1左右),下降存储成本;
o 支持数据预降精度:下降存储成本的同时,提升查询性能。
o 副本数可按需调整。
· 兼容开源生态:
o 兼容Kibana/Logstash/Beat等组件,方便数据采集及可视化分析;
o 支持从MySQL、Kafka等开源生态同步数据,方便迁移。
2. 竞品性能对比测试
这里选用业界较为流行的InfluxDB来与CTSDB作性能对比测试。
2.1 写入性能测试
(1) CTSDB单节点集群与InfluxDB单机版写入性能对比
横坐标:并发数(写入线程数) ,纵坐标:QPS(单位:万次/s)
结论: CTSDB单节点写入性能最高在19w,InfluxDB在15w。
(2) CTSDB单节点集群与CTSDB双节点集群写入性能对比
横坐标:并发数(写入线程数) ,纵坐标:QPS(单位:万次/s)
结论:CTSDB单节点集群写入最高可达20w,双节点集群写入性能34w。
2.2 查询性能测试
(1) CTSDB单节点集群与InfluxDB单机版查询性能对比
横坐标:并发数(查询线程数) ,纵坐标:QPS(单位:次/s)
结论:
· CTSDB查询性能总体比InfluxDB好不少,当并发数较高时(40),CTSDB查询性能比InfluxDB高出近4倍,在2w左右。
· 在并发线程数达到50时,InfluxDB出现连接错误,拒绝查询请求;此时,CTSDB可正常查询。
(2) CTSDB单节点集群与双节点集群查询性能对比
横坐标:并发数(查询线程数) ,纵坐标:QPS(单位:次/s)
结论:在并发数较高的状况下,双节点集群查询性能较单节点集群有了大幅度提高,呈现了查询性能线性扩展的趋势。
关于咱们
1. 咱们的现状
做为腾讯惟一的时序数据库,CTSDB支撑了腾讯内部20多个核心业务(微信彩票、财付通、云监控、云数据库、云负载等)。其中,云监控系统记录了腾讯内部各类软硬件系统的实时状态,CTSDB承载了它全部的数据存储,在每秒千万级数据点的写入压力、天天20TB+数据量的写入场景下稳定运行,足以证实CTSDB能够稳定支撑物联网的海量数据场景。
2. 咱们的将来
CTSDB已经在腾讯云正式开始公测,为时序数据处理提供技术服务,咱们将在下降存储成本、提高易用性和丰富功能性等方面进一步优化CTSDB!
欢迎对时序数据库和分布式存储感兴趣的同窗加入咱们!