ClickHouse及其MergeTree引擎

ClickHouse是一个用于联机分析(OLAP)的列式数据库管理系统(DBMS)。git

OLAP场景的关键特征

OLAP(OnLine Analysis Processing ,联机分析处理),核心思想就是创建多维度的数据立方体,以维度(Dimension)和度量(Measure)为基本概念,辅以元数据,实现能够钻取、切片、切块、旋转等灵活、系统、直观的数据展示。github

它的特征有:算法

  • 绝大多数是读请求

-数据以至关大的批次(> 1000行)更新,而不是单行更新;或者根本没有更新。sql

  • 已添加到数据库的数据不能修改。
  • 对于读取,从数据库中提取至关多的行,但只提取列的一小部分。
  • 宽表,即每一个表包含着大量的列
  • 查询相对较少(一般每台服务器每秒查询数百次或更少)
  • 对于简单查询,容许延迟大约50毫秒
  • 列中的数据相对较小:数字和短字符串(例如,每一个URL 60个字节)
  • 处理单个查询时须要高吞吐量(每台服务器每秒可达数十亿行)
  • 事务不是必须的
  • 对数据一致性要求低
  • 每一个查询有一个大表。除了他之外,其余的都很小。
  • 查询结果明显小于源数据。换句话说,数据通过过滤或聚合,所以结果适合于单个服务器的RAM中

ClickHouse不适用的场景

  • 不支持事务
  • 不擅长按照主键进行粒度的查询(虽然支持)
  • 不擅长按行删除数据(虽然支持)

ClickHouse的MergeTree引擎

MergeTree是ClickHouse最经常使用的表引擎,支持主键索引,数据分区,数据副本和数据采样等功能。数据库

MergeTree的建立方式和存储方式

MergeTree写入一批数据时,数据会以数据片断的的形式写入磁盘,而且数据片断不可修改。为了逼迫数据片断过多,ClickHouse会经过后台线程,按期合并这些数据片断。缓存

MergeTree的建立方式

CREATE TABLE [IF NOT EXISTS] [db_name].table_name (
  
)ENGINE = MergeTree()
[PARTITION BY expr]
[ORDER BY expr]
[PRIMARY KEY expr]
[SAMPLE BY expr]
[SETTINGS name=value,...]
复制代码

(1)PARTITION BY[选填]: 分区键,用于指定表数据以何种形式进行分区。分区键支持:单个列字段,元组的形式使用多个列字段,列表达式。不声明的话,ClickHouse会生成一个all的分区。服务器

(2)ORDER BY[必填]: 排序键,指定在一个数据片断内,数据以何种标准排序。默认状况下主键和排序键相同。markdown

(3)PRIMARY KEY[选填]: 主键,主键字段生成一级索引,用于加上表查询。MergeTree运行重复数据(ReplacingMergeTree能够去重)多线程

(4) SAMPLE BY [选填]: 抽样表达式,声明数据的采样标准。声明了此配置项,主键的配置也有声明一样的表达式。函数

ENGINE = MERGETREE()
ORDER BY (CounterID, EventDate, intHASH32(UserID))
SAMPLE BY intHASH32(UserID)
复制代码

(5) SETTINGS: index_granularity表示索引的粒度,默认是8192。 MergeTree在默认状况下,每隔8192行数据才生产一条索引。

MergeTree的存储结构

mergetree_structure

(1) partiton: 分区目录,数据以分区目录的形式存放。

(2) columns.txt:列信息文件

(3) count.txt: 计数文件,记录当前数据目录下数据的总行数。

(4) primay.idx: 一级索引文件,是稀疏索引,以二进制形式存储。

(5) [Column].bin: 数据文件,存储某一列的数据,压缩格式存储,默认是LZ4压缩格式。每一个列字段拥有独立.bin文件。

(6) [Column].mrk: 列字段标记文件,保存.bin中数据的偏移量信息。ClickHouse经过primay.idx稀疏索引,找到对应数据的偏移量信息(.mrk),而后经过偏移量直接从.bin文件中读取数据。

(7) [Column].mrk2: 使用了自适应大小的索引间隔,标记文件会以.mrk2命名。原理和.mrk相同。

(8) partition.datminmax_[Column].idx:使用了分区键就会生成。partiton.dat记录当前分区下,分区表达式最终生成的值。minmax索引记录当前分区下分区字段对应原始数据的最大值和最小值。这样方便查询时,跳过没必要要数据分区,减小须要扫描的范围。

数据分区

MergeTree的分区由分区ID决定,分区ID由分区键的取值决定。

(1)不指定分区键:默认分区为all,全部数据都写入这个分区。

(2)使用整型(兼容UInt64,包括有符号整型和无符号整型):若是没法转化成日期类型YYYYMMDD格式,按照该整型的字符串形式取值。

(3)使用日期类型:按照日期类型YYYYMMDD格式化后字符串输出。

(4)其余类型:分区键类型不属于整型或者日期类型,例如Float64/String, 经过128Hash算法去Hash值做为分区ID的取值。

分区目录的命名规则

MergeTree的特色在于分区的合并,从分区的命名能够解读其合并逻辑。命名规则:

PartitionID_MinBlockNum_MaxBlockNum_Level
复制代码

完整的目录合并过程

一级索引

MergeTree的主键使用PRIMARY KEY定义,按照index_granularity间隔,为数据表生成一级索引并保存至primary.idx文件,索引数据按照PRIMARY KEY排序。相比使用PRIMARY KEY,更常见的方式是经过ORDER BY指定主键。

数据存储

MergeTree中,数据是按列存储的,每一个列字段有对应的.bin文件。按列独立存储能够更好地压缩数据,最小化数据扫描的范围。

压缩数据块的逻辑

数据标记

数据标记和和索引区间是一一对齐的, 都按照index_granularity的间隔。

标记文件与.bin文件也一一对应,每个[Column].bin文件都有一个对应的[Column].mrk文件,记录数据在.bin文件中的偏移量信息。

.mrk中每行数据,对应压缩文件中偏移量和解压缩文件中偏移量。

标记数据和一级索引数据不同,它不能常驻内存,使用LRU缓存策略替换。

数据写入过程

数据读取过程

MergeTree系列表引擎

ReplacingMergeTree

MergeTree拥有主键,可是主键没有惟一键的约束。ReplacingMergeTree的处理逻辑

(1) 使用ORDER BY排序键做为判断重复数据的惟一键。

(2) 只有在合并分区的时候才会触发删除重复数据的逻辑

(3) 以数据分区为单位删除重复数据。当分区合并时,同一分区的重复数据被删除,不一样分区的合并数据不删除。

(4) 数据去重时,分区内的数据已经基于ORDER BY进行了排序,因此可以找到某些相邻的重复数据。

(5) 数据去重的策略

SummingMergeTree

MergeTree的每一个数据分区,数据按照order by 表达式排序,主键索引按照PRIMARY KEY表达式取值并排序。通常状况下,只须要定义ORDER BY便可。

SummingMergeTreeAggregatingMergeTree的聚合都是根据order by进行的。

若是同时声明了ORDER BYPRIMARY KEYMergeTree会强制要求PRIMARY KEY字段必须是ORDER BY的前缀。

处理逻辑:

(1) order by排序键做为聚合数据的条件Key

(2) 只有在合并分区的时候才会触发删除重复数据的逻辑

(3) 以数据分区为单位聚合数据。当分区合并时,同一分区的聚合key相同的数据会被合并汇总,而不一样分区之间的数据不会被汇总。

(4) 定义引擎时,指定了columns汇总列,则sum汇总这些列字段;若是未指定,则聚合全部非主键的数值类型字段

(5) 汇总数据时,同一分区内,相同聚合key的多行数据合并成一行。其中,汇总字段进行sum计算,非汇总字段。使用第一行的数据。

(6) 以前嵌套结构,但列字段必需要Map后缀结尾。嵌套类型中,默认以第一个字段做为聚合key。除第一个字段外,任何名称以Key,Id,Type后缀结尾的字段,和第一个字段组成复合key。

没有设置了ver版本号,保留同一组重复数据中的最后一行

设置了ver版本号,保留同一组重复数据中的ver取值最大的一行

AggregatingMergeTree

AggregatingMergeTreeorder by,``primary keySummingMergeTree`。

看下面例子

CREATE TABLE agg_table(
	id String,
  city String,
  code AggregateFunction(uniq,String),
  value AggregateFunction(sum,UInt32),
  create_time DateTime,
)ENGINE = AggregatingMergeTree
PARTITIION BY toYYYYMM(create_time)
ORDER BY (id,city)
PRIMARY KEY id
复制代码

其中,列字段id, city 是聚合条件,等同于

GROUP BY id,city
复制代码

code,value是聚合字段,等同于

UNIQ(code), SUM(value)
复制代码

AggregateFunction是ClickHOuse一种特殊的数据类型,它可以以二进制的形式存储中间状态。写入数据,须要调用*State函数,读取数据,须要调用 *Merge函数

一般会使用MergeTree做为底表,存储全量的数据,而且新建一张物化视图。

CREATE MATERIALIZED VIEW agg_view
ENGINE = AggregatingMergeTree()
PARTITION BY city
ORDER BY (id,city)
AS SELECT
	id,
	city,
	uniqState(code) AS code,
	sumState(value) AS value
FROM agg_table basic
GROUP BY id,city
复制代码

CollapsingMergeTree

对于ClickHouse这类高性能分析性数据库而言,对数据源文件修改是代价高昂的操做。相对于修改源文件,会将修改和删除转换成新增操做,以增代删。

CollapsingMergeTree定义一个sign标记位字段,记录数据行的状态。若是sign标记为1,是一行有效的数据。sign标记为-1,表示这行数据须要被删除。

CREATE TABLE collpase_table(
	id String,
  code Int32,
  create_time DateTime,
  sign Int8
)ENGINE=CollapsingMergeTree(sign)
PARTITION BY toYYMM(create_time)
ORDER BY id
复制代码

CollapsingMergeTree 一样以order by判断惟一性的依据。

(1)折叠数据不是实时触发的,和其余MergeTree变种引擎同样,这项特性在分区合并以后才会体现。分区合并以前,用户看到的是旧的数据。有2中方法解决:

  • 查询以前使用optimize TABLE table_name FINAL 强制分区合并,可是方法效率很低

  • 改变查询方式

    SELECT id, sum(code), count(coude), avg(code), uniq(code)
    FROM collpase_table
    GROUP BY id
    复制代码

    改为

    SELECT id, sum(code*sign), count(code*sign), avg(code*sign), uniq(code*sign)
    FROM collpase_table
    GROUP BY id
    HAVING SUM(sign) >0
    复制代码

(2)只有相同分区内的数据才能被折叠,

(3)CollapsingMergeTree对写入顺序有着严格的要求。若是按照正常顺序写入,先写入sign=1, 再写入sign=-1,则可以正常折叠。这种现象是CollapsingMergeTree的处理机制引发的,它要求sign=1和sign=-1的数据相邻,而分区内的数据基于order by排序,要实现sign=1和sign=-1的数据相邻,须要按照顺序写入。

若是数据的写入程序是单线程,能够控制写入顺序;若是是多线程,可使用CollapsingMergeTree

Clickhouse的SQL语句查询

query

with rollup

rollup按照聚合键从右向左上卷数据,基于聚合函数依次生成分组小计和总计。加上聚合键个数为n, 最终会生成小计的个数是n+1。

SELECT table,name,sum(bytes_on_disk) FROM system.parts
GROUP BY table,name
WITH ROLLUP
ORDER BY table
复制代码

最终的返回结果,附加了显示名称为空的小计汇总行。

with cube

cube像立方体同样,居于聚合键之间的全部组合生成小计信息。聚合键的个数为n,最终小计组合的个数是2的n次方。

SELECT database,table,name,sum(bytes_on_disk) FROM
(
  SELECT database,table,name,bytes_on_disk FROM system.parts WHERE table = 'hits_v1'
)
GROUP BY database,table,name
WITH CUBE
ORDER BY database,table,name
复制代码

with totals

基于聚合函数对全部数据进行汇总

SELECT database,sum(bytes_on_disk),count(table) FROM system.parts
GROUP BY database
WITH TOTALS
复制代码

参考文档

  1. 什么是ClickHouse
  2. ClickH原理解析和应用实践

个人公众号:lyp分享的地方

个人知乎专栏: zhuanlan.zhihu.com/c_127546654…

个人博客:www.liangyaopei.com

Github Page: liangyaopei.github.io/

相关文章
相关标签/搜索