销售业务的特色是规模大、领域多、需求密。美团到店餐饮擎天销售系统(如下简称“擎天”)做为销售数据支持的主要载体,不只涉及的范围较广,并且面临的技术场景也很是复杂(多组织层级数据展现及鉴权、超过1/3的指标须要精准去重,峰值查询已经达到数万级别)。在这样的业务背景下,建设稳定高效的OLAP引擎,协助分析人员快速决策,已经成为到餐擎天的核心目标。html
Apache Kylin是一个基于Hadoop大数据平台打造的开源OLAP引擎,它采用了多维立方体预计算技术,利用空间换时间的方法,将查询速度提高至亚秒级别,极大地提升了数据分析的效率,并带来了便捷、灵活的查询功能。基于技术与业务匹配度,擎天于2016年采用Kylin做为OLAP引擎,接下来的几年里,这套系统高效地支撑了咱们的数据分析体系。算法
2020年,美团到餐业务发展较快,数据指标也迅速增长。基于Kylin的这套系统,在构建和查询上均出现了严重的效率问题,从而影响到数据的分析决策,并给用户体验优化带来了很大的阻碍。技术团队通过半年左右的时间,对Kylin进行一系列的优化迭代,包括维度裁剪、模型设计以及资源适配等等等,帮助销售业绩数据SLA从90%提高至99.99%。基于此次实战,咱们沉淀了一套涵盖了“原理解读”、“过程拆解”、“实施路线”的技术方案。但愿这些经验与总结,可以帮助业界更多的技术团队提升数据产出与业务决策的效率。apache
销售做为衔接平台和商家的桥梁,包含销售到店和电话拜访两种业务模式,以战区、人力组织架构逐级管理,全部分析均须要按2套组织层级查看。在指标口径一致、数据产出及时等要求下,咱们结合Kylin的预计算思想,进行了数据的架构设计。以下图所示:缓存
而Kylin计算维度组合的公式是2^N(N为维度个数),官方提供维度剪枝的方式,减小维度组合个数。但因为到餐业务的特殊性,单任务不可裁剪的组合个数仍高达1000+。在需求迭代以及人力、战区组织变更的场景下,须要回溯所有历史数据,会耗费大量的资源以及超高的构建时长。而基于业务划分的架构设计,虽可以极大地保证数据产出的解耦,保证指标口径的一致性,可是对Kylin构建产生了很大的压力,进而致使资源占用大、耗时长。基于以上业务现状,咱们概括了Kylin的MOLAP模式下存在的问题,具体以下:微信
在认真分析完问题,并肯定提效的大目标后,咱们对Kylin的构建过程进行了分类,拆解出在构建过程当中能提高效率的核心环节,经过“原理解读”、“层层拆解”、“由点及面”的手段,达成双向下降的目标。具体量化目标以下图所示:架构
为了解决效率提高定位难、归因难的问题,咱们解读了Kylin构建原理,包含了预计算思想以及By-layer逐层算法。ide
根据维度组合出全部可能的维度,对多维分析可能用到的指标进行预计算,将计算好的结果保存成Cube。假设咱们有4个维度,这个Cube中每一个节点(称做Cuboid)都是这4个维度的不一样组合,每一个组合定义了一组分析的维度(如group by),指标的聚合结果就保存在每一个Cuboid上。查询时,咱们根据SQL找到对应的Cuboid,读取指标的值,便可返回。以下图所示:工具
一个N维的Cube,是由1个N维子立方体、N个(N-1)维子立方体、N*(N-1)/2个(N-2)维子立方体、......N个1维子立方体和1个0维子立方体构成,总共有 2^N个子立方体。在逐层算法中,按照维度数逐层减小来计算,每一个层级的计算(除了第一层,由原始数据聚合而来),是基于上一层级的计算结果来计算的。例如:group by [A,B]的结果,能够基于group by [A,B,C]的结果,经过去掉C后聚合得来的,这样能够减小重复计算,当0维Cuboid计算出来的时候,整个Cube的计算也就完成了。以下图所示:oop
在了解完Kylin的底层原理后,咱们将优化的方向锁定在“引擎选择”、“数据读取”、“构建字典”、“分层构建”、“文件转换”五个环节,再细化各阶段的问题、思路及目标后,咱们终于作到了在下降计算资源的同时下降了耗时。详情以下表所示:性能
目前,咱们已经将构建引擎已逐步切换为Spark。擎天早在2016年就使用Kylin做为OLAP引擎,历史任务没有切换,仅仅针对MapReduce作了参数优化。其实在2017年,Kylin官网已启用Spark做为构建引擎(官网启用Spark构建引擎),构建效率相较MapReduce提高1至3倍,还可经过Cube设计选择切换,以下图所示:
Kylin之外部表的方式读取Hive中的源数据,表中的数据文件(存储在HDFS)做为下一个子任务的输入,此过程可能存在小文件问题。当前,Kylin上游数据宽表文件数分布比较合理,无需在上游设置合并,若是强行合并反而会增长上游源表数据加工时间。
对于项目需求,要回刷历史数据或增长维度组合,须要从新构建所有的数据,一般采用按月构建的方式回刷历史,加载的分区过多出现小文件问题,致使此过程执行缓慢。在Kylin级别重写配置文件,对小文件进行合并,减小Map数量,可有效地提高读取效率。
合并源表小文件:合并Hive源表中小文件个数,控制每一个Job并行的Task个数。调整参数以下表所示:
Kylin级别参数重写:设置Map读取过程的文件大小。调整参数以下表所示:
Kylin经过计算Hive表出现的维度值,建立维度字典,将维度值映射成编码,并保存保存统计信息,节约HBase存储资源。每一种维度组合,称为一个Cuboid。理论上来讲,一个N维的Cube,便有2^N种维度组合。
组合数量查看
在对维度组合剪枝后,实际计算维度组合难以计算,可经过执行日志(截图为提取事实表惟一列的步骤中,最后一个Reduce的日志),查看具体的维度组合数量。以下图所示:
全局字典依赖
擎天有不少业务场景须要精确去重,当存在多个全局字典列时,可设置列依赖,例如:当同时存在“门店数量”、“在线门店数量”数据指标,可设置列依赖,减小对超高基维度的计算。以下图所示:
计算资源配置
当指标中存在多个精准去重指标时,可适当增长计算资源,提高对高基维度构建的效率。参数设置以下表所示:
此过程为Kylin构建的核心,切换Spark引擎后,默认只采用By-layer逐层算法,再也不自动选择(By-layer逐层算法、快速算法)。Spark在实现By-layer逐层算法的过程当中,从最底层的Cuboid一层一层地向上计算,直到计算出最顶层的Cuboid(至关于执行了一个不带group by的查询),将各层的结果数据缓存到内存中,跳过每次数据的读取过程,直接依赖上层的缓存数据,大大提升了执行效率。Spark执行过程具体内容以下。
Job阶段
Job个数为By-layer算法树的层数,Spark将每层结果数据的输出,做为一个Job。以下图所示:
Stage阶段
每一个Job对应两个Stage阶段,分为读取上层缓存数据和缓存该层计算后的结果数据。以下图所示:
Task并行度设置
Kylin根据预估每层构建Cuboid组合数据的大小(可经过维度剪枝的方式,减小维度组合的数量,下降Cuboid组合数据的大小,提高构建效率,本文暂不详细介绍)和分割数据的参数值计算出任务并行度。计算公式以下:
Task个数计算公式:Min(MapSize/cut-mb ,MaxPartition) ;Max(MapSize/cut-mb ,MinPartition)
资源申请计算
平台默认采用动态方式申请计算资源,单个Executor的计算能力包含:1个逻辑CPU(如下简称CPU)、6GB堆内内存、1GB的堆外内存。计算公式以下:
在资源充足的状况下,若单个Stage阶段申请1000个并行任务,则须要申请资源达到7000GB内存和1000个CPU,即:CPU:1*1000=1000;内存:(6+1)*1000=7000GB
。
资源合理化适配
因为By-layer逐层算法的特性,以及Spark在实际执行过程当中的压缩机制,实际执行的Task任务加载的分区数据远远小于参数设置值,从而致使任务超高并行,占用大量资源,同时产生大量的小文件,影响下游文件转换过程。所以,合理的切分数据成为优化的关键点。经过Kylin构建日志,可查看各层级的Cuboid组合数据的预估大小,以及切分的分区个数(等于Stage阶段实际生成的Task个数)。以下图所示:
结合Spark UI可查看实执行状况,调整内存的申请,知足执行所须要的资源便可,减小资源浪费。
1.总体资源申请最小值大于Stage阶段Top一、Top2层级的缓存数据之和,保证缓存数据所有在内存。以下图所示:
计算公式:Stage阶段Top一、Top2层级的缓存数据之和 < kylin.engine.spark-conf.spark.executor.memory kylin.engine.spark-conf.spark.memory.fraction spark.memory.storageFraction *最大Executors个数
2.单个Task实际所须要的内存和CPU(1个Task执行使用1个CPU)小于单个Executor的执行能力。以下图所示:
计算公式:单个Task实际所须要的内存 < kylin.engine.spark-conf.spark.executor.memory kylin.engine.spark-conf.spark.memory.fraction spark.memory.st·orageFraction / kylin.engine.spark-conf.spark.executor.cores。参数说明以下表所示:
Kylin将构建以后的Cuboid文件转换成HTable格式的Hfile文件,经过BulkLoad的方式将文件和HTable进行关联,大大下降了HBase的负载。此过程经过一个MapReduce任务完成,Map个数为分层构建阶段输出文件个数。日志以下:
此阶段可根据实际输入的数据文件大小(可经过MapReduce日志查看),合理申请计算资源,避免资源浪费。
计算公式:Map阶段资源申请 = kylin.job.mr.config.override.mapreduce.map.memory.mb * 分层构建阶段输出文件个数。具体参数以下表所示:
咱们经过对Kylin原理的解读以及构建过程的层层拆解,选取销售交易核心任务进行试点实践。以下图所示:
针对销售交易核心任务进行实践优化,对比调整先后资源实际使用状况和执行时长,最终达到双向下降的目标。以下图所示:
擎天现有20+的Kylin任务,通过半年时间持续优化迭代,对比Kylin资源队列月均CU使用量和Pending任务CU使用量,在同等任务下资源消耗已明显下降。以下图所示:
通过了由点及面的总体优化,擎天于2020年6月SLA达成率达到100%。以下图所示:
Apache Kylin在2015年11月正式成为Apache基金会的顶级项目。从开源到成为Apache顶级项目,只花了13个月的时间,并且它也是第一个由中国团队完整贡献到Apache的顶级项目。目前,美团采用比较稳定的V2.0版本,通过近4年的使用与积累,到餐技术团队在优化查询性能以及构建效率层面都积累了大量经验,本文主要阐述了在Spark构建过程的资源适配方法。值得一提的是,Kylin官方在2020年7月发布了V3.1版本,引入了Flink做为构建引擎,统一使用Flink构建核心过程,包含数据读取阶段、构建字典阶段、分层构建阶段、文件转换阶段,以上四部分占总体构建耗时的95%以上。这次版本的升级也大幅度提升了Kylin的构建效率。详情可查看:Flink Cube Build Engine。
回顾Kylin构建引擎的升级过程,从MapReduce到Spark,再到现在的Flink,构建工具的迭代始终向更加优秀的主流引擎在靠拢,并且Kylin社区有不少活跃的优秀代码贡献者,他们也在帮助扩大Kylin的生态,增长更多的新功能,很是值得你们学习。最后,美团到店餐饮技术团队再次表达对Apache Kylin项目团队的感谢。
岳庆,2019年加入美团,到店餐饮研发中心工程师。
想阅读更多技术文章,请关注美团技术团队(meituantech)官方微信公众号。