简介:Hologres技术揭秘系列持续更新中,本期咱们将带来Hologres高性能原生加速查询MaxCompute的技术原理解析。
Hologres(中文名交互式分析)是阿里云自研的一站式实时数仓,这个云原生系统融合了实时服务和分析大数据的场景,全面兼容PostgreSQL协议并与大数据生态无缝打通,能用同一套数据架构同时支持实时写入实时查询以及实时离线联邦分析。它的出现简化了业务的架构,与此同时为业务提供实时决策的能力,让大数据发挥出更大的商业价值。从阿里集团诞生到云上商业化,随着业务的发展和技术的演进,Hologres也在持续不断优化核心技术竞争力,为了让你们更加了解Hologres,咱们计划持续推出Hologres底层技术原理揭秘系列,从高性能存储引擎到高效率查询引擎,高吞吐写入到高QPS查询等,全方位解读Hologres,请你们持续关注!html
往期精彩内容:缓存
本期咱们将带来Hologres高性能原生加速查询MaxCompute的技术原理解析。网络
随着数据收集手段不断丰富,行业数据大量积累,数据规模已增加到了传统软件行业没法承载的海量数据(TB、PB、EB)级别,MaxCompute(原名ODPS)也所以应运而生,致力于批量结构化数据的存储和计算,提供海量数据仓库的解决方案及分析建模服务,是一种快速、彻底托管的EB级数据仓库解决方案。架构
Hologres在离线大数据场景上与MaxCompute自然无缝融合,无需数据导入导出就能实现加速查询MaxCompute,全兼容访问各类MaxCompute文件格式,实现对PB级离线数据的毫秒级交互式分析。而这一切的背后,都离不开Hologres背后的执行器SQE(S Query Engine),经过SQE实现对MaxCompute的Native访问,而后再结合Hologres高性能分布式执行引擎HQE的处理,达到极致性能。并发
Hologres加速查询MaxCompute主要有如下几个优点:app
如上图所示是SQE的总体架构,能够看出整个架构也是很是简单。MaxCompute的数据统一存储在Pangu,当Hologres执行一条Query去加速查询MaxCompute的数据时,在Hologres端:异步
基于SQE的架构,能作到对MaxCompute的数据高性能加速查询,主要是基于如下技术创新优点:分布式
1)抽象分布式外表高并发
结合MaxCompute的分布式特性,Hologres抽象了一个分布式的外表,来支持访问MaxCompute分布式数据。目前可支持访问跨集群的MaxCompute分布式盘古文件,并按MaxCompute计算集群就近读取。性能
2)和 MaxCompute Meta无缝互通,支持带版本的元数据缓存
SQE和MaxCompute 的 Meta 无缝互通,能够作到 Meta 和 Data 实时获取,支持经过Import Foreign Schema命令,自动同步MaxCompute的元数据到Hologres的外表,实现外表的自动建立,结构自动更新。
3)支持UDF/表达式下推
SQE 经过支持 UDF/表达式下推,来实现用户自定义的UDF计算;将表达式下推能够减小无用的数据传输带来的开销,进一步提高性能。
4)异步ORC Reader,异步prefetch
目前MaxCompute大部分数据为ORC格式,在Hologres V0.10及以上版本,Hologres更新了执行引擎,使用异步 Reader 进行更高效的异步读取,还支持异步prefetch,进一步下降读取延迟;此外Hologres支持了 IO 合并、LazyRead、Lazy Decoding 等一些列的优化技术手段,来下降在 IO 在整个查询上的延迟,以带来极致性能。
5)支持Block Cache
为了不每次读数据都用IO到文件中取,SQE一样使用BlockCache把经常使用和最近用的数据放在内存中,减小没必要要的IO,加快读的性能。在同一个节点内,经过一致性Hash实现将相同访问的数据共享一个Block Cache。 好比在Scan 场景可带来2倍以上的性能提高,大大提高查询性能。
6)常驻进程,减小调度开销
传统的进程模型等架构须要动态实时的建立进程等调度操做,带来了较大的调度开销。SQE 采用常驻进程模式,避免没必要要的调度开销,此外还能够大大提高Block Cache的命中率和有效使用率。
7)Network Shuffle,减小落盘开销
Network Shuffle须要提供一种快速且稳定的容错机制。因为Network Shuffle必须保证发送端和接收端进程同时alive才能完成数据shuffle。一样的,若是采用传统落盘的方式来进行Network Shuffle的Retry,虽然可以保证稳定性,可是可能会在Retry过程当中因为磁盘IO引入比较大的性能overhead。为了解决这个问题,咱们优化了分阶段调度来解决快速稳定的容错问题。
上面提到了咱们经过SQE进行加速查询MaxCompute外表,经过SQE查询时性能能够作到很好,可是和Hologres交互时中间会有一层RPC 交互,在数据量较大时网络会存在必定瓶颈。
所以咱们基于Hologres已有的能力,在Hologres V0.10及以上版本咱们对执行引擎进行了优化,支持Hologres HQE查询引擎直读MaxCompute 表,在性能上获得进一步的提高,较SQE方式读取有 30%以上的性能提高。
这主要得益于如下几个方面:
1) 节省了 SQE 和 Hologres中间 RPC 的交互,至关于节省一次数据的序列化和反序列化,在性能上获得进一步的提高。
2) 能够复用Hologres的Block Cache,这样第二次查询时无需访问存储,避免存储IO,直接从内存访问数据,更好的加速查询。
3) 能够复用已有的Filter 下推能力,减小须要处理的数据量。
4) 在底层的IO层实现了预读和Cache,更进一步加速Scan时的性能。
如下是某客户某实际在线业务查询的性能数据:
E2E运行时间 | SQL Num | SQE查询性能(平均响应) | HQE查询性能(平均响应) | 性能提高 |
2-10s | 547 | 4,956 ms | 2,609 ms | +47.34% |
10-30s | 207 | 16,757 ms | 5,457 ms | +67.43% |
30s以上 | 63 | 78,686 ms | 12,666 ms | +83.90% |
Total | 817 | 13,631 ms | 4,106 ms | +69.87% |
<span class="lake-fontsize-12">场景/维度</span> | <span class="lake-fontsize-12">性能</span> | <span class="lake-fontsize-12">存储成本</span> | <span class="lake-fontsize-12">数据量</span> | <span class="lake-fontsize-12">索引</span> | <span class="lake-fontsize-12">便捷性</span> |
<span class="lake-fontsize-12">Hologres 内表</span> | <span>很是好</span> | <span>高</span><span>(SSD)</span> | <span>可支持PB级</span> | <span>可支持位图、聚簇等多种索引</span> | <span>须要导入数据</span> |
<span class="lake-fontsize-12">Hologres 外表</span> | <span>较好</span> | <span>低</span><span>(HDD)</span> | <span>单次Query查询200GB</span><span>限制</span> | <span>只支持ODPS索引</span> | <span>无需迁移和导入数据</span> |