大数据架构如何作到流批一体?

阿里妹导读:大数据与现有的科技手段结合,对大多数产业而言都能产生巨大的经济及社会价值。这也是当下许多企业,在大数据上深耕的缘由。大数据分析场景须要解决哪些技术挑战?目前,有哪些主流大数据架构模式及其发展?今天,咱们都会一一解读,并介绍如何结合云上存储、计算组件,实现更优的通用大数据架构模式,以及该模式能够涵盖的典型数据处理场景。算法

大数据处理的挑战

如今已经有愈来愈多的行业和技术领域需求大数据分析系统,例如金融行业须要使用大数据系统结合 VaR(value at risk) 或者机器学习方案进行信贷风控,零售、餐饮行业须要大数据系统实现辅助销售决策,各类 IOT 场景须要大数据系统持续聚合和分析时序数据,各大科技公司须要创建大数据分析中台等等。
抽象来看,支撑这些场景需求的分析系统,面临大体相同的技术挑战:数据库

  • 业务分析的数据范围横跨实时数据和历史数据,既须要低延迟的实时数据分析,也须要对 PB  级的历史数据进行探索性的数据分析;架构

  • 可靠性和可扩展性问题,用户可能会存储海量的历史数据,同时数据规模有持续增加的趋势,须要引入分布式存储系统来知足可靠性和可扩展性需求,同时保证成本可控;并发

  • 技术栈深,须要组合流式组件、存储系统、计算组件和;app

  • 可运维性要求高,复杂的大数据架构难以维护和管控;框架

简述大数据架构发展

Lambda 架构

Lambda 架构是目前影响最深入的大数据处理架构,它的核心思想是将不可变的数据以追加的方式并行写到批和流处理系统内,随后将相同的计算逻辑分别在流和批系统中实现,而且在查询阶段合并流和批的计算视图并展现给用户。Lambda的提出者 Nathan Marz 还假定了批处理相对简单不易出现错误,而流处理相对不太可靠,所以流处理器可使用近似算法,快速产生对视图的近似更新,而批处理系统会采用较慢的精确算法,产生相同视图的校订版本。less

图 1 Lambda架构示例

Lambda架构典型数据流程是(http://lambda-architecture.net/):运维

  1. 全部的数据须要分别写入批处理层和流处理层;机器学习

  2. 批处理层两个职责:(i)管理 master dataset (存储不可变、追加写的全量数据),(ii)预计算batch view;分布式

  3. 服务层对 batch view 创建索引,以支持低延迟、ad-hoc 方式查询 view;

  4. 流计算层做为速度层,对实时数据计算近似的 real-time view,做为高延迟batch view 的补偿快速视图;

  5. 全部的查询须要合并 batch view 和 real-time view;

Lambda 架构设计推广了在不可变的事件流上生成视图,而且能够在必要时从新处理事件的原则,该原则保证了系统随需求演进时,始终能够建立相应的新视图出来,切实可行地知足了不断变化的历史数据和实时数据分析需求。

Lambda 架构的四个挑战

Lambda 架构很是复杂,在数据写入、存储、对接计算组件以及展现层都有复杂的子课题须要优化:

  1. 写入层上,Lambda 没有对数据写入进行抽象,而是将双写流批系统的一致性问题反推给了写入数据的上层应用;

  2. 存储上,以 HDFS 为表明的master dataset 不支持数据更新,持续更新的数据源只能以按期拷贝全量 snapshot 到 HDFS 的方式保持数据更新,数据延迟和成本比较大;

  3. 计算逻辑须要分别在流批框架中实现和运行,而在相似 Storm 的流计算框架和Hadoop MR 的批处理框架作 job 开发、调试、问题调查都是比较复杂的;

  4. 结果视图须要支持低延迟的查询分析,一般还须要将数据派生到列存分析系统,并保证成本可控。

流批融合的 Lambda 架构

针对 Lambda 架构的问题3,计算逻辑须要分别在流批框架中实现和运行的问题,很多计算引擎已经开始往流批统一的方向去发展,例如 Spark 和 Flink,从而简化lambda 架构中的计算部分。实现流批统一一般须要支持:

1.以相同的处理引擎来处理实时事件和历史回放事件;

2.支持 exactly once 语义,保证有无端障状况下计算结果彻底相同;

3.支持以事件发生时间而不是处理时间进行窗口化。

Kappa架构

Kappa 架构由 Jay Kreps 提出,不一样于 Lambda 同时计算流计算和批计算并合并视图,Kappa 只会经过流计算一条的数据链路计算并产生视图。Kappa 一样采用了从新处理事件的原则,对于历史数据分析类的需求,Kappa 要求数据的长期存储可以以有序 log 流的方式从新流入流计算引擎,从新产生历史数据的视图。

图2 Kappa大数据架构

Kappa 方案经过精简链路解决了1数据写入和3计算逻辑复杂的问题,但它依然没有解决存储和展现的问题,特别是在存储上,使用相似 kafka 的消息队列存储长期日志数据,数据没法压缩,存储成本很大,绕过方案是使用支持数据分层存储的消息系统(如 Pulsar,支持将历史消息存储到云上存储系统),可是分层存储的历史日志数据仅能用于 Kappa backfill 做业,数据的利用率依然很低。

Lambda 和 Kappa 的场景区别:

  • Kappa 不是 Lambda 的替代架构,而是其简化版本,Kappa 放弃了对批处理的支持,更擅长业务自己为 append-only 数据写入场景的分析需求,例如各类时序数据场景,自然存在时间窗口的概念,流式计算直接知足其实时计算和历史补偿任务需求;

  • Lambda 直接支持批处理,所以更适合对历史数据有不少 ad hoc 查询的需求的场景,好比数据分析师须要按任意条件组合对历史数据进行探索性的分析,而且有必定的实时性需求,指望尽快获得分析结果,批处理能够更直接高效地知足这些需求。

Kappa+

Kappa+是 Uber 提出流式数据处理架构,它的核心思想是让流计算框架直读 HDFS类的数仓数据,一并实现实时计算和历史数据 backfill 计算,不须要为 backfill 做业长期保存日志或者把数据拷贝回消息队列。Kappa+ 将数据任务分为无状态任务和时间窗口任务,无状态任务比较简单,根据吞吐速度合理并发扫描全量数据便可,时间窗口任务的原理是将数仓数据按照时间粒度进行分区存储,窗口任务按时间序一次计算一个 partition 的数据,partition 内乱序并发,全部分区文件所有读取完毕后,全部 source 才进入下个 partition 消费并更新 watermark。事实上,Uber 开发了Apache hudi 框架来存储数仓数据,hudi 支持更新、删除已有 parquet 数据,也支持增量消费数据更新部分,从而系统性解决了问题2存储的问题。下图3是完整的Uber 大数据处理平台,其中 Hadoop -> Spark -> Analytical data user 涵盖了Kappa+ 数据处理架构。

图3 Uber围绕Hadoop dataset的大数据架构

 

混合分析系统的 Kappa 架构

Lambda 和 Kappa 架构都还有展现层的困难点,结果视图如何支持 ad-hoc 查询分析,一个解决方案是在 Kappa 基础上衍生数据分析流程,以下图4,在基于使用Kafka + Flink 构建 Kappa 流计算数据架构,针对Kappa 架构分析能力不足的问题,再利用 Kafka 对接组合 ElasticSearch 实时分析引擎,部分弥补其数据分析能力。可是 ElasticSearch 也只适合对合理数据量级的热数据进行索引,没法覆盖全部批处理相关的分析需求,这种混合架构某种意义上属于 Kappa 和 Lambda 间的折中方案。

图4 Kafka + Flink + ElasticSearch的混合分析系统

Lambda plus:Tablestore + Blink 流批一体处理框架

Lambda plus 是基于 Tablestore 和 Blink 打造的云上存在能够复用、简化的大数据架构模式,架构方案全 serverless 即开即用,易搭建免运维。
表格存储(Tablestore)是阿里云自研的 NoSQL 多模型数据库,提供 PB 级结构化数据存储、千万 TPS 以及毫秒级延迟的服务能力,表格存储提供了通道服务(TunnelService)支持用户以按序、流式地方式消费写入表格存储的存量数据和实时数据,同时表格存储还提供了多元索引功能,支持用户对结果视图进行实时查询和分析。
Blink 是阿里云在 Apache Flink 基础上深度改进的实时计算平台,Blink 旨在将流处理和批处理统一,实现了全新的 Flink SQL 技术栈,在功能上,Blink 支持如今标准 SQL 几乎全部的语法和语义,在性能上,Blink 也比社区Flink更增强大。
在 TableStore + Blink 的云上 Lambda 架构中,用户能够同时使用表格存储做为master dataset 和 batch&stream view,批处理引擎直读表格存储产生 batch view,同时流计算引擎经过 Tunnel Service 流式处理实时数据,持续生成 stream view。

图5 Tablestore + Blink 的 Lambda plus 大数据架构

如上图5,其具体组件分解:

  • Lambda batch 层:

    • Tablestore 直接做为 master dataset,支持用户直读,配合 Tablestore 多元索引,用户的线上服务直读、ad-hoc 查询 master dataset 并将结果返回给用户;Blink 批处理任务向 Tablestore 下推 SQL 的查询条件,直读 Tablestore master dataset,计算 batch view,并将 batch view 从新写回 Tablestore;

  • Streaming 层:

    • Blink 流处理任务经过表格存储 TunnelService API 直读 master dataset 中的实时数据,持续产生 stream view;Kappa 架构的 backfill任务,能够经过创建全量类型数据通道,流式消费 master dataset 的存量数据,重新计算;

  • Serving 层:

    • 为存储 batch view 和 stream view 的 Tablestore 结果表创建全局二级索引和多元索引,业务能够低延迟、ad-hoc方式查询;

图6 Lambda plus的数据链路

针对上述 Lambda 架构1-4的技术问题,Lambda plus 的解决思路:

  1. 针对数据写入的问题,Lambda plus 数据只须要写入表格存储,Blink 流计算框架经过通道服务 API 直读表格存储的实时数据,不须要用户双写队列或者本身实现数据同步;

  2. 存储上,Lambda plus 直接使用表格存储做为 master dataset,表格存储支持用户 tp 系统低延迟读写更新,同时也提供了索引功能 ad-hoc 查询分析,数据利用率高,容量型表格存储实例也能够保证数据存储成本可控;

  3. 计算上,Lambda plus 利用 Blink 流批一体计算引擎,统一流批代码;

  4. 展现层,表格存储提供了多元索引和全局二级索引功能,用户能够根据解决视图的查询需求和存储体量,合理选择索引方式。

总结,表格存储实现了 batch view、master dataset 直接查询、stream view 的功能全集,Blink 实现流批统一,Tablestore 加 Blink 的 Lambda plus 模式能够明显简化 Lambda 架构的组件数量,下降搭建和运维难度,拓展用户数据价值。

表格存储是如何实现支持上述功能全集的

存储引擎的高并发、低延迟特性:表格存储面向在线业务提供高并发、低延迟的访问,而且 tps 按分区水平扩展,能够有效支持批处理和 Kappa backfill 的高吞吐数据扫描和流计算按分区粒度并发实时处理;

使用通道服务精简架构:Tablestore 数据通道支持用户以按序、流式地方式消费写入表格存储的存量数据和实时数据,避免 Lambda 架构引入消息队列系统以及master dataset 和队列的数据一致性问题;

二级索引和多元索引的灵活查询能力:存储在表格存储的 batch view 和 real-time view 可使用多元索引和二级索引实现 ad-hoc 查询,使用多元索引进行聚合分析计算;同时展现层也能够利用二级索引和多元索引直接查询表格存储 master dataset,不强依赖引擎计算结果。

Lambda plus 的适用场景

基于 Tablestore 和 Blink 的 Lambda plus 架构,适用于基于分布式 NoSQL 数据库存储数据的大数据分析场景,如 IOT、时序数据、爬虫数据、用户行为日志数据存储等,数据量以 TB 级为主。典型的业务场景如:

大数据舆情分析系统:

 

参考资料

[1].https://yq.aliyun.com/articles/704171?spm=a2c4e.11153959.0.0.229847a2BpWNvc

[2].http://lambda-architecture.net/
[3].http://shop.oreilly.com/product/0636920032175.do, Martin Kleppmann
[4].https://www.oreilly.com/ideas/applying-the-kappa-architecture-in-the-telco-industry
[5].https://www.oreilly.com/ideas/questioning-the-lambda-architecture,Jay Kreps

[6].http://milinda.pathirage.org/kappa-architecture.com/ [7].Moving from Lambda and Kappa Architectures to Kappa+ at Uber [8].https://eng.uber.com/hoodie/, Prasanna Rajaperumal and Vinoth Chandar [9].https://eng.uber.com/uber-big-data-platform/, Reza Shiftehfar