7月7日,Flink 1.11.0 正式发布了,做为这个版本的 release manager 之一,我想跟你们分享一下其中的经历感觉以及一些表明性 feature 的解读。在进入深度解读前,咱们先简单了解下社区发布的通常流程,帮助你们更好的理解和参与 Flink 社区的工做。数据库
Flink 1.11.0 从 3 月初的功能规划到 7 月初的正式发布,历经了差很少 4 个月的时间,对 Flink 的生态、易用性、生产可用性、稳定性等方面都进行了加强和改善,下面将一一跟你们分享。json
Flink 1.11.0 从 Feature 冻结后发布了 4 次 Candidate 才最终经过。经统计,一共有 236 个贡献者参与了此次版本开发,解决了 1474 个 Jira 问题,涉及 30 多个 FLIP,提交了 2325 个 Commit。缓存
纵观近五次版本发布,能够看出从 1.9.0 开始 Flink 进入了一个快速发展阶段,各个维度指标相比以前都有了几乎翻倍的提升。也是从 1.9.0 开始阿里巴巴内部的 Blink 项目开始被开源 Flink 整合,到 1.10.0 通过两个大版本已经所有整合完毕,对 Flink 从生态建设、功能性、性能和生产稳定性上都有了大幅的加强。 网络
Flink 1.11.0 版本的最初定位是重点解决易用性问题,提高用户业务的生产使用体验,总体上不作大的架构调整和功能开发,倾向于快速迭代的小版本开发。可是从上面统计的各个指标来看,所谓的“小版本”在各个维度的数据也丝绝不逊色于前两个大版本,解决问题的数量和参与的贡献者人数也在持续增长,其中来自中国的贡献者比例达到 62%。架构
下面咱们会深度剖析 Flink 1.11.0 带来了哪些让你们期待已久的特性,从用户直接使用的 API 层一直到执行引擎层,咱们都会选择一些有表明性的 Feature 从不一样维度解读,更完整的 Feature 列表请你们关注发布的 Release Blog。并发
这两个维度在某种程度上是相辅相成的,很难严格区分开,生态兼容上的缺失经常形成使用上的不便,提高易用性的过程每每也是不断完善相关生态的过程。在这方面用户感知最明显的应该就是 Table & SQL API 层面的使用。app
CDC 被普遍使用在复制数据、更新缓存、微服务间同步数据、审计日志等场景,不少公司都在使用开源的 CDC 工具,如 MySQL CDC。经过 Flink 支持在 Table & SQL 中接入和解析 CDC 是一个强需求,在过往的不少讨论中都被说起过,能够帮助用户以实时的方式处理 Changelog 流,进一步扩展 Flink 的应用场景,例如把 MySQL 中的数据同步到 PG 或 ElasticSearch 中,低延时的 Temporal Join 一个 Changelog 等。框架
除了考虑到上面的真实需求,Flink 中定义的“Dynamic Table”概念在流上有两种模型:Append 模式和 Update 模式。经过 Append 模式把流转化为“Dynamic Table”在以前的版本中已经支持,所以在 1.11.0 中进一步支持 Update 模式也从概念层面完整的实现了“Dynamic Table”。机器学习
为了支持解析和输出 Changelog,如何在外部系统和 Flink 系统之间编解码这些更新操做是首要解决的问题。考虑到 Source 和 Sink 是衔接外部系统的一个桥梁,所以 FLIP-95 在定义全新的 Table Source 和 Table Sink 接口时解决了这个问题。异步
在公开的 CDC 调研报告中,Debezium 和 Canal 是用户中最流行使用的 CDC 工具,这两种工具用来同步 Changelog 到其它的系统中,如消息队列。据此,FLIP-105 首先支持了 Debezium 和 Canal 这两种格式,并且 Kafka Source 也已经能够支持解析上述格式并输出更新事件,在后续的版本中会进一步支持 Avro(Debezium) 和 Protobuf(Canal)。
CREATE TABLE my_table ( ...) WITH ( 'connector'='...', -- e.g. 'kafka' 'format'='debezium-json', 'debezium-json.schema-include'='true' -- default: false (Debezium can be configured to include or exclude the message schema) 'debezium-json.ignore-parse-errors'='true' -- default: false );
1.11.0 以前,用户若是依赖 Flink 的 Source/Sink 读写关系型数据库或读取 Changelog 时,必需要手动建立对应的 Schema。并且当数据库中的 Schema 发生变化时,也须要手动更新对应的 Flink 做业以保持一致和类型匹配,任何不匹配都会形成运行时报错使做业失败。用户常常抱怨这个看似冗余且繁琐的流程,体验极差。
实际上对于任何和 Flink 链接的外部系统均可能有相似的上述问题,在 1.11.0 中重点解决了和关系型数据库对接的这个问题。FLIP-93 提供了 JDBC catalog 的基础接口以及 Postgres catalog 的实现,这样方便后续实现与其它类型的关系型数据库的对接。
1.11.0 版本后,用户使用 Flink SQL 时能够自动获取表的 Schema 而再也不须要输入 DDL。除此以外,任何 Schema 不匹配的错误都会在编译阶段提早进行检查报错,避免了以前运行时报错形成的做业失败。这是提高易用性和用户体验的一个典型例子。
从 1.9.0 版本开始 Flink 从生态角度致力于集成 Hive,目标打造批流一体的 Hive 数仓。通过前两个版本的迭代,已经达到了 Batch 兼容且生产可用,在 TPC-DS 10T Benchmark 下性能达到 Hive 3.0 的 7 倍以上。
1.11.0 在 Hive 生态中重点实现了实时数仓方案,改善了端到端流式 ETL 的用户体验,达到了批流一体 Hive 数仓的目标。同时在兼容性、性能、易用性方面也进一步进行了增强。
在实时数仓的解决方案中,凭借 Flink 的流式处理优点作到实时读写 Hive:
在 Hive 可用性方面的提高:
在 Hive 性能方面,1.10.0 中已经支持了 ORC(Hive 2+)的向量化读取,1.11.0 中咱们补全了全部版本的 Parquet 和 ORC 向量化支持来提高性能。
前面也提到过,Source 和 Sink 是 Flink 对接外部系统的一个桥梁,对于完善生态、可用性及端到端的用户体验是很重要的环节。社区早在一年前就已经规划了 Source 端的完全重构,从 FLIP-27 的 ID 就能够看出是很早的一个 Feature。可是因为涉及到不少复杂的内部机制和考虑到各类 Source Connector 的实现,设计上须要考虑的很全面。从 1.10.0 就开始作 POC 的实现,最终遇上了 1.11.0 版本的发布。
先简要回顾下 Source 以前的主要问题:
FLIP-27 在设计时充分考虑了上述的痛点:
目前 Flink 已有的 Source Connector 会在后续的版本中基于新架构来从新实现,Legacy Source 也会继续维护几个版本保持兼容性,用户也能够按照 Release 文档中的说明来尝试体验新 Source 的开发。
众所周知,Python 语言在机器学习和数据分析领域有着普遍的使用。Flink 从 1.9.0 版本开始发力兼容 Python 生态,Python 和 Flink 协力为 PyFlink,把 Flink 的实时分布式处理能力输出给 Python 用户。前两个版本 PyFlink 已经支持了 Python Table API 和 UDF,在 1.11.0 中扩大对 Python 生态库 Pandas 的支持以及和 SQL DDL/Client 的集成,同时 Python UDF 性能有了极大的提高。
具体来讲,以前普通的 Python UDF 每次调用只能处理一条数据,并且在 Java 端和 Python 端都须要序列化/反序列化,开销很大。1.11.0 中 Flink 支持在 Table & SQL 做业中自定义和使用向量化 Python UDF,用户只须要在 UDF 修饰中额外增长一个参数 udf_type=“pandas” 便可。这样带来的好处是:
除此以外,1.11.0 中 PyFlink 还支持:
上述解读的都是侧重 API 层面,用户开发做业能够直接感知到的易用性的提高。下面咱们看看执行引擎层在 1.11.0 中都有哪些值得关注的变化。
1.11.0 版本前,Flink 主要支持以下两种模式运行:
以上两种模式的共同问题是须要在客户端执行用户代码,编译生成对应的 Job Graph 提交到集群运行。在这个过程须要下载相关 Jar 包并上传到集群,客户端和网络负载压力容易成为瓶颈,尤为当一个客户端被多个用户共享使用。
1.11.0 中引入了 Application 模式(FLIP-85)来解决上述问题,按照 Application 粒度来启动一个集群,属于这个 Application 的全部 Job 在这个集群中运行。核心是 Job Graph 的生成以及做业的提交不在客户端执行,而是转移到 JM 端执行,这样网络下载上传的负载也会分散到集群中,再也不有上述 Client 单点上的瓶颈。
用户能够经过 bin/flink run-application 来使用 Application 模式,目前 Yarn 和 Kubernetes(K8s)都已经支持这种模式。Yarn application 会在客户端将运行做业须要的依赖都经过 Yarn Local Resource 传递到 JM。K8s Application 容许用户构建包含用户 Jar 与依赖的镜像,同时会根据做业自动建立 TM,并在结束后销毁整个集群,相比 Session 模式具备更好的隔离性。K8s 再也不有严格意义上的 Per-Job 模式,Application 模式至关于 Per-Job 在集群进行提交做业的实现。
除了支持 Application 模式,Flink 原生 K8s 在 1.11.0 中还完善了不少基础的功能特性(FLINK-14460),以达到生产可用性的标准。例如 Node Selector、Label、Annotation、Toleration 等。为了更方便的与 Hadoop 集成,也支持根据环境变量自动挂载 Hadoop 配置的功能。
Checkpoint 和 Savepoint 机制一直是 Flink 保持先进性的核心竞争力之一,社区在这个领域的改动很谨慎,最近的几个大版本中几乎没有大的功能和架构上的调整。在用户邮件列表中,咱们常常能看到用户反馈和抱怨的相关问题:好比 Checkpoint 长时间作不出来失败,Savepoint 在做业重启后不可用等等。1.11.0 有选择的解决了一些这方面的常见问题,提升生产可用性和稳定性。
1.11.0 以前, Savepoint 中 Meta 数据和 State 数据分别保存在两个不一样的目录中,这样若是想迁移 State 目录很难识别这种映射关系,也可能致使目录被误删除,对于目录清理也一样有麻烦。1.11.0 把两部分数据整合到一个目录下,这样方便总体转移和复用。另外,以前 Meta 引用 State 采用的是绝对路径,这样 State 目录迁移后路径发生变化也不可用,1.11.0 把 State 引用改为了相对路径解决了这个问题(FLINK-5763),这样 Savepoint 的管理维护、复用更加灵活方便。
实际生产环境中,用户常常遭遇 Checkpoint 超时失败、长时间不能完成带来的困扰。一旦做业 failover 会形成回放大量的历史数据,做业长时间没有进度,端到端的延迟增长。1.11.0 从不一样维度对 Checkpoint 的优化和提速作了改进,目标实现分钟甚至秒级的轻量型 Checkpoint。
首先,增长了 Checkpoint Coordinator 通知 Task 取消 Checkpoint 的机制(FLINK-8871),这样避免 Task 端还在执行已经取消的 Checkpoint 而对系统带来没必要要的压力。同时 Task 端放弃已经取消的 Checkpoint,能够更快的参与执行 Coordinator 新触发的 Checkpoint,某种程度上也能够避免新 Checkpoint 再次执行超时而失败。这个优化也对后面默认开启 Local Recovery 提供了便利,Task 端能够及时清理失效 Checkpoint 的资源。
其次,在反压场景下,整个数据链路堆积了大量 Buffer,致使 Checkpoint Barrier 排在数据 Buffer 后面,不能被 Task 及时处理对齐,也就致使了 Checkpoint 长时间不能执行。1.11.0 中从两个维度对这个问题进行解决:
1)尝试减小数据链路中的 Buffer 总量(FLINK-16428),这样 Checkpoint Barrier 能够尽快被处理对齐。
这个优化有一部分工做已经在 1.11.0 中完成,剩余部分会在下个版本继续推动完成。
2)实现了全新的 Unaligned Checkpoint 机制(FLIP-76)从根本上解决了反压场景下 Checkpoint Barrier 对齐的问题。实际上这个想法早在 1.10.0 版本以前就开始酝酿设计,因为涉及到不少模块的大改动,实现机制和线程模型也很复杂。咱们实现了两种不一样方案的原型 POC 进行了测试、性能对比,肯定了最终的方案,所以直到 1.11.0 才完成了 MVP 版本,这也是 1.11.0 中执行引擎层惟一的一个重量级 Feature。其基本思想能够归纳为:
Unaligned Checkpoint 在反压严重的场景下能够明显加速 Checkpoint 的完成时间,由于它再也不依赖于总体的计算吞吐能力,而和系统的存储性能更加相关,至关于计算和存储的解耦。可是它的使用也有必定的局限性,它会增长总体 State 的大小,对存储 IO 带来额外的开销,所以在 IO 已是瓶颈的场景下就不太适合使用 Unaligned Checkpoint 机制。
1.11.0 中 Unaligned Checkpoint 尚未做为默认模式,须要用户手动配置来开启,而且只在 Exactly-Once 模式下生效。但目前还不支持 Savepoint 模式,由于 Savepoint 涉及到做业的 Rescale 场景,Channel State 目前还不支持 State 拆分,在后面的版本会进一步支持,因此 Savepoint 目前仍是会使用以前的 Aligned 模式,在反压场景下有可能须要很长时间才能完成。
Flink 1.11.0 版本的开发过程当中,咱们看到愈来愈多来自中国的贡献者参与到核心功能的开发中,见证了 Flink 在中国的生态发展愈来愈繁荣,好比来自腾讯公司的贡献者参与了 K8s、Checkpoint 等功能开发,来自字节跳动公司的贡献者参与了 Table & SQL 层以及引擎网络层的一些开发。但愿更多的公司可以参与到 Flink 开源社区中,分享在不一样领域的经验,使 Flink 开源技术一直保持先进性,可以普惠到更多的受众。
通过 1.11.0 “小版本”的短暂调整,Flink 正在酝酿下一个大版本的 Feature,相信必定会有不少重量级的特性登场,让咱们拭目以待!