Flink 运行时架构主要包括四个不一样的组件,它们会在运行流处理应用程序时协同工做:redis
做业管理器(JobManager)、资源管理器(ResourceManager)、任务管理器(TaskManager),编程
以及分发器(Dispatcher)。由于 Flink 是用 Java 和 Scala 实现的,因此全部组件都会运行在缓存
Java 虚拟机上。每一个组件的职责以下:数据结构
上图是从一个较为高层级的视角,来看应用中各组件的交互协做。架构
若是部署的集群环境不一样(例如 YARN, Mesos, Kubernetes, standalone 等),其中一些步骤能够被省略,或是有些组件会运行在同一个 JVM 进程中。并发
具体地,若是咱们将 Flink 集群部署到 YARN 上,那么就会有以下的提交流程:app
当 Flink 集 群 启 动 后 , 首 先 会 启 动 一 个 JobManger 和 一 个 或 多 个 的分布式
TaskManager。由 Client 提交任务给 JobManager, JobManager 再调度任务到各个工具
TaskManager 去执行,而后 TaskManager 将心跳和统计信息汇报给 JobManager。大数据
TaskManager 之间以流的形式进行数据的传输。上述三者均为独立的 JVM 进程。
Client 为提交 Job 的客户端,能够是运行在任何机器上(与 JobManager 环境
连通便可)。提交 Job 后, Client 能够结束进程( Streaming 的任务),也能够不
JobManager 主 要 负 责 调 度 Job 并 协 调 Task 作 checkpoint, 职 责 上 很 像
Storm 的 Nimbus。从 Client 处接收到 Job 和 JAR 包等资源后,会生成优化后的
执行计划,并以 Task 的单元调度到各个 TaskManager 去执行。
TaskManager 在启动的时候就设置好了槽位数( Slot),每一个 slot 能启动一个
Task, Task 为线程。从 JobManager 处接收须要部署的 Task,部署启动后,与自
每一个 task slot 表示 TaskManager 拥有资源的一个固定大小的子集。假如一个TaskManager 有三个 slot,那么它会将其管理的内存分红三份给各个 slot。资源 slot化意味着一个 subtask 将不须要跟来自其余 job 的 subtask 竞争被管理的内存,取而代之的是它将拥有必定数量的内存储备。须要注意的是,这里不会涉及到 CPU 的隔离, slot 目前仅仅用来隔离 task 的受管理的内存。
经过调整 task slot 的数量,容许用户定义 subtask 之间如何互相隔离。若是一个TaskManager 一个 slot,那将意味着每一个 task group 运行在独立的 JVM 中(该 JVM多是经过一个特定的容器启动的),而一个 TaskManager 多个 slot 意味着更多的subtask 能够共享同一个 JVM。而在同一个 JVM 进程中的 task 将共享 TCP 链接(基于多路复用)和心跳消息。它们也可能共享数据集和数据结构,所以这减小了每一个task 的负载。
能够经过参数 taskmanager.numberOfTaskSlots 进行配置; 而并行度 parallelism 是动态概念,即 TaskManager 运行程序时实际使用的并发能力,能够经过参数 parallelism.default进行配置。也就是说,假设一共有 3 个 TaskManager,每个 TaskManager 中的分配 3 个TaskSlot,也就是每一个 TaskManager 能够接收 3 个 task,一共 9 个 TaskSlot,若是咱们设置 parallelism.default=1,即运行程序默认的并行度为 1, 9 个 TaskSlot 只用了 1个,有 8 个空闲,所以,设置合适的并行度才能提升效率。
全部的 Flink 程序都是由三部分组成的: Source 、 Transformation 和 Sink。
Source 负责读取数据源, Transformation 利用各类算子进行处理加工, Sink 负责输出。
在运行时, Flink 上运行的程序会被映射成“逻辑数据流”( dataflows) ,它包含了这三部分。 每个 dataflow 以一个或多个 sources 开始以一个或多个 sinks 结束。 dataflow 相似于任意的有向无环图( DAG)。在大部分状况下,程序中的转换运算( transformations) 跟 dataflow 中的算子(operator) 是一一对应的关系,但有时候,一个 transformation 可能对应多个 operator。
由 Flink 程序直接映射成的数据流图是 StreamGraph,也被称为逻辑流图,由于它们表示的是计算逻辑的高级视图。为了执行一个流处理程序, Flink 须要将逻辑流图转换为物理数据流图(也叫执行图) ,详细说明程序的执行方式。
Flink 中的执行图能够分红四层: StreamGraph -> JobGraph -> ExecutionGraph ->物理执行图。
在执行过程当中,一个流( stream) 包含一个或多个分区( stream partition) ,而每个算子( operator)能够包含一个或多个子任务( operator subtask) ,这些子任务在不一样的线程、不一样的物理机或不一样的容器中彼此互不依赖地执行。
一个特定算子的子任务( subtask) 的个数被称之为其并行度( parallelism) 。
通常状况下, 一个流程序的并行度,能够认为就是其全部算子中最大的并行度。一
Stream 在算子之间传输数据的形式能够是 one-to-one(forwarding)的模式也能够
是 redistributing 的模式,具体是哪种形式,取决于算子的种类。
One-to-one: stream(好比在 source 和 map operator 之间)维护着分区以及元素的
顺序。那意味着 map 算子的子任务看到的元素的个数以及顺序跟 source 算子的子
任务生产的元素的个数、顺序相同, map、 fliter、 flatMap 等算子都是 one-to-one 的
Redistributing: stream(map()跟 keyBy/window 之间或者 keyBy/window 跟 sink
之间)的分区会发生改变。每个算子的子任务依据所选择的 transformation 发送数
据到不一样的目标任务。例如, keyBy() 基于 hashCode 重分区、 broadcast 和 rebalance
会随机从新分区,这些算子都会引发 redistribute 过程,而 redistribute 过程就相似于
Spark 中的 shuffle 过程。(PS.相似于 spark 中的宽依赖)
相同并行度的 one to one 操做, Flink 这样相连的算子连接在一块儿造成一个 task,原来的算子成为里面的一部分。将算子连接成 task 是很是有效的优化:它能减小线程之间的切换和基于缓存区的数据交换,在减小时延的同时提高吞吐量。连接的行为能够在编程 API 中进行指定。