Spark学习笔记整理 --- 2018-06-15 【Spark架构设计】

基本概念: 在具体讲解Spark运行架构之前,需要先了解几个重要的概念: *  RDD:是弹性分布式数据集(Resilient Distributed Dataset)的简称,是分布式内存的一个抽象概念,提供了一种高度受限的共享内存模型; *  DAG:是Directed Acyclic Graph(有向无环图)的简称,反映RDD之间的依赖关系; *  Executor:是运行在工作节点(W
相关文章
相关标签/搜索