Spark Core应用解析

一。RDD概念 1.1。RDD概述 1.1.1。什么是RDD   RDD(Resilient Distributed Dataset)叫作分布式数据集,是Spark中最基本的数据抽象,它表明一个不可变、可分区、里面的元素可并行计算的集合。在 Spark 中,对数据的全部操做不外乎建立 RDD、转化已有RDD 以及调用 RDD 操做进行求值。每一个 RDD 都被分为多个分区,这些分区运行在集群中的不
相关文章
相关标签/搜索