Spark2.x学习笔记:七、Spark应用程序设计

七、 Spark应用程序设计 7.1 基本流程 1.建立SparkContext对象apache 每一个Spark应用程序有且仅有一个SparkContext对象,封装了Spark执行环境信息 2.建立RDD缓存 能够冲Scala集合或者Hadoop数据集上建立 3.在RDD之上进行转换和Action并发 MapReduce只提供了map和reduce两种操做,而Spark提供了多种转换和acti
相关文章
相关标签/搜索