Spark核心编程:建立RDD(集合、本地文件、HDFS文件)

1,建立RDD 1.进行Spark核心编程时,首先要作的第一件事,就是建立一个初始的RDD。该RDD中,一般就表明和包含了Spark应用程序的输入源数据。而后在建立了初始的RDD以后,才能够经过Spark Core提供的transformation算子,对该RDD进行转换,来获取其余的RDD。java 2.Spark Core提供了三种建立RDD的方式,包括:使用程序中的集合建立RDD;使用本地文
相关文章
相关标签/搜索