Spark学习笔记(一):pySpark RDD编程

from pyspark import SparkContext,SparkConf #spark配置信息 注意实际工程中不会用硬编码 sc = SparkContext("local", "context") ''' RDD操做有两个方面: 1.transformations: map filter groupby... 2.actions: reduce count collect..
相关文章
相关标签/搜索