Spark编程基础 --pyspark

之前记录的一些笔记,有点懒直接copy了python spark:     rdd:         resilient         distributed         dataset     spark由一个sparkContext发启,由各个work节点的执行器执行的并行计算task.     核心是RDD     将数据转换成RDD         1. parallelize, 序
相关文章
相关标签/搜索