Spark RDD编程(Python和Scala版本)

Spark中的RDD就是一个不可变的分布式对象集合,是一种具备兼容性的基于内存的集群计算抽象方法,Spark则是这个方法的抽象。 java Spark的RDD操做分为转化操做(transformation)和行动操做(action),二者的区别在于: python        a.转化操做返回一个新的RDD对象apache        b.行动操做则会对RDD产生一个计算结果,并把结果返回到驱
相关文章
相关标签/搜索