Spark groupbykey和cogroup使用示例

groupByKey groupByKey([numTasks])是数据分组操做,在一个由(K,V)对组成的数据集上调用,返回一个(K,Seq[V])对的数据集。 val rdd0 = sc.parallelize(Array((1,1), (1,2) , (1,3) , (2,1) , (2,2) , (2,3)), 3) val rdd1 = rdd0.groupByKey() rdd1.co
相关文章
相关标签/搜索