spark.sql.shuffle.partitions 和 spark.default.parallelism 的区别

spark.default.parallelism只有在处理RDD时才会起作用,对Spark SQL的无效。 spark.sql.shuffle.partitions则是对sparks SQL专用的设置 方案实现思路:在对RDD执行shuffle算子时,给shuffle算子传入一个参数,比如reduceByKey(1000),该参数就设置了这个shuffle算子执行时shuffle read ta
相关文章
相关标签/搜索