spark中tasks数量的设置

spark中有partition的概念,每一个partition都会对应一个task,task越多,在处理大规模数据的时候,就会越有效率。不过task并非越多越好,若是平时测试,或者数据量没有那么大,则没有必要task数量太多。 个人第一个query程序,有200个task,我改为了50个,节约了1s左右。 参数能够经过spark_home/conf/spark-default.conf配置文件设
相关文章
相关标签/搜索