Azure和AWS的spark默认模式

Azure平台的spark默认是cluster模式。sql

AWS平台的spark默认是client模式。若是要改成cluster模式。方法1:创建集群的时候就修改成cluster。 方法2:加入参数"spark.submit.deployMode" : "cluster"性能

此外,SparkSQL的一些参数,提高性能仍是能够的     测试

     "spark.submit.deployMode" : "cluster",
      "spark.dynamicAllocation.enabled" : false,
      "spark.yarn.maxAppAttempts" : 1,
      "spark.sql.sources.parallelPartitionDiscovery.parallelism" : 28,
      "spark.sql.files.maxPartitionBytes" : 1073741824,
      "spark.sql.files.openCostInBytes" : 1048576,
      "spark.sql.shuffle.partitions" : 28spa

"spark.dynamicAllocation.enabled" : false, 注(此参数分状况。yarn动态分配资源在任务使用资源,或资源不固定的状况下能够使用。可是在资源固定的状况下,本身手动指定资源分配比较合理).net

转载一篇文章,介绍spark参数的:Spark性能调优1-测试记录blog

https://blog.csdn.net/xwc35047/article/details/71038581资源

相关文章
相关标签/搜索