Azure平台的spark默认是cluster模式。sql
AWS平台的spark默认是client模式。若是要改成cluster模式。方法1:创建集群的时候就修改成cluster。 方法2:加入参数"spark.submit.deployMode" : "cluster"性能
此外,SparkSQL的一些参数,提高性能仍是能够的 测试
"spark.submit.deployMode" : "cluster",
"spark.dynamicAllocation.enabled" : false,
"spark.yarn.maxAppAttempts" : 1,
"spark.sql.sources.parallelPartitionDiscovery.parallelism" : 28,
"spark.sql.files.maxPartitionBytes" : 1073741824,
"spark.sql.files.openCostInBytes" : 1048576,
"spark.sql.shuffle.partitions" : 28spa
"spark.dynamicAllocation.enabled" : false, 注(此参数分状况。yarn动态分配资源在任务使用资源,或资源不固定的状况下能够使用。可是在资源固定的状况下,本身手动指定资源分配比较合理).net
转载一篇文章,介绍spark参数的:Spark性能调优1-测试记录blog
https://blog.csdn.net/xwc35047/article/details/71038581资源