更新时间:2017-06-07 13:26:11apache
本章节将介绍如何在 E-MapReduce 场景下设置 spark-submit 的参数。安全
E-MapReduce 产品版本 1.1.0并发
Hadoop 2.6.0app
Spark 1.6.0oop
Master 节点性能
8 核 16G 500G 高效云盘优化
1 台spa
Worker 节点 x 10 台线程
8 核 16G 500G 高效云盘3d
10 台
总资源:8 核 16G(Worker)x 10 + 8 核 16G(Master)
注意:因为做业提交的时候资源只计算 CPU 和内存,因此这里磁盘的大小并未计算到总资源中。
Yarn 可分配总资源:12 核 12.8G(worker)x 10
注意:默认状况下,yarn 可分配核 = 机器核 x 1.5,yarn 可分配内存 = 机器内存 x 0.8。
建立集群后,您能够提交做业。首先,您须要在 E-MapReduce 中建立一个做业,配置以下:
上图所示的做业,直接使用了 Spark 官方的 example 包,因此不须要本身上传 jar 包。
参数列表以下所示:
--class org.apache.spark.examples.SparkPi --master yarn --deploy-mode client --driver-memory 4g –num-executors 2 --executor-memory 2g --executor-cores 2 /opt/apps/spark-1.6.0-bin-hadoop2.6/lib/spark-examples*.jar 10
参数说明以下所示:
参数 | 参考值 | 说明 |
---|---|---|
class | org.apache.spark.examples.SparkPi | 做业的主类。 |
master | yarn | 由于 E-MapReduce 使用 Yarn 的模式,因此这里只能是 yarn 模式。 |
yarn-client | 等同于 –-master yarn —deploy-mode client, 此时不须要指定deploy-mode。 | |
yarn-cluster | 等同于 –-master yarn —deploy-mode cluster, 此时不须要指定deploy-mode。 | |
deploy-mode | client | client 模式表示做业的 AM 会放在 Master 节点上运行。要注意的是,若是设置这个参数,那么须要同时指定上面 master 为 yarn。 |
cluster | cluster 模式表示 AM 会随机的在 worker 节点中的任意一台上启动运行。要注意的是,若是设置这个参数,那么须要同时指定上面 master 为yarn。 | |
driver-memory | 4g | driver 使用的内存,不可超过单机的 core 总数。 |
num-executors | 2 | 建立多少个 executor。 |
executor-memory | 2g | 各个 executor 使用的最大内存,不可超过单机的最大可以使用内存。 |
executor-cores | 2 | 各个 executor 使用的并发线程数目,也即每一个 executor 最大可并发执行的 Task 数目。 |
在不一样模式、不一样的设置下运行时,做业使用的资源状况以下表所示:
节点 | 资源类型 | 资源量(结果使用上面的例子计算获得) |
---|---|---|
master | core | 1 |
mem | driver-memroy = 4G | |
worker | core | num-executors * executor-cores = 4 |
mem | num-executors * executor-memory = 4G |
做业主程序(Driver 程序)会在 master 节点上执行。按照做业配置将分配 4G(由 —driver-memroy 指定)的内存给它(固然实际上可能没有用到)。
会在 worker 节点上起 2 个(由 —num-executors 指定)executor,每个 executor 最大能分配 2G(由 —executor-memory 指定)的内存,并最大支持 2 个(由- -executor-cores 指定)task 的并发执行。
节点 | 资源类型 | 资源量(结果使用上面的例子计算获得) |
---|---|---|
master | 一个很小的 client 程序,负责同步 job 信息,占用很小。 | |
worker | core | num-executors * executor-cores+spark.driver.cores = 5 |
mem | num-executors * executor-memory + driver-memroy = 8g |
注意:这里的 spark.driver.cores 默认是 1,也能够设置为更多。
若您有了一个大做业,使用 yarn-client 模式,想要多用一些这个集群的资源,请参见以下配置:
注意:
--master yarn-client --driver-memory 5g –-num-executors 20 --executor-memory 4g --executor-cores 4
按照上述的资源计算公式,
master 的资源量为:
workers 的资源量为:
能够看到总的资源没有超过集群的总资源,那么遵循这个原则,您还能够有不少种配置,例如:
--master yarn-client --driver-memory 5g –num-executors 40 --executor-memory 1g --executor-cores 2
--master yarn-client --driver-memory 5g –num-executors 15 --executor-memory 4g --executor-cores 4
--master yarn-client --driver-memory 5g –num-executors 10 --executor-memory 9g --executor-cores 6
原则上,按照上述的公式计算出来的须要资源不超过集群的最大资源量就能够。但在实际场景中,由于系统,hdfs 以及 E-MapReduce 的服务会须要使用 core 和 mem 资源,若是把 core 和 mem 都占用完了,反而会致使性能的降低,甚至没法运行。
executor-cores 数通常也都会被设置成和集群的可以使用核一致,由于若是设置的太多,CPU 会频繁切换,性能并不会提升。
当使用 yarn-cluster 模式后,Driver 程序会被放到 worker 节点上。资源会占用到 worker 的资源池子里面,这时若想要多用一些这个集群的资源,请参加以下配置:
--master yarn-cluster --driver-memory 5g –num-executors 15 --executor-memory 4g --executor-cores 4
若是将内存设置的很大,要注意 gc 所产生的消耗。通常咱们会推荐一个 executor 的内存 <= 64G。
若是是进行 HDFS 读写的做业,建议是每一个 executor 中使用 <= 5个并发来读写。
若是是进行 OSS 读写的做业,咱们建议是将 executor 分布在不一样的 ECS 上,这样能够将每个 ECS 的带宽都用上。好比有 10 台 ECS,那么就能够配置 num-executors=10,并设置合理的内存和并发。
若是做业中使用了非线程安全的代码,那么在设置 executor-cores 的时候须要注意多并发是否会形成做业的不正常。若是会,那么推荐就设置 executor-cores=1。