spark-submit配置说明

《Spark 官方文档》Spark配置

spark-1.6.0 原文地址html

Spark配置

Spark有如下三种方式修改配置:java

  • Spark properties (Spark属性)能够控制绝大多数应用程序参数,并且既能够经过 SparkConf 对象来设置,也能够经过Java系统属性来设置。
  • Environment variables (环境变量)能够指定一些各个机器相关的设置,如IP地址,其设置方法是写在每台机器上的conf/spark-env.sh中。
  • Logging (日志)能够经过log4j.properties配置日志。

 

Spark属性

Spark属性能够控制大多数的应用程序设置,而且每一个应用的设定都是分开的。这些属性能够用SparkConf 对象直接设定。SparkConf为一些经常使用的属性定制了专用方法(如,master URL和application name),其余属性均可以用键值对作参数,调用set()方法来设置。例如,咱们能够初始化一个包含2个本地线程的Spark应用,代码以下:node

注意,local[2]表明2个本地线程 – 这是最小的并发方式,能够帮助咱们发现一些只有在分布式上下文才能复现的bug。python

val conf = new SparkConf()
             .setMaster("local[2]")
             .setAppName("CountingSheep")
val sc = new SparkContext(conf)

注意,本地模式下,咱们可使用n个线程(n >= 1)。并且在像Spark Streaming这样的场景下,咱们可能须要多个线程来防止相似线程饿死这样的问题。mysql

配置时间段的属性应该写明时间单位,以下格式都是可接受的:web

25ms (milliseconds)
5s (seconds)
10m or 10min (minutes)
3h (hours)
5d (days)
1y (years)

配置大小的属性也应该写明单位,以下格式都是可接受的:算法

1b (bytes)
1k or 1kb (kibibytes = 1024 bytes)
1m or 1mb (mebibytes = 1024 kibibytes)
1g or 1gb (gibibytes = 1024 mebibytes)
1t or 1tb (tebibytes = 1024 gibibytes)
1p or 1pb (pebibytes = 1024 tebibytes)

动态加载Spark属性

在某些场景下,你可能须要避免将属性值写死在 SparkConf 中。例如,你可能但愿在同一个应用上使用不一样的master或不一样的内存总量。Spark容许你简单地建立一个空的SparkConf对象:sql

val sc = new SparkContext(new SparkConf())

而后在运行时设置这些属性:shell

./bin/spark-submit --name "My app" --master local[4] --conf spark.eventLog.enabled=false
  --conf "spark.executor.extraJavaOptions=-XX:+PrintGCDetails -XX:+PrintGCTimeStamps" myApp.jar

Spark shell和spark-submit工具支持两种动态加载配置的方法。第一种,经过命令行选项,如:上面提到的–master(设置master URL)。spark-submit能够在启动Spark应用时,经过–conf标志接受任何属性配置,同时有一些特殊配置参数一样可用(如,–master)。运行./bin/spark-submit –help能够展现这些选项的完整列表。apache

同时,bin/spark-submit 也支持从conf/spark-defaults.conf 中读取配置选项,在该文件中每行是一个键值对,并用空格分隔,以下:

spark.master            spark://5.6.7.8:7077
spark.executor.memory   4g
spark.eventLog.enabled  true
spark.serializer        org.apache.spark.serializer.KryoSerializer

这些经过参数或者属性配置文件传递的属性,最终都会在SparkConf 中合并。其优先级是:首先是SparkConf代码中写的属性值,其次是spark-submit或spark-shell的标志参数,最后是spark-defaults.conf文件中的属性。

有一些配置项被重命名过,这种情形下,老的名字仍然是能够接受的,只是优先级比新名字优先级低。

查看Spark属性

每一个SparkContext都有其对应的Spark UI,因此Spark应用程序都能经过Spark UI查看其属性。默认你能够在这里看到:http://<driver>:4040,页面上的”Environment“ tab页能够查看Spark属性。若是你真的想确认一下属性设置是否正确的话,这个功能就很是有用了。注意,只有显式地经过SparkConf对象、在命令行参数、或者spark-defaults.conf设置的参数才会出如今页面上。其余属性,你能够认为都是默认值。

可用的属性

绝大多数属性都有合理的默认值。这里是部分经常使用的选项:

应用属性

属性名称 默认值 含义
spark.app.name (none) Spark应用的名字。会在SparkUI和日志中出现。
spark.driver.cores 1 在cluster模式下,用几个core运行驱动器(driver)进程。
spark.driver.maxResultSize 1g Spark action算子返回的结果最大多大。至少要1M,能够设为0表示无限制。若是结果超过这一大小,Spark做业(job)会直接中断退出。可是,设得太高有可能致使驱动器OOM(out-of-memory)(取决于spark.driver.memory设置,以及驱动器JVM的内存限制)。设一个合理的值,以免驱动器OOM。
spark.driver.memory 1g 驱动器进程能够用的内存总量(如:1g,2g)。
注意,在客户端模式下,这个配置不能在SparkConf中直接设置(由于驱动器JVM都启动完了呀!)。驱动器客户端模式下,必需要在命令行里用 –driver-memory 或者在默认属性配置文件里设置。
spark.executor.memory 1g 单个执行器(executor)使用的内存总量(如,2g,8g)
spark.extraListeners (none) 逗号分隔的SparkListener子类的类名列表;初始化SparkContext时,这些类的实例会被建立出来,而且注册到Spark的监听总线上。若是这些类有一个接受SparkConf做为惟一参数的构造函数,那么这个构造函数会被优先调用;不然,就调用无参数的默认构造函数。若是没有构造函数,SparkContext建立的时候会抛异常。
spark.local.dir /tmp Spark的”草稿“目录,包括map输出的临时文件,或者RDD存在磁盘上的数据。这个目录最好在本地文件系统中,这样读写速度快。这个配置能够接受一个逗号分隔的列表,一般用这种方式将文件IO分散不一样的磁盘上去。
注意:Spark-1.0及之后版本中,这个属性会被集群管理器所提供的环境变量覆盖:SPARK_LOCAL_DIRS(独立部署或Mesos)或者 LOCAL_DIRS(YARN)。
spark.logConf false SparkContext启动时是否把生效的 SparkConf 属性以INFO日志打印到日志里
spark.master (none) 集群管理器URL。参考allowed master URL’s.

除了这些之外,如下还有不少可用的参数配置,在某些特定情形下,可能会用到:

运行时环境

属性名 默认值 含义
spark.driver.extraClassPath (none) 额外的classpath,将插入到到驱动器的classpath开头。
注意:驱动器若是运行客户端模式下,这个配置不能经过SparkConf 在程序里配置,由于这时候程序已经启动呀!而是应该用命令行参数(–driver-class-path)或者在 conf/spark-defaults.conf 配置。
spark.driver.extraJavaOptions (none) 驱动器额外的JVM选项。如:GC设置或其余日志参数。
注意:驱动器若是运行客户端模式下,这个配置不能经过SparkConf在程序里配置,由于这时候程序已经启动呀!而是应该用命令行参数(–driver-java-options)或者conf/spark-defaults.conf 配置。
spark.driver.extraLibraryPath (none) 启动驱动器JVM时候指定的依赖库路径。
注意:驱动器若是运行客户端模式下,这个配置不能经过SparkConf在程序里配置,由于这时候程序已经启动呀!而是应该用命令行参数(–driver-library-path)或者conf/spark-defaults.conf 配置。
spark.driver.userClassPathFirst false (试验性的:即将来不必定会支持该配置) 驱动器是否首选使用用户指定的jars,而不是spark自身的。这个特性能够用来处理用户依赖和spark自己依赖项之间的冲突。目前仍是试验性的,而且只能用在集群模式下。
spark.executor.extraClassPath (none) 添加到执行器(executor)classpath开头的classpath。主要为了向后兼容老的spark版本,不推荐使用。
spark.executor.extraJavaOptions (none) 传给执行器的额外JVM参数。如:GC设置或其余日志设置等。注意,不能用这个来设置Spark属性或者堆内存大小。Spark属性应该用SparkConf对象,或者spark-defaults.conf文件(会在spark-submit脚本中使用)来配置。执行器堆内存大小应该用 spark.executor.memory配置。
spark.executor.extraLibraryPath (none) 启动执行器JVM时使用的额外依赖库路径。
spark.executor.logs.rolling.maxRetainedFiles (none) Sets the number of latest rolling log files that are going to be retained by the system. Older log files will be deleted. Disabled by default.设置日志文件最大保留个数。老日志文件将被干掉。默认禁用的。
spark.executor.logs.rolling.maxSize (none) 设置执行器日志文件大小上限。默认禁用的。
须要自动删日志请参考 spark.executor.logs.rolling.maxRetainedFiles.
spark.executor.logs.rolling.strategy (none) 执行器日志滚动策略。默认禁用。
可接受的值有”time”(基于时间滚动) 或者 “size”(基于文件大小滚动)。
time:将使用 spark.executor.logs.rolling.time.interval设置滚动时间间隔
size:将使用 spark.executor.logs.rolling.size.maxBytes设置文件大小上限
spark.executor.logs.rolling.time.interval daily 设置执行器日志滚动时间间隔。日志滚动默认是禁用的。
可用的值有 “daily”, “hourly”, “minutely”,也可设为数字(则单位为秒)。
关于日志自动清理,请参考 spark.executor.logs.rolling.maxRetainedFiles
spark.executor.userClassPathFirst false (试验性的)与 spark.driver.userClassPathFirst相似,只不过这个参数将应用于执行器
spark.executorEnv.[EnvironmentVariableName] (none) 向执行器进程增长名为EnvironmentVariableName的环境变量。用户能够指定多个来设置不一样的环境变量。
spark.python.profile false 对Python worker启用性能分析,性能分析结果会在sc.show_profile()中,或者在驱动器退出前展现。也能够用sc.dump_profiles(path)输出到磁盘上。若是部分分析结果被手动展现过,那么驱动器退出前就再也不自动展现了。默认会使用pyspark.profiler.BasicProfiler,也能够本身传一个profiler 类参数给SparkContext构造函数。
spark.python.profile.dump (none) 这个目录是用来在驱动器退出前,dump性能分析结果。性能分析结果会按RDD分别dump。同时可使用ptats.Stats()来装载。若是制定了这个,那么分析结果就再也不自动展现。
spark.python.worker.memory 512m 聚合时每一个python worker使用的内存总量,和JVM的内存字符串格式相同(如,512m,2g)。若是聚合时使用的内存超过这个量,就将数据溢出到磁盘上。
spark.python.worker.reuse true 是否复用Python worker。若是是,则每一个任务会启动固定数量的Python worker,而且不须要fork() python进程。若是须要广播的数据量很大,设为true能大大减小广播数据量,由于须要广播的进程数减小了。

混洗行为

属性名 默认值 含义
spark.reducer.maxSizeInFlight 48m map任务输出同时reduce任务获取的最大内存占用量。每一个输出须要建立buffer来接收,对于每一个reduce任务来讲,有一个固定的内存开销上限,因此最好别设太大,除非你内存很是大。
spark.shuffle.compress true 是否压缩map任务的输出文件。一般来讲,压缩是个好主意。使用的压缩算法取决于 spark.io.compression.codec
spark.shuffle.file.buffer 32k 每一个混洗输出流的内存buffer大小。这个buffer能减小混洗文件的建立和磁盘寻址。
spark.shuffle.io.maxRetries 3 (仅对netty)若是IO相关异常发生,重试次数(若是设为非0的话)。重试能是大量数据的混洗操做更加稳定,由于重试能够有效应对长GC暂停或者网络闪断。
spark.shuffle.io.numConnectionsPerPeer 1 (仅netty)主机之间的链接是复用的,这样能够减小大集群中重复创建链接的次数。然而,有些集群是机器少,磁盘多,这种集群能够考虑增长这个参数值,以便充分利用全部磁盘并发性能。
spark.shuffle.io.preferDirectBufs true (仅netty)堆外缓存能够有效减小垃圾回收和缓存复制。对于堆外内存紧张的用户来讲,能够考虑禁用这个选项,以迫使netty全部内存都分配在堆上。
spark.shuffle.io.retryWait 5s (仅netty)混洗重试获取数据的间隔时间。默认最大重试延迟是15秒,设置这个参数后,将变成maxRetries* retryWait。
spark.shuffle.manager sort 混洗数据的实现方式。可用的有”sort”和”hash“。基于排序(sort)的混洗内存利用率更高,而且从1.2开始已是默认值了。
spark.shuffle.service.enabled false 启用外部混洗服务。启用外部混洗服务后,执行器生成的混洗中间文件就由该服务保留,这样执行器就能够安全的退出了。若是 spark.dynamicAllocation.enabled启用了,那么这个参数也必须启用,这样动态分配才能有外部混洗服务可用。
更多请参考:dynamic allocation configuration and setup documentation
spark.shuffle.service.port 7337 外部混洗服务对应端口
spark.shuffle.sort.bypassMergeThreshold 200 (高级)在基于排序(sort)的混洗管理器中,若是没有map端聚合的话,就会最多存在这么多个reduce分区。
spark.shuffle.spill.compress true 是否在混洗阶段压缩溢出到磁盘的数据。压缩算法取决于spark.io.compression.codec

Spark UI

属性名 默认值 含义
spark.eventLog.compress false 是否压缩事件日志(固然spark.eventLog.enabled必须开启)
spark.eventLog.dir file:///tmp/spark-events Spark events日志的基础目录(固然spark.eventLog.enabled必须开启)。在这个目录中,spark会给每一个应用建立一个单独的子目录,而后把应用的events log打到子目录里。用户能够设置一个统一的位置(好比一个HDFS目录),这样history server就能够从这里读取历史文件。
spark.eventLog.enabled false 是否启用Spark事件日志。若是Spark应用结束后,仍须要在SparkUI上查看其状态,必须启用这个。
spark.ui.killEnabled true 容许从SparkUI上杀掉stage以及对应的做业(job)
spark.ui.port 4040 SparkUI端口,展现应用程序运行状态。
spark.ui.retainedJobs 1000 SparkUI和status API最多保留多少个spark做业的数据(固然是在垃圾回收以前)
spark.ui.retainedStages 1000 SparkUI和status API最多保留多少个spark步骤(stage)的数据(固然是在垃圾回收以前)
spark.worker.ui.retainedExecutors 1000 SparkUI和status API最多保留多少个已结束的执行器(executor)的数据(固然是在垃圾回收以前)
spark.worker.ui.retainedDrivers 1000 SparkUI和status API最多保留多少个已结束的驱动器(driver)的数据(固然是在垃圾回收以前)
spark.sql.ui.retainedExecutions 1000 SparkUI和status API最多保留多少个已结束的执行计划(execution)的数据(固然是在垃圾回收以前)
spark.streaming.ui.retainedBatches 1000 SparkUI和status API最多保留多少个已结束的批量(batch)的数据(固然是在垃圾回收以前)

压缩和序列化

属性名 默认值 含义
spark.broadcast.compress true 是否在广播变量前使用压缩。一般是个好主意。
spark.closure.serializer org.apache.spark.serializer.
JavaSerializer
闭包所使用的序列化类。目前只支持Java序列化。
spark.io.compression.codec snappy 内部数据使用的压缩算法,如:RDD分区、广播变量、混洗输出。Spark提供了3中算法:lz4,lzf,snappy。你也可使用全名来指定压缩算法:org.apache.spark.io.LZ4CompressionCodec,
org.apache.spark.io.LZFCompressionCodec,
org.apache.spark.io.SnappyCompressionCodec.
spark.io.compression.lz4.blockSize 32k LZ4算法使用的块大小。固然你须要先使用LZ4压缩。减小块大小能够减小混洗时LZ4算法占用的内存量。
spark.io.compression.snappy.blockSize 32k Snappy算法使用的块大小(先得使用Snappy算法)。减小块大小能够减小混洗时Snappy算法占用的内存量。
spark.kryo.classesToRegister (none) 若是你使用Kryo序列化,最好指定这个以提升性能(tuning guide)。
本参数接受一个逗号分隔的类名列表,这些类都会注册为Kryo可序列化类型。
spark.kryo.referenceTracking true (false when using Spark SQL Thrift Server) 是否跟踪同一对象在Kryo序列化的引用。若是你的对象图中有循环护着包含统一对象的多份拷贝,那么最好启用这个。若是没有这种状况,那就禁用以提升性能。
spark.kryo.registrationRequired false Kryo序列化时,是否必须事先注册。若是设为true,那么Kryo遇到没有注册过的类型,就会抛异常。若是设为false(默认)Kryo会序列化未注册类型的对象,但会有比较明显的性能影响,因此启用这个选项,能够强制必须在序列化前,注册可序列化类型。
spark.kryo.registrator (none) 若是你使用Kryo序列化,用这个class来注册你的自定义类型。若是你须要自定义注册方式,这个参数颇有用。不然,使用 spark.kryo.classesRegister更简单。要设置这个参数,须要用KryoRegistrator的子类。详见:tuning guide 。
spark.kryoserializer.buffer.max 64m 最大容许的Kryo序列化buffer。必须必你所须要序列化的对象要大。若是你在Kryo中看到”buffer limit exceeded”这个异常,你就得增长这个值了。
spark.kryoserializer.buffer 64k Kryo序列化的初始buffer大小。注意,每台worker上对应每一个core会有一个buffer。buffer最大增加到 spark.kryoserializer.buffer.max
spark.rdd.compress false 是否压缩序列化后RDD的分区(如:StorageLevel.MEMORY_ONLY_SER)。能节省大量空间,但多消耗一些CPU。
spark.serializer org.apache.spark.serializer.
JavaSerializer (org.apache.spark.serializer.
KryoSerializer when using Spark SQL Thrift Server)
用于序列化对象的类,序列化后的数据将经过网络传输,或从缓存中反序列化回来。默认的Java序列化使用java的Serializable接口,但速度较慢,因此咱们建议使用usingorg.apache.spark.serializer.KryoSerializer and configuring Kryo serialization若是速度须要保证的话。固然你能够自定义一个序列化器,经过继承org.apache.spark.Serializer.
spark.serializer.objectStreamReset 100 若是使用org.apache.spark.serializer.JavaSerializer作序列化器,序列化器缓存这些对象,以免输出多余数据,然而,这个会打断垃圾回收。经过调用reset来flush序列化器,从而使老对象被回收。要禁用这一周期性reset,须要把这个参数设为-1,。默认状况下,序列化器会每过100个对象,被reset一次。

内存管理

属性名 默认值 含义
spark.memory.fraction 0.75 堆内存中用于执行、混洗和存储(缓存)的比例。这个值越低,则执行中溢出到磁盘越频繁,同时缓存被逐出内存也更频繁。这个配置的目的,是为了留出用户自定义数据结构、内部元数据使用的内存。推荐使用默认值。请参考this description.
spark.memory.storageFraction 0.5 不会被逐出内存的总量,表示一个相对于 spark.memory.fraction的比例。这个越高,那么执行混洗等操做用的内存就越少,从而溢出磁盘就越频繁。推荐使用默认值。更详细请参考 this description.
spark.memory.offHeap.enabled true 若是true,Spark会尝试使用堆外内存。启用 后,spark.memory.offHeap.size必须为正数。
spark.memory.offHeap.size 0 堆外内存分配的大小(绝对值)。这个设置不会影响堆内存的使用,因此你的执行器总内存必须适应JVM的堆内存大小。必需要设为正数。而且前提是 spark.memory.offHeap.enabled=true.
spark.memory.useLegacyMode false 是否使用老式的内存管理模式(1.5以及以前)。老模式在堆内存管理上更死板,使用固定划分的区域作不一样功能,潜在的会致使过多的数据溢出到磁盘(若是不当心调整性能)。必须启用本参数,如下选项才可用:
spark.shuffle.memoryFraction
spark.storage.memoryFraction
spark.storage.unrollFraction
spark.shuffle.memoryFraction 0.2 (废弃)必须先启用spark.memory.useLegacyMode这个才有用。
混洗阶段用于聚合和协同分组的JVM堆内存比例。在任何指定的时间,全部用于混洗的内存总和不会超过这个上限,超出的部分会溢出到磁盘上。若是溢出台频繁,考虑增长spark.storage.memoryFraction的大小。
spark.storage.memoryFraction 0.6 (废弃)必须先启用spark.memory.useLegacyMode这个才有用。
Spark用于缓存数据的对内存比例。这个值不该该比JVM 老生代(old generation)对象所占用的内存大,默认是60%的堆内存,固然你能够增长这个值,同时配置你所用的老生代对象占用内存大小。
spark.storage.unrollFraction 0.2 (废弃)必须先启用spark.memory.useLegacyMode这个才有用。
Spark块展开的内存占用比例。若是没有足够的内存来完整展开新的块,那么老的块将被抛弃。

执行行为

属性名 默认值 含义
spark.broadcast.blockSize 4m TorrentBroadcastFactory每一个分片大小。太大会减小广播时候的并发数(更慢了);若是过小,BlockManager可能会给出性能提示。
spark.broadcast.factory org.apache.spark.broadcast.
TorrentBroadcastFactory
广播算法的实现。
spark.cleaner.ttl (infinite) Spark记住任意元数据的保留时间(秒)。周期性的清理能保证比这个更老的元数据将被遗忘(删除)。这对于长期运行的Spark做业很是有用(如,一些7*24运行)。注意,RDD持久化到内存中后,过了这么长时间之后,也会被清理掉(这。。。是否是有点坑!)。
spark.executor.cores YARN模式下默认1;若是是独立部署,则是worker节点上全部可用的core。 单个执行器可用的core数。仅针对YARN和独立部署模式。独立部署时,单个worker节点上会运行多个执行器(executor),只要worker上有足够的core。不然,每一个应用在单个worker上只会启动一个执行器。
spark.default.parallelism 对于reduceByKey和join这样的分布式混洗(shuffle)算子,等于父RDD中最大的分区。对于parallelize这样没有父RDD的算子,则取决于集群管理器:

 

  • Local mode: number of cores on the local machine — 本地模式:机器的core数
  • Mesos fine grained mode: 8 — Mesos细粒度模式:8
  • Others: total number of cores on all executor nodes or 2, whichever is larger — 其余:全部执行器节点上core的数量 或者 2,这两数取较大的
 
若是用户没有在参数里指定,这个属性是默认的RDD transformation算子分区数,如:join,reduceByKey,parallelize等。
spark.executor.heartbeatInterval 10s 执行器心跳间隔(报告心跳给驱动器)。心跳机制使驱动器了解哪些执行器还活着,而且能够从心跳数据中得到执行器的度量数据。
spark.files.fetchTimeout 60s 获取文件的通信超时,所获取的文件是经过在驱动器上调用SparkContext.addFile()添加的。
spark.files.useFetchCache true 若是设为true(默认),则同一个spark应用的不一样执行器之间,会使用一二共享缓存来拉取文件,这样能够提高同一主机上运行多个执行器时候,任务启动的性能。若是设为false,这个优化就被禁用,各个执行器将使用本身独有的缓存,他们拉取的文件也是各自有一份拷贝。若是在NFS文件系统上使用本地文件系统,能够禁用掉这个优化(参考SPARK-6313
spark.files.overwrite false SparkContext.addFile()添加的文件已经存在,且内容不匹配的状况下,是否覆盖。
spark.hadoop.cloneConf false 如设为true,对每一个任务复制一份Hadoop Configuration对象。启用这个能够绕过Configuration线程安全问题(SPARK-2546 )。默认这个是禁用的,不少job并不会受这个issue的影响。
spark.hadoop.validateOutputSpecs true 如设为true,在saveAsHadoopFile及其变体的时候,将会验证输出(例如,检查输出目录是否存在)。对于已经验证过或确认存在输出目录的状况,能够禁用这个。咱们建议不要禁用,除非你肯定须要和以前的spark版本兼容。能够简单的利用Hadoop 文件系统API手动删掉已存在的输出目录。这个设置会被Spark Streaming StreamingContext生成的job忽略,由于Streaming须要在回复检查点的时候,覆盖已有的输出目录。
spark.storage.memoryMapThreshold 2m spark从磁盘上读取一个块后,映射到内存块的最小大小。这阻止了spark映射太小的内存块。一般,内存映射块是有开销的,应该比接近或小于操做系统的页大小。
spark.externalBlockStore.blockManager org.apache.spark.storage.TachyonBlockManager 用于存储RDD的外部块管理器(文件系统)的实现。
文件系统URL由spark.externalBlockStore.url决定。
spark.externalBlockStore.baseDir System.getProperty(“java.io.tmpdir”) 外部块存储存放RDD的目录。文件系统URL由spark.externalBlockStore.url决定。也能够是逗号分隔的目录列表(Tachyon文件系统)
spark.externalBlockStore.url tachyon://localhost:19998 for Tachyon 所使用的外部块存储文件系统URL。

网络

属性名 默认值 含义
spark.akka.frameSize 128 “control plane” 通信中所容许的最大消息大小(MB)。一般,只应用于map输出数据的大小信息,这些信息会在执行器和驱动器之间传递。若是你的job包含几千个map和reduce任务,你可能须要增大这个设置。
spark.akka.heartbeat.interval 1000s 设这么大的值,是为了禁用Akka传输失败检测器。也能够从新启用,若是你想用这个特性(但不建议)。设成较大的值能够减小网络开销,而较小的值(1秒左右)可能会对Akka的失败检测更有用。若有须要,能够调整这个值和spark.akka.heartbeat.pauses的组合。一种可能须要使用失败检测的情形是:用一个敏感的失败检测,能够快速识别并逐出不稳定的执行器。然而,在真实的spark集群中,这一般不是GC暂停或网络延迟形成的。除此以外,启用这个还会致使过多的心跳数据交换,从而形成网络洪峰。
spark.akka.heartbeat.pauses 6000s 设这么大的值,是为了禁用Akka传输失败检测器。也能够从新启用,若是你想用这个特性(但不建议)。这个是可接受的Akka心跳暂停时间。这个能够用来控制对GC暂停敏感程度。若有须要,能够调整这个值和spark.akka.heartbeat.interval的组合。
spark.akka.threads 4 用于通信的actor线程数。若是驱动器机器上有不少CPU core,你能够适当增大这个值。
spark.akka.timeout 100s Spark节点之间通信超时。
spark.blockManager.port (random) 块管理器(block manager)监听端口。在驱动器和执行器上都有。
spark.broadcast.port (random) 驱动器HTTP广播server监听端口。这和torrent广播没有关系。
spark.driver.host (local hostname) 驱动器主机名。用于和执行器以及独立部署时集群master通信。
spark.driver.port (random) 驱动器端口。用于和执行器以及独立部署时集群master通信。
spark.executor.port (random) 执行器端口。用于和驱动器通信。
spark.fileserver.port (random) 驱动器HTTP文件server监听端口。
spark.network.timeout 120s 全部网络交互的默认超时。这个配置是如下属性的默认值:
spark.core.connection.ack.wait.timeout,
spark.akka.timeout,
spark.storage.blockManagerSlaveTimeoutMs,
spark.shuffle.io.connectionTimeout,spark.rpc.askTimeout or
spark.rpc.lookupTimeout
spark.port.maxRetries 16 绑定一个端口的最大重试次数。若是指定了一个端口(非0),每一个后续重试会在以前尝试的端口基础上加1,而后再重试绑定。本质上,这肯定了一个绑定端口的范围,就是 [start port, start port + maxRetries]
spark.replClassServer.port (random) 驱动器HTTP class server的监听端口。只和spark shell相关。
spark.rpc.numRetries 3 RPC任务最大重试次数。RPC任务最多重试这么屡次。
spark.rpc.retry.wait 3s RPC请求操做重试前等待时间。
spark.rpc.askTimeout 120s RPC请求操做超时等待时间。
spark.rpc.lookupTimeout 120s RPC远程端点查询超时。

调度

属性名 默认值 含义
spark.cores.max (not set) 若是运行在独立部署集群模式(standalone deploy cluster)或者Mesos集群粗粒度共享模式(Mesos cluster in “coarse-grained” sharing mode),这个值决定了spark应用可使用的最大CPU总数(应用在整个集群中可用CPU总数,而不是单个机器)。若是不设置,那么独立部署时默认为spark.deploy.defaultCores,Mesos集群则默认无限制(即全部可用的CPU)。
spark.locality.wait 3s 为了数据本地性最长等待时间(spark会根据数据所在位置,尽可能让任务也启动于相同的节点,然而可能由于该节点上资源不足等缘由,没法知足这个任务分配,spark最多等待这么多时间,而后放弃数据本地性)。数据本地性有多个级别,每一级别都是等待这么多时间(同一进程、同一节点、同一机架、任意)。你也能够为每一个级别定义不一样的等待时间,须要设置spark.locality.wait.node等。若是你发现任务数据本地性不佳,能够增长这个值,但一般默认值是ok的。
spark.locality.wait.node spark.locality.wait 单独定义同一节点数据本地性任务等待时间。你能够设为0,表示忽略节点本地性,直接跳到下一级别,即机架本地性(若是你的集群有机架信息)。
spark.locality.wait.process spark.locality.wait 单独定义同一进程数据本地性任务等待时间。这个参数影响试图访问特定执行器上的缓存数据的任务。
spark.locality.wait.rack spark.locality.wait 单独定义同一机架数据本地性等待时间。
spark.scheduler.maxRegisteredResourcesWaitingTime 30s 调度开始前,向集群管理器注册使用资源的最大等待时间。
spark.scheduler.minRegisteredResourcesRatio 0.8 for YARN mode;
0.0 for standalone mode and Mesos coarse-grained mode
调度启动前,须要注册获得资源的最小比例(注册到的资源数 / 须要资源总数)(YARN模式下,资源是执行器;独立部署和Mesos粗粒度模式下时资源是CPU core【spark.cores.max是指望获得的资源总数】)。能够设为0.0~1.0的一个浮点数。无论job是否获得了最小资源比例,最大等待时间都是由spark.scheduler.maxRegisteredResourcesWaitingTime控制的。
spark.scheduler.mode FIFO 提交到同一个SparkContext上job的调度模式(scheduling mode)。另外一个可接受的值是FAIR,而FIFO只是简单的把job按先来后到排队。对于多用户服务颇有用。
spark.scheduler.revive.interval 1s 调度器复活worker的间隔时间。
spark.speculation false 若是设为true,将会启动推测执行任务。这意味着,若是stage中有任务执行较慢,他们会被从新调度到别的节点上执行。
spark.speculation.interval 100ms Spark检查慢任务的时间间隔。
spark.speculation.multiplier 1.5 比任务平均执行时间慢多少倍的任务会被认为是慢任务。
spark.speculation.quantile 0.75 对于一个stage来讲,完成多少百分比才开始检查慢任务,并启动推测执行任务。
spark.task.cpus 1 每一个任务分配的CPU core。
spark.task.maxFailures 4 单个任务最大失败次数。应该>=1。最大重试次数 = spark.task.maxFailures – 1

动态分配

属性名 默认值 含义
spark.dynamicAllocation.enabled false 是否启用动态资源分配特性,启用后,执行器的个数会根据工做负载动态的调整(增长或减小)。注意,目前在YARN模式下不用。更详细信息,请参考:here该特性依赖于 spark.shuffle.service.enabled 的启用。同时还和如下配置相关:spark.dynamicAllocation.minExecutors, spark.dynamicAllocation.maxExecutors以及 spark.dynamicAllocation.initialExecutors
spark.dynamicAllocation
.executorIdleTimeout
60s 动态分配特性启用后,空闲时间超过该配置时间的执行器都会被移除。更详细请参考这里:description
spark.dynamicAllocation.cachedExecutorIdleTimeout infinity 动态分配特性启用后,包含缓存数据的执行器若是空闲时间超过该配置设置的时间,则被移除。更详细请参考:description
spark.dynamicAllocation.initialExecutors spark
.dynamicAllocation
.minExecutors
动态分配开启后,执行器的初始个数
spark.dynamicAllocation.maxExecutors infinity 动态分配开启后,执行器个数的上限
spark.dynamicAllocation.minExecutors 0 动态分配开启后,执行器个数的下限
spark.dynamicAllocation.schedulerBacklogTimeout 1s 动态分配启用后,若是有任务积压的持续时间长于该配置设置的时间,则申请新的执行器。更详细请参考:description
spark.dynamicAllocation.sustainedSchedulerBacklogTimeout schedulerBacklogTimeout 和spark.dynamicAllocation.schedulerBacklogTimeout相似,只不过该配置对应于随后持续的执行器申请。更详细请参考: description

安全

属性名 默认值 含义
spark.acls.enable false 是否启用Spark acls(访问控制列表)。若是启用,那么将会检查用户是否有权限查看或修改某个做业(job)。注意,检查的前提是须要知道用户是谁,因此若是用户是null,则不会作任何检查。你能够在Spark UI上设置过滤器(Filters)来作用户认证,并设置用户名。
spark.admin.acls Empty 逗号分隔的用户列表,在该列表中的用户/管理员将可以访问和修改全部的Spark做业(job)。若是你的集群是共享的,而且有集群管理员,还有须要调试的开发人员,那么这个配置会颇有用。若是想让全部人都有管理员权限,只需把该配置设置为”*”
spark.authenticate false 设置Spark是否定证集群内部链接。若是不是在YARN上运行,请参考 spark.authenticate.secret
spark.authenticate.secret None 设置Spark用于内部组件认证的秘钥。若是不是在YARN上运行,且启用了 spark.authenticate,那么该配置必须设置
spark.authenticate.enableSaslEncryption false 是否对Spark内部组件认证使用加密通讯。该配置目前只有 block transfer service 使用。
spark.network.sasl.serverAlwaysEncrypt false 是否对支持SASL认证的service禁用非加密通讯。该配置目前只有 external shuffle service 支持。
spark.core.connection.ack.wait.timeout 60s 网络链接等待应答信号的超时时间。为了不因为GC等致使的意外超时,你能够设置一个较大的值。
spark.core.connection.auth.wait.timeout 30s 网络链接等待认证的超时时间。
spark.modify.acls Empty 逗号分隔的用户列表,在改列表中的用户能够修改Spark做业。默认状况下,只有启动该Spark做业的用户能够修改之(好比杀死该做业)。若是想要任何用户均可以修改做业,请将该配置设置为”*”
spark.ui.filters None 逗号分隔的过滤器class列表,这些过滤器将用于Spark web UI。这里的过滤器应该是一个标准的 javax servlet Filter 。每一个过滤器的参数能够经过java系统属性来设置,以下:
spark.<class name of filer>.params=’param1=value1,param2=value2’例如:
-Dspark.ui.filters=com.test.filter1
-Dspark.com.test.filter1.params=’param1=foo,param2=testing’
spark.ui.view.acls Empty 逗号分隔的用户列表,在该列表中的用户能够查看Spark web UI。默认,只有启动该Spark做业的用户能够查看之。若是须要让全部用户都能查看,只需将该配置设为”*”

加密

属性名 默认值 含义
spark.ssl.enabled false 是否启用SSL链接(在全部所支持的协议上)。全部SSL相关配置(spark.ssl.xxx,其中xxx是一个特定的配置属性),都是全局的。若是须要在某些协议上覆盖全局设置,那么须要在该协议命名空间上进行单独配置。使用 spark.ssl.YYY.XXX 来为协议YYY覆盖全局配置XXX。目前YYY的可选值有 akka(用于基于AKKA框架的网络链接) 和 fs(用于应广播和文件服务器)
spark.ssl.enabledAlgorithms Empty 逗号分隔的加密算法列表。这些加密算法必须是JVM所支持的。这里有个可用加密算法参考列表: this
spark.ssl.keyPassword None 在key-store中私匙对应的密码。
spark.ssl.keyStore None key-store文件路径。能够是绝对路径,或者以本组件启动的工做目录为基础的相对路径。
spark.ssl.keyStorePassword None key-store的密码。
spark.ssl.protocol None 协议名称。该协议必须是JVM所支持的。这里有JVM支持的协议参考列表:this
spark.ssl.trustStore None trust-store文件路径。能够是绝对路径,或者以本组件启动的工做目录为基础的相对路径。
spark.ssl.trustStorePassword None trust-store的密码

Spark Streaming [流式]

属性名 默认值 含义
spark.streaming.backpressure.enabled false 是否启用Spark Streaming 的内部反压机制(spark 1.5以上支持)。启用后,Spark Streaming会根据当前批次的调度延迟和处理时长来控制接收速率,这样一来,系统的接收速度会和处理速度相匹配。该特性会在内部动态地设置接收速率。该速率的上限将由 spark.streaming.receiver.maxRate 和 spark.streaming.kafka.maxRatePerPartition 决定(若是它们设置了的话)。
spark.streaming.blockInterval 200ms 在将数据保存到Spark以前,Spark Streaming接收器组装数据块的时间间隔。建议很多于50ms。关于Spark Streaming编程指南细节,请参考 performance tuning 这一节。
spark.streaming.receiver.maxRate not set 接收速度的最大速率(每秒记录条数)。实际上,每一个流每秒将消费这么多条记录。设置为0或者负数表示不限制速率。更多细节请参考: deployment guide
spark.streaming.receiver.writeAheadLog.enable false 是否启用接收器预写日志。全部的输入数据都会保存到预写日志中,这样在驱动器失败后,能够基于预写日志来恢复数据。更详细请参考:deployment guide
spark.streaming.unpersist true 是否强制Spark Streaming 自动从内存中清理掉所生成并持久化的RDD。同时,Spark Streaming收到的原始数据也将会被自动清理掉。若是设置为false,那么原始数据以及持久化的RDD将不会被自动清理,以便外部程序能够访问这些数据。固然,这将致使Spark消耗更多的内存。
spark.streaming.stopGracefullyOnShutdown false 若是设为true,Spark将会在JVM关闭时,优雅地关停StreamingContext,而不是当即关闭之。
spark.streaming.kafka.maxRatePerPartition not set 在使用Kafka direct stream API时,从每一个Kafka数据分区读取数据的最大速率(每秒记录条数)。更详细请参考:Kafka Integration guide
spark.streaming.kafka.maxRetries 1 驱动器连续重试的最大次数,这个配置是为了让驱动器找出每一个Kafka分区上的最大offset(默认值为1,意味着驱动器将最多尝试2次)。只对新的Kafka direct stream API有效。
spark.streaming.ui.retainedBatches 1000 Spark Streaming UI 以及 status API 中保留的最大批次个数。

SparkR

属性名 默认值 含义
spark.r.numRBackendThreads 2 SparkR RBackEnd处理RPC调用的后台线程数
spark.r.command Rscript 集群模式下,驱动器和worker上执行的R脚本可执行文件
spark.r.driver.command spark.r.command client模式的驱动器执行的R脚本。集群模式下会忽略

集群管理器

每一个集群管理器都有一些额外的配置选项。详细请参考这里:

YARN
Mesos
Standalone Mode

环境变量

有些Spark设置须要经过环境变量来设定,这些环境变量能够在${SPARK_HOME}/conf/spark-env.sh脚本(Windows下是conf/spark-env.cmd)中设置。若是是独立部署或者Mesos模式,这个文件能够指定机器相关信息(如hostname)。运行本地Spark应用或者submit脚本时,也会引用这个文件。

注意,conf/spark-env.sh默认是不存在的。你须要复制conf/spark-env.sh.template这个模板来建立,还有注意给这个文件附上可执行权限。

如下变量能够在spark-env.sh中设置:

环境变量 含义
JAVA_HOME Java安装目录(若是没有在PATH变量中指定)
PYSPARK_PYTHON 驱动器和worker上使用的Python二进制可执行文件(默认是python)
PYSPARK_DRIVER_PYTHON 仅在驱动上使用的Python二进制可执行文件(默认同PYSPARK_PYTHON)
SPARKR_DRIVER_R SparkR shell使用的R二进制可执行文件(默认是R)
SPARK_LOCAL_IP 本地绑定的IP
SPARK_PUBLIC_DNS Spark程序公布给其余机器的hostname

另外,还有一些选项须要在Spark standalone cluster scripts里设置,如:每台机器上使用的core数量,和最大内存占用量。

spark-env.sh是一个shell脚本,所以一些参数能够经过编程方式来设定 – 例如,你能够获取本机IP来设置SPARK_LOCAL_IP。

日志配置

Spark使用log4j 打日志。你能够在conf目录下用log4j.properties来配置。复制该目录下已有的log4j.properties.template并更名为log4j.properties便可。

覆盖配置目录

默认Spark配置目录是”${SPARK_HOME}/conf”,你也能够经过 ${SPARK_CONF_DIR}指定其余目录。Spark会从这个目录下读取配置文件(spark-defaults.conf,spark-env.sh,log4j.properties等)

继承Hadoop集群配置

若是你打算用Spark从HDFS读取数据,那么有2个Hadoop配置文件必须放到Spark的classpath下:

  • hdfs-site.xml,配置HDFS客户端的默认行为
  • core-site.xml,默认文件系统名

这些配置文件的路径在不一样发布版本中不太同样(如CDH和HDP版本),但一般都能在 ${HADOOP_HOME}/etc/hadoop/conf目录下找到。一些工具,如Cloudera Manager,能够动态修改配置,并且提供了下载一份拷贝的机制。

要想让这些配置对Spark可见,请在${SPARK_HOME}/spark-env.sh中设置HADOOP_CONF_DIR变量。

转自:http://ifeve.com/spark-config/
 
Options:
  --master MASTER_URL         spark://host:port, mesos://host:port, yarn, or local.
  --deploy-mode DEPLOY_MODE   driver运行的地方,client运行在本机,cluster运行在集群
                              (Default: client).
  --class CLASS_NAME          Your application's main class (for Java / Scala apps).
  --name NAME                 A name of your application.
  --jars JARS                 逗号分隔的本地jar列表包含在驱动程序和执行程序类路径中
  --packages                  Comma-separated list of maven coordinates of jars to include
                              on the driver and executor classpaths. Will search the local
                              maven repo, then maven central and any additional remote
                              repositories given by --repositories. The format for the
                              coordinates should be groupId:artifactId:version.
  --exclude-packages          Comma-separated list of groupId:artifactId, to exclude while
                              resolving the dependencies provided in --packages to avoid
                              dependency conflicts.
  --repositories              Comma-separated list of additional remote repositories to
                              search for the maven coordinates given with --packages.
  --py-files PY_FILES         Comma-separated list of .zip, .egg, or .py files to place
                              on the PYTHONPATH for Python apps.
  --files FILES               Comma-separated list of files to be placed in the working
                              directory of each executor.

  --conf PROP=VALUE           Arbitrary Spark configuration property.
  --properties-file FILE      Path to a file from which to load extra properties. If not
                              specified, this will look for conf/spark-defaults.conf.

  --driver-memory MEM         Memory for driver (e.g. 1000M, 2G) (Default: 1024M).
  --driver-java-options       Extra Java options to pass to the driver.
  --driver-library-path       Extra library path entries to pass to the driver.
  --driver-class-path         driver的类路径,用--jars 添加的jar包会自动包含在类路径里

  --executor-memory MEM       Memory per executor (e.g. 1000M, 2G) (Default: 1G).

  --proxy-user NAME           User to impersonate when submitting the application.
                              This argument does not work with --principal / --keytab.

  --help, -h                  Show this help message and exit.
  --verbose, -v               Print additional debug output.
  --version,                  Print the version of current Spark.

 Spark standalone with cluster deploy mode only:
  --driver-cores NUM          Cores for driver (Default: 1).

 Spark standalone or Mesos with cluster deploy mode only:
  --supervise                 If given, restarts the driver on failure.
  --kill SUBMISSION_ID        If given, kills the driver specified.
  --status SUBMISSION_ID      If given, requests the status of the driver specified.

 Spark standalone and Mesos only:
  --total-executor-cores NUM  Total cores for all executors.

 Spark standalone and YARN only:
  --executor-cores NUM        Number of cores per executor. (Default: 1 in YARN mode,
                              or all available cores on the worker in standalone mode)

 YARN-only:
  --driver-cores NUM          Number of cores used by the driver, only in cluster mode
                              (Default: 1).
  --queue QUEUE_NAME          The YARN queue to submit to (Default: "default").
  --num-executors NUM         Number of executors to launch (Default: 2).
                              If dynamic allocation is enabled, the initial number of
                              executors will be at least NUM.
  --archives ARCHIVES         Comma separated list of archives to be extracted into the
                              working directory of each executor.
  --principal PRINCIPAL       Principal to be used to login to KDC, while running on
                              secure HDFS.
  --keytab KEYTAB             The full path to the file that contains the keytab for the
                              principal specified above. This keytab will be copied to
                              the node running the Application Master via the Secure
                              Distributed Cache, for renewing the login tickets and the
                              delegation tokens periodically.

 注:特别指出

--driver-class-path与 spark.driver.extraClassPath 覆盖问题

缘由在于--driver-class-path是spark.driver.extraClassPath别名,所以同时使用时就会出现覆盖

若是同时须要指定两个则能够直接使用spark.driver.extraClassPath便可,多个目录中间用分号":"隔开,以下

 spark.driver.extraClassPath="mysql-connector-java-5.1.24-bin.jar:/opt/cloudera/parcels/CDH/lib/hbase/lib/*"

相关文章
相关标签/搜索