spark的启动方式有两种,一种单机模式(Local),另外一种是多机器的集群模式(Standalone)web
准备:hadoop001,hadoop002两台安装spark的机器shell
1) 在$SPARK_HOME/conf中新建 spark-env.sh,并加入如下内容app
SPARK_MASTER_HOST=hadoop001 #设置master的host SPARK_WORKER_CORES=2 #设置core的个数给worker SPARK_WORKER_MEMORY=2g #设置worker内存 SPARK_WORKER_INSTANCES=1 #一个worker启动几个实例
2) 在$SPARK_HOME/conf/slaves中写入(前提是hosts文件中对host有映射)oop
hadoop002spa
3)sbin/start-all.sh启动全部的节点线程
4)查看hadoop001:8080code
能够看出有;两个worker,分别在108和109的机器上,4个core(每一个worker两个core),worker占用内存共4G。blog
在bin目录下内存
命令: ./spark-shell --master spark://hadoop001:7077hadoop
解释:在主节点master下启动一个shell命令
在webUI中能够看出,产生一个app,默认将全部的core都使用完毕,并且默认每一个core使用1G的内存
Local很简单,不需其余配置,在bin目录下 使用命令
./spark-shell --master local[2]
在本机启动一个master 经过本地的两个线程启动