Spark环境搭建(七)-----------spark的Local和standalone模式启动

spark的启动方式有两种,一种单机模式(Local),另外一种是多机器的集群模式(Standalone)web

 

Standalone

搭建:

  准备:hadoop001,hadoop002两台安装spark的机器shell

  1) 在$SPARK_HOME/conf中新建 spark-env.sh,并加入如下内容app

  

SPARK_MASTER_HOST=hadoop001    #设置master的host
SPARK_WORKER_CORES=2        #设置core的个数给worker
SPARK_WORKER_MEMORY=2g       #设置worker内存
SPARK_WORKER_INSTANCES=1      #一个worker启动几个实例

   2) 在$SPARK_HOME/conf/slaves中写入(前提是hosts文件中对host有映射)oop

    hadoop002spa

  3)sbin/start-all.sh启动全部的节点线程

  4)查看hadoop001:8080code

  

   能够看出有;两个worker,分别在108和109的机器上,4个core(每一个worker两个core),worker占用内存共4G。blog

 使用:

  在bin目录下内存

  命令: ./spark-shell --master spark://hadoop001:7077hadoop

  解释:在主节点master下启动一个shell命令

  在webUI中能够看出,产生一个app,默认将全部的core都使用完毕,并且默认每一个core使用1G的内存

  

 

Local

  Local很简单,不需其余配置,在bin目录下 使用命令

    

./spark-shell  --master  local[2]

   在本机启动一个master 经过本地的两个线程启动

相关文章
相关标签/搜索