Spark安装首先要先安装上Hadoop,而后才能够安装Spark。html
Spark官网下载:http://spark.apache.org/downloads.htmlapache
须要注意的是:Spark对应的hadoop版本,而后上传至虚拟机oop
安装步骤:spa
一、加压文件,tar -zxvf spark-2.3.0-bin-hadoop2.7.tgzhtm
配置环境变量,blog
二、拷贝配置文件,目录为./spark/confighadoop
cp spark-env.sh.template spark-env.sh虚拟机
三、编辑文件,vi spark-env.sh,在最后增长以下内容:spark
export SPARK_DIST_CLASSPATH=$(/home/wdd/hadoop-2.9.0/bin/hadoop classpath)class
指定spark和hadoop进行关联
四、须要注意的是,所属组和全部者,以下图:
五、简单使用,计算pi的值
./spark-2.3.0-bin-hadoop2.7/bin/run-example SparkPi 2>&1 | grep "Pi is roughly"