Spark安装教程

注:该教程转自厦门大学大数据课程学习总结

Spark的安装过程较为简单,在已安装好 Hadoop 的前提下,通过简单配置便可使用。vim

安装Spark

  1. sudo tar -zxf ~/下载/spark-1.6.2-bin-without-hadoop.tgz -C /usr/local/
  2. cd /usr/local
  3. sudo mv ./spark-1.6.2-bin-without-hadoop/ ./spark
  4. sudo chown -R hadoop:hadoop ./spark # 此处的 hadoop 为你的用户名

安装后,还须要修改Spark的配置文件spark-env.shoop

  1. cd /usr/local/spark
  2. cp ./conf/spark-env.sh.template ./conf/spark-env.sh

编辑spark-env.sh文件(vim ./conf/spark-env.sh),在第一行添加如下配置信息:学习

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

配置完成后就能够直接使用,不须要像Hadoop运行启动命令。
经过运行Spark自带的示例,验证Spark是否安装成功。大数据

  1. cd /usr/local/spark
  2. bin/run-example SparkPi

执行时会输出很是多的运行信息,输出结果不容易找到,能够经过 grep 命令进行过滤(命令中的 2>&1 能够将全部的信息都输出到 stdout 中,不然因为输出日志的性质,仍是会输出到屏幕中):spa

  1. bin/run-example SparkPi 2>&1 | grep "Pi is"

过滤后的运行结果以下图示,能够获得π 的 5 位小数近似值:
日志

相关文章
相关标签/搜索