服务器上已经有了 hadoop2.7.2环境,此次只用配置spark1.6就能够。html
服务器操做系统为centOS6.5web
下载地址:http://www.scala-lang.org/download/ shell
注:我下载的是scala-2.11.8.tgzapache
将压缩上传至/usr/local 目录 vim
解压缩 服务器
tar -zxvf scala-2.11.8.tgz
作软联接函数
ln -s scala-2.11.8 scala
设置环境变量 oop
vim /etc/profile #追加以下内容 export SCALA_HOME=/usr/scala/scala-2.11.7 export PATH=$PATH:$SCALA_HOME/bin
使环境变量生效测试
source /etc/profile
测试环境变量设置spa
scala -version
下载: http://spark.apache.org/downloads.html
下载的版本:spark-1.6.1-bin-hadoop2.6.tgz
将压缩文件上传至/usr/local 目录
tar -zxvf spark-1.6.1-bin-hadoop2.6.tgz
ln -s spark-1.6.1-bin-hadoop2.6.tgz spark
vim /etc/profile #追加以下内容 export SPARK_HOME=/usr/spark export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
source /etc/profile
spark-shell --version
cd /usr/local/spark/conf/ cp spark-env.sh.template spark-env.sh vi spark-env.sh #追加以下内容 export SCALA_HOME=/usr/local/scala export JAVA_HOME=/usr/local/jdk export SPARK_MASTER_IP=192.168.31.213 export SPARK_WORKER_MEMORY=1024m export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
start-all.sh #中止命令 stop-all.sh
提交任务到Spark集群
spark-submit --master spark://192.168.31.213:7077 --class 主函数入口 --name 本身起个名称 jar包的全路径 例:spark-submit --master spark://192.168.31.213:7077 --class cn.crxy.dataming.tfidf.TFIDF --name tfidf tfidf.jar
spark-submit --master yarn-cluster --class cn.crxy.dataming.tfidf.TFIDF --name tfidf tfidf.jar