Spark安装与部署

1.首先安装scala(找到合适版本的具体地址下载)

在/usr/local/目录下
wget https://www.scala-lang.org/download/****

2.安装spark

(因为个人Hadoop是2.7.6版本的,所以我所用的spark是在官网上的适用hadoop-2以上版本的)
wget http://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-2.4.3/spark-2.4.3-bin-hadoop2.7.tgz
tar -zxvf spark-2.4.3-bin-hadoop2.7.tgz
rm spark-2.4.3-bin-hadoop2.7.tgz

3.配置环境变量

vim /etc/profile

4.刷新环境变量

source /etc/profile

5.复制配置文件

cp slaves.template slaves
cp spark-env.sh.template spark-env.sh

6.接着进行如下配置

vim /etc/profile(查看其它配置文件直接复制便可)
vim ./spark-2.4.3-bin-hadoop2.7/conf
vim spark-env.sh

7.启动spark环境

1)先启动Hadoop环境

/usr/local/hadoop-2.7.6/sbin/start-all.sh

2) 启动Spark环境

/usr/local/spark-2.4.3-bin-hadoop2.7/sbin/start-all.sh

8.查看spark的web控制界面

显示端口为7077

 

9.查看Hadoop的web端界面

 

10.验证Spark是否安装成功

bin/run-example SparkPi
注意:命令执行后出现一大堆东西,只须要从中找到下面这个图中的东西,就说明安装成功。
bin/run-example SparkPi 2>&1 | grep "Pi is"

11.使用Spark Shell编写代码

1)启动Spark Shell

bin/spark-shell

2)加载text文件

spark建立sc,能够加载本地文件和HDFS文件建立RDD。这里用Spark自带的本地文件README.md文件测试。
scala>val textFile=sc.textFile("file:///usr/local/spark-2.4.3-bin-hadoop2.7/README.md")
加载HDFS文件和本地文件都是使用textFile,区别是添加前缀(hdfs://和file://)进行标识。

3)简单RDD操做

scala> textFile.first() // 获取RDD文件textFile的第一行内容
scala> textFile.count() // 获取RDD文件textFile的全部项的计数
scala> val lineWithSpark=textFile.filter(line=>line.contains("Spark"))// 抽取含有“Spark”的行,返回一个新的RDD
scala> lineWithSpark.count() //统计新的RDD的行数

4)能够经过组合RDD操做进行组合,能够实现简易MapReduce操做

scala> textFile.map(line=>line.split(" ").size).reduce((a,b)=>if(a>b) a else b) //找出文本中每行的最多单词数

5)退出Spark shell

:quit
相关文章
相关标签/搜索