在上一篇中 大数据学习系列之五 ----- Hive整合HBase图文详解 : http://www.panchengming.com/2017/12/18/pancm62/ 中使用Hive整合HBase,而且测试成功了。在以前的大数据学习系列之一 ----- Hadoop环境搭建(单机) : http://www.panchengming.com/2017/11/26/pancm55/ 中成功的搭建了Hadoop的环境,本文主要讲的是Hadoop+Spark 的环境。虽然搭建的是单机版,可是改为集群版的也至关容易,这点之后会写关于Hadoop+Spark+HBase+Hive+Zookeeper 等集群的相关说明的。html
本地虚拟机
操做系统:linux CentOS 7
Cpu:2核
内存:2G
硬盘:40Gjava
JDK:1.8 (jdk-8u144-linux-x64.tar.gz)
Hadoop:2.8.2 (hadoop-2.8.2.tar.gz)
Scala:2.12.2 (scala-2.12.2.tgz)
Spark: 1.6 (spark-1.6.3-bin-hadoop2.4-without-hive.tgz)node
官网地址:
JDK:
http://www.oracle.com/technetwork/java/javase/downloads
Hadopp:
http://www.apache.org/dyn/closer.cgi/hadoop/common
Spark:
http://spark.apache.org/downloads.html
Hive on Spark (spark集成hive的版本)
http://mirror.bit.edu.cn/apache/spark/
Scala:
http://www.scala-lang.org/downloadlinux
百度云:
连接:https://pan.baidu.com/s/1geT3A8N 密码:f7jbapache
在配置Hadoop+Spark整合以前,应该先作一下配置。
作这些配置为了方便,使用root权限。vim
首先更改主机名,目的是为了方便管理。
查看本机的名称
输入:浏览器
hostname
更改本机名称
输入:服务器
hostnamectl set-hostname master
注:主机名称更改以后,要重启(reboot)才会生效。oracle
修改hosts文件,作关系映射
输入jsp
vim /etc/hosts
添加
主机的ip 和 主机名称
192.168.219.128 master
关闭防火墙,方便外部访问。
CentOS 7版本如下输入:
关闭防火墙
service iptables stop
CentOS 7 以上的版本输入:
systemctl stop firewalld.service
输入:
date
查看服务器时间是否一致,若不一致则更改
更改时间命令
date -s ‘MMDDhhmmYYYY.ss’
由于Spark的配置依赖与Scala,因此先要配置Scala。
Scala的配置
将下载好的Scala文件解压
输入
tar -xvf scala-2.12.2.tgz
而后移动到/opt/scala 里面
而且重命名为scala2.1
输入
mv scala-2.12.2 /opt/scala mv scala-2.12.2 scala2.1
编辑 /etc/profile 文件
输入:
export SCALA_HOME=/opt/scala/scala2.1 export PATH=.:${JAVA_HOME}/bin:${SCALA_HOME}/bin:$PATH
输入:
source /etc/profile
使配置生效
输入 scala -version 查看是否安装成功
Spark有两种,下载的地址都给了,一种是纯净版的spark,一种是集成了hadoop以及hive的版本。本文使用的是第二种
将下载好的Spark文件解压
输入
tar -xvf spark-1.6.3-bin-hadoop2.4-without-hive.tgz
而后移动到/opt/spark 里面,并重命名
输入
mv spark-1.6.3-bin-hadoop2.4-without-hive /opt/spark mv spark-1.6.3-bin-hadoop2.4-without-hive spark1.6-hadoop2.4-hive
编辑 /etc/profile 文件
输入:
export SPARK_HOME=/opt/spark/spark1.6-hadoop2.4-hive export PATH=.:${JAVA_HOME}/bin:${SCALA_HOME}/bin:${SPARK_HOME}/bin:$PATH
输入:
source /etc/profile
使配置生效
切换目录
输入:
cd /opt/spark/spark1.6-hadoop2.4-hive/conf
在conf目录下,修改spark-env.sh文件,若是没有 spark-env.sh 该文件,就复制spark-env.sh.template文件并重命名为spark-env.sh。
修改这个新建的spark-env.sh文件,加入配置:
export SCALA_HOME=/opt/scala/scala2.1 export JAVA_HOME=/opt/java/jdk1.8 export HADOOP_HOME=/opt/hadoop/hadoop2.8 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export SPARK_HOME=/opt/spark/spark1.6-hadoop2.4-hive export SPARK_MASTER_IP=master export SPARK_EXECUTOR_MEMORY=1G
注:上面的路径以本身的为准,SPARK_MASTER_IP为主机,SPARK_EXECUTOR_MEMORY为设置的运行内存。
Hadoop的具体配置在大数据学习系列之一 ----- Hadoop环境搭建(单机) : http://www.panchengming.com/2017/11/26/pancm55 中介绍得很详细了。因此本文就大致介绍一下。
注:具体配置以本身的为准。
编辑 /etc/profile 文件 :
vim /etc/profile
配置文件:
export HADOOP_HOME=/opt/hadoop/hadoop2.8 export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib" export PATH=.:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:$PATH
先切换到 /home/hadoop/hadoop2.8/etc/hadoop/ 目录下
输入:
vim core-site.xml
在
<configuration> <property> <name>hadoop.tmp.dir</name> <value>/root/hadoop/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>fs.default.name</name> <value>hdfs://master:9000</value> </property> </configuration>
输入:
vim hadoop-env.sh
将\({JAVA_HOME} 修改成本身的JDK路径 ``` export JAVA_HOME=\){JAVA_HOME}
修改成:
export JAVA_HOME=/home/java/jdk1.8
#### 5.2.3修改 hdfs-site.xml 输入:
vim hdfs-site.xml
在<configuration>添加:
#### 5.2.4 修改mapred-site.xml 若是没有 mapred-site.xml 该文件,就复制mapred-site.xml.template文件并重命名为mapred-site.xml。 输入:
vim mapred-site.xml
修改这个新建的mapred-site.xml文件,在<configuration>节点内加入配置:
### 3,Hadoop启动 **注:若是已经成功配置了就不用了** 启动以前须要先格式化 切换到/home/hadoop/hadoop2.8/bin目录下 输入:
./hadoop namenode -format
格式化成功后,再切换到/home/hadoop/hadoop2.8/sbin目录下 启动hdfs和yarn 输入:
start-dfs.sh
start-yarn.sh
启动成功后,输入jsp查看是否启动成功 在浏览器输入 ip+8088 和ip +50070 界面查看是否能访问 能正确访问则启动成功 ## 6、Spark启动 启动spark要确保hadoop已经成功启动 首先使用jps命令查看启动的程序 在成功启动spark以后,再使用jps命令查看 切换到Spark目录下 输入:
cd /opt/spark/spark1.6-hadoop2.4-hive/sbin
而后启动Spark 输入:
start-all.sh
```
而后在浏览器输入
http://192.168.219.128:8080/
正确显示该界面,则启动成功
注:若是spark成功启动,可是没法访问界面,首先检查防火墙是否关闭,而后在使用jps查看进程,若是都没问题的,通常就能够访问界面。若是仍是不行,那么检查hadoop、scala、spark的配置。
那么本文到此结束,谢谢阅读!
若是以为不错,能够点击一下赞或推荐。
版权声明:
做者:虚无境
博客园出处:http://www.cnblogs.com/xuwujing
CSDN出处:http://blog.csdn.net/qazwsxpcm
我的博客出处:http://www.panchengming.com 原创不易,转载请标明出处,谢谢!