1. Java版本须要1.8node
2. Shell脚本已部分重写(Shell script rewrite)linux
3. HDFS新特性vim
4. YARN新特性浏览器
5. MapReduce改进bash
虚拟机采用cenos6镜像,准备三台虚拟机:服务器
node1,node2,node3,其中 node1 做为 namenode和datanode,node2做为secondary namenode和datanode,node3做为datanode。分布式
1. 安装配置jdkoop
1)解压缩文件(jdk1.8下载,提取码:ene8)优化
tar -zxvf jdk-8u141-linux-x64.tar.gz
2)配置环境变量编码
vim /etc/profile
#set Java environment export JAVA_HOME=/bigdata/jdk1.8 export JRE_HOME=$JAVA_HOME/jre export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH |
3)设置生效
source /etc/profile
2. 安装配置hadoop
1)解压缩文件(hadoop3.1.1下载,提取码:tkk8)
tar -zxvf hadoop-3.1.1.tar.gz
2)修改etc/hadoop/hadoop-env.sh
export JAVA_HOME=/bigdata/jdk1.8 export HDFS_NAMENODE_USER=root export HDFS_DATANODE_USER=root export HDFS_SECONDARYNAMENODE_USER=root |
3)修改etc/hadoop/core-site.xml
<property> <name>fs.defaultFS</name> <value>hdfs://node1:9820</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/bigdata/data</value> </property> |
4)修改etc/hadoop/hdfs-site.xml
<property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <value>node2:9868</value> </property> |
5)修改etc/hadoop/workers
node1 node2 node3 |
3. 配置hadoop环境变量
vi /etc/profile
export HADOOP_HOME=/bigdata/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin |
4. 将jdk与hadoop一样安装至其余两台服务器
5. 启动全分布式(主节点上)
1)格式化
hdfs namenode -format
2)启动
start-dfs.sh
3)浏览器访问(node1:9870)