tar –zxvf jdk-8u111-linux-x64.tar.gz /Users/wyd/software
复制代码
vim ~/.bash_profile
复制代码
文件中添加(注意看本身的安装路径)html
export JAVA_HOME= /usr/local/jdk1.8.0_111/
export PATH=$JAVA_HOME/bin:$PATH
复制代码
source ~/ .bash_profile
复制代码
java -version
复制代码
sudo scutil --set HostName name
复制代码
查看java
hostname
复制代码
vim /etc/hosts
复制代码
127.0.0.1 master
复制代码
执行source /etc/hosts 使文件失效node
source /etc/hosts
复制代码
问:为什么要配置免密匙登陆? linux
答:远程登陆的时候须要验证,你要是不嫌麻烦每次启动hadoop集群的时候输入密码,反正我懒,因此配置下 web
ssh-keygen -t rsa
复制代码
经过 ssh-keygen 命令来生成密钥对在.ssh 目录下(会有提示,回车便可) 此命令执行后,会在~/.ssh 目录下生成私钥 id_rsa 和公钥 id_rsa.pub) 并将 id_rsa.pub 中的公钥信息保存到authorized_keys 中apache
cat id_rsa.pub >> authorized_keys
复制代码
chmod 600 ./authorized_keys
复制代码
ssh master
复制代码
mkdir software
复制代码
提取码: e65w
复制代码
tar -zvxf hadoop-2.7.3.tar.gz
复制代码
mkdir bigdata
复制代码
执行:vim core-site.xml
复制代码
把如下代码复制到 core-site.xml(注意下图中标红的地方,必定不能出错,切记!切记!切记!)编程
<configuration>
<property>
<!-- 指定 hadoop 运行时产生文件的存储路径 -->
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/hadoop/tmp</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<!-- hdfs namenode 的通讯地址 -->
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.proxyuser.wyd.groups</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.wyd.hosts</name>
<value>*</value>
</property>
</configuration>
复制代码
vim hdfs-site.xml
复制代码
<configuration>
<property>
<!-- 指定 HDFS 存储数据的副本数目,默认状况下是 3 份-->
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<!-- name node 存放 name table 的目录 -->
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/name</value>
</property>
<property>
<!--datanode 存放数据 block 的目录 -->
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/data</value>
</property>
</configuration>
复制代码
mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
复制代码
<configuration>
<property>
<!-- 指定 mapreduce 编程模型运行在 yarn 上 -->
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.done-dir</name>
<value>/user/history/done</value>
</property>
<property>
<name>mapreduce.jobhistory.intermediate-done-dir</name>
<value>/user/history/done_intermediate</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
</configuration>
复制代码
vim yarn-site.xml
复制代码
<configuration>
<property>
<!-- mapreduce 执行 shuffle 时获取数据的方式 -->
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:18040</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:18030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:18025</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:18141</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:18088</value>
</property>
</configuration>
复制代码
hdfs namenode -format
复制代码
看到successfully formatted" 和 "Exitting with status 0" 的提示,若是是"Exitting with status 1"则表示失败,我这里格式化了就再也不操做 十一、启动hadoop集群vim
start-all.sh
复制代码
十二、查看进程是否正常,是否有这几个进程 namenode、secondarynamenode、datanode、resourcemanager、nodemanagerbash
jps
复制代码
如图标红的进程,其他不用管 oracle
http://master:50070/
复制代码
如图则表示正常:
到这里hadoop集群就搭建好了,若有问题欢迎指正,谢谢!