Linux中如何安装配置Hadoop?

一、官网下载Hadoop(此处就不细讲了,这里我用的是hadoop-2.6.1.tar.gz版本)
二、将下载下来的hadoop上传到Linux的的当前用户文件夹中
三、复制hadoop到/usr文件夹中
cp hadoop-2.6.1.tar /usr
四、在/usr中解压,(解压后获得文件夹hadoop-2.6.1),并重命名为hadoop
tar -xzvf hadoop-2.6.1.tar.gz
mv hadoop-2.6.1 hadoop
五、进入到hadoop文件夹中进行配置
cd etc/hadoop(注意这个命令的前提是当前文件夹为/etc/hadoop)
六、开始配置hadoop
1)配置hadoop-env.sh
vi hadoop-env.sh
添加JDK路径,即在这里插入图片描述
2)配置core-site.xml
vi core-site.xml
在这里插入图片描述
3)配置hdfs-site.xml
vi hdfs-siet.xml
在这里插入图片描述
4)配置mapred-site.xml
在这里插入图片描述
5)配置yarn-site.xml
在这里插入图片描述
6)配置slave文件(就是将原来文件里面的内容删除,而后添加3台虚拟机的主机名)
在这里插入图片描述
七、而后到/usr/hadoop/bin下,执行hadoop格式化
hdfs namenode -format
八、将Hadoop添加到环境变量中:vi /etc/profile
在这里插入图片描述
九、加载配置文件(不然在后面输入hdfs命令时,会提示没有这个命令,或者命令找不到)
source /etc/profile
十、将hadoop和p配置文件分发到另外两台机上
scp -r /usr/hadoop cx1:/usr
scp -r /usr/hadoop cx2/usr
scp /etc/profile cx1:/etc
scp /etc/profile cx2/etc
十一、必定记得在另外两台机上source一下分发过去的配置文件
source /etc/perofile
十二、启动HDFS
start-dfs.sh
1三、而后分别在三台服务器上输入命令jps,代表安装成功在这里插入图片描述node