Hadoop伪分布式环境安装

一.环境准备node

  阿里云ECS(Centos7).已预装JDK8linux

  Hadoop安装包 hadoop-2.7.7.tar.gzshell

二. 安装步骤vim

  1.确认JDK环境的安装位置bash

  命令 echo $JAVA_HOMEssh

  2.解压hadoop-2.7.7.tar.gz 文件夹到指定目录(目录能够本身定义)分布式

  命令 tar -zxvf hadoop-2.7.7.tar.gz -C /opt/module/ (我这里是解压到 /opt/module/目录下)oop

  3.配置运行环境阿里云

    文件1:hadoop-env.shurl

        配置Hadoop对JDK依赖的环境

      输入echo JAVA_HOME=(JDK环境的安装位置,根据步骤1能够肯定)

    文件2:core-site.xml

      配置文件系统柜HDFS的主机名称和端口号(这里使用本机的名称,能够经过hostname查看主机名称.端口号随意指定,可是要在阿里云控制台开启对外端口

<property>
      <name>fs.default.name</name><value>hdfs://localhost:8020</value></property>

      配置文件系统namenode节点文件存放的目录

<property>
      <name>dfs.name.dir</name>//hadoop临时目录用来存放临时文件,若是不设置,则该文件会在linux系统重启后消失 <value>/hadoop/name</value> //该目录必须预先手工建立不能删除 </property>

     配置文件系统柜datanode节点文件存放目录

<property>
      <name>dfs.data.dir</name> //hadoop临时目录用来存放namenode文件 <value>/hadoop/data</value> //该目录必须预先手工建立不能删除 </property>

      配置文件系统临时文件的存放目录

<property>
      <name>hadoop.tmp.dir</name> //hadoop临时目录用来存放datanode文件 
    <value>/hadoop/tmp</value> //该目录必须预先手工建立不能删除
</property>

   文件2:hdfs-site.xml

      配置dfs的副本数量,伪分布式设置为1便可

<property>         <name>dfs.replication</name>         <value>1</value>
</property>

  4.配置完成后须要 format格式化文件系统(注意.第一次执行便可,不要重复执行,重复执行会出问题,https://blog.csdn.net/weixin_38847462/article/details/77879459)

    进入bin 目录下./hadoop namenode -format

    出现如下提示表示格式化成功

    

 

   5.启动hdfs 

    进入sbin目录下.启动脚本./start-dfs.sh

    启动完成后 输入 jps能够查看是否启动成功(注意,若是这里没有配置ssh免密登陆,name就会要你输入密码,很烦)

    看到如下就是启动成功了

    

     注意:若是没有这几个进程,就是启动失败,能够查看日志信息,日志信息在启动时能够查看,将out变为log便可

    http://localhost:50070

  6.配置Hadoop 的bin目录到系统的环境变量中,这样使用shell就比较方便

    /opt/module/hadoop-2.7.7/bin

    vim ~/.bash_profile 

            

    source ~/.bash_profile 

    使用echo $HADOOP_HOME确认是否配置成功

    

   7.hadoop经常使用的命令

    

相关文章
相关标签/搜索