hadoop安装与配置

安装并使用多种方法配置Hadoop。html

准备

建立Hadoop用户

  • 建立新用户
    • sudo useradd –m hadoop –s /bin/bash
  • 设置密码
    • sudo passwd hadoop
  • 增长管理员权限
    • sudo adduser hadoop sudo
  • 最后,切换到该用户进行登陆

SSH登陆权限设置

配置SSH的缘由

  • Hadoop名称节点(NameNode)须要启动集群中全部机器的Hadoop守护进程,这个过程须要经过SSH登陆来实现
  • Hadoop并无提供SSH输入密码登陆的形式,所以,为了可以顺利登陆每台机器,须要将全部机器配置为名称节点能够无密码登陆它们

SSH本机免密钥登陆

  • 首先安装openssh
  • 查看当前/home/hadoop目录下有无.ssh文件夹,若无,则建立mkdir ~/.ssh,修改权限 chmod 700 ~/.ssh
  • 执行指令ssh-keygen –t rsa生成公钥和私钥 (一路回车)
  • 执行 cat ./id_rsa.pub >> ./authorized_keys将密钥加入受权
  • 执行指令 ssh localhost 进行测试
    • 53784246987

Java

  • 首先确保Linux系统中已经装好Javajava

  • 在oracle官网安装最新版本node

  • 默认下载到download目录linux

  • 当前目录下进行解压web

    • tar -xvf jdk-8u161-linux-x64.tar.gz
  • 移动到目录/usr/local/Java正则表达式

  • 配置环境变量(vim ~/.bashrcshell

    #JAVA
    export JAVA_HOME=/usr/local/Java/jdk1.8.0_181/
    export JRE_HOME=$JAVA_HOME/jre
    export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
    export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:.
  • 退出后刷新source ~/.bashrcapache

  • 测试java -version编程

    53784201450

Hadoop下载

  • 下载清华的镜像vim

  • 默认下载到download

  • 解压到/usr/local

    • sudo tar -zxf ./hadoop-3.1.1.tar.gz -C /usr/local
  • 切换到解压目录并修改文件权限

    • cd /usr/local
      sudo mv ./hadoop-3.1.1 ./hadoop #重命名
      sudo chown -R hadoop ./hadoop # 修改文件权限
  • 查看版本号及是否安装好

    • cd /usr/local/hadoop
      ./bin/hadoop version
    • 53784274702

  • 设置环境变量,以便直接使用hadoop命令

    • 进入vim /.bashrc

    • export HADOOP_HOME=/usr/local/hadoop
      export PATH=$PATH:/usr/local/hadoop/bin
    • 直接输入hadoop看是否成功

Hadoop目录结构

  1. bin:Hadoop最基本的管理脚本和使用脚本的目录,这些脚本是sbin目录下管理
    脚本的基础实现,用户能够直接使用这些脚本管理和使用Hadoop
  2. etc:Hadoop配置文件所在的目录,包括core-site,xml、hdfs-site.xml、mapredsite.xml
  3. include:对外提供的编程库头文件(具体动态库和静态库在lib目录中),这些头
    文件均是用C++定义的,一般用于C++程序访问HDFS或者编写MapReduce程序
  4. lib:该目录包含了Hadoop对外提供的编程动态库和静态库,与include目录中的
    头文件结合使用
  5. libexec:各个服务对用的shell配置文件所在的目录,可用于配置日志输出、启动
    参数(好比JVM参数)等基本信息
  6. sbin:Hadoop管理脚本所在的目录,主要包含HDFS和YARN中各种服务的启动/关
    闭脚本
  7. share:Hadoop各个模块编译后的jar包所在的目录

53788582047

Hadoop单机部署

  • 默认为非分布式模式,无须进行其余配置便可运行。附带了不少例子,能够直接查看全部例子:

    • cd /usr/local/hadoop
      hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.1.jar
    • 会显示grepjoinwordcount等例子

  • 这里选择grep例子,流程为先建一个input文件夹,并复制一些文件到该文件;而后运行grep程序,将input文件夹的全部文件做为grep的输入,让grep程序从全部文件中筛选出符合正则表达式的单词,并输出结果到output

    • mkdir input
      cp ./etc/hadoop/*.xml ./input
      hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.1.jar grep ./input ./output 'dfs[a-z.]+'
    • 这里须要注意的是,hadoop默认要求输出output不存在,若存在则会报错

    • 查看运行结果cat ./output/*

    • cat output/* dfsadmtn 1

Hadoop伪分布式部署

  • Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/中,伪分布式须要修改2个配置文件 core-site.xmlhdfs-site.xml
  • 配置文件是 xml格式,每一个配置以声明 propertynamevalue的方式来实现
  • Hadoop在启动时会读取配置文件,根据配置文件来决定运行在什么模式下

修改配置文件

  1. vim core-site.xml

    • 打开后如图所示:

    • 修改成
    <configuration>
        <property>
        	<name>hadoop.tmp.dir</name>
        	<value>file:/usr/local/hadoop/tmp</value>
        	<description>Abase for other temporary directories.</description>
        </property>
    	<property>
    		<name>fs.defaultFS</name>
    		<value>hdfs://localhost:9000</value>
    	</property>
    </configuration>
    • hadoop.tmp.dir表示存放临时数据的目录,即包括NameNode的数据,也包括DataNode的数据。该路径任意指定,只要实际存在该文件夹便可
    • namefs.defaultFS的值,表示hdfs路径的逻辑名称
  2. vim hdfs-site.xml

    • 修改成:

      <configuration>
          <property>
              <name>dfs.replication</name>
              <value>1</value>
          </property>
          <property>
              <name>dfs.namenode.name.dir</name>
              <value>file:/usr/local/hadoop/tmp/dfs/name</value>
          </property>
          <property>
          	<name>dfs.datanode.data.dir</name>
          	<value>file:/usr/local/hadoop/tmp/dfs/data</value>
          </property>
      </configuration>
    • dfs.replication表示副本的数量,伪分布式要设置为1

    • dfs.namenode.name.dir表示名称节点的元数据保存目录

    • dfs.datanode.data.dir表示数据节点的数据保存目录

格式化节点

  • cd /usr/local/hadoop/
    ./bin/hdfs namenode -format
  • 若成功,则显示

启动Hadoop

  • 执行命令:

    • cd /usr/local/hadoop
      ./sbin/start-dfs.sh
  • 若出现报错:

  • 则表示JAVA_HOME目录没有设置对,若是以前使用Java没有问题,则直接进入Hadoop环境中设置

  • cd /usr/local/hadoop/etc/hadoop
    vim hadoop-env.sh
  • 直接添加本身电脑里的Java_HOME路径,如:

  • 再次启动

  • 判断是否启动成功

Web界面查看HDFS信息

  • 启动Hadoop后,在浏览器输入http://localhost:9870/,可访问NameNode。
  • 如图所示,表示成功:
  • 53788338969

关闭Hadoop

  • cd /usr/local/hadoop
    ./sbin/stop-dfs.sh
  • 下次启动时,无须再进行名称节点的格式化

关于三种Shell命令方式的区别

  • hadoop fs
    • hadoop fs适用于任何不一样的文件系统,好比本地文件系统和HDFS文件系统
  • hadoop dfs
    • hadoop dfs只能适用于HDFS文件系统
  • hdfs dfs
    • hdfs dfshadoop dfs的命令做用同样,也只能适用于HDFS文件系统

操做示例

  • 还原单机模型的grep例子

  • cd /usr/local/hadoop
    ./bin/hdfs dfs –mkdir –p /user/hadoop # 在HDFS中为hadoop用户建立目录(Linux文件系统中不可见)
    ./bin/hdfs dfs –mkdir input # 在HDFS中建立hadoop用户对应的input目录
    ./bin/hdfs dfs –put ./etc/hadoop/*.xml input # 将本地文件复制到HDFS中
    ./bin/hdfs dfs –ls input # 查看HDFS中的文件列表
    ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar grep input output ‘dfs[a-z.]+’
    ./bin/hdfs dfs -cat output/* #查看运行结果
  • 可能出现警告信息,可忽略

  • 53788440534

  • 查看文件列表

  • 53788436836

  • 最后结果

  • 53788533976