安装hadoop

1.下载 html

https://hadoop.apache.org/releases.htmljava

2.上传到linuxnode

scp hadoop-3.0.3.tar.gz XJ@192.168.109.101:~/installPack/hadoop-3.0.3.tar.gzlinux

3.解包apache

tar -zxvf hadoop-3.0.3.tar.gz -C ../software/ssh

 

4.修改配置文件oop

  1>hadoop-env.sh 修改java环境变量spa

   export JAVA_HOME=/home/XJ/software/jdk1.8.0_191code

  2> core-site.xml orm

  核心配置文件,配置默认文件系统和数据目录,(注意fs.defaultFS配置的是namenode的地址,每一个datanode都同样)

<property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop001:9000</value>
</property>
<property>
        <name>hadoop.tmp.dir</name>
        <value>/home/XJ/software/hadoop-3.0.3/data</value>
</property>
                 

  3>hdfs-site.xml

  hdfs配置文件,配置副本数量

<property>
    <name>dfs.replication</name>
    <value>3</value>
</property>

  4>mapred-site.xml

  mapreduce配置文件,配置资源调度集群

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

  5>yarn-site.xml

  yarn配置文件,指定yarn集群主节点和map节点与reduce节点的交互机制

<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>hadoop001</value>
</property>
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>

  6>workers

  配置datanode的机器

  hadoop001

  hadoop002

  hadoop003

5.配置ssh免密登陆

  注解本身的公钥也要配进本身的受权访问列表,由于登陆本身也会是ssh登陆

6.关闭防火墙

systemctl stop firewalld.service

systemctl disable firewalld.service

firewall-cmd --state

7.格式化hdfs文件系统

 ./hadoop namenode -format

8.启动hdfs

 ./start-dfs.sh

9.用jps查看进程

在目标namenode机器会启动NameNode进程和SecondaryNameNode进程

在datanode集群机器会启动DataNode进程

10.启动yarn

 ./start-yarn.sh

相关文章
相关标签/搜索