[TOC]html
ID | 主机类型 | 主机名 | IP | 应用软件 | 操做系统 | 硬件配置 |
---|---|---|---|---|---|---|
1 | 物理机 | namenode01 | 192.168.1.200 | jdk1.8.0_17一、hadoop-2.7.三、hive-2.3.三、hbase-1.2.六、zookeeper-3.4.十、spark-2.3.1 | CentOS7.4 | 6核CPU、8G内存、250存储 |
2 | 物理机 | datanode01 | 192.168.1.201 | jdk1.8.0_17一、hadoop-2.7.三、hive-2.3.三、hbase-1.2.六、zookeeper-3.4.十、spark-2.3.1 | CentOS7.4 | 6核CPU、8G内存、250存储 |
3 | 物理机 | datanode02 | 192.168.1.202 | jdk1.8.0_17一、hadoop-2.7.三、hive-2.3.三、hbase-1.2.六、zookeeper-3.4.十、spark-2.3.1 | CentOS7.4 | 6核CPU、8G内存、250存储 |
4 | 物理机 | datanode03 | 192.168.1.203 | jdk1.8.0_17一、hadoop-2.7.三、hive-2.3.三、hbase-1.2.六、zookeeper-3.4.十、spark-2.3.1 | CentOS7.4 | 6核CPU、8G内存、250存储 |
我这里规划的角色不是太好,若是是四台机器,建议你们按照咱们下面的分配java
修改四台服务器的主机名。node
192.168.1.200 namenode01 hbase01 spark01 hive01 cluster1 192.168.1.201 datanode01 hbase02 spark02 zk01 mysql01 192.168.1.202 datanode02 hbase03 spark03 zk02 192.168.1.203 datanode03 hbase04 spark04 zk03
在namenode01节点上面进行操做。mysql
ssh-keygen -t rsa ssh-copy-id namenode01 ssh-copy-id datanode01 ssh-copy-id datanode02 ssh-copy-id datanode03
建立用户(4台机器相同操做)sql
useradd hadoop && echo '123456' |passwd --stdin hadoop
使用命令visudo
设置用户权限(4台机器相同操做),添加以下内容:服务器
hadoop ALL=(ALL) ALL
下载JDK1.8,能够选择下载rpm包,直接安装便可使用。 https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.htmloracle