name | ip | role |
---|---|---|
61 | 192.168.3.61 | namenode, datanode |
62 | 192.168.3.62 | datanode |
63 | 192.168.3.63 | secondnamenode |
64 | 192.168.3.64 | datanode |
利用FileZilla sftp功能进行上传到指定文件夹下/root/software,下图是配置sftp.
解压使用命令tar -xvzf jdk-8u241-linux-x64.tar.gz
解压到当前文件夹下。
配置环境变量,输入命令vim /etc/profile
,添加html
JAVA_HOME=/root/software/jdk1.8.0_241 PATH=$JAVA_HOME/bin:$PATH
最后退出vi,输入source /etc/profile
测试输入命令java -version
,若是展现java
root@localhost ~]# java -version java version "1.8.0_241" Java(TM) SE Runtime Environment (build 1.8.0_241-b07) Java HotSpot(TM) 64-Bit Server VM (build 25.241-b07, mixed mode) [root@localhost ~]#
安装成功!
ssh免密配置请查看
node
sftp://root@192.168.3.62/root/software/hadoop-3.2.1.tar.gz
解压。
python
Hadoop的配置涉及如下几个文件,分别是:hadoop-env.sh、core-site.xml、hdfs-site.xml和workers。其中,hadoop-env.sh是Hadoop运行环境变量配置;core-site.xml是Hadoop公共属性的配置;hdfs-site.xml是关于HDFS的属性配置;workers是DataNode分布配置。下面咱们分别配置这几个文件。
以61为中心配置,最后复制到其余服务器linux
在/etc/hadoop/hadoop-env.sh中配置运行环境变量,在默认状况下,这个文件是没有任何配置的。咱们须要配置JAVA_HOME、HDFS_NAMENODE_USER和HDFS_DATANODE_USER等,HDFS_SECONDARYNAMENODE_USER配置代码以下:
在尾部加入apache
export JAVA_HOME=/root/software/jdk1.8.0_241 export HDFS_NAMENODE_USER=root export HDFS_DATANODE_USER=root export HDFS_SECONDARYNAMENODE_USER=root
其中,JAVA_HOME=/root/software/jdk1.8.0_241是指定JDK的位置,HDFS_NAMENODE_USER=root是指定操做NameNode进程的用户是root。同理,HDFS_DATANODE_USER和HDFS_SECONDARYNAMENODE_USER分别指定了操做DataNode和Secondary NameNode的用户,在这里咱们设置为root用户,具体应用时,读者根据状况进行设置便可。在这里须要注意的是,HDFS_NAMENODE_USER、HDFS_DATANODE_USER和HDFS_SECONDARYNAMENODE_USER是Hadoop 3.x为了提高安全性而引入的。vim
core-site.xml中主要配置Hadoop的公共属性,配置代码以下:浏览器
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://192.168.3.61:9820</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/opt/hadoopdata</value> </property> </configuration>
其中,fs.defaultFS是指定NameNode所在的节点,在这里配置为node1;9820是默认端口;hdfs:是协议;hadoop.tmp.dir是配置元数据所存放的配置,这里配置为/opt/hadoopdata,后续若是须要查看fsiamge和edits文件,能够到这个目录下查找。安全
hdfs-site.xml文件中主要是HDFS属性配置,配置代码以下:bash
<configuration> <property> <name>dfs.namenode.secondary.http-address</name> <value>192.168.3.63:9868</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.namenode.datanode.registration.ip-hostname-check</name> <value>false</value> </property>
其中,dfs.namenode.secondary.http-address属性是配置Secondary NameNode的节点,在这里配置为node2。端口为9868。
关于这些配置,读者能够从官网上查找,网址为https://hadoop.apache.org/docs/stable/index.html,其中的左下角有个Configuration项,其中包括core-default.xml等配置文件。
在workers中配DataNode节点,在其中写入:
192.168.3.61 192.168.3.62 192.168.3.64
进入 /root/software/hadoop-3.2.1/etc 目录
输入命令
scp -r ./hadoop 192.168.3.62:/root/software/hadoop-3.2.1/etc/ scp -r ./hadoop 192.168.3.63:/root/software/hadoop-3.2.1/etc/ scp -r ./hadoop 192.168.3.64:/root/software/hadoop-3.2.1/etc/
export JAVA_HOME=/root/software/jdk1.8.0_241 export HADOOP_HOME=/root/software/hadoop-3.2.1 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
第一次安装Hadoop须要进行格式化,之后就不须要了。格式化命令在hadoop/bin下面,执行以下命令:
hdfs namenode -formate
格式化后会建立一个空白的fsimage文件,能够在opt/hadoopdata/dfs/name/current中找到fsimage文件,注意此时没有edits文件。
进入hadoop/sbin下面运行start-dfs.sh,启动HDFS集群,启动命令以下:
./start-dfs.sh
这时,能够在不一样节点中经过jps命令查看不一样的进程。
61
62
63
在浏览器中输入http://ip:9870,好比这里输入http://192.168.30.61:9870/,出现如下界面则表示Hadoop彻底分布式搭建成功
选择Datanodes选项,能够看到DataNode的利用率和DataNode的节点状态
这里只显示了一个比较奇怪,之后再研究。
更多精彩请关注公众号【lovepythoncn】