hadoop入门?

相关的学习资料在这java

https://pan.baidu.com/s/1ghgYMobnode

ymw5算法

 

算是学习的总结吧,写的简单点ssh

这里使用的虚拟机作实验oop

首先须要四台虚拟机,一台master,三台slave学习

安装好后要求它们和主机两两之间都能ping通orm

 

配置名称解析仍是叫什么的,就好比说ping 另外一个主机名至关于ping它的ipxml

修改 /etc/hosts 文件,像下边这样blog

 

而后把上边资料里边的hadoop压缩包和jdk包都搞到四台虚拟机中,能够用xftp,简单ip

而后把这两个包都解压缩

tar.gz 用命令: tar -zxvf  filename.tar.gz

rpm 用命令:rpm -ivh filename.rpm

-后边的字母都有特殊的含义,用--help查看吧

直接安装都在 /usr/local/目录下能找到

而后在 /usr/local/hadoop/etc/hadoop/目录下修改配置文件,hadoop主要的配置文件都在这

首先修改hadoop-env.sh文件中的java_home路径,以下图

而后修改core-site.xml文件,指定master即namenode所在的机器,以下图

注意四台机器都要进行修改!!!!

 

向另一台机器复制文件

scp  /usr/local/test.txt  root@slave1:/usr/local/test.txt

 

完成以上配置后,就能够单独在每台机器上启动hadoop了

启动以前,对存储文件进行格式化?

hdfs namenode -format

单独启动hadoop:

hadoop-daemon.sh start namenode  存储文件系统元数据(文件目录结构、分块状况、每块位置、权限等)存在内存中

hadoop-daemon.sh start datanode

 

下面讲如何配置master到slave的免密ssh登陆:

使用start-dfs.sh命令能够启动全部其余机器的hadoop

修改master上的slaves文件,添加datanode信息,以下图

 可是这样须要输入不少密码,还会默认启动SecondaryNameNode

进入 /root/.ssh

使用命令 ssh-keygen -t rsa

默认直接回车

会用rsa算法生成私钥id_rsa和公钥id_rsa.pub

使用命令 ssh-copy-id slave1, 会要求输入slave的密码

还要给master拷贝一份

传完后再使用start-dfs.sh,就不用密码了

就是这样

相关文章
相关标签/搜索