Hadoop组件依赖图(从下往上看)node
安装步骤:浏览器
详细步骤:ssh
设置ssh自动登陆(以下图):分布式
一、输入命令 【ssh-keygen -t rsa】,而后一直按回车就能够了oop
二、而后切换目录到 ~ .ssh目录下执行命令【cp id_rsa.pub authorized_keys】学习
三、这样就完成了,而后测试测试
1) 输入命令【ssh localhost】,而后输入【yes】,就会登录成功另外会看到本来的 .ssh目录变成了 ~ 目录spa
2) 输入命令【exit】退出,而后仍是在之前的.ssh目录下,这时候输入ll会发现多了一个 known_hosts文件,顾名思义。3d
3) 而后再次输入命令【ssh localhost】就能够直接登陆了,固然还能够【ssh ip地址】、【ssh 主机名】等等,只需第一次输入【yes】,以后就能够直接登陆了。
下面进行hadoop相关文件配置:
一、配置 hadoop 环境文件 hadoop-env.sh
1) 打开文件,找到某行有 ”# export JAVA_HOME = ...” 字样的地方,去掉 “#” ,而后在等号后面填写你本身的 JDK 路径,好比像我本身的 JDK 路径,那就改成了 以下所示
export JAVA_HOME=/opt/modules/jdk1.7.0_45
2) 配置 Hadoop 的核心文件 core-site.xml
打开文件,会发现标签 <configuration></configuration> 中是空的,在空的地方添加以下配置
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://hadoop-master.dragon.org:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/data/tmp</value>
</property>
</configuration>
二、
上面配置项是 hdfs副本数(默认为3),下面配置项为 是否进行权限检查
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
三、
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hadoop-master.dragon.org:9001</value>
</property>
</configuration>
固然下面两个也能够用默认配置
hadoop-master.dragon.org
hadoop-master.dragon.org
到这里,基本就算配置完毕了
测试:
首先格式化:hadoop namenode -format
而后启动:
初步学习安装能够一步一步来(在hadoop的bin目录下)
可先启动start-dfs.sh
而后可输入jps观察以下
可在浏览器 输入 http://192.168.1.123:50070看到相关信息(固然也能够输入域名等)
而后启动start-mapred.sh
而后可输入jps观察以下
可在浏览器 输入 http://192.168.1.123:50030看到相关信息(固然也能够输入域名等)
好了,到这里伪分布式环境搭建就算结束了。