Hadoop1.2.1 伪分布式安装

Hadoop1.2.1 单机模式安装html

 

Hadoop组件依赖图(从下往上看)node

 

 

安装步骤:浏览器

 

详细步骤:ssh

  设置ssh自动登陆(以下图):分布式

  一、输入命令 【ssh-keygen -t rsa】,而后一直按回车就能够了oop

  二、而后切换目录到 ~ .ssh目录下执行命令【cp id_rsa.pub authorized_keys学习

  三、这样就完成了,而后测试测试

    1) 输入命令【ssh localhost】,而后输入【yes】,就会登录成功另外会看到本来的 .ssh目录变成了 目录spa

    2) 输入命令【exit】退出,而后仍是在之前的.ssh目录下,这时候输入ll会发现多了一个 known_hosts文件,顾名思义。3d

    3) 而后再次输入命令【ssh localhost】就能够直接登陆了,固然还能够【ssh ip地址】、【ssh 主机名】等等,只需第一次输入【yes】,以后就能够直接登陆了。

 

 

下面进行hadoop相关文件配置:

 

一、配置 hadoop 环境文件 hadoop-env.sh

 1) 打开文件,找到某行有 ”# export JAVA_HOME = ...”  字样的地方,去掉 “#” ,而后在等号后面填写你本身的 JDK 路径,好比像我本身的 JDK 路径,那就改成了 以下所示

export JAVA_HOME=/opt/modules/jdk1.7.0_45

2) 配置 Hadoop 的核心文件 core-site.xml

  打开文件,会发现标签 <configuration></configuration> 中是空的,在空的地方添加以下配置

  <configuration>

    <property>

          <name>fs.default.name</name>

          <value>hdfs://hadoop-master.dragon.org:9000</value>

    </property>

        <property>

            <name>hadoop.tmp.dir</name>

            <value>/opt/data/tmp</value>

       </property>

  </configuration>

 

 二、

 

上面配置项是 hdfs副本数(默认为3),下面配置项为 是否进行权限检查

<configuration>

  <property>

        <name>dfs.replication</name>

        <value>1</value>

  </property>

     <property>

        <name>dfs.permissions</name>

        <value>false</value>

     </property>

</configuration>

 

 三、

<configuration>

  <property>  

       <name>mapred.job.tracker</name>  

       <value>hadoop-master.dragon.org:9001</value>  

   </property> 

 

</configuration>

 

固然下面两个也能够用默认配置

hadoop-master.dragon.org

hadoop-master.dragon.org

 

到这里,基本就算配置完毕了

 

测试:

  首先格式化:hadoop namenode -format

 

  而后启动:

 

  初步学习安装能够一步一步来(hadoopbin目录下)

    可先启动start-dfs.sh

    而后可输入jps观察以下

     

    可在浏览器 输入 http://192.168.1.123:50070看到相关信息(固然也能够输入域名等)

 

    而后启动start-mapred.sh 

    而后可输入jps观察以下

    

    可在浏览器 输入 http://192.168.1.123:50030看到相关信息(固然也能够输入域名等)

 

好了,到这里伪分布式环境搭建就算结束了。

相关文章
相关标签/搜索