hadoop安装笔记

1、设置Linux的静态IP java

修改桌面图标修改,或者修改配置文件修改 node

一、先执行ifconfig,获得网络设备的名称eth0 linux

二、编辑/etc/sysconfig/network-scripts/ifcfg-eth0文件 windows

设置静态ip、dns、ip地址、子网掩码、网关等信息 浏览器

三、重启网卡:service network restart 网络

最后执行ifconfig命令查看是否修改为功 ssh

该步骤需保证虚拟机中的Linux能与客户机在同一网段而且ping通 oop

 

2、修改主机名 字体

修改当前会话主机名(当前会话生效):hostname 主机名 spa

修改配置文件主机名(永久生效):vi /etc/sysconfig/network

重启机器查看是否修改为功:

其中hadoop为主机名

 

3、把hostname和ip绑定

修改hosts文件:vi /etc/hosts文件,增长一行

192.168.1.214     hadoop

验证:ping hadoop

 

4、关闭防火墙:service iptables stop

一、   查看防火墙状态:service iptables status

二、   关闭防火墙:service iptables stop

三、   关闭防火墙的自运行:

a)    查看自运行状态:chkconfig --list | grep 'iptables'

[root@hadoop sysconfig]# chkconfig --list | grep 'iptables'

iptables        0:关闭  1:关闭  2:启用  3:启用  4:启用  5:启用  6:关闭

b)    关闭:chkconfig iptables off

[root@hadoop sysconfig]# chkconfig iptables off

c)    再次查看自运行状态:chkconfig --list | grep 'iptables'

[root@ hadoop sysconfig]# chkconfig --list | grep 'iptables'

iptables        0:关闭  1:关闭  2:关闭  3:关闭  4:关闭  5:关闭  6:关

这样下次开机的时候就会不开启防火墙了

 

5、ssh免密码登录

一、生成秘钥文件

进入~/.ssh文件夹

注意:

1.若是没有.ssh文件夹,就使用ssh协议登陆一次试试

2.若是仍是没有.ssh文件夹,就本身建立一个。修改文件夹权限为700

cd  ~

cd  .ssh

生成秘钥:ssh-keygen -t rsa 

 

查看.ssh文件夹中已经多出了两个文件id_rsa id_rsa.pub

[root@hadoop .ssh]# ls

id_rsa  id_rsa.pub

 

二、查看秘钥文件是否生成成功

查看id_rsa.pub中的秘钥文件,反正我是看不懂

 

3、将id_rsa.pub文件内容放入到authorized_keys

 [root@hadoop .ssh]# cp id_rsa.pub authorized_keys

[root@hadoop .ssh]# ls

authorized_keys  id_rsa  id_rsa.pub

为何要复制出一份authorized_keys文件?

答:由于SSH在运行的时候会读取authorized_keys文件

 

 

4、验证是否免密码登录:ssh localhost

使用localhost,不输密码登录:ssh localhost

[root@hadoop .ssh]# ssh localhost

The authenticity of host 'localhost (127.0.0.1)' can't be established.

RSA key fingerprint is 8c:f4:bf:b5:c4:95:30:7b:1c:d7:cc:f8:69:15:e1:ab.

Are you sure you want to continue connecting (yes/no)? yes

Warning: Permanently added 'localhost' (RSA) to the list of known hosts.

Last login: Sun Apr  5 17:45:25 2015

验证:退出登录

[root@hadoop ~]#exit

 

[root@hadoop ~]#exit

再次输入exit的时候将会退出终端

 

6、安装JDK

1、授予执行权限:

chmod u+x jdk-6u24-linux-i586.bin

2、解压缩:./jdk-6u24-linux-i586.bin

[root@hadoop local]# ./jdk-6u24-linux-i586.bin

3、回车,查看jdk1.6.0.24文件夹

4、将jdk1.6.0_24重命名为jdkmv jdk1.6.0_24/ jdk

5、配置环境变量:

编辑/etc/profile文件,增长以下代码

export JAVA_HOME=/usr/local/jdk

export PATH=.:$JAVA_HOME/bin:$PATH

 

6、使设置当即生效:

source /etc/profile,再输入java –version时已经能够看到java版本了

 

7、伪分布安装hadoop

1、解压缩hadoop-1.1.2.tar.gz

            tar –zxvf hadoop-1.1.2.tar.gz

            为了方便重命名为hadoopmv hadoop-1.1.2 hadoop

2、添加到环境变量中

编辑/etc/profile文件,增长红色字体文件

export JAVA_HOME=/usr/local/jdk

export HADOOP_HOME=/usr/local/hadoop

export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

 

3、使设置当即生效:

source /etc/profile

 

4、修改hadoop的配置文件

$HADOOP_HOME/conf目录下的配置文件

修改如下4个配置文件

hadoop-env.sh

core-site.xml

hdfs-site.xml

mapred-site.xml

修改内容以下:

1.hadoop-env.sh修改内容以下:

export JAVA_HOME=/usr/local/jdk/

2.core-site.xml修改内容以下:

<configuration>

    <property>

        <name>fs.default.name</name>

        <value>hdfs://hadoop:9000</value>

        <description>change your own hostname</description>

    </property>

    <property>

        <name>hadoop.tmp.dir</name>

        <value>/usr/local/hadoop/tmp</value>

    </property> 

</configuration>

3.hdfs-site.xml修改内容以下:

<configuration>

    <property>

        <name>dfs.replication</name>

        <value>1</value>

    </property>

    <property>

        <name>dfs.permissions</name>

        <value>false</value>

    </property>

</configuration>

4.mapred-site.xml修改内容以下:

<configuration>

    <property>

        <name>mapred.job.tracker</name>

        <value>hadoop0:9001</value>

        <description>change your own hostname</description>

    </property>

</configuration>

 

4.1修改hadoop-env.sh(第9行)

# export JAVA_HOME=/usr/lib/j2sdk1.5-sun

取消#号注释

注意:jdk的安装路径

4.2修改core-site.xml

注意:主机名称(这里是hadoop

源文件内容

将须要修改的configuration中内容复制进去

4.3   修改hdfs-site.xml

源文件内容

复制修改

 

4.4修改mapred-site.xml

源内容

一样复制内容。注意修改主机名

注意:主机名称(这里是hadoop

 

5、对hadoop进行格式化

命令:hadoop namenode -format

若是格式化过程当中出现错误,则删除hadoop/tmp文件夹。从新格式化便可

 

6、启动hadoop

命令:start-all.sh

中止hadoopstop-all.sh

 

共启动5java进程

7、验证是否启动hadoop

7.1经过jps验证是否共5java进程

jps命令在windows中也有)

7.2 经过浏览器端口验证

注意:若是想在windows下访问。须要修改windows/system32/dirves/etc/host文件

增长以下映射

192.168.1.214  hadoop

 

浏览器地址输入: http://hadoop:50070/

或者: http://hadoop:50030/

出现以下界面说明hadoopNameNode正在运行,启动成功。

输入:http://hadoop:50030/

出现以下界面,说明HadoopMap/Reduce正在运行,启动成功。

8、消除start-all.sh时候的警告信息

出现上面警告信息的缘由为:hadoop-config.sh文件中的以下代码

主要是:$HADOOP_HOME_WARN_SUPPRESS变量内容为空

解决办法是设置该变量不为空便可!

修改/etc/profile文件,增长以下代码

export  HADOOP_HOME_WARN_SUPPRESS=1

 

而后使设置生效:source /etc/profile

 

 

 

 

 



相关文章
相关标签/搜索