vmware方式搭建hadoop-1.2.1 集群

Linux节点搭建

一、安装vmwarenode

二、打开虚拟机,选择本地虚拟机文件(文章最后附件)linux

三、网络配置,删除vmnet8,增长一个vmnet8shell

四、选择桥接模式centos

五、再切换到net模式bash

六、修改文件:网络

cd /etc/sysconfig/network-scripts/ssh

vi ifcfg-eth0oop

DEVICE="eth0"

BOOTPROTO="static"

NM_CONTROLLED="yes"

ONBOOT="yes"

TYPE="Ethernet"

IPADDR=192.168.37.10

NETMASK=255.255.255.0

GATEWAY=192.168.37.2

DNS1=202.106.0.20

七、重启网络服务rest

/etc/init.d/network restartcode

=======================

下一步使用xshell连接虚拟机

问题1:乱码问题

修改xshell设置,改成linux

hadoop集群安装准备:

多台虚拟机:

一、复制本地虚拟机,复制本地虚拟机文件夹

二、修改本地虚拟机文件夹名称

三、修改虚拟机vmware上的虚拟机名称

四、修改slave1和slave2上的ip

五、修改以后发现slave1和slave2不能上网

须要卸载slave1和slave2上的网卡

方法是:虚拟机设置,将网络适配器进行移除;而后从新添加一个。

2、安装Java环境

2.1 vmware设置共享文件夹:虚拟机-》设置-》选项-》增长共享文件夹

查看: cd /mnt/hgfs/

2.2 拷贝到/usr/local/src 下

2.3 执行jdk

./jdk-6u45-linux-x64.bin

【注】:这个操做最好不要中断

2.4 修改环境变量

vi ~/.bashrc

export JAVA_HOME=/usr/local/src/jdk1.6.0_45

export PATH=$JAVA_HOME/bin:$PATH

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

2.5 复制jdk到另外两个节点

scp -rp jdk-6u45-linux-x64.bin 192.168.37.11:/usr/local/src/

scp -rp jdk-6u45-linux-x64.bin 192.168.37.12:/usr/local/src/

3、安装hadoop

一、解压缩

tar xvfz hadoop-1.2.1-bin.tar.gz

二、在hadoop目录下增长tmp目录,用于存放临时文件

三、配置,进入conf目录

修改master

修改内容为master

修改slave文件

修改内容为slave1,slave2;

三、修改core-size.xml

<configuration>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/src/hadoop-1.2.1/tmp</value>

</property>

<property>

<name>fs.default.name</name>

<value>hdfs://192.168.37.10:9000</value>

</property>

</configuration>

四、修改 mapred-site.xml

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>http://192.168.37.10:9001</value>

</property>

</configuration>

五、修改hdfs-site.xml

<configuration>

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

</configuration>

六、修改hadoop-env.sh

在文件最后添加:

export JAVA_HOME=/usr/local/src/jdk1.6.0_45

七、本地网络配置:

修改/etc/hosts文件

最后添加:

192.168.37.10 master

192.168.37.11 slave1

192.168.37.12 slave2

使hostname生效

临时生效命令:hostname master

永久生效:修改/etc/sysconfig/network

修改成:HOSTNAME=master

八、远程拷贝到slave1和slave2

scp -rp hadoop-1.2.1 192.168.37.11:/usr/local/src/

scp -rp hadoop-1.2.1 192.168.37.12:/usr/local/src/

九、检验slave1和slave2上的文件是否正确

十、修改slave1和slave2上的hostname

  1. 修改slave1和slave2的/etc/hosts文件

  2. 修改slave1和slave2的/etc/sysconfig/network

十一、全部节点关闭防火墙

1.iptables

/etc/init.d/iptables stop

检查是否关闭:iptables -L

2.selinux

setenforce 0

检验:getenforce

免密码登陆节点

创建节点的互信关系,不用输入密码,免密码登陆

master节点执行:

ssh-keygen

进入目录:cd ~/.ssh/

执行命令拷贝公钥内容到文件:cat id_rsa.pub > authorized_keys

在slave1节点上执行

ssh-keygen

进入目录:cd ~/.ssh/

复制公钥内容给master上的authorized_keys:cat id_rsa.pub

在slave2节点上执行

ssh-keygen

进入目录:cd ~/.ssh/

复制公钥内容给master上的authorized_keys:cat id_rsa.pub

在master上把authorized_keys复制到slave1和slave2

scp authorized_keys slave1:~/.ssh/

scp authorized_keys slave2:~/.ssh/

启动

一、格式化

cd /usr/local/src/hadoop-1.2.1/bin

./hadoop namenode -format

二、启动./start-all.sh

附件:centos-6.5虚拟机镜像

连接:https://pan.baidu.com/s/1hseXY2C 密码:dm5c

相关文章
相关标签/搜索