一、安装vmwarenode
二、打开虚拟机,选择本地虚拟机文件(文章最后附件)linux
三、网络配置,删除vmnet8,增长一个vmnet8shell
四、选择桥接模式centos
五、再切换到net模式bash
六、修改文件:网络
cd /etc/sysconfig/network-scripts/ssh
vi ifcfg-eth0oop
DEVICE="eth0" BOOTPROTO="static" NM_CONTROLLED="yes" ONBOOT="yes" TYPE="Ethernet" IPADDR=192.168.37.10 NETMASK=255.255.255.0 GATEWAY=192.168.37.2 DNS1=202.106.0.20
七、重启网络服务rest
/etc/init.d/network restartcode
=======================
下一步使用xshell连接虚拟机
问题1:乱码问题
修改xshell设置,改成linux
多台虚拟机:
一、复制本地虚拟机,复制本地虚拟机文件夹
二、修改本地虚拟机文件夹名称
三、修改虚拟机vmware上的虚拟机名称
四、修改slave1和slave2上的ip
五、修改以后发现slave1和slave2不能上网
须要卸载slave1和slave2上的网卡
方法是:虚拟机设置,将网络适配器进行移除;而后从新添加一个。
2.1 vmware设置共享文件夹:虚拟机-》设置-》选项-》增长共享文件夹
查看: cd /mnt/hgfs/
2.2 拷贝到/usr/local/src 下
2.3 执行jdk
./jdk-6u45-linux-x64.bin
【注】:这个操做最好不要中断
2.4 修改环境变量
vi ~/.bashrc
export JAVA_HOME=/usr/local/src/jdk1.6.0_45 export PATH=$JAVA_HOME/bin:$PATH export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
2.5 复制jdk到另外两个节点
scp -rp jdk-6u45-linux-x64.bin 192.168.37.11:/usr/local/src/
scp -rp jdk-6u45-linux-x64.bin 192.168.37.12:/usr/local/src/
一、解压缩
tar xvfz hadoop-1.2.1-bin.tar.gz
二、在hadoop目录下增长tmp目录,用于存放临时文件
三、配置,进入conf目录
修改master
修改内容为master
修改slave文件
修改内容为slave1,slave2;
三、修改core-size.xml
<configuration> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/src/hadoop-1.2.1/tmp</value> </property> <property> <name>fs.default.name</name> <value>hdfs://192.168.37.10:9000</value> </property> </configuration>
四、修改 mapred-site.xml
<configuration> <property> <name>mapred.job.tracker</name> <value>http://192.168.37.10:9001</value> </property> </configuration>
五、修改hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>3</value> </property> </configuration>
六、修改hadoop-env.sh
在文件最后添加:
export JAVA_HOME=/usr/local/src/jdk1.6.0_45
七、本地网络配置:
修改/etc/hosts文件
最后添加:
192.168.37.10 master 192.168.37.11 slave1 192.168.37.12 slave2
使hostname生效
临时生效命令:hostname master
永久生效:修改/etc/sysconfig/network
修改成:HOSTNAME=master
八、远程拷贝到slave1和slave2
scp -rp hadoop-1.2.1 192.168.37.11:/usr/local/src/
scp -rp hadoop-1.2.1 192.168.37.12:/usr/local/src/
九、检验slave1和slave2上的文件是否正确
十、修改slave1和slave2上的hostname
修改slave1和slave2的/etc/hosts文件
修改slave1和slave2的/etc/sysconfig/network
十一、全部节点关闭防火墙
1.iptables
/etc/init.d/iptables stop
检查是否关闭:iptables -L
2.selinux
setenforce 0
检验:getenforce
创建节点的互信关系,不用输入密码,免密码登陆
master节点执行:
ssh-keygen
进入目录:cd ~/.ssh/
执行命令拷贝公钥内容到文件:cat id_rsa.pub > authorized_keys
在slave1节点上执行
ssh-keygen
进入目录:cd ~/.ssh/
复制公钥内容给master上的authorized_keys:cat id_rsa.pub
在slave2节点上执行
ssh-keygen
进入目录:cd ~/.ssh/
复制公钥内容给master上的authorized_keys:cat id_rsa.pub
在master上把authorized_keys复制到slave1和slave2
scp authorized_keys slave1:~/.ssh/
scp authorized_keys slave2:~/.ssh/
一、格式化
cd /usr/local/src/hadoop-1.2.1/bin
./hadoop namenode -format
二、启动./start-all.sh
附件:centos-6.5虚拟机镜像
连接:https://pan.baidu.com/s/1hseXY2C 密码:dm5c