在每台linux机器上,sudo vim /etc/hosts 编写hosts文件。将主机名和ip地址的映射填写进去。编辑完后,结果以下:java
四台虚拟机上,使用: ssh-keygen -t rsa 一路回车就好了node
master上将公钥放到authorized_keys里。命令::linux
sudo cat id_rsa.pub >> authorized_keys
将master上的authorized_keys放到其余linux的~/.ssh目录下。vim
sudo scp authorized_keys cjpt@132.228.28.183:~/.ssh
修改authorized_keys权限,命令:chmod 644 authorized_keysbash
测试是否成功ssh
ssh cjpt@132.228.28.183
输入用户名密码,而后退出,再次ssh hostbb不用密码,直接进入系统。这就表示成功了jvm
下载java,解压缩放到/usr/lib/jvm路径下oop
在.bash_profile文件添加环境变量,vim ~/.bash_profile:测试
export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_60 export JRE_HOME=/usr/lib/jvm/jdk1.7.0_60/jre
source ~/.bash_profile,使配置生效spa
vim ~/.bashrc
export HADOOP_PREFIX=/home/cjpt/hadoop-2.2.0.2.0.6.0-76 export HADOOP_HOME=/home/cjpt/hadoop-2.2.0.2.0.6.0-76 export PATH=$HADOOP_HOME/bin:$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
注意:JAVA_HOME必须是绝对路径,否则会报错
上面的hadoop-env.sh,core-site.xml,mapred-site.xml,hdfs-site.xml,master,slave几个文件,在四台linux中都是同样的。
配置完一台电脑后,能够将hadoop包,直接拷贝到其余电脑上。
source hadoop-env.sh
hadoop namenode –format
切到hadoop/sbin目录下,执行 start-all.sh启动全部程序
./start-all.sh
jps