1. JDK安装 node
JDK解压配置环境变量 vi /etc/profilesql
2. 每台机器相关设置 vim
1.设置静态ip(便于机器之间的通讯,防止路由器电脑重启后,ip变化,致使不能通讯) oop
vim /etc/sysconfig/network-scripts/ifcfg-eth0 spa
3. 修改各节点主机名(每台机器都要设) 插件
Etc/hosts orm
3.关闭防火墙 server
关闭已经启动的防火墙: service iptables stop (只能关闭当前) xml
验证:service iptables status 进程
4.为各个节点设置免SSH登录
4. Hadoop1.0.4安装 解压 进入conf目录修改六个文件
Core-site.xml
hadoop-env.sh
hdfs-site.xml
mapred-site.xml
slaves
masters
5. 将hadoop文件分发到各个节点机器上
6. 格式化HDFS 进入hadoop bin目录 执行:hadoop namenode -format
7. 启动hadoop 进去 hadoop bin目录start-all.sh
用jps查看主节点会有四个守护进程分别是:
32387 Jps
32283 JobTracker
32198 SecondaryNameNode
32021 NameNode
其余节点会有三个守护进程分别是:
30770 TaskTracker
30866 Jps
30666 DataNode
8. Hbase0.94的安装
解压Hbase压缩包进去conf目录 修改三个文件
Hbase-env.sh(false的设置表示不用自身的zookpeer去管理它,用本身配置的去管理它)
hbase-site.xml(hbase.cluster.distributed 设置true 使用外部zookpeer管理 false是自身的)
Regionservers注意:要是配置了外部的zookeeper要先启动它 而后启动 Hbase bin目录下的start-hbase.sh
9. zookeeper3.4.5安装
解压进入conf是有一个文件叫zoo_sample.cfg 咱们须要修改的文件时zoo.cfg固然了复制有一个嘛编辑zoo.cfg
注意:在zookeeper-3.4.5目录下创建data目录和dataLog目录。
而后在每一个data中创建文件myid里面编辑只须要数字 以此类推第二台在myid中写2,第三台在myid中写3
10. phoenix插件安装利用它来进行SQL操做Hbase表
1. 把phoenix中common中的phoenix-core-3.1.0.jar 放到Hbase的lib目录下面
2. 把Hbase中conf的hbase-site.xml放到phoenix /hadoop1/bin下面
3. 重启Hbase集群
4. Shell 命令操做 例如进入bin下 执行sqlline.py master:2181 回车
5.