Hadoop1.0.4+Hbase0.94+zookeeper3.4.5+phoenix3.1.0

 

1.       JDK安装 node

JDK解压配置环境变量 vi /etc/profilesql

2.       每台机器相关设置 vim

1.设置静态ip(便于机器之间的通讯,防止路由器电脑重启后,ip变化,致使不能通讯) oop

vim /etc/sysconfig/network-scripts/ifcfg-eth0 spa

3.       修改各节点主机名(每台机器都要设) 插件

Etc/hosts orm

3.关闭防火墙 server

关闭已经启动的防火墙: service iptables stop (只能关闭当前) xml

验证:service iptables status 进程

4.为各个节点设置免SSH登录

4.       Hadoop1.0.4安装 解压 进入conf目录修改六个文件

Core-site.xml

hadoop-env.sh

hdfs-site.xml

mapred-site.xml

slaves

masters

 

5.       hadoop文件分发到各个节点机器上

6.       格式化HDFS 进入hadoop bin目录 执行:hadoop namenode -format

7.       启动hadoop 进去 hadoop bin目录start-all.sh

jps查看主节点会有四个守护进程分别是:

32387 Jps

32283 JobTracker

32198 SecondaryNameNode

32021 NameNode

         其余节点会有三个守护进程分别是:

30770 TaskTracker

30866 Jps

30666 DataNode

8.       Hbase0.94的安装

解压Hbase压缩包进去conf目录 修改三个文件

Hbase-env.shfalse的设置表示不用自身的zookpeer去管理它,用本身配置的去管理它)

hbase-site.xml(hbase.cluster.distributed 设置true 使用外部zookpeer管理 false是自身的)

Regionservers注意:要是配置了外部的zookeeper要先启动它 而后启动 Hbase bin目录下的start-hbase.sh

9.       zookeeper3.4.5安装

解压进入conf是有一个文件叫zoo_sample.cfg 咱们须要修改的文件时zoo.cfg固然了复制有一个嘛编辑zoo.cfg

注意:zookeeper-3.4.5目录下创建data目录和dataLog目录。

而后在每一个data中创建文件myid里面编辑只须要数字 以此类推第二台在myid中写2,第三台在myid中写3

10.   phoenix插件安装利用它来进行SQL操做Hbase

1.       phoenixcommon中的phoenix-core-3.1.0.jar 放到Hbaselib目录下面

2.       Hbaseconfhbase-site.xml放到phoenix /hadoop1/bin下面

3.       重启Hbase集群

4.       Shell 命令操做 例如进入bin 执行sqlline.py master:2181 回车

5.      

相关文章
相关标签/搜索
本站公众号
   欢迎关注本站公众号,获取更多信息