Chapter 1: 引言 html
近期电信集团公司举办了大数据技术培训课,按照要求,Hadoop小白的我对二者做完对比,进行实际操做作一个练习记录吧,嘿嘿。。。 数据库
二者的共同点:
1.hbase与hive都是架构在hadoop之上的。都是用hadoop做为底层存储
二者的区别: 服务器
2.Hive是创建在Hadoop之上为了减小MapReduce jobs编写工做的批处理系统,HBase是为了支持弥补Hadoop对实时操做的缺陷的项目 。 架构
3.想象你在操做RMDB数据库,若是是全表扫描,就用Hive+Hadoop,若是是索引访问,就用HBase+Hadoop 。 框架
4.Hive query就是MapReduce jobs能够从5分钟到数小时不止,HBase是很是高效的,确定比Hive高效的多。 oop
5.Hive自己不存储和计算数据,它彻底依赖于HDFS和MapReduce,Hive中的表纯逻辑。 大数据
6.hive借用hadoop的MapReduce来完成一些hive中的命令的执行 搜索引擎
7.hbase是物理表,不是逻辑表,提供一个超大的内存hash表,搜索引擎经过它来存储索引,方便查询操做。 spa
8.hbase是列存储。因此Hbase能够对数据进行增改删等操做,但Hive是行的,只能追加数据。 .net
9.hdfs做为底层存储,hdfs是存放文件的系统,而Hbase负责组织文件。
10.hive须要用到hdfs存储文件,须要用到MapReduce计算框架。
Chapter 2: Hive操做
基础操做:
登陆Hadoop的Master节点--》切换到Hadoop账号-->使用Hive查看表,并exit退出:
联合查询:
内链接:
hive> SELECT sales.*, things.* FROM sales JOIN things ON (sales.id = things.id);
查看hive为某个查询使用多少个MapReduce做业
hive> Explain SELECT sales.*, things.* FROM sales JOIN things ON (sales.id = things.id);
外链接:
hive> SELECT sales.*, things.* FROM sales LEFT OUTER JOIN things ON (sales.id = things.id);
hive> SELECT sales.*, things.* FROM sales RIGHT OUTER JOIN things ON (sales.id = things.id);
hive> SELECT sales.*, things.* FROM sales FULL OUTER JOIN things ON (sales.id = things.id);
in查询:Hive不支持,但可使用LEFT SEMI JOIN
hive> SELECT * FROM things LEFT SEMI JOIN sales ON (sales.id = things.id);
CREATE TABLE ... AS SELECT:新表预先不存在
hive>CREATE TABLE target AS SELECT col1,col2 FROM source;
视图查询:
建立视图:
hive> CREATE VIEW valid_records AS SELECT * FROM records2 WHERE temperature !=9999;
查看视图详细信息:
hive> DESCRIBE EXTENDED valid_records;
外部表、内部表、分区表的区别及操做:
此时,会在hdfs上新建一个tt表的数据存放地,例如,笔者是在 hdfs://master/input/table_data
上传hdfs数据到表中:
load data inpath '/input/data' into table tt;
删除tt表后,会将tt表的数据和元数据信息所有删除,即最后/input/table_data下无数据,固然/input/data下再上一步已经没有了数据!
若是建立内部表时没有指定location,就会在/user/hive/warehouse/下新建一个表目录,其他状况同上。
注意的地方就是:load data会转移数据!
2. 外部表:
create external table et (name string , age string);
load data inpath '/input/edata' into table et;
此时会把hdfs上/input/edata/下的数据转到/user/hive/warehouse/et下,删除这个外部表后,/user/hive/warehouse/et下的数据不会删除,可是/input/edata/下的数据在上一步load后已经没有了!数据的位置发生了变化!本质是load一个hdfs上的数据时会转移数据!
3. 分区表
为内部表某个分区导入数据,Hive将创建目录并拷贝数据到分区当中
LOAD DATA LOCAL INPATH '${env:HOME}/california-employees'
INTO TABLE employees
PARTITION (country = 'US', state = 'CA');
为外部表某个分区添加数据
ALTER TABLE log_messages ADD IF NOT EXISTS PARTITION(year = 2012, month = 1, day = 2)
LOCATION 'hdfs://master_server/data/log_messages/2012/01/02';
备注:Hive并不关心分区,目录是否存在,是否有数据,这会致使没有查询结果
从本地文件系统中加载数据。 LOAD DATA LOCAL INPATH "/opt/data/1.txt" INTO TABLE table1; 意思是,从本地文件系统/opt/data/1.txt加载到hive的table1中。这时hive会读取该文件,并将内容写到hdfs中table1所在的位置。
Chapter 3: HBase操做
语法:
在安装Hbase以前需先安装Zookeeper,见http://xxx
操做 | 命令表达式 |
建立表 | create 'table_name', 'family1','family2','familyN' |
添加(更新)记录 | put 'table_name', 'rowkey', 'family:column', 'value' |
查看记录 | get 'table_name', 'rowkey' |
查看表中的记录总数 | count 'table_name' |
删除记录 | delete 'table_name' ,'rowkey' , 'family:column' deleteall 'table_name','rowkey' |
删除一张表 | 先 disable 'table_name' 再 drop 'table_name' |
查看全部记录 | scan "table_name" ,很危险 最好加LIMIT : scan 'table_name',LIMIT=>10 |
查看某个表某个列中全部数据 | scan "table" , {COLUMNS =>['family1:','family2' VERSIONS=2]} VERSIONS 选填 |
status //查看服务器状态
version //查询Hbase版本
create 'test','course','device' //建立表
list //列出全部的表
exists 'test' //查询表是否存在
put 'test','Li Lei','course:Math','90'
put 'test','Han Meimei','course:English','92' //插入记录
get 'test','Li Lei' //获取一个Id的全部数据
get 'test','Li Lei','device' //获取一个ID,一个列族的全部数据
get 'test','Li Lei','device:laptop' // 获取一个ID,一个列族中的一个列的全部数据
更新一条记录:
put 'test','Li Yang','device:laptop','Asus'
count 'test' //查看表中有多少行
delete 'test','Li Yang','device:laptop‘ //删除id为’Li Yang’的值的’device:laptop’字段
deleteall 'test','Li Yang‘ //删除整行
删除表:
disable 'test'
drop 'test‘
退出:
exit