hive经常使用命令

Hive基本操做

这是apach的一个子项目。依赖于hadoop 必须有器服务才成。还必需要有一个数据库。最好使用linux 进行玩耍,若是使用win 会有意想不到的异常。node

 

1. DDL操做
1.1. 建立表建表语法
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name
[(col_name data_type [COMMENT col_comment], ...)]
[COMMENT table_comment]
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)]
[CLUSTERED BY (col_name, col_name, ...)
[SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS]
[ROW FORMAT row_format]
[STORED AS file_format]
[LOCATION hdfs_path]
说明:
一、 CREATE TABLE 建立一个指定名字的表。若是相同名字的表已经存在,则抛出异常;用户能够用 IF NOT EXISTS 选项来忽略这个异常。
二、 EXTERNAL关键字可让用户建立一个外部表,在建表的同时指定一个指向实际数据的路径(LOCATION)。
Hive 建立内部表时,会将数据移动到数据仓库指向的路径;若建立外部表,仅记录数据所在的路径,不对数据的位置作任何改变。在删除表的时候,内部表的元数据和数据会被一块儿删除,而外部表只删除元数据,不删除数据。
三、 LIKE 容许用户复制现有的表结构,可是不复制数据。
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] [db_name.]table_name LIKE existing_table;linux

四、 ROW FORMAT DELIMITED
[FIELDS TERMINATED BY char]
[COLLECTION ITEMS TERMINATED BY char]
[MAP KEYS TERMINATED BY char]
[LINES TERMINATED BY char] | SERDE serde_name
[WITH SERDEPROPERTIES
(property_name=property_value, property_name=property_value,...)]
hive建表的时候默认的分割符是'\001',若在建表的时候没有指明分隔符,load文件的时候文件的分隔符须要是'\001';若文件分隔符不是'001',程序不会报错,但表查询的结果会所有为'null';
用vi编辑器Ctrl+v而后Ctrl+a便可输入'\001' -----------> ^A
SerDe是Serialize/Deserilize的简称,目的是用于序列化和反序列化。
Hive读取文件机制:首先调用InputFormat(默认TextInputFormat),返回一条一条记录(默认是一行对应一条记录)。而后调用SerDe(默认LazySimpleSerDe)的Deserializer,将一条记录切分为各个字段(默认'\001')。
Hive写文件机制:将Row写入文件时,主要调用OutputFormat、SerDe的Seriliazer,顺序与读取相反。
可经过desc formatted 表名;进行相关信息查看。
当咱们的数据格式比较特殊的时候,能够自定义SerDe。
五、 PARTITIONED BY
在hive Select查询中通常会扫描整个表内容,会消耗不少时间作不必的工做。有时候只须要扫描表中关心的一部分数据,所以建表时引入了partition分区概念。
分区表指的是在建立表时指定的partition的分区空间。一个表能够拥有一个或者多个分区,每一个分区以文件夹的形式单独存在表文件夹的目录下。表和列名不区分大小写。分区是以字段的形式在表结构中存在,经过describe table命令能够查看到字段存在,可是该字段不存放实际的数据内容,仅仅是分区的表示。算法

六、 STORED AS SEQUENCEFILE|TEXTFILE|RCFILE
若是文件数据是纯文本,可使用 STORED AS TEXTFILE。若是数据须要压缩,使用 STORED AS SEQUENCEFILE。
TEXTFILE是默认的文件格式,使用DELIMITED子句来读取分隔的文件。
六、CLUSTERED BY INTO num_buckets BUCKETS
对于每个表(table)或者分,Hive能够进一步组织成桶,也就是说桶是更为细粒度的数据范围划分。Hive也是针对某一列进行桶的组织。Hive采用对列值哈希,而后除以桶的个数求余的方式决定该条记录存放在哪一个桶当中。
把表(或者分区)组织成桶(Bucket)有两个理由:
(1)得到更高的查询处理效率。桶为表加上了额外的结构,Hive 在处理有些查询时能利用这个结构。具体而言,链接两个在(包含链接列的)相同列上划分了桶的表,可使用 Map 端链接 (Map-side join)高效的实现。好比JOIN操做。对于JOIN操做两个表有一个相同的列,若是对这两个表都进行了桶操做。那么将保存相同列值的桶进行JOIN操做就能够,能够大大较少JOIN的数据量。
(2)使取样(sampling)更高效。在处理大规模数据集时,在开发和修改查询的阶段,若是能在数据集的一小部分数据上试运行查询,会带来不少方便。数据库

1.2. 修改表
增长分区:
ALTER TABLE table_name ADD PARTITION (dt='20170101') location
'/user/hadoop/warehouse/table_name/dt=20170101'; //一次添加一个分区
ALTER TABLE table_name ADD PARTITION (dt='2008-08-08', country='us') location
'/path/to/us/part080808' PARTITION (dt='2008-08-09', country='us') location
'/path/to/us/part080809'; //一次添加多个分区
删除分区
ALTER TABLE table_name DROP IF EXISTS PARTITION (dt='2008-08-08');
ALTER TABLE table_name DROP IF EXISTS PARTITION (dt='2008-08-08', country='us');缓存

修改分区
ALTER TABLE table_name PARTITION (dt='2008-08-08') RENAME TO PARTITION (dt='20080808');
添加列
ALTER TABLE table_name ADD|REPLACE COLUMNS (col_name STRING);
注:ADD是表明新增一个字段,新增字段位置在全部列后面(partition列前)
REPLACE则是表示替换表中全部字段。
修改列
test_change (a int, b int, c int);
ALTER TABLE test_change CHANGE a a1 INT; //修改a字段名
// will change column a's name to a1, a's data type to string, and put it after column b. The new table's structure is: b int, a1 string, c int
ALTER TABLE test_change CHANGE a a1 STRING AFTER b;
// will change column b's name to b1, and put it as the first column. The new table's structure is: b1 int, a ints, c int
ALTER TABLE test_change CHANGE b b1 INT FIRST;
表重命名
ALTER TABLE table_name RENAME TO new_table_name
1.3. 显示命令
show tables;
显示当前数据库全部表
show databases |schemas;
显示全部数据库
show partitions table_name;
显示表分区信息,不是分区表执行报错
show functions;
显示当前版本hive支持的全部方法
desc extended table_name;
查看表信息
desc formatted table_name;
查看表信息(格式化美观)
describe database database_name;
查看数据库相关信息编辑器

2. DML操做2.1. Load
在将数据加载到表中时,Hive不会进行任何转换。加载操做是将数据文件移动到与Hive表对应的位置的纯复制/移动操做。
语法结构
LOAD DATA [LOCAL] INPATH 'filepath' [OVERWRITE] INTO
TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 ...)]
说明:
一、 filepath
相对路径,例如:project/data1
绝对路径,例如:/user/hive/project/data1
完整 URI,例如:hdfs://namenode:9000/user/hive/project/data1
filepath能够引用一个文件(在这种状况下,Hive将文件移动到表中),或者它能够是一个目录(在这种状况下,Hive将把该目录中的全部文件移动到表中)。
二、 LOCAL
若是指定了 LOCAL, load命令将在本地文件系统中查找文件路径。
load 命令会将 filepath中的文件复制到目标文件系统中。目标文件系统由表的位置属性决定。被复制的数据文件移动到表的数据对应的位置。
若是没有指定 LOCAL 关键字,若是 filepath 指向的是一个完整的 URI,hive 会直接使用这个 URI。 不然:若是没有指定 schema 或者 authority,Hive 会使用在 hadoop 配置文件中定义的 schema 和 authority,fs.default.name 指定了 Namenode 的 URI。
三、 OVERWRITE
若是使用了 OVERWRITE 关键字,则目标表(或者分区)中的内容会被删除,而后再将 filepath 指向的文件/目录中的内容添加到表/分区中。
若是目标表(分区)已经有一个文件,而且文件名和 filepath 中的文件名冲突,那么现有的文件会被新文件所替代。
2.2. Insert
Hive中insert主要是结合select查询语句使用,将查询结果插入到表中,例如:
insert overwrite table stu_buck
select * from student cluster by(Sno);
须要保证查询结果列的数目和须要插入数据表格的列数目一致.
若是查询出来的数据类型和插入表格对应的列数据类型不一致,将会进行转换,可是不能保证转换必定成功,转换失败的数据将会为NULL。
能够将一个表查询出来的数据插入到原表中, 结果至关于自我复制了一份数据。
Multi Inserts多重插入:
from source_table
insert overwrite table tablename1 [partition (partcol1=val1,partclo2=val2)] select_statement1
insert overwrite table tablename2 [partition (partcol1=val1,partclo2=val2)] select_statement2..
Dynamic partition inserts动态分区插入:
INSERT OVERWRITE TABLE tablename PARTITION (partcol1[=val1], partcol2[=val2] ...) select_statement FROM from_statement
动态分区是经过位置来对应分区值的。原始表select出来的值和输出partition的值的关系仅仅是经过位置来肯定的,和名字并无关系。
导出表数据
语法结构
INSERT OVERWRITE [LOCAL] DIRECTORY directory1 SELECT ... FROM ...
multiple inserts:
FROM from_statement
INSERT OVERWRITE [LOCAL] DIRECTORY directory1 select_statement1
[INSERT OVERWRITE [LOCAL] DIRECTORY directory2 select_statement2] ...
数据写入到文件系统时进行文本序列化,且每列用^A来区分,\n为换行符。ide

2.3. Select
基本的Select操做
语法结构
SELECT [ALL | DISTINCT] select_expr, select_expr, ...
FROM table_reference
JOIN table_other ON expr
[WHERE where_condition]
[GROUP BY col_list [HAVING condition]]
[CLUSTER BY col_list
| [DISTRIBUTE BY col_list] [SORT BY| ORDER BY col_list]
]
[LIMIT number]
说明:
一、order by 会对输入作全局排序,所以只有一个reducer,会致使当输入规模较大时,须要较长的计算时间。
二、sort by不是全局排序,其在数据进入reducer前完成排序。所以,若是用sort by进行排序,而且设置mapred.reduce.tasks>1,则sort by只保证每一个reducer的输出有序,不保证全局有序。
三、distribute by(字段)根据指定字段将数据分到不一样的reducer,分发算法是hash散列。
四、Cluster by(字段) 除了具备Distribute by的功能外,还会对该字段进行排序。
若是distribute和sort的字段是同一个时,此时,cluster by = distribute by + sort byoop

3. Hive join
Hive中除了支持和传统数据库中同样的内关联、左关联、右关联、全关联,还支持LEFT SEMI JOIN和CROSS JOIN,但这两种JOIN类型也能够用前面的代替。
Hive 支持等值链接(a.id = b.id),不支持非等值(a.id>b.id)的链接,由于非等值链接很是难转化到 map/reduce 任务。另外,Hive 支持多 2 个以上表之间的join。
写 join 查询时,须要注意几个关键点: 
l join 时,每次 map/reduce 任务的逻辑:
reducer 会缓存 join 序列中除了最后一个表的全部表的记录,再经过最后一个表将结果序列化到文件系统。这一实现有助于在 reduce 端减小内存的使用量。实践中,应该把最大的那个表写在最后(不然会由于缓存浪费大量内存)。
l LEFT,RIGHT 和 FULL OUTER 关键字用于处理 join 中空记录的状况
SELECT a.val, b.val FROM a LEFT OUTER JOIN b ON (a.key=b.key)
对应全部 a 表中的记录都有一条记录输出。输出的结果应该是 a.val, b.val,当 a.key=b.key 时,而当 b.key 中找不到等值的 a.key 记录时也会输出:
a.val, NULL
因此 a 表中的全部记录都被保留了;
“a RIGHT OUTER JOIN b”会保留全部 b 表的记录。
l Join 发生在 WHERE 子句以前。
若是你想限制 join 的输出,应该在 WHERE 子句中写过滤条件——或是在 join 子句中写。这里面一个容易混淆的问题是表分区的状况:
SELECT a.val, b.val FROM a
LEFT OUTER JOIN b ON (a.key=b.key)
WHERE a.ds='2009-07-07' AND b.ds='2009-07-07'
这会 join a 表到 b 表(OUTER JOIN),列出 a.val 和 b.val 的记录。WHERE 从句中可使用其余列做为过滤条件。可是,如前所述,若是 b 表中找不到对应 a 表的记录,b 表的全部列都会列出 NULL,包括 ds 列。也就是说,join 会过滤 b 表中不能找到匹配 a 表 join key 的全部记录。这样的话,LEFT OUTER 就使得查询结果与 WHERE 子句无关了。解决的办法是在 OUTER JOIN 时使用如下语法:
SELECT a.val, b.val FROM a LEFT OUTER JOIN b
ON (a.key=b.key AND
b.ds='2009-07-07' AND
a.ds='2009-07-07')
这一查询的结果是预先在 join 阶段过滤过的,因此不会存在上述问题。这一逻辑也能够应用于 RIGHT 和 FULL 类型的 join 中。
l Join 是不能交换位置的。
不管是 LEFT 仍是 RIGHT join,都是左链接的。
SELECT a.val1, a.val2, b.val, c.val
FROM a
JOIN b ON (a.key = b.key)
LEFT OUTER JOIN c ON (a.key = c.key)
先 join a 表到 b 表,丢弃掉全部 join key 中不匹配的记录,而后用这一中间结果和 c 表作 join。spa

相关文章
相关标签/搜索