set hive.exec.model.local.auto=true;
若想默认使用这个配置,能够将这个命令添加到$HOME/.hiverc
文件中java
hadoop
dfs
命令时,最好为这个命令定义一个别名alias hdfs="hadoop dfs"
file:///user/hive/warehouse
hdfs://namenode_server/user/hive/warehouse
set hive.metastore.warehouse.dir=/user/myname/hive/warehouse;
能够将这条语句写入到$HOME/.hiverc
文件中node
set hive.cli.print.current.db=true;
hive -e 后面直接跟HiveQL正则表达式
hive -S -e "select name from person;"shell
Hive会将输出写到标准输出中,可使用shell中的输出重定向将输出重定向到本地文件中,而不是hdfs中数据库
hive -S -e "set" | grep warehouse 查询数据仓库的位置
hive -f /user/scott/hive.hql
或者在hive shell
中使用source
命令来执行脚本文件apache
hive > source /user/scott/hive.hql
hive启动后默认会在当前用户home目录下寻找名为.hiverc
的文件,且自动执行文件中的命令编程
一个典型的.hiverc文件中的内容为安全
ADD JAR /user/scott/hive-examples.jar; #增长一个jar文件 set hive.cli.print.current.db=true; #显示当前所在工做数据库 set hive.exec.model.local.auto=true; #设置以本地文件模式运行(当hadoop是以分布式模式或者伪分布式模式执行时的话,就在本地执行,能够加快小数据集的查询速度)
注:每行语句结尾的分号不可省略session
用户不须要退出hive就能够执行shell命令,只须要在命令前加上!而且以;结尾就能够,如:app
hive > !pwd; #查看当前目录
注:hive shell中使用shell命令时,不能使用须要用户进行输入交互的命令,且不支持shell的管道功能和文件名自动补全功能。
hive > dfs -ls /;
-- 用户使用以--
开头的字符表示注释。该注释只能放在hiveql脚本中若直接在hive shell中使用的话会报错
hive > set hive.cli.print.header=true;
同理能够将该语句添加到$home/.hiverc
文件中
若是用户没有显式指定数据库,默认数据库是default
下面这个例子展现了如何建立数据库
CREATE DATABASE simple;
若数据库simple
已经存在的话,将会报错误消息。可使用下面的语句避免错误信息
CREATE DATABASE IF NOT EXISTS simple;
使用SHOW DATABASES
命令查看hive中所包含的数据库
SHOW DATABASES;
若是数据库比较多,可使用正则表达式匹配筛选所须要的数据库名
SHOW DATABASES LIKE 'sim.*';
Hive为每一个数据库建立一个目录,数据库中的表将会以这个数据库目录的子目录形式存储。有一个例外就是default数据库中的表。由于这个数据库自己没有本身的目录。数据库所在的目录位于属性hive.metastore.warehouse.dir
所指定的顶层目录以后。倘若用户使用的这个配置项的默认配置,也就是/user/hive/warehouse
,那么当咱们建立数据库simple
时,Hive将会对应地建立一个目录为/user/hive/warehouse/simple.db
。这里请注意,数据库的文件目录名是以.db
结尾的。
用户能够经过以下的命令来修改这个默认的配置
hive > CREATE DATABASE simple LOCATION '/user/myname/directory';
用户还能够为这个数据库增长一个描述信息。这样经过DESCRIBE DATABASE databasename
命令就能够查看到该信息
hive > CREATE DATABASE simple COMMENT 'a simple database';
使用DESCRIBE DATABASE databasename
查看
hive > DESCRIBE DATABASE simple; simple a simple database hdfs://hostname/user/hive/warehouse/simple.db
从上面的例子能够看出DESCRIBE DATABASE
不只会显示这个数据库的描述信息还会显示这个数据库所在文件的目录位置。若Hadoop是本地模式的话前面的前缀为file:///
如果分布式模式则前缀为hdfs://
此外用户还能够为数据库增长一些和其余相关的键-值对属性信息。可使用DESCRIBE DATABASE EXTENDED databasename
语句显示这些信息,如:
hive > CREATE DATABASE simple WITH DBPROERTIES ('creator'='scott','date'='2014-05-05'); hive > DESCRIBE DATABASE simple; hive > DESCRIBE DATABASE EXTENDED simple;
命令USE
用于将某个数据库设置为当前的工做数据库。如:
USE simple;
此时能够用SHOW TABLES
显示当前数据库下全部的表。不幸的是,没有那个命令让用户查看当前所在的库。幸运的是在Hive中能够重复使用USE
,这是由于在Hive中没有嵌套数据库的概念。
hive > set hive.cli.print.current.db=true; hive (simple) > USE default; hive (default) > set hive.cli.print.current.db=false;
最后用户能够删除数据库
hive > DROP DATABASE IF EXISTS simple;
IF EXISTS
子句是可选的。能够避免因数据库不存在而抛出警告信息。默认状况下Hive是不容许用户删除一个包含有表的数据仓库。要么用户先删除库中的表,而后再删数据库。要么在删除命令的最后面加上关键字CASCADE
,这样Hive先自行删除数据库中的表
hive > DROP DATABASE IF EXISTS simple CASCADE;
若使用的是RESTRICT
这个关键字,而不是CASCADE
这个关键字的话,那么就和默认状况同样。
若是某个数据库被删除了,那么其对应的目录也同时会被删除。
用户可使用ALTER DATABASE
命令为某个数据库的DBPROPERTIES
设置键-值对属性值,来描述数据库的属性信息。数据库的其余元数据信息是不可更改的,包括数据库名和数据库所在的目录位置。
hive > ALTER DATABASE simple SET DBPROPERTIES ('edited-by'='Join');
没有办法删除或者"重置"数据库属性。
CREATE TABLE IF NOT EXISTS mydb.employees ( name STRING COMMENT 'Employee name', salary FLOAT COMMENT 'Employee salary', subordinates ARRAY<STRING> COMMENT 'Names of subordinates', deductions MAP<STRING, FLOAT> COMMENT 'Keys are deductions names, values are percentages', address STRUCT<street:STRING, city:STRING, state:STRING, zip:INT> COMMENT 'Home address') COMMENT 'Description of the table' TBLPROPERTIES ('creator'='me', 'created_at'='2012-01-02 10:00:00') LOCATION '/user/hive/warehouse/mydb.db/employees';
首先,咱们注意到,若是用户当前所处的数据库并不是是目标数据库,那么用户是能够在表名前增长一个数据库名
来进行指定的,也就是例子中的mydb
若是用户增长上选项IF NOT EXISTS
,那么若表已经存在了,Hive就会忽略掉后面的执行语句。且不会有任何提示。用户能够在字段类型后使用COMMENT
为每一个字段增长一个注释。还能够指定一个或多个表属性。大多数状况下TBLPROPERTIES
的主要做用是按键-值对的格式为表增长额外的文档说明。
Hive会自动增长两个表属性:一个是last_modified_by
,其保存着最后修改这个表的用户的用户名;另外一个是last_modified_time
其保存着最后一次修改这个表的新纪元时间秒。
使用SHOW TBLPROPERTIES table_name
列举出某个表的TBLPROPERTIES
属性信息
最后,能够看到咱们根据状况为表中的数据指定一个存储路径。在这个例子中,咱们使用Hive默认的路径/user/hive/warehouse/mydb.db/employees
,其中,/user/hive/warehouse
是默认的数据仓库路径,mydb.db
是数据库目录,employees
是表目录。
默认状况下。Hive老是将建立的表的目录放置在这个表所属的数据库目录之下。不过,default
数据库是个例外,其在/user/hive/warehouse
下并无对应一个数据库目录。所以default
数据库中的表目录会直接位于/user/hive/warehouse
目录下(用户明确指定除外).
用户还能够拷贝一张已经存在的表的模式(无需拷贝数据):
CREATE TABLE IF NOT EXISTS mydb.employees2 LIKE mydb.employees;
该语句能够接受可选的LOCATION
子句,可是注意其余的属性,包括模式都是不可能从新定义的。这些信息直接从原是表得到.
SHOW TABLES
命令能够列举出全部的表,若是不增长其余参数,那么只会显示当前工做数据库下的表。假设不在那么数据库下,仍是能够列出指定数据库下的表使用SHOW TABLES IN dbname
hive > USE default; hive > SHOW TABLES IN mydb; employees department
若是有不少的表,那么可使用正则表达式来过滤出所须要的表名.
hive> USE mydb; hive> SHOW TABLES 'empl.*'; employees
注意:IN databasename
和表名使用正则表达式过滤这个两个功能尚不支持同时使用.
咱们可使用DESCRIBE EXTENDED mydb.employees
命令来查看这个表的详细结构信息(若是当前所处的工做数据库就是mydb的话,能够不加mydb这个前缀).
hive> DESCRIBE EXTENDED mydb.employees; name string Employee name salary float Employee salary subordinates array<string> Names of subordinates deductions map<string,float> Keys are deductions names, values are percentages address struct<street:string,city:string,state:string,zip:int> Home address Detailed Table Information Table(tableName:employees, dbName:mydb, owner:me, ... location:hdfs://master-server/user/hive/warehouse/mydb.db/employees, parameters:{creator=me, created_at='2012-01-02 10:00:00', last_modified_user=me, last_modified_time=1337544510, comment:Description of the table, ...}, ...)
使用FORMATTED
关键字替代EXTENDED
关键字的话,能够提供更加可读的输出信息。在应用中多使用FORMATTED
关键字
DESCRIBE FORMATTED employees;
若是用户只想查看某一个列的信息,那么只要在表名后面增长这个字段的名称便可.
hive> DESCRIBE mydb.employees.salary; salary float Employee salary
注:last_modified_by
和last_modified_time
两个表属性是自动建立的。若是用户没有定义任何的自定义表属性的话,那么这两个表属性也不会显示在表的详细信息中!
咱们目前所建立的表均属于管理表,有时也被称为内部表.由于这种表,Hive会或多或少的控制着数据项的生命周期.如:Hive默认状况下会将这些表的数据存储在由配置项hive.metastore.warehouse.dir
(如/user/hive/warehouse
)所定义的目录的子目录下.
当咱们删除一个管理表时,Hive也会删除这个表中的数据.管理表不方便和其余工做共享数据。
CREATE EXTERNAL TABLE IF NOT EXISTS stocks ( exchange STRING, symbol STRING, ymd STRING, price_open FLOAT, price_high FLOAT, price_low FLOAT, price_close FLOAT, volume INT, price_adj_close FLOAT) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LOCATION '/data/stocks';
关键字EXTERNAL
告诉Hive这个表是外部的。然后面的LOCATION
子句告诉Hive数据位于那个路径下. 由于表是外部的,因此Hive并不是认为其彻底拥有这份数据,所以,删除该表并不会删除掉这份数据,不过描述表的元数据信息将会被删除掉.
用户能够在DESCRIBE EXTENDED tablename
语句的输出中查看到表是管理表仍是外部表.在末尾的详细表信息输出中,对于管理表,用户能够看到以下信息:
tableType:MANAGED_TABLE
对于外部表
tableType:EXTERNAL_TABLE
对于管理表,用户能够对一张存在的表进行结构复制(不会复制数据)
CREATE EXTERNAL TABLE IF NOT EXISTS mydb.employees3 LIKE mydb.employees LOCATION '/path/to/data';
若语句中省略掉EXTERNAL
关键字,且源表是外部表的话,那么新生成的表也将是外部表,若语句中省略掉EXTERNAL
关键字,且源表是管理表的话,那么新生成的表也将是管理表。 若语句中含有EXTERNAL
关键字,且源表是管理表的话,那么生成的新表将是外部表。 即便在这种场景下,LOCATION
子句一样是可选的。
Hive中有分区表的概念。分区表将数据以一种符合逻辑的方式进行组织。好比分层存储。
CREATE TABLE employees ( name STRING, salary FLOAT, subordinates ARRAY<STRING>, deductions MAP<STRING, FLOAT>, address STRUCT<street:STRING, city:STRING, state:STRING, zip:INT> ) PARTITIONED BY (country STRING, state STRING);
若是表中的数据以及分区个数很是大的话,执行一个包含全部分区的查询可能会触发一个巨大的MapReduce任务。建议的安全措施是将Hive设置为“strict”
模式,这样对分区表查询WHERE子句没有加分区过滤的话,将会禁止提交这个任务.能够按照下面的语句将属性设置为“nonstrict”
模式。
hive> set hive.mapred.mode=strict; hive> SELECT e.name, e.salary FROM employees e LIMIT 100; FAILED: Error in semantic analysis: No partition predicate found for Alias "e" Table "employees" hive> set hive.mapred.mode=nonstrict; hive> SELECT e.name, e.salary FROM employees e LIMIT 100;
能够经过使用SHOW PARTITIONS
命令查看表中存在的全部分区
hive> SHOW PARTITIONS employees; ... Country=CA/state=AB country=CA/state=BC ... country=US/state=AL country=US/state=AK
若是表中存在不少的分区,而只想查看是否存储某个特定分区键的分区的话。能够在这个命令上增长一个指定了一个或者多个特定分区字段值的PARTITION
子句,进行过滤
hive> SHOW PARTITIONS employees PARTITION(country='US'); country=US/state=AL country=US/state=AK ... hive> SHOW PARTITIONS employees PARTITION(country='US', state='AK'); country=US/state=AK
DESCRIBE EXTENDED employees
命令也会显示出分区键
hive> DESCRIBE EXTENDED employees; name string, salary float, ... address struct<...>, country string, state string Detailed Table Information... partitionKeys:[FieldSchema(name:country, type:string, comment:null), FieldSchema(name:state, type:string, comment:null)],
在管理表中用户能够经过载入数据的方式建立分区。下面的例子将从本地目录()载入数据到表中的时候.将会建立一个US和CA分区.用户须要为每一个分区字段指定一个值.注意在HiveQL中是如何引用HOME环境变量的:
LOAD DATA LOCAL INPATH '${env:HOME}/california-employees' INTO TABLE employees PARTITION (country = 'US', state = 'CA');
Hive将会建立这个分区对应的目录/employees/country=US/state=CA
且$HOME/california-employees
目录下的文件将会被拷贝到上述分区目录下。
CREATE EXTERNAL TABLE IF NOT EXISTS log_messages ( hms INT, severity STRING, server STRING, process_id INT, message STRING) PARTITIONED BY (year INT, month INT, day INT) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';
分区外部表对LOCATION
没有要求,使用ALTER TABLE
语句单独进行增长分区.这个语句须要为每个分区键指定一个值。如:
ALTER TABLE log_messages ADD PARTITION(year = 2012, month = 1, day = 2) LOCATION 'hdfs://master_server/data/log_messages/2012/01/02';
Hive并不控制这些数据,即便表被删除,数据也不会被删除.
和分区管理表同样.经过SHOW PARTITIONS
查看外部表的分区。如:
hive> SHOW PARTITIONS log_messages; ... year=2011/month=12/day=31 year=2012/month=1/day=1 year=2012/month=1/day=2 ...
一样,DESCRIBE EXTENDED log_messages
语句会将分区键做为表的模式一部分和partitionKeys列表的内容同时显示
hive> DESCRIBE EXTENDED log_messages; ... message string, year int, month int, day int Detailed Table Information... partitionKeys:[FieldSchema(name:year, type:int, comment:null), FieldSchema(name:month, type:int, comment:null), FieldSchema(name:day, type:int, comment:null)], ...
这个输出少了一个很是重要的信息.那就是分区数据实际存在的路径.
经过如下方式查看分区数据所在路径
hive> DESCRIBE EXTENDED log_messages PARTITION (year=2012, month=1, day=2); ... location:s3n://ourbucket/logs/2011/01/02, ...
一般会使用分区外部表.
Hive默认的存储格式是文本文件格式.能够经过可选的子句STORED AS TEXTFILE
显式指定.同时用户能够在建立表的时指定各类各样的分隔符.
CREATE TABLE employees ( name STRING, salary FLOAT, subordinates ARRAY<STRING>, deductions MAP<STRING, FLOAT>, address STRUCT<street:STRING, city:STRING, state:STRING, zip:INT> ) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\001' COLLECTION ITEMS TERMINATED BY '\002' MAP KEYS TERMINATED BY '\003' LINES TERMINATED BY '\n' STORED AS TEXTFILE;
注:TEXTFILE
意味着全部字段都使用字母、数字、字符编码,包括那么国际字符集.Hive默认是使用不可见字符来做为分隔符的。使用TEXTFILE
意味着,每一行被认为是一个单独的记录.可使用SEQUENCEFILE
和RCFILE
两种文件格式来替换TEXTFILE
.这两种文件格式都是使用二进制编码和压缩来优化磁盘空间及I/O带宽性能的。
记录编码是经过一个input format
对象来控制的。Hive使用了一个名为org.apache.hadoop.mapred.TextInputFormat
的java类.
记录的解析是由序列化/反序列化(SerDe)来控制的,对于TEXTFILE
Hive所使用的SerDe
是org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
java类.
Hive使用一个叫作output format
的对象将查询输出写入到文件中或者输出到控制台.对于TEXTFILE
Hive所使用的输出类为org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
可使用第三方的输入输出格式及SerDe,容许用户自定义Hive自己不支持的其余文件格式
CREATE TABLE kst PARTITIONED BY (ds string) ROW FORMAT SERDE 'com.linkedin.haivvreo.AvroSerDe' WITH SERDEPROPERTIES ('schema.url'='http://schema_provider/kst.avsc') STORED AS INPUTFORMAT 'com.linkedin.haivvreo.AvroContainerInputFormat' OUTPUTFORMAT 'com.linkedin.haivvreo.AvroContainerOutputFormat';
ROW FORMAT SERDE …
指定了使用的SerDe。Hive提供了WITH SERDEPROPERTIES
功能,容许用户传递配置信息给SerDe。每一个属性名称和值都应该是带引号的字符串.
STORED AS INPUTFORMAT … OUTPUTFORMAT
分别定义了用于输入和输出格式的java类。若是要指定,必须对输入和输出格式都指定.
DESCRIBE EXTENDED table
会列出输入和输出格式以及SerDe和SerDe所自带的属性信息。如:
hive> DESCRIBE EXTENDED kst ... inputFormat:com.linkedin.haivvreo.AvroContainerInputFormat, outputFormat:com.linkedin.haivvreo.AvroContainerOutputFormat, ... serdeInfo:SerDeInfo(name:null, serializationLib:com.linkedin.haivvreo.AvroSerDe, parameters:{schema.url=http://schema_provider/kst.avsc}) ...
DROP TABLE IF EXISTS employees;
对于管理表,表的元数据信息和表内的数据都被删除
对于外部表,表的元数据信息会被删除,可是表中的数据不会被删除
大多数的表属性能够经过使用ALTER TABLE
语句来修改.该操做会修改元数据,但不会修改数据自己.用于修改表模式中的错误及分区路径.
ALTER TABLE log_messages RENAME TO logmsgs;
增长表分区
ALTER TABLE log_messages ADD IF NOT EXISTS PARTITION (year = 2011, month = 1, day = 1) LOCATION '/logs/2011/01/01' PARTITION (year = 2011, month = 1, day = 2) LOCATION '/logs/2011/01/02' PARTITION (year = 2011, month = 1, day = 3) LOCATION '/logs/2011/01/03' ...;
修改分区路径
ALTER TABLE log_messages PARTITION(year = 2011, month = 12, day = 2) SET LOCATION 's3n://ourbucket/logs/2011/01/02';
这个命令不会将数据从旧的路径移走,也不会删除旧的数据
删除分区
ALTER TABLE log_messages DROP IF EXISTS PARTITION(year = 2011, month = 12, day = 2);
对于管理表分区内的数据和元数据会一块儿被删除。对应外部表,分区内的数据不会被删除
能够对字段重命名、修改其位置、类型或者注释:
ALTER TABLE log_messages CHANGE COLUMN hms hours_minutes_seconds INT COMMENT 'The hours, minutes, and seconds part of the timestamp' AFTER severity;
即便字段名和字段类型都没有改变,也须要彻底指定旧的字段名。并给出新的字段名以及新的字段类型。若要将字段移动到第一个位置,只须要使用FIRST
关键字替代AFTER other_column
子句便可.
这个操做,只会修改元数据信息。要注意数据与模式匹配.
能够在分区字段前增长新的字段到已有字段以后
ALTER TABLE log_messages ADD COLUMNS ( app_name STRING COMMENT 'Application name', session_id LONG COMMENT 'The current session id');
ALTER TABLE log_messages REPLACE COLUMNS ( hours_mins_secs INT COMMENT 'hour, minute, seconds from timestamp', severity STRING COMMENT 'The message severity' message STRING COMMENT 'The rest of the message');
ALTER TABLE log_messages SET TBLPROPERTIES ( 'notes' = 'The process id is no longer captured; this column is always NULL');
能够增长附加的表属性或者修改已经存在的表属性。可是没法删除属性。
ALTER TABLE log_messages PARTITION(year = 2012, month = 1, day = 1) SET FILEFORMAT SEQUENCEFILE;
若是是分区表,须要使用PARTITION
子句
ALTER TABLE table_using_JSON_storage SET SERDE 'com.example.JSONSerDe' WITH SERDEPROPERTIES ( 'prop1' = 'value1', 'prop2' = 'value2');
ALTER TABLE … TOUCH
语句用于触发钩子
ALTER TABLE log_messages TOUCH PARTITION(year = 2012, month = 1, day = 1);
ALTER TABLE … ARCHIVE PARTITION
将分区内的文件打成一个Hadoop压缩包(HAR)文件.仅仅下降文件系统中的文件数和NameNode的压力,不会减小存储空间
ALTER TABLE log_messages ARCHIVE PARTITION(year = 2012, month = 1, day = 1);
最后Hive提供了保护,下面的语句防止分区被删除和被查询
ALTER TABLE log_messages PARTITION(year = 2012, month = 1, day = 1) ENABLE NO_DROP;
ALTER TABLE log_messages PARTITION(year = 2012, month = 1, day = 1) ENABLE OFFLINE;