首先咱们在hive中要建好一个表,这里用比较难的方式来假设,假设是外部表而且是分区表stg.test,按bus_date(string)分区。sql
首先上传数据到HDFS中:服务器
hadoop fs -mkdir -p /user/hive/warehouse/stg/test/bus_date=20191101 #建立文件夹 hadoop fs -put /opt/datas/test.txt(要上传的文件) /user/hive/warehouse/stg/test/bus_date=20191101(上传的目标文件夹);
查询刚才上传的数据:oop
select * from stg.test where bus_date='20191101';
发现是查不到数据的,而后执行执行修复命令:code
hive> msck repair table stg.test;
再次查询数据发现有了。hadoop
首先上传数据到HDFS中:
如方式1.string
接着执行添加分区命令:it
alter table stg.test add partition(bus_date='20191101')
而后查询数据发现有了。
目前抽数经常使用的方式就是这种,由于执行sql语句而且传递脚本其余部分也要使用的参数:包括库名、表名、分区字段名、分区字段值这四个参数。io
首先建立目录:
如方式1的第一句代码。table
而后上传数据:test
load data local inpath '/opt/datas/test.txt' into table stg.test partition(bus_date='20191101');
最后查询数据也有了。若是直接上传不采用脚本的话,这种方式是最快的。最适合一次性使用。因此我也用了这种方式从其余服务器上导入csv文件。