1.拷贝文件web
若是数据文件刚好是用户须要的格式,那么只须要拷贝文件或文件夹就能够。数据库
hadoop fs –cp source_path target_pathoop
2.导出到本地文件系统spa
--不能使用insert into local directory来导出数据,会报错orm
--只能使用insert overwrite local directory来导出数据hadoop
--hive0.11版本以前,只能使用默认分隔符^A(ascii码是\00001)ci
insert overwrite local directory '/home/sopdm/wrk'get
select id,name,tel,age from sopdm.wyp;
it
--hive0.11版本以后,能够指定分隔符io
insert overwrite local directory '/home/sopdm/wrk'
row format delimited
fields terminated by ','
select id,name,tel,age from sopdm.wyp;
--导出数据到多个输出文件夹
from employees se
insert overwrite local directory ‘/tmp/or_employees’
select * se where se.cty=’US’ and se.st=’OR’
insert overwrite local directory ‘/tmp/ca_employees’
select * se where se.cty=’US’ and se.st=’CA’
3.导出到HDFS
--比导出文件到本地文件系统少了一个local
insert overwritedirectory '/home/sopdm/wrk'
select id,name,tel,age from sopdm.wyp;
--hive0.11版本以后,能够指定分隔符
insert overwritedirectory '/home/sopdm/wrk'
row format delimited
fields terminated by ','
select id,name,tel,age from sopdm.wyp;
4.导出到hive的另外一张表
insert into table sopdm.wyp2
partition(age='25')
select id,name,tel,age from sopdm.wyp;
5.使用hive的-e和-f参数命令导出数据
--使用hive的-e参数
hive –e “select * from wyp” >> /local/wyp.txt
--使用hive的-f参数, wyp.hql中为hql语句
hive –f wyp.hql >> /local/wyp2.txt
6.导出到关系型数据库
放在sqoop中讲。