Sqoop 是 apache 下用于 RDBMS 和 HDFS 互相导数据的工具。本文以 mysql 数据库为例,实现关系数据库导入到 hdfs 和 hive。mysql
使用 rpm 安装便可。算法
yum install sqoop sqoop-metastore -y
安装完以后须要下载 mysql jar 包到 sqoop 的 lib 目录。
这里使用 hive 的 metastore 的 mysql 数据库做为关系数据库,以 TBLS 表为例,该表结构和数据以下:sql
mysql> select * from TBLS limit 3; +------+-----------+-----+----------------+-----+--------+------+---------+----------------+------------------+-------------------+ |TBL_ID|CREATE_TIME|DB_ID|LAST_ACCESS_TIME|OWNER|RETENTI | SD_ID| TBL_NAME| TBL_TYPE |VIEW_EXPANDED_TEXT| VIEW_ORIGINAL_TEXT| +------+-----------+-----+----------------+-----+--------+------+---------+----------------+------------------+-------------------+ | 34|1406784308 | 8| 0|root | 0| 45| test1 | EXTERNAL_TABLE | NULL | NULL | | 40|1406797005 | 9| 0|root | 0| 52| test2 | EXTERNAL_TABLE | NULL | NULL | | 42|1407122307 | 7| 0|root | 0| 59| test3 | EXTERNAL_TABLE | NULL | NULL | +------+-----------+-----+----------------+-----+--------+------+---------+----------------+------------------+-------------------+
查看 sqoop 命令说明:数据库
$ sqoop help usage: sqoop COMMAND [ARGS] Available commands: codegen Generate code to interact with database records create-hive-table Import a table definition into Hive eval Evaluate a SQL statement and display the results export Export an HDFS directory to a database table help List available commands import Import a table from a database to HDFS import-all-tables Import tables from a database to HDFS list-databases List available databases on a server list-tables List available tables in a database version Display version information See 'sqoop help COMMAND' for information on a specific command.
你也能够查看某一个命令的使用说明:apache
$ sqoop import --help $ sqoop help import
你也能够使用别名来代替 sqoop (toolname)
:bash
$ sqoop-import
sqoop import 的一个示例以下:并发
$ sqoop import --connect jdbc:mysql://192.168.56.121:3306/metastore --username hiveuser --password redhat --table TBLS
你还能够使用 --options-file
来传入一个文件,使用这种方式能够重用一些配置参数:app
$ sqoop --options-file /users/homer/work/import.txt --table TEST
/users/homer/work/import.txt 文件内容以下:工具
import --connect jdbc:mysql://192.168.56.121:3306/metastore --username hiveuser --password redhat
使用 sqoop-import 命令能够从关系数据库导入数据到 hdfs。oop
$ sqoop import --connect jdbc:mysql://192.168.56.121:3306/metastore --username hiveuser --password redhat --table TBLS --target-dir /user/hive/result
注意:
--target-dir
,导入到用户家目录下的 TBLS 目录你还能够指定其余的参数:
参数 | 说明 | |
---|---|---|
--append |
将数据追加到hdfs中已经存在的dataset中。使用该参数,sqoop将把数据先导入到一个临时目录中,而后从新给文件命名到一个正式的目录中,以免和该目录中已存在的文件重名。 | |
--as-avrodatafile |
将数据导入到一个Avro数据文件中 | |
--as-sequencefile |
将数据导入到一个sequence文件中 | |
--as-textfile |
将数据导入到一个普通文本文件中,生成该文本文件后,能够在hive中经过sql语句查询出结果。 | |
--boundary-query <statement> |
边界查询,也就是在导入前先经过SQL查询获得一个结果集,而后导入的数据就是该结果集内的数据,格式如:--boundary-query 'select id,no from t where id = 3' ,表示导入的数据为id=3的记录,或者 select min(<split-by>), max(<split-by>) from <table name> ,注意查询的字段中不能有数据类型为字符串的字段,不然会报错 |
|
--columns<col,col> |
指定要导入的字段值,格式如:--columns id,username |
|
--direct |
直接导入模式,使用的是关系数据库自带的导入导出工具。官网上是说这样导入会更快 | |
--direct-split-size |
在使用上面direct直接导入的基础上,对导入的流按字节数分块,特别是使用直连模式从PostgreSQL导入数据的时候,能够将一个到达设定大小的文件分为几个独立的文件。 | |
--inline-lob-limit |
设定大对象数据类型的最大值 | |
-m,--num-mappers |
启动N个map来并行导入数据,默认是4个,最好不要将数字设置为高于集群的节点数 | |
--query,-e <sql> |
从查询结果中导入数据,该参数使用时必须指定–target-dir 、–hive-table ,在查询语句中必定要有where条件且在where条件中须要包含 \$CONDITIONS ,示例:--query 'select * from t where \$CONDITIONS ' --target-dir /tmp/t –hive-table t |
|
--split-by <column> |
表的列名,用来切分工做单元,通常后面跟主键ID | |
--table <table-name> |
关系数据库表名,数据从该表中获取 | |
--delete-target-dir |
删除目标目录 | |
--target-dir <dir> |
指定hdfs路径 | |
--warehouse-dir <dir> |
与 --target-dir 不能同时使用,指定数据导入的存放目录,适用于hdfs导入,不适合导入hive目录 |
|
--where |
从关系数据库导入数据时的查询条件,示例:--where "id = 2" |
|
-z,--compress |
压缩参数,默认状况下数据是没被压缩的,经过该参数能够使用gzip压缩算法对数据进行压缩,适用于SequenceFile, text文本文件, 和Avro文件 | |
--compression-codec |
Hadoop压缩编码,默认是gzip | |
--null-string <null-string> |
可选参数,若是没有指定,则字符串null将被使用 | |
--null-non-string <null-string> |
可选参数,若是没有指定,则字符串null将被使用 |
示例程序:
$ sqoop import --connect jdbc:mysql://192.168.56.121:3306/metastore --username hiveuser --password redhat --table TBLS --columns "tbl_id,create_time" --where "tbl_id > 1" --target-dir /user/hive/result
参照上表,使用 sql 语句查询时,须要指定 $CONDITIONS
$ sqoop import --connect jdbc:mysql://192.168.56.121:3306/metastore --username hiveuser --password redhat --query 'SELECT * from TBLS where \$CONDITIONS ' --split-by tbl_id -m 4 --target-dir /user/hive/result
上面命令经过 -m 1
控制并发的 map 数。
$ sqoop import --connect jdbc:mysql://192.168.56.121:3306/metastore --username hiveuser --password redhat --table TBLS --delete-target-dir --direct --default-character-set UTF-8 --target-dir /user/hive/result
$ sqoop import --connect jdbc:mysql://192.168.56.121:3306/metastore --username hiveuser --password redhat --table TBLS --fields-terminated-by "\t" --lines-terminated-by "\n" --delete-target-dir --target-dir /user/hive/result
这时候查看 hdfs 中数据(观察分隔符是否为制表符):
$ hadoop fs -ls result Found 5 items -rw-r--r-- 3 root hadoop 0 2014-08-04 16:07 result/_SUCCESS -rw-r--r-- 3 root hadoop 69 2014-08-04 16:07 result/part-m-00000 -rw-r--r-- 3 root hadoop 0 2014-08-04 16:07 result/part-m-00001 -rw-r--r-- 3 root hadoop 142 2014-08-04 16:07 result/part-m-00002 -rw-r--r-- 3 root hadoop 62 2014-08-04 16:07 result/part-m-00003 $ hadoop fs -cat result/part-m-00000 34 1406784308 8 0 root 0 45 test1 EXTERNAL_TABLE null null null $ hadoop fs -cat result/part-m-00002 40 1406797005 9 0 root 0 52 test2 EXTERNAL_TABLE null null null 42 1407122307 7 0 root 0 59 test3 EXTERNAL_TABLE null null null
指定空字符串:
$ sqoop import --connect jdbc:mysql://192.168.56.121:3306/metastore --username hiveuser --password redhat --table TBLS --fields-terminated-by "\t" --lines-terminated-by "\n" --delete-target-dir --null-string '\\N' --null-non-string '\\N' --target-dir /user/hive/result
若是须要指定压缩:
$ sqoop import --connect jdbc:mysql://192.168.56.121:3306/metastore --username hiveuser --password redhat --table TBLS --fields-terminated-by "\t" --lines-terminated-by "\n" --delete-target-dir --null-string '\\N' --null-non-string '\\N' --compression-codec "com.hadoop.compression.lzo.LzopCodec" --target-dir /user/hive/result
附:可选的文件参数以下表。
参数 | 说明 |
---|---|
--enclosed-by <char> |
给字段值先后加上指定的字符,好比双引号,示例:--enclosed-by '\"' ,显示例子:"3","jimsss","dd@dd.com" |
--escaped-by <char> |
给双引号做转义处理,如字段值为"测试",通过 --escaped-by "\\" 处理后,在hdfs中的显示值为:\"测试\" ,对单引号无效 |
--fields-terminated-by <char> |
设定每一个字段是以什么符号做为结束的,默认是逗号,也能够改成其它符号,如句号. ,示例如:--fields-terminated-by |
--lines-terminated-by <char> |
设定每条记录行之间的分隔符,默认是换行串,但也能够设定本身所须要的字符串,示例如:--lines-terminated-by "#" 以#号分隔 |
--mysql-delimiters |
Mysql默认的分隔符设置,字段之间以, 隔开,行之间以换行\n 隔开,默认转义符号是\ ,字段值以单引号' 包含起来。 |
--optionally-enclosed-by <char> |
enclosed-by是强制给每一个字段值先后都加上指定的符号,而--optionally-enclosed-by 只是给带有双引号或单引号的字段值加上指定的符号,故叫可选的 |
生成与关系数据库表的表结构对应的HIVE表:
$ sqoop create-hive-table --connect jdbc:mysql://192.168.56.121:3306/metastore --username hiveuser --password redhat --table TBLS
参数 | 说明 |
---|---|
--hive-home <dir> |
Hive的安装目录,能够经过该参数覆盖掉默认的hive目录 |
--hive-overwrite |
覆盖掉在hive表中已经存在的数据 |
--create-hive-table |
默认是false,若是目标表已经存在了,那么建立任务会失败 |
--hive-table |
后面接要建立的hive表 |
--table |
指定关系数据库表名 |
执行下面的命令会将 mysql 中的数据导入到 hdfs 中,而后建立一个hive 表,最后再将 hdfs 上的文件移动到 hive 表的目录下面。
$ sqoop import --connect jdbc:mysql://192.168.56.121:3306/metastore --username hiveuser --password redhat --table TBLS --fields-terminated-by "\t" --lines-terminated-by "\n" --hive-import --hive-overwrite --create-hive-table --hive-table dw_srclog.TBLS --delete-target-dir
说明:
--create-hive-table
建立表,若是表已经存在则会执行失败接下来能够查看 hive 中的数据:
$ hive -e 'select * from dw_srclog.tbls' 34 1406784308 8 0 root 0 45 test1 EXTERNAL_TABLE null null NULL 40 1406797005 9 0 root 0 52 test2 EXTERNAL_TABLE null null NULL 42 1407122307 7 0 root 0 59 test3 EXTERNAL_TABLE null null NULL
直接查看文件内容:
$ hadoop fs -cat /user/hive/warehouse/dw_srclog.db/tbls/part-m-00000 34140678430880root045go_goodsEXTERNAL_TABLEnullnullnull 40140679700590root052merchantEXTERNAL_TABLEnullnullnull
从上面可见,数据导入到 hive 中以后分隔符为默认分隔符,参考上文你能够经过设置参数指定其余的分隔符。
另外,Sqoop 默认地导入空值(NULL)为 null 字符串,而 hive 使用 N 去标识空值(NULL),故你在 import 或者 export 时候,须要作相应的处理。在 import 时,使用以下命令:
$ sqoop import ... --null-string '\\N' --null-non-string '\\N'
在导出时,使用下面命令:
$ sqoop import ... --input-null-string '' --input-null-non-string ''
一个完整的例子以下:
$ sqoop import --connect jdbc:mysql://192.168.56.121:3306/metastore --username hiveuser --password redhat --table TBLS --fields-terminated-by "\t" --lines-terminated-by "\n" --hive-import --hive-overwrite --create-hive-table --hive-table dw_srclog.TBLS --null-string '\\N' --null-non-string '\\N' --compression-codec "com.hadoop.compression.lzo.LzopCodec"
参数 | 说明 |
---|---|
--check-column (col) |
用来做为判断的列名,如id |
--incremental (mode) |
append:追加,好比对大于last-value指定的值以后的记录进行追加导入。lastmodified:最后的修改时间,追加last-value指定的日期以后的记录 |
--last-value (value) |
指定自从上次导入后列的最大值(大于该指定的值),也能够本身设定某一值 |
将HDFS中不一样目录下面的数据合在一块儿,并存放在指定的目录中,示例如:
sqoop merge –new-data /test/p1/person –onto /test/p2/person –target-dir /test/merged –jar-file /opt/data/sqoop/person/Person.jar –class-name Person –merge-key id
其中,–class-name
所指定的 class 名是对应于 Person.jar 中的 Person 类,而 Person.jar 是经过 Codegen 生成的
参数 | 说明 |
---|---|
--new-data <path> |
Hdfs中存放数据的一个目录,该目录中的数据是但愿在合并后能优先保留的,原则上通常是存放越新数据的目录就对应这个参数。 |
--onto <path> |
Hdfs中存放数据的一个目录,该目录中的数据是但愿在合并后能被更新数据替换掉的,原则上通常是存放越旧数据的目录就对应这个参数。 |
--merge-key <col> |
合并键,通常是主键ID |
--jar-file <file> |
合并时引入的jar包,该jar包是经过Codegen工具生成的jar包 |
--class-name <class> |
对应的表名或对象名,该class类是包含在jar包中的。 |
--target-dir <path> |
合并后的数据在HDFS里的存放目录 |