大数据系列——Sqoop学习笔记

1. Sqoop简介

  •  Apache Sqoop是一种专门为hadoop和好比关系型数据库等结构化数据库之间的高效数据转换一种工具。
  • 数据的搬运工
  • Sqoop在大多数自动化数据转换的过程当中,依托于数据库相关的Schema描述信息,转换的过程是使用MapReduce来进行的
  • Sqoop目前有两个版本,彻底不兼容,Sqoop和Sqoop2.能够经过版本号来进行简单的区分,1.4.x为sqoop或sqoop1,1.99.x为sqoop2

2. Sqoop数据的导入(import)

  • 传统的RDBMS中的数据导入到hbase...
  • 从传统数据库获取元数据信息(schema、table、field、field type),把导入功能转换为只有Map的

    Mapreduce做业,在mapreduce中有不少map,每一个map读一片数据,进而并行的完成数据的拷贝。java

3. Sqoop数据的导出(export)

  • hbase中的数据导出到rdbms中
  • 获取导出表的schema、meta信息,和Hadoop中的字段match;多个map only做业同时运行,完成hdfs中数据导出到关系型数据库中。

4. Sqoop的安装

  • 准备安装文件mysql

    • sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz
  • 解压sql

    • tar -zxvf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C /opt/
  • 重命名shell

    • mv sqoop-1.4.6.bin__hadoop-2.0.4-alpha/ sqoop
  • 配置环境变量数据库

    export SQOOP_HOME=/opt/sqoop
    export PATH=$PATH:$SQOOP_HOME/bin
  • 修改配置文件vim

    mv sqoop-env-template.sh  sqoop-env.sh

    ==vim sqoop-env.sh==app

    export HADOOP_COMMON_HOME=/opt/hadoop
    export HBASE_HOME=/opt/hbase
    export HIVE_HOME=/opt/hive
    export ZOOCFGDIR=/opt/zookeeper/conf
  • 由于SQOOP要链接rdbms,因此须要将该数据的驱动jar包添加进sqoop的classpath中,因此将mysql的jar包上传至$SQOOP_HOME/lib工具

    • mysql须要mysql-connector-java-5.1.32.jar以上版本支持。

5. Sqoop的基本操做

  • 列出数据库

    sqoop-list-databases --connect jdbc:mysql://uplooking05:3306/ --username root --password rootoop

  • 列出全部的表

    sqoop-list-tables --connect jdbc:mysql://uplooking05:3306/up1 --username root --password rooturl

6. mysql中的数据导入到hdfs中

sqoop-import --connect jdbc:mysql://uplooking05/up2 --username root --password root --table user

  • ==在执行导入的过程当中,必定要肯定RDBMS中的表中有pk==
  • --target-dir:导入到自定义的hdfs目录中
  • --append : 追加导入
  • -m :指定maptask的数量
  • --username :数据库的用户名
  • --password :数据库的密码
  • --connect :数据库的url
  • --delete-target-dir : 通常与--target-dir联用,与--append是==互斥==的
  • --last-value : 跳过几行数据,追加其他全部的数据
  • --where:根据条件进行导入

    • sqoop-import --connect jdbc:mysql://uplooking05/up2 --username root --pass
      word root --table user --target-dir /sqoop/user --delete-target-dir --where 'id>2'**
  • --query:导入mysql查询的结果到hdfs

    • sqoop-import --connect jdbc:mysql://uplooking05/up2 --username root --pass
      word root --target-dir /sqoop/user --delete-target-dir --query "select name,age from user where age>10 and $CONDITIONS" --split-by 'age'

7. mysql中的数据导入hbase中

sqoop-import --connect jdbc:mysql://uplooking05/up2 --username root --password root --table user --hbase-row-key id --hbase-table ns1:t2 --column-family f1

--hbase-row-key: 能够不指定,不指定默认hbase中的row-lkey就是mysql中的主键

==注意:导入数据到hbase数据库以前须要在hbase中先建立表和列族==

8. hdfs中的数据导出到mysql

sqoop-export --connect jdbc:mysql://uplooking05:3306/up2 --username root --password root --table user --export-dir /sqoop/user2

==注意:导出以前首先须要在mysql中建立表==

9. hbase中的数据导出到mysql

不可行

相关文章
相关标签/搜索