Mapreduce做业,在mapreduce中有不少map,每一个map读一片数据,进而并行的完成数据的拷贝。java
准备安装文件mysql
解压sql
重命名shell
配置环境变量数据库
export SQOOP_HOME=/opt/sqoop export PATH=$PATH:$SQOOP_HOME/bin
修改配置文件vim
mv sqoop-env-template.sh sqoop-env.sh
==vim sqoop-env.sh==app
export HADOOP_COMMON_HOME=/opt/hadoop export HBASE_HOME=/opt/hbase export HIVE_HOME=/opt/hive export ZOOCFGDIR=/opt/zookeeper/conf
由于SQOOP要链接rdbms,因此须要将该数据的驱动jar包添加进sqoop的classpath中,因此将mysql的jar包上传至$SQOOP_HOME/lib工具
sqoop-list-databases --connect jdbc:mysql://uplooking05:3306/ --username root --password rootoop
sqoop-list-tables --connect jdbc:mysql://uplooking05:3306/up1 --username root --password rooturl
sqoop-import --connect jdbc:mysql://uplooking05/up2 --username root --password root --table user
--where:根据条件进行导入
--query:导入mysql查询的结果到hdfs
sqoop-import --connect jdbc:mysql://uplooking05/up2 --username root --password root --table user --hbase-row-key id --hbase-table ns1:t2 --column-family f1
--hbase-row-key: 能够不指定,不指定默认hbase中的row-lkey就是mysql中的主键
==注意:导入数据到hbase数据库以前须要在hbase中先建立表和列族==
sqoop-export --connect jdbc:mysql://uplooking05:3306/up2 --username root --password root --table user --export-dir /sqoop/user2
==注意:导出以前首先须要在mysql中建立表==
不可行