大数据学习 azkaban,sqoop

azkaban工做流调度器node

 

1.解压 azkaban,server,executormysql

2.导入脚本,建立数据库表web

3.建立秘钥,将秘钥放入server根目录sql

4,统一时区数据库

5.配置azkaban.properties,配置user.xmlbash

6.配置executor的azkaban.properties服务器

7.启动web 服务器,启动执行服务器并发

8.https://主机名:8443oop

9.上传zip文件,执行server

能够进行bash.hive,hdfs,操做

 

 

sqoop 数据迁移:

hadoop和关系型数据库之间的 数据传送

1.配置文件,加入jdbc j ar包

2.

$bin/sqoop import   \

--connect jdbc:mysql://hdp-node-01:3306/test   \

--username root  \

--password root   \

--table emp   \

--m 1    (导入数据的进程的并发数,默认是4)

--target-dir /home (指定位置)

 

导入到hive:(会自动生成hive元数据)

bin/sqoop import

--connect jdbc:mysql://hdp-node-01:3306/test

--username root

--password root

--table emp

--hive-import

--m 1

导入表数据子集:

bin/sqoop import \

--connect jdbc:mysql://hdp-node-01:3306/test \

--username root \

--password root \

--where "city ='sec-bad'" \

--target-dir /wherequery \

--table emp_add --m 1

 

从hdfs中导出数据到mysql:

1.手动在mysql上建对应的表

相关文章
相关标签/搜索