一、阿里开源软件:DataXpython
DataX 是一个异构数据源离线同步工具,致力于实现包括关系型数据库(MySQL、Oracle等)、HDFS、Hive、ODPS、HBase、FTP等各类异构数据源之间稳定高效的数据同步功能。mysql
二、Apache开源软件:Sqoopsql
Sqoop(发音:skup)是一款开源的工具,主要用于在HADOOP(Hive)与传统的数据库(mysql、postgresql...)间进行数据的传递,能够将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也能够将HDFS的数据导进到关系型数据库中。shell
TASKCTL采用任务插件机制,以适配不一样类型的任务,采用TASKCTL任务插件调度做业,具备统一的操做命令,统一的监控方式,统一的运维方式。下面以调度DataX做业类型为例:数据库
$ cd {YOUR_DATAX_DIR_BIN} $ python datax.py ./mysql2odps.json
咱们能够看到调用datax,其实是调用python脚本。apache
所以咱们能够直接在taskctl中配置做业的xml片断以下:json
<python> <name>datax_job</name> <progname>datax.py</progname> -- 此处有可能须要定位到cd {YOUR_DATAX_DIR_BIN} <para>./mysql2odps.json</para> </python>
固然,若是要使datax做业类型看起来更加个性化点(或者在插件中适配点什么)。咱们还能够datax配置单独的任务插件,步骤以下:bash
一、编写调用datax的脚本文件cprundataxjob.sh:运维
#!bin/bash if [ $# -ne 3 ] then echo "Param error !" echo "Usage: $0 progname para expara" exit 126 fi #------------------------------------------------------------------------------ # 第一步: 接收参数 #------------------------------------------------------------------------------ ProgName=$1 Para=$2 ExpPara=$3 #------------------------------------------------------------------------------ # 第二步: 运行JOB,并等待结果 #------------------------------------------------------------------------------ #cd {YOUR_DATAX_DIR_BIN} --至关于TASKCTL中的exppara环境参数 cd ${ExpPara} #python datax.py ./mysql2odps.json python datax.py ${ProgName} #收集datax.py执行结果 retinfo=$? #------------------------------------------------------------------------------ # 第四步: 插件返回 #------------------------------------------------------------------------------ #根据retinfo的信息,返回给TASKCTL if [ ${retinfo} -eq 0 ] then echo "" echo "Run job success !" else echo "" echo "Run job failed !" fi exit ${retinfo}
配置后,把cprundataxjob.sh放到TASKCTL服务端的$TASKCTLDIR/src/plugin/dataxjob/shell/目录下工具
二、在TASKCTL桌面软件admin中配置插件以下图:
三、在designer中编写模块代码以下:
<dataxjob> <name>MainModul_JobNode0</name> <progname>./mysql2odps.json</progname> <exppara>[你的datax安装路径]</exppara> </dataxjob>
四、完成模块代码的编写后,以下: