界面介绍
首页有四个菜单html
- projects:最重要的部分,建立一个工程,全部flows将在工程中运行。
- scheduling:显示定时任务
- executing:显示当前运行的任务
- history:显示历史运行任务
介绍projects部分
概念介绍
建立工程:建立以前咱们先了解下之间的关系,一个工程包含一个或多个flows,一个flow包含多个job。job是你想在azkaban中运行的一个进程,能够是简单的linux命令,但是java程序,也能够是复杂的shell脚本,固然,若是你安装相关插件,也能够运行插件。一个job能够依赖于另外一个job,这种多个job和它们的依赖组成的图表叫作flow。java
一、Command 类型单一 job 示例
(1)首先建立一个工程,填写名称和描述
(2)点击建立以后
Flows:工做流程,有多个job组成
Permissions:权限管理
Project Logs:工程日志python
(3)job的建立
建立job很简单,只要建立一个以.job结尾的文本文件就好了,例如咱们建立一个工做,用来打印hello,名字叫作command.joblinux
#command.job web
type=command sql
command=echo 'hello'shell
一个工程不可能只有一个job,咱们如今建立多个依赖job,这也是采用azkaban的首要目的。apache
(4)将 job 资源文件打包
注意:只能是zip格式app
(5)经过 azkaban web 管理平台建立 project 并上传压缩包
二、Command 类型多 job 工做流 flow
(1)建立项目
咱们说过多个jobs和它们的依赖组成flow。怎么建立依赖,只要指定dependencies参数就好了。好比导入hive前,须要进行数据清洗,数据清洗前须要上传,上传以前须要从ftp获取日志。
定义5个job:oop
一、o2o_2_hive.job:将清洗完的数据入hive库
二、o2o_clean_data.job:调用mr清洗hdfs数据
三、o2o_up_2_hdfs.job:将文件上传至hdfs
四、o2o_get_file_ftp1.job:从ftp1获取日志
五、o2o_get_file_fip2.job:从ftp2获取日志
依赖关系:
3依赖4和5,2依赖3,1依赖2,4和5没有依赖关系。
o2o_2_hive.job
type=command # 执行sh脚本,建议这样作,后期只需维护脚本就好了,azkaban定义工做流程 command=sh /job/o2o_2_hive.sh dependencies=o2o_clean_data
o2o_clean_data.job
type=command # 执行sh脚本,建议这样作,后期只需维护脚本就好了,azkaban定义工做流程 command=sh /job/o2o_clean_data.sh dependencies=o2o_up_2_hdfs
o2o_up_2_hdfs.job
type=command #须要配置好hadoop命令,建议编写到shell中,能够后期维护 command=hadoop fs -put /data/* #多个依赖用逗号隔开 dependencies=o2o_get_file_ftp1,o2o_get_file_ftp2
o2o_get_file_ftp1.job
type=command command=wget "ftp://file1" -O /data/file1
o2o_get_file_ftp2.job
type=command command=wget "ftp:file2" -O /data/file2
能够运行unix命令,也能够运行python脚本(强烈推荐)。将上述job打成zip包。
ps:为了测试流程,我将上述command都改成echo +相应命令
(2)上传
点击o2o_2_hive进入流程,azkaban流程名称以最后一个没有依赖的job定义的。
右上方是配置执行当前流程或者执行定时流程。
说明
Flow view:流程视图。能够禁用,启用某些job
Notification:定义任务成功或者失败是否发送邮件
Failure Options:定义一个job失败,剩下的job怎么执行
Concurrent:并行任务执行设置
Flow Parametters:参数设置。
(3)执行一次
设置好上述参数,点击execute。
绿色表明成功,蓝色是运行,红色是失败。能够查看job运行时间,依赖和日志,点击details能够查看各个job运行状况。
(4)执行定时任务
这时候注意到cst了吧,以前须要将配置中时区改成Asia/shanghai。
能够选择"天/时/分/月/周"等执行频率。
能够查看下次执行时间。
三、操做 MapReduce 任务
(1)建立 job 描述文件
mapreduce_wordcount.job
# mapreduce_wordcount.job
type=command
dependencies=mapreduce_pi
command=/home/hadoop/apps/hadoop-2.7.5/bin/hadoop jar /home/hadoop/apps/hadoop-2.7.5/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.5.jar wordcount /wordcount/input /wordcount/output_azkaban
mapreduce_pi.job
# mapreduce_pi.job
type=command
command=/home/hadoop/apps/hadoop-2.7.5/bin/hadoop jar /home/hadoop/apps/hadoop-2.7.5/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.5.jar pi 5 5
(2)建立 project 并上传 zip 包
(3)启动执行
四、Hive 脚本任务
(1) 建立 job 描述文件和 hive 脚本
Hive 脚本以下
test.sql
create database if not exists azkaban; use azkaban; drop table if exists student; create table student(id int,name string,sex string,age int,deparment string) row format delimited fields terminated by ','; load data local inpath '/home/hadoop/student.txt' into table student; create table student_copy as select * from student; insert overwrite directory '/aztest/hiveoutput' select count(1) from student_copy; !hdfs dfs -cat /aztest/hiveoutput/000000_0; drop database azkaban cascade;
Job 描述文件:
hivef.job
# hivef.job type=command command=/home/hadoop/apps/apache-hive-2.3.3-bin/bin/hive -f 'test.sql'
(2)将全部 job 资源文件打到一个 zip 包中
(3)在 azkaban 的 web 管理界面建立工程并上传 zip 包
五、启动 job