ADF 第四篇:管道的执行和触发器

Azure Data Factory 系列博客:html

 

管道在Azure Data Factory中的运行(命名为Pipeline run)定义为管道执行的一个实例(instance of pipeline execution ),每一次管道执行(pipeline run)都有一个惟一的GUID来标识。用户能够定义一个触发器,好比,制定定时计划,触发器在特定的时间点被激发,自动执行管道。固然,也能够手动执行管道,本文重点关注触发器执行。htm

在管道执行时,能够把argument传递给管道中定义的parameters,这样管道就能够根据parameters的值动态调整Activity的执行路径。blog

一,触发器执行的类型

触发器表明一个处理单元,以肯定合适开始执行管道,数据工厂支持三种类型的触发器:事件

  • 计划触发器(Schedule trigger):按照计划来执行管道
  • 翻滚窗口触发器(Tumbling window trigger):在固定间隔下操做管道
  • 基于事件的触发器(Event-based trigger):响应事件的触发器

管道和触发器具备多对多的关系,多个触发器能够触发一个管道,一个触发器能够触发多个管道,所以,触发器能够在多个管道中共享,当修改触发器时,全部引用该触发器的Pipeline都会同步修改。ip

二,计划触发器

计划触发器(Schedule trigger)按照时间计划来运行管道,本文重点关注计划触发器,这能够实如今特定的时间点,按照特定的频率和特定的时间间隔来执行管道,实现数据工厂的自动化运行。ci

在建立计划触发器时,须要设置计划触发器的属性:文档

  • startTime和endTime:计划触发器的开始时间和结束时间,一般只制定schedule的startTime,而不设置EndTime,这样计划触发器就永远有效。
  • timeZone:时区,计划触发器计时的时区
  • recurrence:重复
  • frequency:频率
  • interval:间隔

Step1:新建触发器get

在管道中,点击Trigger,选择“New/Edit”同步

Step2:设置触发器的属性博客

打开“New trigger”界面,从Type列表中选择Schedule,建立Schedule Trigger,Start date默认值是当前的时间,表示trigger从当前时间开始有效;若是设置“Specify an End Date”,那么在End date以后,计划触发器不会再次激发Pipilne的执行。在 Activated 属性中选择“Yes”,表示计划触发器从建立开始是活跃的。

Step3:发布到数据工厂

把Trigger建立完成以后,以后把Pipeline的更新发布到数据工厂,触发器才会按照计划来执行管道。

点击“Publish all”按钮,把Pipeline的修改发布到数据工厂,在把更新发布到数据工厂以前,触发器不会启动触发器,那么管道中的Activity也不会按照计划来运行。

三,监控管道和触发

数据工厂会记录Pipeline的每个次执行的数据,在数据工厂的UI界面中,打开“Monitor”选项卡,打开的界面以下图所示,点击“Pipeline runs”,能够查看管道的执行记录;点击“Trigger runs”,能够查看触发器执行的记录,

 

 

参考文档:

Pipeline execution and triggers in Azure Data Factory

相关文章
相关标签/搜索