Azure Data Factory 系列博客:html
管道在Azure Data Factory中的运行(命名为Pipeline run)定义为管道执行的一个实例(instance of pipeline execution ),每一次管道执行(pipeline run)都有一个惟一的GUID来标识。用户能够定义一个触发器,好比,制定定时计划,触发器在特定的时间点被激发,自动执行管道。固然,也能够手动执行管道,本文重点关注触发器执行。htm
在管道执行时,能够把argument传递给管道中定义的parameters,这样管道就能够根据parameters的值动态调整Activity的执行路径。blog
触发器表明一个处理单元,以肯定合适开始执行管道,数据工厂支持三种类型的触发器:事件
管道和触发器具备多对多的关系,多个触发器能够触发一个管道,一个触发器能够触发多个管道,所以,触发器能够在多个管道中共享,当修改触发器时,全部引用该触发器的Pipeline都会同步修改。ip
计划触发器(Schedule trigger)按照时间计划来运行管道,本文重点关注计划触发器,这能够实如今特定的时间点,按照特定的频率和特定的时间间隔来执行管道,实现数据工厂的自动化运行。ci
在建立计划触发器时,须要设置计划触发器的属性:文档
Step1:新建触发器get
在管道中,点击Trigger,选择“New/Edit”同步
Step2:设置触发器的属性博客
打开“New trigger”界面,从Type列表中选择Schedule,建立Schedule Trigger,Start date默认值是当前的时间,表示trigger从当前时间开始有效;若是设置“Specify an End Date”,那么在End date以后,计划触发器不会再次激发Pipilne的执行。在 Activated 属性中选择“Yes”,表示计划触发器从建立开始是活跃的。
Step3:发布到数据工厂
把Trigger建立完成以后,以后把Pipeline的更新发布到数据工厂,触发器才会按照计划来执行管道。
点击“Publish all”按钮,把Pipeline的修改发布到数据工厂,在把更新发布到数据工厂以前,触发器不会启动触发器,那么管道中的Activity也不会按照计划来运行。
数据工厂会记录Pipeline的每个次执行的数据,在数据工厂的UI界面中,打开“Monitor”选项卡,打开的界面以下图所示,点击“Pipeline runs”,能够查看管道的执行记录;点击“Trigger runs”,能够查看触发器执行的记录,
参考文档: