Kettle数据抽取解决方案

1、 Kettle介绍
  1. Kettle简介
  ETL即数据抽取(Extract)、转换(Transform)、装载(Load)的过程。Kettle的中文翻译为水壶。Kettle以元数据驱动的方式提供强大的抽取、转换和加载(ETL) 能力。自己提供了强大的图形界面设计器,能够大大缩短数据抽取项目的开发周期,而且容易维护。 Kettle设计器界面友好,提供了工做流设计模式,能知足各类场景的实现。数据库

  2. Kettle的模型架构设计模式

 3. Kettle的优势微信

  1) 支持多种数据源;
  2) 支持多任务并发,支持大数据量的抽取转换处理,执行效率高;
  3) 成熟的异常处理流程;
  4) 可与Java应用很好结合。架构

4. Kettle的扩展性
  Kettle的控件采用插件式开发模式,所以自己就具有了很好的扩展性,支持插件式开发。插件式开发能够提升应用的可用性,插件能够单独更新与升级。并发

 

2、 实施方案
  1. 数据更新流程
    示例方案的部署图以下:大数据

 

经过部署在各个节点的监听触发器监听各个节点的业务表数据状态,当有数据更新时,触发器会将记录此部分数据,并将源节点名称和应抽取数据的表名等参数传递到ETL调度程序,ETL调度程序经过表名调度ETL脚本,将此节点的未抽取状态的增量数据抽取到目标数据库中,执行结束后将返回值参数传递给触发器更新数据状态。spa

  2. 新增节点
    新增节点时,将源节点的数据库配置(数据库名,表空间名,用户名,密码等信息)配置到相应的调度表中,在源数据库中配置监听触发器,人工手动执行脚本将新增节点的业务表的全量数据抽取到目标表中便可。插件

  3. 问题处理
    在调度程序中存在一种配置即当因为断网致使ETL脚本报错时,将脚本复位至执行前的状态并静置一段时间(时间可配置)后再次执行脚本,直到脚本运行成功。因为断网致使ETL脚本报错时,本次运行成功抽取到数据库中的数据回滚,等到下一次运行时从新抽取该数据。翻译

 

<!-- Start -->设计

获知及时信息,请关注个人我的微信订阅号:0与1的那点事

 

<!-- End -->

 

本文为博主原创文章,转载请注明出处!

http://www.cnblogs.com/libingbin/

感谢您的阅读。

相关文章
相关标签/搜索