DRDS到MaxCompute(原ODPS)数据归档性能优化测试

摘要: cdp同步基本原理 数据集成(Data Integration)是阿里巴巴集团提供的数据同步平台。该平台具有可跨异构数据存储系统、可靠、安全、低成本、可弹性扩展等特色,可为 20 多种数据源提供不一样网络环境下的离线(全量/增量)数据进出通道。mysql

 

1、cdp同步基本原理sql

 

数据集成(Data Integration)是阿里巴巴集团提供的数据同步平台。该平台具有可跨异构数据存储系统、可靠、安全、低成本、可弹性扩展等特色,可为 20 多种数据源提供不一样网络环境下的离线(全量/增量)数据进出通道。数据源类型的详情请参见 支持数据源类型。数据库

 

数据集成的原理:安全

数据集成在阿里云上提供一套分布式离线数据同步平台,同时提供一套抽象化的数据抽取插件(称之为Reader)、数据写入插件(称之为Writer),并基于此框架设计一套简化版的中间数据传输格式,从而达到任意结构化、半结构化数据源之间数据传输之目的。从用户角度来看,一个数据集成同步任务运行Job示意图以下所示:服务器

 

上述中,红色虚箭头是表明经过collector状态收集器监控数据返回到脏数据管理服务器进行数据分析,灰色方向箭头表明数据流向。DI Service主要是包含资源管理器、Job管理器、脏数据管理器、分布式服务、鉴权服务等。Job Container主要是将数据集成运行任务分红若干个task,而后经过scheduler调度管理。TaskGroup Container主要是数据抽取经过数据通道(channel)将数据写入。网络

 

• 使用数据集成Job启动API,向数据集成服务端发起调用,提交一个离线数据同步Job。并发

• 数据集成收到Job API请求后,将负责作必要的安全和权限校验,待校验经过后,数据集成会下发相应的Job到执行集群节点启动离线数据同步任务。框架

• Job启动后,根据您提供的源端(Reader)、目的端(Writer)的配置信息,加载并初始化相关插件,链接两端数据源,开始数据同步工做。分布式

• Job运行过程当中,将随心跳向数据集成汇报当前进度、速度、数据量等关键运行指标,可根据Job的状态API实时获取该Job运行状态,直至Job运行结束(成功或者失败)。测试

 

流程概述

 

步骤1:数据源端新建表。

步骤2:新增数据源。

步骤3:向导模式或脚本模式配置同步任务。

步骤4:运行同步任务,检查目标端的数据质量。

 

由于DRDS不支持存储过程,造一张实际生产的表有些复杂,因此采用经过RDS建立表数据,再导入到DRDS的方式

 

2、测试表准备:

 

经过RDS新建一张实际生产的表,数据量为一亿行左右(主键为自增)

经过存储结构插入数据(业务只须要天数是随机的):

delimiter

dropprocedurehuayu2;CREATEPROCEDUREhuayu2()begindeclarevarint;setvar

delimiter

 

3、测试要求

 

经过mysqldump在DRDS新建导入的表,以天为分表键,分表键的值是随机分布在3月1日-3月31日的。

 

将源表按分表键作拆分,1天拆成1个任务,并发向目标表里进行同步,同时目标表按天作分区,找到最佳并发量。

 

注意:分库键的选择为自增主键,不能是固定,不然hash的时候只落在一个库里面,分表键也是随机的日期,这样数据就能均衡的分布在各个库里面

 

4、具体实施步骤

 

一、将RDS的表导入到测试环境DRDS

mysqldump –urds_xncs_qps8 –p –P3306 –h 10.1.1.1 database test1 –t > /home/hy.sql

 

这里加上了-t参数,目的是不备份表的结构,这样作的好处是,导入到DRDS的时候,在DRDS端建一个相同名字的数据库,而且能够自定义分库分表键,这样就省略了再次去修改备份的.sql文件而达到分库分表的目的。固然,若是只是须要一个单表,那就复制表结构跟数据就行了

二、 将复制的表数据导入到DRDS

 

2.一、 经过mysql -udrds_uat_pcs –P3306 –h10.3.3.3 drds_uat_pcs -p < /home/hy.slq

 

2.二、 进入到目标表所在的数据库,执行source /home/hy.sql

这两种方式大同小异,第一种稍微快些,第二种会有过程在屏幕上展现。习惯用第二种

在刚开始导入的时候会一些报错,可是对实际的导入不会影响

 

三、具体测试

数据量:

mysql> select count(*) from t_pcs_bill_recieve_huayutest ;
count(*)
78322075

 

一、 一个工做流,分十个同步任务执行,

每一个同步任务where条件对应3天,每个同步任务对应一个分区,共10个分区

最大速率上线10M/s,

结构图:

各个任务耗时:

一、========================================================================

任务启动时刻 : 2018-03-28 11:47:15 任务结束时刻 : 2018-03-28 11:57:28 任务总计耗时 : 612s 任务平均流量 : 1.69MB/s 记录写入速度 : 20753rec/s 读出记录总数 : 12638734 读写失败总数 : 0

二、========================================================================

任务启动时刻 : 2018-03-28 11:47:15 任务结束时刻 : 2018-03-28 11:56:18 任务总计耗时 : 543s 任务平均流量 : 1.14MB/s 记录写入速度 : 14038rec/s 读出记录总数 : 7580943 读写失败总数 : 0

三、========================================================================

任务启动时刻 : 2018-03-28 11:47:17 任务结束时刻 : 2018-03-28 11:56:23 任务总计耗时 : 545s 任务平均流量 : 1.14MB/s 记录写入速度 : 14004rec/s 读出记录总数 : 7576202 读写失败总数 : 0

四、========================================================================

任务启动时刻 : 2018-03-28 11:47:17 任务结束时刻 : 2018-03-28 11:56:26 任务总计耗时 : 548s 任务平均流量 : 1.13MB/s 记录写入速度 : 13933rec/s 读出记录总数 : 7579645 读写失败总数 : 0

五、========================================================================

任务启动时刻 : 2018-03-28 11:47:10 任务结束时刻 : 2018-03-28 11:56:17 任务总计耗时 : 546s 任务平均流量 : 1.14MB/s 记录写入速度 : 13979rec/s 读出记录总数 : 7576799 读写失败总数 : 0

六、========================================================================

任务启动时刻 : 2018-03-28 11:47:15 任务结束时刻 : 2018-03-28 11:56:28 任务总计耗时 : 553s 任务平均流量 : 1.12MB/s 记录写入速度 : 13774rec/s 读出记录总数 : 7575981 读写失败总数 : 0

七、========================================================================

任务启动时刻 : 2018-03-28 11:47:17 任务结束时刻 : 2018-03-28 11:56:18 任务总计耗时 : 541s 任务平均流量 : 1.15MB/s 记录写入速度 : 14115rec/s 读出记录总数 : 7579924 读写失败总数 : 0

八、========================================================================

任务启动时刻 : 2018-03-28 11:47:17 任务结束时刻 : 2018-03-28 11:56:18 任务总计耗时 : 541s 任务平均流量 : 1.15MB/s 记录写入速度 : 14115rec/s 读出记录总数 : 7579924 读写失败总数 : 0

九、========================================================================

任务启动时刻 : 2018-03-28 11:47:15 任务结束时刻 : 2018-03-28 11:56:27 任务总计耗时 : 551s 任务平均流量 : 1.13MB/s 记录写入速度 : 13856rec/s 读出记录总数 : 7579604 读写失败总数 : 0

十、========================================================================

任务启动时刻 : 2018-03-28 11:47:17 任务结束时刻 : 2018-03-28 11:55:20 任务总计耗时 : 482s 任务平均流量 : 877.38KB/s 记录写入速度 : 10522rec/s 读出记录总数 : 5050713 读写失败总数 : 0

总体耗时:630秒

 

![image](https://yqfile.alicdn.com/8d8f3acb4098f6860aa698d56277bcdbf9c4f975.png)

 

二、 一个工做流,分五个同步任务执行,

每一个同步任务where条件对应6天,每个同步任务对应一个分区,共5个分区

最大速率上线10M/s,

 

结构图:

任务同步耗时:

一、========================================================================

任务启动时刻 : 2018-03-28 14:27:49 任务结束时刻 : 2018-03-28 14:37:42 任务总计耗时 : 593s 任务平均流量 : 2.09MB/s 记录写入速度 : 25605rec/s 读出记录总数 : 15158472 读写失败总数 : 0

二、========================================================================

任务启动时刻 : 2018-03-28 14:27:53 任务结束时刻 : 2018-03-28 14:37:36 任务总计耗时 : 583s 任务平均流量 : 2.12MB/s 记录写入速度 : 26093rec/s 读出记录总数 : 15160230 读写失败总数 : 0

三、========================================================================

任务启动时刻 : 2018-03-28 14:27:43 任务结束时刻 : 2018-03-28 14:37:33 任务总计耗时 : 589s 任务平均流量 : 2.10MB/s 记录写入速度 : 25775rec/s 读出记录总数 : 15156082 读写失败总数 : 0

四、========================================================================

任务启动时刻 : 2018-03-28 14:27:45 任务结束时刻 : 2018-03-28 14:37:36 任务总计耗时 : 591s 任务平均流量 : 2.10MB/s 记录写入速度 : 25729rec/s 读出记录总数 : 15154873 读写失败总数 : 0

五、========================================================================

任务启动时刻 : 2018-03-28 14:27:43 任务结束时刻 : 2018-03-28 14:38:01 任务总计耗时 : 617s 任务平均流量 : 2.34MB/s 记录写入速度 : 28768rec/s 读出记录总数 : 17692418 读写失败总数 : 0

总体耗时:629秒

三、 一个工做流,分十五个同步任务执行,

每一个同步任务where条件对应2天,每个同步任务对应一个分区,共15个分区

最大速率上线10M/s,

结构图:

![image](https://yqfile.alicdn.com/068c1c56b16baa1c3cc270eb286f7d46ff1a8990.png)

 

整体耗时:623秒

 

四、 一个工做流,分一个同步任务执行

最大速率上线10M/s,

结构图:

同步任务耗时:

任务启动时刻 : 2018-03-28 15:42:05 任务结束时刻 : 2018-03-28 15:57:16 任务总计耗时 : 910s 任务平均流量 : 7.02MB/s 记录写入速度 : 86257rec/s 读出记录总数 : 78322075 读写失败总数 : 0

总耗时:928秒

 

五、 一个工做流,分三个同步任务执行

最大速率上线10M/s,

结构图:

总耗时:699秒

 

六、 一个工做流,分四个同步任务执行

最大速率上线10M/s,

结构图:

总耗时:672秒

测试结果:

并发数 10 5 15 1 3 4 总耗时 630秒 629秒 623秒 928秒 699秒 672秒 并发数 1 3 4 5 10 15 总耗时 928秒 699秒 672秒 629秒 630秒 623秒

初步结论:

在并发为五、十、15的状况下,同步数据的速率基本没有变化630秒左右,在并发为一、二、三、4的状况下,速率由930秒提高到630秒左右,从而能够得出结论,在并发为5的状况下,同步速率已经达到最大,再增长并发对于速率的增长效果不明显。

 

原文连接

阅读更多干货好文,请关注扫描如下二维码:

相关文章
相关标签/搜索