从SQL Server到MySQL,近百亿数据量迁移实战

从SQL Server到MySQL,近百亿数据量迁移实战

狄敬超(3D) 2018-05-29 10:52:48 212

沪江成立于 2001 年,做为较早期的教育学习网站,当时技术选型范围并不大:Java 的版本是 1.2,C# 还没有诞生,MySQL 尚未被 Sun 收购,版本号是 3.23。工程师们选择了当时最合适的微软体系,并在往后的岁月里,逐步从 ASP 过分到 .net,数据库也跟随 SQL Server 进行版本升级。html

 

十几年过去了,技术社区已经发生了天翻地覆的变化。沪江部分业务还基本在 .net 体系上,这给业务持续发展带来了一些限制,在人才招聘、社区生态、架构优化、成本风险方面都面临挑战。集团通过慎重考虑,发起了大规模的去 Windows 化项目。这其中包含两个重点子项目:开发语言从 C# 迁移到 Java,数据库从 SQL Server 迁移到 MySQL。mysql

 

本文主要向你们介绍,从 SQL Server 迁移到 MySQL 所面临的问题和咱们的解决方案。git

 

迁移方案的基本流程github

 

设计迁移方案须要考量如下几个指标:

  • 迁移先后的数据一致性;sql

  • 业务停机时间;数据库

  • 迁移项目是否对业务代码有侵入;缓存

  • 须要提供额外的功能:表结构重构、字段调整。服务器

 

通过仔细调研,在平衡复杂性和业务方需求后,迁移方案设计为两种:停机数据迁移和在线数据迁移。若是业务场景容许数小时的停机,那么使用停机迁移方案,复杂度低,数据损失风险低。若是业务场景不容许长时间停机,或者迁移数据量过大,没法在几个小时内迁移完成,那么就须要使用在线迁移方案了。微信

 

数据库停机迁移的流程:数据结构

 

 

停机迁移逻辑比较简单,使用 ETL(Extract Translate Load) 工具从 Source 写入 Target,而后进行一致性校验,最后确认应用运行 OK,将 Source 表名改掉进行备份。

 

在线迁移的流程:

 

 

在线迁移的方案稍微复杂一些,流程上有准备全量数据,而后实时同步增量数据, 在数据同步跟上(延迟秒级别)以后,进行短暂停机(Hang 住,确保没有流量),就可使用新的应用配置,并使用新的数据库。

 

须要解决的问题

 

从 SQL Server 迁移到 MySQL,核心是完成异构数据库的迁移。

 

基于两种数据迁移方案,咱们须要解决如下问题:

  • 两个数据库的数据结构是否能够一一对应?出现不一致如何处理?

  • MySQL 的使用方式和 SQL Server 使用方式是否一致?有哪些地方须要注意?

  • 如何确保迁移先后的数据一致性?

  • 在迁移中,如何支持数据结构调整?

  • 如何保证业务不停状况下,实如今线迁移?

  • 数据迁移后若是发现业务异常须要回滚,如何处理新产生的数据?

 

为了解决以上问题,咱们须要引入一整套解决方案,包含如下部分:

  • 指导文档 A:SQL Server 转换 MySQL 的数据类型对应表;

  • 指导文档 B:MySQL 的使用方式以及注意点;

  • 支持表结构变动,从 SQL Server 到 MySQL 的 ETL 工具;

  • 支持 SQL Server 到 MySQL 的在线 ETL 工具;

  • 一致性校验工具;

  • 一个回滚工具。

 

让咱们一一来解决这些问题。

 

SQL Server 到 MySQL 指导文档

 

很是幸运的是,MySQL 官方早就准备了一份如何从其余数据库迁移到 MySQL 的白皮书。MySQL :: Guide to Migrating from Microsoft SQL Server to MySQL 里提供了详尽的从 SQL Server 到 MySQL 的对应方案。 包含了:

  • SQL Server to MySQL - Datatypes 数据类型对应表;

  • SQL Server to MySQL - Predicates 逻辑算子对应表;

  • SQL Server to MySQL - Operators and Date Functions 函数对应表;

  • T-SQL Conversion Suggestions 存储过程转换建议。

 

须要额外处理的数据类型:

 

 

在实际进行中,还额外遇到了一个用来解决树形结构存储的字段类型 Hierarchyid。这个场景须要额外进行业务调整。

 

咱们在内部作了针对 MySQL 知识的摸底排查工做,并进行了若干次的 MySQL 使用技巧培训,将工程师对 MySQL 的认知拉到一根统一的线。

 

关于存储过程使用,咱们和业务方也达成了一致:全部 SQL Server 存储过程使用业务代码进行重构,不能在 MySQL 中使用存储过程。缘由是存储过程增长了业务和 DB 的耦合,会让维护成本变得极高。另外,MySQL 的存储过程功能和性能都较弱,没法大规模使用。

 

最后咱们提供了一个 MySQL 开发规范文档,借数据库迁移的机会,将以前相对混乱的表结构设计作了统一约束(部分有业务绑定的设计,在考虑成本以后没有作调整)。

 

ETL 工具

 

ETL 的全称是 Extract Translate Load(读取、转换、载入),数据库迁移最核心过程就是 ETL 过程。若是将 ETL 过程简化,去掉 Translate 过程,就退化为一个简单的数据导入导出工具。咱们能够先看一下市面上常见的导入导出工具,了解他们的原理和特性,方便咱们选型。

 

MySQL 同构数据库数据迁移工具:

  • mysqldump 和 mysqlimport:MySQL 官方提供的 SQL 导入导出工具

  • pt-table-sync:Percona 提供的主从同步工具;

  • XtraBackup:Percona 提供的备份工具。

 

异构数据库迁移工具:

  • Database migration and synchronization tools:国外一家提供数据库迁移解决方案的公司;

  • DataX :阿里巴巴开发的数据库同步工具;

  • yugong :阿里巴巴开发的数据库迁移工具;

  • MySQL Workbench :MySQL 提供的 GUI 管理工具,包含数据库迁移功能;

  • Data Integration - Kettle :国外的一款 GUI ETL 工具;

  • Ispirer :提供应用程序、数据库异构迁移方案的公司;

  • DB2DB 数据库转换工具 :国产的一款商业数据库迁移软件;

  • Navicat Premium :经典的数据库管理工具,带数据迁移功能;

  • DBImport :我的维护的迁移工具,很是简陋,须要付费。

 

看上去异构数据库迁移工具和方案不少,但通过咱们调研,其中很多是为老派的传统行业服务的。好比 Kettle / Ispirerer,他们关注的特性,不能知足互联网公司对性能、迁移耗时的要求。简单筛选后,如下几款工具进入了咱们候选列表(为了作特性对比,加入几个同构数据库迁移工具):

 

 

因为异构数据库迁移,真正可以进入咱们选型的只有 DataX / yugong / DB2DB / MySQL Workbench。通过综合考虑,咱们最终选用了三种方案,DB2DB 提供小数据量、简单模式的停机模式支持,足以应付小数据量的停机迁移,开发工程师能够自助完成。DataX 为大数据量的停机模式提供服务,使用 JSON 进行配置,经过修改查询 SQL,能够完成一部分结构调整工程。yugong 的强大可定制性也为在线迁移提供了基础,咱们在官方开源版本的基础之上,增长了如下额外功能:

 

  • 支持 SQL Server 做为 Source 和 Target;

  • 支持 MySQL 做为 Source;

  • 支持 SQL Server 增量更新;

  • 支持使用 YAML 做为配置格式;

  • 调整 yugong 为 fat jar 模式运行;

  • 支持表名、字段名大小写格式变化,驼峰和下划线自由转换;

  • 支持表名、字段名细粒度自定义;

  • 支持复合主键迁移;

  • 支持迁移过程当中完成 Range / Time / Mod / Hash 分表;

  • 支持新增、删除字段。

 

关于 yugong 的二次开发,咱们也积累了一些经验,下文会详细分享。

 

一致性校验工具

 

在 ETL 以后,须要有一个流程来确认数据迁移先后是否一致。虽然理论上不会有差别,可是若是中间有程序异常,或者数据库在迁移过程当中发生操做,数据就会不一致。

 

业界有没有相似的工具呢?有,Percona 提供了 pt-table-checksum 这样的工具,这个工具设计从 master 使用 checksum 来和 slave 进行数据对比。这个设计场景是为 MySQL 主从同步设计,显然没法完成从 SQL Server 到 MySQL 的一致性校验。尽管如此,它的一些技术设计特性也值得参考:

 

  • 一次检查一张表;

  • 每次检查表,将表数据拆分为多个 trunk 进行检查;

  • 使用 REPLACE...SELECT 查询,避免大表查询的长时间带来的不一致性;

  • 每一个 trunk 的查询预期时间是 0.5s;

  • 动态调整 trunk 大小,使用指数级增加控制大小;

  • 查询超时时间 1s / 并发量 25;

  • 支持故障后断点恢复;

  • 在数据库内部维护 src / diff,meta 信息;

  • 经过 Master 提供的信息自动链接上 slave;

  • 必须 Schema 结构一致。

 

咱们选择 yugong 做为 ETL 工具的一大缘由也是由于它提供了多种模式。支持 CHECK / FULL / INC / AUTO 四种模式。其中 CHECK 模式就是将 yugong 做为数据一致性检查工具使用。yugong 工做原理是经过 JDBC 根据主键范围变化,将数据取出进行批量对比。

 

这个模式会遇到一点点小问题,若是数据库表没有主键,将没法进行顺序对比。其实不一样数据库有本身的逻辑主键,Oracle 有 rowid,SQL Server 有 physloc。这种方案能够解决无主键进行比对的问题。

 

如何回滚

 

咱们须要考虑一个场景,在数据库迁移成功以后业务已经运行了几个小时,可是遇到了一些 Critical 级别的问题,必须回滚到迁移以前状态。这时候如何保证这段时间内的数据更新到老的数据库里面去?

 

最朴素的作法是,在业务层面植入 DAO 层的打点,将 SQL 操做记录下来到老数据库进行重放。这种方式虽然直观,可是要侵入业务系统,直接被咱们否决了。其实这种方式是 binlog statement based 模式,理论上咱们能够直接从 MySQL 的 binlog 里面获取数据变动记录。以 row based 方式重放到 SQL Server。

 

这时候又涉及到逆向 ETL 过程,由于极可能 Translate 过程当中,作了表结构重构。咱们的解决方法是,使用 Canal 对 MySQL binlog 进行解析,而后将解析以后的数据做为数据源,将其中的变动重放到 SQL Server。

 

因为回滚的过程也是 ETL,基于 yugong,咱们继续定制了 SQL Server 的写入功能,这个模式相似于在线迁移,只不过方向是从 MySQL 到 SQL Server。

 

其余实践

 

咱们在迁移以前作了大量压测工做, 并针对每一个迁移的 DB 进行线上环境一致的全真演练。咱们构建了和生产环境机器配置同样、数据量同样的测试环境,并要求每一个系统在上线以前都进行若干次演练。演练以前准备详尽的操做手册和事故处理方案。演练准出的标准是:可以在单次演练中不出任何意外,时间在估计范围内。经过演练咱们保证了整个操做时间可控,减小操做时的风险。

 

为了让数据库的状态能更为直观地展示出来,咱们对 MySQL / SQL Server 添加了细致的 Metrics 监控。在测试和迁移过程当中,能够便利地看到数据库的响应状况。

 

 

 

为了方便 DBA 快速 Review SQL。咱们提供了一些工具,直接将代码库中的 SQL 拎出来,能够方便地进行 SQL Review。再配合其余 SQL Review 工具,好比 Meituan-Dianping / SQLAdvisor,能够实现一部分自动化,提升 DBA 效率,避免线上出现明显的 Slow SQL。

 

小结

 

基于这几种方案咱们打了一套组合拳。通过将近一年的使用,进行了 28 个通宵,迁移了 42 个系统,完成了包括用户、订单、支付、电商、学习、社群、内容和工具的迁移。迁移的数据总规模接近百亿,全部迁移项目均一次成功。迁移过程当中积累了丰富的实战经验,保障了业务快速向前发展。

 

在线迁移的原理和流程

 

上文介绍了从 SQL Server 到 MySQL 异构数据库迁移的基本问题和全量解决方案。全量方案能够知足一部分场景的需求,可是这个方案仍然是有缺陷的:迁移过程当中须要停机,停机的时长和数据量相关。对于核心业务来讲,停机就意味着损失。好比用户中心的服务,以它的数据量来使用全量方案,会致使迁移过程当中停机若干个小时。而一旦用户中心中止服务,几乎全部依赖于这个中央服务的系统都会停摆。

 

能不能作到无缝地在线迁移呢?系统不须要或者只须要极短暂的停机?做为有追求的技术人,咱们必定要想办法解决这些问题。

 

针对 Oracle 到 MySQL,市面上已经有比较成熟的解决方案——alibaba 的 yugong 项目。在解决 SQL Server 到 MySQL 在线迁移以前,咱们先研究一下 yugong 是如何作到 Oracle 的在线迁移。

 

下图是 yugong 针对 Oracle 到 MySQL 的增量迁移流程:

 

 

这其中有四个步骤:

  1. 增量数据收集(建立 Oracle 表的增量物化视图);

  2. 进行全量复制;

  3. 进行增量复制(可并行进行数据校验);

  4. 原库停写,切到新库。

 

Oracle 物化视图(Materialized View)是 Oracle 提供的一个机制。一个物化视图就是主库在某一个时间点上的复制,能够理解为是这个时间点上的 Snapshot。当主库的数据持续更新时,物化视图的更新则是要经过独立的批量更新完成,称之为 refreshes。一批 refreshes 之间的变化,就能够对应到数据库的内容变化状况。物化视图常常用来将主库的数据复制到从库,也经常在数据仓库用来缓存复杂查询。

 

物化视图有多种配置方式,这里比较关心刷新方式和刷新时间。刷新方式有三种:

  • Complete Refresh:删除全部数据记录从新生成物化视图;

  • Fast Refresh:增量刷新;

  • Force Refresh:根据条件判断使用 Complete Refresh 和 Fast Refres。

 

刷新机制有两种模式: Refresh-on-commit 和 Refresh-On-Demand。

 

Oracle 基于物化视图,就能够完成增量数据的获取,从而知足阿里的数据在线迁移。将这个技术问题泛化一下,想作到在线增量迁移须要有哪些特性?

 

咱们获得以下结论(针对源数据库):

  • 增量变化:支持增量得到增量数据库变化;

  • 延迟:获取变化数据这个动做耗时须要尽量低;

  • 幂等一致性:变化数据的消费应当作到幂等,即无论目标数据库已有数据什么状态,均可以无差异消费。

 

回到咱们面临的问题上来,SQL Server 是否有这个机制知足这三个特性呢?答案是确定的,SQL Server 官方提供了 CDC 功能。

 

CDC 的工做原理

 

什么是 CDC?CDC 全称 Change Data Capture,设计目的就是用来解决增量数据的。它是 SQL Server 2008 新增的特性,在这以前可使用 SQL Server 2005 中的 after insert / afterdelete / after update Trigger 功能来得到数据变化。

 

CDC 的工做原理以下:

 

 

当数据库表发生变化时候,Capture process 会从 transaction log 里面获取数据变化,而后将这些数据记录到 Change Table 里面。有了这些数据,用户能够经过特定的 cdc 存储查询函数将这些变化数据查出来。

 

CDC 的数据结构和基本使用

 

CDC 的核心数据就是那些 Change Table 了,这里咱们给你们看一下Change Table 长什么样,能够有个直观的认识。

 

经过如下的函数打开一张表(fruits)的 CDC 功能。

 

 
  
  1. -- enable cdc for db

  2. sys.sp_cdc_enable_db;

  3. -- enable by table

  4. EXEC sys.sp_cdc_enable_table @source_schema = N'dbo', @source_name = N'fruits', @role_name = NULL;

  5. -- list cdc enabled table

  6. SELECT name, is_cdc_enabled from sys.databases where is_cdc_enabled = 1;

左右滑动可完整查看

 

至此 CDC 功能已经开启,若是须要查看哪些表开启了 CDC 功能,可使用一下 SQL:

 

 
  
  1. -- list cdc enabled table

  2. SELECT name, is_cdc_enabled from sys.databases where is_cdc_enabled = 1;

左右滑动可完整查看

 

开启 CDC 会致使产生一张 Change Table 表 cdc.dbo_fruits_CT,这张表的表结构如何呢?

 

 
  
  1. .schema cdc.dbo_fruits_CT

  2. name            default  nullable  type          length  indexed

  3. --------------  -------  --------  ------------  ------  -------

  4. __$end_lsn      null     YES       binary        10      NO

  5. __$operation    null     NO        int           4       NO

  6. __$seqval       null     NO        binary        10      NO

  7. __$start_lsn    null     NO        binary        10      YES

  8. __$update_mask  null     YES       varbinary     128     NO

  9. id              null     YES       int           4       NO

  10. name            null     YES       varchar(255)  255     NO

左右滑动可完整查看

 

这张表的 __ 开头的字段是 CDC 所记录的元数据, id 和 name 是 fruits 表的原始字段。这意味着 CDC 的表结构和原始表结构是一一对应的。

 

接下来咱们作一些业务操做,让数据库的数据发生一些变化,而后查看 CDC 的 Change Table:

 

 
  
  1. -- 1 step

  2. DECLARE @begin_time datetime, @end_time datetime, @begin_lsn binary(10), @end_lsn binary(10);

  3. -- 2 step

  4. SET @begin_time = '2017-09-11 14:03:00.000';

  5. SET @end_time   = '2017-09-11 14:10:00.000';

  6. -- 3 step

  7. SELECT @begin_lsn = sys.fn_cdc_map_time_to_lsn('smallest greater than', @begin_time);

  8. SELECT @end_lsn = sys.fn_cdc_map_time_to_lsn('largest less than or equal', @end_time);

  9. -- 4 step

  10. SELECT * FROM cdc.fn_cdc_get_all_changes_dbo_fruits(@begin_lsn, @end_lsn, 'all');

左右滑动可完整查看

 

这里的操做含义是:

  1. 定义存储过程当中须要使用的 4 个变量;

  2. begintime / endtime 是 Human Readable 的字符串格式时间;

  3. beginlsn / endlsn 是经过 CDC 函数转化过的 Log Sequence Number,表明数据库变动的惟一操做 ID;

  4. 根据 beginlsn / endlsn 查询到 CDC 变化数据。

 

查询出来的数据以下所示:

 

 
  
  1. __$start_lsn          __$end_lsn  __$seqval             __$operation  __$update_mask  id  name

  2. --------------------  ----------  --------------------  ------------  --------------  --  ------

  3. 0000dede0000019f001a  null        0000dede0000019f0018  2             03              1   apple

  4. 0000dede000001ad0004  null        0000dede000001ad0003  2             03              2   apple2

  5. 0000dede000001ba0003  null        0000dede000001ba0002  3             02              2   apple2

  6. 0000dede000001ba0003  null        0000dede000001ba0002  4             02              2   apple3

  7. 0000dede000001c10003  null        0000dede000001c10002  2             03              3   apple4

  8. 0000dede000001cc0005  null        0000dede000001cc0002  1             03              3   apple4

左右滑动可完整查看

 

能够看到 Change Table 已经如实的记录了咱们操做内容,注意 __$operation 表明了数据库操做:

  • 1 删除

  • 2 插入

  • 3 更新前数据

  • 4 更新后数据

 

根据查出来的数据,咱们能够重现这段时间数据库的操做:

  • 新增了 id 为 1 / 2 的两条数据;

  • 更新了 id 为 2 的数据;

  • 插入了 id 为 3 的数据;

  • 删除了 id 为 3 的数据。

 

CDC 调优

 

有了 CDC 这个利器,意味着咱们的方向是没有问题的,终于稍稍吁了一口气。但除了了解原理和使用方式,咱们还须要深刻了解 CDC 的工做机制,对其进行压测、调优,了解其极限和边界,不然一旦线上出现不可控的状况,就会对业务带来巨大损失。

 

咱们先看看 CDC 的工做流程,就能够知道有哪些核心参数能够调整:

 

 

上图是 CDC Job 的工做流程:

  • 蓝色区域是一次 Log 扫描执行的最大扫描次数:maxscans number(maxscans);

  • 蓝色区域同时被最大扫描 transcation 数量控制:maxtrans;

  • 浅蓝色区域是扫描间隔时间,单位是秒:pollinginterval。

 

这三个参数平衡着 CDC 的服务器资源消耗、吞吐量和延迟,根据具体场景,好比大字段,宽表,BLOB 表,能够调整从而达到知足业务须要。他们的默认值以下:

  • maxscan 默认值 10;

  • maxtrans 默认值 500;

  • pollinginterval 默认值 5 秒。

 

CDC 压测

 

掌握了可以调整的核心参数,咱们即将对 CDC 进行了多种形式的测试。在压测以前,咱们还须要肯定关键的健康指标,这些指标有:

  • 内存:buffer-cache-hit / page-life-expectancy / page-split 等;

  • 吞吐:batch-requets / sql-compilations / sql-re-compilations / transactions count;

  • 资源消耗:user-connections / processes-blocked / lock-waits / checkpoint-pages;

  • 操做系统层面:CPU 利用率、磁盘 IO。

 

出于篇幅考虑,咱们没法将全部测试结果贴出来,这里放一个在并发 30 下面插入一百万数据(随机数据)进行展现:

 

 

 

测试结论是,在默认的 CDC 参数下面:

 

CDC 的开启/关闭过程当中会致使若干个 Process Block,大流量请求下面(15k TPS)过程会致使约 20 个左右 Process Block。这个过程当中对服务器的 IO / CPU 无明显波动,开启/关闭瞬间会带来 mssql.sql-statistics.sql-compilations 剧烈波动。CDC 开启后,在大流量请求下面对 QPS / Page IO 无明显波动,对服务器的 IO / CPU 也无明显波动, CDC 开启后能够在 16k TPS 下正常工做。

 

若是对性能不达标,官方有一些简单的优化指南:

  • 调整 maxscan maxtrans pollinginterval;

  • 减小在插入后马上插入;

  • 避免大批量写操做;

  • 限制须要记录的字段;

  • 尽量关闭 net changes;

  • 没任务压力时跑 cleanup;

  • 监控 log file 大小和 IO 压力,确保不会写爆磁盘;

  • 要设置 filegroup_name;

  • 开启 spcdcenable_table 以前设置 filegroup。

 

yugong 的在线迁移机制

 

截至目前为止,咱们已经具有了 CDC 这个工具,可是这仅仅提供了一种可能性,咱们还须要一个工具将 CDC 的数据消费出来,并喂到 MySQL 里面去。

 

还好有 yugong。Yugong 官方提供了 Oracle 到 MySQL 的封装,而且抽象了 Source / Target / SQL Tempalte 等接口,咱们只要实现相关接口,就能够完成从 SQL Server 消费数据到 MySQL 了。

 

这里咱们不展开,我后续还会专门写一篇文章讲如何在 yugong 上面进行开发。能够提早剧透一下,咱们已经将支持 SQL Server 的 yugong 版本开源了。

 

如何回滚

 

数据库迁移这样的项目,咱们不只仅要保证单向从 SQL Server 到 MySQL 的写入,同时要从 MySQL 写入 SQL Server。

 

这个流程一样考虑增量写入的要素:增量消费、延迟、幂等一致性。

 

MySQL 的 binlog 能够知足这三个要素,须要注意的是,MySQL binlog 有三种模式,Statement based、Row based 和 Mixed。只有 Row based 才能知足幂等一致性的要求。

 

确认理论上可行以后,咱们同样须要一个工具将 binlog 读取出来,而且将其转化为SQL Server 能够消费的数据格式,而后写入 SQL Server。

 

咱们目光转到 alibaba 的另一个项目 Canal。Canal 是阿里中间件团队提供的 binlog 增量订阅 & 消费组件。之因此叫组件,是因为 Canal 提供了 Canal-Server 应用和 Canal Client Library,Canal 会模拟成一个 MySQL 实例,做为 Slave 链接到 Master 上面,而后实时将 binlog 读取出来。至于 binlog 读出以后想怎么使用,权看用户如何使用。

 

咱们基于 Canal 设计了一个简单的数据流,在 yugong 中增长了这么几个功能:

  • SQL Server 的写入功能

  • 消费 Canal 数据源的功能

 

Canal Server 中的 binlog 只能作一次性消费,内部实现是一个 Queue,为了知足咱们能够重复消费数据的能力,咱们还额外设计了一个环节,将 Canal 的数据放到 Queue 中,在将来任意时间能够重复消费数据。咱们选择了 Redis 做为这个 Queue,数据流以下:

 

 

最佳实践

 

数据库的迁移在去 Windows 中,是最容不得出错的环节。应用是无状态的, 出现问题能够经过回切较快地回滚。但数据库的迁移就须要考虑周到,作好资源准备,发布流程,故障预案处理。

 

考虑到多个事业部都须要经历这样一个过程,咱们项目组将每个步骤都固化下来,造成了一个最佳实践。咱们的迁移步骤以下,供你们参考:

 

 

参考连接

  • MySQL :: Guide to Migrating from Microsoft SQL Server to MySQL: https://www.mysql.com/it/why-mysql/white-papers/guide-to-migrating-from-sql-server-to-mysql/

  • mysqldump: https://dev.mysql.com/doc/refman/5.7/en/mysqldump.html

  • mysqlimport: https://dev.mysql.com/doc/refman/5.7/en/mysqlimport.html

  • pt-table-sync: https://www.percona.com/doc/percona-toolkit/LATEST/pt-table-sync.html

  • XtraBackup: https://www.percona.com/software/mysql-database/percona-xtrabackup

  • Database migration and synchronization tools: https://www.convert-in.com/

  • DataX: https://github.com/alibaba/DataX

  • yugong: https://github.com/alibaba/yugong

  • MySQL Workbench: https://www.mysql.com/cn/products/workbench/

  • Data Integration - Kettle: https://community.hds.com/docs/DOC-1009855

  • Ispirer: https://www.ispirer.cn/products/sql-server-to-mysql-migration

  • DB2DB 数据库转换工具: http://www.szmesoft.com/DB2DB

  • Navicat Premium: https://www.navicat.com/en/products/navicat-premium

  • DBImport: http://www.cnblogs.com/cyq1162/p/5637978.html

  • Meituan-Dianping/SQLAdvisor: https://github.com/Meituan-Dianping/SQLAdvisor

  • Materialized View Concepts and Architecture:https://docs.oracle.com/cd/B10500_01/server.920/a96567/repmview.htm

  • Tuning the Performance of Change Data Capture in SQL Server 2008 | Microsoft Docs:https://docs.microsoft.com/en-us/previous-versions/sql/sql-server-2008/dd266396(v=sql.100

  • alibaba/yugong: 阿里巴巴去Oracle数据迁移同步工具(全量+增量,目标支持MySQL/DRDS):https://github.com/alibaba/yugong

  • alibaba/canal: 阿里巴巴mysql数据库binlog的增量订阅&消费组件 。阿里云DRDS( https://www.aliyun.com/product/drds )、阿里巴巴TDDL 二级索引、小表复制powerd by canal.:https://github.com/alibaba/canal)

原文地址:http://dbaplus.cn/news-157-2067-1.html

相关文章
相关标签/搜索