背景
早期,阿里巴巴B2B公司由于存在杭州和美国双机房部署,存在跨机房同步的业务需求。不过早期的数据库同步业务,主要是基于trigger的方式获取增 量变动,不过从2010年开始,阿里系公司开始逐步的尝试基于数据库的日志解析,获取增量变动进行同步,由此衍生出了增量订阅&消费的业务,今后 开启了一段新纪元。ps. 目前内部使用的同步,已经支持mysql5.x和oracle部分版本的日志解析html
基于日志增量订阅&消费支持的业务:java
- 数据库镜像
- 数据库实时备份
- 多级索引 (卖家和买家各自分库索引)
- search build
- 业务cache刷新
- 价格变化等重要业务消息
项目介绍
名称:canal [kə'næl]mysql
译意: 水道/管道/沟渠 git
语言: 纯java开发github
定位: 基于数据库增量日志解析,提供增量数据订阅&消费,目前主要支持了mysqlweb
工做原理
mysql主备复制实现

从上层来看,复制分红三步:spring
- master将改变记录到二进制日志(binary log)中(这些记录叫作二进制日志事件,binary log events,能够经过show binlog events进行查看);
- slave将master的binary log events拷贝到它的中继日志(relay log);
- slave重作中继日志中的事件,将改变反映它本身的数据。
canal的工做原理:

原理相对比较简单:sql
- canal模拟mysql slave的交互协议,假装本身为mysql slave,向mysql master发送dump协议
- mysql master收到dump请求,开始推送binary log给slave(也就是canal)
- canal解析binary log对象(原始为byte流)
架构

说明:数据库
- server表明一个canal运行实例,对应于一个jvm
- instance对应于一个数据队列 (1个server对应1..n个instance)
instance模块:api
- eventParser (数据源接入,模拟slave协议和master进行交互,协议解析)
- eventSink (Parser和Store连接器,进行数据过滤,加工,分发的工做)
- eventStore (数据存储)
- metaManager (增量订阅&消费信息管理器)
知识科普
mysql的Binlay Log介绍
简单点说:
- mysql的binlog是多文件存储,定位一个LogEvent须要经过binlog filename + binlog position,进行定位
- mysql的binlog数据格式,按照生成的方式,主要分为:statement-based、row-based、mixed。
- mysql> show variables like 'binlog_format';
- +---------------+-------+
- | Variable_name | Value |
- +---------------+-------+
- | binlog_format | ROW |
- +---------------+-------+
- 1 row in set (0.00 sec)
目前canal只能支持row模式的增量订阅(statement只有sql,没有数据,因此没法获取原始的变动日志)
EventParser设计
大体过程:

整个parser过程大体可分为几步:
- Connection获取上一次解析成功的位置 (若是第一次启动,则获取初始指定的位置或者是当前数据库的binlog位点)
- Connection创建连接,发送BINLOG_DUMP指令
// 0. write command number
// 1. write 4 bytes bin-log position to start at
// 2. write 2 bytes bin-log flags
// 3. write 4 bytes server id of the slave
// 4. write bin-log file name
- Mysql开始推送Binaly Log
- 接收到的Binaly Log的经过Binlog parser进行协议解析,补充一些特定信息
// 补充字段名字,字段类型,主键信息,unsigned类型处理
- 传递给EventSink模块进行数据存储,是一个阻塞操做,直到存储成功
- 存储成功后,定时记录Binaly Log位置
mysql的Binlay Log网络协议:

说明:
EventSink设计

说明:
- 数据过滤:支持通配符的过滤模式,表名,字段内容等
- 数据路由/分发:解决1:n (1个parser对应多个store的模式)
- 数据归并:解决n:1 (多个parser对应1个store)
- 数据加工:在进入store以前进行额外的处理,好比join
数据1:n业务
为了合理的利用数据库资源, 通常常见的业务都是按照schema进行隔离,而后在mysql上层或者dao这一层面上,进行一个数据源路由,屏蔽数据库物理位置对开发的影响,阿里系主要是经过cobar/tddl来解决数据源路由问题。
因此,通常一个数据库实例上,会部署多个schema,每一个schema会有由1个或者多个业务方关注
数据n:1业务
一样,当一个业务的数据规模达到必定的量级后,必然会涉及到水平拆分和垂直拆分的问题,针对这些拆分的数据须要处理时,就须要连接多个store进行处理,消费的位点就会变成多份,并且数据消费的进度没法获得尽量有序的保证。
因此,在必定业务场景下,须要将拆分后的增量数据进行归并处理,好比按照时间戳/全局id进行排序归并.
EventStore设计
- 1. 目前仅实现了Memory内存模式,后续计划增长本地file存储,mixed混合模式
- 2. 借鉴了Disruptor的RingBuffer的实现思路
RingBuffer设计:

定义了3个cursor
- Put : Sink模块进行数据存储的最后一次写入位置
- Get : 数据订阅获取的最后一次提取位置
- Ack : 数据消费成功的最后一次消费位置
借鉴Disruptor的RingBuffer的实现,将RingBuffer拉直来看:

实现说明:
- Put/Get/Ack cursor用于递增,采用long型存储
- buffer的get操做,经过取余或者与操做。(与操做: cusor & (size - 1) , size须要为2的指数,效率比较高)
Instance设计

instance表明了一个实际运行的数据队列,包括了EventPaser,EventSink,EventStore等组件。
抽象了CanalInstanceGenerator,主要是考虑配置的管理方式:
- manager方式: 和你本身的内部web console/manager系统进行对接。(目前主要是公司内部使用)
- spring方式:基于spring xml + properties进行定义,构建spring配置.
Server设计

server表明了一个canal的运行实例,为了方便组件化使用,特地抽象了Embeded(嵌入式) / Netty(网络访问)的两种实现
- Embeded : 对latency和可用性都有比较高的要求,本身又能hold住分布式的相关技术(好比failover)
- Netty : 基于netty封装了一层网络协议,由canal server保证其可用性,采用的pull模型,固然latency会稍微打点折扣,不过这个也视状况而定。(阿里系的notify和metaq,典型的 push/pull模型,目前也逐步的在向pull模型靠拢,push在数据量大的时候会有一些问题)
增量订阅/消费设计

具体的协议格式,可参见:CanalProtocol.proto
get/ack/rollback协议介绍:
- Message getWithoutAck(int batchSize),容许指定batchSize,一次能够获取多条,每次返回的对象为Message,包含的内容为:
a. batch id 惟一标识
b. entries 具体的数据对象,对应的数据对象格式:EntryProtocol.proto
- void rollback(long batchId),顾命思议,回滚上次的get请求,从新获取数据。基于get获取的batchId进行提交,避免误操做
- void ack(long batchId),顾命思议,确认已经消费成功,通知server删除数据。基于get获取的batchId进行提交,避免误操做
canal的get/ack/rollback协议和常规的jms协议有所不一样,容许get/ack异步处理,好比能够连续调用get屡次,后续异步按顺序提交ack/rollback,项目中称之为流式api.
流式api设计的好处:
- get/ack异步化,减小因ack带来的网络延迟和操做成本 (99%的状态都是处于正常状态,异常的rollback属于个别状况,不必为个别的case牺牲整个性能)
- get获取数据后,业务消费存在瓶颈或者须要多进程/多线程消费时,能够不停的轮询get数据,不停的日后发送任务,提升并行化. (做者在实际业务中的一个case:业务数据消费须要跨中美网络,因此一次操做基本在200ms以上,为了减小延迟,因此须要实施并行化)
流式api设计:

- 每次get操做都会在meta中产生一个mark,mark标记会递增,保证运行过程当中mark的惟一性
- 每次的get操做,都会在上一次的mark操做记录的cursor继续日后取,若是mark不存在,则在last ack cursor继续日后取
- 进行ack时,须要按照mark的顺序进行数序ack,不能跳跃ack. ack会删除当前的mark标记,并将对应的mark位置更新为last ack cusor
- 一旦出现异常状况,客户端可发起rollback状况,从新置位:删除全部的mark, 清理get请求位置,下次请求会从last ack cursor继续日后取
- Entry
- Header
- logfileName [binlog文件名]
- logfileOffset [binlog position]
- executeTime [发生的变动]
- schemaName
- tableName
- eventType [insert/update/delete类型]
- entryType [事务头BEGIN/事务尾END/数据ROWDATA]
- storeValue [byte数据,可展开,对应的类型为RowChange]
-
- RowChange
- isDdl [是不是ddl变动操做,好比create table/drop table]
- sql [具体的ddl sql]
- rowDatas [具体insert/update/delete的变动数据,可为多条,1个binlog event事件可对应多条变动,好比批处理]
- beforeColumns [Column类型的数组]
- afterColumns [Column类型的数组]
-
- Column
- index
- sqlType [jdbc type]
- name [column name]
- isKey [是否为主键]
- updated [是否发生过变动]
- isNull [值是否为null]
- value [具体的内容,注意为文本]
说明:
- 能够提供数据库变动前和变动后的字段内容,针对binlog中没有的name,isKey等信息进行补全
- 能够提供ddl的变动语句
HA机制设计
canal的ha分为两部分,canal server和canal client分别有对应的ha实现
- canal server: 为了减小对mysql dump的请求,不一样server上的instance要求同一时间只能有一个处于running,其余的处于standby状态.
- canal client: 为了保证有序性,一份instance同一时间只能由一个canal client进行get/ack/rollback操做,不然客户端接收没法保证有序。
整个HA机制的控制主要是依赖了zookeeper的几个特性,watcher和EPHEMERAL节点(和session生命周期绑定),能够看下我以前zookeeper的相关文章。
Canal Server:

大体步骤:
- canal server要启动某个canal instance时都先向zookeeper进行一次尝试启动判断 (实现:建立EPHEMERAL节点,谁建立成功就容许谁启动)
- 建立zookeeper节点成功后,对应的canal server就启动对应的canal instance,没有建立成功的canal instance就会处于standby状态
- 一旦zookeeper发现canal server A建立的节点消失后,当即通知其余的canal server再次进行步骤1的操做,从新选出一个canal server启动instance.
- canal client每次进行connect时,会首先向zookeeper询问当前是谁启动了canal instance,而后和其创建连接,一旦连接不可用,会从新尝试connect.
Canal Client的方式和canal server方式相似,也是利用zokeeper的抢占EPHEMERAL节点的方式进行控制.
最后
项目的代码: https://github.com/alibabatech/canal
这里给出了如何快速启动Canal Server和Canal Client的例子,若有问题可随时联系
Quick Start
Client Example