分布式存储系统一般采用多副本的方式来保证系统的可靠性,而多副本之间如何保证数据的一致性就是系统的核心。ceph号称统一存储,其核心RADOS既支持多副本,也支持纠删码。本文主要分析ceph的多副本一致性协议。缓存
ceph使用pglog来保证多副本之间的一致性,pglog的示意图以下:pglog主要是用来记录作了什么操做,好比修改,删除等,而每一条记录里包含了对象信息,还有版本。
ceph使用版本控制的方式来标记一个PG内的每一次更新,每一个版本包括一个(epoch,version)来组成:其中epoch是osdmap的版本,每当有OSD状态变化如增长删除等时,epoch就递增;version是PG内每次更新操做的版本号,递增的,由PG内的Primary OSD进行分配的。
每一个副本上都维护了pglog,pglog里最重要的两个指针就是last_complete和last_update,正常状况下,每一个副本上这两个指针都指向同一个位置,当出现机器重启、网络中断等故障时,故障副本的这两个指针就会有所区别,以便于来记录副本间的差别。网络
为了便于说明ceph的一致性协议,先简要描述一下ceph的读写处理流程。
写处理流程:
1)client把写请求发到Primary OSD上,Primary OSD上将写请求序列化到一个事务中(在内存里),而后构造一条pglog记录,也序列化到这个事务中,而后将这个事务以directIO的方式异步写入journal,同时Primary OSD把写请求和pglog(pglog_entry是由primary生成)发送到Replicas上;
2)在Primary OSD将事务写到journal上后,会经过一系列的线程和回调处理,而后将这个事务里的数据写入filesystem(只是写到文件系统的缓存里,会有线程按期刷数据),这个事务里的pglog记录(也包括pginfo的last_complete和last_update)会写到leveldb,还有一些扩展属性相关的也在这个事务里,在遍历这个事务时也会写到leveldb;
3)在Replicas上,也是进行相似于Primary的动做,先写journal,写成功会给Primary发送一个committed ack,而后将这个事务里的数据写到filesystem,pglog与pginfo写到leveldb里,写完后会给Primary发送另一个applied ack;
4)Primary在本身完成journal的写入时,以及在收到Replica的committed ack时都会检查是否多个副本都写入journal成功了,若是是则向client端发送ack通知写完成;Primary在本身完成事务写到文件系统和leveldb后,以及在收到replica的applied ack时都会检查是否多个副本都写文件系统成功,若是是则向client端发送ack通知数据可读;
对读流程来讲,就比较简单,都是由Primary来处理,这里就很少说了。app
ceph在进行故障恢复的时候会通过peering的过程,简要来讲,peering就是对比各个副本上的pglog,而后根据副本上pglog的差别来构造missing列表,而后在恢复阶段就能够根据missing列表来进行恢复了。peering是按照pg为单位进行的,在进行peering的过程当中,I/O请求是会挂起的,当进行完peering阶段进入recovery阶段时,I/O能够继续进行,不过当I/O请求命中了missing列表的时候,对应的这个待恢复的对象会优先进行恢复,当这个对象恢复完成后,再进行I/O的处理。
由于pglog记录数有限制,当对比各个副本上的pglog时,发现故障的副本已经落后太多了,这样就没法根据pglog来恢复了,因此这种状况下就只能全量恢复,称为backfill,坏盘坏机器或者集群扩容时也会触发backfill,这里不作介绍,后续单独一篇文章来进行分析。异步
基于pglog的一致性协议包含两种恢复过程,一个是Primary挂掉后又起来的恢复,一种是Replica挂掉后又起来的恢复。分布式
简单起见,图中的数字就表示pglog里不一样对象的版本。
1)正常状况下,都是由Primary处理client端的I/O请求,这时,Primary和Replicas上的last_update和last_complete都会指向pglog最新记录;
2)当Primary挂掉后,会选出一个Replica做为“临时主”,这个“临时主”负责处理新的读写请求,而且这个时候“临时主”和剩下的Replicas上的last_complete和last_update都更新到该副本上的pglog的最新记录;
3)当原来的Primary又重启时,会从本地读出pginfo和pglog,当发现last_complete<last_update时,last_complete和last_update之间就可能存在丢失的对象,遍历last_complete到last_update之间的pglog记录,对于每一条记录,从本地读出该记录里对象的属性(包含本地持久化过的版本),对比pglog记录里的对象版本与读出来的版本,若是读出来的对象版本小于pglog记录里的版本,说明该对象不是最新的,须要进行恢复,所以将该对象加到missing列表里;
4)Primary发起peering过程,即“抢回原来的主”,选出权威日志,通常就是“临时主”的pglog,将该权威日志获取过来,与本身的pglog进行merge_log的步骤,构建出missing列表,而且更新本身的last_update为最新的pglog记录(与各个副本一致),这个时候last_complete与last_update之间的就会加到missing列表,而且peering完成后会持久化last_complete和last_update;
5)当有新的写入时,仍然是由Primary负责处理,会更新last_update,副本上会同时更新last_complete,与此同时,Primary会进行恢复,就是从其余副本上拉取对象数据到本身这里进行恢复,每当恢复完一个时,就会更新本身的last_complete(会持久化的),当全部对象都恢复完成后,last_complete就会追上last_update了。
6)当恢复过程当中,Primary又挂了再起来恢复时,先读出本地pglog时就会根据本身的last_complete和last_update构建出missing列表,而在peering的时候对比权威日志和本地的pglog发现权威与本身的last_update都同样,peering的过程当中就没有新的对象加到missing列表里,总的来讲,missing列表就是由两个地方进行构建的:一个是osd启动的时候read_log里构建的,另外一个是peering的时候对比权威日志构建的;spa
与Primary的恢复相似,peering都是由Primary发起的,Replica起来后也会根据pglog的last_complete和last_update构建出replica本身的missing,而后Primary进行peering的时候对比权威日志(即自身)与故障replica的日志,结合replica的missing,构建出peer_missing,而后就遍历peer_missing来恢复对象。而后新的写入时会在各个副本上更新last_complete和last_update,其中故障replica上只更新last_update,恢复过程当中,每恢复完一个对象,故障replica会更新last_complete,这样全部对象都恢复完成后,replica的last_complete就会追上last_update。
若是恢复过程当中,故障replica又挂掉,而后重启后进行恢复的时候,也是先读出本地log,对比last_complete与last_update之间的pglog记录里的对象版本与本地读出来的该对象版本,若是本地不是最新的,就会加到missing列表里,而后Primary发起peering的时候发现replica的last_update是最新的,peering过程就没有新的对象加到peer_missing列表里,peer_missing里就是replica本身的missing里的对象。线程