sentinal,中文名是哨兵node
哨兵是redis集群架构中很是重要的一个组件,主要功能以下:redis
(1)集群监控,负责监控redis master和slave进程是否正常工做。算法
(2)消息通知,若是某个redis实例有故障,那么哨兵负责发送消息做为报警通知给管理员。网络
(3)故障转移,若是master node挂掉了,会自动转移到slave node上。架构
(4)配置中心,若是故障转移发生了,通知client客户端新的master地址。异步
哨兵自己也是分布式的,做为一个哨兵集群去运行,互相协同工做:分布式
(1)故障转移时,判断一个master node是宕机了,须要大部分的哨兵都赞成才行,涉及到了分布式选举的问题。ide
(2)即便部分哨兵节点挂掉了,哨兵集群仍是能正常工做的,由于若是一个做为高可用机制重要组成部分的故障转移系统自己是单点的,那就很坑爹了。测试
目前采用的是sentinal 2版本,sentinal 2相对于sentinal 1来讲,重写了不少代码,主要是让故障转移的机制和算法变得更加健壮和简单spa
(1)哨兵至少须要3个实例,来保证本身的健壮性。
(2)哨兵 + redis主从的部署架构,是不会保证数据零丢失的,只能保证redis集群的高可用性。
(3)对于哨兵 + redis主从这种复杂的部署架构,尽可能在测试环境和生产环境,都进行充足的测试和演练。
哨兵集群必须部署2个以上节点,若是哨兵集群仅仅部署了个2个哨兵实例,quorum=1
+----+ +----+
| M1 |---------| R1 |
| S1 | | S2 |
+----+ +----+
Configuration: quorum = 1
master宕机,s1和s2中只要有1个哨兵认为master宕机就能够进行切换,同时s1和s2中会选举出一个哨兵来执行故障转移,同时这个时候,须要majority,也就是大多数哨兵都是运行的,2个哨兵的majority就是2(2的majority=2,3的majority=2,5的majority=3,4的majority=2),2个哨兵都运行着,就能够容许执行故障转移。可是若是整个M1和S1运行的机器宕机了,那么哨兵只有1个了,此时就没有majority来容许执行故障转移,虽然另一台机器还有一个R1,可是故障转移不会执行。
+----+
| M1 |
| S1 |
+----+
|
+----+ | +----+
| R2 |----+----| R3 |
| S2 | | S3 |
+----+ +----+
Configuration: quorum = 2,majority
若是M1所在机器宕机了,那么三个哨兵还剩下2个,S2和S3能够一致认为master宕机,而后选举出一个来执行故障转移,同时3个哨兵的majority是2,因此还剩下的2个哨兵运行着,就能够容许执行故障转移。
由于master -> slave的复制是异步的,因此可能有部分数据还没复制到slave,master就宕机了,此时这些部分数据就丢失了。
脑裂,也就是说,某个master所在机器忽然脱离了正常的网络,跟其余slave机器不能链接,可是实际上master还运行着,此时哨兵可能就会认为master宕机了,而后开启选举,将其余slave切换成了master,这个时候,集群里就会有两个master,也就是所谓的脑裂。
此时虽然某个slave被切换成了master,可是可能client还没来得及切换到新的master,还继续写向旧master的数据可能也丢失了,所以旧master再次恢复的时候,会被做为一个slave挂到新的master上去,本身的数据会清空,从新重新的master复制数据。
上面两个配置能够减小异步复制和脑裂致使的数据丢失:
min-slaves-to-write 1# 要求至少有1个slave,数据复制和同步的延迟不能超过10秒
min-slaves-max-lag 10#若是说一旦全部的slave,数据复制和同步的延迟都超过了10秒钟,那么这个时候,master就不会再接收任何请求了
有了min-slaves-max-lag这个配置,就能够确保说,一旦slave复制数据和ack延时太长,就认为可能master宕机后损失的数据太多了,那么就拒绝写请求,这样能够把master宕机时因为部分数据未同步到slave致使的数据丢失下降的可控范围内。
若是一个master出现了脑裂,跟其余slave丢了链接,那么上面两个配置能够确保说,若是不能继续给指定数量的slave发送数据,并且slave超过10秒没有给本身ack消息,那么就直接拒绝客户端的写请求。这样脑裂后的旧master就不会接受client的新数据,也就避免了数据丢失。上面的配置就确保了,若是跟任何一个slave丢了链接,在10秒后发现没有slave给本身ack,那么就拒绝新的写请求。所以在脑裂场景下,最多就丢失10秒的数据。
sdown和odown两种失败状态sdown是主观宕机,就一个哨兵若是本身以为一个master宕机了,那么就是主观宕机。odown是客观宕机,若是quorum数量的哨兵都以为一个master宕机了,那么就是客观宕机。
sdown达成的条件很简单,若是一个哨兵ping一个master,超过了is-master-down-after-milliseconds指定的毫秒数以后,就主观认为master宕机。sdown到odown转换的条件很简单,若是一个哨兵在指定时间内,收到了quorum指定数量的其余哨兵也认为那个master是sdown了,那么就认为是odown了,客观认为master宕机。
哨兵互相之间的发现,是经过redis的pub/sub系统实现的,每一个哨兵都会往sentinel:hello这个channel里发送一个消息,这时候全部其余哨兵均可以消费到这个消息,并感知到其余的哨兵的存在。每隔两秒钟,每一个哨兵都会往本身监控的某个master+slaves对应的sentinel:hello channel里发送一个消息,内容是本身的host、ip和runid还有对这个master的监控配置。每一个哨兵也会去监听本身监控的每一个master+slaves对应的sentinel:hello channel,而后去感知到一样在监听这个master+slaves的其余哨兵的存在。每一个哨兵还会跟其余哨兵交换对master的监控配置,互相进行监控配置的同步。
哨兵会负责自动纠正slave的一些配置,好比slave若是要成为潜在的master候选人,哨兵会确保slave在复制现有master的数据; 若是slave链接到了一个错误的master上,好比故障转移以后,那么哨兵会确保它们链接到正确的master上。
若是一个master被认为odown了,并且majority哨兵都容许了主备切换,那么某个哨兵就会执行主备切换操做,此时首先要选举一个slave来。会考虑slave的一些信息:
(1)跟master断开链接的时长。
(2)slave优先级。
(3)复制offset。
(4)run id。
若是一个slave跟master断开链接已经超过了down-after-milliseconds的10倍,外加master宕机的时长,那么slave就被认为不适合选举为master:
(down-after-milliseconds * 10) +milliseconds_since_master_is_in_SDOWN_state
接下来会对slave进行排序:
(1)按照slave优先级进行排序,slave priority越低,优先级就越高。
(2)若是slave priority相同,那么看replica offset,哪一个slave复制了越多的数据,offset越靠后,优先级就越高。
(3)若是上面两个条件都相同,那么选择一个run id比较小的那个slave。
每次一个哨兵要作主备切换,首先须要quorum数量的哨兵认为odown,而后选举出一个哨兵来作切换,这个哨兵还得获得majority哨兵的受权,才能正式执行切换。若是quorum < majority,好比5个哨兵,majority就是3,quorum设置为2,那么就3个哨兵受权就能够执行切换。可是若是quorum >= majority,那么必须quorum数量的哨兵都受权,好比5个哨兵,quorum是5,那么必须5个哨兵都赞成受权,才能执行切换。
哨兵会对一套redis master+slave进行监控,有相应的监控的配置。执行切换的那个哨兵,会从要切换到的新master(salve->master)那里获得一个configuration epoch,这就是一个version号,每次切换的version号都必须是惟一的。若是第一个选举出的哨兵切换失败了,那么其余哨兵,会等待failover-timeout时间,而后接替继续执行切换,此时会从新获取一个新的configuration epoch,做为新的version号。
哨兵完成切换以后,会在本身本地更新生成最新的master配置,而后同步给其余的哨兵,就是经过以前说的pub/sub消息机制。这里以前的version号就很重要了,由于各类消息都是经过一个channel去发布和监听的,因此一个哨兵完成一次新的切换以后,新的master配置是跟着新的version号的。其余的哨兵都是根据版本号的大小来更新本身的master配置的。