本文转载自:http://shift-alt-ctrl.iteye.com/blog/1884370redis
文中的配置例子,还有failover过程当中触发的订阅事件具备很好的参考价值。app
Redis sentinel(哨兵)模块已经被集成在redis2.4+的版本中,尽管目前不是release,不过能够尝试去使用和了解,事实上sentinel仍是有点复杂的.
sentinel主要功能就是为Redis M-S(master,slaves)集群提供了1)master存活检测 2)集群中M-S服务监控 3) 自动故障转移,M-S角色转换等能力,从一个方面说是提升了redis集群的可用性.tcp
通常状况下,最小M-S单元各有一个maste和slave组成,当master失效后,sentinel能够帮助咱们自动将slave提高为master;有了sentinel组件,能够减小系统管理员的人工切换slave的操做过程.ui
sentinel的一些设计思路和zookeeper很是相似,事实上,你能够不使用sentinel,而是本身开发一个监控redis的zk客户端也可以完成相应的设计要求.spa
一.环境部署翻译
准备3个redis服务,简单构建一个小的M-S环境;它们各自的redis.conf配置项中,除了port不一样外,要求其余的配置彻底同样(包括aof/snap,memory,rename以及受权密码等);缘由是基于sentinel作故障转移,全部的server运行机制都必须同样,它们只不过在运行时"角色"不一样,并且它们的角色可能在故障时会被转换;slave在某些时刻也会成为master,尽管在通常状况下,slave的数据持久方式常常采起snapshot,而master为aof,不过基于sentinel以后,slave和master均要采起aof(经过bgsave,手动触发snapshot备份).设计
1) redis.conf:
server
- ##redis.conf
- ##redis-0,默认为master
- port 6379
- ##受权密码,请各个配置保持一致
- requirepass 012_345^678-90
- masterauth 012_345^678-90
- ##暂且禁用指令重命名
- ##rename-command
- ##开启AOF,禁用snapshot
- appendonly yes
- save “”
- ##slaveof no one
- slave-read-only yes
- ##redis.conf
- ##redis-1,经过启动参数配置为slave,配置文件保持独立
- port 6479
- slaveof 127.0.0.1 6379
- ##-----------其余配置和master保持一致-----------##
- ##redis.conf
- ##redis-1,经过启动参数配置为slave,配置文件保持独立
- port 6579
- slaveof 127.0.0.1 6379
- ##-----------其余配置和master保持一致-----------##
2) sentinel.confblog
请首先在各个redis服务中sentinel.conf同目录下新建local-sentinel.conf,并将复制以下配置信息.排序
- ##redis-0
- ##sentinel实例之间的通信端口
- port 26379
- sentinel monitor def_master 127.0.0.1 6379 2
- sentinel auth-pass def_master 012_345^678-90
- sentinel down-after-milliseconds def_master 30000
- sentinel can-failover def_master yes
- sentinel parallel-syncs def_master 1
- sentinel failover-timeout def_master 900000
- ##redis-1
- port 26479
- ##--------其余配置同上-------##
- ##redis-2
- port 26579
- ##--------其余配置同上-------#
3) 启动与检测
- ##redis-0(默认为master)
- > ./redis-server --include ../redis.conf
- ##启动sentinel组件
- > ./redis-sentinel ../local-sentinel.conf
按照上述指令,依次启动redis-0,redis-1,redis-2;在启动redis-1和redis-2的时候,你会发如今redis-0的sentinel控制台会输出"+sentinel ..."字样,表示有新的sentinel实例加入到监控.不过此处须要提醒,首次构建sentinel环境时,必须首先启动master机器.
此后你可使用任意一个"redis-cli"窗口,输入"INFO"命令,能够查看当前server的状态:
- > ./redis-cli -h 127.0.0.1 -p 6379
- ##以下为打印信息摘要:
- #Replication
- role:master
- connected_salves:2
- slave0:127.0.0.1,6479,online
- slave1:127.0.0.1.6579,online
"INFO"指令将会打印完整的服务信息,包括集群,咱们只须要关注"replication"部分,这部分信息将会告诉咱们"当前server的角色"以及指向它的全部的slave信息.能够经过在任何一个slave上,使用"INFO"指令得到当前slave所指向的master信息.
"INFO"指令不只能够帮助咱们得到集群的状况,固然sentinel组件也是使用"INFO"作一样的事情.
当上述部署环境稳定后,咱们直接关闭redis-0,在等待"down-after-milliseconds"秒以后(30秒),redis-0/redis-1/redis-2的sentinel窗口会当即打印"+sdown""+odown""+failover""+selected-slave""+promoted-slave""+slave-reconf"等等一系列指令,这些指令标明当master失效后,sentinel组件进行failover的过程.
当环境再次稳定后,咱们发现,redis-1被提高("promoted")为master,且redis-2也经过"slave-reconf"过程以后跟随了redis-1.
若是此后想再次让redis-0加入集群,你须要首先经过"INFO"指令找到当前的masterip + port,并在启动指令中明确指明slaveof参数:
- > ./redis-server --include ../redis.conf --slaveof 127.0.0.1 6479
sentinel实例须要全程处于启动状态,若是只启动server而不启动相应的sentinel,仍然不能确保server可以正确的被监控和管理.
二. sentinel原理
首先解释2个名词:SDOWN和ODOWN.
- SDOWN:subjectively down,直接翻译的为"主观"失效,即当前sentinel实例认为某个redis服务为"不可用"状态.
- ODOWN:objectively down,直接翻译为"客观"失效,即多个sentinel实例都认为master处于"SDOWN"状态,那么此时master将处于ODOWN,ODOWN能够简单理解为master已经被集群肯定为"不可用",将会开启failover.
SDOWN适合于master和slave,可是ODOWN只会使用于master;当slave失效超过"down-after-milliseconds"后,那么全部sentinel实例都会将其标记为"SDOWN".
1) SDOWN与ODOWN转换过程:
- 每一个sentinel实例在启动后,都会和已知的slaves/master以及其余sentinels创建TCP链接,并周期性发送PING(默认为1秒)
- 在交互中,若是redis-server没法在"down-after-milliseconds"时间内响应或者响应错误信息,都会被认为此redis-server处于SDOWN状态.
- 若是2)中SDOWN的server为master,那么此时sentinel实例将会向其余sentinel间歇性(一秒)发送"is-master-down-by-addr <ip> <port>"指令并获取响应信息,若是足够多的sentinel实例检测到master处于SDOWN,那么此时当前sentinel实例标记master为ODOWN...其余sentinel实例作一样的交互操做.配置项"sentinel monitor <mastername> <masterip> <masterport> <quorum>",若是检测到master处于SDOWN状态的slave个数达到<quorum>,那么此时此sentinel实例将会认为master处于ODOWN.
- 每一个sentinel实例将会间歇性(10秒)向master和slaves发送"INFO"指令,若是master失效且没有新master选出时,每1秒发送一次"INFO";"INFO"的主要目的就是获取并确认当前集群环境中slaves和master的存活状况.
- 通过上述过程后,全部的sentinel对master失效达成一致后,开始failover.
2) Sentinel与slaves"自动发现"机制:
在sentinel的配置文件中(local-sentinel.conf),都指定了port,此port就是sentinel实例侦听其余sentinel实例创建连接的端口.在集群稳定后,最终会每一个sentinel实例之间都会创建一个tcp连接,此连接中发送"PING"以及相似于"is-master-down-by-addr"指令集,可用用来检测其余sentinel实例的有效性以及"ODOWN"和"failover"过程当中信息的交互.
在sentinel之间创建链接以前,sentinel将会尽力和配置文件中指定的master创建链接.sentinel与master的链接中的通讯主要是基于pub/sub来发布和接收信息,发布的信息内容包括当前sentinel实例的侦听端口:
- +sentinel sentinel 127.0.0.1:26579 127.0.0.1 26579 ....
发布的主题名称为"__sentinel__:hello";同时sentinel实例也是"订阅"此主题,以得到其余sentinel实例的信息.因而可知,环境首次构建时,在默认master存活的状况下,全部的sentinel实例能够经过pub/sub便可得到全部的sentinel信息,此后每一个sentinel实例便可以根据+sentinel信息中的"ip+port"和其余sentinel逐个创建tcp链接便可.不过须要提醒的是,每一个sentinel实例均会间歇性(5秒)向"__sentinel__:hello"主题中发布本身的ip+port,目的就是让后续加入集群的sentinel实例也能或获得本身的信息.
根据上文,咱们知道在master有效的状况下,便可经过"INFO"指令得到当前master中已有的slave列表;此后任何slave加入集群,master都会向"主题中"发布"+slave 127.0.0.1:6579 ..",那么全部的sentinel也将当即得到slave信息,并和slave创建连接并经过PING检测其存活性.
补充一下,每一个sentinel实例都会保存其余sentinel实例的列表以及现存的master/slaves列表,各自的列表中不会有重复的信息(不可能出现多个tcp链接),对于sentinel将使用ip+port作惟一性标记,对于master/slaver将使用runid作惟一性标记,其中redis-server的runid在每次启动时都不一样.
3) Leader选举:
其实在sentinels故障转移中,仍然须要一个“Leader”来调度整个过程:master的选举以及slave的重配置和同步。当集群中有多个sentinel实例时,如何选举其中一个sentinel为leader呢?
在配置文件中“can-failover”“quorum”参数,以及“is-master-down-by-addr”指令配合来完成整个过程。
A) “can-failover”用来代表当前sentinel是否能够参与“failover”过程,若是为“YES”则代表它将有能力参与“Leader”的选举,不然它将做为“Observer”,observer参与leader选举投票但不能被选举;
B) “quorum”不只用来控制master ODOWN状态确认,同时还用来选举leader时最小“赞同票”数;
C) “is-master-down-by-addr”,在上文中以及提到,它能够用来检测“ip + port”的master是否已经处于SDOWN状态,不过此指令不只可以得到master是否处于SDOWN,同时它还额外的返回当前sentinel本地“投票选举”的Leader信息(runid);
每一个sentinel实例都持有其余的sentinels信息,在Leader选举过程当中(当为leader的sentinel实例失效时,有可能master server并没失效,注意分开理解),sentinel实例将从全部的sentinels集合中去除“can-failover = no”和状态为SDOWN的sentinels,在剩余的sentinels列表中按照runid按照“字典”顺序排序后,取出runid最小的sentinel实例,并将它“投票选举”为Leader,并在其余sentinel发送的“is-master-down-by-addr”指令时将推选的runid追加到响应中。每一个sentinel实例都会检测“is-master-down-by-addr”的响应结果,若是“投票选举”的leader为本身,且状态正常的sentinels实例中,“赞同者”的本身的sentinel个数不小于(>=) 50% + 1,且不小与<quorum>,那么此sentinel就会认为选举成功且leader为本身。
在sentinel.conf文件中,咱们指望有足够多的sentinel实例配置“can-failover yes”,这样可以确保当leader失效时,可以选举某个sentinel为leader,以便进行failover。若是leader没法产生,好比较少的sentinels实例有效,那么failover过程将没法继续.
4) failover过程:
在Leader触发failover以前,首先wait数秒(随即0~5),以便让其余sentinel实例准备和调整(有可能多个leader??),若是一切正常,那么leader就须要开始将一个salve提高为master,此slave必须为状态良好(不能处于SDOWN/ODOWN状态)且权重值最低(redis.conf中)的,当master身份被确认后,开始failover
A)“+failover-triggered”: Leader开始进行failover,此后紧跟着“+failover-state-wait-start”,wait数秒。
B)“+failover-state-select-slave”: Leader开始查找合适的slave
C)“+selected-slave”: 已经找到合适的slave
D) “+failover-state-sen-slaveof-noone”: Leader向slave发送“slaveof no one”指令,此时slave已经完成角色转换,此slave即为master
E) “+failover-state-wait-promotition”: 等待其余sentinel确认slave
F)“+promoted-slave”:确认成功
G)“+failover-state-reconf-slaves”: 开始对slaves进行reconfig操做。
H)“+slave-reconf-sent”:向指定的slave发送“slaveof”指令,告知此slave跟随新的master
I)“+slave-reconf-inprog”: 此slave正在执行slaveof + SYNC过程,如过slave收到“+slave-reconf-sent”以后将会执行slaveof操做。
J)“+slave-reconf-done”: 此slave同步完成,此后leader能够继续下一个slave的reconfig操做。循环G)
K)“+failover-end”: 故障转移结束
L)“+switch-master”:故障转移成功后,各个sentinel实例开始监控新的master。