Redis 的 Sentinel 系统用于管理多个 Redis 服务器(instance) 该系统执行如下三个任务:python
前面咱们谈到,当一个master被sentinel集群监控时,须要为它指定一个参数,这个参数指定了当须要判决master为不可用,而且进行failover时,所须要的sentinel数量,本文中咱们暂时称这个参数为票数redis
不过,当failover主备切换真正被触发后,failover并不会立刻进行,还须要sentinel中的大多数sentinel受权后才能够进行failover。
当ODOWN时,failover被触发。failover一旦被触发,尝试去进行failover的sentinel会去得到“大多数”sentinel的受权(若是票数比大多数还要大的时候,则询问更多的sentinel)
这个区别看起来很微妙,可是很容易理解和使用。例如,集群中有5个sentinel,票数被设置为2,当2个sentinel认为一个master已经不可用了之后,将会触发failover,可是,进行failover的那个sentinel必须先得到至少3个sentinel的受权才能够实行failover。
若是票数被设置为5,要达到ODOWN状态,必须全部5个sentinel都主观认为master为不可用,要进行failover,那么得得到全部5个sentinel的受权。算法
为何要先得到大多数sentinel的承认时才能真正去执行failover呢?shell
当一个sentinel被受权后,它将会得到宕掉的master的一份最新配置版本号,当failover执行结束之后,这个版本号将会被用于最新的配置。由于大多数sentinel都已经知道该版本号已经被要执行failover的sentinel拿走了,因此其余的sentinel都不能再去使用这个版本号。这意味着,每次failover都会附带有一个独一无二的版本号。咱们将会看到这样作的重要性。缓存
并且,sentinel集群都遵照一个规则:若是sentinel A推荐sentinel B去执行failover,B会等待一段时间后,自行再次去对同一个master执行failover,这个等待的时间是经过failover-timeout配置项去配置的。从这个规则能够看出,sentinel集群中的sentinel不会再同一时刻并发去failover同一个master,第一个进行failover的sentinel若是失败了,另一个将会在必定时间内进行从新进行failover,以此类推。安全
redis sentinel保证了活跃性:若是大多数sentinel可以互相通讯,最终将会有一个被受权去进行failover.
redis sentinel也保证了安全性:每一个试图去failover同一个master的sentinel都会获得一个独一无二的版本号。服务器
一旦一个sentinel成功地对一个master进行了failover,它将会把关于master的最新配置经过广播形式通知其它sentinel,其它的sentinel则更新对应master的配置。网络
一个faiover要想被成功实行,sentinel必须可以向选为master的slave发送SLAVE OF NO ONE命令,而后可以经过INFO命令看到新master的配置信息。架构
当将一个slave选举为master并发送SLAVE OF NO ONE`后,即便其它的slave还没针对新master从新配置本身,failover也被认为是成功了的,而后全部sentinels将会发布新的配置信息。并发
新配在集群中相互传播的方式,就是为何咱们须要当一个sentinel进行failover时必须被受权一个版本号的缘由。
每一个sentinel使用发布/订阅的方式持续地传播master的配置版本信息,配置传播的发布/订阅管道是:__sentinel__:hello
由于每个配置都有一个版本号,因此以版本号最大的那个为标准。
举个栗子:假设有一个名为mymaster的地址为192.168.56.11:6379
。一开始,集群中全部的sentinel都知道这个地址,因而为mymaster的配置打上版本号1。一段时候后mymaster死了,有一个sentinel被受权用版本号2对其进行failover。若是failover成功了,假设地址改成了192.168.56.12:6279
,此时配置的版本号为2,进行failover的sentinel会将新配置广播给其余的sentinel,因为其余sentinel维护的版本号为1,发现新配置的版本号为2时,版本号变大了,说明配置更新了,因而就会采用最新的版本号为2的配置。
这意味着sentinel集群保证了第二种活跃性:一个可以互相通讯的sentinel集群最终会采用版本号最高且相同的配置。
SENTINEL is-master-down-by-addr
命令来询问对方是否定为给定的服务器已下线。)从sentinel的角度来看,若是发送了PING心跳后,在master-down-after-milliseconds
时间内没有收到合法的回复,就达到了SDOWN的条件。
当sentinel发送PING后,如下回复之一都被认为是合法的:
PING replied with +PONG.
PING replied with -LOADING error.
PING replied with -MASTERDOWN error.
从SDOWN切换到ODOWN不须要任何一致性算法,只须要一个gossip协议:若是一个sentinel收到了足够多的sentinel发来消息告诉它某个master已经down掉了,SDOWN状态就会变成ODOWN状态。若是以后master可用了,这个状态就会相应地被清理掉。
正如以前已经解释过了,真正进行failover须要一个受权的过程,可是全部的failover都开始于一个ODOWN状态。
ODOWN状态只适用于master,对于不是master的redis节点sentinel之间不须要任何协商,slaves和sentinel不会有ODOWN状态。
虽然sentinel集群中各个sentinel都互相链接彼此来检查对方的可用性以及互相发送消息。可是你不用在任何一个sentinel配置任何其它的sentinel的节点。由于sentinel利用了master的发布/订阅机制去自动发现其它也监控了统一master的sentinel节点。
经过向名为__sentinel__:hello
的管道中发送消息来实现。
一样,你也不须要在sentinel中配置某个master的全部slave的地址,sentinel会经过询问master来获得这些slave的地址的。
__sentinel__:hello
频道发送一条信息, 信息中包含了 Sentinel 的 IP 地址、端口号和运行 ID (runid)。__sentinel__:hello
频道, 查找以前未出现过的 sentinel (looking for unknown sentinels)。 当一个 Sentinel 发现一个新的 Sentinel 时, 它会将新的 Sentinel * 添加到一个列表中, 这个列表保存了 Sentinel 已知的, 监视同一个主服务器的全部其余 Sentinel 。redis sentinel集群的配置的一致性模型为最终一致性,集群中每一个sentinel最终都会采用最高版本的配置。然而,在实际的应用环境中,有三个不一样的角色会与sentinel打交道:
Redis实例.
Sentinel实例.
客户端.
为了考察整个系统的行为咱们必须同时考虑到这三个角色。
下面有个简单的例子,有三个主机,每一个主机分别运行一个redis和一个sentinel:
+-------------+ | Sentinel 1 | <--- Client A | Redis 1 (M) | +-------------+ | | +-------------+ | +------------+ | Sentinel 2 |-----+-- / partition / ----| Sentinel 3 | <--- Client B | Redis 2 (S) | | Redis 3 (M)| +-------------+ +------------+
在这个系统中,初始状态下redis3是master, redis1和redis2是slave。以后redis3所在的主机网络不可用了,sentinel1和sentinel2启动了failover并把redis1选举为master。
Sentinel集群的特性保证了sentinel1和sentinel2获得了关于master的最新配置。可是sentinel3依然持着的是就的配置,由于它与外界隔离了。
当网络恢复之后,咱们知道sentinel3将会更新它的配置。可是,若是客户端所链接的master被网络隔离,会发生什么呢?
客户端将依然能够向redis3写数据,可是当网络恢复后,redis3就会变成redis的一个slave,那么,在网络隔离期间,客户端向redis3写的数据将会丢失。
也许你不会但愿这个场景发生:
若是你把redis当作缓存来使用,那么你也许能容忍这部分数据的丢失。
但若是你把redis当作一个存储系统来使用,你也许就没法容忍这部分数据的丢失了。
由于redis采用的是异步复制,在这样的场景下,没有办法避免数据的丢失。然而,你能够经过如下配置来配置redis3和redis1,使得数据不会丢失。
min-slaves-to-write 1 min-slaves-max-lag 10
经过上面的配置,当一个redis是master时,若是它不能向至少一个slave写数据(上面的min-slaves-to-write指定了slave的数量),它将会拒绝接受客户端的写请求。因为复制是异步的,master没法向slave写数据意味着slave要么断开链接了,要么不在指定时间内向master发送同步数据的请求了(上面的min-slaves-max-lag指定了这个时间)。
一次故障转移操做由如下步骤组成:
每当一个 Redis 实例被从新配置(reconfigured) —— 不管是被设置成主服务器、从服务器、又或者被设置成其余主服务器的从服务器 —— Sentinel 都会向被从新配置的实例发送一个 CONFIG REWRITE 命令, 从而确保这些配置会持久化在硬盘里。
Sentinel 使用如下规则来选择新的主服务器:
snetinel的状态会被持久化地写入sentinel的配置文件中。每次当收到一个新的配置时,或者新建立一个配置时,配置会被持久化到硬盘中,并带上配置的版本戳。这意味着,能够安全的中止和重启sentinel进程。
角色 | IP | 端口 |
---|---|---|
Master,sentinel1 | 192.168.56.11 | 6379,26379 |
Slave 01,sentinel2 | 192.168.56.12 | 6379,26379 |
Slave 02,sentinel3 | 192.168.56.13 | 6379,26379 |
cat redis_6379.conf protected-mode yes bind 192.168.56.12 port 6379 daemonize yes supervised no pidfile "/var/run/redis_6379.pid" loglevel notice logfile "/data/app/redis/logs/redis_6379.log" databases 16 dbfilename "dump_6379.rdb" dir "/data/db/redis_6379"
配置redis实例
cd /data/app/redis/conf
启动: /data/app/redis/bin/redis-server redis_6379.conf
检查是否启动: /data/app/redis/bin/redis-cli -h 192.168.56.11 -p 6379 ping
配置主从:
/data/app/redis/bin/redis-cli -h 192.168.56.12 -p 6379 /data/app/redis/bin/redis-cli -h 192.168.56.13 -p 6379 >SLAVEOF 192.168.56.11 6379 >CONFIG REWRITE #写入配置文件
Master确认主从: /home/mdb/redis/src/redis-cli -h 192.168.56.11 -p 6379
role:master connected_slaves:2 slave0:ip=192.168.56.12,port=6379,state=online,offset=239,lag=1 slave1:ip=192.168.56.13,port=6379,state=online,offset=239,lag=1 master_repl_offset:239
sentinel 节点启动有两种方式:
redis-sentinel sentinel_6379.conf
redis-server sentinel_6379.conf --sentinel
port 26379 daemonize no bind 192.168.56.11 logfile "/data/app/redis/logs/sentinel_26379.log" dir "/data/db/sentinel_26379" sentinel monitor mymaster 192.168.56.11 6379 2 sentinel down-after-milliseconds mymaster 30000 sentinel parallel-syncs mymaster 1 sentinel failover-timeout mymaster 180000
接下来咱们将一行一行地解释上面的配置项:
sentinel monitor mymaster 192.168.56.11 6379 2
这一行表明sentinel监控的master的名字叫作mymaster,地址为192.168.56.11:6379
,行尾最后的一个2表明什么意思呢?咱们知道,网络是不可靠的,有时候一个sentinel会由于网络堵塞而误觉得一个master redis已经死掉了,当sentinel集群式,解决这个问题的方法就变得很简单,只须要多个sentinel互相沟通来确认某个master是否真的死了,这个2表明,当集群中有2个sentinel认为master死了时,才能真正认为该master已经不可用了。(sentinel集群中各个sentinel也有互相通讯,经过gossip协议)。
除了第一行配置,咱们发现剩下的配置都有一个统一的格式:
sentinel <option_name> <master_name> <option_value>
接下来咱们根据上面格式中的option_name一个一个来解释这些配置项:
down-after-milliseconds
sentinel会向master发送心跳PING来确认master是否存活,若是master在“必定时间范围”内不回应PONG 或者是回复了一个错误消息,那么这个sentinel会主观地(单方面地)认为这个master已经不可用了(subjectively down, 也简称为SDOWN)。而这个down-after-milliseconds就是用来指定这个“必定时间范围”的,单位是毫秒。
不过须要注意的是,这个时候sentinel并不会立刻进行failover主备切换,这个sentinel还须要参考sentinel集群中其余sentinel的意见,若是超过某个数量的sentinel也主观地认为该master死了,那么这个master就会被客观地(注意哦,此次不是主观,是客观,与刚才的subjectively down相对,此次是objectively down,简称为ODOWN)认为已经死了。须要一块儿作出决定的sentinel数量在上一条配置中进行配置。
parallel-syncs
在发生failover主备切换时,这个选项指定了最多能够有多少个slave同时对新的master进行同步,这个数字越小,完成failover所需的时间就越长,可是若是这个数字越大,就意味着越多的slave由于replication而不可用。能够经过将这个值设为 1 来保证每次只有一个slave处于不能处理命令请求的状态。
其余配置项在sentinel.conf中都有很详细的解释。
全部的配置均可以在运行时用命令SENTINEL SET command动态修改。
启动: /data/app/redis/bin/redis-sentinel /data/app/redis/conf/sentinel_26379.conf
cat ../logs/sentinel_26379.log 99344:X 16 Oct 16:20:59.156 # Sentinel ID is f16a463d7387bf71f5ebce0c969d01d5bd802ac4 99344:X 16 Oct 16:20:59.156 # +monitor master mymaster 192.168.56.11 6379 quorum 2 99344:X 16 Oct 16:20:59.156 * +slave slave 192.168.56.12:6379 192.168.56.12 6379 @ mymaster 192.168.56.11 6379 99344:X 16 Oct 16:20:59.157 * +slave slave 192.168.56.13:6379 192.168.56.13 6379 @ mymaster 192.168.56.11 6379 99344:X 16 Oct 16:21:01.087 * +sentinel sentinel eb2582f3d12d8ed7710a94e6555a858047a91d2e 192.168.56.12 26379 @ mymaster 192.168.56.11 6379 99344:X 16 Oct 16:21:01.119 * +sentinel sentinel 2a716b1f6e6e9ab6688a99160e7a6616b913336b 192.168.56.13 26379 @ mymaster 192.168.56.11 6379
当全部节点启动之后,配置文件发生了变化,sentinel发现了从节点和其他的 sentinel 节点 去掉了默认的故障转移,复制参数,
port 26379 daemonize no bind 192.168.56.12 logfile "/data/app/redis/logs/sentinel_26379.log" dir "/data/db/sentinel_26379" sentinel myid eb2582f3d12d8ed7710a94e6555a858047a91d2e sentinel monitor mymaster 192.168.56.13 6379 2 sentinel config-epoch mymaster 1 sentinel leader-epoch mymaster 1 # Generated by CONFIG REWRITE sentinel known-slave mymaster 192.168.56.12 6379 sentinel known-slave mymaster 192.168.56.11 6379 sentinel known-sentinel mymaster 192.168.56.11 26379 f16a463d7387bf71f5ebce0c969d01d5bd802ac4 sentinel known-sentinel mymaster 192.168.56.13 26379 2a716b1f6e6e9ab6688a99160e7a6616b913336b sentinel current-epoch 1
/data/app/redis/bin/redis-cli -h 192.168.56.12 -p 26379 192.168.56.12:26379> info master0:name=mymaster,status=ok,address=192.168.56.11:6379,slaves=2,sentinels=3 192.168.56.12:26379> sentinel failover mymaster OK 192.168.56.12:26379> info master0:name=mymaster,status=ok,address=192.168.56.13:6379,slaves=2,sentinels=3
查看 sentinel 日志:
21808:X 16 Oct 16:24:54.045 # Executing user requested FAILOVER of 'mymaster' 21808:X 16 Oct 16:24:54.045 # +new-epoch 1 21808:X 16 Oct 16:24:54.045 # +try-failover master mymaster 192.168.56.11 6379 21808:X 16 Oct 16:24:54.084 # +vote-for-leader eb2582f3d12d8ed7710a94e6555a858047a91d2e 1 21808:X 16 Oct 16:24:54.084 # +elected-leader master mymaster 192.168.56.11 6379 21808:X 16 Oct 16:24:54.084 # +failover-state-select-slave master mymaster 192.168.56.11 6379 21808:X 16 Oct 16:24:54.137 # +selected-slave slave 192.168.56.13:6379 192.168.56.13 6379 @ mymaster 192.168.56.11 6379 21808:X 16 Oct 16:24:54.137 * +failover-state-send-slaveof-noone slave 192.168.56.13:6379 192.168.56.13 6379 @ mymaster 192.168.56.11 63 79 21808:X 16 Oct 16:24:54.214 * +failover-state-wait-promotion slave 192.168.56.13:6379 192.168.56.13 6379 @ mymaster 192.168.56.11 6379 21808:X 16 Oct 16:24:55.177 # +promoted-slave slave 192.168.56.13:6379 192.168.56.13 6379 @ mymaster 192.168.56.11 6379 21808:X 16 Oct 16:24:55.177 # +failover-state-reconf-slaves master mymaster 192.168.56.11 6379 21808:X 16 Oct 16:24:55.243 * +slave-reconf-sent slave 192.168.56.12:6379 192.168.56.12 6379 @ mymaster 192.168.56.11 6379 21808:X 16 Oct 16:24:56.215 * +slave-reconf-inprog slave 192.168.56.12:6379 192.168.56.12 6379 @ mymaster 192.168.56.11 6379 21808:X 16 Oct 16:24:56.215 * +slave-reconf-done slave 192.168.56.12:6379 192.168.56.12 6379 @ mymaster 192.168.56.11 6379 21808:X 16 Oct 16:24:56.317 # +failover-end master mymaster 192.168.56.11 6379 21808:X 16 Oct 16:24:56.317 # +switch-master mymaster 192.168.56.11 6379 192.168.56.13 6379 21808:X 16 Oct 16:24:56.318 * +slave slave 192.168.56.12:6379 192.168.56.12 6379 @ mymaster 192.168.56.13 6379 21808:X 16 Oct 16:24:56.318 * +slave slave 192.168.56.11:6379 192.168.56.11 6379 @ mymaster 192.168.56.13 6379
模拟故障转移
查看 sentinel 配置文件更新变化和 redis 主节点变化
sentinel monitor mymaster 192.168.56.13 6379 2 sentinel config-epoch mymaster 1 sentinel leader-epoch mymaster 1 # Generated by CONFIG REWRITE sentinel known-slave mymaster 192.168.56.12 6379 sentinel known-slave mymaster 192.168.56.11 6379 sentinel known-sentinel mymaster 192.168.56.11 26379 f16a463d7387bf71f5ebce0c969d01d5bd802ac4 sentinel known-sentinel mymaster 192.168.56.13 26379 2a716b1f6e6e9ab6688a99160e7a6616b913336b sentinel current-epoch 1
注意事项
如下列出的是Sentinel接受的命令:
PING
:返回PONG。SENTINEL master <master name>
:用于查看监控的某个Redis Master信息,包括配置和状态等。SENTINEL slaves <master name>
:列出给定主服务器的全部从服务器,以及这些从服务器的当前状态。SENTINEL sentinels <master name>
:查看给定主服务器的Sentinel实例列表及其状态。SENTINEL get-master-addr-by-name <master name>
:返回给定名字的主服务器的IP地址和端口号。 若是这个主服务器正在执行故障转移操做,或者针对这个主服务器的故障转移操做已经完成,那么这个命令返回新的主服务器的IP地址和端口号。SENTINEL reset <pattern>
:重置全部名字和给定模式pattern相匹配的主服务器。pattern 参数是一个Glob风格的模式。重置操做清除主服务器目前的全部状态,包括正在执行中的故障转移,并移除目前已经发现和关联的,主服务器的全部从服务器和Sentinel。SENTINEL failover <master name>
:当主服务器失效时, 在不询问其余Sentinel意见的状况下, 强制开始一次自动故障迁移(不过发起故障转移的Sentinel会向其余Sentinel发送一个新的配置,其余Sentinel会根据这个配置进行相应的更新)。SENTINEL reset <pattern>
:强制重设全部监控的Master状态,清除已知的Slave和Sentinel实例信息,从新获取并生成配置文件。SENTINEL failover <master name>
:强制发起一次某个Master的failover,若是该Master不可访问的话。SENTINEL ckquorum <master name>
:检测Sentinel配置是否合理,failover的条件是否可能知足,主要用来检测你的Sentinel配置是否正常。SENTINEL flushconfig
:强制Sentinel重写全部配置信息到配置文件。SENTINEL is-master-down-by-addr <ip> <port>
:一个Sentinel能够经过向另外一个Sentinel发送SENTINEL is-master-down-by-addr命令来询问对方是否定为给定的服务器已下线。如下是一些修改sentinel配置的命令:
SENTINEL MONITOR <name> <ip> <port> <quorum>
这个命令告诉sentinel去监听一个新的masterSENTINEL REMOVE <name>
命令sentinel放弃对某个master的监听SENTINEL SET <name> <option> <value>
这个命令很像Redis的CONFIG SET命令,用来改变指定master的配置。支持多个增长新的Sentinel实例很是简单,修改好配置文件,启动便可,其余Sentinel会自动发现该实例并加入集群。若是要批量启动一批Sentinel节点,最好以30秒的间隔一个一个启动为好,这样能确保整个 Sentinel集群的大多数可以及时感知到新节点,知足当时可能发生的选举条件。
移除一个Sentinel实例会相对麻烦一些,由于Sentinel不会忘记已经感知到的Sentinel实例,因此最好按照下列步骤来处理:
中止将要移除的sentinel进程。
给其他的sentinel进程发送SENTINEL RESET *
命令来重置状态,忘记将要移除的sentinel,每一个进程之间间隔30秒。
确保全部sentinel对于当前存货的sentinel数量达成一致,能够经过SENTINEL MASTER <mastername>
命令来观察,或者查看配置文件。
sentinel永远会记录好一个Master的slaves,即便slave已经与组织失联很久了。这是颇有用的,由于sentinel集群必须有能力把一个恢复可用的slave进行从新配置。
而且,failover后,失效的master将会被标记为新master的一个slave,这样的话,当它变得可用时,就会重新master上复制数据。
而后,有时候你想要永久地删除掉一个slave(有可能它曾经是个master),你只须要发送一个SENTINEL RESET master
命令给全部的sentinels,它们将会更新列表里可以正确地复制master数据的slave。
客户端能够向一个sentinel发送订阅某个频道的事件的命令,当有特定的事件发生时,sentinel会通知全部订阅的客户端。须要注意的是客户端只能订阅,不能发布。
订阅频道的名字与事件的名字一致。例如,频道名为sdown 将会发布全部与SDOWN相关的消息给订阅者。
若是想要订阅全部消息,只需简单地使用PSUBSCRIBE *
如下是全部你能够收到的消息的消息格式,若是你订阅了全部消息的话。第一个单词是频道的名字,其它是数据的格式。
注意:如下的instance details的格式是:
<instance-type> <name> <ip> <port> @ <master-name> <master-ip> <master-port>
若是这个redis实例是一个master,那么@以后的消息就不会显示。
+reset-master <instance details> -- 当master被重置时. +slave <instance details> -- 当检测到一个slave并添加进slave列表时. +failover-state-reconf-slaves <instance details> -- Failover状态变为reconf-slaves状态时 +failover-detected <instance details> -- 当failover发生时 +slave-reconf-sent <instance details> -- sentinel发送SLAVEOF命令把它从新配置时 +slave-reconf-inprog <instance details> -- slave被从新配置为另一个master的slave,但数据复制还未发生时。 +slave-reconf-done <instance details> -- slave被从新配置为另一个master的slave而且数据复制已经与master同步时。 -dup-sentinel <instance details> -- 删除指定master上的冗余sentinel时 (当一个sentinel从新启动时,可能会发生这个事件). +sentinel <instance details> -- 当master增长了一个sentinel时。 +sdown <instance details> -- 进入SDOWN状态时; -sdown <instance details> -- 离开SDOWN状态时。 +odown <instance details> -- 进入ODOWN状态时。 -odown <instance details> -- 离开ODOWN状态时。 +new-epoch <instance details> -- 当前配置版本被更新时。 +try-failover <instance details> -- 达到failover条件,正等待其余sentinel的选举。 +elected-leader <instance details> -- 被选举为去执行failover的时候。 +failover-state-select-slave <instance details> -- 开始要选择一个slave当选新master时。 no-good-slave <instance details> -- 没有合适的slave来担当新master selected-slave <instance details> -- 找到了一个适合的slave来担当新master failover-state-send-slaveof-noone <instance details> -- 当把选择为新master的slave的身份进行切换的时候。 failover-end-for-timeout <instance details> -- failover因为超时而失败时。 failover-end <instance details> -- failover成功完成时。 switch-master <master name> <oldip> <oldport> <newip> <newport> -- 当master的地址发生变化时。一般这是客户端最感兴趣的消息了。 +tilt -- 进入Tilt模式。 -tilt -- 退出Tilt模式。
redis sentinel很是依赖系统时间,例如它会使用系统时间来判断一个PING回复用了多久的时间。
然而,假如系统时间被修改了,或者是系统十分繁忙,或者是进程堵塞了,sentinel可能会出现运行不正常的状况。
当系统的稳定性降低时,TILT模式是sentinel能够进入的一种的保护模式。当进入TILT模式时,sentinel会继续监控工做,可是它不会有任何其余动做,它也不会去回应is-master-down-by-addr这样的命令了,由于它在TILT模式下,检测失效节点的能力已经变得让人不可信任了。
若是系统恢复正常,持续30秒钟,sentinel就会退出TITL模式。
注意:该功能还未实现。
当一个脚本的运行时间超过配置的运行时间时,sentinel会返回一个-BUSY 错误信号。若是这件事发生在触发一个failover以前,sentinel将会发送一个SCRIPT KILL命令,若是script是只读的话,就能成功执行。
对于一个最小集群,Redis应该是一个Master带上两个Slave,而且开启下列选项:
min-slaves-to-write 1 min-slaves-max-lag 10
这样能保证写入Master的同时至少写入一个Slave,若是出现网络分区阻隔并发生failover的时候,能够保证写入的数据最终一致而不是丢失,写入老的Master会直接失败。
Slave能够适当设置优先级,除了0以外(0表示永远不提高为Master),越小的优先级,越有可能被提示为Master。若是Slave分布在多个机房,能够考虑将和Master同一个机房的Slave的优先级设置的更低以提高他被选为新的Master的可能性。
考虑到可用性和选举的须要,Sentinel进程至少为3个,推荐为5个。若是有网络分区,应当适当分布(好比2个在A机房, 2个在B机房,一个在C机房)等。
客户端从过去直接链接Redis ,变成:
先链接一个Sentinel实例
使用 SENTINEL get-master-addr-by-name master-name 获取Redis地址信息。
链接返回的Redis地址信息,经过ROLE命令查询是不是Master。若是是,链接进入正常的服务环节。不然应该断开从新查询。
(可选)客户端能够经过SENTINEL sentinels
当Sentinel发起failover后,切换了新的Master,Sentinel会发送 CLIENT KILL TYPE normal命令给客户端,客户端须要主动断开对老的Master的连接,而后从新查询新的Master地址,再重复走上面的流程。这样的方式仍然相对不够实时,能够经过Sentinel提供的Pub/Sub来更快地监听到failover事件,加快重连。
若是须要实现读写分离,读走Slave,那能够走SENTINEL slaves
其余
因为Redis是异步复制,因此Sentinel其实没法达到强一致性,它承诺的是最终一致性:最后一次failover的Redis Master赢者通吃,其余Slave的数据将被丢弃,从新重新的Master复制数据。此外还有前面提到的分区带来的一致性问题。
其次,Sentinel的选举算法依赖时间,所以要确保全部机器的时间同步,若是发现时间不一致,Sentinel实现了一个TITL模式来保护系统的可用性。
from redis.sentinel import Sentinel sentinel = Sentinel([('localhost', 26379)], socket_timeout=0.1) print(sentinel.discover_master('mymaster')) print(sentinel.discover_slaves('mymaster')) master = sentinel.master_for('mymaster', socket_timeout=0.1) master.set('foo', 'bar') slave = sentinel.slave_for('mymaster', socket_timeout=0.1) slave.get('foo') 'bar'