Redis集群模式的工做原理说一下?在集群模式下,key是如何寻址的?寻址都有哪些算法?了解一致性hash吗?java
Redis不断在发展-Redis cluster集群模式,能够作到在多台机器上,部署多个实例,每一个实例存储一部分的数据,同时每一个实例能够带上Redis从实例,自动确保说,若是Redis主实例挂了,会自动切换到redis从实例顶上来。node
如今新版本,你们都是用Redis cluster的,也就是原生支持的集群模式,那么面试官确定会就redis cluster对你来个几连炮。要是你没用过redis cluster,正常,之前不少人用codis之类的客户端来支持集群,可是起码你得研究一下redis clusternginx
redis单master架构的容量的瓶颈问题面试
讲解分布式数据存储的核心算法,数据分布的算法redis
hash算法 -> 一致性hash算法(memcached) -> redis cluster,hash slot算法算法
用不一样的算法,就决定了在多个master节点的时候,数据如何分布到这些节点上去,解决这个问题,这里向你们推荐一个java架构交流q裙:790047143docker
在Redis cluster架构下,每一个Redis要开放两个端口,好比一个是6379,另一个就是加10000的端口号,好比16379api
16379端口用于节点间通讯,也就是cluster bus集群总线缓存
cluster bus的通讯,用来故障检测,配置更新,故障转移受权bash
cluster bus用了另一种二进制的协议 - gossip,主要用于节点间高效的数据交换,占用更少的网络带宽和处理时间
最老土的hash算法和弊端(大量缓存重建)
三、一致性hash算法(自动缓存迁移)+虚拟节点(自动负载均衡)
一致性hash算法的讲解和优势
一致性hash算法的虚拟节点实现负载均衡
四、redis cluster的hash slot算法
redis cluster有固定的16384个hash slot,对每一个key计算CRC16值,而后对16384取模,能够获取key对应的hash slot
redis cluster中每一个master都会持有部分slot,好比有3个master,那么可能每一个master持有5000多个hash slot
hash slot让node的增长和移除很简单,增长一个master,就将其余master的hash slot移动部分过去,减小一个master,就将它的hash slot移动到其余master上去
移动hash slot的成本是很是低的
客户端的api,能够对指定的数据,让他们走同一个hash slot,经过hash tag来实现
用于维护集群的元数据
Redis cluster节点间采起的另外一种称为gossip的协议
互相之间不断通讯,保持整个集群全部节点的数据是完整的
gossip:好处在于,元数据的更新比较分散,不是集中在一个地方,更新请求会陆陆续续,打到全部节点上去更新,有必定的延时,下降了压力; 缺点,元数据更新有延时,可能致使集群的一些操做会有一些滞后
咱们刚才作reshard,去作另一个操做,会发现说,configuration error,达成一致
(2)10000端口
每一个节点都有一个专门用于节点间通讯的端口,就是本身提供服务的端口号+10000,好比7001,那么用于节点间通讯的就是17001端口
每隔节点每隔一段时间都会往另外几个节点发送ping消息,同时其余几点接收到ping以后返回pong
(3)交换的信息
故障信息,节点的增长和移除,hash slot信息,等等
gossip协议维护集群元数据
协议包含多种消息
某节点发送meet给新加入的节点,让新节点加入集群,而后新节点就会开始与其余节点通讯
redis-trib.rb add-node
其实内部就是发送了一个gossip meet消息给新节点,通知该节点加入集群
每一个节点都会频繁给其余节点发ping,其中包含本身的状态还有本身维护的集群元数据,互相经过ping交换元数据
ping很频繁,并且要携带一些元数据,可能会加剧网络的负担
每一个节点每s会执行10次ping,每次会选择5个最久没有通讯的其余节点。固然若是发现某个节点通讯延时达到了
cluster_node_timeout / 2
那么当即发送ping,避免数据交换延时过长,落后的时间太长了。好比说,两节点之间已经10分钟没有交换数据,那么整个集群处于严重的元数据不一致的状况,就会有问题。因此 cluster_node_timeout
能够调节,若是调节比较大,那么会下降发送频率
每次ping,一个是带上本身节点的信息,还有就是带上1/10其余节点的信息,发送出去,进行数据交换。至少包含3个其余节点的信息,最多包含总节点-2个其余节点的信息
返回ping和meet,包含本身的状态和其余信息,也可用于信息广播和更新
某个节点判断另外一个节点fail后,就发送fail给其余节点,通知其余节点,指定的节点宕机啦!
开发Jedis,Redis的Java客户端
jedis cluster api与redis cluster集群交互的一些基本原理
redis-cli -c,自动重定向
客户端可能会挑选任意一个Redis实例去发送命令,每一个实例接收到命令,都会计算key对应的hash slot
若在本地就在本地处理,不然返回moved给客户端,让客户端重定向
cluster keyslot mykey
可查看一个key对应的hash slot是什么
用redis-cli的时候,可加入 -c
参数,支持自动的请求重定向,redis-cli接收到moved以后,会自动重定向到对应的节点执行命令
计算hash slot的算法,就是根据key计算CRC16值,而后对16384取模,拿到对应的hash slot
用hash tag能够手动指定key对应的slot,同一个hash tag下的key,都会在一个hash slot中,好比set mykey1:{100}和set mykey2:{100}
节点间经过gossip协议数据交换,就知道每一个hash slot在哪一个节点上
基于重定向的客户端,很消耗网络IO,由于大部分状况下,可能都会出现一次请求重定向,才能找到正确的节点
因此大部分的客户端,好比java redis客户端,就是jedis,都是smart的
本地维护一份hashslot -> node的映射表,缓存,大部分状况下,直接走本地缓存就能够找到hashslot -> node,不须要经过节点进行moved重定向
在JedisCluster初始化的时候,就会随机选择一个node,初始化hashslot -> node映射表,同时为每一个节点建立一个JedisPool链接池
每次基于JedisCluster执行操做,首先JedisCluster都会在本地计算key的hashslot,而后在本地映射表找到对应的节点
若是那个node正好仍是持有那个hashslot,那么就ok; 若是说进行了reshard这样的操做,可能hashslot已经不在那个node上了,就会返回moved
若是JedisCluter API发现对应的节点返回moved,那么利用该节点的元数据,更新本地的hashslot -> node映射表缓存
重复上面几个步骤,直到找到对应的节点,若是重试超过5次,那么就报错,JedisClusterMaxRedirectionException
jedis老版本,可能会出如今集群某个节点故障还没完成自动切换恢复时,频繁更新hash slot,频繁ping节点检查活跃,致使大量网络IO开销
jedis最新版本,对于这些过分的hash slot更新和ping,都进行了优化,避免了相似问题,这里向你们推荐一个java架构交流q裙:790047143
若是hash slot正在迁移,那么会返回ask重定向给jedis
jedis接收到ask重定向以后,会从新定位到目标节点去执行,可是由于ask发生在hash slot迁移过程当中,因此JedisCluster API收到ask是不会更新hashslot本地缓存
已经能够肯定说,hashslot已经迁移完了,moved是会更新本地hashslot->node映射表缓存的
原理,几乎跟哨兵相似
若一个节点认为另一个节点宕机,即 pfail
- 主观宕机
若多个节点都认为另一个节点宕机,即 fail
- 客观宕机
跟哨兵的原理几乎同样,sdown - odown
在 cluster-node-timeout
内,某个节点一直没有返回 pong
,那么就被认为 pfail
若一个节点认为某个节点 pfail
,那么会在 gossip ping
消息中, ping
给其余节点,若 超过半数 的节点都认为 pfail
,那么就会变成 fail
对宕机的master node,从其全部的slave node中,选择一个切换成master node
检查每一个slave node与master node断开链接的时间,若是超过了
cluster-node-timeout * cluster-slave-validity-factor
那么就没有资格切换成master,这个也跟哨兵是同样的,从节点超时过滤的步骤
哨兵:对全部从节点进行排序,slave priority,offset,run id
每一个从节点,都根据本身对master复制数据的offset,设置一个选举时间,offset越大(复制数据越多)的从节点,选举时间越靠前,优先进行选举
全部的master node开始slave选举投票,给要选举的slave投票,若是大部分
master node(N/2 + 1)
都投票给了某从节点,那么选举经过,该从节点能够切换成master
从节点执行主备切换,从节点切换为主节点
整个流程跟哨兵相比,很是相似,因此说,redis cluster功能强大,直接集成了replication和sentinal的功能