Redis cluster集群模式的原理

 

redis clusterjava

  redis cluster是Redis的分布式解决方案,在3.0版本推出后有效地解决了redis分布式方面的需求node

  自动将数据进行分片,每一个master上放一部分数据面试

  提供内置的高可用支持,部分master不可用时,仍是能够继续工做的redis

 

  支撑N个redis master node,每一个master node均可以挂载多个slave node算法

  高可用,由于每一个master都有salve节点,那么若是mater挂掉,redis cluster这套机制,就会自动将某个slave切换成master数据库

 

redis cluster vs. replication + sentinalapi

  若是你的数据量不多,主要是承载高并发高性能的场景,好比你的缓存通常就几个G,单机足够了缓存

  replication,一个mater,多个slave,要几个slave跟你的要求的读吞吐量有关系,而后本身搭建一个sentinal集群,去保证redis主从架构的高可用性,就能够了网络

  redis cluster,主要是针对海量数据+高并发+高可用的场景,海量数据,若是你的数据量很大,那么建议就用redis cluster架构

 

数据分布算法

hash算法

  好比你有 N 个 redis实例,那么如何将一个key映射到redis上呢,你极可能会采用相似下面的通用方法计算 key的 hash 值,而后均匀的映射到到 N 个 redis上:

  hash(key)%N

  若是增长一个redis,映射公式变成了 hash(key)%(N+1)

  若是一个redis宕机了,映射公式变成了 hash(key)%(N-1)

  在这两种状况下,几乎全部的缓存都失效了。会致使数据库访问的压力陡增,严重状况,还可能致使数据库宕机。

 

一致性hash算法

  一个master宕机不会致使大部分缓存失效,可能存在缓存热点问题

 

用虚拟节点改进

 

 

 

redis cluster的hash slot算法

  redis cluster有固定的16384个hash slot,对每一个key计算CRC16值,而后对16384取模,能够获取key对应的hash slot

  redis cluster中每一个master都会持有部分slot,好比有3个master,那么可能每一个master持有5000多个hash slot

  hash slot让node的增长和移除很简单,增长一个master,就将其余master的hash slot移动部分过去,减小一个master,就将它的hash slot移动到其余master上去

  移动hash slot的成本是很是低的

  客户端的api,能够对指定的数据,让他们走同一个hash slot,经过hash tag来实现

 

  127.0.0.1:7000>CLUSTER ADDSLOTS 0 1 2 3 4 ... 5000  能够将槽0-5000指派给节点7000负责。

  每一个节点都会记录哪些槽指派给了本身,哪些槽指派给了其余节点。

  客户端向节点发送键命令,节点要计算这个键属于哪一个槽。

  若是是本身负责这个槽,那么直接执行命令,若是不是,向客户端返回一个MOVED错误,指引客户端转向正确的节点。

 

 

redis cluster  多master的写入

  在redis cluster写入数据的时候,实际上是你能够将请求发送到任意一个master上去执行

  可是,每一个master都会计算这个key对应的CRC16值,而后对16384个hashslot取模,找到key对应的hashslot,找到hashslot对应的master

  若是对应的master就在本身本地的话,set mykey1 v1,mykey1这个key对应的hashslot就在本身本地,那么本身就处理掉了

  可是若是计算出来的hashslot在其余master上,那么就会给客户端返回一个moved error,告诉你,你获得哪一个master上去执行这条写入的命令

 

  什么叫作多master的写入,就是每条数据只能存在于一个master上,不一样的master负责存储不一样的数据,分布式的数据存储

  100w条数据,5个master,每一个master就负责存储20w条数据,分布式数据存储

 

  默认状况下,redis cluster的核心的理念,主要是用slave作高可用的,每一个master挂一两个slave,主要是作数据的热备,还有master故障时的主备切换,实现高可用的

  redis cluster默认是不支持slave节点读或者写的,跟咱们手动基于replication搭建的主从架构不同的

 

  jedis客户端,对redis cluster的读写分离支持不太好的

  默认的话就是读和写都到master上去执行的

  若是你要让最流行的jedis作redis cluster的读写分离的访问,那可能还得本身修改一点jedis的源码,成本比较高

 

  读写分离,是为了什么,主要是由于要创建一主多从的架构,才能横向任意扩展slave node去支撑更大的读吞吐量

  redis cluster的架构下,实际上自己master就是能够任意扩展的,你若是要支撑更大的读吞吐量,或者写吞吐量,或者数据量,均可以直接对master进行横向扩展就能够了

 

 

 

 

 


节点间的内部通讯机制

一、基础通讯原理

(1)redis cluster节点间采起gossip协议进行通讯

  跟集中式不一样,不是将集群元数据(节点信息,故障,等等)集中存储在某个节点上,而是互相之间不断通讯,保持整个集群全部节点的数据是完整的

  集中式:好处在于,元数据的更新和读取,时效性很是好,一旦元数据出现了变动,当即就更新到集中式的存储中,其余节点读取的时候当即就能够感知到; 很差在于,全部的元数据的跟新压力所有集中在一个地方,可能会致使元数据的存储有压力

  gossip:好处在于,元数据的更新比较分散,不是集中在一个地方,更新请求会陆陆续续,打到全部节点上去更新,有必定的延时,下降了压力; 缺点,元数据更新有延时,可能致使集群的一些操做会有一些滞后

 

(2)10000端口

  每一个节点都有一个专门用于节点间通讯的端口,就是本身提供服务的端口号+10000,好比7001,那么用于节点间通讯的就是17001端口

  每隔节点每隔一段时间都会往另外几个节点发送ping消息,同时其余几点接收到ping以后返回pong

 

(3)交换的信息

  故障信息,节点的增长和移除,hash slot信息,等等

 

二、gossip协议

  gossip协议包含多种消息,包括ping,pong,meet,fail,等等

  meet: 某个节点发送meet给新加入的节点,让新节点加入集群中,而后新节点就会开始与其余节点进行通讯

  redis-trib.rb add-node

  其实内部就是发送了一个gossip meet消息,给新加入的节点,通知那个节点去加入咱们的集群

  ping: 每一个节点都会频繁给其余节点发送ping,其中包含本身的状态还有本身维护的集群元数据,互相经过ping交换元数据

  每一个节点每秒都会频繁发送ping给其余的集群,ping,频繁的互相之间交换数据,互相进行元数据的更新

  pong: 返回ping和meet,包含本身的状态和其余信息,也能够用于信息广播和更新

  fail: 某个节点判断另外一个节点fail以后,就发送fail给其余节点,通知其余节点,指定的节点宕机了

 

三、ping消息深刻

  ping很频繁,并且要携带一些元数据,因此可能会加剧网络负担

  每一个节点每秒会执行10次ping,每次会选择5个最久没有通讯的其余节点

  固然若是发现某个节点通讯延时达到了cluster_node_timeout / 2,那么当即发送ping,避免数据交换延时过长,落后的时间太长了

  好比说,两个节点之间都10分钟没有交换数据了,那么整个集群处于严重的元数据不一致的状况,就会有问题

  因此cluster_node_timeout能够调节,若是调节比较大,那么会下降发送的频率

  每次ping,一个是带上本身节点的信息,还有就是带上1/10其余节点的信息,发送出去,进行数据交换

  至少包含3个其余节点的信息,最多包含总节点-2个其余节点的信息

 

 

基于重定向的客户端

(1)请求重定向

  客户端可能会挑选任意一个redis实例去发送命令,每一个redis实例接收到命令,都会计算key对应的hash slot

  若是在本地就在本地处理,不然返回moved给客户端,让客户端进行重定向

  cluster keyslot mykey,能够查看一个key对应的hash slot是什么

  用redis-cli的时候,能够加入-c参数,支持自动的请求重定向,redis-cli接收到moved以后,会自动重定向到对应的节点执行命令

 

(2)计算hash slot

  计算hash slot的算法,就是根据key计算CRC16值,而后对16384取模,拿到对应的hash slot

  用hash tag能够手动指定key对应的slot,同一个hash tag下的key,都会在一个hash slot中,好比set mykey1:{100}和set mykey2:{100}

 

(3)hash slot查找

  节点间经过gossip协议进行数据交换,就知道每一个hash slot在哪一个节点上

 

smart jedis

(1)什么是smart jedis

  基于重定向的客户端,很消耗网络IO,由于大部分状况下,可能都会出现一次请求重定向,才能找到正确的节点

  因此大部分的客户端,好比java redis客户端,就是jedis,都是smart的

  本地维护一份hashslot -> node的映射表,缓存,大部分状况下,直接走本地缓存就能够找到hashslot -> node,不须要经过节点进行moved重定向

 

(2)JedisCluster的工做原理

  在JedisCluster初始化的时候,就会随机选择一个node,初始化hashslot -> node映射表,同时为每一个节点建立一个JedisPool链接池

  每次基于JedisCluster执行操做,首先JedisCluster都会在本地计算key的hashslot,而后在本地映射表找到对应的节点

  若是那个node正好仍是持有那个hashslot,那么就ok; 若是说进行了reshard这样的操做,可能hashslot已经不在那个node上了,就会返回moved

  若是JedisCluter API发现对应的节点返回moved,那么利用该节点的元数据,更新本地的hashslot -> node映射表缓存

  重复上面几个步骤,直到找到对应的节点,若是重试超过5次,那么就报错,JedisClusterMaxRedirectionException

  jedis老版本,可能会出如今集群某个节点故障还没完成自动切换恢复时,频繁更新hash slot,频繁ping节点检查活跃,致使大量网络IO开销

  jedis最新版本,对于这些过分的hash slot更新和ping,都进行了优化,避免了相似问题

 

(3)hashslot迁移和ask重定向

  若是hash slot正在迁移,那么会返回ask重定向给jedis

  jedis接收到ask重定向以后,会从新定位到目标节点去执行,可是由于ask发生在hash slot迁移过程当中,因此JedisCluster API收到ask是不会更新hashslot本地缓存

  已经能够肯定说,hashslot已经迁移完了,moved是会更新本地hashslot->node映射表缓存的

 

高可用性与主备切换原理

redis cluster的高可用的原理,几乎跟哨兵是相似的

一、判断节点宕机

  若是一个节点认为另一个节点宕机,那么就是pfail,主观宕机

  若是多个节点都认为另一个节点宕机了,那么就是fail,客观宕机,跟哨兵的原理几乎同样,sdown,odown

  在cluster-node-timeout内,某个节点一直没有返回pong,那么就被认为pfail

  若是一个节点认为某个节点pfail了,那么会在gossip ping消息中,ping给其余节点,若是超过半数的节点都认为pfail了,那么就会变成fail

 

二、从节点过滤

  对宕机的master node,从其全部的slave node中,选择一个切换成master node

  检查每一个slave node与master node断开链接的时间,若是超过了cluster-node-timeout * cluster-slave-validity-factor,那么就没有资格切换成master

  这个也是跟哨兵是同样的,从节点超时过滤的步骤

 

三、从节点选举

  哨兵:对全部从节点进行排序,slave priority,offset,run id

  每一个从节点,都根据本身对master复制数据的offset,来设置一个选举时间,offset越大(复制数据越多)的从节点,选举时间越靠前,优先进行选举

  全部的master node开始slave选举投票,给要进行选举的slave进行投票,若是大部分master node(N/2 + 1)都投票给了某个从节点,那么选举经过,那个从节点能够切换成master

  从节点执行主备切换,从节点切换为主节点

 

四、与哨兵比较

  整个流程跟哨兵相比,很是相似,因此说,redis cluster功能强大,直接集成了replication和sentinal的功能

 

 

转自:中华石杉Java工程师面试突击

相关文章
相关标签/搜索