ioredis源码阅读[1]

上次针对 redis 的源码阅读涉及普通的 client,此次针对 cluster 模式下的 client 源码进行分析。
具体的源码路径就是在 lib/cluster 目录下了。

Cluster 实例化

开门见山,咱们使用 Cluster 模式最开始也是要进行实例化的,这里调用的代码位于 lib/cluster/index.tsjavascript

const { Cluster } = require('ioredis')

const cluster = new Redis.Cluster([
  {
    port: 6380,
    host: "127.0.0.1",
  },
  {
    port: 6381,
    host: "127.0.0.1",
  },
])

cluster.get('someKey').then()

从源码上来看,Cluster 预期接收两个参数,第一个是启动的节点集合 startNodes,第二个是一个可选的 options
第一个参数是比较固定的,没有太多含义,而第二个参数能够传递不少配置,这个能够在 README 中找到(目前是 12 个参数): https://www.npmjs.com/package/ioredis#cluster
若是没有传入的话,则会有默认值来填充,但并非全部的参数都会有默认值。 java

Redis Client 同样的处理逻辑,在构造函数中会 call 一下 Commander,随后还会实例化一个 ConnectionPool 对象,并将 options.redisOptions 传入进去。node

代码位于 lib/cluster/ConnectionPool.ts

在实例化 ConnectionPool 的过程当中并无作什么实质性的操做,只是把 options.redisOptions 放到了一个 private 属性中。
随后在 Cluster 构造函数中注册了四个对应的事件,分别是 -node+nodedrainnodeError,分别表明了 移除节点、增长节点、节点为空、节点出错。
ConnectionPool 本身实现的一些事件,后续会看到在哪里触发。 git

接下来实例化了一个 ClusterSubscriber 对象,并将上边实例化的 connectionPool 实例做为参数放了进去,并把 Cluster 实例的引用也传了进去。
实例化过程当中作的事情也比较简单,就是监听了上边咱们提到的 -node+node 两个事件,在移除节点时,会判断是否存在 subscriber 属性,若是不存在则跳出,若是存在的话,会判断被移除的 key 是否等于当前 subscriber
这里能够提一下 subscriber 到底是什么,这个在下边的 selectSubscriber 函数中能够看到,就是实例化了一个 Redis Client,而实例化 Redis Client 所使用的参数,都是经过调用 connectionPoolgetNodes 方法所拿到的,并随机挑选其中一个节点配置来进行实例化。
以后就会经过该 Redis Client 来调用两个命令,subscriberpsubscriber,这两个是用来实现 Pub/Sub 的,具体区别其实就是后者能够监听一个带有通配符的服务。github

subscriber 与 psubscriber 的区别: https://redis.io/topics/pubsub
并在接收到数据之后,经过 emit 的方式转发给 Cluster,后续 Cluster 模式下的 Pub/Sub 将会经过这里来进行数据的传递。

Connect

最后咱们调用 connect 函数就完成了整个 Cluster 实例化的过程。redis

若是是开启了 lazyConnect 那么这里就直接修改实例状态为 wait,而后结束整个流程。

connect 时咱们首先会解析 startNodes,拿到对应的 IP 和 端口等信息,而后会调用 reset 重置 connectionPool 中的实例,connectionPool 中会存储多个 IP+端口 的 Redis 实例引用,调用 reset 会把一些应该不存在的实例给关掉,而后把一些新增长的进行建立,复用已经存在的实例,同时在新增节点的时候会触发 ClusterSubscriber+node 事件,若是此时是第一次触发,那么这时 ClusterSubscriber 才会真正的去建立用于 Pub/Sub 的 Redis 实例。 数据库

以后会注册一个 refresh 事件,在事件内部会调用 readyCheck,在这以前,则须要先去获取 Redis 节点的一些信息,这里是经过 getInfoFromNode 方法来实现的,内部会拿到一个 Redis 实例,并调用 duplicate 建立一个额外的实例,而后调用 cluster slots 命令来获取当前 Redis 集群服务状态,这里返回的数据会包含全部的节点 IP + 端口,同时包含某个节点的起始结束返回,具体的返回值以下:npm

redis 127.0.0.1:6379> cluster slots
1) 1) (integer) 0
   1) (integer) 4095
   2) 1) "127.0.0.1"
      1) (integer) 7000
   3) 1) "127.0.0.1"
      1) (integer) 7004
2) 1) (integer) 12288
   1) (integer) 16383
   2) 1) "127.0.0.1"
      1) (integer) 7003
   3) 1) "127.0.0.1"
      1) (integer) 7007
3) 1) (integer) 4096
   1) (integer) 8191
   2) 1) "127.0.0.1"
      1) (integer) 7001
   3) 1) "127.0.0.1"
      1) (integer) 7005
4) 1) (integer) 8192
   1) (integer) 12287
   2) 1) "127.0.0.1"
      1) (integer) 7002
   3) 1) "127.0.0.1"
      1) (integer) 7006

转换成 JS 的数据大体是一个这样的结构:bash

[
  [ // slot info
    0,    // slot range start 
    4095, // slot range end
    [
      '127.0.0.1', // IP
      7000         // port
    ]
  ],
  [  // other slot info
    12288,
    16383,
    [
      '127.0.0.1',
      7003
    ]
  ],
]
cluster slot 的描述: https://redis.io/commands/cluster-slots

在获取到这些真实的节点信息之后,会依据拿到的节点集合,再次调用 connectionPoolreset 方法,由于上次调用实际上是使用的 startNode 传入的初始值,这里则会使用当前服务正在运行的数据进行一次替换。
在完成这一动做后,则会触发 refresh 事件,也就会进入下边的 readyCheck 环节,确保服务是可用的。函数

readyCheck

查看 readyCheck 的实现,主要也是经过调用 cluster info 命令来获取当前服务的状态。
在前文所讲处理 twemproxy 模式下的问题时,将 Redis ClientreadyCheckinfo 修改成了 ping 命令来实现,而这里,则没有进行修改,由于要注意的是,这里并非 info 命令,而是 cluster 命令,只不过参数是 info

Cluster 模块会使用 cluster info 命令中的 cluster_state 字段来做为检测的依据,数据会按照 k:v\nk:v\n 这种格式组合,因此咱们会在代码中看到经过匹配换行来取得对应的字段,并经过截取的方式拿到具体的值。

不过针对这里的逻辑,我我的却是以为直接用正则匹配反而更简单一些,由于拿到参数的值并无作一些额外的操做,仅仅是用来验证。
private readyCheck(callback: CallbackFunction<void | "fail">): void {
  (this as any).cluster("info", function (err, res) {
    if (err) {
      return callback(err);
    }
    if (typeof res !== "string") {
      return callback();
    }

    let state;
    const lines = res.split("\r\n");
    for (let i = 0; i < lines.length; ++i) {
      const parts = lines[i].split(":");
      if (parts[0] === "cluster_state") {
        state = parts[1];
        break;
      }
    }

    if (state === "fail") {
      debug("cluster state not ok (%s)", state);
      callback(null, state);
    } else {
      callback();
    }
  });
}

当咱们发现 cluster info 中返回的数据为 fail 时,那么说明集群中的这个节点是一个不可用的状态,那么就会调用 disconnect 断开并进行重连。
在触发 disconnect 的时候,同时会关闭 ClusterSubscriber 中的实例,由于咱们的链接已经要关闭了,那么也没有必要留着一个注册 Pub/Sub 的实例在这里了。
在这些操做完成以后,会进入 retry 的流程,这里其实就是按照某种逻辑从新调用了 connect 方法,再次执行前边所描述的逻辑。

针对整个流程画图表示大概是这样的:

Redis-Cluster-Create-Flow.jpg

sendCommand

在实例建立完毕后,那么下一步就会涉及到调用命令了。
在前边实例化过程当中不可避免的也提到了一些 sendCommand 的事情,Redis 在实例化的过程当中,会有一个状态的变动,而每次触发 sendCommand 实际上都会去检查那个状态,若是当前尚未创建好链接,那么这时的命令会被放入到 offlineQueue 中暂存的。
readyCheck 经过以后会按照顺序来调用这些命令。

固然,在 sendCommand 方法中也存在了对当前实例状态的判断,若是是 wait,那么能够认为实例开启了 lazyConnect 模式,这时会尝试与服务端创建链接。

同时在 sendCommand 中也会对命令进行判断,一些 Pub/Sub 对应的命令,好比 publish,会被转发到 ClusterSubscriber 对应的实例上去执行,而其余普通的命令则会放到 connectionPool 中去执行。
经过这样的方式将发布订阅与普通的命令进行了拆分。

一样,由于是 Cluster 模式,因此还会有主从之间的拆分逻辑,这个能够经过实例化 Redis Cluster 时传入的 scaleReads 参数来决定,默认的话是 master,可选的还有 allslave 以及一个接收命令以及实例列表的自定义函数。

知识点来了

在 ioredis 中,默认状况下的配置是 master,这也就意味着全部的请求都会发送到 master 节点,这就意味着若是你为了提升读取的性能所建立的一些从库,__根本不会被访问到__。

详情见文档: https://www.npmjs.com/package/ioredis#user-content-read-write-splitting

若是想要使用从库,那么能够把 scaleReads 修改成 slave,可是不须要担忧说一些会对数据库形成修改的命令发送到从库,在 sendCommand 中会针对所发送的命令进行检测,若是不是只读的命令,且 scaleReads 设置的不是 master 会强行覆盖为 master

针对命令是否为只读的判断: https://github.com/luin/ioredis/blob/master/lib/cluster/index.ts#L599

而后关于那个自定义函数,其实就是须要本身根据 command 去评估究竟使用哪一个(些)实例,而后把对应的实例返回出去。
最终,咱们拿到了一个 Redis 实例,这时使用该 Redis 实例进行调用 sendCommand 便可。
而后后边的逻辑就和普通的 Redis 触发命令没有什么区别了。

总结

总的来看, 在 ioredis 的实现中 Redis Cluster 是做为一个 Redis 的扩展来作的,在不少地方都会看到 Redis 的存在,而且一样都会继承自 Command 实例,这就让用户在使用的过程当中并无太多的差别,只有在实例化时传入的参数不太同样,在调用各类 Redis 命令时则没有区别,而在 Cluster 中则内部调用了 RedissendCommand 完成了逻辑上的复用。

相关文章
相关标签/搜索