系列3|走进Node.js之多进程模型

文:正龙(沪江网校Web前端工程师)javascript

本文原创,转载请注明做者及出处html

以前的文章“走进Node.js之HTTP实现分析”中,你们已经了解 Node.js 是如何处理 HTTP 请求的,在整个处理过程,它仅仅用到单进程模型。那么如何让 Web 应用扩展到多进程模型,以便充分利用CPU资源呢?答案就是 Cluster。本篇文章将带着你们一块儿分析Node.js的多进程模型。前端

首先,来一段经典的 Node.js 主从服务模型代码:java

const cluster = require('cluster');
const numCPUs = require('os').cpus().length;

if (cluster.isMaster) {
  for (let i = 0; i < numCPUs; i++) {
    cluster.fork();
  }
} else {
  require('http').createServer((req, res) => {
    res.end('hello world');
  }).listen(3333);
}
复制代码

一般,主从模型包含一个主进程(master)和多个从进程(worker),主进程负责接收链接请求,以及把单个的请求任务分发给从进程处理;从进程的职责就是不断响应客户端请求,直至进入等待状态。如图 3-1 所示:node

围绕这段代码,本文但愿讲述清楚几个关键问题:linux

  1. 从进程的建立过程;c++

  2. 在使用同一主机地址的前提下,若是指定端口已经被监听,其它进程尝试监听同一端口时本应该会报错(EADDRINUSE,即端口已被占用);那么,Node.js 如何可以在主从进程上对同一端口执行 listen 方法?git

进程 fork 是如何完成的?

在 Node.js 中,cluster.fork 与 POSIX 的 fork 略有不一样:虽然从进程仍旧是 fork 建立,可是并不会直接使用主进程的进程映像,而是调用系统函数 execvp 让从进程使用新的进程映像。另外,每一个从进程对应一个 Worker 对象,它有以下状态:none、online、listening、dead和disconnected。github

ChildProcess 对象主要提供进程的建立(spawn)、销毁(kill)以及进程句柄引用计数管理(ref 与 unref)。在对Process对象(process_wrap.cc)进行封装以外,它自身也处理了一些细节问题。例如,在方法 spawn 中,若是须要主从进程之间创建 IPC 管道,则经过环境变量 NODE_CHANNEL_FD 来告知从进程应该绑定的 IPC 相关的文件描述符(fd),这个特殊的环境变量后面会被再次涉及到。json

以上提到的三个对象引用关系以下:

cluster.fork 的主要执行流程:

  1. 调用 child_process.spawn;

  2. 建立 ChildProcess 对象,并初始化其 _handle 属性为 Process 对象;Process 是 process_wrap.cc 中公布给 JavaScript 的对象,它封装了 libuv 的进程操纵功能。附上 Process 对象的 C++ 定义:

interface Process {
  construtor(const FunctionCallbackInfo<Value>& args);
  void close(const FunctionCallbackInfo<Value>& args);
  void spawn(const FunctionCallbackInfo<Value>& args);
  void kill(const FunctionCallbackInfo<Value>& args);
  void ref(const FunctionCallbackInfo<Value>& args);
  void unref(const FunctionCallbackInfo<Value>& args);
  void hasRef(const FunctionCallbackInfo<Value>& args);
}
复制代码
  1. 调用 ChildProcess._handle 的方法 spawn,并会最终调用 libuv 库中 uv_spawn

主进程在执行 cluster.fork 时,会指定两个特殊的环境变量 NODE_CHANNEL_FD 和 NODE_UNIQUE_ID,因此从进程的初始化过程跟通常 Node.js 进程略有不一样:

  1. bootstrap_node.js 是运行时包含的 JavaScript 入口文件,其中调用 internal\process.setupChannel;

  2. 若是环境变量包含 NODE_CHANNEL_FD,则调用 child_process._forkChild,而后移除该值;

  3. 调用 internal\child_process.setupChannel,在子进程的全局 process 对象上监听消息 internalMessage,而且添加方法 send 和 _send。其中 send 只是对 _send 的封装;一般,_send 只是把消息 JSON 序列化以后写入管道,并最终投递到接收端。

  4. 若是环境变量包含 NODE_UNIQUE_ID,则当前进程是 worker 模式,加载 cluster 模块时会执行 workerInit;另外,它也会影响到 net.Server 的 listen 方法,worker 模式下 listen 方法会调用 cluster._getServer,该方法实质上向主进程发起消息 {"act" : "queryServer"},而不是真正监听端口。

IPC实现细节

上文提到了 Node.js 主从进程仅仅经过 IPC 维持联络,那这一节就来深刻分析下 IPC 的实现细节。首先,让咱们看一段示例代码:

1-master.js

const {spawn} = require('child_process');
let child = spawn(process.execPath, [`${__dirname}/1-slave.js`], {
  stdio: [0, 1, 2, 'ipc']
});

child.on('message', function(data) {
  console.log('received in master:');
  console.log(data);
});

child.send({
  msg: 'msg from master'
});
复制代码

1-slave.js

process.on('message', function(data) {
  console.log('received in slave:');
  console.log(data);
});
process.send({
  'msg': 'message from slave'
});
复制代码
node 1-master.js
复制代码

运行结果以下:

细心的同窗可能发现控制台输出并非连续的,master和slave的日志交错打印,这是因为并行进程执行顺序不可预知形成的。

socketpair

前文提到从进程实际上经过系统调用 execvp 启动新的 Node.js 实例;也就是说默认状况下,Node.js 主从进程不会共享文件描述符表,那它们究竟是如何互发消息的呢?

原来,能够利用 socketpair 建立一对全双工匿名 socket,用于在进程间互发消息;其函数签名以下:

int socketpair(int domain, int type, int protocol, int sv[2]);
复制代码

一般状况下,咱们是没法经过 socket 来传递文件描述符的;当主进程与客户端创建了链接,须要把链接描述符告知从进程处理,怎么办?其实,经过指定 socketpair 的第一个参数为 AF_UNIX,表示建立匿名 UNIX 域套接字(UNIX domain socket),这样就可使用系统函数 sendmsgrecvmsg 来传递/接收文件描述符了。

主进程在调用 cluster.fork 时,相关流程以下:

  1. 建立 Pipe(pipe_wrap.cc)对象,而且指定参数 ipc 为 true;
  2. 调用 uv_spawn,options 参数为 uv_process_options_s 结构体,把 Pipe 对象存储在结构体的属性 stdio 中;
  3. 调用 uv__process_init_stdio,经过 socketpair 建立全双工 socket;
  4. 调用 uv__process_open_stream,设置 Pipe 对象的 iowatcher.fd 值为全双工 socket 之一。

至此,主从进程就能够进行双向通讯了。流程图以下:

咱们再回看一下环境变量 NODE_CHANNEL_FD,使人疑惑的是,它的值始终为3。进程级文件描述符表中,0-2分别是标准输入stdin、标准输出stdout和标准错误输出stderr,那么可用的第一个文件描述符就是3,socketpair 显然会占用从进程的第一个可用文件描述符。这样,当从进程往 fd=3 的流中写入数据时,主进程就能够收到消息;反之,亦相似。

从 IPC 读取消息主要是流操做,之后有机会详解,下面列出主要流程:

  1. StreamBase::EditData 回调 onread;

  2. StreamWrap::OnReadImpl 调用 StreamWrap::EditData;

  3. StreamWrap 的构造函数会调用 set_read_cb 设置 OnReadImpl;

  4. StreamWrap::set_read_cb 设置属性 StreamWrap::read_cb_;

  5. StreamWrap::OnRead 中引用属性 read_cb_;

  6. StreamWrap::ReadStart 调用 uv_read_start 时传递 Streamwrap::OnRead 做为第3个参数:

int uv_read_start(uv_stream_t* stream, uv_alloc_cb alloc_cb, uv_read_cb read_cb) 复制代码

涉及到的类图关系以下:

服务器主从模型

以上大概分析了从进程的建立过程及其特殊性;若是要实现主从服务模型的话,还须要解决一个基本问题:从进程怎么获取到与客户端间的链接描述符?咱们打算从 process.send(只有在从进程的全局 process 对象上才有 send 方法,主进程能够经过 worker.process 或 worker 访问该方法)的函数签名着手:

void send(message, sendHandle, callback)
复制代码

其参数 message 和 callback 含义也许显而易见,分别指待发送的消息对象和操做结束以后的回调函数。那它的第二个参数 sendHandle 用途是什么?

前文提到系统函数 socketpair 能够建立一对双向 socket,可以用来发送 JSON 消息,这一块主要涉及到流操做;另外,当 sendHandle 有值时,它们还能够用于传递文件描述符,其过程要相对复杂一些,可是最终会调用系统函数 sendmsg 以及 recvmsg。

传递与客户端的链接描述符

在主从服务模型下,主进程负责跟客户端创建链接,而后把链接描述符经过 sendmsg 传递给从进程。咱们来看看这一过程:

从进程

  1. 调用 http.Server.listen 方法(继承至 net.Server);

  2. 调用 cluster._getServer,向主进程发起消息:

{
  "cmd": "NODE_HANDLE",
  "msg": {
    "act": "queryServer"
  }
}
复制代码

主进程

  1. 接收处理这个消息时,会新建一个 RoundRobinHandle 对象,为变量 handle。每一个 handle 与一个链接端点对应,而且对应多个从进程实例;同时,它会开启与链接端点相应的 TCP 服务 socket。
class RoundRobinHandle {
  construtor(key, address, port, addressType, fd) {
    // 监听同一端点的从进程集合
    this.all = [];

    // 可用的从进程集合
    this.free = [];

    // 当前等待处理的客户端链接描述符集合
    this.handles = [];

    // 指定端点的TCP服务socket
    this.server = null;
  }
  add(worker, send) {
    // 把从进程实例加入this.all
  }
  remove(worker) {
    // 移除指定从进程
  }
  distribute(err, handle) {
    // 把链接描述符handle存入this.handles,并指派一个可用的从进程实例开始处理链接请求
  }
  handoff(worker) {
    // 从this.handles中取出一个待处理的链接描述符,并向从进程发起消息
    // {
    // "type": "NODE_HANDLE",
    // "msg": {
    // "act": "newconn",
    // }
    // }
  }
}
复制代码
  1. 调用 handle.add 方法,把 worker 对象添加到 handle.all 集合中;

  2. 当 handle.server 开始监听客户端请求以后,重置其 onconnection 回调函数为 RoundRobinHandle.distribute,这样的话主进程就不用实际处理客户端链接,只要分发链接给从进程处理便可。它会把链接描述符存入 handle.handles 集合,当有可用 worker 时,则向其发送消息 { "act": "newconn" }。若是被指派的 worker 没有回复确认消息 { "ack": message.seq, accepted: true },则会尝试把该链接分配给其余 worker。

流程图以下:

从进程上调用listen

客户端链接处理

从进程如何与主进程监听同一端口?

缘由主要有两点:

** I. 从进程中 Node.js 运行时的初始化略有不一样**

  1. 由于从进程存在环境变量 NODE_UNIQUE_ID,因此在 bootstrap_node.js 中,加载 cluster 模块时执行 workerInit 方法。这个地方与主进程执行的 masterInit 方法不一样点在于:其一,从进程上没有 cluster.fork 方法,因此不能在从进程继续建立子孙进程;其二,Worker 对象上的方法 disconnect 和 destroy 实现也有所差别:咱们以调用 worker.destroy 为例,在主进程上时,不能直接把从进程杀掉,而是通知从进程退出,而后再把它从集合里删除;当在从进程上时,从进程通知完主进程而后退出就能够了;其三,从进程上 cluster 模块新增了方法 _getServer,用于向主进程发起消息 {"act": "queryServer"},通知主进程建立 RoundRobinHandle 对象,并实际监听指定端口地址;而后自身用一个模拟的 TCP 描述符继续执行;

  2. 调用 cluster._setupWorker 方法,主要是初始化 cluster.worker 属性,并监听消息 internalMessage,处理两种消息类型:newconn 和 disconnect;

  3. 向主进程发起消息 { "act": "online" };

  4. 由于从进程额环境变量中有 NODE_CHANNEL_FD,调用 internal\process.setupChannel时,会链接到系统函数 socketpair 建立的双向 socket ,并监听 internalMessage ,处理消息类型:NODE_HANDLE_ACK和NODE_HANDLE。

** II. listen 方法在主从进程中执行的代码略有不一样。**

在 net.Server(net.js)的方法 listen 中,若是是主进程,则执行标准的端口绑定流程;若是是从进程,则会调用 cluster._getServer,参见上面对该方法的描述。

最后,附上基于libuv实现的一个 C 版 Master-Slave 服务模型,GitHub地址

启动服务器以后,访问 http://localhost:3333 的运行结果以下:

相信经过本篇文章的介绍,你们已经对Node.js的Cluster有了一个全面的了解。下一次做者会跟你们一块儿深刻分析Node.js进程管理在生产环境下的可用性问题,敬请期待。

相关文章

系列1|走进Node.js之启动过程剖析

系列2|走进Node.js 之 HTTP实现分析

推荐: 翻译项目Master的自述:

1. 干货|人人都是翻译项目的Master

2. iKcamp出品微信小程序教学共5章16小节汇总(含视频)

3. 开始免费连载啦~每周2更共11堂iKcamp课|基于Koa2搭建Node.js实战项目教学(含视频)| 课程大纲介绍


2019年,iKcamp原创新书《Koa与Node.js开发实战》已在京东、天猫、亚马逊、当当开售啦!

相关文章
相关标签/搜索