nodejs Stream使用中的陷阱

      最近公司有个专供下载文件的http服务器出现了内存泄露的问题,该服务器是用node写的,后来测试发现只有在下载很大文件的时候才会出现内存泄露的状况。最后干脆抓了一个profile看看,发现有不少等待发送的buff占用着内存,个人profile以下(怎么抓取profile,你们能够google一下):   node

因而查看了一下发送数据的代码,以下:     缓存

    var fReadStream = fs.createReadStream(filename);
    fReadStream.on('data', function (chunk) {
        res.write(chunk);
    });
    fReadStream.on('end', function () {
        res.end();
    });

开始以为没有什么问题,因而在google上查了一下node http处理大文件的方法,结果发现有人使用pipe方法,因而将代码修改以下:  服务器

    var fReadStream = fs.createReadStream(filename);
    fReadStream.pipe(res)

测试了一下,发现OK,可是仍是不明白为何会这样,因而研究一个一下pipe方法的代码,发现pipe有以下代码:函数

function pipeOnDrain(src) {//可写流能够执行写操做
  return function() {
    var dest = this;
    var state = src._readableState;
    state.awaitDrain--;
    if (state.awaitDrain === 0)
      flow(src);//写数据
  };
}

function flow(src) {//写操做函数
  var state = src._readableState;
  var chunk;
  state.awaitDrain = 0;

  function write(dest, i, list) {
    var written = dest.write(chunk);
    if (false === written) {//判断写数据是否成功
      state.awaitDrain++;//计数器
    }
  }

  while (state.pipesCount && null !== (chunk = src.read())) {

    if (state.pipesCount === 1)
      write(state.pipes, 0, null);
    else
      state.pipes.forEach(write);

    src.emit('data', chunk);

    // if anyone needs a drain, then we have to wait for that.
    if (state.awaitDrain > 0)
      return;
  }

  // if every destination was unpiped, either before entering this
  // function, or in the while loop, then stop flowing.
  //
  // NB: This is a pretty rare edge case.
  if (state.pipesCount === 0) {
    state.flowing = false;

    // if there were data event listeners added, then switch to old mode.
    if (EE.listenerCount(src, 'data') > 0)
      emitDataEvents(src);
    return;
  }

  // at this point, no one needed a drain, so we just ran out of data
  // on the next readable event, start it over again.
  state.ranOut = true;
}

原来pipe方法每次写数据的时候,都会判断是否写成功,若是写失败,会等待可写流触发"drain"事件,表示可写流能够继续写数据了,而后pipe才会继续写数据。oop

     这下明白了,咱们第一次使用的代码没有判断res.write(chunk)是否执行成功,就继续写,这样若是文件比较大,而可写流的写速度比较慢的话,会致使大量的buff缓存在内存中,就会致使内存撑爆的状况。测试

总结:ui

      在使用流的过程当中,必定要注意可读流和可写流读和写之间的平衡,负责会致使内存泄露,而pipe就实现了这样的功能。稍微研究了一下文档,发现stream类有pause()和resume()两个方法,这样的话咱们也能够本身控制读写的平衡。代码以下:this

var http = require("http");
var fs = require("fs");
var filename = "file.iso";

var serv = http.createServer(function (req, res) {
    var stat = fs.statSync(filename);
    res.writeHeader(200, {"Content-Length": stat.size});
    var fReadStream = fs.createReadStream(filename);
    fReadStream.on('data', function (chunk) {
        if(!res.write(chunk)){//判断写缓冲区是否写满(node的官方文档有对write方法返回值的说明)
            fReadStream.pause();//若是写缓冲区不可用,暂停读取数据
        }
    });
    fReadStream.on('end', function () {
        res.end();
    });
    res.on("drain", function () {//写缓冲区可用,会触发"drain"事件
        fReadStream.resume();//从新启动读取数据
    });
});

serv.listen(8888);
相关文章
相关标签/搜索