一般,咱们在须要保证代码在多个异步处理以后执行,会用到:es6
Promise.all(promises: []).then(fun: function);
Promise.all
能够保证,promises
数组中全部promise对象都达到resolve状态,才执行then
回调。npm
这时候考虑一个场景:若是你的promises
数组中每一个对象都是http请求,或者说每一个对象包含了复杂的调用处理。而这样的对象有几十万个。数组
那么会出现的状况是,你在瞬间发出几十万http请求(tcp链接数不足可能形成等待),或者堆积了无数调用栈致使内存溢出。promise
这时候,咱们就须要考虑对Promise.all
作并发限制。并发
Promise.all
并发限制指的是,每一个时刻并发执行的promise数量是固定的,最终的执行结果仍是保持与原来的Promise.all
一致。异步
咱们知道,promise并非由于调用Promise.all
才执行,而是在实例化promise对象的时候就执行了,在理解这一点的基础上,要实现并发限制,只能从promise实例化上下手。async
换句话说,就是把生成promises
数组的控制权,交给并发控制逻辑。tcp
这里我并不打算一步步实现这个这个功能,npm中有不少实现这个功能的第三方包,好比async-pool、es6-promise-pool、p-limit,这里我直接拿async-pool的代码来分析一下实现原理。函数
代码很简单,去掉没必要要的代码,加上本身的注释,大概内容以下:code
function asyncPool(poolLimit, array, iteratorFn) { let i = 0; const ret = []; const executing = []; const enqueue = function () { // 边界处理,array为空数组 if (i === array.length) { return Promise.resolve(); } // 每调一次enqueue,初始化一个promise const item = array[i++]; const p = Promise.resolve().then(() => iteratorFn(item, array)); // 放入promises数组 ret.push(p); // promise执行完毕,从executing数组中删除 const e = p.then(() => executing.splice(executing.indexOf(e), 1)); // 插入executing数字,表示正在执行的promise executing.push(e); // 使用Promise.rece,每当executing数组中promise数量低于poolLimit,就实例化新的promise并执行 let r = Promise.resolve(); if (executing.length >= poolLimit) { r = Promise.race(executing); } // 递归,直到遍历完array return r.then(() => enqueue()); }; return enqueue().then(() => Promise.all(ret)); }
由于是promise加上递归,因此在代码注释上不太好标注执行顺序,可是大概的逻辑能够总结为:
array
第1个元素开始,初始化promise
对象,同时用一个executing
数组保存正在执行的promisepoolLimt
Promise.race
,得到executing
中promise的执行状况,当有一个promise执行完毕,继续初始化promise并放入executing
中Promise.all
返回使用方式就是:
const timeout = i => new Promise(resolve => setTimeout(() => resolve(i), i)); return asyncPool(2, [1000, 5000, 3000, 2000], timeout).then(results => { ... });
所谓promise并发限制,其实根源上就是控制promise的实例化。若是是经过第三方函数,那么就把建立promise的控制权交给第三方便可。
然而这样的实现效果,本质上来讲已经抛弃了Promise.all
而另辟蹊径。因此期待有一天promise标准能提供这个功能