esbuild
是新一代的 JavaScript 打包工具。前端
他的做者是 Figma
的 CTO - Evan Wallace
。node
esbuild
以速度快
而著称,耗时只有 webpack 的 2% ~3%。webpack
esbuild
项目主要目标是: 开辟一个构建工具性能的新时代,建立一个易用的现代打包器
。git
它的主要功能:github
Extreme speed without needing a cache
ES6 and CommonJS modules
Tree shaking of ES6 modules
An API for JavaScript and Go
TypeScript and JSX syntax
Source maps
Minification
Plugins
如今不少工具都内置了它,好比咱们熟知的:web
vite
,snowpack
借助 esbuild 优异的性能, vite 更是如虎添翼, 快到飞起。算法
今天咱们就来探索一下: 为何 esbuild 这么快。缓存
今天的主要内容:服务器
几组性能数据对比
为何 esbuild 这么快
esbuild upcoming roadmap
esbuild 在 vite 中的运用
为何生产环境仍需打包?
为什么vite不用 esbuild 打包?
总结
先看一组对比:网络
使用 10 份 threeJS 的生产包,对比不一样打包工具在默认配置下的打包速度。
webpack5 垫底, 耗时 55.25
秒。
esbuild 仅耗时 0.37
秒。
差别巨大。
还有更多对比:
webpack5 表示很受伤: 我还比不过 webpack 4 ?
...
有如下几个缘由。
(为了保证内容的准确性, 如下内容翻译自 esbuild 官网。)
大多数打包器都是用 JavaScript 编写的,可是对于 JIT 编译
的语言来讲,命令行应用程序拥有最差的性能表现。
每次运行打包器时,JavaScript VM 都会在没有任何优化提示的状况下看到打包程序的代码。
在 esbuild 忙于解析 JavaScript 时,node 忙于解析打包程序的JavaScript。
到节点完成解析打包程序代码的时间时,esbuild可能已经退出,您的打包程序甚至尚未开始打包。
另外,Go 是为并行性
而设计的,而 JavaScript 不是。
Go在线程之间共享内存
,而JavaScript必须在线程之间序列化数据。
Go 和 JavaScript都有并行的垃圾收集器
,可是Go的堆在全部线程
之间共享,而对于JavaScript, 每一个JavaScript线程中都有一个单独的堆
。
根据测试,这彷佛将 JavaScript worker 线程的并行能力减小了一半,大概是由于一半CPU核心正忙于为另外一半收集垃圾。
esbuild 中的算法通过精心设计
,能够充分利用CPU资源。
大体分为三个阶段:
解析
连接
代码生成
解析
和代码生成
是大部分工做,而且能够彻底并行化
(连接在大多数状况下是固有的串行任务)。
因为全部线程共享内存
,所以当捆绑导入同一JavaScript库的不一样入口点时,能够轻松地共享工做。
大多数现代计算机具备多内核
,所以并行性是一个巨大的胜利。
本身编写全部内容, 而不是使用第三方库,能够带来不少性能优点。
能够从一开始就牢记性能,能够确保全部内容都使用一致的数据结构来避免昂贵的转换,而且能够在必要时进行普遍的体系结构更改。缺点固然是多了不少工做。
例如,许多捆绑程序都使用官方的TypeScript编译器做为解析器。
可是,它是为实现TypeScript编译器团队的目标而构建的,它们没有将性能做为头等大事。
理想状况下, 根据数据数据的长度, 编译器的复杂度为O(n).
若是要处理大量数据,内存访问速度可能会严重影响性能。
对数据进行的遍历次数越少(将数据转换成数据所需的不一样表示形式也就越少),编译器就会越快。
例如,esbuild 仅触及整个JavaScript AST 3次:
当 AST 数据在CPU缓存中仍然处于活跃状态时,会最大化AST数据的重用。
其余打包器在单独的过程当中执行这些步骤,而不是将它们交织在一块儿。
它们也能够在数据表示之间进行转换,将多个库组织在一块儿(例如:字符串→TS→JS→字符串,而后字符串→JS→旧的JS→字符串,而后字符串→JS→minified JS→字符串)。
这样会占用更多内存,而且会减慢速度。
Go的另外一个好处是它能够将内容紧凑地存储在内存中,从而使它可使用更少的内存并在CPU缓存中容纳更多内容。
全部对象字段的类型和字段都紧密地包装在一块儿,例如几个布尔标志每一个仅占用一个字节。
Go 还具备值语义,能够将一个对象直接嵌入到另外一个对象中,所以它是'免费的',无需另外分配。
JavaScript不具备这些功能,还具备其余缺点,例如 JIT 开销(例如隐藏的类插槽)和低效的表示形式(例如,非整数与指针堆分配)。
以上的每一条因素, 都能在必定程度上提升编译速度。
当它们共同工做时,效果比当今一般使用的其余打包器快几个数量级。
以上内容比较繁琐,对此,也有一些网友作了简要的总结:
Go
语言编写的,该语言能够编译为本地代码。 并且 Go 的执行速度很快。 通常来讲,JS 的操做是毫秒级
,而 Go 则是纳秒级
。解析
,生成最终打包文件和生成 source maps 的操做所有彻底并行化无需昂贵的数据转换
,只需不多的几步便可完成全部操做以提升编译速度为编写代码时的第一原则
,并尽可能避免没必要要的内存分配。仅做参考。
如下这几个 feature 已经在进行中了, 并且是第一优先级:
Code splitting
(#16, docs)CSS content type
(#20, docs)Plugin API
(#111)下面这几个 fearure 比较有潜力, 可是还不肯定:
HTML content type
(#31)Lowering to ES5
(#297)Bundling top-level await
(#253)感兴趣的能够保持关注。
vite
中大量使用了 esbuild
, 这里简单分享两点。
optimizer
import { build, BuildOptions as EsbuildBuildOptions } from 'esbuild' // ... const result = await build({ entryPoints: Object.keys(flatIdDeps), bundle: true, format: 'esm', external: config.optimizeDeps?.exclude, logLevel: 'error', splitting: true, sourcemap: true, outdir: cacheDir, treeShaking: 'ignore-annotations', metafile: true, define, plugins: [ ...plugins, esbuildDepPlugin(flatIdDeps, flatIdToExports, config) ], ...esbuildOptions }) const meta = result.metafile! // the paths in `meta.outputs` are relative to `process.cwd()` const cacheDirOutputPath = path.relative(process.cwd(), cacheDir) for (const id in deps) { const entry = deps[id] data.optimized[id] = { file: normalizePath(path.resolve(cacheDir, flattenId(id) + '.js')), src: entry, needsInterop: needsInterop( id, idToExports[id], meta.outputs, cacheDirOutputPath ) } } writeFile(dataPath, JSON.stringify(data, null, 2))
.ts
文件为何生产环境仍需打包?
尽管原生 ESM
如今获得了普遍支持
,但因为嵌套导入会致使额外的网络往返
,在生产环境中发布未打包的 ESM 仍然效率低下(即便使用 HTTP/2
)。
为了在生产环境中得到最佳的加载性能
,最好仍是将代码进行 tree-shaking
、懒加载
和 chunk 分割
(以得到更好的缓存
)。
要确保开发
服务器和产品构建
之间的最佳输出
和行为
达到一致,并不容易。
为解决这个问题,Vite 附带了一套 构建优化
的 构建命令
,开箱即用。
为什么 vite 不用 esbuild 打包?
虽然 esbuild
快得惊人,而且已是一个在构建库方面比较出色的工具,但一些针对构建应用的重要功能仍然还在持续开发中 —— 特别是代码分割
和 CSS处理
方面。
就目前来讲,Rollup
在应用打包方面, 更加成熟和灵活。
尽管如此,当将来这些功能稳定后,也不排除使用 esbuild 做为生产构建器
的可能。
esbuild 为构建提效带来了曙光, 并且 esm 的数量也在快速增长:
但愿 esm
生态尽快完善起来, 造福前端。
--
今天的内容就这么多, 但愿对你们有所启发。
才疏学浅,文章如有错误, 欢迎指正, 谢谢。