模型压缩95%,MIT韩松等人提出新型Lite Transformer

2020-06-08 16:31:31 选自arXiv 作者:Zhanghao Wu等 机器之心编译 参与:小舟、魔王 Transformer 的高性能依赖于极高的算力,这让移动端 NLP 严重受限。在不久之前的 ICLR 2020 论文中,MIT 与上海交大的研究人员提出了一种高效的移动端 NLP 架构 Lite Transformer,向在边缘设备上部署移动级 NLP 应用迈进了一大步。 虽然
相关文章
相关标签/搜索