模型压缩95%,MIT韩松等人提出新型Lite Transformer

2020-06-08 16:31:31git 选自arXivgithub 做者:Zhanghao Wu等算法 机器之心编译网络 参与:小舟、魔王架构 Transformer 的高性能依赖于极高的算力,这让移动端 NLP 严重受限。在不久以前的 ICLR 2020 论文中,MIT 与上海交大的研究人员提出了一种高效的移动端 NLP 架构 Lite Transformer,向在边缘设备上部署移动级 N
相关文章
相关标签/搜索