抛弃注意力,比EfficientNet快3.5倍,类Transformer新模型跨界视觉任务实现新SOTA

本文经机器之心(almosthuman2014)授权转载,禁止二次转载.  选自OpenReview 机器之心编译 机器之心编辑部 Transformer 用在图像识别上会存在计算效率过低的挑战,最近一篇向 ICLR 2021 大会提交的论文似乎很好地解决了这一问题,其研究的 PyTorch 代码也已在 GitHub 上开源。 在自然语言处理领域(NLP)成为重要力量的 Transformer 技
相关文章
相关标签/搜索