高效Transformer层出不穷,谷歌团队综述文章一网打尽

计算机视觉研究院专栏 作者:Edison_G 计算机视觉研究院 长按扫描二维码 关注我们 获取更多资讯 自 2017 年诞生以来,Transformer 模型在自然语言处理、计算机视觉等多个领域得到广泛应用,并出现了大量变体。近期涌现的大量 Transformer 变体朝着更高效的方向演化,谷歌研究者对这类高效 Transformer 架构进行了综述。 Transformer 是现代深度学习领域一
相关文章
相关标签/搜索