高效Transformer层出不穷,谷歌团队综述文章一网打尽

选自arXiv 作者:Yi Tay 等 机器之心编译 编辑:魔王 自 2017 年诞生以来,Transformer 模型在自然语言处理、计算机视觉等多个领域得到广泛应用,并出现了大量变体。近期涌现的大量 Transformer 变体朝着更高效的方向演化,谷歌研究者对这类高效 Transformer 架构进行了综述。 Transformer 是现代深度学习领域一股令人敬畏的力量,它广泛应用于语言理解
相关文章
相关标签/搜索