attention机制的替代(LAMBDANETWORKS: MODELING LONG-RANGE INTERACTIONS WITHOUT ATTENTION)

attention机制的替代(LAMBDANETWORKS: MODELING LONG-RANGE INTERACTIONS WITHOUT ATTENTION) 摘要 ICLR2021盲审的一篇论文 在自然语言处理领域(NLP)成为重要力量的 Transformer 技术最近已经开始在计算机视觉领域展现自己的实力。不过到目前为止,由于 Transformer 注意力机制对内存的需求是输入图像的
相关文章
相关标签/搜索