ICLR 2020趋势分析:NLP中更好&更快的Transformer

点击上方“AI公园”,关注公众号,选择加“星标“或“置顶” 作者:Gabriele Sarti 编译:ronghuaiyang 导读 介绍了ICLR2020中对Transformer的改进,从自注意力变体,训练目标,模型结构这三个方面对Transformer进行了提升。 Transformer结构首次提出是在“Attention is All you Need”中,是一种有效的替代序列语言建模(L
相关文章
相关标签/搜索