Transformer中的Attention

Transformer中的Attention Introduction 读attention is all you need该论文有感。 这篇论文是谷歌17年在机器翻译任务中提出的一种新的序列转换模型”Transformer“。传统的序列转换模型是用RNN和CNN做的,为了使这些模型表现的更好,通常还加入了attention,也就是注意力机制。本文提出的transformer模型,完全摒弃了RNN
相关文章
相关标签/搜索