论文笔记——Attention Is All You Need(Transformer)

文章目录 动机 模型 Encoder Decoder 总结 之前看了Google发表的Transformer的相关论文,虽然距离论文发表已经过去了三年,但是Transformer的效果仍然没有被超越。为了让自己之后能够迅速回忆起Transformer的相关内容,所以记录了这篇论文笔记记录一下自己阅读论文的笔记。 动机 在Transformer提出之前,正常情况下都是使用RNN模型来处理机器翻译任务
相关文章
相关标签/搜索