论文笔记《Attention Is All You Need》

原文链接 本文发表于人工智能顶级会议 NIPS 2017 代码实现 摘要 现在主流的sequence2sequence的模型都是基于复杂的CNN或RNN结构,目前效果最好的几个模型都采用了attention机制,本文提出了一种新的简单的网络结构,能够完全抛弃CNN和RNN,只需要使用attention就能够让效果变得非常好。 模型 本文模型如下图所示: 图中左侧灰色区域为encoder子结构,en
相关文章
相关标签/搜索