【论文阅读】Attention Is All You Need

昨天刚学习了在 RNN encode-decode编解码框架上的进行Attention的工做,今天就看到了这篇,只有Attention是你须要的,RNN 序列串的建模根本不是重要的。好,开始读论文。 Ashish Vaswani等 Google Brain,做者单位中还有多伦多大学的,六位做者都是一做?哈。web 摘要: 当前主流的序列建模是在复杂的RNN与CNN的框架之上的,(值得注意的是这篇文
相关文章
相关标签/搜索