解读 | 从seq2seq到attention的方方面面

    点击上方“Jerry的算法和NLP”,选择“星标”公众号                      重磅干货,第一时间送达     这篇文章的主要内容是对谷歌提出的transformer 进行论文解读,主要是针对Google在2017年《Attention is all you need》 提出的transformer模型进行一个研究,另外我还看了这篇文章《Neural Machine T
相关文章
相关标签/搜索