The Illustrated Transformer【译】

前言 翻译一篇非常赞的解释Transformer的文章,原文链接。 在之前的文章中,Attention成了深度学习模型中无处不在的方法,它是种帮助提升NMT(Neural Machine Translation)的翻译效果的思想。在本篇博客中,我们解析下Transformer,该模型扩展Attention来加速训练,并且在Google的NMT中表现突出。然而,其最大的好处是可并行。实际上谷歌云推荐
相关文章
相关标签/搜索