论文笔记:BahdanauAttention和LuongAttention(注意力机制详解)

前言 近日,阅读了两篇与attention机制相关的论文,为了防止看了就忘,写此文记录论文中一些要点,方便日后回顾,也为需要了解attention机制的朋友们提供一些参考。 两篇论文提出的attention机制都是基于机器翻译,实际上我们也可以应用于别处 论文地址 NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLA
相关文章
相关标签/搜索