attention机制详解

原论文:Neural Machine Translation by Jointly Learning to Align and Translate 参考博客:https://blog.csdn.net/shijing_0214/article/details/75194103 注意一点:这篇论文把输入端隐含层状态称为注释h,输出端隐含层状态称为隐含层状态s 叫法不同,其实都是隐含层状态   没有引
相关文章
相关标签/搜索