神经翻译笔记2扩展b. 优化方法

文章目录 NMT Tutorial 2扩展b. 优化方法 基本优化方法:梯度下降 基于动量的梯度下降及其扩展 动量法 Nesterov动量法 自适应学习率算法 AdaGrad AdaDelta RMSProp Adam 结语 参考文献 综述 具体算法 动量法 Nesterov动量法 AdaGrad算法 AdaDelta算法 Adam算法 NMT Tutorial 2扩展b. 优化方法 基本优化方法
相关文章
相关标签/搜索