[deep learning] Optimizer

本文主要是用于介绍深度学习中常用的几种优化器 SGD:这是我们最常用的优化器之一。SGD其实有三个版本: batch-SGD,他是一个epoch更新一次数据,这样子的缺点也是很明显的,对计算的要求大,不能实时增加数据。有冗余的信息。 SGD,每个sample更新一次梯度。这样子做的主要问题是网络可能难以收敛,波动较大。 Mini-batch SGD,这是我们现在最常用的,就是对一个batch内的数
相关文章
相关标签/搜索