【李宏毅 深度学习】Gradient Descent_1-2

接上篇:https://blog.csdn.net/Aibiabcheng/article/details/107430209 Tip 2: Stochastic Gradient Descent 误差Loss是所有预测值与真实值之间误差之和。 与Adagrad不同,随机梯度下降,是取一个样本Xn(可以随机取,也可以按顺序取),计算Loss值(下面公式),然后计算梯度。 原来的Gradient D
相关文章
相关标签/搜索