Coursera 机器学习笔记(八)

主要为第十周内容:大规模机器学习、案例、总结 (一)随机梯度下降法 如果有一个大规模的训练集,普通的批量梯度下降法需要计算整个训练集的误差的平方和,如果学习方法需要迭代20次,这已经是非常大的计算代价。 首先,需要确定大规模的训练集是否有必要。当我们确实需要一个大规模的训练集,可以尝试用随机梯度下降法来替代批量梯度下降法。 在随机梯度下降法中,定义代价函数一个单一训练实例的代价: 随机梯度下降算法
相关文章
相关标签/搜索