【机器学习--学习笔记】大规模机器学习

此处对比批量梯度下降、随机梯度下降、小批量梯度下降算法的优缺点 算法 批量梯度下降(Batch Gradient Descent, BGD) 随机梯度下降(Stochastic Gradient Descent, SGD) 代价函数 梯度下降算法 比较 每一次更新参数θ时,都需要计算所有m个训练样本的差平方项求和,然后更新一次θ值,当m很大时,每一次迭代计算量大,且只能更新优化一小步 每一次更新参
相关文章
相关标签/搜索