Cousera吴恩达机器学习week7笔记

Stochastic Gradient Descent 随机梯度下降每次只对一个数据进行计算,相对传统的批处理梯度下降运行速度更快一些。 Mini-Batch Gradient Descent Stochastic Gradient Descent Convergence 虽然不断减小alpha的值有助于我们找到全局最小,但是这个会让工作量增加,而且找到最小的范围已经满足我们的需要了,因此一般我们
相关文章
相关标签/搜索