machine learning 第十周 总结笔记

大规模数据的机器学习 stochastic gradient descent(随机梯度下降)vs batch gradient descent(批梯度下降)            注意算法开始要打乱数据的顺序。注意下降的图。 Mini-batch gradient descent       分成好几份进行gradient descent 如何进行convergence 的验证       成本函
相关文章
相关标签/搜索