梯度降低法的不一样形式——随机梯度降低法和小批量梯度降低法

前文介绍了梯度降低法,其每次迭代均需使用所有的样本,所以计算量巨大。就此,提出了基于单个样本的随机梯度降低法(Stochastic gradient descent,SGD)和基于部分样本的小批量梯度降低法(Mini-Batch gradient descent,Mini-batch gradient descent)。html 1、随机梯度降低法 随机梯度降低法,即在每次梯度更新过程当中仅使用某
相关文章
相关标签/搜索