详解批量梯度下降法(BGD)、随机梯度下降法(SGD)和小批量梯度下降法(MBGD)

在应用机器学习算法时,我们常采用梯度下降法来对才用的算法进行训练。梯度下降法有三种不同的形式:批量梯度下降(Batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)以及小批量梯度下降(Mini-Batch Gradient Descent)。接下来,我们将对这三种不同的梯度下降法进行理解。 梯度下降算法需要对损失函数求梯度,也就是求导。
相关文章
相关标签/搜索