梯度下降法的三种形式BGD、SGD以及MBGD

在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。   下面我们以线性回归算法来对三种梯度下降法进行比较。   一般线性回归函数的假设函数为: hθ=∑nj=0θjxj   对应的能量函数(损失函数)形式为: Jtrain(θ)=1/(2m)∑mi=1(hθ(x(i))−y(i))2   下图为一个二维
相关文章
相关标签/搜索