用偏导数作为梯度下降算法中下降量

机器学习2-7课讲梯度下降算法   首先,这个算法基于cost函数J(θ0,θ1)的偏导数,目的是找J的最小值(局部最小),J最小代表h与实际的(x,y)分布最接近。   运算时需要将(θ0,θ1)带入到每次运算中的hθ。因为每次梯度下降运算后,hθ=θ0+θ1x都会发生变化。   为什么偏导数是全部误差的均值,(再乘系数α)? 因为,那不是hθ的导数,而是代价函数J(θ0,θ1)的偏导数,想想什
相关文章
相关标签/搜索