机器学习_1.3(线性回归之梯度下降+总结)

在前两篇中我们讨论了线性回归和代价函数,其中大致给出了算法的具体思路,其中最主要的还是通过代价函数来获取假设函数中的θj的值,并以此来确定假设函数。 接下来我们来看梯度下降算法 梯度下降算法 不仅仅局限于线性回归的代价函数,还可以解决更一般的函数J(θ1,θ2……θ(n-1)θ(n)),接下来我们为了方便起见,先来讨论J(θ1,θ2)的情况。 现在我们有一个这样的代价函数的模型: 在梯度下降算法中
相关文章
相关标签/搜索