[ML笔记]梯度下降和线性梯度下降

引导 前一篇讲解代价函数作用,在监督学习的回归问题上,我们使用代价函数求解最优解,以确定假设函数。 代价函数公式 J(θ0,θ1)=12m∑m1(hθ(xi)−yi)2 上文也提到,在参数较为复杂的情况下,代价函数的轮廓图可能如下图,该如何找到合适的 θ0,θ1 呢? 预备知识 有关导数,偏导数,方向导数,梯度,向量的概念请参考博文: [机器学习] ML重要概念:梯度(Gradient)与梯度下降
相关文章
相关标签/搜索