Coursera吴恩达机器学习教程笔记(三)

上回说到当假设函数的参数增多的时候,代价函数的维度就会变高,描点画图这种方法就不适用了,那得咋整呢?所以我们就要采用数学的方法找到代价函数的最小值。这个方法就是大名鼎鼎的梯度下降法。     啥叫梯度下降呢?来看这张图。          这张图的outline就是梯度下降的基本思想,先给定一组参数θ0,θ1,然后不断调解上面两个参数,来减小代价函数,知道代价函数减到最小。当然,梯度下降法不仅适用
相关文章
相关标签/搜索