吴恩达机器学习笔记2——logistic回归2

1. 代价函数 解释: 在输出的预测值是h(x),实际标签是y的情况下,我们希望学习算法付出的代价。 然而,这个代价函数在线性回归里可以,很好用。 但是在logistic回归中,就并不适用,会出现一些问题。 实际上,用这个代价函数的话,会变成关于θ的非凸函数。 因为h(x)本身就是非线性,再去平方加和,更是非线性,就可能会使得代价函数的图形变为下图左边 这种图用梯度下降算法的话,可能会找到好多局部
相关文章
相关标签/搜索