2.4 吴恩达《神经网络与深度学习》——梯度下降法

【上节回顾】在上一讲里,我们学习了logistic回归模型,也知道了损失函数。损失函数,是衡量单一训练样例的效果。你还知道了成本函数,成本函数用于衡量参数w和b的效果,在全部训练集上来衡量。 下面我们讨论如何使用梯度下降法,来训练或学习训练集上的参数w和b。 回顾一下,这里是熟悉的logistic回归算法。第二行是成本函数J,成本函数J是参数w和b的函数,它被定义为平均值,即1/m的损失函数之和。
相关文章
相关标签/搜索