吴恩达《Machine Learning》-gradient descent 梯度下降(三)

在实际中,我们有n个参数θ0,θ1,θ2```````θn 在此我们以两个参数举例,最小化J(θ0,θ1) 算法: 我们以θ0=0,θ1=0开始, 保持θ0,θ1参数改变,然后查看J(θ0,θ1)。 当J(θ0,θ1)为最小的时候 即为结束 从图中点出发,假设你身处在山顶上,即为寻找当前最快下降的方向下山。 下降一个位置后,再次寻找当前最快下降的方向下山。 最后抵达了局部最优点(低点) 另一个位置
相关文章
相关标签/搜索