coursera《机器学习》吴恩达-week1-03 梯度下降算法

梯度下降算法 最小化代价函数J 梯度下降 使用全机学习最小化 首先查看一般的J()函数 问题 我们有J(θ0, θ1) 我们想获得 min J(θ0, θ1) 梯度下降适用于更一般的功能 J(θ0, θ1, θ2 …. θn) min J(θ0, θ1, θ2 …. θn) 这一算法如何工作?: 从初始假定开始 从0,0开始(或任何其他值) 保持一点点的改变θ0和θ1,来试图减少 每次更改参数时,
相关文章
相关标签/搜索