吴恩达老师机器学习课程个人笔记(第七课)

1.黄海广教授的完整笔记在pdf的P123~P129 2.正则化线性回归的目标,就是取到J( θ \theta θ)的最小值 3.正则化代价函数的梯度下降算法: 上面的 θ \theta θj的更新也可以写成这样子: 右边的 θ \theta θj的系数往往是个接近于1但是小于1的数( α \alpha α很小但是m很大),所以每次 θ \theta θj的更新都相当于先把自己压缩一点,然后正常更
相关文章
相关标签/搜索