台大李宏毅--梯度下降Gradient Descent

一:简单梯度下降 1. 概述 预测模型为 y=b+w∗xcp y = b + w ∗ x c p ,真实标签为 y^n y ^ n ,则损失函数loss function为 我们目的是最小化 损失函数L(w,b),即找出最佳的 w∗,b∗ w ∗ , b ∗ 即 处理方法 : 梯度下降法 2. 仅含一个参数的梯度下降 对某一个参数的偏导数,就是对损失函数在这个参数的方向的斜率 即,就是 然后,不对
相关文章
相关标签/搜索