谷歌机器学习速成课程笔记 10(Regularization for Simplicity-简化正则化)

之前已经讨论了如何让训练损失降到最低(也就是获取正确的样本),今天,我们来讨论且薄优质机器学习效果的第二个关键因素——正则化(概括而言,就是不要过于依赖样本)。 从以下拟合曲线我们可以看出:随着迭代次数越来越多,训练损失会越来越少,不出所料,蓝色曲线会不断下降,最终会在某种程度上收敛于底端,但另一方面,红线却在上升,而红线正是我们要关注的(因为是通过测试集出来的结果嘛)。 我们在训练集方面做的很好
相关文章
相关标签/搜索