pytorch框架学习(15)——正则化

文章目录 1. 正则化与偏差-方差分解 2. pytorch中的L2正则项——weight decay 3. Dropout 1. 正则化与偏差-方差分解 Regularization:减小方差的策略(防止过拟合) 误差可分解为:偏差,方差与噪声之和。即误差 = 偏差 + 方差 + 噪声 偏差:度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力 方差:度量了同样大小的训练
相关文章
相关标签/搜索