tensorflow使用L2 regularization正则化修正overfitting过拟合

L2正则原理: 在Loss中加入参数w的平方和,这样训练过程中就会抑制w的值,w的值小,曲线就比较平滑,从而减小过拟合,参考公式如下图: 正则化是不影响你去拟合曲线的,并不是所有参数都会被无脑抑制,实际上这是一个动态过程,是cross_entropy和L2 loss博弈的一个过程。训练过程会去拟合一个合理的w,正则化又会去抑制w,两项相抵消,无关的wi越变越小,但是比零强,有用的wi会被保留,处于
相关文章
相关标签/搜索