在深度神经网络中防止过拟合

摘自O社的fundamentals of Deep Learning 第一种方法:正则化 1、L2正则化 正则化通过添加惩罚大权重的附加项来修改我们最小化的目标函数。换言之,我们将目标函数改为Error+λf (θ) ,f(θ)随 θ的变大而变大, λ 是另一个名叫正则化强度的超参数。 我们选择λ 的值的大小决定了我们想解决过拟合的程度。 λ =0说明我们没有采取任何方法防止过拟合。如果λ太大,那
相关文章
相关标签/搜索