权重衰减(weight decay)/正则化与学习率衰减(learning rate decay)

推荐:深度学习总结(九)——正则化 1. 权重衰减(weight decay) L2正则化的目的就是为了让权重衰减到更小的值,在一定程度上减少模型过拟合的问题,所以权重衰减也叫L2正则化。 正则项惩罚系数,会惩罚节点的权重矩阵,如果我们的正则项系数很高以至于一些权重矩阵几乎等于零。 1.1 L2正则化与权重衰减系数 L2正则化就是在代价函数后面再加上一个正则化项: 其中C0代表原始的代价函数,后面
相关文章
相关标签/搜索