神经网络之L2正则化

1、前言                 之前的BP神经网络,训练时候,算法会调整每层的参数w使得损失尽可能小,由于数据存在很多干扰或者噪声,容易产生过拟合现象,导致网络对训练数据预测的效果较好,而对测试和验证数据的预测效果较差。过拟合的决策面可能如下所示: 2、L2 Regularization         事实表明,在相同网络结构下,决策面越复杂,参数w的值往往更大,而w较小时候,得到的决
相关文章
相关标签/搜索