【深度学习篇】--神经网络中的调优二,防止过拟合

一、前述 上一篇讲述了神经网络中的调优实现,本文继续讲解。 二、L1,L2正则防止过拟合  使用L1和L2正则去限制神经网络连接的weights权重,限制更小 1、对于一层时可以定义如下: 一种方式去使用TensorFlow做正则是加合适的正则项到损失函数,当一层的时候,可以如下定义: 2、对于多层时可以定义如下:  可是如果有很多层,上面的方式不是很方便,幸运的是,TensorFlow提供了更好
相关文章
相关标签/搜索