第七章-深度学习中的正则化技术

深度学习中的正则化技术 1、前言 2、参数范数惩罚 2.1L^2参数正则化 2.2 L^1参数正则化 Bagging和其他集成方法 Dropout bagging与dropout训练对比 1、前言 以增大训练误差为代价来减少测试误差,这些策略统称为正则化。 2、参数范数惩罚 我们讨论各种范数惩罚对模型的影响。在神经网络中,我们通常只对每一层仿射变换的权重做惩罚而不对偏置做正则惩罚。 2.1L^2参
相关文章
相关标签/搜索