对Batch Normalization 的理解

之前看到防止过拟合的方法有dropout,L2正则化和Batch Normalization等,自己对前两种比较容易理解,而Batch Normalization为什么可以防止过拟合不太容易理解,于是上网查了一下资料,结合自己的想法总结一下。 BN会使参数搜索问题变得更加容易,使神经网络对超参数的选择更加稳定,超参数的范围会变得庞大,工作效果也很好,容易训练深层网络。 首先,BN提出来是为了解决i
相关文章
相关标签/搜索