对Batch_Normalization的理解

大家都说batch normalization 具有 1)加快网络收敛 2)使训练更加稳定(即对参数的初始化和学习率不敏感) 的作用,但是在阅读BNs的原文之前,笔者对上面的两个作用的理解也只是停留在文字层面,在阅读完原文之后对BNs有了一个比较具体的认识,今天我们就来探究以下BNs是怎么实现上述的两个作用的。 在此之前,建议大家先看看知乎上对于BNs的高票回答,大佬们对于BNs的算法讲解的还是比
相关文章
相关标签/搜索