Deep learning II - I Practical aspects of deep learning - Dropout regularization 随机失活正则化

Dropout regularization 随机失活正则化 在训练神经网络时,随机在每层选择一定数量的neuron关闭,从而达到减小过拟合的目的。看起来很疯狂,但是很有效。 1. 对应每一层生成以个mask d[3] d [ 3 ] 2. 用mask与该层的neurons a[3] a [ 3 ] 覆盖,dropout一些neuron 3. 剩余的neurons除以keep-prob,从而保持该
相关文章
相关标签/搜索