终于搞懂Dropout了

在深度学习中,如果模型太复杂则会产生过拟合现象。 一种常用的防止过拟合的方法是正则化,通过在成本函数中添加正则项来起到惩罚参数的作用,不熟悉正则化的小伙伴可以看我之前发布的文章:一文搞定正则化(作用,方法,原理)。 而另一种常用的防止过拟合的方法就是:Drop out 在2012年,Hinton提出了Drop out的思想,它的原理是在前向传播的时候,可以使某个神经元以概率p停止工作,达到一个泛化
相关文章
相关标签/搜索