深度学习笔记(2):1.6 dropout正则化 | 1.7 why dose drop-out work?

1.6   dropout正则化 dropout又称随机失活,它是通过给定概率随机失活一些节点,让网络更加简单。 下面介绍一个最常用的方法:‘inverted dropout’ (反向随机失活) 假设我们有一个三层的神经网络,每一层节点keep的概率是0.8,而失活的概率是0.2。 该怎么操作呢? 想法是按照保留概率,生成一个对应维度的0-1矩阵,1代表这个节点被保留,而0表示这个节点被失活。 如
相关文章
相关标签/搜索