第七讲--训练神经网络下--课时17--正则化

drop out 每次迭代时,都随机将各层的A失活 在全连接层较为常用,卷积神经网络中使用drop out是对某几个channel失活。 --------------------------- 为了期望不变,消除随机性。 方案一(推荐使用)inverted drop out 训练过程失活后,除以失活概率 测试不需要做改变 测试过程由于部署在端设备上,需要计算量小 -----------------
相关文章
相关标签/搜索