深度学习模型在训练时候使用dropout为何在测试时候不使用dropout?

深度学习模型在训练时候使用dropout为何在测试时候不使用dropout? 深度学习模型训练时候使用dropout实际上只是让部分神经元在当前训练批次以一定的概率不参与更新,这样使得每一轮迭代获得的模型都是不一样的。这个过程一定程度上保持了不同模型之间最优参数设置,使得训练出的每一个模型不至于太差。在预测时候,不使用dropout,但会在权重上都乘上保留概率。最终的输出可以被认为是Bagging
相关文章
相关标签/搜索