增强模型表示方法-dropout

增强模型表示方法-dropout Dropout 的原理为:在每个迭代过程中,随机选择某些神经元,并且删除它们在⽹络中的前向和后向连接,相当于是 “去掉” 这些神经元。如图 6.5所⽰,在每批样本训练时,将原始⽹络中部分隐藏层单元 “去掉”。当然,Dropout 并不意味着这些神经元永远的消失了,在下⼀批数据迭代前,我们会把⽹络恢复成最初的全连接⽹络,然后再⽤随机的⽅法去掉部分隐藏层的神经元,接着
相关文章
相关标签/搜索