第十讲--循环神经网络--课时21

VGG和GoogleLeNet发明的时候,batch normalization还没有出现,因此难以使得这些网络收敛 VGG预训练了11层的网络,然后才得到16/19层的 GoogleLeNet添加了两个auxiliary classification part 有了batch norm以后,就不再需要那样做了 -------------------------------------------
相关文章
相关标签/搜索