cs231以及迁移学习

Normalization的原因 以这个2元分类为例,不normalization的话,loss非常敏感,分类器稍微改变一下,对loss的影响很大。Normalization后问题得到解决。 在CNN中我们希望每层都normalization,可以用batch normalization learning rate是第一个需要调整的超参数,但当他调好之后再调其他参数 可能对learning rat
相关文章
相关标签/搜索