李宏毅:Batch Normalization

1、feature scaling (1)经过feature scaling,会让你的training容易的多。 (2)对每一维的i计算均值和标准差,利用公式得到scaling后的feature,这样会让你的training收敛地更快。 2、对每一个layer前的input进行feature scaling,但此时会出现一个问题:第一个layer前的feature 是不会变的,但是其它layer的
相关文章
相关标签/搜索