Batch Normalization本质:平滑优化空间

相信BN层对大家来说并不陌生,今天除了讲解BN被大家说的比较多的东西外会讲一下BN真正work的本质。今天之所以来讲解BN是因为早上听了一个旷视的讲座,听完之后发现旷视研究院在今年1月19日发表的用来解决小批量训练BN不稳定的问题论文:MABN。这对于一般用自己电脑来训练网络的我来说感觉是一个福音,可以减缓batch_size设小之后性能降低的问题(谷歌在一个月前也提出了改进的FRN:一种不依赖b
相关文章
相关标签/搜索