ICLR20 - 旷视研究院提出MABN:解决小批量训练BN不稳定的问题

本次先大体翻译MABN的论文,有机会我会把YOLO中的BN换成MABN在小批次上试试效果。 目录 背景 介绍 批归一化中的统计量 滑动平均批归一化 实验 论文地址 背景 批度归一化(Batch Normalization/BN已经成为深度学习领域最常用的技术之一,但他的表现很受批次(Batch Size)限制。小批次样本的批统计量(Batch Statistics)十分不稳定,导致训练的收敛速度比
相关文章
相关标签/搜索