学习率
是模型训练中最重要的超参之一,针对学习率
的优化有不少种方法,而warmup
是其中重要的一种。web
warmup
是一种学习率优化方法(最先出如今ResNet论文中)。在模型训练之初选用较小的学习率,训练一段时间以后(如:10epoches或10000steps)使用预设的学习率进行训练;svg
训练之初模型对数据的“理解程度”为0(即:没有任何先验知识)
,在第一个epoches中,每一个batch的数据对模型来讲都是新的,模型会根据输入的数据进行快速调参,此时若是采用较大的学习率的话,有很大的可能使模型对于数据“过拟合”(“学偏”),后续须要更多的轮次才能“拉回来”;模型对数据具备必定的先验知识,此时使用较大的学习率模型就不容易学“偏”,可使用较大的学习率加速模型收敛
;模型的分布相对比较稳定,此时不宜从数据中再学到新特色
,若是仍使用较大的学习率会破坏模型的稳定性,而使用小学习率更容易获取local optima
。步子太大,容易扯着dan
,此时须要使用小学习率摸着石头过河
;朝着目标大步向前
;目标
时,使用小学习率进行探索
,此时步子太大,容易错过最近点
;学习率从很是小的数值线性增长到预设值以后保持不变,其学习率的系数以下图所示:
函数
学习率从很是小的数值线性增长到预设值以后,而后再线性减少。其学习率的系数以下图所示。
学习
学习率先从很小的数值线性增长到预设学习率,而后按照cos
函数值进行衰减。其学习率系数以下图所示。
优化