神经网络——调参

1、更多的优化算法 2、激活函数 3、网络初始化 4、批归一化 5、数据增强     1、更多的优化算法: 回顾: 1、随机梯度下降       局部极值       Saddle point问题 2、动量梯度下降 这两个方法的问题: 1、都受初始学习率的影响很大 2、每一个维度的学习率都一样(稀疏数据得不到更新,因为导数为0) 3、AdaGrad算法       调整学习率   Adagrad特
相关文章
相关标签/搜索