神经网络的优化(2)----优化器、自适应学习率:Adagrad、RMSProp、Momentum、Adam

一、Adagrad        //这个优化器,带有自适应的学习率                                                                点击此处返回总目录 二、RMSProp      //Adagrad的进阶版,带有更好的自适应学习率 三、Momentum    //动量。 四、Adam            //RMSProp+Mom
相关文章
相关标签/搜索