《机器学习从入门到入职》-不同梯度下降算法的比较-‘sgd‘, ‘rmsprop‘, ‘adagrad‘, ‘adadelta‘, ‘adam‘, ‘nadam‘

代码链接:   待更新   实验原理: 待更新   实验结果: 实验结论: 前提:硬件受限Epoch比较小;数据集比较小; 1.SGD理论上收敛时间短,但是效果不佳; 2.Adative相关的算法和向量法相关的算法效果都比较好; 3.optimizers的调优选择效果比之前做实验关于神经元深度/宽度的accuracy/loss的评分好;   问题解决:   1.”y_train = np_util
相关文章
相关标签/搜索