英文社区优文转载和翻译:A Look at Gradient Descent and RMSprop Optimizers

Introduction 我们可以调整无数的超参数来提高神经网络的性能。但是,并非所有这些都会显着影响网络的性能。可以使算法收敛或爆炸之间的差异的一个参数是我们选择的优化器。我们可以选择相当多的优化器,让我们来看看两个最广泛使用的优化器。 渐变下降优化器 梯度下降可能是所有优化器中最受欢迎和广泛使用的。找到神经网络的最佳值是一种简单有效的方法。所有优化器的目标是达到成本函数达到最小值的全局最小值。
相关文章
相关标签/搜索