pytorch 入门 - 优化算法详解

文章目录 梯度下降法(Gradient Descent) GD算法的实现方式 BGD(Batch Gradient Descent) SGD(Stochastic Gradient Descent) MBGD (Mini-Batch Gradient Descent) 梯度下降算法的不足 GD算法的改进 Momentum Nesterov Accelerated Gradient 自适应优化算法
相关文章
相关标签/搜索