第二门课-改善深层神经网络 第二周(重点总结)

文章目录 第二周:优化算法 (Optimization algorithms) 2.1 Mini-batch 梯度下降(Mini-batch gradient descent) 2.2 理解Mini-batch 梯度下降(Understanding Mini-batch gradient descent) 2.3 指数加权平均(Exponentially weighted averages) 2.
相关文章
相关标签/搜索