Coursera deeplearning.ai 深度学习笔记2-2-Optimization algorithms-优化算法与代码实现

1. 优化算法 1.1 小批量梯度下降(Mini-batch Gradient Descent) 对于很大的训练集m,可以将训练集划分为T个mini-batch,分批量来学习,这样将第t个mini-batch的参数定义为X{t}、Y{t}。训练流程如下: fort=1,…,TforwardpropagationonX{t},computecostJ{t},backwardpropagationto
相关文章
相关标签/搜索