吴恩达Coursera深度学习课程 deeplearning.ai (2-2) 优化算法--课程笔记

相关课件:https://download.csdn.net/download/haoyutiangang/10495508 2.1 Mini-batch 梯度下降法 原因: 大数据集时,执行一次循环时间很长,梯度下降很慢; mini-batch 是指将大数据集 n分成一系列小数据集m,每计算一个小数据集就执行一次梯度下降,这样一次大数据集的计算可以下降n/m 次,从而增加梯度下降的速度。 执行一
相关文章
相关标签/搜索