【深度学习】第二阶段 —— 第二课

声明: 此笔记为吴恩达(Andrew Ng)的深度学习课程学习后的总结,会根据自己的学习进度更新。 优化算法 Mini-batch梯度下降法 巨大数据集中一个个数据迭代费事太久,将数据集分为更多的小组(例如:500百万个数据分为5000组一组一千个),对每个组进行迭代 梯度下降中cost的变化图如下: 如何去选择你的mini-batch的大小: ① 当你的mini-batch大小等于样本总数“m”
相关文章
相关标签/搜索