[改善深度神经网络] Optimization algorithms习题解析

这是[改善深度神经网络]课程第二周的习题,一共10道。 解答: [l]表示第l层,{l}表示第l个minibatch,(l)表示第l个样本。 答案选项3 解答: 选项1是肯定的,一个mini-batch的数据小于总样本,所以仅就一次迭代而言,mini-batch是快于整批迭代的。 一个epoch的mini-batch梯度递减迭代无法完全向量化所有样本,存在for循环,所以速度慢于整批迭代。 min
相关文章
相关标签/搜索