deeplearning.ai 笔记 Specialization 2 week 2 优化算法

本周将如何是的自己的算法更快 1.mini-batch梯度下降 同时处理的不再是整个X和Y,而是一部分X^{1}、Y^{1}...这样可以使梯度下降先处理一部分,加快训练速度。 batch来源于整个训练集合训练完成梯度下降,mini-batch是分割数据集后进行多次梯度下降。 epoch 代表完全遍历集合一次,batch只能做一次梯度下降,而mini-batch可以做多次(和分割的大小有关) 2.
相关文章
相关标签/搜索