改善深层神经网络week2学习笔记

1.Mini-Batch Gradient descent Mini-batch每次处理训练数据的一部分,即用其子集进行梯度下降,算法速度会执行的更快。 方法分为两个步骤: Shuffle: 洗牌一般同步打乱原来数据集X和对应标签Y中的数据信息,使得数据随机分散到不同的minibatch中 代码中用到了np.random.permutation()方法作为洗牌方法,对于打乱顺序有两种方法。perm
相关文章
相关标签/搜索