2.改善深层神经网络-第二周 优化算法

优化算法让神经网络运行的更快,有利于快速训练模型! weight_decay:权重衰减项,防止过拟合的一个参数。 2.1 Mini-batch 梯度下降法 已知向量化可以有效的对所有m个例子进行计算,允许处理整个训练集。但是如果m太大的话,处理速度仍然缓慢。所以要用mini-batch。 对x而言, 对y而言,也要相应的拆分Y的训练集。 输入输出对 batch梯度下降法就是之前的梯度下降法,能够同
相关文章
相关标签/搜索