改善深层神经网络:超参数调试、正则化以及优化 优化算法 第二周

改善深层神经网络:超参数调试、正则化以及优化  优化算法 第二课 1. Mini-batch Batch vs Mini-batch gradient descent Batch就是将所有的训练数据都放到网络里面进行训练,计算量大,硬件要求高。一次训练只能得到一个梯度。 Mini-batch是将训练集分为若干小部分,每次训练都将小部分放到网络里面进行训练。速度快,每个Mini-batch都可以得到
相关文章
相关标签/搜索