DAY7: 神经网络及深度学习基础--算法的优化(deeplearning.ai)

一、 mini-batch gradient descent(批量梯度下降法) mini-batch size的确定(结余1~m之间,有利于充分利用向量化和每次训练部分样本以提高训练速度) ①对于样本总数小于2000个时,用总体的梯度下降法 ②典型的mini-batch size的大小为 2^6=64,2^7=128,2^8=256,2^9=512,为2的次方时有利于GPU/CPU的计算 ③对于每
相关文章
相关标签/搜索