batch_size,iterations,epochs等概念的理解

1.batch_size 深度学习的优化算法,用大白话来说其实主要就是梯度下降算法,而每次的参数权重更新主要有两种方法。 (1)遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度 这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Batch gradient descent,批梯度下降。 (2)stochastic gradie
相关文章
相关标签/搜索