为什么使用miniBatch?

分类和回归的主要区别在于:在分类中,我们预测一个状态,在回归中,我们预测一个值。 批量梯度下降法与随机梯度下降法 到目前为止,我们已经见过两种线性回归方法。 随机梯度下降法:逐个地在每个数据点应用平方(或绝对)误差,并重复这一流程很多次。 具体而言,向数据点应用平方(或绝对)误差时,就会获得可以与模型权重相加的值。我们可以加上这些值,更新权重,然后在下个数据点应用平方(或绝对)误差。 批量梯度下降
相关文章
相关标签/搜索