初始PyTorch(一):梯度降低

  1、批量梯度降低Batch Gradient Descent: 普通的BGD算法是每次迭代把全部样本都过一遍,每训练一组样本就把梯度更新一次。 简单的一元二次方程:y=wx+b,有时加入噪声。损失函数html def loss(b, w, points): totalError = 0 for i in range(0, len(points)): x = po
相关文章
相关标签/搜索