深度学习笔记(四)

在m个样本上的梯度下降 先区分一下损失函数和代价函数的区别:损失函数是在单个样本上;代价函数是在多个样本上,是所有样本误差的平均,也就是损失函数的平均 梯度下降: 迭代公式是:w -= a*dJ(w,b)/dw 在多个样本中,采用for()循环来实现,第一个for循环来实现样本数的变化,第二个for循环来实现对w,b的迭代 向量化 向量化使得算法运行速度更快,来取代for()循环 本质就是将标量运
相关文章
相关标签/搜索